Los patronos de la IA advierten: la “inteligencia” artificial debe probarse y regularse

Los padrinos de la IA advierten de consecuencias devastadoras si los programas se descontrolan. Existen riesgos potenciales asociados a la persecución por parte de la IA de objetivos que entran en conflicto con los valores humanos

Destacados expertos en IA, entre ellos Sam Altman, director general de OpenAI, han publicado una declaración en la que piden que la mitigación de los riesgos potenciales de la IA sea tan prioritaria como una guerra nuclear o una pandemia.

La concisa declaración, hecha pública por una organización paraguas de líderes en IA, pretende reavivar el debate y concienciar al creciente número de expertos preocupados por los graves riesgos asociados a la IA avanzada.
Entre los firmantes figuran figuras destacadas como Geoffrey Hinton y Yoshua Bengio, dos de los tres “padrinos de la IA”, así como Demis Hassabis, CEO de DeepMind de Google, y Dario Amodei, CEO de la empresa de IA Anthropic, informa DW.

La declaración se produce en un momento en que políticos y líderes del sector tecnológico se reúnen en Suecia con motivo del Consejo de Comercio y Tecnología UE-EE.UU. para debatir la regulación de la IA.

Se espera que Altman, de OpenAI, se reúna con Thierry Breton, responsable de Industria de la UE, para debatir la aplicación de la próxima normativa comunitaria sobre IA. Altman había expresado anteriormente su preocupación por las normas propuestas, pero desde entonces ha suavizado su postura.

Aunque la declaración no aborda riesgos específicos ni estrategias de mitigación, sí hace referencia a los recientes comentarios de Yoshua Bengio que señala los riesgos potenciales asociados a la persecución por parte de la IA de objetivos que entran en conflicto con los valores humanos.

Entre estos riesgos cabe citar la posibilidad de que agentes humanos malintencionados den instrucciones a la IA para que realice actividades perjudiciales, la interpretación errónea de objetivos especificados de forma inadecuada, la aparición de subobjetivos con consecuencias adversas y el desarrollo de comportamientos egoístas por parte de la IA para garantizar su propia supervivencia.

Bengio propone aumentar la investigación sobre la seguridad de la IA, restringir temporalmente su persecución de objetivos reales y prohibir las armas autónomas letales.
La declaración y las conclusiones de Bengio contribuyen al diálogo en curso sobre la ética de la IA y la necesidad de un desarrollo y una regulación responsables para garantizar que se maximizan los beneficios de la IA al tiempo que se minimizan los riesgos potenciales.

Salir de la versión móvil