Les parrains de l’IA mettent en garde : l'”intelligence” artificielle doit être contrôlée et réglementée

Les parrains de l'IA mettent en garde contre les effets dévastateurs si les programmes échappent à tout contrôle.

D’éminents experts en IA, dont le PDG d’OpenAI, Sam Altman, ont publié une déclaration dans laquelle ils demandent que l’atténuation des risques potentiels de l’IA soit une priorité aussi importante qu’une guerre nucléaire ou une pandémie. Cette déclaration concise, publiée par une association faîtière de dirigeants de l’IA, vise à stimuler le débat et à sensibiliser le nombre croissant d’experts qui s’inquiètent des risques graves liés à l’IA avancée. Parmi les signataires figurent des personnalités de premier plan comme Geoffrey Hinton et Yoshua Bengio, deux des trois “parrains de l’IA”, ainsi que Demis Hassabis, PDG de DeepMind de Google, et Dario Amodei, PDG de l’entreprise d’IA Anthropic, comme le rapporte DW.

Cette déclaration intervient au moment où des responsables politiques et des leaders du secteur technologique se réunissent en Suède pour la réunion du Conseil Commerce et Technologie UE-USA afin de discuter de la réglementation de l’IA. Altman d’OpenAI devrait rencontrer le chef de l’industrie de l’UE, Thierry Breton, pour discuter de la mise en œuvre de la prochaine législation européenne sur l’IA. Altman avait précédemment fait part de ses inquiétudes quant aux règles proposées, mais a depuis modéré sa position.

Bien que la déclaration n’aborde pas les risques spécifiques ou les stratégies d’atténuation des risques, elle fait référence aux récentes déclarations de Yoshua Bengio, qui souligne les risques potentiels liés à la poursuite d’objectifs par l’IA qui entrent en conflit avec les valeurs humaines. Ces risques comprennent les acteurs humains malveillants qui ordonnent à l’IA d’entreprendre des activités nuisibles, la mauvaise interprétation d’objectifs spécifiés de manière inappropriée, l’émergence de sous-objectifs aux conséquences néfastes et le développement par l’IA d’un comportement égoïste pour assurer sa propre survie.

Bengio propose d’intensifier la recherche dans le domaine de la sécurité de l’IA, de limiter temporairement la poursuite de cibles réelles par l’IA et d’interdire les armes autonomes létales. La déclaration et les conclusions de Bengio contribuent au dialogue en cours sur l’éthique de l’IA et la nécessité d’un développement et d’une réglementation responsables afin de garantir que les avantages de l’IA soient maximisés tout en minimisant les risques potentiels.

Quitter la version mobile