Le gouvernement américain avance sur l’encadrement de l’IA

Le président américain Joe Biden a récemment signé un executive order, ou décret présidentiel, visant à encadrer et limiter les risques liés au développement de l’intelligence artificielle (IA). Cette décision fait suite à une rencontre entre le président et des responsables de sociétés développant des IA en juillet dernier.

Garde-fous évoqués lors d’une rencontre à la Maison Blanche

Au cours de cette rencontre, plusieurs domaines ont été étudiés afin de protéger les citoyens, notamment en matière de cybersécurité et de respect des droits humains. Ces textes sont désormais contraignants pour les acteurs concernés et démontrent la volonté de placer les États-Unis comme leader dans la régulation de l’intelligence artificielle générative.

Nouvelles obligations pour les géants du secteur

Avec ce décret, OpenAI, Google et autres entreprises du secteur devront transmettre à l’administration américaine les résultats des tests de sécurité réalisés lors du développement de leurs modèles d’IA générative, dès lors que ces projets présentent “un risque sérieux en termes de sécurité nationale, de sécurité économique nationale, ou de santé publique”.

Le monde à la recherche de régulation pour se protéger des risques

Cette décision intervient alors que d’autres pays cherchent également à encadrer l’usage de l’intelligence artificielle. Le Royaume-Uni organise notamment un grand sommet consacré aux risques liés à l’IA, auquel plusieurs dirigeants internationaux doivent participer. Le Premier ministre britannique Rishi Sunak a déclaré lors d’une conférence que pour “réaliser les promesses de l’IA et éviter les risques, nous devons gouverner cette technologie”. Il est évident que la volonté de régulation de l’intelligence artificielle gagne du terrain sur la scène internationale.

Protéger les citoyens face aux robots tueurs

Parmi les défis posés par l’intelligence artificielle, celui des robots tueurs préoccupe particulièrement les instances gouvernementales et les citoyens. Des manifestations ont eu lieu, comme celle organisée devant la Porte de Brandebourg à Berlin en 2019, pour alerter sur les dangers potentiels de ces technologies et réclamer une régulation adéquate. La semaine dernière, le Groupe AXA publiait une étude qui positionne l’intelligence artificielle parmi les risques majeurs pour l’Humanité.

Quelles sont les prochaines étapes ?

Maintenant que le décret présidentiel a été signé par Joe Biden, il sera intéressant de suivre l’évolution de la situation aux États-Unis ainsi que dans les autres pays cherchant également à réguler l’intelligence artificielle. Les discussions lors du sommet britannique permettront peut-être de mieux comprendre les attentes et les objectifs de chacun en matière de régulation de cette technologie qui soulève à la fois enthousiasme et inquiétudes.

Vers une collaboration internationale pour encadrer l’IA ?

La question de la coopération entre les nations pour encadrer le développement et l’utilisation de l’intelligence artificielle pourrait également être mise sur la table. Il semble en effet essentiel que les différentes instances travaillent conjointement à établir des règles communes, afin d’éviter une course effrénée aux innovations technologiques sans réelle prise en compte des enjeux éthiques et sécuritaires.

Laisser un commentaire