Posted by: mkraft Category: IA Tags: , , , , , , , Comments: 0

Le président américain Joe Biden a émis un décret présidentiel visant à établir de nouvelles directives pour la sécurité et la sûreté de l’intelligence artificielle (IA). Ces directives incluent des exigences pour les entreprises développant des modèles d’IA fondamentaux, les obligeant à informer le gouvernement fédéral et à partager les résultats de tous les tests de sécurité avant de les déployer auprès du public.

L’avancée rapide de l’IA générative, menée par des modèles tels que ChatGPT et les modèles d’IA fondamentaux développés par OpenAI, a suscité un débat mondial sur la nécessité de garde-fous contre les écueils potentiels liés à un contrôle excessif par les algorithmes. En mai, les dirigeants du G7 ont identifié des thèmes cruciaux à aborder dans le cadre du processus Hiroshima AI, aboutissant à un accord sur les principes directeurs et un code de conduite volontaire pour les développeurs d’IA.

Récemment, les Nations Unies (ONU) ont créé un nouveau comité pour explorer la gouvernance de l’IA, tandis que le Royaume-Uni organise un sommet mondial sur la gouvernance de l’IA à Bletchley Park, avec la participation prévue de la vice-présidente américaine Kamala Harris.

En l’absence de mesures juridiquement contraignantes, l’administration Biden-Harris s’est concentrée sur la sécurité de l’IA, obtenant des engagements volontaires de la part des principaux développeurs d’IA, dont OpenAI, Google, Microsoft, Meta et Amazon. Le décret présidentiel, qui est annoncé aujourd’hui, formalise ces efforts.

Le décret stipule que les développeurs des systèmes d’IA les plus puissants doivent partager leurs résultats de tests de sécurité et les données associées avec le gouvernement américain. Il vise à protéger les Américains contre les risques potentiels liés à l’IA.

En se concentrant sur tout modèle fondamental qui pourrait représenter un risque pour la sécurité nationale, la sécurité économique ou la santé publique, le décret aligne ces nouvelles normes de sécurité et de sûreté de l’IA sur la Loi sur la production de défense de 1950. De plus, il prévoit le développement d’une variété d’outils et de systèmes afin de garantir la sécurité et la fiabilité de l’IA. De nouvelles normes incluant des tests de type « red team » approfondis seront développés par l’Institut national des normes et de la technologie (NIST).

Le décret présidentiel traite de plusieurs directives et normes, telles que la protection contre les risques liés à l’utilisation de l’IA pour produire des matériaux biologiques dangereux, la prévention de la fraude et de la tromperie alimentées par l’IA, ainsi que la création d’un programme de cybersécurité pour développer des outils d’IA pour traiter les vulnérabilités des logiciels essentiels.

Le décret traite également des questions d’équité et de droits civils, en particulier la manière dont l’IA peut exacerber la discrimination et les biais dans des domaines tels que la santé, la justice et le logement, ainsi que les menaces que l’IA pose en ce qui concerne la surveillance sur le lieu de travail et le déplacement des emplois. Cependant, certains pourraient considérer que le décret manque de portée en termes d’applicabilité, car de nombreux aspects semblent se concentrer sur des recommandations et des directives.

Alors que l’Europe se rapproche de l’adoption de réglementations exhaustives sur l’IA, il est évident que le reste du monde cherche également des moyens de gérer les profondes perturbations sociétales provoquées par l’IA. L’impact que le décret présidentiel du président Biden aura sur des organisations telles que OpenAI, Google, Microsoft et Meta reste à déterminer.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *