Les exigences de déclaration sont essentielles pour alerter le gouvernement sur les nouvelles fonctionnalités potentiellement dangereuses des modèles d’IA de plus en plus puissants, affirme un responsable du gouvernement américain qui travaille sur les questions d’IA. Le responsable, qui a requis l’anonymat pour s’exprimer librement, souligne l’aveu d’OpenAI concernant le « refus incohérent des demandes de synthèse d’agents neurotoxiques » de son dernier modèle.

Le responsable affirme que l'obligation de déclaration n'est pas trop contraignante. Il fait valoir que, contrairement aux réglementations sur l'IA dans l'Union européenne et en Chine, le décret de Biden reflète « une approche très large et légère qui continue de favoriser l'innovation ».

Nick Reese, qui a été le premier directeur des technologies émergentes du département de la Sécurité intérieure de 2019 à 2023, rejette les affirmations conservatrices selon lesquelles l'obligation de déclaration mettrait en péril la propriété intellectuelle des entreprises. Et il affirme que cela pourrait en fait profiter aux startups en les encourageant à développer des modèles d'IA « plus efficaces sur le plan informatique » et moins gourmands en données qui ne répondent pas au seuil de déclaration.

Le pouvoir de l'IA rend la surveillance gouvernementale impérative, déclare Ami Fields-Meyer, qui a contribué à la rédaction du décret présidentiel de Biden en tant que responsable technologique de la Maison Blanche.

« Nous parlons d’entreprises qui affirment construire les systèmes les plus puissants de l’histoire du monde », explique Fields-Meyer. « La première obligation du gouvernement est de protéger les citoyens. « Faites-moi confiance, nous pouvons le faire » n’est pas un argument particulièrement convaincant. »

Les experts saluent les conseils de sécurité du NIST, qu'ils considèrent comme une ressource essentielle pour intégrer des protections dans les nouvelles technologies. Ils soulignent que des modèles d'IA défectueux peuvent entraîner de graves préjudices sociaux, notamment une discrimination en matière de location et de prêt, ainsi qu'une perte injustifiée de prestations gouvernementales.

Le décret du premier mandat de Trump sur l'IA exigeait que les systèmes d'IA fédéraux respectent les droits civiques, ce qui nécessitera des recherches sur les préjudices sociaux.

Le secteur de l’IA a largement accueilli favorablement le programme de sécurité de Biden. « Ce que nous entendons, c’est qu’il est globalement utile que ces éléments soient clairement définis », a déclaré le responsable américain. Pour les nouvelles entreprises dotées de petites équipes, « cela renforce la capacité de leurs employés à répondre à ces préoccupations ».

Annuler le décret de Biden enverrait un signal alarmant indiquant que « le gouvernement américain va adopter une approche non interventionniste en matière de sécurité de l'IA », déclare Michael Daniel, ancien conseiller présidentiel en matière de cybersécurité qui dirige désormais la Cyber Threat Alliance, une organisation à but non lucratif de partage d'informations.

Quant à la concurrence avec la Chine, les défenseurs de l'EO affirment que les règles de sécurité aideront réellement l'Amérique à l'emporter en garantissant que les modèles d'IA américains fonctionnent mieux que leurs rivaux chinois et sont protégés de l'espionnage économique de Pékin.

Deux chemins très différents

Si Trump remporte la Maison Blanche le mois prochain, attendez-vous à un changement radical dans la manière dont le gouvernement aborde la sécurité de l’IA.

Les républicains veulent prévenir les dommages causés par l’IA en appliquant « les lois existantes en matière de délits et de lois statutaires » plutôt qu’en édictant de nouvelles restrictions générales sur la technologie, explique Helberg, et ils sont favorables à « une plus grande attention portée à la maximisation des opportunités offertes par l’IA, plutôt qu’à une focalisation excessive sur l’atténuation des risques ». Cela signifierait probablement la fin de l’obligation de déclaration et peut-être de certaines des directives du NIST.

L’obligation de déclaration pourrait également faire l’objet de contestations juridiques, maintenant que la Cour suprême a affaibli la déférence que les tribunaux accordaient autrefois aux agences lors de l’évaluation de leurs réglementations.

La résistance du GOP pourrait même mettre en péril les partenariats volontaires de tests d'IA du NIST avec des entreprises de premier plan. « Qu'adviendra-t-il de ces engagements dans une nouvelle administration ? », s'interroge le responsable américain.

Cette polarisation autour de l’IA a frustré les technologues qui craignent que Trump ne compromette la quête de modèles plus sûrs.

« Les promesses de l’IA s’accompagnent de dangers », déclare Nicol Turner Lee, directeur du Centre pour l’innovation technologique de la Brookings Institution, « et il est essentiel que le prochain président continue de garantir la sécurité de ces systèmes. »

Share this post

Articles similaires

24 OCTOBRE 2024

Google, Microsoft et...

Les plus grands moteurs de recherche du Web basés sur l'IA présentent l'idée...

0

23 OCTOBRE 2024

Liquid AI redessine le...

Inspirés par des vers microscopiques, les fondateurs de Liquid AI ont développé un...

0

23 OCTOBRE 2024

Utiliser l'intelligence...

La newsletter AI Unlocked de WIRED sur l'utilisation des chatbots et d'autres...

0

22 OCTOBRE 2024

Anthropic veut que son agent...

Claude est le premier modèle d'IA majeur à pouvoir prendre le contrôle d'un...

0

21 OCTOBRE 2024

Un procès contre Perplexity...

Dans un nouveau procès pour violation du droit d'auteur contre la start-up...

0

17 OCTOBRE 2024

L'orbe de balayage...

Le projet ambitieux de vérification d'identité Worldcoin, désormais appelé...

0

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.