Une potentielle loi californienne sur l'IA divise la Silicon Valley
Un projet de loi pour encadrer les puissants modèles d'intelligence artificielle (IA) générative progresse en Californie, malgré l'opposition d'entreprises et d'élus qui craignent qu'une telle régulation n'étouffe la technologie naissante.
En tête, OpenAI, le créateur de ChatGPT, s'est prononcé contre le texte SB 1047, assurant qu'il risquait de faire fuir les innovateurs de l'Etat américain et sa fameuse Silicon Valley alors que "la révolution de l'IA commence à peine".
Dans une lettre adressée cette semaine à l'élu démocrate qui parraine le projet de loi, Scott Wiener, OpenAI ajoute qu'une législation nationale lui semble préférable à un patchwork de règlementations.
L'Assemblée californienne est censée voter sur la proposition avant la fin du mois, et si elle est adoptée ce sera au tour du gouverneur Gavin Newsom de se prononcer.
Il n'a pas encore pris position publiquement, mais le camp démocrate n'est pas uni sur cette question.
"Beaucoup d'entre nous au Congrès pensent que la loi SB 1047 est bien intentionnée mais mal informée" a déclaré Nancy Pelosi, une des voix les plus influentes du parti, dans un communiqué.
"Nous voulons que la Californie soit à la pointe de l'IA d'une manière qui protège les consommateurs, les données, la propriété intellectuelle et bien plus encore. (...) SB 1047 nuit à cette fin plus qu'elle n'y contribue", a ajouté la représentante au Congrès.
- "Risques prévisibles" -
Baptisée "Loi pour une innovation sûre dans les modèles d'IA pionniers", la proposition vise à empêcher les grands modèles de causer des catastrophes majeures, entraînant la mort d'un grand nombre de personnes ou des incidents de cybersécurité conséquents.
Scott Wiener a néanmoins assoupli le texte d'origine, suivant notamment les conseils d'un concurrent d'OpenAI, Anthropic, une start-up aussi basée à San Francisco.
La version actuelle accorde moins de pouvoir qu'initialement prévu aux autorités californiennes pour obliger les sociétés d'IA à rendre des comptes ou pour les poursuivre en justice.
Les développeurs de grands modèles d'IA devront tester leurs systèmes et simuler des cyberattaques, sous peine d'amendes, mais sans la menace de conséquences pénales.
La création d'une nouvelle agence de régulation a été annulée, mais la loi fonderait quand même un conseil chargé de déterminer des normes pour les modèles les plus avancés.
"Le Congrès étant bloqué sur la réglementation de l'IA, la Californie doit agir pour anticiper les risques prévisibles présentés par les progrès rapides de l'IA tout en encourageant l'innovation", a déclaré M. Wiener dans un communiqué.
L'IA générative permet actuellement de produire des contenus de bonne facture (textes, images, etc.) sur simple requête en langage courant. Mais elle a le potentiel, selon les ingénieurs impliqués, d'aller beaucoup plus loin, et donc de résoudre des problèmes importants mais aussi d'en causer.
- "Irréalistes" -
Le projet de loi amendé est "considérablement amélioré, au point que nous pensons que ses avantages l'emportent probablement sur ses coûts", a déclaré Anthropic mercredi dans une lettre adressée à Gavin Newsom.
"Les puissants systèmes d'IA sont incroyablement prometteurs, mais ils présentent des risques également très réels, qui doivent être pris très au sérieux", a de son côté souligné l'informaticien Geoffrey Hinton, considéré comme le "parrain de l'IA", dans une tribune du magazine Fortune.
"La loi SB 1047 représente une approche très raisonnable pour équilibrer ces préoccupations", a-t-il continué, estimant que la Californie est l'endroit idéal pour commencer à réguler cette technologie.
Mais des organisations représentant Google et Meta (Facebook, Instagram), des chercheurs reconnus comme Fei-Fei Li, de l'université de Stanford, et des professeurs et étudiants de l'université CalTech ont fait part de leur opposition au projet de loi.
Il "impose des réglementations lourdes et irréalistes sur le développement de l'IA" et constitue donc "une menace importante pour notre capacité à faire avancer la recherche", a déclaré sur X (ex-Twitter) Anima Anandkumar, professeure à CalTech.
Elle estime qu'il est difficile, voire impossible, de prévoir toutes les utilisations néfastes possibles d'un modèle d'IA, en particulier les versions dites "open source", dont le code peut être modifié par les utilisateurs.
"Le projet de loi néglige l'importance de se concentrer sur les applications développées en aval et ne prend pas en compte les recherches actuelles sur des enjeux inhérents aux modèles d'IA tels que les préjugés et les hallucinations."
K.Adams--MC-UK