Propos introductifs

Cette loi est tout d’abord remarquable en ce qu’elle constitue le tout premier cadre législatif entier qui intéresse l’intelligence artificielle (IA) de frontière. Cette loi a été proposée par Scott Wiener, sénateur démocrate, et fut acceptée par Gavin Newsom, le gouverneur de Californie après avoir initialement essuyé un véto de sa part l’année dernière. 

Il s’agit principalement de réglementer de manière plus contraignante les géants de la tech qui sont installés en Californie. Cette loi a pour ambition d’accroître la transparence des développeurs d’intelligence artificielle mais aussi d’intensifier leur responsabilité. Elle vise aussi à éviter les risques concernant la sécurité publiques (il peut s’agir de l’utilisation malveillante de l’IA, ou bien encore la perte de contrôle des systèmes). 

Il est donc intéressant, de prime abord, de retenir que cette nouvelle loi met en place un cadre juridique contraignant pour les géants de la tech qui devront, dorénavant, respecter les obligations qui en découlent.

Que prévoit cette loi ?

Cette loi constitue une étape importante qui permet « [d’]encourager l’innovation tout en protégeant la sécurité publique ».

Son contenu a été préparé par un ensemble d’experts et de politiques et fait suite à un premier échec rencontré devant le gouverneur californien. Celui-ci, en effet, considérait son contenu comme étant trop contraignant. La crainte principale résidait dans une possible « fuite des cerveaux » alors même que l’Etat américain se situe en pôle position dans le cadre de l’innovation par l’intelligence artificielle et récolte les fruits (colossaux) de cette révolution. 

Ce nouveau texte adopté contraint dorénavant les développeurs d’IA les plus avancés, tels que Google ou encore OpenAI (dans tous les cas les entreprises dont les revenus dépassent les 500 millions de dollars par an), à publier les protocoles de sécurité qu’ils ont mis en place. Ces entreprises seront contraintes de communiquer tous les accidents considérés comme les plus graves sous quinzaine à compter du jour de leur survenue. La loi prévoit en outre que pour le cas où une société méconnaît cette obligation, l’amende dont elle peut faire l’objet peut atteindre la somme d’un million de dollars. 

Elles seront également contraintes d’instaurer des dispositifs afin que les lanceurs d’alerte soient protégés. Pour être plus exact, il s’agit de lanceurs l’alerte internes, des employés de ces sociétés donc, qui informent des risques majeurs aussi bien pour la santé que pour la sécurité publiques. 

Régulation et rivalités technologiques

Cette loi est également intéressante à relever dans la mesure où elle s’inscrit en parfaite contradiction avec les volontés politiques du Président américain, Donald Trump. Celui-ci, et son administration, sont en effet farouchement opposés à toute forme de régulation en la matière, arguant ici des rivalités qui existent avec la très puissante Chine dans ce domaine.

Dans tous les cas, force est constater que la Californie a fait un choix différent et qui a permis d’allier à la fois la protection du public et l’innovation. 

Pour clore, que retenir de cette loi ?

S’il s’agit en effet d’une loi d’un État américain, force est tout de même de constater que celle-ci revêt la nature d’un nouveau modèle en matière de risques inhérents à l’intelligence artificielle, modèle qui devrait servir de base à bien d’autres législateurs de par le monde afin d’encadrer la technologie existante et ses menaces. 

De même, par son contenu et des nouvelles obligations qui doivent être respectées par les toutes les sociétés concernées, il s’agit d’une loi remarquable concernant l’instauration d’un niveau élevé de gouvernance desdites entreprises. 

Cette loi californienne vise en fin de compte à permettre l’instauration et l’application d’un environnement particulier qui permet d’atténuer l’écart trop souvent observé et déploré entre l’innovation sans cesse en mouvement et les aptitudes du droit à demeurer à jour dans l’objectif de prémunir la société des risques les plus importants. 

In fine, il apparaît intéressant de relever le fait que, pour Scott Wiener, ce texte doit attirer l’attention sur les protocoles de sécurité des sociétés qui développent ces technologies. 

L’Union européenne prendra-t-elle acte du contenu de cette loi pour importer tout ou partie de ses dispositifs, ou pour parfaire d’une autre manière la législation qu’elle a mise en place en la matière ?

Références

https://www.ddg.fr/actualite/la-loi-californienne-sb-53-un-nouveau-standard-mondial-pour-la-transparence-et-la-securite-des-modeles-d-ia-de-frontiere

https://www.lemonde.fr/economie/article/2025/09/30/intelligence-artificielle-une-loi-majeure-de-regulation-promulguee-en-californie_6643552_3234.html

https://www.bfmtv.com/tech/intelligence-artificielle/la-californie-vient-d-adopter-une-loi-sur-l-intelligence-artificielle-qui-doit-encourager-l-innovation-et-proteger-la-securite-publique_AN-202509300654.html