IA Intelligence Artificielle, droit de l'Union européenne, sécurité nationale, DLF Droits et Libertés Fondamentaux, protection des données personnelles, responsabilité juridique de l'IA, AI Act, article 2 du TUE, Digital Services Act, FRIA Fundamental Rights Impact Assessments, droit international, TUE traité sur l'Union européenne
L'intelligence artificielle (IA) est déjà présente dans de nombreux domaines de notre société, de la santé à la finance, en passant par la production et la logistique, et promet de devenir omniprésente dans les années à venir. Toutefois, cette même présence, saluée par de nombreux acteurs des domaines publics ou privés, soulève des questions éthiques et juridiques, en particulier à l'heure où la régulation de l'IA est encore très disparate. Ces systèmes, qui imitent l'intelligence humaine, reposent sur des techniques variées : l'apprentissage automatique, la reconnaissance des formes, et le traitement du langage naturel. Et leurs enjeux le sont tout autant, puisqu'ils concernent la protection des données personnelles, la non-discrimination, la transparence et le domaine de la responsabilité juridique.
[...] Par ailleurs, en octobre de cette année 2023, le Président américain Joe Biden a émis un décret visant à réguler le développement et l'utilisation de l'intelligence artificielle sur tout le territoire fédéral. Ce décret, qui s'appuie sur la loi de Production de défense, doit permettre de lutter contre les externalités produites par les différents types d'IA. Pour ce faire, il a confié à l'Institut national des normes et de la technologie la tâche de créer des normes pour assurer la sécurité des outils d'IA avant leur diffusion publique. [...]
[...] Chacun de ces systèmes présente un risque, car même en l'absence d'intention malveillante, lorsqu'une intelligence artificielle est codée, il est souvent impossible de se rendre compte de ses futures externalités. Or, une fois le système lancé, il est possible qu'il conduise une activité ne respectant pas l'égalité de traitement, la neutralité d'information, la protection de la vie privée ou encore la propriété intellectuelle. La législation de l'Union doit donc permettre que soient menées des études sur les systèmes les plus risqués avant leur lancement, pour éviter qu'une trop grande opacité de leur fonctionnement ne conduise au non-respect des principes sur lesquels repose notre société. [...]
[...] Le Parlement européen prévoit notamment de créer plusieurs commissions et divers organismes aux échelles nationales et supranationales. Ceci qui permettra une répartition des tâches nécessaire, ainsi qu'une garantie d'autonomie pour les États membres de l'Union, qui pourraient décider d'établir des règlements ou législations supplémentaires, afin d'adapter cette norme aux singularités de leurs territoires. Ainsi, le 14 juin 2023, l'AI Act a été adopté après d'âpres négociations, avec 499 votes pour, 28 contres et 93 abstentions. Il est ensuite passé par le Conseil de l'UE, qui partage avec le Parlement la mission de législateur, et un accord devrait être trouvé avant la fin de cette année 2023, dans le mois de décembre qui verra se réunir le « trilogue institutionnel », Commission, Parlement et Conseil de l'UE. [...]
[...] Il s'agit à la fois de rattraper un retard de la législation en la matière, que de prévenir l'apparition de futures zones d'ombre. Aujourd'hui les systèmes d'IA les plus communs qui comportent des risques peuvent être les suivants : Système de recrutement dont les critères initiaux ou les résultats seraient discriminatoires ; système établissant des scores sociaux en fonction des caractéristiques personnelles des individus ; système de reconnaissance biométrique global actif en permanence et à distance ; système d'aide à l'interprétation juridique qui conduit à des prises de décisions déterminantes pour ses utilisateurs ; système à visée éducative utilisé dans la formation d'étudiants pouvant présenter d'important biais sur les notions dispensées ; système génératif de contenu, qu'il soit textuel ou audiovisuel. [...]
[...] Cependant, l'incroyable progression de ces systèmes, dans les domaines publics aussi bien que privés, menace ces principes qui sont les fondements de nos institutions. Le danger provient en particulier d'un usage répressif souhaité par de nombreux pays membres de l'Union, qui ont à plusieurs reprises requis des exemptions concernant le maintien de l'ordre. Ce qui pourrait sembler être une bonne idée, relevant du bon sens, est en même temps un risque de voir se développer une utilisation discriminatoire ou abusive des systèmes d'IA, mettant en péril la démocratie. [...]
Bibliographie, normes APA
Citez le doc consultéLecture en ligne
et sans publicité !Contenu vérifié
par notre comité de lecture