Consultez
tous nos documents
en illimité !

ABONNEZ-VOUS

à partir de
9.95 €
sans engagement
de durée

Voir les offres

AI Act - ce qu'il faut savoir sur l'accord européen

En quoi consiste l'accord d'AI Act ? Quels sont les enjeux politiques et économiques de cet accord ? Quelles sont les conséquences, tant pour les entreprises UE que pour les entreprises hors UE ? Décryptage dans cet article.

AI Act - ce qu'il faut savoir sur l'accord européen

AI Act - Union Européenne

En Avril 2021, la Commission Européenne avait présenté le tout premier ensemble de règles de l'Union Européenne régissant l'intelligence artificielle. Il s'agit en effet d'une évaluation et d'une classification des systèmes d'IA à diverses échelles, en fonction du niveau de risque qu'ils présentent pour les utilisateurs. Les différents niveaux de risque entraîneront une réglementation plus ou moins stricte. Une fois approuvées, ces règles vont constituer le premier cadre réglementaire au monde en matière d'IA.

Le 13 mars 2024, le projet de règlement européen est adopté par le parlement européen, par 523 voix pour et 46 contre.


Qu'est-ce que l'AI Act ?

Après trois jours de discussions acharnées en décembre 2023, les États membres de l'UE et le Parlement Européen ont abouti à ce qu'ils appellent un "consensus politique", marquant une avancée significative dans l'encadrement et l'utilisation de l'intelligence artificielle (ou IA) en Europe. Considéré comme une première mondiale, cet accord vise à stimuler l'innovation tout en encadrant les éventuelles dérives liées à ces technologies. Une initiative qualifiée « Historique » selon le commissaire européen Thierry Bretton, qui s'est d'ailleurs félicité à l'entame dudit projet. De même, la présidente du Parlement Européen Roberta Metsola a salué l'initiative en ces termes : « une législation avant-gardiste, responsable et globale qui fixe des standards mondiaux ».

En effet, la principale préoccupation du Parlement est de garantir que les systèmes d'IA utilisés dans l'Union Européenne sont sécurisés, transparents, non discriminatoires et surtout respectueux de l'environnement. De fait, il préconise la supervision humaine plutôt que l'automatisation pour éviter des conséquences néfastes. Par ailleurs, le Parlement Européen aspire à élaborer une définition neutre et uniforme de l'IA qui puisse être appliquée aux futurs systèmes d'IA en Europe. Suite à cette première, d'autres initiatives, dont le que le plan coordonné pour l'intelligence artificielle, sont en vue.

Quels sont les enjeux politiques et économiques ?

À l'entame de cet effort de régulation de l'IA par l'UE, les discussions ont été rudes et se concentrent principalement sur les "systèmes à haut risque". Ces derniers désignent les IA dont l'utilisation pourrait avoir des répercussions sur la sécurité, les droits fondamentaux et même la démocratie au sein de l'Union. Du coup, les développeurs de technologies destinées à ces domaines à haut risque sont soumis à des obligations de transparence rigoureuses quant à leur fonctionnement.

Mieux, les discussions actuelles intègrent la notion des IA génératives à la demande des membres du Parlement ; ces derniers exigent un encadrement spécifique pour ce type de technologies. Ils réclament particulièrement une plus grande transparence sur les algorithmes et les bases de données de ces systèmes. De leur côté, les pays membres font part de leurs inquiétudes quant à une régulation on ne peut plus excessive, redoutant que celle-ci ne compromette le développement des nouvelles innovations. En revanche, les règles de l’AI Act ne s’appliquent pas aux modèles de Open Source, dont les paramètres sont déjà rendus publics.

Quelles sont les conséquences pour les entreprises ?

Comme mentionné plus haut, et selon certains acteurs du domaine de la tech, le nouveau cadre réglementaire est susceptible de freiner l'innovation des entreprises européennes, entravant ainsi leur capacité à développer et commercialiser des inventions liées à l'IA. Les entreprises européennes pourraient être confrontées à des coûts de développement supplémentaires pour se conformer aux exigences de l’accord. Ces implications financières pourraient rendre la mise en place des innovations européennes plus onéreuse par rapport aux concurrents internationaux. En conséquence, l'Europe risque de ne pas être compétitive sur le marché de l'IA. Cela laisserait le champ libre à des entreprises étrangères, notamment américaines, pour dominer le marché. C'est justement ce que de nombreux acteurs européens souhaitent éviter pour l'Europe. Ainsi, pour rétablir l'équilibre, le présent texte élabore des régulations en fonction des niveaux de risque. À mesure que les risques associés à un modèle d'IA augmentent pour les utilisateurs de l'Union Européenne, les obligations y associées sont renforcées.

Quid des interdictions ?

Bien que le document reflète les principes des régulations de sécurité des produits déjà en vigueur dans l'Union Européenne, les restrictions ne sont pas fréquentes. Le noyau du projet repose sur une série de règles appliquées exclusivement aux systèmes considérés "à haut risque". Il s'agit notamment de ceux utilisés dans les secteurs sensibles tels que la santé, l'éducation, les ressources humaines, le maintien de l'ordre, etc.

Ces systèmes seront assujettis à diverses obligations, notamment la nécessité d'un contrôle humain sur la machine, l'établissement de documentation technique, ainsi que la mise en place d'un système de gestion des risques. La législation prévoit aussi une supervision particulière des systèmes d'IA interagissant avec les individus, exigeant qu'ils informent l'utilisateur de leur interaction avec une machine. En revanche, des exemptions ont été accordées aux États pour certaines missions des forces de l'ordre, notamment en ce qui concerne la lutte contre le terrorisme.

À la différence des codes de conduite volontaires de certains pays, la législation européenne sera assortie de mécanismes de surveillance et de sanctions à travers la création d'un bureau européen de l'IA au sein de la Commission Européenne. Celui-ci aura le pouvoir d'infliger des amendes atteignant jusqu'à 7% du chiffre d'affaires des entreprises, avec un minimum de 35 millions d'euros, pour les infractions les plus graves.

Besoin d'un tuteur ? Nous pouvons vous aider !

Obtenir de l'aide pour mon devoir