Cette réglementation invite les acteurs de l'IA à faire preuve de transparence sur un certain nombre de cas d'usage :
- le respect des droits d'auteurs
- la certification de l'origine des contenus
- l'interdiction de vol des données
- l'interdiction de diffusion de contenus illicites
Selon certains observateurs, cette réglementation serait l'une des initiatives parmi les plus ambitieuses au monde, voire la plus ambitieuse car l'Union européenne est pionnière en matière de réglementation IA. Pour Thomas Régner, porte-parole de la commission européenne en charge du numérique, l'objectif est de répertorier minutieusement et de manière transparente la provenance originelle du contenu généré par un modèle d'intelligence artificielle à usage général sur l'ensemble des pays membres de l'Union européenne.
Quelle est sa finalité ?
La finalité d'une telle initiative est de faire respecter le droit d'auteur que l'IA pourrait transgresser si aucune régulation n'était introduite selon la commission européenne. Le respect du droit d'auteur suppose donc la l'accord des auteurs à l'origine du contenu IA généré c'est-à-dire l'obtention de leur consentement à ce que leur contenu serve de support à des modèles IA.
De plus, le consentement suppose qu'une partie des revenus générés par le modèle IA soit redistribuée à l'auteur du support originel. Ainsi, le triomphe du droit d'auteur se résume au consentement de l'auteur et à son éventuelle rémunération. Face au relais médiatique mondial, les principaux acteurs de l'IA ont publiquement fait connaître leur position quant à la mise en œuvre progressive de l'IA Act : si Google et Open AI se sont publiquement engagés à se conformer au code de bonne conduite de la commission européenne, le groupe META est catégoriquement réticent à faire de même, qualifiant ces réglementations d'entrave à l'innovation et au progrès par l'IA (citation).
Ces prises de position publiques font émerger la problématique de l 'IA Act : quelle est la réelle valeur juridique de cette réglementation ?
En effet, on constate un réel flou juridique autour de la mise en application et la force de cette nouvelle réglementation. Il semblerait que la valeur de l'IA Act soit davantage incitative (Hubert Étienne) qu'autoritaire et contraignante. Il serait donc nécessaire de décrypter les dispositions du règlement européen sur l'intelligence artificielle (IA) entrées en application en 2025 (fin juillet 2025 pour le second volet du règlement).
Pourquoi l'IA Act en 2025 ?
L'IA Act est perçue comme un tournant dans le secteur de l'intelligence artificielle car il s'agit de l'encadrer, ce qui est une première mondiale : l'Union européenne est pionnière en la matière et forge ainsi son image de puissance régulatrice des innovations numériques et technologiques en provenance des États-Unis et de Chine notamment (les exemples de Chat GPT et Deepseek). Il s'agit donc de la première législation mondiale en matière de régulation et prévention des risques relatifs à l 'intelligence artificielle : la finalité est le contrôle du fonctionnement de l'IA plus précisément la manière dont elle va prendre ses décisions. Ainsi, dans le cadre d'une session numérique de recrutement, une IA est utilisée pour tirer les profils de candidats afin de sélectionner la candidature la plus adéquate pour un poste. L'IA Act va veiller à ce que la sélection effectuée par l'IA n'ait pas été réalisée de manière discriminatoire (article L1132-1 du Code du Travail).
Une approche basée sur la mesure des risques relatifs à l'IA
L'IA Act classifie les risques selon leur degré de dangerosité et de propension à transgresser les droits fondamentaux des individus citoyens de l'Union européenne : la première catégorie concerne les risques intolérables à savoir l'exploitation de la vulnérabilité des individus, la notation sociale, la transgression évidente de leur vie privée. Ce dernier aspect est sujet à débats entre les partisans d'une autorégulation (META, les acteurs nord-américains et leurs relais au sein de l'UE plus généralement) et les partisans d'une IA strictement encadrée. Les débats sont axés autour des conséquences sur la compétitivité du marché européen.
La seconde catégorie de risque est de nature modérée et concerne des situations courantes d'utilisation de l' IA qui peuvent s'avérer problématique comme le traitement des données relatives à un système d'évaluation d'une personne en vue d'un poste.
La troisième catégorie de risque est relativement limitée car le danger n'est pas immédiat et la problématique est surtout axée sur la transparence et la bonne foi. Par exemple, les internautes doivent être avertis en amont lorsqu'ils interagissent avec un chatbot (une machine IA).
Enfin, la quatrième et dernière catégorie de risque concerne les risques systémiques causés par les modèles IA à usage général. Pour prévenir cela, les fournisseurs d'IA sont contraints à un certain nombre d'obligations parmi lesquelles la rédaction et la fourniture d'une documentation technique, la description généralisée du modèle d'intelligence artificielle, des politiques d'usage, des tâches privées, la date de publication, l'architecture de la licence. L'IA acte s'adresse à une multitude d'acteurs mais il faut concéder que les fournisseurs de modèles IA sont les plus concernés. Ces derniers introduisent leurs systèmes IA sur le marché européen sans être établis juridiquement et physiquement au sein de l'Union européenne. Cette nouvelle réglementation permet donc de cibler également les acteurs non établis dans l'UE, l' IA Act a donc une dimension extraterritoriale (acteurs publics, privés).
L'IA Act, une contrainte ou une opportunité ?
Cette réglementation peut être perçue comme à la fois contraignante et prometteuse : certes, la majorité des dispositions de la réglementation ne s'imposent pas aux acteurs (Pierre Hubert) mais, il existe certaines mesures d'autorité telles que le coût de conformité, l'imposition de procédures administratives fastidieuses telles que l'obligation pour le fournisseur d'enregistrer en amont de l'introduction sur le marché, tout système d'IA hautement risqué dans la base de données européenne. La dernière contrainte est le ralentissement potentiel à l'innovation du fait des normes administratives intégrées à la réglementation européenne de l'IA. Donc, les acteurs qui dénoncent une entrave à la flexibilité de maniabilité de l'IA défendent une position pertinente. Néanmoins, s'ils parviennent à exploiter les aspects bénéfiques de la régulation, c'est-à-dire en faire une force. Concrètement, les entreprises qui se conforment à la réglementation pourront s'ériger en instigateurs de modèles d'IA responsables et éthiques. Les répercussions sur l'image des sociétés ne pourront qu'être bénéfiques…









