L’accord sur la loi sur l’IA solidifie l’une des premières tentatives globales au monde pour limiter l’utilisation de l’intelligence artificielle.
Par Adam Satariano
Les décideurs politiques de l’Union européenne se sont mis d’accord vendredi sur une nouvelle loi radicale visant à réglementer l’intelligence artificielle, l’une des premières tentatives globales au monde pour limiter l’utilisation d’une technologie en évolution rapide qui a de vastes implications sociétales et économiques.
La loi, appelée A.I. Act, établit une nouvelle référence mondiale pour les pays qui cherchent à exploiter les avantages potentiels de la technologie, tout en essayant de se protéger contre ses risques possibles, comme l’automatisation des emplois, la diffusion de fausses informations en ligne et la mise en danger de la sécurité nationale. La loi doit encore franchir quelques étapes finales avant d’être approuvée, mais l’accord politique signifie que ses grandes lignes ont été définies.
Les décideurs politiques européens se sont concentrés sur les utilisations les plus risquées de l’IA par les entreprises et les gouvernements, y compris celles pour l’application de la loi et l’exploitation de services cruciaux comme l’eau et l’énergie. Les fabricants des plus grands systèmes d’IA à usage général, comme ceux qui alimentent le chatbot ChatGPT, seraient confrontés à de nouvelles exigences de transparence. Les chatbots et les logiciels qui créent des images manipulées telles que les « deepfakes » devraient indiquer clairement que ce que les gens voient a été généré par l’IA, selon les responsables de l’UE et les versions antérieures de la loi.
L’utilisation des logiciels de reconnaissance faciale par la police et les gouvernements serait restreinte en dehors de certaines exemptions en matière de sécurité et de sécurité nationale. Les entreprises qui enfreignent la réglementation s’exposent à des amendes allant jusqu’à 7 % de leurs ventes mondiales.
« L’Europe s’est positionnée comme un pionnier, comprenant l’importance de son rôle de normalisateur mondial », a déclaré Thierry Breton, le commissaire européen qui a participé à la négociation de l’accord, dans un communiqué.
Pourtant, même si la loi a été saluée comme une percée réglementaire, des questions subsistaient quant à son efficacité. De nombreux aspects de la politique ne devraient pas entrer en vigueur avant 12 à 24 mois, ce qui représente une période considérable pour le développement de l’IA. Et jusqu’à la dernière minute des négociations, les décideurs politiques et les pays se sont disputés sur son langage et sur la manière de trouver un équilibre entre la promotion de l’innovation et la nécessité de se prémunir contre d’éventuels préjudices.
L’accord conclu à Bruxelles a nécessité trois jours de négociations, dont une première session de 22 heures qui a commencé mercredi après-midi et s’est prolongée jusqu’à jeudi. L’accord final n’a pas été rendu public dans l’immédiat, car les pourparlers devaient se poursuivre en coulisses pour finaliser les détails techniques, ce qui pourrait retarder l’adoption finale. Les votes doivent avoir lieu au Parlement et au Conseil européen, qui comprend des représentants des 27 pays de l’Union.
La réglementation de l’IA est devenue urgente après la sortie de ChatGPT l’année dernière, qui est devenue une sensation mondiale en démontrant les capacités avancées de l’IA. Aux États-Unis, l’administration Biden a récemment publié un décret axé en partie sur les effets de l’IA sur la sécurité nationale. La Grande-Bretagne, le Japon et d’autres pays ont adopté une approche moins interventionniste, tandis que la Chine a imposé certaines restrictions sur l’utilisation des données et les algorithmes de recommandation.
Ce qui est en jeu, ce sont des milliers de milliards de dollars de valeur estimée, car l’IA devrait remodeler l’économie mondiale. « La domination technologique précède la domination économique et la domination politique », a déclaré cette semaine Jean-Noël Barrot, ministre français du Numérique.
L’Europe a été l’une des régions les plus avancées en matière de réglementation de l’IA, ayant commencé à travailler sur ce qui allait devenir la loi sur l’IA en 2018. Ces dernières années, les dirigeants de l’UE ont tenté d’apporter un nouveau niveau de surveillance à la technologie, semblable à la réglementation des secteurs des soins de santé ou des banques. Le bloc a déjà promulgué des lois de grande portée relatives à la confidentialité des données, à la concurrence et à la modération des contenus.
Une première ébauche de la loi sur l’IA a été publiée en 2021. Mais les décideurs politiques se sont retrouvés à réécrire la loi au fur et à mesure que des percées technologiques émergeaient. La version initiale ne faisait aucune mention de modèles d’IA à usage général comme ceux qui alimentent ChatGPT.
Les décideurs politiques ont convenu de ce qu’ils ont appelé une « approche basée sur les risques » pour réglementer l’IA, où un ensemble défini d’applications fait l’objet du plus grand nombre de surveillance et de restrictions. Les entreprises qui fabriquent des outils d’IA qui présentent le plus de dommages potentiels aux individus et à la société, tels que l’embauche et l’éducation, devraient fournir aux régulateurs la preuve des évaluations des risques, la ventilation des données utilisées pour former les systèmes et l’assurance que le logiciel n’a pas causé de préjudice, comme la perpétuation des préjugés raciaux. Une supervision humaine serait également nécessaire lors de la création et du déploiement des systèmes.
Certaines pratiques, telles que l’extraction aveugle d’images sur Internet pour créer une base de données de reconnaissance faciale, seraient purement et simplement interdites.
Le débat sur l’Union européenne a été controversé, signe de la façon dont l’IA a embrouillé les législateurs. Les responsables de l’UE étaient divisés sur la profondeur de la réglementation des nouveaux systèmes d’intelligence artificielle, de peur d’handicaper les start-ups européennes qui tentent de rattraper les entreprises américaines comme Google et OpenAI.
La loi a ajouté des exigences pour les fabricants des plus grands modèles d’IA de divulguer des informations sur le fonctionnement de leurs systèmes et d’évaluer le « risque systémique », a déclaré M. Breton.
La nouvelle réglementation sera suivie de près à l’échelle mondiale. Ils affecteront non seulement les principaux développeurs d’IA comme Google, Meta, Microsoft et OpenAI, mais aussi d’autres entreprises qui devraient utiliser la technologie dans des domaines tels que l’éducation, les soins de santé et les banques. Les gouvernements se tournent également davantage vers l’IA dans la justice pénale et l’attribution des prestations publiques.
L’application de la loi reste floue. La loi sur l’IA impliquera les régulateurs de 27 pays et exigera l’embauche de nouveaux experts à un moment où les budgets gouvernementaux sont serrés. Des contestations judiciaires sont probables à mesure que les entreprises testent les nouvelles règles devant les tribunaux. Les législations précédentes de l’UE, y compris la loi historique sur la protection de la vie privée numérique connue sous le nom de Règlement général sur la protection des données, ont été critiquées pour leur application inégale.
« Les prouesses réglementaires de l’UE sont remises en question », a déclaré Kris Shrishak, chercheur principal au Conseil irlandais pour les libertés civiles, qui a conseillé les législateurs européens sur la loi sur l’IA. « Sans une application forte, cet accord n’aura aucun sens. »
Source : New york Times