La commission du Parlement européen exposera sa position sur les négociations à venir avec les États membres de l’UE visant à adopter des lois pour empêcher l’abus de l’intelligence artificielle, tout en laissant une marge d’innovation.
Le bloc vise à devenir un pionnier mondial de la réglementation de la technologie, ce qui a suscité l’intérêt du public et des entreprises ces derniers mois.
Le mouvement de Bruxelles vers cet objectif a en fait commencé il y a deux ans, avec une proposition de la Commission européenne. Les États membres de l’UE ont présenté leurs positions de négociation à la fin de l’année dernière.
Mais l’émergence de ChatGPT, Midjourney et d’autres applications d’intelligence artificielle depuis lors a fortement concentré l’attention parlementaire sur cette question, ce qui a entraîné de nombreux amendements à envisager.
Après un vote en commission jeudi, le Parlement européen prendra une décision en plénière le mois prochain.
« Je pense que nous avons proposé un texte vraiment bon et équilibré » qui protège les personnes tout en permettant l’innovation, a déclaré Brando Benifei, l’un des principaux députés sur le texte qui sera voté jeudi.
Épée à double tranchant
Bien que la promesse de l’IA soit vaste, c’est aussi une épée à double tranchant en tant qu’outil technologique. Elle pourrait sauver des vies en faisant progresser les évaluations médicales, par exemple, ou elle pourrait être utilisée par des régimes autoritaires pour parfaire la surveillance de masse.
Pour le grand public, l’arrivée de ChatGPT à la fin de l’année dernière a suscité curiosité et fascination, les utilisateurs s’inscrivant pour le regarder écrire des essais, de la poésie ou traduire en quelques secondes.
Les IA de génération d’images telles que Midjourney et DALL-E ont également suscité une poussée en ligne pour créer des sosies de Van Gogh ou de baleines en vestes bouffantes, tandis que les sites de musique IA ont été impressionnés par leur capacité à produire même des chants humains.
Cependant, malicieusement, la technologie a un grand potentiel de contrefaçon, de tromperie et d’influence sur l’opinion publique.
Cela a incité Elon Musk et plusieurs chercheurs à faire pression pour un moratoire jusqu’à ce qu’un cadre juridique puisse suivre.
La position du Parlement européen suit les principales directives énoncées dans la proposition de la Commission, qui est guidée par la législation européenne existante sur la sécurité des produits qui place la responsabilité de l’inspection sur les fabricants.
L’essence de l’approche de l’UE est d’avoir une liste d’activités « à haut risque » pour l’IA.
La Commission a suggéré des désignations qui devraient couvrir des systèmes dans des domaines sensibles tels que les infrastructures critiques, l’éducation, les ressources humaines, l’ordre public et la gestion des migrations.
Certaines des règles proposées pour la catégorie garantiraient un contrôle humain sur l’IA et la documentation technique, et qu’un système de gestion des risques est en place.
Chaque État membre de l’UE disposera d’une autorité de surveillance pour s’assurer que les réglementations sont respectées.
Cependant, de nombreux députés européens souhaitent limiter les critères dits de « risque élevé » pour n’inclure que les applications d’IA considérées comme une menace pour la sécurité, la santé ou les droits fondamentaux. D’autres, comme les Verts, s’y opposent.
Dans le cas de l’IA générative telle que ChatGPT, les parlements voient un ensemble spécifique d’obligations similaires à celles appliquées aux listes « à haut risque ».
Le Parlement européen souhaite également que les entreprises d’IA mettent en place des protections contre les contenus illégaux et les œuvres protégées par le droit d’auteur qui pourraient être utilisées pour former leurs algorithmes.
La proposition de la commission demande déjà que les utilisateurs soient avertis lorsqu’ils entrent en contact avec la machine et exige que les applications génératrices d’images certifient que leur sortie est générée artificiellement.
Une interdiction pure et simple serait rare et ne concernerait que les applications qui vont à l’encontre des valeurs européennes – par exemple, le type de système de surveillance de masse et de notation des citoyens utilisé en Chine.
Les législateurs veulent ajouter à l’interdiction de la reconnaissance des émotions par l’IA et supprimer les exceptions qui permettraient aux forces de l’ordre d’identifier à distance les personnes dans les lieux publics.
Ils veulent également empêcher le scraping de photos postées sur internet pour des algorithmes d’entraînement sans l’autorisation de la personne concernée.
« Érudit primé au bacon. Organisateur. Fanatique dévoué des médias sociaux. Passionné de café hardcore. »