Appuyez sur play pour écouter cet article
Exprimé par l’intelligence artificielle.
ChatGPT s’est préparé à un voyage difficile avec un puissant chien de garde européen de la confidentialité.
Les chatbots sont la sensation la plus chaude de la technologie de l’intelligence artificielle, mais ont été frappés d’une interdiction temporaire en Italie le mois dernier au motif qu’ils pourraient enfreindre le règlement européen sur la confidentialité, le Règlement général sur la protection des données (RGPD).
L’interdiction italienne n’était que le début des problèmes de ChatGPT, car il s’est ouvert à un cas de confidentialité à l’échelle du bloc et a utilisé une technologie de pointe qui afflige les gouvernements à des risques allant de la protection des données à désinformation, cybercriminalitétromperie et tricherie dans les examens scolaires.
OpenAI, l’organisation qui a créé ChatGPT, fonctionne avec un objectif derrière son dos : elle n’a pas encore établi de siège local dans l’un des 27 pays de l’UE, ce qui signifie que l’autorité de protection des données de n’importe quel pays membre peut lancer de nouvelles enquêtes et appliquer des interdictions.
Auparavant, Google était passible d’une amende de 50 millions d’euros dans le cadre du GDPR en France, qui avait été infligée avant que le géant américain de la technologie ne centralise officiellement les dispositions juridiques européennes en Irlande. TikTok a également fait l’objet de plusieurs enquêtes sur la confidentialité et d’amendes de la part des autorités néerlandaises, italiennes et françaises avant de s’installer officiellement en Irlande en 2021.
Les régulateurs européens des données envisagent les prochaines étapes pour enquêter sur les abus présumés comme leurs homologues italiens.
La Commission irlandaise de protection des données a déclaré qu’elle « se coordonnera avec l’ensemble de l’UE [data protection authorities] par rapport à cette affaire », selon le porte-parole Graham Doyle. L’autorité belge de protection des données a également déclaré que le potentiel de violation de ChatGPT « devrait être discuté à [the] Niveau européen. »
La CNIL a reçu au moins deux plaintes contre ChatGPT, pour violation de la vie privée, y compris GDPR, Les rapports de L’Informé.
En Norvège, « à ce jour, nous n’avons pas lancé d’enquête sur ChatGPT, mais nous n’excluons rien pour l’avenir », a déclaré Tobias Judin, responsable des travaux internationaux pour le régulateur de la protection des données Datatilsynet.
Alors qu’OpenAI a nié avoir enfreint les lois européennes sur la protection de la vie privée, le directeur général de la société, Sam Altman a dit sur Twitter que son entreprise soumet au « gouvernement italien » pour l’interdiction – déroutant apparemment le régulateur indépendant du pays pour le gouvernement.
« L’Italie est l’un de mes pays préférés et j’espère y retourner bientôt », a déclaré Altman.
L’autorité italienne de protection des données a déclaré le 6 avril qu’OpenAI était disposé à traiter les violations potentielles des lois européennes sur la protection de la vie privée, après un appel vidéo avec des dirigeants de l’entreprise.
Lois à suivre
Ce n’est pas seulement la confidentialité qui préoccupe les systèmes d’IA comme ChatGPT.
Fin mars, un Jeunesse belge s’est suicidé après des semaines de conversations avec un chatbot basé sur l’IA nommé Eliza, rapporte le journal belge La Libre. Le mois dernier, le magnat de la technologie Elon Musk et des milliers d’experts en intelligence artificielle ont appelé à un arrêt temporaire du développement de ChatGPT. plus « grand risque pour l’humanité ».
Les groupes de défense ont emboîté le pas. Aux États-Unis, le Center for AI and Digital Policy a demandé à la Federal Trade Commission américaine d’enquêter sur OpenAI et de bloquer toute nouvelle diffusion de ses bots. À Bruxelles, l’organisme de surveillance des consommateurs BEUC a imploré les régulateurs européens et nationaux d’enquêter sur ChatGPT, avertissant que le prochain règlement de l’UE sur l’IA pourrait être trop tard pour éviter tout dommage.
Les législateurs européens négocient également des limites légales à la technologie dans le cadre d’un projet de loi sur l’intelligence artificielle de l’UE.
Mais l’absence de législation sur l’intelligence artificielle a encouragé les régulateurs de la protection des données à intervenir.
« Les régulateurs de la protection des données réalisent lentement qu’ils sont des régulateurs de l’IA », a déclaré Gabriela Zanfir-Fortuna, groupe de réflexion Future of Privacy Forum.
Le régulateur de la confidentialité applique le GDPR, y compris ses règles concernant la collecte de données et la protection des utilisateurs contre la prise de décision automatisée. Des entreprises comme OpenAI doivent disposer d’une base légale pour collecter et utiliser les données personnelles, être transparentes sur la manière dont elles utilisent les données des personnes, maintenir l’exactitude des données personnelles et donner aux personnes le droit de les corriger.
OpenAI n’a jamais divulgué quel ensemble de données a été utilisé pour former le modèle d’IA qui sous-tend le chatbot. Même les chercheurs de Microsoft, qui sont les principaux investisseurs d’OpenAI, ont déclaré dans un dernier papier qu’ils « n’avaient pas accès à tous les détails [ChatGPT] données de formation étendues.
La société de reconnaissance faciale Clearview AI a déjà été condamnée à une amende et ordonnée par les régulateurs de la confidentialité de supprimer les images de personnes italiennes, françaises et britanniques qu’elle avait collectées en ligne pour construire son algorithme pour n’avoir aucune base légale pour le faire.
Le fait que ChatGPT ait subi une violation de données et exposé les conversations et les informations de paiement de ses utilisateurs en mars n’a fait qu’ajouter à ses malheurs.
La décision de l’Italie d’arrêter ChatGPT dans son élan a été un « signal d’alarme », a déclaré Dessislava Savova, associée technologique du cabinet d’avocats Clifford Chance. « Cela déclenchera en fait un dialogue en Europe et accélérera les positions prises par d’autres régulateurs. »
Laura Kayali a contribué au reportage.
Cet article a été mis à jour pour refléter que des groupes de défense, dont le BEUC, ont demandé aux régulateurs d’enquêter sur ChatGPT, et pour refléter les nouveaux développements concernant les travaux des régulateurs italien et français sur OpenAI.
« Érudit primé au bacon. Organisateur. Fanatique dévoué des médias sociaux. Passionné de café hardcore. »