L’Italie a interdit ChatGPT. C’est ce que font d’autres pays

  • L’Italie est devenue la semaine dernière le premier pays occidental à interdire ChatGPT, un chatbot IA populaire.
  • ChatGPT a impressionné les chercheurs par ses capacités tout en inquiétant les régulateurs et les éthiciens quant à son impact négatif sur la société.
  • Cette décision met en évidence l’absence de réglementations concrètes, l’Union européenne et la Chine, parmi plusieurs pays, élaborant des réglementations spécifiquement pour l’IA.
  • Divers gouvernements étudient la manière de réglementer l’IA, et certains pays réfléchissent à la manière de gérer des systèmes à usage général comme ChatGPT.

Cette illustration photo montre le logo ChatGPT dans un bureau à Washington, DC, le 15 mars 2023.

Stefani Reynolds | AFP | Getty Images

L’Italie est devenue le premier pays occidental à interdire ChatGPT, le chatbot d’intelligence artificielle populaire de la startup américaine OpenAI.

La semaine dernière, l’organisme italien de surveillance de la protection des données a ordonné à OpenAI de cesser temporairement de traiter les données des utilisateurs italiens dans le cadre d’une enquête sur des violations présumées des réglementations européennes strictes en matière de confidentialité.

Le régulateur, également connu sous le nom de Garante, a cité une violation de données chez OpenAI qui permettait aux utilisateurs de voir les titres des conversations que d’autres utilisateurs avaient eues avec le chatbot.

« Il ne semble y avoir aucune base juridique sous-tendant la collecte et le traitement massifs de données personnelles pour « entraîner » les algorithmes sur lesquels s’appuient les plateformes », a déclaré Garante dans un communiqué vendredi.

Garante a également fait part de ses inquiétudes quant à l’absence de restrictions d’âge dans ChatGPT et à la manière dont le chatbot pourrait fournir des informations factuellement incorrectes dans ses réponses.

OpenAI, soutenu par Microsoft, risque une amende de 20 millions d’euros (21,8 millions de dollars), soit 4 % de son chiffre d’affaires annuel mondial, s’il ne trouve pas de solution dans les 20 jours.

L’Italie n’est pas le seul pays à prendre en compte le développement rapide de l’IA et son impact sur la société. Les gouvernements d’autres pays ont également leurs propres réglementations concernant l’IA, qui, qu’elles mentionnent ou non l’IA générative, aborderont certainement ce sujet. L’IA générative fait référence à un ensemble de technologies d’IA qui génèrent du nouveau contenu en fonction des demandes des utilisateurs. Elle est plus avancée que les versions précédentes de l’IA, grâce à un nouveau modèle de langage élaboré sur de grandes quantités de données.

Des appels sont lancés depuis longtemps pour que l’IA soit confrontée à une réglementation. Mais le rythme du progrès technologique est tel qu’il est difficile pour les gouvernements de suivre le rythme. Les ordinateurs peuvent désormais créer des œuvres d’art réalistes, rédiger des essais entiers ou même générer des lignes de code en quelques secondes.

« Nous devons faire très attention à ne pas créer un monde dans lequel les humains sont soumis à un avenir de machines plus grandes », a déclaré Sophie Hackford, futuriste et conseillère en innovation technologique mondiale pour le fabricant américain de matériel agricole John Deere, à l’émission « Squawk » de CNBC. Box Europe» lundi.

« La technologie est là pour nous servir. La technologie est là pour accélérer le diagnostic du cancer ou éviter aux humains d’avoir à faire un travail que nous ne voulons pas faire. »

« Nous devons y réfléchir très attentivement maintenant, et nous devons prendre des mesures pour y remédier dès maintenant, d’un point de vue réglementaire », a-t-il ajouté.

Les régulateurs sont préoccupés par les défis que l’IA pose en matière de sécurité de l’emploi, de confidentialité des données et d’égalité. Il existe également des inquiétudes quant à la manipulation du discours politique par l’IA avancée en créant de fausses informations.

De nombreux pays commencent également à réfléchir à la manière de gérer les systèmes à usage général comme ChatGPT, et certains envisagent même de se joindre à l’Italie pour interdire cette technologie.

La semaine dernière, le Royaume-Uni a annoncé son intention de réglementer l’IA. Plutôt que de créer de nouvelles réglementations, le gouvernement demande aux régulateurs de divers secteurs d’appliquer les réglementations existantes à l’IA.

La proposition britannique, qui ne mentionne pas ChatGPT nommément, décrit plusieurs principes clés que les entreprises doivent suivre lorsqu’elles utilisent l’IA dans leurs produits, notamment la sécurité, la transparence, l’équité, la responsabilité et la contestabilité.

Le Royaume-Uni n’a proposé à ce stade aucune restriction sur ChatGPT ou tout autre type d’IA. Au lieu de cela, ils veulent garantir que les entreprises développent et utilisent les outils d’IA de manière responsable et fournissent aux utilisateurs suffisamment d’informations sur comment et pourquoi certaines décisions sont prises.

Dans un discours prononcé au Parlement mercredi dernier, la ministre du Numérique, Michelle Donelan, a déclaré que la popularité soudaine de l’IA générative montre que les risques et les opportunités liés à cette technologie « émergent à une vitesse incroyable ».

En adoptant une approche non juridique, les gouvernements seront en mesure de « réagir rapidement aux progrès de l’IA et d’intervenir davantage si nécessaire », a-t-il ajouté.

Dan Holmes, responsable de la prévention de la fraude chez Feedzai, qui utilise l’IA pour lutter contre la criminalité financière, a déclaré que l’une des priorités clés de l’approche britannique était de déterminer « à quoi ressemble une bonne utilisation de l’IA ».

« De plus, si vous utilisez l’IA, ce sont les principes auxquels vous devez penser », a déclaré Holmes à CNBC. « Et souvent, cela se résume à deux choses, à savoir la transparence et l’équité. »

D’autres pays européens devraient adopter une position beaucoup plus stricte sur l’IA que le Royaume-Uni, qui s’est de plus en plus écarté des lois numériques de l’UE après son départ du bloc.

L’Union européenne, souvent à l’avant-garde en matière de réglementation technologique, a proposé une législation innovante concernant l’IA.

Connue sous le nom de loi européenne sur l’IA, cette réglementation limitera considérablement l’utilisation de l’IA dans les infrastructures critiques, l’éducation, les forces de l’ordre et les systèmes judiciaires.

Cela fonctionnera en conjonction avec le règlement général de l’UE sur la protection des données. Ces règles régissent la manière dont les entreprises peuvent traiter et stocker les données personnelles.

Lorsque l’on rêvait pour la première fois de l’IA, les responsables n’avaient pas encore pris en compte l’incroyable avancée des systèmes d’IA capables de produire des œuvres d’art, des histoires, des blagues, de la poésie et des chansons impressionnantes.

Basé sur Reuters, le projet de règles de l’UE considère ChatGPT comme une forme d’IA à usage général utilisée dans des applications à haut risque. Les systèmes d’IA présentent un risque élevé déterminé par la commission comme des choses qui peuvent affecter les droits fondamentaux ou la sécurité publique.

Ils seront confrontés à des mesures comprenant des évaluations rigoureuses des risques et des exigences visant à éliminer la discrimination résultant des algorithmes d’alimentation en données.

« L’Union européenne possède une grande expertise en matière d’IA. Elle a accès à certains des meilleurs talents au monde, et ce n’est pas nouveau pour elle », Max HeinemeyerLe chef de produit de Darktrace, a déclaré à CNBC.

« Il est avantageux de leur faire confiance pour penser au meilleur des pays membres et réaliser pleinement les avantages concurrentiels potentiels que cette technologie peut apporter par rapport aux risques. »

Mais alors que Bruxelles rédige une législation sur l’IA, plusieurs pays de l’UE envisagent déjà la décision de l’Italie sur ChatGPT et débattent de l’opportunité de suivre cet exemple.

« En principe, une procédure similaire est également possible Allemand« , a déclaré Ulrich Kelber, commissaire fédéral allemand à la protection des données, au journal Handelsblatt.

Les régulateurs français et irlandais de la protection de la vie privée ont contacté leurs homologues italiens pour en savoir plus sur leurs conclusions, a rapporté Reuters. L’autorité suédoise de protection des données a annulé l’interdiction. L’Italie peut poursuivre son action car OpenAI ne dispose pas d’un seul bureau dans l’UE.

L’Irlande est généralement le régulateur le plus actif en matière de confidentialité des données, car la plupart des géants américains de la technologie tels que Meta et Google y sont basés.

Les États-Unis n’ont proposé aucune règle formelle pour la surveillance de la technologie de l’IA.

L’Institut national des sciences et technologies a publié un cadre national qui fournit des conseils aux entreprises utilisant, concevant ou mettant en œuvre des systèmes d’IA dans la gestion des risques et des dangers potentiels.

Cependant, ces réglementations sont mises en œuvre volontairement, ce qui signifie que les entreprises ne subiront aucune conséquence si elles ne les respectent pas.

Jusqu’à présent, aucune mesure n’a été prise pour restreindre ChatGPT aux États-Unis.

Le mois dernier, la Federal Trade Commission a reçu une plainte d’un groupe de recherche à but non lucratif accusant GPT-4, le dernier grand modèle de langage d’OpenAI, d’être « partial, trompeur et représentant un risque pour la vie privée et la sécurité publique » et de violer les directives de l’agence en matière d’IA.

La plainte pourrait conduire à une enquête sur OpenAI et à une suspension du déploiement commercial de ses grands modèles de langage. La FTC a refusé de commenter.

ChatGPT n’est pas disponible en Chine ni dans les pays soumis à une censure stricte sur Internet, comme la Corée du Nord, l’Iran et la Russie. Il n’est pas officiellement bloqué, mais OpenAI ne permet pas aux utilisateurs de ces pays de s’inscrire.

Plusieurs grandes entreprises technologiques chinoises développent des alternatives. Baidu, Alibaba et JD.com, certaines des plus grandes entreprises technologiques chinoises, ont annoncé leur intention de concurrencer ChatGPT.

La Chine tient à garantir que ses géants de la technologie développent des produits conformément à ses réglementations strictes.

Le mois dernier, Pékin a introduit ses premières réglementations sur ce que l’on appelle les deepfakes, qui sont des images, des vidéos ou des textes générés ou modifiés de manière synthétique et créés à l’aide de l’IA.

Les régulateurs chinois ont déjà introduit des règles régissant la manière dont les entreprises utilisent les algorithmes de recommandation. L’une des exigences est que les entreprises doivent soumettre les détails de leurs algorithmes aux cyber-régulateurs.

Ces règles pourraient théoriquement s’appliquer à tout type de technologie de type ChatGPT.

– Arjun Kharpal de CNBC a contribué à ce rapport

Roul Dennel

"Écrivain extrême. Passionné d'Internet. Passionné de télévision indépendant. Fan de nourriture diabolique. Introverti. Penseur hardcore. Future idole des adolescents. Expert en bacon."

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *