Attention aux fraudeurs : les créateurs de ChatGPT ont publié un outil de détection d’IA

SAN FRANCISCO — Les créateurs de ChatGPT tentent de freiner sa réputation de machine à tricher en roue libre avec un nouvel outil qui peut aider les enseignants à détecter si un élève ou une intelligence artificielle a écrit les devoirs.

Le nouveau AI Text Classifier a été lancé mardi par OpenAI après une semaine de discussions dans les écoles et les collèges sur les inquiétudes que la capacité de ChatGPT à écrire n’importe quoi sur commande pourrait alimenter la malhonnêteté académique et entraver l’apprentissage.

OpenAI prévient que son nouvel outil – comme d’autres déjà disponibles – n’est pas sûr. La méthode de détection du texte écrit par l’IA est « imparfaite et parfois erronée », explique Jan Leike, responsable de l’équipe d’alignement OpenAI chargée de rendre ses systèmes plus sûrs.

« Par conséquent, il ne faut pas s’y fier uniquement pour prendre des décisions », a déclaré Leike.

Les adolescents et les étudiants font partie des millions de personnes qui ont commencé à expérimenter ChatGPT après son lancement le 30 novembre en tant qu’application gratuite sur le site Web OpenAI. Et bien que beaucoup aient trouvé des moyens de l’utiliser de manière créative et sans danger, sa facilité avec laquelle il peut répondre aux questions du test à faire à la maison et aider à d’autres devoirs provoque la panique chez certains éducateurs.

Au moment où les écoles ont ouvert leurs portes pour la nouvelle année, New York, Los Angeles et d’autres grands districts scolaires publics avaient commencé à bloquer leur utilisation dans les salles de classe et les équipements scolaires.

Le district scolaire public de Seattle a initialement bloqué ChatGPT sur tous les appareils scolaires en décembre, mais a ensuite ouvert l’accès aux éducateurs qui souhaitent l’utiliser comme outil pédagogique, a déclaré Tim Robinson, un porte-parole du district.

« Nous ne pouvons pas l’ignorer », a déclaré Robinson.

Le district discute également de la possibilité d’étendre l’utilisation de ChatGPT dans les salles de classe afin que les enseignants puissent l’utiliser pour former les élèves à devenir de meilleurs penseurs critiques et pour permettre aux élèves d’utiliser l’application comme « tuteurs personnels » ou pour aider à générer de nouvelles idées sur les devoirs, Robinson m’a dit.

Les districts scolaires à travers le pays disent qu’ils voient la conversation autour de ChatGPT se développer rapidement.

« La première réaction a été ‘OMG, comment pouvons-nous endiguer la marée de toutes les tricheries qui vont se produire avec ChatGPT' », explique Devin Page, spécialiste de la technologie au Calvert County Public School District dans le Maryland. conscience que « c’est l’avenir » et le bloquer n’est pas la solution, a-t-il déclaré.

« Je pense que nous serions naïfs si nous ne réalisions pas le danger que représentent ces outils, mais nous ferions également défaut à nos étudiants si nous les interdisions et les utilisions pour tout leur pouvoir potentiel », a déclaré Page, qui pense que les districts comme le sien finira par ouvrir le bloc ChatGPT, en particulier une fois que les services de détection d’entreprise seront disponibles.

OpenAI a souligné les limites de ses outils de détection dans un article de blog mardi, mais a déclaré qu’en plus de prévenir le plagiat, il peut aider à détecter les campagnes de désinformation automatisées et autres abus de l’IA pour imiter les humains.

Plus une section de texte est longue, meilleur sera l’outil pour détecter si l’IA ou un humain a écrit quelque chose. Tapez n’importe quel texte – un essai d’admission à l’université ou une analyse de la littérature « Invisible Man » de Ralph Ellison – et l’outil l’étiquettera comme « hautement improbable, improbable, incertain s’il est, pourrait être ou pourrait être » IA – généré.

Mais comme ChatGPT lui-même, qui est formé sur une myriade de livres numériques, de journaux et d’écritures en ligne, mais qui débite souvent des mensonges ou du charabia avec confiance, il n’est pas facile d’interpréter comment les résultats émergent.

« Nous ne savons fondamentalement pas à quel type de modèle prêter attention, ni comment cela fonctionne en interne », a déclaré Leike. « Nous ne pouvons pas dire grand-chose pour le moment sur le fonctionnement réel des classificateurs. »

Les établissements d’enseignement supérieur du monde entier ont également commencé à débattre de l’utilisation responsable de la technologie de l’IA. Sciences Po, l’une des universités les plus prestigieuses de France, a interdit son utilisation la semaine dernière et a averti que quiconque utilisant subrepticement ChatGPT et d’autres outils d’IA pour produire des œuvres écrites ou orales pourrait être banni de Sciences Po et d’autres institutions.

En réponse au contrecoup, OpenAI a déclaré qu’il travaillait depuis plusieurs semaines pour développer de nouvelles directives pour aider les éducateurs.

« Comme beaucoup d’autres technologies, il peut y avoir un district qui décide qu’il est inapproprié de l’utiliser dans leurs salles de classe », a déclaré Lama Ahmad, chercheur en politique d’OpenAI. « Nous ne les poussons pas vraiment dans un sens ou dans l’autre. Nous voulons simplement leur donner les informations dont ils ont besoin pour pouvoir prendre la bonne décision pour eux. »

Il s’agit d’un rôle public extraordinaire pour la startup de San Francisco axée sur la recherche, désormais soutenue par un investissement de plusieurs milliards de dollars du partenaire Microsoft et faisant l’objet d’un intérêt croissant de la part du public et du gouvernement.

Le ministre français de l’Economie numérique, Jean-Noël Barrot, a récemment rencontré en Californie des dirigeants d’OpenAI, dont le PDG Sam Altman, et une semaine plus tard, il a déclaré à un public du Forum économique mondial de Davos, en Suisse, qu’il était optimiste quant à la technologie. Mais le ministre du gouvernement – un ancien professeur au Massachusetts Institute of Technology et à l’école de commerce française HEC à Paris – a déclaré qu’il y avait aussi des questions éthiques difficiles qui devaient être abordées.

« Ainsi, dans la faculté de droit, il y a de quoi s’inquiéter car il est clair que ChatGPT, entre autres, pourra donner des examens relativement impressionnants », a-t-il déclaré. « Si vous êtes dans une école d’économie, tout va bien car ChatGPT aura du mal à trouver ou à fournir quelque chose d’attendu lorsque vous êtes dans une école d’économie de niveau supérieur. »

Il a déclaré qu’il sera de plus en plus important pour les utilisateurs de comprendre les bases du fonctionnement de ces systèmes afin qu’ils sachent quels biais peuvent exister.

—-

O’Brien rapporte de Providence, Rhode Island. L’écrivain AP John Leicester a contribué à ce rapport depuis Paris.

Lancelot Bonnay

"Érudit primé au bacon. Organisateur. Fanatique dévoué des médias sociaux. Passionné de café hardcore."

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *