Face aux critiques selon lesquelles il s’agit d’un refuge pour les escrocs, ChatGPT a ajouté des outils pour les attraper

Les créateurs de ChatGPT tentent de freiner sa réputation de machine à tricher en roue libre avec un nouvel outil qui peut aider les enseignants à détecter si un élève ou une intelligence artificielle a écrit les devoirs.

Le nouveau AI Text Classifier a été lancé mardi par OpenAI après une semaine de discussions dans les écoles et les collèges sur les inquiétudes que la capacité de ChatGPT à écrire n’importe quoi sur commande pourrait alimenter la malhonnêteté académique et entraver l’apprentissage.

OpenAI avertit que son nouvel outil – comme d’autres déjà disponibles – n’est pas sûr. La méthode de détection du texte écrit par l’IA est « imparfaite et parfois erronée », a déclaré Jan Leike, responsable de l’équipe d’alignement OpenAI chargée de rendre ses systèmes plus sûrs.

« Par conséquent, il ne faut pas s’y fier uniquement pour prendre des décisions », a déclaré Leike.

Les adolescents et les étudiants font partie des millions de personnes qui ont commencé à expérimenter ChatGPT après avoir lancé le 30 novembre en tant qu’application gratuite sur le site Web d’OpenAI. Et bien que beaucoup aient trouvé des moyens de l’utiliser de manière créative et sans danger, sa facilité avec laquelle il peut répondre aux questions du test à faire à la maison et aider à d’autres devoirs provoque la panique chez certains éducateurs.

Au moment où les écoles ont ouvert leurs portes pour la nouvelle année, New York, Los Angeles et d’autres grands districts scolaires publics avaient commencé à bloquer leur utilisation dans les salles de classe et les équipements scolaires.

REGARDER | Comment ChatGPT perturbe le milieu universitaire :

Les enseignants et les étudiants voient des défis et des opportunités avec le nouveau logiciel AI ChatGPT

Les éducateurs et les étudiants de niveau postsecondaire disent que le nouveau logiciel ChatGPT AI capable de cracher des essais complets basés uniquement sur des invites d’écriture pose des défis, mais aussi des opportunités pour améliorer les compétences humaines.

Le district scolaire public de Seattle a initialement bloqué ChatGPT sur tous les appareils scolaires en décembre, mais a ensuite ouvert l’accès aux éducateurs qui souhaitent l’utiliser comme outil pédagogique, a déclaré Tim Robinson, un porte-parole du district.

« Nous ne pouvons pas l’ignorer », a déclaré Robinson.

Le district discute également de la possibilité d’étendre l’utilisation de ChatGPT dans les salles de classe afin que les enseignants puissent l’utiliser pour former les élèves à devenir de meilleurs penseurs critiques et pour permettre aux élèves d’utiliser l’application comme « tuteurs personnels » ou pour aider à générer de nouvelles idées sur les devoirs, Robinson m’a dit.

Les districts scolaires à travers le pays disent qu’ils voient la conversation autour de ChatGPT se développer rapidement.

« La réaction initiale a été » OMG, comment pouvons-nous endiguer la marée de toutes les tricheries qui vont se produire avec ChatGPT? « , A déclaré Devin Page, spécialiste de la technologie au Calvert County Public School District dans le Maryland. Il y a maintenant une prise de conscience croissante que « c’est l’avenir » et le bloquer n’est pas la solution, a-t-il dit.

« Je pense que nous serions naïfs si nous ne réalisions pas le danger que représentent ces outils, mais nous ferions également défaut à nos étudiants si nous les interdisions et les utilisions au maximum de leur pouvoir potentiel », a déclaré Page, qui pense que les districts comme le sien finira par ouvrir le bloc ChatGPT, en particulier une fois que les services de détection d’entreprise seront disponibles.

Un homme en costume marche avec un dossier sous le bras.
Jean-Noël Barrot, ministre français de l’Economie numérique et ancien professeur au Massachusetts Institute of Technology, a déclaré que des questions éthiques difficiles devaient trouver une réponse à propos de ChatGPT. (Benoit Tessier/Reuters)

OpenAI a souligné les limites de ses outils de détection dans un article de blog mardi, mais a déclaré qu’en plus de prévenir le plagiat, il peut aider à détecter les campagnes de désinformation automatisées et autres abus de l’IA pour imiter les humains.

Plus la section de texte est longue, meilleur sera l’outil pour détecter si l’IA ou un humain a écrit quelque chose. Tapez n’importe quel texte – un essai d’admission à l’université ou l’analyse littéraire de Ralph Ellison Homme invisible – et l’outil l’étiquettera comme « hautement improbable, improbable, peu clair s’il est, probable ou probable » généré par l’IA.

Mais comme ChatGPT lui-même, qui est formé sur une myriade de livres numériques, de journaux et d’écritures en ligne, mais qui débite souvent des mensonges ou du charabia avec confiance, il n’est pas facile d’interpréter comment les résultats émergent.

« Nous ne savons fondamentalement pas quel type de modèles remarquer, ou comment ils fonctionnent en interne », a déclaré Leike. « Nous ne pouvons pas dire grand-chose à ce stade sur le fonctionnement réel du classificateur. »

Les établissements d’enseignement supérieur du monde entier ont également commencé à débattre de l’utilisation responsable de la technologie de l’IA. Sciences Po, l’une des universités les plus prestigieuses de France, a interdit son utilisation la semaine dernière et a averti que toute personne utilisant subrepticement ChatGPT et d’autres outils d’IA pour produire des œuvres écrites ou orales pourrait être bannie de Sciences Po et d’autres institutions.

En réponse au contrecoup, OpenAI a déclaré qu’il travaillait depuis plusieurs semaines pour développer de nouvelles directives pour aider les éducateurs.

« Comme beaucoup d’autres technologies, il peut y avoir un district qui décide qu’il est inapproprié de l’utiliser dans leurs salles de classe », a déclaré Lama Ahmad, chercheur en politique d’OpenAI. « Nous ne les poussons pas vraiment dans un sens ou dans un autre. Nous voulons simplement leur donner les informations dont ils ont besoin pour pouvoir prendre la bonne décision pour eux. »

Il s’agit d’un rôle public extraordinaire pour la startup de San Francisco axée sur la recherche, désormais soutenue par un investissement de plusieurs milliards de dollars du partenaire Microsoft et faisant l’objet d’un intérêt croissant de la part du public et du gouvernement.

Le ministre français de l’Economie numérique, Jean-Noël Barrot, a récemment rencontré en Californie des dirigeants d’OpenAI, dont le PDG Sam Altman, et une semaine plus tard, il a déclaré à un public du Forum économique mondial de Davos, en Suisse, qu’il était optimiste quant à la technologie. Mais le ministre du gouvernement – un ancien professeur au Massachusetts Institute of Technology et à l’école de commerce française HEC à Paris – a déclaré qu’il y avait aussi des questions éthiques difficiles qui devaient être abordées.

« Ainsi, à la faculté de droit, il y a lieu de s’inquiéter car il est clair que ChatGPT, entre autres, peut donner des examens relativement impressionnants », a-t-il déclaré. « Si vous êtes dans une école d’économie, tout va bien car ChatGPT aura du mal à trouver ou à fournir quelque chose d’attendu lorsque vous êtes dans une école d’économie de niveau supérieur. »

Il a déclaré qu’il sera de plus en plus important pour les utilisateurs de comprendre les bases du fonctionnement de ces systèmes afin qu’ils sachent quels biais peuvent exister.

Lancelot Bonnay

"Érudit primé au bacon. Organisateur. Fanatique dévoué des médias sociaux. Passionné de café hardcore."

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *