Le président de Microsoft déclare qu’il n’y a aucune chance pour une IA super intelligente dans un avenir proche

Brad Smith, vice-président de Microsoft, observe le 5ème Sommet « Christchurch Call », au Palais présidentiel de l’Elysée à Paris, France, le 10 novembre 2023. LUDOVIC MARIN/Pool via REUTERS/file photo Obtention des droits de licence

LONDRES, 30 novembre (Reuters) – Le président du géant technologique Microsoft (MSFT.O) a déclaré qu’il n’y avait aucune chance qu’une intelligence artificielle super-intelligente soit créée au cours des 12 prochains mois, et a averti que cette technologie pourrait être créée dans les prochains mois. quelques décennies.

Le co-fondateur d’OpenAI, Sam Altman, a été démis de ses fonctions de PDG plus tôt ce mois-ci par le conseil d’administration de l’entreprise, mais a été rapidement réintégré après un week-end de protestations des employés et des actionnaires.

Reuters a rapporté la semaine dernière en exclusivité que les licenciements ont eu lieu peu de temps après que les chercheurs ont contacté le conseil, les mettant en garde contre des découvertes dangereuses qui, craignaient-ils, pourraient avoir des conséquences inattendues.

Un projet interne appelé Q* (prononcer Q-Star) pourrait constituer une avancée majeure dans la recherche par la startup de ce que l’on appelle l’intelligence artificielle générale (AGI), a déclaré l’une des sources à Reuters. OpenAI définit l’AGI comme un système autonome qui surpasse les humains dans les tâches les plus rentables.

Cependant, le président de Microsoft, Brad Smith, s’adressant jeudi à des journalistes au Royaume-Uni, a rejeté les allégations faisant état d’une percée dangereuse.

« Il n’y a absolument aucune chance que vous voyiez ce qu’on appelle l’AGI, où les ordinateurs sont plus puissants que les humains, au cours des 12 prochains mois. Cela prendra des années, voire des décennies, mais je pense toujours qu’il est temps de le faire. concentrez-vous sur la sécurité maintenant », a-t-il déclaré.

Des sources ont déclaré à Reuters que les avertissements adressés au conseil d’administration d’OpenAI étaient un facteur parmi une longue liste de plaintes qui ont conduit à l’éviction d’Altman, ainsi que des inquiétudes concernant la commercialisation des avancées avant d’évaluer les risques.

Lorsqu’on lui a demandé si de telles découvertes avaient contribué au limogeage d’Altman, Smith a répondu : « Je ne pense pas que ce soit le cas. Je pense qu’il y a clairement une différence entre le conseil d’administration et les autres, mais ce n’est pas une question fondamentale en tant que telle.

« Ce dont nous avons vraiment besoin, c’est d’un frein de sécurité. « Tout comme vous avez des protections dans les ascenseurs, les disjoncteurs, les freins d’urgence pour les bus, il doit y avoir des protections dans les systèmes d’IA qui contrôlent les infrastructures critiques, afin que ces infrastructures soient toujours sous contrôle humain », a ajouté Smith. .

Reportage de Martin Coulter; Montage par Sharon Singleton et Mark Porter

Nos normes : Principes de confiance de Thomson Reuters.

Obtention des droits de licenceouvrir un nouvel onglet

Lancelot Bonnay

"Érudit primé au bacon. Organisateur. Fanatique dévoué des médias sociaux. Passionné de café hardcore."

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *