Comment l’IA va-t-elle changer la responsabilité civile ? : Clyde & Co

Le développement rapide de l’intelligence artificielle (IA) a généré d’énormes opportunités pour les entreprises, mais soulève d’importantes questions pour les régulateurs et les professionnels du droit sur la manière de garantir que la technologie ne devienne pas trop puissante ou n’ait pas d’impacts négatifs, et qui devrait être tenu responsable si cela se produit. . . Ici, dans le prolongement de notre podcast sur la résilience numérique sur les questions de propriété intellectuelle et de confidentialité liées à l’IA, David Méheut, associé de notre bureau de Paris, explique comment la responsabilité civile liée à l’IA est éclairée par des principes éthiques.

Les capacités de l’IA ont progressé si rapidement ces dernières années que les entreprises repensent la façon dont elles développent la technologie, gèrent leurs opérations et utilisent leurs ressources, afin d’optimiser son potentiel. Cependant, la course soudaine au déploiement de l’IA a également soulevé d’importantes inquiétudes et accru l’urgence de grandes questions concernant le niveau d’autonomie que ces systèmes peuvent atteindre, notre capacité à les contrôler et la manière dont les cadres de responsabilité civile s’appliquent en cas de problème.

Le 14 juin 2024, le Parlement européen l’a approuvé Version : quand un projet de loi européenne sur l’intelligence artificielle qui, avec d’autres projets de loi au niveau de l’UE, constituerait la première loi globale sur l’IA au monde. Cependant, comme pour toute nouvelle réglementation technologique, le défi consiste à équilibrer la tension entre la nécessité d’atténuer les risques et de ne pas entraver indûment les progrès. Certains soutiennent que la conception n’est pas assez efficace, tandis que d’autres affirment qu’elle rend l’innovation impossible.

Un bon début pour réfléchir à l’IA et à la responsabilité civile est de se référer aux principes éthiques qui ont été développés par diverses institutions, dont la CNIL (Commission Nationale de l’Informatique et des Libertés) en France et l’Unesco au niveau mondial. Au cœur de tout cela se trouve l’idée selon laquelle, étant donné que l’IA aura un certain degré d’autonomie et sera donc hautement imprévisible, il sera vital pour quiconque l’utilise de mesurer et de surveiller son impact sur l’évolution néfaste, qu’il s’agisse du développement de préjugés, discrimination. , ou perte de contrôle.

Nous pouvons voir des principes éthiques reflétés dans le projet de loi européenne, qui catégorise les cas d’utilisation de l’IA en fonction des risques encourus et, dans les cas à « haut risque », souligne l’importance de la cartographie des risques et de la surveillance des impacts négatifs. Un exemple d’application de ce principe peut être trouvé dans une affaire de trading à haute fréquence (HFT) en France, où une entreprise a perdu le contrôle d’un algorithme, impactant ainsi le prix de négociation d’un titre. Bien que les utilisateurs aient nié toute responsabilité, ils ont finalement été jugés responsables, faute d’avoir anticipé l’incident et mis en œuvre des plans d’urgence.

Cette approche s’inscrit également dans une tendance plus large en matière de conformité, qui s’oriente vers l’anticipation et l’atténuation des risques, plutôt que vers une définition stricte des mesures à prendre. Cependant, ce qui reste flou et non résolu dans le cas de l’IA, c’est ce qui se passe en cas d’effets secondaires. Sera-ce aussi simple que de « débrancher » le système d’IA et de reprendre le contrôle ? Il est facile d’imaginer une situation où cela ne serait pas possible. Par exemple, dans un environnement spécialisé comme celui des soins de santé, où des vies sont en danger, que se passerait-il s’il n’y avait pas de praticiens humains suffisamment qualifiés pour prendre le relais ?

Pour l’instant, lorsque les organisations envisagent de mettre en œuvre l’IA dans leurs méthodes de travail, les principes éthiques constituent un point de départ raisonnable. Cela signifie une cartographie détaillée des risques et des évaluations d’impact, ainsi qu’un plan de ce que vous ferez si le système d’IA rencontre des problèmes. Il est encore tôt, mais compte tenu des progrès rapides de la technologie de l’IA, il ne fait aucun doute que des poursuites en responsabilité civile commenceront à se produire.

Lancelot Bonnay

"Érudit primé au bacon. Organisateur. Fanatique dévoué des médias sociaux. Passionné de café hardcore."

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *