Le plan français de surveillance par IA pendant les Jeux olympiques est dangereux | Personnel

Le projet de loi visant à étendre les pouvoirs de surveillance risque de transformer les Jeux olympiques de 2024 en une véritable attaque contre le droit à la vie privée.

Ce mois-ci, les législateurs français devraient adopter une législation pour le faire Jeux Olympiques Paris 2024qui, pour la première fois dans l’histoire de France, permettra une surveillance vidéo de masse alimentée par des systèmes d’intelligence artificielle (IA).

Lorsque le gouvernement s’est engagé sur une pente glissante vers l’élargissement de ses pouvoirs de surveillance, cela a eu des conséquences aggravantes pour les droits de l’homme, notamment les droits à la vie privée, à l’égalité et à la non-discrimination, et à la liberté d’expression et de réunion pacifique. Sous prétexte d’assurer la sécurité et de lutter contre le terrorisme, les autorités françaises pourront surveiller les déplacements de millions de personnes du monde entier, qu’elles se rendent ou s’approchent du stade, qu’elles empruntent les transports en commun pour se rendre sur le site ou en sortir. le grand rendez-vous sportif.

Le besoin de sécurité pendant le jeu est compréhensible, mais la transparence et la justification légale sont nécessaires à chaque étape du processus. Toute proposition concernant la sécurité doit respecter les droits fondamentaux. Le droit international des droits de l’homme s’applique toujours aux Jeux olympiques, et un examen attentif des mesures est essentiel.

Jusqu’à présent, le projet de loi n’a pas réussi à démontrer en quoi la vidéosurveillance alimentée par l’IA serait conforme aux normes relatives aux droits de l’homme. Le gouvernement français n’a pas indiqué dans quelle mesure les mesures respectent le principe de proportionnalité et quelles garanties seront mises en place pour empêcher une infrastructure de surveillance permanente, telles que des mesures de protection de la vie privée, des contraintes strictes et des limites sur les objectifs et la minimisation des données.

Il s’agit d’une application destructrice globale de la surveillance de masse injustifiée basée sur l’IA. Les menaces pour les droits de l’homme posées par le développement et l’utilisation de l’IA par des entreprises privées et des autorités publiques dans l’Union européenne sont bien documentées. Ces technologies sont utilisées au détriment des groupes marginalisés, notamment les migrants et les personnes noires et brunes. dans un Lettre ouverte Initiées par le European Not-for-Profit Law Center, 38 organisations de la société civile, dont Amnesty International, ont appelé les décideurs politiques français à rejeter un projet de loi autorisant la surveillance invasive, car cela constituerait une grave menace pour les droits et libertés fondamentaux.

Le projet de loi soumettrait les spectateurs se rendant à des événements sportifs à Paris à une surveillance injustifiée, des caméras de vidéosurveillance fixes omniprésentes aux drones installés pour détecter les activités « anormales ou suspectes » dans les foules. Ces définitions trop larges doivent être remises en question et nous devons nous poser des questions pressantes : qui établit les normes de ce qui est « normal » ? Les responsables qui contrôlent la désignation d’activité « anormale ou suspecte » ont également le pouvoir d’exacerber l’effet dissuasif sur la dissidence et les manifestations, et d’accroître la discrimination à l’encontre des communautés déjà ciblées.

L’État a utilisé les grands événements sportifs pour introduire et inculquer un panoptique de mesures de surveillance, faisant évoluer la société vers une dystopie orwellienne. Alors que les autorités françaises affirment qu’il s’agit d’une mesure expérimentale à court terme, Amnesty International craint que le projet de loi n’étende tacitement la surveillance de masse et les pouvoirs permanents de la police en France.

Ce Jeux olympiques de Londres 2012 est un exemple frappant de la façon dont les États ont utilisé les grands événements sportifs pour installer et étendre des mesures de surveillance perturbatrices, permanentes et oppressives. En 2017, lors de la finale de l’UEFA Champions League à Cardiff, la police du sud du Pays de Galles a utilisé des caméras de reconnaissance faciale et par erreur tagué 2 000 personnes aussi escrocs que possible, montrant à quel point de telles actions sont ennuyeuses et peu fiables.

À Amnesty International, nous avons documenté en détail comment des milliers de caméras de vidéosurveillance à reconnaissance faciale ont été créées déployé dans toute la ville de New York – la plupart d’entre eux traversent les communautés de couleur et renforcent les politiques discriminatoires sur le plan racial. La technologie a conduit au harcèlement des manifestants de Black Lives Matter et à des arrestations injustifiées de larges pans de la population noire.

Ce projet de loi est non seulement une mesure dangereuse concernant la vie privée et les droits de l’homme, mais trahit également l’esprit de la loi sur l’intelligence artificielle de l’Union européenne (UE) – un texte législatif d’importance mondiale qui vise à réglementer l’IA et à protéger les droits fondamentaux dans l’UE, de dont la France est un membre influent.

Les projets de la France de mettre en œuvre des mesures de choc pendant les Jeux olympiques pourraient façonner la manière dont les systèmes d’IA et la surveillance de masse sont organisés et réglementés dans l’UE. Amnesty International estime que l’UE, en négociant sa loi sur l’IA, doit mettre fin aux pratiques généralisées, abusives et discriminatoires fondées sur l’intelligence artificielle, y compris l’utilisation de tous les systèmes de reconnaissance faciale utilisés pour la surveillance de masse.

Avec coalition d’acteurs de la société civile faisant campagne pour le règlement européen sur l’IA respectant les droits de l’homme, Amnesty International a appelé à une interdiction totale des technologies de reconnaissance faciale qui permettent une surveillance discriminatoire et de masse, ainsi que des systèmes qui catégorisent les personnes en fonction de caractéristiques protégées ou de l’identité de genre. Nous appelons également à l’interdiction des systèmes de reconnaissance des émotions qui prétendent déduire les émotions et les états mentaux des personnes, étant donné le manque de validité scientifique de ces technologies et leur extrême distraction.

En tant qu’État membre de l’UE, la France doit se conformer aux réglementations de l’UE en matière d’IA. Ce nouveau projet de loi mettrait la législation française en conflit direct avec la législation européenne en instance. Pendant ce temps, en tant qu’État membre influent, la France tente d’abaisser la barre haute que la loi européenne sur l’intelligence artificielle cherche à fixer pour la protection des droits de l’homme.

Si la France continue de légaliser la surveillance de masse au niveau national, l’un des plus grands événements sportifs sur Terre risque de devenir l’une des violations les plus importantes du droit à la vie privée, à l’échelle mondiale.

Les opinions exprimées dans cet article sont celles de l’auteur et ne reflètent pas nécessairement la position éditoriale d’Al Jazeera.

Lancelot Bonnay

"Érudit primé au bacon. Organisateur. Fanatique dévoué des médias sociaux. Passionné de café hardcore."

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *