Les directives mettent en évidence les défis de la technologie de reconnaissance faciale alors que Clearview AI est condamné à une amende

Selon Fava, la partie la plus utile de ce guide est peut-être l’annexe. L’un d’eux explique les étapes pratiques à suivre lors de l’achat et de la mise en œuvre du FRT, qui, selon Fava, peut être un bon guide même pour les entreprises dans les espaces commerciaux. Pour les personnes impliquées dans l’application de la loi, l’annexe III est également utile car elle décrit une série de scénarios généraux et les points de vue de l’EDPB sur chacun.

Fava a déclaré que l’un des scénarios d’application mis en évidence présente une ressemblance frappante avec les faits examinés dans l’affaire Bridges v South Wales Police, qui concerne la surveillance des espaces publics à l’aide du FRT pour identifier les personnes sur les listes de surveillance. Fava a déclaré que les opinions exprimées par l’EDPB dans l’appendice III sont conformes aux commentaires de l’OIC et Décision de la Cour d’appellorsque le cadre juridique est jugé manquer de la clarté nécessaire pour permettre l’utilisation du FRT.

Un autre exemple dans l’annexe concerne un scénario qui présente des similitudes avec l’utilisation du FRT qui a récemment fait l’objet de mesures d’application de la loi au Royaume-Uni, a déclaré Fava. Lundi, le fournisseur de logiciels de reconnaissance faciale Clearview AI condamné à une amende de plus de 7,5 millions de livres sterling par ICO et ordonné de cesser d’obtenir et d’utiliser des données personnelles de personnes au Royaume-Uni provenant de l’Internet public, et de supprimer également les données qui ont été collectées auprès de résidents britanniques de ses systèmes.

Clearview AI récupère des images et des données biométriques sur Internet. Son service permet à ses clients, y compris les forces de l’ordre, de télécharger leurs propres images pour voir si elles correspondent aux images de la base de données Clearview AI. Selon l’ICO, la société dispose d’une base de données de plus de 20 milliards d’images faciales et de données de personnes.

L’utilisation de FRT nécessite le traitement de données biométriques, qui bénéficient d’une protection spéciale en vertu des lois sur la protection des données du Royaume-Uni et de l’Union européenne. La conclusion d’une enquête conjointe menée par l’ICO et son partenaire en Australie, le Bureau du Commissaire à l’information australien (OAIC), est que Clearview AI n’a pas respecté ces normes élevées de protection des données en ce qui concerne son utilisation des données biométriques. L’ICO a déclaré que l’entreprise était responsable d’une série de défaillances en matière de protection des données, notamment l’incapacité à utiliser les informations des personnes au Royaume-Uni de manière équitable et transparente, l’absence de base légale pour la collecte de données et l’absence de processus en place pour arrêter indéfiniment la conservation des données. .

Alors que l’ICO affirme que Clearview AI n’offre plus ses services aux organisations britanniques, il affirme que la société conserve des clients dans d’autres pays et utilise toujours les données personnelles des résidents britanniques. Les avis d’application de l’ICO sont conçus pour mettre fin à l’utilisation de ces données.

La société a également fait l’objet d’autres enquêtes réglementaires dans le monde, notamment aux États-Unis, au Canada, en France et en Italie. L’EDPB avait précédemment conclu que le logiciel de reconnaissance faciale de Clearview ne répondait pas aux exigences énoncées dans la directive européenne sur l’application des lois. John Edwards, le commissaire à l’information du Royaume-Uni, a déclaré que « la coopération internationale est essentielle pour protéger le droit des personnes à la vie privée d’ici 2022 ».

Fava affirme que des cas comme Clearview AI jettent un éclairage négatif sur la technologie et ne représentent pas tout son potentiel. Ils n’ont rien fait pour changer l’impression que de nombreux régulateurs et le grand public ont du FRT, a-t-il déclaré.

L’EDPB a demandé que le FRT soit interdit d’utilisation en vertu de la proposition de loi européenne sur l’IA, qui est actuellement examinée par les législateurs de l’UE.

« L’identification biométrique à distance des individus dans les espaces accessibles au public présente un risque élevé d’intrusion dans la vie privée d’un individu et n’a pas sa place dans une société démocratique en raison de sa nature nécessitant une surveillance de masse », a déclaré l’EDPB. « Dans le même esprit, l’EDPB considère son système de reconnaissance faciale basé sur l’IA qui catégorise les individus en fonction de leur biométrie en groupes selon l’ethnie, le sexe, ainsi que l’orientation politique ou sexuelle comme incompatible avec [EU] Charte [of Fundamental Rights]. »

« En outre, l’EDPB estime que l’utilisation de la reconnaissance faciale ou d’une technologie similaire pour déduire des émotions chez des personnes physiques est hautement indésirable et devrait être interdite, peut-être avec quelques exceptions justifiables. En outre, le CEPD considère que le traitement des données à caractère personnel dans un contexte répressif dépendra de l’alimentation des bases de données par la collecte de données à caractère personnel à grande échelle et de manière indiscriminée, par exemple en «grattant» des photographies et des images faciales qui peuvent être consultés en ligne. , en particulier ceux disponibles via les réseaux sociaux, en tant que tels, ne répondraient pas aux exigences strictes des statuts de l’Union », a-t-il déclaré.

Fava a déclaré: «Il est logique que les régulateurs se concentrent principalement sur l’utilisation du FRT dans l’application de la loi, en interprétant la loi d’une manière qui protège les droits fondamentaux et nous sauve d’un avenir orwellien; mais plus de réflexion par les régulateurs et les législateurs sur la façon dont la technologie peut être exploitée de manière sûre et positive serait bien accueillie par beaucoup.

« Aucune technologie n’est intrinsèquement bonne ou mauvaise et il existe une utilisation potentielle du FRT dans le secteur privé qui serait bénéfique dans la société moderne. Cela implique souvent des situations où un client souhaite être automatiquement identifié dans une foule, mais une telle utilisation est empêchée par la manière dont le cadre juridique actuel est interprété pour s’appliquer aux données personnelles des observateurs. Une autre situation est celle où FRT offre un niveau de sécurité inégalé, mais cette utilisation est entravée par les exigences d’approbation actuelles. Actuellement, les entreprises qui cherchent à mettre en œuvre le FRT sont confrontées à une grande incertitude », a-t-il déclaré.

Lancelot Bonnay

"Érudit primé au bacon. Organisateur. Fanatique dévoué des médias sociaux. Passionné de café hardcore."

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *