avis | Médias actuels

La société est également confrontée à des questions sur son récent déploiement de mesures de sécurité pour protéger les enfants et éradiquer l’utilisation de technologies nocives et dégoûtantes pour commettre du matériel d’abus sexuel d’enfants, appelé CSAM.La méthode d’Apple consiste à surveiller les appareils personnels des utilisateurs, plutôt que les informations dans le cloud. , qui a soulevé des problèmes de confidentialité, le choc d’une entreprise qui a mis ses représentants en jeu pour protéger la vie privée des consommateurs.

Deux informaticiens de premier plan ont fait part de leurs préoccupations, en particulier les abus des gouvernements, récemment éditorial au Washington Post:

Les gouvernements étrangers peuvent, par exemple, imposer des services aux personnes qui prononcent des discours politiques importuns. Ce n’est pas hypothétique : WeChat, l’application de messagerie chinoise populaire, utilise déjà la correspondance de contenu pour identifier le matériel dissident. L’Inde a imposé cette année une règle qui peut exiger une présélection du contenu critique des politiques gouvernementales. La Russie a récemment infligé une amende à Google, Facebook et Twitter pour ne pas avoir supprimé le matériel de protestation pro-démocratie.

J’ai fait le podcast « Sway » la semaine dernière avec le co-fondateur de Thorn, Ashton Kutcher, et la directrice générale, Julie Cordua, à ce sujet et sur des questions connexes. Cette organisation à but non lucratif se concentre sur l’éradication de l’exploitation sexuelle des enfants à l’aide de la technologie.

Comme nous l’avons noté à l’ouverture de l’épisode, « le logiciel d’Apple réduit les images à une sorte d’empreinte digitale appelée un hachage et ne marque les choses qui doivent être revues que s’il y a plusieurs images associées. Néanmoins, la décision d’Apple a déclenché un débat entre la fin de l’exploitation des enfants, ce que je pense que nous sommes tous d’accord, et la protection de la vie privée, qui est le compromis ici. »

Kutcher et Cordua défendent le plan d’Apple comme essentiel pour arrêter ce flux sans fin de contenu illégal et toxique. « Est-ce la solution de référence ? » dit Kucher. « Je ne sais pas. Ce que je sais, c’est que je n’ai jamais été impliqué dans une entreprise technologique dont le premier produit était le produit final. »

C’est un point juste, mais même Apple sait qu’il a des problèmes. Il n’est pas surprenant que la société ait retardé indéfiniment le lancement de la fin de cette année. Dans un communiqué, la société a déclaré: « Sur la base des commentaires des clients, des groupes de défense, des chercheurs et d’autres, nous avons décidé de prendre plus de temps au cours des prochains mois pour recueillir les commentaires et apporter des améliorations avant de publier cette fonctionnalité de sécurité des enfants d’une importance cruciale. »

Ici, respirer est la bonne décision, mais c’est une erreur directe d’une entreprise qui le fait rarement, surtout lorsqu’il s’agit de communiquer.

Et ce n’est pas tout. Les problèmes entre les États-Unis et la Chine ne manqueront pas de s’aggraver, ce qui affectera Apple, compte tenu de son exposition là-bas. Et ouais, anxiété des employés, qu’Apple a longtemps réussi à fermer. Les travailleurs blabby ne sont pas nouveaux dans la technologie, mais blabby Pomme qui? Une nouvelle touche, assurément.

Roul Dennel

"Écrivain extrême. Passionné d'Internet. Passionné de télévision indépendant. Fan de nourriture diabolique. Introverti. Penseur hardcore. Future idole des adolescents. Expert en bacon."

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *