Apple abandonne son plan pour analyser les photos iCloud à la recherche de matériel pédopornographique dans le cadre d’une campagne de confidentialité


Apple aurait abandonné un plan controversé visant à analyser les photos des utilisateurs stockées dans iCloud à la recherche de matériel d’abus sexuel d’enfants, ou CSAM, dans le cadre d’une campagne de confidentialité en cours.

Ces outils de sécurité, annoncés en août 2021, étaient destinés à signaler les contenus illicites tout en préservant la confidentialité. Mais les plans ont suscité de nombreuses critiques de la part des groupes de défense des droits numériques qui ont fait valoir que les capacités de surveillance étaient mûres pour des abus potentiels.

Apple a mis les plans en pause un mois plus tard. Maintenant, plus d’un an après son annonce, la société n’a pas l’intention d’aller de l’avant avec l’outil de détection de CSAM.

La société affirme développer de nouvelles fonctionnalités qui permettront de mieux équilibrer la confidentialité des utilisateurs et de protéger les enfants. De tels paramètres permettront aux parents de limiter les contacts de leur enfant, de restreindre le contenu et le temps d’écran et de fournir une boutique d’applications soigneusement organisée pour les enfants.

Apple affirme que la meilleure façon de prévenir l’exploitation en ligne des enfants est de l’interrompre avant qu’elle ne se produise. La société a souligné les nouvelles fonctionnalités qu’elle a déployées en décembre 2021 qui ont permis ce processus.

La société affirme qu'elle développera de nouvelles fonctionnalités pour aider à équilibrer la confidentialité des utilisateurs et protéger les enfants.
La société affirme qu’elle développera de nouvelles fonctionnalités pour aider à équilibrer la confidentialité des utilisateurs et protéger les enfants.
Images SOPA/LightRocket via Gett

La sécurité des communications dans les messages, par exemple, inclut des avertissements lorsque des photos douteuses sont envoyées et des conseils étendus dans Siri, Spotlight et Safari Search.

La société travaille sur des mises à jour de la sécurité des communications dans les messages pour couvrir la nudité dans les vidéos et d’autres protections pour la sécurité des enfants. Apple dit qu’il travaille également avec des professionnels de la sécurité des enfants pour rendre le signalement des incidents aux forces de l’ordre plus transparent.

La société a annoncé mercredi qu’elle offrira désormais un chiffrement complet de bout en bout pour presque toutes les données que ses utilisateurs stockent dans son système de stockage mondial basé sur le cloud, ce qui rendra plus difficile pour les pirates, les espions et les forces de l’ordre d’accéder aux informations sensibles des utilisateurs.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

*