En décembre, Apple a déclaré qu’il mettait fin aux efforts visant à concevoir un outil d’analyse de photos iCloud préservant la confidentialité et permettant de détecter les contenus pédopornographiques (CSAM) sur la plate-forme. Initialement annoncé en août 2021, le projet faisait polémique depuis ses débuts. Apple l’a suspendu pour la […]