Le discours de haine au Myanmar continue de prospérer sur Facebook


Le discours de haine au Myanmar continue de prospérer sur Facebook

Des années après avoir fait l’objet d’un examen minutieux pour avoir contribué à la violence ethnique et religieuse dans Birmanie, Facebook a toujours des problèmes de détection et de modération discours de haine et la désinformation sur sa plate-forme dans la nation d’Asie du Sud-Est, des documents internes consultés par l’Associated Press montrent.

Il y a trois ans, la société a commandé un rapport qui a révélé que Facebook était utilisé pour « fomenter la division et inciter à la violence hors ligne » dans le pays.

Il s’est engagé à faire mieux et a développé plusieurs outils et politiques pour lutter contre le discours de haine. Mais en parcourant Facebook aujourd’hui, il n’est pas difficile de trouver des messages menaçant de meurtre et de viol au Myanmar.

Les violations ont persisté – et ont même été exploitées par des acteurs hostiles – depuis la prise de contrôle militaire du 1er février de cette année, qui a entraîné des violations horribles des droits humains à travers le pays.

Une vidéo de 2 minutes et demie publiée le 24 octobre d’un partisan de l’armée appelant à la violence contre les groupes d’opposition a recueilli plus de 56 000 vues.

« Donc à partir de maintenant, nous sommes le dieu de la mort pour tous (d’entre eux) », dit l’homme en birman en regardant la caméra. « Venez demain et voyons si vous êtes de vrais hommes ou gays. »

Un compte affiche l’adresse du domicile d’un transfuge militaire et une photo de sa femme. Un autre article du 29 octobre comprend une photo de soldats conduisant des hommes liés et les yeux bandés sur un chemin de terre. La légende birmane se lit comme suit : « Ne les attrapez pas vivants ».

Malgré les problèmes persistants, Facebook considérait ses opérations au Myanmar à la fois comme un modèle à exporter dans le monde et comme un cas évolutif et caustique. Les documents examinés par AP montrent que le Myanmar est devenu un terrain d’essai pour une nouvelle technologie de modération de contenu, le géant des médias sociaux testant des moyens d’automatiser la détection des discours de haine et de désinformation avec différents niveaux de succès.

Les discussions internes de Facebook sur le Myanmar ont été révélées dans des divulgations faites à la Securities and Exchange Commission et fournies au Congrès sous une forme expurgée par le conseiller juridique de l’ancienne employée de Facebook devenue dénonciatrice, Frances Haugen. Les versions expurgées reçues par le Congrès ont été obtenues par un consortium d’organisations de presse, dont l’Associated Press.

Facebook a eu une histoire plus courte mais plus volatile au Myanmar que dans la plupart des pays. Après des décennies de censure sous le régime militaire, le Myanmar a été connecté à Internet en 2000. Peu de temps après, Facebook s’est associé à des fournisseurs de télécommunications du pays, permettant aux clients d’utiliser la plate-forme sans avoir à payer pour les données, qui étaient encore chères à l’époque. . L’utilisation de la plate-forme a explosé. Pour beaucoup au Myanmar, Facebook est devenu Internet lui-même.

Htaike Htaike Aung, un défenseur de la politique d’Internet au Myanmar, a déclaré qu’il était également devenu « un foyer d’extrémisme » vers 2013, coïncidant avec des émeutes religieuses à travers le Myanmar entre bouddhistes et musulmans. On ne sait pas dans quelle mesure, le cas échéant, la modération du contenu se produisait à l’époque.

Htaike Htaike Aung a déclaré qu’elle avait rencontré Facebook cette année-là et avait exposé les problèmes du pays, notamment comment les organisations locales voyaient des quantités exponentielles de discours de haine sur la plate-forme et comment les mécanismes de prévention, tels que les messages de signalement, ne fonctionnaient pas dans le contexte du Myanmar. .

Un exemple qu’elle a cité était une photo d’un tas de bâtons de bambou qui a été publiée avec une légende disant : « Soyons prêts car il va y avoir une émeute qui va se produire au sein de la communauté musulmane.

Htaike Htaike Aung a déclaré que la photo avait été signalée à Facebook, mais que l’entreprise ne l’avait pas retirée car elle n’enfreignait aucune des normes communautaires de l’entreprise.

« Ce qui est ridicule car cela appelait en fait à la violence. Mais Facebook ne l’a pas vu de cette façon », a-t-elle déclaré.

Des années plus tard, le manque de modération a attiré l’attention de la communauté internationale. En mars 2018, des experts des droits humains des Nations Unies enquêtant sur les attaques contre la minorité musulmane Rohingya du Myanmar ont déclaré que Facebook avait joué un rôle dans la propagation des discours de haine.

Interrogé sur le Myanmar un mois plus tard lors d’une audience au Sénat américain, le PDG Mark Zuckerberg a répondu que Facebook prévoyait d’embaucher des « douzaines » de locuteurs birmans pour modérer le contenu, travaillerait avec des groupes de la société civile pour identifier les personnalités haineuses et développer de nouvelles technologies pour lutter contre les discours de haine.

« Le discours de haine est très spécifique à la langue. Il est difficile de le faire sans des personnes qui parlent la langue locale et nous devons considérablement intensifier nos efforts là-bas. » Zuckerberg mentionné.

Des documents internes de Facebook montrent que si l’entreprise a intensifié ses efforts pour lutter contre les discours de haine, les outils et stratégies pour le faire n’ont jamais porté leurs fruits, et des personnes au sein de l’entreprise ont à plusieurs reprises sonné l’alarme. Dans un document de mai 2020, un employé a déclaré qu’un classificateur de texte de discours haineux qui était disponible n’était pas utilisé ou maintenu. Un autre document datant d’un mois plus tard indiquait qu’il y avait des « lacunes importantes » dans la détection de la désinformation au Myanmar.

« Facebook a pris des mesures symboliques qui, je pense, étaient conçues pour apaiser les décideurs politiques sur le fait que quelque chose était en train d’être fait et qu’il n’était pas nécessaire de chercher beaucoup plus loin », a déclaré Ronan Lee, chercheur invité à l’International State Crime Initiative de l’Université Queen Mary de Londres.

Dans une déclaration envoyée par courrier électronique à l’AP, Rafael Frankel, directeur des politiques de Facebook pour les pays émergents de l’APAC, a déclaré que la plate-forme « a constitué une équipe dédiée de plus de 100 locuteurs birmans », mais a refusé d’indiquer exactement combien étaient employés. La société de marketing en ligne NapoleonCat estime qu’il y a environ 28,7 millions d’utilisateurs de Facebook au Myanmar.

Lors de son témoignage devant le Parlement de l’Union européenne le 8 novembre, Haugen, la dénonciatrice, a critiqué Facebook pour son manque d’investissement dans la vérification des faits par des tiers et pour son recours à des systèmes automatiques pour détecter les contenus préjudiciables.

« Si vous vous concentrez sur ces systèmes automatiques, ils ne fonctionneront pas pour les endroits du monde les plus ethniquement diversifiés, avec des endroits du monde linguistiquement diversifiés, qui sont souvent les plus fragiles », a-t-elle déclaré en faisant référence au Myanmar.

Après le témoignage de Zuckerberg au Congrès en 2018, Facebook a développé des outils numériques pour lutter contre les discours de haine et la désinformation et a également créé un nouveau cadre interne pour gérer des crises comme celle du Myanmar dans le monde.

Facebook a dressé une liste de « pays à risque » avec des niveaux classés pour une « équipe de pays critiques » sur laquelle concentrer son énergie, et a également évalué les langues nécessitant plus de modération de contenu. Le Myanmar a été répertorié comme un pays à risque de « niveau 1 », le birman étant considéré comme une « langue prioritaire » aux côtés des langues éthiopiennes, bengali, arabe et ourdou.

Les ingénieurs de Facebook ont ​​enseigné des mots d’argot birman pour « musulmans » et « rohingyas » à ses systèmes automatisés. Il a également entraîné des systèmes à détecter les « comportements inauthentiques coordonnés » tels qu’une seule personne publiant à partir de plusieurs comptes, ou la coordination entre différents comptes pour publier le même contenu.

L’entreprise a également essayé la « rétrogradation des délinquants », ce qui réduit l’impact des publications d’utilisateurs qui enfreignent fréquemment les directives. Lors d’un test dans deux des pays les plus instables du monde, la rétrogradation a bien fonctionné en Éthiopie, mais mal au Myanmar – une différence qui a déconcerté les ingénieurs, selon un rapport de 2020 inclus dans les documents.

« Nous ne savons pas pourquoi … mais ces informations constituent un point de départ pour une analyse plus approfondie et des recherches sur les utilisateurs », indique le rapport. Facebook a refusé de commenter le dossier si le problème a été résolu un an après sa détection, ou sur le succès des deux outils au Myanmar.

FacebookTwitterLinkedin


.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

*