« Tuer plus »: Facebook ne parvient pas à détecter la haine contre les Rohingyas


JAKARTA, INDONÉSIE : Un nouveau rapport a révélé que Facebook n’avait pas détecté les discours de haine flagrants et les appels à la violence contre la minorité musulmane Rohingya du Myanmar des années après que de tels comportements aient joué un rôle déterminant dans le génocide contre eux.
Le rapport partagé exclusivement avec l’Associated Press a montré que le groupe de défense des droits Global Witness avait soumis huit publicités payantes pour approbation à Facebook, chacune comprenant différentes versions de discours de haine contre les Rohingyas. Les huit publicités ont été approuvées par Facebook pour être publiées.
Le groupe a retiré les publicités avant qu’elles ne soient publiées ou payées, mais les résultats ont confirmé que malgré ses promesses de faire mieux, les contrôles qui fuient de Facebook ne parviennent toujours pas à détecter les discours de haine et les appels à la violence sur sa plateforme.
L’armée a mené ce qu’elle a appelé une campagne de déminage dans l’État de Rakhine, dans l’ouest du Myanmar, en 2017 après une attaque d’un groupe d’insurgés rohingyas. Plus de 700 000 Rohingyas ont fui vers le Bangladesh voisin et les forces de sécurité ont été accusées de viols massifs, de meurtres et d’incendies de milliers de maisons.
Lundi également, le secrétaire d’État américain Antony Blinken a annoncé que les États-Unis considéraient la violence contre les Rohingyas comme un génocide. La déclaration vise à la fois à générer une pression internationale et à jeter les bases d’une éventuelle action en justice, a déclaré Blinken.
Le 1er février de l’année dernière, l’armée birmane a pris le contrôle du pays par la force, emprisonnant des représentants du gouvernement démocratiquement élus. Les réfugiés rohingyas ont condamné la prise de contrôle par l’armée et ont déclaré que cela les rend encore plus effrayés à l’idée de retourner au Myanmar.
Les experts disent que de telles publicités ont continué à apparaître et que malgré ses promesses de faire mieux et ses assurances qu’il a pris au sérieux son rôle dans le génocide, Facebook échoue toujours même au test le plus simple _ en veillant à ce que les publicités payantes diffusées sur son site ne contiennent pas discours de haine appelant au meurtre de musulmans rohingyas.
« Le massacre actuel des Kalar ne suffit pas, nous devons en tuer plus ! » lire une proposition de publication payante de Global Witness, utilisant une insulte souvent utilisée au Myanmar pour désigner les personnes d’origine indienne ou musulmane.
« Elles sont très sales. Les femmes bengalis/rohingyas ont un niveau de vie très bas et une mauvaise hygiène. Elles ne sont pas attirantes », lit un autre.
« Ces messages sont choquants dans ce qu’ils encouragent et sont un signe clair que Facebook n’a pas changé ou fait ce qu’ils ont dit au public ce qu’ils feraient : se réglementer correctement », a déclaré Ronan Lee, chercheur à l’Institute for Media and Creative. Industries à l’Université de Loughborough, Londres.
Les huit publicités de Global Witness utilisaient toutes un discours haineux tiré directement de la Mission d’enquête internationale indépendante des Nations Unies sur le Myanmar dans son rapport au Conseil des droits de l’homme. Plusieurs exemples provenaient d’anciens messages Facebook.
Le fait que Facebook ait approuvé les huit publicités est particulièrement préoccupant, car la société prétend maintenir les publicités à une norme « encore plus stricte » que les publications régulières et non rémunérées, selon leur page de centre d’aide pour les publicités payantes.
« J’accepte le fait que huit n’est pas un très grand nombre. Mais je pense que les conclusions sont vraiment frappantes, que les huit annonces ont été acceptées pour publication », a déclaré Rosie Sharpe, une militante de Global Witness. « Je pense que vous pouvez en conclure que l’écrasante majorité des discours de haine est susceptible de passer. »
La société mère de Facebook, Meta Platforms Inc., a déclaré qu’elle avait investi dans l’amélioration de ses contrôles de sûreté et de sécurité au Myanmar, notamment en interdisant les comptes militaires après le Tatmadaw, car les forces armées sont connues localement, ont pris le pouvoir et emprisonné les dirigeants élus lors du coup d’État de 2021.
« Nous avons constitué une équipe dédiée de locuteurs birmans, interdit le Tatmadaw, perturbé les réseaux manipulant le débat public et pris des mesures contre la désinformation préjudiciable pour assurer la sécurité des personnes. Nous avons également investi dans la technologie en langue birmane pour réduire la prévalence des contenus illicites. « , a écrit Rafael Frankel, directeur des politiques publiques pour les marchés émergents chez Meta Asia Pacific dans une déclaration envoyée par courrier électronique à AP le 17 mars. « Ce travail est guidé par les commentaires d’experts, d’organisations de la société civile et de rapports indépendants, y compris le UN Fact – Mission de recherche sur les conclusions du Myanmar et l’évaluation indépendante de l’impact sur les droits de l’homme que nous avons commandée et publiée en 2018. »
Facebook a été utilisé pour diffuser des discours de haine et amplifier la propagande militaire au Myanmar dans le passé.
Peu de temps après que le Myanmar se soit connecté à Internet en 2000, Facebook s’est associé à ses fournisseurs de télécommunications pour permettre aux clients d’utiliser la plate-forme sans avoir à payer pour les données, qui étaient encore chères à l’époque. L’utilisation de la plateforme a explosé. Pour beaucoup au Myanmar, Facebook est devenu Internet lui-même.
Les défenseurs locaux de la politique Internet ont déclaré à plusieurs reprises que le discours de haine sur Facebook se répandait sur la plate-forme, ciblant souvent la minorité musulmane Rohingya dans la nation à majorité bouddhiste.
Pendant des années, Facebook n’a pas investi dans des modérateurs de contenu qui parlaient les langues locales ou des vérificateurs de faits ayant une compréhension de la situation politique au Myanmar ou pour fermer des comptes spécifiques ou supprimer des pages utilisées pour propager la haine des Rohingyas, a déclaré Tun Khin, président de Burmese Rohingya. Organization UK, une organisation de défense des Rohingyas basée à Londres.
En mars 2018, moins de six mois après que des centaines de milliers de Rohingyas aient fui la violence dans l’ouest du Myanmar, Marzuki Darusman, président de la Mission d’enquête internationale indépendante des Nations Unies sur le Myanmar, a déclaré aux journalistes que les médias sociaux avaient « substantiellement contribué au niveau d’acrimonie ». et les dissensions et les conflits, si vous voulez, au sein du public.« 
« Le discours de haine en fait certainement partie. En ce qui concerne la situation au Myanmar, les médias sociaux, c’est Facebook, et Facebook est un média social », a déclaré Darusman.
Interrogé sur le Myanmar un mois plus tard lors d’une audience au Sénat américain, le PDG de Meta, Mark Zuckerberg, a déclaré que Facebook prévoyait d’embaucher « des dizaines » de locuteurs birmans pour modérer le contenu et travaillerait avec des groupes de la société civile pour identifier les personnalités haineuses et développer de nouvelles technologies pour lutter contre les discours de haine.
« Le discours de haine est très spécifique à la langue. Il est difficile de le faire sans des personnes qui parlent la langue locale et nous devons intensifier considérablement nos efforts là-bas », a déclaré Zuckerberg.
Pourtant, dans des fichiers internes divulgués par la lanceuse d’alerte Frances Haugen l’année dernière, AP a constaté que les violations persistaient. L’entreprise a intensifié ses efforts pour lutter contre les discours de haine, mais n’a jamais pleinement développé les outils et les stratégies nécessaires pour le faire.
Les réfugiés rohingyas ont poursuivi Facebook pour plus de 150 milliards de dollars, l’accusant de ne pas avoir mis fin aux discours de haine qui incitaient à la violence contre le groupe ethnique musulman par les dirigeants militaires et leurs partisans au Myanmar. Des groupes de jeunes rohingyas basés dans les camps de réfugiés du Bangladesh ont déposé une plainte distincte en Irlande auprès de l’Organisation de coopération et de développement économiques de 38 pays, demandant à Facebook de fournir des programmes de remédiation dans les camps.
La société désormais appelée Meta a refusé de dire combien de ses modérateurs de contenu lisent le birman et peuvent ainsi détecter les discours de haine au Myanmar.
« Les survivants du génocide rohingya continuent de vivre dans des camps aujourd’hui et Facebook continue de leur faire défaut », a déclaré Tun Khin. « Facebook doit faire plus. »



Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

*