180 milliards d’euros demandés à Meta (Facebook) pour réparer les dommages causés aux Rohingyas

Exilée de Birmanie depuis 2017 et persécutée par l’armée birmane sur les postes frontières du Myanmar depuis août 2017, cette minorité apatride, et en majorité musulmane, est la cible de persécutions et de violations des droits humains de la part du gouvernement local et de bouddhistes extrémistes du pays. Ces persécutions, qui ont été qualifiées de nettoyage ethnique et de génocide, auraient été en partie provoquées par les algorithmes de Facebook, qui favorisent les discours haineux, au profit du développement de son audience et de ses revenus. Les communautés de Rohingyas basées à l’étranger, notamment aux États-Unis et au Royaume-Uni, se sont organisées pour déposer plainte contre Meta (anciennement Facebook), assurant que la plateforme a été responsable de diffuser largement des discours haineux et de fausses informations, alimentant indirectement le génocide.

Facebook n’aurait rien fait pour stopper les messages incitant au génocide

Les victimes se plaignent dans un recours déposé le 6 décembre dernier aux États-Unis, que la plateforme n’aurait rien fait pour retirer les messages incendiaires publiés au moment du génocide, mené principalement par l’armée du pays. Une indemnisation de 180 milliards d’euros servira à « réparer les dommages causés ». Selon Médecins sans frontières, au moins 10 000 Rohingyas ont été tués lors des « opérations de nettoyage » menées par l’armée birmane.

Haugen accuse Facebook d’avoir profité du génocide pour développer son utilisation en Asie du Sud-Est

Les communautés Rohingyas ne sont pas les premières à signaler la responsabilité de Facebook dans ce crime contre l’humanité. En octobre dernier, la lanceuse d’alerte Frances Haugen, dévoilait dans une interview pour la chaîne de télévision canadienne CBC, que Meta était selon elle responsable des conflits dans différents pays, étant capable de “déchirer nos sociétés et provoquer des violences ethniques dans le monde ». Dans le but de préserver ses revenus publicitaires, Facebook contribuerait volontairement à la propagation de contenu haineux, et à la polarisation politique. Frances Haugen explique que Facebook « a réalisé que s’ils changeaient l’algorithme pour que la plateforme soit plus sûre, moins de personnes resteront sur la plateforme, elles cliqueront sur moins de publicités, et Facebook fera moins de profit ». Profit en partie apporté par le contenu haineux, qui divise, polarise, provoque la colère chez les utilisateurs. Des chercheurs de Yale ont aussi vérifié que plus une publication génère la colère, plus elle aura de succès, mais plus ses conséquences seront négatives et dangereuses. Facebook aurait permis l’utilisation de sa plateforme aux militaires du Myanmar, provoquant de terribles conséquences contre les Rohingyas, explique Haugen. En réponse à ces accusations, Facebook a déclaré avoir mis en place une « stratégie globale pour les pays exposés à des conflits et à la violence ».

Facebook reconnaît ses erreurs et supprime des comptes liés à l’armée

Ce mercredi 8 décembre, Facebook a rendu publique la suppression de sa plateforme de toutes les pages et comptes appartenant aux entreprises responsables de financer les répressions par l’armée birmane. En 2018, Facebook avait reconnu qu’elle n’avait pas fait assez pour empêcher l’incitation à la violence et les discours de haine contre les Rohingyas. Pour apaiser les esprits sur la question du génocide, l’entreprise a commandé un rapport indépendant sur ce sujet pour savoir comment elle aurait dû agir, mais pour l’instant, aucune forme de réparation ou de soutien n’a été offerte aux victimes.