Comme Israël l’a imposé Suite à une panne d’Internet à Gaza vendredi, les utilisateurs des réseaux sociaux qui ont publié des articles sur les conditions difficiles ont été confrontés à une censure erratique et souvent inexpliquée du contenu lié à la Palestine sur Instagram et Facebook.
Depuis qu’Israël a lancé des frappes aériennes de représailles à Gaza après l’attaque du Hamas du 7 octobre, les utilisateurs de Facebook et d’Instagram ont signalé des suppressions généralisées de leur contenu, des traductions insérant le mot « terroriste » dans les profils Instagram palestiniens et la suppression de hashtags. Les commentaires Instagram contenant l’emoji du drapeau palestinien ont également été masqués, selon 7amleh, un groupe palestinien de défense des droits numériques qui collabore formellement avec Meta, propriétaire d’Instagram et de Facebook, sur les questions de discours régional.
De nombreux utilisateurs ont signalé à 7amleh que leurs commentaires avaient été déplacés vers le bas de la section des commentaires et nécessitaient un clic pour s’afficher. De nombreuses remarques ont quelque chose en commun : « Cela semblait souvent coïncider avec la présence d’un drapeau palestinien dans le commentaire », a déclaré à The Intercept le porte-parole de 7amleh, Eric Sype.
Les utilisateurs signalent qu’Instagram avait signalé et masqué les commentaires contenant l’emoji comme « potentiellement offensants », a rapporté TechCrunch pour la première fois la semaine dernière. Meta a régulièrement attribué des cas similaires de censure présumée à des problèmes techniques. Meta a confirmé à The Intercept que la société avait caché des commentaires contenant l’emoji du drapeau palestinien dans certains contextes « offensants » qui violaient les règles de la société.
« L’idée d’une offensive de drapeau est profondément angoissante pour les Palestiniens », a déclaré à The Intercept Mona Shtaya, chercheuse non-résidente à l’Institut Tahrir pour la politique au Moyen-Orient qui suit l’élaboration de la politique de Meta en matière de discours.
« L’idée d’une offensive de drapeau est profondément angoissante pour les Palestiniens. »
Interrogé sur les contextes dans lesquels Meta cache le drapeau, le porte-parole de Meta, Andy Stone, a souligné la politique sur les organisations et individus dangereux, qui désigne le Hamas comme une organisation terroriste, et a cité une section du règlement des normes communautaires qui interdit tout contenu « louant, célébrant ou se moquer de la mort de qui que ce soit.
Cependant, on ne sait pas exactement comment Meta détermine si l’utilisation de l’emoji du drapeau est suffisamment offensante pour être supprimée. The Intercept a examiné plusieurs commentaires cachés contenant l’emoji du drapeau palestinien qui n’avaient aucune référence au Hamas ou à tout autre groupe interdit. Le drapeau palestinien lui-même n’a aucune association formelle avec le Hamas et est antérieur de plusieurs décennies au groupe militant.
Certains des commentaires cachés examinés par The Intercept ne contenaient que des émojis et aucun autre texte. Dans l’une d’elles, un utilisateur a commenté une vidéo Instagram d’une manifestation pro-palestinienne en Jordanie avec des émojis en forme de cœur vert, blanc et noir correspondant aux couleurs du drapeau palestinien, ainsi que des émojis des drapeaux marocain et palestinien. Dans une autre, un utilisateur n’a posté que trois émojis du drapeau palestinien. Une autre capture d’écran vue par The Intercept montrait deux commentaires cachés composés uniquement des hashtags #Gaza, #gazaunderattack, #freepalestine et #ceasefirenow.
« Tout au long de notre longue histoire, nous avons traversé des moments où notre droit d’afficher le drapeau palestinien a été refusé par les autorités israéliennes. Il y a des décennies, les artistes palestiniens Nabil Anani et Suleiman Mansour ont ingénieusement utilisé une pastèque comme symbole de notre drapeau », a déclaré Shtaya. « Lorsque Meta s’engage dans de telles pratiques, cela fait écho aux mesures d’oppression imposées aux Palestiniens. »
Modération de contenu défectueux
Les utilisateurs d’Instagram et de Facebook se sont tournés vers d’autres plateformes de médias sociaux pour signaler d’autres cas de censure. Sur X, anciennement connu sous le nom de Twitter, un utilisateur a posté que Facebook avait bloqué une capture d’écran d’un compte Instagram palestinien populaire qu’il avait tenté de partager avec un ami par message privé. Le message a été signalé comme contenant des images sexuelles non consensuelles et son compte a été suspendu.
Sur Bluesky, des utilisateurs de Facebook et d’Instagram ont signalé que les tentatives de partage du récent article du journaliste chargé de la sécurité nationale Spencer Ackerman critiquant le soutien du président Joe Biden à Israël avaient été bloquées et signalées comme des risques pour la cybersécurité.
Vendredi, le site d’information Mondoweiss tweeté une capture d’écran d’une vidéo Instagram sur les arrestations israéliennes de Palestiniens en Cisjordanie qui a été supprimée parce qu’elle violait la politique relative aux organisations dangereuses.
Le recours croissant de Meta à une modération de contenu automatisée et basée sur un logiciel peut empêcher les gens d’avoir à trier des images extrêmement dérangeantes et potentiellement traumatisantes. La technologie repose cependant sur des algorithmes opaques et irresponsables qui introduisent un risque de ratés, censurant le contenu sans explication. Le problème semble s’étendre aux postes liés au conflit israélo-palestinien.
Un audit indépendant commandé par Meta l’année dernière a déterminé que les pratiques de modération de l’entreprise constituaient une violation des droits humains des utilisateurs palestiniens. L’audit a également conclu que la politique relative aux organisations et individus dangereux – que les défenseurs de la parole ont critiquée pour son opacité et la surreprésentation des Moyen-Orientaux, des musulmans et des Asiatiques du Sud – était « plus susceptible d’avoir un impact sur les utilisateurs palestiniens et arabophones, tous deux sur la base de l’interprétation de Meta. des obligations légales, et par erreur.
La semaine dernière, le Wall Street Journal a rapporté que Meta avait récemment réduit le niveau de confiance requis par ses systèmes automatisés avant de supprimer les « discours hostiles » à 25 % pour le marché palestinien, une diminution significative par rapport au seuil standard de 80 %.
L’audit a également reproché à Meta d’avoir mis en œuvre un outil d’analyse logiciel pour détecter les incitations à la violence ou au racisme en arabe, mais pas pour les publications en hébreu. « Les classificateurs arabes sont probablement moins précis pour l’arabe palestinien que pour les autres dialectes… en raison du manque de compétence linguistique et culturelle », indique le rapport.
« Depuis le début de cette crise, nous avons reçu des centaines de communications documentant une incitation à la violence en hébreu. »
Malgré l’affirmation de Meta selon laquelle la société a développé un classificateur de discours pour l’hébreu en réponse à l’audit, les discours hostiles et les incitations à la violence en hébreu sont monnaie courante sur Instagram et Facebook, selon 7amleh.
« D’après notre surveillance et notre documentation, cela semble très inefficace », a déclaré Nadim Nashif, directeur exécutif et co-fondateur de 7amleh, à propos du classificateur hébreu. « Depuis le début de cette crise, nous avons reçu des centaines de soumissions documentant une incitation à la violence en hébreu, qui violent clairement les politiques de Meta, mais qui sont toujours sur les plateformes. »
Une recherche sur Instagram d’un hashtag en hébreu signifiant approximativement « effacer Gaza » a produit des dizaines de résultats au moment de la publication. Meta n’a pas pu être contacté dans l’immédiat pour commenter l’exactitude de son classificateur de discours hébreu.
Le Wall Street Journal a mis en lumière les raisons pour lesquelles des propos hostiles en hébreu apparaissent encore sur Instagram. “Plus tôt ce mois-ci”, a rapporté le journal, “la société a reconnu en interne qu’elle n’avait pas utilisé son classificateur de discours hostiles en hébreu dans les commentaires Instagram parce qu’elle ne disposait pas de suffisamment de données pour que le système fonctionne correctement.”
La source: theintercept.com