Ô surprise : une étude d’Amnesty démontre que Twitter est toxique pour les femmes

http://taqadoum.mr/fr/sites/default/files/%D9%81%D8%A6.jpgSelon l’ONG, les femmes politiques et les journalistes subissent des violences verbales sur Twitter toutes les 30 secondes. Tout sauf une surprise.

Être une femme active sur Twitter, lorsque l’on est journaliste, politique ou que l’on possède un tant soit peu de capacité d’influence, n’a rien d’évident. D’après Amnesty International, ça relèverait même du chemin de croix. Menaces, harcèlement, diffamation, insultes… selon les statistiques de l’étude, Twitter démontre quotidiennement aux femmes l’infinie déclinaison de la violence verbale, même parquée en 280 caractères.

La violence est là, permanente et résumée par ce chiffre ahurissant : en 2017, les comptes de femmes étudiés par l’ONG ont été en moyenne victimes de violence verbale toutes les 30 secondes. En moyenne. Chaque jour. Sur l’année entière. Et après, certains s’étonnent encore de voir des personnalités fermer leur compte et quitter le réseau social…

Au-delà du choc de cette statistique, il va être difficile pour Jack Dorsey (le patron de Twitter) d’ignorer les résultats publiés ce mardi par Amnesty sur un site interactif dédié. Cette enquête, effectuée en partenariat avec l’entreprise d’intelligence artificielle Element AI, se concentre sur 778 profils de femmes d’influence américaines et britanniques (membres du Congrès, députées, journalistes politiques…).

Au total, ces femmes ont reçu 1,1 million de tweets labellisés comme « abusifs » vis-à-vis de leur genre, ethnie ou sexualité, soit 7,1 % du total des tweets reçus. Peu de différence de traitement entre les journalistes et les élues, aucune différence non plus entre leurs camps politiques. En revanche, l’étude démontre que les femmes de couleur ont 34 % de chance d’être ciblées de plus que les femmes blanches (pour les seules femmes noires, la différence monte à 84 %).

Au-delà de la réalité dépeinte par ces chiffres, la méthodologie utilisée par Amnesty mérite d’être analysée. L’ONG s’est en effet appuyée à la fois sur les algorithmes et sur le crowdsourcing. Dans un premier temps, une « Troll Patrol » composée de 6 500 volontaires venus de 150 pays, qui ont patiemment trié un échantillon de 288 000 tweets pour reconnaître le contenu problématique avec un niveau de discernement inégalable pour une IA.

Une fois l’échantillon de base composé après l’équivalent de 2 500 heures de travail, les algorithmes ont pris le relais pour extrapoler les résultats aux 14,5 millions de tweets envoyés à ce panel de femmes depuis leur inscription sur le réseau social. Une combinaison qui permet d’obtenir une estimation aussi qualitative que quantitative de la tendance étudiée.

Publicité

Les robots censeurs ? Insuffisants

Grâce au travail de l’ONG, d’Element AI et des volontaires, nous voilà donc avec une preuve tangible, quantifiée et chiffrée d’un phénomène que personne n’ignorait, pas même les responsables de Twitter. Cela fait maintenant des années que les femmes témoignent de la violence verbale sur Twitter et tentent d’y répondre en bloquant, supprimant, ignorant, répondant aux menaces ou en interpellant les autorités sur la question, sans autres résultats que des promesses et des systèmes d’identification préventive.

Amnesty, qui considère la protection contre la violence en ligne comme une question relevant des droits humains, a déjà sommé Twitter de publier des chiffres sur la gravité de ce phénomène, ce que l’entreprise a poliment refusé de faire. Pendant ce temps-là, les trolls prolifèrent. Et maintenant, quoi ?

Du côté de Twitter et Jack Dorsey, probablement pas grand-chose. Pointée du doigt pour sa modération laxiste des contenus violents et fake news, qui ne respectent pas les standards fixés par les autorités européennes, l’entreprise assure à qui veut l’entendre depuis l’été dernier qu’elle investit massivement dans le machine learning pour mettre au point des robots modérateurs parfaits dans un futur hypothétique (une ligne de défense que Facebook a tenu jusqu’en début d’année avant de finalement laisser tomber sous la pression des régulateurs), tout en restant parfaitement opaque sur leur fonctionnement.

Publicité

L’étude souligne les limites techniques de cette approche en fournissant son propre système d’IA modératrice, capable de prédire si votre tweet sera supprimé ou non – essayez, c’est marrant. Le système plafonne à 50 % de précision (mon tweet « Donald Trump is a giant dick », par exemple, a été considéré comme abusif à 51 %). Comme conclut le rapport, l’automatisation est certainement un outil puissant pour la modération des grandes plateformes, mais la technologie ne peut pas être laissée seule aux commandes d’une tâche aussi complexe philosophiquement et idéologiquement – les opérateurs humains doivent avoir le dernier mot.

Autre problème, plus méthodologique celui-là : comment définir les contours de la violence verbale ? Si Amnesty assure avoir distribué aux volontaires de la Troll Patrol un manuel d’identification des tweets « problématiques », la définition n’en reste pas moins arbitraire.

Conscients de ce biais, les auteurs du rapport écrivent que « certains tweets pourraient être qualifiés comme discours légitime et ne seraient pas forcément supprimés par la plateforme », mais qu’ils ont néanmoins été inclus dans le but de « souligner la largeur et la profondeur de la toxicité sur Twitter, sous ses différentes formes » et de reconnaître l’impact de cette atmosphère sur « la capacité des femmes à s’exprimer librement sur la plateforme ».

Non seulement c’est réussi, mais ce genre de débat prouve une fois encore qu’il est impossible de laisser aux seules machines le soin de décider de ce qui relève du discours approprié ou non. Twitter ne pourra pas s’en sortir en brandissant la carte des robots.

Konbini.com