Amnesty international utilizza l’AI per intercettare tweet offensivi contro le donne

Condotto con l’aiuto di 6.500 volontari, lo studio, fatturato da Amnesty International come “il più grande di sempre” contro gli abusi online contro le donne, ha utilizzato Element AI per analizzare tweet offensivi.

rabbia-donne-computer-619x400_194096.630x360

Un nuovo studio di Amnesty International, Element AI, tenta di dare un numero ad un problema che molte donne già conoscono: quel Tweet pieno di molestie e abusi. Condotto con l’aiuto di 6.500 volontari, lo studio, fatturato da Amnesty International come “il più grande di sempre” contro gli abusi online contro le donne, ha utilizzato un software di apprendimento automatico di Element AI per analizzare i tweet inviati a un campione di 778 donne, politici e giornalisti nel 2017. Ha rilevato che il 7,1%, o 1,1 milioni, di quei tweet erano “problematici” o “offensivi”, secondo Amnesty International un tweet violento inviato ogni 30 secondi.

Su un sito web interattivo che abbatte la metodologia e i risultati dello studio, il gruppo di difesa dei diritti umani ha affermato che molte donne censurano ciò che postano, limitano le loro interazioni su Twitter o abbandonano del tutto la piattaforma: “In un momento di spartiacque, in cui le donne di tutto il mondo stanno usando il loro potere collettivo per amplificare le loro voci attraverso le piattaforme di social media, l’incapacità di Twitter di applicare coerentemente e in modo trasparente i propri standard comunitari per combattere la violenza e gli abusi vuol dire che le donne vengono spinte indietro verso una cultura del silenzio “.

Amnesty International, che ha condotto ricerche su abusi contro le donne su Twitter negli ultimi due anni, ha firmato 6.500 volontari per quello che definisce “la pattuglia dei troll” dopo aver pubblicato un rapporto, già all’inizio di quest’anno, che ha descritto Twitter come un luogo “tossico” per tutte le donne.

I risultati dello studio grazie ad Element AI

In totale, i volontari hanno analizzato 288.000 tweet inviati tra gennaio e dicembre 2017 alle oltre 778 donne studiate, tra cui politici e giornalisti di tutto il settore politico provenienti dal Regno Unito e dagli Stati Uniti. I politici includevano membri del parlamento del Regno Unito e del Congresso degli Stati Uniti, mentre i giornalisti rappresentavano un gruppo eterogeneo di pubblicazioni tra cui The Daily Mail, The New York Times, Guardian, The Sun, gal-dem, Pink News e Breitbart.

I volontari di The Troll Patrol, che provengono da 150 paesi e hanno un’età compresa tra i 18 e i 70 anni, hanno ricevuto una formazione adeguata nel riconoscere un tweet problematico o violento. Vennero loro mostrati dei tweet anonimi che menzionavano una delle 778 donne e chiesero se i tweets fossero problematici o offensivi. Ogni tweet è stato mostrato a diversi volontari. Inoltre, Amnesty International ha dichiarato che “tre esperti in materia di violenza e abusi contro le donne” hanno anche classificato un campione di 1.000 tweet per “garantire che siamo stati in grado di valutare la qualità dei tweet etichettati dai nostri volontari digitali”.

Lo studio definiva “problematici” i tweet “che contenevano contenuti offensivi o ostili, specialmente se ripetuti ad un individuo in più occasioni, ma non necessariamente raggiungono la soglia dell’abuso”, mentre “offensivi” significa che sono tweet “che violano le regole di Twitter e includono contenuti che promuovono violenze o minacce di persone in base alla loro razza, etnia, origine nazionale, orientamento sessuale, genere, identità di genere, appartenenza religiosa, età, disabilità o malattia grave “.

Quindi un sottoinsieme dei tweet etichettati è stato elaborato utilizzando il software di apprendimento automatico di Element AI per estrapolare l’analisi al totale di 14,5 milioni di tweet che menzionavano le 778 donne durante il 2017. (Poiché i tweet non sono stati raccolti per lo studio fino a marzo 2018, Amnesty International osserva che la portata dell’abuso era probabilmente ancora più elevata in quanto alcuni tweet abusivi potrebbero essere stati cancellati o creati da account sospesi o disattivati). L’estrapolazione dell’elemento AI ha prodotto la scoperta che il 7,1% dei tweet inviati alle donne era problematico o offensivo, pari a 1,1 milioni di tweet nel 2017.

Cosa fare in futuro

Le donne di razza nera, asiatica, latina e mista avevano il 34% in più di probabilità di essere menzionate in tweets offensivi o violenti rispetto alle donne bianche. Le donne nere in particolare erano particolarmente vulnerabili: avevano l’84% di probabilità in più delle donne bianche di essere menzionate in tweets problematici o abusivi. Un tweet su 10 che menzionava donne nere nel campione dello studio era problematico o offensivo, rispetto a uno su 15 per le donne bianche.

Abbiamo scoperto che, sebbene l’abuso sia rivolto alle donne di tutto lo spettro politico, le donne di colore hanno maggiori probabilità di essere colpite, e le donne di colore sono mirate in modo sproporzionato. L’incapacità di Twitter di reprimere questo problema significa che contribuisce al nascondimento delle voci già emarginate “, ha dichiarato Milena Marin, consulente senior di Amnesty International per la ricerca tattica.

Annullando i risultati per professione, lo studio ha rilevato che il 7% dei tweet che menzionavano i 454 giornalisti nello studio risultavano offensivi o abusivi. I 324 politici intervistati sono stati presi di mira ad un tasso simile, con il 7,12% di tweet che li ha menzionati come problematici o abusivi.

Naturalmente, i risultati di un campione di 778 giornalisti e politici nel Regno Unito e negli Stati Uniti sono difficili da estrapolare ad altre professioni, paesi o alla popolazione generale. I risultati dello studio restano importanti, tuttavia, poiché molti politici e giornalisti hanno bisogno di utilizzare i social media per svolgere efficacemente il loro lavoro. Le donne, e in particolare le donne di colore, sono sottorappresentate in entrambe le professioni e molti restano su Twitter semplicemente per fare una dichiarazione sulla visibilità, anche se ciò significa trattare con costanti molestie e abusi. Inoltre, le modifiche API di Twitter implicano che molti strumenti anti-bullismo di terze parti non funzionano più, come ha notato la giornalista tecnologica Sarah Jeong sul proprio profilo Twitter, e la piattaforma non ha ancora trovato strumenti che replicano le loro funzionalità.