Internet, studio internazionale: il linguaggio d'odio è trasversale tra gli utenti
I ricercatori dell'università Ca' Foscari di Venezia hanno analizzato 1 milione di commenti a video inerenti Covid-19. Il problema non riguarda solo i "leoni da tastiera". Molti utenti, in determinati contesti, diventano autori di commenti "tossici"
"L'odio online non sembra essere appannaggio di utenti dediti all'insulto. Il linguaggio offensivo o addirittura violento scaturisce da 'insospettabili' commentatori che in certi contesti perdono il contegno". È quanto emerge da uno studio pubblicato su Scientific Reports da un gruppo di ricercatori dell'università Ca' Foscari di Venezia, in collaborazione con Agcom e Jozef Stefan Institute di Lubiana, che hanno analizzato 1 milione di commenti a video inerenti Covid-19 pubblicati su Youtube.
La ricerca ha messo in luce come solo il 32% dei commenti classificati come violenti siano stati rimossi dalla piattaforma o dall'autore ad un anno dalla pubblicazione. Dall'altro lato, fornisce dei dati utili a sviluppare delle strategie per comprendere ed arginare il fenomeno. Tra i 345mila autori dei commenti analizzati, lo studio non ha identificato dei veri e propri 'leoni da tastiera' dediti unicamente a seminare odio. L'insulto non è quindi una deriva che riguarda una specifica categoria di persone. Molti utenti, in determinati contesti, diventano autori di commenti 'tossici', riporta lo studio.
Per monitorare la presenza del discorso d'odio (hate speech) su tale mole di contenuti, il team coordinato da Fabiana Zollo, ricercatrice di Ca' Foscari, ha messo a punto un modello di machine learning in grado di etichettare ogni commento e classificarlo come appropriato, inappropriato, offensivo o violento, a seconda della tipologia di linguaggio utilizzata.
"L'hate speech- spiega Matteo Cinelli, primo autore dello studio e ricercatore postdoc a Ca' Foscari- è uno dei fenomeni più problematici del web poiché rappresenta un incitamento alla violenza nei confronti di specifiche categorie sociali ed infatti sia le piattaforme social che i governi sono alla ricerca di soluzioni a tale problema".
"Sembrerebbe che l'utilizzo di un linguaggio offensivo e violento da parte degli utenti sia scatenato occasionalmente da fattori esterni- commenta Fabiana Zollo- Lo studio di questi fattori è sicuramente decisivo per individuare le strategie più efficaci per arginare il fenomeno".
La ricerca ha quantificato la mole di commenti d'odio, registrando un'incidenza dell'1% sul milione di commenti analizzati. Tale percentuale è risultata simile sia per i canali ritenuti affidabili, sia per quelli che diffondono disinformazione. Gli utenti che tendono a commentare sotto canali affidabili utilizzano in media un linguaggio più tossico, con offese ed espressioni violente, rispetto a coloro i quali tendono a commentare sotto canali non affidabili. D'altra parte, l'analisi ha anche mostrato come il linguaggio degeneri quando l'utente si trova a commentare in una 'bolla' diversa da quella che gli è più familiare, in un ambiente quindi 'avverso' alle sue opinioni. Infine, spiega Cinelli, "all'aumentare della lunghezza della conversazione anche la sua tossicità aumenta, risultato, questo, concettualmente in linea con una ben nota legge empirica del web conosciuta come Legge di Godwin" (un adagio diffuso sul web secondo il quale quanto più una discussione si prolunga tanto più aumento le probabilità che qualcuno o qualcosa verrà paragonato a Hitler, ndr).
La ricerca è stata svolta nell'ambito del progetto europeo IMSyPP 'Innovative monitoring systems and prevention policies of online hate speech', partito a marzo 2020 e della durata di 2 anni. Il progetto si pone come obiettivo principale l'analisi dei meccanismi che governano la formazione e diffusione di hate speech online e la formulazione di proposte data-driven per contrastarne la diffusione. (DIRE)