Falsehood flies and the truth comes limping after it.

Oggigiorno la diffusione di nuove tecnologie, che hanno permesso l’accesso ad Internet ad un numero costantemente in crescita di utenti, e dei social network, ha messo in luce un nuovo problema: la creazione e la diffusione delle fake news. Lo scopo di questo articolo è di dare una visione d’insieme a questo fenomeno, di illustrare il concetto delle echo chambers, di analizzare l’efficacia del debunking e di cercare di identificare dei pattern nella diffusione di notizie prive di fondamento, in modo da poter progettare metodi per scongiurarne o prevederne la content propagation.

Introduzione

Internet è stata una delle conquiste scientifiche più importanti degli ultimi anni dal punto di vista socioculturale. Ha infatti permesso un più rapido, distribuito e globale accesso a cultura, informazione e a differenti punti di vista. L’altro lato della medaglia è però il fatto che non ci sia più un filtro tra le notizie ed i consumatori, vale a dire, la grande diffusione dei siti e delle piattaforme blog di informazione e di opinione ha creato un filo diretto tra il publisher ed i lettori, eliminando la figura degli intermediari dei media tradizionali. La diretta conseguenza di ciò è il cambiamento che è avvenuto nel modo in cui le persone si informano, creano le proprie opinioni e ne discutono con gli altri. Questo significa che, venuta a mancare la distanza tra i media e i consumatori, anche il confine tra fonte attendibile e non è diventato di labile percezione. Non deve stupire dunque la nascita di siti e community che, con intenti maligni o meno, hanno favorito la diffusione di fake news e teorie del complotto.

Le teorie del complotto in generale sono infatti sempre esistite, ma soltanto negli ultimi anni, con l’avvento in special modo dei social network, il loro numero e la loro diffusione sono cresciuti esponenzialmente. Molti studi hanno messo in correlazione il fatto che si è più propensi a credere ad una teoria o ad una notizia se questa viene diffusa da persone che conosciamo o che la pensano allo stesso modo, pur senza verificarne personalmente la fonte e l’attendibilità: questo fenomeno è legato alle cosiddette echo chambers, gruppi chiusi di utenti che la pensano in maniera polarizzata, poco inclini a discutere delle proprie credenze con esterni e che all’interno di queste community rafforzano l’un l’altro le proprie idee attraverso un meccanismo noto come confirmation bias. La difficoltà degli utenti nel rapportarsi e nel discutere con altri gruppi con vedute differenti fa sì che i dibattiti online degenerino e che i tentativi di debunking falliscano; studi precedenti hanno anzi dimostrato che un utente esposto ad un articolo di debunking non solo non è portato a cambiare idea, ma si rafforza nelle proprie convinzioni e tende ad interagire con più impegno all’interno della propria echo chamber.

In generale, le convinzioni che si sviluppano all’interno di questi gruppi polarizzati sono talmente forti e persistenti da cambiare radicalmente il modo in cui gli utenti interagiscono con le notizie. Diversi studi hanno infatti analizzato il modo in cui i readers si approcciano a tre principali tipologie di articoli: mainstream, alternative e satira. I risultati hanno suggerito che gli utenti che credono e condividono le cosiddette teorie del complotto mostrano una tendenza a credere e condividere anche gli articoli satirici, spesso non distinguendoli dalle notizie reali.

Quello delle fake news è un argomento di primaria importanza nel panorama sociale, culturale e politico del mondo odierno. Infatti, è noto che la loro diffusione ad arte, inizialmente sottovalutata, ha influenzato in maniera preponderante lo svolgersi delle elezioni statunitensi del 2016, come pure il risultato del referendum per la Brexit nello stesso anno.  In un’epoca in cui l’attivismo digitale prende sempre più piede, il diffondersi di notizie false create per screditare la parte avversaria costituisce un rischio talmente elevato da aver convinto il World Economic Forum ad inserirlo nel Global Risks Report. Nel Global Risks Report 2019 è infatti riportato che “around two-thirds of respondents expect the risks associated with fake news and identity theft to increase in 2019” e che tweets contenenti fake news si sono diffusi molto di più e molto più rapidamente rispetto agli altri.

Le cause di questa preoccupante tendenza vanno ricercate anzitutto in una risposta psicologica alla complessità del mondo odierno. Di fronte a questioni di difficile comprensione, come gli avanzamenti della tecnologia, la multiculturalità e gli andamenti economici, le persone tendono a ricercare una spiegazione semplice che possa risolvere i loro dubbi in maniera pressoché immediata. Ed è proprio questo che le fonti di fake news offrono: una definizione di facile comprensione ed un preciso colpevole.

Echo Chambers e Confirmation Bias

La presenza di echo chambers online, soprattutto su social networks di ampia diffusione come Facebook e Twitter, è stato spesso oggetto di dibattito tra i ricercatori sociali [social scientists]. Questo concetto può essere definito come l’esistenza di clusters chiuse, popolate da persone che la pensano allo stesso modo su determinati argomenti e che tendono ad interagire tra loro con commenti o condivisioni, rafforzando la propria visione del mondo gli uni con gli altri. Inoltre, all’interno di questi gruppi, il confirmation bias svolge un ruolo di prim’ordine: le opinioni diventano polarizzate, quindi gli utenti, soggetti ad un’esposizione content-selective, tendono a interpretare le informazioni in modo favorevole alla propria narrativa e ad ignorare i pareri contrastanti o una wider perspective. Questo si manifesta anche nel modo in cui gli utenti reagiscono a false dicerie che prendono in giro le proprie convinzioni, o a tentativi di smentire la narrativa in cui si crede (e.g., tentativi di debunking).

Dal momento che è improbabile che una cascade includa utenti con interessi diversi, la dimensione di una cascade coincide pressappoco con la dimensione della echo chamber.  Ciò causa una separazione ancora più evidente tra i vari gruppi, che raramente interagiscono tra di loro e, quando questo accade, danno vita a dibattiti poco edificanti.

Possiamo affermare che esistano e siano fortemente radicate due diverse echo chambers, riguardanti rispettivamente le fake news e le scientific news. All’interno di esse, le informazioni vengono consumate dagli utenti in maniera simile, con pattern temporali simili ed una loro porzione significativa si diffonde seguendo gli stessi percorsi. Diversi studi hanno comunque messo in evidenza alcune sostanziali differenze nella information consumption.

All’interno delle echo chambers si sviluppa una mentalità quasi religiosa: più alto è l’engagement di un utente all’interno del proprio cluster, più è improbabile che nella sua rete siano presenti utenti non appartenenti alla stessa narrativa; inoltre, la sentiment analysis restituisce sentimenti negativi proporzionali all’engagement, soprattutto se si tratta di utenti che credono alle fake news. Questa polarizzazione, dettata in massima parte dal confirmation bias, si basa sul prendere decisioni sulla fiducia in chi condivide una notizia e la resistenza alle correzioni da parte di chi è in disaccordo.

Fake news, Scientific news

Prima di tutto, si noti che qui non si tratterà della validità o meno delle fake news e delle teorie dei complotti, o delle scientific news. L’obiettivo di questa trattazione è l’analizzare in che modo le fake news si diffondano, se la loro diffusione si possa prevedere o scongiurare, se sono presenti pattern e se ed in che modo si differenzi da quella delle scientific news.

Come primo passo, si può notare che la principale differenza tra fake e scientific news sta nelle fonti: infatti, mentre le scientific news inseriscono fonti verificabili all’interno dell’articolo e collegamenti a studi pubblicati da entità definite attendibili, le fake news hanno origini sconosciute, con notizie e dati non verificabili. Quindi, mentre le scientific news mostrano il processo scientifico che ha portato ad un determinato risultato, basandosi sulla verificabilità e sulla disponibilità di contenuti e dati, le fake news semplificano i rapporti di causalità e la realtà stessa, e vengono formulate in modo da tollerare un certo livello di incertezza.

Le fake news hanno come obiettivo principale quello di ingannare o portare dalla propria parte il lettore, rispecchiando un clima di distacco dalla “società mainstream” che viene spesso accusata di “insabbiare” per qualche motivo tali notizie. Il metodo principale per far presa sul lettore è quello di far leva sui sentimenti più forti: gli stratagemmi messi in atto a questo scopo sono molteplici, applicando tecniche di natural language processing si è dimostrato che gli articoli sono di breve lunghezza, spesso ridondanti, con poca punteggiatura al loro interno, pochi termini tecnici e molti pronomi. Il loro contenuto è comprensibile anche con un livello di istruzione basso. Dall’altra parte, i titoli sono generalmente più lunghi, con un forte uso del maiuscolo, con meno stop words e meno nomi, in modo da condensare all’interno del titolo stesso i punti salienti dell’articolo. Infatti, sui social network si tende a condividere i post fermandosi ai titoli, senza aprire l’articolo. Analizzando attraverso il natural language processing invece per quanto riguarda gli articoli scientifici, si nota che i titoli sono più brevi, mentre gli articoli hanno maggiore lunghezza, contengono più tecnicismi e citazioni, esponendo in maniera chiara e dettagliata i collegamenti logici e causali tra un fatto ed un altro.

Dal punto di vista della diffusione, le scientific news raggiungono un picco alto molto rapidamente, mentre le fake news dimostrano una relazione positiva tra tempo e dimensione della cascade: è più probabile che una fake news diventi virale rispetto ad una scientific news. Il loro lifetime, cioè l’intervallo di tempo tra il primo ed ultimo utente che condivide il post, è dunque molto diverso.

Curiosamente, il contenuto di una fake news è più simile, dal punto di vista linguistico, alla satira di quanto non lo sia una scientific news. In effetti, la satira può essere definita come una fake news che fa esplicitamente leva sull’assurdità di taluni argomenti per far divertire o riflettere. A dimostrazione di quanto sia facile, per gli appartenenti ad una echo chamber, farsi prendere dalla sospensione dell’incredulità, molti dei commenti che prendono sul serio articoli di satira provengono da utenti propensi a credere alle teorie complottistiche.

Debunking

Si definisce debunking il tentativo di contrastare il diffondersi di articoli di disinformazione attraverso fonti verificabili e l’impiego della metodologia scientifica. Di fronte alla crescente diffusione delle fake news, in molti hanno sollevato la necessità di contrastarle attraverso azioni mirate di debunking, sia da parte di singoli, sia da parte di enti governativi, sia da parte dello staff degli stessi social networks.

Il quesito su cui molti ricercatori si stanno ora concentrando è se le campagne di debunking in atto sui social networks siano efficaci o meno.

Applicando la sentiment analysis alle pagine che si occupano di diffondere post di debunking, si può notare che l’atteggiamento predominante è negativo, mentre la maggior parte dei like e dei commenti provengono da utenti polarizzati nella scientific echo chamber, mentre gli utenti polarizzati nella conspiracy echo chamber interagiscono soltanto in minima parte.

Inoltre, analizzando i profili che hanno interagito con i tentativi di debunking, si ha un’ulteriore prova della forza che il confirmation bias è in grado di esercitare sull’atteggiamento e sulle credenze degli utenti: tali utenti sono infatti più persistenti nell’interagire all’interno della propria echo chamber, sia nella qualità che nella quantità e nell’intervallo temporale. Infatti si ha quello che è conosciuto come backfire effect: messi di fronte ad articoli che smentiscono la propria narrativa, gli utenti arrivano a considerarli come attacchi mirati a screditare la verità; di conseguenza, si sentono maggiormente coinvolti e diventano più attivi nel contrastare tali tentativi.

In sostanza, non soltanto il debunking appare attualmente quasi inutile nel contrastare la diffusione delle fake news all’interno delle echo chambers polarizzate, ma procura addirittura il risultato opposto a quello prefissato. In special modo quando tali tentativi di debunking sono effettuati con toni aggressivi e/o canzonatori: in questi casi, la sentiment analysis rivela un peggioramento nelle interazioni e nei dibattiti che ne seguono.

Fake News detection

Di fronte alla minaccia che la diffusione deliberata di informazioni false, volte a manipolare l’opinione pubblica, rappresentano, è piuttosto ovvia la necessità di un sistema che riesca ad individuarle e fermarle per tempo, prima cioè di quei picchi di propagazione di cui abbiamo parlato nella sezione 2.

Negli ultimi tempi, tale esigenza è stata espressa spesso, sia nelle conferenze cosiddette tecniche che nelle dichiarazioni di vari esponenti politici e pubblici, soprattutto in vista dei prossimi turni elettorali. Questo ha fatto sì che anche i gestori dei maggiori Social Network abbiano deciso di far proprio l’obiettivo di ridurre la diffusione delle fake news con diversi approcci.

Alcuni di questi siti si muoveranno limitando la componente economica dietro la diffusione di articoli falsi, con procedure che vanno dal semplice blocco account alla rimozione degli introiti legati alla pubblicità; altri agiranno sulla visibilità delle fake news, dando loro meno risalto all’interno delle reti sociali e sospendendo i collegamenti a siti sospetti.

Tutti, però, hanno dichiarato di voler affiancare a un team di esperti dei software che si basino su machine learning, natural language processing e deep syntax analysis per individuare le fake news il prima possibile.

Si può definire la fake news detection come quell’operazione in grado di categorizzare le notizie secondo la loro veracity, con un certo parametro di certezza. L’ambiente più favorevole sarebbe quello di cui si conosce il language domain, con un dataset strutturato su cui operare, che rende quindi l’individuazione dell’inganno più facile. Sfortunatamente su internet, ed in special modo sui social network, la maggior parte delle informazioni proviene da dataset semi-strutturati di cui non è conosciuto il language domain.

Si può quindi decidere di calcolare la veracity basandosi su un approccio linguistico, cioè analizzando il testo delle fake news alla ricerca di un pattern: è ovvio che questa analisi va effettuata su campi di difficile alterazione, come la frequenza dei pronomi o dei termini di accezione negativa, a cui si può associare la sentiment analysis. Si possono inoltre utilizzare tecniche di deep syntax analysis: applicando le regole di riscrittura alle frasi di un testo sospettato di essere una fake news si risale alla sua struttura sintattica e confrontandolo con un set trained in precedenza si può ottenere fino al 91% accuracy.

Un altro diffuso approccio alla fake news detection si basa invece sullo studio della rete di utenti che condivide teorie del complotto ed interagisce in tale echo chamber. Ricordando che gli utenti tendono ad agire quasi esclusivamente all’interno della propria echo chamber, è possibile evitare il diffondersi di una fake news sfruttando la natura di tali relazioni?

A questo proposito, Facebook può venire rappresentato sotto forma di grafo G = <V, E>, dove i vertici sono rappresentati da utenti (e pagine) che postano contenuti e gli archi dalle relazioni: se A e B sono legati da una relazione, allora esiste un arco e(V{A}, V{B}) nell’insieme E. Analizzando il set dei contenuti postati postati da una pagina, si può ricavare il grafo potenziale di propagazione, su cui applicare feature extraction allo scopo di individuare pattern che distinguano le fake dalle scientific news.

Conti et al. hanno definito a tal proposito tre differenti proprietà, high level properties, topological properties, evolution properties, su cui poi applicare la classificazione. Il risultato è poco incoraggiante: la percentuale di falsi positivi è molto alta, il che lascia supporre che le differenti echo chambers abbiano dinamiche di content propagation simili. La soluzione potrebbe essere aggiungere a tale classificazione gli approcci linguistici che sono stati già analizzati: purtroppo, i content creator potrebbero in breve tempo riuscire a controllare le features content-related e piegare a proprio vantaggio l’algoritmo risultante.

Taccini et al. invece analizzano il grafo di Facebook a partire dalle pagine. Gli utenti che interagiscono con esse vengono divisi in tre gruppi:

  • utenti che hanno interagito solo con pagine di fake news;
  • utenti che hanno interagito solo con pagine di scientific news;
  • utenti che hanno interagito con entrambi i tipi di pagine.

A questo punto, la classificazione dei post può venire considerata alla stregua di un problema di classificazione binaria. Taccini et al. hanno deciso di considerare due algoritmi nel corso dell’analisi: la regressione logiscita e l’harmonic boolean crowdsourcing (BLC nelle prossime righe).

La regressione logistica analizza la possibilità che un post sia fake a seconda di quanti utenti del primo o del secondo gruppo interagiscono con esso, attribuendo ad ogni utente un peso dipendente dal tipo di post con cui egli interagisce. La principale debolezza della regressione logistica è che non è possibile trasferire le informazioni tra utenti simili, quindi la performance dipende molto dal training set utilizzato. BLC si affida alle azioni di labeling degli utenti, del tipo TRUE/FALSE, e risolve il problema del consensus associato. A differenza della regressione linguistica, BLC riesce a propagare l’informazione tra utenti con interessi simili.

I risultati degli esperimenti successivi hanno evidenziato una buona accuracy (dal 99% al 56%) per entrambi gli algoritmi. Queste percentuali dipendono sia dalla grandezza del training set dei post (com’è ovvio, un training set di dimensioni maggiori si traduce in accuracy più elevate), sia dalla composizione del set degli utenti (cioè se nel gruppo 1, 2 o 3).

Vale la pena analizzare un altro approccio alla questione, basato sul crowd signals, i. e. sui label ottenuti dagli utenti. Più in dettaglio, una delle sue formulazioni è stata fatta da Tschiatschek et al.: ad ogni epoch, agli utenti è richiesto di etichettare una nuova notizia come fake o meno; al termine, un set di queste notizie viene inviato ad un esperto per essere identificato. Se un esperto segnala una notizia come fake, questa viene bloccata dal network. Dal momento che ci si può trovare in una situazione in cui il set degli utenti sia composto da una maggioranza di avversari (i.e., utenti che segnalano come reali notizie fake, o viceversa), per essere efficace l’algoritmo dovrà comprendere metodi di apprendimento del comportamento degli utenti ed eliminare dal set considerato gli utenti con intenti malevoli.

Allo stato attuale, in conclusione, non sono ancora stati realizzati su larga scala sistemi di detection delle fake news che siano efficienti ed affidabili, cioè che non generino falsi positivi o falsi negativi, e che agiscano prima che tali notizie diventino virali. Una strada percorribile può essere quella di integrare in un singolo sistema diverse tipologie di approcci, in modo da coprire più aspetti del problema allo stesso tempo.

Further works

Quello delle fake news non è un argomento che si estinguerà tanto presto.

Da un punto di vista prettamente economico, è stato dimostrato da diverse inchieste giornalistiche che la pubblicazione di fake news online è molto redditizia ed è dunque prevedibile che sempre più persone saranno interessate alla creazione di tali contenuti, o all’implementazione dei cosiddetti bot per la loro diffusione. Da un punto di vista politico e sociale, le fake news sono state sempre utilizzate per manipolare parti significative dell’opinione pubblica e non è insolito che i falsi storici tornino di tanto in tanto alla ribalta.

Si sono quindi rivelate uno strumento utile e quanto mai efficace, in grado di ottenere una forte risonanza mediatica anche di fronte ad uno sforzo minimo, grazie in special modo alla possibilità di rapida diffusione che i social network moderni offrono.

Per questi motivi, serve urgentemente uno strumento che aiuti a prevenirne la viralità: infatti, dato che è impossibile eliminare le fake news alla radice, si deve mettere in atto una serie di provvedimenti atti a minimizzare le conseguenze.

Il contrasto però non può fermarsi al solo strumento informatico: il fenomeno si estende su una larga parte della società ed è a partire da questa che va affrontato. Per una efficace controffensiva si deve tener conto dei motivi che spingono gli utenti a credere ad una fake news, quindi vanno analizzati gli aspetti psicologici che sono dietro un tale comportamento.

A questo proposito, può essere utile il confronto con esperti nel campo psicologico, in modo da poter mettere in campo un impegno comune. Questo è uno dei punti cardine dei futuri sviluppi di questo progetto, che non hanno trovato posto in questa trattazione.

Bibliografia


Rispondi

Inserisci i tuoi dati qui sotto o clicca su un'icona per effettuare l'accesso:

Logo di WordPress.com

Stai commentando usando il tuo account WordPress.com. Chiudi sessione /  Modifica )

Foto Twitter

Stai commentando usando il tuo account Twitter. Chiudi sessione /  Modifica )

Foto di Facebook

Stai commentando usando il tuo account Facebook. Chiudi sessione /  Modifica )

Connessione a %s...