92 Le Scienze 6 15 novembre 2019
effetti del cambiamento climatico sono sempre più pronunciati.
Le tendenze migratorie globali fanno temere mutamenti irrever-
sibili delle comunità. La crescita dell’automazione suscita la paura
di perdere il lavoro e la privacy.
Gli attori malintenzionati che vogliono accentuare le tensioni
capiscono queste tendenze della società, e progettano contenuti
con cui sperano di suscitare l’ira o l’entusiasmo degli utenti presi
di mira in modo che il pubblico diventi il messaggero. L’obiettivo è
indurre gli utenti a usare il proprio capitale sociale per rinforzare
e dare credibilità il messaggio iniziale.
La maggior parte di questi contenuti non è fatta per indirizzare
le persone in una particolare direzione, ma per creare confusione,
per sovrastare e minare alle fondamenta le istituzioni della demo-
crazia, dal sistema elettorale al giornalismo. E sebbene si stia fa-
cendo molto per preparare l’elettorato degli Stati Uniti alle elezio-
ni del 2020, i contenuti fuorvianti e complottisti non sono nati con
la campagna presidenziale del 2016 e non finiranno con la prossi-
ma. Gli strumenti per manipolare e amplificare i contenuti diven-
tano sempre più economici e accessibili, e di pari passo diventerà
sempre più facile trasformare in un’arma gli utenti stessi, facendo-
ne inconsapevoli agenti della disinformazione.
L’arma del contesto
In generale, il linguaggio usato per discutere della cattiva in-
formazione è troppo semplicistico. Ricerca e interventi efficaci ri-
chiedono definizioni chiare, eppure molti usano un’espressione
problematica come fake news. Usato da politici in tutto il mondo
per attaccare la libera stampa, fake news è un termine pericoloso.
Ricerche recenti mostrano che il pubblico lo collega sempre di più
con i mezzi di comunicazione dominanti. Spesso diventa un ter-
mine per descrivere cose che sono diverse tra loro, tra cui menzo-
gne, voci non confermate, burle, cattiva informazione, complotti
e propaganda, ma spesso nasconde le sfumature e la complessità.
Molti di questi contenuti non fingono neppure di essere notizie,
ma compaiono sotto forma di «memi», in video e post su social me-
dia come Facebook e Instagram.
Nel febbraio 2017 ho definito sette tipi di «disturbi informativi»
nel tentativo di evidenziare lo spettro di contenuti usato per in-
quinare l’ecosistema dell’informazione. Comprendono, tra l’altro,
la satira, che non mira a causare un danno ma che potenzialmente
può ingannare; i contenuti inventati, che sono falsi al 100 per cen-
to e sono progettati per ingannare e provocare un danno; la fal-
sificazione del contesto, in cui si condividono contenuti autentici
corredandoli di informazioni contestuali false. Sempre nello stes-
so anno, qualche mese dopo, insieme a Hossein Derakhshan, un
giornalista che si occupa di tecnologia, abbiamo pubblicato un
rapporto in cui abbiamo descritto le differenze tra disinformazio-
ne (disinformation), cattiva informazione (misinformation) e ma-
la-informazione (malinformation).
Le persone che diffondono disinformazione – contenuto inten-
zionalmente falso e pensato per procurare un danno – sono spinte
da tre motivazioni: fare soldi, avere un’influenza politica, interna
o estera; causare problemi per il piacere di farlo.
Le persone che diffondono cattiva informazione (misinforma-
tion) – contenuti falsi o fuorvianti, ma senza che chi li condivide se
ne renda conto – sono mosse da fattori socio-psicologici. Gli uten-
ti «mettono in scena» la propria identità sulle piattaforme social
per sentirsi connessi «agli altri»: che siano partiti politici, genitori
no-vax, attivisti impegnati sul cambiamento climatico, o esponen-
ti di una data religione o gruppo etnico. Cruciale è il fatto che la di-
sinformazione diventa cattiva informazione quando le persone la
condividono senza rendersi conto della sua falsità.
Abbiamo poi coniato un nuovo ter-
mine, malinformation, o mala-informa-
zione, per indicare le informazioni au-
tentiche ma condivise con l’obiettivo
di procurare un danno. Un esempio si è
avuto quando agenti russi si sono intro-
dotti abusivamente nella posta elettro-
nica del Comitato nazionale del Partito
democratico degli Stati Uniti (o Demo-
cratic National Committee) e della cam-
pagna di Hillary Clinton e hanno fatto trapelare al pubblico detta-
gli dei messaggi per danneggiare la reputazione di entrambi.
Seguendo la cattiva informazione in otto elezioni in varie par-
ti del mondo dal 2016 a oggi, ho osservato un cambiamento nelle
tattiche e nelle tecniche. La disinformazione più efficace è sempre
stata quella che contiene un nucleo di verità, e in effetti la maggior
parte del contenuto oggi disseminato non è falso ma fuorviante.
Invece di inventare storie di sana pianta, chi opera per influenza-
re le persone ricontestualizza informazioni autentiche e usa titoli
iperbolici. In questa strategia contenuti autentici sono collegati a
temi o persone polarizzanti. Dato che i malintenzionati sono sem-
pre un passo (o svariati passi) più avanti rispetto agli strumenti di
moderazione delle piattaforme, adesso stanno facendo passare la
disinformazione emotiva per satira, in modo che non venga sot-
toposta ai processi di verifica dei fatti. Qui è il contesto, più che il
Claire Wardle è la direttrice per gli Stati Uniti
dell’organizzazione no profit First Draft, dove fa ricerca,
dirige progetti e cura iniziative di formazione
su come riconoscere e affrontare la cattiva informazione.
È stata research fellow dello Shorenstein Center on
Media, Politics and Public Policy della Harvard University.
Un gruppo di persone coinvolte in campagne sui
social media a sostegno di Donald Trump ha
sottolineato l’importanza dei memi per il successo
elettorale dell’attuale presidente degli Stati Uniti
Su Internet ci sono disturbi dei
contenuti informativi di molti tipi,
dai video inventati o modificati agli
account falsificati, fino ai memi
che mirano a manipolare contenuti
autentici.
Automazione e tattiche di
profilazione elevata hanno reso
più facile per gli agenti della
disinformazione trasformare gli
utenti dei social media in armi di
diffusione di messaggi dannosi.
Per capire più a fondo gli effetti
della disinformazione e per mettere
in atto opportune difese è necessaria
ancora più ricerca.
IN BREVE