In origine erano le bufale. E la necessità di distinguerle dalle notizie reali, in un dibattito pubblico che non vive più solo nei media tradizionali e nelle conversazioni personali ma anche – e forse soprattutto – negli spazi online: da Meta a X, dai servizi di messaggistica a Tiktok, senza considerare l’impatto enorme dell’intelligenza artificiale, e degli usi sempre più diffusi che se ne fanno, di cui iniziamo a vedere i primi effetti.
Le domande, però, sono sempre le stesse: perché vengono prodotte, le fake news e le informazioni distorte che spesso diventano virali? Perché viene, sistematicamente, fatta disinformazione da istituzioni, politici, giornalisti più o meno veri e militanti online? Come viene finanziata, questa disinformazione? Quali sono le dinamiche attraverso cui si sviluppa? E infine, quale ruolo possono giocare, se possono giocarlo, i mezzi di informazione tradizionali?
Sono domande enormi, che si possono affrontare solo attraverso un lavoro collettivo, fatto insieme a chi si occupa di questi temi da anni e all’intera opinione pubblica, chiamata ad acquisire una forma di consapevolezza più profonda rispetto a quello che succede ogni giorno nel dibattito pubblico, dalla scelta dei temi di cui ci ritroviamo a parlare alle premesse da cui si parte per parlarne. Ma, forse, chiarire alcune dinamiche e scorrere insieme qualche esempio, proprio come se stessimo
X/Twitter
Partiamo da Twitter. Anzi, da X. Perché l’acquisizione della piattaforma da parte di Elon Musk nel 2022 è probabilmente uno degli avvenimenti più importanti degli ultimi anni, nel mondo dei social media. Per il segnale che rappresenta in sé avere una delle persone più ricche del mondo a gestire uno dei luoghi online più frequentati e influenti, e per le conseguenze che ha avuto. E forse non è un caso che una delle prime azioni di Musk sia stata quella di cancellare quasi tutte le misure intraprese dal vecchio management di Twitter per limitare le fake news, a iniziare dal ripristino dell’account di Donald Trump, cancellato dopo i fatti di Capitol Hill.Nel maggio 2023, X ha deciso di abbandonare il Codice UE di condotta sulla disinformazione, dopo essere entrato in rotta di collisione proprio con le authority dell’Unione europea per non aver contribuito a limitare la propaganda russa, fortissima in questi anni, e l’odio online, che ha avuto un’accelerata sulla piattaforma dopo le modifiche portate da Musk.
Una delle analisi più interessanti è arrivata da Newsguard, una società di monitoraggio su media e informazione digitale che ha svolto un’indagine sulla propaganda su Twitter dopo il 7 ottobre, scoprendo che tre quarti delle fake news venivano diffuse o condivise da account verificati. Un paradosso, visto che la spunta blu da sempre caratterizza (o dovrebbe caratterizzare) i profili di cui ci si può fidare. Un paradosso che trae origine dalla scelta di Musk di assegnare la famigerata “spunta blu” non più attraverso parametri di merito o di veridicità, ma esclusivamente a chi sceglie di pagare l’abbonamento mensile a X Premium.
Un esempio abbastanza incredibile è quello dei post sulla vendita (mai avvenuta) di armi ucraine ad Hamas, una delle bufale più diffuse nei giorni successivi al 7 ottobre e la cui matrice è abbastanza scontata: dei 25 post su questo argomento che hanno generato più engagement, 24 provenivano da profili verificati. Profili che peraltro vengono spinti in maniera particolare dall’algoritmo di X per essere più visibili, almeno nei risultati di ricerca e nelle risposte agli utenti. Un circolo vizioso cui nessuno sembra avere intenzione di porre rimedio.
Meta Qualche rimedio, invece, sembra averlo adottato Facebook. Sembrano abbastanza lontani i tempi di Cambridge Analytica, e dell’inchiesta che portò all’emersione di uno dei più gravi scandali riguardanti l’uso dei social e dei dati personali degli utenti di tutti i tempi: milioni di utenti profilati cui sono stati poi inviati messaggi personali che avrebbero influenzato almeno due delle più importanti campagne elettorali del decennio scorso, quella per il referendum sulla Brexit e quella per l’elezione di Donald Trump a presidente degli Stati Uniti.Dalla rimozione di decine di migliaia di account che diffondono bufale, alla collaborazione (a volte discussa, anche con validi argomenti) con fact-checker indipendenti, passando per l’obbligo di dichiarare chi paga i contenuti sponsorizzati, la volontà di Meta di ridurre l’inquinamento del dibattito pubblico è stata abbastanza evidente. E i professionisti della disinformazione sembrano scegliere altri canali, ultimamente, per promuovere contenuti nuovi. Certo, la popolazione sempre più “anziana” che si trova su Facebook è quella che ha meno strumenti per orientarsi tra notizie vere e false. E i contenuti prodotti altrove spesso su Facebook o Instagram ci finiscono comunque, rilanciati e commentati. Inoltre, c’è una tendenza che si vede sempre più spesso: quella delle ondate di commenti, sicuramente manovrate, che invadono profili pubblici e privati “colpevoli” di aver pubblicato contenuti invisi ad alcuni gruppi. È stata questa la metodologia con cui hanno “lavorato” i “Vivi”, ad esempio, uno dei gruppi più organizzati nel diffondere disinformazione sui vaccini durante e dopo l’emergenza Covid: centinaia di commenti in pochissimi minuti su singoli post, meme, immagini, testi ripetuti un numero infinito di volte, semplici insulti. Centinaia di profili, spesso appena creati, impossibili da bloccare per chi gestisce una pagina perché non c’è il tempo materiale per farlo. Una metodologia che a volte viene utilizzata in maniera meno evidente, e più sottile, nei commenti ai post dei giornali online. Si vede spesso, purtroppo, sugli articoli di giornale che riguardano i Pride: anche qui, centinaia di commenti tutti uguali per influenzare il dibattito e far sembrare maggioritarie posizioni omofobe che maggioritarie magari non sono.
Telegram
Ma dove vengono creati, questi nuovi contenuti? Spesso, su Telegram. Come è diventato sempre più evidente negli ultimi anni, dopo l’invasione russa in Ucraina e la guerra che ne è derivata, e – in modi diversi – dopo il 7 ottobre. Se la Russia ha bloccato Instagram, Facebook e altre piattaforme, non ha fatto lo stesso con l’app di messaggistica. Il motivo è semplice: è un ottimo strumento per diffondere propaganda.
Lo spiega bene Irina Pankratova, reporter di The Bell, intervistata nel podcast The Day After Tomorrow di Ivan Makridin, giornalista russo trasferitosi in Europa dopo l’inizio della guerra: “Se prendiamo i dieci canali russi più popolari su Telegram per numero di abbonati, credo che nove su dieci siano canali di propaganda. E per questo, nonostante sulla piattaforma ci siano anche oppositori di Putin e contenuti prodotti in maniera indipendente, le autorità russe non hanno alcun motivo di bloccarlo. Ma questo è il prezzo che i creatori di Telegram hanno deciso, abbastanza consapevolmente, di pagare”.
Il lavoro di chi fa propaganda spesso è professionale, e finanziato da aziende collegate al regime: Rostec, ad esempio, che produce armi per l’esercito e finanzia con notevoli quantità di denaro molti gestori di canali su Telegram. Continua Pankratova: “Molti fondi pubblici vengono stanziati e distribuiti per lo sviluppo della propaganda. I loro budget sono astronomici. E se gli amministratori dei canali non scendono a compromessi, si trovano ad affrontare denunce e accuse penali”.
Dalla Russia poi i contenuti si diffondono in tutto il Mondo, dagli Stati Uniti all’Europa: “Ci lavorano persone che conoscono diverse lingue, che leggono l’arabo, che traducono la propaganda in francese e in inglese perché si diffonda. E questo li rende ancora più pericolosi”. Un esempio, citato da Wired in un articolo del 7 giugno 2024: “Un sedicente video [ovviamente falso, nda] di Human Rights Watch secondo cui i servizi segreti ucraini starebbero utilizzando ricatti e prostitute per costringere i loro connazionali ad arruolarsi”.
Lo stesso avviene in Israele, dove Telegram è diventato uno dei principali luoghi della propaganda del governo e dell’esercito. Il caso più famoso è quello del gruppo Telegram “72 virgins - Uncensored”, la cui esistenza è diventata oggetto di dibattito pubblico dopo un’inchiesta del quotidiano israeliano Haaretz. Un gruppo in cui, dal 7 ottobre in poi, sono state condivise centinaia di immagini e di video in cui l’esercito israeliano uccideva “nemici palestinesi”. Immagini spesso accompagnate da testi in cui le persone uccise venivano chiamate “ratti”, e si invocava il loro “sterminio”. Un gruppo che si vantava di condividere “contenuti esclusivi dalla Striscia di Gaza”, come riporta The Wire in un articolo dell’8 febbraio 2024, “in modo tale che chiunque possa vedere che li stiamo fottendo”.
Dopo l’inchiesta di Haaretz, per qualche settimana l’esercito israeliano ha affermato di non avere nulla a che fare con questo tipo di propaganda, che intanto veniva veicolata da migliaia e migliaia di persone in un Paese in cui l’estrema destra razzista e fondamentalista è sempre più forte e in cui Telegram è diffusissimo (anche perché in tanti lo usano per comunicare con chi vende cannabis). Poi ha dovuto ammetterlo, chiudendo il gruppo. Nel frattempo, però, ne sono spuntate altre decine, con lo stesso tono e gli stessi obiettivi.
continua su Ossigeno n. 17 - Censura!, disponibile sullo store di People
Comments