top of page
  • Immagine del redattoreSilvia Cavanna

La propaganda ai tempi dell'intelligenza artificiale



È di questi giorni l’agitazione a stelle e strisce circa una presunta campagna cinese, portata avanti sui social con l’ausilio dell’intelligenza artificiale, per influenzare le scelte di voto degli elettori USA: un report di Microsoft evidenzia come siano stati osservati fake account affiliati alla Cina che diffonderebbero immagini e contenuti generati dall’IA legati a temi divisivi, come armi e immigrazione, o denigranti figure e simboli politici statunitensi. Sembra roba da sci-fi di ultima generazione.

In realtà, il trinomio politica – social media – intelligenza artificiale non è esattamente cosa nuova (Cambridge Analytica vi ricorderà qualcosa), ma il rischio a cui siamo potenzialmente esposti può essere molto più subdolo di quanto un’immagine della Statua della Libertà che imbraccia un fucile potrebbe farci pensare.

Quotidianamente interagiamo con una particolare tipologia di IA rappresentata dai cosiddetti agenti di raccomandazione, algoritmi intelligenti che hanno lo scopo di proporci – nel mare magnum di notizie e contenuti multimediali presenti sui social – quelli che ritengono di nostro interesse, osservando le nostre scelte ed imparando da esse. Agiscono, insomma, come assistenti personali, permettendoci di interagire con una porzione di contenuti più limitata, selezionata analizzando le nostre precedenti reazioni e interazioni ed il nostro grado di coinvolgimento: un’esperienza realmente personalizzata che rende la nostra navigazione più efficace e, tutto sommato, più piacevole.


Questo meccanismo può però avere anche effetti meno limpidi. Negli ultimi anni, soprattutto nei Paesi occidentali, sono iniziati ad emergere sui social fenomeni di polarizzazione politica caratterizzati da opinioni ed atteggiamenti sempre più estremi, che potrebbero ragionevolmente essere legati anche al modo di funzionare degli algoritmi di raccomandazione: l’agente, influenzato dall’utente, tende a presentargli notizie sempre più simili a quelle che ha già consumato, creando un circolo vizioso autoalimentato dove l’utente interagisce solo con contenuti che rafforzano le proprie convinzioni politiche e l’IA, rilevato un riscontro positivo in termini di engagement, continua a proporgli con frequenza sempre maggiore proprio quella tipologia di informazione. Si chiamano echo chambers (“camere d’eco”) le bolle di realtà distorta che si possono così creare, dove le proprie credenze non sono più messe in discussione e le visioni opposte vengono censurate o sminuite o derise.

Al di là degli allarmismi: quasi sicuramente il legame fra raccomandazioni e polarizzazione è complesso, e può dipendere anche da altri fattori quali il contesto socio-politico e la vulnerabilità del singolo. Tuttavia è importante esserne consapevoli e saper prendere le eventuali contromisure – non abusare dei social media, diversificare i mezzi d’informazione, studiare (anche) sui libri, verificare l’attendibilità delle fonti, controllare la veridicità dei fatti.


Potremmo fare, però, anche un’altra riflessione: quanto è utile al benessere sociale un mondo dove la realtà virtuale non è condivisa, dove ogni utente consuma contenuti diversi e personalizzati, dove un algoritmo sceglie per noi solo le notizie che ci interessano o, peggio, solo quelle che ci danno ragione? Quanto questo si ripercuote sulla realtà non virtuale? Esiste ancora un confine?

Quando, sfogliando i social, ci ritroviamo davanti ad estremisti, negazionisti del clima, no-vax, terrapiattisti, sembra impossibile che questi stiano guardando la nostra stessa realtà.

Ma forse non lo fanno per davvero.

bottom of page