Questa newsletter è stata scritta da una persona in carne e ossa, usando un computer, un programma di scrittura, uno schermo, una tastiera e, beh, delle dita. Umane. Se la premessa vi sembra strana, potrebbe diventare familiare a breve, perché i testi scritti da un’intelligenza artificiale sono una realtà, sono tra noi, li usano più utenti di quanto probabilmente si sappia, e sono uno degli stuzzicanti argomenti di discussione di queste ultime settimane (ci scuserà Shakira, con tutto il rispetto per il suo divorzio con Piqué). Se ne era già parlato nella seconda metà del 2022, con la diffusione di alcuni programmi di generazione di disegni, ad esempio Dall-E 2: si va su un sito, ci si registra, si scrive una descrizione, magari anche improbabile (“Vladimir Putin da giovane, vestito da hippy, con i capelli lunghi, seduto su un prato durante un concerto, mentre fuma una canna, ritratto con lo stile del periodo blu di Picasso”), e l’intelligenza artificiale lo disegna. C’è ancora qualche problema con le dita, chissà perché, spesso le figure umane vengono fuori con un numero sproporzionato di dita, ma per il resto i risultati sono piuttosto impressionanti. OpenAI, l’azienda che ha sviluppato lo strumento che potrebbe già valere una trentina di miliardi di dollari (e che ha tra i suoi fondatori Elon Musk, già noto agli investitori per aver promesso sulle Tesla una guida automatizzata ancora lungi dal realizzarsi), ha rilasciato anche ChatGPT, che fa la stessa cosa ma creando, invece di immagini, testi: riassunti, favole, poesie, anche commenti e pezzi d’opinione. Basta “istruire” correttamente l’AI nel momento in cui si formula la richiesta.
È già individuato come uno dei mestieri creativi del futuro: non quello di scrivere, ma quello di “imboccare” l’intelligenza artificiale che deve creare contenuti (e non solo limitati a scritti, immagini, o musica, ma anche video). Quali parole usare, quali evitare, come scrivere contenuti che siano più efficaci e più facilmente diffondibili on line. Nutrire il cervellone di pensiero umano, insomma, perché gli somigli sempre di più: non con un cavo attaccato alla nuca come in Matrix - per ora - ma manualmente. Qualche studente lo sta già usando per alleggerirsi dei compiti scolastici, temi e riassunti in particolare, e la domanda su come faranno i poveri insegnanti ad accorgersene è diventata immediatamente il principale interrogativo dei giornali che si sono occupati della questione in queste settimane, in un passaggio che ricorda l’arrivo delle calcolatrici, dei Pc o della rete nelle classi, ma con una magnitudo infinitamente più grande. Oltre agli studenti pigri, però, c’è ben altro. La rivista di tecnologie CNet l’ha usato per farci articoli veri e propri, che però sono usciti pieni di errori; e, recentemente, un utente ha chiesto a ChatGPT di fare un’operazione semplice, tipo 2+2, il robot ha risposto correttamente, lui lo ha contestato sostenendo facesse 5, e beh, alla fine l’intelligenza artificiale si è convinta che fosse proprio così: ma questi in fondo possono esser visti come problemi tecnici temporanei, o di maturità. ChatGPT al momento usa per scrivere i testi richiesti 175 miliardi di parametri, che diventeranno molti di più in futuro: derivano, oltre che dal lavoro dei prompter, dalla sua capacità di scandagliare la rete in lungo, in largo e soprattutto in profondità, per acquisire dati sul linguaggio umano dal più grande serbatoio mai esistito, il world wide web. Cosa che, però, nasconde qualche insidia: già nel 2021 tre autori inglesi avevano messo in scena allo Young Vic di Londra AI, uno spettacolo generato da ChatGPT che, “di sua iniziativa”, aveva assegnato a uno degli attori, di origine mediorientale, un ruolo da terrorista bombarolo. Perché? Perché ChatGPT apprende cercando in rete, e la rete è piena zeppa di contenuti razzisti, oltre che omofobi, sessisti, che inneggiano all’omicidio, al femminicidio, all’abuso di bambini e animali, ad assurde teorie del complotto, a falsificazioni storiche, e così via. Insomma, un tipico caso in cui si guarda dentro l’abisso, e l’abisso restituisce lo sguardo. Magari meditando di farci fuori tutti, come lo Skynet di Terminator, e senza lo scrupolo delle tre leggi della robotica che Isaac Asimov, bontà sua, aveva immaginato circa ottant’anni fa.
Quelli di OpenAI conoscono il problema da tempo, e per il momento hanno deciso di occuparsene, come riportato dal magazine Time, assumendo 50mila kenioti, ugandesi e indiani che manualmente “flaggano” determinati tipi di frasi e termini come inappropriati. Pagati 2 dollari l’ora, perché ovviamente non si poteva lasciare l’immagine dell’uomo schiavo delle macchine solo su un piano puramente metaforico. Sono i limiti del machine learning, branca dell’intelligenza artificiale che intelligente lo è fino a un certo punto, laddove per intelligenza si intenda la capacità di partire da dati certi, tipo A e B, per creare un concetto “C”, del tutto nuovo, o anche solo di interpretare un contesto o una situazione mai “appresa” prima. Ma Sam Altman, che di ChatGPT è Ceo, ha già detto che in futuro tutti dovrebbero avere il diritto di usare il tipo di intelligenza artificiale che più gli aggrada: il che significa che a breve potremo scegliere se dotarci di una personale AI con idee (si fa per dire) suprematiste? La domanda al momento è aperta. Una cosa è certa: per un bel po’ di tempo ancora gli strumenti digitali verranno presentati al pubblico - soprattutto dalle istituzioni, la cui curva di apprendimento resta lenta a dispetto di qualsiasi innovazione - come oggettivi, mentre invece non lo sono affatto. Se ne parlava in Gli uccelli ci spiano, il libro di Giuseppe Civati e autori vari che People ha pubblicato qualche tempo fa, raccontando come da moltissimo tempo, molto prima che si ragionasse in termini di intelligenza artificiale, si usino sistemi di controllo che pretenderebbero di essere scientifici quando invece riflettono i pregiudizi dei loro creatori, finendo per creare pattern di profilazione basati sull’etnia, il sesso o l’aspetto, e più volte se ne è occupata per noi, sulle pagine di Ossigeno, Diletta Huyskes.
Un domani molto vicino, un sistema di AI che venisse adottato dalla pubblica amministrazione per gestire, supponiamo, i centri dell’impiego e le offerte di lavoro da inviare ai richiedenti, potrebbe trovare assolutamente ragionevole l’idea di proporre a una donna di Napoli un impiego da bidella a Milano, da pendolare. Dopotutto, in rete se ne è scritto ovunque, no? Quindi sarà vero. E, tutto sommato, questo sarebbe anche il male minore.
Comments