L'intelligenza artificiale non è magia
2025/2, p. 40
Siamo davanti a una partita fondamentale per l’uomo:
abbiamo bisogno di regole e di imparare a usare le tecnologie
al servizio dell’uomo e non in maniera passiva.
Accedi alla tua area riservata per visualizzare i contenuti.
Questo contenuto è riservato agli abbonati a
Testimoni
.
NUOVE TECNOLOGIE
L’intelligenza artificiale
non è magia
Siamo davanti a una partita fondamentale per l'uomo: abbiamo bisogno di regole e di imparare a usare le tecnologie al servizio dell'uomo e non in maniera passiva.
LUIGI RANCILIO, giornalista
Quando pensiamo all'Intelligenza Artificiale (IA, in inglese AI) di solito commettiamo due errori. Il primo è che, dopo averla vista scrivere articoli e poesie, comporre canzoni, creare fotografie e persino video, la consideriamo qualcosa di magico. Il secondo è che pensiamo sia arrivata dal nulla, poco più di due anni fa, con il debutto di ChatGPT. Invece, l’Intelligenza Artificiale non è magia. Sistemi come ChatGPT vengono infatti addestrati con miliardi di dati e su quelli imparano a generare risposte coerenti e rilevanti, senza averle pensate ma sulla base di schemi, probabilità e relazioni nel linguaggio. Più che inventare, quindi, copiano. O, se preferite, «si ispirano» a testi, pensieri e risposte già elaborate nel corso degli anni da migliaia di menti umane.
La storia dell'IA ha radici profonde
Già nel 1950 il matematico Alan Turing propose un test per determinare se una macchina fosse in grado di esibire un comportamento intelligente. Per lui una macchina simile doveva essere in grado di pensare, ossia «essere capace di concatenare idee ed esprimerle». Ma, come scriveva lui stesso, la questione era molto complessa. E rispondendo alle critiche al suo test, si dichiarò consapevole del fatto che «l'algoritmo capace di superarlo sarebbe stato più simile a un “pappagallo ammaestrato” che a un essere intelligente in grado di pensare». Il primo a usare il termine Intelligenza Artificiale fu, nel 1956, John McCarthy. E da allora, complici anche romanzi, film e serie TV, usiamo il termine caricandolo spesso di significati che non ha. Senza arrivare a Kate Crawford che ritiene che l’IA non sia «né intelligente né artificiale» vale la pena di chiarirci che ne esistono almeno di tre tipi.
Tre tipi di IA: come cambieranno il mondo?
Il primo tipo è l’IA che è in grado di svolgere compiti complessi, ma è limitata ad ambiti specifici e richiede un addestramento per gestire nuovi compiti. Il secondo tipo è l'IA generativa quella cioè capace di generare testi, immagini, video, musica o altri media in risposta a delle richieste dette prompt. Il terzo tipo è la cosiddetta intelligenza artificiale generale (AGI) che si propone come una forma di intelligenza artificiale in grado di adattarsi autonomamente e risolvere problemi in diversi contesti, come farebbe un essere umano, senza intervento o formazione aggiuntiva. Sono tre cose molto diverse. L'ultima della quali è quella che fa scaturire più domande e dubbi sul nostro futuro. Nessuno al momento sa con esattezza come cambierà il mondo con l'avvento di macchine in grado di addestrarsi da sole e di pensare in maniera autonoma, arrivando magari a soluzioni nuove e inimmaginabili di alcuni dei grandi problemi del mondo. Ciò che sappiamo è che anche l'IA (passatemi il termine) «più semplice» ci sta già cambiando. E non solo perché sono già migliaia i sistemi IA che governano piccole parti delle nostre vite (da quelli inseriti nei navigatori dell'auto a quelli che rispondono alle domande dei clienti per conto di alcune società), ma anche e soprattutto perché l'IA sta già cambiando il nostro modo di informarci, di comunicare e di imparare.
I Trucchi e i rischi dei sistemi IA
Dopo essere cresciuti con sistema di ricerca come Google, oggi ci troviamo sistemi IA come Perplexity e Gemini che cercano per noi le informazioni e ci restituiscono non tanto link sui quali cliccare per leggere articoli e contributi, ma piccoli riassunti creati dalle macchine. Se a questo aggiungiamo la capacità dell'IA di riassumere pdf e testi lunghissimi in pochi secondi e di spezzettare lunghi video in piccole pillole in stile TikTok, è facile intuire che ci sta abituando alle scorciatoie. Anche quando scriviamo o dobbiamo fare i compiti ci viene facile affidarci a questi «trucchi». Solo che se non impariamo a usare l'IA nel modo giusto (e cioè come un aiutante e non come qualcuno che decide per noi) finiremo con l'abituarci a una comunicazione, a una informazione e a un apprendimento senza profondità. Dove la brevità è il valore più importante, dove tutto, anche le cose più complesse, deve essere veloce e (apparentemente) semplice (quindi, spesso banalizzato). Geoffrey Hinton, pioniere dell’IA e Premio Nobel per la Fisica 2024 insieme a John J. Hopfield, ha le idee molto chiare al proposito: «Sebbene l’IA abbia già portato enormi benefici, il suo uso senza regole adeguate potrebbe alterare significativamente la società, il mercato del lavoro e la politica globale, dando origine a conseguenze imprevedibili e pericolose. Con sistemi IA più potenti degli esseri umani, che potrebbero diventare incontrollabili o essere utilizzati per scopi dannosi». Uno dei problemi più importanti, secondo Hinton, è che «l’industria si muove verso lo sviluppo di IA super intelligenti senza avere una chiara comprensione dei rischi associati». Dall’altra parte ci sono voci più ottimiste come quella di Dario Amodei, capo di Anthropic: «L’IA ha la capacità di rimodellare la società in modo positivo, accelerando il progresso in campi come biologia, salute mentale, sviluppo, governance e nel significato nel lavoro». La vera sfida che ci attende, per lui, non è solo costruire la tecnologia, ma immaginare in modo nuovo il modo in cui viviamo e lavoriamo. Eppure, poche settimane dopo queste dichiarazioni, la sua azienda, che ha ideato il chatbot Claude, ha pubblicato un documento che dimostra con quanta facilità i modelli di intelligenza artificiale possono ingannare o sabotare gli utenti. Non solo: Anthropic ha anche annunciato un radicale aggiornamento delle sue regole, per attenuare i rischi dei sistemi IA ad alte prestazioni. Insomma, anche gli ottimisti sanno che sistemi così potenti, se lasciati liberi, possono farci male.
Le scorciatoie dell’informazione
Non a caso anche papa Francesco, il 1o gennaio 2024, nel discorso in occasione della «Giornata della pace» dedicato proprio all'IA, ci ha ricordato «che dobbiamo impegnarci affinché l’Intelligenza Artificiale sia al servizio della pace nel mondo, non una minaccia, e riflettere sul suo impatto sul futuro della famiglia umana». E noi? Noi che facciamo informazione e comunicazione quali rischi corriamo? Cominciamo col dire che il primo nemico di chi fa il nostro lavoro non è l'IA. La crisi del settore è figlia di tante cose, a partire dal modo col quale il digitale da anni ha cambiato il nostro modo di comunicare e di informarci, ma è anche figlia di editori che pretendono di pagare sempre meno chi fa giornalismo e che spesso più che della qualità dei prodotti si preoccupano che costino poco. Anche noi giornalisti abbiamo le nostre colpe. A partire dal fatto che, ben prima dell'avvento di sistemi come ChatGPT, abbiamo imboccato la deriva del «copia e incolla». E così sempre più i comunicati stampa sono diventati articoli di giornale e i lanci delle agenzie di stampa, anche dopo brevi ritocchi, sono diventati servizi «esclusivi». Insomma, pur con mille ragioni (ci pagano poco, vogliono sempre di più in meno tempo e via di questo passo), abbiamo scelto la strada più facile, la scorciatoia.
Il rischio del «testacoda»
Oggi, con sistemi come ChatGPT ci sono testate nel mondo che producono centinaia e centinaia di articoli al giorno. Ammesso e non concesso che ai lettori continuino a interessare articoli tutti uguali, sempre meno approfonditi, siamo davanti a quello che chiamo il «rischio testacoda». E cioè all'avvento di un sistema dove l'IA sceglie le notizie, le verifica da sola, le riscrive «umanizzandole», crea le immagini a corredo (inventate) e pubblica il tutto auto-validandolo come vero. Per uscire da questa specie di incubo abbiamo davanti soltanto una strada: essere ancora più seri e rigorosi nel nostro lavoro di giornalisti e comunicatori. E per essere seri dobbiamo innanzitutto partire dai nostri errori. Della deriva del «copia e incolla» abbiamo già accennato. Ma non è la sola. Pensate, per esempio, a quanto spesso ci diciamo che uno dei problemi dell'Intelligenza Artificiale generativa è che non conosciamo l’origine dei dati usati per scrivere, per esempio, una risposta o un testo. Peccato che nessun giornale indichi mai i processi lavorativi che hanno portato alla stesura di un articolo. Per esempio, se è stato copiato (come spesso accade) da una testata estera (che non viene mai citata), oppure se è nato da un lancio di agenzia (che non viene indicato e che magari non è stato nemmeno verificato) oppure se è frutto di un comunicato stampa. Io non so quanto l'IA cambierà le nostre vite, ma so che le sta già cambiando. E che davanti a noi abbiamo una partita fondamentale per l'uomo. Che riguarda tutti. Abbiamo bisogno di regole e di imparare a usare le tecnologie al servizio dell'uomo e non in maniera passiva. Tutti. Nessuno escluso.