ImageImageImageImageImageImageImageImageImageImageImageImageImageImageImageImageImage

Immaginate un avvocato che, fiducioso, presenta in tribunale una memoria piena di precedenti giuridici dettagliati, citazioni solenni, nomi di giudici autorevoli. Poi scopre che tutto è falso: i casi non esistono, i giudici non hanno mai pronunciato quelle parole. Il colpevole? ChatGPT, che ha confabulato una realtà parallela. Questo episodio, realmente accaduto nel 2023, non è un’eccezione. È il sintomo di un problema più profondo: perché l’IA inventa informazioni? E soprattutto, come dovremmo definire questi errori senza cadere in metafore fuorvianti o stigmatizzanti, come quella di “allucinazione”?

Il concetto di allucinazione nei modelli di Intelligenza Artificiale ha assunto un ruolo centrale nella discussione sulle limitazioni epistemiche e strutturali di tali sistemi. L’impiego di questa terminologia per descrivere l’elaborazione di informazioni non corrispondenti a un dato referenziale solleva interrogativi non solo dal punto di vista tecnico, ma anche concettuale. La questione è se il termine sia una metafora adeguata o se, piuttosto, sia necessario ricorrere a un vocabolario più preciso per descrivere il fenomeno.

Allucinazioni creative o errori sistemici?

Tutto iniziò con un malinteso. Nel 2000, ricercatori nel campo della visione artificiale usarono il termine “allucinazione” per descrivere un processo utile: algoritmi che ricostruivano pixel mancanti nelle immagini, “immaginando” dettagli plausibili. Era un’abilità utile, non un difetto. Ma con l’avvento dei large language model come GPT, in questi anni, il significato è rapidamente mutato.

Oggi, “allucinazione” evoca errori imbarazzanti: traduzioni che stravolgono il senso originale, articoli accademici con riferimenti inesistenti, chatbot che citano studi mai pubblicati.

Il problema, come sottolineano Østergaard e Nielbo in un recente articolo su Schizophrenia Bulletin(2023), è che il paragone con le allucinazioni umane è scientificamente inaccurato e socialmente pericoloso. Le allucinazioni umane – udire voci o vedere oggetti inesistenti – sono percezioni soggettive legate a disturbi neurologici o psichiatrici. L’IA, invece, non percepisce nulla. I suoi errori derivano da calcoli statistici: pattern appresi da enormi dataset, spesso contaminati da bias o informazioni obsolete. Definirli “allucinazioni” non solo banalizza condizioni mediche complesse, ma oscura la vera natura del problema: l’IA non è un paziente psichiatrico, è un sistema che ottimizza la probabilità linguistica. E definire allucinazioni queste ottimizzazioni errate – che in sostanza sono approssimazioni statistiche così ampie da risultare talvolta totalmente sballate – non solo oscura la vera natura del problema, ma spinge le persone ad associare a questi strumenti il fato che siano simili a menti pensanti.

C’è un termine migliore? Benj Edwards, giornalista di Ars Technica, propone “confabulazione”, mutuandolo dalla neuropsichiatria. Nella Sindrome di Korsakov – una condizione legata a carenze di vitamina B1 – i pazienti colmano lacune di memoria con racconti intricati e convincenti. Un anziano potrebbe descrivere un viaggio in Cina mai avvenuto, inserendo dettagli realistici (nomi di città, treni, colleghi): non starebbe “mentendo” in senso stretto: il suo cervello starebbe cercando coerenza, anche a costo di inventare.

L’IA in effetti fa qualcosa di simile. Quando ChatGPT genera una citazione falsa lo fa perché sta combinando frammenti di testo appresi durante l’addestramento—nomi di tribunali, formule legali, strutture sintattiche—in una narrazione fluida ma fittizia. Come il paziente di Korsakov, non ha intenzione di ingannare: segue semplicemente l’imperativo statistico di completare il prompt nel modo più plausibile. E, come in clinica, l’errore emerge solo dopo: quando l’avvocato scopre i casi inesistenti, o lo studente si accorge che la bibliografia del suo paper è inventata.

Insomma: per mentire bisogna sapere che lo si sta facendo.

Bullshit!

Ma se “confabulazione” suona troppo tecnico, c’è chi invita a chiamare le cose col loro nome: bullshit. Il filosofo Harry Frankfurt, nel saggio On Bullshit (2005), distingue la menzogna – un’affermazione intenzionalmente falsa – dal bullshit, prodotto da chi è indifferente alla verità. Un politico che promette soluzioni irrealizzabili per ottenere consenso, o uno studente che bluffa in un esame, non stanno necessariamente mentendo: stanno dicendo cose che suonano bene, senza curarsi della loro corrispondenza con i fatti.

Secondo Hicks et al. (2024), ChatGPT è un perfetto esempio di generatore di bullshit: genera affermazioni fluide e persuasive, ma spesso del tutto indifferenti alla verità. Il motivo è nel design stesso dei modelli linguistici: sono ottimizzati per produrre testo simile a quello umano, non per garantire accuratezza.

Aumentando la “temperatura” del modello—un parametro che controlla la “creatività” (ossia la ampiezza nella scelta delle variabili da far prendere in considerazione dai trasformatori) — si ottengono risposte più originali, ma anche più inclini a invenzioni fantasiose. Il risultato? Un sistema che, come direbbe Frankfurt, «mina la distinzione tra vero e falso», normalizzando l’idea che la verità sia negoziabile. Da questo punto di vista, infatti, l’AI non mente in senso stretto (anzi, non sa nemmeno quale sia la differenza epistemologica tra vero e falso), ma genera output basati esclusivamente sulla coerenza sintattica e sulla probabilità statistica, senza un controllo semantico sull’aderenza dei contenuti alla realtà empirica.

Gli esempi abbondano. Nel 2023, uno studio pubblicato su Psychiatry Research ha rivelato che ChatGPT inventa il 30% delle citazioni bibliografiche in ambito psichiatrico, inserendo autori e titoli di paper inesistenti. Nello stesso anno, è il caso citato all’inizio di questo articolo, un avvocato newyorkese è stato sanzionato per aver presentato in tribunale una memoria piena di precedenti giudiziari generati da ChatGPT: falsi così convincenti che persino il giudice, inizialmente, non li ha riconosciuti come tali.

Dietro questi episodi ci sono dinamiche tecniche precise. I modelli linguistici non hanno accesso al mondo reale: operano su un universo di parole e statistiche. Se nei dati di addestramento compaiono frasi come “Einstein ha detto…” o “la Corte Suprema ha stabilito…”, il modello impara a usare quei nomi in contesti plausibili, senza verificarne l’autenticità. È un problema di grounding: per l’IA, “Parigi è la capitale della Francia” e “Parigi è una mela su Marte” sono semplici sequenze di parole, valutate in base alla loro frequenza nei testi, non alla loro veridicità.

Serve responsabilità nel linguaggio, per un’AI responsabile

In un momento in cui l’attenzione verso l’AI è massima da parte di stampa, decisori e politici è fondamentale evitare di generare equivoci utilizzando termini (volutamente?) fuorvianti

L’uso di una terminologia più accurata è essenziale non solo per una corretta comprensione scientifica del fenomeno, ma anche per lo sviluppo di strategie di mitigazione delle inesattezze prodotte dai modelli di intelligenza artificiale. Definire un errore di inferenza come un’allucinazione non è solo un modo semplice per far passare un concetto. Rischia di essere un sistema che subdolamente muta la natura stessa del concetto nella sua essenza, avvicinandolo a quello che si vorrebbe far passare.

È difficile convincere il pubblico che sia necessario insegnare l’etica ad una grossa e complessa calcolatrice. È molto più facile farlo se si trasforma quella calcolatrice in una mente così sensibile da essere addirittura vittima di allucinazioni.

Non vogliamo parlare di errore di inferenza perché troppo complesso? La confabulazione, con tutta la sua ambiguità, è una metafora potente: ci ricorda che l’IA non è né malata né maliziosa, ma un sistema che cerca coerenza statistica a tutti i costi, perché è l’unica verità di un sistema che – strutturalmente – non è in grado di comprendere il concetto di verità.

l rischio più insidioso è abituarci al bullshit. Se normalizziamo l’idea che l’IA possa “sbagliare in modo creativo”, rischiamo di erodere la fiducia nella conoscenza stessa. La sfida per gli esperti non è solo tecnica -migliorare gli algoritmi – ma culturale: ridefinire il modo in cui parliamo di questi errori, scegliendo parole che rispettino sia la scienza sia la dignità umana. Perché, in fondo, le metafore che usiamo plasmano il modo in cui comprendiamo – e governiamo – la tecnologia.

©2025 Fondazione per la sostenibilità digitale

Tech Economy 2030 è una testata giornalistica registrata. Registrazione al tribunale di Roma nr. 147 del 20 Luglio 2021

Powered by DTILab  - Designed by Fattoria Creativa - Developed by EHT