Verità simulate: come l’intelligenza artificiale trasforma il sapere in credenza
di Yuli Cruz Lezcano
Quando riconosciamo che l’intelligenza artificiale può sbagliare, realizziamo che servono strumenti culturali e critici per evitare di edificare un intero sapere su basi fragili. Il problema del “falso” non è riducibile alla mera bugia intenzionale, quanto piuttosto a una conoscenza che sembra verosimile, si comporta come tale, e per questo viene accettata senza riserve. Oggi, nel contesto dell’informazione, questo fenomeno assume una portata epocale: se un tempo le fonti erano chiaramente riconoscibili: un articolo firmato, una pubblicazione accademica, una rivista autorevole; oggi una risposta generata da ChatGPT può assumere sembianze altrettanto autorevoli, pur priva di contenuti reali e verificabili. Ne deriva che la forma dell’autorevolezza sopravvive alla sostanza della verità. Tale ambiguità emerge con evidenza nel contesto delle bibliografie accademiche.
Numerosi casi documentati mostrano come studenti, talvolta inconsapevoli, portino elaborati contenenti fonti inventate generate da strumenti come ChatGPT. Situazioni analoghe sono state riscontrate in versioni preliminari di tesi di dottorato o di bandi pubblici: vengono citate riviste inesistenti o articoli mai pubblicati, ma presentati con una coerenza formale tale da eludere i controlli superficiali, dando vita a veri e propri “fantasmi accademici”. Questo fenomeno rende urgente ripensare i criteri di affidabilità nella produzione e nella circolazione del sapere.
Il rischio non si limita alla reputazione degli autori: ha un impatto diretto sulla qualità dell’insegnamento, sulla credibilità della ricerca e sull’integrità dei dati utilizzati in processi decisionali pubblici e privati. Ricerche dell’Università del New Brunswick, ad esempio, mostrano che nelle citazioni generate da ChatGPT nella psicologia, tra il 6 % e il 60 % risultano essere “hallucinated citations”: riferimenti credibili nella forma, ma inesistenti nella sostanza. In un’altra analisi condotta da Guido Zuccon e collaboratori, solo nel 14 % dei casi i riferimenti indicati da ChatGPT corrispondono a fonti effettivamente esistenti; nella metà delle risposte, invece, l’IA fornisce affermazioni corrette ma supportate da fonti false o derivate da interpretazioni errate. A livello comparativo, uno studio del 2025 valutando otto diversi chatbot (tra cui ChatGPT, Gemini, DeepSeek, Grok) ha scoperto che solo il 26,5 % dei riferimenti generati era completamente corretto, mentre il 39,8 % risultava errato o inventato.
Il problema è strutturale
I modelli linguistici come ChatGPT sono addestrati su enormi corpora testuali prelevati da Internet, un ambiente già di per sé ambiguo, dove verità e opinione, dato e propaganda, scienza e pseudoscienza circolano senza filtri. Non hanno accesso diretto a banche dati accademiche aggiornate e chiuse, come Scopus o Web of Science. Di conseguenza, anche se l’input richiede fonti scientifiche, il modello tende spesso a simularne l’aspetto formale piuttosto che verificarne l’esistenza reale. Questo può innescare un ciclo di disinformazione inconsapevole, soprattutto in contesti formativi o professionali nei quali la verifica rigorosa delle fonti manca.
Non si tratta solo di una questione tecnologica, ma di responsabilità culturale. L’educazione digitale non può limitarsi al semplice insegnamento dell’uso degli strumenti: essa deve estendersi a una riflessione su come tali strumenti influenzano la conoscenza, l’autorità, la fiducia. Un modello linguistico non è neutrale: è il prodotto delle informazioni che noi, collettivamente, immettiamo nella rete. Da questo punto di vista, l’uso critico di ChatGPT diventa una cartina di tornasole per misurare la salute del nostro ecosistema cognitivo. Di conseguenza, serve ripensare le modalità con cui verifichiamo le informazioni. L’abitudine a “googlare” una risposta o ad accettare la prima voce che appare su una pagina IA deve essere superata da una nuova alfabetizzazione delle fonti. Università, scuole, biblioteche e istituzioni devono insegnare a distinguere fonti primarie da secondarie, a decodificare la struttura di un articolo scientifico e ad applicare i criteri della ricerca accademica. In tal modo, l’intelligenza artificiale può diventare uno strumento utile, ma non un’autorità inoppugnabile.
Le fonti
In definitiva, il tema centrale non è solo garantire che ChatGPT utilizzi fonti affidabili, ma soprattutto che noi sappiamo cosa farne. L’intelligenza artificiale è già integrata nelle dinamiche educative, redazionali, giuridiche e amministrative. Tuttavia, la sua affidabilità non dipende solo da come è programmata, ma da quanto siamo capaci di interpretarne i limiti. Nel nuovo paesaggio dell’informazione, la verità non è più soltanto un fatto da trovare: è una responsabilità da esercitare. Se la selezione critica delle fonti è diventata la prima linea di difesa contro il falso che si spaccia per vero, il passo ulteriore è comprendere come l’IA generativa non solo possa inventare, ma possa strutturare e consolidare conoscenze inesistenti fino al punto da renderle persino resistenti al controllo umano. I modelli linguistici come ChatGPT non si limitano a rispondere: essi rimodellano il sapere secondo le regole probabilistiche imparate, e questo ha effetti profondi sull’ecosistema della conoscenza.
Gli studi pubblicati su PubMed confermano la portata reale di questa problematica. Ad esempio, nella ricerca condotta nel contesto della psichiatria, ChatGPT ha generato trentacinque citazioni, di cui soltanto due effettivamente reali; dodici erano varianti di titoli esistenti con dati falsificati, le restanti ventuno erano costruzioni composite di elementi plausibili ma inesistenti. Altro lavoro analogo ha rivelato che le produzioni bibliografiche di ChatGPT-3.5 contenevano fino al 55 % di riferimenti totalmente inventati, contro un più contenuto – ma ancora significativo – 18 % riscontrato con ChatGPT-4. In un confronto ancora più dettagliato per revisioni sistematiche, GPT-3.5 e GPT-4 fanno emergere tassi di precisione molto bassi (rispettivamente 9,4 % e 13,4 %) e tassi di “allucinazione” rilevanti, mentre Bard sfiora il 91 % di riferimenti errati.
Questi dati evidenziano come l’IA generativa possa produrre testi formalmente coerenti e ben strutturati, ma basati su fondazioni inesistenti. La ricerca “Can generative AI reliably synthesise literature?”, pubblicata su AI & Society nel 2025, conferma che ChatGPT può far risparmiare tempo (fino al 60–65 %) nella selezione di titoli e abstract, ma con precisioni in calo fino al 4,6 % in compiti interpretativi, e tassi di allucinazione che possono raggiungere il 91 %, dipendendo dal dominio applicativo.
Si tratta di problemi strutturali e non solo occasionali. Gli studi su modelli linguistici indicano che tanto più un’affermazione è incerta nel modello, tanto più l’IA tende a sedimentarla con forza, come se fosse certa. È ciò che definiscono hallucination snowballing: un errore iniziale può tradursi in ulteriori errori, amplificati in cascata dalla coerenza interna del sistema. Ancor più inquietante è il concetto emergente di corrosive hallucination: distorsioni epistemiche tali da minare lo stesso principio della conoscenza scientifica, resistenti alla rimozione, e in grado di compromettere interi flussi di ricerca, a meno che non vi siano vincoli teorici e controlli sistematici forti in fase di valutazione. C’è però un segnale di speranza: metodologie analoghe a quelle sfruttate in campi come la biologia computazionale (ad es. AlphaFold) dimostrano la possibilità di integrare l’IA in workflow scientifici rigorosi, in cui vincoli teorici, verifiche incrociate e screening umani neutralizzano le allucinazioni più distruttive.
Il percorso verso un uso più affidabile dell’IA nella ricerca e nell’informazione, quindi, non è tecnologico ma epistemico: serve tornare alla responsabilità collettiva del sapere, dove il controllo umano non solo verifica ma educa, dove il modello non basta da solo, e dove impariamo nuovamente a porci domande sul come e sul perché, non solo sul cosa.