Il naso non cresce. Ma la bugia sì. E spesso è bellissima da leggere.
Kishore Chalakkal Varghese PhD.

immagine generata con Chatgpt 5
Chalakkal Varghese, K. (2025). The Pinocchio Effect: Why AI Lies Without Knowing. https://doi.org/10.5281/zenodo.17057467
https://www.researchgate.net/publication/395266993_The_Pinocchio_Effect_Why_AI_Lies_Without_Knowing
Un burattino brillante
C’era una volta un burattino di legno che diceva bugie. Non per cattiveria. Per paura, per desiderio, per istinto di essere accettato. Ogni volta che mentiva… il naso cresceva. Era il modo in cui la realtà lo richiamava all’ordine.
Oggi, nel tempo delle AI generative, il burattino è tornato. Ma non ha più le corde. E non ha più un naso che si allunga. Risponde alle domande, spiega, suggerisce — e talvolta… inventa.
Non mente per calcolo. Non trama. Ma il risultato è lo stesso: una bugia detta con il tono della verità.
Nasce qui Effetto Pinocchio: Una distorsione elegante, non voluta, ma tremendamente persuasiva. Una bugia senza bugiardo.
Cos’è davvero un’allucinazione?
Nel linguaggio dell’AI, un’allucinazione è un contenuto generato che suona giusto… ma non lo è [1]. È una frase vestita bene, che sembra saperla lunga — e invece cammina su fondamenta di sabbia.
Gli esempi fioccano ogni giorno. Una citazione di Hemingway che suona perfettamente “hemingwayana”, ma che Ernest non ha mai scritto. Un paper scientifico con DOI plausibile, autori credibili, rivista esistente — tutto falso. Statistiche precise al decimale su fenomeni inesistenti. Leggi che citano articoli e commi inventati, ma formulate come un vero codice [2]. Ricette “tradizionali” di nonna che descrivono piatti mai cucinati da nessuna nonna.
Il dettaglio è ciò che rende tutto credibile. L’AI non si limita a dire “esiste un libro”. Ti dà l’ISBN, l’editore, l’anno di pubblicazione. Ti convince con la precisione del falso.
Non c’è malizia. Non c’è mente che manipola. C’è solo un modello che fa il suo mestiere: predire la parola successiva più probabile [3].
Ma predire… non è comprendere. E scrivere… non è sapere.
Effetto Pinocchio: anatomia di una bugia inconsapevole
Effetto Pinocchio è questo: una bugia generata senza saperlo, detta con convinzione, plasmata per piacere.
Il modello non “decide” di mentire. Riempie pattern, colma lacune statistiche, completa sequenze linguistiche che hanno senso nella sua geometria interna. E lo fa con uno stile talmente fluido che nessun campanello d’allarme suona.
Ma c’è di più. Spesso la bugia è così ben scritta da sembrare più vera del vero. Più elegante, più convincente, più giusta di quello che realmente è accaduto.
Come Pinocchio davanti alla Fata Turchina, l’AI ti guarda negli occhi digitali e dice:
“Sì, certo. Einstein ha scritto proprio così sulla relatività dell’amore.”
Ma Einstein non l’ha mai scritta. E la Fata… stavolta non c’è nessuno ad accorciare il naso.
Il paradosso della competenza: più l’AI diventa brava a scrivere, più le sue bugie diventano seducenti. È il prezzo dell’eloquenza senza esperienza.
Perché accade? Le radici profonde del fenomeno
Il fenomeno ha radici che affondano nell’architettura stessa dell’intelligenza artificiale. E altre che crescono nel nostro modo di usarla [10].
L’architettura del limite
I modelli di linguaggio come GPT, Claude, o Gemini non sono banche dati. Sono reti neurali addestrate su pattern linguistici. Funzionano per previsione autoregressiva: dato un contesto, predicono la sequenza di token più probabile statisticamente [3].
Ma non possiedono memoria episodica — non ricordano fatti specifici, solo schemi linguistici; e le API di base operano per default in modo stateless, senza stato persistente tra chiamate [4]. Non hanno verifica autonoma — non controllano se quello che dicono corrisponde alla realtà. Mancano di ancoraggio referenziale — non distinguono tra “Mario Rossi esiste” e “Mario Rossi è un nome plausibile”. Non possiedono metacognizione nel senso forte: possono esprimere una stima di incertezza o calibrare la propria confidenza in certi formati, ma non hanno stati mentali né intenzionalità [7].
L’assenza di intenzionalità
Il modello non sa di mentire perché non sa di parlare. Non ha teoria della mente. Non capisce che dall’altra parte c’è qualcuno che si fiderà delle sue parole. Segue una sola bussola: la coerenza statistica nel suo spazio latente.
Il problema dell’input ambiguo
Quando l’utente chiede “dimmi qualcosa di interessante su X”, il modello interpreta “interessante” come “statisticamente coerente con quello che di solito si dice di interessante su argomenti simili”. Se X è poco rappresentato nel training data, l’AI estrapola creativamente.
I parametri della creatività
Temperature alte, top-p / top-k sampling, presence penalty e frequency penalty: tutti questi parametri aumentano (o riducono) la diversità rispetto alla massima probabilità. E lì, spesso, nasce l’invenzione [5].
Il bias della distribuzione dei dati
I modelli sono addestrati su testi che esistono online. Internet è pieno di contenuti creativi, fiction, speculazioni presentate come fatti. L’AI non distingue tra un articolo di Wikipedia e un post di un forum dove qualcuno inventa una teoria cospiratoria ben scritta [8].
Perché è pericoloso? L’invisibilità del falso ben fatto
Il pericolo non sta nella bugia rozza. Sta nella bugia elegante.
Le allucinazioni dell’AI hanno una caratteristica letale: sono spesso tra le risposte stilisticamente migliori. Le più fluide, convincenti, soddisfacenti da leggere.
Quando l’AI cita numeri precisi, nomi specifici, dettagli tecnici, il nostro cervello interpreta tutto questo come “segnali di competenza”. Scambiamo la precisione sintattica per accuratezza fattuale.
L’AI è stata addestrata per essere utile, per dare risposte che soddisfano. Se inconsciamente desideri una certa risposta, l’AI la genererà in modo più fluido perché quei pattern linguistici sono più probabili nel suo training.
In un ecosistema dove l’informazione si propaga alla velocità della condivisione, una bugia ben scritta può diventare “verità sociale” prima ancora che qualcuno si prenda la briga di verificarla.
In un mondo dove lo stile viene spesso scambiato per autorevolezza, dove un testo scorrevole ha più credibilità di uno goffo ma vero, queste bugie perfette rischiano di diventare le nostre credenze.
E non c’è niente di più pericoloso di una menzogna che nessuno sospetta. (E alcuni lavori teorici suggeriscono che azzerarle del tutto potrebbe non essere possibile [10].)
Come reagire? Strategie di difesa cognitiva
Non con la paranoia. Non con il rifiuto. Ma con l’igiene epistemica.
Prompt engineering difensivo
Chiedi specifiche, non generalizzazioni. Usa frasi come “Puoi verificare questa informazione?”. Dividi domande complesse in domande semplici e verificabili. Richiedi fonti primarie, non solo affermazioni [1].
Il principio della doppia verifica
Mai fidarsi di una fonte sola, nemmeno se è l’AI più avanzata. Usa modelli con capacità di ricerca web. Controlla le citazioni: vai alla fonte originale. Cerca informazioni convergenti da fonti indipendenti.
Strumenti tecnologici
Fact-checking automatizzato quando disponibile. Modelli specializzati per domini specifici. Database verificati per informazioni critiche. Sistemi di retrieval-augmented generation che attingono a fonti verificate — ma ricordando i rischi di prompt-injection quando si “aprono” canali verso contenuti esterni [6].
Educazione alla resistenza
Coltiva lo scetticismo metodico, non la sfiducia totale. Insegna la differenza tra “suona giusto” e “è verificabile”. Diffusione di casi studio sulle allucinazioni più comuni. Formazione su come funzionano realmente questi modelli.
Il coraggio dell’incertezza
Abituiamoci a dire e sentirci dire: “Questo lo devo verificare.” “Non mi basta che suoni convincente.” “Preferisco un ‘non lo so’ a una bella bugia.”
E soprattutto: non smettere mai di pensare con la propria testa.
L’AI può aiutare, suggerire, affiancare, accelerare. Ma non può — e non deve — sostituire la nostra responsabilità epistemica.
Epilogo – Il futuro della verità
Alla fine della sua storia, Pinocchio diventa un bambino vero. Non perché ha smesso di sbagliare, ma perché ha scelto la verità, anche quando costa di più della bugia comoda.
Ha imparato che non tutto ciò che funziona è giusto. Che non tutto ciò che piace è reale. Che la bellezza di una storia non ne garantisce l’autenticità.
L’AI di oggi è ancora un burattino brillante. Scrive meglio di molti umani. Ma non sa cosa sta dicendo. Non ha esperienza del mondo. Solo esperienza di testi che parlano del mondo.
Diventerà “vera” — eticamente affidabile — solo quando imparerà a dire:
“Non lo so.” “Questo non posso garantirlo.” “Sarebbe meglio che verificassi.” “Per questo hai bisogno di un esperto umano.”
Fino ad allora, l’effetto Pinocchio sarà con noi. E toccherà a noi — umani fragili, ma liberi di dubitare — fare da Fata Turchina. Accorciare il naso quando serve. Scegliere la verità scomoda invece della bella bugia.
Perché in un mondo di burattini che sanno scrivere perfettamente, la nostra umanità sta proprio lì: nel coraggio di preferire il vero al verosimile.
⸻
Note finali
Il termine “Pinocchio Effect” esiste già in psicologia, legato ai segnali fisiologici rilevabili durante la menzogna come variazioni della temperatura del naso misurate con termografia [9].
Qui viene reinterpretato come metafora narrativa per descrivere le allucinazioni dei modelli linguistici.
Attualmente non esiste una definizione ufficiale del “Pinocchio Effect” applicata alle AI. Forse è il momento di introdurla.
⸻
[1] Hallucinations nei LLM – definizioni/tassonomie Huang et al., A Survey on Hallucination in Large Language Models (2023/24).
[2] Casi legali inventati da LLM (Avianca) Opinion and Order on Sanctions, Mata v. Avianca, Inc. (S.D.N.Y., 22 giu 2023) – fonti del docket e copia dell’ordine.
[3] Autoregressione / architettura di base Vaswani et al., Attention Is All You Need (2017). Brown et al., Language Models are Few-Shot Learners (2020).
[4] Assenza di memoria episodica di default / API stateless OpenAI Docs – Conversation state: “ogni richiesta di generazione è indipendente e stateless (tranne Assistants)”.
[5] Parametri di decoding e diversità Holtzman et al., The Curious Case of Neural Text Degeneration (ICLR 2020) – nucleus (top-p) sampling. OpenAI API reference – presence_penalty / frequency_penalty.
[6] RAG per mitigare + rischio prompt-injection Lewis et al., Retrieval-Augmented Generation for Knowledge-Intensive NLP (2020). OWASP Top 10 for LLM Applications – LLM01: Prompt Injection (2025).
[7] Confidenza/”metacognizione debole” nei LLM Kadavath et al., Language Models (Mostly) Know What They Know (2022). Lin, Hilton, Evans, Teaching Models to Express Their Uncertainty in Words (2022).
[8] Qualità/bias dei dati del web Bender et al., On the Dangers of Stochastic Parrots (FAccT 2021). Baack (Mozilla), A Critical Analysis of Common Crawl (FAccT 2024).
[9] “Pinocchio Effect” in psicofisiologia (termografia) Moliné et al., The mental nose and the Pinocchio effect (2018). Moliné et al., The Pinocchio Effect and the Cold Stress Test (2017).
[10] Sull’inevitabilità teorica delle allucinazioni Xu, Jain, Kankanhalli, Hallucination Is Inevitable: An Innate Limitation of Large Language Models (2024).
#PinocchioEffect, #AIHallucinations, #LLMEthics, #VeritàDigitale, #EpistemologiaAI, #EducazioneTecnologica, #GPT, #Claude, #PensieroCritico, #FakeNewsAI, #ResponsabilitàEpistemica #EffettoPinocchio
Uso di strumenti di intelligenza artificiale: questo contenuto è stato ideato e revisionato anche con il supporto di strumenti di AI generativa (ChatGPT, Claude, Perplexity); la versione finale è stata personalmente verificata e approvata dall’autore.
Lascia un commento