C’è un’immagine che torna di continuo nei social: tre cervelli affiancati, quello “con i libri” acceso a tutta potenza, quello “con Google” un po’ meno brillante, quello “con l’AI” quasi spento. Funziona perché fa leva su una paura antica: se delego un pezzo di lavoro mentale a una macchina, divento più stupido. È un’intuizione potente, ma non è scienza. È, piuttosto, una scorciatoia visiva. E come tutte le scorciatoie, ti porta lontano dai fatti.
1) Cosa misurano davvero le immagini cerebrali (e perché vengono fraintese)
L’errore nasce dall’idea che “più attivazione” equivalga a “più pensiero”, e “meno attivazione” a “spegnimento”. Le tecniche di neuroimmagine come l’fMRI [functional Magnetic Resonance Imaging – Risonanza Magnetica Funzionale] misurano variazioni emodinamiche correlate all’attività neurale, non il “valore” del pensiero. In letteratura è celebre l’avvertimento contro la reverse inference: vedere una certa area che si attiva non autorizza a concludere, da sola, qual è il processo mentale in corso. È una deduzione che richiede basi statistiche e contestuali robuste [1–2].
C’è di più: in molte abilità complesse, le persone più esperte mostrano meno attivazione a parità di prestazione. Si chiama neural efficiency: il cervello più allenato è spesso anche più parco nell’uso delle risorse. Dunque “meno attivazione” può voler dire miglior controllo, non pigrizia [3–4].
2) Delegare è umano: l’“offloading” cognitivo non atrofizza la mente, la riorganizza
Da sempre spostiamo carico mentale su strumenti e ambiente: i nodi alle dita, il taccuino, la calcolatrice, la rubrica, i motori di ricerca. La scienza cognitiva lo chiama cognitive offloading: usare il mondo esterno per alleggerire la memoria di lavoro e concentrare le risorse dove servono. Non è un vizio moderno: è una competenza evolutiva [5].
Col digitale succede anche un’altra cosa: si modifica la memoria transattiva. Quando so che un’informazione è recuperabile, tendo a ricordare meno il contenuto e meglio dove trovarlo. È il famoso “Google effect”: non smetto di pensare, cambio la strategia di immagazzinamento e recupero [6].
Questa prospettiva ha una radice anche filosofica: la extended mind. In breve: in molte attività, mente e strumenti formano un unico sistema funzionale. Oggi quel taccuino può essere un LLM [Large Language Models – Modello/i di Linguaggio di Grandi Dimensioni] ; il punto è come integriamo lo strumento nel ragionamento [7].
3) Il caso del navigatore: meno mappa interna ≠ cervello “spento”
L’esempio da manuale è il GPS [Global Positioning System – Sistema di Posizionamento Globale]. Se l’app pianifica per noi, l’ippocampo e parti della corteccia prefrontale lavorano meno rispetto alla pianificazione autonoma in ambienti complessi: l’ha mostrato un lavoro di Nature Communications su compiti di navigazione con e senza ricalcolo del percorso [8]. Non è atrofia: è sostituzione di funzione qui e ora.
Sul piano comportamentale, diversi studi indicano che un uso intenso del “turn-by-turn” riduce l’acquisizione della conoscenza spaziale (la mappa mentale del territorio), rispetto a mappe cartacee o all’esplorazione diretta: si arriva comunque a destinazione, ma si costruisce meno la topologia del luogo [9–11].
Il parallelo con l’AI generativa è diretto: se deleghi a un modello la pianificazione del testo o la prima bozza, tu consumerai meno risorse in quelle fasi e ne libererai in altre (giudizio, adattamento, verifica). Il rischio non è “spegnere il cervello”, ma allenarlo male se delega e controllo non sono progettati.
4) Che cosa cambia davvero con gli LLM nel lavoro della conoscenza
Qui escono i dati, non le opinioni. Nel lavoro reale, un grande studio su oltre 5.000 addetti all’assistenza clienti ha misurato, dopo l’introduzione di un assistente generativo, un aumento medio di produttività del 14–15%, con benefici più marcati per i meno esperti [12].
Su compiti di scrittura professionale, un esperimento controllato con professionisti ha trovato che l’accesso a ChatGPT riduce il tempo medio circa del 40% e migliora la qualità valutata del 18%. Non uguale per tutti: chi parte svantaggiato guadagna di più [13].
Nella didattica, la morale è più sottile (e importante): un RCT [Randomized Controlled Trial -Studio Clinico Randomizzato e Controllato] in PNAS [Proceedings of the National Academy of Sciences of the United States of America] mostra che un tutor AI “senza corrimano” (che dà risposte finali) può danneggiare l’apprendimento; se invece il sistema obbliga a spiegare i passaggi e a riflettere sugli errori, l’apprendimento migliora. Conta il design dell’interazione, non la sola presenza dell’AI [14].
5) I rischi veri (documentati): automation bias e deskilling se usiamo l’AI “a occhi chiusi”
Quando un sistema sbaglia raramente, tendiamo a credergli anche quando sbaglia: è l’automation bias. La letteratura lo documenta in aviazione, sanità, processi complessi, insieme alla complacency (supervisione pigra). Non è un problema “nuovo dell’AI”; è un vecchio amico che l’AI può amplificare se la progetti male [15–17].
Il secondo rischio è il (de)skilling: se automatizzi in toto alcune fasi, le competenze residue si assottigliano col tempo. Anche qui, il punto non è demonizzare la macchina ma decidere cosa tenere “a mano” e quando. (Chi vola sa perché si disinserisce periodicamente l’autopilota.) [18]
6) Tenere acceso il cervello: come progettare un uso “attivo” dell’AI
Qui non servono slogan, ma principi operativi che poggiano su ciò che sappiamo di memoria e carico cognitivo:
- Prima struttura, poi chiedi. Abbozza obiettivi, criteri, vincoli e ipotesi prima di aprire la chat. È una forma di germane load deliberato: indirizza l’attenzione su ciò che dà valore e riduce l’overload dispersivo [19].
- Fatti spiegare i passaggi. Chiedi sempre come il modello è arrivato a una proposta, quali alternative ha scartato, dove sono i punti deboli. Questo abbatte l’automation bias [16].
- Mantieni “a caldo” alcuni step chiave. Definizione dei requisiti, controllo dei dati in ingresso, validazione finale: decidi ex ante quali fasi non esternalizzare. È l’antidoto al deskilling [18].
- Verifica sulle fonti primarie. Se entrano in gioco fatti, numeri, norme, pretendi DOI [Digital Object Identifier – identificatore di oggetto digitale] , pagine ufficiali, dataset. L’AI accelera, tu convalidi.
Un esempio concreto (da vita reale d’ufficio)
Immagina la selezione di un nuovo fornitore critico. Fai generare all’LLM una griglia di valutazione sugli indicatori che tu hai fissato (capacità, lead time, rating ESG [Environmental, Social, and Governance – indicatori di sostenibilità e governance aziendale] , storico difettosità); chiedi poi tre alternative e, per ciascuna, le condizioni che farebbero cambiare il giudizio. Infine, senza AI, rivedi i contratti, confronti i dati grezzi e telefoni a due referenze. L’AI riduce il costo d’esplorazione e di scrittura, tu ti prendi la parte a più alto valore: discernere e decidere. Cervello acceso.
7) Il punto d’arrivo
Dire che “con gli LLM usiamo meno cervello” è fuorviante per tre ragioni:
- confonde le mappe cerebrali con la qualità del pensiero;
- ignora che parte dell’intelligenza umana è saper spostare carico cognitivo sugli strumenti;
- non vede che rischi e benefici dipendono dal progetto d’uso.
Le immagini-meme restano memi: utili per sorridere, pessime per decidere. La buona notizia è che possiamo scegliere: integrare l’AI per liberare attenzione, non per spegnerla.
#ArtificialIntelligence #AI #LargeLanguageModels #CognitiveScience #FutureOfWork #HumanAIInteraction #DigitalInnovation
Endnotes (fonti)
- Poldrack, R. A. (2011). Inferring mental states from neuroimaging data. Trends in Cognitive Sciences, 15(3), 119–126. DOI: 10.1016/j.tics.2010.11.004
- Logothetis, N. K. (2008). What we can do and what we cannot do with fMRI. Nature, 453, 869–878. DOI: 10.1038/nature06976
- Neubauer, A. C., & Fink, A. (2009). Intelligence and neural efficiency. Neuroscience & Biobehavioral Reviews, 33(7), 1004–1023. DOI: 10.1016/j.neubiorev.2009.04.001
- Dunst, B., Benedek, M., Jauk, E., & Neubauer, A. C. (2014). Neural efficiency as a function of task demands. Intelligence, 42, 22–30. DOI: 10.1016/j.intell.2013.09.005
- Risko, E. F., & Gilbert, S. J. (2016). Cognitive offloading. Trends in Cognitive Sciences, 20(9), 676–688. DOI: 10.1016/j.tics.2016.07.002
- Sparrow, B., Liu, J., & Wegner, D. M. (2011). Google effects on memory: Cognitive consequences of having information at our fingertips. Science, 333(6043), 776–778. DOI: 10.1126/science.1207745
- Clark, A., & Chalmers, D. (1998). The Extended Mind. Analysis, 58(1), 7–19. DOI: 10.1093/analys/58.1.7
- Javadi, A.-H., Emo, B., et al. (2017). Hippocampal and prefrontal processing of network topology to simulate the future. Nature Communications, 8, 14652. DOI: 10.1038/ncomms14652
- Ishikawa, T., Fujiwara, H., Imai, O., & Okabe, A. (2008). Wayfinding with a GPS-based mobile navigation system: A comparison with maps and direct experience. Journal of Environmental Psychology, 28(1), 74–82. DOI: 10.1016/j.jenvp.2007.09.002
- Dahmani, L., et al. (2020). Habitual use of GPS negatively impacts spatial memory during self-guided navigation. Scientific Reports, 10, 6310. DOI: 10.1038/s41598-020-62877-0
- Ruginski, I. T., et al. (2019). GPS use negatively affects environmental learning through spatial transformation abilities. Journal of Environmental Psychology, 64, 12–20. DOI: 10.1016/j.jenvp.2019.05.006
- Brynjolfsson, E., Li, D., & Raymond, L. (2023). Generative AI at Work. Quarterly Journal of Economics, 140(2), 889–936. (Working Paper NBER No. 31161)
- Noy, S., & Zhang, W. (2023). Experimental evidence on the productivity effects of generative artificial intelligence. Science, 381(6654), 187–192.
- Bastani, H., et al. (2025). Generative AI without guardrails can harm learning: Evidence from high school mathematics. PNAS, 122(35), e2422633122.
- Goddard, K., Roudsari, A., & Wyatt, J. C. (2012). Automation bias: a systematic review of frequency, effect mediators, and mitigators. JAMIA, 19(1), 121–127. DOI: 10.1136/amiajnl-2011-000089
- Parasuraman, R., & Manzey, D. (2010). Complacency and bias in human use of automation: An attentional integration. Human Factors, 52(3), 381–410. DOI: 10.1177/0018720810376055
- Wickens, C. D., et al. (2015). Complacency and automation bias in the use of imperfect automation. Human Factors, 57(5), 728–739. DOI: 10.1177/0018720815581940
- Wired (2015). The Irony of Automation: Why Clinicians Let Computers Make Mistakes. Articolo divulgativo con paralleli in aviazione.
- Sweller, J. (1988). Cognitive load during problem solving: Effects on learning. Cognitive Science, 12(2), 257–285. DOI: 10.1207/s15516709cog1202
Nota sull’uso di IA: l’autore ha utilizzato strumenti di IA generativa (ChatGPT, Claude, Perplexity) come supporto alla scrittura e ha interamente rivisto e approvato il testo finale.
