In molte pagine di browser e nelle chat di smartphone è comparsa una nuova abitudine: invece di aprire risultati, leggere articoli e confrontare fonti, milioni di persone chiedono risposte già pronte a ChatGPT. La scena è familiare: una domanda, una risposta istantanea, nessun link da seguire. È comodo, ma la facilità nasconde un rischio didattico. Un gruppo di ricercatori ha messo a confronto questo approccio con la ricerca tradizionale su Google e i risultati mettono in luce una trasformazione del modo in cui affrontiamo l’apprendimento.
Come è stato condotto lo studio e cosa mostra
La sintesi più ampia arriva da una rassegna pubblicata su PNAS Nexus, che ha analizzato sette ricerche coinvolgendo oltre 10.000 partecipanti. Gli esperimenti mettevano persone a confronto: a caso veniva assegnato un chatbot basato su modelli linguistici o un motore di ricerca tradizionale. Il compito era semplice nella forma ma rivelatore nella sostanza: approfondire un argomento e poi scrivere consigli pratici per un amico, mettendo alla prova comprensione e capacità di sintesi.
I risultati sono stati coerenti. Chi aveva usato il chatbot produceva risposte più brevi, indicate da suggerimenti generici e con meno dati concreti. Chi aveva navigato pagine web arrivava a consigli più articolati, con dettagli contestuali e sfumature. Questo accadeva anche quando i ricercatori controllavano le informazioni cui gli utenti erano esposti: gli stessi fatti non garantivano la stessa profondità di apprendimento se erano stati presentati già sintetizzati dall’LLM. Un dettaglio che molti sottovalutano: la differenza non è solo nella quantità di informazioni, ma nella qualità dell’elaborazione mentale che l’utente mette in atto.
Secondo una delle coautrici dello studio, l’esperienza di dover selezionare link, valutare fonti e interpretare dati favorisce un apprendimento attivo che i modelli linguistici tendono a oscurare. Quando il sistema fa gran parte del lavoro cognitivo, l’utente si limita ad assorbire una sintesi, con meno processi di confronto e verifica. Allo stesso tempo, l’uso ripetuto di risposte preconfezionate può trasformare l’attività di ricerca in un’operazione passiva, riducendo la capacità di rielaborare e memorizzare contenuti.

Conseguenze per la scuola, l’università e il pensiero critico
Le evidenze sul campo non si fermano a un singolo lavoro. Studi condotti da istituzioni come Carnegie Mellon e team legati a Microsoft mostrano che la fiducia eccessiva nell’accuratezza degli strumenti di intelligenza artificiale può incidere negativamente sul pensiero critico. In pratica, non è solo che gli studenti non migliorano: alcune ricerche documentano un deterioramento delle abilità analitiche quando l’AI diventa la prima risorsa di consultazione.
Un altro filone di studi ha rilevato correlazioni tra uso intensivo di chatbot e cali nel rendimento: perdita di memoria a breve termine, difficoltà nell’applicare concetti in prova e peggioramento dei voti. Qui emerge un punto concreto: l’AI può automatizzare compiti ripetitivi e alleggerire il lavoro di professionisti già formati, ma sostituire la fase in cui lo studente costruisce conoscenza espone a rischi. Un aspetto che sfugge a chi vive in città è proprio la velocità con cui questa transizione diventa pratica comune nella vita quotidiana degli studenti.
Intanto le università stringono accordi con grandi aziende tecnologiche e investono nella formazione dei docenti per integrare questi strumenti. È una scelta pragmatica: le piattaforme entrano nelle aule e nei programmi. Resta la domanda su come bilanciare automazione e apprendimento attivo. Un fenomeno che in molti osservano nelle facoltà è la crescente dipendenza dagli strumenti di sintesi, con effetti che cambiano anche i metodi di valutazione. Chi studia il tema avverte che la sfida educativa sarà imparare a usare l’AI senza lasciare che prenda il posto del processo cognitivo che forma competenze.
In molte classi e in diversi contesti professionali in Italia si discute già di linee guida e di pratiche per mantenere vivo il lavoro critico: limitare l’uso come prima fonte, richiedere verifiche delle fonti, progettare compiti che richiedano ricerca autonoma. È un cambiamento organizzativo oltre che culturale, e per molti osservatori è destinato a restare una delle principali questioni formative nel corso dell’anno. Un dettaglio che molti sottovalutano: il modo in cui chiediamo le informazioni cambia la capacità di tenerle.
