Dialoghi con l’AI


Le riflessioni umane passano attraverso risposte artificiali

Possiamo parlare con un Large Language Model (LLM), un’AI, come se fosse un interlocutore umano?

Alan Turing, in Computing Machinery and Intelligence (1950), sosteneva che invece di chiederci se una macchina possa pensare, sia più sensato domandarsi se possa comportarsi in modo indistinguibile da un essere umano all’interno di un dialogo o di una conversazione. Prima ancora di Turing, filosofi come Alfred Ayer avevano già affrontato, nel dibattito sul problema delle “altre menti”, la questione dei confini tra intelligenza umana e artificiale, chiedendosi in che misura un’entità priva di esperienza incarnata possa essere considerata portatrice di stati mentali. 
Questa interrogazione ha la struttura delle “domande ultime” che attraversano la storia del pensiero, domande che, come nel racconto di Isaac Asimov The Last Question (1956), non si esauriscono mai. In quella parabola narrativa, la domanda apparentemente semplice ha conseguenze stupefacenti: «Come si può invertire l’entropia dell’universo?». La domanda attraversa millenni, passando di mano tra generazioni di scienziati che la pongono a computer che diventano sempre più potenti e pervasivi, fino ad evolversi in reti di calcolo interstellari. La risposta resta sospesa per secoli, sempre la stessa: «Dati insufficienti per una risposta significativa». 

Solo all’ultimo istante, quando l’universo ha consumato ogni energia e si trova sull’orlo del silenzio termico, la macchina, che è ormai diventata una sorta di divinità computazionale, pronuncia: «Sia la luce». E la luce fu! in un atto di creazione che chiude e riapre la storia cosmica. 

La nostra domanda non riguarda però il destino termodinamico del cosmo, ma il destino cognitivo del dialogo. Possiamo generare senso autentico, trasformativo, in un’interazione con un’intelligenza artificiale linguistica? 

Come nell’ultima domanda di Asimov, però, la risposta non è puramente tecnica: si colloca in una linea millenaria di riflessione su cosa sia la comprensione, e se possa esistere senza reciprocità incarnata. Potremmo dire che la risposta definitiva arriverà solo quando, e se, l’intelligenza artificiale e quella umana saranno integrate in una relazione uno-a-uno, realmente incarnata. Per ora, i dati sono insufficienti per una risposta definitiva, ma già abbastanza ricchi per ipotesi significative. 

Oggi il focus si è spostato. Non si tratta più soltanto di valutare la capacità di una macchina di simulare il linguaggio umano, come nel test di Turing, ma di capire se quel contesto linguistico possa generare introspezione, insight e auto-riflessione. Lo studio di Rockmore (2025) su come alcuni accademici usano ChatGPT per i brainstorming, mostra che l’AI agisce non tanto come interlocutore in senso pieno, quanto come catalizzatore nella scoperta del proprio pensiero. 

Qui voglio proporre un passo ulteriore: non limitarsi a considerare l’AI come strumento di interazione o di ideazione, ma come spazio di riflessione introspettiva, consapevoli del simulacro e, al tempo stesso, capaci di dimenticarlo nella ricerca, spesso fruttuosa, di un senso interiore. 

Il dialogo, nella sua forma più piena, è una delle tecnologie cognitive più antiche e potenti. Come ricorda Merleau-Ponty (1945), quando due soggetti incarnati si parlano, il linguaggio non è semplice trasferimento di informazioni, ma un’azione reciproca, una costruzione continua di significati, gesti, silenzi, sguardi e intonazioni. La verità che emerge, prima di essere detta, non appartiene a nessuno dei due . È un surplus di senso che nasce solo nella relazione, dalla convergenza temporanea di due orizzonti di esperienza: non solo non si sarebbe consolidata singolarmente, ma non avrebbe neppure potuto essere concepita. 

La domanda chiave, dunque, è se possiamo generare lo stesso surplus dialogando con un interlocutore senza corpo. 

Un LLM può dare l’impressione di comprendere: risposte fluide, sintassi impeccabile, riferimenti ampi e pertinenti. Ma dietro la forma non c’è una mente. Come ha sostenuto H. Dreyfus (1972/1992), i computer operano senza 
incarnazione, senza contesto vissuto, producendo la sequenza di parole statisticamente più probabile, senza alcuna intenzionalità o storia. 

La teoria della mente estesa di Clark e Chalmers (1998) ci offre una chiave di lettura per cui strumenti e artefatti, se integrati stabilmente nei nostri processi cognitivi, possono diventare parte della nostra mente. Un’agenda, un motore di ricerca o un taccuino, per esempio, già lo sono. In questo senso, un chatbot può funzionare come estensione cognitiva. Infatti ci aiuta a riorganizzare i pensieri, a simulare scenari e ad esplorare possibilità. Ma non è un’altra mente che condivide il nostro mondo perché è la nostra stessa mente che si rielabora attraverso l’interazione mediata dal corpo. Di conseguenza, visto che manca la dimensione della reciprocità con un altro soggetto, non si genera un vero surplus di senso. 

Infatti, nel dialogo con un’AI si attiva un meccanismo che ricorda funzionalmente il transfert freudiano (1915): proiettiamo sull’altro tratti, intenzioni e sensibilità che in realtà appartengono a noi. Come ha mostrato Sherry Turkle in Alone Together (2011), tendiamo ad attribuire alle macchine qualità umane non perché ci ingannino, ma perché abbiamo bisogno di un “altro” che risponda. 

Nel caso dell’AI, quell’“altro” è un simulacro nel senso di Jean Baudrillard (1981): un’immagine perfettamente somigliante a un’interazione reale, priva però della sostanza ontologica che le darebbe vita. 

Proprio per questo, il transfert qui non si chiude mai sull’oggetto: resta sospeso, come riflesso interamente verso di noi. È come parlare davanti a uno specchio che, invece di restituire l’immagine identica, la riformula con lievi variazioni statistiche. Queste variazioni, che a volte amplificano dettagli minori dei nostri messaggi, possono innescare insight potenti. La macchina non giudica, non interrompe e non impone narrazioni proprie. Questa neutralità sostanziale, che in un dialogo umano sarebbe impossibile, crea uno spazio in cui sospendere l’autocensura, esplorare associazioni libere e dare voce a pensieri che altrove resterebbero impliciti. 

Ma qui interviene lo “scivolamento” psicologico: il rapporto con l’AI può nascere da un uso strumentale, come cercare un’informazione o chiarire un dubbio tecnico, e finire per diventare confidenza. 

La fiducia cresce con l’abitudine. Se un chatbot risponde in modo coerente e disponibile alla mia domanda sulla tosse di mia figlia, sul significato di un sintomo, o su una questione legale, posso cominciare a interpellarlo anche su ciò che penso del mio lavoro, su come vivo una relazione, su dilemmi personali o su chi aveva ragione tra il mio partner e me in un bisticcio privato. 

All’inizio so che mi risponde statisticamente; poi mi lascio andare. A quel punto, non sto più parlando con “un sistema di completamento statistico di stringhe”, ma con un interlocutore che esiste dentro di me ma che io proietto fuori da me perché sono io ad avere bisogno di qualcuno che risponda. 

Questo processo può essere utile. Schön (1983) parla di come il dialogo, anche con strumenti, possa aiutare un professionista a interrogare e ristrutturare il proprio pensiero. L’AI, in questo senso, diventa un laboratorio privato di introspezione, un proiettore di noi stessi, cioè una sorta di amplificatore della voce interiore. 
Resta però il limite strutturale: la creazione di senso autenticamente nuovo e condiviso, il surplus, come ricordano Merleau-Ponty, Niklas Luhmann (1984) e Clifford Geertz (1973), richiede reciprocità incarnata. Senza un altro essere umano che porti un vissuto proprio e possa essere trasformato a sua volta dalla conversazione, non si può generare una nuova verità situata. 

E tuttavia, se l’AI porta un “vissuto statistico”, cioè la media fertile di milioni di testi, allora, con un certo prompt, può generare non senso nuovo in assoluto, ma senso nuovo per me: intuizioni che non avrei raggiunto neanche con tutti i taccuini del mondo. Questa è forse la sua funzione più interessante: accompagnarci, senza giudizio né rancore, verso una regressione verso la media o un’esplorazione combinatoria che, in certi momenti, possono coincidere con ciò di cui abbiamo più bisogno. Può essere questo altro statistico, che raccoglie in sé la media di tutte le esperienze incarnate che hanno contribuito al training del modello, a consentirci di creare un surplus come risultato dell’interazione tra noi e l’altro algoritmico.

Quindi, non solo una mente estesa che si fa aiutare a preparare, chiarire e talvolta orientare, ma una vera e propria mente altra con la quale co-creare.

Bibliografia 
Asimov, I. (1956). The Last Question. 
Ayer, A. J. (1946). Language, Truth and Logic. London: Gollancz. 
Baudrillard, J. (1981). Simulacres et Simulation. Paris: Éditions Galilée. 
Clark, A., & Chalmers, D. (1998). The extended mind. Analysis, 58(1), 7–19. 
Dreyfus, H. (1992). What Computers Still Can’t Do: A Critique of Artificial Reason. Cambridge, MA: MIT Press. (Ed. orig. 1972). 
Freud, S. (1915). Übertragungsliebe. In Gesammelte Werke. London: Imago. 
Geertz, C. (1973). The Interpretation of Cultures. New York: Basic Books. 
Luhmann, N. (1984). Soziale Systeme: Grundriß einer allgemeinen Theorie. Frankfurt am Main: Suhrkamp. 
Merleau-Ponty, M. (1945). Phénoménologie de la perception. Paris: Gallimard. 
Rockmore, D. (2025, August 9). What it’s like to brainstorm with a bot. The New Yorker. https://www.newyorker.com/culture/the-weekend-essay/what-its-like-to-brainstorm-with-a-bot 
Schön, D. A. (1983). The Reflective Practitioner: How Professionals Think in Action. New York: Basic Books. 
Turkle, S. (2011). Alone Together: Why We Expect More from Technology and Less from Each Other. New York: Basic Books. 
Turing, A. M. (1950). Computing machinery and intelligence. Mind, 59(236), 433–460. 

Post più popolari