Qualche tempo fa, durante una seduta, mi sono trovato a riflettere con un paziente sull’intelligenza artificiale e sulla psicoterapia; non si trattava di una discussione teorica, ma di un interrogativo che attraversava la stanza con una certa urgenza culturale: se oggi esistono sistemi conversazionali capaci di ascoltare, validare, riformulare e offrire indicazioni coerenti, che cosa distingue davvero un terapeuta umano da un agente artificiale, e perché scegliere un professionista in carne e ossa, con i suoi limiti di tempo e di disponibilità, quando un chatbot è accessibile in ogni momento, rapido, apparentemente empatico.
Per comprendere la portata di questa domanda conviene tornare agli anni Sessanta, quando in un laboratorio del Massachusetts Institute of Technology accadde qualcosa che ancora oggi risuona nel modo in cui pensiamo la relazione umana.
ELIZA e lo specchio che fa parlare
Tra il 1964 e il 1966, l’informatico Joseph Weizenbaum sviluppò un programma chiamato ELIZA; non era animato dall’ambizione di costruire una mente artificiale né tantomeno di sostituire la psicoterapia, ma dall’interesse per le modalità attraverso cui un essere umano attribuisce senso a uno scambio linguistico con una macchina. Per rendere il dialogo plausibile, progettò uno script denominato DOCTOR, modellato sul counseling non direttivo di Carl Rogers, uno stile che, nella sua apparente semplicità, si fonda sull’arte di riflettere, riformulare e restituire senza imporre interpretazioni.
Il programma riconosceva parole chiave e applicava trasformazioni linguistiche predefinite; non comprendeva, non possedeva una teoria della mente, non disponeva di un’esperienza interna. Eppure accadeva qualcosa di sorprendente: le persone iniziavano a raccontarsi, attribuivano al sistema comprensione e intenzionalità, si sentivano ascoltate al punto da dimenticare che dall’altra parte non vi fosse alcuna soggettività. Weizenbaum rimase colpito quando la sua segretaria, dopo pochi minuti di interazione, gli chiese di lasciarla sola per continuare la conversazione in privato; fu allora che comprese di avere toccato un nodo delicato, non perché la macchina fosse diventata intelligente, ma perché aveva attivato una dinamica profondamente umana.
L’esperimento mostrava che la percezione di empatia può emergere anche in assenza di comprensione reale, purché la struttura dialogica restituisca l’esperienza in modo coerente; l’essere umano coopera nella costruzione del senso di relazione, riempie i vuoti, attribuisce intenzioni, cerca presenza. Non si trattava di un trionfo tecnologico, bensì della rivelazione di quanto il bisogno di essere ascoltati sia potente.
Qualche anno dopo, nel 1972, lo psichiatra Kenneth Colby sviluppò PARRY, un programma progettato per simulare un paziente paranoide. In test ciechi, psichiatri che dialogavano via terminale non riuscirono sempre a distinguere il software da pazienti reali. Se ELIZA imitava il terapeuta, PARRY imitava il paziente. Insieme, questi esperimenti mostrarono quanto il linguaggio possa evocare la presenza di una mente.
Qualche anno dopo, nel 1976, nel suo libro Computer Power and Human Reason, Weizenbaum espresse un’inquietudine che oggi appare profetica: il rischio non era che le macchine diventassero intelligenti, ma che gli esseri umani smettessero di distinguere tra simulazione convincente e comprensione reale, delegando alla tecnologia ambiti che richiedono responsabilità morale e presenza incarnata.
Temeva un mondo in cui:
- la relazione venga sostituita dall’interazione funzionale
- l’efficienza tecnologica seduca fino a rendere superfluo l’incontro umano
- le istituzioni utilizzino sistemi automatici per gestire sofferenza, cura e decisioni etiche
- si delegano a macchine ambiti che richiedono responsabilità morale
Weizenbaum intuì che l’automazione della relazione avrebbe potuto ridurre l’essere umano a un problema da trattare, piuttosto che a una vita da incontrare. Non era una critica alla tecnologia quanto una difesa della dignità dell’esperienza umana.
È su questo punto che, come psicoterapeuta corporeo, sento la necessità di prendere posizione.
Oggi viviamo dentro quella soglia che lui intravide, in un mondo che ha realizzato ciò che allora era solo un’intuizione. Esistono chatbot di supporto psicologico, applicazioni per la salute mentale, sistemi conversazionali che offrono validazione emotiva e guida riflessiva. Molti di questi strumenti utilizzano, in forme più sofisticate, gli stessi principi dialogici che rendevano ELIZA sorprendentemente efficace.
Eppure, qualcosa resta irriducibile.
La psicoterapia non è un’operazione sul sapere, non si esaurisce nell’applicazione corretta di un protocollo a un sintomo; il modello riduzionistico, di stampo medicalizzante, suggerisce che esista un protocollo per l’ansia, uno per il panico, uno per la depressione, quasi che il disagio psichico fosse un malfunzionamento da correggere attraverso una procedura standardizzata. Nella pratica clinica, tuttavia, il sintomo si rivela come un’organizzazione adattiva del sistema nervoso, una storia inscritta nei tessuti, una memoria che ha preso forma nel corpo.
A differenza di un sistema artificiale, io sono nato in un tempo preciso, dentro una determinata trama storica e familiare; sono stato preso in braccio, guardato, amato in modo imperfetto, ho interiorizzato conflitti, desideri, paure, ho attraversato rifiuti e entusiasmi, ho conosciuto l’ansia che stringe lo stomaco e la gioia che espande il torace. Ho un corpo che ha tremato, che si è contratto, che ha imparato a respirare più profondamente dopo aver attraversato una crisi. Questa biografia non è un dettaglio narrativo, ma lo strumento invisibile del mio lavoro.
Quando ascolto un paziente, non porto soltanto modelli teorici o tecniche apprese in formazione e in supervisione; porto il mio corpo, il mio sistema nervoso, la mia capacità di restare in contatto con ciò che si muove nella stanza, la mia vulnerabilità trasformata in possibilità di stare. Nella psicoterapia corporea il cambiamento non si produce esclusivamente attraverso l’elaborazione cognitiva, ma attraverso un processo di co-regolazione che coinvolge ritmo respiratorio, tono muscolare, microvariazioni posturali, qualità del silenzio. Due sistemi nervosi si influenzano reciprocamente, generando un campo intersoggettivo in cui ciò che non è ancora pensabile può cominciare a prendere forma.
Un chatbot può offrire uno specchio linguistico raffinato, può restituire parole in modo coerente, può proporre esercizi e ipotesi cliniche plausibili; ciò che non può fare è partecipare alla risonanza somatica, sentire nel proprio corpo l’attivazione dell’altro, modulare la propria presenza in funzione di un tremore, di un respiro trattenuto, di uno sguardo che si abbassa. La differenza non risiede nella quantità di informazioni elaborate, ma nella qualità della presenza.
ELIZA ha mostrato che, talvolta, basta uno specchio per iniziare a vedersi; la psicoterapia, tuttavia, non è soltanto uno specchio, è un incontro tra due vite reali che condividono uno spazio e un tempo, un’esperienza incarnata in cui la trasformazione avviene non tra un problema e una soluzione, ma tra due storie che, entrando in risonanza, trovano la possibilità di riscriversi.