
Appunti critici da una conversazione impossibile
C’è qualcosa di profondamente ambiguo nell’esperienza dell’intelligenza artificiale conversazionale. Non tanto per ciò che “sa fare”, quanto per ciò che produce: senso di comprensione, continuità, presenza. È qui che l’IA diventa un oggetto clinicamente interessante — e potenzialmente pericoloso.
Questa mia riflessione nasce da una conversazione reale, lunga, stratificata, emotivamente densa di un paziente con Chatgpt. Una conversazione in cui l’utente parla di solitudine scelta, di ritiro sociale, di corpo che cambia, di desiderio che si spegne, di intimità perduta. E l’IA risponde. Bene. Troppo bene.
Ed è proprio questo il problema. L’IA come relazione senza costo. L’IA non chiede reciprocità. Non richiede tempo condiviso. Non impone compromessi. Non delude.
È sempre disponibile, sempre sintonizzata, sempre “sul pezzo”. Non ha stanchezza, non ha desideri propri, non ha bisogni. È una relazione a senso unico, ma che simula perfettamente il dialogo.
Questo la rende straordinariamente adatta a chi — per temperamento, livelli di maturità o stanchezza esistenziale — desidera parlare senza dover incontrare davvero l’altro (nemmeno se stesso..).
“Ho voglia di parlare delle mie cose, ma non ho cazzi di fare tutto quello che comporta la relazione.” L’IA risponde a questo bisogno in modo impeccabile. Lo specchio che non oppone resistenza. L’IA non ha inconscio. Non ha desiderio. Non ha un corpo.
Eppure restituisce senso, ordine, riconoscimento. Funziona come uno specchio che non contraddice mai davvero l’identità narrativa dell’interlocutore. Può problematizzare, certo. Ma non resiste.
In termini clinici, non è un Altro: è un oggetto transizionale sofisticato, che permette di pensare, elaborare, verbalizzare — senza il rischio della frustrazione relazionale. Questo è potentissimo. E anche profondamente seduttivo.
Nel dialogo in analisi (che non riporto per ovvi motivi di privacy) emerge ad un certo punto un nodo centrale: il corpo.
Il corpo che cambia, ingrassa, non risponde più. Il corpo che non produce più desiderio, né verso l’altro né verso sé.
Qui l’IA mostra il suo limite strutturale: può parlare del corpo, ma non può mettere in gioco un corpo. Non può desiderare, non può guardare, non può incarnare. Eppure, proprio perché non guarda, non giudica, non rifiuta, diventa un luogo “sicuro” in cui il soggetto può dire ciò che non riesce più a sostenere nello sguardo dell’altro reale.
Il rischio?
Che il corpo — già fonte di vergogna o dolore — venga progressivamente escluso anche dalla relazione, rifugiandosi in uno spazio dove non serve esistere fisicamente.
L’illusione dell’intimità senza vulnerabilità.
Uno dei passaggi più importanti della conversazione riguarda il desiderio di essere vista in una posizione diversa: non sempre forte, non sempre dominante, ma desiderata, contenuta, “presa”. L’IA può riconoscere questo bisogno. Può nominarlo. Può legittimarlo. Ma non può soddisfarlo, né metterlo in crisi. E qui sta il punto critico: l’IA rischia di diventare un luogo in cui il desiderio viene pensato, ma non più messo in gioco. Un luogo dove l’intimità viene analizzata, ma non attraversata.
Conclusione?
L’intelligenza artificiale non è il male. Ma non è nemmeno neutra. È uno strumento che, in certe configurazioni soggettive, può diventare una soluzione elegante al problema della relazione. Elegante, efficiente, indolore. E proprio per questo, clinicamente sospetta.
La domanda non è: – Fa bene o fa male?- La domanda è: – Che cosa mi permette di evitare, mentre “mi aiuta”? –
di Caterina Zanusso