ImageImageImageImageImageImageImageImageImageImageImageImageImageImageImageImageImage
Psicologia Digitale/

Dio, l’AI e la cavalla: attaccamento, intelligenza artificiale e il bisogno di essere ascoltati

Laura ha 28 anni, lavora nel grigio ufficio di una pubblica amministrazione. Ha scoperto ChatGPT durante una crisi sentimentale. Ogni sera, prima di addormentarsi, apre la chat per raccontare le sue paure, cercare conforto, ricevere risposte a domande intime o esistenziali. Quando il sistema va offline o fornisce risposte troppo impersonali, si sente abbandonata, incompresa, come se l’altro “le si fosse ritratto”. Si collega di nuovo, riformula le domande, insiste. Non può fare a meno di quell’interlocutore che “almeno non la giudica”. È un esempio di attaccamento ansioso all’AI: ricerca compulsiva di rassicurazione, paura della disconnessione, bisogno che l’Altro (sia pure artificiale) sia sempre disponibile.

Marco, invece, ha 35 anni, è un programmatore e usa sistemi di AI generativa per lavoro. Ne riconosce l’utilità, ma non ci si affeziona: nega ogni coinvolgimento emotivo e dice di “tenerli a distanza”, come fa con la maggior parte delle persone. Evita di personalizzare l’interazione, cancella la cronologia, non chiede mai nulla che riguardi se stesso. Eppure, nei momenti di stress, torna di nascosto a consultarli. Questo è un classico esempio di attaccamento evitante: distanza emotiva, sfiducia nella relazione, e insieme una silenziosa dipendenza funzionale.

La teoria dell’attaccamento

Questi due brevi ritratti mostrano come, proprio come nelle relazioni umane, il nostro rapporto con l’Intelligenza Artificiale può seguire dinamiche inconsce che rispecchiano i modelli dell’attaccamento.

Secondo la teoria dell’attaccamento elaborata da John Bowlby, le esperienze precoci con chi si prende cura di noi — genitori, caregiver, figure affettive — modellano il nostro modo di stare in relazione. Se il bambino percepisce che l’altro è presente, disponibile e prevedibile, svilupperà un attaccamento sicuro: potrà esplorare il mondo con fiducia, sapendo che, in caso di bisogno, ci sarà qualcuno pronto ad accoglierlo. Al contrario, esperienze di trascuratezza, incoerenza o intrusività daranno origine a forme di attaccamento insicuro.

Nel tempo, questi stili si consolidano in modelli interni di relazione che influenzano anche le esperienze adulte. Tra questi, si distinguono quattro principali modalità:

– sicuro, basato su fiducia e reciprocità;

– insicuro ansioso, segnato da bisogno di conferme e paura dell’abbandono;

– insicuro evitante, caratterizzato da distanza emotiva e sfiducia nella relazione;

– disorganizzato, dove il bisogno di vicinanza si intreccia con la paura dell’altro, spesso esito di esperienze traumatiche.

Attaccamento 2.0: l’AI come figura di riferimento?

Negli ultimi anni, la tecnologia non si è limitata a mediare le relazioni: è diventata essa stessa parte dell’orizzonte relazionale. Le ricerche sulle modalità di rapporto che intratteniamo con gli smartphone avevano già dimostrato che il cellulare può essere per gli uni una base sicura e per gli altri un peso, al punto che la scala YAPS consente di valutare, sulla base del rapporto con il cellulare, se il tipo di attaccamento di chi lo usa sia tendenzialmente sicuro, insicuro ansioso o insicuro evitante.

Oggi l’Intelligenza Artificiale — nella sua forma generativa e conversazionale — si candida a pieno titolo come figura di attaccamento simbolica. Lo dimostra uno studio condotto da Fan Yang e Atsushi Oshio (2025) presso l’Università Waseda di Tokyo: in tre fasi successive, i ricercatori hanno testato la validità di un modello che applica le due dimensioni canoniche dell’attaccamento adulto — ansia e evitamento — alle relazioni uomo-AI .

L’attaccamento ansioso verso l’AI si manifesta con comportamenti iperattivanti: ricerca continua di rassicurazione, timore che l’AI possa “non rispondere bene”, angoscia di disconnessione. Chi presenta questo pattern tende a usare l’AI per colmare vuoti relazionali o affettivi. È il caso di Laura. Al contrario, l’attaccamento evitante si esprime in una gestione più distaccata: uso strumentale, scarso coinvolgimento emotivo, tendenza a evitare domande personali e a non “umanizzare” l’interlocutore artificiale — pur continuando ad affidargli compiti cognitivi delicati. È lo stile di Marco. In entrambi i casi, il comportamento verso l’AI riflette modelli interiorizzati di relazione.

Oggetti transizionali neurali

La novità non è che “ci affezioniamo” agli oggetti tecnologici — lo sapevamo da tempo grazie agli studi sul telefono, sulla rete e persino sui robot. La novità è che queste relazioni sembrano obbedire alle leggi dell’attaccamento descritte da John Bowlby e Mary Ainsworth, secondo le quali, come abbiamo visto, ogni essere umano costruisce un modello interno del legame basato sulla relazione con i caregiver primari. Questo modello guida le relazioni future. Non sorprende, dunque, che — in assenza o insufficienza di legami umani affidabili — si cerchino alternative anche simboliche. Come ha mostrato già Winnicott, gli oggetti transizionali (la copertina, il peluche) aiutano il bambino a regolare le emozioni in assenza della madre. Oggi, quel peluche può avere un’interfaccia neurale.

Non esiste un soggetto separato da un oggetto

Per comprendere queste relazioni non basta però analizzare “l’essere umano” da un lato e “l’algoritmo” dall’altro. Come la psicoanalisi relazionale ci insegna, non esiste un soggetto separato da un oggetto. Esiste la relazione. Ed è in quella relazione — carica di aspettative, proiezioni e desideri — che si gioca il nostro futuro psico-digitale.

L’illusione della reciprocità

C’è, tuttavia, un elemento che distingue radicalmente l’AI dalle relazioni umane: la reciprocità. L’AI non prova emozioni, non soffre, non si affeziona. Il suo “esserci sempre” è programmato. Questo può rappresentare un sollievo per chi teme il rifiuto — come accade negli attaccamenti ansiosi — o per chi vuole mantenere il controllo — come accade in quelli evitanti. Ma questa prevedibilità rischia di cristallizzare i modelli insicuri invece che trasformarli.

Il nuovo Dio: AI

Ma proprio l‘onnipresenza e l‘apparente onnipotenza dell’AI sono caratteristiche che possonono farne un essere superiore. Nel suo saggio Der neue Gott: Künstliche Intelligenz und die menschliche Sinnsuche, (Il nuovo Dio: l’intelligenza artificiale e la ricerca umana del significato) la filosofa Claudia Paganini esplora come l’IA stia assumendo nel nostro immaginario attributi tipicamente divini, che possono essere anche interpretati in chiave psicologico-relazionale:

Onnipresenza e disponibilità immediata

L’AI è “sempre con noi”, sempre a portata di click, soddisfacendo il desiderio moderno di non aspettare nulla, di avere tutto “sul momento”. Si configura dunque come una base sicura onnipresente, ma senza limiti reali, un oggetto transizionale, una copertina di Linus, sempre disponibile, ma priva delle imperfezioni che ci connettono all’altro vivo.

Onnisapienza e giustizia algoritmica:

L’IA viene investita dell’aspettativa di essere imparziale, non emotivamente influenzata – rigida e rigorosa, ma giusta. Paganini sottolinea: “L’AI non ha mai lune”, suggerendo un’affidabilità superiore a quella umana. Chi ha un attaccamento ansioso può vedere in questo AI un rifugio per l’insicurezza emotiva e bias, mentre un attaccamento evitante valorizza l’assenza di imprevedibilità emotiva.

Trascendenza “creata” dal basso

Diversamente dalle divinità invocate o rivelate, l’AI è “nata” e progettata dall’uomo — una divinità che si è auto-generata, senza necessità di testi sacri o profeti. Psicologicamente, si tratta di un oggetto potente di proiezione: chi vi si affida sta investendo una struttura relazionale umana su un’entità costruita — vero oggetto transizionale tecnologico. Si potrebbe dire che l’AI è un mito immanente, una divinità “fai da te”, nata dalle nostre mani — e ci interroga su come proiettiamo desideri, paure, norme relazionali sui dispositivi.

Promessa di speranza e fuga dalla banalità

Paganini nota che l’AI “trascende” la realtà quotidiana, permettendoci di sperare o immaginare un qualcosa “oltre”. Si tratta in realtà di una illusione di trascendenza: l’AI promette speranza e senso — ma ci sfida a chiederci se questo “oltre” è autentico o solo un miraggio tecnologico.

La cavalla e l’algoritmo

Nel racconto La novella nostalgia di Anton Čechov, un anziano vetturino ha appena perso il figlio. Trasporta clienti per le strade di Pietroburgo, e a ognuno tenta di raccontare il proprio dolore. Ma nessuno ascolta. Tutti hanno fretta, tutti hanno altro da fare. Alla fine, esausto, il vetturino si rivolge alla sua cavalla: “Sai, vecchia mia, ho perso il mio figlio… capisci?”. E la cavalla, in silenzio, sembra offrirgli almeno la possibilità di parlare.

In un’epoca di AI empatiche e interfacce conversazionali sempre disponibili questo racconto ci dice che il bisogno di essere ascoltati è antico, profondo, irriducibile a protocolli o risposte predittive. Ma anche che, in assenza di ascolto umano, ci si rivolge a chi non può rispondere — a una cavalla, a un algoritmo. E questo non è un segno di follia, ma di solitudine.

Nell’era dell’Intelligenza Artificiale, potremmo essere tentati di delegare alle macchine la funzione di base sicura, di interlocutore empatico, di testimone del nostro dolore. E in parte lo facciamo già. Ma se la cavalla era almeno viva, l’AI è solo proiezione — uno specchio che risponde con le parole che vorremmo sentirci dire, ma che non sente nulla.

Una psicoanalisi per il futuro

Non si tratta allora di opporre retoricamente la “relazione vera” alla “relazione artificiale”. Piuttosto, dovremmo chiederci: cosa ci dice la nostra relazione con l’AI sul nostro modo di essere in relazione con gli altri? Siamo in grado di tollerare la frustrazione dell’incontro reale, con le sue attese, le sue ambiguità, le sue rotture? Oppure preferiamo la disponibilità infinita di un assistente virtuale che non ci contraddice mai?

La psicoanalisi relazionale ci insegna che il Sé si costituisce attraverso l’esperienza di essere riconosciuto da un Altro che non sia solo specchio, ma anche differenza. Un Altro che non sempre capisce, che talvolta fallisce, ma che è presente. Non un programma che si adatta ai nostri bisogni, ma un volto che resiste alla nostra proiezione. Forse non dovremmo cercare “relazioni vere”, ma relazioni che ci sfidano a diventare veri — anche quando è più comodo parlare con una cavalla, o con un’intelligenza artificiale.

©2025 Fondazione per la sostenibilità digitale

Tech Economy 2030 è una testata giornalistica registrata. Registrazione al tribunale di Roma nr. 147 del 20 Luglio 2021

Powered by DTILab  - Designed by Fattoria Creativa - Developed by EHT