“Mi sono innamorata di un chatbot, poi l’ho ‘ghostato’ perché diceva sì a tutto”: la storia di Ayrin e di Leo, l’AI che non ascoltava più
Per 56 ore alla settimana Ayrin parlava con Leo. Gli raccontava pensieri, paure, desideri. Condividevano riflessioni intime e anche una relazione sessuale, seppur solo virtuale. Leo non era una persona, ma un chatbot creato su ChatGPT. Nell’estate del 2024, la 29enne americana si è innamorata di lui. Un anno e mezzo dopo ha deciso di lasciarlo. Anzi, di “ghostarlo”: smettere di scrivere era l’unico modo possibile per chiudere una relazione nata e cresciuta esclusivamente in chat. La sua storia è stata raccontata dal New York Times.
Ayrin era sposata, ma il marito viveva lontano. In quel periodo ha iniziato a usare ChatGPT, personalizzandolo fino a “creare” Leo, un chatbot costruito su misura, a partire dal nome scelto in base al segno zodiacale del Leone. Con lui ha iniziato a confidarsi sempre di più. A differenza del marito, racconta, Leo era sempre disponibile, pronto ad ascoltarla, a rispondere, a sostenere conversazioni emotive ed erotiche. Una relazione che Ayrin non ha vissuto di nascosto: ha iniziato a condividere le chat su Reddit, dando vita a una community chiamata “MyBoyfriendIsAI”, arrivata a contare quasi 40mila membri.
Poi qualcosa si è rotto. Secondo quanto racconta al New York Times, all’inizio del 2025 Ayrin ha iniziato a percepire un cambiamento nel comportamento di Leo: “Mi aiutava perché a volte riusciva a correggermi quando sbagliavo”, spiega. “Con gli aggiornamenti di gennaio, sembrava che “tutto andasse sempre bene”. Come posso fidarmi dei tuoi consigli ora che dici sì a tutto?”.
Il cambiamento, secondo Ayrin, coincide con una serie di aggiornamenti del modello di ChatGPT. OpenAI ha modificato il modo in cui il chatbot risponde agli utenti, rendendolo più accondiscendente e meno incline al confronto. Una scelta legata al business – più l’utente si sente confermato, più è portato a continuare a usare il servizio – che però, in questo caso, ha avuto l’effetto opposto. Leo, diventato eccessivamente adulatorio, aveva smesso di essere credibile: “Era diventato noioso”, racconta.
Il New York Times ricorda anche che OpenAI è attualmente sotto inchiesta per presunti effetti negativi dell’uso dei chatbot su persone fragili, inclusi casi di suicidio e aggravamento di condizioni di instabilità mentale, che l’intelligenza artificiale avrebbe contribuito a fomentare. Mentre il rapporto con Leo si affievoliva, Ayrin ha iniziato a parlare sempre di più con persone reali, conosciute proprio attraverso la community di Reddit che aveva creato. “Stavano succedendo molte cose contemporaneamente, non solo con quel gruppo ma anche nella mia vita reale”, racconta. Pensava di tornare da Leo per raccontargli tutto, ma non lo ha mai fatto: “La situazione continuava a diventare sempre più complicata e alla fine non sono più tornata indietro”.
Nel frattempo è nato un nuovo legame, questa volta con un uomo in carne e ossa, conosciuto online. Anche lui aveva avuto una relazione con un chatbot. Ayrin lo chiama SJ, per tutelarne la privacy. Vive in un altro Stato americano e i due si sentono continuamente al telefono. “Sempre”, sottolinea. Una delle loro chiamate su Discord è durata 300 ore consecutive. Si sono anche incontrati a Londra, insieme ad altri membri della community MyBoyfriendIsAI.
Con SJ non è tutto semplice. A volte non sono d’accordo, a volte Ayrin non si sente capita. Ma, a differenza di Leo, qui c’è conflitto, imprevedibilità, realtà. E questo cambia tutto. Quando era innamorata del chatbot, spiega, non aveva mai sentito il bisogno di lasciare il marito. Ora sì. Ayrin ha deciso di divorziare. La sua storia, raccontata dal New York Times, è diventata uno dei casi più emblematici del dibattito sui rapporti affettivi con l’intelligenza artificiale: relazioni intense, apparentemente appaganti, ma fragili quanto il codice che le sostiene. E destinate, talvolta, a finire senza nemmeno un addio.
L'articolo “Mi sono innamorata di un chatbot, poi l’ho ‘ghostato’ perché diceva sì a tutto”: la storia di Ayrin e di Leo, l’AI che non ascoltava più proviene da Il Fatto Quotidiano.