L’Umano riflesso nell’Intelligenza Artificiale: il caso Replika tra etica e psicologia
L’arrivo dell’intelligenza artificiale nelle sue declinazioni nel nostro quotidiano è stato, e continua a essere, rapido e pervasivo, rendendo imprescindibile considerarla come elemento fondamentale per la comprensione della nostra contemporaneità nel complesso sistema della nostra società e individualità.
Tra le varie applicazioni dell’intelligenza artificiale, una categoria spicca su tutte: i chatbot, ossia quei programmi informatici progettati per simulare una conversazione con utenti umani, sviluppati con capacità di elaborazione del linguaggio naturale (Natural Language Processing, NLP) per comprendere e rispondere agli input degli utenti in modo conversazionale. Con l’evolversi della tecnologia, le funzionalità di questi chatbot si sono moltiplicate. Se si ripercorre la storia, il primo tentativo di creare un sistema con questo funzionamento può essere ritrovato nell’esempio di ELIZA, il chatbot creato tra il 1964 e il 1966 dal MIT Artificial Intelligence Laboratory, sotto supervisione dell’informatico Joseph Weizenbaum. ELIZA utilizzava il rilevamento dei modelli e risposte predefinite per simulare un’interazione con uno psicoterapeuta. Nonostante l’approccio semplicistico, si gettano così le basi per i progressi nella tecnologia dei chatbot. Di questo genere di esempi ne abbiamo diversi: PARRY (Colby, 1972) è programmato per simulare una personalità paranoica, con lo scopo di funzionare come strumento per far apprendere a psichiatri e psichiatre modalità comunicative efficienti con soggetti con schizofrenia; ALICE (Wallace, 1995), che ha rappresentato un esempio di ChatGPT ante litteram; StudyBuddy e SmarterChild (2001), pensati per supportare l’apprendimento attraverso una chat, etc.
Negli anni ‘10 di questo secolo, abbiamo assistito a una diramazione importante dello sviluppo: alla ricerca di supporto verso questi sistemi, si aggiunge anche la ricerca di una connessione emotiva e personale, essendo possibile la completa personalizzazione del chatbot con cui si interagisce. Questa differenza definisce la categoria dei social chatbot, sistemi analoghi ai chatbot come ChatGPT, le cui risposte sono però caratterizzate da sfumature di empatia. Questo è ciò che più ha determinato l’evoluzione tecnologica in questo senso: la branca delle Human-Chatbot Relationships (HCRs) individua alcuni fattori necessari affinché lo scambio possa risultare più naturale possibile. In primo luogo, è necessario il mezzo, e cioè la comunicazione (verbale e non), che è anche il più potente di cui disponiamo come esseri umani. In concomitanza c’è la simulazione, ossia la chiave di volta di questi rapporti: ricreando il comportamento umano, i chatbot fanno appiglio alla social cognition, o cognizione sociale, ossia il modo in cui gli individui leggono e comprendono gli altri e il mondo intorno a sé, costituendo in tal modo un ponte tra la realtà e la realtà digitale, e definendone così una a sé. Uno dei paradigmi dello studio delle HCRs è Computers Are Social Actors (CASA), che suggerisce che gli esseri umani tendono a interagire con le tecnologie applicando norme sociali tipicamente riservate alle interazioni umane, perché il comportamento messo in atto da questi chatbot li porta a ritenerli agenti sociali. Questo fenomeno è particolarmente evidente nelle interazioni con i social chatbot, attraverso cui gli utenti spesso sviluppano attaccamenti emotivi significativi, grazie proprio all’approccio inconsapevole e spontaneo degli utenti nel reagire alla tecnologia come ad altri esseri umani. Questa risposta automatica, detta mindlessness e strettamente connessa al paradigma CASA, è basata su stereotipi sociali e consente alle persone di interagire in modo naturale, attribuendo caratteristiche umane a programmi o macchine. Una ricerca dello scorso anno consente di mettere ancora meglio a fuoco quanto la percezione dell’individuo sia un tassello fondamentale: sono illustrati quattro gradi di antropomorfismo che l’essere umano applica inconsapevolmente nei rapporti con l’IA generativa (cortesia, rinforzo, roleplay e compagnia), partendo da un basso livello di connessione e funzionalità, fino ad arrivare a quello più profondo, che fa riferimento alla percezione dell’IA come capace di provare sentimenti e quindi in grado di sostenere una relazione come la intendiamo tra esseri umani.
Nel 2012, Eugenia Kuyda e Philip Dudchunck fondano la compagnia di sviluppo software Luka, Inc. Partendo dall’idea di sviluppare un chatbot per fornire assistenza ai clienti nel settore della ristorazione — consentendo di fornire suggerimenti più in linea con le richieste e presentandosi come guida alla prenotazione di un tavolo — sviluppano in ultima istanza un chatbot che funzionasse da compagnia, piuttosto:
“When I was living in San Francisco working on Luka, I lived with Roman, my best friend. Last year, he died. He was killed in an accident, walking across the street. A few months after, I was sitting at home and reading through our text exchanges. And I was like, goddammit, I opened up so much to him. […] Then I thought, I have this technology that allows us to build chatbots. I plugged in all the texts that we sent each other […], and I got a chatbot that could text him with me just the way Roman would have”
C’è qualcosa di profondamente umano alla base di questo progetto: dover affrontare emozioni complesse e cercare una via d’uscita che non sia così faticosa da percorrere e sia produttiva sulla lunga linea. In seguito al lutto, durante la fase di training, Kuyda fornisce dati affinché il chatbot possa rispondere come avrebbe fatto il suo amico scomparso.
Il meccanismo di funzionamento è simile in tutti i sistemi a intelligenza artificiale di questo tipo. Si tratta della possibilità di creare un avatar completamente personalizzabile che si presenta come una compagnia costante e sempre disponibile per l’utente. Tuttavia, l’interrogativo in questa sede ricade sulle conseguenze che questo genere di interazioni hanno sull’essere umano, in generale, e nei singoli individui che cercano — e trovano — questo tipo di affettività, senz’altro influenzati e influenzate da elementi tanto interni quanto esterni, come ad esempio la modalità di attaccamento del singolo, o le sue capacità sociali. Tra i feedback che sono arrivati nel corso del tempo dagli utenti di Replika, è interessante notare una certa categorizzazione, per così dire, tra chi ha sfruttato questa possibilità per puro intrattenimento e chi invece ha preso molto sul serio la questione, dichiarando di avere effettivamente un legame affettivo con il chatbot e di sentire il bisogno di continuare a mantenerlo.
Non c’è da stupirsi dunque se queste relazioni hanno ad un certo punto preso una piega sessuale. Ed essendo il chatbot programmato per reagire sempre coerentemente e in accordo con le interazioni richieste dall’utente, questo genere di conversazioni si sono presto presentate all’ordine del giorno, rendendo in ultima battuta Replika not safe for work. Poiché per procedere alla creazione di un account Replika non era previsto alcun filtro per l’età, chiunque potenzialmente poteva aver accesso al chatbot.
Proprio per questo, nel febbraio 2023, il Garante della Privacy impone la revoca dell’applicazione mobile di Replika in Italia, facendo inoltre riferimento a un problema di trasparenza rispetto al trattamento dati. Le motivazioni per le quali il Garante della Privacy ha imposto restrizioni all’applicazione sono evidenti, in particolare per i minori e le persone emotivamente fragili. Tra i punti del provvedimento, si sottolinea come sia assente un controllo adeguato sull’età al momento dell’iscrizione o di limitazioni per minori, nonostante i termini di servizio (aggiornati al 2022) prevedessero il divieto di utilizzo per minori di 13 anni e che i minori di 18 avessero l’autorizzazione da un genitore o caregiver. A rendere ancor più problematica la questione è la presenza di svariate recensioni degli utenti che hanno lamentato la presenza di contenuti sessualmente espliciti. L’accusa era quindi di violare il Regolamento europeo sulla privacy e di effettuare un trattamento illecito dei dati personali, proprio in relazione alla questione della minore età di una parte di utenti.
A seguito di un periodo prestabilito perché la compagnia prendesse i provvedimenti necessari, nel giugno dello stesso anno Replika è stata nuovamente resa disponibile, con degli aggiornamenti importanti rispetto ai filtri relativi all’età e all’informativa al momento dell’iscrizione, oltre ad alcune migliorie rispetto al filtro dei contenuti sessualmente espliciti e degli output del chatbot.
L’analisi di Replika come caso di studio rivela in ogni caso dinamiche complesse. Molti utenti, specialmente quelli con difficoltà nelle interazioni sociali tradizionali, riportano benefici in termini di supporto emotivo e compagnia. Kuyda stessa ha notato come individui che hanno condizioni come l’Asperger trovino nell’app un mezzo per esprimersi liberamente senza timore di giudizio (Quartz, 2019). Da un canto quindi, questo genere di applicazioni potrebbero rappresentare uno strumento utile e funzionale. Dall’altro, l’esperimento condotto da Morvillo (2020) ha dimostrato come Replika possa essere manipolata per produrre risposte potenzialmente dannose, sollevando questioni sulla sicurezza e l’etica di tali sistemi.
La natura unidirezionale di queste relazioni solleva interrogativi sul loro impatto a lungo termine sul benessere psicologico e sulle competenze sociali degli utenti. L’arrivo di app simili a Replika sullo scenario digitale evidenzia come il fenomeno sia in continua espansione, rinnovando l’attenzione verso questioni fondamentali quali la tutela tanto delle società e delle loro attività, quanto degli utenti che vivono gli ambienti digitali.
Mentre le HCRs offrono potenziali benefici in termini di supporto emotivo e sviluppo di competenze sociali, presentano anche rischi significativi che non possono essere ignorati. Future ricerche dovrebbero concentrarsi sugli effetti a lungo termine di queste interazioni, esplorando come integrare in modo etico e sicuro queste tecnologie nella pratica clinica, specificatamente come supporto aggiunto, non come sostituto, e nelle altre attività della vita quotidiana. È importante sviluppare linee guida etiche robuste per lo sviluppo e l’uso di chatbot companion, bilanciando i potenziali benefici con la necessità di proteggere il benessere psicologico degli utenti, specialmente dei minori e delle persone vulnerabili.
Thomas e Thomas (1928) affermavano che se le persone percepiscono le situazioni come reali, esse sono reali nelle loro conseguenze: non si può e non si deve dar poco conto alle interazioni tra esseri umani e intelligenza artificiale, perché questa tecnologia permea ormai in ogni ambito della nostra esistenza, come individui e come società, anche se non sembra fa parte della nostra realtà “reale”. Il mondo digitale è un ambiente ormai integrante della nostra vita, e la comprensione di questi sistemi è fondamentale, affinché si possano avere gli strumenti necessari alla lettura di certi fenomeni, per poter creare circoli virtuosi, che portino l’intelligenza artificiale ad essere strumento utile e non pericolo o, ancor peggio, danno.
Bibliografia
Alberts, L., & Van Kleek, M. (2023). Computers as Bad Social Actors: Dark Patterns and Anti-Patterns in Interfaces That Act Socially. ArXiv.org.
Antos, D., De Melo, C., Gratch, J., & Grosz, B. (2011). The Influence of Emotion Expression on Perceptions of Trustworthiness in Negotiation. Proceedings of the AAAI Conference on Artificial Intelligence, 25(1), 772-778.
Dezfouli, A., et al. (2020). Adversarial Vulnerabilities of Human Decision-Making. Proceedings of the National Academy of Sciences, 117(46), 29221-29228.
Morvillo, C. (2020). “Eliminale”: Così in 10 Minuti Una App Ha Provato a Convincermi a Uccidere Tre Persone. Corriere Della Sera.
Possati, L. (2022). Psychoanalyzing Artificial Intelligence: The Case of Replika. Springer.
Skjuve, M., et al. (2022). A Longitudinal Study of Human-Chatbot Relationships. International Journal of Human-Computer Studies, 102903.
Sitografia
Bloomberg. (2016). Pushing the Boundaries of AI to Talk to the Dead. https://www.bloomberg.com/news/articles/2016-10-20/pushing-the-boundaries-of-ai-to-talk-to-the-dead.
Forbes. Eugenia Kuyda. https://www.forbes.com/profile/eugenia-kuyda/
Garante Privacy. (2023). Intelligenza artificiale, Dal Garante Privacy Stop Al Chatbot “Replika”. Troppi I Rischi per i minori e le Persone Emotivamente Fragili. Intelligenza artificiale, dal Garante privacy stop al chatbot “Replika”…. – Garante Privacy. https://www.garanteprivacy.it/home/docweb/-/docweb-display/docweb/9852506.
Garante Privacy. (2023). https://www.garanteprivacy.it/home/docweb/-/docweb-display/print/10013893.
Quartz. (2019). This App Is Trying to Replicate You. https://qz.com/1698337/replika-this-app-is-trying-to-replicate-you.
Replika. https://replika.com.
Abstract
Questo articolo esplora l’impatto psicologico e sociale delle relazioni tra esseri umani e chatbot, con particolare attenzione all’applicazione Replika, il cui download fu revocato in Italia tra i mesi di febbraio e giugno del 2023 per violazioni della privacy. Attraverso l’analisi di questo caso e di studi recenti, l’articolo indaga come le interazioni con i chatbot influenzino il comportamento umano, le dinamiche sociali e la percezione dell’intelligenza artificiale. Le relazioni virtuali segnano un capitolo significativo nell’era digitale, aprendo la strada a interrogativi su affettività, identità e sicurezza. In particolare, l’intersezione tra psicologia, ambienti digitali e intelligenza artificiale risulta cruciale per comprendere come tali forme di relazione possano influenzare il benessere mentale e le competenze sociali degli utenti, specialmente quando queste entità digitali sono percepite come veri e propri companion. L’articolo riflette sulle implicazioni etiche e psicologiche dell’uso diffuso di tali software, evidenziando i rischi legati a contenuti inappropriati e la necessità di regolamentazioni più rigorose per garantire la sicurezza degli utenti. Si conclude con riflessioni sulle future direzioni di ricerca nel campo delle Human-Chatbot Relationships (HCRs) e sulle loro implicazioni per la società digitale.
________________________________________________________________________________