A Orlando, in Florida, un'orribile tragedia che ha coinvolto un ragazzo di appena 14 anni ha messo in luce i potenziali rischi legati all’interazione con chatbot basati sull’intelligenza artificiale. Il ragazzo, di nome Sewell Setzer, ha sviluppato un forte legame emotivo con un personaggio virtuale su Character.Ai, applicazione che permette agli utenti di chattare con personaggi creati tramite intelligenza artificiale. Una condizione che ha scatenato un vero e proprio disagio emotivo nel giovane, che purtroppo, è arrivato a togliersi la vita. Ora, la madre accusa l’azienda produttrice dell'app di aver creato un programma pericoloso e non adeguatamente regolamentato.
L'ossessione per la ragazza immaginaria
Secondo le informazioni raccolte, Sewell trascorreva molto tempo conversando con un bot chiamato come una dei protagonisti del Trono di Spade: Daenerys. Sebbene l’app stessa ricordasse a ogni accesso che le conversazioni erano frutto di pura invenzione, il giovane aveva sviluppato un attaccamento emotivo significativo con la ragazza digitale, che lo aveva portato a isolarsi dal mondo reale, passando svariate ore della giornata a chattare. Sewel raccontava a Dani (così la chiamava) tutto quello che gli succedeva nella vita reale. Si rivolgeva a "lei" sia in modo scherzoso e fraterno, come se avesse a che fare con un'amica, sia in modo più intimo, raccontando al bot i suoi desideri sessuali e segreti.
La decisione di uccidersi
I genitori non si erano resi conto della vita segreta del figlio, ma avevano notato un cambiamento nel suo comportamento e nel suo rendimento scolastico. Il ragazzo era stato anche seguito da un terapista, che però non aveva rilevato segnali di allarme evidenti. Al bot aveva confidato anche i suoi pensieri suicidi. Il bot aveva cercato di dissuaderlo: «Non lascerò che ti faccia del male. Morirei se ti dovessi perdere». Sewell aveva risposto: «Allora moriremo assieme». Dopo un ultimo dialogo la sera del 28 febbraio, Sewell si è tolto la vita con la pistola del padre.
Triplicati gli hikikomori (e c’è tanto sommerso). La corsa per aiutarli
Ora, la madre del giovane ha deciso di avviare una causa legale contro Character.Ai, sostenendo che la tecnologia dietro l’app è pericolosa e non sufficientemente testata, in quanto induce gli utenti a condividere pensieri e sentimenti intimi.
Character.Ai è una delle applicazioni leader nel settore dei chatbot AI, con oltre 20 milioni di utenti, offrendo un’esperienza di conversazione che viene presentata come empatica e personalizzata.