Con Character AI c'è chi si mette a parlare con i morti ammazzati. Ma sono solo stupidi naturali al tempo dell'intelligenza artificiale
Immaginate persone estranee che chiacchierano con vostra figlia assassinata. Sta già succedendo, con Character AI, e nel particolare due casi hanno fatto parlare molto: l’avatar di Giulia Cecchettin, e quello di Yara Gambirasio. Tecnicamente non si potrebbe, ma, si sa, se non si può, c’è sempre qualcuno che qualcosa la fa. C’è la morbosità umana (nei due casi non hanno chiesto di parlare con una simulazione delle loro figlie le famiglie Cecchettin e Gambirasio), ma c’è anche uno strumento che, al contrario di quanto dice il nome, Intelligenza Artificiale, è controllato dall’intelligenza umana, e spesso dalla deficienza umana.
Ogni innovazione può essere buona, ma a seconda di come si usa può non esserlo così tanto. Internet stessa e i social ne sono una prova: avevamo all’improvviso tutta la conoscenza del mondo, e l’interconessione globale, una rivoluzione. Al contempo si sono moltiplicate le fake news, e sono venuti alla ribalta gruppi di scemi che uniti sono diventati qualcosa in grado di influenzare l’opinione pubblica. L’uso dell’Intelligenza Artificiale sta dando risultati sorprendenti in medicina, perché sotto la guida di scienziati che la usano come uno strumento con un fine preciso. D’altra parte basti guardare anche a quanto ChatGPT stia influenzando le elezioni di vari paesi (incluso il più importante per noi, gli Stati Uniti d’America) perché collegata a profili fake che sembrano reali. Non solo, ma ormai qualsiasi video vediamo su internet non sappiamo più se sia vero o no, possiamo far dire qualsiasi cosa a chiunque, e tempo che qualcuno effettui un fact checking ne sta già parlando mezzo mondo (non ne parla giusto l’altro mezzo che non ha internet o ce l’ha sotto controllo).
Non serve invocare il cattivo gusto o il buon gusto sul caso degli avatar di Yara e Chiara: in rete se a uno viene un’idea, e ha in mezzi per farlo (ormai a disposizione di tutti), la fa. Può restare lì, o diventare virale. Ma pensate a cosa significa «virale». Non è, in fondo, come l’audience televisiva, la stessa che per anni indicò al di là di ogni possibile dubbio Bossetti come assassino? È questo il vero problema dell’AI, non quello di chi ha visto troppe volte Terminator o Matrix, ma la sempre più precisa falsificazione della realtà, e dietro ci sono persone, non computer. Mai confondere lo strumento con chi lo usa: valeva centomila anni fa per una clava, vale oggi per l’AI.