ChatGPT, l'ingegnere: «Può avere allucinazioni e dare risposte sbagliate. Così una signora ha perso casa». Trucchi per evitarle

1 settimana fa 169
 «Può avere allucinazioni, rischi per la salute e legali. Una signora ha perso casa»

di Alessandro Rosi

1 Minuto di Lettura

Risposte sbagliate ma fornite come vere. Allucinazioni dell'intelligenza artificiale. Sono sempre più frequenti e rischiano di generare equivoci dannosi. Come quello di una signora americana che ha chiesto a ChatGPT di scrivere il contratto immobiliare solo che questo era pieno di riferimenti sbagliati. Oppure c'è anche il pericolo di diagnosi errate. Come nel caso in cui si chieda di quale malattia si soffre descrivendo i sintomi. Non considerando che i nuovi modelli possono portare a esiti completamente fuorvianti. «Le allucinazioni dell'intelligenza artificiale sono il problema più importante in questo campo», spiega l'ingegnere Pietro Schirano. L'esperto del settore ha lavorato per Facebook e Uber, e ora ha fondato una sua azienda, EverArt, che permette di creare immagini sui prodotti specifici con l'AI.

Leggi tutto