Avvelenato da ChatGPT: gli suggerisce come sostituire il sale, e lo avvelena

Va bene l'IA, ma con cautela: i rischi dei bot anche in ambito alimentare.

Avvelenato da ChatGPT: gli suggerisce come sostituire il sale, e lo avvelena

L’intelligenza artificiale ha spesso le allucinazioni, e le intelligenze umane che la interrogano non sono da meno. Il campo alimentare – inteso qui nel senso più quotidiano e salutistico del termine – non è esente dall’indiscriminato e dilagante (ab)uso di ChatGPT & co., e il confine tra lo spunto da rielaborare e il consiglio seguito ciecamente è labile. A oltrepassarlo in questi giorni è stato un uomo statunitense di 60 anni, corso al pronto soccorso convinto di essere stato avvelenato dai vicini di casa. Ma a intossicarlo era stato il computer.

Allucinazioni umane e digitali

sale

Chi afferma di non aver mai ricorso a un “consigliere” virtuale come ChatGPT verosimilmente mente, o non ne è consapevole. I consigli in ambito alimentare e salutare rientrano a pieno titolo tra le 2,5 miliardi (il numero non è un’iperbole, ma un dato reale dichiarato da OpenAI) di richieste che il povero bot elabora quotidianamente.

Solo che se c’è chi è consapevole dei limiti dell’intelligenza artificiale, dall’altra parte qualcun altro sembra dimenticarlo. È il caso del 60enne finito la scorsa settimana in ospedale accusando sintomi fisici e psichici inusuali. Nelle 24 ore successive al suo ingresso in struttura, ha mostrato segni di paranoia e allucinazioni visive e auditive, non lontane dalle allucinazioni del suo consigliere virtuale.

“Usa la colla per la mozzarella sulla pizza” e “mangia una pietra al giorno”: con l’intelligenza artificiale Google svalvola “Usa la colla per la mozzarella sulla pizza” e “mangia una pietra al giorno”: con l’intelligenza artificiale Google svalvola

ChatGPT, infatti, avrebbe indirizzato lo statunitense verso l’utilizzo di bromuro di sodio al posto del cloruro di sodio (il comune sale da cucina). A quanto pare, l’interrogante avrebbe omesso di specificare all’interrogato che la sostituzione riguardava l’ambito alimentare, e non chimico-industriale o altro.

Risultato? Una cartella clinica con su scritto bromismo, una sindrome da intossicazione che causa disturbi fisici e psichici. Il cittadino americano aveva infatti seguito ciecamente l’indicazione dell’amico virtuale inserendo per tre mesi nella sua dieta quotidiana l’elemento chimico che lo ha portato al ricovero. Voi prometteteci che alla prossima richiesta a ChatGPT doserete bene la risposta ricevuta e gli ingredienti portati a tavola.