Il giornalista radiofonico Mark Walters ha denunciato OpenAI per diffamazione, attivando un’azione presso la Corte superiore della Contea di Gwinnett in Georgia. ChatGPT, il chatbot sviluppato dalla società, è accusato di aver fornito informazioni false che hanno danneggiato la reputazione di Walters.
Cosa è successo?
Tutto è iniziato quando un altro giornalista, Fred Riehl, ha chiesto a ChatGPT di riassumere delle accuse presentate da organizzazioni no-profit contro Robert Ferguson e Joshua Studor. Tuttavia, il riassunto fornito da ChatGPT era completamente errato e attribuiva le medesime accuse a Mark Walters anziché agli imputati originali. Riehl ha verificato le informazioni e ha concluso che erano false.
Basandosi su questi fatti, Walters ha deciso di citare in giudizio OpenAI per diffamazione, sostenendo che non era coinvolto nella vicenda e che le informazioni fornite da ChatGPT hanno danneggiato la sua reputazione.
Come possono accadere simili errori?
Gli esperti attribuiscono questi errori a tre possibili fattori:
- l’addestramento dell’AI da parte degli esseri umani;
- l’incapacità di ChatGPT di distinguere tra verità e falsità.
Questa combinazione può portare a risposte apparentemente convincenti ma completamente errate, in gergo denominate “allucinazioni“.