Notizie in pillole sul digitale

Avvocato usa ChatGPT, che cita precedenti fasulli

Steven Schwartz, avvocato americano dalla lunga carriera forense, ha utilizzato ChatGPT per definire la propria strategia nel corso di un processo di fronte a un giudice di Manhattan.

Cosa è successo?

Per la ricerca di precedenti che potessero corroborare la sua posizione, il legale si è rivolto al noto chatbot di OpenAI, che gli ha offerto una serie di sentenze apparentemente utili al caso.

Non riuscendo a verificare i casi citati, il giudice chiamato a presiedere l’udienza, Kevin Castel, ha però chiesto all’avvocato di fornire alla corte gli estremi dei casi. Schwartz ha così chiesto nuovamente all’intelligenza artificiale, che gli ha presentato in modo preciso date e numeri delle sentenze e i tribunali che si erano pronunciati.

Il giudice ha così riscontrato la falsità delle informazioni addotte e lo stesso ChatGPT ha poi ammesso di essersi inventato tutto, dicendosi persino dispiaciuto per il disturbo arrecato.

L’errore di ChatGPT e il mancato controllo dell’avvocato

Il caso mette in luce alcune criticità. In particolare:

  • ChatGPT e simili modelli di linguaggio non hanno sempre ragione. Si tratta infatti di modelli probabilistici, che formulano ‘stringhe’ di parole calcolate probabilisticamente sulla base del training ricevuto. In sostanza, questi modelli vengono addestrati attraverso la ‘lettura’ di una grandissima mole di contenuti testuali, senza comprenderne realmente il significato. I sistemi si limitano così a rispondere completando una frase, una parole alla volta, con il vocabolo che con maggiore probabilità segue una determinata sequenza di parole.
  • I modelli di linguaggio commettono ancora molti errori fattuali e soffrono delle cosiddette ‘allucinazioni‘. Propongono dunque contenuti che talvolta (non raramente) si rivelano inventati di sana pianta. Le motivazioni sono le più varie.

Un consiglio di utilizzo

Per quanto simili modelli possano rivelarsi utili nello svolgimento di numerosi compiti, bisogna stare attenti a non fidarsi completamente delle risposte generate. Si consiglia dunque di verificare la veridicità delle informazioni ottenute utilizzando fonti autorevoli.

Scopri altre Notizie in pillole sul digitale!

Paolo Marinoni

Communication Specialist di Reputation Manager S.p.A. Società Benefit.

Recent Posts

Verso una “maggiore età digitale” europea per proteggere i minori sui social

Francia e Italia al lavoro su norme che fissano il limite a 15 anni, mentre…

4 ore ago

Il no di Sinner alla Davis: la reazione del web

La decisione di Sinner di non partecipare alla Davis ha suscitato un grande dibattito sul…

6 giorni ago

Amazon Web Services in down: disservizi globali, ora in graduale ripresa

Amazon Web Services (AWS) in down. Disservizi a livello globale per molti siti e app,…

1 settimana ago

Lo Zugzwang di Google

L'integrazione dell'AI nella ricerca è una mossa obbligata per Google. La rubrica di Andrea Barchiesi…

2 settimane ago

La reputazione nello sport: non solo un asset per i campioni

L'evento "Top Champion Reputation - La reputazione nello sport" sottolinea l'importanza della misurazione reputazionale e…

3 settimane ago

WhatsApp verso l’introduzione degli username

WhatsApp starebbe per introdurre gli username, superando un funzionamento fondato esclusivamente sui numeri di telefono…

3 settimane ago