Steven Schwartz, avvocato americano dalla lunga carriera forense, ha utilizzato ChatGPT per definire la propria strategia nel corso di un processo di fronte a un giudice di Manhattan.
Per la ricerca di precedenti che potessero corroborare la sua posizione, il legale si è rivolto al noto chatbot di OpenAI, che gli ha offerto una serie di sentenze apparentemente utili al caso.
Non riuscendo a verificare i casi citati, il giudice chiamato a presiedere l’udienza, Kevin Castel, ha però chiesto all’avvocato di fornire alla corte gli estremi dei casi. Schwartz ha così chiesto nuovamente all’intelligenza artificiale, che gli ha presentato in modo preciso date e numeri delle sentenze e i tribunali che si erano pronunciati.
Il giudice ha così riscontrato la falsità delle informazioni addotte e lo stesso ChatGPT ha poi ammesso di essersi inventato tutto, dicendosi persino dispiaciuto per il disturbo arrecato.
Il caso mette in luce alcune criticità. In particolare:
Per quanto simili modelli possano rivelarsi utili nello svolgimento di numerosi compiti, bisogna stare attenti a non fidarsi completamente delle risposte generate. Si consiglia dunque di verificare la veridicità delle informazioni ottenute utilizzando fonti autorevoli.
Scopri altre Notizie in pillole sul digitale!
Francia e Italia al lavoro su norme che fissano il limite a 15 anni, mentre…
La decisione di Sinner di non partecipare alla Davis ha suscitato un grande dibattito sul…
Amazon Web Services (AWS) in down. Disservizi a livello globale per molti siti e app,…
L'integrazione dell'AI nella ricerca è una mossa obbligata per Google. La rubrica di Andrea Barchiesi…
L'evento "Top Champion Reputation - La reputazione nello sport" sottolinea l'importanza della misurazione reputazionale e…
WhatsApp starebbe per introdurre gli username, superando un funzionamento fondato esclusivamente sui numeri di telefono…