Steven Schwartz, avvocato americano dalla lunga carriera forense, ha utilizzato ChatGPT per definire la propria strategia nel corso di un processo di fronte a un giudice di Manhattan.
Per la ricerca di precedenti che potessero corroborare la sua posizione, il legale si è rivolto al noto chatbot di OpenAI, che gli ha offerto una serie di sentenze apparentemente utili al caso.
Non riuscendo a verificare i casi citati, il giudice chiamato a presiedere l’udienza, Kevin Castel, ha però chiesto all’avvocato di fornire alla corte gli estremi dei casi. Schwartz ha così chiesto nuovamente all’intelligenza artificiale, che gli ha presentato in modo preciso date e numeri delle sentenze e i tribunali che si erano pronunciati.
Il giudice ha così riscontrato la falsità delle informazioni addotte e lo stesso ChatGPT ha poi ammesso di essersi inventato tutto, dicendosi persino dispiaciuto per il disturbo arrecato.
Il caso mette in luce alcune criticità. In particolare:
Per quanto simili modelli possano rivelarsi utili nello svolgimento di numerosi compiti, bisogna stare attenti a non fidarsi completamente delle risposte generate. Si consiglia dunque di verificare la veridicità delle informazioni ottenute utilizzando fonti autorevoli.
Scopri altre Notizie in pillole sul digitale!
Pier Silvio Berlusconi guida la classifica Top Manager Reputation. Sul podio anche Orcel e Descalzi.…
Il nostro fondatore e CEO parla su Sky TG24 del settore finanziario, tra i protagonisti…
Pier Silvio Berlusconi è al primo posto a novembre 2025, seguito da Orcel e Descalzi.…
Berlusconi, Orcel e Descalzi sul podio della Top Manager Reputation di novembre 2025. L'articolo su…
La superintelligenza artificiale avrà le caratteristiche del divino, nascerà una nuova religione. Andrea Barchiesi su…
Quasi 3 executive su 4 producono contenuti propri e il 76% ha almeno un profilo…