Scienza

L'intelligenza artificiale negli interrogatori: un rischio per la verità?

2024-09-25

Autore: Francesco

Nel maggio 2023, l'avvocato Steven A. Schwartz si è trovato in una situazione imbarazzante quando ha deciso di usare ChatGPT per assisterlo in un caso legale contro la compagnia aerea Avianca. Ha chiesto al chatbot informazioni su casi legali simili, ma quello che ricevette non erano dati affidabili, bensì informazioni completamente inventate. Questa esperienza ha messo in luce i pericoli di un uso irresponsabile dell'intelligenza artificiale generativa in contesti legali, portando all'imposizione di una multa di 5.000 dollari a Schwartz per non aver verificato l'affidabilità delle informazioni fornite.

Tuttavia, il dibattito sull'uso di modelli di linguaggio come strumento nella pratica legale continua a fiorire. Una delle applicazioni più discusse è l'uso dell'IA negli interrogatori dei testimoni di crimine. Un recente studio condotto dal MIT Media Lab ha rivelato gli effetti pericolosi dell'intelligenza artificiale nella creazione di falsi ricordi durante gli interrogatori.

Nello studio, 200 partecipanti sono stati messi di fronte a video di sorveglianza e successivamente interrogati su quanto avevano visto, sia immediatamente dopo la visione che una settimana dopo. Gli intervistati erano divisi in quattro gruppi: uno interagiva con un semplice questionario, un altro con un chatbot pre-programmato, il terzo con un chatbot interattivo, e il quarto serviva come gruppo di controllo. Tra le domande erano incluse alcune fuorvianti, come chiedere se l'aggressore avesse usato una pistola quando in realtà esibiva un coltello. I risultati hanno evidenziato un inquietante trend: gli assistenti virtuali con IA generativa tendevano a indurre memorie alterate nei partecipanti, amplificando la possibilità di creare falsi ricordi.

Questi falsi ricordi, già oggetto di studi approfonditi nel campo della psicologia, si manifestano come memorie distorte o completamente inventate. Il lavoro pionieristico di Frederic Charles Bartlett ha sottolineato come i ricordi siano processi costruttivi, influenzati da vari fattori culturali e contestuali anziché da una semplice riproduzione degli eventi passati. La ricerca di Elizabeth F. Loftus e i suoi colleghi ha dimostrato come le parole scelte durante gli interrogatori possano alterare le memorie dei testimoni oculari, suggerendo che non solo il contenuto, ma anche la formulazione delle domande possa influenzare la verità.

Lo studio del MIT ha rilevato che il 36,4% degli intervistati risultavano “fuorviati” nelle interazioni con i chatbot. Gli assistenti virtuali con IA generativa aumentavano la probabilità di creare falsi ricordi fino a tre volte rispetto al gruppo di controllo. A distanza di una settimana, i partecipanti che avevano interagito con un chatbot avevano una maggiore sicurezza nelle loro memorie alterate.

Questo fenomeno di “allucinazione” da parte dei modelli di linguaggio è un problema significativo che deve essere affrontato con urgenza. Gli sviluppatori e i legislatori devono lavorare insieme per garantire che l'uso dell'intelligenza artificiale nell'ambito legale non comprometta la verità e la giustizia. Così facendo, potremmo evitare che la tecnologia costringa il sistema giudiziario a confrontarsi con simulazioni e menzogne, piuttosto che con evidenze attendibili. La questione rimane aperta: siamo pronti a utilizzare l'IA per interrogare testimoni o ci stiamo solo avviando verso un futuro inquietante?