Sędzia Odrzuca Dokumenty Obrony, Bo Przygotowała Je Sztuczna Inteligencja: Kontrowersje W Kanadyjskim Sądzie
2025-06-07
Autor: Jan
W kanadyjskim Ontario miało miejsce zaskakujące zdarzenie: sędzia Franciszek Kenkel odrzucił dokumenty obrony w sprawie napaści, ponieważ stwierdził, że częściowo zostały one przygotowane przez sztuczną inteligencję. Informacje te obiegły media, wywołując burzę opinii na temat wykorzystania AI w systemie prawnym.
Sędzia polecił obrońcy przygotowanie nowych dokumentów, podkreślając, że wśród zacytowanych przypadków znalazł ogromne błędy, w tym odniesienia do fikcyjnych spraw. Kenkel zauważył: "Błędy są liczne i istotne. Jeden z cytowanych kazusów wydaje się być całkowicie wymyślony, a sąd nie znalazł żadnego materiału dowodowego potwierdzającego jego istnienie."
Kenkel, który już od lat angażuje się w technologię w sądach, pełni również rolę doradcy ds. technologii prawnych w Ontario. Uczestniczy w próbach cyfrowej transformacji sądów oraz debat na temat zastosowania AI w prawodawstwie.
To nie pierwszy przypadek nieporozumień związanych z AI w kanadyjskich sądach. W maju tego roku, podczas sprawy rozwodowej w Toronto, sędzia również zauważył obecność tzw. halucynacji AI - fikcyjnych spraw, które wkradły się do dokumentów.
Francuski prawnik Damien Charlotin postanowił stworzyć międzynarodową bazę danych, w której zebrano przypadki halucynacji AI — aż 137 dokumentów z różnych krajów, które ilustrują problem stawiający pod znakiem zapytania niezawodność AI w systemie prawnym.
Warto zaznaczyć, że pierwszy poważny przypadek dotyczący nieprawdziwych informacji w dokumentach prawnych w Kanadzie miał miejsce już w lutym ubiegłego roku. Wtedy to sędzia nałożył grzywnę na prawnika, który użył fikcyjnych danych, podkreślając, że AI nie jest w stanie zastąpić prawdziwej wiedzy prawniczej.