USA: Przerażające faux pas AI! Uczeń skuty kajdankami za… chipsy!
2025-10-24
Autor: Michał
Incydent, który wstrząsnął Baltimore
Niedawny incydent w szkole średniej w Baltimore poruszył lokalne media oraz społeczność. System sztucznej inteligencji do wykrywania broni, Omnilert AI, błędnie oznaczył ucznia jako zagrożenie, twierdząc, że posiada broń.
W odpowiedzi na rzekome niebezpieczeństwo na miejsce przybyło osiem radiowozów policyjnych. Uzbrojeni funkcjonariusze nakazali 16-letniemu Takiemu Allenowi uklęknąć, po czym skuli go w kajdanki.
Chipsy jako broń?!
Po chwili okazało się, że Taki nie miał przy sobie żadnej broni! 20 minut wcześniej jadł chipsy, a pusta torebka stała się źródłem błędnej identyfikacji przez AI jako potencjalnej broni.
Traumatyczne doświadczenie nastolatka
Choć młody mężczyzna został zwolniony po ustaleniu braku zagrożenia, sytuacja pozostawiła w nim traumatyczne ślady. W rozmowie z WMAR-2 News powiedział, że bał się, że zostanie aresztowany i teraz zawsze czeka na kogoś, kto go odbierze po treningach piłkarskich.
Reakcja władz i problemy z AI
Departament Policji Hrabstwa Baltimore potwierdził, że skucie kajdankami miało miejsce, ale nastolatek nie trafił do aresztu. Policjanci zareagowali w oparciu o dostępne informacje, jednak system weryfikacji informacji zawiódł.
Władze szkoły przyznały, że alert o zagrożeniu nie został właściwie oceniony przez ekipy odpowiedzialne za bezpieczeństwo. Po przyjeździe policji alarm został odwołany, co pokazuje, jak ważne jest prawidłowe stosowanie technologii.
Czy szkoła przeprosi?
Chłopak stwierdził, że nie otrzymał osobistych przeprosin od dyrekcji, a ich gotowość do wsparcia pojawiła się dopiero po trzech dniach, kiedy temat zyskał rozgłos. W szkole zapowiedziano, że będą dostępne osoby, które udzielą wsparcia uczniom.
Naświetlenie sprawy przez władze lokalne
Incydent wywołał falę oburzenia wśród lokalnej społeczności. Radni hrabstwa Baltimore zaapelowali o przegląd skuteczności systemów AI w szkołach oraz o większą ostrożność w interpretacji ich wyników.
Eksperci apelują o rozwagę
Nadinspektor dr Myriam Rogers podkreśliła, że system działa najlepiej w połączeniu z humanitarną weryfikacją. Kluczowe jest, aby technologia była używana jako narzędzie wspierające, a nie decydujące.
Ten kontrowersyjny incydent stawia pytania o przyszłość zastosowania sztucznej inteligencji w systemach bezpieczeństwa, zwłaszcza w tak wrażliwych miejscach jak szkoły. Jakie będą kolejne kroki władz lokalnych w tej sprawie? Czas pokaże!