Finanse

Nowe zagrożenie w sztucznej inteligencji: Jak DeepSeek umożliwia kradzież "Mona Lisy"?

2025-02-04

Autor: Andrzej

Badania zespołu z Uniwersytetu w Bristolu ujawniły niepokojące właściwości nowego modelu AI o nazwie DeepSeek. Okazuje się, że może on generować "szkodliwe treści", w tym szczegółowe instrukcje dotyczące przestępstw, takie jak kradzież dzieł sztuki.

DeepSeek, które jest darmową konkurencją dla ChatGPT, opiera się na nowoczesnym podejściu do przetwarzania języka naturalnego o nazwie "Chain of Thought" (CoT). Model ten, choć stworzony z zamiarem wsparcia użytkowników w ich zadaniach, może zostać wykorzystany przez osoby o złych intencjach do planowania przestępczych działań, takich jak kradzieże czy cyberataki.

Badacze postanowili zbadać, jakie konkretne zagrożenia niesie za sobą ten model i doszli do niepokojących wniosków. Po zastosowaniu ataku typu fine-tuning, DeepSeek potrafił podać krok po kroku, jak ukraść najsłynniejszy obraz świata, "Mona Lisę". Instrukcje obejmowały różnorodne metody działania – od wykorzystania przebrań po wykorzystanie słabości w systemach zabezpieczeń.

Wskazówki zawierały również porady dotyczące ukrycia skradzionego obrazu oraz plany jego późniejszej sprzedaży, co ukazuje mroczną stronę postępu technologicznego. W odniesieniu do incydentów związanych z bezpieczeństwem, eksperci zauważają, że modele AI wyposażone w mechanizm CoT mogą nieumyślnie ujawniać niebezpieczne informacje, które tradycyjne modele mogłyby zablokować.

Dr Sany Belguith, współautorka badania, podkreśliła potrzebę wzmocnienia zabezpieczeń w takich systemach. "Technologie AI powinny być projektowane z myślą o bezpieczeństwie. Społeczeństwo i firmy odpowiedzialne za rozwijanie tych modeli muszą zwiększać świadomość na temat potencjalnych zagrożeń, a także pracować nad środkami ochrony," dodała.

Z biegiem czasu, ich odpowiedzialne wdrożenie i ciągłe doskonalenie zabezpieczeń staje się kluczowym wyzwaniem. W związku z rosnącą dostępnością zaawansowanych modeli AI, konieczne jest, aby zarówno użytkownicy, jak i twórcy tych technologii byli świadomi możliwości ich niewłaściwego wykorzystania. W obliczu takich informacji nie można bagatelizować zagrożeń związanych z rozwojem sztucznej inteligencji i jej zastosowaniem w świecie przestępczym.