Sztuczna inteligencja rozbiera kobiety na zdjęciach – rosnące zagrożenie i brak regulacji
2025-06-19
Autor: Magdalena
Rising Threat of AI-Generated Nude Images
Ostatnie miesiące przyniosły niepokojący trend – aplikacje AI, które potrafią generować fałszywe nagie obrazy kobiet na podstawie ich zdjęć. Choć usługi te są nieetyczne, wciąż brak odpowiednich regulacji prawnych, które prawnie zabraniałyby takich praktyk. Wzrost popularności tych aplikacji jest alarmujący, bowiem tylko w jednym miesiącu, wrześniu, odwiedziło je 24 miliony osób na całym świecie.
Jak działają te aplikacje?
Aplikacje te, określane jako "nudify", przetwarzają zdjęcia ubranych osób, tworząc realistycznie wyglądające nagie obrazy. Niestety, większość z nich skupia się tylko na kobietach. Badania pokazują, że liczba linków promujących takie usługi wzrosła o 2400% od początku roku, głównie na platformach społecznościowych, jak Reddit czy X (wcześniejszy Twitter). Nawet na Telegramie istnieje wiele grup, które oferują te kontrowersyjne narzędzia, z grupami osiągającymi przeszło milion użytkowników.
Zagrożenie dla prywatności i bezpieczeństwa
Warto zauważyć, że wykorzystywanie AI do tworzenia takich obrazów to nie tylko problem osób publicznych. Niedawno głośna była sprawa uczennic w New Jersey, które musiały się tłumaczyć z fałszywych nagich zdjęć, które ich dotyczyły. Nic dziwnego, że FBI wydało ostrzeżenie w sprawie zwiększonej manipulacji zdjęciami do celów wyłudzania seksualnego, co tylko potwierdza groźby związane z tym zjawiskiem.
Fala nielegalnych treści
Smutnym faktem jest, że technologia jest także wykorzystywana do rozbierania nieletnich. W Hiszpanii odkryto setki sztucznie wygenerowanych nagich zdjęć młodych dziewcząt, które powstały na podstawie ich zdjęć z mediów społecznościowych. Te stworzono przy pomocy aplikacji, a następnie rozpowszechniono w grupach WhatsApp.
Brak regulacji prawnych
Tak niebezpieczna technologia, która może rozbierać celebrytów, znajomych, a nawet dzieci, nie ma podstaw prawnych do zabronienia jej stosowania. Choć w przypadku nieletnich zastosowanie takich aplikacji jest surowo zabronione, to dla dorosłych brzmi to jak zła nowina, że aktualnie nie istnieją żadne regulacje, które mogłyby to ograniczyć.
Reakcja na zagrożenie
Firmy technologiczne już próbują stawić czoła tym problemom. TikTok i Meta zablokowały terminy związane z tymi aplikacjami, a Google podjął działania w celu usunięcia niektórych reklam. Mimo to, łatwość z jaką można generować tego typu treści, pozostaje niepokojąca.
Psychologiczne wnioski i podsumowanie
Psychoterapeutka Lisa Sanfilippo podkreśla, że tworzenie fałszywych nagich obrazów jest poważnym naruszeniem prywatności, które może prowadzić do poważnych traumy wśród ofiar. Oczekiwana współpraca między firmami technologicznymi a organami ścigania w tej sprawie jest niezbędna. Niestety, jasne jest, że ciemna strona sztucznej inteligencji staje się coraz bardziej realnym zagrożeniem dla prywatności i bezpieczeństwa jednostek.