Japońskie organy ścigania wysyłają wyraźny sygnał: era bezkarnego wykorzystywania generatywnej sztucznej inteligencji do tworzenia fałszywej pornografii dobiega końca.
Tokijska policja metropolitalna poinformowała o jednym z pierwszych w kraju aresztowań związanych bezpośrednio z tzw. deepnude — niekonsensualnymi, wygenerowanymi przez AI materiałami pornograficznymi.
Setki tysięcy fałszywych zdjęć i realne pieniądze
Zatrzymany 31-letni Tatsuro Chiba miał od 2023 roku tworzyć i sprzedawać deepfake’owe zdjęcia przedstawiające znane aktorki, celebrytki i idole popkultury.
Według śledczych, mężczyzna korzystał wyłącznie z darmowych narzędzi generatywnej AI, generując w ciągu dwóch lat ponad 520 tysięcy zmanipulowanych obrazów przedstawiających około 300 kobiet.
Część materiałów była publikowana jako „zajawki” w mediach społecznościowych, m.in. na platformach X oraz Instagram. Zainteresowani użytkownicy byli następnie przekierowywani na płatne serwisy z miesięcznym abonamentem.
Tokijska policja szacuje, że podejrzany zarobił w ten sposób około 70 tysięcy dolarów.
Deepfake porno: niszowy problem czy nowy trend przestępczy?
Choć to jedno z pierwszych tak głośnych zatrzymań w Japonii, zjawisko przestępczości opartej na deepfake’ach rośnie po cichu. Już w 2025 roku japońskie służby zatrzymały innego 31-latka, który miał sprzedać około 20 tysięcy deepfake’owych materiałów o charakterze seksualnym, wykorzystujących wizerunki 262 kobiet.
Problemem pozostaje brak spójnych, dedykowanych przepisów. Japonia — podobnie jak większość państw — nie posiada jeszcze kompleksowego prawa anty-deepfake’owego. Organy ścigania opierają się głównie na istniejących regulacjach, takich jak kodeks karny zakazujący dystrybucji treści obscenicznych w formie cyfrowej. Równolegle rząd pracuje nad wzmocnieniem ram prawnych dotyczących AI i treści syntetycznych.
Eksperci zwracają uwagę, że fala aresztowań pojawiła się dopiero w ostatnich kilkunastu miesiącach, co zbiega się z gwałtowną demokratyzacją narzędzi generatywnej AI. Dzisiejsze modele, trenowane nawet na pojedynczym zdjęciu, pozwalają produkować setki tysięcy realistycznych obrazów, nagrań wideo czy audio — i to bez specjalistycznej wiedzy technicznej.
Korea Południowa i Europa reagują szybciej
Japonia nie jest jedynym krajem, który mierzy się z tym problemem. Najbardziej zdecydowane działania podjęła Korea Południowa. Tamtejsza Narodowa Agencja Policji tylko w latach 2024–2025 dokonała 682 aresztowań związanych z przestępstwami seksualnymi opartymi na deepfake’ach. W tym samym okresie zarejestrowano łącznie 1 202 takie sprawy.
Niepokojący jest fakt, że ponad 80 procent podejrzanych stanowili nieletni, często wyłączeni spod odpowiedzialności karnej. To pokazuje skalę społecznego wyzwania, jakie niesie powszechny dostęp do zaawansowanych narzędzi AI — także dla dzieci i nastolatków.
Podobne sprawy pojawiają się również w Europie. W Wielkiej Brytanii rząd zapowiada zaostrzenie przepisów dotyczących pornografii deepfake, a Europol informował o 25 zatrzymaniach w 19 krajach w ramach jednej z pierwszych operacji dotyczących materiałów CSAM wygenerowanych przez sztuczną inteligencję.
Prawo nie nadąża za algorytmami
Rosnąca skala deepfake’owych przestępstw mocno uderza w zespoły analizy kryminalistycznej. Dla śledczych syntetyczne treści nie są już dodatkiem do sprawy — coraz częściej stają się jej głównym elementem dowodowym. Każda godzina spędzona na ręcznej weryfikacji zmanipulowanych materiałów to opóźnienie w ochronie ofiar, usuwaniu treści z sieci i identyfikacji sprawców.
Specjaliści podkreślają, że wykrywanie deepfake’ów nie może być już traktowane jako późna ekspertyza biegłego. Przy obecnej skali i jakości generowanych materiałów konieczne staje się automatyczne wykrywanie manipulacji już na etapie przyjmowania dowodów cyfrowych.
Integracja narzędzi AI do detekcji deepfake’ów bezpośrednio z systemami policyjnymi i sądowymi znacząco skraca czas analizy, ułatwia selekcję ogromnych zbiorów danych i zwiększa wiarygodność cyfrowych dowodów w postępowaniach sądowych. To kierunek, w którym — jak pokazują ostatnie aresztowania — prędzej czy później będą musiały podążyć wszystkie państwa.
Foto: Gemini/AI.