Nudyfikacja (ang. nudification) – zjawisko polegające na wykorzystywaniu narzędzi opartych na generatywnej sztucznej inteligencji do tworzenia syntetycznych, zwykle realistycznych, nagich lub seksualizowanych wizerunków konkretnej osoby na podstawie jej fotografii przedstawiającej ją w ubraniu, najczęściej bez jej zgody. Zjawisko to jest opisywane jako forma przemocy seksualnej opartej na obrazie, a powstałe materiały zalicza się do syntetycznych niekonsensualnych treści seksualnych tworzonych przez AI.
W piśmiennictwie i debacie publicznej nudyfikacja bywa ujmowana jako szczególny wariant pornografii typu deepfake, ale pojęcia te nie są tożsame: nudyfikacja odnosi się przede wszystkim do syntetycznego „rozebrania” istniejącego wizerunku osoby ubranej, natomiast deepfake pornography jest kategorią szerszą, obejmującą także podmianę twarzy, syntetyczne sceny seksualne i inne formy generowania seksualizowanych treści z użyciem AI.
== Definicja i charakterystyka zjawiska ==
Termin „nudyfikacja” pochodzi od angielskiego nudification i odnosi się do funkcjonalności algorytmów komputerowych umożliwiających cyfrowe „rozebranie” osoby przedstawionej na zdjęciu lub w materiale wideo, to znaczy wygenerowanie obrazu symulującego jej wygląd bez ubrania. W obiegu anglojęzycznym funkcjonują także określenia nudify apps i AI undressing. W literaturze przedmiotu technologia ta jest opisywana jako rodzaj narzędzi do automatycznego „rozbierania”, stanowiących podzbiór systemów generatywnej sztucznej inteligencji wykorzystywanych do tworzenia lub modyfikowania obrazów. W odróżnieniu od wielu generatorów obrazów działających wyłącznie na podstawie opisu tekstowego, nudyfikacja zwykle opiera się na fotografii realnej osoby jako obrazie wejściowym, co zwiększa skalę naruszenia prywatności i ułatwia wiktymizację konkretnych osób.
Produkty nudyfikacji mogą przyjmować postać pojedynczych obrazów, sekwencji obrazów lub materiałów wideo i nierzadko cechują się wysokim stopniem fotorealizmu. Gibson i współautorzy w swoim badaniu wskazują, że rozwój AI obniżył próg wejścia do tworzenia takich materiałów: proces stał się szybszy, łatwiejszy i bardziej dostępny dla osób bez zaawansowanych umiejętności technicznych.
== Nudyfikacja a pornografia typu deepfake ==
W części publikacji medialnych i raportów instytucjonalnych nudyfikacja jest ujmowana jako zjawisko blisko spokrewnione z pornografią typu deepfake, jednak w piśmiennictwie opisującym konkretne techniki i aplikacje można wskazać różnicę zakresów tych pojęć. Nudyfikacja odnosi się zazwyczaj do automatycznego „rozebrania” obrazu wejściowego, przy którym zachowane zostają tożsamość osoby przedstawionej, ogólny układ ciała i część cech fotografii źródłowej, natomiast deepfake pornography jest terminem szerszym, obejmującym także podmianę twarzy (face swapping), syntetyczne sceny seksualne oraz materiały wideo tworzone przez łączenie kilku technik generatywnych.
Różnica ta ma znaczenie analityczne i regulacyjne. W przypadku nudyfikacji punktem wyjścia jest najczęściej zwykłe zdjęcie konkretnej osoby w ubraniu, które zostaje przetworzone na obraz nagi lub częściowo nagi, podczas gdy pornografia typu deepfake może powstawać również przez nałożenie twarzy danej osoby na ciało innej osoby albo przez wygenerowanie od podstaw całej seksualizowanej sceny. W praktyce granica między tymi kategoriami bywa jednak płynna, ponieważ część komercyjnych usług łączy funkcje nudyfikacji z podmianą twarzy i osadzaniem postaci w gotowych scenach seksualnych. Raport Children’s Commissioner traktuje zatem nudification tools i sexually explicit deepfakes jako zjawiska pokrewne, ale nie w pełni tożsame, połączone wspólnymi problemami braku zgody, łatwości dystrybucji i szkód wyrządzanych dzieciom oraz nastolatkom.
== Historia zjawiska ==
Upowszechnienie publicznej debaty wokół narzędzi „rozbierających” zdjęcia wiąże się z końcem drugiej dekady XXI wieku, gdy szeroki rozgłos zdobyły pierwsze komercyjne aplikacje wykorzystujące AI do generowania obrazów nagich kobiet na podstawie fotografii w ubraniu. W następnych latach pojedyncze aplikacje przekształciły się w szerszy ekosystem stron internetowych, aplikacji mobilnych i usług zintegrowanych z mediami społecznościowymi oraz komunikatorami. W nowszych opracowaniach badawczych i raportach instytucjonalnych terminologia dotycząca nudyfikacji zaczęła być łączona nie tylko z deepfake’ami, ale też z kategorią przemocy seksualnej opartej na obrazie oraz zagrożeń dla dzieci i młodzieży w środowisku cyfrowym.
== Narzędzia i ekosystem aplikacji ==
Od końca drugiej dekady XXI wieku w internecie zaczęły pojawiać się komercyjne i półkomercyjne aplikacje oraz serwisy internetowe oferujące automatyczną nudyfikację zdjęć. Badanie ekosystemu 20 łatwo dostępnych serwisów typu „nudify” wykazało istnienie różnych typów funkcji, w tym podstawowych narzędzi „rozbierania”, rozwiązań hybrydowych łączących automatyzację z ręczną obróbką, podmiany twarzy (face swapping) oraz modułów pozwalających umieszczać przetwarzaną postać w z góry zdefiniowanych scenach seksualnych. Część aplikacji oferuje również zmianę kontekstu stroju albo generowanie wariantów seksualizowanych bez zachowania układu z obrazu wyjściowego.
Gibson oraz raport Children’s Commissioner wskazują, że większość badanych serwisów jest wyraźnie ukierunkowana na seksualizowanie kobiet i dziewcząt, a tylko część z nich wprost odwołuje się do wymogu zgody osoby przedstawionej. Narzędzia te funkcjonują przede wszystkim jako przedsięwzięcia komercyjne: sprzedają dostęp do generowania, do wyższej jakości wyników, usuwania znaków wodnych, ukrywania historii albo dostępu do API, a płatności są realizowane m.in. kartami płatniczymi, przez systemy internetowe i kryptowaluty. Ich dostępność zwiększają wyszukiwarki, media społecznościowe i sklepy z aplikacjami, przez co dotarcie do takich usług nie wymaga specjalistycznej wiedzy technicznej.
== Zasięg i użytkowanie ==
W badaniach dotyczących populacji nastolatków w Stanach Zjednoczonych wskazywano, że użycie narzędzi do nudyfikacji ma charakter szeroko rozpowszechniony. Badanie C. Steela, opublikowane w 2026 w czasopiśmie PLOS One, miało charakter przekrojowej ankiety internetowej przeprowadzonej w styczniu 2025 na reprezentatywnej ogólnokrajowo grupie 557 anglojęzycznych osób w wieku 13–17 lat ze Stanów Zjednoczonych. Rekrutacja odbywała się z wykorzystaniem panelu badawczego i procedury kwotowej, a udział wymagał dwuetapowej zgody: najpierw opiekuna, a następnie samego nastolatka. Spośród ponad 9 tys. rodziców, którym przedstawiono formularz, zgodę wyraziło 967, po czym po uzyskaniu zgody nastolatków i odrzuceniu ankiet niespełniających kryteriów jakościowych ostateczna próba wyniosła 557 osób.
W tej grupie 55,3% respondentów zadeklarowało, że przynajmniej raz samodzielnie stworzyło obraz z wykorzystaniem narzędzia do nudyfikacji, 54,4% otrzymało taki materiał od innych, 36,3% doświadczyło wygenerowania seksualizowanego obrazu swojej osoby bez zgody, a 33,2% – jego nieautoryzowanego udostępnienia. Analizy wskazują ponadto, że badana młodzież częściej sięgała po programy do nudyfikacji niż po ogólne generatory obrazów działające na podstawie opisów tekstowych. W badaniu nie stwierdzono istotnych statystycznie różnic wiekowych w korzystaniu z takich narzędzi w grupie 13–17 lat, natomiast chłopcy częściej korzystali z nich regularnie i częściej przesyłali seksualizowane obrazy innym osobom. Autor badania zwracał zarazem uwagę, że dla części nastolatków używanie nudyfikacji miało charakter bardziej eksploracyjny niż nawykowy.
Badanie Steela ma również ograniczenia metodologiczne. Obejmowało wyłącznie anglojęzyczną populację z jednego kraju, miało charakter punktowy, a wymóg wcześniejszej zgody rodziców mógł prowadzić do błędu selekcji, wykluczając część nastolatków, których opiekunowie nie zgodzili się na udział z powodów kulturowych, religijnych lub obyczajowych. Sam autor wskazywał również na potrzebę dalszych badań nad długoterminowymi skutkami nudyfikacji oraz nad zjawiskiem w populacjach młodszych niż 13 lat.
== Nudyfikacja a seksting ==
W badaniu C. Steela nudyfikacja została opisana jako nowa odmiana sekstingu wśród młodzieży; podobne ujęcie pojawia się także w części omówień popularnonaukowych zjawiska. W literaturze dotyczącej sekstingu nie ma jednak jednej powszechnie przyjętej definicji tego zjawiska; część autorów odróżnia zachowania eksperymentalne i konsensualne od form przymusowych, niekonsensualnych lub związanych z wtórnym rozpowszechnianiem materiałów.
W odróżnieniu od „klasycznego” sekstingu, który zazwyczaj opiera się na materiałach wykonanych i przesłanych przez samych uczestników, nudyfikacja pozwala wytwarzać seksualizowane obrazy na podstawie zwykłych fotografii, również bez udziału osoby przedstawionej. Steel wskazuje, że przesuwa to punkt ciężkości z dobrowolnego udziału w tworzeniu treści na możliwość przetwarzania cudzego wizerunku przez inną osobę, często bez wiedzy i zgody ofiary. Autorzy badań zwracają uwagę, że utrudnia to rozróżnienie między materiałem realnym a syntetycznym oraz komplikuje zagadnienie zgody na stworzenie i rozpowszechnianie takich treści.
W odniesieniu do młodzieży badanie Steela wskazuje, że seksting może pełnić funkcje związane z flirtowaniem, eksperymentowaniem i eksploracją seksualności, natomiast nudyfikacja dodaje do tego możliwość tworzenia seksualizowanych obrazów innych osób bez ich bezpośredniego udziału. Flynn oraz raport Children’s Commissioner lokują tego rodzaju praktyki na pograniczu sekstingu, cyberprzemocy i przemocy seksualnej opartej na obrazie, zwłaszcza gdy dochodzi do rozpowszechniania wygenerowanych materiałów wśród rówieśników lub w mediach społecznościowych.
== Konsekwencje psychologiczne i społeczne ==
W badaniu jakościowym Brigham oraz w analizie Steela osoby dotknięte nudyfikacją i innymi formami niekonsensualnego tworzenia intymnych obrazów opisywały negatywne skutki psychiczne, takie jak przewle
📊
Mapa Powiązań
Neural_Network // Co-Mentioned_Entities
📰
Najnowsze Wzmianki
Live_Feed // 1 artykułów
>_ AI Health
Firma // Entity_Profile
[DATA] Nudyfikacja (ang. nudification) – zjawisko polegające na wykorzystywaniu narzędzi opartych na generatywnej sztucznej inteligencji do tworzenia syntetycznych, zwykle realistycznych, nagich lub seksualizowanych wizerunków konkretnej osoby na podstawie jej fotografii przedstawiającej ją w ubraniu, najczęściej bez jej zgody. Zjawisko to jest opisywane jako forma przemocy seksualnej opartej na obrazie,
[METRICS] Encja posiada 1 wzmianek w bazie oraz 1 powiązanych artykułów. Trust Score: 50/100.
Wersja statyczna dla wyszukiwarek. Pełna wersja interaktywna z grafiką dostępna po włączeniu JavaScript.