
Prezes UODO Mirosław Wróblewski zwrócił się do wicepremiera i ministra cyfryzacji o pilne prace nad przepisami chroniącymi obywateli przed zagrożeniami wynikającymi z technologii deepfake. Obecne regulacje nie zapewniają skutecznej ochrony danych osobowych, wizerunku i prywatności ofiar fałszywych treści tworzonych przez sztuczną inteligencję.
Prezes Urzędu Ochrony Danych Osobowych zwrócił uwagę, że w polskim systemie prawnym brakuje regulacji, które wprost dotyczyłyby zjawiska deepfake. Obecne przepisy Kodeksu cywilnego, karnego, prawa autorskiego czy nawet RODO nie są w stanie skutecznie chronić ofiar przed szkodliwymi skutkami rozpowszechniania fałszywych nagrań audio i wideo.
Deepfake to technologia, która pozwala tworzyć realistyczne treści wizualne i dźwiękowe z wykorzystaniem sztucznej inteligencji. Choć znajduje zastosowanie m.in. w produkcji filmowej, w praktyce coraz częściej wykorzystywana jest do:
kradzieży tożsamości,
nękania i szantażu,
manipulacji politycznej, w tym w kampaniach wyborczych,
podszywania się pod osoby publiczne czy lekarzy,
tworzenia fałszywych dowodów czy materiałów pornograficznych.
Prezes UODO podkreśla, że skutki takich nadużyć dotykają ofiary w sposób szczególnie dotkliwy, a w internecie nielegalne treści mogą rozprzestrzeniać się błyskawicznie.
Przykłady zgłoszonych nadużyć deepfake
UODO wskazał na konkretne sprawy związane z nadużyciami:
rozpowszechnianie fałszywych informacji o osobie publicznej,
stworzenie i udostępnienie w sieci obraźliwego wizerunku uczennicy,
wykorzystanie wizerunku lekarzy w fałszywych reklamach preparatów medycznych.
Każda z tych sytuacji pokazała, że obecne przepisy prawne nie zapewniają szybkiej i skutecznej ochrony ofiar.
Obecne regulacje częściowo odnoszą się do ochrony wizerunku, reputacji czy dóbr osobistych, ale – jak zaznacza UODO – nie odpowiadają one na wyzwania związane z błyskawicznym rozpowszechnianiem fałszywych treści w sieci. Brak jest mechanizmów prawnych pozwalających na natychmiastowe usuwanie materiałów deepfake, a postępowania sądowe trwają zbyt długo.
Prezes UODO apeluje o:
wprowadzenie do prawa jasnych regulacji dotyczących odpowiedzialności za tworzenie i rozpowszechnianie deepfake,
zapewnienie ofiarom szybkiej ścieżki ochrony prawnej,
rozważenie nałożenia na platformy internetowe obowiązku automatycznego wykrywania i oznaczania fałszywych treści,
wspieranie standardów i dobrych praktyk w zakresie weryfikacji treści online.
Przykładem mogą być rozwiązania zagraniczne – Dania pracuje nad przepisami pozwalającymi na usuwanie deepfake’ów z platform oraz żądanie odszkodowania w przypadku naruszenia.
Przeczyta także:
Jak rozpoznać deepfake po błędach (wskazówki NASK)
Sąd podtrzymuje zakaz wyświetlania fałszywych reklam (deepfake) na Facebooku i Instagramie
UODO, znak DPNT.413.31.2025
Zapraszamy na webinar prowadzony w konwencji warsztatowej z wykorzystaniem praktycznych przykładów, pytań i odpowiedzi. Dedykowany jest zarówno do osób początkujących, rozpoczynających lub pełniących funkcję IOD od niedawna, jak również do osób pragnących ugruntować posiadaną wiedzę w zakresie odpowiedniego nadzoru przestrzegania zasad i przepisów z zakresu ochrony danych osobowych w organizacji.






© Portal Poradyodo.pl