Prezes UODO Mirosław Wróblewski zwrócił się do wicepremiera i ministra cyfryzacji o pilne prace nad przepisami chroniącymi obywateli przed zagrożeniami wynikającymi z technologii deepfake. Obecne regulacje nie zapewniają skutecznej ochrony danych osobowych, wizerunku i prywatności ofiar fałszywych treści tworzonych przez sztuczną inteligencję.
Prezes Urzędu Ochrony Danych Osobowych zwrócił uwagę, że w polskim systemie prawnym brakuje regulacji, które wprost dotyczyłyby zjawiska deepfake. Obecne przepisy Kodeksu cywilnego, karnego, prawa autorskiego czy nawet RODO nie są w stanie skutecznie chronić ofiar przed szkodliwymi skutkami rozpowszechniania fałszywych nagrań audio i wideo.
Deepfake to technologia, która pozwala tworzyć realistyczne treści wizualne i dźwiękowe z wykorzystaniem sztucznej inteligencji. Choć znajduje zastosowanie m.in. w produkcji filmowej, w praktyce coraz częściej wykorzystywana jest do:
kradzieży tożsamości,
nękania i szantażu,
manipulacji politycznej, w tym w kampaniach wyborczych,
podszywania się pod osoby publiczne czy lekarzy,
tworzenia fałszywych dowodów czy materiałów pornograficznych.
Prezes UODO podkreśla, że skutki takich nadużyć dotykają ofiary w sposób szczególnie dotkliwy, a w internecie nielegalne treści mogą rozprzestrzeniać się błyskawicznie.
Przykłady zgłoszonych nadużyć deepfake
UODO wskazał na konkretne sprawy związane z nadużyciami:
rozpowszechnianie fałszywych informacji o osobie publicznej,
stworzenie i udostępnienie w sieci obraźliwego wizerunku uczennicy,
wykorzystanie wizerunku lekarzy w fałszywych reklamach preparatów medycznych.
Każda z tych sytuacji pokazała, że obecne przepisy prawne nie zapewniają szybkiej i skutecznej ochrony ofiar.
Obecne regulacje częściowo odnoszą się do ochrony wizerunku, reputacji czy dóbr osobistych, ale – jak zaznacza UODO – nie odpowiadają one na wyzwania związane z błyskawicznym rozpowszechnianiem fałszywych treści w sieci. Brak jest mechanizmów prawnych pozwalających na natychmiastowe usuwanie materiałów deepfake, a postępowania sądowe trwają zbyt długo.
Prezes UODO apeluje o:
wprowadzenie do prawa jasnych regulacji dotyczących odpowiedzialności za tworzenie i rozpowszechnianie deepfake,
zapewnienie ofiarom szybkiej ścieżki ochrony prawnej,
rozważenie nałożenia na platformy internetowe obowiązku automatycznego wykrywania i oznaczania fałszywych treści,
wspieranie standardów i dobrych praktyk w zakresie weryfikacji treści online.
Przykładem mogą być rozwiązania zagraniczne – Dania pracuje nad przepisami pozwalającymi na usuwanie deepfake’ów z platform oraz żądanie odszkodowania w przypadku naruszenia.
Przeczyta także:
Jak rozpoznać deepfake po błędach (wskazówki NASK)
Sąd podtrzymuje zakaz wyświetlania fałszywych reklam (deepfake) na Facebooku i Instagramie
UODO, znak DPNT.413.31.2025
Z wideoszkolenia dowiesz się m.in.:
Szkolenie prowadzi Agnieszka Wachowska, radczyni prawna, Co-Managing Partners, Szefowa zespołu IT-Tech w TKP
© Portal Poradyodo.pl