Aktualny

Potrzebne jest nowe prawo chroniące przed deepfake’ami

Dodano: 23 września 2025
Potrzebne jest nowe prawo chroniące przed deepfake’ami

Prezes UODO Mirosław Wróblewski zwrócił się do wicepremiera i ministra cyfryzacji o pilne prace nad przepisami chroniącymi obywateli przed zagrożeniami wynikającymi z technologii deepfake. Obecne regulacje nie zapewniają skutecznej ochrony danych osobowych, wizerunku i prywatności ofiar fałszywych treści tworzonych przez sztuczną inteligencję.

UODO: potrzebne prawo chroniące przed deepfake

Prezes Urzędu Ochrony Danych Osobowych zwrócił uwagę, że w polskim systemie prawnym brakuje regulacji, które wprost dotyczyłyby zjawiska deepfake. Obecne przepisy Kodeksu cywilnego, karnego, prawa autorskiego czy nawet RODO nie są w stanie skutecznie chronić ofiar przed szkodliwymi skutkami rozpowszechniania fałszywych nagrań audio i wideo.

Zagrożenia wynikające z technologii deepfake

Deepfake to technologia, która pozwala tworzyć realistyczne treści wizualne i dźwiękowe z wykorzystaniem sztucznej inteligencji. Choć znajduje zastosowanie m.in. w produkcji filmowej, w praktyce coraz częściej wykorzystywana jest do:

  • kradzieży tożsamości,

  • nękania i szantażu,

  • manipulacji politycznej, w tym w kampaniach wyborczych,

  • podszywania się pod osoby publiczne czy lekarzy,

  • tworzenia fałszywych dowodów czy materiałów pornograficznych.

Prezes UODO podkreśla, że skutki takich nadużyć dotykają ofiary w sposób szczególnie dotkliwy, a w internecie nielegalne treści mogą rozprzestrzeniać się błyskawicznie.

Przykłady zgłoszonych nadużyć deepfake

UODO wskazał na konkretne sprawy związane z nadużyciami:

  • rozpowszechnianie fałszywych informacji o osobie publicznej,

  • stworzenie i udostępnienie w sieci obraźliwego wizerunku uczennicy,

  • wykorzystanie wizerunku lekarzy w fałszywych reklamach preparatów medycznych.

Każda z tych sytuacji pokazała, że obecne przepisy prawne nie zapewniają szybkiej i skutecznej ochrony ofiar.

Prawo a deepfake – luki i wyzwania

Obecne regulacje częściowo odnoszą się do ochrony wizerunku, reputacji czy dóbr osobistych, ale – jak zaznacza UODO – nie odpowiadają one na wyzwania związane z błyskawicznym rozpowszechnianiem fałszywych treści w sieci. Brak jest mechanizmów prawnych pozwalających na natychmiastowe usuwanie materiałów deepfake, a postępowania sądowe trwają zbyt długo.

Kierunki działań legislacyjnych

Prezes UODO apeluje o:

  • wprowadzenie do prawa jasnych regulacji dotyczących odpowiedzialności za tworzenie i rozpowszechnianie deepfake,

  • zapewnienie ofiarom szybkiej ścieżki ochrony prawnej,

  • rozważenie nałożenia na platformy internetowe obowiązku automatycznego wykrywania i oznaczania fałszywych treści,

  • wspieranie standardów i dobrych praktyk w zakresie weryfikacji treści online.

Przykładem mogą być rozwiązania zagraniczne – Dania pracuje nad przepisami pozwalającymi na usuwanie deepfake’ów z platform oraz żądanie odszkodowania w przypadku naruszenia.

Źródło:

 UODO, znak DPNT.413.31.2025

Nasi partnerzy i zdobyte nagrody » 


Nagrody i wyróżnienia» 

Poznaj kluczowe zagadnienia, z jakimi możesz się zetknąć podczas codziennej pracy IODO.
E-kurs dla początkującego Inspektora Danych Osobowych. Rzetelna wiedza i praktyczne ćwiczenia.

24-h bezpłatny test portalu!
Zyskaj pełen dostęp do bazy porad i aktualności!

SPRAWDŹ »

x