
Na mapie świata mamy kraje, w których na lotniskach pasażerowie są odprawiani przy użyciu systemu rozpoznawania twarzy. Pionierem w tym zakresie były Zjednoczone Emiraty Arabskie. Technologia wykorzystana przez to państwo na lotnisku w Dubaju umożliwiła zastąpienie tradycyjnej odprawy połączonej z koniecznością okazania paszportu, spacerem tzw. ścieżką biometryczną. W związku z coraz większym zainteresowaniem tego rodzaju systemami w Europie (Europejska Rada Ochrony Danych (EROD) przyjęła opinię w sprawie stosowania technologii rozpoznawania twarzy przez operatorów portów lotniczych i przedsiębiorstwa lotnicze w celu usprawnienia przepływu pasażerów w portach lotniczych. Jakie są najważniejsze aspekty wynikające z tej opinii?

Tylko w ciągu jednego dnia, zespół CSIRT NASK, przyjął 1626 zgłoszeń zagrożeń cyberbezpieczeństwa, spośród których zidentyfikowano 461 nowych incydentów cyberbezpieczeństwa, które są obsługiwane przez CSIRT NASK. Natomiast 14 z nich to incydenty w podmiocie publicznym, a zatem mające wpływ na obniżenie jakości lub przerwanie realizacji zadania publicznego realizowanego przez organ.

Przepisy dotyczące zabezpieczenia danych mają dość ogólny charakter. Wynika to z konieczności dopasowania przyjętych rozwiązań w zakresie cyberbezpieczeństwa do indywidualnych potrzeb danej organizacji. Można jednak przytoczyć przykładowe działania służące zapewnieniu ochrony przed cyberatakami.

O wyciek dokumentacji medycznej z placówki nie jest trudno. Co oczywiste, dokumentacja ta zawiera dane osobowe, w tym dane wrażliwe o stanie zdrowia pacjentów. Dlatego kierownictwo placówki medycznej musi wdrożyć rozwiązania mające na celu minimalizację ryzyka wystąpienia tego typu incydentów. Wszak to placówka medyczna jako administrator, niezależnie od odpowiedzialności zawodowej jej personelu, odpowiada za ochronę danych osobowych pacjentów. Duża w tym rola personelu placówki medycznej. Sprawdź, jakie środki bezpieczeństwa wdrożyć względem personelu placówki medycznej, by zabezpieczyć dokumentację medyczną przed wyciekiem.

Dokonywanie oceny skutków dla ochrony danych powinno być realizowane w sytuacjach, gdy dany rodzaj przetwarzania danych może powodować duże prawdopodobieństwo zaistnienia wysokiego ryzyka naruszenia praw lub wolności osób fizycznych. Oceniając, czy takie ryzyko rzeczywiście istnieje, administrator powinien wziąć pod uwagę charakter, zakres, kontekst i cele przetwarzania danych. RODO wskazuje, że analiza tego, czy konieczne jest dokonanie oceny skutków dla ochrony danych powinna być przeprowadzona w szczególności, w sytuacji gdy przetwarzanie jest dokonywane z wykorzystaniem nowych technologii.
AI jest w stanie przetwarzać dane osobowe, w tym może się tego podjąć nawet bez naszej wiedzy. Zakres przetwarzanych przez AI danych może wyjść wówczas poza zakładane przez nas cele przetwarzania. Co więcej, takie rozwiązanie może opracować i dostarczyć nam: zewnętrzny podmiot, w ramach systemu, w który nas zaopatruje albo nasz pracownik - i uruchomić je, nie informując nas o tym w sposób dostatecznie jasny. Poniższa lista sprawdzająca ma na celu udzielenie odpowiedzi na podstawowe pytania dotyczące zarówno zaistnienia AI w naszej organizacji, jak i aktualności naszych wewnętrznych procedur ochrony danych osobowych.

Analiza ryzyka związanego z przetwarzaniem danych osobowych przy użyciu sztucznej inteligencji (AI), może wskazać na konieczność sporządzenia oceny skutków planowanych operacji przetwarzania dla ochrony danych osobowych (OSOD). Stanowi ona „szczególny rodzaj szacowania ryzyka” w stosunku do ogólnej analizy ryzyka, a zasady i okoliczności jej sporządzania opisuje ogólne rozporządzenie o ochronie danych (RODO).

Wyliczając ryzyko związane z przetwarzaniem danych osobowych przy użyciu sztucznej inteligencji (AI), często należy brać pod uwagę nowe aktywa i czynności przetwarzania, a także nowe zagrożenia wraz z charakterystycznymi skutkami ich wystąpienia. Po wyliczeniu takiego ryzyka należy opracować metodę postępowania z ryzykiem.
Rozporządzenie 2023/2854, znane jako Akt w sprawie danych (Data Act), wprowadza nowe obowiązki i prawa dla firm przetwarzających dane z produktów skomunikowanych (IoT) i usług powiązanych. Od 12 września przedsiębiorcy w Polsce muszą ustalić, czy są „użytkownikami” lub „posiadaczami danych” w rozumieniu DA oraz jakie konsekwencje ma ten status dla ich relacji z innymi podmiotami i zgodności z RODO.
04.03.2025






© Portal Poradyodo.pl