Tylko w ciągu jednego dnia, zespół CSIRT NASK, przyjął 1626 zgłoszeń zagrożeń cyberbezpieczeństwa, spośród których zidentyfikowano 461 nowych incydentów cyberbezpieczeństwa, które są obsługiwane przez CSIRT NASK. Natomiast 14 z nich to incydenty w podmiocie publicznym, a zatem mające wpływ na obniżenie jakości lub przerwanie realizacji zadania publicznego realizowanego przez organ.
Przepisy dotyczące zabezpieczenia danych mają dość ogólny charakter. Wynika to z konieczności dopasowania przyjętych rozwiązań w zakresie cyberbezpieczeństwa do indywidualnych potrzeb danej organizacji. Można jednak przytoczyć przykładowe działania służące zapewnieniu ochrony przed cyberatakami.
O wyciek dokumentacji medycznej z placówki nie jest trudno. Co oczywiste, dokumentacja ta zawiera dane osobowe, w tym dane wrażliwe o stanie zdrowia pacjentów. Dlatego kierownictwo placówki medycznej musi wdrożyć rozwiązania mające na celu minimalizację ryzyka wystąpienia tego typu incydentów. Wszak to placówka medyczna jako administrator, niezależnie od odpowiedzialności zawodowej jej personelu, odpowiada za ochronę danych osobowych pacjentów. Duża w tym rola personelu placówki medycznej. Sprawdź, jakie środki bezpieczeństwa wdrożyć względem personelu placówki medycznej, by zabezpieczyć dokumentację medyczną przed wyciekiem.
Dokonywanie oceny skutków dla ochrony danych powinno być realizowane w sytuacjach, gdy dany rodzaj przetwarzania danych może powodować duże prawdopodobieństwo zaistnienia wysokiego ryzyka naruszenia praw lub wolności osób fizycznych. Oceniając, czy takie ryzyko rzeczywiście istnieje, administrator powinien wziąć pod uwagę charakter, zakres, kontekst i cele przetwarzania danych. RODO wskazuje, że analiza tego, czy konieczne jest dokonanie oceny skutków dla ochrony danych powinna być przeprowadzona w szczególności, w sytuacji gdy przetwarzanie jest dokonywane z wykorzystaniem nowych technologii.
AI jest w stanie przetwarzać dane osobowe, w tym może się tego podjąć nawet bez naszej wiedzy. Zakres przetwarzanych przez AI danych może wyjść wówczas poza zakładane przez nas cele przetwarzania. Co więcej, takie rozwiązanie może opracować i dostarczyć nam: zewnętrzny podmiot, w ramach systemu, w który nas zaopatruje albo nasz pracownik - i uruchomić je, nie informując nas o tym w sposób dostatecznie jasny. Poniższa lista sprawdzająca ma na celu udzielenie odpowiedzi na podstawowe pytania dotyczące zarówno zaistnienia AI w naszej organizacji, jak i aktualności naszych wewnętrznych procedur ochrony danych osobowych.
Analiza ryzyka związanego z przetwarzaniem danych osobowych przy użyciu sztucznej inteligencji (AI), może wskazać na konieczność sporządzenia oceny skutków planowanych operacji przetwarzania dla ochrony danych osobowych (OSOD). Stanowi ona „szczególny rodzaj szacowania ryzyka” w stosunku do ogólnej analizy ryzyka, a zasady i okoliczności jej sporządzania opisuje ogólne rozporządzenie o ochronie danych (RODO).
Wyliczając ryzyko związane z przetwarzaniem danych osobowych przy użyciu sztucznej inteligencji (AI), często należy brać pod uwagę nowe aktywa i czynności przetwarzania, a także nowe zagrożenia wraz z charakterystycznymi skutkami ich wystąpienia. Po wyliczeniu takiego ryzyka należy opracować metodę postępowania z ryzykiem.
YouTube to jeden z podstawowych kanałów komunikacji firm ze swoimi klientami. Konta w tym popularnym portalu streamingowych są subskrybowane są, a filmy oglądane i komentowane. W związku z tym dochodzi oczywiście do przetwarzania danych osobowych użytkowników. Profesjonalny youtuber niezależnie od tego, czy jest to jednoosobowy przedsiębiorca czy też korporacja, musi spełniać wymogi ochrony danych osobowych przewidziane w RODO.
Administrowanie funduszem socjalnym w zakładzie pracy wiąże się z przetwarzaniem danych osobowych pracowników, ale także innych osób np. członków ich rodzin. Sprawdzamy, jakie zasady RODO wdrożyć w związku z przetwarzaniem danych osób uprawnionych do korzystania z ZFŚS.
14.06.2024
© Portal Poradyodo.pl