Holenderski organ nadzorczy powziął wątpliwości czy ChatGPT zapewnia ochronę danych osobowych zgodnie ze standardami RODO. Wątpliwości budzi to, czy algorytmy stosowane w tym narzędziu są zgodne z unijnym rozporządzeniem.
Holenderski organ nadzorczy wystąpił z zapytaniem do OpenAI, producenta ChatGPT. Dotyczy ono przede wszystkim kwestii, w jaki sposób narzędzie to przetwarza dane osobowe podczas szkolenia systemu bazowego. Chodzi tu o to, czy i w jaki sposób do takiego szkolenia są wykorzystywane pytania użytkowników.
ChatGPT jest oparty na zaawansowanym modelu językowym (GPT) szkolonym z wykorzystaniem danych. Uczy się na danych zgromadzonych w internecie. Oprócz tego jednak wykorzystuje pytania zadawane przez użytkowników. W efekcie ChatGPT może służyć do przechowywania wrażliwych informacji np. w sprawach medycznych.
Użytkownik może poprosić ChatGPT o poradę lekarską.
Zaniepokojenie budzą także udzielane odpowiedzi. Organ nadzorczy ma obawy, że wytwarza wygenerowane przez AI odpowiedzi na pytania użytkowników mogą być nieodpowiednie, nieaktualne, czy nawet obraźliwe. Obawy dotyczą również niebezpieczeństswa utraty kontroli nad ich późniejszym zastosowaniem. W szczególności nie wiadomo, w jaki sposób OpenAI może później prostować czy usuwać te dane.
Przeczytaj także: Sztuczna inteligencja a dane osobowe – czyli o AI w kontekście
Przechowywanie danych w chmurze polega na zapisywaniu i zarządzaniu danymi na zdalnych serwerach, które są dostępne przez internet. Zamiast przechowywać pliki na lokalnych dyskach twardych lub serwerach, użytkownicy mogą korzystać z infrastruktury dostarczanej przez dostawców usług chmurowych. Jest to wygodne i efektywne rozwiązanie, które zapewnia dostęp do danych z dowolnego miejsca, elastyczność, skalowalność oraz wysoki poziom bezpieczeństwa i niezawodności.
© Portal Poradyodo.pl