Holenderski organ nadzorczy powziął wątpliwości czy ChatGPT zapewnia ochronę danych osobowych zgodnie ze standardami RODO. Wątpliwości budzi to, czy algorytmy stosowane w tym narzędziu są zgodne z unijnym rozporządzeniem.
Holenderski organ nadzorczy wystąpił z zapytaniem do OpenAI, producenta ChatGPT. Dotyczy ono przede wszystkim kwestii, w jaki sposób narzędzie to przetwarza dane osobowe podczas szkolenia systemu bazowego. Chodzi tu o to, czy i w jaki sposób do takiego szkolenia są wykorzystywane pytania użytkowników.
ChatGPT jest oparty na zaawansowanym modelu językowym (GPT) szkolonym z wykorzystaniem danych. Uczy się na danych zgromadzonych w internecie. Oprócz tego jednak wykorzystuje pytania zadawane przez użytkowników. W efekcie ChatGPT może służyć do przechowywania wrażliwych informacji np. w sprawach medycznych.
Użytkownik może poprosić ChatGPT o poradę lekarską.
Zaniepokojenie budzą także udzielane odpowiedzi. Organ nadzorczy ma obawy, że wytwarza wygenerowane przez AI odpowiedzi na pytania użytkowników mogą być nieodpowiednie, nieaktualne, czy nawet obraźliwe. Obawy dotyczą również niebezpieczeństswa utraty kontroli nad ich późniejszym zastosowaniem. W szczególności nie wiadomo, w jaki sposób OpenAI może później prostować czy usuwać te dane.
Przeczytaj także: Sztuczna inteligencja a dane osobowe – czyli o AI w kontekście
Z wideoszkolenia dowiesz się m.in.:
Szkolenie prowadzi Agnieszka Wachowska, radczyni prawna, Co-Managing Partners, Szefowa zespołu IT-Tech w TKP
© Portal Poradyodo.pl