ChatGPT w pracy IOD – czy można korzystać legalnie i bezpiecznie?

Od kilku miesięcy dostaję od Was coraz więcej pytań o to, czy Inspektor Ochrony Danych może korzystać z narzędzi typu ChatGPT w codziennej pracy, np. generowanie klauzul informacyjnych, inni o wsparcie w analizie ryzyka, jeszcze inni o szybkie sprawdzenie przepisu czy wytycznych EROD. Rzeczywiście – ChatGPT potrafi być ogromnym ułatwieniem, ale tylko wtedy, gdy korzystamy z niego z głową.
ChatGPT a dane osobowe
Najważniejsza zasada: nie powinniśmy wprowadzać do ChatGPT danych osobowych – zwłaszcza tych, które powierzono nam jako IOD. Nawet jeśli narzędzie zapewnia pewne opcje prywatności, to wciąż mamy do czynienia z usługą chmurową i nie możemy w pełni kontrolować, co dzieje się z treściami wpisywanymi do modelu.
To oznacza, że nie podajemy nazwisk, adresów e-mail, PESEL-i czy danych pracowników/pacjentów/klientów. Na tej samej zasadzie trzeba uważać na kopiowanie raportów z audytów, podatności systemów, czy rejestru naruszeń – które mogą ujawnić potencjalnym oszustom, w jaki sposób włamać się do infrastruktury administratora. Możemy natomiast pracować na anonimizowanych przykładach – np. zamiast „Jan Kowalski, adres…” wpisujemy „Pracownik A, dane kontaktowe…”.
Wersja biznesowa a dane osobowe
Wersja ChatGPT Enterprise / Team różni się od darmowej tym, że dostawca deklaruje możliwość wyłączenia wykorzystywania danych do trenowania modelu (czyli nie powinny przypadkowo „wypłynąć” przy okazji innego zapytania). Pojawia się więc pytanie: czy można tam wprowadzać dane osobowe?
Teoretycznie tak, ale z pełną formalizacją i dużą ostrożnością.
- potrzebna jest umowa powierzenia z dostawcą (zawierana w momencie przejścia na biznesową wersję, poprzez zaakceptowanie regulaminu),
- obowiązuje zasada minimalizacji – przekazujemy tylko niezbędne dane,
- dane wrażliwe (art. 9 RODO) lepiej pseudonimizować lub unikać,
- korzystanie z AI należy uwzględnić w RCP, analizie ryzyka, a w wielu przypadkach także może być konieczna ocena skutków.
W praktyce oznacza to, że wersja biznesowa otwiera furtkę do pracy z danymi osobowymi, ale wymaga tego samego podejścia, jak przy każdym innym podmiocie przetwarzającym. Najbezpieczniej jest jednak przyjąć, że ChatGPT to narzędzie do pracy na treściach nieosobowych – a jeśli chcemy pójść krok dalej, musimy to sformalizować i dobrze udokumentować.
W jaki sposób IOD może wykorzystywać AI?
Zadaniami IOD jest doradzanie oraz monitorowanie zgodności z przepisami, a ChatGPT może być przydatny jako narzędzie wspierające, np.:
- przygotowanie draftu procedury, na podstawie ustaleń z pracownikami,
- szybkie tłumaczenie tekstów regulacyjnych (np. wytyczne EROD, decyzje zagranicznych organów nadzorczych, projekty przepisów unijnych),
- tworzenie checklisty na potrzeby audytu,
- porządkowanie treści, które sami napisaliśmy (np. poprawa stylu w piśmie do pracowników),
- przygotowywanie „RODO przypominajek”,
- analiza treści (np. dokumentacji bezpieczeństwa dostawcy usług, czy wzoru umowy),
- przygotowanie wzoru zawiadomienia osoby, której dotyczy naruszenie.
Natomiast często popełnia też błędy, np.: powołuje się na uchylone lub nieistniejące przepisy; zmyśla odpowiedzi, gdy nie może ich znaleźć; podaje jako właściwe najpopularniejsze, niekoniecznie właściwe, rozwiązanie.
Uwaga na współdzielenie kont
Częstą praktyką w organizacjach jest korzystanie z jednego konta przez kilka osób. To wygodne, ale bardzo ryzykowne z punktu widzenia ochrony danych, bo wszyscy widzą historię zapytań. To oznacza, że:
- jedna osoba może nieświadomie ujawnić dane w pytaniu, a inni – bez potrzeby – uzyskają do nich dostęp,
- dostęp do historii zapytań nie jest ograniczony zakresem obowiązków,
- tracimy rozliczalność – nie wiemy, kto dokładnie wprowadził dane.
Najbezpieczniej jest, aby każdy użytkownik miał własne konto. W wersjach biznesowych ChatGPT administrator może przypisać indywidualne konta i uprawnienia, a historia zapytań nie jest automatycznie współdzielona.
Uczenie AI na danych
Jednym z najczęściej podnoszonych ryzyk związanych z korzystaniem z ChatGPT jest fakt, że model może uczyć się na danych, które wprowadzamy w zapytaniach. Nieraz widziałam takie „wycieki”, np. w ramach odpowiedzi otrzymywałam pełną treść sprawozdania z naruszenia jednego z podmiotów publicznych. Po weryfikacji, okazywało się, że faktycznie takie zdarzenie miało miejsce, ale w oficjalnych komunikatach nie ujawniano szczegółów, które były udostępnione w sprawozdaniu. Nigdy nie wiadomo co AI zrobi z danymi wejściowymi i w jaki sposób je wykorzysta.
Dla IOD to poważny problem, bo:
- tracimy kontrolę nad tym, gdzie i jak dane są przetwarzane,
- nie możemy zapewnić realizacji zasady ograniczenia celu ani minimalizacji,
- istnieje ryzyko ujawnienia poufnych informacji w kolejnych odpowiedziach modelu (tzw. data leakage).
Jak wyłączyć uczenie maszynowe?
W przypadku ChatGPT:
- w wersji darmowej i indywidualnej (Plus) trzeba ręcznie wyłączyć opcję „Chat history & training” w ustawieniach.
- w wersjach biznesowych (Team, Enterprise) dane użytkowników domyślnie nie są wykorzystywane do trenowania.
Niezależnie od rodzaju wybranego modelu AI, inspektor powinien zwrócić uwagę na kwestię wykorzystywania danych oraz ochrony danych osobowych przed jego wdrożeniu. W szkoleniach należy uwzględniać ryzyka związane z korzystaniem z AI oraz bezpieczne zasady wprowadzania danych do narzędzi AI.
Nazywam się Sylwia Czub-Kiełczewska, jestem ekspertką ds. ochrony danych osobowych oraz certyfikowaną audytorką wewnętrzną ISO 27001 /TISAX. Pomagam organizacjom wdrożyć skuteczne systemy bezpieczeństwa informacji, przeprowadzam audyty zgodności z RODO / ISO27001. Jestem skuteczna, bo stosuję indywidualne podejście, oparte na zrozumieniu klienta oraz jego działalności. Potrzebujesz wsparcia? Napisz do mnie
Zapraszam na moje (bardzo praktyczne i konkretne) szkolenia!
We wpisie wykorzystano zdjęcie z serwisu Pixabay.com.