Ochrona danych osobowych w modelach AI
Grudzień był dla mnie intensywny szkoleniowo, ale jedno z tych spotkań szczególnie dobrze oddaje wyzwania, z jakimi dziś mierzą się organizacje korzystające z narzędzi opartych na sztucznej inteligencji. Szkolenie „Ochrona danych osobowych w modelach AI” poprowadziłam dla pracowników firmy, którzy na co dzień wykorzystują modele AI w swojej pracy operacyjnej, analitycznej i decyzyjnej.
W szkoleniu skupiłam się nie tylko na prawnych ramach legalnego stosowania generatywnej sztucznej inteligencji, lecz także na praktycznych wskazówkach – m.in. jak tworzyć bezpieczne prompty oraz czy i pod jakimi warunkami można przekazywać dane osobowe do modeli AI.
RODO a AI Act
Pierwszą część szkolenia poświęciłam przypomnieniu podstawowych definicji z RODO. Kluczowe jest uświadomienie, że danymi osobowymi są wszelkie informacje, które pozwalają zidentyfikować osobę, której dotyczą – bezpośrednio lub pośrednio. Zwróciłam również uwagę na komplementarny charakter regulacji RODO i AI Act.
Co ciekawe, wszyscy przywykliśmy już do zasad ochrony danych osobowych, które towarzyszą nam od 2018 r. Tymczasem – mimo że pierwsza część AI Act obowiązuje od 1 sierpnia 2024 r., a kolejne jego elementy wchodzą w życie kaskadowo – nadal niewielu użytkowników zna te przepisy i rozumie ich praktyczne znaczenie.
RODO reguluje przetwarzanie danych osobowych niezależnie od tego, czy odbywa się ono przy użyciu arkusza Excel, systemu ERP czy modelu językowego. AI Act natomiast koncentruje się na ryzykach systemów AI, ich klasyfikacji oraz obowiązkach dostawców i użytkowników.
Kiedy model AI przetwarza „dane osobowe”?
Jednym z kluczowych zagadnień było pytanie, czy – i kiedy – model AI przetwarza dane osobowe. Odpowiedź zależy m.in. od:
- rodzaju danych wprowadzanych do modelu,
- możliwości identyfikacji osoby (bezpośredniej lub pośredniej),
- fazy, na której znajduje się system (szkolenie, użycie, generowanie wyniku),
- tego, czy dane mogą „wracać” w outputach modelu.
Dużo uwagi poświęciliśmy tzw. danym ukrytym – metadanym, danym kontekstowym i danym wnioskowanym, których użytkownik często nie jest świadomy, a które model potrafi odczytać lub wywnioskować.
Prompt jako operacja przetwarzania danych
Jednym z najbardziej praktycznych elementów szkolenia była część dotycząca promptowania. Z mojego doświadczenia wynika, że użytkownicy nie zawsze są świadomi, iż prompt może stanowić operację przetwarzania danych osobowych.
Chcąc ułatwić i przyspieszyć sobie pracę – co brutalnie potwierdzają statystyki – często wklejamy do narzędzi AI całe umowy, regulaminy czy akta spraw, nie zwracając uwagi na zawarte w nich dane osobowe, dane poufne przedsiębiorstwa czy inne informacje podlegające ochronie.
Tymczasem korzystanie z dobrodziejstw sztucznej inteligencji jest procesem, który podlega ocenie prawnej, ryzyku regulacyjnemu oraz odpowiedzialności, w tym również odpowiedzialności odszkodowawczej.
Dlatego zwróciłam uwagę na sytuacje szczególne, takie jak:
- prompt injection i jailbreaki jako realne zagrożenia dla poufności danych,
- przypadki, w których model „dopowiada” dane, których użytkownik nie przekazał wprost,
- ryzyko naruszenia zasady minimalizacji poprzez nadmiernie szczegółowe prompty.
Duży nacisk położyłam na bezpieczne schematy promptów oraz zasadę: jeżeli czegoś nie wysłałbyś w mailu do zewnętrznego kontrahenta – nie wysyłaj tego do AI.
Odpowiedzialność i kary
Istotnym elementem szkolenia było omówienie odpowiedzialności po stronie:
- administratora danych,
- użytkownika systemu AI,
- firmy wobec klientów.
Analizowaliśmy konkretne scenariusze – od HR i rekrutacji, przez obsługę klientów, po analizę dokumentów i danych wrażliwych. Pokazywałam, że automatyzacja nie przenosi odpowiedzialności na model, a decyzje dotyczące celów i sposobów przetwarzania pozostają decyzjami ludzkimi.
Poruszyliśmy również temat kar administracyjnych wynikających z RODO i AI Act, odpowiedzialności cywilnej oraz konieczności dokumentowania decyzji i ocen ryzyka, w tym DPIA.
Kary przewidziane w AI Act są surowe i zależą od wagi naruszenia. Mogą sięgać:
- do 35 mln euro lub 7% światowego obrotu – za praktyki zakazane (np. masową inwigilację),
- do 15 mln euro lub 3% obrotu – za naruszenia wymogów dotyczących systemów wysokiego ryzyka i obowiązków informacyjnych,
- do 7,5 mln euro lub 1% obrotu – za przekazywanie nieprawdziwych informacji organom nadzorczym.
Dostawcy modeli AI ogólnego przeznaczenia mają czas do 2 sierpnia 2027 r. na pełne dostosowanie się do nowych przepisów. Dodatkowe obowiązki dla systemów AI wysokiego ryzyka wejdą w życie w sierpniu 2026 i 2027 r.
Zakazy w AI Act
RODO wskazuje warunki dopuszczalnego przetwarzania danych osobowych, natomiast AI Act wprost wprowadza bezwzględne zakazy określonych praktyk.
Zgoda w AI – kiedy nie jest wystarczająca?
Zgoda nie może stanowić skutecznej podstawy przetwarzania m.in. gdy:
- występuje relacja zależności wykluczająca dobrowolność,
- cel przetwarzania nie jest klarowny ani przewidywalny,
- dane trafiają do „czarnej skrzynki” modelu lub są wykorzystywane do trenowania,
- zgoda nie może być wycofana bez negatywnych konsekwencji,
- zgoda jest warunkiem skorzystania z usługi (tzw. forced consent),
- dochodzi do przetwarzania danych wrażliwych bez spełnienia dodatkowych warunków,
- naruszony jest zakaz wyłącznego profilowania z art. 22 RODO.
Przetwarzanie danych szczególnych kategorii jest co do zasady zakazane, chyba że zachodzi jedna z przesłanek z art. 9 ust. 2 RODO (np. wyraźna zgoda, ochrona zdrowia, obowiązek prawny lub interes publiczny). Dane te wymagają podwyższonych zabezpieczeń technicznych i organizacyjnych, takich jak szyfrowanie, ograniczony dostęp czy rejestracja operacji przetwarzania.
Art. 10 ust. 5 AI Act dopuszcza przetwarzanie danych wrażliwych wyłącznie w celu wykrywania, zapobiegania i korygowania stronniczości (bias) w systemach AI wysokiego ryzyka, jeżeli stronniczość ta może prowadzić do dyskryminacji, naruszenia praw podstawowych lub zagrożenia dla zdrowia i bezpieczeństwa osób.
W praktyce oznacza to, że nie wolno projektować ani używać systemów AI, które m.in.:
- wykorzystują manipulację behawioralną w sposób istotnie zniekształcający decyzje użytkownika,
- prowadzą do społecznej punktacji (social scoring),
- służą do nieuprawnionej biometrycznej identyfikacji osób w czasie rzeczywistym (z bardzo wąskimi wyjątkami ustawowymi),
- wykorzystują wrażliwe cechy osób (np. poglądy, orientację, zdrowie) do ich profilowania lub przewidywania zachowań,
- tworzą lub wzmacniają dyskryminację, także pośrednio – poprzez dane treningowe lub prompty.
Podczas szkolenia podkreślałam, że zakazy z AI Act wyznaczają twarde granice – ich przekroczenie nie podlega „ważeniu interesów”. Jeśli dany przypadek mieści się w zakazie, projekt nie powinien być realizowany.
Podstawa prawna to dopiero początek
Wskazanie podstawy z art. 6 RODO nie legalizuje automatycznie użycia AI. Każda faza pracy z modelem – od danych treningowych, przez promptowanie, po wykorzystanie outputów – może wymagać odrębnej oceny prawnej, innej podstawy przetwarzania oraz innego rozkładu odpowiedzialności (administrator, współadministrator, procesor).
W praktyce szczególnie problematyczne okazują się:
- próby opierania się na zgodzie, która w środowisku AI często nie spełnia wymogu konkretności,
- automatyczne powoływanie się na wykonanie umowy, mimo że osoba, której dane dotyczą, nie jest jej stroną,
- nadużywanie przesłanki uzasadnionego interesu bez realnego testu równowagi.
Kodeks dobrych praktyk
Ze względu na praktyczny charakter szkolenia, po omówieniu najczęstszych naruszeń zasad ochrony danych (tzw. incydentów w modelach AI) przeszliśmy do wspólnego formułowania kodeksu dobrych praktyk w firmie. Z mojej perspektywy to zawsze najcenniejsza część szkolenia – moment, w którym pracownicy sami identyfikują „najsłabsze ogniwa” swoich działań i realne ryzyka dla poufności, integralności i dostępności danych.
Zależało mi, aby uczestnicy wyszli ze szkolenia nie tylko z wiedzą prawną, lecz także z konkretnymi nawykami. Dlatego dużo czasu poświęciliśmy praktycznym technikom:
- anonimizacji i pseudonimizacji promptów,
- redukowaniu kontekstu do minimum,
- pracy na fragmentach zamiast na pełnych dokumentach,
- świadomemu wyborowi narzędzi (modele publiczne vs. rozwiązania wewnętrzne),
- dwustopniowej anonimizacji i przetwarzaniu danych jako standardowej praktyce.
Podsumowanie
Szkolenie „Ochrona danych osobowych w modelach AI” było próbą pokazania pełnego obrazu: RODO jako fundamentu ochrony danych oraz AI Act jako regulatora granic technologii. Nawet jednak znajomość zasad prawnych korzystania z AI oraz wdrożenie kodeksu dobrych praktyk (bezpiecznych promptów) nie zwalnia z myślenia – przewidywania zagrożeń, szacowania ryzyk i kontroli działań AI przez człowieka, zgodnie z zasadą human in the loop.
Jeśli chcesz porozmawiać o szkoleniu dla swojego zespołu, analizie zakazanych przypadków użycia AI lub uporządkowaniu podstaw prawnych przetwarzania danych – zapraszam do kontaktu.
