Dania wypowiada wojnę Deepfake – czy to początek (wyczekiwanej) rewolucji?

Spoglądasz na telefon, a tam kilkanaście wiadomości z pytaniami „co z Tobą”? Do wiadomości jest dołączony link o filmu. Jesteś w tym filmie. Twój głos, twarz, gesty. Film przedstawia Cię, jak mówisz coś, czego nigdy nie powiedziałeś. Albo robisz coś, czego nigdy nie zrobiłeś. Ludzie to oglądają. Komentują. Osądzają. Rodzina i znajomi z pracy wymagają wyjaśnień. Ludzie zaczynają rozpoznawać Cię na ulicy, ale to nie jest miłe. Tak działa deepfake technologia potrafi ukraść Ci twarz, głos i reputację.
Dzięki rozwojowi generatywnej sztucznej inteligencji (GenAI), możliwe stało się tworzenie niewiarygodnie realistycznych materiałów multiedialnych. Te narzędzia potrafią odtworzyć człowieka w najmniejszym detalu, na podstawie niewielkich próbek (zdjęcia, krótkie nagrania). Z jednej strony to potężne narzędzie kreatywne. Z drugiej – broń dezinformacji, szantażu i manipulacji.
Polskie prawo cywilne oraz przepisy o ochronie danych osobowych, stanowią narzędzie do dochodzenia swoich praw, w przypadku naruszenia prywatności, czy dóbr osobistych, jak wizerunek. Jednak są to narzędzia działające bardzo powoli, często przenoszące ciężar udowodnienia faktycznej szkody na ofiarę. Gdy zapadnie wyrok, często nie ma to już większego znaczenia dla osoby poszkodowanej, która nieodwracanie utraciła reputację, zaufanie społeczne, anonimowość. Potrzebne są narzędzia, które działają szybciej i skuteczniej.
Dowiedz się więcej: Dania wypowiada wojnę Deepfake – czy to początek (wyczekiwanej) rewolucji?Duński rząd pracuje nad projektem przepisów, które mają ograniczyć nieautoryzowany deepfake. Projekt zakłada:
– ochronę wizerunku oraz głosu na kanwie prawa autorskiego, wraz z obowiązkiem uzyskania zgody na rozpowszechnianie (w polskim prawie takiej ochronie podlega wizerunek);
– uprawnienie do żądania usunięcia od administratora platformy multimedium z deepfake (taką możliwość daje dzisiaj także RODO);
– odszkodowania za bezprawne wykorzystanie deepfake (jest to możliwe także na kanwie RODO, polskiego prawa autorskiego oraz prawa cywilnego).
Moim zdaniem przepisy nie są rewolucyjne, w zasadzie jedynie ochrona głosu jest nowością, która faktycznie jest bardzo potrzebna (szczególnie, gdy narzędzia AI potrafią bardzo sprawnie go klonować). To bardzo dobrze, że temat deepfake interesuje rządzących, jednak gdy analizuję ich propozycje, mam wrażenie niezrozumienia sedna problemu.
Najpopularniejsi dostawcy portali społecznościowych i medialnych już teraz wykorzystują silniki AI do zwiększania skuteczności reklam. Mogliby zostać prawnie zobligowania, do wykorzystania tych narzędzi do analizy publikowanych u nich multimediów w celu wykrywania treści wygenerowanych przez AI. W przypadku treści zawierających dane osobowe, takie jak wizerunek, czy głos publikacja powinna być blokowana.
Idąc dalej, można pomyśleć o skuteczniejszej ochronie wizerunku i głosu, nie tylko w deepfake. Ktokolwiek uzyskiwał zgody na rozpowszechnianie wizerunku, wie jak ciężka jest to praca. Być może przyszła pora na globalne rozwiązania, np. – rejestr zgód na wykorzystanie wizerunku, poprzez który użytkownik może zarządzać swoimi zgodami na użycie wizerunku, głosu, itp. Narzędzie przeszukiwałoby zasoby Internetu w zakresie opublikowanych wizerunków / głosu użytkownika. W przypadku wykrycia nieautoryzowanej publikacji, umożliwiałoby uproszczone odszkodowanie. Mogłoby także służyć do uzyskiwania zgody przez podmiot, który chce publikować. Byłaby to korzyść po obu stronach, bo publikujący nie musiałby się martwić o papierowe zgody, tylko miałby wszystko w aplikacji.
Nazywam się Sylwia Czub-Kiełczewska, jestem ekspertką ds. ochrony danych osobowych oraz certyfikowaną audytorką wewnętrzną ISO 27001 /TISAX. Pomagam organizacjom wdrożyć skuteczne systemy bezpieczeństwa informacji, przeprowadzam audyty zgodności z RODO / ISO27001. Jestem skuteczna, bo stosuję indywidualne podejście, oparte na zrozumieniu klienta oraz jego działalności. Potrzebujesz wsparcia? Napisz do mnie
Zapraszam na moje (bardzo praktyczne i konkretne) szkolenia!
We wpisie wykorzystano zdjęcie z serwisu Pixabay.com.