BLOG

Dowiedz się co jest naprawdę ważne.

Deepfake – zagrożenia i środki ochrony

Dynamiczny rozwój sztucznej inteligencji (dalej jako: AI) oprócz szeregu szans rozwojowych niesie ze sobą także zagrożenia dla praw i wolności osób fizycznych, w szczególności w postaci zjawiska tzw. deepfake’ów, w których generowane przez AI fałszywe obrazy, dźwięki i nagrania wideo, wydają się coraz bardziej wiarygodne, co zwiększa przestrzeń do nadużyć i odziaływania negatywnych konsekwencji tego typu treści dla osób fizycznych, których dane osobowe mogą być bezprawnie wykorzystywane.

Mirosław Wróblewski, Prezes Urzędu Ochrony Danych Osobowych (dalej jako: Prezes UODO), zauważa w wystąpieniu do wicepremiera i ministra cyfryzacji Krzysztofa Gawkowskiego, że kształt polskiego ustawodawstwa nie uwzględnia możliwości, które obecnie osiąga technologia tworząc tzw. deepfake, a przez to nie posiada mechanizmów regulacyjnych mogących skutecznie przeciwdziałać tego rodzaju nadużyciom. Polski porządek prawny nie przewiduje bowiem bezpośredniej ścieżki dochodzenia swoich praw, z której mogłyby skorzystać osoby dotknięte zjawiskiem typu deepfake wykorzystującym utworzone przez AI fałszywe treści.

Zmiany w prawie wydają się nieuniknione ze względu na możliwe perspektywy wykorzystania omawianej technologii, którą używa się nie tylko do uzasadnionych celów np. efekty specjalne w filmach, ale także do tworzenia treści przyczyniających się do nadużyć oddziałujących bezpośrednio na osoby fizyczne. Należy podkreślić, że kwestią, która staje się pilna pod względem ustawodawczym, jest wykorzystywanie wizerunku osoby fizycznej bez jej wiedzy i zgody, co tym samym przyczynia się do kradzieży tożsamości. Zaznaczenia wymaga, iż omawiane działania nie rzadko ukazują osoby fizyczne w niekorzystnym świetle, co może prowadzić do nękania, które stanowi poważne zagrożenie w szczególności dla dzieci i młodzieży.

Ponadto, warto przywołać znaczenie tzw. deepafke’ów dla systemu informacyjnego, biorąc pod uwagę pozycję mediów społecznościowych w kształtowaniu opinii publicznej. Wiadomości typu deepfake mogą zostać wykorzystane do wprowadzania dezinformacji, która stanowi część szerszego kontekstu bezpieczeństwa. Fałszowanie rzeczywistości przez AI ma szczególny wymiar także w obszarze postępowań dowodowych w procesach sądowych, w których nieprawdziwa informacja może wpływać na wyroki sądów.

Prezes UODO zauważa, że wykorzystywanie wizerunku jest obecnie regulowane przez szereg aktów prawnych, jednak ograniczają się one do konkretnych obszarów. Przepisy ustawy o prawie autorskim i prawach pokrewnych zawierają wymóg zgody na rozpowszechnianie wizerunku, a Kodeks cywilny reguluje ochronę dóbr osobistych, w tym wizerunku i głosu. Zaznaczenia wymaga, że wizerunek zalicza się do danych osobowych wymagających ochrony, dlatego niezbędne jest wypełnienie odpowiedniej przesłanki z art. 5 ust. 1 RODO w celu uzyskania podstawy prawnej do przetwarzania danych osobowych.

Wykorzystywanie tzw. deepfake może mieć znamiona czynu zabronionego na podstawie Kodeksu karnego, w tym kradzieży tożsamości, zmuszania do określonego zachowania, rozpowszechniania wizerunku nagiej osoby bez jej zgody, rozpowszechniania przechowywania i rozpowszechniania treści pornograficznych, a także zniesławiania i oszustwa.

Prezes UODO pokreślił brak kompleksowego uregulowania nadużyć wynikających z wykorzystywania tzw. deepfake’ów przez wymienione akty prawne, które mogłyby zapewnić ochronę przed ich negatywnymi skutkami np. wprowadzenie mechanizmu prawnego do szybkiego usuwania nielegalnych materiałów z przestrzeni internetowej. Należy podkreślić, iż obecny kształt ustawodawstwa nie jest dostoswany do tempa rozwoju mediów społecznościowych np. w odniesieniu do reagowania na rozpowszechnianie wiadomości niezgodnych z prawem, w tym naruszających prawa i wolności osób fizycznych.

Mając na uwadze powyższe, w celu zmiany obecnego stanu prawnego warto wziąć przykład z rozwiązań stosowanych przez inne kraje Unii Europejskiej. Przykładem tego typu działań jest projekt nowelizacji prawa autorskiego przygotowany przez władze Danii, który w założeniu mógłby doprowadzić do żądania usunięcia tzw. deepfake’ów i ścieżki dochodzenia przez osoby poszkodowane odszkodowania za naruszenia. Organ nadzorczy sugeruje także rozważenie zobowiązania platform społecznościowych do instalowania systemów automatycznego i skutecznego wykrywania oraz oznaczania tzw. deepfake’ów.

Zaznaczenia wymaga, iż rozwój AI znacznie zwiększa ryzyko powstania naruszeń ochrony danych osobowych np. w postaci kradzieży danych osobowych i ich późniejszego wykorzystania w przestrzeni publicznej, np. w postaci wizerunku lub głosu osoby fizycznej przy tworzeniu materiałów za pośrednictwem sztucznej inteligencji. Analizując powyższe stanowisko, jasno można wywnioskować, że szeroko pojęty rozwój technologiczny pokazuje nam, iż obowiązujące przepisy wydają się nie zapewniać odpowiedniej ochrony praw i wolności osób fizycznych.

Źródło:
https://uodo.gov.pl/pl/138/3886