BLOG

Dowiedz się co jest naprawdę ważne.

KORZYSTANIE Z MODELI SZTUCZNEJ INTELIGENCJI GENERATYWNEJ A OCHRONA PRYWATNOŚCI

Wraz z dynamicznym rozwojem sztucznej inteligencji generatywnej zmienia się nie tylko sposób tworzenia treści — zmienia się też fundamentalnie sposób, w jaki powinniśmy myśleć o prywatności. Narzędzia takie jak ChatGPT, Gemini, Copilot, DeepSeek, czy Bielik umożliwiają generowanie tekstów i nieraz również obrazów, muzyki i filmów z niespotykaną dotąd łatwością. Jednak ta innowacja ma swoją ukrytą cenę: dane, które użytkownik dostarcza modelom w ramach rozmów, przesyłania obrazów czy generowania muzyki, mogą stać się częścią infrastruktury uczenia się maszynowego — często w sposób nie do końca transparentny.

W tradycyjnym modelu ochrony danych osobowych prywatność była utożsamiana głównie z ochroną nazwiska, adresu, numeru telefonu czy wizerunku. Dziś jednak sytuacja jest znacznie bardziej skomplikowana. Prywatność w kontekście sztucznej inteligencji obejmuje już nie tylko nasze dane osobowe które bezpośrednio ujawniamy i podajemy do modeli sztucznej inteligencji, ale też sposób myślenia, styl wyrażania się, ulubione tematy, wzorce zachowania, a nawet nasze emocje.

Aby zrozumieć ryzyka związane z prywatnością w sztucznej inteligencji generatywnej, trzeba najpierw uświadomić sobie, w jaki sposób modele te faktycznie przetwarzają dane. Pojęcia takie jak trenowanie, inferencja, pamięć sesyjna czy retencja danych są kluczowe, aby pojąć kwestie związane z ochroną naszej prywatności.

Trenowanie modeli

Trenowanie modeli sztucznej inteligencji polega na wprowadzeniu ogromnych zbiorów danych takich jak teksty, obrazy, nagrania dźwiękowych – na których model uczy się rozpoznawać wzorce i reguły. Dane treningowe są najczęściej przetwarzane w sposób zbiorczy i nieodwracalny: pojedynczy fragment tekstu czy zdjęcia traci swoją odrębność w masie statystycznych zależności. Co to oznacza? Oznacza to, że podczas trenowania modelu AI dane wejściowe nie są zapamiętywane jako konkretne, kompletne byty (np. cała rozmowa z chatbotem, konkretne zdjęcie, konkretny post z forum), lecz są rozkładane na fragmenty (tokeny, piksele, cechy), które następnie służą do budowania wzorców matematycznych – modeli zależności, np. między słowami, barwami, dźwiękami.

Problem prywatności zaczyna się na etapie doboru tych danych. Część modeli, jak OpenAI GPT-3.5 i GPT-4, była trenowana na otwartych danych z Internetu, co oznacza, że nawet treści publicznie dostępne, ale nieprzeznaczone na takie użycie (np. fora internetowe, blogi) mogły zostać wykorzystane. Inne modele, jak Claude od Anthropic, deklarują trenowanie na specjalnie dobranych zbiorach z ograniczonym ryzykiem naruszenia praw osób trzecich.

Powstaje zatem zasadnicze pytanie, czy dane użytkownika, przesyłane podczas bieżącej pracy z modelem, mogą zostać włączone do przyszłych zbiorów treningowych?
Jak zobaczymy dalej, w przypadku wielu usług darmowych taka możliwość istnieje domyślnie, chyba że użytkownik samodzielnie zdecyduje się ją wyłączyć (o ile w ogóle ma taką opcję).

Inferencja – kiedy model odpowiada na Twoje zapytanie

Po zakończeniu fazy trenowania model staje się narzędziem wykonawczym — generuje odpowiedzi w czasie rzeczywistym na podstawie dostarczonego zapytania (promptu). Ten proces nazywamy inferencją. Model nie „uczy się” na podstawie pojedynczego zapytania, a jedynie wykorzystuje swoje istniejące wzorce, by wygenerować odpowiedź.

Z perspektywy prywatności na tym etapie powstają dwa kluczowe pytania czy wpisywane przez użytkowników zapytanie i odpowiedź są zapamiętywane gdziekolwiek na serwerze oraz czy administrator usługi ma do nich dostęp? W teorii inferencja powinna być procesem tymczasowym — dane przesyłane przez użytkownika są używane tylko do wygenerowania odpowiedzi i zaraz potem usuwane. W praktyce jednak wiele firm (zwłaszcza oferujących darmowe modele) zapisuje dane sesyjne na swoich serwerach, czasami w celach bezpieczeństwa, czasami diagnostycznych, a czasami w celach rozwoju produktu (konkretne przykłady polityk prywatności poszczególnych modeli zostały przedstawione w dalszej części artykułu).

W kontekście działania modeli generatywnych warto odróżniać trzy rodzaje pamięci. Pierwszą z nich jest pamięć lokalna użytkownika. Dane przechowywane na urządzeniu użytkownika (np. cache przeglądarki lub aplikacji). Z punktu widzenia dostawcy modelu są one niewidoczne — chyba że użytkownik sam je przesyła. Kolejną jest pamięć sesyjna, te dane istnieją tylko w trakcie jednej sesji użytkownika. Po zamknięciu przeglądarki lub wylogowaniu się, dane powinny być usuwane. W praktyce, wiele systemów przechowuje takie dane przez kilka godzin lub dni w ramach tymczasowych baz danych serwerowych. Ostatnią z nich jest pamięć trwała (persistent storage), gdzie dane są przechowywane na serwerach dostawcy usługi przez określony czas — 30 dni, 90 dni, a czasami nawet bezterminowo. To właśnie tu rodzi się największe ryzyko: jeśli dane są przechowywane, mogą zostać użyte do analiz, testowania modeli albo nawet (przy nieostrożnej polityce firmy) do dalszego trenowania modeli generatywnych.

Jakie dane są gromadzone i przetwarzane przez modele generatywne?

Wreszcie, istotne jest odróżnienie danych osobowych (np. nazwisko, zdjęcie, adres e-mail) od danych użytkowych (np. styl pisania, sposób formułowania zapytań, wybory tematyczne). W kontekście modeli AI granica między jednym a drugim zaciera się: Twój styl pisania, preferencje tematyczne i sposób rozmowy mogą pozwolić na identyfikację Twojej osoby nawet bez tradycyjnych danych osobowych.

Sztuczna inteligencja generatywna, choć na pierwszy rzut oka wydaje się „czysto kreatywna”, opiera się na intensywnym przetwarzaniu różnorodnych danych użytkownika. Rodzaje gromadzonych informacji są przy tym znacznie szersze niż typowe dane osobowe. Obejmują one nie tylko treści wprost dostarczane przez użytkownika, ale także dane pośrednie, których użytkownik często nie jest świadomy.

Podstawową kategorią danych są wszelkie teksty i materiały dostarczane przez użytkownika takie jak zapytania (prompt), odpowiedzi systemu, interakcje w ramach czatu, treści przesyłane do analizy lub edycji (np. zdjęcia, fragmenty artykułów, notatki, kod programistyczny). Te dane mogą obejmować również dane osobowe szczególnej kategorii, np. kiedy użytkownik zasięga porady medycznej od modelu AI.

W zależności od modelu i polityki prywatności, te dane mogą być wykorzystywane do wygenerowania odpowiedzi (funkcja czysto wykonawcza), do monitorowania bezpieczeństwa (np. filtrowanie nadużyć, spamowania, treści nielegalnych), do dalszego trenowania modeli (np. udoskonalania algorytmu rozumienia języka naturalnego). Co ważne, w przypadku wielu modeli darmowych (np. darmowa wersja ChatGPT), dane tekstowe są domyślnie wykorzystywane do dalszego rozwoju modeli, chyba że użytkownik aktywnie wyłączy tę opcję w ustawieniach prywatności.

Modele zdolne do analizy i generowania obrazów (np. DALL-E, Gemini, Midjourney, Stable Diffusion) przetwarzają: zdjęcia przesyłane przez użytkownika, obrazy wygenerowane na podstawie promptu, metadane plików graficznych (np. EXIF, czas i miejsce wykonania zdjęcia). W przypadku przesyłania własnych zdjęć, np. w ChatGPT Plus (w wersji z dostępem do funkcji Vision) lub w Gemini, użytkownik dostarcza bardzo wrażliwe dane – zwłaszcza jeśli na zdjęciu znajdują się osoby, dzieci, prywatne przestrzenie domowe. OpenAI wyraźnie zakazuje przesyłania zdjęć dzieci oraz treści zawierających dane biomedyczne, a Google w Gemini stosuje podobne ograniczenia, choć formułowane mniej rygorystycznie. Zabezpieczenia te są jednak możliwe do obejścia po wpisaniu odpowiednich promptów.

Niestety, polityki prywatności wielu modeli (szczególnie open-source) nie zapewniają pełnych gwarancji co do automatycznego kasowania przesłanych zdjęć — użytkownik często nie ma wglądu w to, gdzie i jak długo są one przechowywane.

Wraz z rozwojem modeli generatywnych dźwięku (np. Suno, Udio, Solo) pojawiła się nowa kategoria danych nagrania głosu użytkownika, melodie przesyłane jako inspiracja. Szczególnie istotne jest, że nagranie głosu użytkownika może być traktowane jako dane biometryczne w rozumieniu RODO — a więc podlegać surowszym zasadom ochrony. Oczywiście poza modelami AI przeznaczonymi do tworzenia treści muzycznych, coraz częściej dostawcy sztucznej inteligencji oferują możliwości rozmowy z modelem. Tak na przykład podczas korzystania z funkcji rozmów głosowych w ChatGPT, przesyłane nagrania audio są wykorzystywane do transkrypcji za pomocą systemu Whisper. Zgodnie z polityką prywatności OpenAI, te nagrania są usuwane po zakończeniu transkrypcji, chyba że użytkownik wyrazi zgodę na ich wykorzystanie w celu poprawy jakości usług. Z kolei Gemini od Google zbiera dane z interakcji głosowych w Gemini Live, w tym nagrania rozmów i je przechowuje.

Natomiast nagranie dźwięku to nie tylko informacje zawarte w komunikacie i dotyczące brzemienia głosu użytkownika. Najnowszy model GPT-4o wprowadza zaawansowane funkcje rozpoznawania emocji w czasie rzeczywistym. Model ten potrafi analizować sygnały emocjonalne w głosie użytkownika, takie jak ton, tempo mowy czy intonacja, co pozwala na dostosowanie odpowiedzi do nastroju rozmówcy. Obecnie, z oficjalnych informacji, wśród najpopularniejszych AI, tylko model GPT-4o dokonuje analizy stanu emocjonalnego na podstawie głosu użytkownika, natomiast można się spodziewać, że niedługo dołączą do niego inne modele, jak chociażby Gemini, które już dysponuje stosowną technologią do wdrożenia takiej formy analizy. Istnieją natomiast inne dedykowane i mniej rozpoznawalne modele służące do rozpoznawania emocji po głosie takie jak Emlo od Deepgram czy OpenSMILE od audEERING.

Dla przykładu, Suno deklaruje, że użytkownik, przesyłając treści, udziela licencji na ich wykorzystanie na potrzeby rozwoju technologii, o ile samodzielnie nie zażąda ich usunięcia.

Obok danych treściowych, modele gromadzą także metadane, które użytkownik zwykle przekazuje nieświadomie, są to takie informacje adres IP, dane o urządzeniu i systemie operacyjnym, datę, godzinę i lokalizację korzystania z usługi, parametry sesji (czas trwania, liczba zapytań), rodzaj używanej przeglądarki lub aplikacji. Metadane mogą też dotyczyć samej konwersacji, takie jak np. długość wiadomości i jej czas.

Metadane pozwalają dostawcom AI monitorować wydajność usług, wykrywać próby nadużyć, profilować użytkowników w celach analitycznych lub marketingowych (w zależności od modelu i warunków zgody użytkownika). Warto podkreślić, że metadane mogą prowadzić do identyfikacji użytkownika, nawet jeśli ten formalnie nie podał swojego imienia, adresu e-mail czy numeru telefonu.

Poniżej zamieszczamy szczegółowe informacje na temat wybranych modeli AI, dotyczące tego jakie dane są zbierane, jak długo są przechowywane, czy są wykorzystywane do trenowania modelu, gdzie dane są przechowywane oraz jaka jest polityka firmy w zakresie udostępniania danych innym podmiotom.

Zasady przetwarzania danych wybranych modeli AI

ChatGPT od OpenAI

Zakres danych: dane dostarczane przez użytkownika, metadane, pliki cookies, dodatkowe informacje „wnioskowe”, np. preferowany styl komunikacji, cechy osobowości, wskazany już wcześniej nastrój rozmówcy. Dane użytkownika z prowadzonych rozmów z ChatGPT podlegają szerokiej analizie i profilowaniu.

Okres przechowywania danych: OpenAI deklaruje przechowywanie rozmów przez maksymalnie 30 dni w celu monitorowania nadużyć (jeśli użytkownik wyłączy opcję trenowania na danych). Użytkownik ma możliwość samodzielnego usunięcia konwersacji, wtedy dane nie są już wykorzystywane przez OpenAI. Informacje zapisane w pamięci długoterminowej są obecnie przechowywane bez ograniczeń, chyba że użytkownik samodzielnie usunie te informacje.

Czy dane są wykorzystywane do trenowania modelu: Domyślnie dane są wykorzystywane do trenowania modelu. Użytkownik ma możliwość wyłączenia trenowania modelu w ustawieniach. Dane użytkowników ChatGPT Team i Enterprise nie są wykorzystywane do trenowania modelu.

Gdzie są przechowywane dane: Dane użytkowników ChatGPT są przechowywane na serwerach OpenAI w chmurze. W przypadku klientów korporacyjnych (ChatGPT Enterprise) OpenAI oferuje opcje izolowanego przechowywania danych zgodne z normą SOC 2.

Czy dane są udostępnianie na zewnątrz: OpenAI deklaruje, że nie udostępnia danych użytkowników stronom trzecim bez ich wyraźnej zgody.

Gemini od Google

Zakres danych: dane dostarczane przez użytkownika, metadane, pliki cookies. Co istotne Gemini nie ma dostępu do danych z innych produktów od Google wykorzystywanych przez użytkownika, chyba, że użytkownik wyrazi zgodę na taką integrację danych. Gemini w przeciwieństwie do Chatgpt nie stosuje bezpośredniego profilowania użytkownika, nie tworzy zatem trwałego, indywidualnego profilu Twojej osoby i preferencji.

Okres przechowywania danych: Można przeglądać i usuwać przeszłe konwersacje w Gemini Apps Activity. Google informuje, że prompt i odpowiedź mogą być przechowywane nawet do trzech lat w określonych przypadkach. Zgodnie z udzielonymi przez Google informacjami „Konwersacje, które zostały sprawdzone lub opatrzone adnotacjami przez recenzentów (oraz powiązane dane, takie jak język, typ urządzenia, informacje o lokalizacji lub opinie) nie są usuwane, gdy usuwasz swoją aktywność w Gemini Apps, ponieważ są przechowywane osobno i nie są połączone z Twoim kontem Google. Zamiast tego są przechowywane przez okres do trzech lat.”

Czy dane są wykorzystywane do trenowania modelu: Domyślnie dane są wykorzystywane do trenowania modelu.Google oferuje możliwość zarządzania trenowaniem modelu na naszych danych. Aby zapobiec przeglądaniu przyszłych konwersacji lub ich wykorzystywaniu do ulepszania technologii uczenia maszynowego Google, należy wyłączyć Gemini Apps Activity .

Gdzie są przechowywane dane:  Dane użytkowników ChatGPT są przechowywane na serwerach OpenAI w chmurze. W przypadku klientów korporacyjnych (ChatGPT Enterprise) OpenAI oferuje opcje izolowanego przechowywania danych zgodne z normą SOC 2.

Czy dane są udostępnianie na zewnątrz: OpenAI deklaruje, że nie udostępnia danych użytkowników stronom trzecim bez ich wyraźnej zgody.

Copilot od Microsoft  

Zakres danych: Podczas korzystania z Copilota generowane są dane takie jak prompty użytkownika, odpowiedzi Copilota oraz metadane (np. znaczniki czasowe) Zbierane są informacje takie jak znaczniki czasowe, które pomagają w analizie i optymalizacji działania systemu. Dodatkowo Copilot uzyskuje dostęp do danych z aplikacji Microsoft 365, informacje z aplikacji takich jak Word, Excel i PowerPoint są wykorzystywane do dostarczania spersonalizowanych funkcji i sugestii.

Okres przechowywanie danych: Dane te są przechowywane zgodnie z ustawieniami miejsca przechowywania danych platformy Microsoft 365. Domyślnie, Microsoft 365 Copilot przechowuje dane z rozmów na czacie przez 18 miesięcy. Użytkownicy mają możliwość usunięcia pojedynczych konwersacji lub całej historii konwersacji.

Czy dane są wykorzystywane do trenowania modelu: Dane użytkowników nie są wykorzystywane do trenowania modeli AI.

Gdzie są przechowywane dane: Dane użytkowników są przechowywane w ramach środowiska Microsoft 365, w centrach danych Azure, zgodnie z granicami zgodności regionu (np. w UE). Dane z aplikacji Microsoft 365, są przechowywane osobno w ramach infrastruktury Microsoft 365. Copilot uzyskuje dostęp do tych danych tylko wtedy, gdy jest to konieczne do realizacji określonych zadań, takich jak generowanie odpowiedzi na zapytania użytkownika

Czy dane są udostępniane na zewnątrz: Microsoft deklaruje, że nie udostępnia danych użytkowników stronom trzecim bez ich wyraźnej zgody.

Claude od Anthropic

Zakres danych: dane dostarczane przez użytkownika, metadane, pliki cookies

Okres przechowywania danych: Anthropic automatycznie usuwa monity i dane wyjściowe użytkownika ze swoich systemów w ciągu 30 dni (chyba że są potrzebne dłużej ze względu na zapobieganie nadużyciom lub z przyczyn prawnych). W przypadku promptów oznaczony przez klasyfikatorów zaufania i bezpieczeństwa jako naruszający Politykę użytkowania, dane wejściowe i wyjściowe są przechowywane przez okres do 2 lat. Jeśli użytkownik usunie konwersację, zostanie ona natychmiast usunięta z aplikacji, a w ciągu 30 dni ze wszystkich systemów zaplecza. Bezpłatna wersja Claude nie posiada pamięci międzysesyjnej, tym samym dane użytkownika nie są profilowane.

Czy dane są wykorzystywane do trenowania modelu: Dane użytkownika nie są wykorzystywane do trenowania modeli.

Gdzie są przechowywane dane: Dane są przechowywane na bezpiecznych serwerach chmurowych Anthropic; mogą być przetwarzane globalnie i transferowane z zachowaniem odpowiednich zabezpieczeń prawnych (np. standardowych klauzul umownych dla transferów danych z UE).

Czy dane są udostępniane na zewnątrz: Anthropic deklaruje, że nie udostępnia danych użytkowników stronom trzecim bez ich wyraźnej zgody.

Bielik

Zakres danych: brak

Okres przechowywania danych:  Bielik nie przechowuje żadnych danych ani interakcji z użytkownikami. Wszystkie dane są przetwarzane w czasie rzeczywistym i nie są archiwizowane.

Czy dane są wykorzystywane do trenowania modelu: Dane z interakcji z użytkownikami nie są wykorzystywane do dalszego trenowania modelu. Bielik nie uczy się na bieżąco na podstawie nowych danych.

Gdzie są przechowywane dane: Dane nie są przechowywane

Czy dane są udostępniane na zewnątrz: Nie dotyczy, brak danych.

Meta AI

W przypadku Meta AI i modeli Llama w istocie bardzo trudno jest opisać zasady przetwarzania danych z uwagi na budowę technologiczną i obiektywnie niezrozumiałą politykę prywatności. Główna technologia za tym systemem to modele Llama (aktualnie Llama 2 i testowo Llama 3), ale produkty Meta AI to nie tylko czysty model Llama, ale także własne wewnętrzne rozszerzenia Mety. Meta AI jest wbudowana w funkcje aplikacji – czasami wyraźnie (np. dedykowany chat z Meta AI na Messengerze), a czasami „w tle” (np. inteligentne uzupełnianie wiadomości albo podpowiedzi na Instagramie). Należy rozróżnić dwa poziomy pierwszy to dedykowane interakcje z Meta AI – np. osobny czat z Meta AI, gdzie użytkownik wie, że rozmawia z systemem sztucznej inteligencji, oraz drugi – funkcje wsparcia w standardowych produktach – np. podpowiedzi, autouzupełnianie, automatyczne tagowanie zdjęć.

Zakres danych: dane dostarczane przez użytkownika, metadane, pliki cookies, dane użytkowników innych produktów od Meta.

Okres przechowywania danych: Meta nie ujawnia jednoznacznie okresu przechowywania danych użytkowników w kontekście modeli Llama.​

Czy dane są wykorzystywane do trenowania modelu: domyślnie dane mogą być wykorzystywane do ulepszania i trenowania Meta AI. Meta deklaruje, że oferuje użytkownikom możliwość ograniczenia wykorzystywania niektórych danych do trenowania modeli – ale ta opcja może nie być dostępna we wszystkich regionach albo dla wszystkich funkcji. Co więcej, Meta deklaruje, że dane zbierane w innych produktach takich jak facebook, instragram, Messenger są wykorzystywane do trenowania modeli AI, jednak nie wskazuje konkretnych zasad. Zgodni z najnowszym komunikatem Mety w tym zakresie „Nieustannie udoskonalamy SI w Meta. W tym celu chcemy, abyś wiedział(a), że będziemy wykorzystywać Twoje informacje publiczne, takie jak posty publiczne i komentarze z kont osób w wieku co najmniej 18 lat oraz Twoje interakcje z funkcjami SI w Meta. Będziemy wykorzystywać te informacje w oparciu o uzasadnione interesy w celu opracowywania i ulepszania generatywnych modeli sztucznej inteligencji dla SI w Meta. Przysługuje Ci prawo do sprzeciwu wobec wykorzystywania Twoich danych w tym celu. Jeśli prześlesz sprzeciw, wyślemy e-mail z potwierdzeniem, że nie będziemy wykorzystywać Twoich interakcji z funkcjami SI w Meta ani publicznych informacji z Produktów Meta do przyszłego opracowywania i ulepszania modeli generatywnej sztucznej inteligencji dla SI w Meta”. Przedstawione informacje wejdą w życie 27 maja 2025 roku.

Gdzie są przechowywane dane: Brak szczegółowych informacji na temat lokalizacji przechowywania danych związanych z modelami.

Czy dane są udostępniane na zewnątrz: Brak jednoznacznych informacji na temat udostępniania danych użytkowników stronom trzecim w kontekście modeli. Meta w swojej polityce prywatności zastrzega sobie prawo do udostępniania danych użytkowników podmiotom trzecim.

Mistral

Okres przechowywania danych: Dane wejściowe i wyjściowe z API są przechowywane przez 30 dni.​

Czy dane są wykorzystywane do trenowania modelu: Dane użytkowników nie są wykorzystywane do trenowania modeli Mistral.​

Gdzie są przechowywane dane: Dane są przechowywane na serwerach Mistral AI, z zastosowaniem standardów bezpieczeństwa, serwery znajdują się we Szwecji (obszar EOG).​

Czy dane są udostępniane na zewnątrz: Brak jednoznacznych informacji na temat udostępniania danych użytkowników stronom trzecim.

DeepSeek

Zakres danych: dane dostarczane przez użytkownika, metadane, pliki cookies, dane pozyskiwane z innych źródeł

Okres przechowywania danych: DeepSeek nie podaje konkretnych terminów przechowywania danych, Zgodnie z ich polityką prywatności „Przechowujemy Dane Osobowe tak długo, jak jest to konieczne do świadczenia naszych Usług i do innych celów określonych w niniejszej Polityce Prywatności. Przechowujemy również Dane Osobowe, gdy jest to konieczne do wypełnienia zobowiązań umownych i prawnych, gdy mamy uzasadniony interes biznesowy, aby to zrobić (taki jak ulepszanie i rozwijanie naszych Usług oraz zwiększanie ich bezpieczeństwa, ochrony i stabilności) oraz w celu wykonania lub obrony roszczeń prawnych. Okresy przechowywania będą się różnić w zależności od ilości, rodzaju i wrażliwości Danych Osobowych, celów, dla których wykorzystujemy Dane Osobowe, oraz wszelkich wymogów prawnych itp. Na przykład, gdy przetwarzamy Twoje Dane Osobowe, aby świadczyć Ci Usługi, przechowujemy te Dane Osobowe tak długo, jak długo masz konto. Te Dane Osobowe obejmują Twoje Dane Osobowe konta, Dane Osobowe wprowadzania i płatności. Jeśli naruszysz którykolwiek z naszych warunków, zasad lub wytycznych, możemy przechowywać Twoje Dane Osobowe w zakresie niezbędnym do przetworzenia naruszenia.” Zgodnie z deklaracją DeepSeek użytkownik ma możliwość usunięcia historii chatów. Dodatkowo DeepSeek deklaruje, że samodzielnie usuwa dane osobowe dzieci, dostarczone do modelu.

Czy dane są wykorzystywane do trenowania modelu: Dane użytkowników są wykorzystywane do trenowania modeli DeepSeek.​

Gdzie są przechowywane dane: Dane są przechowywane na serwerach zlokalizowanych w Chinach.​

Czy dane są udostępniane na zewnątrz: DeepSeek zastrzega sobie prawo do udostępniania danych użytkowników stronom trzecim w określonych sytuacjach.

Suno

Zakres danych: dane dostarczane przez użytkownika, metadane, pliki cookies

Okres przechowywania danych: Brak jednoznacznych informacji na temat okresu przechowywania danych użytkowników.​ Suno deklaruje samodzielnie usuwanie danych osobowych dzieci.

Czy dane są wykorzystywane do trenowania modelu: Suno wykorzystuje dane użytkowników do trenowania swoich modeli AI.​

Gdzie są przechowywane dane: Dane osobowe są przechowywane na serwerach w USA.

Czy dane są udostępniane na zewnątrz: Poza danymi, które użytkownicy Suno AI samodzielnie upubliczniają, dane osobowe mogą byś udostępniane dostawcom usług dla Suno. Dodatkowo dane mogą być udostępnianie dla celów prawnych i zgodności.

Wnioski

Zamieszczone w tym artykule zestawienie modeli pokazuje, że prywatność użytkownika w kontaktach z generatywną sztuczną inteligencją jest uwarunkowana bardziej konstrukcją technologiczną i polityką firmy, niż rzeczywistym wyborem użytkownika. Przez interakcje z AI przekazujemy nie tylko informacje, których jesteśmy świadomi, ale przy interakcjach z bardziej zaawansowanymi pod kątem profilowania użytkownika modelami przekazujemy także całą gamę pośrednich danych – o naszym stylu, myśleniu, emocjach, relacjach z rzeczywistością. Jeśli zatem mielibyśmy mówić o prywatności w dobie generatywnej AI, to nie jako o ochronie danych sensu stricto, ale jako o walce o strukturalną przejrzystość, prawo do realnego wyłączenia się z ekosystemu uczenia maszynowego i możliwość negocjowania warunków obecności w cyfrowym świecie.

 

 

 


Źródła:

https://ceriumnetworks.com/what-really-happens-to-your-gen-ai-data/

https://openai.com/pl-PL/policies/row-privacy-policy/

https://bielik.ai/polityka-prywatnosci/

https://www.facebook.com/privacy/policy/

https://help.mistral.ai/en/collections/280418-legal-security-and-data-privacy

https://cdn.deepseek.com/policies/en-US/deepseek-privacy-policy.html

https://suno.com/privacy/

https://learn.microsoft.com/pl-pl/copilot/microsoft-365/microsoft-365-copilot-privacy