Rozmowy z AI bez ochrony. Cyfrowa intymność nie istnieje? Co powiedział Altman?
W lipcu 2025 roku Altman publicznie ostrzegł, że rozmowy np. z ChatGPT – także te prowadzone na tematy osobiste, psychologiczne czy prawne – mogą być udostępniane. Zabraknie tu nie tylko tajemnicy zawodowej, ale także jakichkolwiek regulacji, które chroniłyby te dane w razie postępowania sądowego czy incydentu bezpieczeństwa. Co więcej, nawet usunięcie rozmów z historii nie gwarantuje, że znikną z baz danych operatorów modeli językowych.
Ludzie rozmawiają z ChatGPT o najbardziej intymnych sprawach swojego życia. Ale w przeciwieństwie do rozmowy z lekarzem czy prawnikiem, nie istnieje żadna gwarancja poufności – mówi Sam Altman, CEO OpenAI.
Luka prawna – system regulacyjny nie nadąża za potrzebą cyfrowej intymności
Zarówno w Unii Europejskiej, jak i w USA obowiązujące dziś przepisy koncentrują się na danych osobowych, nie obejmując wprost treści prowadzonej komunikacji z algorytmem. RODO i ePrivacy Directive w UE nie definiują relacji „człowiek–AI” jako podlegającej ochronie podobnej do relacji z lekarzem czy prawnikiem. W USA dodatkowym problemem pozostaje Section 230, który chroni operatorów przed odpowiedzialnością za treści tworzone przez użytkowników – ale nie reguluje bezpieczeństwa czatów z AI.
Jednocześnie sądy amerykańskie – jak w sprawie Garcia v. Character Technologies – coraz częściej orzekają, że wypowiedzi AI nie są objęte ochroną wynikającą z Pierwszej Poprawki Konstytucji USA. To pokazuje, że system prawa nie tylko nie chroni użytkownika, ale również nie chroni samej AI jako formy ekspresji.
Nowy paradygmat ochrony intymności cyfrowej
Eksperci i regulatorzy zgodnie wskazują na potrzebę utworzenia odrębnej kategorii prawnej – tzw. cyfrowego przywileju poufności. Dotyczyłby on rozmów z chatbotami wykorzystywanymi w kontekście zdrowotnym, psychologicznym, edukacyjnym czy prawnym. W praktyce oznaczałoby to konieczność stosowania analogicznych standardów, jak przy komunikacji z terapeutą, lekarzem lub radcą prawnym.
W Unii Europejskiej naturalną ścieżką byłoby włączenie takiego rozwiązania do reformowanej właśnie ePrivacy Regulation, której zakres mógłby zostać rozszerzony o AI. W USA – wzorem mogą być HIPAA (ochrona danych medycznych) lub attorney-client privilege, adaptowane do realiów cyfrowych.
Skala zagrożenia: cyfrowa prywatność zagrożona
Rosnąca liczba osób korzystających z AI jako wsparcia w sytuacjach kryzysowych – emocjonalnych, rodzinnych, zdrowotnych – staje się powodem do niepokoju. Jeśli dziś miliony użytkowników dzielą się swoimi problemami z AI, a nie istnieje żaden skuteczny mechanizm ochrony tych treści, zagrożenie dla ich prywatności, bezpieczeństwa psychicznego i reputacyjnego jest realne.
Z perspektywy biznesowej – brak gwarancji poufności może spowalniać wdrożenia AI w firmach doradczych, HR, edukacji i zdrowiu. Firmy nie mogą zapewnić użytkownikom zgodnego z etyką, zaufanego środowiska pracy z AI – co w dłuższej perspektywie oznacza utracone szanse rynkowe.
Cyfrowa intymność: co mogą zrobić regulatorzy i firmy?
Po pierwsze, Unia Europejska powinna doprecyzować przepisy ePrivacy i RODO tak, by obejmowały relacje człowieka z AI w sytuacjach wrażliwych. Po drugie, sektor prywatny może i powinien wyprzedzić prawo, wdrażając systemy anonimizacji danych, polityki informacyjne i mechanizmy zgłaszania nadużyć. Po trzecie – potrzebna jest nowa etyka AI, oparta na zaufaniu i odpowiedzialności technologicznej.
Cyfrowa intymność to zjawisko, którego nie można już ignorować. Prawna ochrona rozmów z AI to nie tylko kwestia prywatności, ale też zaufania społecznego do technologii. Jeżeli prawo nie nadąży za zmianami – ucierpią zarówno użytkownicy, jak i rozwój rynku AI. A zaufanie raz utracone w cyfrowym świecie, odzyskać jest wyjątkowo trudno.