Jeszcze do niedawna jedno polecenie w Google (site:chatgpt.com/share) wystarczało, by przeglądać publicznie dostępne rozmowy użytkowników z ChatGPT.
Niektóre były błahe: porady remontowe, przepisy kulinarne, zabawne historie. Inne? Już niekoniecznie. Były to: emocjonalne wyznania, szczegóły życia prywatnego, numery telefonów, a nawet imiona i nazwiska dzieci.
Trafiały tam dlatego, że użytkownicy, nieświadomie lub przez brak zrozumienia funkcji, klikali przycisk „Udostępnij” i generowali link do swojej rozmowy, który mógł być zaindeksowany przez wyszukiwarki.
Przeczytaj także: Strategiczne sektory rozwoju AI dla Polski: nowe priorytety wg raportu Polskiego Instytutu Ekonomicznego
Eksperyment OpenAI
OpenAI przyznało, że był to eksperyment. Problem w tym, że linki generowane przez użytkowników były domyślnie publiczne, jeśli nie zaznaczyli opcji „ograniczona widoczność”. Dla wielu, nieświadomych technicznych niuansów, oznaczało to automatyczne wystawienie treści rozmowy na widok całego internetu.
Technicznie rzecz biorąc, użytkownicy wyrażali zgodę, klikając przycisk i nie zmieniając ustawień. Jednak z punktu widzenia prywatności i zaufania do narzędzi AI sytuacja okazała się krytyczna.
Przeczytaj także: Bezprecedensowa fala cyberzagrożeń napędzanych AI. Nowe realia dla biznesu
OpenAI reaguje. Za późno?
Po nagłośnieniu sprawy przez media i użytkowników OpenAI ogłosiło wycofanie eksperymentu. Funkcja indeksowania linków przez wyszukiwarki została dezaktywowana, a firma rozpoczęła proces usuwania z Google zindeksowanych czatów.
Choć firma podkreśla, że nie przechowuje danych z udostępnionych czatów w sposób umożliwiający ich identyfikację (m.in. imion, nazwisk czy własnych instrukcji dla modelu), to wielu użytkowników w samych rozmowach przekazało wrażliwe dane, które raczej nie powinny trafić do szerszej publiki.
Konkurencja rośnie. Prywatność jako nowy wyróżnik
W odpowiedzi na rosnące obawy, alternatywni dostawcy chatbotów próbują zdobyć zaufanie użytkowników dzięki transparentności i prywatności. Szwajcarski Proton, znany z szyfrowanych usług mailowych, uruchomił własnego chatbota Lumo, który działa w pełni lokalnie, bez przechowywania danych, a jego kod źródłowy jest dostępny publicznie.
Afera z udostępnianiem rozmów przez ChatGPT to ważne ostrzeżenie – zarówno dla użytkowników, jak i twórców technologii. Funkcja „Udostępnij” była prostym narzędziem, które w założeniu miało służyć współpracy. W praktyce stała się potencjalnym źródłem wycieku danych.
To lekcja o tym, że korzystanie z narzędzi AI wymaga cyfrowej świadomości i ostrożności. Bo internet, jak wiadomo, nigdy nie zapomina.
Porozmawiaj z nami o sztucznej inteligencji
Dołącz do grupy "AI Business" na Facebooku
Polecamy e-book o AI
AI w marketingu – jak zwiększyć sprzedaż i zaangażowanie klientów?
Test Turinga: Czy AI jest już inteligentniejsze od człowieka?