W artykule
Ponad 800 wpływowych postaci świata nauki, technologii, mediów i religii podpisało się pod otwartym listem, w którym żądają całkowitego zakazu rozwoju tzw. superinteligencji — systemów zdolnych przewyższyć człowieka w większości zadań poznawczych.
Pod dokumentem, opublikowanym przez organizację Future of Life Institute (FLI), swoje nazwiska złożyli m.in. Steve Wozniak, współzałożyciel Apple’a, Geoffrey Hinton, laureat Nagrody Nobla w dziedzinie informatyki, książę Harry i księżna Meghan, miliarder Richard Branson, a także ojciec Paolo Benanti, doradca papieża Franciszka ds. sztucznej inteligencji.
Przeczytaj także: Polacy stworzyli aplikację MaksChroms do szybkiego szacowania dawek promieniowania
Zakaz rozwoju superinteligencji
Apel zatytułowany „Statement on Superintelligence” („Oświadczenie w sprawie superinteligencji”) to zaledwie jedno zdanie, ale bardzo wymowne:
Wzywamy do wprowadzenia zakazu rozwoju superinteligencji, który nie zostanie zniesiony przed osiągnięciem szerokiego konsensusu naukowego co do tego, że będzie to odbywać się w sposób bezpieczny i kontrolowany, oraz uzyskaniem silnego poparcia społecznego.
Autorzy listu przekonują, że obecny wyścig między firmami takimi jak OpenAI, Google DeepMind czy xAI nie ma nic wspólnego z demokratycznym mandatem i gwarancją bezpieczeństwa. Ich zdaniem, dążenie do stworzenia systemów zdolnych do samodzielnego myślenia może prowadzić do katastrofalnych skutków — od destabilizacji gospodarczej, przez utratę miejsc pracy, po ryzyko egzystencjalne dla całej ludzkości.
Społeczeństwo mówi „stop” – 64 proc. badanych chce wstrzymania prac
W oświadczeniu Future of Life Institute powołuje się na własne badania opinii publicznej przeprowadzone w Stanach Zjednoczonych. Wynika z nich, że zaledwie 5 proc. ankietowanych popiera szybki, nieuregulowany rozwój AI, podczas gdy aż 64 proc. uważa, że prace nad superinteligencją należy zawiesić, dopóki nie powstanie system bezpiecznych regulacji i skutecznych mechanizmów nadzoru. Natomiast 73 proc. chce dobrze opracowanych regulacji prawnych dotyczących zaawansowanej sztucznej inteligencji.
Na liście sygnatariuszy znalazły się osoby reprezentujące różne dziedziny – od naukowców, ludzi ze świata techniki po artystów i komentatorów medialnych.
To nie pierwszy apel tego typu. W 2023 roku podobne wezwanie do „pauzy” w rozwoju AI podpisał m.in. Elon Musk. Jednak nowy dokument idzie o krok dalej – nie prosi o refleksję, lecz żąda zakazu tworzenia systemów, które mogłyby przewyższyć człowieka.
Przeczytaj także: Channel 4 z prezenterką AI. Eksperyment jako głos w dyskusji o automatyzacji na rynku pracy
Superinteligencja to już nie jest wizja science fiction
Jeszcze kilka lat temu idea superinteligentnej AI brzmiała jak motyw z filmu science fiction. Dziś, w erze modeli językowych i robotyki wielu badaczy uważa, że osiągnięcie tego poziomu może być kwestią szybszą niż nam się wydaje.
Jednocześnie coraz częściej pojawiają się doniesienia o negatywnych skutkach już istniejących technologii: deepfejki, dezinformacja, uzależnienie od chatbotów czy problemy psychiczne związane z interakcją z AI. To sprawia, że pytanie o granice rozwoju staje się coraz bardziej palące – także w wymiarze etycznym i prawnym.
Czy świat zatrzyma wyścig z maszynami?
Na razie nic nie wskazuje na to, by Dolina Krzemowa zamierzała zwolnić. OpenAI, Meta, Google czy Anthropic nadal inwestują miliardy dolarów w rozwój coraz potężniejszych modeli. Jednocześnie Unia Europejska i ONZ przyspieszają prace nad regulacjami prawnymi, które mają chronić społeczeństwo przed skutkami niekontrolowanego postępu.
Ale jedno wydaje się pewne: po raz pierwszy tak szeroka i różnorodna grupa autorytetów mówi jednym głosem, domagając się demokratycznej kontroli nad sztuczną inteligencją.
Porozmawiaj z nami o sztucznej inteligencji
Dołącz do grupy "AI Business" na Facebooku
Polecamy e-book o AI
AI w marketingu – jak zwiększyć sprzedaż i zaangażowanie klientów?
Test Turinga: Czy AI jest już inteligentniejsze od człowieka?