X

Zapisz się na darmowy newsletter
AI Business

Bądź na bieżąco z możliwościami sztucznej inteligencji w biznesie. Zapisz się na bezpłatny newsletter.

Killer Robots to bardzo niedaleka przyszłość. Czy jest się czego bać?

Sztuczna inteligencja ma służyć ludzkości – wykonywać za nas czasochłonne i skomplikowane obliczenia, odkrywać kosmos, poprawiać jakość życia czy podnosić efektywność służby zdrowia. Co się jednak stanie, gdy algorytmy sztucznej inteligencji zostaną na masową skalę wykorzystane np. przez wojsko i komercyjne firmy produkujące broń?

Przemysł zbrojeniowy zawsze chętnie korzystał z naukowego zaplecza, a niektóre wynalazki, jak chociażby GPS czy autonomiczne pojazdy przeniknęły z wojska do rzeczywistości cywilnej. Należy jednak pamiętać, że mariaże polityki, wojska i nauki kończyły się często tragicznie dla setek tysięcy ludzkich istnień. Wystarczy tutaj wspomnieć chociażby wynalezienie broni biologicznej, atomowej i całego spektrum środków służących do masowej zagłady.

Dystans pomiędzy fikcją a rzeczywistością się zmniejsza

W jednym z odcinków Black Mirror pokazana została dystopijna, ale niestety, nie tak wcale odległa wizja przyszłości, w której ludzkość zaprojektowała i wdrożyła inteligentne pszczoły-drony na skutek wymarcia tego gatunku. Urządzeniom potajemnie, na zlecenie ministerstwa obrony, zainstalowano system do rozpoznawania twarzy. Technologia ta, po shackowaniu, została potem wykorzystana przez terrorystę i pochłonęła setki tysięcy ofiar.

AI kontra etyka

Gwałtowny rozwój sztucznej inteligencji rodzi kolejne etyczne problemy oraz wyzwania. Mamy już całkiem sprawnie działający system rozpoznawania twarzy, mamy miniaturowe drony, a sztuczna inteligencja jest w stanie podejmować przemyślane i skuteczne decyzje szybciej niż człowiek… więc co za problem przyczepić do takiego miniaturowego urządzenia ładunek wybuchowy, stworzyć setki tysięcy takich urządzeń i dokonać planowej zagłady miasta?

Powyższy materiał to tylko przestroga (materiał jest fikcyjny), ale o tym, że jest się czego bać świat nauki oraz organizacje pozarządowe alarmują już od jakiegoś czasu – powstała inicjatywa Ban Lethal Autonomous Weapons, która monitoruje rynek broni autonomicznej i lobbuje za jej zakazaniem.

Naukowcy przestrzegają, że sztuczna inteligencja może odegrać zabójczą rolę w przyszłych konfliktach, a jej rozwój może w pewnym momencie totalnie wymknąć się z pod jakiejkolwiek kontroli. Nie chodzi tutaj o przesadne straszenie sztuczną inteligencją tylko stworzenie barier i regulacji, które powstrzymają nas przed wykorzystaniem sztucznej inteligencji do celów, które mogą zagrozić naszemu życiu.


Porozmawiaj z nami o sztucznej inteligencji w biznesie
Dołącz do grupy "AI Business" na Facebooku

Newsletter
AI Business

Bądź na bieżąco z możliwościami sztucznej inteligencji w biznesie.
Zapisz się na bezpłatny newsletter.



Najnowsze artykuły