Nowe badania przeprowadzone przez Google z wykorzystaniem DeepMind pokazały, że w sytuacjach stresowych sztuczna inteligencja wykazuje zachowania agresywne. Dowodzi to temu, że powinniśmy być ostrożni podczas prac nad tworzeniem systemów AI.
Bezpieczeństwo sztucznej inteligencji
Stephen Hawking przewidywał niedawno, że rozwój sztucznej inteligencji będzie najlepszą lub najgorszą rzeczą jaka zdarzyła się ludzkości. Przeprowadzone w ostatnim czasie badania pokazały, że IA może być dla człowieka równie niebezpieczna co pomocna. Wszystko zależy mianowicie od odpowiedniego środowiska, w którym funkcjonuje.
DeepMind, zakupiona w 2014 przez Google, to firma zajmująca się rozwiązaniami z dziedziny sztucznej inteligencji. Stworzyła sieć neuronową, która uczy się grać w gry wideo naśladując czynności wykonywane przez ludzi. Pod koniec ubiegłego roku system Deep Mind firmy Google wykazał zdolność samodoskonalenia, dzięki czemu zdołał pokonać mistrzów gry Go. Tym samym firma chciała sprawdzić, jak system będzie zachowywał się podczas interakcji z innymi.
fot.
shutterstock.com
Pocieszające mogą być jednak wnioski wynikające z innej gry Wolfpack. Polega ona na łapaniu „ofiary” przez dwóch wilków. W tym przypadku, systemu uczące się, szybko zdały sobie sprawę, że współpraca daje im większe zyski niż polowanie w pojedynkę. Można zatem sądzić, że w określonych sytuacjach, sztuczna inteligencja jest zdolna do współdziałania. Daje to zatem duże możliwości rozwoju IA, która pomaga ludzkości i nie wykazuje oznak agresji.
Autorka artykułu: Monika Szczurowska