X

Zapisz się na darmowy newsletter
AI Business

Bądź na bieżąco z możliwościami sztucznej inteligencji w biznesie. Zapisz się na bezpłatny newsletter.

Sztuczna Inteligencja wykazuje agresywne zachowania

Nowe badania przeprowadzone przez Google z wykorzystaniem DeepMind pokazały, że w sytuacjach stresowych sztuczna inteligencja wykazuje zachowania agresywne. Dowodzi to temu, że powinniśmy być ostrożni podczas prac nad tworzeniem systemów AI.

Bezpieczeństwo sztucznej inteligencji

Stephen Hawking przewidywał niedawno, że rozwój sztucznej inteligencji będzie najlepszą lub najgorszą rzeczą jaka zdarzyła się ludzkości. Przeprowadzone w ostatnim czasie badania pokazały, że IA może być dla człowieka równie niebezpieczna co pomocna. Wszystko zależy mianowicie od odpowiedniego środowiska, w którym funkcjonuje.

DeepMind, zakupiona w 2014 przez Google, to firma zajmująca się rozwiązaniami z dziedziny sztucznej inteligencji. Stworzyła sieć neuronową, która uczy się grać w gry wideo naśladując czynności wykonywane przez ludzi. Pod koniec ubiegłego roku system Deep Mind firmy Google wykazał zdolność samodoskonalenia, dzięki czemu zdołał pokonać mistrzów gry Go. Tym samym firma chciała sprawdzić, jak system będzie zachowywał się podczas interakcji z innymi.

fot. shutterstock.com

Tym razem IA zmierzył się w grze Gathering. Jak podaje Sciencealert konkurencja polega na tym, która z grup zbierze najwięcej owoców. Istotne jest, że gra umożliwia użycie „wiązki lasera”, która eliminuje przeciwników. Rozgrywka przebiegała bez zakłóceń, dopóki nie dochodziło do konfrontacji z wirtualnym rywalem. Gdy jedna z grup traciła przewagę, DeepMind stał się bardziej agresywny i bezwzględny – chętnie używał lasera, aby wyeliminować przeciwnika i tym samym zebrać jak najwięcej owoców. Istotne jest to, że zasady nie przewidują żadnych dodatkowych punktów za wyeliminowanie rywala. Umożliwia jedynie wykluczenie go z gry na określony czas, co pozwala na zdobycie większej ilości owoców. Takie zachowanie DeepMind było dla badaczy zaskoczeniem – podaje Sciencealert. Mniej inteligentne systemy rezygnowały z agresywnych rozwiań, przez co gra zwykle kończyła się remisem.

Pocieszające mogą być jednak wnioski wynikające z innej gry Wolfpack. Polega ona na łapaniu „ofiary” przez dwóch wilków. W tym przypadku, systemu uczące się, szybko zdały sobie sprawę, że współpraca daje im większe zyski niż polowanie w pojedynkę. Można zatem sądzić, że w określonych sytuacjach, sztuczna inteligencja jest zdolna do współdziałania. Daje to zatem duże możliwości rozwoju IA, która pomaga ludzkości i nie wykazuje oznak agresji.

Autorka artykułu: Monika Szczurowska


Porozmawiaj z nami o sztucznej inteligencji
Dołącz do grupy "AI Business" na Facebooku

Newsletter
AI Business

Bądź na bieżąco z możliwościami sztucznej inteligencji w biznesie.
Zapisz się na bezpłatny newsletter.



Najnowsze artykuły - AI sztuczna inteligencja