Sztuczna inteligencja to nie tylko światłe rozwiązania, które z zasady mają ułatwiać nam wszystkim życie. Naukowcy z MIT opracowali właśnie pierwszego na świecie „sztucznego” psychopatę. Czy jest się czego bać?
Grupa naukowców z MIT upodobała sobie czarne scenariusze. Najpierw w 2016 roku stworzyli algorytm, który przerabia materiały wizualne na stylistykę horrorową, w 2017 zaprojektowali AI, które pisze horrory, a w 2018 „wypuścili” na świat pierwszego psychopatę.
Kiedy uczenie maszynowe jest ukierunkowane na zło
Imię psychopaty pochodzi od sławetnego Normana z filmu Psycho (Hitchcock, 1960). Norman to psychopata, którego stworzono w oparciu o modelowy schemat sztucznej inteligencji. W procesie „tworzenia” Normana, skorzystano z popularnego, deskryptywnego algorytmu AI, który ma za zadanie opisywać treści wizualne (obrazki, fotografie etc.). Naukowcy celowo wytrenowali sztuczną sieć neuronową na „zainfekowanej” bazie treningowej, która zawierała tzw. „graphic content”, czyli treści stricte powiązane z tematyką śmierci, zabójstw, morderstw itd. Następnie Normana poddano projekcyjnemu testowi dziesięciu plam atramentowych (Test Rorschacha), który jest jedną z metod wykrywania zaburzeń psychicznych. Jak nietrudno się domyślić, Norman wypadł dosyć słabo w porównaniu ze zdrową, sztuczną inteligencją (MSCOCO)
Wyniki możecie porównać sobie sami:
Pełen test porównawczy znajdziecie tutaj.
Obowiązkowe badania psychiatryczne dla robotów?
Warto wspomnieć, że test plam atramentowych dobrze wygląda na filmach, ale jego wartość naukowa jest dyskusyjna i metoda ta sama w sobie nie może być podstawą do pełnej diagnozy; pojawiają się też krytyczne głosy, że ma ona niewiele wspólnego z nauką, a raczej bliżej jest jej do pseudonauki. Nie będziemy tutaj rozstrzygać czy test ten jest miarodajny, ale wydaje się, że w nie tak całkiem odległej perspektywie, powstaną ośrodki badawcze / instytucje rządowe, które będą dopuszczać komercyjne rozwiązania AI do komercyjnego obiegu. Możemy sobie przecież dosyć łatwo wyobrazić sytuację rodem z horroru lub też filmu science fiction, kiedy to popularny na całym świecie robot ma ukryte predyspozycje psychopatyczne.
Brzmi to bardzo atrakcyjnie, ale rynek sztucznej inteligencji rozwija się bardzo dynamicznie i naiwnym byłoby wykluczenie takich tendencji, tym bardziej, że nauka nie raz i nie dwa służyła niekoniecznie etycznym celom. Przykładów na poparcie tej tezy jest niezliczona ilość, wystarczy tutaj wspomnieć chociażby wynalezienie bomby atomowej; nie trzeba też aż tak daleko szukać – całkiem niedawno naukowcy z Google’a protestowali przeciwko pracy nad rozwiązaniami dla Departamentu Obrony USA, gdzie to właśnie sztuczna inteligencja miała za zadanie podnieść skuteczność powietrznych ataków z użyciem dronów. Czy już wkrótce będziemy chodzić z naszymi robotami na badania kontrolne do roboto-psychologa? Czas pokaże, ale zanosi się, że tak właśnie będzie.