Według raportu The Global Gender Gap Report z 2017 roku, Polska znajduje się na 38 miejscu jeśli chodzi o nierówności na tle płci. Przed nami są takie państwa jak chociażby Albania, Estonia czy Mołdawia. Największe dysproporcje nadal występują w sferze ekonomicznej. Czy sztuczna inteligencja może pozytywnie wpłynąć na patologie globalnego rynku pracy?
Sztuczna inteligencja operuje zbiorami danych, które mogą mieć formę tekstową, wizualną lub dźwiękową. Wydaje się być kwestią czasu, kiedy konglomerat różnych zbiorów posłuży do powstania pierwszego na świecie robota-rekrutera i jego online’owej wersji. Zdalne rozmowy na kwalifikacyjne na Skype są powszechne, ale żaden rekruter nie jest w stanie prowadzić kilkunastu czy kilkudziesięciu rozmów naraz i dokonywać automatycznej preselekcji na podstawie CV. Dla sztucznej inteligencji do żaden problem – wystarczy odpowiednio wytrenować sieć neuronową i zapewnić jej wystarczającą moc obliczeniową.
Sztuczna inteligencja nie ma uprzedzeń?
Czy maszyna będzie w stanie pozyskać wartościowego kandydata? Z jednej strony, sztuczna inteligencja, przynajmniej w początkowych fazach rozwojowych tego typu oprogramowania, może mieć problem z odkryciem potencjału pracownika, tak jak zrobi to zawodowy rekruter. Z drugiej stront, AI nie będzie posiadała uprzedzeń i kulturowych klisz, którymi, mimo wszystko, wszyscy jesteśmy w mniejszym lub większym stopniu obciążeni. Oczywiście tak wyglądałoby to w świecie idealnym, a jak jest w praktyce?
Uprzedzone algorytmy
Niestety w rzeczywistości nie wygląda to tak kolorowo. Okazuje się, że algorytm napisany dla LinkedIN wyświetlał wysoko opłacane zlecenia częściej mężczyznom niż kobietom. Początkowi użytkownicy, którzy wyświetlali oferty byli mężczyznami i sztuczna inteligencja nauczyła się tej reguły, co w konsekwencji spowodowało dyskryminację kobiet.
Podobny problem miał Facebook i Microsoft. Dwie treningowe bazy danych z ogromną ilością obrazów okazały się (przez błąd ludzki) podatne na sterotypizację. Przykładowo – obrazy zakupów i prania były powiązane z kobietami, podczas gdy ilustracje związane z coachingiem i strzelaniem stanowiły głownie obrazy, na których występowali mężczyźni. W ten sposób sztuczna inteligencja nauczyła się przypisywać stereotypowe role społeczne powielając przy tym ludzkie błędy.
Weryfikacja kluczem do rozwiązania problemu nierówności
Jednym ze sposobów sprawdzania błędów systemowych jest testowanie skrajności. Metoda ta została zademonstrowana przez naukowca Anupam Datta, który zaprojektował program mający za zadanie wykluczyć faworyzowanie kandydatów ze względu na płeć. Algorytm został napisany dla hipotetycznej firmy, która zajmuje się przeprowadzkami i od swoich kandydatów w CV wymagała informacji o tym, ile pracownik jest w stanie udźwignąć. Następnie algorytm losowo zmieniał płeć i maksymalną wartość udźwigu. Jeśli na liście znajdowała się taka sama ilość kobiet, jak we wcześniejszej preselekcji, to znaczy, że algorytm działa poprawnie.
Sztuczna inteligencja będzie powielać ludzkie błędy, jeśli odpowiednio nie przygotujemy zabezpieczeń, które będą weryfikować dane. Powyższe rozwiązanie przykład pokazuje, że nie jest to zadanie awykonalne, ale błędy popełnione przez takich gigantów jak Facebook czy Microsoft są niepokojące i dają do myślenia.
Źródła
http://www3.weforum.org/docs/WEF_GGGR_2017.pdf
https://www.techrepublic.com/article/bias-in-machine-learning-and-how-to-stop-it/
https://theconversation.com/artificial-intelligence-could-reinforce-societys-gender-equality-problems-92631
https://www.weforum.org/reports/the-global-gender-gap-report-20