Sztuczna inteligencja Google’a opracowała system wykorzeniania mowy nienawiści z internetu. Niestety nie jest on całkowicie niezawodny. Okazuje się, że walcząc z mową nienawiści, działania AI mają charakter rasistowski. Jak to możliwe?
Na czym bazują algorytmy Google’a?
Sztuczna inteligencja posługuje się algorytmami, których zadaniem jest wykrywanie słów o znaczeniu pejoratywnym. Kiedy zostaną one wykryte, zadaniem sztucznej inteligencji jest ich usunięcie lub dodanie dodatkowej litery, która utrudni odbiór. Pierwszym krokiem do walki z mową nienawiści był, tzw. algorytm perspektywiczny Google’a. Oto zmiany, jakie następowały za jego następstwem:
Skąd AI wie, czym jest mowa nienawiści?
Wszystko za sprawa bazy danych, która została wprowadzona do sytemu sztucznej inteligencji. Kolejnym krokiem był trening. Naukowcy zbadali czy komunikaty są zrozumiałe dla maszyny na przykładzie 100 tysięcy tweetów.
Dodatkowo, algorytmy te potrafią również wykryć posty i komentarze, które dopiero zostaną opublikowane. Niestety na ten moment nie jest możliwe, aby sztuczna inteligencja nie traktowała języka jakim posługuje się ludność Afroamerykanów jako jednego z przejawów nienawiści. W rezultacie, możemy zatem zauważyć fakt, iż chcąc walczyć z mową nienawiści, algorytmy Google’a wygenerowały uprzedzenia przeciwko ciemnoskórym. Ironiczne jest to, że rasizm jest jednym z jej objawów, czyli Google stworzył coś, z czym sam walczy.
Sztuczna inteligencja a rasizm
W związku z brakiem możliwości odróżnienia odmiany języka angielskiego (AAVE) od mowy nienawiści – sztuczna inteligencja została posądzona o rasizm. Gdy jej algorytmy natrafią na język Afroamerykanów czyli AAVE, zmieniają go sugerując, iż są toksyczne i kwalifikują się do usunięcia. Jak zatem łatwo zauważyć, sztucznej inteligencji wciąż brakuje wrażliwości i zdrowego rozsądku, który posiada człowiek. Być może za jakiś czas, obok walki z mową nienawiści, sztuczna inteligencja będzie mogła podjąć również walkę z rasizmem.