X

Zapisz się na darmowy newsletter
AI Business

Bądź na bieżąco z możliwościami sztucznej inteligencji w biznesie. Zapisz się na bezpłatny newsletter.

Jak oszukać sztuczną inteligencję? To łatwe, ale też rodzi niebezpieczeństwa

Każdy z nas choć raz nabrał się na iluzję optyczną. Czy w taki sam sposób można oszukać sztuczną inteligencję? Jak dowodzą naukowcy Google’a, okazuje się, że tak i jest to prostsze niż mogłoby się nam z początku wydawać.

Podczas konferencji naukowej Neural Information Processing Systems w Long Beach w USA, grupa badaczy z Doliny Krzemowej zaprezentowała sposób na oszukanie inteligentnych systemów automatycznego rozpoznawania obiektów. W jaki sposób udało im się to zrobić?

Toster zamiast banana

Do „ataku” naukowcy Google’a wykorzystali wydrukowane stickery, które umieścili obok banana. Efekt był piorunujący –  zamiast banana, sztuczna inteligencja rozpoznała… toster, który był imitowany przez nalepkę. Co ważne, wcześniej AI bezproblemowo identyfikowało wspomniany owoc, ale gdy obok niego pojawiła się psychodeliczna nalepka, sztuczna inteligencja zgłupiała. Następnie obok banana i naklejki położono zdjęcie tostera, a algorytm dokładniej zinterpretował fałszywkę w postaci stickera.

Ludzie i maszyny popełniają błędy

Ludzki umysł w mechanizmie postrzegania i interpretowania obiektów wykorzystuje kognitywne skróty. Nasz mózg nie jest w stanie przetwarzać na raz wszystkich bodźców, więc upraszcza sobie ten proces (inaczej procesor by się przegrzał ;)) dlatego nabieramy się chociażby na iluzje optyczne. Sieci neuronowe w sztucznej inteligencji również stosują skróty kognitywne, dlatego naukowcom w prosty sposób udało się oszukać maszynę.

Inteligentne samochody i groźne naklejki

Podobne testy przeprowadzono we werześniu 2017 roku. Naukowcy z Waszyngtonu zastosowali podobny trik i udowodnili, że w bardzo prosty sposób można oszukać autonomiczne pojazdy. Na znaki drogowe nakleili stickery, które wprowadzały w błąd sztuczną inteligencję:

Źródło: Cornell University Library, https://arxiv.org/pdf/1707.08945

Przed producentami inteligentnych urządzeń pojawiło się kolejne wyzwanie. W mechanizmach rozpoznawania niezbędna będzie implementacja mechanizmów kontekstualnych, które będą odrzucać fałszywe informacje (w przypadku aut np. powiązanie mechanizmu postrzegania z aktualnymi mapami) tak żeby system od razu odrzucał np. znak ograniczenia prędkości do 50 km/h, gdy ten pojawi się na autostradzie. W inteligentnych pojazdach prawdopodobnie zostaną także zainstalowane czujniki lidarowe (LIDAR – ang. Light Detection and Ranging), które wykorzystują w procesie identyfikacji światło zamiast mikrofal.

Autonomia vs automatyka

Wizja w pełni zautomatyzowanego świata, w którym samochód sam prowadzi kierowcę do celu, a ten nie może nawet „symbolicznie” dodać gazu jest dla niektórych przerażająca. Łatwość z jaką sztuczną inteligencję można oszukać daje im kolejne argumenty „za”. Przeciwnicy automatyki łatwo jednak zapominają o statystykach wypadków i o tym, że człowiek bardzo często się myli, mimo że jego procesy poznawcze i mechanizm interpretacji rzeczywistości wydaje się być bardziej złożony i doskonalszy od maszyny.
Wraz z rozwojem sztucznej inteligencji powinno pojawiać się jak najwięcej badań dociekliwych naukowców (nie tylko po stronie producentów), które zminimalizują margines błędu i podatność na ataki hakerów.

Źródła:

  1. Robust Physical-World Attacks on Deep Learning Models, Ivan Evtimov, Kevin Eykholt i inni, University of Washignton, 2017.
  2. Adversial Patch, Tom B. Brown, Dandelion Mané i inni, 2017.

Porozmawiaj z nami o sztucznej inteligencji
Dołącz do grupy "AI Business" na Facebooku

(Visited 448 times, 1 visits today)

Newsletter
AI Business

Bądź na bieżąco z możliwościami sztucznej inteligencji w biznesie.
Zapisz się na bezpłatny newsletter.



Najnowsze artykuły - AI sztuczna inteligencja

Send this to a friend