X

Zapisz się na darmowy newsletter
AI Business

Bądź na bieżąco z możliwościami sztucznej inteligencji w biznesie. Zapisz się na bezpłatny newsletter.

Hakerzy są w stanie ukryć złośliwe oprogramowanie między sieciami neuronowymi

Niedawno badanie trójki naukowców z Cornell University, może mocno wpłynąć na rozwój sztucznej inteligencji. Odkryli oni bowiem, że jest możliwe ukrycie kodów hakerskich tak, aby nie wykryły ich systemy antywirusowe sztucznej inteligencji.

Co dokładnie odkryli badacze?

Jak się okazało, możliwe jest ukrycie złośliwego oprogramowania między sieciami neuronowymi AI. Co ciekawe, nie jest to nawet tak trudne, jak mogłoby się wydawać. Opisany eksperyment trójki naukowców, wykazał bowiem zadziwiające fakty na temat systemu antywirusowego AI. Jak się okazuje, w celu sprawdzenia jego działania, badacze wstrzyknęli złośliwe kody do sieci neuronowych na serwerze preprintów arXiv. Niestety, oprogramowanie nie tylko nie potrafiło go odnaleźć, ale również nie zmieniła się wydajność i sposób działania sztucznej inteligencji. Co to oznacza? Gdyby haker wykorzystał tę lukę, np. w celu nadużyć, istnieje bardzo duże prawdopodobieństwo, że nie zostałoby ono wykryte. Jak twierdzi trio z Cornell University, dzieje się tak, ponieważ wbrew pozorom, AI jest bardzo podobna do naszego, ludzkiego mózgu. A taki układ jest bardzo podatny na infiltracje przez obcy kod. Mimo to, nie zaburzają pracy urządzenia i nie wpływają na jakość wykonywanych działań.

Cyberataki

Wirus jest trudny do wykrycia, a liczba hakerów chcących włamać się do systemu AI rośnie. Przestępcy szukają już różnych dróg do tego, aby móc bez problemu przejąć te dane. Jednak i tu naukowcy uspokajają. Twierdzą oni, że samo dodanie złośliwego oprogramowania nie jest tak szkodliwe, jak mogłoby się to wydawać. Oprócz dodania kodu, hakerzy zmuszeni są znaleźć jeszcze dodatkowe metody na to, aby ten kod wdrożyć i wykonać. A to nie jest już takie proste. Przynajmniej w systemach przeszkolonych, na których został przeprowadzony eksperyment. A zapewne hakerzy bardziej skupiają swoją uwagę na tych niewyszkolonych i to właśnie ich systemy ochronne powinny zostać objęte odpowiednimi badaniami, kontrolą.

Eksperyment powinien również stać się wyjściową do tego, aby lepiej skupić się na zabezpieczeniach AI. Bo rzeczywiście, dziś wdrożenie kodów dla hakerów może być sztuką niełatwą. Ale wraz z rozwojem technologii, rozwija się również tryb pracy osób wykradających dane. A ponieważ powierzamy sztucznej inteligencji coraz więcej danych, praca nad systemami bezpieczeństwa wydaje się być priorytetem.


Porozmawiaj z nami o sztucznej inteligencji
Dołącz do grupy "AI Business" na Facebooku

Newsletter
AI Business

Bądź na bieżąco z możliwościami sztucznej inteligencji w biznesie.
Zapisz się na bezpłatny newsletter.



Najnowsze artykuły - AI sztuczna inteligencja

Send this to a friend