Algorytm służący wykrywaniu tzw. „fake newsów” nie zostanie udostępniony do szerokiego użytkowania. Okazuje się, że nie tylko świetnie je odnajduje, lecz na podstawie wprowadzonych danych jest w stanie samodzielnie je tworzyć.
Tak dobry, że aż niebezpieczny
OpenAI to inicjatywa zrzeszająca najlepszych specjalistów z całego świata, których celem jest tworzenie ogólnodostępnych sztucznych inteligencji działających dla dobra całej ludzkości. W ramach badań nad popularnym ostatnimi czasy zjawiskiem fałszywych informacji, udało im się stworzyć algorytm GPT2. Wykrywa on z bardzo dużą dokładnością krążące coraz częściej po internecie kłamstwa i manipulacje.
Okazało się jednak, że najnowszy wynalazek OpenAI jest tak dobry, że nie tylko bez problemu wykrywa celową dezinformację ale również… samodzielnie jest w stanie tworzyć zmanipulowany przekaz. W związku z tym twórcy GPT2 podjęli decyzję o jego nieudostępnianiu. Nie chcą oni, aby stał się przyczyną kolejnej, jeszcze większej fali “fake newsów”.
W toku przeprowadzanych testów okazało się, że algorytm doskonale radzi sobie nie tylko z analizą wczytywanych tekstów. Jest również w stanie dopisać do nich zakończenie, a nawet na ich podstawie tworzyć zupełnie nowe wiadomości. Dario Amodei pełniący rolę dyrektora badawczego OpenAI twierdzi, że GPT2 bije na głowę podobne systemy opracowane do tej pory. Pozwala na analizowanie nawet 12 razy większych modeli i 15 razy większych zestawów danych niż inne algorytmy.
Dla dobra ludzkości, GPT2 nie zostanie udostępniony
Powyższe oznacza, że wypuszczenie GPT2 do szerokiego zastosowania miałoby daleko idące negatywne skutki. Choć algorytm z jednej strony jest w stanie bezbłędnie rozpoznawać fałszywe wiadomości, jest również w stanie tworzyć zupełnie nowe ich zestawy. A to w rękach polityków, koncernów czy też zwykłych internetowych trolli byłoby potężnym narzędziem do szerzenia dezinformacji oraz propagandowych przekazów.