Wygląda na to, że już wkrótce firmy korzystające ze sztucznej inteligencji będą musiały szczególnie zadbać o środki zapobiegające nadużyciom. Komisja Europejska zaprezentowała bowiem nowe wytyczne dotyczące AI.
W poniedziałek światło dzienne ujrzały nowe wytyczne Komisji Europejskiej. Dotyczą one zasad wdrażania sztucznej inteligencji. Ich zadaniem jest zwiększenie zaufania do związanych z nią rozwiązań i zniwelować obawy dotyczące różnych kwestii, w tym etycznych.
Siedem wymagań
Grupa ekspertów wysokiego szczebla wskazała siedem kluczowych wymagań, po których spełnieniu można uznać system AI za godny zaufania. Są to:
- Ludzki nadzór– systemy sztucznej inteligencji nie powinny „zmniejszać, ograniczać ani wprowadzać w błąd autonomii człowieka”. Zamiast tego powinny wspierać go umożliwiając podejmowanie świadomych decyzji oraz promować fundamentalne prawa.
- Solidność i bezpieczeństwo – godna zaufania AI wymaga, aby algorytmy były bezpieczne, niezawodne i wystarczająco solidne, by poradzić sobie z błędami lub niespójnościami podczas wszystkich faz cyklu życia systemów sztucznej inteligencji.
- Prywatność i zarządzanie danymi – obywatele powinni mieć pełną kontrolę nad własnymi danymi i pewność, że ich dane nie będą wykorzystywane do wyrządzania im krzywdy lub dyskryminowania.
- Przejrzystość – należy zapewnić przejrzystość systemów sztucznej inteligencji. Ludzie muszą być świadomi, że wchodzą w interakcje z systemem AI i muszą być informowani o jego możliwościach i ograniczeniach.
- Różnorodność, brak dyskryminacji i sprawiedliwość – systemy sztucznej inteligencji powinny uwzględniać cały szereg ludzkich możliwości, umiejętności i wymagań. Powinny być dostępne dla wszystkich, niezależnie od niepełnosprawności i angażować zainteresowanych w całym ich cyklu życia.
- Dobrobyt społeczny i środowiskowy – systemy sztucznej inteligencji powinny być stosowane do pozytywnych zmian społecznych oraz poprawy zrównoważonego rozwoju i odpowiedzialności ekologicznej.
- Odpowiedzialność – należy wprowadzić mechanizmy zapewniające odpowiedzialność i rozliczalność za systemy sztucznej inteligencji i ich wyniki.
Globalna debata
Wytyczne są następstwem materiałów opublikowanych w grudniu 2018 roku. Już w czerwcu Komisja Europejska rozpocznie program pilotażowy z udziałem zainteresowanych z różnych sektorów i zgromadzi informacje zwrotne, a następnie oceni wynik kolejnych kroków na początku 2020 roku. Inicjatywa ta jest związana z globalną debatą m.in. na temat tego, kiedy i czy firmy powinny stawiać aspekty etyczne przed interesami biznesowymi.
Biorąc pod uwagę powyższe wytyczne, systemy AI powinny być zgodne z prawem, czyli przestrzegać wszystkich regulacji, etyczne, czyli przestrzegać zasad i wartości etycznych, a także solidne – zarówno z technicznego punktu widzenia, jak i uwzględniając środowisko społeczne.