X

Zapisz się na darmowy newsletter
AI Business

Bądź na bieżąco z możliwościami sztucznej inteligencji w biznesie. Zapisz się na bezpłatny newsletter.

Sztuczna inteligencja powinna być zgodna z prawem, etyczna i solidna

Wygląda na to, że już wkrótce firmy korzystające ze sztucznej inteligencji będą musiały szczególnie zadbać o środki zapobiegające nadużyciom. Komisja Europejska zaprezentowała bowiem nowe wytyczne dotyczące AI.

W poniedziałek światło dzienne ujrzały nowe wytyczne Komisji Europejskiej. Dotyczą one zasad wdrażania sztucznej inteligencji. Ich zadaniem jest zwiększenie zaufania do związanych z nią rozwiązań i zniwelować obawy dotyczące różnych kwestii, w tym etycznych.

Siedem wymagań

Grupa ekspertów wysokiego szczebla wskazała siedem kluczowych wymagań, po których spełnieniu można uznać system AI za godny zaufania. Są to:

  • Ludzki nadzór– systemy sztucznej inteligencji nie powinny „zmniejszać, ograniczać ani wprowadzać w błąd autonomii człowieka”. Zamiast tego powinny wspierać go umożliwiając podejmowanie świadomych decyzji oraz promować fundamentalne prawa.
  • Solidność i bezpieczeństwo – godna zaufania AI wymaga, aby algorytmy były bezpieczne, niezawodne i wystarczająco solidne, by poradzić sobie z błędami lub niespójnościami podczas wszystkich faz cyklu życia systemów sztucznej inteligencji.
  • Prywatność i zarządzanie danymi – obywatele powinni mieć pełną kontrolę nad własnymi danymi i pewność, że ich dane nie będą wykorzystywane do wyrządzania im krzywdy lub dyskryminowania.
  • Przejrzystość – należy zapewnić przejrzystość systemów sztucznej inteligencji. Ludzie muszą być świadomi, że wchodzą w interakcje z systemem AI i muszą być informowani o jego możliwościach i ograniczeniach.
  • Różnorodność, brak dyskryminacji i sprawiedliwość – systemy sztucznej inteligencji powinny uwzględniać cały szereg ludzkich możliwości, umiejętności i wymagań. Powinny być dostępne dla wszystkich, niezależnie od niepełnosprawności i angażować zainteresowanych w całym ich cyklu życia.
  • Dobrobyt społeczny i środowiskowy – systemy sztucznej inteligencji powinny być stosowane do pozytywnych zmian społecznych oraz poprawy zrównoważonego rozwoju i odpowiedzialności ekologicznej.
  • Odpowiedzialność – należy wprowadzić mechanizmy zapewniające odpowiedzialność i rozliczalność za systemy sztucznej inteligencji i ich wyniki.

źródło: ec.europa.eu

Globalna debata

Wytyczne są następstwem materiałów opublikowanych w grudniu 2018 roku. Już w czerwcu Komisja Europejska rozpocznie program pilotażowy z udziałem zainteresowanych z różnych sektorów i zgromadzi informacje zwrotne, a następnie oceni wynik kolejnych kroków na początku 2020 roku. Inicjatywa ta jest związana z globalną debatą m.in. na temat tego, kiedy i czy firmy powinny stawiać aspekty etyczne przed interesami biznesowymi.

Biorąc pod uwagę powyższe wytyczne, systemy AI powinny być zgodne z prawem, czyli przestrzegać wszystkich regulacji, etyczne, czyli przestrzegać zasad i wartości etycznych, a także solidne – zarówno z technicznego punktu widzenia, jak i uwzględniając środowisko społeczne.


Porozmawiaj z nami o sztucznej inteligencji
Dołącz do grupy "AI Business" na Facebooku

Newsletter
AI Business

Bądź na bieżąco z możliwościami sztucznej inteligencji w biznesie.
Zapisz się na bezpłatny newsletter.



Najnowsze artykuły - AI sztuczna inteligencja