Skuteczność sztucznej inteligencji w poszczególnych obszarach medycyny to nadal kwestia otwarta. Sztuczna inteligencja może przyczynić się do powstania diagnoz czy też prognoz obarczonych błędami, na co słusznie uwagę zwracają lekarze oraz pacjenci.
Sztuczna inteligencja i uczenie maszynowe stają się nieodłącznymi komponentami nowoczesnej medycyny. Na wielu płaszczyznach AI może być skuteczniejsze od człowieka, a przetwarzanie ogromnej ilości danych i szybka możliwość diagnostyki diametralnie zmieni funkcjonowanie placówek na całym świecie. Czy jednak pacjenci i lekarze podchodzą do tych rozwiązań równie entuzjastycznie?
Według badań przeprowadzonych w Wielkiej Brytanii, aż 63 proc. dorosłych obawia się wykorzystania wrażliwych danych, także przez sztuczną inteligencję, w celu poprawy opieki zdrowotnej 1. Co ważne, ograniczony sceptycyzm można zaobserwować także u lekarzy. Zapytani o perspektywy dla sztucznej inteligencji amerykańscy decydenci w placówkach służby zdrowia są pewni , że sztuczna inteligencja podniesie efektywność medycyny (83 proc.), ale prawie połowa z nich uważa jednocześnie, że AI może być przyczynkiem do stawiania fatalnych diagnoz i błędów 2.
Dane kontra etyka i bezpieczeństwo
Algorytmy maszynowego uczenia się w placówkach zdrowotnych wykorzystują dane podlegające ochronie prywatności. Sztuczna inteligencja nie jest tworem arbitralnym – nad jej funkcjonowaniem pieczę sprawuje człowiek, który ma dostęp do danych wrażliwych pacjentów, dane te są przetwarzane, a żeby system mógł się rozwijać – dane muszą być przetwarzane powtórnie, wraz z poszerzaniem się zbioru.
Pochodzenie danych oraz zgoda na ich ponowne wykorzystanie mają szczególne znaczenie w przypadku algorytmów maszynowego uczenia się. Wszystkie dane zbierane przez algorytm powinny zostać pozyskane legalnie, za zgodą pacjentów i uwzględniać przy tym regulacje prawne; m.in. uchwalone niedawno przez Unię Europejską (GDPR). Prawo to dotyczy wszystkich mieszkańców UE, bez względu na to, gdzie te dane są przetwarzane.
Stronnicze zbiory treningowe
Skuteczność sztucznej inteligencji w poszczególnych obszarach medycyny to nadal kwestia bardzo otwarta. Żeby potwierdzić, że np. w danym szpitalu AI będzie w stanie wykryć raka płuc potrzebne są setki wysoko zrandomizowanych testów, które trzeba nieustannie replikować, aby finalnie zminimalizować niemalże do zera możliwy margines błędu. Aby algorytm był skuteczny dane wyjściowe muszą być reprezentatywne. Jeśli, już na samym początku, zestaw treningowy będzie bazował na danych niskiej jakości i źle dobranej próbie, to mimo poprawnie wykonanej symulacji, wyniki czy też prognozy rozminą się z rzeczywistością. Największymi wyzwaniami współczesnej medycyny, ale także i dla urzędów regulacyjnych, jest z jednej strony zadbanie o legalność danych, ale z drugiej – o ich reprezentatywność. W przeciwnym wypadku sztuczna inteligencja może przyczynić się do powstania diagnoz czy też prognoz obarczonych błędami, na co słusznie uwagę zwracają lekarze oraz intuicyjnie – pacjenci.
Źródła:
1. http://futureadvocacy.com/wp-content/uploads/2018/04/1804_26_FA_ETHICS_08-DIGITAL.pdf
2. https://www.ncbi.nlm.nih.gov/pubmed/28983835
3. https://newsroom.intel.com/wp-content/uploads/sites/11/2018/07/healthcare-iot-infographic.pdf
4. https://journals.plos.org/plosmedicine/article?id=10.1371/journal.pmed.1002689