X

Zapisz się na darmowy newsletter
AI Business

Bądź na bieżąco z możliwościami sztucznej inteligencji w biznesie. Zapisz się na bezpłatny newsletter.

Sztuczna inteligencja wyręczy psychoterapeutów?

Bolączki psychologii i psychoterapii są od lat te same – słabo ustrukturyzowane dane, mnogość szkół i metod terapeutycznych, których skuteczność jest słabo lub prawie w ogóle nieweryfikowalna. Czy algorytmy będą w stanie wyręczyć człowieka, który stworzył niedoskonały, pełen wad system?

Według metaanalizy z 2016 roku opublikowanej w „Psychological Bulletin”, która została przeprowadzona na przestrzeni ostatnich 50 lat, psychologia nie dokonała żadnego postępu w przewidywaniu aktów samobójstw1. Kolejne badania przekrojowe (jak chociażby Many Labs i Many Labs 2), mozolnie starają się odsiać ziarno od plew i jednocześnie pokazują, jak wiele w psychologii jest pseudonauki. Warto tytułem wstępu wspomnieć jeszcze o sławnym psychologu, mającym niemal status gwiazdy – Philiphie Zimbardo, którego eksperyment również nie przetrwał próby czasu i okazał się zwykłym oszustem, co przez przypadek odkrył francuski dokumentalista.

Mimo kryzysów, które psychologia przechodzi, są też obszary, w których próbuje się zastosować algorytmy i rozwiązania z pogranicza wykorzystania sztucznej inteligencji i maszynowego uczenia się. Przyjrzyjmy się najciekawszym rozwiązaniom, które udało się dotąd stworzyć naukowcom. Pominiemy tutaj historyczne algorytmy, takie jak np. ELIZA, czyli jeden z pierwszych inteligentnych rozmówców-terapeutów i skupimy się na subiektywnej , bardziej zaawansowanej trójce.

Ellie, avatar-terapeuta

Choć jest to algorytm, który ma już swoje lata, to mimo ubogiej interpretacji graficznej terapeuty, nadal robi spore wrażenie. Algorytm analizuje naszą mimikę, gesty, tembr głosu czy ruch gałek ocznych i prowadzi rozmowę, jak na klasycznej terapii. Badania wykazały, że weterani (którzy brali udział w pilotażu) cierpiący na zespół stresu pourazowego, chętniej odpowiadali na pytania cyfrowemu „człowiekowi” niż realnemu terapeucie. Osiągnięte wyniki przez algorytm znalazły uznanie wśród klinicystów, którzy byli pod wrażeniem skuteczności algorytmu i otwartości pacjentów podczas rozmowy z avatarem.

Woebot – nie lękaj się!

Jest to algorytm, który został stworzony dla młodych-dorosłych, którzy zmagają się ze stanami lękowymi i depresyjnymi, choć twórcy zachęcają do tego, aby z aplikacji korzystali także dorośli3. Algorytm działa w oparciu o metodykę terapii behawioralno-poznawczej, która jest najlepiej przebadaną metodą terapii, jeśli chodzi o jej skuteczność. Na podstawie interakcji z użytkownikiem, Woebot tworzy emocjonalny model rozmówcy i potrafi wskazać wzory postępowania.

Nad aplikacją pracowali psychologowie ze uniwersytetu Stanford, a wdrożenie działajacego modelu zajęło im aż 10 lat. Co ciekawe, algorytm ma wbudowaną „bazę” światopoglądową – jest agnostykiem. Zanim ściągniemy aplikację na smartfona możemy dokładnie zapoznać się z „kim” mamy do czynienia.

Badania nad skutecznością algorytmu potwierdziły, że Woebot całkiem nieźle radzi sobie z redukowaniem symptomów depresyjnych. Aplikacja jest narazie darmowa i dostępna na urządzenia z Androidem i iOS.

Stevie – zagraj ze mną w bingo

Stevie jest inteligentnym robotem i został zaprojektowany, aby pomagać starszym ludziom w aklimatyzacji – szczególnie w ośrodkach spokojnej starości. Porusza się swobodnie po placówce, ale przede wszystkim – aktywizuje społeczność np. poprzez… prowadzenie rozgrywek bingo.

Robot świetnie radzi sobie z interakcjami społecznymi i wsparciem starszych osób. Choć nie jest to psychoterapeuta per se, to na pewno Stevie wyręcza w wielu kwestiach empatycznego opiekuna, co w samo w sobie ma właściwości terapeutyczne, szczególnie dla tak specyficznej grupy odbiorców.

To tylko tak naprawdę skromny wyrywek styku sztucznej inteligencji z psychologią. Już teraz prowadzone są badania nad predykatywnymi metodami przewidywania prób samobójczych. Śmiało można stwierdzić, że to co przez 50 lat nie udało się dokonać człowiekowi, przy wsparciu algorytmów, staje się coraz bardziej realne5 (zainteresowanych odsyłam do źródeł). Pozostaje mieć jedynie nadzieje, że psychologowie i psychiatrzy przychylniej spojrzą na technologię, która nie jest im wroga, a wręcz przeciwnie – może realnie usprawnić ich pracę i dokonać tego, co wcześniej wydawało się niemożliwe.

Źródła

  1. American Psychological Association, After Decades of Research Science Is No Better Able to Predict Suicidal Behaviors, dostęp: 27.11.2019, 20:00.
  2. Tomasz Witkowski, Czego (dotychczas) nauczył mnie skandal wokół stanfordzkiego eksperymentu więziennego? dostęp: 27.11.2019, 20:10.
  3. Tomasz Witkowski, Wydawnictwo Bez Maski, Wrocław 2019, s. 270.
  4. Tamże, s. 271
  5. John Pestian, Henry Nasrallah, Paweł Matykiewicz, Aurora Bennett, Antoon Leenaars, Suicide Note Classification Using Natural Language Processing: A Content Analysis, dostęp: 27.11.2019, 20:20.

Porozmawiaj z nami o sztucznej inteligencji
Dołącz do grupy "AI Business" na Facebooku

Newsletter
AI Business

Bądź na bieżąco z możliwościami sztucznej inteligencji w biznesie.
Zapisz się na bezpłatny newsletter.



Najnowsze artykuły - AI sztuczna inteligencja