X

Zapisz się na darmowy newsletter
AI Business

Bądź na bieżąco z możliwościami sztucznej inteligencji w biznesie. Zapisz się na bezpłatny newsletter.

Powstał chatbot, który ma imitować nastolatka z problemami psychicznymi

Jeżeli ktoś decyduje się prosić o pomoc w związku z narastającymi problemami psychicznymi, należy do niego podejść w odpowiedni sposób. Wszystko po to, aby w miarę szybko móc zareagować. I właśnie dlatego, jednak z organizacji non-profit, postanowiła wdrożyć dość ciekawe rozwiązanie, oparte na AI.

Poznajcie Riley

Kim jest Riley? To młoda dziewczyna, która obecnie przechodzi kryzys psychiczny. Jest przedstawicielką osób LGBTQ+ i nie jest rozumiana przez większość społeczeństwa. Jednak istnieje coś, co odróżnia ją od ludzki – Riley to chatbot. Więc jeżeli wolontariusz w rozmowie z nią popełni błąd, nie odczyta sygnałów świadczących o załamaniu lub planach związanych z próbą samobójczą – nie będzie to skutkowało utratą ludzkiego życia. Pomysłodawcą takiego chatbota jest organizacja non-profit Trevor Project, która każdego dnia pomaga młodym ludziom LGBTQ+, np. za pomocą gorącej linii, zapobiegać problemom psychicznym, a nawet samobójstwom. W jaki sposób takie rozwiązanie może pomóc? Zespół doradców i wolontariuszy będzie musiał pierwotnie przejść szkolenie z empatii, wrażliwości i łagodzeniu eskalacji problemu. Całość działa na dość prostej zasadzie. Riley wysyła prośbę o pomoc, przedstawia konkretne argumenty, wolontariusz lub doradca reaguje. Kiedy rozmowa się kończy, symulator dokonuje transkrypcji, a następnie przesyła ją koordynatorom projektu w organizacji. Ci z kolei wracają do osoby szkolonej z feedbackiem i mówią co jeszcze należy poprawić.

O skuteczności chatbota

Osoby LGBTQ+ mogą prosić o pomoc z różnych powodów. Dlatego warto przygotować się na każdy możliwy scenariusz. Co więcej, jak czytamy w serwisie mashable.com, wolontariusze przyznali, że podczas komunikacji z Riley zapominali o tym, że prowadzą dialog z chatbotem, a nie rzeczywistą osobą. I nic w tym dziwnego, ponieważ specjaliści za pomocą uczenia maszynowego nauczyli chatbota języka naturalnego. A obecnie organizacja pracuje również nad innymi postaciami, które będą posiadały inne rodzaje doświadczeń życiowych, orientacji seksualnych, tożsamości płciowych i poziomy ryzyka. Wszystko po to, aby sprostać wzrastającej liczbie osób LGBTQ+, które coraz częściej myślą o samobójstwie. Jak bowiem pokazują badania, aż 88% wyoutowanych nastolatków LGBTQ+ nie jest akceptowanych przez rodzinę i znajomych, a aż 70% z nich ma myśli samobójcze. Dlatego każde wykorzystanie nowych technologii w ten sposób jest niezwykle potrzebne. Jeden fałszywy ruch w tej sprawie, może bowiem kosztować kogoś zdrowie, a nawet życie.


Porozmawiaj z nami o sztucznej inteligencji
Dołącz do grupy "AI Business" na Facebooku

Newsletter
AI Business

Bądź na bieżąco z możliwościami sztucznej inteligencji w biznesie.
Zapisz się na bezpłatny newsletter.



Najnowsze artykuły - AI sztuczna inteligencja

Send this to a friend