X

Zapisz się na darmowy newsletter
AI Business

Bądź na bieżąco z możliwościami sztucznej inteligencji w biznesie. Zapisz się na bezpłatny newsletter.

Sztuczna inteligencja dekoduje fale mózgowe

Najnowsze odkrycia naukowców z Columbia University mogą się stać przełomowe dla chorych, którzy stracili możliwość porozumiewania się na skutek udaru mózgu, stwardnienia rozsianego czy śpiączki.

Większość zna postać niedawno zmarłego wybitnego astrofizyka i kosmologa Stephena Hawkinga, chorego na stwardnienie zanikowe boczne. Hawking w ostatnich latach swojego barwnego życia porozumiewał się jedynie za pomocą grymasu policzka (w czym pomagało mu oprogramowanie NeoSpeech VoiceText). Podobnej tragedii doświadczył chociażby Jean-Dominique Bauby, francuski dziennikarz i redaktor ELLE, który napisał po wypadku i będąc sparaliżowany, bestsellerową książkę Skafander i motyl, jedynie za pomocą mrugnięcia oka.

Nie wszyscy jednak podzielają los najbardziej znanych. Osoby, które utraciły trwale umiejętność porozumiewania się na skutek udaru lub innej choroby mogą w sposób bardzo ograniczony komunikować się z otoczeniem, a proces formułowania zdań jest czasochłonny, dla wielu pacjentów mocno irytujący, co z kolei może prowadzić do pogorszenia się stanu chorego (depresja, rezygnacja z komunikowania się z otoczeniem, zamknięcie się w sobie).

Sztuczna inteligencja powie to, co niewypowiedziane

Dzięki sztucznej inteligencji, wydaje się, że nauka stoi już teraz na granicy kolejnego przełomu. Naukowcom z Columbia University udało się odkodować sygnały z mózgu, rekonstruując słowa i zdania zrozumiałe dla słuchaczy. Badacze poddali analizie danych od pięciu osób z epilepsją, u których kora słuchowa jest aktywna zarówno podczas mówienia, jak i słuchania. Pacjenci słyszeli wcześniej nagranie cyfr od zera do dziewięciu, a następnie komputer zrekonstruował dane „mówione” przez ludzką sieć neuronową (mózg). Skuteczność eksperymentu oceniono na 75%.

Podobne badania przeprowadzili neurolodzy z Holandii i Niemiec – Miguel Angrick z Uniwersytetu w Bremie w Niemczech i Christian Herff z Maastricht University w Holandii. Naukowcy, podczas operacji, podpięli do otwartego mózgu elektrody, a sztuczna sieć neuronowa odwzorowała odczyt z elektrod względem nagrań dźwiękowych i następnie zrekonstruowała słowa z wcześniej niewidocznych obszarów mózgu. Według algorytmicznego systemu punktacji około 40% słów wygenerowanych przez komputer było zrozumiałych.

Naukowcy z całego świata pracują nad udoskonaleniem „mapowania” fal mózgowych i poszczególnych połączeń neuronowych, aby jak najlepiej odwzorować mowę tylko na podstawie analizy fal. Należy jednak mieć na uwadze, że jest to bardzo skomplikowany proces, który jest obecnie (jeszcze, albo i już) w fazie rozwojowej. Wydaje się jednak kwestią czasu, kiedy sztuczna inteligencja, będzie w stanie sprawnie wychwycić niekoniecznie tylko to, co mówimy na głos. Z jednej strony tego typu odkrycia niosą ze sobą olbrzymi pozytywny ładunek, czyli stworzenie „protez mowy” dla osób chorych, z drugiej – zapewne przyjdzie się nam niedługo mierzyć z rodzajem cyberprzestępczości, której nawet nie jesteśmy sobie w stanie teraz dokładnie wyobrazić.

Źródła
Sciencemag.org
Biorxiv.org


Porozmawiaj z nami o sztucznej inteligencji
Dołącz do grupy "AI Business" na Facebooku

Newsletter
AI Business

Bądź na bieżąco z możliwościami sztucznej inteligencji w biznesie.
Zapisz się na bezpłatny newsletter.



Najnowsze artykuły - AI sztuczna inteligencja