Technologia
Sieć neuronowa czyta już fale mózgowe i odtwarza ludzkie myśli w czasie rzeczywistym

Naukowcy z rosyjskiej korporacji Neurobotics i Moscow Institute of Physics and Technology znaleźli sposób, by zwizualizować aktywność ludzkiego mózgu za pomocą obrazów natychmiast odtwarzających to, co zaobserwowały.

Dzięki temu możemy liczyć na nowy rodzaj urządzeń wspierających poudarową rehabilitację, kontrolowanych za pomocą fal mózgowych. Zespół opublikował swoje badania w bioRxiv i umieścił w sieci wideo pokazujące, w jaki sposób działa ich system odczytywania myśli. Jest to bardzo ważny krok, bo opracowanie sprzętu kontrolowanego falami mózgowymi i nowe terapie rehabilitacyjne wymagają od neurobiologów lepszego zrozumienia tego, w jaki sposób nasz mózg koduje informacje. Jedną z metod jest obserwacja aktywności mózgu osób, które poddawane są stymulacji informacjami wizualnymi, np. oglądających wideo.

Obecne rozwiązania ekstrakcji obserwowanych obrazów sygnałów mózgowych ograniczają się do rezonansu magnetycznego albo analizowania sygnałów z wszczepionych implantów, ale jak łatwo się domyślić, obie metody mają ograniczone możliwości zastosowania, zarówno w praktyce klinicznej, jak i codziennym życiu. I tu do akcji wkracza interfejs mózg-komputer opracowany przez MIPT i Neurobotics, który do nagrywania fal mózgowych wykorzystuje sieci neuronowe i elektroencefalografię/EEG, czyli wymaga jedynie przyłożenia do głowy nieinwazyjnych elektrod. Następnie, przez analizę aktywności mózgu, system rekonstruuje obrazy widziane przez człowieka w czasie rzeczywistym. 

Jak twierdzi Vladimir Konyshev, przewodzący Neurorobotics Lab w MIPT: - Pracujemy nad inicjatywą, która skupia się na interfejsie mózg-komputer, pozwalającym na przykład pacjentom po udarach kontrolować egzoszkieletową rękę w celach neurorehabilitacji albo sparaliżowanym pacjentom prowadzić elektryczny wózek inwalidzki. Nadrzędnym celem jest jednak zwiększenie dokładności neurokontroli także u osób zdrowych.

W pierwszej części eksperymentu naukowcy poprosili 20 zdrowych osób o oglądanie przez 20 minut 10-sekundowych fragmentów filmów na YouTube, które należały do 5 starannie wybranych kategorii - kształty abstrakcyjne, wodospady, ludzkie twarze, poruszające się mechanizmy i sporty motorowe, ale konkretnie pierwszoosobowe nagrania ze skuterów śnieżnych, wodnych, motocykli i wyścigów samochodowych. Przez analizę danych EEG udało się pokazać, że wzory fal mózgowych są różne dla każdej z tych kategorii, co pozwoliło badaczom analizować odpowiedź mózgu w czasie rzeczywistym.

W drugiej fazie eksperymentu wybrano 3 losowe kategorie z pięciu oryginalnych, a naukowcy opracowali dwie sieci neuronowe - jedną do generowania przypadkowych obrazów z danych kategorii na podstawie szumów i drugą do generowania podobnego szumu na podstawie EEG. Kolejnym krokiem było wytrenowanie obu sieci, aby działały wspólnie i zmieniały sygnał EEG w faktyczne obrazy, podobne do tych obserwowanych przez uczestników eksperymentu. Żeby przetestować skuteczność swojego rozwiązania, uczestnikom badania pokazano wcześniej niewidziane materiały wideo ze wskazanych kategorii i gdy je oglądali, EEG nagrywało fale mózgowe i „karmiło” sieci neuronowe, które były w stanie generować przekonujące obrazy, które w 90% przypadków z łatwością można było przypisać do wskazanej kategorii. Mówiąc krótko, eksperyment zakończył się pełnym sukcesem, naukowcy przełamali kolejne granice i tylko czekać, jak nowy system zacznie być stosowany w praktyce.

Źródło: GeekWeek.pl/techxplore/Fot. techxplore