1 chapter done, i hope
This commit is contained in:
parent
91af951f30
commit
52f6bba313
326
.gitignore
vendored
Normal file
326
.gitignore
vendored
Normal file
@ -0,0 +1,326 @@
|
|||||||
|
## Core latex/pdflatex auxiliary files:
|
||||||
|
*.aux
|
||||||
|
*.lof
|
||||||
|
*.log
|
||||||
|
*.lot
|
||||||
|
*.fls
|
||||||
|
*.out
|
||||||
|
*.toc
|
||||||
|
*.fmt
|
||||||
|
*.fot
|
||||||
|
*.cb
|
||||||
|
*.cb2
|
||||||
|
.*.lb
|
||||||
|
|
||||||
|
## Intermediate documents:
|
||||||
|
*.dvi
|
||||||
|
*.xdv
|
||||||
|
*-converted-to.*
|
||||||
|
# these rules might exclude image files for figures etc.
|
||||||
|
# *.ps
|
||||||
|
# *.eps
|
||||||
|
# *.pdf
|
||||||
|
|
||||||
|
## Generated if empty string is given at "Please type another file name for output:"
|
||||||
|
.pdf
|
||||||
|
|
||||||
|
## Bibliography auxiliary files (bibtex/biblatex/biber):
|
||||||
|
*.bbl
|
||||||
|
*.bbl-SAVE-ERROR
|
||||||
|
*.bcf
|
||||||
|
*.bcf-SAVE-ERROR
|
||||||
|
*.blg
|
||||||
|
*-blx.aux
|
||||||
|
*-blx.bib
|
||||||
|
*.run.xml
|
||||||
|
|
||||||
|
## Build tool auxiliary files:
|
||||||
|
*.fdb_latexmk
|
||||||
|
*.synctex
|
||||||
|
*.synctex(busy)
|
||||||
|
*.synctex.gz
|
||||||
|
*.synctex.gz(busy)
|
||||||
|
*.pdfsync
|
||||||
|
*.rubbercache
|
||||||
|
rubber.cache
|
||||||
|
|
||||||
|
## Build tool directories for auxiliary files
|
||||||
|
# latexrun
|
||||||
|
latex.out/
|
||||||
|
|
||||||
|
## Auxiliary and intermediate files from other packages:
|
||||||
|
# algorithms
|
||||||
|
*.alg
|
||||||
|
*.loa
|
||||||
|
|
||||||
|
# achemso
|
||||||
|
acs-*.bib
|
||||||
|
|
||||||
|
# amsthm
|
||||||
|
*.thm
|
||||||
|
|
||||||
|
# attachfile2
|
||||||
|
*.atfi
|
||||||
|
|
||||||
|
# beamer
|
||||||
|
*.nav
|
||||||
|
*.pre
|
||||||
|
*.snm
|
||||||
|
*.vrb
|
||||||
|
|
||||||
|
# changes
|
||||||
|
*.soc
|
||||||
|
*.loc
|
||||||
|
|
||||||
|
# comment
|
||||||
|
*.cut
|
||||||
|
|
||||||
|
# cprotect
|
||||||
|
*.cpt
|
||||||
|
|
||||||
|
# elsarticle (documentclass of Elsevier journals)
|
||||||
|
*.spl
|
||||||
|
|
||||||
|
# endnotes
|
||||||
|
*.ent
|
||||||
|
|
||||||
|
# fixme
|
||||||
|
*.lox
|
||||||
|
|
||||||
|
# feynmf/feynmp
|
||||||
|
*.mf
|
||||||
|
*.mp
|
||||||
|
*.t[1-9]
|
||||||
|
*.t[1-9][0-9]
|
||||||
|
*.tfm
|
||||||
|
|
||||||
|
#(r)(e)ledmac/(r)(e)ledpar
|
||||||
|
*.end
|
||||||
|
*.?end
|
||||||
|
*.[1-9]
|
||||||
|
*.[1-9][0-9]
|
||||||
|
*.[1-9][0-9][0-9]
|
||||||
|
*.[1-9]R
|
||||||
|
*.[1-9][0-9]R
|
||||||
|
*.[1-9][0-9][0-9]R
|
||||||
|
*.eledsec[1-9]
|
||||||
|
*.eledsec[1-9]R
|
||||||
|
*.eledsec[1-9][0-9]
|
||||||
|
*.eledsec[1-9][0-9]R
|
||||||
|
*.eledsec[1-9][0-9][0-9]
|
||||||
|
*.eledsec[1-9][0-9][0-9]R
|
||||||
|
|
||||||
|
# glossaries
|
||||||
|
*.acn
|
||||||
|
*.acr
|
||||||
|
*.glg
|
||||||
|
*.glg-abr
|
||||||
|
*.glo
|
||||||
|
*.glo-abr
|
||||||
|
*.gls
|
||||||
|
*.gls-abr
|
||||||
|
*.glsdefs
|
||||||
|
*.lzo
|
||||||
|
*.lzs
|
||||||
|
*.slg
|
||||||
|
*.slo
|
||||||
|
*.sls
|
||||||
|
|
||||||
|
# uncomment this for glossaries-extra (will ignore makeindex's style files!)
|
||||||
|
# *.ist
|
||||||
|
|
||||||
|
# gnuplot
|
||||||
|
*.gnuplot
|
||||||
|
*.table
|
||||||
|
|
||||||
|
# gnuplottex
|
||||||
|
*-gnuplottex-*
|
||||||
|
|
||||||
|
# gregoriotex
|
||||||
|
*.gaux
|
||||||
|
*.glog
|
||||||
|
*.gtex
|
||||||
|
|
||||||
|
# htlatex
|
||||||
|
*.4ct
|
||||||
|
*.4tc
|
||||||
|
*.idv
|
||||||
|
*.lg
|
||||||
|
*.trc
|
||||||
|
*.xref
|
||||||
|
|
||||||
|
# hypdoc
|
||||||
|
*.hd
|
||||||
|
|
||||||
|
# hyperref
|
||||||
|
*.brf
|
||||||
|
|
||||||
|
# knitr
|
||||||
|
*-concordance.tex
|
||||||
|
# TODO Uncomment the next line if you use knitr and want to ignore its generated tikz files
|
||||||
|
# *.tikz
|
||||||
|
*-tikzDictionary
|
||||||
|
|
||||||
|
# latexindent will create succesive backup files by default
|
||||||
|
#*.bak*
|
||||||
|
|
||||||
|
# listings
|
||||||
|
*.lol
|
||||||
|
|
||||||
|
# luatexja-ruby
|
||||||
|
*.ltjruby
|
||||||
|
|
||||||
|
# makeidx
|
||||||
|
*.idx
|
||||||
|
*.ilg
|
||||||
|
*.ind
|
||||||
|
|
||||||
|
# minitoc
|
||||||
|
*.maf
|
||||||
|
*.mlf
|
||||||
|
*.mlt
|
||||||
|
*.mtc[0-9]*
|
||||||
|
*.slf[0-9]*
|
||||||
|
*.slt[0-9]*
|
||||||
|
*.stc[0-9]*
|
||||||
|
|
||||||
|
# minted
|
||||||
|
_minted*
|
||||||
|
*.data.minted
|
||||||
|
*.pyg
|
||||||
|
|
||||||
|
# morewrites
|
||||||
|
*.mw
|
||||||
|
|
||||||
|
# newpax
|
||||||
|
*.newpax
|
||||||
|
|
||||||
|
# nomencl
|
||||||
|
*.nlg
|
||||||
|
*.nlo
|
||||||
|
*.nls
|
||||||
|
|
||||||
|
# pax
|
||||||
|
*.pax
|
||||||
|
|
||||||
|
# pdfpcnotes
|
||||||
|
*.pdfpc
|
||||||
|
|
||||||
|
# sagetex
|
||||||
|
*.sagetex.sage
|
||||||
|
*.sagetex.py
|
||||||
|
*.sagetex.scmd
|
||||||
|
|
||||||
|
# scrwfile
|
||||||
|
*.wrt
|
||||||
|
|
||||||
|
# spelling
|
||||||
|
*.spell.bad
|
||||||
|
*.spell.txt
|
||||||
|
|
||||||
|
# svg
|
||||||
|
svg-inkscape/
|
||||||
|
|
||||||
|
# sympy
|
||||||
|
*.sout
|
||||||
|
*.sympy
|
||||||
|
sympy-plots-for-*.tex/
|
||||||
|
|
||||||
|
# pdfcomment
|
||||||
|
*.upa
|
||||||
|
*.upb
|
||||||
|
|
||||||
|
# pythontex
|
||||||
|
*.pytxcode
|
||||||
|
pythontex-files-*/
|
||||||
|
|
||||||
|
# tcolorbox
|
||||||
|
*.listing
|
||||||
|
|
||||||
|
# thmtools
|
||||||
|
*.loe
|
||||||
|
|
||||||
|
# TikZ & PGF
|
||||||
|
*.dpth
|
||||||
|
*.md5
|
||||||
|
*.auxlock
|
||||||
|
|
||||||
|
# titletoc
|
||||||
|
*.ptc
|
||||||
|
|
||||||
|
# todonotes
|
||||||
|
*.tdo
|
||||||
|
|
||||||
|
# vhistory
|
||||||
|
*.hst
|
||||||
|
*.ver
|
||||||
|
|
||||||
|
# easy-todo
|
||||||
|
*.lod
|
||||||
|
|
||||||
|
# xcolor
|
||||||
|
*.xcp
|
||||||
|
|
||||||
|
# xmpincl
|
||||||
|
*.xmpi
|
||||||
|
|
||||||
|
# xindy
|
||||||
|
*.xdy
|
||||||
|
|
||||||
|
# xypic precompiled matrices and outlines
|
||||||
|
*.xyc
|
||||||
|
*.xyd
|
||||||
|
|
||||||
|
# endfloat
|
||||||
|
*.ttt
|
||||||
|
*.fff
|
||||||
|
|
||||||
|
# Latexian
|
||||||
|
TSWLatexianTemp*
|
||||||
|
|
||||||
|
## Editors:
|
||||||
|
# WinEdt
|
||||||
|
*.bak
|
||||||
|
*.sav
|
||||||
|
|
||||||
|
# latexindent.pl
|
||||||
|
*.bak[0-9]*
|
||||||
|
|
||||||
|
# Texpad
|
||||||
|
.texpadtmp
|
||||||
|
|
||||||
|
# LyX
|
||||||
|
*.lyx~
|
||||||
|
|
||||||
|
# Kile
|
||||||
|
*.backup
|
||||||
|
|
||||||
|
# gummi
|
||||||
|
.*.swp
|
||||||
|
|
||||||
|
# KBibTeX
|
||||||
|
*~[0-9]*
|
||||||
|
|
||||||
|
# TeXnicCenter
|
||||||
|
*.tps
|
||||||
|
|
||||||
|
# auto folder when using emacs and auctex
|
||||||
|
./auto/*
|
||||||
|
*.el
|
||||||
|
|
||||||
|
# expex forward references with \gathertags
|
||||||
|
*-tags.tex
|
||||||
|
|
||||||
|
# standalone packages
|
||||||
|
*.sta
|
||||||
|
|
||||||
|
# Makeindex log files
|
||||||
|
*.lpz
|
||||||
|
|
||||||
|
# xwatermark package
|
||||||
|
*.xwm
|
||||||
|
|
||||||
|
# REVTeX puts footnotes in the bibliography by default, unless the nofootinbib
|
||||||
|
# option is specified. Footnotes are the stored in a file with suffix Notes.bib.
|
||||||
|
# Uncomment the next line to have this generated file ignored.
|
||||||
|
#*Notes.bib
|
||||||
@ -0,0 +1,3 @@
|
|||||||
|
\chapter*{Введение}
|
||||||
|
\addcontentsline{toc}{chapter}{Введение}
|
||||||
|
|
||||||
272
chapters/01_bmi.tex
Normal file
272
chapters/01_bmi.tex
Normal file
@ -0,0 +1,272 @@
|
|||||||
|
\chapter{Brain-machine Interface (BMI)}
|
||||||
|
\addcontentsline{toc}{chapter}{Brain-Machine Interface (BMI)}
|
||||||
|
|
||||||
|
Давайте начнем с определения и терминологии.
|
||||||
|
Что такое Brain-Machine interface (далее BMI или ИМК (интерфейс машина-компьютер))?
|
||||||
|
|
||||||
|
|
||||||
|
\begin{tabular}{|p{0.9\textwidth}}
|
||||||
|
BMI - технология, которая предоставляет \textbf{прямой интерфейс взаимодействия между мозгом и некоторым электронным устройством} (компьютером, протезом, экзоскелетом и далее). Интерфейс построен на считывании нейронной активности мозга, которую он пытается декодировать в некоторые команды, которые человек хочет послать устройству, минуя мышечную активность.
|
||||||
|
\end{tabular}
|
||||||
|
|
||||||
|
\begin{figure}[h!]
|
||||||
|
\centering
|
||||||
|
\includegraphics[width=0.7\linewidth]{bci-article-l}
|
||||||
|
\caption{Иллюстрация работы интерфейса мозг-машина}
|
||||||
|
\label{fig:bci_1}
|
||||||
|
\end{figure}
|
||||||
|
|
||||||
|
\section{Основные области применения}
|
||||||
|
|
||||||
|
Исторически сложилось, что BMI плотно связан с технологиями для улучшения или замены, существующих методов нейрореабилитации, либо как технология для разработки вспомогательных устройств, которые могли бы контролироваться напрямую мозгом.
|
||||||
|
|
||||||
|
А началось все с Видаля в 1973 году, когда он смог зафиксировать активность мозга при помощи электроэнцефалограммы. С этого времени было найдено огромное количество неинвазивных применений (рис. \ref{fig:bci_2}).
|
||||||
|
|
||||||
|
\begin{figure}[h!]
|
||||||
|
\centering
|
||||||
|
\includegraphics[width=0.8\linewidth]{bci-2}
|
||||||
|
\caption{Иллюстрация эволюции применения интерфейса мозг-компьютер}
|
||||||
|
\label{fig:bci_2}
|
||||||
|
\end{figure}
|
||||||
|
|
||||||
|
\subsection{Клиническая медицина и реабилитация}
|
||||||
|
|
||||||
|
Это наиболее значимая область, нацеленная на помощь людям с тяжелыми нейромышечными нарушениями, такими как боковой амиотрофический склероз (БАС), травмы спинного мозга и последствия инсульта.
|
||||||
|
\begin{enumerate}
|
||||||
|
\item \textbf{Ассистивные технологии:} ИМК позволяют восстановить коммуникацию и управление для полностью парализованных пациентов («запертых») через системы печати (spellers) или декодирование рукописного ввода прямо из сигналов мозга. \cite{Edelman2025}
|
||||||
|
\item \textbf{Восстановительная реабилитация}: Технология используется для стимуляции нейропластичности и восстановления двигательных функций конечностей после инсульта. \cite{Saha2021}
|
||||||
|
\item \textbf{Управление инвалидными колясками}: Разработаны системы для навигации в инвалидном кресле с использованием моторного воображения или зрительных вызванных потенциалов \cite{Edelman2025}
|
||||||
|
\end{enumerate}
|
||||||
|
|
||||||
|
\subsection{Управление внешними устройствами и робототехника}
|
||||||
|
|
||||||
|
BMI позволяют преобразовывать намерения пользователя в команды для сложных механизмов.
|
||||||
|
|
||||||
|
\begin{enumerate}
|
||||||
|
\item \textbf{Роботизированные манипуляторы}: Одной из самых передовых областей является управление робо-руками для выполнения повседневных задач (дотянуться до объекта и схватить его).
|
||||||
|
\item \textbf{Беспилотные аппараты}: Продемонстрирована возможность управления квадрокоптерами в трехмерном пространстве. \cite{Saha2021}
|
||||||
|
\item \textbf{Гуманоидные роботы}: ИМК применяются для дистанционного управления человекоподобными роботами, что может быть полезно в опасных средах.
|
||||||
|
\end{enumerate}
|
||||||
|
|
||||||
|
\subsection{Аффективные и когнитивные вычисления}
|
||||||
|
|
||||||
|
Эта область сфокусирована на мониторинге психических состояний человека.
|
||||||
|
\begin{enumerate}
|
||||||
|
\item \textbf{Детекция сонливости и усталости}: Пассивные ИМК могут использоваться для предотвращения аварий, отслеживая состояние водителей или операторов.
|
||||||
|
\item \textbf{Эмоциональное регулирование}: Ведутся исследования по обнаружению аффективных состояний (депрессия, тревога) и обеспечению биологической обратной связи для их коррекции
|
||||||
|
\end{enumerate}
|
||||||
|
|
||||||
|
\subsection{Развлечения, искусство и повседневное использование}
|
||||||
|
|
||||||
|
С появлением недорогих неинвазивных систем технология вышла за пределы лабораторий.
|
||||||
|
\begin{enumerate}
|
||||||
|
\item \textbf{Гейминг}: Создание «мозговых игр», где управление игровым процессом осуществляется силой мысли, что улучшает пользовательский опыт.
|
||||||
|
\item \textbf{Виртуальная и дополненная реальность (VR/AR)}: ИМК обеспечивают эффект погружения и новые способы взаимодействия в виртуальных мирах.
|
||||||
|
\item \textbf{Искусство}: Существуют системы «рисования мозгом», позволяющие творчески самовыражаться людям с ограниченными физическими возможностями
|
||||||
|
\end{enumerate}
|
||||||
|
|
||||||
|
\subsection{Специализированные области}
|
||||||
|
\begin{enumerate}
|
||||||
|
\item \textbf{Космические исследования}: Мониторинг работоспособности космонавтов и управление экзоскелетами в условиях отсутствия гравитации.
|
||||||
|
\item \textbf{Интерфейсы «мозг-мозг»}: Эксперименты по прямой передаче когнитивной информации от одного человека к другому.
|
||||||
|
\end{enumerate}
|
||||||
|
В будущем интеграция ИМК с методами нейромодуляции (например, ультразвуковой или электрической стимуляцией) может расширить эти области, позволяя не только считывать намерения, но и корректировать работу мозга в реальном времени
|
||||||
|
|
||||||
|
\subsection{BCI программные платформы}
|
||||||
|
|
||||||
|
\begin{enumerate}
|
||||||
|
\item \textbf{OpenViBE}\cite{wiki26}: Программная платформа OpenViBE разрабатывается с 2007 года. OpenViBE реализована на языке C++ и может быть скомпилирована в операционных системах Windows и Linux; для Windows предоставляются готовые исполняемые файлы. OpenViBE основана на архитектуре, которая упрощает интеграцию, расширение и настройку модульной функциональности, а графический интерфейс делает OpenViBE удобной в использовании для широкого круга исследователей, включая инженеров, ученых и врачей. Эти два фактора делают OpenViBE хорошо подходящей для поддержки реализации различных подходов к интерфейсам мозг-компьютер.
|
||||||
|
\begin{figure}[h!]
|
||||||
|
\centering
|
||||||
|
\includegraphics[width=0.8\linewidth]{bci2000-datasource}
|
||||||
|
\caption{Скриншот гифки с сайта BCI2000 с возможными источниками входных данных}
|
||||||
|
\label{fig:bci2000}
|
||||||
|
\end{figure}
|
||||||
|
\item \textbf{BCI2000} \cite{bci2000}: Программная платформа BCI2000 разрабатывается с 1998 года. BCI2000 реализована на C++ и может быть скомпилирована под Windows и Linux; для Windows предоставляются готовые исполняемые файлы. Ее реализация основана на модели, которая может описывать любую систему интерфейса мозг-компьютер (BCI). (рис \ref{fig:bci2000}) В соответствии с этой моделью BCI2000 имеет четыре модуля, которые взаимодействуют друг с другом: Источник (сбор и хранение данных); Обработка сигналов; Пользовательское приложение; и Операторский интерфейс. Модули взаимодействуют посредством документированного сетевого протокола на основе TCP/IP. Реализация BCI2000 высоко оптимизирована, что позволяет поддерживать даже очень требовательные конфигурации BCI с хорошими временными характеристиками.
|
||||||
|
\end{enumerate}
|
||||||
|
|
||||||
|
\section{Алгоритмы декодирования сигналов мозга}
|
||||||
|
Взято из "Non-Invasive Brain-Computer Interfaces: State of the Art and Trends" \cite{Edelman2025}
|
||||||
|
|
||||||
|
\subsection{Глубокое обучение (Deep Learning)}
|
||||||
|
Глубокое обучение позволяет автоматически извлекать признаки из «сырых» данных ЭЭГ, минимизируя необходимость в ручном проектировании признаков.
|
||||||
|
\begin{enumerate}
|
||||||
|
\item \textbf{Сверточные нейронные сети (CNN)}: Самый популярный метод, эффективно извлекающий спектральные и пространственные признаки. Ключевыми архитектурами являются EEGNet (универсальная и компактная сеть), Shallow ConvNets и Deep ConvNets.
|
||||||
|
\item \textbf{Графовые сверточные сети (GCN)}: Рассматривают электроды как узлы графа, что позволяет учитывать физическое распределение датчиков на скальпе и внутренние связи между каналами.
|
||||||
|
\item \textbf{Рекуррентные сети (RNN/LSTM)}: Фокусируются на временных зависимостях в последовательных сигналах ЭЭГ. Например, архитектуры на базе LSTM успешно используются для декодирования паттернов походки.
|
||||||
|
\item \textbf{Механизмы внимания и трансформеры}: Позволяют модели динамически выделять наиболее важные части ЭЭГ-испытания, что улучшает точность распознавания моторных образов и вызванных потенциалов.
|
||||||
|
\item \textbf{Гибридные модели}: Комбинируют различные архитектуры (например, CNN-LSTM) для одновременного анализа пространственных, спектральных и временных характеристик.
|
||||||
|
\end{enumerate}
|
||||||
|
|
||||||
|
\subsection{Обучение с переносом знаний (Transfer Learning)}
|
||||||
|
|
||||||
|
Этот подход решает проблему высокой вариативности сигналов между разными людьми и сессиями.
|
||||||
|
\begin{enumerate}
|
||||||
|
\item \textbf{Тонкая настройка (Fine-tuning)}: Модель предварительно обучается на данных большой группы людей, а затем адаптируется под конкретного пользователя.
|
||||||
|
\item \textbf{Доменная адаптация (Domain Adaptation)}: Нацелена на выравнивание распределений признаков разных доменов (например, разных испытуемых), чтобы сделать модель инвариантной к индивидуальным особенностям.
|
||||||
|
\item \textbf{Малоприметное обучение (Few-shot learning)}: Позволяет создавать бескалибровочные ИМК, способные работать с минимальным количеством размеченных данных от нового пользователя.
|
||||||
|
\end{enumerate}
|
||||||
|
|
||||||
|
\subsection{Классификация на основе многообразий (Manifold-Based Methods)}
|
||||||
|
|
||||||
|
В отличие от методов в евклидовом пространстве, эти алгоритмы работают с геометрической структурой данных.
|
||||||
|
\begin{enumerate}
|
||||||
|
\item \textbf{Римановы многообразия}: Используют ковариационные матрицы (\ref{eq:covar_mat}) сигналов ЭЭГ, которые являются симметричными положительно определенными (SPD) матрицами.
|
||||||
|
\item \textbf{RMDM (Riemannian Minimum Distance to Means)}: Классифицирует сигнал на основе риманова расстояния до средних геометрических значений классов. Эти методы устойчивы к шуму и обладают хорошей обобщающей способностью. (формулы \ref{eq:rieman_gmean} и \ref{eq:rieman_dist})
|
||||||
|
\end{enumerate}
|
||||||
|
|
||||||
|
Формулы, если вам вдруг интересно, можно посмотреть в дополнительных материалах.
|
||||||
|
|
||||||
|
\subsection{Адаптивное обучение (Adaptive Learning)}
|
||||||
|
|
||||||
|
Адаптивные классификаторы способны подстраивать свои параметры в процессе работы, реагируя на изменение ментального состояния пользователя или нестационарность ЭЭГ.
|
||||||
|
\begin{enumerate}
|
||||||
|
\item \textbf{Контролируемая и неконтролируемая адаптация}: Включает методы переобучения на новых данных сессии.
|
||||||
|
\item \textbf{Полуконтролируемое обучение}: Использует такие стратегии, как псевдоразметка (pseudo-labeling) и самообучение, где модель сама размечает входящие данные для уточнения своих параметров.
|
||||||
|
\end{enumerate}
|
||||||
|
|
||||||
|
\subsection{Анализ источников ЭЭГ (EEG Source Analysis)}
|
||||||
|
|
||||||
|
Этот метод отходит от анализа сигналов непосредственно на скальпе и переходит к оценке активности нейронных источников в коре головного мозга.
|
||||||
|
\begin{enumerate}
|
||||||
|
\item \textbf{Обратная задача ЭЭГ}: С помощью математических преобразований (например, LORETA или MNE) сигналы со скальпа преобразуются в оценки активности коры.
|
||||||
|
\item \textbf{Преимущества}: Подход обеспечивает более детальную пространственную информацию, что критически важно для декодирования сложных движений конечностей и управления робототехникой в реальном времени.
|
||||||
|
\end{enumerate}
|
||||||
|
|
||||||
|
Основными целями развития этих алгоритмов авторы называют повышение точности классификации, создание систем, не требующих длительной калибровки, и обеспечение надежности ИМК при долговременном использовании.
|
||||||
|
|
||||||
|
\section{Что останавливает перед массовым внедрением интерфейсов мозг-компьютер}
|
||||||
|
|
||||||
|
\subsection{Психофизиологические вызовы}
|
||||||
|
|
||||||
|
\begin{enumerate}
|
||||||
|
\item \textbf{Высокая вариативность сигналов}: Мозговая динамика крайне нелинейна и изменчива как у одного и того же человека в разное время (интраиндивидуальная), так и между разными людьми (интериндивидуальная). На сигналы влияют возраст, пол, уровень внимания, усталость и даже эмоциональное состояние пользователя.
|
||||||
|
\item \textbf{Проблема «ИМК-неграмотности» (BCI illiteracy)}: Около 15–30\% людей не способны генерировать достаточно стабильные и сильные сигналы мозга для управления системой. Несмотря на новые подходы в декодировании, эта проблема остается нерешенной для значительной части потенциальных пользователей.
|
||||||
|
\end{enumerate}
|
||||||
|
|
||||||
|
\subsection{Технологические и алгоритмические ограничения}
|
||||||
|
|
||||||
|
\begin{enumerate}
|
||||||
|
\item \textbf{Низкое соотношение сигнал/шум (SNR)}: В неинвазивных системах (особенно ЭЭГ) электрические потенциалы сильно ослабляются и искажаются при прохождении через ткани мозга и череп. Это приводит к низкой скорости передачи информации (ITR).
|
||||||
|
\item \textbf{Трудоемкая калибровка}: Большинство систем требуют длительных и утомительных сессий обучения для каждого нового пользователя, чтобы настроить алгоритмы под его индивидуальные особенности. Одной из главных целей исследователей сейчас является создание систем, работающих «из коробки» (calibration-free).
|
||||||
|
\item \textbf{Артефакты}: Сигналы ИМК легко загрязняются биологическими помехами, такими как моргание глаз или движения мышц, а также внешними электрическими шумами, что затрудняет их точную интерпретацию в реальном времени.
|
||||||
|
\end{enumerate}
|
||||||
|
|
||||||
|
\subsection{Практические и клинические вызовы}
|
||||||
|
|
||||||
|
\begin{enumerate}
|
||||||
|
\item \textbf{Переход из лаборатории в реальную жизнь}: Большинство достижений ИМК продемонстрированы в строго контролируемых лабораторных условиях. Создание надежного беспроводного оборудования для использования в естественной среде остается сложной задачей.
|
||||||
|
\item \textbf{Удобство датчиков}: Существующие высокоточные электроды часто требуют использования токопроводящего геля, что неудобно для повседневного ношения. Разработка «сухих» датчиков, которые обеспечивали бы лабораторное качество сигнала без дискомфорта, — одно из приоритетных направлений.
|
||||||
|
\item \textbf{Гетерогенность пациентов}: В медицине клиническая эффективность ИМК сильно варьируется из-за различий в характере травм или особенностях протекания болезней (например, после инсульта), что затрудняет создание универсальных реабилитационных решений.
|
||||||
|
\end{enumerate}
|
||||||
|
|
||||||
|
\subsection{Этические и правовые аспекты}
|
||||||
|
|
||||||
|
\begin{enumerate}
|
||||||
|
\item \textbf{Приватность и безопасность данных}: Существует риск несанкционированного доступа к нейронным данным, которые могут содержать конфиденциальную информацию о психическом состоянии или даже намерениях человека.
|
||||||
|
\item \textbf{Влияние на личность и психику}: Использование ИМК и систем нейромодуляции поднимает вопросы об изменении самоидентификации пользователя, его эмоциональной стабильности и возможных долгосрочных последствиях для здоровья
|
||||||
|
\end{enumerate}
|
||||||
|
|
||||||
|
\section{Ситуация с Brain-Computer Interface в мире}
|
||||||
|
Здесь все уже стандартно для 2025 года. Лидер - Китай по количеству публикаций и патентов. Северная Америка в топе по количеству стартапов (более 87).
|
||||||
|
|
||||||
|
Попросил нейронку нагенерировать инфографику, чтобы стильно модно молодежно было результат смотрите сами (рис \ref{fig:market})
|
||||||
|
|
||||||
|
\begin{figure}[h!]
|
||||||
|
\centering
|
||||||
|
\includegraphics[width=0.8\linewidth]{market}
|
||||||
|
\caption{Сгенерировано нейронной сетью (NotebookLM)}
|
||||||
|
\label{fig:market}
|
||||||
|
\end{figure}
|
||||||
|
|
||||||
|
Сейчас основной фокус идет в направлении инвазивных технологий для медицины.
|
||||||
|
|
||||||
|
\begin{enumerate}
|
||||||
|
\item \textbf{Neuralink}
|
||||||
|
\subitem К июню 2025 года пять пациентов с тяжелым параличом уже использовали имплантат «Telepathy» для управления цифровыми устройствами силой мысли. \cite{sphericalins}
|
||||||
|
\item \textbf{Synchron} - разработала систему Stentrode, которая вводится через кровеносные сосуды (без трепанации черепа), позволяет парализованным людям управлять устройствами. \cite{stentrode}
|
||||||
|
\subitem В 2025 году компания начала интеграцию своих решений в экосистемы Apple и NVIDIA, подтвердив безопасность устройства в ходе 12-месячных испытаний
|
||||||
|
\item \textbf{Blackrock Neurotech}\cite{Blackroc20} - лидер по количеству установленных имплантатов (более 30 пациентов)
|
||||||
|
\subitem Их технологии позволяют парализованным людям печатать со скоростью 90 символов в минуту и управлять роботизированными манипуляторами для повседневных задач (прием пищи, отправка email)
|
||||||
|
|
||||||
|
\end{enumerate}
|
||||||
|
|
||||||
|
\begin{figure}[h!]
|
||||||
|
\centering
|
||||||
|
\includegraphics[width=0.6\linewidth]{blackrock}
|
||||||
|
\caption{Пример устройства blackrock}
|
||||||
|
\label{fig:blackrock}
|
||||||
|
\end{figure}
|
||||||
|
|
||||||
|
Если говорить о неинвазивных методах, то здесь все крутится вокруг портативных ЭЭГ устройств. Это уже больше потребительский сектор, можно измерять свой уровень стресса, возраст мозга, мониторить концентрацию и психическое здоровье.
|
||||||
|
|
||||||
|
Выделить стоит троих:
|
||||||
|
\begin{enumerate}
|
||||||
|
\item \textbf{Emotiv} - лидер по производству портативных ЭЭГ устройств \cite{BrainDat14}
|
||||||
|
\item \textbf{Neurable}\cite{Neurable92} - интегрирует ИМК в повседневные наушники для мониторинга концентрации
|
||||||
|
\item \textbf{Kernel}\cite{Kernel70} - использует оптическую технологию (fNIRS) для оценки психического здоровья и когнитивных функций.
|
||||||
|
\end{enumerate}
|
||||||
|
|
||||||
|
\subsection{Прорывные технологии из отсчета за 2023-2024}
|
||||||
|
|
||||||
|
Информация на основе отсчета \cite{bciChen}.
|
||||||
|
|
||||||
|
\begin{enumerate}
|
||||||
|
\item \textbf{Восстановление речи}: Достигнута \textbf{скорость декодирования речи в 62–78 слов в минуту}, что приближается к темпу естественного разговора
|
||||||
|
\item \textbf{Моторная реабилитация}: Создан «цифровой мост» между мозгом и спинным мозгом, позволивший пациенту с параличом нижних конечностей ходить самостоятельно
|
||||||
|
\item \textbf{Зрение}: Начались работы над проектами Blindsight (Neuralink) и ICVP (Иллинойсский технологический институт) для возвращения зрения через прямую стимуляцию зрительной коры
|
||||||
|
\end{enumerate}
|
||||||
|
|
||||||
|
Насчет Blindsight - по состоянию на 2026 год, судя по всему, получил одобрение как прорывная разработка от управления по санитарному надзору за качеством пищевых продуктов и медикаментов США (по данным РИА новости \cite{Neuralin90}).
|
||||||
|
|
||||||
|
\section{Российские организации, которые занимаются ИМК}
|
||||||
|
|
||||||
|
Крутится вокруг программы Нейронет 2035\cite{nti2035} - как говорится на сайте, это рынок коммуникаций, основанных на передовых разработках в нейротехнологиях и повышающих продуктивность человеко-машинных систем.
|
||||||
|
В рамках этой национальной технологической инициативы есть много различных компаний, из репорта, который переслали по почте, выделил следующие.
|
||||||
|
|
||||||
|
\subsection{Компании и стартапы}
|
||||||
|
|
||||||
|
\begin{enumerate}
|
||||||
|
\item \textbf{ГК "Нейроботикс"} - компания является одним из ведущих поставщиков нейрофизиологического оборудования и неинвазивных решений в России.
|
||||||
|
\subitem \textbf{Ключевые продукты:} Беспроводные ЭЭГ-системы на сухих электродах серии NeuroPlay (6-канальные гарнитуры и 8-канальные шлемы), программная среда "Когниграф" для создания нейроинтерфейсов и комплекс "Шелтер" для оценки когнитивных функций
|
||||||
|
\item \textbf{Компания "Моторика"} - лидер в области киберпротезирования \cite{naukaprotez}
|
||||||
|
\subitem \textbf{Сенсорная обратная связь}: Совместно со Сколтехом и ДВФУ компания успешно испытала систему «очувствления» протезов, позволяющую пациентам чувствовать текстуру и силу сжатия, а также избавляться от фантомных болей.
|
||||||
|
\subitem \textbf{Инновации}: В 2024 году было объявлено о создании Центра кибернетической медицины и нейропротезирования для масштабирования этих технологий
|
||||||
|
\item \textbf{Исследовательский центр Neurotrend (Нейротренд)} - крупнейшая российская нейромаркетинговая компания \cite{neurotrend}
|
||||||
|
\subitem Использование собственных алгоритмов обработки данных для оценки когнитивной нагрузки и вовлеченности аудитории
|
||||||
|
\item \textbf{Проект «Нейрочат»} \cite{neurochat}
|
||||||
|
\subitem Позволяет пациентам с тяжелыми нарушениями речи и моторики (после инсультов, травм) набирать текст на экране силой мысли
|
||||||
|
\item \textbf{Neiry}
|
||||||
|
\subitem занимаются разработкой потребительских устройств для мониторинга ЭЭГ, нейроотклика и когнитивных способностей - для обучения и wellness применения.
|
||||||
|
\item \textbf{BrainBit}
|
||||||
|
\subitem носимые ЭЭГ устройства
|
||||||
|
\item \textbf{NeuroAssist Tech}
|
||||||
|
\subitem Нейро-реабилитационные системы на основе нейронных сетей и экзоскелеты.
|
||||||
|
\item \textbf{NTINeuroNet Consortsium}
|
||||||
|
\subitem объединение университетов, НИИ, стартапов и медицинских центров для разработки нейроинтерфейсов, нейропротезирования и когнитивных ИИ систем.
|
||||||
|
\end{enumerate}
|
||||||
|
|
||||||
|
\subsection{НИИ}
|
||||||
|
|
||||||
|
\begin{enumerate}
|
||||||
|
\item \textbf{Институт Курчатова }
|
||||||
|
\subitem Участвует в исследованиях в области декодирования сигналов мозга и нейро-модуляции, а также гибридных систем, совмещающих ЭЭГ и fNIRS.
|
||||||
|
\item \textbf{Институт высшей неврологической активности и нейрофизиологии.}
|
||||||
|
\subitem Фокусируется на фундаментальной науке и моделях коммуникации мозг-компьютер.
|
||||||
|
\item \textbf{Российский Квантовый Центр}
|
||||||
|
\subitem Исследует применение квантовых технологий в области обработки нейронных сигналов
|
||||||
|
\item \textbf{Skolkovo Foundation NeuroTech Cluster}
|
||||||
|
\subitem Центр нейробиологии и нейрореабилитации им. В. Зельмана выступает научным координатором проектов по созданию двунаправленных нейропротезов. Также Сколково в целом поддерживает стартапы в этом направлении
|
||||||
|
\end{enumerate}
|
||||||
|
|
||||||
|
\subsection{Университеты}
|
||||||
|
|
||||||
|
\begin{enumerate}
|
||||||
|
\item \textbf{ДВФУ (Дальневосточный федеральный университет)}
|
||||||
|
\subitem Единственное место в России, где проводятся уникальные операции по вживлению электродов в периферические нервы и спинной мозг для «очувствления» конечностей \cite{naukaprotez}
|
||||||
|
\item \textbf{МФТИ} - активно занимаются машинным обучением в BCI и обработке нейронных сигналов
|
||||||
|
\item \textbf{ИТМО} - есть некоторые программы, посвященные HMI(human-machine interaction) и нейроинформатике.
|
||||||
|
\item \textbf{МИФИ} - занимаются разработками систем мониторинга ЭЭГ и приложениями в области нейро-безопасности.
|
||||||
|
\item \textbf{МГУ} - также есть некоторое количество программ в области нейрофизиологии и когнитивной нейронауки.
|
||||||
|
\end{enumerate}
|
||||||
|
|
||||||
35
chapters/0x_extra.tex
Normal file
35
chapters/0x_extra.tex
Normal file
@ -0,0 +1,35 @@
|
|||||||
|
\chapter{Дополнительные материалы}
|
||||||
|
\addcontentsline{toc}{chapter}{Дополнительные материалы}
|
||||||
|
|
||||||
|
\section{Формулы}
|
||||||
|
Ковариационная матрица (Covariance Matrix)
|
||||||
|
\begin{equation}
|
||||||
|
C=\frac{1}{N-1} X X^T \in \mathbb{R}^{N \times N}
|
||||||
|
\label{eq:covar_mat}
|
||||||
|
\end{equation}
|
||||||
|
|
||||||
|
Риманово расстояние (Riemannian Distance)
|
||||||
|
\begin{equation}
|
||||||
|
\delta_R\left(C_1, C_2\right)=\left\|\log \left(C_1^{-1 / 2} C_2 C_1^{-1 / 2}\right)\right\|_F=\left[\sum_{i=1}^N \log ^2 \lambda_i\right]^{1 / 2}
|
||||||
|
\label{eq:rieman_dist}
|
||||||
|
\end{equation}
|
||||||
|
здесь $\lambda_i$ — это вещественные собственные значения матрицы $(C_1^{-1 / 2} C_2 C_1^{-1 / 2}$, а $\|\cdot\|_F$ обозначает норму Фробениуса
|
||||||
|
|
||||||
|
Риманово геометрическое среднее (Riemannian Geometric Mean)
|
||||||
|
\begin{equation}
|
||||||
|
G\left(C_1, \ldots, C_I\right)=\operatorname{argmin}_{C \in \mathcal{C}(n)} \sum_{i=1}^I \delta_R^2(C, C i)
|
||||||
|
\label{eq:rieman_gmean}
|
||||||
|
\end{equation}
|
||||||
|
\textit{где $C(n)$ — пространство SPD-матриц. Этот метод (RMDM) устойчив к шуму и хорошо обобщает данные.
|
||||||
|
}
|
||||||
|
|
||||||
|
Регрессия для оценки взгляда (Gaze Estimation)
|
||||||
|
В подразделе о контроле взгляда (который также является частью интерфейсов в статье) используется квадратичная полиномиальная модель:
|
||||||
|
\begin{equation}
|
||||||
|
g=f(e)=v c
|
||||||
|
\end{equation}
|
||||||
|
\textit{где $g=(g_x, g_y)$ — координаты взгляда, $c$ — коэффициенты модели, а вектор $v$ включает члены до второго порядка: }
|
||||||
|
\begin{equation}
|
||||||
|
v=\left(1, x, y, x y, x^2, y^2, m, n\right)
|
||||||
|
\end{equation}
|
||||||
|
\textit{здесь $(x,y)$ — координаты зрачка, а $(m,n)$ — координаты угла глаза. Для решения этой задачи используется метод наименьших квадратов}
|
||||||
BIN
images/bci-2.png
Normal file
BIN
images/bci-2.png
Normal file
Binary file not shown.
|
After Width: | Height: | Size: 187 KiB |
BIN
images/bci-article-l.png
Normal file
BIN
images/bci-article-l.png
Normal file
Binary file not shown.
|
After Width: | Height: | Size: 267 KiB |
BIN
images/bci2000-datasource.png
Normal file
BIN
images/bci2000-datasource.png
Normal file
Binary file not shown.
|
After Width: | Height: | Size: 201 KiB |
BIN
images/blackrock.png
Normal file
BIN
images/blackrock.png
Normal file
Binary file not shown.
|
After Width: | Height: | Size: 537 KiB |
BIN
images/market.png
Normal file
BIN
images/market.png
Normal file
Binary file not shown.
|
After Width: | Height: | Size: 6.1 MiB |
8
main.tex
8
main.tex
@ -9,7 +9,7 @@
|
|||||||
\title{Нейроинтерфейсы - обзор текущего состояния}
|
\title{Нейроинтерфейсы - обзор текущего состояния}
|
||||||
\author{Mukhamadiev Artur, Research Engineer}
|
\author{Mukhamadiev Artur, Research Engineer}
|
||||||
\department{Russia R\&D Lab, Web Team}
|
\department{Russia R\&D Lab, Web Team}
|
||||||
\reportdate{26.01.2026}
|
\reportdate{\today}
|
||||||
\date{\today}
|
\date{\today}
|
||||||
|
|
||||||
\begin{document}
|
\begin{document}
|
||||||
@ -18,11 +18,13 @@
|
|||||||
\maketitle
|
\maketitle
|
||||||
|
|
||||||
% --- СОДЕРЖАНИЕ ---
|
% --- СОДЕРЖАНИЕ ---
|
||||||
%\tableofcontents
|
\tableofcontents
|
||||||
%\newpage
|
\newpage
|
||||||
|
|
||||||
% --- ПОДКЛЮЧЕНИЕ ГЛАВ ИЗ ПАПКИ chapters ---
|
% --- ПОДКЛЮЧЕНИЕ ГЛАВ ИЗ ПАПКИ chapters ---
|
||||||
\input{chapters/00_introduction.tex}
|
\input{chapters/00_introduction.tex}
|
||||||
|
\input{chapters/01_bmi.tex}
|
||||||
|
\input{chapters/0x_extra.tex}
|
||||||
% --- СПИСОК ЛИТЕРАТУРЫ ---
|
% --- СПИСОК ЛИТЕРАТУРЫ ---
|
||||||
\printbibliography[title={Список использованных источников}]
|
\printbibliography[title={Список использованных источников}]
|
||||||
|
|
||||||
|
|||||||
11
preamble.tex
11
preamble.tex
@ -5,6 +5,7 @@
|
|||||||
\usepackage[utf8]{inputenc}
|
\usepackage[utf8]{inputenc}
|
||||||
\usepackage[russian]{babel}
|
\usepackage[russian]{babel}
|
||||||
\usepackage{csquotes} % Added for babel compatibility
|
\usepackage{csquotes} % Added for babel compatibility
|
||||||
|
\usepackage[most]{tcolorbox}
|
||||||
|
|
||||||
% --- ГЕОМЕТРИЯ СТРАНИЦЫ ---
|
% --- ГЕОМЕТРИЯ СТРАНИЦЫ ---
|
||||||
\usepackage[left=3cm, right=2cm, top=2.5cm, bottom=2.5cm]{geometry}
|
\usepackage[left=3cm, right=2cm, top=2.5cm, bottom=2.5cm]{geometry}
|
||||||
@ -131,8 +132,6 @@ sorting=none
|
|||||||
|
|
||||||
\vfill
|
\vfill
|
||||||
|
|
||||||
% Конфиденциальность
|
|
||||||
\textcolor{LGRed}{\bfseries КОНФИДЕНЦИАЛЬНО - ВНУТРЕННЕЕ ИСПОЛЬЗОВАНИЕ} \\
|
|
||||||
\vspace{0.3cm}
|
\vspace{0.3cm}
|
||||||
\footnotesize
|
\footnotesize
|
||||||
\today
|
\today
|
||||||
@ -147,6 +146,14 @@ sorting=none
|
|||||||
\newcommand{\lginternal}{\textcolor{LGBlue}{[ВНУТРЕННИЙ]}}
|
\newcommand{\lginternal}{\textcolor{LGBlue}{[ВНУТРЕННИЙ]}}
|
||||||
\newcommand{\bmi}{BMI}
|
\newcommand{\bmi}{BMI}
|
||||||
|
|
||||||
|
\newtcolorbox{myquote}{
|
||||||
|
breakable, % Allows the box to break across pages
|
||||||
|
enhanced, % Use enhanced graphical features
|
||||||
|
blank, % Start with no background or default frame
|
||||||
|
left skip=16pt, % Adjust the left margin for the text
|
||||||
|
borderline west={2pt}{0pt}{gray} % Add a vertical line (width, offset, color)
|
||||||
|
}
|
||||||
|
|
||||||
% --- МЕТАДАННЫЕ ПО УМОЛЧАНИЮ ---
|
% --- МЕТАДАННЫЕ ПО УМОЛЧАНИЮ ---
|
||||||
\title{Отчет по исследованию}
|
\title{Отчет по исследованию}
|
||||||
\author{Исследовательская группа}
|
\author{Исследовательская группа}
|
||||||
|
|||||||
209
references.bib
209
references.bib
@ -0,0 +1,209 @@
|
|||||||
|
@inproceedings{Navarro2022,
|
||||||
|
abstract = {Electrodermal activity (EDA) is considered to be an effective metric for measuring changes in the arousal level of people. In this paper, the phasic component of EDA data from players is analyzed in relation to their reported experience from a standardized questionnaire, when interacting with a couple of virtual reality games that featured two different input devices: the HTC Vive and Leap Motion controllers. Initial results show that there are no significant differences in the phasic component data, despite having significant differences in their respective player experience. Furthermore, no linear correlations are found between the phasic component data and the evaluated experience variables, with the only exception of negative affect which features a weak positive correlation. In conclusion, the phasic component of EDA data has here shown a limited correlation with player experience and should be further explored in combination with other psychophysiological signals.},
|
||||||
|
author = {Diego Navarro and Valeria Garro and Veronica Sundstedt},
|
||||||
|
doi = {10.5220/0011006100003124},
|
||||||
|
issn = {21844321},
|
||||||
|
booktitle = {Proceedings of the International Joint Conference on Computer Vision, Imaging and Computer Graphics Theory and Applications},
|
||||||
|
keywords = {Electrodermography,Phasic Component,Player Experience,Psychophysiology,Virtual Reality},
|
||||||
|
pages = {2184-4321},
|
||||||
|
publisher = {Science and Technology Publications, Lda},
|
||||||
|
title = {Electrodermal Activity Evaluation of Player Experience in Virtual Reality Games: A Phasic Component Analysis},
|
||||||
|
volume = {2},
|
||||||
|
year = {2022}
|
||||||
|
}
|
||||||
|
@misc{neurochat,
|
||||||
|
author = {},
|
||||||
|
title = {Коммуникационная система НейроЧат - официальный сайт},
|
||||||
|
url = "https://neurochat.pro/",
|
||||||
|
month = {},
|
||||||
|
year = {}
|
||||||
|
}
|
||||||
|
@misc{naukaprotez,
|
||||||
|
author = {},
|
||||||
|
title = {Кибер-протез с новой системой очувствления испытали в России | Новости науки},
|
||||||
|
howpublished = {\url{https://xn--80aa3ak5a.xn--p1ai/news/zavershilsya-4-y-etap-issledovaniy-po-ochuvstvleniyu-protezov-i-kupirovaniyu-fantomnykh-boley/}},
|
||||||
|
year = {}
|
||||||
|
}
|
||||||
|
@misc{Neuralin90,
|
||||||
|
author = {РИА Новости},
|
||||||
|
title = {Neuralink впервые вживит человеку зрительный имплант, заявил Маск - РИА Новости, 31.03.2025},
|
||||||
|
url = "https://ria.ru/20250331/neuralink-2008320527.html",
|
||||||
|
month = {},
|
||||||
|
year = {},
|
||||||
|
note = "[Online; accessed 2026-01-29]"
|
||||||
|
}
|
||||||
|
@article{bciChen,
|
||||||
|
author = {Chen, Shugeng and Chen, Mingyi and Wang, Xu and Liu, Xiuyun and Liu, Bing and Ming, Dong},
|
||||||
|
year = {2025},
|
||||||
|
month = {03},
|
||||||
|
pages = {},
|
||||||
|
title = {Brain–computer interfaces in 2023–2024},
|
||||||
|
volume = {3},
|
||||||
|
journal = {Brain-X},
|
||||||
|
doi = {10.1002/brx2.70024}
|
||||||
|
}
|
||||||
|
@misc{BrainDat14,
|
||||||
|
author = {},
|
||||||
|
title = {Brain Data Measurement \& Wireless EEG Solutions | Emotiv},
|
||||||
|
url = "https://www.emotiv.com",
|
||||||
|
month = {},
|
||||||
|
year = {}
|
||||||
|
}
|
||||||
|
@misc{Neurable92,
|
||||||
|
author = {},
|
||||||
|
title = {Neurable | The Mind. Unlocked. | Work Smarter, Not Longer},
|
||||||
|
url = "https://www.neurable.com/",
|
||||||
|
month = {},
|
||||||
|
year = {}
|
||||||
|
}
|
||||||
|
@misc{Kernel70,
|
||||||
|
author = {},
|
||||||
|
title = {Kernel},
|
||||||
|
url = "https://www.kernel.com/",
|
||||||
|
month = {},
|
||||||
|
year = {}
|
||||||
|
}
|
||||||
|
@misc{Blackroc20,
|
||||||
|
author = {},
|
||||||
|
title = {Blackrock Neurotech | Empowered by Thought},
|
||||||
|
url = "https://blackrockneurotech.com/",
|
||||||
|
month = {},
|
||||||
|
year = {}
|
||||||
|
}
|
||||||
|
@misc{stentrode,
|
||||||
|
author = {},
|
||||||
|
title = {The Technology | Synchron},
|
||||||
|
url = "https://synchron.com/technology",
|
||||||
|
month = {},
|
||||||
|
year = {}
|
||||||
|
}
|
||||||
|
@misc{sphericalins,
|
||||||
|
author = {},
|
||||||
|
title = {Top 10 Brain-Computer Interface Companies in 2025},
|
||||||
|
url = "https://www.sphericalinsights.com/blogs/top-10-companies-leading-the-brain-computer-interface-market-in-2025-key-players-statistics-future-trends-2024-2035",
|
||||||
|
month = {},
|
||||||
|
year = {}
|
||||||
|
}
|
||||||
|
@misc{neurotrend,
|
||||||
|
title = {Крупнейшая российская нейромаркетинговая компания - Нейротренд},
|
||||||
|
url = {https://neurotrend.ru/},
|
||||||
|
abstract = {Нейротренд - научно обоснованный бизнес, открывающий для своих клиентов новые возможности применения нейротехнологий в маркетинге.}
|
||||||
|
}
|
||||||
|
@misc{nti2035,
|
||||||
|
author = {},
|
||||||
|
title = {Нейронет --- nti2035.ru},
|
||||||
|
howpublished = {\url{https://nti2035.ru/markets/mneuronet}},
|
||||||
|
year = {}
|
||||||
|
}
|
||||||
|
@article{Edelman2025,
|
||||||
|
abstract = {Brain-computer interface (BCI) is a rapidly evolving technology that has the potential to widely influence research, clinical and recreational use. Non-invasive BCI approaches are particularly common as they can impact a large number of participants safely and at a relatively low cost. Where traditional non-invasive BCIs were used for simple computer cursor tasks, it is now increasingly common for these systems to control robotic devices for complex tasks that may be useful in daily life. In this review, we provide an overview of the general BCI framework as well as the various methods that can be used to record neural activity, extract signals of interest, and decode brain states. In this context, we summarize the current state-of-the-art of non-invasive BCI research, focusing on trends in both the application of BCIs for controlling external devices and algorithm development to optimize their use. We also discuss various open-source BCI toolboxes and software, and describe their impact on the field at large.},
|
||||||
|
author = {Bradley J. Edelman and Shuailei Zhang and Gerwin Schalk and Peter Brunner and Gernot Müller-Putz and Cuntai Guan and Bin He},
|
||||||
|
doi = {10.1109/RBME.2024.3449790},
|
||||||
|
issn = {19411189},
|
||||||
|
journal = {IEEE Reviews in Biomedical Engineering},
|
||||||
|
keywords = {BCI,brain-computer interface,deep learning,electroencephalography,manifold classification,motor imagery,motor-related cortical potentials,neural decoding,neurotechnology,robotic arm,transfer learning},
|
||||||
|
pages = {26-49},
|
||||||
|
pmid = {39186407},
|
||||||
|
publisher = {Institute of Electrical and Electronics Engineers Inc.},
|
||||||
|
title = {Non-Invasive Brain-Computer Interfaces: State of the Art and Trends},
|
||||||
|
volume = {18},
|
||||||
|
year = {2025}
|
||||||
|
}
|
||||||
|
@misc{Li2021,
|
||||||
|
abstract = {Amputation of the upper limb brings heavy burden to amputees, reduces their quality of life, and limits their performance in activities of daily life. The realization of natural control for prosthetic hands is crucial to improving the quality of life of amputees. Surface electromyography (sEMG) signal is one of the most widely used biological signals for the prediction of upper limb motor intention, which is an essential element of the control systems of prosthetic hands. The conversion of sEMG signals into effective control signals often requires a lot of computational power and complex process. Existing commercial prosthetic hands can only provide natural control for very few active degrees of freedom. Deep learning (DL) has performed surprisingly well in the development of intelligent systems in recent years. The significant improvement of hardware equipment and the continuous emergence of large data sets of sEMG have also boosted the DL research in sEMG signal processing. DL can effectively improve the accuracy of sEMG pattern recognition and reduce the influence of interference factors. This paper analyzes the applicability and efficiency of DL in sEMG-based gesture recognition and reviews the key techniques of DL-based sEMG pattern recognition for the prosthetic hand, including signal acquisition, signal preprocessing, feature extraction, classification of patterns, post-processing, and performance evaluation. Finally, the current challenges and future prospects in clinical application of these techniques are outlined and discussed.},
|
||||||
|
author = {Wei Li and Ping Shi and Hongliu Yu},
|
||||||
|
doi = {10.3389/fnins.2021.621885},
|
||||||
|
issn = {1662453X},
|
||||||
|
journal = {Frontiers in Neuroscience},
|
||||||
|
keywords = {convolutional neural network,deep learning,hand gesture recognition,pattern recognition,prosthesis hand,recurrent neural network,surface electromyography},
|
||||||
|
month = {4},
|
||||||
|
publisher = {Frontiers Media S.A.},
|
||||||
|
title = {Gesture Recognition Using Surface Electromyography and Deep Learning for Prostheses Hand: State-of-the-Art, Challenges, and Future},
|
||||||
|
volume = {15},
|
||||||
|
year = {2021}
|
||||||
|
}
|
||||||
|
@article{asd,
|
||||||
|
abstract = {Surface electromyography (sEMG) is a promising computer access method for individuals with motor impairments. However, optimal sensor placement is a tedious task requiring trial-and-error by an expert, particularly when recording from facial musculature likely to be spared in individuals with neurological impairments. We sought to reduce sEMG sensor configuration complexity by using quantitative signal features extracted from a short calibration task to predict human-machine interface (HMI) performance. A cursor control system allowed individuals to activate specific sEMG-targeted muscles to control an onscreen cursor and navigate a target selection task. The task was repeated for a range of sensor configurations to elicit a range of signal qualities. Signal features were extracted from the calibration of each configuration and examined via a principle component factor analysis in order to predict HMI performance during subsequent tasks. Feature components most influenced by energy and complexity of the EMG signal and muscle activity between sensors were significantly predictive of HMI performance. However, configuration order had a greater effect on performance than the configurations, suggesting that non-experts can place sEMG sensors in the vicinity of usable muscle sites for computer access and healthy individuals will learn to efficiently control the HMI system.},
|
||||||
|
author = {Jennifer M Vojtech and Gabriel J Cler and Cara E Stepp},
|
||||||
|
doi = {10.1109/TNSRE},
|
||||||
|
keywords = {Index Terms electromyography,feature extraction,human-machine interfaces,myoelectric control},
|
||||||
|
title = {Prediction of optimal facial electromyographic sensor configurations for human-machine interface control}
|
||||||
|
}
|
||||||
|
@misc{wiki26,
|
||||||
|
author = {},
|
||||||
|
title = {{O}pen{V}ibe - {W}ikipedia --- en.wikipedia.org},
|
||||||
|
howpublished = {\url{https://en.wikipedia.org/wiki/{O}pen{V}ibe}},
|
||||||
|
year = {}
|
||||||
|
}
|
||||||
|
@misc{bci2000,
|
||||||
|
author = {},
|
||||||
|
title = {bci2000.org},
|
||||||
|
howpublished = {\url{https://www.bci2000.org/}},
|
||||||
|
year = {}
|
||||||
|
}
|
||||||
|
@misc{Saha2021,
|
||||||
|
abstract = {Brain computer interfaces (BCI) provide a direct communication link between the brain and a computer or other external devices. They offer an extended degree of freedom either by strengthening or by substituting human peripheral working capacity and have potential applications in various fields such as rehabilitation, affective computing, robotics, gaming, and neuroscience. Significant research efforts on a global scale have delivered common platforms for technology standardization and help tackle highly complex and non-linear brain dynamics and related feature extraction and classification challenges. Time-variant psycho-neurophysiological fluctuations and their impact on brain signals impose another challenge for BCI researchers to transform the technology from laboratory experiments to plug-and-play daily life. This review summarizes state-of-the-art progress in the BCI field over the last decades and highlights critical challenges.},
|
||||||
|
author = {Simanto Saha and Khondaker A. Mamun and Khawza Ahmed and Raqibul Mostafa and Ganesh R. Naik and Sam Darvishi and Ahsan H. Khandoker and Mathias Baumert},
|
||||||
|
doi = {10.3389/fnsys.2021.578875},
|
||||||
|
issn = {16625137},
|
||||||
|
journal = {Frontiers in Systems Neuroscience},
|
||||||
|
keywords = {brain computer interface,cognitive rehabilitation,electrical/hemodynamic brain signals,hybrid/multimodal BCI,neuroimaging techniques,neurosensors},
|
||||||
|
month = {2},
|
||||||
|
publisher = {Frontiers Media S.A.},
|
||||||
|
title = {Progress in Brain Computer Interface: Challenges and Opportunities},
|
||||||
|
volume = {15},
|
||||||
|
year = {2021}
|
||||||
|
}
|
||||||
|
@misc{Matht2018,
|
||||||
|
abstract = {Pupils respond to three distinct kinds of stimuli: they constrict in response to brightness (the pupil light response), constrict in response to near fixation (the pupil near response), and dilate in response to increases in arousal and mental effort, either triggered by an external stimulus or spontaneously. In this review, I describe these three pupil responses, how they are related to high-level cognition, and the neural pathways that control them. I also discuss the functional relevance of pupil responses, that is, how pupil responses help us to better see the world. Although pupil responses likely serve many functions, not all of which are fully understood, one important function is to optimize vision either for acuity (small pupils see sharper) and depth of field (small pupils see sharply at a wider range of distances), or for sensitivity (large pupils are better able to detect faint stimuli); that is, pupils change their size to optimize vision for a particular situation. In many ways, pupil responses are similar to other eye movements, such as saccades and smooth pursuit: like these other eye movements, pupil responses have properties of both reflexive and voluntary action, and are part of active visual exploration.},
|
||||||
|
author = {Sebastiaan Mathôt},
|
||||||
|
doi = {10.5334/joc.18},
|
||||||
|
issn = {25144820},
|
||||||
|
issue = {1},
|
||||||
|
journal = {Journal of Cognition},
|
||||||
|
keywords = {Eye movements,Orienting response,Psychosensory pupil response,Pupil light response,Pupil near response,Pupillometry},
|
||||||
|
pmid = {31517190},
|
||||||
|
publisher = {Ubiquity Press},
|
||||||
|
title = {Pupillometry: Psychology, physiology, and function},
|
||||||
|
volume = {1},
|
||||||
|
year = {2018}
|
||||||
|
}
|
||||||
|
@article{Qian2024,
|
||||||
|
abstract = {Gaze estimation is long been recognised as having potential as the basis for human-computer interaction (HCI) systems, but usability and robustness of performance remain challenging. This work focuses on systems in which there is a live video stream showing enough of the subjects face to track eye movements and some means to infer gaze location from detected eye features. Currently, systems generally require some form of calibration or set-up procedure at the start of each user session. Here we explore some simple strategies for enabling gaze based HCI to operate immediately and robustly without any explicit set-up tasks. We explore different choices of coordinate origin for combining extracted features from multiple subjects and the replacement of subject specific calibration by system initiation based on prior models. Results show that referencing all extracted features to local coordinate origins determined by subject start position enables robust immediate operation. Combining this approach with an adaptive gaze estimation model using an interactive user interface enables continuous operation with the 75th percentile gaze errors of 0.7∘, and maximum gaze errors of 1.7∘ during prospective testing. There constitute state-of-the-art results and have the potential to enable a new generation of reliable gaze based HCI systems.},
|
||||||
|
author = {Kun Qian and Tomoki Arichi and A. David Edwards and Joseph V. Hajnal},
|
||||||
|
doi = {10.1038/s41598-024-62365-9},
|
||||||
|
issn = {20452322},
|
||||||
|
issue = {1},
|
||||||
|
journal = {Scientific Reports},
|
||||||
|
month = {12},
|
||||||
|
pmid = {38778122},
|
||||||
|
publisher = {Nature Research},
|
||||||
|
title = {Instant interaction driven adaptive gaze control interface},
|
||||||
|
volume = {14},
|
||||||
|
year = {2024}
|
||||||
|
}
|
||||||
|
@article{Kaifosh2025,
|
||||||
|
abstract = {Since the advent of computing, humans have sought computer input technologies that are expressive, intuitive and universal. While diverse modalities have been developed, including keyboards, mice and touchscreens, they require interaction with a device that can be limiting, especially in on-the-go scenarios. Gesture-based systems use cameras or inertial sensors to avoid an intermediary device, but tend to perform well only for unobscured movements. By contrast, brain–computer or neuromotor interfaces that directly interface with the body’s electrical signalling have been imagined to solve the interface problem1, but high-bandwidth communication has been demonstrated only using invasive interfaces with bespoke decoders designed for single individuals2, 3–4. Here, we describe the development of a generic non-invasive neuromotor interface that enables computer input decoded from surface electromyography (sEMG). We developed a highly sensitive, easily donned sEMG wristband and a scalable infrastructure for collecting training data from thousands of consenting participants. Together, these data enabled us to develop generic sEMG decoding models that generalize across people. Test users demonstrate a closed-loop median performance of gesture decoding of 0.66 target acquisitions per second in a continuous navigation task, 0.88 gesture detections per second in a discrete-gesture task and handwriting at 20.9 words per minute. We demonstrate that the decoding performance of handwriting models can be further improved by 16% by personalizing sEMG decoding models. To our knowledge, this is the first high-bandwidth neuromotor interface with performant out-of-the-box generalization across people.},
|
||||||
|
author = {Patrick Kaifosh and Thomas R. Reardon and Danny Zlobinsky and Lei Zhou and Joseph Zhong and Kevin Zheng and Jiesi Zhao and Mingrui Zhang and Michael Zawadzki and Shuibenyang Yuan and Akshay Yembarwar and Chris Ye and Yuguan Xing and Steve Williams and Christopher Wiebe and Ezri White and Daniel Z. Wetmore and Ron J. Weiss and Claire L. Warriner and Richard Warren and Christy Warden and Zhuo Wang and Renxiong Wang and Megan Wang and Peter Walkington and Kyle Urquhart and Migmar Tsering and Julia Trabulsi and Blizelle Tormis and Calvin Tong and Anoushka Tiwari and Aman Tiwari and Tiberiu Tesileanu and Tugce Tasci and Aliqyan Tapia and Jesslyn Tannady and Vikram Tank and Ziyi Tang and David Sussillo and Ananya Suri and Swetha Suresh and Emanuel Strauss and Connor Stout and Fabio Stefanini and Adrian Spurr and Morgan Springer and Ivy Jiyoung Song and Seyyid Emre Sofuoglu and Jeff Smith and Viswanath Sivakumar and Gagandip Singh and Jeremy Simpson and Noor Siddiqi and Yasmin Siahpoosh and Olivia Shiah and Kevin Shi and Stephie Shen and Vandita Sharma and Philip Shamash and Anish Shah and Ami Shah and Nurettin Dorukhan Sergin and Mike Seltzer and Jeffrey Seely and David Schwab and Collin Schlager and Aichatou Savane and Roxanna Salim and Amir Sadoughi and James Sacra and Abby Russo and Sam Russell and Alexander Rudnicki and Ran Rubin and Likhon Roy and Ian Roth and Andrew Rosenkranz and Sebi Rolotti and Lain Warawao Nemo Mora y. Rivera and Jason Reisman and Jonathan Reid and Devin Reardon and Tanvi Ranjan and Julian Ramos Rojas and Jose Ramirez Fuentes and Sunaina Rajani and Shanil Puri and Brandon Pool and Eftychios Pnevmatikakis and Natalie Plotkin and Stephen M. Plaza and Adrien Piérard and Zavion Perez and Matias Perez and Diogo Peixoto and Sean Parker and Julia Paredes and Tejaswy Pailla and Adam M. Packer and Emmanuella Owolabi and Timothy M. Otchy and Chris Osborn and Garrick Orchard and Shay Ohayon and Luke O’Connor and Keven Nguyen and Jimson Ngeo and Romario Nelson and Ajay Nathan and Norris Nakagaki and Krunal Naik and Conner Muth and Suman Mulumudi and Anthony Moschella and Dano Morrison and Brock Morrell and Yonathan Morin and Sean Moore and Ricardo Pio Monti and Ilya Milyavskiy and David Miller and Josh Merel and Jorge Aurelio Menendez and Ashley McHugh and Stephen McAnearney and Nicolas Yvan Masse and Mirek Martincik and Najja Marshall and Jesse Marshall and Michael Mandel and Niru Maheswaranathan and Attila Maczak and Francisco Luongo and Roddy Louie and Kati London and Saar Lively and Yuxuan Liu and Yingru Liu and Jonathan Liao and Tiffanie Li and Juheui Amy Lee and Jin Hyung Lee and Jennifer Lee and Claire Lee and Andrzej Lawn and Christina Shabu Koshy and T. W. Koh and Steven Kober and Ta Chu Kao and Ajay Kamdar and Nishant Kakar and Nirag Kadakia and Na Young Jun and James Jaeyoon Jun and Brooke Juarez and Xiaodong Jiang and Connie Jiang and Vinay Jayaram and Shaker Islam and Hazel Hulet and Yue Hui and Rongqing Huang and Vivian Hsiung and Alex Hsieh and Stepan Hruda and Helen Hou and Lillian Hong and Kirak Hong and Daniel N. Hill and Carl Hewitt and Stav Hertz and Carlos Xavier Hernández and Katarina Hadjer and Austin Ha and Sinem Guven Kaya and Chetan Gupta and Ning Guo and Bryn Gunther and Lauren Grosberg and Alexandre Gramfort and Greg Gimler and Danny Giebisch and Vickram Gidwani and Sayan Ghosh and Minha Ghani and Nathalie Therese Helene Gayraud and Jonateal Garcia and Sida Gao and Jonathan Gamutan and Rupesh Gajurel and Jean Christophe Gagnon-Audet and Jianing Fu and Dustin Freeman and Emanuele Formento and Jake Fine and Randy Feliz and Ali Farshchian and Nariman Farsad and Mina Fahmi and Phina Enemuo and Zaina Edelson and Alan Du and Scott Draves and Bob DiMaiolo and Bruno De Araujo and Thomas J. Davidson and Nathan Danielson and William F. Cusack and Raven Cunningham and Mark Cramer and Jota Costa and James Connors and Jeremiah Chung and Won Chun and John Choi and Rohan Chitnis and Rudi Chiarito and Joshua Chester and Daniel Chenet and Chia Jung Chang and Adam J. Calhoun and Matt Butler and Joe Bravate and Maclyn Brandwein and Mario Bräcklein and Matthew Bracaglia and Don Bosley and Anu Bolarinwa and Luke Boegner and Sean Bittner and Joe Bienkowski and Rohin Bhasin and Adam Berenzweig and Wilman Pimentel Beltran and Philip Bard and Alexandre Barachant and Nicholas Baker and Christopher Baker and Francisco Ayerbe and Lana Awad and Mridu Atray and Rahul Arora and Sacha Arnoud and Chris Anderson and Brian D. Allen},
|
||||||
|
doi = {10.1038/s41586-025-09255-w},
|
||||||
|
issn = {14764687},
|
||||||
|
issue = {8081},
|
||||||
|
journal = {Nature},
|
||||||
|
month = {9},
|
||||||
|
pages = {702-711},
|
||||||
|
pmid = {40702190},
|
||||||
|
publisher = {Nature Research},
|
||||||
|
title = {A generic non-invasive neuromotor interface for human-computer interaction},
|
||||||
|
volume = {645},
|
||||||
|
year = {2025}
|
||||||
|
}
|
||||||
|
@techReport{Li2025,
|
||||||
|
abstract = {The demand for advanced human-machine interfaces (HMIs) highlights the need for accurate measurement of muscle contraction states. Traditional methods, such as electromyography, cannot measure passive muscle contraction states, while optical and ultrasonic techniques suffer from motion artifacts due to their rigid transducers. To overcome these limitations, we developed a flexible multichannel electrical impedance sensor (FMEIS) for non-invasive detection of skeletal muscle contractions. By applying an imperceptible current, the FMEIS can target multiple deep muscles by capturing electric-field ripples generated by their contractions. With an ultrathin profile (~220 micrometers), a low elastic modulus (212.8 kilopascals) closely matching human skin, and engineered adhesive sensor surfaces, the FMEIS conforms nicely to human skin with minimized motion artifacts. The FMEIS achieved high accuracy in both hand gesture recognition and muscle force prediction using machine learning models. With demonstrated performance across multiple HMI applications, including human-robot collaboration, exoskeleton control, and virtual surgery, FMEIS shows great potential for future real-time collaborative HMI systems.},
|
||||||
|
author = {Junwei Li and Kunlin Wu and Jingcheng Xiao and Tianyu Chen and Xudong Yang and Jie Pan and Yu Chen and Yifan Wang},
|
||||||
|
journal = {Sci. Adv},
|
||||||
|
pages = {3359},
|
||||||
|
title = {E N G I N E E R I N G Flexible multichannel muscle impedance sensors for collaborative human-machine interfaces},
|
||||||
|
volume = {11},
|
||||||
|
url = {https://www.science.org},
|
||||||
|
year = {2025}
|
||||||
|
}
|
||||||
Loading…
x
Reference in New Issue
Block a user