http://mamlas.livejournal.com/ (
mamlas.livejournal.com) wrote in
eto_fake2013-05-25 08:39 pm
![[identity profile]](https://www.dreamwidth.org/img/silk/identity/openid.png)
![[community profile]](https://www.dreamwidth.org/img/silk/identity/community.png)
Entry tags:
Интерфейс мозг-компьютер
В середине мая я в очередной раз побывал в Воронеже по приглашению школы Репное. И для меня эта поездка стала открытием.
Мне повезло познакомиться с профессором МГУ Александром Капланом и стать объектом для практической демонстрации технологий, над которыми сейчас ведет работу его лаборатория. Речь идет об интерфейсе «мозг-компьютер», проще говоря, об управлении электронными устройствами при помощи мыслительного процесса.

Звучит как фантастика и дело отдаленного будущего. На деле же это уже реальность. А на массовый рынок эти технологии придут в горизонте 7-15 лет. ©
Вот как это выглядит сейчас. Мне на голову установили шапку с датчиками:
Шапка состоит из шести датчиков, которые снимают электрические сигналы мозга (электроэнцефалограмма). В след за этим ты проходишь короткую, на несколько минут, тренировку по калибровке интерфейса. После прохождения тренировки перед тобой на экране ноутбука открывают электронную клавиатуру и дают печатать. Но печатаешь ты не привычным нажатием на клавиатуру/мышь и не голосом, а концентрацией своего внимания на том или ином символе через фокусировку своего взгляда на нем.
Следующим этапом стало использование специального браузера — передо мной были различные изображения, ведущие в директории с другими изображениями, и я осуществлял навигацию при помощи фокусировки своего зрительного внимания на них. При этом опять же не требовалось использование никаких физических или голосовых манипуляторов. Только зрительное внимание. Больше всего меня поразило то, что это работает.
Хотя лучше про данный проект расскажет сам Александр Каплан:
На том же сайте есть другие его выступления, искренне рекомендую.
Понятное дело, что зрительное внимание — это не то, что может стать удобной заменой привычных нам интерфейсов управления электронными устройствами. Однако шаг от расшифровки этих сигналов мозга до расшифровки других, связанных, например, с нашим воображением — гораздо короче, нежели все предыдущие отрезки пути до нынешнего момента, и значительная работы в этом отношении уже сделана. С учетом массированного финансирования этой сферы в США и Азии, массовое внедрение подобных технологий — дело нескольких лет. У нас тоже не все так плохо — проект Каплана по созданию нейроинтерфейсов для медицинской сферы (управляемые мозгом протезы) является резидентом и грантополучателем Сколково, хоть это по нынешним временам и не очень модно.
Если мы посмотрим на проект Google Glass (выступление Сергея Брина на TED), то это, безусловно, будущее мобильной коммуникации. Но его ключевой уязвимостью является именно голосовой интерфейс управления. Он является лишь переходным этапом к управлению при помощи мозга. И уже скоро, очень скоро, мы увидим как это работает.
Хотя, у любой технологии, есть и обратная сторона. Расшифровка мыслей человека может привести к весьма непредсказуемым последствиям.
Мне повезло познакомиться с профессором МГУ Александром Капланом и стать объектом для практической демонстрации технологий, над которыми сейчас ведет работу его лаборатория. Речь идет об интерфейсе «мозг-компьютер», проще говоря, об управлении электронными устройствами при помощи мыслительного процесса.

Звучит как фантастика и дело отдаленного будущего. На деле же это уже реальность. А на массовый рынок эти технологии придут в горизонте 7-15 лет. ©
Вот как это выглядит сейчас. Мне на голову установили шапку с датчиками:
Шапка состоит из шести датчиков, которые снимают электрические сигналы мозга (электроэнцефалограмма). В след за этим ты проходишь короткую, на несколько минут, тренировку по калибровке интерфейса. После прохождения тренировки перед тобой на экране ноутбука открывают электронную клавиатуру и дают печатать. Но печатаешь ты не привычным нажатием на клавиатуру/мышь и не голосом, а концентрацией своего внимания на том или ином символе через фокусировку своего взгляда на нем.
Следующим этапом стало использование специального браузера — передо мной были различные изображения, ведущие в директории с другими изображениями, и я осуществлял навигацию при помощи фокусировки своего зрительного внимания на них. При этом опять же не требовалось использование никаких физических или голосовых манипуляторов. Только зрительное внимание. Больше всего меня поразило то, что это работает.
Хотя лучше про данный проект расскажет сам Александр Каплан:
На том же сайте есть другие его выступления, искренне рекомендую.
Понятное дело, что зрительное внимание — это не то, что может стать удобной заменой привычных нам интерфейсов управления электронными устройствами. Однако шаг от расшифровки этих сигналов мозга до расшифровки других, связанных, например, с нашим воображением — гораздо короче, нежели все предыдущие отрезки пути до нынешнего момента, и значительная работы в этом отношении уже сделана. С учетом массированного финансирования этой сферы в США и Азии, массовое внедрение подобных технологий — дело нескольких лет. У нас тоже не все так плохо — проект Каплана по созданию нейроинтерфейсов для медицинской сферы (управляемые мозгом протезы) является резидентом и грантополучателем Сколково, хоть это по нынешним временам и не очень модно.
Если мы посмотрим на проект Google Glass (выступление Сергея Брина на TED), то это, безусловно, будущее мобильной коммуникации. Но его ключевой уязвимостью является именно голосовой интерфейс управления. Он является лишь переходным этапом к управлению при помощи мозга. И уже скоро, очень скоро, мы увидим как это работает.
Хотя, у любой технологии, есть и обратная сторона. Расшифровка мыслей человека может привести к весьма непредсказуемым последствиям.