на сколько реально это реализовать?

на сколько реально это реализовать?

Сообщение TheDoctor » 23 апр 2011, 10:33

Вкратце. Все знаем что пальцами управляет мозг посылая команду тому или иному пальцу.
У меня такой вопрос. Можно ли как то перехватить этот сигнал? Если можно то какие датчики или сенсоры нужно использовать? Может быть кто сталкивался уже с такой проблемой. Заранее всем спасибо
TheDoctor
 
Сообщения: 1
Зарегистрирован: 23 апр 2011, 10:13

Re: на сколько реально это реализовать?

Сообщение avr123.nm.ru » 23 апр 2011, 15:06

Можно конечно. Пошукайте в гугле. Датчики наверно как для энцифалограммы если на голову, а на мышцы то как для ЭКГ.
Читайте !
Аватара пользователя
avr123.nm.ru
отсылающий читать курс
 
Сообщения: 14195
Зарегистрирован: 06 ноя 2005, 04:18
Откуда: Москва

Re: на сколько реально это реализовать?

Сообщение RealRobot » 23 апр 2011, 19:32

япошки по этому принципу уже экзоскелет сделали. Клинические испытания в 2012, потом в серия. Поищи HAL (Hybrid Assistive Limb)
http://igrybogov.com - ну о.о.очень интересно
сознание определяет бытие, улыбнись своему отражению
RealRobot
 
Сообщения: 340
Зарегистрирован: 18 окт 2007, 23:46
Откуда: Москва
прог. языки: С++ , 1С :-)
ФИО: Михаил

Re: на сколько реально это реализовать?

Сообщение setar » 24 апр 2011, 09:57

реализовать реально, но уровень разработки - модное нынче слово нанотехнологичный
в общем не в домашних условиях однозначно.
суть проста: нужно читать возбуждения с аксонов нерва.
поскольку в нервном волокне цепочек аксонов много, то снимать информацию с нервного волокна в целом - это как слушать широкополосным приемником эфир (информации много а толку мало)
я думаю одно из самых перспективных исследований в этом направлении по ссылкам из этой статьи
Аватара пользователя
setar
Site Admin
 
Сообщения: 10989
Зарегистрирован: 04 окт 2004, 12:58
Откуда: St.Petersburg
Skype: taranenko.sergey
ФИО: Сергей Тараненко

Re: на сколько реально это реализовать?

Сообщение vadinator » 24 апр 2011, 10:12

setar писал(а):нужно читать возбуждения с аксонов нерва.

И не только читать, но и интерпретировать(дешефрировать) правильно и однозначно....
Роботы, уже среди нас...
Прошу прощения за аватар, никак схему динамической индикации не могу настроить :)
Аватара пользователя
vadinator
 
Сообщения: 979
Зарегистрирован: 19 янв 2010, 14:51
Откуда: Петрозаводск
прог. языки: C, FBD, Wiring-Processimg,,,LD, SFC, ST...
ФИО: Вадим

Re: на сколько реально это реализовать?

Сообщение Michael_K » 24 апр 2011, 15:26

vadinator писал(а):И не только читать, но и интерпретировать(дешефрировать) правильно и однозначно....

+100500
В этом как раз основная проблема. Считать можно, это хоть и не очень просто, но можно - и считывают давным-давно. А вот, что эти импульсы означают - зависит от кучи разных факторов - тонуса, нервной проводимости и т.п.
Ну и например, ты можешь напрячь бицепс, не двигая рукой, компенсируя противоположную мышцу или внешние силы, так что от сигнала до положения руки - дистанция "огромного размера".
Аватара пользователя
Michael_K
 
Сообщения: 6028
Зарегистрирован: 07 окт 2009, 00:29
Откуда: СПб

Re: на сколько реально это реализовать?

Сообщение Strijar » 24 апр 2011, 18:00

У меня в детстве была настольная книжка Войцеховского "Радио электронные игрушки" чуть ли не 1975г выпуска. Там была схема для снятия сигналов с мышц и передача их на элекрофицированный протез. Так что я думаю сейчас это и не так сложно.
Аватара пользователя
Strijar
 
Сообщения: 664
Зарегистрирован: 28 авг 2006, 17:09
Откуда: Всеволожск (СПб)
прог. языки: С, C++, Python, Lua, VHDL, Verilog, Forth
ФИО: Олег Белоусов

Re: на сколько реально это реализовать?

Сообщение Michael_K » 24 апр 2011, 18:33

Это другое. Там человек месяц учится, чтобы этот протез адекватно управлялся. И не факт, что научится.
Аватара пользователя
Michael_K
 
Сообщения: 6028
Зарегистрирован: 07 окт 2009, 00:29
Откуда: СПб

Re: на сколько реально это реализовать?

Сообщение boez » 26 апр 2011, 13:31

Вот уже есть тема про управление мыслями
forum35/topic9910.html
Там и правда есть разные решения, от датчиков мозговых и мышечных импульсов до имплантации контактов и подключения прямо к нервам.

Вообще есть у меня смутное подозрение, что эффективным было бы подключение интерфейсов к нервным волокнам в очень малом возрасте, от новорожденных до 2-3 лет, у них и регенерация шустрая, заживает все быстро, и учиться они только начинают, нейросети свои формируют. Представьте, вот вы родились - и вам аккуратно имплантировали небольшой контроллер с беспроводным интерфейсом куда-нибудь, да хоть в любимый всеми фантастами затылок, и подключили к сенсорным и/или моторным нейронам. И в процессе развития речевых и двигательных функций вы научились не только говорить ртом и набирать текст на клавиатуре, но и управлять неким дополнительным виртуальным органом который вы чувствуете и можете с его помощью отправлять текст, который будет восприниматься скажем персональным компьютером/телефоном/телевизором/кофемолкой как введенный с клавиатуры. А обратная связь от этого девайса позволит вам чувствовать (или "слышать", или вообще как-то отдельным потоком воспринимать, "видеть" наверное слишком сложно, зрение сильно на сами глаза завязано) ответную текстовую информацию от компьютера/телефона/телевизора/кофемолки, ну и вообще отличать их друг от друга, мысленно переключая управление с одного объекта на другой.

То есть я нейроинтерфейс вижу не как его представляют скажем в "Матрице", замещающим реальные чувства, а только дополняющим их. Известно, скажем, что слепые часть своей зрительной коры используют под слуховые функции. И вместо зрения читают осязанием. Люди, владеющие слепым набором на клавиатуре, тоже пользуются ей по сути как виртуальным органом-эффектором, они не думают какую кнопку нажать, они "посылают свои мысли в компьютер". Так что, ИМХО, мозг человека очень гибок в смысле использования сенсоров и эффекторов, особенно мозг ребенка. Ведь у него изначально вообще есть только пучки нервных волокон, которые куда-то как-то идут. И он в процессе роста и развития, еще до рождения, начинает "дергать" эти волокна и сопоставлять посылки с реакцией, постепенно разбираясь - где тут ручка, где ножка, где глазик и что будет если ручкой в него ткнуть :) И для него может оказаться совершенно естественным, что кроме ручек, ножек, глазок и ушек есть еще "вайфайка", которой можно менять цвет лампочки над кроваткой, позвать маму, чувствовать игрушки, в которые тоже встроены беспроводные контроллеры, а по мере развития - обмениваться все большим количеством информации с другими людьми и устройствами. И такая штука по идее "отъест" себе какую-то часть коры мозга, наравне со слухом и осязанием, и станет естественным для человека "шестым чувством".

Хотя и проблем с таким подходом тоже хватает, начиная с главной - "как отлаживать". А если подключение к нервам будет неудачным? А если ребенок окажется парализован? А как вообще понять что он там чувствует, когда он еще говорить не умеет? Ну и вообще, если у взрослого добровольца можно спросить согласия на такой эксперимент, то у ребенка-то не спросишь... И там сразу вал этических вопросов появляется...

Хотя может быть я недооцениваю гибкость мозга взрослого человека, и такое можно и во взрослом состоянии проделывать. Да, а месяц учиться - это недолго :)
boez
 
Сообщения: 1981
Зарегистрирован: 27 авг 2008, 10:45
Откуда: Харьков
прог. языки: С/С++

Re: на сколько реально это реализовать?

Сообщение Myp » 26 апр 2011, 13:42

я так полагаю что детям вживлять можно будет после того как вживление взрослым покажет свою состоятельность и опыт использования у взрослых докажет необходимость раннего вживления
тоесть вероятно это фантастика :)
<telepathmode>На вопросы отвечает Бригадир Телепатов!</telepathmode>
Всё уже придумано до нас!
Аватара пользователя
Myp
скрытый хозяин вселенной :)
 
Сообщения: 18018
Зарегистрирован: 18 сен 2006, 12:26
Откуда: Тверь по прозвищу Дверь
прог. языки: псевдокод =) сила в алгоритме!
ФИО: глубокоуважаемый Фёдор Анатольевич

Re: на сколько реально это реализовать?

Сообщение boez » 26 апр 2011, 14:00

Да может и взрослым тоже можно, в конце концов люди слепнут во взрослом состоянии - и тоже потом учатся азбуке брайля. А слепому набору так и вообще в основном взрослые учатся.
Я больше о том, что существующие сигналы расшифровать сложно, и они у каждого индивидуальны - и может быть проще не пытаться их расшифровать, а научить мозг формировать нужные сигналы - именно на тех аксонах, к которым подключен интерфейс. Нужна всего лишь надежная обратная связь.
boez
 
Сообщения: 1981
Зарегистрирован: 27 авг 2008, 10:45
Откуда: Харьков
прог. языки: С/С++

Re: на сколько реально это реализовать?

Сообщение avr123.nm.ru » 29 апр 2011, 17:31

Вот статья из журнала интересная механика про автомобиль управляемый мыслями.

=

Добавлено спустя 3 минуты 41 секунду:
Наверно такая шапочка для детектора лжи подойдет.
Вложения
журнал Интересная механика 5 май 2011  1.jpg
журнал Интересная механика 5 май 2011  2.jpg
Читайте !
Аватара пользователя
avr123.nm.ru
отсылающий читать курс
 
Сообщения: 14195
Зарегистрирован: 06 ноя 2005, 04:18
Откуда: Москва

Re: на сколько реально это реализовать?

Сообщение boez » 29 апр 2011, 18:47

Вот тут удобнее читать :) http://www.membrana.ru/particle/15763
boez
 
Сообщения: 1981
Зарегистрирован: 27 авг 2008, 10:45
Откуда: Харьков
прог. языки: С/С++


Вернуться в Сенсорика

Кто сейчас на конференции

Сейчас этот форум просматривают: нет зарегистрированных пользователей и гости: 0

cron