roboforum.ru

Технический форум по робототехнике.

LUM РОБОТ-ПЛАТФОРМА

LUM РОБОТ-ПЛАТФОРМА

lorry » 04 фев 2014, 14:27

Доброго времени суток!
Представляем проект роботизированной платформы. Эту платформу наша небольшая команда собирает самостоятельно уже больше года. Контроллер Arduino MEGA2560, два двигателя с энкодерами, IR датчики расстояния спереди и сзади, бампер столкновения, IR датчики перепада высоты на уровень пола. На сегодняшний день платформа работает, управляется с компьютера (пока только вручную - человеком), реагирует на препятствия, детектирует и отслеживает поворотом головы фигуру человека и лицо человека.
На платформу установлены два сенсора Microsoft Kinect, для ориентирования в пространстве, трекинга человека, распознавания лиц, распознавания жестов и т.п., несколько камер с использованием библиотеки компьютерного зрения OpenCV. Предполагается что платформа обзаведется манипуляторами (для начала просто будет подобие рук со свободой вверх-вниз). В итоге должен получится презентационный робот которого можно будет использовать как рекламу в магазине, на выставке, а так же дома или в офисе. Кроме этого робот может являться прототипом для создания других роботов.
По замыслу робот должен быть абсолютно самостоятельным, т.е. свободно ориентироваться и перемещаться в не знакомом помещении, не сталкиваться с объектами, обнаруживать человека и не путать его с предметами интерьера, выполнять команды поданные голосом и жестами, узнавать знакомых ему людей, обращаться к ним по имени, знакомиться с не знакомыми, пытаться вести беседу с человеком.
Думали над тем какую выбрать управляющую роботом программу для ПК, были варианты: ROS (под Linux) или Microsoft Robotics Developer Studio, но нет нужного опыта для работы с ними. В итоге начали сами писать на C++.
Над роботом работаем уже второй год.
За основу взята платформа от DFrobot. Платформа увеличена по высоте, установлен прототип головы с сенсором KINEKT. На сегодня робот умеет двигаться, правда пока только под управлением человека с ПК. Детектирует и отслеживает фигуру человека поворотом и наклоном головы детектирует и отслеживает лицо.
В будущем робот научится узнавать человека стоящего перед ним, будет понимать речь и пытаться поддерживать некое подобие беседы. Планируется установить манипуляторы с захватом, так чтобы робот мог самостоятельно брать и перемещать предметы.
Итак, господа, познакомьтесь - робототизированная платформа "Light Universal Mobile" - Светлый (или лёгкий), Универсальный, Мобильный, или просто LUM (ЛЮМ).
Вот несколько фотографий нашего питомца:
s2122288.jpg
s2122288.jpg (15.16 КиБ) Просмотров: 14391


Вот такого робота создает наша команда, если кому интересно, спрашивайте.
Вложения
s3426286.jpg
s3426286.jpg (11.26 КиБ) Просмотров: 14389
s1355439.jpg
s1355439.jpg (17.07 КиБ) Просмотров: 13568
s4883545.jpg
s4883545.jpg (12.76 КиБ) Просмотров: 13570
s1579061.jpg
s1579061.jpg (11.6 КиБ) Просмотров: 13830
s1549940.jpg
s1549940.jpg (14.33 КиБ) Просмотров: 13826
s0935595.jpg
s0935595.jpg (12.25 КиБ) Просмотров: 14372
Последний раз редактировалось lorry 09 фев 2014, 01:32, всего редактировалось 9 раз(а).

Re: РОБОТ-ПЛАТФОРМА

Myp » 04 фев 2014, 15:28

корпус будете делать красивый обтекаемый?

расскажите про привод колёс и как сделано
нагрузка вроде большая получается в сумме на колёса.

Re: РОБОТ-ПЛАТФОРМА

elmot » 04 фев 2014, 15:46

Господи, делать здоровую штуку на таком убогом МК :(
Упасть-то не пытается?

Re: РОБОТ-ПЛАТФОРМА

Nesenin » 04 фев 2014, 19:17

elmot писал(а):Господи, делать здоровую штуку на таком убогом МК :(

да ну хватит вам. на этом МК весь проект http://ardupilot.com/ работает. и летают и ездят и плавают роботы с управлением автопилота. готовая система БПЛА собирается, хоть на самолете хоть на вертолете. при том что требования к скорости работы алгоритма управления для того же квадрика очень велики

Добавлено спустя 2 минуты 36 секунд:
lori писал(а):Думали над тем какую выбрать управляющую роботом программу для ПК, были варианты: ROS (под Linux) или Microsoft Robotics Developer Studio, но нет нужного опыта для работы с ними. В итоге начали сами писать на C++.

сочувствую. уже б давно робот сам ездил, а не под управлением человека.
читать
http://habrahabr.ru/company/tod/blog/204250/
http://habrahabr.ru/company/tod/blog/210252/

Re: РОБОТ-ПЛАТФОРМА

elmot » 04 фев 2014, 20:03

Nesenin писал(а):
elmot писал(а):Господи, делать здоровую штуку на таком убогом МК :(

да ну хватит вам. на этом МК весь проект http://ardupilot.com/ работает. и летают и ездят и плавают роботы с управлением автопилота. готовая система БПЛА собирается, хоть на самолете хоть на вертолете. при том что требования к скорости работы алгоритма управления для того же квадрика очень велики

Видел я код MutiWii. Ужас. Приближенная тригонометрия, какие-то пляски с производительностью, из-за которых квадрики явно будет колбасить. До сих пор не понимаю, нафига они дуню мучают, когда вышло столько мощных МК и портануть туда этот код - вопрос одного-двух дней.

Re: РОБОТ-ПЛАТФОРМА

Nesenin » 04 фев 2014, 20:26

во первых multiWII летает. никого не колбасит.
во вторых его моды вроде MahoWii RC3 летают еще круче со всякими доп функциями http://forum.rcdesign.ru/blogs/83206/blog17033.html
в третьих есть такая хрень http://forum.rcdesign.ru/f123/thread343484.html
в четвертых есть порты всякие. хоть от того же http://forum.rcdesign.ru/blogs/83206/blog18279.html нет дешевого контроллера и поддержки
в пятых я вообще то про ardupilot писал, в котором (внезапно) есть автопилот! который по точкам GPS шастает туда сюда с персональным кодом под каждую платформу(самолет,вертолет,мультиротор разных типов,лодка,машина), общается с наземной станцией и делает другие вещи. и все это на той же "мощи" что и в 328 atmega.

а тут задача как бы вообще ниочем для этого МК

Re: РОБОТ-ПЛАТФОРМА

lorry » 05 фев 2014, 00:19

elmot писал(а):Господи, делать здоровую штуку на таком убогом МК :(
Упасть-то не пытается?


Господа, я понимаю ваш флуд по поводу выбора нами контроллера Arduino, :sorry: мы прекрасно понимаем, что этот МК "игрушка для детей", но как раз в этом то и состоит его привлекательность. Дело в том, что, решение любой задачи должно быть адекватно поставленной цели, мы не шли путем "цель оправдывает средства", т.е. покупаем дорогущий профессиональный МК и используем его возможности на 10%, а остальные аппаратные и программные ресурсы просто простаивают, но за то ЭТО БУДЕТ КРУТО!!! 8) в данном случае выбор именно этого контроллера был обусловлен несколькими иными факторами, а именно:
1. низкая стоимость контроллера, проект сам по себе большой и цена комплектующих играет не малую роль;
2. как вы верно сказали в посте ниже, мы легко перейдем на любой другой МК при необходимости в этом (пока такой необходимости нет);
3. при этом Arduino обладает достаточно удобной средой программирования;
4. большим количеством портов;
5. легкостью адаптирования в любую программно-аппаратную среду;
и 6. самое главное - в первом посте знакомства я написал, что данный робот конструируется как прототип для создания других робото-устройств, это как стартовая площадка для конструирования, а там уж на сколько фантазии и денюжков хватит! :D
Единственное, что на сегодняшний день планируется это переход на Arduino DUE, в нем и шина 32 разряда против 8-ми в MEGA, и частота 84 МГц против 16 в MEGA. Только планируем переход, а когда он будет осуществлен еще не известно.

Добавлено спустя 43 минуты 17 секунд:
сочувствую. уже б давно робот сам ездил, а не под управлением человека.


Дело в том, что такую тривиальную задачу, как просто ездить не натыкаясь на препятствия мы давно решили, при этом решена она была именно на Arduino, без привлечения ПК. Не нужен здесь монстр ROS на Linux, не нужен KINEKT, это как раз то, когда используются аппаратные и программные средства совсем не адекватно поставленным целям. Если создается машинка которая будет кататься по комнате объезжая кресла и табуретки, при этом на борту у нее Core-i7, то все основное время этот процессор просто будет простаивать, а стоимость его совсем не адекватна решенной задачи.
Мы пошли другим путем:
Наш робот программно и аппаратно разделен на несколько уровней:
1. На самом низком уровне находится сама платформа, это металлическая рама, корпус головы и рук, крепеж, винтовые соединения, кабель каналы и прочее. Это вроде как скелет у человека;
2. Выше находятся двигатели, все возможные приводы, датчики. Это как мышцы и нервные окончания;
3. Далее микроконтроллер, который считывает данные с датчиков, делает их предварительную обработку и подготовку для передачи в компьютер, а так же принимает от компьютера команды и формирует управление на двигатели и привода платформы. Это как бы нервная система у человека;
4. И выше всех стоит ПК, именно он и производит окончательную обработку всей полученной от сенсоров информации, принимает решения о дальнейших действиях и выдает МК управляющие команды. Это высшая нервная деятельность т.е. мозг.
Именно такой иерархией обусловлен выбор всех аппаратных и программных средств робота. Это позволило нам снизить стоимость оборудования равномерно распределив функции между всеми устройствами и возложить на каждый модуль именно те задачи которые он может решить.
К вопросу о ROS. К сожалению, мы не смогли разобраться с ним, хотя имеется компьютер с Linux и установленным ROS. Просто среди нас нет специалиста по этой ОС, а изучать заново нужно время. Да и запуск ROS не простая задача. Мы застряли на том, что сборку пакетов при каждом старте программы нужно делать заново и все это вручную, а это куча команд и открытых терминальных окон, в общем мы оставили ROS на потом. Может кто и сможет нам помочь из roboforuma?!
Добавлено спустя 39 минут 12 секунд:
Хотелось бы поделиться наработками по OpenCV и KINECT.
Это действительно отличные штуки! Особенно при применении их в паре. OpenCV как библиотека компьютерного зрения имеет огромные возможности в обработке видео потока, это распознавание лиц, распознавание объектов, выделение движущихся объектов, текинг и прочее, прочее, прочее. А KINEKT может выдавать не только видео ряд для обработки в OpenCV, но и карту глубины сцены и скелетон детектированного человека и трекинг лица и еще аудио поток с четырех направленных микрофонов. В общем, в связке, эта парочка может заставить вашего робота жить и адекватно реагировать на окружающую среду. Чем мы успешно в нашем проекте и пользуемся.
Приобрели сенсор KINECT:
s6987106.jpg
s6987106.jpg (11.33 КиБ) Просмотров: 13651

Подключили к ПК и получили следующую картинку:
s5552886.jpg
s5552886.jpg (11.88 КиБ) Просмотров: 14165

Это и есть карта глубины сцены, получить которую мы так долго мечтали. Чем ярче объект, тем он ближе находится к сенсору. Теперь нужно перехватить поток данных от Kinect-а и можно будет научить робота ориентироваться в пространстве. Использовать эти данные можно будет для реализации SLAM.
Метод одновременной навигации и построения карты (SLAM от англ. Simultaneous Location and Mapping) — метод, используемый роботами и автономными транспортными средствами для построения карты в неизвестном пространстве или для обновления карты в заранее известном пространстве с одновременным контролем текущего местоположения и пройденного пути.
Т.е. наш робот сможет свободно перемещаться в любом помещении не натыкаясь на предметы и обходя их. Кроме того Kinect умеет детектировать фигуру человека и отслеживать движения рук, ног, головы, туловища, а значит мы сможем научить робота отличать человека от любого другого предмета интерьера. И еще сенсор имеет встроенные микрофоны с помощью которых робот сможет поворачиваться на источник звука и распознавать речь.
В общем эта очень крутая штучка!!!
Начинаем с ней разбираться.
Вот, к примеру, полученная от сенсора трехмерная картинка моего кабинета. Картинка получена с IR камеры с наложением текстур цветной камеры сенсора:
s5814034.jpg
s5814034.jpg (11.13 КиБ) Просмотров: 14028

Вот полученные мной скелетоны от KINECT-а:
1. картинка с видео-камеры сенсора -
s0335376.jpg
s0335376.jpg (10.92 КиБ) Просмотров: 14196

2. картинка с картой глубины от IR-камеры сенсора -
s1934746.jpg
s1934746.jpg (8.11 КиБ) Просмотров: 13630

3. ну и собственно то, что я получил на выходе - два человека стоят перед сенсором, KINECT возвращает скелетоны и мы отрисовываем их в окне. Самое главное это то, что известны координаты всех узлов (суставов), таким образом можно четко детектировать движения и жесты человека, и жестами управлять роботом. Кстати, эту функцию можно применять и не только в робототехнике. Это как SmartTV с управлением жестами! там конечно не кинект, но идея та же, можно сделать устройство которым управлять при помощи жестов.
s7471359.jpg
s7471359.jpg (7.05 КиБ) Просмотров: 13641

Разобрались с отслеживанием лица в KINECT. Пришлось очередной раз (скорее всего не в последний) полностью переписать программный код робота, за то, теперь все работает так как планировалось, и даже немного лучше. Теперь код устроен так, что имеется три функции при помощи которых детектируется фигура, голова или лицо человека, это делается несколькими способами: алгоритмами KINECT производится поиск фигуры или лица, а так же дополнительно была введена функция поиска лица человека методами библиотеки компьютерного зрения OpenCV. При таком функционале вероятность обнаружения человека увеличилась почти в двое, значительно уменьшились ошибки детектирования и ложные срабатывания, которые имели место быть раньше. Но все же еще программу стоит немного доработать, но это уже мелочи, которые будут доведены в процессе.
Вот скриншот работы программы:
s5781925.jpg
s5781925.jpg (8.85 КиБ) Просмотров: 13369

В открытых окнах можно видеть: 1) детектированный скелетон, 2) в окне видео наложенная на детектированное лицо маска, 3) в левом верхнем углу окна с видео - координаты x, y и z лица, 4) а также методы которыми был детектирован человек (в данном случае faceKINECT и skeletonKINECT). Методы faceKINECT и skeletonKINECT являются основными методами детектирования фигуры и лица, а метод faceOpenCV дополнительный метод работающий на близких расстояниях, т.е. когда дистанция от сенсора до лица человека менее 40 см. Это расстояние является критичным для KINECT, ближе сенсор не видит объекты, но в реальности вполне возможна ситуация когда человек окажется в этой слепой зоне сенсора, вот тут то и включается метод faceOpenCV, который позволит роботу видеть нахала пытающегося заглянуть LUM-у (так зовут нашего робота) прямо в глазки. Хотя, надо сказать, что при включенном NEAR_RANGE (ближний режим), если KINECT захватывает лицо, то держит его до совсем близкого расстояния между лицом и сенсором, когда уже и само лицо не помещается в кадр. Вот пример того как это выглядит. На фотографии ниже я приблизился к сенсору на расстояние менее 20 см. Сенсор достаточно стабильно удерживает маску на лице, более того, прорисовывает мимику.
s1371990.jpg
s1371990.jpg (14.93 КиБ) Просмотров: 13538

Re: LUM РОБОТ-ПЛАТФОРМА

Scorpio » 05 фев 2014, 01:48

Мне заранее нравится, т.к. сам делал робота на той-же платформе и похожим назначением. А с кинектом надо разобраться на нашем форуме раз и навсегда. И поместить его в RoboWiki. :)

Re: РОБОТ-ПЛАТФОРМА

elmot » 05 фев 2014, 02:36

lori писал(а):1. низкая стоимость контроллера, проект сам по себе большой и цена комплектующих играет не малую роль;

пфффф. Даже несмешно.
http://www.terraelectronica.ru/catalog_ ... DE=1075935

Против ардуины с 2мя шилдами

3. при этом Arduino обладает достаточно удобной средой программирования;

O_o. Странные представления об удобных средах.
4. большим количеством портов;

Еще более странные представления о количестве портов.

Re: LUM РОБОТ-ПЛАТФОРМА

lorry » 05 фев 2014, 05:39

Scorpio писал(а):Мне заранее нравится, т.к. сам делал робота на той-же платформе и похожим назначением. А с кинектом надо разобраться на нашем форуме раз и навсегда. И поместить его в RoboWiki. :)


Scorpio, ваш проект очень интересен и во многом перекликается с нашим, может мы чем то сможем помочь друг другу?
:beer:

Добавлено спустя 7 минут 53 секунды:
Re: РОБОТ-ПЛАТФОРМА
Уважаемый elmot, я понимаю (судя по вашим репликам здесь и в других постах), что возможно, вы весьма продвинутый специалист в этой области, но пожалуйста, не засоряйте эфир пустым флудом.
Извините, если обидел.
:)

Добавлено спустя 2 часа 8 минут 57 секунд:
Re: РОБОТ-ПЛАТФОРМА
Myp писал(а):корпус будете делать красивый обтекаемый?

расскажите про привод колёс и как сделано
нагрузка вроде большая получается в сумме на колёса.


Корпус будем делать, но не сейчас, проект пока находится в разработке и времени на внешнюю отделку не хватает.

Вот фото двигателей:
IMAG0227.jpg

Нагрузка на двигатели действительно приличная, робот сейчас весит около 10 кг., а это еще без рук, внешнего корпуса, компьютера и пр. Но при этом двигатели мощные 15 кг на см., оборудованы энкодером на основе датчика Холла. Возможно подключение энкодера когда он будет определять направление вращения колеса. Двигатели с снабжены редукторами с металлическими шестернями. В общем привод надежный и мощный.

Добавлено спустя 8 минут 41 секунду:
Переписал код робота, за одно адаптировал его под подключение второго сенсора KINEKT, кроме того оптимизирован обмен данными между Arduino и компьютером. Результаты такие: Программный код полностью переписан, теперь робот работает более стабильно, не глючит обмен по COM порту, информация с датчиков платформы передается для анализа и принятия решений в компьютер, установлен второй сенсор и приступаем к реализации SLAM. Еще начинаем работу над созданием рук-манипуляторов (как появится прототип, сразу выложу фото).

Примерно так будет выглядеть с двумя сенсорами KINEKT
IMAG0226.jpg

Как я уже писал, одни сенсор, что в голове, отвечает за распознавание и трекинг за фигурой человека и лицом собеседника, а второй, что стоит в теле робота (пока просто стоит, в дальнейшем будет разобран и закреплен) будет отвечать за навигацию. Над этим только начинаем работать, может кто чего посоветует!?

Добавлено спустя 9 минут 43 секунды:
Scorpio писал(а):А с кинектом надо разобраться на нашем форуме раз и навсегда. И поместить его в RoboWiki. :)


Совершенно с вами согласен, это весьма интересный сенсор, возможности у него очень большие.
Еще немного повторюсь и выложу инфу про этот сенсор:
Вообще, это сенсор от игровой приставки XBOX 360, он идет в комплекте с приставкой, но сам сенсор можно купить и отдельно, главное чтобы это был сенсор под WINDOWS, это важно! т.к. такой сенсор оборудован USB переходником. Я натыкался на кинект для приставки XBOX, такой подключить к компьютеру не получится. А главное, что менеджеры в компьютерных магазинах тоже не разбираются в них. В общем так, если будете брать, просите чтобы открыли коробку, и смотрите на провода в комплекте - во первых должен быть блок питания, а во вторых на шнуре должен быть разъем USB для подключения к ПК.
Ниже представлен скрин захвата фигуры человека с помощью SDK идущего с сенсором:
s6190454.jpg
s6190454.jpg (15.13 КиБ) Просмотров: 14643

Если двигать руками и ногами, то наложенный на фигуру скелетон тоже движется в такт с человеком. На скрине видно наложение скелета на видео ряд, в окне справа вверху выделенная красным цветом фигура человека с наложенным скелетом. Так сенсор определяет облако точек которое принадлежит человеку. Распознается фигура мгновенно сразу после попадания в область сцены сенсора, движения повторяет без каких либо задержек и тормозов.

Здесь показано как сенсор отслеживает лицо человека, сенсор видит мимику, наклон и поворот головы. На детектированное лицо накладывается маска в виде сетки повторяющая движения основных мимических мышц лица.
s9024173.jpg
s9024173.jpg (12.71 КиБ) Просмотров: 13658

Как видно, сенсор обладает поразительными возможностями.
Но это еще не все. Этот сенсор версии 1.0, он может отслеживать и прорисовывать скелетоны двух человек, а еще четыре фигуры находящиеся в поле зрения сенсора просто будут обозначены как детектированные без наложения скелета. Схематически как это выглядит показано ниже:
s0505865.jpg
s0505865.jpg (12.54 КиБ) Просмотров: 13903

На две фигуры наложен скелет, остальные обозначены точками в районе пупка.
Но недавно появилась новая версия сенсора Kinect 2.0, это сенсор к новой игровой консоли XBOX ONE от Microsoft, он кроме всего того что может сенсор версии 1.0, новый умеет обрабатывать до 6-ти человек одновременно, отслеживать пальцы, мышцы, мимику и даже сердцебиение человека, так что новый кинэкт не перепутает вас с манекеном :D или роботом андроидом. Правда, пока в России я в продаже этот сенсор не видел. Скажу по правде, мне несколько жутковато становится от всего этого, ведь если такие технологии настигли нас, простых смертных, то что же творится в военной робото-промышленности? Терминаторы не за горами!
Еще интересно то, что сенсор видит в абсолютной темноте, но это и не удивительно, сенсор сканирует инфракрасным излучением.
Вот скрин, картинка сделана в полной темноте, как видно сенсор видит не только предметы интерьера, но и находит человека.
s7452942.jpg
s7452942.jpg (9.44 КиБ) Просмотров: 13378

Так что смотрите сами. Я, например, был очень поражен его возможностям по сравнению с обычными сонарами, дальномерами и даже лазерными сканерами, от этих датчиков, конечно, не стоит совсем отказываться, они несли и несут свою функцию (в том числе и в нашем проекте), но думаю что двигаться нужно вперед.
Я во многом разобрался с сенсором, пишу управляющую программу для робота на C++, соответственно и KINECT под C++ работает. Научился получать видео с камеры сенсора, карту глубины для навигации, скелетоны фигур людей и лица. Если кого что интересует могу поделиться вплоть до программного кода.

Re: LUM РОБОТ-ПЛАТФОРМА

Nesenin » 05 фев 2014, 06:00

советую. лазерный сканирующий дальномер, сенсор с другим рабочим диапазоном http://www.primesense.com/wp-content/up ... orsWeb.pdf и освоить таки ROS, потому что запаритесь вы со SLAM

Добавлено спустя 2 минуты 51 секунду:
коль у вас версия под windows вопрос с рабочим диапазоном снимается

Re: LUM РОБОТ-ПЛАТФОРМА

lorry » 05 фев 2014, 06:01

Nesenin писал(а):советую. лазерный сканирующий дальномер, сенсор с другим рабочим диапазоном http://www.primesense.com/wp-content/up ... orsWeb.pdf и освоить таки ROS, потому что запаритесь вы со SLAM


Да, да, да и еще раз ДА. Совершенно согласен по поводу освоения ROS-а, займемся непременно, но чуть позже. А чем предлагаемый вами сенсор отличается от KINECT? Чем он лучше?

Re: LUM РОБОТ-ПЛАТФОРМА

Nesenin » 05 фев 2014, 06:06

да ничем. просто ссылка на разработчиков. там 2 рабочих диапозона. ваш кинект под виндовз соответсвует carmine 1.09 единственное чем последнии лучше так размерами и весом. вплоть до
Изображение

Re: LUM РОБОТ-ПЛАТФОРМА

lorry » 05 фев 2014, 06:12

Благодарю за ссылку, непременно изучим более подробно, тем более что меньшие габариты и вес, в нашем случае, это не маловажный критерий.

Re: LUM РОБОТ-ПЛАТФОРМА

Scorpio » 05 фев 2014, 18:23

lori писал(а):Я во многом разобрался с сенсором, пишу управляющую программу для робота на C++, соответственно и KINECT под C++ работает. Научился получать видео с камеры сенсора, карту глубины для навигации, скелетоны фигур людей и лица. Если кого что интересует могу поделиться вплоть до программного кода.

Чертовски интересует. Давно ждал, пока кто-нибудь разберется с кинектом за меня :) Вещь в нашем деле весьма полезная. Лучше в отдельной теме про кинект и со всеми необходимыми библиотеками, чтобы не искать, если не жалко.
Я так понимаю, что кинект еще заточен на распознавание голоса, т.к имеет встроенные микрофоны, систему шумоподавления и соответствующий SDK. У меня кинект старый. уже года 3 или 4 как купил Xbox360. Но, думаю, что физически он ни чем не отличается от того, который под винду. Только разъемом, на котором кроме USB, контакты питания 12В. Недавно как раз прикупил удлиннитель, буду делать из него переходник. И попробую-таки подключить к компу. Одно мне не понятно. Кинект настроен на "дальнее зрение", не менее 2х метров (хотя вы пишите, что до 40 см. работает). Для объезжания мебели такая дальняя перспектива вроде не к чему. Видел в продаже фокусирующие линзы, для использования сенсора в малогабаритных квартирах.
Сервомоторы сенсоров как-то используются?


Rambler\'s Top100 Mail.ru counter