roboforum.ru

Технический форум по робототехнике.


LUM РОБОТ-ПЛАТФОРМА

Re: LUM РОБОТ-ПЛАТФОРМА

Сообщение robot-home2000 » 13 июн 2014, 01:04

сейчас есть лазерный сканер от Гугла он сделан как отдельный девайс со своей обработкой от уже вектор дает с вычислительный блок я так понимаю они его для своей машины сделали и как кит набор распространяют для разработчиков...можно попробовать получить...
или вот есть девайс http://project-tango.ru/
тоже как кит набор распространяют на нем уже квадрики летают тестируют и можно как отдельный блок системы обнаружения в пространстве...

Добавлено спустя 13 минут 37 секунд:
http://www.youtube.com/watch?v=Qe10ExwzCqk
вот ссылкана презентацию

есть еще девайс мы его сейчас смотрим LEAP motion ....leapmotion.com
как сенсор длижнего действия рассматриваем возможность

Добавлено спустя 56 секунд:
про кинект сюда или в кинектовскую тему писать???
robot-home2000
 
Сообщения: 100
Зарегистрирован: 06 май 2014, 03:37

Re: LUM РОБОТ-ПЛАТФОРМА

Сообщение lorry » 13 июн 2014, 01:21

Да, штука действительно интересная. Но проблема не в получении 3D картинки сцены, мы ее давно получили и используем. Теперь больше задумываемся над распознаванием объектов в пространстве.

Про кинект можно и сюда написать.
Аватара пользователя
lorry
 
Сообщения: 448
Зарегистрирован: 04 фев 2014, 13:53
Откуда: Комсомольск-на-Амуре
прог. языки: машинные коды
ФИО: Иван Иваныч

Re: LUM РОБОТ-ПЛАТФОРМА

Сообщение robot-home2000 » 13 июн 2014, 01:58

да над распознаванием пространства окружающее робота давно народ голову ломает...
вот и в Фонде Перспективных Исследований это одна из тем разработка алгоритмов и Конкурс на лучший прототип технологии распознавания изображений..уже открыт в Новосибирске есть несколько светлых голов...

Добавлено спустя 6 минут 32 секунды:
до каталогов по изделиям с распознованием лиц сегодня не добрался завтра скину ссылку.
robot-home2000
 
Сообщения: 100
Зарегистрирован: 06 май 2014, 03:37

Re: LUM РОБОТ-ПЛАТФОРМА

Сообщение BeS » 13 июн 2014, 12:29

robot-home2000 писал(а):сейчас есть лазерный сканер от Гугла он сделан как отдельный девайс со своей обработкой от уже вектор дает с вычислительный блок я так понимаю они его для своей машины сделали и как кит набор распространяют для разработчиков...можно попробовать получить...
или вот есть девайс http://project-tango.ru/
тоже как кит набор распространяют на нем уже квадрики летают тестируют и можно как отдельный блок системы обнаружения в пространстве...

Добавлено спустя 13 минут 37 секунд:
http://www.youtube.com/watch?v=Qe10ExwzCqk
вот ссылкана презентацию

есть еще девайс мы его сейчас смотрим LEAP motion ....leapmotion.com
как сенсор длижнего действия рассматриваем возможность

Добавлено спустя 56 секунд:
про кинект сюда или в кинектовскую тему писать???


Со смартфоном от Project Tango я уже поигрался, и не сказал бы что там Depth лучше чем у Kiect 1.0. Capri3D выдает более качественный Depth.
BeS
 
Сообщения: 39
Зарегистрирован: 28 июл 2013, 17:59

Re: LUM РОБОТ-ПЛАТФОРМА

Сообщение robot-home2000 » 13 июн 2014, 17:32

ДА Capri3D интересный девайс
robot-home2000
 
Сообщения: 100
Зарегистрирован: 06 май 2014, 03:37

Re: LUM РОБОТ-ПЛАТФОРМА

Сообщение robot-home2000 » 14 июн 2014, 00:08

Характеристики NeoFace:

верификация 1:1
идентификация 1:n
определение множественных совпадений лиц на основе GLVQ
распознавание на основе нейтральной сетевой технологии
определение расположения головы, лица и глаз
разрешение изображения до 2,147, 483,647 x 2,147, 483,647 пикселей
распознавание независимо от выгодной точки съемки или изменений лица (очки, растительность на лице или выражение лица)
выделение похожих областей лица
гибкая интеграция
поддерживает разнообразную графику и форматы видео, а также работу с камерами прямой передачи изображения
скорость сопоставления до 1,000,000 лиц в секунду

Добавлено спустя 5 минут 1 секунду:
Вот что ребята предложили у нас тестируется в системе безопасности торгового центра ...
Влет позволяет выхватывать из толпы идущих людей тех кто заложен в базу.. Также есть интересная функция определения внимания.. По направлению взгляда микроостановкам скорости перемещения объекта определяют заинтересованность людей , также их пол ,возраст...
Может монтироваться как отдельный блок к которому подключения камера или установлена как под программа в видео сервер ... Кодировала жаль закрыта .. Не покопаешься

Добавлено спустя 6 минут 17 секунд:
Надо наверно для платформы совместить камеры и кинект чтобы они работали параллельно до полняли друг друга... Тут скоро Чипы будут на тестирование привозить они заточённы под анализ видеоизображения мы их с камерами HD формата хотим скрестить в одном устройстве... Интересная вещь должна получиться... Планировалось как умная камера для машин и видеорегистраторов .. Но возможно и для роботизированных платформ подойдет..
robot-home2000
 
Сообщения: 100
Зарегистрирован: 06 май 2014, 03:37

Re: LUM РОБОТ-ПЛАТФОРМА

Сообщение lorry » 14 июн 2014, 00:12

robot-home2000 писал(а):Кодировала жаль закрыта .. Не покопаешься

Так вот именно в этом то и состоит вся проблема. Готовые решения имеются на рынке, но ребята создающие их, на этом деньги зарабатывают, и конечно все исходники закрыты. Если бы эти системы выдавали хотя бы потоки данных для последующей обработки, как например KINECT или ASUS, а так, толку то с них в робототехнике?
Последний раз редактировалось lorry 15 июн 2014, 16:09, всего редактировалось 1 раз.
Аватара пользователя
lorry
 
Сообщения: 448
Зарегистрирован: 04 фев 2014, 13:53
Откуда: Комсомольск-на-Амуре
прог. языки: машинные коды
ФИО: Иван Иваныч

Re: LUM РОБОТ-ПЛАТФОРМА

Сообщение robot-home2000 » 14 июн 2014, 00:23

Еще есть ребята .. Что-то не могу пока визитку найти .. Написал им через партнеров обещали выслать координаты.. У них есть свой ( как говорят) алгоритм обработки изображений с камер и там был у них интерес связанный с роботами

Добавлено спустя 7 минут 53 секунды:
LEAP motion ....leapmotion.com
Посмотрите по крайней мере там уже есть несколько программ для определения рук( кистей) и работают очень неплохо .. Мы его прикидывали использовать как защитный сканерами ближнего радиуса действия ... А чем больше копаемся тем интересней задумки и для управления вылезают.. Сейчас я отъехал в командировку а ребята должны сделать держатели для крепления на запястьях и тогда попробуем управление диомоторикой про писать .. Для обучения и выработки алгоритмов движения кистевого биопротеза.
robot-home2000
 
Сообщения: 100
Зарегистрирован: 06 май 2014, 03:37

Re: LUM РОБОТ-ПЛАТФОРМА

Сообщение lorry » 15 июн 2014, 09:11

После долгого перерыва продолжил заниматься одометрией. В итоге, это оказалось не такой уж сложной задачей как казалось сначала. Решение всех вопросов по одометрии сводится к решению тригонометрических функций уровня 9-го класса общеобразовательной школы.
Ниже визуализированный пример работы одометрии:
Это кадр из видео ряда возвращаемого сенсором KINECT. На кадре видны две коробки установленные для детектирования сенсором, на дальнем плане стоит кружка, по левой стороне кадра проходят перила.
RGB.jpg

На этом кадре возвращаемая сенсором карта глубины. Красным обозначаются самые ближние к сенсору точки лежащие на препятствиях (коробки, кружка, перила, стена)
Depth.jpg

Здесь эти точки сведены в плоскость, таким образом мы имеем, если можно так сказать, плоскую карту наиболее близких предметов с карты глубины сцены
Odometry.jpg

Таким образом робот видит препятствия и в скором будущем научится их объезжать. Затем научимся строить карту помещения и перемещаться по помещению в заданные точки не натыкаясь на препятствия.
Последний раз редактировалось lorry 15 июн 2014, 16:14, всего редактировалось 6 раз(а).
Аватара пользователя
lorry
 
Сообщения: 448
Зарегистрирован: 04 фев 2014, 13:53
Откуда: Комсомольск-на-Амуре
прог. языки: машинные коды
ФИО: Иван Иваныч

Re: LUM РОБОТ-ПЛАТФОРМА

Сообщение BeS » 15 июн 2014, 12:20

Кстати насчет одометрии с Kinect..вы, надеюсь, учитываете экстринсики для сенсоров самого Кинекта?
Кстати говоря, в OpenCV есть небольшой сэмпл rgbdodometry...можете его посмотеть еще.
BeS
 
Сообщения: 39
Зарегистрирован: 28 июл 2013, 17:59

Re: LUM РОБОТ-ПЛАТФОРМА

Сообщение lorry » 15 июн 2014, 12:25

BeS писал(а):Кстати насчет одометрии с Kinect..вы, надеюсь, учитываете экстринсики для сенсоров самого Кинекта?
Кстати говоря, в OpenCV есть небольшой сэмпл rgbdodometry...можете его посмотеть еще.

ОК, сэмпл обязательно глянем.
А что за "экстринсики для сенсоров самого Кинекта", я об этом не знаю, может поясните поподробнее?
Аватара пользователя
lorry
 
Сообщения: 448
Зарегистрирован: 04 фев 2014, 13:53
Откуда: Комсомольск-на-Амуре
прог. языки: машинные коды
ФИО: Иван Иваныч

Re: LUM РОБОТ-ПЛАТФОРМА

Сообщение BeS » 16 июн 2014, 08:52

Грубо говоря нельзя просто так сопоставить например точке с координатами (100; 100) на кадре с RGB камере, точку (100; 100) с DepthMap, нужно калибровать относительное положение камер друг относительно друга(найти соответствующие R,t) для перехода между двумя системами координат. Для одометрии это важно, т.к. иначе будет копиться дополнительная ошибка вычислений.
BeS
 
Сообщения: 39
Зарегистрирован: 28 июл 2013, 17:59

Re: LUM РОБОТ-ПЛАТФОРМА

Сообщение lorry » 16 июн 2014, 13:01

А, вот вы о чем! :) Мы об этом знаем, и сопоставлять пиксели с RGB и Deptch камер можем, а в общем то мы и не используем RGB камеру для одометрии. Все данные о сцене извлекаются из карты глубины. А фото с камеры RGB выложено так, для наглядности.
Аватара пользователя
lorry
 
Сообщения: 448
Зарегистрирован: 04 фев 2014, 13:53
Откуда: Комсомольск-на-Амуре
прог. языки: машинные коды
ФИО: Иван Иваныч

Re: LUM РОБОТ-ПЛАТФОРМА

Сообщение BeS » 16 июн 2014, 15:28

Одометрия без фич? ICP?
BeS
 
Сообщения: 39
Зарегистрирован: 28 июл 2013, 17:59

Re: LUM РОБОТ-ПЛАТФОРМА

Сообщение lorry » 16 июн 2014, 15:39

BeS писал(а):Одометрия без фич? ICP?

???
Аватара пользователя
lorry
 
Сообщения: 448
Зарегистрирован: 04 фев 2014, 13:53
Откуда: Комсомольск-на-Амуре
прог. языки: машинные коды
ФИО: Иван Иваныч

Пред.След.

Вернуться в ROS - Robot Operating System

Кто сейчас на конференции

Сейчас этот форум просматривают: Google Adsense [Bot] и гости: 2

Mail.ru counter