Технический форум по робототехнике.
robot-home2000 » 13 июн 2014, 01:04
сейчас есть лазерный сканер от Гугла он сделан как отдельный девайс со своей обработкой от уже вектор дает с вычислительный блок я так понимаю они его для своей машины сделали и как кит набор распространяют для разработчиков...можно попробовать получить...
или вот есть девайс
http://project-tango.ru/тоже как кит набор распространяют на нем уже квадрики летают тестируют и можно как отдельный блок системы обнаружения в пространстве...
Добавлено спустя 13 минут 37 секунд:http://www.youtube.com/watch?v=Qe10ExwzCqkвот ссылкана презентацию
есть еще девайс мы его сейчас смотрим LEAP motion ....leapmotion.com
как сенсор длижнего действия рассматриваем возможность
Добавлено спустя 56 секунд:про кинект сюда или в кинектовскую тему писать???
lorry » 13 июн 2014, 01:21
Да, штука действительно интересная. Но проблема не в получении 3D картинки сцены, мы ее давно получили и используем. Теперь больше задумываемся над распознаванием объектов в пространстве.
Про кинект можно и сюда написать.
robot-home2000 » 13 июн 2014, 01:58
да над распознаванием пространства окружающее робота давно народ голову ломает...
вот и в Фонде Перспективных Исследований это одна из тем разработка алгоритмов и Конкурс на лучший прототип технологии распознавания изображений..уже открыт в Новосибирске есть несколько светлых голов...
Добавлено спустя 6 минут 32 секунды:
до каталогов по изделиям с распознованием лиц сегодня не добрался завтра скину ссылку.
BeS » 13 июн 2014, 12:29
robot-home2000 писал(а):сейчас есть лазерный сканер от Гугла он сделан как отдельный девайс со своей обработкой от уже вектор дает с вычислительный блок я так понимаю они его для своей машины сделали и как кит набор распространяют для разработчиков...можно попробовать получить...
или вот есть девайс
http://project-tango.ru/тоже как кит набор распространяют на нем уже квадрики летают тестируют и можно как отдельный блок системы обнаружения в пространстве...
Добавлено спустя 13 минут 37 секунд:http://www.youtube.com/watch?v=Qe10ExwzCqkвот ссылкана презентацию
есть еще девайс мы его сейчас смотрим LEAP motion ....leapmotion.com
как сенсор длижнего действия рассматриваем возможность
Добавлено спустя 56 секунд:про кинект сюда или в кинектовскую тему писать???
Со смартфоном от Project Tango я уже поигрался, и не сказал бы что там Depth лучше чем у Kiect 1.0. Capri3D выдает более качественный Depth.
robot-home2000 » 13 июн 2014, 17:32
ДА Capri3D интересный девайс
robot-home2000 » 14 июн 2014, 00:08
Характеристики NeoFace:
верификация 1:1
идентификация 1:n
определение множественных совпадений лиц на основе GLVQ
распознавание на основе нейтральной сетевой технологии
определение расположения головы, лица и глаз
разрешение изображения до 2,147, 483,647 x 2,147, 483,647 пикселей
распознавание независимо от выгодной точки съемки или изменений лица (очки, растительность на лице или выражение лица)
выделение похожих областей лица
гибкая интеграция
поддерживает разнообразную графику и форматы видео, а также работу с камерами прямой передачи изображения
скорость сопоставления до 1,000,000 лиц в секунду
Добавлено спустя 5 минут 1 секунду:
Вот что ребята предложили у нас тестируется в системе безопасности торгового центра ...
Влет позволяет выхватывать из толпы идущих людей тех кто заложен в базу.. Также есть интересная функция определения внимания.. По направлению взгляда микроостановкам скорости перемещения объекта определяют заинтересованность людей , также их пол ,возраст...
Может монтироваться как отдельный блок к которому подключения камера или установлена как под программа в видео сервер ... Кодировала жаль закрыта .. Не покопаешься
Добавлено спустя 6 минут 17 секунд:
Надо наверно для платформы совместить камеры и кинект чтобы они работали параллельно до полняли друг друга... Тут скоро Чипы будут на тестирование привозить они заточённы под анализ видеоизображения мы их с камерами HD формата хотим скрестить в одном устройстве... Интересная вещь должна получиться... Планировалось как умная камера для машин и видеорегистраторов .. Но возможно и для роботизированных платформ подойдет..
lorry » 14 июн 2014, 00:12
robot-home2000 писал(а):Кодировала жаль закрыта .. Не покопаешься
Так вот именно в этом то и состоит вся проблема. Готовые решения имеются на рынке, но ребята создающие их, на этом деньги зарабатывают, и конечно все исходники закрыты. Если бы эти системы выдавали хотя бы потоки данных для последующей обработки, как например KINECT или ASUS, а так, толку то с них в робототехнике?
Последний раз редактировалось
lorry 15 июн 2014, 16:09, всего редактировалось 1 раз.
robot-home2000 » 14 июн 2014, 00:23
Еще есть ребята .. Что-то не могу пока визитку найти .. Написал им через партнеров обещали выслать координаты.. У них есть свой ( как говорят) алгоритм обработки изображений с камер и там был у них интерес связанный с роботами
Добавлено спустя 7 минут 53 секунды:
LEAP motion ....leapmotion.com
Посмотрите по крайней мере там уже есть несколько программ для определения рук( кистей) и работают очень неплохо .. Мы его прикидывали использовать как защитный сканерами ближнего радиуса действия ... А чем больше копаемся тем интересней задумки и для управления вылезают.. Сейчас я отъехал в командировку а ребята должны сделать держатели для крепления на запястьях и тогда попробуем управление диомоторикой про писать .. Для обучения и выработки алгоритмов движения кистевого биопротеза.
lorry » 15 июн 2014, 09:11
После долгого перерыва продолжил заниматься одометрией. В итоге, это оказалось не такой уж сложной задачей как казалось сначала. Решение всех вопросов по одометрии сводится к решению тригонометрических функций уровня 9-го класса общеобразовательной школы.
Ниже визуализированный пример работы одометрии:
Это кадр из видео ряда возвращаемого сенсором KINECT. На кадре видны две коробки установленные для детектирования сенсором, на дальнем плане стоит кружка, по левой стороне кадра проходят перила.
На этом кадре возвращаемая сенсором карта глубины. Красным обозначаются самые ближние к сенсору точки лежащие на препятствиях (коробки, кружка, перила, стена)
Здесь эти точки сведены в плоскость, таким образом мы имеем, если можно так сказать, плоскую карту наиболее близких предметов с карты глубины сцены
Таким образом робот видит препятствия и в скором будущем научится их объезжать. Затем научимся строить карту помещения и перемещаться по помещению в заданные точки не натыкаясь на препятствия.
Последний раз редактировалось
lorry 15 июн 2014, 16:14, всего редактировалось 6 раз(а).
BeS » 15 июн 2014, 12:20
Кстати насчет одометрии с Kinect..вы, надеюсь, учитываете экстринсики для сенсоров самого Кинекта?
Кстати говоря, в OpenCV есть небольшой сэмпл rgbdodometry...можете его посмотеть еще.
lorry » 15 июн 2014, 12:25
BeS писал(а):Кстати насчет одометрии с Kinect..вы, надеюсь, учитываете экстринсики для сенсоров самого Кинекта?
Кстати говоря, в OpenCV есть небольшой сэмпл rgbdodometry...можете его посмотеть еще.
ОК, сэмпл обязательно глянем.
А что за "экстринсики для сенсоров самого Кинекта", я об этом не знаю, может поясните поподробнее?
BeS » 16 июн 2014, 08:52
Грубо говоря нельзя просто так сопоставить например точке с координатами (100; 100) на кадре с RGB камере, точку (100; 100) с DepthMap, нужно калибровать относительное положение камер друг относительно друга(найти соответствующие R,t) для перехода между двумя системами координат. Для одометрии это важно, т.к. иначе будет копиться дополнительная ошибка вычислений.
lorry » 16 июн 2014, 13:01
А, вот вы о чем!
Мы об этом знаем, и сопоставлять пиксели с RGB и Deptch камер можем, а в общем то мы и не используем RGB камеру для одометрии. Все данные о сцене извлекаются из карты глубины. А фото с камеры RGB выложено так, для наглядности.
BeS » 16 июн 2014, 15:28
Одометрия без фич? ICP?
lorry » 16 июн 2014, 15:39
BeS писал(а):Одометрия без фич? ICP?
???