Разонравились мне что-то платформы с подруливающим колёсиком, хочу 4WD-платформу для нетбука, колёса возьму от 1:10 или 1:8 моделей, движки Pololu (которые GM35, их тут давеча по 10$ предлагал nel84, я себе и купил 4 штуки одинаковые).
Аккум внутрь думаю засуну либо свинцовый, либо NiMH, точно не литий.
Корпус хочется сделать в лучшем случае из металла (гнутый 2мм, возможно - алюминиевый сплав).
Еще конечно же есть мечты о подвеске, но это пока несколько за гранью реальности
>эту штуку делали праймсенсы Это многое объясняет. А я то думаю, почему результат так сильно похож на результат стереозрения. Тоже отсутствует информация в "ореоле" близлежащего объекта, относительно далеко расположенного(пометил для наглядности на картинке). И ошибки схожие. Сомневался потому, что везде пишут что она работает по принципу TOF, но тогда бы и результат был бы другим.
Работать то будет. И будет это раза в четыре быстрее(даже в принципе ещё быстрее), чем сейчас. Но всё же ещё слишком медленно. Средний фпс будет в районе 10кадров/сек на машине P4 3.4Гц. Зато его можно будет в будущем распараллелить. Смысла сейчас делать библиотеку ещё и под более низкое разрешение, чем 320х240 не вижу, объясню почему. Во первых сейчас занят аглоритмом типа OpticalFlow. Во вторых пока экспериментировать можно и с текущей версией, достаточно снять стерео видео и уже с ним работать. В третьих уменьшение разрешения по горизонтали, приведёт к 2ух кратному уменьшению в градации расстояний. Он и так в далеке мерит чуть ли не метрами в текущем разрешении. Чтобы было понятнее приведу картинку зависимости расстояний от параллакса пикселя(смещения пикселя относительно соседнего ракурса).
Добавлено спустя 13 минут 17 секунд: Кстати фпс на прямую зависит от мёртвой зоны. Т.е. можно сократить вычисления, если просчитывать смещения всех пикселей не от 1 до 50(сейчас именно так), а например от 1 до 30. При этом вырастет мёртвая зона. Самое рациональное на мой взгляд сейчас, это решить задачу по внешней калибровке камеры, а уже потом заниматься задачами оптимизации. А пока это происходит, производители процессоров тоже будут заниматься своим делом.
=DeaD= писал(а):Я думаю в 8 раз должно вырасти, т.к. кроме уменьшения кол-ва пикселей в 4 раза будет еще и уменьшение зоны поиска фрагмента в 2 раза.
Абсолютно верно. Приятно, когда встречаешь понимание вопроса. Я действительно рассчитывал без уменьшения зоны поиска.
Добавлено спустя 22 минуты 8 секунд: >я не уверен, что там "голая" триангуляция... А я думаю именно она. Предполагаю, что ИК подсветка это закодированная матрица, а расстояние до каждого значения этой матрицы вычисляется из сопоставлении его на текущем кадре с исходным его расположением.
Последний раз редактировалось Vorral 09 дек 2010, 13:43, всего редактировалось 1 раз.
Кстати, из этого оптимизационная пирамидальная мораль такая - из изображения 640х480 делаем изображение 160х120 и ищем в нём глубину, потом на изображении 640х480 можем зону поиска делать не 50 пикселей, а всего 8. Итого оптимизация в 5 раз почти нахаляву.
Вот тут http://habrahabr.ru/blogs/robot/109337/ товарищ написал подробный обзор ToF-технологии Z-Cam, думая, что в кинекте применена именно она. А в комментариях ему указали, что это не так... И привели ролик, в котором видно, как же на самом деле выглядит подсветка кинекта
=DeaD= писал(а):Кстати, из этого оптимизационная пирамидальная мораль такая - из изображения 640х480 делаем изображение 160х120 и ищем в нём глубину, потом на изображении 640х480 можем зону поиска делать не 50 пикселей, а всего 8. Итого оптимизация в 5 раз почти нахаляву.
Очень и очень интересная мысль. И действительно быстро найдя КГ на меньшем изображении, позже его уточнить с помощью уже имеющихся значений. При чём можно ещё быстрее сделать, если значение фрагмента дойдёт до своего пика, например на 4 из 8 измерений и начнёт падать на 5 и 6, то прервать поиск.
Например, можно обратить внимание, что размер пятнышка от лазера не зависит от расстояния - при хорошем коллиматоре он не конусом расходится, а идет параллельным лучиком.
Считаем - допустим у нас есть лазер выдающий параллельный лучик диаметром 5 миллиметров. Допустим у нас есть камера с разрешением 640 и углом обзора 60 градусов. Итого на расстоянии полметра получаем разрешение порядка миллиметра на пиксель. Вполне достаточно, чтобы измерить диаметр пятнышка от лазера. На расстоянии полметра диаметр будет пять пикселей. На расстоянии 25 сантиметров - 10 пикселей. Зная, что лучик круглый, можно получать сабпиксельные точности, считать площадь пятнышка и т.п.
ну... можно и так сказать. Я может быть неудачно выразился. По крайней мере эта триангуляция не основана на параллаксе между двумя камерами (как в стереозрении) или между лазером и камерой (как в сканировании лазерной линией).
можно предложить и другие методы. Вполне вероятно, что несколько методов в комплексе смогут уточнять друг друга и обеспечивать адекватные оценки.
Последний раз редактировалось Michael_K 09 дек 2010, 16:55, всего редактировалось 1 раз.