В связи с активностью на форуме по поводу стереозрения, тоже стало интересно. Решил что и мне пора занятся . Какраз на горизонте проектик с камерой...
На прилагаемом рисунке сцена сверху и изображения с двух камер.
В этой связи начали возникать вопросы:
1) Юстируются ли камеры на столько, что при восстановлении 3Д сцены можно принимать что строка #N камеры 1 и строка #N камеры 2 лежат в одной плоскости? (т.е. сравнение картинок камер идет построчно соответствующими строками - строка #N камеры 1 не не сравнивается со строкой #N-1 или #N+1 камеры 2).
3) После юстировки камер нам известно расстояние базиса b и угол сведения камер А ? И мы можем однозначно соотносить координаты пикселя изображения и полярные координаты луча света упавшего на этот пиксель?
ПС: У человека глаза не имеют, видимо, ОС по положению - если прикрыть один глаз рукой, а потом резко ее убрать, видно как изображения на доли секунды двоится а затем оба глаза наводятся на одну точку.
ППС: Нашел интересную книжку по теме "PMF STEREO RECOGNITION PROJECT" научный труд на трехсот страницах. Весит 70 метров.
Теперь сижу думаю как в строках двух картинок искать изображения одного и того-же объекта. тут конечно можно и по цвету, ну а если бы было ЧБ - то без вариантов? А человеческий глаз углядел бы.... надо думать дальше.