инструкция:
софт: http://sethsandler.com/multitouch/mtmini/ (я скачал MTmini Software Package v1, пакет хоть и устаревший, зато работает прямо из коробки)
на сборку потратил 30 мин, ещё 30 мин налаживал, нашел основную фишку - источник света должен быть со стороны руки, т.е. излучать в ладонь. так же работают и две разнесенные лампы, освещающие внешнюю сторону руки; в обоих случаях удалось подстроить фильтры для более-менее устойчивого распознавания.
достоинства:
- быстро, дешево, сердито
- можно использовать любую непрозрачную вещь (пробовал фломастером, диаметр 0,8 см, работает)
- качество для игрушек сойдет; ежели скотчем в три слоя обмотать, то может и для управления ос хватит
- нужна калибровка если меняется освещенность, второй раз я откалибровал за 5 мин примерно, думаю, что в дальнейшем примерно столько времени и нужно будет. однако если приделать к столику небольшую лампочку (да хотя б светодиодов пару, можно даже ик диапазона), то необходимость калибровки скорее всего отпадет.
- принцип управления как на больших дигитайзерах, т.е. позиция пальца масштабируется на большой экран, хотя логичнее смотрелась бы ноутбучная система из-за неустойчивого распознавания на краях.
- оставить как есть, но убрать бумагу, изготовить ик-стилус, надеть ик-фильтр на вебку. получим качественное распознавание, не зависящее от освещения.
Добавлено спустя 55 минут 37 секунд:
в реализации используется opencv 1,0 для детекта (bulb detection), DSVL для захвата (кстати, второй раз вижу, что вместо стандартного cvcam из opencv используют DSVL, это все неспроста =))
интересно, будет ли работать схожая метода для малых пятен