А по поводу видео - почему оно обьекты не определяет когда они на столе лежат а только когда в руке на фоне обоев?
Ну, это те самые недостатки, о которых я говорил. Во первых, в демонстрационном клипе алгоритм не масштабируется, так что распознаёт только объекты того же размера, на которые его обучили. Во вторых, учили алгоритм на фоне обоев, и при этом часть обоев попадала в зону обучения, ну вот он и считает обои за часть объекта. Тут нужно стараться, что бы как можно меньше фона попадала в зону обучения (ну или ещё что-то придумать, маску фона например).
А также более 1 обьекта не определяет?
Те же проблемы с фоном и масштабированием, если постараться, то определит.
Какова стоимость вычислений по времени?
Пока трудно сказать, в демонстрации это был реал-тайм, так что я себя видел на дисплее, и видел, что находит алгоритм (тестировалось на Intel Core 2 Duo E6600). Но метод всё ещё в разработке, так что неизвестно чем кончится.
Каков результат определения в процентах?
Я пока не пытался получить подобную статистику, так что не могу ничего сказать по этому поводу.