>> Ну вроде первый этап пройден, платформу адаптировали, алгоритм на другой платформе проверили,
куда дальше двинемся? Может попробовать доделать алгоритм распознавания, чтобы он точно координаты образа определял?
2=DeaD=:
Точность распознавания алгоритма AVM в будущем, конечно, планируется улучшать, но это всё будет выполняться на фоне разработки алгоритмов навигации. А пока будем использовать возможности текущей версии алгоритма AVM.
Для начала, просто попробуй поэкспериментировать с исходными текстами библиотек навигации (любые эксперименты), ну просто что бы освоиться и возможно придумать пару тройку новых идей, на тему: «Как построить алгоритм навигации?»
Я пока что подготовлю и выложу новые наработки по
«Navigator tool kit» (постараюсь в течение недели).
Ещё раз хочу обратить внимание на тот факт, что значение «ключевого размера» изображения очень важен для алгоритма AVM. Во первых, AVM начинает поиск объектов, сканируя входное изображение окном, начальный размер которого составляет 75% от ключевого размера (то есть всё что меньше, AVM найти не сможет). Во вторых, от ключевого размера зависит количество коэффициентов в матрицах распознавания и количество уровней дерева поиска (чем больше ключ, тем более детальные матрицы и большее количество уровней участвует в декомпозиции, и тут важно не перестараться). Так же прошу не путать «ключевой размер» (который необходим для создания нового экземпляра AVM, то есть инициализации) с «областью интереса», которая используется для обучения AVM на новый объект. После того как ключевой размер задан, можно обучать AVM (изменяя размеры области интереса) на объекты, размер которых может быть больше чем ключевой размер (см. пример
«Face training demo»). Выбор ключа 80x80 пикселей – оптимален для AVM в большинстве случаев.