To FireFly:
Ооочень сильно ошибаетесь. Поясню:
Какой прок от того гексапода, в топике которого началась эта тема? Это чистейшая механика, сам автор проекта начал его ещё с робоклаба, где сделал из пластика(я за этим следил ещё там). Проходит время, что меняется? пластик на алюминий?? Вы думаете пройдёт ещё год, два, десять и что то поменяется или добавится в программной части? Очевидно, что Anubis больше прётся от механики проекта, мало(заметьте я говорю мало!, а не "совсем не думает") думая об программном аспекте(он всё таки хочет установить туда PicoITX и вебкамеру). А что по своей сути представляют проекты остальных участников?? Так во что упираются они все? Отвечаю: не возможность представить окружающие робота объекты и пространство в понятной ему программной среде, для того чтобы человек смог вмешиваться в эту среду и выстраивать там взаимодействия, пытаясь перенести свой опыт в железяку.
А теперь какой самый простой способ вводить информацию в "пациента"?? Какой способ, доступный нам(а не специалистам Nasa, например) наиболее дёшев и эффективен. Это зрение. Вот об этом и идёт дискуссия.
Если есть другое мнение, озвучьте, мне потому что очень интересны альтернативные варианты.
Добавлено спустя 2 минуты 53 секунды:Да и ещё как абсолютно правильно заметил Антон, мы уже имеем реальные наработки по этому вопросу, так что это не просто рассуждения не о чём, как в большинстве других тем. Особенно ИИ
