roboforum.ru

Технический форум по робототехнике.

Пора начать делать аппаратного веб-бота (AWB)

=DeaD= » 19 июл 2006, 07:18

Виктор Казаринов писал(а):Это же не база данных. И не база знаний. Это - ИИ. Вы ему сначала сообщите, что делать с вашими вх. данным.

Так это ИИ или всё-таки программируемый автомат, которому каждый раз всё говорить надо, что делать и как, а он только максимум экспертное решение может выдать?

Виктор Казаринов писал(а):Например, описываете (зомбируете, программируете, объясняете) ему, что нужно при приходе каждого след. импульса прибавлять в некотором счетчике число.

Это есть программирование.

Виктор Казаринов писал(а):AIGod заводит такой счетчик, как заводит его в голове человек, и начинает считать, а промежуточные результаты сохранять в БЗ на случай сбоя(если мы потребовали этого). Система пополняема любой информацией, но ее особенность - пока данные на будут поняты и не увязаны в ее структуру представлений о мире, данные не будут записаны.

Не понял, с одной стороны вы говорите что будут, с другой - что не будут. Что есть "увязывание в структуру"?

В целом "выдам вам" такую мысль - ваша система обладает существенным текущим недостатком - значительная разорванность с внешним миром, путем ограничения взаимодействия до текста, что не есть хорошо. Приведу пример.

Вот вы говорите, что вам нужна обвязка вашей системы в виде, например, органов зрения, которые на выходе выдадут вам что они видят. Но ведь чтобы они вам что-то выдали, они должны это сначала опознать, а для опознания необходима ваша же система знаний, из которой следуют взаимоотношения сущностей. Но ваша система не подразумевает вероятностного оценочного подхода, кроме того она не подразумевает даже любого другого входного формата, кроме текста.

Если я правильно понимаю - ваша система является "машиной логического вывода" скрещенной с языком программирования - так?

Виктор Казаринов » 19 июл 2006, 19:42

=DeaD= писал(а):Так это ИИ или всё-таки программируемый автомат, которому каждый раз всё говорить надо, что делать и как, а он только максимум экспертное решение может выдать?
Люди иногда, когда даешь команду "Напра-во", поворачиваются налево. Хорошо? Нет. Поэтому нужно объяснить и показать, где лево, где право. Это ли не программирование ф-ции? Но если все объяснено неизвестно кем неизвестно когда, все делается на счет "раз-два". Человек в таком случае может лишь экспертное решение выдать? Например, солдат командиру в ответ на его команду начнет в деталях объяснять или просто показывать, что именно нужно сделать. Тогда он - эксперт. Но нужно просто повернуться туда, куда требует командир. Точно так же может вести себя и ИИ. Потребуете от нее экспертного мнения - мнение и получите, потребуете выполнить поворот управляемого этой программой летящего дрона, будет поворот.
=DeaD= писал(а):
Виктор Казаринов писал(а):Например, описываете (зомбируете, программируете, объясняете) ему, что нужно при приходе каждого след. импульса прибавлять в некотором счетчике число.
Это есть программирование.
Конечно. И в этом ИИ похож на человека.
=DeaD= писал(а):Что есть "увязывание в структуру"?
Это означает понимание. Если человек не понимает, что такое или кто такой Куздра, то невозможно дальше с пользой для себя использовать эту информацию. Когда говорим, что Куздра - это некий субъект, нам становится немного больше известно об этом. Когда говорим, что пол Куздры женский, то становится еще больше понятно, в том числе что от нее ожидать. И т.д. Вот это и есть увязывание новых знаний в ситему уже имеющихся знаний.
=DeaD= писал(а):В целом "выдам вам" такую мысль - ваша система обладает существенным текущим недостатком - значительная разорванность с внешним миром, путем ограничения взаимодействия до текста, что не есть хорошо. Приведу пример.
Вот вы говорите, что вам нужна обвязка вашей системы в виде, например, органов зрения, которые на выходе выдадут вам что они видят. Но ведь чтобы они вам что-то выдали, они должны это сначала опознать, а для опознания необходима ваша же система знаний, из которой следуют взаимоотношения сущностей. Но ваша система не подразумевает вероятностного оценочного подхода, кроме того она не подразумевает даже любого другого входного формата, кроме текста.
Если видеокамера выдает поток данных, то этот поток можно с пом жесткого алгоритма преобразовывать в сообщения на языке AIGL вроде такого: ПикселN1(Яркость=5),ПикселN2(Яркость=9),...
Я написал на русском без соблюдения синтаксиса AIGL, чтобы было понятнее. Еще могут быть сообщения о номере кадра и т.д. Но в общем-то это очень ограниченный круг видов сообщений. Не вижу проблем в передаче и обработке их разыми программами, в т.ч. и такими, кот ИИ не назовешь. Но после получения моя система может начать распознавание образов и т.д.
=DeaD= писал(а):Если я правильно понимаю - ваша система является "машиной логического вывода" скрещенной с языком программирования - так?
Нет. Машин логического вывода полно. Например, Prolog. Его единственная и основная проблема - замкнутость мира. Например, сообщаем программе, что яблоко1 - красное, затем сообщаем, что яблоко1- зеленое. Прога сразу обнаружит противоречие и откажется работать. Но настоящий ИИ должен учесть то, что сначала контекст (обстановка включая момент времени) была другая, чем при втором сообщении. Изменился мир и старая истина устарела. А м.б. и не устарела. ИИ может задуматься, верить ли такому сообщению. Он должен собрать информацию о говорящем это, начать взвешивать и сомневаться. Короче, появляются всякие сложности. Но как без них?

=DeaD= » 19 июл 2006, 22:46

Виктор Казаринов писал(а):
=DeaD= писал(а):Так это ИИ или всё-таки программируемый автомат, которому каждый раз всё говорить надо, что делать и как, а он только максимум экспертное решение может выдать?
Люди иногда, когда даешь команду "Напра-во", поворачиваются налево. Хорошо? Нет. Поэтому нужно объяснить и показать, где лево, где право. Это ли не программирование ф-ции? Но если все объяснено неизвестно кем неизвестно когда, все делается на счет "раз-два". Человек в таком случае может лишь экспертное решение выдать? Например, солдат командиру в ответ на его команду начнет в деталях объяснять или просто показывать, что именно нужно сделать. Тогда он - эксперт. Но нужно просто повернуться туда, куда требует командир. Точно так же может вести себя и ИИ. Потребуете от нее экспертного мнения - мнение и получите, потребуете выполнить поворот управляемого этой программой летящего дрона, будет поворот.

Это надо понимать как "ДА, второй вариант" ? :)

Виктор Казаринов писал(а):
=DeaD= писал(а):
Виктор Казаринов писал(а):Например, описываете (зомбируете, программируете, объясняете) ему, что нужно при приходе каждого след. импульса прибавлять в некотором счетчике число.
Это есть программирование.
Конечно. И в этом ИИ похож на человека.

Не совсем, в этом ваш вариант ИИ похож на метод быстрой загрузки моделей из одного ЕИ в другой ЕИ. Однако это не более чем построенные модели. Основная IMHO фишка *И это как раз не использование построенных моделей, а создание новых своих моделей, то есть действие в непредусмотренной ранее обстановке, а у вас это нигде не заявлено.

Виктор Казаринов писал(а):
=DeaD= писал(а):Что есть "увязывание в структуру"?
Это означает понимание. Если человек не понимает, что такое или кто такой Куздра, то невозможно дальше с пользой для себя использовать эту информацию. Когда говорим, что Куздра - это некий субъект, нам становится немного больше известно об этом. Когда говорим, что пол Куздры женский, то становится еще больше понятно, в том числе что от нее ожидать. И т.д. Вот это и есть увязывание новых знаний в ситему уже имеющихся знаний.

То есть заполнение предопределенных полей и связей сущности. Понято.

Виктор Казаринов писал(а):
=DeaD= писал(а):Если я правильно понимаю - ваша система является "машиной логического вывода" скрещенной с языком программирования - так?
Нет. Машин логического вывода полно. Например, Prolog. Его единственная и основная проблема - замкнутость мира. Например, сообщаем программе, что яблоко1 - красное, затем сообщаем, что яблоко1- зеленое. Прога сразу обнаружит противоречие и откажется работать. Но настоящий ИИ должен учесть то, что сначала контекст (обстановка включая момент времени) была другая, чем при втором сообщении. Изменился мир и старая истина устарела. А м.б. и не устарела. ИИ может задуматься, верить ли такому сообщению. Он должен собрать информацию о говорящем это, начать взвешивать и сомневаться. Короче, появляются всякие сложности. Но как без них?

Логика просто бывает не обязательно такой жесткой, как в прологе, есть масса способов смягчить её, ввести нечеткую логику, ввести неопределенные функции вероятности правильности информации и т.п. Но суть от этого не поменяется. Это всё еще будет машина логического вывода. То есть автомат применяющий явно заданные модели отношения сущностей окружающего мира к текущей ситуации/запросу. Просто среди этих моделей может быть предопределенная модель "вероятностного подхода к получаемой информации" или "нечеткого определения понятий" взятого из нечеткой логики. Так?

Виктор Казаринов » 20 июл 2006, 14:14

=DeaD= писал(а):Это надо понимать как "ДА, второй вариант" ? :)
Я ответил. Вам судить.
=DeaD= писал(а):Не совсем, в этом ваш вариант ИИ похож на метод быстрой загрузки моделей из одного ЕИ в другой ЕИ. Однако это не более чем построенные модели. Основная IMHO фишка *И это как раз не использование построенных моделей, а создание новых своих моделей, то есть действие в непредусмотренной ранее обстановке, а у вас это нигде не заявлено.
А что я писал чуть выше? "AIGod заводит такой счетчик, как заводит его в голове человек, и начинает считать". Это не модель, которую он создает "на ходу"?
=DeaD= писал(а):То есть заполнение предопределенных полей и связей сущности. Понято.
Неверно понято. Это вы прозаполнение слотов фреймов говорите. Свойства новой сущности лишь ссылаются на уже имеющиеся в БЗ. Например, бегемот. Он - млекопитающее (такое же как корова), он же живет большей частью в воде (как лягушка или крокодил или рыба). Т.е. у новой сущности нет никаких предопределенных полей.
=DeaD= писал(а):автомат применяющий явно заданные модели отношения сущностей окружающего мира к текущей ситуации/запросу. Просто среди этих моделей может быть предопределенная модель "вероятностного подхода к получаемой информации" или "нечеткого определения понятий" взятого из нечеткой логики. Так?
Я строю свою систему на основе парадигмы Субъектного общения, в основе которой лежит выработка каждого решения коллективом субсущностей разума - демонами. Они вырабатывают решения динамически и никаких предопределенных решений у них нет.

=DeaD= » 20 июл 2006, 15:09

Виктор Казаринов писал(а):
=DeaD= писал(а):Не совсем, в этом ваш вариант ИИ похож на метод быстрой загрузки моделей из одного ЕИ в другой ЕИ. Однако это не более чем построенные модели. Основная IMHO фишка *И это как раз не использование построенных моделей, а создание новых своих моделей, то есть действие в непредусмотренной ранее обстановке, а у вас это нигде не заявлено.
А что я писал чуть выше? "AIGod заводит такой счетчик, как заводит его в голове человек, и начинает считать". Это не модель, которую он создает "на ходу"?

Нет, потому как вы здесь явно определили для него эту модель, её нужно лишь заполнить параметрами.

Виктор Казаринов писал(а):
=DeaD= писал(а):То есть заполнение предопределенных полей и связей сущности. Понято.
Неверно понято. Это вы прозаполнение слотов фреймов говорите. Свойства новой сущности лишь ссылаются на уже имеющиеся в БЗ. Например, бегемот. Он - млекопитающее (такое же как корова), он же живет большей частью в воде (как лягушка или крокодил или рыба). Т.е. у новой сущности нет никаких предопределенных полей.

Откуда получается информация о том, что бегемот - млекопитающее?
Может ли система сама классифицировать объекты и установить между ними отношения исходя из задач?

Виктор Казаринов писал(а):
=DeaD= писал(а):автомат применяющий явно заданные модели отношения сущностей окружающего мира к текущей ситуации/запросу. Просто среди этих моделей может быть предопределенная модель "вероятностного подхода к получаемой информации" или "нечеткого определения понятий" взятого из нечеткой логики. Так?
Я строю свою систему на основе парадигмы Субъектного общения, в основе которой лежит выработка каждого решения коллективом субсущностей разума - демонами. Они вырабатывают решения динамически и никаких предопределенных решений у них нет.

Смотря в каком смысле предопределенных.

Это опять же классический метод комитетов.

Однако если его оставить и рассмотреть элемент такого метода, "демона" - есть ощущение, что получим типичный автомат обрабатывающий входящую информацию по некоторым правилам. Пока не обнаружил ничего более. Хотя опять же вы пока описали только формат обмена сообщениями и не указали ни единого объяснения внутренней структуры базы или методов обработки, или я что-то пропустил? (примеры программирования пока ни о чем не говорят)

Какие примеры задач может решать ваша система?

Lockdog » 09 сен 2006, 20:18

Господи!!! Люди два десятилетия бьются над созданием ИИ а тут появился Виктор Казаринов, по всей видимости даже без высшего образования и предлагает уже готовое (заведомо неверное) решение.
Я когда-то тоже мечтал создать ИИ, причём на Delphi (думаю многие мня поймут :)))), но понял что эта затея и яйца выеденного не стоит...

Кстати хочу напомнить, а Виктор Казаринов это впервые услышит: база знаний, база данных это одни из составляющих ИИ, а без них это как человек без мозга, а знания насчёт "где право и где лево", куда будет сохранять ИИ, в оперативную память, вот как раз это и записывается в базу знаний?

Приведу маленькую концепцию базы знаний:
Предложение делится на высказывание, оно в свою очередь на слово, вот так всё и запоминается в базе знаний...

lebaon » 10 сен 2006, 15:54

ну и что, что у него нет высшего образования :?:  :x
и почему заведомо неправильно :?:
есть заведомо правильный вариант :?:  :!:
НЕТ :!:
и потому каждый вариант достоен рассмотрения и реализации :!:  :twisted:
а правильность( неправильность) может лишь практика доказать :!:  :wink:

Lockdog » 10 сен 2006, 16:07

lebaon писал(а):ну и что, что у него нет высшего образования :?:  :x
и почему заведомо неправильно :?:
есть заведомо правильный вариант :?:  :!:
НЕТ :!:
и потому каждый вариант достоен рассмотрения и реализации :!:  :twisted:
а правильность( неправильность) может лишь практика доказать :!:  :wink:

1. Вы сможете построить ракетный двигатель (чтобы он работал!!!), не зная принцыпов его работы, химию, физику и прочее???
2. Поправлю себя, нету окончательной концепции, для реализации на практике

lebaon » 10 сен 2006, 16:12

а вообще, тут есть два очень неудобных и уязвимых места:
центральный сервер и канал связи с ним :!:  :evil:
центральный сервер-во первых, если он упадет или заглючит-все им управляемое
зависнет( без команд) :evil: все смотрели звездные войны эпизод 1 :?:  там как раз была такая система и ситуация :twisted:
во вторых, имеющий контроль на сервером будет иметь
контроль над всем, им управляемым, а это мало кому понравиться
(купить робота, которым будет управлять чужой дядька
:?: а я ему не верю :!: ) :evil:  :!:
канал связи- во первых, упадет связь-сдохнет робот,
во вторых, задержки-что с ними делать :evil:   :?:
тормозить робот будет не по детски :wink:

Shurup » 18 сен 2006, 23:52

Мое мнение: не стоит сейчас пока думать о ИИ. это нереально на нынешнем этапе развитии. Думаю нужно думать пока что об общей сети роботов. Кстати, предлагаю еще одну идей, точнее дополнение. Сделать как бы общую сеть, причем каждый пользлватель своего робота мог бы управлять своим без проблем, и мог бы ставить права на управление другим пользователям. Ну например. Если на роботе есть камера, и он на улице, то другие могут видеть что видет робот :). и т.д. Т.е. можно создать какбы виртуальный портал управлнения роботами. Но тут нужно уже сделать так, чтобы робот мог бы подключаться к такому серверу, что достаточно сложно. Но думаю стоит помозговать такую идею, тем более это неизбежно :)

lebaon » 20 сен 2006, 18:31

всеми конечностями за!
а главное, создать единую базу программных модулей для роботов,
что бы можно было собирать конкретную программу как в делфи :twisted:


Rambler\'s Top100 Mail.ru counter