=DeaD= писал(а):
2Michael_K: А можно пару строк - что там за основная идея? Очень уж много терминов новых для меня

не читал пока много по НС на англицком

Гы... Да я тоже понимаю через два слова на третье...
там они много ссылаются на биологические "прототипы" и предлагают модель нейросети,
которая отвечает некоторым свойствам вроде бы присущим живым мозгам.
В сети, которую они предлагают, нейроны условно составляют наборы сильносвязанных кластеров.
Кроме того, есть механизм (они его называют "резервуар") который отражает степень
взаимовозбуждения нейронов кластера и подавления соседних нейронов, который вводит
некий гистерезис в возбуждение (и вроде бы есть биохимический "прототип").
Такие структуры работают, грубо говоря, как триггеры и могут, например, устойчиво
автогенерить (то есть воспроизводить некие наборы образов), возбуждая различные кластеры.
При этом конечно происходит одновременно и самообучение
и обучение других связанных кластеров/нейронов.
На маленькой сети без внешних воздействий такая сетка воспроизводит какие попало образы,
быстро самообучается (то есть как-то классифицирует их) и переходит в стабильные автоколебания.
На большой сети для достижения устойчивого процесса уходит куча времени, то есть фактически можно
считать, что без внешних воздействий она молотит "как попало".
А вот с внешними сигналами, понятно, что кластеризация достигается быстрее и не какая попало,
поскольку поступающая извне информация коррелирует сама с собой - это же не белый равномерный шум

Там всякие формулы, детали реализации, доказательства устойчивости...
я это опущу, поскольку и сам не понял и, честно говоря, не особо и хотелось

Кластер формируется не только внешней информацией но и соседними кластерами
и самим собой (что логично)...
Но и возбуждается он тоже не только внешней информацией, а и соседними кластерами и собой!
Эта структура по сути делает "мысленные эксперименты", и если внешние образы сильны,
то такие связи, естественно, "впечатываются" в структуру связей, и ее "мысленные эксперименты"
больше соответствуют наблюдаемому миру, законам наблюдаемого мира.
Ну может за уши пример притяну, но процесс примерно такой:
Традиционная сеть играет в шахматы: видит ход противника у нее там какие-то нейроны возбуждаются,
на выходе загорается нейрон с ответным ходом... На этом все - процесс "думанья" завершен
до следующего хода противника.
(Ежу понятно, что обучить такую сеть на прямых примерах - никакой жизни не хватит.)
Предлагаемая сеть играет в шахматы: она не ждет хода противника, она "примеряет"
возможные входные стимулы и "думает" постоянно (у нее "автогенерятся" образы в структуре,
и чем дольше ее обучали, тем точнее образы отражают возможные или вероятные ходы противника).
Когда противник сделает ход, вероятно, под такой ход уже какие-то связи уже "наросли".
Добавлено спустя 8 минут 14 секунд:Ну там еще затрагиваются вопросы памяти, самообучения, скорости обучения, условия устойчивости и т.д.
Но это уже детали реализации.
А суть в том, что сеть представляется стабильной динамической автогенерирующей системой,
а не простым "перцептроном"