EdGull писал(а):лучше уж тогда на генетических алгоритмах...
у меня вот препод тоже подобные фразы частенько произносит) а как рассказать можете ? вот поиск на них я себе представляю.. а как поведенческие алгоритмы реализовать- что-то смутно-смутно...
Да не в поведенческих алгоритмах дело - через генетику можно любые параметры алгоритмов подбирать, дело в другом - для них популяция нужна нефиговая и куча поколений.
Да я начал читать Хайкина. Извиняюсь, возможно неправильно сформулировал вопрос. Определения этого термина я знаю. А на практике как это реализуется, как показывать нейрону какой сигнал важнее?
Lockdog писал(а):...Возможно робота обучить, например, ездить, объезжать прпятствия и не падать с края стола? (естественно соответствующие датчики стоят)
Элементарно!! Наличие препятствия (сигнал от дальномера или какого-нить QRD1114) - 1, отсутствие - 0, есть сигнал от датчика поверхности - 1, нет сигнала, т.е. обрыв - 0. Число входов равно числу датчиков (в наиболее простом случае). Выходы - ожидаемая реакция робота на набор входных сигналов.
Но, как показывает суровая реальность, лучше не связываться с аналоговыми сигналами на входе непосредственно нейросети (сигналы от датчиков - это ужЕ другое дело). Для надёжности сигналы должны как следует отличаться друг от друга (т.е. иметь большое расстояние по Хэммингу), иначе сеть может обучиться как-бы не совсем тому, чего от неё ждут. (254 мало отличается от 255, и помехозащищённость хреновая.) И тогда может получиться, что каждый вход будет не 1-битовым, а, например, 8-битовым (11111111 - есть препятствие, 00000000 - нет, остальные комбинации могут быть либо чё-нить типа 00111100 - препятствие есть, но не слишком близко, либо 11101111 (и т.п.) - ошибка в одном бите, легко компенсируемая обученной сетью (на то она и нейросеть!!)). В итоге получится сеть не 4 входа (или сколько там датчиков) х 4 выхода (или сколько реакций или исполнительных механизмов), а 32х4. Как следствие, рост числа весовых коэффициентов в синаптических связях, как следствие, рост требований к объёму памяти.
Lockdog писал(а):А объясните, что такое синаптический вес?
repository писал(а):Степень влияния сигнала на входе нейрона (синапса) на значение на выходе нейрона
Да можно проще - коэффициент усиления сигнала на входе синаптического контакта между нейронами (т.е. между выходом одного нейрона и входом другого (а может и того же самого)), может быть, как больше 1, так и меньше, как положительный, так и отрицательный.
=DeaD= писал(а):Ездить не падая, избегая препятствий конечно можно научить - вопрос только в том - есть ли смысл всё обучение проводить в реале? Там же итераций 200 может понадобиться, например? ...
А зачем в реале? Можно сымитировать входные сигналы на обычном компе, обучить сеть, а в контроллер загружать ужЕ весовые коэффициенты (если влезут в память). Как тут ужЕ кто-то сказал, нейросеть, в сущности, это всего лишь набор массивов коэффициентов. И при обучении может получиться как 200 итераций, так и 150, и 2000.
=DeaD= писал(а):... 2. Некролинк - статье уже 10 лет скоро, наверняка за эти годы что-то поменялось
Скорее не поменялось, а добавилось. Но, увы, почему-то в новых толстых книгах обычно теорию приводят (классическую), а если что новое и есть, так это надо искать в буржуйских статьях на английском (а эти статьи ещё найти надо). Как ни странно, вполне нормальная книга есть двух голландцев (на английском) - кажись, 14-летней давности. Однако они там пишут такое, чего в новейших книгах какого-нить Осовскего или Пилиньскего и т.п. и в помине нет (не говоря уж про нижние ссылки).
А классическую теорию на русском более-менее доходчиво почитать можно на http://algolist.manual.ru или на http://www.intuit.ru (но, кажется, они либо друг у друга, либо у кого-то третьего передрали).
Добавлено спустя 6 минут 9 секунд:
Lockdog писал(а):... А на практике как это реализуется, как показывать нейрону какой сигнал важнее?
Табличкой. Чё-нить типа: Входы Передний датчик Левый датчик Правый датчик 1 0 0 0 1 0 0 0 1 ... ... ... Желаемые выходы Левый двигатель Правый двигатель 0 0 1 0 0 1
Только не нейрону, а всей сети сразу. Одному нейрону показывать бессмысленно (по крайней мере, так получается на практике).
Ну на счет преимущества цифры перед аналоговыми я бы не согласился. Многие аналоговые схемы на операциониках решают задачи, которые вычислять в булевской среде очень долго. Точность, скорость, массивная параллельность (реальная!). Есть готовые процессоры фаззи лоджик, кстати. по сути нейрон - микшер на операционике.
Кстати кто знает чем отличаются нейроны насекомых от теплокровнх? Слышал, что они эфективнее, но деталей найти не смог. На них какая то схема позиционирования микроспутников работала.
Кстати кто знает чем отличаются нейроны насекомых от теплокровнх? Слышал, что они эфективнее, но деталей найти не смог. На них какая то схема позиционирования микроспутников работала.
"- А по краям дороги мёртвые с косами стоят. И тишина... - Брэхня-я-я-я". Может, в нейрофизиологии нейроны чем-нить и отличаются, а в теории ИСКУССТВЕННЫХ нейронных сетей есть только один нейрон - "формальный нейрон МакКаллоха-Питтса" (для любителей, МакКаллока). Активационные функции и архитектуры сетей можно подобрать по своему усмотрению. Ну ещё, как пишут в одной статье на ругаемом тут "майроботе.ру", в машинках Брайтенберга стоЯт нейроны, генерирующие импульсы. И это вроде как даже ближе к нейрофизиологии, чем у МакКаллоха с Питтсом.