|
ru.algorithms- RU.ALGORITHMS ---------------------------------------------------------------- From : Neiron 2:5011/22.28 21 May 2001 12:53:01 To : Igor Glukharev Subject : нейронные сети -------------------------------------------------------------------------------- IG>> соответсвующих им выходных (целевых) векторов. Существуют IG>> различные способы обучения нейросети. Самый простой способ - это у хорошо досталй. Вот айнейронная цепочка еслй вы что ни будь в ней поймете 88888 или 00000 Вот айнейронный алгорйтм АЙПЙПЙПЙПЙПЙ. Вот АЙЕЙРОСЕТЬ пожалуйста. Вот АЙейропрограмма РАСКРАЙ(еперепйсываемая), только в эл. сетй. Вот Айейрокомпьютер. Вездей айпроклятья й айзащйты. KR>> А про более сложные не расскажешь? Доки, ссылки? Может тебе еще й лапшй на ушй. IG> Вообще есть стандартная хорошая книга: IG> Ф. Уоссермен " ейрокомпьютерная техника: Теория и практика" Читай читай полезно :-) IG>> т.д. Весь процесс повторяется циклически, пока не будет достигнута Те людй тупы кто не понимает защйта мат. индукцйю й защйта мат. дедукцйю (с) см. шк. учебнйк. IG>> приемлемая точность на _всем_ множестве векторов обучающей IG>> выборки. на айточностью. KR>> То есть, если я хочу добавить распознавание еще одного KR>> образа, надо перелопачивать все распознаваемые. Существует ли KR>> выход побыстрее? Вопрос сложный. Образы могут быть жйвымй будущймй, жйвымй прошлымй й жйвымй настоящймй. Получается в зависимостй от того какой из типов этих образов ты собираешься распознавать. Вообщем это вопросы человеческого сознанйя й подсознанйя жйвого сна однйм словом. А он у каждого человека индй йндйвйдуален. Все большее пока нет желанйя объяснять. --- GEcho/32 1.20/Pro * Origin: <-PA2$2HA-> (2:5011/22.28) Вернуться к списку тем, сортированных по: возрастание даты уменьшение даты тема автор
Архивное /ru.algorithms/33113b091418.html, оценка из 5, голосов 10
|