|
ru.algorithms- RU.ALGORITHMS ---------------------------------------------------------------- From : Igor Glukharev 2:5035/21.31 07 May 2001 13:28:46 To : Kostya Rostovtsev Subject : нейронные сети -------------------------------------------------------------------------------- 05 May 01 23:53:31 Kostya Rostovtsev --> All KR> Вот такой вопросик. Учу я сеть, допустим, алгоритмом обратного KR> распространения. То есть, задал входной образ, задал выходной, KR> скорректировал все веса. Теперь новый образ распознается правильно, а KR> кто мне при этом гарантирует, что все образы, которые до этого KR> распознавались правильно по-прежнему будут распознаваться правильно? Смысл вот в чем. Вначале имеется некоторая сеть со случайно установленными весами связей и есть обучающая выборка, т.е. множество входных векторов и соответсвующих им выходных (целевых) векторов. Существуют различные способы обучения нейросети. Самый простой способ - это взять первый элемент обучающей выборки и обучить сеть на этом элементе. Затем взять второй элемент обучающей выборки и обучить сеть на втором элементе и т.д. Весь процесс повторяется циклически, пока не будет достигнута приемлемая точность на _всем_ множестве векторов обучающей выборки. Тут можно возразить, что сеть "забывает" предыдущие вектора, но на самом деле это не так - в основном (я не рассматриваю анормальные ситуации типа паралича сети, локальные минимумы и т.п.) процесс обучения сведется к нахождению некоего глобального минимума. Т.е. состояние сети после обучения первому элементу выборки не тождественно состоянию после первого цикла обучения (т.е. опять после первого элемента выборки). Во время обучения идет поиск по (гипер)поверхности ошибки того самого минимума. Поверхность ошибки обычно изрезана всевозможными "горами", "впадинами", "оврагами" и пр. Bye! Igor --- F.I.P.S./32 v1.0r W95/NT [M] * Origin: Sine qua non (2:5035/21.31) Вернуться к списку тем, сортированных по: возрастание даты уменьшение даты тема автор
Архивное /ru.algorithms/32643af66ace.html, оценка из 5, голосов 10
|