|
ru.algorithms- RU.ALGORITHMS ---------------------------------------------------------------- From : Andrey Dashkovsky 2:5002/46.4 08 May 2001 07:28:27 To : Igor Glukharev Subject : Re: нейронные сети -------------------------------------------------------------------------------- 07 Май 01 12:28, you wrote to Kostya Rostovtsev: KR>> Вот такой вопросик. Учу я сеть, допустим, алгоритмом обратного KR> KR>> распространения. То есть, задал входной образ, задал выходной, KR> KR>> скорректировал все веса. Теперь новый образ распознается KR>> правильно, а кто мне при этом гарантирует, что все образы, которые KR>> до этого распознавались правильно по-прежнему будут распознаваться KR>> правильно? IG> Смысл вот в чем. IG> Вначале имеется некоторая сеть со случайно установленными весами IG> связей и есть обучающая выборка, т.е. множество входных векторов и IG> соответсвующих им выходных (целевых) векторов. Существуют различные IG> способы обучения нейросети. Самый простой способ - это взять первый IG> элемент обучающей выборки и обучить сеть на этом элементе. Затем взять IG> второй элемент обучающей выборки и обучить сеть на втором элементе и IG> т.д. Весь процесс повторяется циклически, пока не будет достигнута IG> приемлемая точность на _всем_ множестве векторов обучающей выборки. IG> Тут можно возразить, что сеть "забывает" предыдущие вектора, но на IG> самом деле это не так - в основном (я не рассматриваю анормальные IG> ситуации типа паралича сети, локальные минимумы и т.п.) процесс IG> обучения сведется к нахождению некоего глобального минимума. Т.е. IG> состояние сети после IG> обучения первому элементу выборки не тождественно состоянию после IG> первого цикла обучения (т.е. опять после первого элемента выборки). IG> Во время обучения идет поиск по (гипер)поверхности ошибки того самого IG> минимума. Поверхность ошибки обычно изрезана всевозможными "горами", IG> "впадинами", "оврагами" и пр. Добавлю ко всему этому, что при обучении нейронных сетей очень много зависит от тестов. Другими словами на некоторых наборах элементов сеть может вообще не обучиться, и при разработке тестов этому в профессиональных проектах уделяется внимание. Это мне на лабах препод как-то рассказывал, когда моя прога наотрез обучаться отказалась после его модификации теста. Andrey ... ... лучше пузо от пива, чем горб от работы ... --- GoldED+/386 1.1.4.7 * Origin: Всё фигня кроме пчёл,хотя пчёлы,если подумать,тоже фиг (2:5002/46.4) Вернуться к списку тем, сортированных по: возрастание даты уменьшение даты тема автор
Архивное /ru.algorithms/143013af7aebb.html, оценка из 5, голосов 10
|