Главная страница


ru.algorithms

 
 - RU.ALGORITHMS ----------------------------------------------------------------
 From : Andrey Dashkovsky                    2:5002/46.4    08 May 2001  07:28:27
 To : Igor Glukharev
 Subject : Re: нейронные сети
 -------------------------------------------------------------------------------- 
 
 07 Май 01 12:28, you wrote to Kostya Rostovtsev:
 
  KR>>     Вот такой вопросик. Учу я сеть, допустим, алгоритмом обратного
  KR> KR>> распространения. То есть, задал входной образ, задал выходной,
  KR> KR>> скорректировал все веса. Теперь новый образ распознается
  KR>> правильно, а кто мне при этом гарантирует, что все образы, которые
  KR>> до этого распознавались правильно по-прежнему будут распознаваться
  KR>> правильно?
 
  IG> Смысл вот в чем.
  IG> Вначале имеется некоторая сеть со случайно установленными весами
  IG> связей и есть обучающая выборка, т.е. множество входных векторов и
  IG> соответсвующих им выходных (целевых) векторов. Существуют различные
  IG> способы обучения нейросети. Самый простой способ - это взять первый
  IG> элемент обучающей выборки и обучить сеть на этом элементе. Затем взять
  IG> второй элемент обучающей выборки и обучить сеть на втором элементе и
  IG> т.д. Весь процесс повторяется циклически, пока не будет достигнута
  IG> приемлемая точность на _всем_ множестве векторов обучающей выборки.
  IG>  Тут можно возразить, что сеть "забывает" предыдущие вектора, но на
  IG> самом деле это не так - в основном (я не рассматриваю анормальные
  IG> ситуации типа паралича сети, локальные минимумы и т.п.) процесс
  IG> обучения сведется к нахождению некоего глобального минимума. Т.е.
  IG> состояние сети после
  IG> обучения первому элементу выборки не тождественно состоянию после
  IG> первого цикла обучения (т.е. опять после первого элемента выборки).
  IG> Во время обучения идет поиск по (гипер)поверхности ошибки того самого
  IG> минимума. Поверхность ошибки обычно изрезана всевозможными "горами",
  IG> "впадинами", "оврагами" и пр.
 
 Добавлю ко всему этому, что при обучении нейронных сетей очень много зависит от
 тестов. Другими словами на некоторых наборах элементов сеть может вообще не
 обучиться, и при разработке тестов этому в профессиональных проектах уделяется
 внимание.
 Это мне на лабах препод как-то рассказывал, когда моя прога наотрез обучаться
 отказалась после его модификации теста.
 
 Andrey
 
 ... ... лучше пузо от пива, чем горб от работы ...
 --- GoldED+/386 1.1.4.7
  * Origin: Всё фигня кроме пчёл,хотя пчёлы,если подумать,тоже фиг (2:5002/46.4)
 
 

Вернуться к списку тем, сортированных по: возрастание даты  уменьшение даты  тема  автор 

 Тема:    Автор:    Дата:  
 нейронные сети   Igor Glukharev   07 May 2001 13:28:46 
 Re: нейронные сети   Andrey Dashkovsky   08 May 2001 07:28:27 
 Re: нейронные сети   Kostya Rostovtsev   08 May 2001 21:41:30 
 Re: нейронные сети   Igor Glukharev   14 May 2001 13:16:25 
 нейронные сети   Neiron   21 May 2001 12:53:01 
 [*] Re: нейронные сети   Comoderator Of Ru Algorithms   22 May 2001 16:47:46 
 Re нейронные сети   Iskander Sagen   17 May 2001 18:15:33 
 Re нейронные сети   Igor Glukharev   20 May 2001 11:04:01 
Архивное /ru.algorithms/143013af7aebb.html, оценка 2 из 5, голосов 10
Яндекс.Метрика
Valid HTML 4.01 Transitional