|
|
ru.algorithms- RU.ALGORITHMS ---------------------------------------------------------------- From : Andrey Dashkovsky 2:5002/46.4 13 May 2001 10:25:31 To : Shurick Fomin Subject : Re: Генетический алгоpитм? -------------------------------------------------------------------------------- 12 Май 01 14:50, you wrote to all: SF> Hаpод, pасскажите что да как есть сабж. Если можно, докyментацию на SF> pyсском в мыло. URL не пpинимаю. :( Вырезка из FAQ: ДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДД Q27. Генетическое обучение нейронных сетей. A. (Yuri Burger, 2:468/85.3) ДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДД С самим принципом ГА знаком? Вопщим в нейронке имеем кучу (обычно матрицу :) весовых коэффициентов. Переделуем её в вектор для ГА (обычно это двоичная строка). Соответственно определяем жизнестойкость вектора (простая оценка нейронки в зав. от цели). Так делаем N раз (веса заполнены от рандома). Потом по ГА - скрещиваем/мутируем вектора, прибиваем нежизнестойкие, переоцениваем вектора, повторяем всё сначала до тех пор, пока не "родится" вектор, сетевой эквивалент которого нас удовлетворяет :) Вот, вроде и всё. Тока это дело жручее будет - памяти надо много. IT> Забавно. А как расшифровывается "ГА"? Генетический алгоритм? Угу. Hо вообщет, если быть более точным, ген. алгоритм работает чуть по другому. Описан был... даж не помню как называется... кажись просто генетический метод... иль еще как.. А ГА, имхо, тож самое, но модифицирован для моделирующих систем и т.д. IT> А как производится смешивание и мутирование? Hу с мутированием просто - если вектор бинарный, то просто от балды берется точка на векторе и инвертируется. А скрещиваней можно по разному делать. Я юзал такое - от балды берем точку для двух векторов и получаем третий, записав в неё всё что до точки из первого и всё что после - из второго. Это, кста, одна из причин, почему метод назван генетическим - принцип скрещивания почти как у живых организмов. Вторая причина - применение эволюции или естественного отбора. Примерно, идея ГА/ГМ сводится к предположению, что из "хороших" решений можно получить еще более "лучшее". IT> А где это успешнее применяется? Там где уже ничего другого сделать низя :) Вот хотяб я делал для поиска максимума нелинейной мункции от 2х параметров. Hу влом было изучать существующие методы. А ГА/ГМ я за час написал и всё работало тип-топ ;) В чем и соль - метод оооочень прозрачный и легко-реализуемый... Hо при этом доказать его верность и т.д., имхо, невозможно. Поэтому лучше применить там, где альтернативой может быть только стахостические методы - чтоб не пришлось доказывать правильность своего. А практика показывает, что ГА лучше стахостических методов. Есть правда у него один изъян - он очень плохо переваривает случаи, когда пространсво значений оценок решения невелико. Тоесть, если есть оценка типа "решение верно" и "решение неверно" то ГА тут не будет работать :( Правда и задач таких не так уж много. Пока что я видел применение ГА/ГМ для оптимизационных задач, задач нахождения функций и обучения HС. Правда последния 2 случая приводятся к первому :) Andrey ... ... а то эта NTя - пpямо квест какой-то, можно сутками пpоходить ... --- GoldED+/386 1.1.4.7 * Origin: Всё фигня кроме пчёл,хотя пчёлы,если подумать,тоже фиг (2:5002/46.4) Вернуться к списку тем, сортированных по: возрастание даты уменьшение даты тема автор
Архивное /ru.algorithms/143013afe6f6f.html, оценка из 5, голосов 10
|