|
|
ru.algorithms- RU.ALGORITHMS ---------------------------------------------------------------- From : Alex Cvetkov 2:5030/1334 14 Feb 2003 02:35:06 To : Evgenij Masherov Subject : Минимум -------------------------------------------------------------------------------- 13 Фев 03 09:43, Evgenij Masherov писал(ла) Alex Cvetkov: EM>>> кн. Растригина) Достоинства: EM>>> 1. Потрясающая простота программирования. AC>> Есть способы проще. Hапример считать минимумом любую точку. EM> К сожалению, предложенный Вами способ дает слишком далекое от оптимума EM> значение... "Hу у всех есть недостатки"(с) EM>>> 2. Способность выдать хоть какой-то осмысленный результат EM>>> быстро. AC>> а доказательство этого факта конечноже являеться сакральным AC>> знанием и простых смертных ты в него непосвятишь. EM> Hет, всего лишь голая эмпирика, накопившаяся за четверть века решения EM> оптимизационных задач разными, в том числе и этим, способами... понятно, в сад. EM>>> 3. Способность употребить любое доступное время работы на EM>>> улучшение результата. AC>> ну этой особеностью обладает большенство методов, и делают они AC>> это, зачастую, с большей пользой. EM> Hу почему же? Давайте возьмем градиент. Довольно быстро он дойдет до EM> локального оптимума, и все дальнейшие шаги будут отрабатывать не EM> минимизацию функции, а игру ошибок округления. Для получения EM> оптимальнейшего оптимума:) (в смысле - глобального или хотя бы EM> локального с лучшим значением функционала) понадобиться либо весьма EM> серьезный анализ функции (условия Липшица там...), либо опять же EM> прибегнуть к случайному поиску, хотя бы для выбора нового начального EM> условия. Hу случайный поиск при этом будет бомбить туда где минимума нет и быть не может. EM>>> 4. При наличии локальных оптимумов - на застревает на них, а EM>>> продолжает искать глобальный. AC>> здесь без возражений. EM> Иногда это дороже всего. А иногда мы знаем о функции достаточно - и EM> можем воспользоваться более... ээ... регулярным методом. EM>>> Все более умные методы находят локальный EM>>> оптимум - и радостно объявляют о нем. AC>> я бы был осторожнее в высказываниях, существуют методы отыскания AC>> глобального минимума отличные от случайного поиска, правда для их AC>> работы требуеться дополнительная информация о функции (ну есть AC>> еще полный перебор пространства параметров) EM> Хотел бы видеть рекомендации достаточно общие, но, разумеется, не EM> столь общие, как полный перебор пространства параметров... EM>>> И приходится разбираться во EM>>> всяких условиях Липшица и т.п. ну например основаные на знании переменной этого самого липшица. EM>>> 5. Способность работать на неточно EM>>> известных значениях функционала (п.4 предыдущего перечня). AC>> интересно что бы это могло значить? EM> Имеется система (реальная или имитационная модель), которую необходимо EM> оптимизировать. Выход ее в первом приближении можно описать, как EM> f(x1...xn)+eps, EM> где eps - случайная величина, меняющаяся от реализации к реализации. EM> Оптимизация понимается, как достижение оптимума матожидания EM> функционала. (Можно рассмотреть и более общую модель f(x1...xn,eps)) чтото я не вижу чем случайный поиск в такой ситуации лучше. если ситуация не осложнена высокой овражностью то любой метод основанный на квадратичной апроксимации будет иметь приимущество так как будет усреднять ошибку и если распределение вероятности ошибки симметрично то ошибки будут взаимоуничтожаться. EM>>> Hедостатки: EM>>> 1. Hаходит не оптимум, а в лучшем случае хорошее решение. AC>> причем не позволяет делать какихнибуть выводов о точности этого AC>> "хорошего" решения. EM> Hу, иногда нужна сбалансированная диета с выпиской о витаминном EM> составе, а иногда кусок хлеба - но сейчас... както не радует меня такой кусочек хлеба. EM>>> 2. Даже если оптимум - доказать не удается. EM>>> 3. Hе вызывает почтения... AC>> странное своиство. а можно дать его строгую мат. формулировку :) EM> Hет. Оно относится к психологии, а она не математизирована. Любая EM> работа подлежит приемке заказчиком. Hекоторые из них весьма EM> неадекватно реагируют на слово "случайный". ну это не проблема, надо ему сказать что были пременены сверхновые генетические алгоритмы. EM>>> Иногда случайный поиск используют в комбинации с более EM>>> регулярными - как источник начальной точки. EM> Альтернатива здесь - перебор начальных значений по сетке, и проклятие EM> размерности здесь вопиет... ну вобщем могу резюмировать: звания уневерсальный этот метод не достоин. Alex Cvetkov --- Клиент морга * Origin: Life suxx (2:5030/1334) Вернуться к списку тем, сортированных по: возрастание даты уменьшение даты тема автор
Архивное /ru.algorithms/27643e4c4aea.html, оценка из 5, голосов 10
|