русс | укр

Языки программирования

ПаскальСиАссемблерJavaMatlabPhpHtmlJavaScriptCSSC#DelphiТурбо Пролог

Компьютерные сетиСистемное программное обеспечениеИнформационные технологииПрограммирование

Все о программировании


Linux Unix Алгоритмические языки Аналоговые и гибридные вычислительные устройства Архитектура микроконтроллеров Введение в разработку распределенных информационных систем Введение в численные методы Дискретная математика Информационное обслуживание пользователей Информация и моделирование в управлении производством Компьютерная графика Математическое и компьютерное моделирование Моделирование Нейрокомпьютеры Проектирование программ диагностики компьютерных систем и сетей Проектирование системных программ Системы счисления Теория статистики Теория оптимизации Уроки AutoCAD 3D Уроки базы данных Access Уроки Orcad Цифровые автоматы Шпаргалки по компьютеру Шпаргалки по программированию Экспертные системы Элементы теории информации

Детерминистские методы оптимизации


Дата добавления: 2014-06-19; просмотров: 2618; Нарушение авторских прав


 

Детерминистские математические методы были разработаны, прежде всего, для решения простых проблем оптимизации, когда определен путь поиска целевой функции. Каждый повторный оптимизационный поиск с одинаковыми стартовыми условиями и идентичными критериями ведет к одному результату [24, 27, 28, 29].

Самые простые и не надежные детерминистские методы, это методы поиска без ограничений. Для поиска целевой функции с одной независимой переменной используют такие методы как, методы Фибоначи, Пауэлла, Брэнта, Давидона, а также метод золотого сечения. Недостаток этих методов заключается в том, что нам заранее надо знать интервал, в котором лежит минимум функции, а он в большинстве инженерных задач неизвестен. Еще одно ограничение применения этих методов заключается в том, что на данном интервале может быть только один минимум, иначе программа может найти локальный, а не глобальный минимум. Суть этих методов заключается в поиске минимума функции вычислением значений функции в выбранных точках интервала поиска. Наиболее приемлемым из этих методов является метод Брэнта, который базируется на квадратичной интерполяции функции.

Метод Хука-Дживса и симплексный метод (метод Нелдера-Мида) используются для прямого поиска целевой функции с несколькими независимыми переменными [25, 27, 30]. Эти методы могут быть успешно и эффективно применены для большинства задач оптимизации, но только в том случае, если функция имеет единственный минимум. Наиболее хорошо себя зарекомендовал симплексный метод, но только до тех задач, пока количество независимых переменных меньше пяти.

Следующая группа, это градиентные методы [25, 27, 30]. К ним относятся методы наискорейшего спуска, Давидона-Флетчера-Паули и метод Флэтчера-Ривса. Они также предназначены для поиска целевой функции с несколькими неизвестными переменными. В градиентных методах поиска помимо значений функции еще рассматривается ее градиент, поэтому они не получили широкого распространения. Эти методы базируются на основе тех методов, что осуществляют поиск из базисной точки в направлении параллельном оси координат в сторону минимума функции. В градиентных методах за направление поиска берется направление противоположное направлению градиента функции, т.к. в этом направлении функция убывает наиболее быстро, а это сокращает время оптимизационного поиска.



Наибольшее распространение в практической оптимизации получили детерминистские методы поиска при наличии ограничений [25, 27, 31]. Это вызвано только математической стороной методов оптимизации, т.к. сокращается время и увеличивается точность оптимизационного поиска. К методам поиска при наличии ограничений относятся методы Бокса (комплексный метод) и модифицированный метод Хука-Дживса. Наилучшие результаты показал метод Бокса. Он разработан на основе симплексного метода с возможностью вводить ограничения. Он является очень надежным инструментом, который относительно быстро находит искомый оптимум. Существенный недостаток этого метода заключается в том, что точность определения глобального минимума существенно зависит от выбора стартовых точек, особенно если численная модель вызывает большой численный шум. Тогда на помощь приходят стохастические методы оптимизации.

К последней группе детерминистских алгоритмов можно отнести методы последовательной оптимизации без ограничений. К этой группе относятся метод SUMT (метод Фиакко и Маккормика), а также метод штрафных функций. Наибольшее распространение получили методы штрафных функций [25, 28].

С помощью штрафной функции исходная задача оптимизации с наложенными ограничениями преобразуется в задачу поиска оптимального решения функции без ограничений. Суть данного метода заключается в создании вдоль границы допустимой области поиска оптимума как бы "барьера" из бесконечно больших значений функции – штрафов. Штраф определяется так, чтобы допустимые точки поиска минимума функции имели бы преимущество перед недопустимыми.

 



<== предыдущая лекция | следующая лекция ==>
Классификация методов оптимизации | Выбор метода решения задачи оптимального проектирования


Карта сайта Карта сайта укр


Уроки php mysql Программирование

Онлайн система счисления Калькулятор онлайн обычный Инженерный калькулятор онлайн Замена русских букв на английские для вебмастеров Замена русских букв на английские

Аппаратное и программное обеспечение Графика и компьютерная сфера Интегрированная геоинформационная система Интернет Компьютер Комплектующие компьютера Лекции Методы и средства измерений неэлектрических величин Обслуживание компьютерных и периферийных устройств Операционные системы Параллельное программирование Проектирование электронных средств Периферийные устройства Полезные ресурсы для программистов Программы для программистов Статьи для программистов Cтруктура и организация данных


 


Не нашли то, что искали? Google вам в помощь!

 
 

© life-prog.ru При использовании материалов прямая ссылка на сайт обязательна.

Генерация страницы за: 0.138 сек.