Автор работы: Пользователь скрыл имя, 30 Сентября 2013 в 19:14, контрольная работа
Оптимальное программирование можно применять лишь к таким задачам, при решении которых оптимальный результат достигается лишь в виде точно сформулированных целей и при вполне определенных ограничениях, обычно вытекающих из наличных средств (производственных мощностей, сырья, трудовых ресурсов и т. д.).
В условия задачи обычно входит некоторая математически сформулированная система взаимозависимых факторов, ресурсы и условия, ограничивающие характер их использования.
Задача становится разрешимой при введении в нее определенных оценок как для взаимозависимых факторов, так и для ожидаемых результатов.
Введение………………………………………………………….3
Основные понятия теории оптимизации………………….….4
Теорема Куна-Такера……………………………………….…6
Безусловная оптимизация……………………………………..8
Условная оптимизация…………..……………………………15
Заключение………………………………………………….….…19
Список литературы…………………………………….................20
Государственное образовательное учреждение
высшего профессионального образования
«Волгоградский
государственный технический
Факультет экономики и управления
Кафедра «Мировая
экономика и экономическая
по предмету «Микроэкономика»
на тему:
«Условная и безусловная оптимизация. Теорема Куна-Таккера»
Выполнила:
ФЭУ-160
Проверила:
Волгоград 2012
Введение…………………………………………………………
Заключение………………………………………………….
Список литературы…………………………………
Под задачей математического
Основные понятия теории оптимизации
На практике постоянно встречаются такие ситуации, когда достичь какого-то результата можно не одним, а многими различными способами. В подобной ситуации может оказаться и отдельно взятый человек, например, когда он решает вопрос о распределении своих расходов, и целое предприятие или даже отрасль, если необходимо определить, как использовать имеющиеся в их распоряжении ресурсы, чтобы добиться максимального выхода продукции, и, наконец народное хозяйство в целом. Естественно, при большом количестве решений должно быть выбрано наилучшее.
Успешность решения подавляющего большинства экономических задач зависит от наилучшего, наивыгоднейшего способа использования ресурсов. И от того, как будут распределены эти, как правило, ограниченные ресурсы, будет зависеть конечный результат деятельности.
Суть методов оптимизации (оптимального программирования) заключается в том, чтобы, исходя из наличия определенных ресурсов, выбрать такой способ их использования (распределения), при котором будет обеспечен максимум или минимум интересующего показателя.
Необходимым
условием использования оптимального
подхода к планированию (принципа
оптимальности) является гибкость, альтернативность
производственно-хозяйственных
Оптимальное программирование, таким образом, обеспечивает успешное решение целого ряда экстремальных задач производственного планирования. С математической и статистической точек зрения этот метод применим лишь к тем явлениям, которые выражаются положительными величинами и в своей совокупности образуют объединение взаимозависимых, но качественно различных величин. Этим условиям, как правило, отвечают величины, которыми характеризуются экономические явления. Перед исследователем экономики всегда имеется — некоторое множество разного рода положительных величин. Решая задачи оптимизации, экономист всегда имеет дело не с одной, а с несколькими взаимозависимыми величинами или факторами. Решая задачи оптимизации, экономист всегда имеет дело не с одной, а с несколькими взаимозависимыми величинами или факторами.
Оптимальное программирование можно применять лишь к таким задачам, при решении которых оптимальный результат достигается лишь в виде точно сформулированных целей и при вполне определенных ограничениях, обычно вытекающих из наличных средств (производственных мощностей, сырья, трудовых ресурсов и т. д.).
В условия задачи обычно входит некоторая математически сформулированная система взаимозависимых факторов, ресурсы и условия, ограничивающие характер их использования.
Задача становится разрешимой при введении в нее определенных оценок как для взаимозависимых факторов, так и для ожидаемых результатов.
Следовательно, оптимальность результата задачи программирования имеет относительный характер. Этот результат оптимален только с точки зрения тех критериев, которыми он оценивается, и ограничений, введенных в задачу.
Теорема Куна-Таккера.
Теоремы
Куна - Таккера - это обобщение теоремы
Лагранжа на случай задач оптимизации
с ограничениями в виде неравенств.
Мы рассмотрим эти теоремы в дифференциальной форме (т.е. когда
все функции дифференцируемы).
Пусть даны функции
и
где X⊆.
Функцию φ(⋅) будем использовать как целевую функцию,
а с помощью функций ψr(⋅) будем задавать ограничения. При этом
мы получим следующую задачу нелинейного программирования:
x=(x1,...,xn)∈X.
Функция Лагранжа (лагранжиан) этой задачи имеет следующий вид:
L(x, λ)= φ(x)+ (x),
где коэффициенты λj называют множителями Лагранжа.
Прямая теорема Куна — Таккера (необходимое условие оптимальности)
Пусть функции φ(⋅λ), ψ1(⋅),...,ψn(⋅) дифференцируемы, и — решение задачи (1), такое что ∈int(X) и выполнены условия регулярности.
Тогда существуют множители Лагранжа λj>0, j= 1, ...,m, такие что при =1 выполнены следующие соотношения:
=0, i=1,...,n
и
=0
Обратная теорема Куна–Таккера (достаточное условие оптимальности)
Пусть функции φ(⋅), ψ1(⋅),...,(⋅) дифференцируемы и вогнуты,
множество X выпукло и точка допустима в задаче (1), причем
Пусть, кроме того, существуют множители Лагранжа
λj>0, j=1,...,m, такие что при = 1 выполнены следующие соотношения:
=0, i=1,...,n
и
Тогда — решение задачи (1).
Безусловная оптимизация.
Различают методы условной и безусловной оптимизации по наличию или отсутствию ограничений. Здесь мы введем основные понятия и проведем теоретическое исследование задачи безусловной оптимизации.
Решение многих теоретических и практических задач сводится к отысканию экстремума (наибольшего или наименьшего значения) скалярной функции f(х) n-мерного векторного аргументах. В дальнейшем под x будем понимать вектор-столбец (точку в n-мерном пространстве):
Вектор-строка получается путем применения операции транспонирования:
=( …, )
Оптимизируемую функцию f(x) называют целевой функцией или критерием оптимальности.
В дальнейшем без ограничения общности будем говорить о поиске минимального значения функции f(x) записывать эту задачу следующим образом:
f(x ) min.
Вектор х*, определяющий минимум целевой функции, называют оптимальным.
Отметим, что
задачу максимизации f(x) можно заменить
эквивалентной ей задачей минимизации
или наоборот. Если х* - точка минимума функции y = f(x), то
для функции y =- f(x) она является точкой максимума,
так как графики функций f(x) и - f(x), симметричны
относительно оси абсцисс.
Минимальное
же значение функции f(x),
Рассуждая аналогично, этот вывод нетрудно распространить на случай функции многих переменных. Если требуется заменить задачу минимизации функции f(x1, …, xn) задачей максимизации, то достаточно вместо отыскания минимума этой функции найти максимум функции f(x1,…,xn). Экстремальные значения этих функций достигаются при одних и тех же значениях переменных. Минимальное значение функции f(x1, …, xn) равно максимальному значению функции - f(x1, …, xn), взятому с обратным знаком, т.е. min f(x1, …, xn) =max f(x1, …, xn). Отмеченный факт позволяет в дальнейшем говорить только о задаче минимизации.
Рисунок 1. Экстремум
В реальных условиях на переменные xi, i=1, …. n, и некоторые функции gi (х), hi(х), характеризующие качественные свойства объекта, системы, процесса, могут быть наложены ограничения (условия) вида:
gi (х) = 0, i=1, …. n,
hi (х) <= 0, i=1, …. n,
a <= x <= b,
где
;
Такую задачу называют задачей условной оптимизации.
При отсутствии ограничений имеет место задача безусловной оптимизации.
Каждая точка х в n-мерном пространстве переменных х1, …, хn, в которой выполняются ограничения, называется допустимой точкой задачи. Множество всех допустимых точек называют допустимой областью G. Решением задачи (оптимальной точкой) называют допустимую точку х*, в которой целевая функция f(х) достигает своего минимального значения.
Точка х* определяет глобальный
минимум функции одной переменной f(x), заданной
на числовой прямой Х , если x *
X и f(x*) < f(x) для
всех x*
X (Рис.
2, а). Точка х* называется точкой строгого
глобального минимума, если это неравенство
выполняется как строгое. Если же в выражении f(х*) <= f(x) равенс
Рисунок 2. Глобальный минимум. а - строгий, б - нестрогий
Точка х* Х определяет локальный минимум функции f(x) на множестве Х , если при некотором достаточно малом e > 0 для всех х, не равных х*, x X, удовлетворяющих условию ¦х - х*¦<= e, выполняется неравенство f(х*) < f(х). Если неравенство строгое, то х* является точкой строгого локального минимума. Все определения для максимума функции получаются заменой знаков предыдущих неравенств на обратные. На Рис.3 показаны экстремумы функции одной переменной f(х) на отрезке [a, b] . Здесь х1, х3, х6 - точки локального максимума, а х2, х4 - локального минимума. В точке х6 реализуется глобальный максимум, а в точке х2 - глобальный минимум.
Рисунок 3. Экстремумы функции
Классификация методов
Возможны два подхода к решению задачи отыскания минимума функции многих переменных f(x) = f(x1, ..., хn) при отсутствии ограничений на диапазон изменения неизвестных. Первый подход лежит в основе косвенных методов оптимизации и сводит решение задачи оптимизации к решению системы нелинейных уравнений, являющихся следствием условий экстремума функции многих переменных. Как известно, эти условия определяют, что в точке экстремума х* все первые производные функции по независимым переменным равны нулю:
Информация о работе Условная и безусловная оптимизация. Теорема Куна-Таккера