Содержание
- Введение 1
- Теоретические основы оптимального управления 2
- - Математическое описание динамических систем 2.1
- - Методы вариационного исчисления 2.2
- - Принцип максимума Понтрягина 2.3
- Динамическое программирование 3
- - Принцип оптимальности Беллмана 3.1
- - Рекуррентное уравнение Беллмана 3.2
- - Применение динамического программирования 3.3
- Численные методы решения задач оптимального управления 4
- - Метод градиента 4.1
- - Метод Ньютона и квази-Ньютона 4.2
- - Численное интегрирование и решение краевых задач 4.3
- Примеры практического применения 5
- - Управление движением роботов 5.1
- - Оптимизация производственных процессов 5.2
- - Управление экономическими системами 5.3
- Заключение 6
- Список литературы 7