![]() |
![]() |
![]() |
|
Главная страница » Электрика в театре » Свойства нелинейных систем 1 ... 28 29 30 31 32 33 34 ... 42 динамических свойств управляемого процесса и внешних возмущений, воздействующих на него). Для решения любой задачи адаптивного управления необходимо постоянно контролировать свойства как управляемого объекта, так и внешних возмущений в течение всего времени работы системы. Получаемая информация должна оцениваться так, чтобы применить результаты для прямого и непрерывного воздействия на систему для улучшения рабочих условий. функциональный генератор Скалярное произведение c(k-f),f(z(k)) Задержка
функциональный генератор Рис. 4.5-1. Блок-схема алгоритма идентификации. В адаптивных системах идентификация является частью адаптивного процесса. Динамический характер управляемого объекта может быть описан разностным уравнением x{k)=f{b{k)\ (4.5-1) где г{к)=\х{к-\), x{k-n); u{k-l), и(А-г)]-г = ==\хЦк),ххЦк)Г. (4.5-2) В отличие от распознавания образов при идентификации величины X и U изменяются как некоторые стационарные случайные процессы. Алгоритм идентификации имеет вид с () = с (А; - 1) -f R (А;) [с^ (А; - 1) ср (z (k)) - х (k)]. (4.5-3) Блок-схема алгоритма идентификации, построенного на основе уравнения (4.5-3), показана на рис. 4.5-1. Она аналогична блок-схеме персептрона [33]. 4.6. АДАПТИВНЫЕ ФИЛЬТРЫ Задача фильтрации заключается в общем случае в отделении сигнала от шума. Если полезная переменная (сигнал) или внутренняя структура фильтра изменяются неизвестным заранее способом, для оптимальной фильтрации требуется адаптивный алгоритм. Если предположить, что критерием оптимальности служит квадратная функция разности между желаемым сигналом и вы- Идеальныа фильтр u(t) Фушщио- натныи генератор F(cMi)-iCt)) c(i) - /пат Скалярное произбедение Интегратор / = М' * Рис. 4.6-1. Блок-схема оптимального фильтра. ходным сигналом фильтра, задачу можно свести к так называемой задаче Винера, т. е. к минимизации функционала { да(.)г^(-т)т-г(Ор. (4.6-1) Теперь оптимальная весовая функция определяется в виде да(0 = стф(0, (4.6-2) а функционал, который требуется оптимизировать, равен /(с) = М [Fici (t) - т% (4.6-3) где 1}5 (г ) = J ф (т) и {t - т) с?т. о Алгоритм, решающий задачу, имеет вид (4.6-4) (4.6-5) На рис. 4.6-1 представлена блок-схема для этого алгоритма. Оптимальную весовую функцию фильтра можно, кроме того, получить из уравнения (4.6-2). 4.7. АДАПТИВНОЕ (ДУАЛЬНОЕ) УПРАВЛЕНИЕ Важная задача теории управления состоит в том, чтобы обеспечить оптимальное управление, имея неполную информа- цию. Эта задача не может быть разрешена детерминированными методами, и, следовательно, требуется адаптивное управление. Пусть управляемый объект описывается уравнением (4.5-1). Закон управления определяется нелинейным разностным уравнением u(k)g{xm (4.7-1) где x(k) есть -мерный вектор (д<п): x(k)=[x{k-1), .... x(n - q)Y. Функции f и g в выражениях (4.5-1) и (4.7-1) неизвестны. Для решения задачи управления необходимо найти g, т. е. надо определить минимум функционала I = M{F{x{k)-i{k))}, (4.7-2) где Fi - выпуклая функция, а i(k)-заранее определенная величина. Так как уравнения управляемого объекта неизвестны, задачу можно решить с помощью дуального управления, предложенного Фельдбаумом [34]. Понятие дуальное управление означает, по существу, то же самое, что и адаптивное управление. Первоначально [34] понятие дуального управления было развито на основе теории статистических решений. Такой подход является наилучшим, если плотности вероятностей параметров и внешних воздействий известны, а критерием служит минимум среднего риска. К несчастью, решение такой задачи настолько сложно, что оно имеет ценность только в относительно простых случаях. Недостаток состоит в том, что данный метод предполагает наличие априорной информации о плотностях вероятностей. Другое решение задачи дано Цыпкиным [2, 146*]. Идентификация объекта происходит при минимизации функционала 1р (с) = М [Fp [сЦЬ-\)ч> (Z (к)) - X(k)]]. (4.7-3) Для решения задачи используется алгоритм распознавания, сходный с алгоритмом (4.5-3): cik)c{k-l) + Rik)\.Fp[cik-\)ifiz{k))-xik)]. (4.7-4) Закон управления аппроксимируется скалярным произведением i(x) = bTil)(x). (4.7-5) где %(x)(y , 2,..., m)-линейно независимые скалярные функции. Критерий имеет вид /,(ь, с) = м(/Лс(-1)ф]х(й); ЪЦ{х{к-1)\ bTil,(x(-r))]-i()]}. (5.7-2) Минимум этого функционала можно найти, используя алгоритм управления b () = b - 1) + R () Vb Fi [ст 1) ф [X {k); b{k~\){x{k-\)), ЬТ(-1)(х(-г))]-/()]. (4.7-7) Градиент VbF, можно определить либо с помощью анализа чувствительности, либо поисковым методом. Алгоритмы распо- i/прабляющее устройство 1У Рис. 4.7-1. Блок-схема дуального управления. знавания и управления взаимосвязаны и неотделимы один от другого [35-37]. Упрощенная блок-схема дуального управления показана на рис. 4.7-1. ЛИТЕРАТУРА 1. Tsypkin Ya. Z. Optimization, Adaptation and Learning in Automatic Systems, Computer and Information Sciences, Academic Press, Inc., N. V., 1967, pp. 15-32. 2. Цыпкин Я. 3. .Адаптация, обучение и самообучение в автоматических системах, Автоматика и телемеханика, 1966, 27, № 1. 3. Tsypkin Ya. Z. Adaptation. Learning and Self-Learning in Automatic Control Systems, IFAC, 1966, Butterworth, 1966. 4. Девятершюв И. П., Пропой А. И., Цышшн Я. 3. О рекуррентных алгоритмах обучения распознаванию образов. Автоматика и телемеханика, 1967, 28, № 1, стр. 122-332. 5. Цыпкин Я. 3., Кельманс Г. К. Рекуррентные алгоритмы самообучения. Техническая кибернетика, 1967, 28, № 5. 6. Цыпкин Я. 3. Оптимальные гибридные алгоритмы адаптации и обучения, Автоматика и телемеханика, 1968, 29, № 8 7. Cooper D. В. Adaptive Pattern Recognition and Signal Detecting Using Stochastic Approx mation, IEEE Trans. Electron Computers. 1964, 13, pp. 306-307. 8. Бялашевич Я. Многомерная модель процесса идентификации объектов на основе аппроксимации и стохастического метода. Архивы автоматики и телемеханики, 1965, 10. 9 Robbins Н., Monro S. А Stochastic Approximation Method, Ann. Math. Statist., 1952. 22, pp. 400-407. 10. Kiefer E.. Wolfowitz T. Stochastic Estimation of the Maximum of a Regression Function, Ann. Math. Statist. 1952, 23, pp. 462-466. 11. Schmetterer L. Stochastic Approximations, Proc. 4th Berkeley Symp. Math. Statist. I, 1961. 12 .Arrow K. O.. Hurwitz L., Uzawa H. Studies in Linear and Nonlinear Programming. Stanford Univ. Press. Stanford, Calif.. 1958. 13. Гавурин M. K. Нелинейные функциональные уравнения и непрерывные аналоги итеративные аналоги итеративных методов. Изв. еЫсш. учебн. зав., математика, 1958, № 5. 14. DrimI М., Hans О. Continuous Stochastic Approximation, Trans. 2nd Prague Conf. Inform. Theory Stat. Decision Functions Random Processes, Prague, 1959. 15. Логинов H. B. Методы стохастической аппроксимации (обзор). Автоматика и телемеханика, 1964, 27, № 4, стр. 165-167. 16. Гладышев Е. Г. О стохастИ1}еской аппроксимации. Теория вероятностей и ее применения, 1962, 10, № 2. 17. Аведьян Э. П. К одной модификации алгоритма Роббинса и Монро, Автоматика и телемеханика, 1967, 28, № 4, стр. 165-167. 18. Motzkin Т. S., Schoenberg I. J. The Relaxation Method for Linear Inequalities. Can. J. Math.. 1954, 6, pp. 393-404. 19. Айзерман M. A., Браверман Э. M., Розоноэр Л. И. Метод потенциальных функций в задаче о восстановлении преобразователя по случайно наблюдаемым точкам. Автоматика и телемеханика. 1964, 25, № 12 стр. 1705-1714. 20. Браверман Э. М., Пятницкий Е. М. Оценка скорости сходимости алгоритмов, основанных на методе потенциальных функций. Автоматика и телемеханика. 1966, 27, № 1. 21. Браверман Э. М. Метод потенциальных функций в задаче обучения машины распознаванию образов без учителя. Автоматика и телемеханика. 1966, 27, № 10. 22. Айзерман М. А., Браверман Э. М., Розоноэр Л. И. О выборе потенциальной функции в симметрических пространствах. Автоматика и телемеха-ника, 1967, 28, № 10. 23. Widrow В. А Statistical Theory of Adaptation, в книге. Adaptive Control Systems, Caruthes F. P., Levenskin H., eds. Pergamon Press. 1963. 24. Aizerman M. A. Automatic Control Learning Systems (in the Light of Experiments on Teaching the Systems to Pattern Recognition), Proc. 2nd Congr. IFAC, Basel, 1963. Butterworth, 1963. 25. Вапник В. Н., Червоненкис А. Я. Об одном классе персептронов. Авто матика и теле.иеханика, 1964, 25, № 1, стр. 112-120. 26. Якубович В. А. Конечные общие теоретические принципы построения систем, обучающихся распознаванию образов. Вычислительная техника и вопросы программирования, 1965, 4 27. Flake R. Н. Volterra Series Represntation on Time-Varying Nonlinear Systems. Proc. 2nd Congr. IFAC, Basel, 1963. 28. Райбман H. C, Терехин A. T. Дисперсионные методы случайных функций н их применение для исследования нелинейных объектов управления. Автоматика и телемеханика, 1965, 26, № 3, стр. 500-509. 29. Райбман Н. С, Ханш О. Ф. Дисперсионные методы идентификации многомерных нелинейных объектов управления. Автоматика и телемеханика, 1967, 28, № 5. 30. Божанов Э. С. Применение метода стохастической аппроксимации для восстановления характеристик объекта. Автоматика и телемеханика, 1967, 28, № 6. 31. Глухов А. Б. Восстановление характеристик одного нелинейного элемента по входному и выходному сигналам. Автоматика и телемеханика, 1967, 28, № И. 32. Воробьев П. М. О задачах идентификации объектов и нелинейной фильтрации при гауссовашх входных сигналах. Автоматика и телемеханика, 1968, 29, № 8. 33. Oabor Р.. Wilby W. Р. Z.. Woodcock R. An Universal Nonlinear Filter. Predictor and Simulator which Optimizes Itself by a Learning Process, Proc. lEE, 1957, 108. Pt. B. p. 40. 34. Фельдбаум A. A. Теория дуального управления I-IV, Автоматика и телемеханика, 1960, 21, № 9-11; 1962, 23, № 1-2. 35. Кокотович П. Метод точек чувствительности в исследовании и оптимизации линейных систем управления. Автоматика и телемеханика, 1964, 25, № 12, стр. 1670-1676. 36. Коган Я. А. О сравнении неоптимальных и оптимальных стратегий в задачах дуального управления. Автоматика и телемеханика, 1966, 27, № 4. 37. Kulikowski К. Optimum and Adaptive Processes in Automatic Regulation Systems, Warsaw-Wroclaw, 1965, Часть V. ПРИЛОЖЕНИЕ В данном приложении приведены основные понятия и теоремы, которые используются в данной книге: элементы матричной алгебры и векторного анализа, связь уравнений состояния с передаточными функциями линейных систем, решение линейных и нелинейных векторных дифференциальных уравнений и, наконец, понятия наблюдаемости и управляемости и некоторые другие вопросы. 1. ОСНОВНЫЕ ПРИНЦИПЫ МАТРИЧНОГО ИСЧИСЛЕНИЯ И ВЕКТОРНОГО АНАЛИЗА Предполагая, что читатель знаком с основами матричной алгебры [4*, 10*, 36*, 39*, 46*, 48*, 54*, 56*, 67*, 69*, 70*, 114*, 128*, 132*, 135*, 145*, 150*, 151*], ограничимся сводкой наиболее важных теорем, использованных в отдельных главах этой книги [1-9]. 1.1. НЕКОТОРЫЕ ОСНОВНЫЕ ТЕОРЕМЫ МАТРИЧНОЙ АЛГЕБРЫ Матрицей А называется таблица вида
Величины Gjj называются элементами. Если элементы матрицы действительные числа, то матрица называется действительной, если некоторые из элементов комплексны, то говорят, что матрица комплексная. Л1атрица А имеет т строк и п столбцов, ее порядок равен тУм. Матрицы такого типа называются прямоугольными; матрица порядка пХп называется квадратной; матрица-столбец, или вектор-столбец, имеет размерность /пХ1; матрица-строка, или вектор-строка, имеет размерность iXn; скалярной величине отвечает матрица порядка 1X1. Диагональ квадратной матрицы, составленная из элементов йи, 22, cinn, называется главной диагональю. Сумма этих элементов обозначается символом tr и называется следом матрицы А: tr А = 2 j = 1 Определитель матрицы А|, вычисляемый через элементы матрицы А, обозначают также через det А. Для обозначения матриц используются прописные полужирные буквы латинского алфавита, для обозначения векторов-столбцов и Ёекторов-строк - строчные полужирные буквы. Матрица А', столбцы которой получаются из строк матрицы А с тем же номером, называется транспонированной:
(1.1-2) Если матрица А имеет m строк и п столбцов, то число строк транспонированной матрицы равно п, а число столбцов - т. Очевидно, что [А'] = А. Если А' = А, то матрица А является симметрической; если А^ = - А, то А - кососимметрическая матрица. Любую матрицу А можно разложить на сумму симметрической и кососимметрической матриц: А=--[А-ЬАТ]-ь4-[А-АТ]. В соответствии с принятыми обозначениями векторы записываются как матрицы-столбцы: = К .... х„Г = [хТ]т (1-1-3) Матрица, каждый элемент которой равен нулю, называется нулевой матрицей и обозначается через 0. В диагональной матрице D=diag[fl;,[, 22, й„ ]-все элементы, стоящие вне главной диагонали, равны нулю; для единичной матрицы I все элементы главной диагонали равны 1: 1 = diag [1. 1, ... . 1]. Две матрицы равны, если их соответствующие элементы идентичны. Чтобы найти сумму двух или более матриц, необ- ходимо сложить их соответствуюпхие элементы. Чтобы умножить матрицу на скаляр, необходимо каждый элемент матрицы умножить на этот скаляр. Одной из основных операций в алгебре матриц является умножение. Пусть А и В - матрицы порядка tnXl и /Хп. Если матрица С = АВ, ,.. , т), .., п). (1.1-4) (1.1-5) Таким образом, элемент t-й строки и /-го столбца матрицы С порядка /пХп равен сумме попарных произведений элементов tt-й строки матрицы А и /-го столбца матрицы В (разумеется, что число столбцов матрицы А равно числу строк матрицы В). Умножение матриц ассоциативно и дистрибутивно, однако в общем случае не коммутативно: АВВА. Матрицы А и В, для которых АВ=ВА, называются коммутативными. Следует отметить, что определитель матрицы произведения равен произведению определителей матричных множителей А и В: I С I = I А I I В I . Скалярное произведение (обозначаемое точкой) двух векторов одинаковой размерности можно представить в виде матричного умножения: (1.1-6) b = а'Ь Если скалярное произведение двух ненулевых векторов равно нулю, то эти два вектора ортогональны. Пусть 2, ..., т) - матрицы-строки матрицы А, а Ьз(/=1, 2, матрицы-столбцы матрицы В. Тогда , )- С = АВ = Lajj [bi, Ьг,
(1.1-7) Кроме строк и столбцов, в матрицах А и В можно также выделить прямоугольные подматрицы меньшей размерности. В этом случае произведение матриц можно записать в виде следующей комбинации выделенных подматриц: k =1 Матрицу С, составленную из матричных элементов Cjy, называют гиперматрицей. Произведение двух векторов а и имеет вид a b . (1.1-9) Следовательно, в вырожденном случае, когда матрицам А и В соответствуют вектор-столбец а и вектор-строка Ь' , произведение этих матриц, т. е. гиперматрица С, совпадает с обычной квадратной матрицей. Если же матрицам А и В соответствуют вектор-строка а' и вектор-столбе! Ь, то их произведение (1.1-6), т. е. гиперматрица С, является скалярной величиной. Полезно иметь в виду, что [АВ]т = ВТАт. (1.1-10) Обратной матрицей к невырожденной квадратной матрице R (с определителем, отличным от нуля) называется такая матрица R~\ для которой R-iR = RR-i = I. (1.1-11) Обратную матрицу R можно также определить равенством , , AdjR (1.1-12) R- = где R-ненулевой определитель матрицы R. Присоединенная матрица Adj R получается транспонированием матрицы, составленной из миноров каждого элемента матрицы R, взятых со знаком (-1 )+. Так как АВ = А В , то из равенства 1=[I = R->R = R-1 [R следует, что матрица R*, обратная матрице R, определяется однозначно, если только R0, т. е. при условии, что R - не вырожденная матрица. Очевидно, что [R-r = R. (1-1-13) IR- r = [R]-4 (1.1-14) Кроме того, если R и Р-невырожденные квадратные матрицы, то [RP]-i = p-iR-1. (1.1-15) 1 ... 28 29 30 31 32 33 34 ... 42 |
© 2000-2025. Поддержка сайта: +7 495 7950139 добавочный 133270.
Заимствование текстов разрешено при условии цитирования. |