Главная страница » Электрика в театре » Свойства нелинейных систем

1 ... 34 35 36 37 38 39 40 ... 42

Итак, матрица, транспонированная к сопряженной матрице, является обратной фундаментальной матрице исходной системы. Из сопоставления соотношений (4.3-3) - (4.3-5) обнаруживается важное свойство сопряженных систем:

zT (t) X (t) = zT (to) {t, о)Ф {t, /0) X (/0) = zT ( X (0), (4.3-16)

которое означает, что для любого момента времени t скалярное произведение векторных переменных исходной и сопряженной систем сохраняет постоянное значение. Если матрица системы является кососимметрической, т. е.

А(/)=-АТ(4 (4.3-17)

то система, заданная однородным дифферезщиальным уравнением, называется самосопряженной (в этом случае сопряженная система совпадает с системой, заданной первоначально). При этом фундаментальные матрицы также совпадают и, как следует из выраи^ения (4.3-5),

фТ(, дф(, = 1. (4.3-18)

Равенство (4.3-18) выражает свойство ортогональности. Таким образом, фундаментальная матрица Ф(, с) самосопряженной системы является ортогональной. В этом случае

IIX (О II = хт (О X (О = хт ( X (У = К X (to) II, (4.3-19)

т. е. евклидова длина вектора решения xf) в любой момент времени сохраняет постоянное значение. Заметим, что для постоянной матрицы А() = А решение уравнения (4.3-2) примет вид

z(0 = e-AT< z(0). (4.3-20)

4.4. ОПРЕДЕЛЕНИЕ ПЕРЕХОДНОЙ МАТРИЦЫ

Вычисление переходной матрицы начнем со случая скалярного уравнения первого порядка с переменными коэффициентами:

x = ait)x. (4.4-1)

Его решение имеет вид

ехр а(т)с?1

х(0 = где

x(to)=-[expgit)]xito), (4.4-2)

g(0=I W- (4-4-3)



Решение однородного векторного дифференциального уравнения с переменными коэффициентами

x=Ait)x (4.4-4)

будем искать в виде

x{t)

где

ехр jA(T)£fx

x(o) = [expG(0]x(a (4.4-5)

G()= jA(T)ufx. (4.4-6)

Заменяя x(t) в дифференциальном уравнении (4.4-4) выражением (4.4-5), найдем, что формула (4.4-5) определяет решение в том и только в том случае, когда

-Ж = Чр- = А (t) . (4.4-7)

Это равенство может выполняться, когда A(i) совпадает с постоянной матрицей А или когда эта матрица является диагональной. Случаи постоянной матрицы А при наличии простых и кратных собственных значений были рассмотрены в разд. 3.2 и 3.3. При кратных собственных значениях векторное уравнение (4.4-4) распадается на систему независимых скалярных уравнений состояния, для которых решение имеет вид (4.4-2).

Условие (4.4-7) эквивалентно следующему свойству коммутативности:

А ih) А (i) = А {td А ih), У1г, Щ (4.4-8)

[3, 8]. Если это условие выполняется, то выражение (4.4-5) действительно определяет решение и переходная матрица имеет вид

Ф it, g = ехр J А (х) dx. (4.4-9)

и

Матрицант. В общем случае, когда условие коммутативности не выполняется, переходную матрицу нельзя определить по формуле (4.4-9) и тогда приходится применять так называемый метод матрицанга. Формальное интегрирование дифференциального уравнения (4.4-4) приводит к векторному интегральному уравнению Вольтерра:

X (О = X ito) + IА (X) X (X) dx. (4.4-10)



Решение этого уравнения можно получить, применяя метод последовательных приближений. Первая итерация дает

dx. (4.4-11)

x(/o) + jA( )x(&)rf8-

Это выражение можно упростить, использовав обозначение интегрального оператора Q:

Q( )=!( )dx. (4.4-12)

Опуская второй интеграл в выражении (4.4-11), запишем решение уравнения (4.4-10) следующим образом:

X (О = X (о) + Q (А) X {Q. (4.4-13)

Тогда первую итерацию (4.4-11) можно представить в виде равенства

X (О = [I -f Q (А) + Q (AQ (А))] X {Q. (4.4-14)

Продолжая этот процесс последовательных приближений, найдем решение в виде ряда Неймана:

X (О = [I + Q (А) Л- Q (AQ (А)) + Q (AQ (AQ (А))) -f ...] х (о)-

(4.4-15)

Если элементы матрицы А ограничены в области интегрирования, то ряд (4.4-15) сходится равномерно и абсолютно. Матрицанто,м называется ряд, стоящий в квадратных скобках равенства (4.4-15):

М (А) = I -f Q (А) + Q (AQ (А)) + Q (AQ (AQ(A)))-f ... , (4.4-16)

который часто записывают, применяя сокращенное обозначение

M(A) = I-f Q(A) + Q2(A)-f ... . (4.4-17)

Первое фундаментальное свойство матрицанта состоит в том, что

М(А) = I, если t = to. (4.4-18)

Второе свойство можно вывести, дифференцируя по t обе части равенства (4.4-16) или (4.4-17):

М(А) = АМ(А). (4.4-19)

Из третьего свойства матрицанта

М (А) = е^((- , если А (t) = А, (4.4-20)



следует, что

М(А) = 1 + А(-д + А2(/-да+ ....

Из второго свойства видно, что матрицант удовлетворяет условию (4.4-7) и, следовательно, матрицант определяет искомую переходную матрицу

Ф(/, д = М(А). (4.4-21)

Метод возмущений. В работе [3] предложен метод декомпозиции матрицы A(t) на две составляющие AjC/) и Ai (t), такие, что матрица А (О удовлетворяет условию коммутативности (4.4-8), а матрица возмущений совпадает с Aj (t):

A(0 = Ao(0 + Ai {t). Решением невозмущенного уравнения

Х8(/) = Аа(/)хо(0

Хо(0 = Фо(/, дх(/о), t

является функция где

Фо(Л 4)== ехр

1Аа(х)й?.

Для решения возмущенного уравнения

к(0= [Ао(0 + Ai(0]x(/)

(4.4-22)

(4.4-23) (4.4-24)

(4.4-25) (4.4-26)

требуется применить метод последовательных приближений. В уравнении (4.4-26) член Ax(t)x(t) соответствует возмущению b(t)u(t) Б уже рассмотренном неоднородном уравнении. Пользуясь принципом суперпозиции и выражением (4.2-10), запишем решение возмущенного уравнения в виде

X (О = Фо (/, Q X (/о) Л- J Фо {t, х) А, (т) X (т) dx. (4.4-27)

Таким образом, мы опять пришли к векторному интегральному уравнению Вольтерра вида (4.4-10). Используя описанную выше итерационную процедуру, получим переходную матрицу в виде рядов Неймана:

Ф (/, Q = [1 + Q (ФоАО + (ФоАО + ...] Фо {t, Q. (4.4-28)

Если эффект, вносимый возмущением AiC) по сравнению с матрицей АоС^), незначителен, то количество требуемых членов Б разложении (4.4-28) можно уменьшить. Число приближений можно также уменьшить за счет подходящего выбора матрицы АоСО.



ЛИТЕРАТУРА

1. Pipes L. A. Matrices in Engineering, Electrical Engineering, 1937, 56, №9. pp. 1177-1190.

2. Kalman R. E. On the General Theory of Control Systems, Proc. First IFAC Moscow. 1960, Butterworths, London, 1961. v. 1, pp. 481-493.

3. Kinariwala R. K. Analysis of Time-Varying Networks, IRE Intern. Conv. Record, 1961. 9, pp. 268-276.

4. Zaden L. A. Time Varying Networks I, IRE Intern. Conv. Record, 1961, 9. pp. 261-267.

5. Kalman R. E. Canonical Structure of Linear Dynamical Systems, Proc Nat Ac. Sci., 1962, 48, pp. 596-600.

6. Issac M. Deterministic and Stochastic Response of Linear Time-Variable Systems, General Electric, LEMD Technical Report, № R62 EMLl, 1962.

7. Graham D., Brunelle E. J., Johnson VV., Passmore H. Engineering Methods for Linear Time Varying System. Flight Control Laboratory, Wright-Patterson Air Force Base, Ohio, 1963.

8. Sussman R. A Method of Solving Linear Problems by Using the Adjoint System, Internal Techn. Memor. M-2, Electronics Research Laboratory, University of California.

9. Weiss L., Kalman R. E. Contributions to Linear System Theory, Int. J Ens Sci., 1965. 3, pp. 141-171.

10. Silverman L. M. Transformation of Time Variable Systems to Canonical (Phase-Variable) Form, IEEE Trans. Autom. Control, 1966, AC-11. pp. 300-303.

11. Anderson B. D. O., Moore J. B. Structural Stability of Linear Time-Varying Systems. IEEE Trans. Autom. Control, 1968, AC-13, pp. 126-127.

12. Davison E. J. The Stability of an n-th-order Nonlinear Time-Varying Differential Systems, IEEE Trans, on Aut. Control. 1968. AC-13. no 1 99-102.

13. Willems J. C. On the Asymptotic Stability of the Null Solution of Linear Differential Equations with Periodic Coefficients, IEEE Trans. Autom. Control, 1968, AC-13, pp. 65-72.

14. Willems J. C. Some Results on the Lp Stability of Linear Time-Varying Systems, IEEE Trans. Autom. Control. 1969, AC-14, pp. 660-665.

15. Venkatesh Y. V. On the Stability of a Linear Time-Varying System, IEEE Trans. Autom. Control, 1969, AC-14, pp. 426-427.

16. lonescu T. On the Hyperstability of Time-Varying Blicks, IEEE Trans. Autom. Control, 1970, AC-15, pp. 378-379.

17. Lai M. Computational Procedure for Minimum Realizations of Linear Time-Varying Systems, IEEE Trans. Autom. Control, 1971, AC-16, pp. 93-94.

18. Mulholland R. J. The Symmetry and Periodic Solutions of the State Equations, IEEE Trans. Autom. Control, 1971, AC-16, pp. 367-368.

5. ДОСТИЖИМЫЕ СОСТОЯНИЯ, УПРАВЛЯЕМОСТЬ, НАБЛЮДАЕМОСТЬ

В разд. 4.4, ч. V рассмотрены понятие переходной матрицы и методы ее нахождения. Вернемся теперь к понятиям управляемости и наблюдаемости [1 - 15], упомянутым в разд. 2.4. Распространим оба эти понятия на нелинейные системы и, кроме того, проверим приведенные в разд. 2.4, ч. V условия управляемости и наблюдаемости для одно.мерных и многомерных объектов управления, заданных в пространстве состояния. Для этого нам придется предварительно обсудить понятие достижимости,



5.1. ДОСТИЖИМЫЕ СОСТОЯНИЯ

Достижимость означает существование такого управления u(t), которое переводит начальное состояние х(0) в предписанное конечное состояние х(Т). Обозначим через

Ш (О- х(0)) (5.1-1)

траекторию, исходящую из состояния х(0) под действием допустимого управления

u{t)U. (5.1-2)

Говорят, что состояние х(Т) достижимо из начального состояния х(0) для допустимых управлений ii(t), если существует управление Ui(t)e U, такое, что

1(7; u:(7), х(0)) = х(7) (5.1-3)

для некоторого конечного момента времени Г^О.

Пусть R{t, х(0), И) обозначает подмножество евклидова пространства содержащее те состояния х(/), которые достижимы Б промежутке времени t из начального состояния х(0) при заданном ограничении U:

R {t, X (0), U) = [X it): Зщ е U, % (t; щ (t), х (0)) = х [t)]. (5.1-4)

Множество R{t, х(0), U) называется множеством состояний, достижимых в момент времени/, а множество U R{t,x(0),U)

t > to

называется множеством достижимости в широком смысле.

5.2. УПРАВЛЯЕМОСТЬ И НАБЛЮДАЕМОСТЬ

Управляемость означает существование таких управлений, которые переводят систему из любого начального состояния Б состояние покоя х(Т) = 0 за конечное время. Наблюдаемость означает, что с помощью выходной реакции системы (объекта) можно однозначно определить начальное состояние.

Пусть

i(/) = f(x(0, и(/), 0. y(/) = g(x(0, u{t), t)

- уравнения нелинейного объекта, а множество U совпадает с евклидовым пространством, т. е. на управление не наложено никаких ограничений.

Если состояние х(7) = 0 достижимо из начального состояния х(0), то это состояние называется управляемым (в момент времени <р=0). Другими словами, состояние х(0) управляемо в мо-



мент времени =0, если существует кусочно-непрерывное управление Uo, такое, что

%{Т, и (Г), х(0)) = 0

для некоторого конечного момента времени Г^о=0. Если все состояния х(0) управляемы в момент времени о = 0, то гов'орят, что система является управляемой в этот момент времени. Наконец, если все состояния х(о) управляемы в любой момент времени о, то система называется полностью управляемой. Состояние х(/о) Б момент времени называется наблюдаемым, если при заданном управлении и найдется такой момент времени Tto {Т может зависеть-от и), что знание управления u(t), totT и реакции y(t)-=e{x(t), u(t), t), UtT достаточно для однозначного определения х(<о). Если все состояния х(о) наблюдаемы в момент времени о, то го-орят, что система является наблюдаемой в этот момент времени. Наконец, если все состояния х(о) наблюдаемы в любой момент времени о, то система называется полностью наблюдаемой.

5.3. УПРАВЛЯЕМОСТЬ ЛИНЕЙНЫХ СТАЦИОНАРНЫХ СИСТЕМ

Рассмотрим теперь случай стационарной линейной системы (объекта). Предположим, что состояние х(0) управляемо в момент Бремени 0 = 0. Тогда из равенства (3.4-6) и условия x(T) = G вытекает существование момента времени Г^О и такого управления u(t), что

г

-х(0)=-1е-А^Ви(т)й?т. (5.3-1)

о

Можно показать, что стационарная линейная система полностью управляема тогда и только тогда, когда векторы

ц. = к% ( = О, 1, ..., - 1, у = 1, 2,..., г) (5.3-2)

образуют базис в евклидовом пространстве т. е. любой вектор этого пространства может быть представлен линейной комбинацией векторов ifej. Вектор bj является /-м вектором-столбцом матрицы В.

Доказательство проведем для случая действительных собственных значений; случай комплексных собственных значений рассмотрен в работе [12].

Экспоненциальную матрицу в формуле (5.3-1) можно представить бесконечным степенным рядом

(-l)-A--. (5.3-3)



По теореме Кели Гамильтона, каждая квадратная матрица порядка пХп удовлетворяет своему характеристическому уравнению, следовательно, эту экспоненциальную матрицу можно записать в виде матричного полинома степени п- 1

e-=2/-ftWA (5.3-4)

в котором коэффициенты Гй(т) являются функциями Бремени т. Применяя разложения (5.3-3) и (5.3-4), запишем равенство (5.3-1) в следующем виде:

- X (0) = i: J г, (.) Bu (.) dx, (5.3-5)

k=0 0

или

-х(0)= 2 2

г

А*Ь.-. (5.3-6)

j rb{x)Uj(x)dx

Последнее равенство получено при условии, что

uW=i%WV. (5.3-7)

где вектор ij является /-.м единичным вектором евклидова пространства. Из разложения (5.3-6) следует необходимость сформулированного после равенства (5.3-2) условия.

Для доказательства достаточности покажем, что найдется такой момент времени Т, для которого выполняется равенство (5.3-1).

Пусть 70 - произвольный момент времени. Допустим, что существует функция <{х), такая, что

1) <p(ft)(o) = <j,A(7) = 0, й = 0, 1,2,..., п-\, где <рЧ)--я

производная функции {х),

2) <р(т)>0, 0<t<T,

3) матрица

г

Q= \f{x)e-dx (5.3-8)

о

является невырожденной.

Каждый вектор можно представить в виде линейной комбинации векторов следовательно,

~Q-ix(0)=2a .i ., (5.3-9)



где aj,y-действительные числа. Управление и(/) выберем так, что его координаты

%(0= S йуф^Ч^). (5.3-10)

Для такого управления

г п-1 г г Т

J е- Ви (т) d-z = Д Д aj J cp(ft) (т) е-А. (5.3-11)

Таким образом, достаточно показать, пользуясь разложением (5.3-9), что

г

J () е- = QA (5.3-12)

Это можно доказать по индукции, применяя в ходе доказательства правило интегрирования по частям.

Для завершения доказательства остаегся только показать существование функции ф(т), обладающей описанными выше свойствами. Очевидно, что функция

(р (т) = 1:2 т.)2п

(5.3-13)

удовлетворяет требованиям I) и 2). Для доказательства свойства 3) воспользуемся жордановой канонической формой J матрицы А. Известно, что в этом случае найдется такое линейное преобразование L, что L~*AL =J, следовательно,

еА(Г-.) = L- eJ( -)L. (5.3-14)

Так как матрица аг является невырожденной, то достаточно доказать невырожденность матрицы

г

Le-QL-i j () gHT - x) а^с. (5.3-15)

На главной диагонали треугольной матрицы е--) стоят элементы е^~\ где собственные значения (/= 1, 2,..., я) необязательно различны. Таким образом, определитель правой части равенства (5.3-15) равен произведению элементов главной диагонали:

( = 1

(5.3-16)

Так как каждый множитель в произведении (5.3-16) положителен, то матрица в правой части равенства (5.3-15) невырожденна, что и требовалось доказать.

Сформулируем еще несколько теорем.



Множество управляемых состояний линейной стационарной системы совпадает с линейной оболочкой векторов hj. Другими словами, состояние х(0) управляемо тогда и только тогда, когда оно является линейной комбинацией векторов ift,-. Пусть

HIB, АВ, А^В,..., А - В1 (5.3-17)

-гиперматрица порядка пХпт, которую можно также представить в следующем виде:

Н = [ioi,..., io,.; in, Ur -5 in-i,и > Ir-i,rl, (5.3-18)

где векторы ikj определяются выражением (5.3-2).

Система полностью управляема тогда и только тогда, когда ранг гиперматрицы Н равен п, или когда матрица Н содержит п линейно независимых векторов-столбцов.

Если вместо матрицы В в правой части уравнения системы стоит матрица-столбец Ь, т. е. управление (О является скалярной функцией времени, то необходимое и достаточное условие полной управляемости объекта состоит в невырожденности матрицы

Но=[Ь. АЬ,..., А -1Ь] (5.3-19)

порядка ПХП.

Допустим, что А - диагональная матрица, все диагональные элементы которой различны. В этом случае для управляемости системы надо потребовать, чтобы матрица В не содержала нулевых строк.

5.4. НАБЛЮДАЕМОСТЬ ЛИНЕЙНЫХ СТАЦИОНАРНЫХ СИСТЕМ

Линейная стационарная система наблюдаема (полностью наблюдаема) тогда и только тогда, когда она наблюдаема в момент времени о = 0. Для доказательства рассмотрим выражение

т

у (/) = Cet

х(0) + j e-*Bu(t)rfx

+ Du(0. (5.4-1)

Если состояние х(0) наблюдаемо в момент времени to -О, то достаточно знать выходную реализацию у (t) на некотором промежутке времени Г(0</<Г), чтобы однозначно определить х(0). Запищем выражение (5.4-1) в виде равенства

г

У it) = Ул (О + С J е'С - ) Bu (т) dx + Du it). (5.4-2)

Если начальное значение х(0) однозначно определяется реализацией у it), 0<t<T, то очевидно, что знание выходной реализации у(/) при заданном управлении и(/), 0</<Г,



1 ... 34 35 36 37 38 39 40 ... 42

© 2000-2024. Поддержка сайта: +7 495 7950139 добавочный 133270.
Заимствование текстов разрешено при условии цитирования.