Дипломная работа: Метод анализа главных компонентов регрессионной модели измерений средствами нейронных сетей

В уравнении (1.15) можно легко узнать задачу определения собственных значений (eigenvalue: problem) из области линейной алгебры. Эта задача имеет нетривиальные решения (т.е. q≠ 0) только для некоторых значений l, которые называются собственными значениями (eigenvalue) матрицы корреляции R. При этом соответствующие векторы q называют собственными векторами (eigenvector). Матрица корреляции характеризуется действительными, неотрицательными собственными значениями. Соответствующие собственные векторы являются единичными (если все собственные значения различны). Обозначим собственные значения матрицы R размерности т х т как l1, l2,,.., lm, а соответствующие им собственные векторы -q1, q2,...,qmсоответственно. Тогда можно записать следующее:

(1.16)

Пусть соответствующие собственные значения упорядочены следующим образом:

, (1.17)

При этом l1 будет равно lmax. Пусть из соответствующих собственных векторов построена следующая матрица размерности т х т:

(1.18)


Тогда систему т уравнений (1.16) можно объединить в одно матричное уравнение:

(1.19)

где А — диагональная матрица, состоящая из собственных значений матрицы R:

(1.20)

Матрица Q является ортогональной (унитарной) в том смысле, что векторы-столбцы (т.е. собственные векторы матрицы R) удовлетворяют условию ортогональности:

(1.21)

Выражение (1.21) предполагает, что собственные значения различны. Эквивалентно, можно записать:

из чего можно заключить, что обращение матрицы Q эквивалентно ее транспонированию:

(1.22)

Это значит, что выражение (8.17) можно переписать в форме, называемой ортогональным преобразованием подобия (orthogonalsimilaritytransformation):

(1.23)

или в расширенной форме:

(1.24)

Ортогональное преобразование подобия (1.23) трансформирует матрицу корреляции R в диагональную матрицу, состоящую из собственных значений. Сама матрица корреляции может быть выражена в терминах своих собственных векторов и собственных значений следующим образом:

(1.25)

Это выражение называют спектральной теоремой (spectraltheorem). Произведение векторов имеет ранг 1 для всех i.

Уравнения (1.23) и (1.25) являются двумя эквивалентными представлениями разложения по собственным векторам (eigencomposition) матрицы корреляции R.

Анал

К-во Просмотров: 279
Бесплатно скачать Дипломная работа: Метод анализа главных компонентов регрессионной модели измерений средствами нейронных сетей