Diagonalization#
У диагональной матрицы \(\boldsymbol \Lambda = \mathrm{diag}\{\lambda_1, \ldots, \lambda_n\}\) всё просто с собственными числами и векторами. На главной диагонали у неё стоят собственные значения, а собственные векторы — это векторы из стандартного базиса в \(\mathbb R^n\):
Если матрица \(\boldsymbol A \in\mathbb R^{n\times n}\) подобна диагональной, то она называется диагонализируемой. Диагонализация матрицы эквивалентна наличию базиса из собственных векторов.
In other words, \(\boldsymbol A\) is diagonalizable if there exist an invertible matrix \(M\) and a diagonal matrix \(\boldsymbol \Lambda\) such that \(\boldsymbol M^{-1}\boldsymbol {AM} = \boldsymbol \Lambda\).
Теорема. Если у матрицы \(\boldsymbol A \in \mathbb R^{n\times n}\) есть \(n\) линейно независимых собственных векторов \(\boldsymbol x_1, \ldots, \boldsymbol x_n\), то матрица \(\boldsymbol X = [\boldsymbol x_1 \ldots \boldsymbol x_n]\) диагонализирует матрицу \(\boldsymbol A\):
Proof
Требуется проверить равенство \(\boldsymbol{AX} = \boldsymbol {X\Lambda}\). Имеем
С другой стороны,
Итак, \(\boldsymbol{AX} = \boldsymbol{X\Lambda}\), или \(\boldsymbol X^{-1} \boldsymbol A \boldsymbol X = \boldsymbol\Lambda\). Иногда также полезно представление \(\boldsymbol A = \boldsymbol X \boldsymbol\Lambda \boldsymbol X^{-1}\).
Матрица \(\boldsymbol A\) имеет простой спектр, если
т.е. \(\mu_{\boldsymbol A}(\lambda) = 1\) для всех \(\lambda \in \mathrm{spec}(\boldsymbol A)\).
Диагонализируемость матрицы с простым спектром вытекает из следующего утверждения.
Лемма. Пусть \(\lambda_1, \ldots, \lambda_m\) — различные собственные значения матрицы \(\boldsymbol A \in \mathbb R^{n\times n}\), и \(\boldsymbol A\boldsymbol x_k = \lambda_k\boldsymbol x_k\), \(k=1,\ldots, m\). Тогда собственные векторы \(\boldsymbol x_1, \ldots,\boldsymbol x_m\) линейно независимы.
Proof
Рассуждение проведём индукцией по \(m\). При \(m=1\) утверждение, очевидно, верно. Пусть теперь \(m>1\) и
Умножим это равенство на матирцу \(\boldsymbol A\) слева:
Вычтем отсюда равенство (58), умноженное на \(\lambda_m\):
По предположению индукции векторы \(\boldsymbol x_1, \ldots,\boldsymbol x_{m-1}\) линейно независимы, поэтому все коэффициенты линейной комбинации из последнего равенства равны нулю:
Все собственные значения различны, значит, \(c_k = 0\) при \(k=1, \ldots, m-1\). Но тогда (58) превращается в \(c_m\boldsymbol x_m = \boldsymbol 0\), откуда \(c_m = 0\). Итак, все коэффициенты линейной комбинации (58) обнулились, поэтому система собственных векторов \(\boldsymbol x_1, \ldots,\boldsymbol x_m\) линейно независима.
Применяя лемму к матрице \(\boldsymbol A \in \mathbb R^{n\times n}\) с простым спектром, заключаем, что у неё есть \(n\) линейно независимых собственных векторов \(\boldsymbol x_1, \ldots,\boldsymbol x_n\), которые и образуют собственный базис. Следовательно, матрица \(\boldsymbol A\) диагонализируема.
Ну а что насчёт диагонализируемости, если спектр не простой? Бывает по-разному. Например, у единичной матрицы спектр отнюдь не простой (все \(\lambda = 1\)), однако, она уже диагональна. А вот у матрицы
есть одно собственное значение \(\lambda = 1\) кратности \(2\), но у него можно найти только один линейно независимый собственный вектор \((1, 0)\). Собственного базиса не построишь, матрица не диагонализируема.
Criterion of diagonalizability#
В общем случае собственный базис и диагонализируемость матрицы \(\boldsymbol A \in \mathbb R^{n\times n}\) могут отсутствовать по двум причинам:
не хватает собственных значений:
\[ \sum \limits_{ \lambda \in \mathrm{spec}(\boldsymbol A)}\mu_{\boldsymbol A}(\lambda) < n; \]не хватает собственных векторов:
\[ \gamma_{\boldsymbol A}(\lambda) < \mu_{\boldsymbol A}(\lambda) \text{ для некоторого }\lambda \in \mathrm{spec}(\boldsymbol A). \]
Если же у матрицы нет проблем 1 и 2, то она диагонализируема.
Теорема. Матрица \(\boldsymbol A \in \mathbb R^{n\times n}\) диагонализируема, если
и \(\gamma_{\boldsymbol A}(\lambda) = \mu_{\boldsymbol A}(\lambda)\) для всех \(\lambda \in \mathrm{spec}(\boldsymbol A)\).
Proof
Пусть \(\lambda_1, \ldots, \lambda_m\) — все различные собственные значения матрицы \(\boldsymbol A\), имеющие кратности
Обозначим \(V^\lambda = N(\boldsymbol A - \lambda \mathcal I)\), тогда \(\dim V^{\lambda_i} = k_i\). В силу вышеприведённой леммы любой набор собственных векторов, отвечающих различным собственным значениям, линейно независим. Следовательно,
и поэтому сумма подпространств \(V^{\lambda_i}\) прямая,
а поскольку \(\dim V = \sum\limits_{i=1}^m k_i = n\), то \(V = \mathbb R^n\). Выбирая базис в каждом пространстве \(V^{\lambda_i}\), получаем, что объединение этих базиов даёт базис всего пространства \(\mathbb R^n\). Таким образом, это и есть искомый собственный базис матрицы \(\boldsymbol A\), гарантирующий её диагонализируемость.
Обратное утверждение тоже верно, поэтому данная теорема представляет собой критерий диагонализируемости матрицы.
Spectral theorem#
Если матрица симметричная, то все проблемы с комплексными собственными значениями улетучиваются.
Теорема. Если \(\boldsymbol A^\mathsf{T} = \boldsymbol A\) и \(\lambda\in\mathrm{spec}(\boldsymbol A)\), то \(\lambda \in \mathbb R\).
Proof
Если \(\boldsymbol{Ax} = \lambda \boldsymbol x\), то
Транспонируя левую часть, получаем
Транспонирование не меняет значения скаляра, поэтому правые части обеих равнеств одинаковы. Поскольку
получается, что \(\lambda = \overline \lambda\).
Итак, всякая симметричная матрица имеет \(n\) действительных собственных значений (с учётом кратности). Этим замечательные свойства собственных чисел и векторов таких матриц не исчерпываются. Оказывается, что любые два собственных вектора симметричной матрицы, отвечающие разным собственным значениям, ортогональны.
Теорема. Если \(\boldsymbol A^\mathsf{T} = \boldsymbol A\), \(\boldsymbol {Ax} = \lambda \boldsymbol x\), \(\boldsymbol {Ay} = \mu \boldsymbol y\), \(\lambda \ne \mu\), то \(\boldsymbol x^\mathsf{T}\boldsymbol y = 0\).
Proof
Имеем
Поскольку \(\lambda \ne \mu\), отсюда следует, что \(\boldsymbol x^\mathsf{T} \boldsymbol y = 0\), т.е. собственные векторы ортогональны.
Как мы помним, матрица с простым спектром всегда может быть диагонализирована. Из предыдущей теоремы следует, что если матрица вдобавок ещё и симметрична, то у неё существует ортнонормированный собственный базис.
Theorem (Spectral theorem)
Если симметричная матрица \(\boldsymbol A\) имеет простой спектр
то существует такая ортогональная матрица \(\boldsymbol Q\), что
Можно показать, что спектральная теорема справедлива для любой симметричной матрицы, а не только для матриц с простым спектром.
Exercises#
Let \(\boldsymbol A\) be a diagonalizable matrix. Show that \(\lim\limits_{k\to\infty} \boldsymbol A^k = \boldsymbol 0\) iff \(\vert \lambda \vert < 1\) for all \(\lambda \in \mathrm{spec}(\boldsymbol A)\).
Show that any symmetric matrix \(\boldsymbol A\) with eigenvalues \(\lambda_1, \ldots, \lambda_n\) can be written as
\[ \boldsymbol A = \sum\limits_{i=1}^n \lambda_i \boldsymbol x_i\boldsymbol x_i^\mathsf{T},\quad \boldsymbol x_i^\mathsf{T}\boldsymbol x_j = \delta_{ij}. \]Let \(\boldsymbol A\) be a symmetric matrix, \( \mathrm{spec}(\boldsymbol A) = \{\lambda_1, \ldots, \lambda_n\}\). Prove that \(\mathrm{tr}(\boldsymbol A^\mathsf{T} \boldsymbol A) = \sum\limits_{i=1}^n \lambda_i^2\).