\[\newcommand{\N}{\mathbb N} \newcommand{\Z}{\mathbb Z} \newcommand{\Q}{\mathbb Q} \newcommand{\R}{\mathbb R} \newcommand{\C}{\mathbb C} \newcommand{\ba}{\mathbf{a}} \newcommand{\bb}{\mathbf{b}} \newcommand{\bc}{\mathbf{c}} \newcommand{\bd}{\mathbf{d}} \newcommand{\be}{\mathbf{e}} \newcommand{\bff}{\mathbf{f}} \newcommand{\bh}{\mathbf{h}} \newcommand{\bi}{\mathbf{i}} \newcommand{\bj}{\mathbf{j}} \newcommand{\bk}{\mathbf{k}} \newcommand{\bN}{\mathbf{N}} \newcommand{\bn}{\mathbf{n}} \newcommand{\bo}{\mathbf{0}} \newcommand{\bp}{\mathbf{p}} \newcommand{\bq}{\mathbf{q}} \newcommand{\br}{\mathbf{r}} \newcommand{\bs}{\mathbf{s}} \newcommand{\bT}{\mathbf{T}} \newcommand{\bu}{\mathbf{u}} \newcommand{\bv}{\mathbf{v}} \newcommand{\bw}{\mathbf{w}} \newcommand{\bx}{\mathbf{x}} \newcommand{\by}{\mathbf{y}} \newcommand{\bz}{\mathbf{z}} \newcommand{\bzero}{\mathbf{0}} \newcommand{\nv}{\mathbf{0}} \newcommand{\cA}{\mathcal{A}} \newcommand{\cB}{\mathcal{B}} \newcommand{\cC}{\mathcal{C}} \newcommand{\cD}{\mathcal{D}} \newcommand{\cE}{\mathcal{E}} \newcommand{\cF}{\mathcal{F}} \newcommand{\cG}{\mathcal{G}} \newcommand{\cH}{\mathcal{H}} \newcommand{\cI}{\mathcal{I}} \newcommand{\cJ}{\mathcal{J}} \newcommand{\cK}{\mathcal{K}} \newcommand{\cL}{\mathcal{L}} \newcommand{\cM}{\mathcal{M}} \newcommand{\cN}{\mathcal{N}} \newcommand{\cO}{\mathcal{O}} \newcommand{\cP}{\mathcal{P}} \newcommand{\cQ}{\mathcal{Q}} \newcommand{\cR}{\mathcal{R}} \newcommand{\cS}{\mathcal{S}} \newcommand{\cT}{\mathcal{T}} \newcommand{\cU}{\mathcal{U}} \newcommand{\cV}{\mathcal{V}} \newcommand{\cW}{\mathcal{W}} \newcommand{\cX}{\mathcal{X}} \newcommand{\cY}{\mathcal{Y}} \newcommand{\cZ}{\mathcal{Z}} \newcommand{\rA}{\mathrm{A}} \newcommand{\rB}{\mathrm{B}} \newcommand{\rC}{\mathrm{C}} \newcommand{\rD}{\mathrm{D}} \newcommand{\rE}{\mathrm{E}} \newcommand{\rF}{\mathrm{F}} \newcommand{\rG}{\mathrm{G}} \newcommand{\rH}{\mathrm{H}} \newcommand{\rI}{\mathrm{I}} \newcommand{\rJ}{\mathrm{J}} \newcommand{\rK}{\mathrm{K}} \newcommand{\rL}{\mathrm{L}} \newcommand{\rM}{\mathrm{M}} \newcommand{\rN}{\mathrm{N}} \newcommand{\rO}{\mathrm{O}} \newcommand{\rP}{\mathrm{P}} \newcommand{\rQ}{\mathrm{Q}} \newcommand{\rR}{\mathrm{R}} \newcommand{\rS}{\mathrm{S}} \newcommand{\rT}{\mathrm{T}} \newcommand{\rU}{\mathrm{U}} \newcommand{\rV}{\mathrm{V}} \newcommand{\rW}{\mathrm{W}} \newcommand{\rX}{\mathrm{X}} \newcommand{\rY}{\mathrm{Y}} \newcommand{\rZ}{\mathrm{Z}} \newcommand{\pv}{\overline} \newcommand{\iu}{\mathrm{i}} \newcommand{\ju}{\mathrm{j}} \newcommand{\im}{\mathrm{i}} \newcommand{\e}{\mathrm{e}} \newcommand{\real}{\operatorname{Re}} \newcommand{\imag}{\operatorname{Im}} \newcommand{\Arg}{\operatorname{Arg}} \newcommand{\Ln}{\operatorname{Ln}} \DeclareMathOperator*{\res}{res} \newcommand{\re}{\operatorname{Re}} \newcommand{\im}{\operatorname{Im}} \newcommand{\arsinh}{\operatorname{ar\,sinh}} \newcommand{\arcosh}{\operatorname{ar\,cosh}} \newcommand{\artanh}{\operatorname{ar\,tanh}} \newcommand{\sgn}{\operatorname{sgn}} \newcommand{\diag}{\operatorname{diag}} \newcommand{\proj}{\operatorname{proj}} \newcommand{\rref}{\operatorname{rref}} \newcommand{\rank}{\operatorname{rank}} \newcommand{\Span}{\operatorname{span}} \newcommand{\vir}{\operatorname{span}} \renewcommand{\dim}{\operatorname{dim}} \newcommand{\alg}{\operatorname{alg}} \newcommand{\geom}{\operatorname{geom}} \newcommand{\id}{\operatorname{id}} \newcommand{\norm}[1]{\lVert #1 \rVert} \newcommand{\tp}[1]{#1^{\top}} \renewcommand{\d}{\mathrm{d}} \newcommand{\sij}[2]{\bigg/_{\mspace{-15mu}#1}^{\,#2}} \newcommand{\abs}[1]{\lvert#1\rvert} \newcommand{\pysty}[1]{\left[\begin{array}{@{}r@{}}#1\end{array}\right]} \newcommand{\piste}{\cdot} \newcommand{\qedhere}{} \newcommand{\taumatrix}[1]{\left[\!\!#1\!\!\right]} \newenvironment{augmatrix}[1]{\left[\begin{array}{#1}}{\end{array}\right]} \newenvironment{vaugmatrix}[1]{\left|\begin{array}{#1}}{\end{array}\right|} \newcommand{\trans}{\mathrm{T}} \newcommand{\EUR}{\text{\unicode{0x20AC}}} \newcommand{\SI}[3][]{#2\,\mathrm{#3}} \newcommand{\si}[2][]{\mathrm{#2}} \newcommand{\num}[2][]{#2} \newcommand{\ang}[2][]{#2^{\circ}} \newcommand{\meter}{m} \newcommand{\metre}{\meter} \newcommand{\kilo}{k} \newcommand{\kilogram}{kg} \newcommand{\gram}{g} \newcommand{\squared}{^2} \newcommand{\cubed}{^3} \newcommand{\minute}{min} \newcommand{\hour}{h} \newcommand{\second}{s} \newcommand{\degreeCelsius}{^{\circ}C} \newcommand{\per}{/} \newcommand{\centi}{c} \newcommand{\milli}{m} \newcommand{\deci}{d} \newcommand{\percent}{\%} \newcommand{\Var}{\operatorname{Var}} \newcommand{\Cov}{\operatorname{Cov}} \newcommand{\Corr}{\operatorname{Corr}} \newcommand{\Tasd}{\operatorname{Tasd}} \newcommand{\Ber}{\operatorname{Ber}} \newcommand{\Bin}{\operatorname{Bin}} \newcommand{\Geom}{\operatorname{Geom}} \newcommand{\Poi}{\operatorname{Poi}} \newcommand{\Hyperg}{\operatorname{Hyperg}} \newcommand{\Tas}{\operatorname{Tas}} \newcommand{\Exp}{\operatorname{Exp}} \newcommand{\tdist}{\operatorname{t}} \newcommand{\rd}{\mathrm{d}}\]

Diagonalisointi

Lävistäjämatriisit eli diagonaalimatriisit ovat hyvin yksinkertaisia matriiseja. Niitä on helppo kertoa keskenään, niiden determinantti on lävistäjäalkioiden tulo ja niiden ominaisarvot näkyvät suoraan matriisissa. Tässä osiossa tutustutaan menetelmään, jonka avulla tietynlaiset neliömatriisit saadaan muutettua lävistäjämatriiseksi. Näin saadulla lävistäjämatriisilla on samat ominaisarvot kuin alkuperäisillä matriiseilla ja paljon muitakin yhteisiä ominaisuuksia aluperäisen matriisin kanssa. Matriiseja, joilla tämä menetelmä toimii, kutsutaan diagonalisoituviksi ja menetelmää diagonalisoinniksi. Diagonalisoinnin avulla saadaan siis muutettua matriisi yksinkertaisempaan ja helpommin käsiteltävään muotoon.

Määritelmä 6.6.1

Neliömatriisi \(A\in\R^{n\times n}\) on diagonalisoituva, jos on olemassa kääntyvä matriisi \(P\in\R^{n\times n}\) ja lävistäjämatriisi \(D\in\R^{n\times n}\), joille pätee

\[P^{-1}AP=D.\]

Esimerkki 6.6.2

Esimerkin 6.4.4 matriisi

\[\begin{split}A=\begin{augmatrix}{cc} 3 & 1 \\ 1 & 3 \end{augmatrix}\end{split}\]

on diagonalisoituva. Valitsemalla

\[\begin{split}P=\begin{augmatrix}{rr} 1 & 1 \\ 1 & -1 \end{augmatrix}\end{split}\]

ja etsimällä esimerkiksi lauseen 4.6.6 avulla sen käänteismatriisi

\[\begin{split}P^{-1}=\frac{1}{2} \begin{augmatrix}{rr} 1 & 1 \\ 1 & -1 \end{augmatrix}\end{split}\]

saadaan

\[ \begin{align}\begin{aligned}\begin{split}P^{-1}AP = \frac{1}{2} \begin{augmatrix}{rr} 1 & 1 \\ 1 & -1 \end{augmatrix} \begin{augmatrix}{cc} 3 & 1 \\ 1 & 3 \end{augmatrix} \begin{augmatrix}{rr} 1 & 1 \\ 1 & -1 \end{augmatrix} =\frac{1}{2} \begin{augmatrix}{rr} 4 & 4 \\ 2 & -2 \end{augmatrix} \begin{augmatrix}{rr} 1 & 1 \\ 1 & -1 \end{augmatrix}\end{split}\\\begin{split}=\frac{1}{2} \begin{augmatrix}{cc} 8 & 0 \\ 0 & 4 \end{augmatrix} =\begin{augmatrix}{cc} 4 & 0 \\ 0 & 2 \end{augmatrix}.\end{split}\end{aligned}\end{align} \]

Näin siis matriisi

\[\begin{split}A=\begin{augmatrix}{cc} 3 & 1 \\ 1 & 3 \end{augmatrix}\end{split}\]

diagonalisoitiin lävistäjämatriisiksi

\[\begin{split}D=\begin{augmatrix}{cc} 4 & 0 \\ 0 & 2 \end{augmatrix}.\end{split}\]

Esimerkissä 6.6.2 matriisi \(P\) vain tupsahti jostakin. Vertaamalla esimerkkiin 6.4.4 huomataan kuitenkin, että matriisin \(D\) lävistäjäalkiot ovat matriisin \(A\) ominaisarvot, ja matriisin \(P\) sarakkeet ovat jotkin niitä vastaavat ominaisvektorit. Seuraava lause osoittaa, että näin on aina, jos matriisi on diagonalisoituva.

Lause 6.6.3

Neliömatriisi \(A\in\R^{n\times n}\) on diagonalisoituva, jos ja vain jos sillä on \(n\) lineaarisesti riippumatonta ominaisvektoria. Tällöin

\[\begin{split}P^{-1}AP= \begin{augmatrix}{cccc} \lambda_1 & 0 & \cdots & 0 \\ 0 & \lambda_2 & & 0 \\ \vdots & & \ddots & \vdots \\ 0 & \cdots & 0 & \lambda_n \end{augmatrix},\end{split}\]

missä matriisin \(P\in\R^{n\times n}\) sarakkeet ovat matriisin \(A\) lineaarisesti riippumattomia ominaisvektoreita ja \(\lambda_1,\dots\lambda_n\) ovat niitä vastaavat ominaisarvot samassa järjestyksessä.

Piilota/näytä todistus

\(\Rightarrow\)”: Oletetaan, että \(P^{-1}AP=D\), missä \(P \in \R^{n\times n}\) on jokin kääntyvä matriisi ja \(D \in \R^{n\times n}\) lävistäjämatriisi. Nyt \(AP=PD\). Olkoot matriisin \(P\) sarakkeet \(\bp_1, \dots, \bp_n\) ja matriisin \(D\) lävistäjäalkiot \(\lambda_1, \dots, \lambda_n\). Nyt siis

\[\begin{split}P = \begin{augmatrix}{ccc} \bp_1 & \cdots & \bp_n \end{augmatrix} \qquad \text{ja} \qquad D = \begin{augmatrix}{ccccc} \lambda_{1}&0&\cdots&0&0 \\ 0&\lambda_{2}&\cdots&0&0 \\ \vdots&\vdots&\ddots&\vdots&\vdots \\ 0&0&\cdots&\lambda_{n-1}&0 \\ 0&0&\cdots&0&\lambda_n \end{augmatrix}.\end{split}\]

Matriisituloa laskettaessa tulon \(AP\) jokainen sarake saadaan kertomalla matriisilla \(A\) vastaava sarake matriisista \(P\):

\[AP=A \begin{augmatrix}{ccc} \bp_1 & \cdots & \bp_n \end{augmatrix} = \begin{augmatrix}{ccc} A\bp_1 & \cdots & A\bp_n \end{augmatrix}.\]

Toisaalta lävistäjämatriisia \(D\) kerrottaessa tullaan kertoneeksi matriisin \(P\) jokainen sarake vastaavalla lävistäjäalkiolla:

\[PD=\begin{augmatrix}{ccc} \lambda_1\bp_1 & \cdots & \lambda_n\bp_n \end{augmatrix}.\]

Koska \(AP=PD\), nähdään nyt, että \(A\bp_i=\lambda_i\bp_i\) kaikilla \(i \in \{1, \dots, n\}\). Siis jokainen \(\lambda_i\) on ominaisarvo ja \(\bp_i\) sitä vastaava ominaisvektori.

On vielä osoitettava, että ominaisvektorit \(\bp_1, \ldots, \bp_n\) ovat lineaarisesti riippumattomia. Koska \(P\) on kääntyvä, yhtälöllä \(P\bx=\nv\) on lauseen 4.11.1 mukaan täsmälleen yksi ratkaisu \(\bx=\nv\). Yhtälö \(P\bx=\nv\) voidaan kirjoittaa myös muotoon

\[x_1\bp_1 + x_2\bp_2 +\dots + x_n\bp_n = \nv.\]

Tämän yhtälön ainoa ratkaisu on siis \(x_1 = 0, \dots, x_n = 0\). Näin ollen matriisin \(A\) ominaisvektorit \(\bp_1, \dots, \bp_n\) ovat lineaarisesti riippumattomia.

\(\Leftarrow\)”: Oletetaan, että \(\bp_1, \dots, \bp_n\) ovat jotkin matriisin \(A\) lineaarisesti riippumattomat ominaisvektorit. Olkoot niitä vastaavat ominaisarvot \(\lambda_1, \dots, \lambda_n\). Nyt \(A\bp_i=\lambda_i\bp_i\) kaikilla \(i \in \{1, \dots, n\}\). Olkoon \(P\) matriisi, jonka sarakkeet ovat ominaisvektorit: \(P=[\bp_1 \cdots \bp_n]\). Olkoon \(D\) puolestaan lävistäjämatriisi, jonka lävistäjäalkiot ovat \(\lambda_1, \dots, \lambda_n\). Tällöin nähdään samaan tapaan kuin edellä, että \(AP=PD\).

Koska matriisin \(P\) sarakkeet ovat lineaarisesti riippumattomat, on yhtälöllä \(P\bx=\nv\) täsmälleen yksi ratkaisu \(\bx=\nv\). (Tämä nähdään samalla tavalla kuin todistuksen ensimmäisessä osassa.) Lauseen 4.12.6 nojalla matriisi \(P\) on nyt kääntyvä. Yhtälö \(AP = PD\) saadaan siis muotoon

\[P^{-1}AP = D.\qedhere\]

Olkoon \(\lambda\) matriisin \(A\) ominaisarvo. Ominaisarvon \(\lambda\) algebralliseksi kertaluvuksi \(\alg(\lambda)\) kutsutaan sen kertalukua karakteristisen polynomin juurena. Ominaisarvon \(\lambda\) geometriseksi kertaluvuksi \(\geom(\lambda)\) kutsutaan sitä vastaavan ominaisavaruuden \(E_{\lambda}\) dimensiota. Toisin sanoen \(\geom(\lambda) = \dim(E_{\lambda})\). Nyt edellinen lause voidaan esittää kertalukujen avulla: matriisi on diagonalisoituva, jos sen jokaisen ominaisarvon algebrallinen ja geometrinen kertaluku ovat samat.

Esimerkki 6.6.4

Tutkitaan, onko esimerkin 6.5.2 matriisi

\[\begin{split}A=\begin{augmatrix}{cc} 1 & 2 \\ 3 & 2 \end{augmatrix}\end{split}\]

diagonalisoituva. Esimerkissä 6.5.2 todettiin, että matriisin ominaisarvot ovat \(4\) ja \(-1\). Eräät näitä ominaisarvoja vastaavat ominaisvektorit ovat \((2,3)\) ja \((-1,1)\). Nämä ominaisvektorit ovat lineaarisesti riippumattomat, joten lauseen 6.6.3 perusteella \(A\) on diagonalisoituva. Muodostetaan ominaisvektoreista matriisi

\[\begin{split}P=\begin{augmatrix}{rr} 2 & -1 \\ 3 & 1 \end{augmatrix}\end{split}\]

ja ominaisarvoista matriisi

\[\begin{split}D=\begin{augmatrix}{rr} 4 & 0 \\ 0 & -1 \end{augmatrix}\end{split}\]

Nyt lauseen 6.6.3 nojalla pätee \(P^{-1}AP=D\). Tämän voi vielä tarkistaa laskemalla.

Tutkitaan vielä toisellakin tavalla, onko matriisi \(A\) diagonalisoituva. Esimerkin 6.5.2 perusteella matriisin \(A\) ominaisarvot ovat \(4\) ja \(-1\). Ominaisarvo \(4\) on karakteristisen polynomin yksinkertainen juuri, joten sen algebrallinen kertaluku on yksi. Toisaalta ominaisarvoa \(4\) vastaa yksiulotteinen ominaisavaruus, joten sen geometrinen kertaluku on yksi. Siten ominaisarvon \(4\) algebralliset ja geometriset kertaluvut ovat samat. Samalla tavalla voidaan perustella, että ominaisarvon \(-1\) algebralliset ja geometriset kertaluvut ovat molemmat yksi. Siten ominaisarvon \(-1\) algebrallinen ja geometrinen kertaluku on sama. Koska jokaisella ominaisarvolla geometrinen ja algebrallinen kertaluku on sama, on matriisi \(A\) diagonalisoituva.

Esimerkki 6.6.5

Diagonalisoidaan matriisi

\[\begin{split}B=\begin{augmatrix}{cc} 2&1\\ 0&2 \end{augmatrix},\end{split}\]

jos mahdollista. Selvitetään aluksi matriisin ominaisarvot. Koska matriisi \(A\) on kolmiomatriisi, sen ominaisarvot ovat sen lävistäjän alkiot. Näin matriisin \(A\) ainoa ominaisarvo on \(2\). Ominaisarvoa vastaavat ominaisvektorit saadaan yhtälöstä \(B\bx=2\bx\). Kun yhtälö ratkaistaan, nähdään sen ratkaisujen olevan muotoa \(\bx=(t,0)\), missä \(t \in \R \setminus \{0\}\). Matriisilla \(B\) ei siis ole kahta lineaarisesti riippumatonta ominaisvektoria, joten \(B\) ei ole diagonalisoituva.

Tutkitaan vielä toisellakin tavalla, onko matriisi \(B\) diagonalisoituva. Voidaan laskea, että matriisin \(B\) karakteristinen polynomi on \((\lambda-2)^2\). Tämän polynomin ainoa juuri on \(\lambda=2\) ja se on kaksinkertainen juuri. Siten ainoa ominaisarvo on \(2\) ja sen algebrallinen kertaluku on kaksi. Ominaisarvoa 2 vastaava ominaisavaruus on

\[\{(t,0) \mid t \in \R\}=\vir\{(1,0)\}.\]

Tämän avaruuden dimensio on yksi, joten ominaisarvon 2 geometrinen kertaluku on yksi. Koska algebrallinen ja geometrinen kertaluku eivät ole samat, ei matriisi ole diagonalisoituva.

Oletetaan, että \(A \in \R^{n \times n}\) ja \(B \in \R^{n \times n}\). Jos löytyy kääntyvä matriisi \(P\), jolle pätee \(P^{-1}AP=B\), sanotaan, että \(A\) ja \(B\) ovat similaarisia. Diagonalisoituva matriisi \(A\) on siis similaarinen diagonaalimatriisin \(D\) kanssa. Similaarisilla matriiseilla on paljon yhteisiä omainaisuuksia. Voidaan osoittaa, että niillä on esimerkiksi samat ominaisarvot, sama determinantti ja sama aste.

Diagonalisoituva matriisi voidaan hajottaa tuloksi matriiseista, jotka koostuvat ominaisvektoreista ja ominaisarvoista. Jos nimittäin diagonalisoituvalle matriisille \(A\) pätee \(P^{-1}AP = D\), voidaan yhtälöä kertoa vasemmalta matriisilla \(P\) ja oikealta matriisilla \(P^{-1}\). Näin saadaan \(A = PDP^{-1}\). Tuloa kutsutaan matriisin \(A\) ominaisarvohajotelmaksi. Ominaisarvohajotelmaa hyödynnetään seuraavassa esimerkissä, jossa esitellään eräs diagonalisoinnin sovellus.

Esimerkki 6.6.6 (Diagonalisoituvan matriisin potenssit)

Lasketaan esimerkissä 6.6.2 esiintyneen matriisin

\[\begin{split}A=\begin{augmatrix}{cc} 3 & 1 \\ 1 & 3 \end{augmatrix}\end{split}\]

seitsemäs potenssi. Suora matriisikertolasku olisi työläs suorittaa, mutta koska matriisi \(A\) on diagonalisoituva, voidaan käyttää hyväksi sen ominaisarvoja. Tällöin laskut ovat helpompia.

Esimerkissä 6.6.2 todettiin, että \(P^{-1}AP = D\), missä

\[\begin{split}P=\begin{augmatrix}{rr} 1 & 1 \\ 1 & -1 \end{augmatrix} \quad \text{ja} \quad D=\begin{augmatrix}{rr} 4 & 0 \\ 0 & 2 \end{augmatrix}.\end{split}\]

Jos kerrotaan yhtälöä \(P^{-1}AP = D\) vasemmalta matriisilla \(P\) ja oikealta matriisilla \(P^{-1}\), saadaan \(A = PDP^{-1}\). Nyt voidaan laskea

\[\begin{split}\begin{aligned} A^7 &= (PDP^{-1})^7 \\[2mm] &= \underbrace{(PDP^{-1})(PDP^{-1})\dots (PDP^{-1})(PDP^{-1})}_{7 \text{ kpl}} \\ &= PD(P^{-1}P)D\dots (P^{-1}P)DP^{-1} \\ &= P\underbrace{D\dots D}_{7 \text{ kpl}}P^{-1} \\ &= PD^7P^{-1}. \end{aligned}\end{split}\]

Matriisin \(A\) potenssin määritäminen on siis muuttunut matriisin \(D\) potenssin määrittämiseksi. Se osoittautuu helposksi. Huomataan nimittäin, että

\[\begin{split}D^7= \begin{augmatrix}{cc} 4^7 & 0 \\ 0 & 2^7 \end{augmatrix} = \begin{augmatrix}{cc} 16384 & 0 \\ 0 & 128 \end{augmatrix}.\end{split}\]

Lävistäjämatriisin potenssi saadaan itse asiassa aina selville laskemalla pelkät lävistäjäalkioiden potenssit.

Nyt

\[\begin{split}\begin{aligned} A^7 &= (PDP^{-1})^7=PD^7 P^{-1} =\begin{augmatrix}{rr} 1 & 1 \\ 1 & -1 \end{augmatrix} \begin{augmatrix}{cc} 16384 & 0 \\ 0 & 128 \end{augmatrix} \left(\frac{1}{2}\begin{augmatrix}{rr} 1 & 1 \\ 1 & -1 \end{augmatrix}\right) \\[1mm] & =\frac{1}{2}\begin{augmatrix}{rr} 16384 & 128 \\ 16384 & -128 \end{augmatrix} \begin{augmatrix}{rr} 1 & 1 \\ 1 & -1 \end{augmatrix} =\frac{1}{2}\begin{augmatrix}{cc} 16512 & 16256 \\ 16256 & 16512 \end{augmatrix} =\begin{augmatrix}{cc} 8256 & 8128 \\ 8128 & 8256 \end{augmatrix}. \end{aligned}\end{split}\]

Matriisipotenssin laskeminen saatiin siis muutettua pariksi matriisikertolaskuksi sekä tavallisten kokonaislukujen potenssiksi. Samalla vaivalla voitaisiin laskea paljon suurempiakin potensseja. Tämä temppu onnistuu kuitenkin vain, jos alkuperäinen matriisi on diagonalisoituva.

Palataan vielä tutkimaan matriisin ominaisvektoreita. Seuraava lause osoittaa, että eri ominaisarvoja vastaavat ominaisvektorit ovat lineaarisesti riippumattomia. Tästä tuloksesta on toisinaan hyötyä, kun tutkitaan, onko matriisi diagonalisoituva.

Lause 6.6.7

Oletetaan, että \(A\) on \(n \times n\)-matriisi. Oletetaan, että \(\lambda_1, \dots, \lambda_m\) ovat matriisin \(A\) eri ominaisarvoja ja \(\bv_1, \dots, \bv_m \in \R^n\) jotkin niitä vastaavat ominaisvektorit. Tällöin vektorit \(\bv_1, \dots, \bv_m\) ovat lineaarisesti riippumatttomia.

Piilota/näytä todistus

Oletetaan vastoin väitettä, että vektorit \(\bv_1, \dots, \bv_m\) ovat lineaarisesti riippuvia. Nyt lauseen 5.4.9 nojalla jokin vektoreista on muiden lineaarikombinaatio. Tästä seuraa, että jokin vektoreista on sitä edeltävien vektoreiden lineaarikombinaatio. Olkoon \(\bv_{k+1}\) ensimmäinen vektori, joka on sitä edeltävien vektoreiden lineaarikombinaatio. Tällöin on olemassa reaaliluvut \(c_1, \dots, c_k\), joille pätee

(1)\[c_1\bv_1 + \dots + c_k\bv_k = \bv_{k+1}.\]

Lisäksi vektorit \(\bv_1, \dots, \bv_k\) ovat lineaarisesti riippumattomia. Jos ne nimittäin olisivat lineaarisesti riippuvia, \(\bv_{k + 1}\) ei olisikaan ensimmäinen vektori, joka on sitä edeltävien vektoreiden lineaarikombinaatio.

Kertomalla yhtälön (1) molemmat puolet vasemmalta matriisilla \(A\) saadaan yhtälö

\[A(c_1\bv_1 + \dots + c_k\bv_k) = A\bv_{k+1}.\]

Matriisien laskusääntöjen avulla yhtälö saa muodon \(c_1A\bv_1 + \dots + c_kA\bv_k = A\bv_{k+1}\). Kun vielä muistetaan, että vektorit \(\bv_1, \dots, \bv_k\) ovat matriisin \(A\) ominaisvektoreita, saadaan lopulta yhtälö

(2)\[c_1\lambda_1\bv_1 + \dots + c_k\lambda_k\bv_k = \lambda_{k+1}\bv_{k+1}.\]

Toisaalta voidaan kertoa yhtälön (1) molemmat puolet luvulla \(\lambda_{k+1}\) päätyen yhtälöön

(3)\[c_1\lambda_{k+1}\bv_1 + \dots + c_k\lambda_{k+1}\bv_k = \lambda_{k+1}\bv_{k+1}.\]

Vähennetään yhtälöstä (2) puolittain yhtälö (3), jolloin saadaan

\[c_1(\lambda_1-\lambda_{k+1})\bv_1 + \dots + c_k(\lambda_k-\lambda_{k+1})\bv_k =\nv.\]

Vektorit \(\bv_1, \dots, \bv_k\) ovat lineaarisesti riippumattomia, joten kaikkien yhtälössä olevien kertoimien on oltava nollia:

\[c_1(\lambda_1-\lambda_{k+1}) = 0, \ c_2(\lambda_2-\lambda_{k+1}) = 0, \ldots, \ c_k(\lambda_k-\lambda_{k+1}) = 0.\]

Koska \(\lambda_1, \dots, \lambda_m\) ovat kaikki eri ominaisarvoja, niin tiedetään, että \((\lambda_i - \lambda_{k+1}) \neq 0\) kaikilla \(i \in \{1, \dots, k\}\). Tulon nollasäännön nojalla

\[c_1 = 0, \ c_2 = 0, \ \ldots, \ c_k = 0.\]

Näin ollen

\[\bv_{k+1}= c_1\bv_1 + \dots + c_k\bv_k= 0\bv_1 + \dots + 0\bv_k = \nv.\]

Toisaalta oletuksen mukaan \(\bv_{k+1}\) on matriisin \(A\) ominaisvektori, joten \(\bv_{k+1} \neq \nv\). Koska päädyttiin ristiriitaan, vastaoletus ei voi olla tosi. Siis alkuperäinen väite pätee, eli vektorit \(\bv_1, \dots, \bv_m\) ovat lineaarisesti riippumatttomia.

Edellisestä lauseesta seuraa, että toisinaan matriisin diagonalisoituvuus on helppo todeta.

Seuraus 6.6.8

Oletetaan, että \(n \times n\)-matriisilla on \(n\) eri ominaisarvoa. Tällöin \(A\) on diagonalisoituva.

Piilota/näytä todistus
Olkoot \(\bv_1, \dots, \bv_n\) jotkin eri ominaisarvoihin liittyvät ominaisvektorit. Ne ovat lineaarisesti riippumattomia lauseen 6.6.7 nojalla. Koska matriisilla \(A\) on \(n\) lineaarisesti riippumatonta ominaisvektoria, on \(A\) diagonalisoituva lauseen 6.6.3 nojalla.

Huomaa, että diagonalisoituvan \(n \times n\)-matriisin ominaisarvojen lukumäärän ei tarvitse olla \(n\). Esimerkiksi lävistäjämatriisi

\[\begin{split}A = \begin{augmatrix}{rr} -3 & 0 \\ 0 & -3 \end{augmatrix}\end{split}\]

on diagonalisoituva, sillä \(I^{-1}AI=A\). Lävistäjämatriisi on kolmiomatriisi, joten sen ominaisarvot voidaan lukea suoraan lävistäjältä. Havaitaan, että matriisilla \(A\) on vain yksi ominaisarvo, \(-3\).

  • Jotkin matriisit on mahdollista muuttaa matriisikertolaskun avulla lävistäjä- eli diagonaalimatriiseiksi.
  • Tällaisia matriiseja kutsutaan diagonalisoituviksi ja prosessia kutsutaan diagonalisoinniksi.
  • Koska lävistäjämatriiseja on helppo käsitellä, voidaan diagonalisoinnin avulla helpottaa laskuja kuten potenssiin korotusta.
Oletetaan, että \(A \in \R^{n \times n}\) on diagonalisoituva, sekä että \(P \in \R^{n \times n}\) on kääntyvä matriisi ja \(D \in \R^{n \times n}\) lävistäjämatriisi, jotka toteuttavat ehdon \(P^{-1}AP=D\). Valitse väite, joka ei pidä paikkaansa.
Palautusta lähetetään...