\[\newcommand{\N}{\mathbb N} \newcommand{\Z}{\mathbb Z} \newcommand{\Q}{\mathbb Q} \newcommand{\R}{\mathbb R} \newcommand{\C}{\mathbb C} \newcommand{\ba}{\mathbf{a}} \newcommand{\bb}{\mathbf{b}} \newcommand{\bc}{\mathbf{c}} \newcommand{\bd}{\mathbf{d}} \newcommand{\be}{\mathbf{e}} \newcommand{\bff}{\mathbf{f}} \newcommand{\bh}{\mathbf{h}} \newcommand{\bi}{\mathbf{i}} \newcommand{\bj}{\mathbf{j}} \newcommand{\bk}{\mathbf{k}} \newcommand{\bN}{\mathbf{N}} \newcommand{\bn}{\mathbf{n}} \newcommand{\bo}{\mathbf{0}} \newcommand{\bp}{\mathbf{p}} \newcommand{\bq}{\mathbf{q}} \newcommand{\br}{\mathbf{r}} \newcommand{\bs}{\mathbf{s}} \newcommand{\bT}{\mathbf{T}} \newcommand{\bu}{\mathbf{u}} \newcommand{\bv}{\mathbf{v}} \newcommand{\bw}{\mathbf{w}} \newcommand{\bx}{\mathbf{x}} \newcommand{\by}{\mathbf{y}} \newcommand{\bz}{\mathbf{z}} \newcommand{\bzero}{\mathbf{0}} \newcommand{\nv}{\mathbf{0}} \newcommand{\cA}{\mathcal{A}} \newcommand{\cB}{\mathcal{B}} \newcommand{\cC}{\mathcal{C}} \newcommand{\cD}{\mathcal{D}} \newcommand{\cE}{\mathcal{E}} \newcommand{\cF}{\mathcal{F}} \newcommand{\cG}{\mathcal{G}} \newcommand{\cH}{\mathcal{H}} \newcommand{\cI}{\mathcal{I}} \newcommand{\cJ}{\mathcal{J}} \newcommand{\cK}{\mathcal{K}} \newcommand{\cL}{\mathcal{L}} \newcommand{\cM}{\mathcal{M}} \newcommand{\cN}{\mathcal{N}} \newcommand{\cO}{\mathcal{O}} \newcommand{\cP}{\mathcal{P}} \newcommand{\cQ}{\mathcal{Q}} \newcommand{\cR}{\mathcal{R}} \newcommand{\cS}{\mathcal{S}} \newcommand{\cT}{\mathcal{T}} \newcommand{\cU}{\mathcal{U}} \newcommand{\cV}{\mathcal{V}} \newcommand{\cW}{\mathcal{W}} \newcommand{\cX}{\mathcal{X}} \newcommand{\cY}{\mathcal{Y}} \newcommand{\cZ}{\mathcal{Z}} \newcommand{\rA}{\mathrm{A}} \newcommand{\rB}{\mathrm{B}} \newcommand{\rC}{\mathrm{C}} \newcommand{\rD}{\mathrm{D}} \newcommand{\rE}{\mathrm{E}} \newcommand{\rF}{\mathrm{F}} \newcommand{\rG}{\mathrm{G}} \newcommand{\rH}{\mathrm{H}} \newcommand{\rI}{\mathrm{I}} \newcommand{\rJ}{\mathrm{J}} \newcommand{\rK}{\mathrm{K}} \newcommand{\rL}{\mathrm{L}} \newcommand{\rM}{\mathrm{M}} \newcommand{\rN}{\mathrm{N}} \newcommand{\rO}{\mathrm{O}} \newcommand{\rP}{\mathrm{P}} \newcommand{\rQ}{\mathrm{Q}} \newcommand{\rR}{\mathrm{R}} \newcommand{\rS}{\mathrm{S}} \newcommand{\rT}{\mathrm{T}} \newcommand{\rU}{\mathrm{U}} \newcommand{\rV}{\mathrm{V}} \newcommand{\rW}{\mathrm{W}} \newcommand{\rX}{\mathrm{X}} \newcommand{\rY}{\mathrm{Y}} \newcommand{\rZ}{\mathrm{Z}} \newcommand{\pv}{\overline} \newcommand{\iu}{\mathrm{i}} \newcommand{\ju}{\mathrm{j}} \newcommand{\im}{\mathrm{i}} \newcommand{\e}{\mathrm{e}} \newcommand{\real}{\operatorname{Re}} \newcommand{\imag}{\operatorname{Im}} \newcommand{\Arg}{\operatorname{Arg}} \newcommand{\Ln}{\operatorname{Ln}} \DeclareMathOperator*{\res}{res} \newcommand{\re}{\operatorname{Re}} \newcommand{\im}{\operatorname{Im}} \newcommand{\arsinh}{\operatorname{ar\,sinh}} \newcommand{\arcosh}{\operatorname{ar\,cosh}} \newcommand{\artanh}{\operatorname{ar\,tanh}} \newcommand{\sgn}{\operatorname{sgn}} \newcommand{\diag}{\operatorname{diag}} \newcommand{\proj}{\operatorname{proj}} \newcommand{\rref}{\operatorname{rref}} \newcommand{\rank}{\operatorname{rank}} \newcommand{\Span}{\operatorname{span}} \newcommand{\vir}{\operatorname{span}} \renewcommand{\dim}{\operatorname{dim}} \newcommand{\alg}{\operatorname{alg}} \newcommand{\geom}{\operatorname{geom}} \newcommand{\id}{\operatorname{id}} \newcommand{\norm}[1]{\lVert #1 \rVert} \newcommand{\tp}[1]{#1^{\top}} \renewcommand{\d}{\mathrm{d}} \newcommand{\sij}[2]{\bigg/_{\mspace{-15mu}#1}^{\,#2}} \newcommand{\abs}[1]{\lvert#1\rvert} \newcommand{\pysty}[1]{\left[\begin{array}{@{}r@{}}#1\end{array}\right]} \newcommand{\piste}{\cdot} \newcommand{\qedhere}{} \newcommand{\taumatrix}[1]{\left[\!\!#1\!\!\right]} \newenvironment{augmatrix}[1]{\left[\begin{array}{#1}}{\end{array}\right]} \newenvironment{vaugmatrix}[1]{\left|\begin{array}{#1}}{\end{array}\right|} \newcommand{\trans}{\mathrm{T}} \newcommand{\EUR}{\text{\unicode{0x20AC}}} \newcommand{\SI}[3][]{#2\,\mathrm{#3}} \newcommand{\si}[2][]{\mathrm{#2}} \newcommand{\num}[2][]{#2} \newcommand{\ang}[2][]{#2^{\circ}} \newcommand{\meter}{m} \newcommand{\metre}{\meter} \newcommand{\kilo}{k} \newcommand{\kilogram}{kg} \newcommand{\gram}{g} \newcommand{\squared}{^2} \newcommand{\cubed}{^3} \newcommand{\minute}{min} \newcommand{\hour}{h} \newcommand{\second}{s} \newcommand{\degreeCelsius}{^{\circ}C} \newcommand{\per}{/} \newcommand{\centi}{c} \newcommand{\milli}{m} \newcommand{\deci}{d} \newcommand{\percent}{\%} \newcommand{\Var}{\operatorname{Var}} \newcommand{\Cov}{\operatorname{Cov}} \newcommand{\Corr}{\operatorname{Corr}} \newcommand{\Tasd}{\operatorname{Tasd}} \newcommand{\Ber}{\operatorname{Ber}} \newcommand{\Bin}{\operatorname{Bin}} \newcommand{\Geom}{\operatorname{Geom}} \newcommand{\Poi}{\operatorname{Poi}} \newcommand{\Hyperg}{\operatorname{Hyperg}} \newcommand{\Tas}{\operatorname{Tas}} \newcommand{\Exp}{\operatorname{Exp}} \newcommand{\tdist}{\operatorname{t}} \newcommand{\rd}{\mathrm{d}}\]

Lineaarinen riippumattomuus

Pohdi 5.4.1

  1. Martyn leijulautaa pystyy ohjaamaan suuntavektoreilla \((4,-2)\) ja \((2,-1)\). Minne kaikkialle Marty pääsee kulkemaan laudallaan? Jos toinen suuntavektoreista lakkaa toimimasta, miten se vaikuttaa siihen, minne kaikkialle Marty voi päästä?
  2. Jasminin taikamattoa pystyy ohjaamaan suuntavektoreilla \((2,0,0)\), \((0,0,-1)\) ja \((2,0,-1)\). Onko jokin suuntavektoreista turha? Toisin sanoen, voiko Jasmin jättää jonkin suuntavektoreista pois ja päästä silti kaikkiin samoihin paikkoihin kuin mihin hän pääsee kolmella vektorilla?

Lineaarista riippumattomuutta käsitellään seuraavassa videossa.

Edellisessä luvussa käsiteltiin vektoreiden virittämiä aliavaruuksia. Aliavaruudessa ovat kaikki ne pisteet, joihin virittäjävektoreilla voi päästä. Joskus osa virittäjävektoreista on turhia. Lauseen 5.3.7 perusteella tiedetään, että jos jokin virittäjävektori on toisten virittäjävektorien lineaarikombinaatio, se ei tuota aliavaruuteen mitään uutta. Esimerkiksi

\[\vir\{(0,2,1),(-1,-1,0),(-2,0,1)\}=\vir\{(0,2,1),(-1,-1,0)\},\]

sillä

\[(-2,0,1)=(0,2,1)+2(-1,-1,0).\]

Usein ollaan kiinnostuneita sellaisista virittäjäjoukoista, jotka ovat minimaalisia, eikä niissä ole yhtään ylimääräisiä vektoreita. Tällaisia virittäjiä kutsutaan lineaarisesti riippumattomiksi. Vektorijoukkoa tarkasteltaessa on kuitenkin työlästä tarkistaa, onko jokin vektoreista toisten lineaarikombinaatio. Tätä varten pitäisi käydä läpi yksitellen kaikki joukon vektorit ja tarkistaa, ovatko ne toisten lineaarikombinaatioita. Siksi lineaariselle riippumattomuudelle on valittu hiukan erilainen mutta yhtäpitävä määritelmä, jota on helpompi käyttää. Ryhdytään tutustumaan tähän määritelmään.

Pohdi 5.4.2

Jasmin haastaa Aladdinin kisaan. Tehtävänä on lähteä kotipalatsilta ja palata samaan paikkaan. Ehtona on, että kutakin suuntavektoria saa käyttää vain kerran maton ohjaamiseen. (Yhdellä vektorilla saa kuitenkin aina kulkea niin pitkän matkan kuin haluaa.) Jasminin taikamatossa on suuntavektorit \((2,0,0)\), \((0,0,-1)\) ja \((0,-2,0)\). Aladdinin taikamatossa on suuntavektorit \((0,2,1)\), \((-1,-1,0)\), \((-2,0,1)\).

  1. Kirjoita yhtälö, joka vastaa sitä, että Jasmin lähtee kotipalatsilta, käyttää kutakin suuntavektoria kerran maton ohjaamiseen ja palaa takaisin kotipalatsille.
  2. Onnistuuko Jasminin matka?
  3. Entä onnistuuko Aladdin tekemään saman?
  4. Ovatko Jasminin suuntavektorit lineaarisesti riippumattomia? Entä Aladdinin?

Jos virittäjävektoreiden joukossa on turhia vektoreita, tarkoittaa se, että joihinkin avaruuden pisteisiin päästään usealla eri tavalla. Esimerkiksi virittäjävektorien \((0,2,1)\), \((-1,-1,0)\) ja \((-2,0,1)\) joukossa on turha vektori. Nyt nollavektorin voi kirjoittaa usealla eri tavalla niiden lineaarikombinaationa:

\[\nv=(0,2,1)+2(-1,-1,0)-(-2,0,1)\]

ja

\[\nv=0(0,2,1)+0(-1,-1,0)-0(-2,0,1).\]

Jos taas virittäjävektorien joukossa ei ole turhia vektoreita, päästään jokaiseen avaruuden pisteeseen vain yhdellä tavalla. Tällöin myös nollavektori saadaan aikaiseksi ainoastaan niin, että jokaisen virittäjävektorin kertoimena on nolla. Epämuodollisesti tämän voi ilmaista niin, että jos vektoreilla yrittää kulkea lenkin, joka palaa takaisin lähtöpisteeseen, sen voi toteuttaa ainoastaan pysymällä paikallaan.

Virittäjävektorien joukossa ei ole turhia vektoreita ainoastaan siinä tapauksessa, että nollavektorin voi kirjoittaa niiden lineaarikombinaationa ainoastaan yhdellä tavalla. Otetaan tämä lineaarisen riippumattomuuden määritelmäksi.

Määritelmä 5.4.3

Avaruuden \(\R^n\) vektorit \(\bv_1, \bv_2,\dots,\bv_k\) ovat lineaarisesti riippumattomia toisistaan, jos yhtälöllä

\[x_1\bv_1+x_2\bv_2+\dots+x_k\bv_k=\nv\]

on täsmälleen yksi ratkaisu \(x_1=0, x_2=0, \ldots, x_k=0\). (Tässä tuntemattomat \(x_1,\dots,x_k\) ovat reaalilukuja.)

Jos vektorit eivät ole lineaarisesti riippumattomia, sanotaan, että ne ovat lineaarisesti riippuvia toisistaan.

Lineaarisesta riippumattomuuden ohella käytetään toisinaan myös ilmaisua vapaa. Jos vektorit \(\bv_1,\dots,\bv_k\) ovat lineaarisesti riippumattomia, sanotaan, että niiden muodostama jono \((\bv_1,\dots,\bv_k)\) on vapaa. Jos vektorit eivät ole lineaarisesti riippumattomia, sanotaan, että jono on sidottu.

Määritelmässä mainitulla yhtälöllä \(x_1\bv_1+x_2\bv_2+\dots+x_k\bv_k=\nv\) on aina ratkaisu \(x_1=0, x_2=0, \ldots, x_k=0\), olivat vektorit lineaarisesti riippumattomia tai ei. Tämä on yhtälön niin kutsuttu triviaaliratkaisu, joka on aina olemassa. Lineaarisesti riippumattomien vektoreiden erityisominaisuus on siis se, että yhtälöllä ei ole mitään muita ratkaisuja kuin triviaaliratkaisu.

Esimerkki 5.4.4

Merkitään \(\bv_1 = (1,2)\) ja \(\bv_2 = (-3,-1)\). Tutkitaan, ovatko vektorit \(\bv_1\) ja \(\bv_2)\) lineaarisesti riippumattomia.

Tarkastellaan yhtälöä \(x_1\bv_1 + x_2\bv_2 = \nv\), missä \(x_1,x_2 \in \R\). Toisin sanoen tutkittava yhtälö on

\[x_1(1,2) + x_2(-3,-1) = (0,0)\]

eli

\[\begin{split}\left\{ \begin{aligned} x_1-3x_2&=0 \\ 2x_1-\phantom{3}x_2&=0. \end{aligned} \right.\end{split}\]

Ratkaistaan tästä \(x_1\) ja \(x_2\):

\[\begin{split}\begin{aligned} \begin{augmatrix}{rr|c} 1&-3&0\\ 2&-1&0\\ \end{augmatrix} \overset{R_2-2R_1}{\longrightarrow} \begin{augmatrix}{rr|c} 1&-3&0\\ 0&5&0\\ \end{augmatrix} \overset{\frac{1}{5}R_2}{\longrightarrow} \begin{augmatrix}{rr|c} 1&-3&0\\ 0&1&0\\ \end{augmatrix} \overset{R_1+3R_2}{\longrightarrow} \begin{augmatrix}{rr|c} 1&0&0\\ 0&1&0\\ \end{augmatrix}. \end{aligned}\end{split}\]

Ainoa ratkaisu on \(x_1 = 0\) ja \(x_2 = 0\). Vektorit \(\bv_1\) ja \(\bv_2\) ovat siis lineaarisesti riippumattomia (ks. kuva 1).

../_images/kuva45.svg

Fig. 1: Vektorit \(\bv_1\) ja \(\bv_2\) ovat lineaarisesti riippumattomia.

Esimerkki 5.4.5

Merkitään \(\be_1 = (1,0)\) ja \(\be_2 = (0,1)\). Tutkitaan, ovatko avaruuden \(\R^2\) vektorit \(\be_1\) ja \(\be_2\) lineaarisesti riippumattomia. Tarkastellaan siis yhtälöä

\[x_1\be_1+x_2\be_2=\nv,\]

missä \(x_1,x_2 \in \R\). Toisin sanoen ratkaistava yhtälö on \(x_1(1,0)+x_2(0,1)=(0,0)\). Yhtälön vasen puoli sievenee muotoon \(x_1(1,0)+x_2(0,1)=(x_1,0)+(0,x_2)=(x_1,x_2)\). Tutkittavana onkin itse asiassa yhtälö \((x_1,x_2)=(0,0)\). Tämän ainoa ratkaisu on \(x_1=0\) ja \(x_2=0\). Näin on osoitettu, että vektorit \(\be_1\) ja \(\be_2\) ovat lineaarisesti riippumattomia.

../_images/kuva49.svg

Fig. 2: Vektorit \(\be_1\) ja \(\be_2\) ovat lineaarisesti riippumattomia.

Esimerkki 5.4.6

Kun vektoreita osoitetaan lineaarisesti riippuviksi, ei välttämättä tarvitse ratkaista yhtälöryhmää. Toisinaan on nimittäin helppo nähdä, minkälaisten kertoimien avulla lineaarikombinaatiosta muodostuu nollavektori.

Merkitään \(\bw_1 = (2,1)\) ja \(\bw_2 = (-4,-2)\). Huomataan, että

\[2\bw_1+\bw_2=(4,2)+(-4,-2) = \nv.\]

Koska vektorien \(\bw_1\) ja \(\bw_2\) lineaarikombinaatio on nollavektori, vaikka kertoimet eivät ole nollia, vektorit \(\bw_1\) ja \(\bw_2\) ovat määritelmän nojalla lineaarisesti riippuvia.

Esimerkki 5.4.7

Merkitään \(\bv_1 = (1,2)\), \(\bv_2 = (-3,-1)\) ja \(\bv_3 = (-1,1)\). Tutkitaan, ovatko vektorit \(\bv_1\), \(\bv_2\) ja \(\bv_3\) lineaarisesti riippumattomia vai riippuvia. Tarkastellaan yhtälöä

\[x_1\bv_1 + x_2\bv_2 + x_3\bv_3 = \nv,\]

missä \(x_1,x_2 \in \R\). Tällöin

\[x_1(1,2) + x_2(-3,-1) + x_3(-1,1) = (0,0)\]

eli komponenteittain

\[\begin{split}\left\{ \begin{aligned} x_1-3x_2-x_3&=0 \\ 2x_1-x_2+x_3&=0. \end{aligned} \right.\end{split}\]

Ratkaistaan tästä \(x_1\), \(x_2\) ja \(x_3\):

\[\begin{split}\begin{aligned} &\begin{augmatrix}{rrr|c} 1&-3&-1&0\\ 2&-1&1&0\\ \end{augmatrix} \overset{R_2-2R_1}{\longrightarrow} \begin{augmatrix}{ccc|c} 1&-3&-1&0\\ 0&5&3&0\\ \end{augmatrix} \overset{\frac{1}{5}R_2}{\longrightarrow} \begin{augmatrix}{rrr|c} 1&-3&-1&0\\ 0&1&3/5&0\\ \end{augmatrix} \\ &\overset{R_1+3R_2}{\longrightarrow} \begin{augmatrix}{rrr|c} 1&0&4/5&0\\ 0&1&3/5&0\\ \end{augmatrix}. \end{aligned}\end{split}\]

Huomataan, että yhtälöryhmällä on äärettömän monta ratkaisua:

\[\begin{split}\left\{ \begin{aligned} x_1 &=-(4/5)t \\ x_2 &= -(3/5)t \\ x_3&=t, \end{aligned} \right. \qquad \text{missä } t \in \R.\end{split}\]

Näin ollen \(x_1=0\), \(x_2=0\), \(x_3=0\) ei ole ainoa ratkaisu. Voidaan valita esimerkiksi \(t= 5\), jolloin \(x_1 = -4\) ja \(x_2 = -3\) ja \(x_3=5\). Tällöin \(-4\bv_1 - 3\bv_2+5\bv_3 = \nv\). Vektorit \(\bv_1\), \(\bv_2\) ja \(\bv_3\) ovat siis lineaarisesti riippuvia. Tilannetta on havainnollistettu kuvassa 3.

../_images/kuva46.svg
../_images/kuva52.svg

Fig. 3: Vektorit \(\bv_1\), \(\bv_2\) ja \(\bv_3\) ovat lineaarisesti riippuvia.

Määritelmän mukaan vektorit \(\bv_1,\bv_2,\dots,\bv_k\) ovat lineaarisesti riippumattomia, jos yhtälöllä

\[x_1\bv_1+x_2\bv_2+\dots+x_k\bv_k=\nv\]

on täsmälleen yksi ratkaisu \(x_1=0, x_2=0, \ldots, x_k=0\). Näin ollen lineaarisen riippumattomuuden ehdon voi kirjoittaa myös muodossa

\[x_1\bv_1+x_2\bv_2+\dots+x_k\bv_k=\nv, \quad \text{jos ja vain jos} \quad x_1=0, x_2=0, \dots, x_k=0.\]

Jos kuitenkin \(x_1=0, x_2=0, \dots, x_k=0\), niin \(x_1\bv_1+x_2\bv_2+\dots+x_k\bv_k=\nv\). Ekvivalenssin toinen suunta on siis aina totta. Siksi lineaarisen riippumattomuuden määritelmä voidaan lyhentää seuraavanlaiseen muotoon:

\[\text{jos} \quad x_1\bv_1+x_2\bv_2+\dots+x_k\bv_k=\nv, \quad \text{niin} \quad x_1=0, x_2=0, \dots, x_k=0.\]

Tällaista muotoilua on kätevä käyttää esimerkiksi todistuksissa, joissa ei käsitellä konkreettisia vektoreita.

Kahden vektorin tapauksessa lineaarinen riippumattomuus on helppo tarkistaa. Rittää tutkia, ovatko vektorit yhdensuuntaisia.

Lause 5.4.8

Oletetaan, että \(\bv, \bw \in \R^n\) ja kumpikaan vektoreista ei ole nollavektori. Tällöin \(\bv\) ja \(\bw\) ovat lineaarisesti riippumattomia, jos ja vain jos ne eivät ole yhdensuuntaisia.

Piilota/näytä todistus
Todistus jätetään harjoitustehtäväksi.

Luvun alussa kuvailtiin lineaarisen riippumattomuuden ideaa usealla eri tavalla. Osoitetaan nyt tuloksia, jotka ilmaisevat samat asiat täsmällisesti. Aiemmin todetiin, että lineaarisesti riippumattomien vektorien joukossa ei ole turhia vektoreita. Tämä huomio sisältyy seuraavaan lauseeseen, jonka mukaan vektorit ovat lineaarisesti riippuvia, jos ja vain jos jokin vektoreista voidaan ilmaista toisten lineaarikombinaationa.

Lause 5.4.9

Oletetaan, että \(\bv_1,\bv_2,\dots,\bv_k \in \R^n\) ja \(k \ge 2\). Vektorit \(\bv_1,\bv_2,\dots,\bv_k\) ovat lineaarisesti riippuvia, jos ja vain jos jollakin \(j \in \{1,2,\dots,k\}\) vektori \(\bv_j\) on vektoreiden \(\bv_1,\dots,\bv_{j-1},\bv_{j+1},\dots,\bv_k\) lineaarikombinaatio.

Piilota/näytä todistus

Muotoa ”jos ja vain jos” oleva väite todistetaan kahdessa osassa. Ensin oletetaan väitteen ensimmäisen osan olevan totta ja osoitetaan, että tällöin jälkimmäinen osa pätee. Tätä todistuksen vaihetta merkitään usein symbolilla ”\(\Rightarrow\)”. Sitten oletetaan jälkimmäisen osan olevan totta ja osoitetaan, että ensimmäinen osa pätee. Tätä todistuksen vaihetta merkitään symbolilla ”\(\Leftarrow\)”. Ryhdytään todistamaan väitettä.

\(\Rightarrow\)”: Oletetaan, että vektorit \(\bv_1,\bv_2,\dots,\bv_k\) ovat lineaarisesti riippuvia. On siis olemassa reaaliluvut \(c_1,\dots,c_k\), joilla pätee

\[c_1\bv_1+c_2\bv_2+\dots+c_k\bv_k=\nv,\]

ja lisäksi \(c_j \neq 0\) jollakin \(j \in \{1,2,\dots,k\}\). Nyt

\[c_j\bv_j=-c_1\bv_1- \dots -c_{j-1}\bv_{j-1}-c_{j+1}\bv_{j+1}- \dots -c_k\bv_k\]

ja edelleen

\[\bv_j=-\frac{c_1}{c_j}\bv_1- \dots -\frac{c_{j-1}}{c_j}\bv_{j-1}-\frac{c_{j+1}}{c_j}\bv_{j+1}- \dots -\frac{c_k}{c_j}\bv_k.\]

Siis \(\bv_j\) on vektoreiden \(\bv_1,\dots,\bv_{j-1},\bv_{j+1},\dots,\bv_k\) lineaarikombinaatio.

\(\Leftarrow\)”: Oletetaan sitten, että \(\bv_j\) on vektoreiden \(\bv_1,\dots,\bv_{j-1},\bv_{j+1},\dots,\bv_k\) lineaarikombinaatio jollakin \(j \in \{1,2,\dots,k\}\). Nyt on olemassa sellaiset \(c_1,\dots,c_{j-1},c_{j+1},\dots,c_k \in \R\), että

\[\bv_j=c_1\bv_1+\dots +c_{j-1}\bv_{j-1}+c_{j+1}\bv_{j+1}+ \dots +c_k\bv_k.\]

Tästä seuraa, että

\[\nv = c_1\bv_1+ \dots +c_{j-1}\bv_{j-1}+(-1)\bv_j+c_{j+1}\bv_{j+1}+ \dots +c_k\bv_k.\]

Koska kerroin \(-1\) ei ole nolla, vektorit \(\bv_1,\bv_2,\dots,\bv_k\) ovat lineaarisesti riippuvia.

Esimerkki 5.4.10

Tarkastellaan vektoriavaruuden \(\R^3\) vektoreita \(\bv_1 = (1,-1,0)\), \(\bv_2 = (1,1,0)\), \(\bv_3 = (0,0,2)\) ja \(\bv_4 = (3,-1,0)\). Näillä pätee muun muassa

\[2\bv_1 + \bv_2 +0\bv_3 - \bv_4 = (2,-2,0) + (1,1,0)+(0,0,0) - (3,-1,0) = (0,0,0),\]

joten vektorit \(\bv_1\), \(\bv_2\), \(\bv_3\) ja \(\bv_4\) ovat lineaarisesti riippuvia. Edellisen lauseen perusteella jokin vektoreista voidaan kirjoittaa toisten lineaarikombinaationa. Yllä olevasta yhtälöstä nähdäänkin, että

\[\bv_2 = -2\bv_1 + \bv_4.\]

Kaikkia vektoreita ei kuitenkaan välttämättä voida kirjoittaa toisten lineaarikombinaationa. Esimerkiksi ei ole olemassa sellaisia lukuja \(a\), \(b\) ja \(c\), että pätisi

\[\bv_3 = a\bv_1 + b\bv_2 + c\bv_4.\]

(Tämän täsmällinen todistaminen jätetään lukijalle.)

Luvun alussa todettiin, että lineaarinen riippumattomuus tarkoittaa sitä, että aliavaruuden vektorit voidaan kirjoittaa virittäjävektoreiden lineaarikombinaatioina vain yhdellä tavalla. Osoitetaan tämä väite.

Lause 5.4.11

Jos vektorit \(\bv_1,\bv_2,\dots,\bv_k\) ovat lineaarisesti riippumattomia, niiden virittämän aliavaruuden \(\vir\{\bv_1,\bv_2,\dots,\bv_k\}\) alkiot voidaan kirjoittaa täsmälleen yhdellä tavalla virittäjävektorien \(\bv_1,\bv_2,\dots,\bv_k\) lineaarikombinaatioina.

Piilota/näytä todistus

Oletetaan, että vektorit \(\bv_1,\bv_2,\dots,\bv_k\) ovat lineaarisesti riippumattomia. Merkitään \(W=\vir\{\bv_1,\bv_2,\dots,\bv_k\}\). Osoitetaan, että jokainen aliavaruuden \(W\) alkio voidaan kirjoittaa täsmälleen yhdellä tavalla virittäjävektorien \(\bv_1,\dots,\bv_k\) lineaarikombinaationa.

Ensinnäkin aliavaruuden määritelmän perusteella jokainen aliavaruuden \(W\) alkio voidaan kirjoittaa virittäjävektorien \(\bv_1,\bv_2,\dots,\bv_k\) lineaarikombinaationa. Osoitetaan, että vektorit voidaan kirjoittaa lineaarikombinaationa vain yhdellä tavalla.

Oletetaan, että alkio \(w \in W\) voidaan kirjoittaa lineaarikombinaationa

(1)\[\bw=a_1\bv_1+\dots+a_k\bv_k\]

ja lineaarikombinaationa

(2)\[\bw=b_1\bv_1+\dots+b_k\bv_k\]

joillakin \(a_1,\dots,a_k,b_1,\dots,b_k \in \R\). Nyt \(a_1\bv_1+\dots+a_k\bv_k=b_1\bv_1+\dots+b_k\bv_k\), joten

\[a_1\bv_1+\dots+a_k\bv_k-(b_1\bv_1+\dots+b_k\bv_k)=\nv.\]

Vektorien yhteenlaskun ja skalaarikertolaskun ominaisuuksien perusteella pätee

\[(a_1-b_1)\bv_1+\dots+(a_k-b_k)\bv_k = \nv.\]

Vektorit \(\bv_1,\bv_2,\dots,\bv_k\) ovat lineaarisesti riippumattomia oletuksen nojalla, joten yllä olevasta yhtälöstä seuraa, että kaikki kertoimet ovat nollia: \(a_1-b_1=0, \dots, a_k-b_k=0\). Siten \(a_1=b_1, \dots, a_k=b_k\). Näin ollen tutkitut lineaarikombinaatiot (1) ja (2) ovatkin itse asiassa samanlaiset (niissä on samat kertoimet). Siksi vektoria \(\bw\) ei voida kirjoittaa usealla eri tavalla virittäjävektoreiden lineaarikombinaationa.

Lause 5.4.12

Oletetaan, että \(\bv_1\), \(\bv_2,\dots,\bv_n \in \R^m\), missä \(n \in \{1,2,\ldots\}\). Jos \(n > m\), niin vektorit \(\bv_1,\bv_2,\dots,\bv_n\) ovat lineaarisesti riippuvia.

Piilota/näytä todistus

Merkitään \(\bv_k = (v_{1k}, v_{2k}, \dots, v_{mk})\) kaikilla \(k \in \{1,\dots, n\}\). Nyt yhtälöä

\[x_1\bv_1 + x_2\bv_2 + \dots + x_n\bv_n = \nv\]

vastaavaksi yhtälöryhmäksi saadaan

\[\begin{split}{\left\{ \begin{array}{rcl} v_{11}x_1 + v_{12}x_2 +\cdots + v_{1n}x_n & = & 0 \\ v_{21}x_1 + v_{22}x_2 +\cdots + v_{2n}x_n & = & 0 \\ \vdots\hspace{1.6cm} & & \vdots \\ v_{m1}x_1 + v_{m2}x_2 +\cdots + v_{mn}x_n & = & 0. \end{array} \right.}\end{split}\]

Tässä homogeenisessa yhtälöryhmässä on enemmän tuntemattomia kuin yhtälöitä. Siten yhtälöryhmällä on lauseen 3.4.15 nojalla äärettömän monta ratkaisua. Koska löytyy muitakin ratkaisuja kuin triviaaliratkaisu, vektorit \(\bv_1,\bv_2,\dots,\bv_n\) ovat lineaarisesti riippuvia.

  • Vektorit \(\bv_1,\bv_2,\dots,\bv_k \in \R^n\) ovat lineaarisesti riippumattomia, jos nollavektori voidaan kirjoittaa niiden lineaarikombinaationa vain yhdellä tavalla.
  • Jos aliavaruuden virittäjät ovat lineaarisesti riippumattomia, joukossa ei ole turhia virittäjiä.
  • Vektorit ovat lineaarisesti riippumattomia, jos ja vain jos mikään vektoreista ei ole toisten lineaarikombinaatio.
Olkoot \(x_1,x_2\ldots,x_k\) reaalilukuja. Mitkä seuraavista ilmauksista ovat yhtäpitäviä lineaarisen riippumattomuuden määritelmän kanssa? Avaruuden \(\R^n\) vektorit \(\bv_1\), \(\bv_2\) ja \(\bv_3\) ovat lineaarisesti riippumattomia, jos ja vain jos
Oletetaan, että \(\bu, \bv, \bw, \bx \in \R^n\) ja että \(A \in \R^{m \times n}\). Valitse paikkansa pitävät väittämät.
Palautusta lähetetään...