next up previous
Next: 6. Wyznacznik, zmiana bazy Up: Algebra liniowa II Previous: 4. Przekształcenia liniowe i

5. Permutacje i wyznacznik

Niech $A$ będzie macierzą wymiaru $n\times n$, o kolumnach $A_1,\dots,A_n$. Piszemy wówczas $A=(A_1,\dots,A_n)$. W tym rozdziale zajmiemy się problemem, jak sprawdzić, czy macierz $A$ jest odwracalna. Na mocy wniosku 4.14 jest to równoważne temu, że wektory $A_1,\dots,A_n$ są liniowo niezależne w przestrzeni ${\mathbb{R}}^n$. Wektory te rozpinają w przestrzeni ${\mathbb{R}}^n$ uogólniony równoległościan

\begin{displaymath}\Pi=\{\sum t_iA_i:0\leq t_i\leq 1\}.\end{displaymath}

W przypadku $n=2$, $\Pi $ jest równoległobokiem, w przypadku $n=3$, $\Pi $ jest zwykłym równoległościanem (być może zdegenerowanym).

Rysunek: Równoległobok $\Pi $ rozpięty przez $A_1$ i $A_2$
\includegraphics[]{skryptrys5.eps}

Intuicyjnie jest jasne, że wektory $A_1,\dots,A_n$ są liniowo niezależne $\iff$ $n$-wymiarowa objętość ``równoległościanu'' $\Pi $ jest $\neq0$. Są wzory definiujące tę objętość, poznamy je w rozdziale 15. Wygodniej jednak zdefiniować $n$-wymiarową objętość ``zorientowaną'' ``równoległościanu'' $\Pi $ (o wartościach dodatnich lub ujemnych), równą co do wartości bezwzględnej zwykłej $n$-wymiarowej objętości. Rolę takiej zorientowanej objętości bedzie odgrywać funkcja wyznacznika $\det:M_{n\times n}({\mathbb{R}})\rightarrow
{\mathbb{R}}$. Mówiąc nieformalnie, powinno być

\begin{displaymath}(*)  \det(A)=\det(A_1,\dots,A_n)=\pm\mbox{objętość}(\Pi).\end{displaymath}

Funkcję wyznacznika wprowadzimy w sposób aksjomatyczny. Najpierw wypiszemy postulowane własności funkcji $\det$, następnie udowodnimy, że istnieje dokładnie jedna funkcja o tych własnościach. W rozdziale 15 udowodnimy, że tak określona funkcja $\det$ w istocie spełnia $(*)$. Macierze wymiaru $n\times n$ będziemy tu zapisywać jako układy $n$ kolumn czy też wręcz układy $n$ wektorów z ${\mathbb{R}}^n$. Zatem $\det$ możemy uważać za n-argumentową funkcję o argumentach z ${\mathbb{R}}^n$ i wartościach w ${\mathbb{R}}$.

Oto postulowane własności wyznacznika.

D1.
$\det(A_1,\dots,A_i+A_i',\dots,A_n)=\\
\det(A_1,\dots,A_i,\dots,A_n)+\det(A_1,\dots,A_i',\dots,A_n)$
D2.
Dla $t\in {\mathbb{R}}$, $\det(A_1,\dots,tA_i,\dots,A_n)=t\det(A_1,\dots,A_i,\dots,A_n)$
D3.
Jeśli dla pewnego $i, A_i=A_{i+1}$, to $\det(A_1,\dots,A_n)=0$.
D4.
$\det(E_1,E_2,\dots,E_n)=\det(I)=1$

Rysunek: $\det(A_1+A_1',A_2)=\det(A_1,A_2)+\det(A_1',A_2)$
\includegraphics[]{skryptrys6.eps}

Rysunek: $\det(tA_1,A_2)=t\det(A_1,A_2)$
\includegraphics[]{skryptrys7.eps}

Jak wspomnieliśmy wyżej, pokażemy, że istnieje jedyna funkcja $\det$ spelniająca D1-D4. Do tego celu będziemy potrzebować pewnych wiadomości o permutacjach.

Definicja 5.1   Permutacją liczb $1,\dots,n$ nazywamy dowolną funkcję $\sigma:\{1,\dots,n\}\rightarrow \{1,\dots,n\}$, która jest 1-1 i ``na'' (tzn. jest bijekcją). Zbiór permutacji liczb $1,\dots,n$ oznaczamy przez $S_n$.

Zauważmy, że zbiór $S_n$ ma $n!$ elementów. Permutację $\sigma\in S_n$ zapisujemy w postaci dwuwierszowej:

\begin{displaymath}\sigma=\left(\begin{array}{cccc}1&2&\dots&n\\
\sigma(1)&\sigma(2)&\dots&\sigma(n)\end{array}\right),\end{displaymath}

w dolnym wierszu występują wartości $\sigma$ dla kolejnych liczb z górnego wiersza.

Permutacje (jak wszystkie funkcje) można składać. Złożenie $\sigma_1\circ\sigma_2$ permutacji $\sigma_1,\sigma_2\in S_n$ jest również permutacją z $S_n$. Składanie permutacji nazywamy też mnożeniem permutacji i piszemy $\sigma_1\sigma_2$ zamiast $\sigma_1\circ\sigma_2$. Na przykład

\begin{displaymath}\left(\begin{array}{cccc}1&2&3&4\\
3&2&1&4\end{array}\right)...
...=\left(\begin{array}{cccc}1&2&3&4\\
2&1&4&3\end{array}\right).\end{displaymath}

Szczególnym rodzajem permutacji są transpozycje. Dla $1\leq i<j\leq
n$ transpozycją $(i,j)$ nazywamy permutację

\begin{displaymath}\left(\begin{array}{cccccccc}1&2&\dots&i&\dots&j&\dots&n\\
1&2&\dots&j&\dots&i&\dots&n\end{array}\right),\end{displaymath}

która zamienia miejscami $i$ i $j$, nie ruszając innych liczb. Jedną z permutacji z $S_n$ jest identyczność

\begin{displaymath}id=\left(\begin{array}{cccc}1&2&\dots&n\\
1&2&\dots&n\end{array}\right).\end{displaymath}

Przykład.

Niech $\sigma=(2,3)\in S_5, \tau=
\left(\begin{array}{ccccc}1&2&3&4&5\\
3&2&1&5&4\end{array}\right)$. Wówczas

\begin{displaymath}\tau\sigma=\left(\begin{array}{ccccc}1&2&3&4&5\\
3&2&1&5&4\e...
...t(\begin{array}{ccccc}1&2&3&4&5\\
3&1&2&5&4\end{array}\right).\end{displaymath}

Ogólniej, jeśli $\sigma=(i,j)$ i $\tau$ są dwiema permutacjami z $S_n$, to $\tau\sigma$ powstaje z $\tau$ przez zamianę (transpozycję) liczb $\tau(i),\tau(j)$ miejscami w permutacji

\begin{displaymath}\left(\begin{array}{cccc}1&2&\dots&n\\
\tau(1)&\tau(2)&\dots&\tau(n)\end{array}\right).\end{displaymath}

Uwaga 5.2   Każdą permutację można przedstawić jako iloczyn pewnej liczby transpozycji liczb sąsiednich.

Dowód przeprowadzimy na przykładzie permutacji

\begin{displaymath}\tau=\left(\begin{array}{ccccc}1&2&3&4&5\\
3&2&5&4&1\end{array}\right).\end{displaymath}

W następującym ciągu kolejna permutacja powstaje przez pomnożenie poprzedniej z prawej strony przez transpozycję nad strzałką. W ciągu tym dążymy (poprzez przestawianie sąsiednich liczb w dolnych wierszach) do osiągnięcia permutacji $\tau$.


\begin{displaymath}\left(\!\!\begin{array}{ccccc}1&2&3&4&5\\
1&2&3&4&5\end{arra...
...\
3&1&2&4&5\end{array}\!\!\right)\stackrel{(2,3)}{\rightarrow}\end{displaymath}


\begin{displaymath}\left(\!\!\begin{array}{ccccc}1&2&3&4&5\\
3&2&1&4&5\end{arra...
...\
3&2&5&1&4\end{array}\!\!\right)\stackrel{(4,5)}{\rightarrow}\end{displaymath}


\begin{displaymath}\left(\begin{array}{ccccc}1&2&3&4&5\\
3&2&5&4&1\end{array}\right)\end{displaymath}

To znaczy

\begin{displaymath}id\circ(2,3)(1,2)(2,3)(4,5)(3,4)(4,5)=\tau.\end{displaymath}

Ale dla każdej $\sigma\in S_n, id\circ\sigma=\sigma$. Zatem

\begin{displaymath}(2,3)(1,2)(2,3)(4,5)(3,4)(4,5)=\tau.\end{displaymath}

Każda permutacja jest bijekcją. Dlatego funkcja odwrotna do permutacji $\sigma$ jest również bijekcją, czyli permutacją. Nazywamy ją permutacją odwrotną do permutacji $\sigma$ i oznaczamy przez $\sigma^{-1}$. Mamy $\sigma(i)=j\iff\sigma^{-1}(j)=i$, dlatego odwracanie permutacji polega (w zapisie dwuwierszowym) na zamianie miejscami wierszy górnego i dolnego:

\begin{displaymath}\mbox{gdy }\sigma=\left(\!\!\begin{array}{cccc}1&2&\dots&n ...
...\sigma(2)&\dots&\sigma(n)\\
1&2&\dots&n\end{array}\!\!\right),\end{displaymath}

po uporządkowaniu liczb w górnym wierszu uzyskujemy zwykły zapis dwuwierszowy permutacji $\sigma^{-1}$. Na przykład dla $\sigma=\left(\begin{array}{ccccc}1&2&3&4&5\\
3&2&5&4&1\end{array}\right)$,

\begin{displaymath}\sigma^{-1}=\left(\begin{array}{ccccc}3&2&5&4&1\\
1&2&3&4&5\...
...t(\begin{array}{ccccc}1&2&3&4&5\\
5&2&1&4&3\end{array}\right).\end{displaymath}

Dla transpozycji $(i,j)^{-1}=(i,j)$.

Definicja 5.3   Mówimy, że liczby $i\neq j$ tworzą inwersję w permutacji $\tau\in
S_n$, jeśli w ciągu $\tau(1),\tau(2),\dots,\tau(n)$ większa z liczb $i,j$ występuje wcześniej niż mniejsza.

Na przykład w permutacji

\begin{displaymath}\tau=\left(\begin{array}{ccccccc}1&2&3&4&5&6\\
1&3&2&6&4&5\end{array}\right)\end{displaymath}

liczby $1,3$ nie tworzą inwersji, zaś liczby $3,2$ tworzą inwersję. Pozostałe inwersje w $\tau$ to $\{4,6\},\{5,6\}$. Mówimy, że permutacja $\tau$ jest parzysta, gdy występuje w niej parzyście wiele inwersji. W przeciwnym razie mówimy, że $\tau$ jest nieparzysta. Definiujemy znak permutacji $sgn(\tau)$:

\begin{displaymath}sgn(\tau)=\left\{\begin{array}{rl}1&\mbox{, gdy $\tau$ jest
p...
...\\
-1&\mbox{, gdy $\tau$ jest nieparzysta}\end{array}\right. .\end{displaymath}

Uwaga 5.4   Transpozycja jest nieparzysta.

Na przykład w transpozycji

\begin{displaymath}(2,5)=\left(\begin{array}{ccccccc}1&2&3&4&5&6\\
1&5&3&4&2&6\end{array}\right)\end{displaymath}

$5$ tworzy inwersję z liczbami $3,4,2$, zaś $2$ tworzy inwersję z liczbami $3,4,5$, przy czym w ten sposób inwersja $\{2,5\}$ jest liczona $2$ razy. Dlatego w transpozycji $(2,5)$ jest 5 inwersji.

Uwaga 5.5   Jeśli $\sigma=(i,i+1)$, to $sgn(\tau\sigma)=-sgn(\tau)$.

Dowód. $\tau\sigma$ powstaje z $\tau$ przez zamianę miejscami $\tau(i)$ i $\tau(i+1)$, więc liczba inwersji zmienia się o $1$.

Uwaga 5.6   Dla permutacji $\sigma,\tau\in S_n,
 sgn(\sigma\tau)=sgn(\sigma)\cdot sgn(\tau)$.

Dowód. Na mocy uwagi 5.2 przedstawiamy permutacje $\sigma,\tau$ w postaci iloczynów transpozycji liczb sąsiednich:

\begin{displaymath}\sigma=\sigma_1\dots\sigma_k=id\circ\sigma_1\dots\sigma_k, \
\tau=\tau_1\dots\tau_l=id\circ\tau_1\dots\tau_l.\end{displaymath}

Permutacja $id$ jest parzysta (ma $0$ transpozycji). Skoro mnożenie z prawej strony przez transpozycję liczb sąsiednich zmienia znak permutacji (uwaga 5.5), to

\begin{displaymath}sgn(\sigma)=\left\{\begin{array}{rl}1&\mbox{, gdy $k$ jest
parzysta}\\
-1&\mbox{, gdy $k$ jest nieparzysta}\end{array}\right.,\end{displaymath}


\begin{displaymath}sgn(\tau)=\left\{\begin{array}{rl}1&\mbox{, gdy $l$ jest
parz...
...1&\mbox{, gdy $l$ jest nieparzysta}\end{array}\right. \mbox{ i}\end{displaymath}


\begin{displaymath}sgn(\sigma\tau)=\left\{\begin{array}{rl}1&\mbox{, gdy $k+l$ j...
...}\\
-1&\mbox{, gdy $k+l$ jest nieparzysta}\end{array}\right. .\end{displaymath}

Dlatego $sgn(\sigma\tau)=sgn(\sigma)\cdot sgn(\tau)$.


Uwaga 5.7   $sgn(\sigma)=sgn(\sigma^{-1})$.

Dowód. $sgn(\sigma)\cdot sgn(\sigma^{-1})=sgn(\sigma\sigma^{-1})=sgn(id)=1.$


Wracamy teraz do wyznacznika.

Fakt 5.8   Załóżmy, że funkcja $\det$ spełnia D1-D4. Wtedy
1) jeśli pewne $A_i=O$, to $\det(A_1,\dots,A_n)=0$,
2) dla $j\neq i$ oraz $t\in R$,

\begin{displaymath}\det(A_1,\dots,\overbrace{A_i+tA_j}^i,\dots,A_n)=\det(A_1,\dots,\overbrace{A_i}^i,\dots,A_n)\end{displaymath}

(indeks $i$ nad nawiasem klamrowym oznacza $i$-tą kolumnę),
3) dla $\sigma\in S_n,\
\det(A_{\sigma(1)},A_{\sigma(2)},\dots,A_{\sigma(n)})=sgn(\sigma)\det(A_1,\dots,A_n)$,
4) jeśli dla pewnych $i\neq j, A_i=A_j$, to $\det(A_1,\dots,A_n)=0$.

Dowód. 1) Gdy $A_i=O$, to $A_i=0A_i$, zatem na mocy D2 (dla $t=0$) dostajemy

\begin{displaymath}\det(A_1,\dots,A_n)=\det(A_1,\dots,0A_i,\dots,A_n)=0\cdot\det(A_1,\dots,A_n)=0.\end{displaymath}

3) Na mocy D3,

\begin{displaymath}\det(A_1,\dots,\overbrace{A_i+A_{i+1}}^i,\overbrace{A_i+A_{i+1}}^{i+1},\dots,A_n)=0.\end{displaymath}

Z drugiej strony, na mocy D1,

\begin{displaymath}\det(\dots,\overbrace{A_i+A_{i+1}}^i,\overbrace{A_i+A_{i+1}}^{i+1},\dots)=\end{displaymath}


\begin{displaymath}\det(\dots,\overbrace{A_i}^i,\overbrace{A_i}^{i+1},\dots)+\det(\dots,\overbrace{A_i}^i,\overbrace{A_{i+1}}^{i+1},\dots)+\end{displaymath}


\begin{displaymath}\det(\dots,\overbrace{A_{i+1}}^i,\overbrace{A_i}^{i+1},\dots)...
...t(\dots,\overbrace{A_{i+1}}^i,\overbrace{A_{i+1}}^{i+1},\dots)=\end{displaymath}


\begin{displaymath}\det(\dots,\overbrace{A_i}^i,\overbrace{A_{i+1}}^{i+1},\dots)+\det(\dots,\overbrace{A_{i+1}}^i,\overbrace{A_i}^{i+1},\dots),\end{displaymath}

gdyż na mocy D3, $\det(\dots,A_i,A_i,\dots)=0=\det(\dots,A_{i+1},A_{i+1},\dots)$.

Dlatego $\det(\dots,A_i,A_{i+1},\dots)+\det(\dots,A_{i+1},A_i,\dots)=0$, czyli

\begin{displaymath}\det(\dots,A_{i+1},A_i,\dots)=-\det(\dots,A_i,A_{i+1},\dots).\end{displaymath}

Zatem (3) zachodzi dla szczególnego przypadku $\sigma=(i,i+1)$.

Niech teraz $\sigma\in S_n$ będzie dowolne. Na mocy uwagi 5.2 $\sigma$ jest iloczynem transpozycji liczb sąsiednich: $\sigma=\sigma_1\dots\sigma_k$. Zatem $(A_{\sigma(1)},\dots,A_{\sigma(n)})$ powstaje z $(A_1,\dots,A_n)$ przez $k$ transpozycji kolumn sąsiednich, co zmienia znak $\det$ $k$-razy. Gdy $k$ jest parzyste, $sgn(\sigma)=1$. Gdy $k$ jest nieparzyste, $sgn(\sigma)=-1$. Stąd dostajemy (3).

4) Załóżmy, że $A_i=A_j$ dla pewnych $i\neq j$. Niech $\sigma\in S_n$ będzie permutacją taką, że $\sigma(1)=i$ i $\sigma(2)=j$. Wówczas $A_{\sigma(1)}=A_i=A_j=A_{\sigma(2)}$, więc na mocy D3 i (3)

\begin{displaymath}0=\det(A_{\sigma(1)},A_{\sigma(2)},\dots,A_{\sigma(n)})=sgn(\sigma)\cdot\det(A_1,\dots,A_n).\end{displaymath}

Dlatego $\det(A_1,\dots,A_n)=0$.

2) Na mocy D1 i D2:

\begin{displaymath}\det(\dots,\overbrace{A_i+tA_j}^i,\dots)=\end{displaymath}


\begin{displaymath}\det(\dots,\overbrace{A_i}^i,\dots)+t\det(\dots,\overbrace{A_...
...s,\overbrace{A_j}^j,\dots)=\det(\dots,\overbrace{A_i}^i,\dots),\end{displaymath}

gdyż

\begin{displaymath}\det(\dots,\overbrace{A_j}^i,\dots,\overbrace{A_j}^j,\dots)=0\end{displaymath}

na mocy (4).


Następne twierdzenie jest kluczem do dowodu istnienia funkcji $\det$.

Twierdzenie 5.9   Załóżmy, że $\det$ spełnia D1-D4, $A=[a_{ij}]_{n\times n},\
B=[b_{ij}]_{n\times n}$. Wtedy

\begin{displaymath}\det(AB)=\det(A)\cdot\sum_{\sigma\in S_n}sgn(\sigma)\cdot
b_{\sigma(1)1}\cdot b_{\sigma(2)2}\cdot\dots\cdot b_{\sigma(n)n}.\end{displaymath}

Dowód. Zapiszmy macierze $A$ i $AB$ w postaci ciągów kolumn: $A=(A_1,\dots,A_n),$ $AB=(C_1,\dots,C_n)$. Wówczas dla $t=1,\dots,n$

\begin{displaymath}C_t=b_{1t}A_1+b_{2t}A_2+\cdots+b_{nt}A_n=\sum_{j=1}^nb_{jt}A_j.\end{displaymath}

Dlatego $\det(AB)=\det(C_1,\dots,C_n)=$

\begin{displaymath}\det\left(\sum_{s_1=1}^nb_{s_11}A_{s_1},\sum_{s_2=1}^nb_{s_22}A_{s_2},\dots,\sum_{s_n=1}^nb_{s_nn}A_{s_n}\right)=\end{displaymath}

(na mocy D1-D3 oraz faktu 5.8)

\begin{displaymath}=\sum_{s_1=1}^nb_{s_11}\det\left(A_{s_1},\sum_{s_2}b_{s_22}A_{s_2},\dots,\sum_{s_n}b_{s_nn}A_{s_n}\right)=\cdots\end{displaymath}


\begin{displaymath}=\sum_{s_1=1}^nb_{s_11}\cdot\left(\sum_{s_2=1}^nb_{s_21}\cdot...
...nn}\cdot\det(A_{s_1},A_{s_2},\dots,A_{s_n})\right)\dots\right)=\end{displaymath}


\begin{displaymath}\sum_{s_1=1}^n\sum_{s_2=1}^n\dots\sum_{s_n=1}^nb_{s_11}\cdot\...
...\cdot
b_{s_nn}\cdot\det(A_{s_1},A_{s_2},\dots,A_{s_n})   (*)\end{displaymath}

W $(*)$ występuje wyznacznik $\det(A_{s_1},A_{s_2},\dots,A_{s_n})$.

Dla ustalonego układu liczb $1\leq s_1,s_2,\dots,s_n\leq n$ definiujemy funkcję $\sigma:\{1,\dots,n\}\rightarrow \{1,\dots,n\}$ wzorem $\sigma(i)=s_i$. Zwróćmy uwagę, że

\begin{displaymath}(A_{s_1},A_{s_2},\dots,A_{s_n})=(A_{\sigma(1)},A_{\sigma(2)},\dots,A_{\sigma(n)}).\end{displaymath}

Jeśli w ciągu $s_1,s_2,\dots,s_n$ jedna z liczb powtarza się, to w macierzy
$(A_{s_1},A_{s_2},\dots,A_{s_n})$ pewne dwie kolumny są równe, więc na mocy faktu 5.8(4) wówczas

\begin{displaymath}\det(A_{s_1},A_{s_2},\dots,A_{s_n})=0.\end{displaymath}

Jeśli w ciągu $s_1,s_2,\dots,s_n$ żadna liczba się nie powtarza, to $\sigma$ jest permutacją i na mocy faktu 5.8(3),

\begin{displaymath}\det(A_{s_1},A_{s_2},\dots,A_{s_n})=sgn(\sigma)\det(A_1,\dots,A_n).\end{displaymath}

Dlatego w $(*)$ sumowanie możemy ograniczyć do tych układów $1\leq s_1,s_2,\dots,s_n\leq n$, które odpowiadają permutacjom $\sigma\in S_n$. Wówczas

\begin{displaymath}b_{s_11}\cdot b_{s_22}\cdot\dots\cdot b_{s_nn}=b_{\sigma(1)1}\cdot
b_{\sigma(2)2}\cdot\dots\cdot b_{\sigma(n)n},\end{displaymath}

więc

\begin{displaymath}(*)=\sum_{\sigma\in S_n} sgn(\sigma)\cdot b_{\sigma(1)1}\cdot
b_{\sigma(2)2}\cdot\dots\cdot b_{\sigma(n)n}\cdot\det(A)=\end{displaymath}


\begin{displaymath}\det(A)\cdot \sum_{\sigma\in S_n} sgn(\sigma)\cdot b_{\sigma(1)1}\cdot
b_{\sigma(2)2}\cdot\dots\cdot b_{\sigma(n)n}.\end{displaymath}

Na mocy D4, $\det(I)=1$. Przyjmując w twierdzeniu 5.9 $A=I$ dostajemy następujący wniosek.

Wniosek 5.10   Jeśli $\det$ spełnia D1-D4, to

\begin{displaymath}(\dagger)  \det[b_{ij}]_{n\times n}=\sum_{\sigma\in S_n}sgn...
...{\sigma(1)1}\cdot b_{\sigma(2)2}\cdot\dots\cdot
b_{\sigma(n)n}.\end{displaymath}

Używając tego wniosku możemy już udowodnić istnienie jedynej funkcji $\det$ spełniającej D1-D4.

Twierdzenie 5.11   Istnieje dokładnie jedna funkcja $\det:M_{n\times n}({\mathbb{R}})\rightarrow
{\mathbb{R}}$ spełniająca D1-D4. Wyraża się ona wzorem $(\dagger)$.

Dowód. (idea) Sprawdzamy rachunkowo, że funkcja $\det$ zadana wzorem $(\dagger)$ spełnia aksjomaty D1-D4. Jedyność wynika z wniosku 5.10.


Z twierdzeń 5.9 i 5.11 wynika następujący wniosek.

Wniosek 5.12 (twierdzenie Cauchy'ego)   $\det(A\cdot
B)=\det(A)\cdot\det(B)$.

Kolejne twierdzenie pokazuje, że funkcja wyznacznika dostarcza prostego kryterium do sprawdzania, czy macierz $A$ jest odwracalna (znalezienie takiego kryterium było celem tego rozdziału).

Twierdzenie 5.13   $\det(A)\neq 0\iff$ macierz $A$ jest odwracalna.

Dowód. $\Rightarrow.$ Jeśli $A=(A_1,\dots,A_n)$ nie jest odwracalna, to jej kolumny $A_1,\dots,A_n$ są liniowo zależne (wniosek 4.14), więc na przykład

\begin{displaymath}A_1=\sum_{i=2}^nt_iA_i\end{displaymath}

dla pewnych $t_i\in {\mathbb{R}}$ (inne przypadki są analogiczne). Wtedy na mocy D1,D2 i faktu 5.5(4)

\begin{displaymath}\det(A_1,\dots,A_n)=\det(\sum_{i=2}^nt_iA_i,A_2,\dots,A_n)=\sum_{i=2}^nt_i\det(A_i,A_2,\dots,A_n)=0.\end{displaymath}

$\Leftarrow.$ Załóżmy, że $A$ jest odwracalna. Wtedy istnieje macierz odwrotna $A^{-1}$ taka, że $A\cdot A^{-1}=I$. Z twierdzenia Cauchy'ego dostajemy $\det(A)\cdot\det(A^{-1})=\det(I)=1$, więc $\det(A)\neq 0$.


Dowód twierdzenia 5.13 pokazuje, że $\det(A^{-1})=(\det(A))^{-1}$.

Transpozycją macierzy $A=[a_{ij}]_{n\times m}$ nazywamy macierz $A^*=[a^*_{ij}]_{m\times n}$, gdzie $a^*_{ij}=a_{ji}$. Macierz $A^*$ nazywamy też macierzą transponowaną względem $A$. Innymi słowy, transpozycja polega na przestawieniu wierszy i kolumn danej macierzy. Na przykład dla macierzy $A=\left[\begin{array}{ccc}1&2&3\\
4&5&6\end{array}\right]$ macierz transponowana ma postać

\begin{displaymath}A^*=\left[\begin{array}{cc}1&4 2&5 3&6\end{array}\right].\end{displaymath}

Okazuje się, że transpozycja nie zmienia wyznacznika macierzy.

Twierdzenie 5.14   Dla macierzy $A=[a_{ij}]_{n\times n},\
\det(A)=\det(A^*)$.

Dowód. Niech $A^*=[a^*_{ij}]_{m\times n}$, gdzie $a^*_{ij}=a_{ji}$.

\begin{displaymath}\det(A)=\sum_{\sigma\in S_n}sgn(\sigma)\cdot
a_{\sigma(1)1}\cdot\dots\cdot a_{\sigma(n)n}=\end{displaymath}


\begin{displaymath}\sum_{\sigma\in S_n}
sgn(\sigma)\cdot a_{1\sigma^{-1}(1)}\cdot a_{2\sigma^{-1}(2)}\cdot\dots\cdot
a_{n\sigma^{-1}(n)}=\end{displaymath}

(gdyż iloczyny $a_{\sigma(1)1}\cdot\dots\cdot a_{\sigma(n)n}$ i $a_{1\sigma^{-1}(1)}\cdot a_{2\sigma^{-1}(2)}\cdot\dots\cdot
a_{n\sigma^{-1}(n)}$ różnią się tylko kolejnością czynników)

\begin{displaymath}=\sum_{\sigma\in S_n}sgn(\sigma)\cdot a^*_{\sigma^{-1}(1)1}\cdot
a^*_{\sigma^{-1}(2)2}\cdot\dots\cdot a^*_{\sigma^{-1}(n)n}=\end{displaymath}

(tu dokonujemy podstawienia $\tau=\sigma^{-1}$; gdy $\sigma$ przebiega $S_n$, $\tau$ również przebiega $S_n$, ponadto $sgn(\sigma)=sgn(\tau)$ (uwaga 5.7))

\begin{displaymath}=\sum_{\tau\in S_n}sgn(\tau)\cdot a^*_{\tau(1)1}\cdot\dots\cdot
a^*_{\tau(n)n}=\det(A^*).\end{displaymath}

Z twierdzenia 5.14 wynika, że wszystkie własności wyznacznika wyrażone w terminach kolumn macierzy są prawdziwe w terminach wierszy.

Wniosek 5.15   Niech $A$ będzie macierzą kwadratową. Wówczas kolumny macierzy $A$ są liniowo niezależne $\iff$ wiersze macierzy $A$ są liniowo niezależne.

Dowód. Wiersze macierzy $A$ to kolumny macierzy $A^*$. Dlatego
kolumny macierzy $A$ są liniowo niezależne $\stackrel{4.14}{\iff}$ macierz $A$ jest odwracalna $\stackrel{5.13}{\iff}
\det(A)\neq 0
\stackrel{5.14}{\iff}
\det(A^*)\neq 0
\stackrel{4.14}{\iff}$ kolumny macierzy $A^*$ są liniowo niezależne $\iff$ wiersze macierzy $A$ są liniowo niezależne.

Wniosek 5.16   Załóżmy, że macierz kwadratowa $A$ ma kolumny
$A_1,\dots,A_n$ i wiersze $W_1,\dots,W_n$.
1) Następujące operacje nie zmieniają wyznacznika macierzy $A$.
a) Dodanie wektora $tA_j$ do $i$-tej kolumny ($j\neq i$).
b) Dodanie wektora $tW_j$ do $i$-tego wiersza ($j\neq i$).
2) Zamiana wierszy (lub kolumn) miejscami zmienia znak wyznacznika.
3) $\det\left[\begin{array}{lllcl}a_{11}&a_{12}&a_{13}&\cdots&a_{1n}\\
0&a_{22}&a...
...
0&0&0&\dots&a_{nn}\end{array}\right]=a_{11}\cdot a_{22}\cdot\dots\cdot a_{nn}$.

Dowód. (1) i (2) są łatwe. Dla dowodu (3) wykorzystamy wzór $(\dagger)$. W przypadku macierzy górnotrójkątnej występującej w (3), iloczyn występujący we wzorze $(\dagger)$ jako składnik sumy dla permutacji $\sigma\in S_n$ znika, gdy dla pewnego $i,\sigma(i)>i$ (gdyż wówczas w naszej macierzy $a_{\sigma(i)i}=0$). Zatem sumowanie można ograniczyć do permutacji $\sigma$ spełniających

\begin{displaymath}\sigma(i)\leq i\end{displaymath}

dla wszystkich $i=1,\dots,n$. łatwo jednak dowieść, że jedyną taką permutacją jest permutacja $id$, dla której $sgn(id)=1$. Stąd natychmiast wynika równość (3).


next up previous
Next: 6. Wyznacznik, zmiana bazy Up: Algebra liniowa II Previous: 4. Przekształcenia liniowe i
Ludomir Newelski 2005-09-21