Dreiecksmatrix
In der linearen Algebra , Dreiecksmatrizen sind quadratische Matrizen in dem ein dreieckiges Teil der Werte, die von dem begrenzten Hauptdiagonale , Null ist.
Vorbemerkung
Im Folgenden werden wir einen betrachten einheitlichen Ring R , das ist nicht notwendigerweise kommutativ , R -Module auf der linken und R-Module auf der rechten Seite . Der Leser, der mit nichtkommutativen Ringen und linken oder rechten Modulen nicht vertraut ist, kann annehmen, dass der R- Ring kommutativ ist und keine Passagen liest, bei denen die entgegengesetzte Annahme gemacht wird. Wenn der Ring R kommutativ ist, fallen die R- Module links und die R- Module rechts zusammen und sind einfach die R- Module. Ebenso kann der Leser, der mit Modulen nicht vertraut ist, annehmen, dass R ein Feld ist, und keine Passagen lesen, bei denen die entgegengesetzte Annahme gemacht wird. Wenn R ein Feld ist, sind die R- Module links (bzw. rechts) die R- Vektorräume links (bzw. rechts). Wenn der Leser nicht mit nichtkommutativen Feldern und linken und rechten Vektorräumen vertraut ist, kann er schließlich annehmen, dass R ein kommutatives Feld ist und keine Passagen liest, in denen entgegengesetzte Annahmen getroffen werden. Wenn R ein kommutatives Feld ist, stimmen die R- Module links und rechts mit den R- Vektorräumen überein .
Obere dreieckige Matrizen
Sei R ein einheitlicher Ring . Per Definition ist eine höhere Dreiecksmatrix mit Koeffizienten in R eine quadratische Matrix mit Koeffizienten in R, deren Werte unter der Hauptdiagonale Null sind:
BEIM=((beimich,j)=((beim1,1beim1,2⋯⋯beim1,nicht0beim2,2beim2,nicht⋮⋱⋱⋮⋮⋱⋱⋮0⋯⋯0beimnicht,nicht){\ displaystyle A = (a_ {i, j}) = {\ begin {pmatrix} a_ {1,1} & a_ {1,2} & \ cdots & \ cdots & a_ {1, n} \\ 0 & a_ {2, 2} &&& a_ {2, n} \\\ vdots & \ ddots & \ ddots && \ vdots \\\ vdots && \ ddots & \ ddots & \ vdots \\ 0 & \ cdots & \ cdots & 0 & a_ {n, n} \\ \ end {pmatrix}}}A ist genau dann oberes Dreieck, wenn :
∀ich>j,beimich,j=0{\ displaystyle \ forall i> j, \ quad a_ {i, j} = 0}
Untere dreieckige Matrizen
Sei R ein einheitlicher Ring. Per Definition ist eine untere Dreiecksmatrix mit Koeffizienten in R eine quadratische Matrix mit Koeffizienten in R, deren Werte über der Hauptdiagonale Null sind:
BEIM=((beimich,j)=((beim1,10⋯⋯0beim2,1beim2,2⋱⋮⋮⋱⋱⋮⋮⋱0beimnicht,1beimnicht,2⋯⋯beimnicht,nicht){\ displaystyle A = (a_ {i, j}) = {\ begin {pmatrix} a_ {1,1} & 0 & \ cdots & \ cdots & 0 \\ a_ {2,1} & a_ {2,2 } & \ ddots && \ vdots \\\ vdots && \ ddots & \ ddots & \ vdots \\\ vdots &&& \ ddots & 0 \\ a_ {n, 1} & a_ {n, 2} & \ cdots & \ cdots & a_ {n, n} \\\ end {pmatrix}}}A ist genau dann unter dreieckig, wenn:
∀ich<j,beimich,j=0.{\ displaystyle \ forall i <j, \ quad a_ {i, j} = 0.}
Eigenschaften dreieckiger Matrizen
- Die Transponierte einer oberen Dreiecksmatrix ist eine untere Dreiecksmatrix und umgekehrt.
- Sowohl eine untere als auch eine obere Dreiecksmatrix ist eine Diagonalmatrix .
- Eine streng dreieckige Matrix A ∈ M n ( R ) , dh dreieckig und mit diagonalen Koeffizienten von Null, ist nicht potent, weil A n = 0 ist.
- Wenn eine normale Matrix (mit komplexen Koeffizienten ) dreieckig ist, ist sie diagonal.
Demonstration
Lassen Sie uns durch Induktion in der Größenordnung n der normalen Matrix A (z. B. oberes Dreieck) argumentieren. Wenn n = 1 ist, gibt es nichts zu beweisen. Wenn n > 1 ist, teilen wir A in Blöcke auf :
BEIM=((beimL.0B.){\ displaystyle A = {\ begin {pmatrix} a & L \\ 0 & B \ end {pmatrix}}}
wobei L ( Zeilenmatrix ) und B (oberes Dreieck) in der Ordnung n - 1 liegen. Dann
((|beim|2⋯⋯L.∗L.+B.∗B.)=BEIM∗BEIM=BEIMBEIM∗=((|beim|2+L.L.∗⋯⋯B.B.∗){\ displaystyle {\ begin {pmatrix} | a | ^ {2} & \ cdots \\\ cdots & L ^ {*} L + B ^ {*} B \ end {pmatrix}} = A ^ {*} A. = AA ^ {*} = {\ begin {pmatrix} | a | ^ {2} + LL ^ {*} & \ cdots \\\ cdots & BB ^ {*} \ end {pmatrix}}}
insbesondere LL * = 0 - das heißt, dass die Summe der Quadrate der Module der Koeffizienten von L Null ist - daher L = 0. Folglich ist L * L = 0. Somit ist B daher normal (durch Induktion) Hypothese) diagonal, so A zu.
- Wenn A und B sind zwei untere (bzw. obere) dreieckige Matrizen der Ordnung n dann A + B und - A zu. In der abelschen Gruppe (M n ( R ), +) von Matrizen mit n Zeilen und n Spalten mit Koeffizienten in R bilden daher die Matrizen, die niedriger dreieckig (bzw. höher) sind, eine Untergruppe .
- Wenn A ein unteres Dreieck (bzw. ein oberes) ist, dann sind auch λ A und A λ für jeden Skalar λ. Die Matrizen, die unteres (bzw. oberes) Dreieck sind, bilden daher ein Subbimodul des RR - Bimoduls M n ( R ).
- Wenn A und B zwei untere (bzw. obere) Dreiecksmatrizen der Ordnung n sind, dann auch AB .
- Da in M n (R) die Identitätsmatrix diagonal ist und daher sowohl das obere Dreieck als auch das untere Dreieck, zeigen die beiden vorhergehenden Punkte, dass die Menge der oberen (bzw. unteren) Dreiecksmatrizen ein Teilring von M n ( R) ist ). Wenn der Ring R kommutativ ist, ist dieser Teilring sogar eine (im Allgemeinen nicht kommutative) Subalgebra von M n ( R ).
- Wenn A = ( a i, j ) , i, j und B = ( b i, j ) , i, j sind obere (resp. Lower) dreieckigen M n ( R ) Matrizen , die i diagonalen Koeffizient der -te AB ist ein i , i b i, i . Mit anderen Worten ist die Diagonale AB die Komponente, die durch die Diagonalkomponente von A und B erzeugt wird .
- Wenn der Ring R kommutativ ist, ist die Determinante einer Dreiecksmatrix mit Koeffizienten in R das Produkt ihrer Diagonalkoeffizienten:det((((beimich,j)((ich,j)∈[[1;;nicht]]]]2)=∏ich=1nichtbeimich,ich.{\ displaystyle \ det \ left ((a_ {i, j}) _ {(i, j) \ in [\! [1; n] \!] ^ {2}} \ right) = \ prod _ {i = 1} ^ {n} a_ {i, i}.}(Wenn die Matrix ein oberes Dreieck hat, erweitern Sie sie gemäß den Minderjährigen der ersten Spalte und begründen Sie sie durch Induktion auf die Größe der Matrix. Wenn die Matrix ein unteres Dreieck hat, erweitern Sie sie gemäß den Minderjährigen der ersten Zeile.)
- Wenn R ein kommutatives Feld ist und A eine dreieckige Matrix mit Koeffizienten in R ist , sind die Eigenwerte von A seine diagonalen Koeffizienten. (Tatsächlich ist die Matrix X Id - A auch dreieckig, daher ist gemäß dem vorherigen Punkt die Determinante dieser Matrix, dh das charakteristische Polynom von A , gleich dem Produkt von X - a i, i , wo a i, i die diagonalen Koeffizienten von A durchquert . )
- Wenn A eine obere (bzw. untere) Dreiecksmatrix ist, die zu M n ( R ) gehört, und wenn alle Diagonalkoeffizienten von A im Ring R invertierbar sind, ist die Matrix A im Ring M n (R) invertierbar . In diesem Fall ist seine Umkehrung auch eine obere Dreiecksmatrix (bzw. eine untere). Aus dem vorletzten Punkt der Diagonalkoeffizienten der Inversen von A folgt dann, dass die Diagonalkoeffizienten von A umgekehrt sind und in R reversibel sind . Die oberen (bzw. unteren) Dreiecksmatrizen von M n ( R ), deren Koeffizienten in R invertierbar sind, bilden also eine Untergruppe der multiplikativen Gruppe GL ( n , R ) (multiplikative Gruppe der invertierbaren Elemente von M n ( R )).
- Die Umkehrung der ersten Anweisung des vorherigen Punkt ist in aller Allgemeinheit nicht wahr ist , in dem Sinne , dass wir einen Ring finden R , eine ganze natürliche Zahl n und einer Dreiecksmatrix , die zu M n ( R ) , die in M invertierbar ist n ( R ), deren Diagonalkoeffizienten jedoch nicht alle invertierbar sind. (Wir werden später sehen, dass ein solcher Ring kein Feld sein und nicht kommutativ sein kann.)
Gegenbeispiel
Sei R ein Ring und a , b Elemente von R, so dass ab = 1 und ba ≠ 1 ist.
(Der Fall erfüllt ist : Nehmen für R den Ring von Endomorphismen eines Vektorraums ein Einlassen unendlichen zählbaren Basis v 0 , v 1 ..., die Multiplikation in diesem Ring wobei die Zusammensetzung ∘ definiert durch f ∘ g : x ↦ f ( g ( x )).
Nehmen wir zum einen die linke Shift - Operator , das gilt v 0 auf 0 und, für alle i mindestens gleich 1, gilt v i bis v i -1 . Nehmen Sie für b den Rechtsverschiebungsendomorphismus, der für alle i v i auf v i +1 abbildet . Dann ist a ∘ b = id, aber b ∘ a ( v 0 ) = 0, also b ∘ a ≠ id.) Aus den Beziehungen ab = 1 und ba ≠ 1 folgt, dass a und b nicht invertierbar sind. Die untere Dreiecksmatrix
BEIM: =((beim01b){\ displaystyle A: = {\ begin {pmatrix} a & 0 \\ 1 & b \\\ end {pmatrix}}}ist invertierbar, da die Berechnung zeigt, dass die Matrix
B.: =((b1- -bbeim- -1beim){\ displaystyle B: = {\ begin {pmatrix} b & 1-ba \\ - 1 & a \\\ end {pmatrix}}}
ist in links und rechts umgekehrt von A umgekehrt . Die diagonalen Elemente von A sind jedoch a und b , die, wie wir gesehen haben, in R nicht reversibel sind . Wir sehen auch, dass die Umkehrung von A nicht niedriger dreieckig ist (was sich angesichts der Eigenschaft der Diagonale des Produkts zweier unterer dreieckiger Matrizen auch aus der Tatsache ergibt, dass die diagonalen Koeffizienten von A nicht invertierbar sind).
- Wenn andererseits der Ring R kommutativ ist, wenn eine Dreiecksmatrix mit Koeffizienten in R invertierbar ist, sind ihre diagonalen Koeffizienten invertierbar. In der Tat ist die Determinante dieser Matrix dann invertierbar. Wir haben gesehen, dass die Determinante dieser Matrix das Produkt ihrer Diagonalkoeffizienten ist, daher ist das Produkt der Diagonalkoeffizienten invertierbar, daher ist jeder Diagonalkoeffizient invertierbar.
- Wenn R ein Feld ist (nicht unbedingt kommutativ), wenn eine Dreiecksmatrix mit Koeffizienten in R invertierbar ist, sind ihre diagonalen Koeffizienten invertierbar, dh (da R ein Feld ist) nicht Null.
Demonstration
Ist beispielsweise A eine invertierbare obere Dreiecksmatrix der Größe N Koeffizienten , die in dem Körper R . Wenn absurderweise der i- te Diagonalkoeffizient von A Null ist, werden die i ersten Spalten von A im R- Vektorraum rechts R n durch die ersten i- 1-Vektoren der kanonischen Basis von erzeugt Dieser Raum ist daher verwandt , so dass die Familie der Spaltenvektoren von A keine Basis des R- Vektorraums auf der rechten Seite R n ist . Daraus folgt, dass die Matrix A im Widerspruch zu R nicht invertierbar ist.
Anmerkungen und Referenzen
-
Wenn R kommutativ ist, ist dies ein Sonderfall des Cayley-Hamilton-Theorems . Aber wir können es viel elementarer und für jedes R demonstrieren , wie in dieser Übung aus der Lektion "Matrix" über Wikiversity korrigiert .
-
(in) Gene H. Golub und Charles F. Van Loan (in) , Matrix Computations , Johns Hopkins University Press ,1996, 3 e ed. 694 p. ( ISBN 978-0-8018-5414-9 , online lesen ) , p. 318, Problem P7.1.1.
-
(in) Yousef Saad (in) , Iterative Methoden für spärliche lineare Systeme: Zweite Ausgabe , SIAM ,2003, 2 nd ed. 528 p. ( ISBN 978-0-89871-534-7 , online lesen ) , p. 20.
-
Die Multiplikation von Matrizen links oder rechts mit Skalaren verleiht der additiven Gruppe M n ( R ) eine Struktur des R- Moduls links oder rechts (diese beiden Strukturen fallen zusammen, wenn der Ring R kommutativ ist).
-
N. Bourbaki , Algebra, I, Kapitel 1 bis 3 , Paris,1970, p. III.12.
-
Siehe zum Beispiel Bourbaki 1970 , p. II.152.
-
Dieses Gegenbeispiel ist eine Lösung von Bourbaki 1970 , § 10, Übung. 2, b, p. II.205.
-
Siehe zum Beispiel Bourbaki 1970 , p. II.150.
Zum Thema passende Artikel
Lie-Kolchin-Theorem
<img src="https://fr.wikipedia.org/wiki/Special:CentralAutoLogin/start?type=1x1" alt="" title="" width="1" height="1" style="border: none; position: absolute;">