Dreiecksmatrix

In der linearen Algebra , Dreiecksmatrizen sind quadratische Matrizen in dem ein dreieckiges Teil der Werte, die von dem begrenzten Hauptdiagonale , Null ist.

Vorbemerkung

Im Folgenden werden wir einen betrachten einheitlichen Ring R , das ist nicht notwendigerweise kommutativ , R -Module auf der linken und R-Module auf der rechten Seite . Der Leser, der mit nichtkommutativen Ringen und linken oder rechten Modulen nicht vertraut ist, kann annehmen, dass der R- Ring kommutativ ist und keine Passagen liest, bei denen die entgegengesetzte Annahme gemacht wird. Wenn der Ring R kommutativ ist, fallen die R- Module links und die R- Module rechts zusammen und sind einfach die R- Module. Ebenso kann der Leser, der mit Modulen nicht vertraut ist, annehmen, dass R ein Feld ist, und keine Passagen lesen, bei denen die entgegengesetzte Annahme gemacht wird. Wenn R ein Feld ist, sind die R- Module links (bzw. rechts) die R- Vektorräume links (bzw. rechts). Wenn der Leser nicht mit nichtkommutativen Feldern und linken und rechten Vektorräumen vertraut ist, kann er schließlich annehmen, dass R ein kommutatives Feld ist und keine Passagen liest, in denen entgegengesetzte Annahmen getroffen werden. Wenn R ein kommutatives Feld ist, stimmen die R- Module links und rechts mit den R- Vektorräumen überein .

Obere dreieckige Matrizen

Sei R ein einheitlicher Ring . Per Definition ist eine höhere Dreiecksmatrix mit Koeffizienten in R eine quadratische Matrix mit Koeffizienten in R, deren Werte unter der Hauptdiagonale Null sind:

A ist genau dann oberes Dreieck, wenn  :

Untere dreieckige Matrizen

Sei R ein einheitlicher Ring. Per Definition ist eine untere Dreiecksmatrix mit Koeffizienten in R eine quadratische Matrix mit Koeffizienten in R, deren Werte über der Hauptdiagonale Null sind:

A ist genau dann unter dreieckig, wenn:

Eigenschaften dreieckiger Matrizen

Demonstration

Lassen Sie uns durch Induktion in der Größenordnung n der normalen Matrix A (z. B. oberes Dreieck) argumentieren. Wenn n = 1 ist, gibt es nichts zu beweisen. Wenn n > 1 ist, teilen wir A in Blöcke auf  : wobei L ( Zeilenmatrix ) und B (oberes Dreieck) in der Ordnung n - 1 liegen. Dann insbesondere LL * = 0 - das heißt, dass die Summe der Quadrate der Module der Koeffizienten von L Null ist - daher L = 0. Folglich ist L * L = 0. Somit ist B daher normal (durch Induktion) Hypothese) diagonal, so A zu.

Gegenbeispiel

Sei R ein Ring und a , b Elemente von R, so dass ab = 1 und ba ≠ 1 ist.

(Der Fall erfüllt ist : Nehmen für R den Ring von Endomorphismen eines Vektorraums ein Einlassen unendlichen zählbaren Basis v 0 , v 1 ..., die Multiplikation in diesem Ring wobei die Zusammensetzung ∘ definiert durch f ∘ g  : x ↦ f ( g ( x )).

Nehmen wir zum einen die linke Shift - Operator , das gilt v 0 auf 0 und, für alle i mindestens gleich 1, gilt v i bis v i -1 . Nehmen Sie für b den Rechtsverschiebungsendomorphismus, der für alle i v i auf v i +1 abbildet . Dann ist a ∘ b = id, aber b ∘ a ( v 0 ) = 0, also b ∘ a ≠ id.) Aus den Beziehungen ab = 1 und ba ≠ 1 folgt, dass a und b nicht invertierbar sind. Die untere Dreiecksmatrix ist invertierbar, da die Berechnung zeigt, dass die Matrix ist in links und rechts umgekehrt von A umgekehrt . Die diagonalen Elemente von A sind jedoch a und b , die, wie wir gesehen haben, in R nicht reversibel sind . Wir sehen auch, dass die Umkehrung von A nicht niedriger dreieckig ist (was sich angesichts der Eigenschaft der Diagonale des Produkts zweier unterer dreieckiger Matrizen auch aus der Tatsache ergibt, dass die diagonalen Koeffizienten von A nicht invertierbar sind).

Demonstration

Ist beispielsweise A eine invertierbare obere Dreiecksmatrix der Größe N Koeffizienten , die in dem Körper R . Wenn absurderweise der i- te Diagonalkoeffizient von A Null ist, werden die i ersten Spalten von A im R- Vektorraum rechts R n durch die ersten i- 1-Vektoren der kanonischen Basis von erzeugt Dieser Raum ist daher verwandt , so dass die Familie der Spaltenvektoren von A keine Basis des R- Vektorraums auf der rechten Seite R n ist . Daraus folgt, dass die Matrix A im Widerspruch zu R nicht invertierbar ist.

Anmerkungen und Referenzen

  1. Wenn R kommutativ ist, ist dies ein Sonderfall des Cayley-Hamilton-Theorems . Aber wir können es viel elementarer und für jedes R demonstrieren , wie in dieser Übung aus der Lektion "Matrix" über Wikiversity korrigiert .
  2. (in) Gene H. Golub und Charles F. Van Loan  (in) , Matrix Computations , Johns Hopkins University Press ,1996, 3 e  ed. 694  p. ( ISBN  978-0-8018-5414-9 , online lesen ) , p.  318, Problem P7.1.1.
  3. (in) Yousef Saad  (in) , Iterative Methoden für spärliche lineare Systeme: Zweite Ausgabe , SIAM ,2003, 2 nd  ed. 528  p. ( ISBN  978-0-89871-534-7 , online lesen ) , p.  20.
  4. Die Multiplikation von Matrizen links oder rechts mit Skalaren verleiht der additiven Gruppe M n ( R ) eine Struktur des R- Moduls links oder rechts (diese beiden Strukturen fallen zusammen, wenn der Ring R kommutativ ist).
  5. N. Bourbaki , Algebra, I, Kapitel 1 bis 3 , Paris,1970, p.  III.12.
  6. Siehe zum Beispiel Bourbaki 1970 , p.  II.152.
  7. Dieses Gegenbeispiel ist eine Lösung von Bourbaki 1970 , § 10, Übung. 2, b, p. II.205.
  8. Siehe zum Beispiel Bourbaki 1970 , p.  II.150.

Zum Thema passende Artikel

Lie-Kolchin-Theorem

<img src="https://fr.wikipedia.org/wiki/Special:CentralAutoLogin/start?type=1x1" alt="" title="" width="1" height="1" style="border: none; position: absolute;">