Definitheit

Eigenschaft von Matrizen

Definitheit ist ein Begriff aus dem mathematischen Teilgebiet der linearen Algebra. Er beschreibt, welche Vorzeichen reelle quadratische Formen annehmen können, die durch Matrizen oder allgemeiner durch Bilinearformen erzeugt werden.

Definitheit von Bilinearformen und Sesquilinearformen

Bearbeiten

Es sei   ein Vektorraum über den reellen (oder komplexen) Zahlen.

Eine symmetrische Bilinearform   (beziehungsweise eine hermitesche Sesquilinearform  ) heißt

positiv definit, falls  
positiv semidefinit, falls  
negativ definit, falls  
negativ semidefinit, falls  

jeweils für alle  ,  , gilt. Man beachte, dass auch im komplexen Fall wegen der geforderten Hermitizität   stets reell ist.
Trifft keine dieser Bedingungen zu, heißt die Form indefinit. Genau in diesem Fall nimmt   sowohl positive als auch negative Werte an.

Die obigen Bedingungen bedeuten also, dass die zugehörige quadratische Form   positiv definit, positiv semidefinit, negativ definit, negativ semidefinit bzw. indefinit ist.

Gelegentlich werden diese Begriffe im reellen Fall auch für beliebige, nicht notwendig symmetrische Bilinearformen eingeführt. (Im komplexen Fall müsste man zusätzlich fordern, dass für alle   der Wert   reell ist. Daraus folgt jedoch schon, dass die Sesquilinearform hermitesch ist.)

Eine positiv definite symmetrische Bilinearform (bzw. hermitesche Sesquilinearform) heißt Skalarprodukt. Beispielsweise ist das Standardskalarprodukt auf dem   (bzw.  ) positiv definit.

Definitheit von Matrizen

Bearbeiten

Definitionen

Bearbeiten

Jede quadratische Matrix beschreibt eine Bilinearform auf   (bzw. eine Sesquilinearform auf  ). Man nennt eine quadratische Matrix deshalb positiv definit, wenn diese Eigenschaft auf die durch die Matrix definierte Bilinearform bzw. Sesquilinearform zutrifft. Entsprechend definiert man auch die anderen Eigenschaften. Dies bedeutet: Eine beliebige (ggf. symmetrische bzw. hermitesche)  -Matrix   ist

positiv definit, falls  
positiv semidefinit, falls  
negativ definit, falls  
negativ semidefinit, falls  

für alle  -zeiligen Spaltenvektoren   mit  , wobei   der Zeilenvektor ist, der aus dem Spaltenvektor   durch Transponieren hervorgeht.

Im komplexen Fall muss der Vektor   auf der linken Seite zum Zeilenvektor transponiert und zusätzlich komplex-konjugiert werden (hermitesch Adjungiertes,   statt lediglich  ). Damit die Ungleichungen einen Sinn ergeben, muss die linke Seite für jedes mögliche   reell sein. Dies ist genau dann der Fall, wenn die Matrix   hermitesch ist.

Eine Matrix, die weder positiv noch negativ semidefinit ist, nennt man „indefinit“. Genau dann nimmt   (bzw.  ) sowohl positive als auch negative Werte an.

Manche Autoren verwenden als englisch abuse of notation  ,   usw. für die Definitheit statt  ,   usw.

Kriterien für Definitheit

Bearbeiten

Eigenwerte

Bearbeiten

Eine quadratische symmetrische (bzw. hermitesche) Matrix ist genau dann

positiv definit, wenn alle Eigenwerte größer als null sind;
positiv semidefinit, wenn alle Eigenwerte größer oder gleich null sind;
negativ definit, wenn alle Eigenwerte kleiner als null sind;
negativ semidefinit, wenn alle Eigenwerte kleiner oder gleich null sind und
indefinit, wenn positive und negative Eigenwerte existieren.

Damit kann jedes Verfahren zur Bestimmung oder Abschätzung von Eigenwerten benutzt werden, um die Definitheit der Matrix zu bestimmen. Eine Möglichkeit sind die Gerschgorin-Kreise, die es erlauben, das Spektrum zumindest abzuschätzen. Dies reicht häufig schon aus, um die Definitheit zu bestimmen. Die Gerschgorin-Kreise geben anhand der Einträge der Matrix Mengen in der komplexen Ebene an, in denen die Eigenwerte enthalten sind, im Falle von symmetrischen Matrizen Intervalle auf der reellen Achse. Damit ist es manchmal einfach möglich, die Definitheit einer Matrix zu bestimmen. Einzelheiten hierzu, insbesondere über die Signatur von symmetrischen Bilinearformen und Matrizen, siehe Trägheitssatz von Sylvester.

Hauptminoren

Bearbeiten

Eine symmetrische bzw. hermitesche Matrix   ist genau dann positiv definit, wenn alle führenden Hauptminoren von   positiv sind. Aus der Tatsache, dass   genau dann negativ definit ist, wenn   positiv definit ist, ergibt sich:   ist genau dann negativ definit, wenn die Vorzeichen der führenden Hauptminoren alternieren, das heißt, falls alle ungeraden führenden Hauptminoren negativ und alle geraden positiv sind.

Bemerkungen

  • Für Semidefinitheit gibt es kein Kriterium, das nur die führenden Hauptminoren berücksichtigen würde,[1] was schon an der Diagonalmatrix mit Einträgen 0 und −1 zu sehen ist. Sollen die entsprechenden Aussagen vielmehr auch für den Fall der Semidefinitheit gelten, müssen im Fall positiver Semidefinitheit nun alle, nicht nur die führenden Hauptminoren nichtnegativ, im Fall negativer Semidefinitheit alle ungeraden Hauptminoren nichtpositiv sowie alle geraden Hauptminoren nichtnegativ sein.
  • Für nicht-hermitesche Matrizen gilt das Kriterium nicht. Ein Beispiel dafür ist die indefinite Matrix  , deren führende Hauptminoren gleichwohl beide positiv sind.
  • Das Kriterium wird oft auch Sylvester-Kriterium genannt. Vereinzelt wird auch die Bezeichnung „Hurwitz-Kriterium“ verwendet, obwohl sich dieses ursprünglich nur auf Hurwitz-Matrizen bezog.

Gaußsches Eliminationsverfahren

Bearbeiten

Eine reelle symmetrische quadratische Matrix   ist genau dann positiv definit, wenn das Gaußsche Eliminationsverfahren bei Diagonalstrategie, das heißt ohne Zeilenvertauschungen, mit n positiven Pivotelementen durchgeführt werden kann. Diese Bedingung eignet sich vor allem für Fälle, in denen sowieso das Gauß-Verfahren angewandt werden muss.

Cholesky-Zerlegung

Bearbeiten

Eine symmetrische Matrix   ist genau dann positiv definit, wenn es eine Cholesky-Zerlegung   gibt, wobei   eine reguläre untere Dreiecksmatrix ist.

Diagonaldominante Matrizen

Bearbeiten

Ist eine Matrix   symmetrisch und streng diagonaldominant und sind alle Diagonalelemente von   positiv, so ist   positiv definit.[2]

Die Umkehrung gilt nicht. Die Matrix

 

ist zwar positiv definit, aber nicht streng diagonaldominant.

Symmetrischer Anteil bei allgemeinen Matrizen

Bearbeiten

Eine reelle quadratische Matrix  , die nicht notwendig symmetrisch ist, ist genau dann positiv definit, wenn ihr symmetrischer Teil

 

positiv definit ist. Entsprechendes gilt für „negativ definit“ und „positiv“ bzw. „negativ semidefinit“.

Bei komplexen Matrizen A ist die Situation völlig anders. Man kann für jede komplexe Matrix A den hermiteschen Anteil   und den schiefhermiteschen Anteil   betrachten.

Die Matrix   ist dann hermitesch, es gilt   und  .   ist genau dann positiv definit, wenn der schiefhermitesche Anteil   gleich 0 und der hermitesche Anteil  , der demzufolge mit   übereinstimmt, positiv definit ist.

Hinreichendes Kriterium für positive Semidefinitheit

Bearbeiten

Für eine beliebige reelle Matrix   sind sowohl die Matrix   als auch die Matrix   stets symmetrisch und positiv semidefinit, denn aufgrund der Verschiebungseigenschaft des Standardskalarprodukts gilt für alle  

 

und für alle  

 .

Abweichende Bezeichnungen

Bearbeiten

Matrizen, die hier als positiv semidefinit bezeichnet werden, werden in der Literatur häufig auch als nichtnegativ definit (non-negative definit) bezeichnet.[3][4][5][6][7][8][9][10][11][12] Von diesen Autoren wird eine Matrix   dann – abweichend von obiger Definition – als positiv semidefinit bezeichnet, wenn sie positiv semidefinit im Sinn der obigen Definition ist, aber nicht positiv definit ist, wenn also

 

und

 

gilt. Bei diesen Autoren sind also die positiv definiten Matrizen keine Teilmenge der positiv semidefiniten Matrizen.

Bedeutung

Bearbeiten
  • Ist die Matrix   symmetrisch (hermitesch) und positiv definit, dann wird durch   (beziehungsweise  ) ein Skalarprodukt definiert.
  • Die Einschränkung einer positiv definiten Bilinear- bzw. Sesquilinearform auf einen Untervektorraum ist wieder positiv definit, insbesondere also nicht ausgeartet. Diese Tatsache ermöglicht die Zerlegung eines Raumes in einen Untervektorraum und dessen orthogonales Komplement.
  • Die Definitheit der Hesse-Matrix spielt bei der Untersuchung von kritischen Stellen einer Funktion  , also der Extremwertberechnung, eine entscheidende Rolle.
  • Die symmetrischen positiv semidefiniten Matrizen bilden im Matrizenraum   einen Kegel, den sogenannten positiv semidefiniten Kegel. Dasselbe gilt auch für symmetrische negativ semidefinite Matrizen.
  • Eine schwach positiv definite Matrix kann man immer als Multiplikation zweier positiv definiter Matrizen schreiben. Insbesondere ist dann auch jede positiv definite Matrix eine schwach positiv definite Matrix.[13]
  • Die Notation   (resp.  ) für zwei Matrizen   und   wird häufig verwendet, um zu sagen, dass   positiv definit (resp. semidefinit) ist.

Siehe auch

Bearbeiten

Einzelnachweise

Bearbeiten
  1. On Sylvester’s Criterion for Positive-Semidefinite Matrices. (PDF) IEEE, Transaction on automatic control, Juni 1973 (englisch)
  2. Spezielle Matrixeigenschaften, Richard Reiner, 9126720, Gruppe: Next Generation, deutsch
  3. Horst Rinne: Taschenbuch der Statistik. 4. Auflage. Harri Deutsch, Frankfurt am Main 2008, ISBN 978-3-8171-1827-4, Abschnitt 3.14 Quadratische Formen, definite und semidefinite Matrizen, S. 985.
  4. David A. Harville: Matrix Algebra from a Statistician’s Perspective. Springer, New York 1997, ISBN 0-387-94978-X, S. 212, doi:10.1007/b98818.
  5. A. I. Khuri: Advanced Calculus with Applications in Statistics. 2. Auflage. Wiley, Hoboken 2003, S. 40.
  6. Helge Toutenburg: Lineare Modelle. Theorie und Anwendungen. 2., neu bearb. und erw. Auflage. Physica-Verlag, Heidelberg 2002, ISBN 978-3-7908-1519-1, S. 494, doi:10.1007/978-3-642-57348-4 (Mit Beiträgen von Christian Heumann).
  7. P. Kémeny: Grundbegriffe der Matrix-Algebra. In: Ludwig Fahrmeir, Alfred Hamerle, Gerhard Tutz (Hrsg.): Multivariate Statistische Verfahren. 2. Auflage. Walter de Gruyter, Berlin 1996, ISBN 978-3-11-013806-1, S. 795–829, S. 817, doi:10.1515/9783110816020.
  8. Galen R. Shorack: Probability for Statisticians (= Springer Texts in Statistics). Springer, New York 2000, ISBN 0-387-98953-6, S. 191.
  9. Karsten Schmidt, Götz Trenkler: Einführung in die Moderne Matrix-Algebra – Mit Anwendungen in der Statistik. 3. Auflage. Springer, Berlin / Heidelberg 2015, ISBN 978-3-662-46772-5, S. 96, doi:10.1007/978-3-662-46773-2.
  10. Galen R. Shorack: Probability for Statisticians (= Springer Texts in Statistics). Springer, New York 2000, ISBN 0-387-98953-6, S. 191.
  11. S. R. Searle: Matrix Algebra Usefule for Statistics. Wiley, New York 1980.
  12. Calyampudi Radhakrishna Rao, Helge Toutenburg: Linear Models – Least Squares and Alternatives. Springer, New York 1995, ISBN 978-1-4899-0024-1, S. 298, doi:10.1007/978-1-4899-0024-1.
  13. Eugene Paul Wigner: On Weakly Positive Matrices. In: The Collected Works of Eugene Paul Wigner. S. 559–563, doi:10.1007/978-3-662-02781-3_40.