Lineare Algebra

Aus eLearning - Methoden der Psychologie - TU Dresden
Version vom 28. August 2024, 14:05 Uhr von Gundula (Diskussion | Beiträge)
(Unterschied) ← Nächstältere Version | Aktuelle Version (Unterschied) | Nächstjüngere Version → (Unterschied)
Zur Navigation springen Zur Suche springen

Die lineare Algebra beschäftigt sich mit Vektoren, Vektorräumen, Transformationen und Matrizen. Diese und weitere Begriffe und das Rechnen mit Matrizen werden unten erklärt. Eine Einführung in die lineare Algebra mit visuellen Erklärungen geben auch 3Blue1Brown in einer Videoreihe auf YouTube (Stand August 2024).

Grundbegriffe

  • Eine Matrix ist eine rechteckige Anordnung von Zahlen, Symbolen oder Ausdrücken, die in Zeilen und Spalten angeordnet sind. Sie ist ein grundlegendes Konzept in der linearen Algebra. Sie werden u.a. verwendet, um lineare Transformationen, Gleichungssysteme und lineare Abbildungen darzustellen. Zum Beispiel könnte eine Matrix A mit zwei Zeilen und zwei Spalten so aussehen:
  • Ein Vektor ist eine mathematische Größe, die durch eine geordnete Menge von Zahlen repräsentiert wird. Vektoren werden verwendet, um Richtung und Betrag (Länge) zu beschreiben. Ein Vektor kann zum Beispiel so aussehen: . a, b, c und d sind hier die Komponenten des Vektors, wobei die Anzahl der Komponenten der Anzahl der Dimensionen des Vektors entspricht. Der Beispielvektor ist also vierdimensional.
  • Skalarprodukt: Das Skalarprodukt zweier Vektoren v und w lässt sich als Summe der Produkte ihrer Komponenten wie folgt berechnen:
  • Ein Vektorraum ist eine Menge von Vektoren, auf der bestimmte Operationen (Addition und Skalarmultiplikation) definiert sind und die bestimmte Axiome erfüllt, wie z.B. die Abgeschlossenheit unter Addition und Skalarmultiplikation, das Vorhandensein eines Nullvektors und die Existenz von inversen Elementen. Die Basis eines Vektorraums ist eine Menge von linear unabhängigen Vektoren, die den gesamten Raum aufspannen. Die Dimension eines Vektorraums ist die Anzahl der Vektoren in einer Basis dieses Raums.
  • Lineare Transformationen (auch lineare Abbildungen) sind Funktionen zwischen Vektorräumen wie Spiegelungen oder Drehungen. Diese Transformationen sind additiv, das heißt, wenn man Vektoren transformiert und dann addiert erhält man das gleiche Ergebnis wie wenn man die Vektoren addiert und die Summe transformiert. Das gleiche gilt für die Skalarprodukte von zu transformierenden Vektoren (Homogenität). Beispielsweise liegen die Vektoren (1,2) und (2,4) auf in einem zweidimensionalen Raum. Wenn man durch eine lineare Abbildung beide Vektoren verdoppelt, gilt die Additivität: und die Homogenität: .
  • Eine Menge von Vektoren ist linear unabhängig, wenn keiner der Vektoren als Linearkombination der anderen dargestellt werden kann. Andernfalls sind die Vektoren linear abhängig. Ein Vektor v ist eine Linearkombination von anderen Vektoren , wenn er als Summe von Skalarmultiplikationen dieser Vektoren dargestellt werden kann.
  • Zwei Vektoren sind orthogonal zueinander, wenn ihr Skalarprodukt (siehe unten bei Matrixmultiplikation) Null ist. Orthogonale Vektoren stehen senkrecht zueinander.

Rechnen mit Matrizen

Matrixaddition

Zwei Matrizen können addiert werden, wenn sie die gleichen Dimensionen haben. Dabei wird jedes Element einer Matrix zu dem Element der anderen Matrix hinzugezählt, das an der gleichen Position steht. Man spricht dabei von elementweiser Addition.

Matrizenmultiplikation

Zwei Matrizen A und B können dann multipliziert werden, wenn die Anzahl der Spalten der Matrix A mit der Anzahl der Zeilen der Matrix B übereinstimmt. Dabei wird das Produkt von A*B eine Matrix C mit der Zeilenanzahl von A und der Spaltenanzahl von B. Wenn also zum Beispiel eine Matrix A mit 4 Zeilen und 3 Spalten (4 x 3) und eine Matrix B der drei Zeilen und zwei Spalten (3 x 2), erhält man die Matrix C mit 4 Zeilen und 2 Spalten. Die Matrixmultiplikation funktioniert dabei folgendermaßen:

Skalarmultiplikation

Eine Matrix kann mit einem Skalar (einer einzelnen Zahl) multipliziert werden. Dies wird durch Multiplikation jedes Elements der Matrix mit dem Skalar erreicht.

Transposition

Die Transposition einer Matrix wird durch Vertauschen ihrer Zeilen und Spalten erreicht. Wenn eine Matrix ist, ist ihre transponierte Matrix .

Determinante

Die Determinante einer quadratischen Matrix ist eine spezielle Zahl, die zur Beurteilung der Invertierbarkeit der Matrix verwendet wird. Für eine 2x2-Matrix ist die Determinante definiert als das Produkt der Diagonalelemente abzüglich des Produkts der Nebendiagonalelemente:
Für eine 3x3-Matrix ist die Determinante die Summe der Produkte der Elemente der ersten Zeile mit ihren Kofaktoren:

Der Kofaktor eines Elements ist das Vorzeichen der Unterdeterminante - die Determinante der Matrix die sich ergibt, wenn die Zeile und Spalte dieses Elements entfernt werden (Untermatrix zum Element). Das passiert wie folgt für den Kofaktor des Elements d der Matrix B:

  • zuerst ermittelt man die Untermatrix, indem man die Zeile und Spalte, in der d steht, aus B entfernt, die Untermatrix ist somit
  • Die Untermatrix heißt , weil d in der Matrix in der zweiten Zeile und in der ersten Spalte steht
  • Die Determinante der Untermatrix berechnet sich wie oben durch - das ist die Unterdeterminante zum Element d der Matrix B
  • Als nächstes muss das Vorzeichen des Kofaktors bestimmt werden. Dazu nimmt man die Position des Elements d innerhalb seiner Matrix B - das sind die Zeile j = 2 und Spalte k = 1
  • Das Vorzeichen des Kofaktors wird berechnet aus , das heißt hier
  • Aus der Unterdeterminante und dem Vorzeichen ergibt sich der Kofaktor von d wie folgt:

Für Matrizen höherer Ordnungen wird die Determinante oft durch eine rekursive Formel berechnet, die auf Unterdeterminanten basiert. Diese Formel wird normalerweise nicht direkt verwendet, sondern durch Verwendung der Laplace-Entwicklung oder der Entwicklung nach einer Zeile/Spalte in kleinere Unterdeterminanten aufgeteilt.

Die Determinante einer Matrix ist null, wenn die Matrix singulär ist, was bedeutet, dass sie keine Inverse hat. Sie ändert sich, wenn die Reihen einer Matrix vertauscht werden und das Vorzeichen der Determinante ändert sich, wenn zwei Reihen oder Spalten vertauscht werden.

Inverse

Eine quadratische Matrix hat eine Inverse, wenn ihre Determinante ungleich Null ist. Die Inverse einer Matrix A ist eine Matrix, sodass , wobei I die Einheitsmatrix ist.

Die Inverse einer Matrix kann u.a. genutzt werden, um lineare Gleichungssysteme zu lösen bei denen wenn A eine quadratische Matrix ist. Die Lösung ist gegeben durch . Sie ist wichtig, um Koeffizienten in linearen Regressionen zu schätzen und um Eigenwerte und -vektoren zu berechnen.

Einheitsmatrix

Eine Einheitsmatrix ist eine quadratische Matrix, bei der alle Diagonalelemente 1 und alle anderen Elemente 0 sind, z.B.

Spur

Die Spur einer quadratischen Matrix ist die Summe ihrer Diagonalelemente. Z.B. berechnet sich die Spur der Matrix wie folgt:

Eigenvektor

Ein Eigenvektor einer Matrix ist ein Vektor, der unter einer linearen Transformation durch die Matrix in seiner Richtung unverändert bleibt, jedoch möglicherweise um einen Skalarfaktor skaliert wird. Eigenvektoren sind besonders wichtig, weil sie die Richtungen repräsentieren, entlang derer eine lineare Transformation nur eine Skalierung, aber keine Richtungsänderung verursacht.

Eigenwert

Gegeben sei eine quadratische Matrix A der Größe n x n. Ein Skalar λ ist ein Eigenwert von A, wenn es einen nicht-trivialen Vektor v gibt, genannt Eigenvektor, der unter der Transformation durch A nur um einen Skalar λ skaliert wird. Das heißt, wenn Av = λv gilt, wobei v ≠ 0.

Beispiel: Bei einer 2x2-Matrix A mit und ihrem Eigenvektor ist ein Eigenwert von A, wenn Durch die Auflösung dieses Gleichungssystems lässt sich λ berechnen.

Eigenwerte und -vektoren spielen unter anderem eine wichtige Rolle bei der Lösung von linearen Differentialgleichungen und wird auch in der Hauptkomponentenanalyse verwendet.