Lineare Algebra: Unterschied zwischen den Versionen
Keine Bearbeitungszusammenfassung |
Keine Bearbeitungszusammenfassung |
||
Zeile 9: | Zeile 9: | ||
*Ein '''Vektorraum''' ist eine Menge von Vektoren, auf der bestimmte Operationen (Addition und Skalarmultiplikation) definiert sind und die bestimmte Axiome erfüllt, wie z.B. die Abgeschlossenheit unter Addition und Skalarmultiplikation, das Vorhandensein eines Nullvektors und die Existenz von inversen Elementen. Die Basis eines Vektorraums ist eine Menge von linear unabhängigen Vektoren, die den gesamten Raum aufspannen. Die Dimension eines Vektorraums ist die Anzahl der Vektoren in einer Basis dieses Raums. | *Ein '''Vektorraum''' ist eine Menge von Vektoren, auf der bestimmte Operationen (Addition und Skalarmultiplikation) definiert sind und die bestimmte Axiome erfüllt, wie z.B. die Abgeschlossenheit unter Addition und Skalarmultiplikation, das Vorhandensein eines Nullvektors und die Existenz von inversen Elementen. Die Basis eines Vektorraums ist eine Menge von linear unabhängigen Vektoren, die den gesamten Raum aufspannen. Die Dimension eines Vektorraums ist die Anzahl der Vektoren in einer Basis dieses Raums. | ||
*Eine Menge von Vektoren ist '''linear unabhängig''', wenn keiner der Vektoren als Linearkombination der anderen dargestellt werden kann. Andernfalls sind die Vektoren linear abhängig. Ein Vektor ''v'' ist eine Linearkombination von anderen Vektoren <math> v_{1},v_{2},…,v_{n}<math>, wenn er als Summe von Skalarmultiplikationen dieser Vektoren dargestellt werden kann. | *Eine Menge von Vektoren ist '''linear unabhängig''', wenn keiner der Vektoren als Linearkombination der anderen dargestellt werden kann. Andernfalls sind die Vektoren linear abhängig. Ein Vektor ''v'' ist eine Linearkombination von anderen Vektoren <math> v_{1},v_{2},…,v_{n}</math>, wenn er als Summe von Skalarmultiplikationen dieser Vektoren dargestellt werden kann. | ||
*Zwei Vektoren sind '''orthogonal''' zueinander, wenn ihr Skalarprodukt (siehe unten bei Matrixmultiplikation) Null ist. Orthogonale Vektoren stehen senkrecht zueinander. | *Zwei Vektoren sind '''orthogonal''' zueinander, wenn ihr Skalarprodukt (siehe unten bei Matrixmultiplikation) Null ist. Orthogonale Vektoren stehen senkrecht zueinander. |
Version vom 15. Mai 2024, 07:23 Uhr
Grundbegriffe
- Eine Matrix ist eine rechteckige Anordnung von Zahlen, Symbolen oder Ausdrücken, die in Zeilen und Spalten angeordnet sind. Sie ist ein grundlegendes Konzept in der linearen Algebra. Sie werden u.a. verwendet, um lineare Transformationen, Gleichungssysteme und lineare Abbildungen darzustellen. Zum Beispiel könnte eine Matrix A mit zwei Zeilen und zwei Spalten so aussehen:
- Ein Vektor ist eine mathematische Größe, die durch eine geordnete Menge von Zahlen repräsentiert wird. Vektoren werden verwendet, um Richtung und Betrag (Länge) zu beschreiben. Ein Vektor kann zum Beispiel so aussehen: . a, b, c und d sind hier die Komponenten des Vektors, wobei die Anzahl der Komponenten der Anzahl der Dimensionen des Vektors entspricht. Der Beispielvektor ist also vierdimensional.
- Skalarprodukt: Das Skalaprodukt zweier Vektoren v und w lässt sich als Summe der Produkte ihrer Komponenten wie folgt berechnen:
- Ein Vektorraum ist eine Menge von Vektoren, auf der bestimmte Operationen (Addition und Skalarmultiplikation) definiert sind und die bestimmte Axiome erfüllt, wie z.B. die Abgeschlossenheit unter Addition und Skalarmultiplikation, das Vorhandensein eines Nullvektors und die Existenz von inversen Elementen. Die Basis eines Vektorraums ist eine Menge von linear unabhängigen Vektoren, die den gesamten Raum aufspannen. Die Dimension eines Vektorraums ist die Anzahl der Vektoren in einer Basis dieses Raums.
- Eine Menge von Vektoren ist linear unabhängig, wenn keiner der Vektoren als Linearkombination der anderen dargestellt werden kann. Andernfalls sind die Vektoren linear abhängig. Ein Vektor v ist eine Linearkombination von anderen Vektoren Fehler beim Parsen (Syntaxfehler): {\displaystyle v_{1},v_{2},…,v_{n}} , wenn er als Summe von Skalarmultiplikationen dieser Vektoren dargestellt werden kann.
- Zwei Vektoren sind orthogonal zueinander, wenn ihr Skalarprodukt (siehe unten bei Matrixmultiplikation) Null ist. Orthogonale Vektoren stehen senkrecht zueinander.
Rechnen mit Matrizen
Matrixaddition
Zwei Matrizen können addiert werden, wenn sie die gleichen Dimensionen haben. Dabei wird jedes Element einer Matrix zu dem Element der anderen Matrix hinzugezählt, das an der gleichen Position steht. Man spricht dabei von elementweiser Addition.
Matrizenmultiplikation
Zwei Matrizen A und B können dann multipliziert werden, wenn die Anzahl der Spalten der Matrix A mit der Anzahl der Zeilen der Matrix B übereinstimmt. Dabei wird das Produkt von A*B eine Matrix C mit der Zeilenanzahl von A und der Spaltenanzahl von B. Wenn also zum Beispiel eine Matrix A mit 4 Zeilen und 3 Spalten (4 x 3) und eine Matrix B der drei Zeilen und zwei Spalten (3 x 2), erhält man die Matrix C mit 4 Zeilen und 2 Spalten. Die Matrixmultiplikation funktioniert dabei folgendermaßen:
Skalarmultiplikation
Eine Matrix kann mit einem Skalar (einer einzelnen Zahl) multipliziert werden. Dies wird durch Multiplikation jedes Elements der Matrix mit dem Skalar erreicht.
Transposition
Die Transposition einer Matrix wird durch Vertauschen ihrer Zeilen und Spalten erreicht. Wenn AA eine Matrix ist, ist ihre transponierte Matrix .
Determinante
Die Determinante einer quadratischen Matrix ist eine spezielle Zahl, die oft zur Beurteilung der Invertierbarkeit der Matrix verwendet wird. Für eine 2x2-Matrix ist die Determinante definiert als das Produkt der Diagonalelemente abzüglich des Produkts der Nebendiagonalelemente: Fehler beim Parsen (Syntaxfehler): {\displaystyle det(A) = a \cdot d − b \cdot c}
Für eine 3x3-Matrix ist die Determinante die Summe der Produkte der Elemente der ersten Zeile mit ihren Kofaktoren:
Der Kofaktor eines Elements ist das Vorzeichen der Unterdeterminante, die sich ergibt, wenn die Zeile und Spalte dieses Elements entfernt werden.
Für Matrizen höherer Ordnungen wird die Determinante oft durch eine rekursive Formel berechnet, die auf Unterdeterminanten basiert. Diese Formel wird normalerweise nicht direkt verwendet, sondern durch Verwendung der Laplace-Entwicklung oder der Entwicklung nach einer Zeile/Spalte in kleinere Unterdeterminanten aufgeteilt.
Die Determinante einer Matrix ist null, wenn die Matrix singulär ist, was bedeutet, dass sie keine Inverse hat. Sie ändert sich, wenn die Reihen einer Matrix vertauscht werden und das Vorzeichen der Determinante ändert sich, wenn zwei Reihen oder Spalten vertauscht werden.
Inverse
Eine quadratische Matrix hat eine Inverse, wenn ihre Determinante ungleich Null ist. Die Inverse einer Matrix A ist eine Matrix, sodass , wobei I die Einheitsmatrix ist.
Die Inverse einer Matrix kann u.a. genutzt werden, um lineare Gleichungssysteme zu lösen bei denen wenn A eine quadratische Matrix ist. Die Lösung ist gegeben durch . Sie ist wichtig, um Koeffizienten in linearen Regressionen zu schätzen und um Eigenwerte und -vektoren zu berechnen.
Einheitsmatrix
Eine Einheitsmatrix ist eine quadratische Matrix, bei der alle Diagonalelemente 1 und alle anderen Elemente 0 sind.
Spur
Die Spur einer quadratischen Matrix ist die Summe ihrer Diagonalelemente.
Eigenvektor
Ein Eigenvektor einer Matrix ist ein Vektor, der unter einer linearen Transformation durch die Matrix in seiner Richtung unverändert bleibt, jedoch möglicherweise um einen Skalarfaktor skaliert wird. Eigenvektoren sind besonders wichtig, weil sie die Richtungen repräsentieren, entlang derer eine lineare Transformation nur eine Skalierung, aber keine Richtungsänderung verursacht.
Eigenwert
Gegeben sei eine quadratische Matrix A der Größe n x n. Ein Skalar λ ist ein Eigenwert von A, wenn es einen nicht-trivialen Vektor v gibt, genannt Eigenvektor, der unter der Transformation durch A nur um einen Skalar λ skaliert wird. Das heißt, wenn Av = λv gilt, wobei v ≠ 0.
Beispiel: Bei einer 2x2-Matrix A mit und ihrem Eigenvektor ist λ ein Eigenwert von A, wenn <math>\begin{bmatrix} a & b \\ c & d \end{bmatrix} \begin{bmatrix} x \\ y \end{bmatrix} = \lambda \begin{bmatrix} x \\ y \end{bmatrix}<math> Durch die Auflösung dieses Gleichungssystems lässt sich λ berechnen.
Eigenwerte und -vektoren spielen unter anderem eine wichtige Rolle bei der Lösung von linearen Differentialgleichungen und wird auch in der Hauptkomponentenanalyse verwendet.