Lineare Algebra: Unterschied zwischen den Versionen
(Die Seite wurde neu angelegt: „- Diese Seite befindet sich noch in Arbeit -“) |
Keine Bearbeitungszusammenfassung |
||
(17 dazwischenliegende Versionen desselben Benutzers werden nicht angezeigt) | |||
Zeile 1: | Zeile 1: | ||
- Diese | Die lineare Algebra beschäftigt sich mit Vektoren, Vektorräumen, Transformationen und Matrizen. Diese und weitere Begriffe und das Rechnen mit Matrizen werden unten erklärt. Eine Einführung in die lineare Algebra mit visuellen Erklärungen geben auch 3Blue1Brown in einer [https://www.youtube.com/watch?v=fNk_zzaMoSs&list=PLZHQObOWTQDPD3MizzM2xVFitgF8hE_ab Videoreihe auf YouTube] (Stand August 2024). | ||
=Grundbegriffe= | |||
*Eine '''Matrix''' ist eine rechteckige Anordnung von Zahlen, Symbolen oder Ausdrücken, die in Zeilen und Spalten angeordnet sind. Sie ist ein grundlegendes Konzept in der linearen Algebra. Sie werden u.a. verwendet, um lineare Transformationen, Gleichungssysteme und lineare Abbildungen darzustellen. Zum Beispiel könnte eine Matrix ''A'' mit zwei Zeilen und zwei Spalten so aussehen: <math>A = \begin{bmatrix} a & b \\ c & d \end{bmatrix}</math> | |||
*Ein '''Vektor''' ist eine mathematische Größe, die durch eine geordnete Menge von Zahlen repräsentiert wird. Vektoren werden verwendet, um Richtung und Betrag (Länge) zu beschreiben. Ein Vektor kann zum Beispiel so aussehen: <math>A = \begin{bmatrix} a & b & c & d \end{bmatrix}</math>. a, b, c und d sind hier die Komponenten des Vektors, wobei die Anzahl der Komponenten der Anzahl der Dimensionen des Vektors entspricht. Der Beispielvektor ist also vierdimensional. | |||
*'''Skalarprodukt:''' Das Skalarprodukt zweier Vektoren ''v'' und ''w'' lässt sich als Summe der Produkte ihrer Komponenten wie folgt berechnen: <math>\mathbf{v} \cdot \mathbf{w} = v_1 w_1 + v_2 w_2 + \cdots + v_n w_n </math> | |||
*Ein '''Vektorraum''' ist eine Menge von Vektoren, auf der bestimmte Operationen (Addition und Skalarmultiplikation) definiert sind und die bestimmte Axiome erfüllt, wie z.B. die Abgeschlossenheit unter Addition und Skalarmultiplikation, das Vorhandensein eines Nullvektors und die Existenz von inversen Elementen. Die Basis eines Vektorraums ist eine Menge von linear unabhängigen Vektoren, die den gesamten Raum aufspannen. Die Dimension eines Vektorraums ist die Anzahl der Vektoren in einer Basis dieses Raums. | |||
*'''Lineare Transformationen''' (auch lineare Abbildungen) sind Funktionen zwischen Vektorräumen wie Spiegelungen oder Drehungen. Diese Transformationen sind additiv, das heißt, wenn man Vektoren transformiert und dann addiert erhält man das gleiche Ergebnis wie wenn man die Vektoren addiert und die Summe transformiert. Das gleiche gilt für die Skalarprodukte von zu transformierenden Vektoren (Homogenität). Beispielsweise liegen die Vektoren (1,2) und (2,4) auf in einem zweidimensionalen Raum. Wenn man durch eine lineare Abbildung beide Vektoren verdoppelt, gilt die Additivität: <math>2 \cdot (1,2) + 2 \cdot (2,4) = (3,6) \cdot 2 = (6,12)</math> und die Homogenität: <math>2 \cdot 3 \cdot (2,4) = 2 \cdot (6,12) = (12,24)</math>. | |||
*Eine Menge von Vektoren ist '''linear unabhängig''', wenn keiner der Vektoren als Linearkombination der anderen dargestellt werden kann. Andernfalls sind die Vektoren linear abhängig. Ein Vektor ''v'' ist eine Linearkombination von anderen Vektoren <math>v_{1}, v_{2}, ..., v_{n}</math>, wenn er als Summe von Skalarmultiplikationen dieser Vektoren dargestellt werden kann. | |||
*Zwei Vektoren sind '''orthogonal''' zueinander, wenn ihr Skalarprodukt (siehe unten bei Matrixmultiplikation) Null ist. Orthogonale Vektoren stehen senkrecht zueinander. | |||
=Rechnen mit Matrizen= | |||
==Matrixaddition== | |||
Zwei Matrizen können addiert werden, wenn sie die gleichen Dimensionen haben. Dabei wird jedes Element einer Matrix zu dem Element der anderen Matrix hinzugezählt, das an der gleichen Position steht. Man spricht dabei von elementweiser Addition. | |||
<math> \begin{bmatrix} a_{11} & a_{12} & a_{13}\\ a_{21} & a_{22} & a_{23} | |||
\end{bmatrix} | |||
+ | |||
\begin{bmatrix} b_{11} & b_{12} & b_{13}\\ b_{21} & b_{22} & b_{23} | |||
\end{bmatrix} | |||
= | |||
\begin{bmatrix} a_{11}+b_{11} & a_{12}+b_{12} & a_{13}+b_{13}\\ a_{21}+b_{21} & a_{22}+b_{22} & a_{23}+b_{23} | |||
\end{bmatrix} | |||
</math> | |||
==Matrizenmultiplikation== | |||
Zwei Matrizen ''A'' und ''B'' können dann multipliziert werden, wenn die Anzahl der Spalten der Matrix ''A'' mit der Anzahl der Zeilen der Matrix B übereinstimmt. Dabei wird das Produkt von ''A*B'' eine Matrix ''C'' mit der Zeilenanzahl von ''A'' und der Spaltenanzahl von ''B''. Wenn also zum Beispiel eine Matrix ''A'' mit 4 Zeilen und 3 Spalten (4 x 3) und eine Matrix ''B'' der drei Zeilen und zwei Spalten (3 x 2), erhält man die Matrix ''C'' mit 4 Zeilen und 2 Spalten. Die Matrixmultiplikation funktioniert dabei folgendermaßen: | |||
<math> \begin{bmatrix} a_{11} & a_{12} & a_{13}\\ a_{21} & a_{22} & a_{23} \\ a_{31} & a_{32} & a_{33} \\ a_{41} & a_{42} & a_{43} | |||
\end{bmatrix} | |||
\cdot | |||
\begin{bmatrix} b_{11} & b_{12} \\ b_{21} & b_{22} \\ b_{31} & b_{32} | |||
\end{bmatrix} | |||
= | |||
\begin{bmatrix} | |||
c_{11} = a_{11} \cdot b_{11} + a_{12} \cdot b_{21} + a_{13} \cdot b_{31}& | |||
c_{12} = a_{11} \cdot b_{12} + a_{12} \cdot b_{22} + a_{13} \cdot b_{32}\\ | |||
c_{21} = a_{21} \cdot b_{11} + a_{22} \cdot b_{21} + a_{23} \cdot b_{31}& | |||
c_{22} = a_{21} \cdot b_{12} + a_{22} \cdot b_{22} + a_{23} \cdot b_{32}\\ | |||
c_{31} = a_{31} \cdot b_{11} + a_{32} \cdot b_{21} + a_{33} \cdot b_{31}& | |||
c_{32} = a_{31} \cdot b_{12} + a_{32} \cdot b_{22} + a_{33} \cdot b_{32}\\ | |||
c_{41} = a_{41} \cdot b_{11} + a_{42} \cdot b_{21} + a_{43} \cdot b_{31}& | |||
c_{42} = a_{41} \cdot b_{12} + a_{42} \cdot b_{22} + a_{43} \cdot b_{32}\\ | |||
\end{bmatrix} | |||
= | |||
\begin{bmatrix} | |||
c_{11} & c_{12} \\ | |||
c_{21} & c_{22} \\ | |||
c_{31} & c_{32} \\ | |||
c_{41} & c_{42} \\ | |||
\end{bmatrix} | |||
</math> | |||
==Skalarmultiplikation== | |||
Eine Matrix kann mit einem Skalar (einer einzelnen Zahl) multipliziert werden. Dies wird durch Multiplikation jedes Elements der Matrix mit dem Skalar erreicht. | |||
==Transposition== | |||
Die Transposition einer Matrix wird durch Vertauschen ihrer Zeilen und Spalten erreicht. Wenn <math>A = \begin{bmatrix} a & b \\ c & d \\ e & f \end{bmatrix}</math> eine Matrix ist, ist ihre transponierte Matrix <math>A^{T} = \begin{bmatrix} a & c & e \\ b & d & f\end{bmatrix}</math>. | |||
==Determinante== | |||
Die Determinante einer quadratischen Matrix ist eine spezielle Zahl, die zur Beurteilung der Invertierbarkeit der Matrix verwendet wird. Für eine 2x2-Matrix <math>A = \begin{bmatrix} a & b \\ c & d \end{bmatrix}</math> ist die Determinante definiert als das Produkt der Diagonalelemente abzüglich des Produkts der Nebendiagonalelemente: <math>det(A) = a \cdot d - b \cdot c</math> <br> | |||
Für eine 3x3-Matrix <math>B = \begin{bmatrix} a & b & c\\ d & e & f \\ g & h & i \end{bmatrix}</math> ist die Determinante die Summe der Produkte der Elemente der ersten Zeile mit ihren Kofaktoren: <math>det(B) = a \cdot cof(a) + b \cdot cof(b) + c \cdot cof(c)</math> | |||
Der Kofaktor eines Elements ist das Vorzeichen der Unterdeterminante - die Determinante der Matrix die sich ergibt, wenn die Zeile und Spalte dieses Elements entfernt werden (Untermatrix zum Element). Das passiert wie folgt für den Kofaktor des Elements ''d'' der Matrix ''B'': | |||
*zuerst ermittelt man die Untermatrix, indem man die Zeile und Spalte, in der ''d'' steht, aus ''B'' entfernt, die Untermatrix ist somit <math>B_{2 1} = \begin{bmatrix} b & c \\ h & i \end{bmatrix}</math> | |||
*Die Untermatrix heißt <math>B_{2 1}</math>, weil d in der Matrix in der zweiten Zeile und in der ersten Spalte steht | |||
*Die Determinante der Untermatrix <math>B_{2 1}</math> berechnet sich wie oben durch <math>det(B_{2 1}) = b \cdot i - c \cdot h</math> - das ist die Unterdeterminante zum Element ''d'' der Matrix ''B'' | |||
*Als nächstes muss das Vorzeichen des Kofaktors bestimmt werden. Dazu nimmt man die Position des Elements ''d'' innerhalb seiner Matrix ''B'' - das sind die Zeile ''j'' = 2 und Spalte ''k'' = 1 | |||
*Das Vorzeichen des Kofaktors wird berechnet aus <math>(-1)^{j+k}</math>, das heißt hier <math>(-1)^{2+1} = (-1)^{3} = -1</math> | |||
*Aus der Unterdeterminante und dem Vorzeichen ergibt sich der Kofaktor von ''d'' wie folgt: <math>cof(d) = (-1)^{j+k} \cdot det(B_{2 1}) = -1 \cdot (b \cdot i - c \cdot h) </math> | |||
Für Matrizen höherer Ordnungen wird die Determinante oft durch eine rekursive Formel berechnet, die auf Unterdeterminanten basiert. Diese Formel wird normalerweise nicht direkt verwendet, sondern durch Verwendung der Laplace-Entwicklung oder der Entwicklung nach einer Zeile/Spalte in kleinere Unterdeterminanten aufgeteilt. | |||
Die Determinante einer Matrix ist null, wenn die Matrix singulär ist, was bedeutet, dass sie keine Inverse hat. Sie ändert sich, wenn die Reihen einer Matrix vertauscht werden und das Vorzeichen der Determinante ändert sich, wenn zwei Reihen oder Spalten vertauscht werden. | |||
==Inverse== | |||
Eine quadratische Matrix hat eine Inverse, wenn ihre Determinante ungleich Null ist. Die Inverse <math>A^{-1}</math> einer Matrix ''A'' ist eine Matrix, sodass <math>A \cdot A^{-1} = A^{-1} \cdot A = I</math>, wobei ''I'' die Einheitsmatrix ist. | |||
Die Inverse einer Matrix kann u.a. genutzt werden, um lineare Gleichungssysteme zu lösen bei denen <math>Ax = b</math> wenn ''A'' eine quadratische Matrix ist. Die Lösung ist gegeben durch <math>x = A^{-1} \cdot b</math>. Sie ist wichtig, um Koeffizienten in linearen Regressionen zu schätzen und um Eigenwerte und -vektoren zu berechnen. | |||
==Einheitsmatrix== | |||
Eine Einheitsmatrix ist eine quadratische Matrix, bei der alle Diagonalelemente 1 und alle anderen Elemente 0 sind, z.B. | |||
<math>\begin{bmatrix} 1 & 0 & 0 & 0\\ 0 & 1 & 0 & 0 \\ = 0 & 0 & 1 & 0 \\ 0 & 0 & 0 & 1 \end{bmatrix}</math> | |||
==Spur== | |||
Die Spur einer quadratischen Matrix ist die Summe ihrer Diagonalelemente. Z.B. berechnet sich die Spur der Matrix <math>A = \begin{bmatrix} 2 & 4 & 6\\ 1 & 3 & 5 \\ 0 & 2 & 7 \end{bmatrix}</math> wie folgt: <math>Spur(A) = 2 + 3 + 7 = 12</math> | |||
==Eigenvektor== | |||
Ein Eigenvektor einer Matrix ist ein Vektor, der unter einer linearen Transformation durch die Matrix in seiner Richtung unverändert bleibt, jedoch möglicherweise um einen Skalarfaktor skaliert wird. Eigenvektoren sind besonders wichtig, weil sie die Richtungen repräsentieren, entlang derer eine lineare Transformation nur eine Skalierung, aber keine Richtungsänderung verursacht. | |||
==Eigenwert== | |||
Gegeben sei eine quadratische Matrix ''A'' der Größe ''n'' x ''n''. Ein Skalar λ ist ein Eigenwert von ''A'', wenn es einen nicht-trivialen Vektor ''v'' gibt, genannt Eigenvektor, der unter der Transformation durch ''A'' nur um einen Skalar λ skaliert wird. Das heißt, wenn ''Av'' = λ''v'' gilt, wobei ''v'' ≠ 0. | |||
'''Beispiel:''' Bei einer 2x2-Matrix A mit <math>A = \begin{bmatrix} a & b \\ c & d \end{bmatrix}</math> und ihrem Eigenvektor <math>v = \begin{bmatrix} x \\ y \end{bmatrix}</math> ist <math>\lambda</math> ein Eigenwert von ''A'', wenn <math>\begin{bmatrix} a & b \\ c & d \end{bmatrix} \begin{bmatrix} x \\ y \end{bmatrix} = \lambda \begin{bmatrix} x \\ y \end{bmatrix}</math> | |||
Durch die Auflösung dieses Gleichungssystems lässt sich λ berechnen. | |||
Eigenwerte und -vektoren spielen unter anderem eine wichtige Rolle bei der Lösung von linearen Differentialgleichungen und wird auch in der Hauptkomponentenanalyse verwendet. |
Aktuelle Version vom 28. August 2024, 14:05 Uhr
Die lineare Algebra beschäftigt sich mit Vektoren, Vektorräumen, Transformationen und Matrizen. Diese und weitere Begriffe und das Rechnen mit Matrizen werden unten erklärt. Eine Einführung in die lineare Algebra mit visuellen Erklärungen geben auch 3Blue1Brown in einer Videoreihe auf YouTube (Stand August 2024).
Grundbegriffe
- Eine Matrix ist eine rechteckige Anordnung von Zahlen, Symbolen oder Ausdrücken, die in Zeilen und Spalten angeordnet sind. Sie ist ein grundlegendes Konzept in der linearen Algebra. Sie werden u.a. verwendet, um lineare Transformationen, Gleichungssysteme und lineare Abbildungen darzustellen. Zum Beispiel könnte eine Matrix A mit zwei Zeilen und zwei Spalten so aussehen:
- Ein Vektor ist eine mathematische Größe, die durch eine geordnete Menge von Zahlen repräsentiert wird. Vektoren werden verwendet, um Richtung und Betrag (Länge) zu beschreiben. Ein Vektor kann zum Beispiel so aussehen: . a, b, c und d sind hier die Komponenten des Vektors, wobei die Anzahl der Komponenten der Anzahl der Dimensionen des Vektors entspricht. Der Beispielvektor ist also vierdimensional.
- Skalarprodukt: Das Skalarprodukt zweier Vektoren v und w lässt sich als Summe der Produkte ihrer Komponenten wie folgt berechnen:
- Ein Vektorraum ist eine Menge von Vektoren, auf der bestimmte Operationen (Addition und Skalarmultiplikation) definiert sind und die bestimmte Axiome erfüllt, wie z.B. die Abgeschlossenheit unter Addition und Skalarmultiplikation, das Vorhandensein eines Nullvektors und die Existenz von inversen Elementen. Die Basis eines Vektorraums ist eine Menge von linear unabhängigen Vektoren, die den gesamten Raum aufspannen. Die Dimension eines Vektorraums ist die Anzahl der Vektoren in einer Basis dieses Raums.
- Lineare Transformationen (auch lineare Abbildungen) sind Funktionen zwischen Vektorräumen wie Spiegelungen oder Drehungen. Diese Transformationen sind additiv, das heißt, wenn man Vektoren transformiert und dann addiert erhält man das gleiche Ergebnis wie wenn man die Vektoren addiert und die Summe transformiert. Das gleiche gilt für die Skalarprodukte von zu transformierenden Vektoren (Homogenität). Beispielsweise liegen die Vektoren (1,2) und (2,4) auf in einem zweidimensionalen Raum. Wenn man durch eine lineare Abbildung beide Vektoren verdoppelt, gilt die Additivität: und die Homogenität: .
- Eine Menge von Vektoren ist linear unabhängig, wenn keiner der Vektoren als Linearkombination der anderen dargestellt werden kann. Andernfalls sind die Vektoren linear abhängig. Ein Vektor v ist eine Linearkombination von anderen Vektoren , wenn er als Summe von Skalarmultiplikationen dieser Vektoren dargestellt werden kann.
- Zwei Vektoren sind orthogonal zueinander, wenn ihr Skalarprodukt (siehe unten bei Matrixmultiplikation) Null ist. Orthogonale Vektoren stehen senkrecht zueinander.
Rechnen mit Matrizen
Matrixaddition
Zwei Matrizen können addiert werden, wenn sie die gleichen Dimensionen haben. Dabei wird jedes Element einer Matrix zu dem Element der anderen Matrix hinzugezählt, das an der gleichen Position steht. Man spricht dabei von elementweiser Addition.
Matrizenmultiplikation
Zwei Matrizen A und B können dann multipliziert werden, wenn die Anzahl der Spalten der Matrix A mit der Anzahl der Zeilen der Matrix B übereinstimmt. Dabei wird das Produkt von A*B eine Matrix C mit der Zeilenanzahl von A und der Spaltenanzahl von B. Wenn also zum Beispiel eine Matrix A mit 4 Zeilen und 3 Spalten (4 x 3) und eine Matrix B der drei Zeilen und zwei Spalten (3 x 2), erhält man die Matrix C mit 4 Zeilen und 2 Spalten. Die Matrixmultiplikation funktioniert dabei folgendermaßen:
Skalarmultiplikation
Eine Matrix kann mit einem Skalar (einer einzelnen Zahl) multipliziert werden. Dies wird durch Multiplikation jedes Elements der Matrix mit dem Skalar erreicht.
Transposition
Die Transposition einer Matrix wird durch Vertauschen ihrer Zeilen und Spalten erreicht. Wenn eine Matrix ist, ist ihre transponierte Matrix .
Determinante
Die Determinante einer quadratischen Matrix ist eine spezielle Zahl, die zur Beurteilung der Invertierbarkeit der Matrix verwendet wird. Für eine 2x2-Matrix ist die Determinante definiert als das Produkt der Diagonalelemente abzüglich des Produkts der Nebendiagonalelemente:
Für eine 3x3-Matrix ist die Determinante die Summe der Produkte der Elemente der ersten Zeile mit ihren Kofaktoren:
Der Kofaktor eines Elements ist das Vorzeichen der Unterdeterminante - die Determinante der Matrix die sich ergibt, wenn die Zeile und Spalte dieses Elements entfernt werden (Untermatrix zum Element). Das passiert wie folgt für den Kofaktor des Elements d der Matrix B:
- zuerst ermittelt man die Untermatrix, indem man die Zeile und Spalte, in der d steht, aus B entfernt, die Untermatrix ist somit
- Die Untermatrix heißt , weil d in der Matrix in der zweiten Zeile und in der ersten Spalte steht
- Die Determinante der Untermatrix berechnet sich wie oben durch - das ist die Unterdeterminante zum Element d der Matrix B
- Als nächstes muss das Vorzeichen des Kofaktors bestimmt werden. Dazu nimmt man die Position des Elements d innerhalb seiner Matrix B - das sind die Zeile j = 2 und Spalte k = 1
- Das Vorzeichen des Kofaktors wird berechnet aus , das heißt hier
- Aus der Unterdeterminante und dem Vorzeichen ergibt sich der Kofaktor von d wie folgt:
Für Matrizen höherer Ordnungen wird die Determinante oft durch eine rekursive Formel berechnet, die auf Unterdeterminanten basiert. Diese Formel wird normalerweise nicht direkt verwendet, sondern durch Verwendung der Laplace-Entwicklung oder der Entwicklung nach einer Zeile/Spalte in kleinere Unterdeterminanten aufgeteilt.
Die Determinante einer Matrix ist null, wenn die Matrix singulär ist, was bedeutet, dass sie keine Inverse hat. Sie ändert sich, wenn die Reihen einer Matrix vertauscht werden und das Vorzeichen der Determinante ändert sich, wenn zwei Reihen oder Spalten vertauscht werden.
Inverse
Eine quadratische Matrix hat eine Inverse, wenn ihre Determinante ungleich Null ist. Die Inverse einer Matrix A ist eine Matrix, sodass , wobei I die Einheitsmatrix ist.
Die Inverse einer Matrix kann u.a. genutzt werden, um lineare Gleichungssysteme zu lösen bei denen wenn A eine quadratische Matrix ist. Die Lösung ist gegeben durch . Sie ist wichtig, um Koeffizienten in linearen Regressionen zu schätzen und um Eigenwerte und -vektoren zu berechnen.
Einheitsmatrix
Eine Einheitsmatrix ist eine quadratische Matrix, bei der alle Diagonalelemente 1 und alle anderen Elemente 0 sind, z.B.
Spur
Die Spur einer quadratischen Matrix ist die Summe ihrer Diagonalelemente. Z.B. berechnet sich die Spur der Matrix wie folgt:
Eigenvektor
Ein Eigenvektor einer Matrix ist ein Vektor, der unter einer linearen Transformation durch die Matrix in seiner Richtung unverändert bleibt, jedoch möglicherweise um einen Skalarfaktor skaliert wird. Eigenvektoren sind besonders wichtig, weil sie die Richtungen repräsentieren, entlang derer eine lineare Transformation nur eine Skalierung, aber keine Richtungsänderung verursacht.
Eigenwert
Gegeben sei eine quadratische Matrix A der Größe n x n. Ein Skalar λ ist ein Eigenwert von A, wenn es einen nicht-trivialen Vektor v gibt, genannt Eigenvektor, der unter der Transformation durch A nur um einen Skalar λ skaliert wird. Das heißt, wenn Av = λv gilt, wobei v ≠ 0.
Beispiel: Bei einer 2x2-Matrix A mit und ihrem Eigenvektor ist ein Eigenwert von A, wenn Durch die Auflösung dieses Gleichungssystems lässt sich λ berechnen.
Eigenwerte und -vektoren spielen unter anderem eine wichtige Rolle bei der Lösung von linearen Differentialgleichungen und wird auch in der Hauptkomponentenanalyse verwendet.