Für diese Seite muss Javascript aktiv sein.
Der Matrizenrechner besteht aus einem Skript zur Berechnung einiger Matrixoperationen.
Skalarmultiplikation: Einfach nur eine Matrix mit einer Zahl multiplizieren, dabei wird jeder Eintrag mit dem Skalar multipliziert.
Matrixmultiplikation: Die Matrixmultiplikation ist sehr viel Arbeit per Hand. Skalarprodukte, Zeilen mal Spalten.
Matrixtransponierung: Eine Matrix wird transponiert, indem man die Elemente der Diagonalen spiegelt(quadratische Matrizen), bzw. die Indizes tauscht (alle Matrizen).
Determinante: Die Determinanten wird hier nach Laplace berechnet, hierzu empfehle ich den Wikipedia Artikel. Was sehr wichtig ist, ist dass eine Matrix mit einer Determinante ungleich 0 invertierbar ist.
Matrix-Vektor-Multiplikation: Eine Matrixmultiplikation bei der der Vektor als n*1 Matrix aufgefasst wird.
Gauß Elimination: Zum lösen linearer Gleichungssysteme verwendet man Anfangs Gauss Methode Zeilen mit einander zu addieren. Leider ist diese Methode numerisch nicht sehr stabil.
LR-Zerlegung: Mittels Gauss-Verfahren wird diese Matrix in eine linke untere und eine rechte obere Dreiecksmatrix zerlegt.
Skalarprodukt: Das Skalarprodukt ist eine Verknüpfung zweier Vektoren, bei der die jeweiligen Elemente miteinander multipliziert werden und die Produkte addiert.
Vektormultiplikation: Die Vektormultiplikation mit 1 Vektor ausführen. Dies spannt eine Matrix auf.
Rang: Der Rang einer Matrix ist die Anzahl der linear unabhängigen Zeilen. (=Anzahl der linear unabhängigen Spalten)
Matrixaddition: Bei der Matrixaddition werden einfach die Elemente der jeweiligen Matrizen miteinander addiert.
Lineares Gleichungssystem lösen: Mittels Gauss-Verfahren wird hier A*x=b nach x aufgelöst.
Kern einer Matrix: Die Dimension des Kerns gibt die Anzahl aller Zeilen - die Anzahl der linear unabhängigen Zeilen an.
Das Kreuzprodukt und Spatprodukt sind in der Physik sehr interessant. Hier empfehle ich den Wikipedia-Artikel.
Die Spur einer Matrix ist die Summer ihrer Diagonaleinträge. Die Spur ist gleichzeitig die Summe aller Eigenwerte.
Die Cholesky Zerlegung ist eine für synmetrische Matrizen optimierte LR-Zerlegung.
Die Householder Transformation ist eine Spiegelung, so dass gewünschte Stellen zu Null werden. Die Givens Rotation ist als Drehung ein Spezialfall der Householder Transformation. Das Ergebnis zeigt Q*A = R. R ist eine rechte obere Dreiecksmatrix, Q ist eine orthogonale Matrix. Dies kann umgestellt werden zu A = Q(transponiert)*R. Das Verfahren ist sehr stabil.
Die Adjunkte berechnet sich so ein bisschen wie die Determinate nach dem Laplaceschen Entwicklungssatz (ein bisschen!). Mit ihr kann man die Inverse berechnen.
Matrize*Inverse = Einheitsmatrix. Mit der Inversen kann man Ax=b auflösen. Also Inverse*A*x=Inverse*b Daraus folgt: x = Inverse*b.
Die Betragsnorm ist eine Vektornorm. Alle Vektoreinträge werden hier addiert.
Die Euklidnorm ist eine Vektornorm. Die Quadrate aller Einträge werden addiert und aus der Summe wird die Wurzel gezogen.
Die Maximumsnorm ist eine Vektornorm. Es wird hier nur der größte Eintrag des Vektors genommen und das war es schon.
Die Spaltensummennorm ist eine Matrixnorm. Hier wird die Spalte mit der größten Betragsnorm genommen.
Die Zeilensummennorm ist eine Matrixnorm. Hier wird die Zeile mit der größten Betragsnorm genommen.
Die Gesamtnorm ist eine Matrixnorm. Für die Norm wird lediglich das betragsmäßig größte Element genommen und mit der Anzahl aller Elemente mutipliziert.
Der relative Fehler ist die Norm dividiert durch die Norm der Inversen. Hier wird der relative Fehler für drei Normen berechnet.
Die Pivotisierung guckt welche Zeile an welcher Stelle das größte Element hat und das wird genutzt zur Sortierung. Dadurch kann man z.B. den Gauss Algorithmus stabiler gestalten.
Bei dieser Äquilibrierung wird bekommt jede Zeile eine Betragsnorm von 1. Dadurch werden Verfahren durch zusätzliche Pivotisierung sehr viel stabiler.
Äquilibrierung und Pivotisierung führt dazu, dass zB die LR-Zerlegung sehr viel stabiler wird.
Eigenwerte sind toll.