Determinanten koordinatenfrei
Von: Martin_Infinite
Datum: Di. 08. September 2015 22:05:14
Thema: Mathematik

Determinanten koordinatenfrei

In diesem Artikel möchte ich erklären, was die Determinante eines Endomorphismus eines endlich-dimensionalen Vektorraumes ist. Das Besondere ist: Es werden keine Matrizen benutzt. Insofern ist das Vorgehen also koordinatenfrei und meiner Meinung nach sehr elegant. Zugleich ist es recht anschaulich. Am Ende werden ein paar Beispiele berechnet, welche die Nützlichkeit des Zugangs untermauern. Der Artikel richtet sich an Studenten, welche die Determinante besser verstehen möchten, aber auch an Dozenten, die in ihrer Lineare Algebra Vorlesung einen alternativen Zugang wählen möchten. "Es gibt kaum eine Theorie, die elementarer ist [als die lineare Algebra], trotz der Tatsache, dass Generationen von Professoren und Lehrbuchautoren die Einfachheit dieser Theorie durch höchst unangebrachte Rechnungen mit Matrizen verdunkelt haben." J. Dieudonné, Grundlagen der modernen Analysis, 1960

Inhalt

1. Alternierende Abbildungen 2. Definition der Determinante 3. Eigenschaften der Determinante 4. Die Leibniz-Formel 5. Beispiele

1. Alternierende Abbildungen

Definition. Es sei K ein fixierter Körper und V ein K-Vektorraum. Die unterliegende Menge bezeichnen wir mit |V|. Sei d \in \mathds{N}. Eine Abbildung \omega : |V|^d \to |K| heiße multilinear, wenn sie in jeder der d Variablen (mit festgehaltenen d-1 Variablen) linear ist. Eine solche multilineare Abbildung heiße alternierend, wenn für alle v \in |V|^d gilt: Gibt es Indizes i \neq j mit v_i=v_j, dann gilt \omega(v_1,\dotsc,v_n)=0. Diese Abbildungen bilden mit komponentenweisen Verknüpfungen einen K-Vektorraum \mathrm{A}_d(V), nämlich einen Unterraum aller Abbildungen |V|^d \to |K|. Die Elemente von \mathrm{A}_d(V) nennt man auch d-Formen auf V. Wir werden der üblichen Konvention folgen und v \in V anstelle von v \in |V| schreiben. Zur Anschauung. Man kann sich d-Formen auf V geometrisch so vorstellen: Je d Vektoren aus V wird eine Größe (genauer gesagt ein Element des Grundkörpers) zugeordnet, nämlich die Größe des von den Vektoren aufgespannten Parallelotops (für d=2 ist dies ein Parallelogramm; auf eine präzise Definition verzichten wir einstweilen). Die Definition einer d-Form lässt sich damit wiefolgt veranschaulichen: Die Rechenregel \omega(\dotsc,v,\dotsc,v,\dotsc)=0 bedeutet, dass das Volumen eines entarteten Parallelotops Null ist. Die Regel \omega(\dotsc,\lambda \cdot v,\dotsc)=\lambda \cdot \omega(\dotsc,v,\dotsc) bedeutet, dass sich das Volumen ver-\lambda-facht, wenn man einen der Seitenvektoren ver-\lambda-facht. Und die Regel \omega(\dotsc,v+v',\dotsc)=\omega(\dotsc,v,\dotsc)+\omega(\dotsc,v',\dotsc) bedeutet, dass sich das Volumen von zwei Parallelotopen addiert, wenn sie an einer Seite zusammenpassen und man sie zusammenlegt. Wir haben hier zwar nicht definiert, was ein Parallelotop und was das Volumen davon sein soll, aber man kann sich eben vorstellen, dass d-Formen auf einem Vektorraum diese Begriffe abstrahieren und genau das einfangen, was man von ihnen erwartet. Die folgenden Bilder veranschaulichen die Regeln für d=2. \begin{tikzpicture} \fill [black!20] (0,0) to (2,1) to (2.5,2.5) to (0.5,1.5) to (0,0); \draw [thick,->] (0,0) to (2,1); \draw [thick,->] (0,0) to (0.5,1.5); \draw [thick] (0.5,1.5) to (2.5,2.5); \draw [thick] (2,1) to (2.5,2.5); \draw node at (1,0.3) {$v$}; \draw node at (0.03,0.8) {$w$}; \draw node [rotate=26] at (1.2,1.2) {\scriptsize $\omega(v,w)$}; \end{tikzpicture} \begin{tikzpicture} \draw [thick,->] (0,0) to (2,1); \draw node at (1,0.3) {$v$}; \draw node at (1,0.7) {$v$}; \draw node at (2.2,0.5) {\scriptsize $\omega(v,v)=0$}; \end{tikzpicture} \begin{tikzpicture} \fill [black!20] (0,0) to (2,1) to (2.5,2.5) to (0.5,1.5) to (0,0); \draw [thick,->] (0,0) to (2,1); \draw [thick,->] (0,0) to (0.666,0.333); \draw [thick,->] (0,0) to (0.5,1.5); \draw [thick] (0.5,1.5) to (2.5,2.5); \draw [thick] (2,1) to (2.5,2.5); \draw [thick] (0.666,0.333) to (1.166,1.833); \draw node at (1,0.2) {$v$}; \draw node at (0.3,-0.2) {$\frac{1}{3} v$}; \draw node at (0.03,0.8) {$w$}; \draw node at (4,1.2) {\scriptsize $\omega(\frac{1}{3} v,w)=\frac{1}{3} \omega(v,w)$}; \end{tikzpicture} \begin{tikzpicture} \fill [black!20] (0,0) to (2,1) to (3.5,1) to (4,2.5) to (2.5,2.5) to (0.5,1.5) to (0,0); \draw [thick,->] (0,0) to (2,1); \draw [thick,->] (2,1) to (3.5,1); \draw [thick,->] (0,0) to (0.5,1.5); \draw [thick] (0.5,1.5) to (2.5,2.5); \draw [thick] (2,1) to (2.5,2.5); \draw [thick] (3.5,1) to (4,2.5); \draw [thick] (2.5,2.5) to (4,2.5); \draw [dashed] (0,0) to (3.5,1); \draw [dashed] (0.5,1.5) to (4,2.5); \draw node at (1,0.64) {\scriptsize $v$}; \draw node at (2.85,1.15) {\scriptsize $v'$}; \draw node at (1.8,0.3) {\scriptsize $v+v'$}; \draw node at (0.03,0.8) {\scriptsize $w$}; \draw node [rotate=26] at (1.2,1.2) {\scriptsize $\omega(v,w)$}; \draw node at (2.94,1.7) {\scriptsize $\omega(v',w)$}; \draw node at (6.2,1.2) {\scriptsize $\omega(v+v',w)=\omega(v,w) + \omega(v',w)$}; \end{tikzpicture} Bemerkung. Jede lineare Abbildung f : V \to W induziert eine lineare Abbildung f^* : \mathrm{A}_d(W) \to \mathrm{A}_d(V), nämlich \omega \mapsto \omega \circ f^d. Das heißt, es gilt f^*(\omega)(v_1,\dotsc,v_d) = \omega(f(v_1),\dotsc,f(v_d)). Es bestehen die Rechenregeln (\mathrm{id}_V)^* = \mathrm{id}_{\mathrm{A}_d(V)} und (g \circ f)^* = f^* \circ g^* für g : W \to U. Daraus folgt: Wenn V,W isomorph sind, dann sind auch \mathrm{A}_d(V),\mathrm{A}_d(W) isomorph. Spezialfälle. Es gilt \mathrm{A}_0(V) \cong K und \mathrm{A}_1(V) \cong V^*. Für V=0 und d>0 ist auch \mathrm{A}_d(V)=0. Wenn V=\langle v \rangle eindimensional ist, dann gilt \mathrm{A}_2(V)=0, denn für \omega \in \mathrm{A}_2(V) ist \omega(v,v)=0 und damit \omega(\lambda \cdot v,\mu \cdot v)=\lambda \cdot \mu \cdot \omega(v,v)=0 für \lambda,\mu \in K. Dasselbe Argument zeigt \mathrm{A}_d(V)=0 für d \geq 2. Betrachten wir nun den Fall, dass V=\langle v,w \rangle zweidimensional ist. Dann gilt \omega(v,w)=-\omega(w,v), denn 0=\omega(v+w,v+w)=\omega(v,v)+\omega(v,w)+\omega(w,v) +\omega(w,w) = \omega(v,w) + \omega(w,v). Diese Rechnung funktioniert sogar für beliebige multilineare alternierende Abbildungen und zeigt, dass eine Vertauschung von zwei Argumenten stets eine Änderung des Vorzeichens bewirkt. Das lässt sich auch so interpretieren, dass wir auch negative Volumina von Parallelotopen betrachten und dass das Vorzeichen von der Reihenfolge der Seitenvektoren abhängt. Es folgt für zwei beliebige Vektoren x=x_1 \cdot v + x_2 \cdot w und y=y_1 \cdot v + y_2 \cdot w von V: \omega(x,y) = x_1 y_2 \cdot \omega(v,w) + x_2 y_1 \cdot \omega(w,v) = (x_1 y_2 - x_2 y_1) \cdot \omega(v,w). Ist umgekehrt \lambda \in K beliebig, so gibt es ein \omega \in \mathrm{A}_2(V) mit \omega(v,w)=\lambda, nämlich \omega(x,y) := (x_1 y_2 - x_2 y_1) \cdot \lambda. Wir erkennen damit, dass \mathrm{A}_2(V) eindimensional ist. Der Erzeuger ist (x,y) \mapsto x_1 y_2 - x_2 y_1. Für d>2 ist einfach A_d(V)=0, denn beim Ausmultiplizieren von \omega(x_1,\dotsc,x_d) für x_1,\dotsc,x_d \in V kommt jeweils u oder v doppelt vor. Ein beliebiger Vektorraum ist eine direkte Summe von eindimensionalen Räumen. Schauen wir uns also an, was mit \mathrm{A}_d(V) passiert, wenn man zu V einen eindimensionalen Vektorraum addiert. Satz 1 (Zerlegung von Formen). Es sei V ein K-Vektorraum und \langle u \rangle ein eindimensionaler K-Vektorraum. Ferner sei d \geq 1. Dann gibt es einen Isomorphismus \mathrm{A}_d(V \oplus \langle u \rangle) \cong \mathrm{A}_d(V) \oplus \mathrm{A}_{d-1}(V). Beweis. Es sei \omega \in \mathrm{A}_d(V \oplus \langle u \rangle). Dann berechnen wir für v_i \in V und \lambda_i \in K unter Benutzung der Multilinearität und von \omega(\dotsc,u,\dotsc,u,\dotsc)=0: \displaystyle\omega(v_1 + \lambda_1 u,\dotsc,v_d + \lambda_d u) = \omega(v_1,\dotsc,v_d) + \sum_{i=1}^{d} \lambda_i \cdot \omega(v_1,\dotsc,v_{i-1},u,v_{i+1},\dotsc,v_d). Weil nun aber \omega alternierend ist, gilt \omega(v_1,\dotsc,v_{i-1},u,v_{i+1},\dotsc,v_d) = (-1)^{i-1} \omega(u,v_1,\dotsc,v_{i-1},v_{i+1},\dotsc,v_d). Denn hierbei müssen i-1 Vertauschungen durchgeführt werden. Daraus folgt nun: \displaystyle \omega(v_1 + \lambda_1 u,\dotsc,v_d + \lambda_d u) = \omega(v_1,\dotsc,v_d) + \sum_{i=1}^{d} (-1)^{i-1} \lambda_i \cdot \omega(u,v_1,\dotsc,v_{i-1},v_{i+1},\dotsc,v_d). Dies legt uns nun nahe, die Abbildung \theta : \mathrm{A}_d(V \oplus \langle u \rangle) \to \mathrm{A}_d(V) \oplus \mathrm{A}_{d-1}(V) zu definieren durch \theta(\omega)=(\omega_1,\omega_2), wobei \omega_1 die Einschränkung von \omega auf V ist, und \omega_2(v_2,\dotsc,v_d) := \omega(u,v_2,\dotsc,v_d). Beachte, dass tatsächlich \omega_1 \in \mathrm{A}_d(V) und \omega_2 \in \mathrm{A}_{d-1}(V) gilt. Ferner ist \theta linear. Wir wissen auch, wie wir unsere Umkehrabbildung \theta^{-1} definieren müssen: Wir setzen \theta^{-1}(\omega_1,\omega_2):=\omega, wobei \displaystyle \omega(v_1 + \lambda_1 u,\dotsc,v_d + \lambda_d u) := \omega_1(v_1,\dotsc,v_n) + \sum_{i=1}^{d} (-1)^{i-1} \lambda_i \cdot \omega_2(v_1,\dotsc,v_{i-1},v_{i+1},\dotsc,v_d). Man erkennt \omega \in \mathrm{A}_d(V \oplus \langle u \rangle). Wir haben uns oben \theta^{-1} \circ \theta = \mathrm{id} klargemacht, und \theta \circ \theta^{-1}=\mathrm{id} ist auch klar. \checkmark Satz 2 (Anzahl der Formen). Es sei V ein n-dimensionaler K-Vektorraum und d \geq 0. Dann ist \mathrm{A}_d(V) ein K-Vektorraum der Dimension \binom{n}{d}. Hierbei ist \binom{n}{d} der Binomialkoeffizient "n über d", also die Anzahl der d-elementigen Teilmengen einer n-elementigen Menge. Beweis. Wir benutzen Induktion nach n und nach d. Für n=0 oder d=0 kennen wir das Ergebnis bereits. Nun seien n,d \geq 1. Wähle irgendeinen Vektor 0 \neq u \in V und schreibe V=U \oplus \langle u \rangle mit \dim(U)=n-1. Dann folgt aus Satz 1 \mathrm{A}_d(V) \cong \mathrm{A}_d(U) \oplus \mathrm{A}_{d-1}(U). Nach Induktionsannahme ist daher \dim(\mathrm{A}_d(V))=\binom{n-1}{d} + \binom{n-1}{d-1} = \binom{n}{d}. \checkmark Wenn also zum Beispiel V ein 4-dimensionaler Vektorraum ist, dann sind die Dimensionen von \mathrm{A}_0(V),\dotsc,\mathrm{A}_4(V) gleich 1,4,6,4,1, und es gilt \mathrm{A}_d(V)=0 für d>4. Bemerkung. Für die Leser, die bereits mit äußeren Potenzen vertraut sind: Es gibt einen natürlichen Isomorphismus \mathrm{A}_d(V) \cong \Lambda^d(V)^*. Man kann entsprechend Determinanten auch mit äußeren Potenzen koordinatenfrei definieren. Unser Zugang ist etwas direkter.
 

2. Definition der Determinante

Satz 3. Es sei V ein n-dimensionaler K-Vektorraum und f : V \to V ein Endomorphismus. Dann gibt es genau ein Element \det(f) \in K derart, dass f^*(\omega)=\det(f) \cdot \omega für alle \omega \in \mathrm{A}_n(V) gilt. Beweis. Nach Satz 2 ist \mathrm{A}_n(V) eindimensional. Dann ist also f^* : \mathrm{A}_n(V) \to \mathrm{A}_n(V) ein Endomorphismus eines eindimensionalen Vektorraumes und somit gleich der Multiplikation mit einem eindeutigen Element aus K. \checkmark Definition. Das eindeutig bestimmte Element \det(f) \in K nennen wir die Determinante von f. Es ist dadurch bestimmt, dass für jedes \omega \in \mathrm{A}_n(V) und jedes Tupel v \in |V|^n die Gleichung \omega(f(v_1),\dotsc,f(v_n)) = \mathrm{det}(f) \cdot \omega(v_1,\dotsc,v_n) besteht. Man muss dies lediglich für eine Basis (v_1,\dotsc,v_n) von V testen. Zur Anschauung. Anschaulich gibt die Determinante von f an, womit das Volumen eines n-dimensionalen Parallelotops in V skaliert wird, wenn man darauf f anwendet. Kurzum ist die Determinante also ein Skalierungsmaß. \begin{tikzpicture} \fill [black!20] (0,0) to (2,1) to (2.5,2.5) to (0.5,1.5) to (0,0); \draw [thick,->] (0,0) to (2,1); \draw [thick,->] (0,0) to (0.5,1.5); \draw [thick] (0.5,1.5) to (2.5,2.5); \draw [thick] (2,1) to (2.5,2.5); \draw node at (1,0.3) {$v$}; \draw node at (0.03,0.8) {$w$}; \draw node at (1.2,1.2) {\scriptsize $\omega(v,w)$}; \draw (3,1.5) [->] to [out=20,in=160] (4.8,1.5); \draw node at (3.9,2) {$f$}; \fill [black!20] (6,0) to (8.5,0.2) to (8,2.2) to (5.5,2) to (6,0); \draw [thick,->] (6,0) to (8.5,0.2); \draw [thick,->] (6,0) to (5.5,2); \draw [thick] (5.5,2) to (8,2.2); \draw [thick] (8.5,0.2) to (8,2.2); \draw node at (7,1.1) {\scriptsize $\det(f) \cdot \omega(v,w)$}; \draw node at (7.3,-0.2) {$f(v)$}; \draw node at (5.3,1) {$f(w)$}; \end{tikzpicture} Was passiert, wenn man nicht nur Parallelotope, sondern im Falle von V=\mathds{R}^n auch andere messbare Teilmengen betrachtet, und f nicht notwendigerweise linear ist? Dann beantwortet der Transformationssatz aus der Analysis die Frage, womit das Volumen skaliert wird. Die dort auftretende Jakobideterminante ist im Rahmen der geometrischen Definition der Determinante nicht weiter verwunderlich. Spezialfälle. Wenn V=\langle v \rangle eindimensional ist, dann können wir f(v)=\lambda \cdot v schreiben und es gilt \lambda=\det(f). Nun sei V=\langle v,w \rangle zweidimensional und f : V \to V ein Endomorphismus. Wir können also f(v)=x_1 \cdot v + x_2\cdot w und f(w)=y_1 \cdot v + y_2 \cdot w schreiben. Für \omega \in \mathrm{A}_2(V) folgt \omega(f(v),f(w))=\omega(x_1 v + x_2 w, y_1 v + y_2 w)=(x_1 y_2 - x_2 y_1) \cdot \omega(v,w). Dies zeigt \det(f)=x_1 y_2 - x_2 y_1. Zum Beispiel ist die Determinante der Spiegelung v \mapsto w, w \mapsto v gleich -1.
 

3. Eigenschaften der Determinante

Lemma 1 (Multiplikativität der Determinante). Es gilt \mathrm{det}(\mathrm{id}_V)=1 und \mathrm{det}(f \circ g) = \mathrm{det}(f) \cdot \mathrm{det}(g) für Endomorphismen f,g : V \to V. Beweis. Die Gleichung \mathrm{det}(\mathrm{id}_V)=1 folgt aus \omega(\mathrm{id}_V(v_1),\dotsc,\mathrm{id}_V(v_n))=1 \cdot \omega(v_1,\dotsc,v_n). Das Produkt \mathrm{det}(f) \cdot \mathrm{det}(g) erfüllt die Definition von \mathrm{det}(f \circ g), denn für alle \omega \in \mathrm{A}_n(V) gilt \omega(f(g(v_1)),\dotsc,f(g(v_n)))=\mathrm{det}(f) \cdot \omega(g(v_1),\dotsc,g(v_n))=\mathrm{det}(f) \cdot \mathrm{det}(g) \cdot \omega(v_1,\dotsc,v_n). \checkmark Bemerkung. Der Nullvektorraum hat genau einen Endomorphismus, nämlich die Identität. Nach Lemma 1 ist die Determinante hiervon 1. Lemma 2 (Natürlichkeit der Determinante). Es seien \alpha : V \to W ein Isomorphismus von endlich-dimensionalen Vektorräumen und f : V \to V, g : W \to W Endomorphismen mit g \circ \alpha = \alpha \circ f, wie in dem folgenden kommutativen Diagramm: \begin{tikzcd}V \ar{r}{f} \ar{d}[swap]{\alpha} & V \ar{d}{\alpha} \\ W \ar{r}{g} & W \end{tikzcd} Dann gilt \det(f)=\det(g). Beweis. Wegen der Bemerkung im ersten Abschnitt gilt \alpha^* \circ g^* = f^* \circ \alpha^* als lineare Abbildungen \mathrm{A}_n(W) \to \mathrm{A}_n(V), wobei n=\dim(V)=\dim(W). Weil also f^* die Multiplikation mit \det(f) ist und \alpha^* ein Isomorphismus ist, ist auch g^* Multiplikation mit \det(f), d.h. \det(f)=\det(g). \checkmark Satz 4 (Determinanten von Quotienten). Es sei f : V \to V ein Endomorphismus von V und U ein Unterraum von V mit f(U) \subseteq U; man sagt, dass U unter f invariant ist. Wir erhalten Endomorphismen f|_U : U \to U und \overline{f} : V/U \to V/U. Es gilt dann \mathrm{det}(f) = \mathrm{det}(f|_U) \cdot \mathrm{det}(\overline{f}). Beweis. Wähle ein Komplement W von U. Dann können wir V = U \oplus W schreiben und f identifiziert sich mit f(u,w)=(f|_U(u)+g(w),\overline{f}(w)) mit einer linearen Abbildung g : W \to U und der linearen Abbildung \overline{f} : W \to W. Es sei u_1,\dotsc,u_n eine Basis von U und w_1,\dotsc,w_m eine Basis von W. Dann ist also (u_1,0)\dotsc,(u_n,0),(0,w_1),\dotsc,(0,w_m) eine Basis von V. Es folgt für \omega \in \mathrm{A}_{n+m}(V): \omega\bigl(f(u_1,0),\dotsc,f(u_n,0),f(0,w_1),\dotsc,f(0,w_m)\bigr) = \omega\bigl((f|_U(u_1),0),\dotsc,(f|_U(u_n),0),(g(w_1),\overline{f}(w_1)),\dotsc,(g(w_m),\overline{f}(w_m))\bigr) Weil nun \omega((x_1,0),\dotsc,(x_n,0),\dotsc) multilinear und alternierend in den Variablen x_1,\dotsc,x_n ist, erhalten wir: \mathrm{det}(f|_U) \cdot \omega\bigl((u_1,0),\dotsc,(u_n,0),(g(w_1),\overline{f}(w_1)),\dotsc,(g(w_m),\overline{f}(w_m))\bigr). Schreibe g(w_1) = \sum_{i=1}^{n} \lambda_i u_i und subtrahiere \sum_{i=1}^{n} \lambda_i (u_i,0) von (g(w_1),\overline{f}(w_1)). Dies ändert den Wert von \omega(\dotsc) nicht, weil \omega multilinear und alternierend ist. Auf diese Weise erhalten wir im n+1-ten Eintrag einfach (0,\overline{f}(w_1)). Man fährt so fort und gelangt zu \mathrm{det}(f|_U) \cdot \omega\bigl((u_1,0),\dotsc,(u_n,0),(0,\overline{f}(w_1)),\dotsc,(0,\overline{f}(w_m))\bigr). Mit demselben Argument wie oben vereinfacht sich dies zu \mathrm{det}(f|_U) \cdot \mathrm{det}(\overline{f}) \cdot \omega\bigl((u_1,0),\dotsc,(u_n,0),(0,w_1),\dotsc,(0,w_m)\bigr). \checkmark Bemerkung. Man kann Satz 4 auch sehr elegant wiefolgt formulieren: Hat man eine exakte Sequenz 0 \longrightarrow U \longrightarrow V \longrightarrow W \longrightarrow 0 von endlich-dimensionalen Vektorräumen und hat man ein kommutatives Diagramm \begin{tikzcd} 0 \ar{r} & U \ar{d}{g}\ar{r} & V \ar{d}{f}\ar{r} & W \ar{d}{h}\ar{r} & 0 \\ 0 \ar{r} & U \ar{r} & V \ar{r} & W \ar{r} & 0 \end{tikzcd} gegeben, so gilt \det(f) = \det(g) \cdot \det(h). Satz 5 (Determinanten von Summen). Es seien f : V \to V und g : W \to W zwei Endomorphismen. Für den Endomorphismus f \oplus g : V \oplus W \to V \oplus W, (v,w) \mapsto (f(v),g(w)) gilt dann \mathrm{det}(f \oplus g) = \mathrm{det}(f) \cdot \mathrm{det}(g). Beweis. Das folgt aus Satz 4. \checkmark Spezialfall. Sei f : V \to V diagonalisierbar, d.h. es gibt eine Basis v_1,\dotsc,v_n von V und Elemente \lambda_1,\dotsc,\lambda_n \in K mit f(v_i)=\lambda_i \cdot v_i. Dann zerlegt sich f in eine direkte Summe der Endomorphismen \langle v_i \rangle \to \langle v_i \rangle, v_i \mapsto \lambda_i \cdot v_i. Die Determinante ist nach Satz 5 daher das Produkt \lambda_1 \cdot \dotsc \cdot \lambda_n. Bemerkung. Ist allgemeiner f(v_i)=\lambda_i v_i \,+\, eine Linearkombination aus v_1,\dotsc,v_{i-1}, so folgt aus Satz 4 ebenfalls \det(f)=\lambda_1 \cdot \dotsc \cdot \lambda_n. Dazu macht man eine Induktion nach n und nimmt für den Induktionsschritt U=\langle v_1 \rangle. Wenn sich eine solche Basis finden lässt, nennt man f trigonalisierbar. Wenn K algebraisch abgeschlossen ist, ist f stets trigonalisierbar, sodass sich die Determinante berechnen lässt. Wenn K beliebig ist, so kann man zur sogenannten Skalarerweiterung V_{\overline{K}} über einem algebraischen Abschluss \overline{K} übergehen und die Determinante des Endomorphismus f_{\overline{K}} von V_{\overline{K}} ausrechnen. Dies ist das Bild von \det(f) unter der Inklusion K \to \overline{K}. Damit lässt sich also \det(f) allgemein berechnen. Satz 6 (Determinante von Projektionen). Es sei p : V \to V eine Projektion auf einen Unterraum U von V, d.h. p^2=p und \mathrm{Bild}(p)=U. Dann gilt \det(p)=0 falls U \neq V, und \det(p)=1 falls U=V. Beweis. Für U=V ist p=\mathrm{id}_V und damit \det(p)=1. Nun sei U \neq V. Es sei W=\ker(p). Dann ist V = U \oplus W, insbesondere W \neq 0. Es gilt p=\mathrm{id}_U \oplus 0_W. Aus Satz 5 folgt daher \det(p)=\det(\mathrm{id}_U) \cdot \mathrm{det}(0_W) = 1 \cdot 0 = 0. (Alternativ kann man benutzen, dass Projektionen diagonaliserbar sind.) \checkmark Satz 7 (Kriterium für Invertierbarkeit). Es sei f : V \to V ein Endomorphismus eines endlich-dimensionalen Vektorraumes V. Genau dann ist f ein Isomorphismus, wenn \det(f) \neq 0 gilt. Beweis. Wenn f ein Isomorphismus ist, dann gilt \det(f) \cdot \det(f^{-1})=\det(f \circ f^{-1})=\det(\mathrm{id}_V)=1 nach Lemma 1 und damit \det(f) \neq 0. Nun sei f kein Isomorphismus. Dann ist U:=\mathrm{Bild}(f) ein echter Unterraum von V (ansonsten wäre f surjektiv und damit auch bijektiv). Wähle eine Projektion p : V \to V auf U. Dann gilt f = p \circ f. Aus Satz 6 folgt \det(p)=0. Mit Lemma 1 folgt daher \det(f) = \det(p) \cdot \det(f)=0. \checkmark Bemerkung. Man kann die nichttriviale Richtung in Satz 7 auch etwas direkter so beweisen: Sei f : V \to V kein Isomorphismus. Dann ist f nicht injektiv, d.h. es gibt ein v_1 \in V mit v_1 \neq 0 und f(v_1)=0. Ergänze v_1 zu einer Basis v_1,\dotsc,v_n von V. Für \omega \in \mathrm{A}_n(V) gilt dann \omega(f(v_1),\dotsc,\omega(f_n))=\omega(0,\dotsc)=0. Dies zeigt \det(f)=0. Bemerkung. Eine wichtige Folgerung aus Satz 7 ist, dass eine lineare Gleichung der Form f(v)=w (wobei f : V \to V und v,w \in V) stets eindeutig lösbar ist, wenn \det(f) \neq 0 gilt. Dann gilt nämlich v=f^{-1}(w).
 

4. Die Leibniz-Formel

Definition. Es sei X eine endliche Menge. Es sei \sigma : X \to X eine bijektive Abbildung, auch Permutation genannt. Es sei V=\bigoplus_{x \in X} \langle e_x \rangle ein \mathds{Q}-Vektorraum mit Basis \{e_x : x \in X\}. Dann induziert \sigma einen Endomorphismus \tilde{\sigma} : V \to V mit \tilde{\sigma}(e_x) := e_{\sigma(x)}. Wir definieren das Signum von \sigma durch \mathrm{sgn}(\sigma) := \det(\tilde{\sigma})\in \mathds{Q}. Wir werden gleich \mathrm{sgn}(\sigma) \in \mathds{Z} sehen. Bemerkung. Es gilt \mathrm{sgn}(\mathrm{id}_X)=1 und \mathrm{sgn}(\sigma \circ \tau)=\mathrm{sgn}(\sigma) \cdot \mathrm{sgn}(\tau); dies folgt aus \widetilde{\mathrm{id}_X} = \mathrm{id}_V und \widetilde{\sigma \circ \tau} = \tilde{\sigma} \circ \tilde{\tau} und den entsprechenden Aussagen für Determinanten. Die Permutationen X \to X bilden bez. der Komposition eine Gruppe \mathrm{Sym}(X), bekannt als symmetrische Gruppe auf X. Es ist bekannt, dass \mathrm{Sym}(X) von den Transpositionen erzeugt wird, die also zwei Elemente von X miteinander vertauschen und alle anderen Elemente festlassen. Nach Satz 5 und dem Beispiel aus Abschnitt 2 haben Transpositionen Signum -1. Wenn eine Permutation also ein Produkt aus r \in \mathds{N} Transpositionen ist, dann ist das Signum (-1)^r. Wir erkennen also, dass das Signum stets \pm 1 ist. Es handelt sich um einen Homomorphismus von Gruppen \mathrm{sgn}: \mathrm{Sym}(X) \to \{\pm 1\}. Satz 8 (Leibniz-Formel). Es sei V ein endlich-dimensionaler K-Vektorraum mit Basis \{e_x : x \in X\}. Es sei f : V \to V ein Endomorphismus. Schreibe \displaystyle f(e_x) = \sum_{y \in X} a_{y,x} \cdot e_y mit a_{y,x} \in K. Dann gilt die Leibniz-Formel: \displaystyle \det(f) = \sum_{\sigma \in \mathrm{Sym}(X)} \mathrm{sgn}(\sigma) \cdot \prod_{x \in X} a_{\sigma(x),x}. Beweis. Wir können X=\{1,\dotsc,n\} annehmen, wobei n=\dim(V). Es sei \omega \in \mathrm{A}_n(V). Dann gilt aufgrund der Multilinearität: \displaystyle\omega(f(e_1),\dotsc,f(e_n))=\sum_{i_1,\dotsc,i_n=1}^{n} a_{i_1,1} \dotsc a_{i_n,n} \cdot \omega(e_{i_1},\dotsc,e_{i_n}). Wir können hierbei annehmen, dass die i_1,\dotsc,i_n paarweise verschieden sind, weil ansonsten \omega(e_{i_1},\dotsc,e_{i_n})=0 gilt. Dann ist aber \sigma(j):=i_j eine Permutation von \{1,\dotsc,n\}. Es gilt dann weiter \omega(e_{\sigma(1)},\dotsc,e_{\sigma(n)}) = \omega(\tilde{\sigma}(e_1),\dotsc,\tilde{\sigma}(e_n))= \mathrm{sgn}(\sigma) \cdot \omega(e_1,\dotsc,e_n), sodass also \displaystyle\omega(f(e_1),\dotsc,f(e_n)) = \sum_{\sigma \in \mathrm{Sym}(X)} \mathrm{sgn}(\sigma) \cdot \prod_{i=1}^{n} a_{\sigma(i),i} \cdot \omega(e_1,\dotsc,e_n). \checkmark Spezialfall. Für n=2 ergibt sich aus der Leibniz-Formel die aus Abschnitt 2 bekannte Formel. Für n=3 ergibt sich aus der Leibniz-Formel die Regel von Sarrus: Es gilt (mit obigen Bezeichnungen) \det(f) = a_{11} a_{22} a_{33} + a_{31} a_{12} a_{23} + a_{21} a_{32} a_{13} - a_{31} a_{22} a_{13} - a_{11} a_{32} a_{23}- a_{21} a_{12} a_{33} Bemerkung. Mit der Leibniz-Formel kann man theoretisch die Determinante eines beliebigen Endomorphismus, nachdem man ihn in einer Basis dargestellt hat, mehr oder weniger konkret ausrechnen. Aber für große n ist die Leibniz-Formel, abgesehen von theoretischen Überlegungen, nicht wirklich nützlich. Das liegt vor allem daran, dass es n! Permutationen einer n-elementigen Menge gibt und die Fakultät sehr stark mit n wächst. Praktischer ist Satz 4, für dessen Anwendung man lediglich einen unter dem Endomorphismus invarianten nichttrivialen echten Unterraum finden muss. Noch effizienter ist die sogenannte LR-Zerlegung.
 

5. Beispiele

In diesem Abschnitt berechnen wir einige Beispiele von Determinanten. Wir werden dabei die hergeleiteten Eigenschaften der Determinante benutzen. Beispiel A. Es sei V der Vektorraum der Polynome vom Grad (über einem festen Körper). Dieser ist n-dimensional mit Basis 1,T,\dotsc,T^{n-1}. Betrachte den Endomorphismus f : V \to V, f(p) := p(T-1), der also in einem Polynom T durch T-1 ersetzt. Es gilt hierbei f(T^i) \in \langle 1,T,\dotsc,T^i \rangle, d.h. f ist trigonalisierbar. Der Koeffizient von T^i in f(T^i)=(T-1)^i ist offensichtlich 1. Also ist \det(f)=1. Betrachten wir stattdessen f(p) = p(2T-1), so ist der Koeffizient von T^i in f(T^i) = (2T-1)^i offenbar 2^i, sodass also \det(f)=2^0 \cdot 2^1 \cdot \dotsc \cdot 2^{n-1} = 2^{n(n-1)/2}. Beispiel B. Es sei V ein n-dimensionaler Vektorraum und f ein Endomorphismus von V. Es gebe einen Vektor v mit V=\langle f^k(v) : k \in \mathds{N} \rangle. Dann kann man sich V = \langle v,f(v),f^2(v),\dotsc,f^{n-1}(v) \rangle überlegen, d.h. \{v,f(v),\dotsc,f^{n-1}(v)\} ist eine Basis von V. Dann gibt es also Koeffizienten \lambda_0,\dotsc,\lambda_{n-1} mit f^n(v) = \lambda_0 v + \lambda_1 f(v) + \dotsc + \lambda_{n-1} f^{n-1}(v). Für \omega \in \mathrm{A}_n(V) gilt \omega\bigl(f(v),\dotsc,f(f^{n-1}(v))\bigr) = \omega\bigl(f(v),\dotsc,f^{n-1}(v),\lambda_0 v + \lambda_1 f(v) + \dotsc + \lambda_{n-1} f^{n-1}(v)\bigr) = \omega\bigl(f(v),\dotsc,f^{n-1}(v),\lambda_0 v\bigr) = (-1)^{n-1} \lambda_0 \, \omega\bigl(v,f(v),\dotsc,f^{n-1}(v)). Daher ist \det(f) = (-1)^{n-1} \lambda_0. Beispiel C. Es sei V ein n-dimensionaler Vektorraum und definiere \tau : V \oplus V \to V \oplus V durch \tau(v,w) = (w,v). Wenn X eine Basis von V ist, dann ist \bigcup_{x \in X} \{(x,0),(0,x)\} eine Basis von V \oplus V. Auf dieser Basis wirkt \tau als Permutation, nämlich als Produkt aus den n Transpositionen, die (x,0) mit (0,x) vertauschen. Daher ist \det(\tau)=(-1)^n. Beispiel D. Es sei V ein n-dimensionaler Vektorraum mit Basis X und definiere f : V \to V durch f(x)=\sum_{y \in X \setminus \{x\}} \,y für x \in X. Es sei n \geq 1. Für u := \sum_{x \in X} \,x gilt dann u \neq 0 und f(u)=\sum_{x \in X} \sum_{y \in X \setminus \{x\}} \, y = (n-1) \cdot u, denn hierbei wird jedes y \in X genau (n-1) mal summiert. Es ist also U = \langle u \rangle ein eindimensionaler Unterraum, der unter f invariant ist, und für f|_U : U \to U gilt \det(f|_U) = n-1. Der Quotientenraum V/U hat \{[x] : x \in X \setminus \{x_0\}\} als Basis, wobei wir ein x_0 \in X fixiert haben. Für den Endomorphismus \overline{f} : V/U \to V/U gilt \overline{f}([x]) = [f(x)] = [f(x)-u] = [-x]=-[x] für alle x \in X \setminus \{x_0\}. Daher ist \det(\overline{f}) = (-1)^{n-1}. Zusammen erhalten wir also \det(f) = \det(\overline{f}) \cdot \det(f|_U) = (-1)^{n-1} (n-1). Ein ähnliches Vorgehen zeigt: Sind a,b \in K fest und definiert man f(x)=ax + b \sum_{y \in X \setminus \{x\}} \, y, so gilt \det(f) = (a-b)^{n-1} \cdot (a+(n-1) b). Natürlich muss man hier einräumen, dass die Definition von f gar nicht koordinatenfrei ist, sondern eine Basis von V benutzt, aber die Bestimmung der Determinante geht offenbar leichter von der Hand, wenn man an koordinatenfreie elementare Konstruktionen für Vektorräume wie zum Beispiel Quotientenräume denkt. Beispiel E. Es sei V ein n-dimensionaler Vektorraum und f : V \to V ein Endomorphismus. Dieser induziert einen Endomorphismus f_* : \mathrm{End}(V) \to \mathrm{End}(V), g \mapsto f \circ g. Wir möchten \det(f_*) in Abhängigkeit von \det(f) berechnen. Dazu ist es günstig, die Situation zu verallgemeinern: Sei W ein m-dimensionaler Vektorraum. Dann erhalten wir den Endomorphismus f_* : \mathrm{Hom}(W,V) \to \mathrm{Hom}(W,V), g \mapsto f \circ g. Wenn W eindimensional ist, dann identifiziert sich f_* mit f und wir erhalten \det(f_*)=\det(f). Im allgemeinen Fall zerlegt sich W in eine direkte Summe von m eindimensionalen Unterräumen und f_* zerlegt sich entsprechend. Es folgt \det(f_*)=\dim(f)^{m}. Mit einer ähnlichen Überlegung zeigt man \det(f^* ) = \det(f)^{m}, wobei f^* : \mathrm{Hom}(V,W) \to \mathrm{Hom}(V,W), g \mapsto g \circ f. Dabei muss man sich aber im eindimensionalen Fall überlegen, dass die Determinante eines Endomorphismus f : V \to V mit der Determinante des dualen Endomorphismus f^* : V^* \to V^* übereinstimmt. Das sieht man zum Beispiel mit der Leibniz-Formel, aber es gibt auch andere Möglichkeiten. Zum Beispiel kann man sich überlegen, dass \mathrm{A}_n(V^*) und \mathrm{A}_n(V)^* natürlich isomorph sind, wobei hier die Natürlichkeit im Sinne der Kategorientheorie zu lesen ist. Beispiel F. Sofern der Leser bereits mit Tensorprodukten vertraut ist: Seien f \in \mathrm{End}(V) und g \in \mathrm{End}(W) mit n=\dim(V), m = \dim(W). Wir möchten die Determinante von f \otimes g \in \mathrm{End}(V \otimes W) bestimmen. Wegen f \otimes g = (f \otimes \mathrm{id}_W) \circ (\mathrm{id}_V \otimes g) reicht es, \det(f \otimes \mathrm{id}_W) und analog \det(\mathrm{id}_V \otimes g) zu berechnen. Wenn wir eine Basis von W wählen, d.h. einen Isomorphismus W \cong K^m, erhalten wir daraus einen Isomorphismus \alpha : V \otimes W \to V \otimes K^m \to V^m, und das Diagramm \begin{tikzcd} V \otimes W \ar{r}{f \otimes \mathrm{id}_W} \ar{d}[swap]{\alpha} & V \otimes W \ar{d}{\alpha} \\ V^m \ar{r}{f^m} & V^m \end{tikzcd} kommutiert. Daher gilt \det(f \otimes \mathrm{id}_W) = \det(f^m)=\det(f)^m. Analog folgt \det(\mathrm{id}_V \otimes g) = \det(g)^n. Zusammen erhalten wir daher \det(f \otimes g) = \det(f)^m \cdot \det(g)^n. Aufgabe. Es sei V ein n-dimensionaler Vektorraum mit Basis \{v_1,\dotsc,v_n\}. Definiere die lineare Abbildung f : V \to V durch f(v_i)=v_{i-1}+v_i + v_{i+1} für 1 und (falls n \geq 2) f(v_1)=v_1 + v_2 und f(v_n)=v_{n-1}+v_n. Berechne \det(f) in Abhängigkeit von n.
Ich bedanke mich bei meinen Korrekturlesern KidinK, sbechtel und gonz.
In den Kommentaren können wir gerne weiter über das Thema diskutieren.
 


Dieser Artikel kommt von Matroids Matheplanet
https://matheplanet.de

Die Url für diesen Artikel ist:
https://matheplanet.de/default3.html?article=1697