Commit 2de51576 authored by Harry Fuchs's avatar Harry Fuchs

2019-04-17

parent c56d77b9
Pipeline #1994 canceled with stages
in 0 seconds
...@@ -952,3 +952,240 @@ $$ ...@@ -952,3 +952,240 @@ $$
$$ $$
Alle anderen Terme verschwinden, weil eine Vektor im Produkt doppelt vorkommt. Alle anderen Terme verschwinden, weil eine Vektor im Produkt doppelt vorkommt.
%2019-04-17
Gestern:
$$
\bigwedge (V) = T(V) / I(V)
$$
$I(V) = \langle v\otimes v\ |\ v\in V \rangle$ Ideal erzeugt durch $v\otimes v$
$$
= \left\{ \sum_{i=1}^k t_i \otimes v_i \otimes v_i z_i \ \middle|\ t_i, t'_i \in T(V), v_i \in V \right\}
$$
$$
[\underbrace{ v_1\otimes \ldots \otimes v_n }_{\in T(V)}] =: i v_1 \wedge \ldots \wedge v_n \in \bigwedge (V)
$$
nach Konstruktion gilt $v\wedge v = 0$, $v'\in V$ (daraus folgt: $v \wedge w = -w \wedge w$, $v$, $w \in V$, $0= (v+w)\wedge (v+w) = \underbrace{v\wedge v}_{=0} + v\wedge w + w\wedge v + \underbrace{w \wedge w}_{=0} = v\wedge w + w\wedge v$)
Das Bild von $V^{\otimes k}$ in $\bigwedge (V)$ heißt $\bigwedge^k(V)$ -- die Elemente der Länge $k$,
$$
\bigwedge^k (V) = \left\{ \sum_{i=1}^{k} v_{i_1} \wedge \ldots \wedge v_{i_k} \middle| v_{i_l} \in V \right\}
$$
** Proposition
Wenn $(e_i)^n_{i=1}$ eine Basis von $V$ ist, ist $\{ e_{i_1} \wedge \ldots \wedge e_{i_k} \ |\ 1\leqslant i_1 < \ldots < i_k \leqslant u \}$ eine Basis von $\bigwedge^k(V)$; insbesondere $\dim \bigwedge_k(V) = \binom{n}{k}$, $0\leqslant k\leqslant n$, $\bigwedge^k(V) = \{0\}$ für $k> n$
Beweis:
Wir haben die Aussage darauf reduziert, dass in $\bigwedge_k(V)$ $e_1\wedge \ldots \wedge e_n \neq 0$
$\longrightarrow$ Reduktion für $k=2$, $n=4$. wird behauptet, dass $\{ e_1\wedge e_2, e_1 \wedge e_3, e_1\wedge e_n, e_2\wedge e_3, e_2\wedge e_4, e_3\wedge e_4 \}$ linear unabhängig sind. Wenn nicht $\exists \alpha_{ij}$:
$$
\alpha_{12}e_1\wedge e_2 + \alpha_{13}e_1\wedge e_j + \alpha_{14} e_1\wedge e_4 + \ldots = 0
$$
$\rightarrow \alpha_{13} e_1e_3\wedgee_2\wedgee_4 = 0 = -\alpha_{13}(e_1\wedge e_2 \wedge e_3 \wedge e_4)$
$$
e_1\wedge \ldots \wedge e_n \neq 0 \Leftrightarrow e_1\otimes \ldots \otimes e_n \notin I(V)
$$
Wenn
$$
v &=& \sum_{i=1}^{n} \lambda_i e_i
\\ v\otimes v &=& \sum_{i,j = 1}^{n} \lambda_i \lambda_j e_i \otimes e_j
\\ &=& \sum_{i=1}^{n} \lambda_i^2 e_i \otimes e_i + \sum_{i,j = 1\atop i<y}^{n} \lambda_i\lambda_j (e_i\otimes e_j + e_j \otimes e_i)
$$
Sei $x\in I_n(V) = I(V)\cap V^{\operatorname{op}}$. Aus der obigen Rechnung folgt: Wenn man $x$ in der Tensorbasis ausdrückt.
$$
x = \sum_{1\leqslant i_{1}, \ldots, i_n \leqslant n} x^{i_1, \ldots, i_n} e_{i_1} \otimes \ldots \otimes e_{i_n}
$$
dann gilt: wenn alle $i_j$'s verschieden sind, so gilt
$$
x^{i_1,\ldots,i_j,i_{j+1},\ldots,l_n} = x^{i_1, \ldots, i_{j+1}, i_j, \ldots, i_n}
$$
Bei $e_1\otimes \ldots \otimes e_n$ ist der Koeffizient $x^{1,2,\ldots, n} = 1$ alle anderen $0 \Rightarrow e_1 \otimes \ldots \otimes e_n \notin I_n(V)$
Bemerkung:
Jede lineare Abbildung $f\colon V \to V$ induziert eine lineare Abbildung
$$
\bigwedge f\colon \bigwedge V &\to& \bigwedge V
\\ (v_1\wedge \ldots \wedge v_k) &\mapsto& (f(v_1)\wedge \ldots \wedge f(v_k))
$$
Insbesondere bekommt man die Abbildung ($\dim V = n$) $\bigwedge_n f \colon \underbrace{\bigwedge^n V}_{\cong R} \overset{\det f}\longrightarrow \underbrace{ \bigwedge^n V }_{ \cong R }$
$$
\bigwedge (g\circ f) = \bigwedge g \circ \bigwedge f &\Rightarrow& \det (g\circ f) = \det (g) \cdot \det (f)
\\ && \det(\operatorname{id}) = 1
$$
Die explizite Formel ergibt sich daraus, dass $e_1\wedge \ldots \wedge e_n$ ein Basisvektor in $\bigwedge^n V$ ist. $\rightsquigarrow$
$$
f(e_1\wedge \ldots \wedge e_n) = f(e_1) \wedge \ldots \wedge f(e_n) = \ldots\ \text{ (Leibnitz-Formel) } e_1\wedge \ldots \wedge e_n
$$
$[f_{ij}] = M_{\xi}^{\xi} (f)$
$$
f(e_i) = \sum_{j=1}^{n} f_{ij} e_j
$$
$$
f(e_1\wedge \ldots \wedge e_n) &=& \sum_{j_1,\ldots, j_n = 1}^n f_{1,j_1} \cdots f_{n,j_n} e_{j_1} \wedge \ldots \wedge e_{j_n}
\\&=& \sum_{j=(j_1, \ldots, j_1) \in S_n} f_{1,j_1} \cdots f_{n,j_n} \operatorname{sign}(j) e_1\wedge\ldots\wedge e_n
$$
Letzes Mal:
$$
\text{Tensoren vom Typ $(n,s)$ } \mathrel{\hat=} T_{r,s} (V) \cong M_{s,r}(V) \mathrel{\hat=} \text{ lineare Abbildungen } V^{\otimes s}\otimes(V^*)^{\otimes r} \to \mathbb R
$$
Nächstes Ziel:
Interpretiere $\bigwedge^k V^*$ als gewisse multiliniear Abbildung $V^k \to \mathbb R$
$$
\bigwedge^k V^* &=& (V^*)^{\otimes k} / I_k(V^*)
\\ (V^*)^{\otimes k} = \{ f\colon V^k \to \mathbb R \ |\ f \text{ multilinieare Abbildung } \}
$$
$$
I_k(V^*) = I(V^*) \wedge (V^*)^{\otimes k}
$$
$I(V^*) = \{ \sum t\otimes \alpha \otimes \alpha \otimes t' \}$, erzeugt durch $\{ \alpha \otimes \alpha\ |\ \alpha \in V^* \}$
$$
(\alpha \otimes \alpha)(v_1\otimes v_2) = \alpha (v_1)\alpha(v_2) = (\alpha \otimes \alpha)(v_2, v_1)
$$
** Definition
Eine multiliniear Abbildung $m\colon \underbrace{ V^{k} }_{= V\times \ldots \times V} \to \mathbb R$ ($= m\colon V^{\otimes k}\to \mathbb R$) heißt alternierend, wenn
$$
m(\ldots, v_i, \ldots, v_j, \ldots) = 0\ \text{ für alle } v\in V
$$
$\Leftrightarrow m$ verschwindet, wenn zwei (beliebige) $V$ gerade gleich sind)
** Beispiel
$\det (\mathbb R^n)^n \to \mathbb R$ ist eine alternierende Abbildung. Wenn $m\colon V^{\otimes k} \to \mathbb R$ alternierend, dann gilt
$$
m|_{I_k(V)} = 0
$$
(nach Definition von $I_k(V)$)
$\longrightarrow$ $m$ definiert eine Abbildung
$$
\overline{m} \colon \bigwedge^kV &\to& \mathbb R
\\ [v_1\wedge\ldots\wedge v_n] \mapsto m(v_1\otimes \ldots \otimes v_n)
$$
** Proposition
$$
\bigwedge^k V^* \cong (\bigwedge^k V)^* \cong A_k(V) = \{ m\colon V^k \to \mathbb R \text{ alternierend } \}
$$
Beweis:
Wie gerade gesehen, definiert jedes $m\in A_k \in (V)$ ein Element $\overline m \in \left(\bigwedge^k\right)^*$, $m\mapsto \overline m$ ist offensichtlich linear. Umgekehrt: jedes $\overline m\colon \bigwedge^k V \to \mathbb R$ definiert eine multilinieare Abbildung
$$
m\colon V\times \ldots \times V &\to& \mathbb R
\\ (v_1,\ldots, v_k) &\mapsto& \overline{m}(v_1\wedge\ldots\wedge v_k)
$$
sie ist alternierend, weil
$$
v_1 \wedge \ldots \wedge v \wedge \ldots \wedge v \wedge \ldots \wedge v_k = 0
$$
Zum Iso %TODO ??
$\bigwedge^k V^* \cong (\bigwedge^k V)^*$: wir brauchen eine nichtsinguläre bilineare Paarung $\bigwedge^kV^*\times\bigwedge^kV\to \mathbb R$ (die für $K=1$ offensichtlich ist)
$$
V^*\times V &\to& \mathbb R
(\alpha, v) \mapsto \alpha(v)
$$
Man definiert die Paarung so:
$$
(\alpha_1\wedge\ldots\wedge\alpha_k, v_1\wedge\ldots\wedge v_k) \mapsto \det(\alpha_i(v_j))_{i,j=1}^k
$$
Die Paarung ist nicht ausgeartet, denn: in $\bigwedge^k V$ haben wir nach der Wahl einer Basis $e_1, \ldots, e_n \in V$ die Basis
$$
\{ e_{i_1}\wedge\ldots\wedge e_{i_k}\ |\ (1\leqslant i_1 < \ldots < i_k \leqslant n) \} (*)
$$
Wenn $e_1^*, \ldots, e_n^* \in V$ dual zu $e_1, \ldots, e_n$, dann ist
$$
\{ e_{i_1}^* \wedge \ldots \wedge e_{i_k}^* \ |\ 1\leqslant i_1 < \ldots < i_k \leqslant n \}
$$
dual zu $(*)$ bezüglich der Paarung:
$$
(e_i^*(e_j))_{i,j = 1}^k =
\left(\begin{matrix}
1 & & \\
& \ddots & \\
&& 1
\end{matrix}\right)
$$
wenn aber $(i_1,\ldots, i_k) \neq (j_1,\ldots j_k)$, dann ist
$$
(e_{il}^*(e_{jl})) =
\left(\begin{matrix}
1 &&&& \\
& \ddots &&& \\
&&0&& \\
&&&\ddots& \\
&&&& 1
\end{matrix}\right)
$$
$\Rightarrow$ $\det = 0$
%TODO missing
** Bemerkung
Unter der Identifikation aus der Proposition bekommen wir die Rechenregeln
$$
(\alpha_1\wedge\ldots \wedge \alpha_k)(v_1,\ldots, v_k) = \det(\alpha_i(v_j))_{i,j = 1}^k
$$
Insbesondere gilt für $k=2$:
$$
\alpha_1 \wedge \alpha_2(v_1, v_2) = \alpha_1(v_1)\alpha_2(v_2) - \alpha_1(v_2)\alpha_2(v_1)
$$
Markdown is supported
0% or
You are about to add 0 people to the discussion. Proceed with caution.
Finish editing this message first!
Please register or to comment