%TODO alles mit ?? * Erinnerungen an WS Wir studieren Mannigfaltigkeiten (Mfg). $\approx$ topologische Räume, die lokal wie $\mathbb R^n$ aussehen + glatte ~Strukturen~ von glatten Abbildungen zu sprechen. Konkret: um jeden Punkt $p\in M$ gibt es eine Umgebung $U\ni p$ zusammen mit einer Karte $x\colon U\to \mathbb R^n$ %Bild 1 Idee: da $M$ lokal wie $\mathbb R^n$ aussieht, versucht man, Objekte aus der Analysis auch auf $M$ zu verstehen. ~Wichtig dabei~: das Objekt auf $M$ muss koordinatenunabhängig werden! (Physik verlangt das auch!) 1. ~Tangentialraum~ „über“ jedem Punkt $p\in M$ „hängt“ ein Vektorraum $T_pM$, $\dim T_pM = \dim M$ Elemente von $T_pM$ heißen Tangentialvektoren. %TODO %TYPO: remove space here $$ T_pM &=& \{ \text{Ableitungen von Funktionen an } p \} \\&=& \{ \partial \colon C^{\infty}(M) \to \mathbb R \text{ linear} \ |\ \partial(fg) = f(p)\cdot\partial(g) + g(p)\cdot\partial(f) \} $$ Motto: Tangentialvektor $\mathrel{\hat=}$ Richtungsableitung! %Bild 2 $\pi \colon TM \to M$ ist glatt $v\in T_pM \mapsto p$ Nutzen: wir verstehen „wirklich“, was Ableitungen sind Früher: $$ f\in C^\infty(\mathbb R^m, \mathbb R^n) &\rightsquigarrow& D_pf \in \mathbb M_{n\times m} (\mathbb R) \\&& Df \in C^\infty(\mathbb R^m, \mathbb M_{n\times m}(\mathbb R)) $$ Jetzt in Diffgeo: $$1 f\in C^\infty(M, N) \underset{p\in M}\rightsquigarrow D_pf \colon T_pM \to T_{f(p)}N \text{ linear} $$1 %Bild 3 2. ODEs als Flüsse von Vektorfeldern %Bild 4 Vektorfeld: $X\colon M \to TM$ mit $\pi \circ X = id_M$ ($\Leftrightarrow X(p) \in T_pM$) Gegeben $X \rightsquigarrow \Phi \colon \underset{\subseteq \mathbb R \times M}W \to M$ (Fluss des Vektorfeldes) s.d. $\forall p\in M\ \gamma_p(t) := \Phi(t,p)$ die ODE $$1 \dot \gamma(t) = X(\gamma(t)) $$1 lässt 3. Lie-Klammer von Vektorfeld und Lie-Gruppen Auf Vektorfeldern auf $M$ ergibt es eine interessante algebraische Struktur: die Lie-Klammer: gegeben $X$, $Y \in \underbrace{\Gamma(TM)}_{Vektorfeld} \rightsquigarrow [X,Y] \in \Gamma (TM)$ $(\Gamma(TM), [\cdot, \cdot])$ wird zu einer Lie-Algebra. Def. Eine Lie-Algebra $(V, [\cdot, \cdot])$ ist ein Vektorraum $V$ mit einer bilinearen Abbildung $[\cdot, \cdot]: V\times V \to V$ mit folgenden Eingenschaften: 1. $[X,Y] = -[Y,X]$, $\ X$, $Y \in V$ 2. Jacobi-Identität: $X$, $Y$, $Z\in V$: $$ [X, [Y,Z]] + [Y, [Z, X]] + [Z, [X,Y]] = 0 $$ Beispiele: 1. $\Gamma(TM)$, $[\cdot, \cdot]$ ist eine Lie-Algebra 2. $\mathbb M_u(\mathbb R)$, $[A,B] = AB - BA$ ist eine Lie-Algebra Verbindung zwischen a) und b)%ref -- Lie-Gruppen Lie-Gruppe $=$ Mannigfaltigkeit und Gruppe (auf kompatible Weise) Multiplikation, Inversion glatt. $G$ Lie-Gruppe $\rightsquigarrow \operatorname{Lie}(G) = 2(G) = \{ X\in \Gamma(TG) \ |\ \underbrace{(Lg)_*}_{(Lg)_{*,p} = D_pLg} X = X \} = \{ x\ |\ x \text{ linksinvariantes Vektorfeld } \}$ $\rightarrow$ Lie-Algebra bzgl. $[\cdot, \cdot]$, heißt Lie-Algebra von $G$. Eigenschaften: $\operatorname{Lie}(G) \cong T_1G$ als Vektoraum $\Rightarrow \dim_{\mathbb R} \operatorname{Lie}(G) = \dim G$ %TODO %TYPO vertical space $$ Lg \colon G &\to& G\\ h &\mapsto& g\cdot h $$ Satz $G = GL(n, \mathbb R) \underset{\text{offen}}{\subset} \mathbb M_n(\mathbb R)$ $\operatorname{Lie}(G) \cong T_1G \underset{\text{Vektoraum}}\cong \mathbb M_n (\mathbb R)$ Dies ist auch ein Isomorphismus zwischen Lie-Algebren! $$1 (\operatorname{Lie}(\operatorname{GL(n, \mathbb R)}), [\cdot, \cdot]) \cong (\mathbb M_n(\mathbb R), [\cdot, \cdot]) $$1 Für jedes $G< \operatorname{GL}(n, \mathbb R)$ ist dann $\operatorname{Lie}(G) \subseteq (\mathbb M_n(\mathbb R), [\cdot, \cdot])$. $$1 [A,B] = AB - BA $$1 %DATE 2019-04-02 * Übung 1 Differential einer Abbildung $$1 f\colon \mathbb R^n \to \mathbb R^n $$1 $$ p\in \mathbb R^n\ \ \ D_p f \colon \mathbb R^n &\to& \mathbb R^m (\text{linear}) \\ v &\mapsto& \underbrace{\partial_vf(p)}_{=D_pf(v)} $$ $$ \partial_v f(p) &=& \sum_{i=1}^n \left.\frac{\partial f}{\partial x^i}\right|_p v^i \\ D_pf \underset{\text{als Matrix}}{=} \left(\frac{\partial f_i}{\partial x^j} \right)_{ \begin{matrix} i = \overline{1, m} \\ j = \overline{1, n} \end{matrix}} $$ $$ f\colon M\to N $$ $$ p\in M \rightsquigarrow D_p f \colon &T_p M& \to T_{f(p)}N\ \text{linear} \\ &\reflectbox{\rotatebox[origin=c]{90}{$\in$}}& \\ &v& \mapsto (\underbrace{\varphi}_{C^\infty} \mapsto v(f^*\varphi)) = v(\underbrace{\phi \circ f}_{\in C^\infty(M)}) $$ $v \mathrel{\hat=}$ Ableitungsoperation ($v\colon C^\infty(M) \to \mathbb R$) mit $v(fg) = f(p)v(g) + g(p)v(f)$ \begin{tikzcd} M \arrow[r, "f"] \arrow[rr, "f^*\varphi"', bend right] & N \arrow[r, "\varphi"] & \mathbb R \end{tikzcd} %TODO vertical line %2019-??-?? TODO Bildchen %TODO $$ M &\overset f\to& N \\ &\reflectbox{\rotatebox[origin=c]{270}{$\leadsto$}}& \\ C^\infty(N) &\overset{f^*}{\to}& C^\infty(M)\ \text{linear, sogar Algebrenhomomorphismus}%TODO letzes Wort nicht verstanden \\ \varphi &\mapsto& \varphi\circ f $$ Jeder Tangentialvektor $v$ ist eine lineare Abbildung $v\colon C^\infty(M) \to \mathbb R$, dann ist $\underbrace{v\circ f^*}_{=D_{\pi(v)}f(v) = f_*v} \colon C^\infty(M) \to \mathbb R$ linear %TODO vertical line ** Beispiel $$1 G = U(n) = \{ A \in \mathbb M_n (\mathbb C) \ |\ A^*A = 1 \} \subseteq \operatorname{GL}(n, \mathbb C) $$1 $$ &\operatorname{Lie}(G)& = \operatorname{og} = \underline{u}(n) = {?} = \{ X\in \mathbb M_n \mathbb(C) \ |\ X^* = -X \},\ [\cdot, \cdot] \\&\reflectbox{\rotatebox[origin=c]{90}{$\cong$}}&\\ &T_1G& \subset T_1\operatorname{GL}(n, \mathbb C) \cong \operatorname{gl}(n, \mathbb C) \cong \mathbb M_n(\mathbb C) \\&\reflectbox{\rotatebox[origin=c]{90}{$=$}}&\\ \{&\dot\gamma(0)& \ |\ \gamma\colon(-\epsilon, \epsilon) \to G \wedge \gamma(0) = 1\} $$ Sei $\gamma\colon(-\epsilon, \epsilon) \to G$ eine Kurve, $\gamma(0)=1$ $G=U(n)\Rightarrow \gamma(t)^*\cdot \gamma(t) = 1 \leftarrow \left.\frac{d}{dt}\right|_{t=0}$ $$ \dot\gamma(0)^*\gamma(0) &+& \gamma(0)^*\dot\gamma(0) = 0\\ &\reflectbox{\rotatebox[origin=c]{90}{$=$}}&\\ \dot\gamma(0)^* &+& \dot\gamma(0) = 0 $$ Also: $$ T_1(G) \subseteq \{ X\in \mathbb M_n(\mathbb C)\ |\ X^* = -X \} $$ Dazu: Zeige $\supseteq$ betrachte: $$ \gamma(t) := e^{tX} \left(:= \sum_{k=0}^\infty \frac{t^k X^k}{k!}\right) \\ \gamma(t)^* = e^{tX^*} = e^{-tX} \\ \gamma(t)*\gamma(t) = e^{-tX}\cdot e^{tX} = 1 \Rightarrow \gamma(t)\in \operatorname{U}(n) \\ \dot\gamma(t) = Xe^{tX} \Rightarrow \dot\gamma(0) = X $$ wie gewünscht. $\Rightarrow$ Gleichheit %Hinweis nur mündlich: $$ D_1 \det = (A\mapsto \operatorname{Trace}(A)) $$ $$ G = U(n) < \operatorname{GL}(n,\mathbb R) \operatorname{og} = \underline{u}(n) \subset \operatorname{gl}(n,\mathbb R) = \mathbb M_n(\mathbb R) $$ Wir haben gesehen: $$ \exp \colon &\operatorname{og}& \to G\\ &\reflectbox{\rotatebox[origin=c]{90}{$\in$}}&\\ &X& \mapsto \exp(X) $$ $$ \gamma(t) = e^{tX} = \exp(tX) $$ $$ \dot\gamma(t) = Xe^{tX} = e^{tX} \cdot X = \gamma(t) \cdot X = \left( L_{\gamma{(t)}} \right)_* \underbrace{X}_{\in T_1G} = \tilde X(\gamma(t)) $$ wobei $\tilde X$ das linksinvariante Vektorfeld zu $X$ ist $\Rightarrow \gamma(t)$ ist eine Integralkurve von $\tilde X$ Ausführlicher: $G\in \operatorname{GL}(m, \mathbb R) \subset \mathbb M_n(\mathbb R) \cong \mathbb R^{n^2}$ $$ X\in T_1G \rightsquigarrow \underbrace{\tilde X(A)}_{ \text{linksinvariantes VF} } = \underbrace A_{\in G}\cdot X \in T_AG\subseteq \mathbb M_n(\mathbb R) $$ Eine Integralkurve $A(t) \in G$ von $\tilde X$ erfüllt dann: $$ \dot A(t) = A(t)\cdot X $$ $\rightsquigarrow$ mit $A(0) = 1 \rightsquigarrow A(t) = e^{tX}$ %TODO vertical line $$ x &\mapsto& A\cdot x \\ f\colon \mathbb R^n &\to& \mathbb R^n \ \text{linear} \\ \Rightarrow D_pf = f\colon \mathbb R^n &\to& \mathbb R^m \\ \\ f\colon V &\to& W \text{ linear} $$ mit Übung 28 %TODO ref $p\in V$: \begin{center} \begin{tikzcd} T_pV \arrow[r, "D_pf"] \arrow[d, phantom, "\reflectbox{\rotatebox[origin=c]{90}{$\cong$}}" description] & T_pW \arrow[d, phantom, "\reflectbox{\rotatebox[origin=c]{90}{$\cong$}}" description] \\ V \arrow[r, "f"] & W \end{tikzcd} \end{center} %TODO vertical line %TODO das war das mündliche Zeug $$ \det \gamma(t) = 1 \leftarrow \left.\frac{d}{dt}\right|_{t=0} $$ $$ \det \colon \operatorname{GL}(n, \mathbb R) \to \mathbb R $$ $$ D_1 \det \colon \mathbb M_n(R) &\to &\mathbb R \\ A &\mapsto& {?} = \operatorname{Tr}(A) $$ $$ \det (1+tA) = 1 + ({?}) + O(t^2) $$ Determinante ist Konjugationsinvariant $$1 \det(1+tA) = \det (1+tBAB^{-1}) $$1 Wenn $A$ diagonalisierbar ist folgt somit: $$ \det (1+tA) &=& \left|\begin{matrix} 1+t\lambda_1& & \\ & \ddots & \\ && 1+t\lambda_n \end{matrix}\right| \\&=& (1+t\lambda_1)\cdots(1+t\lambda_n) \\&=& 1+t(\lambda_1 + \lambda_n) + O(t^2) \\&=& 1 + t\cdot \operatorname{Trace}(A) + O(t^2) $$ * Integration auf Mannigfaltigkeiten Suchen eines koordinateninvarianten Integrationsbegriffs %TODO schöner \begin{tikzcd} \arrow[rr, "U", no head] & & \mathbb R^n \\ & & \downarrow \ \alpha \colon U\overset{\cong} \to V \text{ Diffeo} \\ \arrow[rr, "V"', no head] & & \mathbb R^n \end{tikzcd} Betrachte $n=1$: $U$, $V \subseteq \mathbb R$ offenen Intervalle. $\alpha\colon \underbrace{U}_{=(a,b)} \to V$ Diffeo ($=$ strikt monotone glatte Fkt.) Transformationsformel: $$ \int_{\alpha(a)}^{\alpha(b)} f(\alpha(t))\alpha'(t)\intd t = \int_{a}^{b}f(t)\intd t $$ „Mnemonik“: $$ \intd v = v'(u)\intd u $$ $f\colon V\to \mathbb R$ $$ \int_{U}(\alpha^*(f))(u)\alpha'(u)\intd u = \int_V f(v)\intd v \neq \int_V \alpha^*(f)(t) \intd t $$ In $\mathbb R^n$: $$ \int_U \alpha^*(t)(\det D_u\alpha)\intd_{u_1}\cdots\intd_{u_n} = \int_V f(v) \intd_{v_1}\dotsm\intd_{v_n} $$ $$ \alpha \colon &U& \to V \text{ Diffeo} \\ &(u_1,\dotsc,u_n)& \mapsto (v_1, \dotsc, v_n) $$ $v=v(u)$ $$ \int_V f(v) \intd v_1 \intd v_2 $$ $$ \intd v_1 = \frac{\partial v_1 }{\partial u_1 }\intd u_1 + \frac{\partial v_1 }{\partial u_2 }\intd u_2 $$ $$ \intd v_2 = \frac{\partial v_2 }{\partial u_1 }\intd u_1 + \frac{\partial v_2 }{\partial u_2 }\intd u_2 $$ $$ \intd v_1 \intd v_2 = \xcancel{\frac{\partial v_1 }{\partial u_1 }\frac{\partial v_2 }{\partial u_1 } \intd u_1 \intd u_1} + \xcancel{\frac{\partial v_1 }{\partial u_2 }\frac{\partial v_2 }{\partial u_2 } \intd u_2 \intd u_2} + \frac{\partial v_1 }{\partial u_1 }\frac{\partial v_2 }{\partial u_2 } \intd u_2 \intd u_2 + \frac{\partial v_1 }{\partial u_2 }\frac{\partial v_2 }{\partial u_1 } \intd u_2 \intd u_1 =: (*) $$ $$ = \int_V f(v) \intd v_1 \intd v_2 = \int_U f(v(u)) % \left%TODO overcome boxes \Bigg ( \underbrace{ \frac{\partial v_1 }{\partial u_1 } \frac{\partial v_2}{\partial u_2} - \frac{\partial v_1}{\partial u_2}\frac{\partial v_2}{\partial u_1} }_{ \underset{ \begin{subarray}{c} \text{sollte}\\ (*)\text{ sein} \end{subarray} }{=} \det \left( \begin{matrix} \frac{\partial v_1}{\partial u_1} & \frac{\partial u_1}{\partial u_2} \\ \frac{\partial v_2}{\partial u_1} & \frac{\partial v_2}{\partial u_2} \end{matrix}\right) } \Bigg % \right ) \intd u_1 \intd u_2 $$ Damit die Mnemonik stimmt, muss also gelten: $$ \intd u_1 \cdot \intd u_1 &=& \intd u_2 \cdot \intd u_2 = 0 \\ \intd u_1 \cdot \intd u_2 &=& - \intd u_2 \cdot \intd u_1 = 0 $$ Erkenntniss: Koordinatenfrei werden nicht Funktionen, sondern sogenannte Differentialformen integriert. Eine $n$-Differentialform auf $\mathbb R^n$ ist (informell) ein Ausdruck $$ \omega = f(x) \intd x_1 \wedge \ldots \wedge \intd x_n $$ mit den Rechenregeln: wenn $x=x(y)$ mit $y = (y_1,\dotsc,y_n)$ dann transformiert sich der Ausdruck zu $$ f(x(y)) \left( \frac{\partial x_1}{\partial y_1}\intd y_1 + \ldots + \frac{\partial x_1}{\partial y_n}\intd y_n \wedge \ldots \wedge \frac{\partial x_n}{\partial y_1}\intd y_1 + \ldots + \frac{\partial x_n}{\partial y_n}\intd y_n \right) $$ und es gilt: $$ T^*M \ni \intd y_i \wedge \intd y_j = -\intd y_j \wedge \intd y_i,\ \ \ \ i,j = 1,\ldots, n $$ folglich ist $\int \omega$ unabhängig von Koordinaten. Ziel: * Das Tensorprodukt ausgehend von einem Vektoraum $V(= T_pM, T_p^*M)$ einen Kalkühl zu entwickeln, welcher die Interpretation von Ausdrücken wie $\intd x_1 \wedge \ldots \wedge \intd x_k$ mit Rechenregeln $\intd x_i \wedge \intd x_j = \intd x_j \wedge \intd x_i$ erlaubt. Das wird durch Theorie von Tensorprodukten und multiliniearen (z.B. $\det\colon \underbrace{\mathbb R^n \times \ldots \times \mathbb R^n}_{n\text{-mal}} \to \mathbb R$) Abbildungen gemacht Hauptidee: eine multilinieare Abbildung $f\colon V_1 \times \ldots \times V_n \to W$. Es reicht diese Idee für bilineare Abbildungen zu realisieren. (dann wiederholt man es) ** Definition: Tensorprodukt Ein Vektoraum $V\otimes W$ zusammen mit einer bilinearen Abbildung $i\colon V \times W \to V \otimes W$ heißt Tensorprodukt von $V$ und $W$, wenn für jede bilineare Abbildung $f \colon V\times W \to Z$, ($Z$ beliebiger Vektoraum) eine eindeutige lineare Abbildung $\bar f \colon V\otimes W \to Z$ existiert mit $\bar f\circ i = f$ (genannt universelle Eigenschaften) \begin{center} \begin{tikzcd} V\times W \arrow[r, "i"] \arrow[rd, "f"'] & V\otimes W \arrow[d, "\exists!\bar f", dashed] \\ & Z \end{tikzcd} \end{center} ** Lemma: Eindeutigkeit des Tensorprodukts $V\otimes W$ Wenn $V\otimes W$ existiert, dann ist es eindeutig bis auf einen eindeutigen Isomorphismus. Beweis: \begin{center} \begin{tikzcd} V + W \arrow[r, "i_1"] \arrow[rd, "i_2"'] & (V\otimes W)_1 \arrow[d, "\exists!f_1", dashed] & \ \\ & (V\otimes W)_2 & \arrow[u, "\exists!f_2", dashed] \end{tikzcd} \end{center} Die universelle Eigenschaft von $(V\otimes W)_1$ liefert $f_1\colon (V\otimes W)_1 \to (V\otimes W)_2$ mit $f_1\circ i_1 = i_2$. Die universelle Eigenschaft von $(V\otimes W)_2$ liefert $f_2\colon (V\otimes W)_2 \to (V\otimes W)_1$ mit $f_2\circ i_2 = i_1$. Beh. $f_1$, $f_2$ sind invers zueinander. Betrachte: \begin{center} \begin{tikzcd} V\otimes W \arrow[r, "i_1"] \arrow[rd, "i_1"'] & (V\otimes W)_2 \arrow[d, "\bar f"] \\ & (V\otimes W)_2 \end{tikzcd} \end{center} $f_2\circ f_1$ und $\operatorname{id}$ erfüllen beide die geforderte Eigenschaft an $\bar f$. $$ (f_2\circ f_1)\circ i_1 &=& i_1 \\ {\operatorname{id}} \circ i_1 &=& i_1 $$ Da es aber nur eine solche Funktion gibt, müssen sie gleich sein: $$ f_2\circ f_1 = \bar f = \operatorname{id} $$ Also $f_1\circ f_2 = \operatorname{id}_{(V\otimes W)_2}$ und analog gilt $f_2\circ f_1 = \operatorname{id}_{(V\circ W)_1}$. Also $f_1$ Isomorphismus ** Existenz von $V \otimes W$ Idee: $V\otimes W$ soll von Ausdrücken der Form $v\otimes w$, $v\in V$, $w\in W$ aufgespannt werden und $v\otimes w$ soll linear in $V$ und $W$ sein. Definition: Sei $X$ eine Menge. Der freie (reelle) Vektoraum auf $X$, $\mathcal F_{\mathbb R}(X)$, ist der %TODO der? Eindeutigkeit? (reelle) Vektoraum mit Basis $X$. $$ \mathcal F_{\mathbb R}(X) \cong \{ f\colon X\to \mathbb R\ |\ f(x) \neq 0 \text{ für endlich viele } x\in X \} $$ $$ V\otimes W &:=& { \mathcal F_{\mathbb R}(V\times W) }/\underbrace{ \left\langle\left\{ \begin{subarray}{l} \eins_{(v_1+v_2, w)} -\eins_{(v_1,w)} -\eins_{(v_2,w)} \\ \eins_{(v, w_1+w_2)} -\eins_{(v,w_1)} -\eins_{(v,w_2)} \\ \eins_{(\lambda v, w)} - \lambda\eins_{(v,w)} \\ \eins_{(v, \lambda w)} - \lambda\eins_{(v,w)} \end{subarray} \mathrel{%TODO\middle |} \begin{subarray}{l} v_1, v_2, v\in V, \\w_1, w_2, w\in W, \\ \lambda \in \mathbb R \end{subarray} \right\}\right\rangle }_{:=\langle\ldots\rangle} \\&=& \left\{ f + \langle\ldots\rangle \mathrel{%TODO \middle |} f \in \mathcal F_{\mathbb R} (V\times W)\right\} $$ $$ \langle \cdot \rangle = \operatorname{span}(\cdot), \quad \eins = \text{Indikatorfunktion} $$ Sei $$ i \colon &V\times W& \to V\otimes W \\ &(v,w)& \mapsto \left[\eins_{(v,w)}\right] =: v\otimes w $$ Diese Definition heißt, dass folgende Rechenregeln gelten: $$ (v_1+v_2)\otimes w &=& v_1\otimes w + v_2 \otimes w \\ v\otimes (w_1 + w_2) &=& v\otimes w_1 + v\otimes w_2 \\ \lambda(v\otimes w) &=& v\otimes \lambda w = \lambda v\otimes w,\ \ v_1, v_2 \in V, w_1, w_2 \in W, \lambda \in \mathbb R $$ §Begründung: §$$ § v_1\otimes w + v_2 \otimes w § &=& [(v_1,w)] + [(v_2, w)] § \\&=& {\eins}_{(v_1,w)} + \langle\ldots\rangle + \eins_{(v_2, w)} + \langle\ldots\rangle § \\&=& \eins_{(v_1,w)} + \eins_{(v_2, w)} + \langle\ldots\rangle § \\&\overset{\langle\ldots\rangle \text{ ist UV}}=& \eins_{(v_1,w)} + \eins_{(v_2, w)} + \left(\left( \eins_{(v_1+v_2, w)} -\eins_{(v_1,w)} -\eins_{(v_2,w)} \right) + \langle\ldots\rangle \right) § \\&=& \eins_{(v_1+v_2, w)} + \langle\ldots\rangle § \\&=& \left[\eins_{(v_1+v_2, w)}\right] § \\&=& (v_1+v_2)\otimes w §$$ %2019-04-10 wenn $E$ ein Vektoraum ist, $E' \subseteq E$ Untervektorraum, dann ist ${E}/{E'} = \{ e+E'\ |\ e\in E \}$ mit mengenmäßiger Addition und Skalarmultiplikation. (bei uns ist $E = \mathcal F(V\times W)$, $E' = \langle \ldots \rangle$) Interpretation: ${E}/{E'} =$ Vektoraum der Äquivalenzklassen von Vektoraum in $E$ modulo $E'$. ($e'=0$, $e'\in E'$) %TODO ? Entsprechend ist $$ V\otimes W § &=&\{f+\langle\ldots \rangle \mathrel | f \in \mathcal F(V\times W) \} § \\&=& \left\{ \sum_{i=1}^n \lambda_i\cdot\eins{(v,w)_i} + \langle\ldots\rangle\mathrel{%TODO\middle |} (v,w)_i\in V\times W, \lambda_i\in\mathbb R, i\in \mathbb \{1,\ldots,n\}, n\in \mathbb N \right\} § \\&=& \operatorname{span}\{ \eins_{(v,w)} + \langle\ldots\rangle\mathrel | (v,w)\in V\times W \} % \\&=& \operatorname{span}\{ [\eins_{(v,w)}] \mathrel | v\in V, w\in W \} § \\ &=& \operatorname{span}\{ v\otimes w \mathrel| v\in V, w\in W \} $$ mit den Relationen: $$ (v_1+v_2)\otimes w &=& v_1\otimes w + v_2 \otimes w \\ v\otimes (w_1 + w_2) &=& v\otimes w_1 + v\otimes w_2 \\ \lambda(v\otimes w) &=& v\otimes \lambda w = \lambda v\otimes w,\ \ v_1, v_2 \in V, w_1, w_2 \in W, \lambda \in \mathbb R $$ ** Lemma Die angegebene Konstruktion von $V\otimes W$ erfüllt die universelle Eigenschaft. Beweis: Sei $f\colon V\times W \to Z$ gegeben, bilinear Definiere $$ \hat f\colon V\times W &\to& Z,\ \ \ \ \text{linear} \\ \sum_{i=1}^k \lambda_i(v_i, w_i) &\mapsto& \sum_{i=1}^k \lambda_i f(v_i, w_i) $$ Behauptung: $\hat f$ induziert eine lineare Abbildung $\bar f$ $$ \bar f\colon V\otimes W &\to& Z \\ (v\otimes w) &\mapsto& \hat f((v,w)) § \\ \left( \sum_{i=1}^{n} \lambda_i \eins_{(v,w)_i} \right) &\mapsto& \sum_{i=1}^n \lambda_i f\left((v,w)_i\right) $$ Dazu muss man überprüfen, dass $(v_1 + v_2, w) - (v,w) - (v_2, w)$ sowie andere Relationen von irgendwas oben %TODO ref im Kern von $\hat f$ liegen. Das ist dadurch gewährleistet, dass $f$ bilinear ist, z.B. $$ § && \bar f(\eins_{(v_1 + v_2, w)} -\eins_{(v_1, w)} -\eins_{(v_2, w)}) § \\ & § = & \hat f( (v_1 + v_2, w) - (v_1, w) - (v_2, w) ) \\ &\overset{\text{Def. } \hat f}{=}& f(v_1 + v_2, w) - f(v_1, w) - f(v_2, w) \\ &\overset{\text{Bilinearität von } f}=& 0 $$ $\Rightarrow$ $\bar f$ erfüllt dann $\bar f(v\otimes w) = f(v,w) \Rightarrow V\otimes W$ erfüllt die universelle Eigenschaft. ** Homomorphismen und Dualräume: (Erinnerung aus LAAG) $V$, $W$ Vektorräume $\rightsquigarrow Hom(V,W) = \{ f\colon V\to W\ |\ f \text{ linear } \}$ ist selbst ein Vektoraum, wenn $V$, $W$ endlichdimensional $\Rightarrow \operatorname{dim} \operatorname{Hom}(V,W) = \operatorname{dim}V \cdot \operatorname{dim} W$ ($\operatorname{Hom}(V,W) \cong \mathbb{M}(m\times n, \mathbb R)$, wenn $V\cong \mathbb R^n$, $W\cong \mathbb R^m$) $V^* := \operatorname{Hom}(V, \mathbb R)$ ist dann der Dualraum von $V$. Wenn $\{ e_i \}_{i=1}^n$ eine Basis in $V$ ist, dann gibt es die duale Basis $\{ \alpha_j \}_{j=1}^n \subset V^*$ mit: $\alpha_j(e_i) := \delta_{ij} = \begin{cases} 1, & i=j \\ 0, & i\neq j \end{cases}$ Schließlich ist für $\operatorname V < \infty$ die Einbettung $i\colon V\to V^{**}$, $v\mapsto (\alpha \mapsto \alpha(v))$ ein Isomorphismus ** Proposition $W\otimes V^*$ ist kanonisch isomorph zu $\operatorname{Hom}(V,W)$ für endlichdimensionale $V$, $W$. Insbesondere gilt dann: $$ \operatorname{dim} W\otimes V^* = \operatorname{dim} W \cdot \operatorname{dim} V = \operatorname{dim} W \otimes V $$ Mehr: wenn $\{ f_j \}^m_{j=1}$ und $\{ e_i \}^n_{i=1}$ Basen in $W$ bzw. $V$ sind. Dann ist $\{ f_j \otimes e_i \}_{i=1,\dotsc, n; j=1,\dotsc, m}$ eine Basis in $W\otimes V$ Beweis: Sei $L\colon W\times V^* \to \operatorname{Hom}(V,W)$, $(w,\alpha) \mapsto (\theta_{w,\alpha} \colon v \mapsto \alpha(v)\cdot w)$, ($\theta_{w,\alpha}\operatorname{Rang} 1$-Operator definiert durch $\alpha$, $w$) $L$ ist bilinear, weil: $$ && (L(w_1 + \lambda w_2, \alpha_1 + \mu\alpha_2))(v) \\&=& (\alpha_1 + \mu\alpha_2)(v)\cdot(w_1 + \lambda w_2) \\&=& \underbrace{ \alpha_1(v)w_1 }_{L(w_1, \alpha_1)(v)} + \underbrace{ \mu \alpha_2(v)w_1 }_{L(w_1, \alpha_2)(v)} + \lambda \underbrace{ \alpha_1(v)w_2 }_{L(w_2, \alpha_1)(v)} + \mu\lambda \underbrace{ \alpha_2(v)\cdot w_2 }_{L(w_2, \alpha_2)(v)} $$ Nach der universellen Eigenschaft vom Tensorprodukt bekommen wir eine lineare Abbildung $$ \bar L \colon W\otimes V^* &\to& \operatorname{Hom}(V,W) \\ w\otimes \alpha &\mapsto& \theta_{w,\alpha} $$ $\bar L$ ist ein Isomorphismus: geben wir das Inverse an. Sei $\{ e_i \}_{i=1}^n$ eine Basis on $V$, $\{ \alpha_i \}_{i=1}^n$ die duale Basis in $V^*$. Definiere $$ \varphi \colon \operatorname{Hom}(V,W) &\to& W\otimes V^* \\ T &\mapsto& \sum_{i=1}^n T(e_i) \otimes \alpha_i $$ $$ \varphi \circ \bar L(w\otimes \alpha) &=& \varphi(\theta_{w,\alpha}) \\&=& \sum_{w,\alpha} (e_i) \otimes \alpha_i \\&=& \sum_{i=1}^{n} \alpha(e_i)w\otimes \alpha_i \\&=& w\otimes \left( \sum_{i=1}^{n}\alpha(e_i)\cdot \alpha_i \right) \\&=& w\otimes \alpha \\&\Rightarrow& \varphi \circ \bar L = \operatorname{id} $$ $$ (\bar L\circ \varphi(T)(v)) &=& \sum_{i=1}^{n} \theta_{T(e_i), \alpha_i}(v) \\&=& \sum_{i=1}^{n}\alpha_i(v)T(e_i) \\&=& T\left(\sum_{i=1}^{n} \alpha_i (v) e_i\right) \\&=& T(v) \\&\Rightarrow& \bar L \circ \varphi = \operatorname{id} $$ $W\otimes W$ ist nach Konstruktion aufgespannt durch $f_j \otimes e_i$, $\operatorname{dim} W\otimes V = \operatorname{dim} W \cdot \operatorname{dim} V \Rightarrow \{ f_j \otimes e_i \}$ ist eine Basis. ** Korollar Wenn $X$, $Y$ endliche Mengen sind, dann gilt: $$ \mathcal F(X\times Y) \cong \mathcal{F}(X) \otimes \mathcal{F}(Y) $$ Erinnerung: hier gilt $\mathcal F(X) = \{ f\colon X \to \mathbb R \}$ mit punktweisen Operationen ** Korollar $W\otimes V \cong V\otimes W$, $W\otimes(V\otimes Z) = (W\otimes V)\otimes Z$ Bemerkung: Es gilt auch ohne Einschränkung auf Dimensionen ** Definition Tensor Ein Tensor vom Typ $(r,s)$ (zum Vektoraum $V$) ist ein Element des Vektoraumes $$ T_{r,s}(V) := V \underbrace{ \otimes \ldots \otimes V }_{r\text{-mal}} \otimes \underbrace{ V^* \otimes \ldots \otimes V^* }_{s\text{-mal}} $$ Bemerkung: Wenn $\{ e_i \}_{i=1}^n$ eine Basis in $V$, $\{ \alpha_i \}_{i=1}^n \subset V^*$ duale Basis. $\rightsquigarrow$ $$ \{ e_{i_1} \otimes \ldots \otimes e_{i_r} \otimes \alpha_{j_1} \otimes \ldots \otimes \alpha_{j_r} \ |\ i_1, \ldots, i_r, j_1, \ldots, j_s \in \{ 1,\ldots, n \} \} $$ ist eine Basis in $T_{r,s}$ (Beweis: wende induktiv die Proposition an). $\Rightarrow$ jedes $T\in T_{r,s}(V)$ ist darstellbar also $$ T= \sum_{i_1, \ldots, i_r, j_1, \ldots, j_s \in \{ 1,\ldots, n \} } T_{j_1,\ldots,j_s}^{i_1,\ldots,i_r} (e_{i_1} \otimes \ldots \otimes e_{i_r}\otimes \alpha_{j_1} \otimes \ldots \otimes \alpha_{j_s}) $$ Beispiel $T_{1,1} (V) = V\otimes V^* \cong \operatorname{Hom}(V,V) = \operatorname{End}(V)$ d.h., elemente von $T_{1,1}$ kann man als lineare Abbildung von $V$ nach $V$ interpretieren. Multilinear heißt linear in jeder Komponente. Sei $$ M_{s,r}(V) := \{ f\colon \underbrace{ V\times \ldots \times V }_{s\text{-mal}} \times \underbrace{ V^* \times \ldots \times V^* }_{r\text{-mal}} \to \mathbb R\ |\ f \text{ multiliniear } \} $$ ** Proposition $T_{r,s}(V)$ ist kanonisch isomorph zu $M_{s,r} (V)$ ** Korollar $$ \operatorname{Bil}(V) = \{ b\colon V\times V \to \mathbb R \text{ biliniear} \} \cong V^*\otimes V^* $$ Insbesondere ist ein Skalarpodukt auf $V$ ein Tensor vom Typ $(0,2)$ Notation $g_{i,j}$ für Koordinaten einer Metrik ist konstant mit Tensorprodukten. %2019-04-16 * Tensorprodukte von Vektorräumen $$ && \operatorname{Hom} (V\otimes \underbrace W_{ \mathbb R }) \cong \operatorname{Bil}(V\times W, \underbrace Z_{\mathbb R}) \\&\overset{\text{Induktion}}\Rightarrow& \operatorname{Hom}(V_1\otimes\ldots\otimes V_n, Z) \cong \{ f\colon V_1\times\ldots\otimes V_n \to Z \ |\ f \text{ multiliniear } \} $$ Letzes mal: $$ T_{r,s} (V) := \underbrace{ V \otimes \ldots \otimes V}_{r\text{-mal}} \times \underbrace{V^* \times \ldots \times V^*}_{s\text{-mal}} $$ $$ M_{s,r} := \{ f\colon \underbrace{ V \otimes \ldots \otimes V}_{s\text{-mal}} \times \underbrace{V^* \times \ldots \times V^*}_{r\text{-mal}} \to \mathbb R\ |\ f \text{ multiliniear } \} $$ ** Proposition %TODO kan. ? $$1 T_{r,s}(V) \overset{kan.}\cong M_{s,r}(V) $$1 Beweis: Nach obigen Eigenschaften gilt: $$ M_{s,r} &\cong& \operatorname{Hom}(T_{s,r}(V), \mathbb R) \cong t_{s,r}(V)^* = (V^*\otimes\ldots\otimes V^* \otimes V \otimes \ldots \otimes V)^* \\&\overset{?}\cong& \underbrace{ V\otimes \ldots \otimes V}_{r\text{-mal}} \otimes \underbrace{ V^* \otimes \ldots \otimes V^*}_{s\text{-mal}} $$ Wir wollen also zeigen: $W$, $Z$ zwei Vektoräume, wollen zeigen, dass $W^* \cong Z$ ($W=T_{s,r}(V)$, $Z=T_{r,s}(V)$) Def./Erinnerung: Eine nichtsinguläre Paarung zwischen $W$, $Z$ ist eine bilineare Abbildung $\beta\colon W\times Z \to \mathbb R$ mit - $\beta(W,Z) = 0$ $\forall Z\in Z \Rightarrow w = 0$ - $\beta(W,Z) = 0$ $\forall w\in W \Rightarrow Z = 0$ Übung: Wenn $W$, $Z$ endlichdimensional, $(w_i)^n_{i=1}$, $(z_i)_{i=1}^m$ Basen in $W$ bzw. $Z$ dann ist $\beta$ nichtsingulär $\Leftrightarrow (\beta(w_i, z_j))_{ \begin{subarray}{l} i=1, \ldots, n \\ j=1, \ldots, m \end{subarray} }$ nicht ausgeartet ist $\Rightarrow n = m$ $\beta$ gibt einen Isomorphismus $\hat \beta \colon Z \to W^*$ Beispiel: $W = Z$, euklidischer Raum mit Skalarpodukt $\langle \cdot, \cdot \rangle$ $$ \beta (W,Z) = \langle \cdot, \cdot \rangle $$ Alos: Wir betrachten eine nichtsinguläre Paarung $$ \beta_i \colon T_{s,r}(V) \times T_{r,s}(V) \to \mathbb R $$ Definiere $$ && \beta(v_1\otimes\ldots \otimes v_s \otimes v_1^* \otimes \ldots \otimes v_r^*, v_1 \otimes \ldots \otimes u_r \otimes u_1^* \otimes \ldots \otimes u_s^*) \\&=& \Pi_{i=1}^r v_i^*(u_i) \cdot \Pi_{j=1}^s u_j^* (v_j)_s \text{ bilinear fortgesetzt } $$ ** Tensorprodukte von Vektorräumen Zu zeigen ist, dass $\beta$ nicht ausgeartet ist. Dazu sei $0\neq t \in T_{r,s}(V)$, wir suchen $t^*\in T_{s,r}(V)$ mit $\beta(t^*, t) \neq 0$ Sei $(e_i)_{i=1}^n$ eine Basis in $V$, $(\alpha)_{j=1}^n$ die Dualbasis in $V^*$ Dann gilt: $$ t = \sum_{ \begin{subarray}{l} {i_1,\ldots, i_r \in \{ 1,\ldots, n \}} \\ {j_1,\ldots j_s \in \{ 1,\ldots, n \}} \end{subarray}} t_{j_1\cdots j_s}^{i_1\cdots i_r} e_{i_1}\otimes \ldots \otimes e_{i_r} \otimes \alpha_{j_1}\otimes \ldots \otimes \alpha_{j_s} $$ $D_a t \neq 0$, ist eins von den Koeffizienten $\neq 0$: $$ 0\neq t_{j_1 \cdots j_s}^{i_1 \cdot i_r} = \beta (\alpha_{i_1}\otimes \ldots \otimes \alpha_{i_r}\otimes e_{j_1}\otimes \ldots \otimes e_{j_s}, t) $$ Bemerkung: Die Paarung zwischen $T_{r,s}$ mal $T_{s,r}$ wird gelegentlich einfach durch $\langle \cdot, \cdot \rangle$ oder $(\cdot, \cdot)$ bezeichnet. Beispiel $V = T_p M$, $(U,x)$ eine Karte um $p$, dann hat $V=T_p M$ eine Basis $\{ \frac{\partial}{\partial x_i} \}_{i=1}^n$ $V^* = T^*_pM$ bekommt die duale Basis $\{ \mathrm d x^i \}_{i=1}^n$ Erinnerung: $\mathrm d x^i (\underbrace{T_p M} (v):= v(x^i) )$, daher $d x^i(\frac{\partial}{\partial x^j}) = \frac{\partial}{\partial x^j} (x^i) = \delta_{ij}$ %TODO \intd s Wir bekommen jetzt z.B. ($i,j$ fest) 1. $t_{ij} = \intd x^i \otimes \intd x^j \in V^* \otimes V^* = T_{0,2}(V) \cong T_{0,2}(V) \cong \operatorname{Bil}(V\times V, \mathbb R)$ $$ t_{ij} &=& (\intd x^i \otimes \intd x^j )(v,w) \\&=& \intd x^i(v)\cdot \intd x^j(w) \\&=& v(x^i)\cdot w(x^j),\ v,w\in T_p M $$ Beispiel: $$ g := \sum_{i=1}^{n} \intd x^i \otimes \intd x^i $$ ist auch eine Biliniarform auf $T_pM$. Wenn $M = \mathbb R^n$, $p$ beliebig, dann ist $g$ das Standardskalarprodukt auf $T_p \mathbb R^n \cong \mathbb R^n$ $$ g\left(\frac{\partial}{\partial x^k}, \frac{\partial}{\partial x^l}\right) &=& \sum_{i=1}^n \underbrace{ \intd x^i \left(\frac{\partial}{\partial x^k}\right) }_{=\delta_{ik}} \underbrace{ \intd x^i \left(\frac{\partial}{\partial x^l}\right) }_{=\delta_{il}} \\&=& \delta_{kl} + \delta_{lk} \\&=& \delta_{kl} $$ ** Äußere Potenzen, äußere Algebra Errinnerung: für Integrationstheorie wollen wir die Rechenregeln $$ d_x^i \wedge \intd x^j = - \intd x^j \wedge \intd x^i $$ Beobachtung: Tensoren kann man miteinander multiplizieren. Es gibt eine kanonische bilineare Abbildung $$ (\underbrace{ V\otimes \ldots \otimes V}_{k\text{-mal}}) \times \underbrace{ V\otimes \ldots \otimes V}_{l\text{-mal}} \to \underbrace{ V\otimes \ldots \otimes V}_{(k+l)\text{-mal}} \\ ((v_1 \otimes \ldots \otimes v_k), (v_{k+1}\otimes \ldots \otimes v_{k+l})) \mapsto (v_1 \otimes \ldots \otimes v_{k+l}) $$ Notation: $$ V^{\otimes k} := \begin{cases} \underbrace{V\otimes \ldots \otimes V}_{k\text{-mal}} & k > 0 \\ \mathbb R & k = 0 \end{cases} $$ $$ T(V) := \bigoplus_{k=0}^\infty V^{\otimes k} $$ heißt die Tensoralgebra von $V$ Multiplikation: $t\in V^{\otimes r}$, $t'\in V^{\otimes s}$ $$ t\cdot t' := t\otimes t' \in V^{\otimes (r+s)} $$ definiert eine Multiplikation auf $T(V)$ In $T(V)$ gelten die Relationen $v\otimes v = 0$ nicht. Diese wollen wir erzwingen. Sei $Z(V) = \langle v\otimes v | v \in V \rangle$ das Ideal in $T(V)$ erzeugt von Elementen der Form $v\otimes v$ Notation: $$ I_r(V) := I(V) \cap V^{\otimes r}, I(V) = \bigoplus_{r=0}^\infty I_n (V) \text{ (kleine Übung) } $$ Multiplikation wird durch $\bigwedge$ bezeichnet. nach Konstruktion gilt $v_1\wedge \ldots \wedge v_k = [v_1\otimes \ldots \otimes v_k]$ ** Definition $$ \bigwedge (V) := T(V) / I(V) $$ heißt äußere Algebra von $V$ Nach Konstruktion und Eigenschaft von $I(V)$ gilt $$ \bigwedge (V) = \bigoplus_{r=0}^\infty \underbrace{ \bigwedge^r (V) }_{V^{op?} / I_r(V} $$ 1. $\wedge^0 V \cong \mathbb R$, weil $I_0(V) = \{0\}$ 2. $\wedge^1 V \cong V$, weil $I_1(V) = \{0\}$ ** Proposition Sei $(e_1, \ldots, e_n)$ eine Basis in $V$. Dann ist $$ \{ e_{i_1}\wedge \ldots \wedge e_{i_k} \ |\ k \leqslant i_1 < i_2 < \ldots < i_k \leqslant n \} $$ eine Basis von $\bigwedge^k(V)$ ($\leftarrow$ $k$-te äußere Potenz) Insbesondere gilt: $$ \bigwedge^k(V) = \binom{n}{k},\ \ \ 0\leqslant k \leqslant n,\ \ \ \wedge_k (V) = \{0\},\ \ \ k>n $$ ** Äußere Potenzen, äußere Algebra Beweis Nach Konstruktion gilt: $e_i \wedge e_j = -e_j \wedge e_i$, daher spannt $$ \{ e_{i_1} \wedge \ldots \wedge e_{i_k} \ |\ 1\leqslant i_1 < i_k \leqslant n \} $$ den Raum $\bigwedge^kV$. Wir brauchen also zu zeigen, dass $$ \sum_{1\leqslant i_1 < \ldots < i_k \leqslant n} \alpha_{i_1,\ldots, i_k} e_{i_1} \wedge \ldots \wedge e_{i_k} = 0 $$ Sei $I=(i_1,\ldots, i_k)$ $1\leqslant i_1 < \ldots < i_k \leqslant n$ fixiert. Sei $J = \{ 1,\ldots n \} \setminus I = (j_1, \ldots, j_{n-k})$ $1\leqslant j_1 < \ldots < j_{k} \leqslant n$ Betrachte das Element $e_{j_1} \wedge \ldots \wedge e_{i_k}$ und multipliziere es an $(*)$: $$ \pm \alpha_{i_1,\ldots, i_k} e_1\wedge\ldots \wedge e_n = 0 $$ Alle anderen Terme verschwinden, weil eine Vektor im Produkt doppelt vorkommt. %2019-04-17 Gestern: $$ \bigwedge (V) = T(V) / I(V) $$ $I(V) = \langle v\otimes v\ |\ v\in V \rangle$ Ideal erzeugt durch $v\otimes v$ $$ = \left\{ \sum_{i=1}^k t_i \otimes v_i \otimes v_i z_i \ \middle|\ t_i, t'_i \in T(V), v_i \in V \right\} $$ $$ [\underbrace{ v_1\otimes \ldots \otimes v_n }_{\in T(V)}] =: i v_1 \wedge \ldots \wedge v_n \in \bigwedge (V) $$ nach Konstruktion gilt $v\wedge v = 0$, $v'\in V$ (daraus folgt: $v \wedge w = -w \wedge w$, $v$, $w \in V$, $0= (v+w)\wedge (v+w) = \underbrace{v\wedge v}_{=0} + v\wedge w + w\wedge v + \underbrace{w \wedge w}_{=0} = v\wedge w + w\wedge v$) Das Bild von $V^{\otimes k}$ in $\bigwedge (V)$ heißt $\bigwedge^k(V)$ -- die Elemente der Länge $k$, $$ \bigwedge^k (V) = \left\{ \sum_{i=1}^{k} v_{i_1} \wedge \ldots \wedge v_{i_k} \middle| v_{i_l} \in V \right\} $$ ** Proposition Wenn $(e_i)^n_{i=1}$ eine Basis von $V$ ist, ist $\{ e_{i_1} \wedge \ldots \wedge e_{i_k} \ |\ 1\leqslant i_1 < \ldots < i_k \leqslant u \}$ eine Basis von $\bigwedge^k(V)$; insbesondere $\dim \bigwedge_k(V) = \binom{n}{k}$, $0\leqslant k\leqslant n$, $\bigwedge^k(V) = \{0\}$ für $k> n$ Beweis: Wir haben die Aussage darauf reduziert, dass in $\bigwedge_k(V)$ $e_1\wedge \ldots \wedge e_n \neq 0$ $\longrightarrow$ Reduktion für $k=2$, $n=4$. wird behauptet, dass $\{ e_1\wedge e_2, e_1 \wedge e_3, e_1\wedge e_n, e_2\wedge e_3, e_2\wedge e_4, e_3\wedge e_4 \}$ linear unabhängig sind. Wenn nicht $\exists \alpha_{ij}$: $$ \alpha_{12}e_1\wedge e_2 + \alpha_{13}e_1\wedge e_j + \alpha_{14} e_1\wedge e_4 + \ldots = 0 $$ $\rightarrow \alpha_{13} e_1e_3\wedge e_2\wedge e_4 = 0 = -\alpha_{13}(e_1\wedge e_2 \wedge e_3 \wedge e_4)$ $$ e_1\wedge \ldots \wedge e_n \neq 0 \Leftrightarrow e_1\otimes \ldots \otimes e_n \notin I(V) $$ Wenn $$ v &=& \sum_{i=1}^{n} \lambda_i e_i \\ v\otimes v &=& \sum_{i,j = 1}^{n} \lambda_i \lambda_j e_i \otimes e_j \\ &=& \sum_{i=1}^{n} \lambda_i^2 e_i \otimes e_i + \sum_{i,j = 1\atop i0$: $$ f^* \omega &=& (\omega_I \circ f) f^*(\intd x^{i_1}) \wedge \ldots \wedge f^*(\intd x^{i_k}) \\&=& (\omega_I \circ f) \intd (f^*(x^{i_1})) \wedge \ldots \wedge \intd (f^*(x^{i_k})) $$ %TODO missing * Integration von Differentialform Idee: wir können in $\mathbb R^n$ integrieren also führen wir die Situation auf Mannigfaltigkeit darauf zurück. Der $k$-Würfel in $\mathbb R^n$ ist $[0,1]^k \subset \mathbb R^k$ Definition: Sei $\omega = f \intd u^1 \wedge \ldots \wedge \intd u^k$ eine Differentialform auf $[0,1]^k$ (Errinnerung: d.h dass (e) eigentlich auf einer offenen Umgebung $V\supseteq [0,1]^k$ definiert ist) Definiere $$ \intd_{[0,1]^k} \omega := \intd_{[0,1]^k} f(u) \intd u^1 \cdots \intd u^k $$ Definition: Ein singulärer $k$-Würfel in $M$ ist eine glatte Abbildung $e\colon [0,1]^k \to M$ Definition: Sei $\omega\in \Omega^k (M)$ , $c\colon [0,1]^k \to M$ eine singulärer $k$-Würfel: $$ \int_c \omega := \int_{[0,1^k]} c^*(\omega) $$ %2019-05-07 * Integration von Differentialform ** Definition Der $k$-Standardwürfel ist definiert als $[0,1]^k$ ($k\in \mathbb N$) $$ [0,1]^0 := \{0\} $$ Sei $M$ eine Mannigfaltigkeit. Ein singulärer $k$-Würfel in $M$ ist eine (glatte) Abbildung $c\colon[0,1]^k \to M$ %TODO Bilchen malwurf ** Definition Sei $\omega = \underbrace{ f }_{\in C^\infty (\mathbb R^k)} \, \diffd u^1 \wedge \ldots \wedge \diffd u^k$ eine $k$-Form von $\omega$ über $[0,1]^k$ ($[0,1]^k \subset \mathbb R^k$) ist definiert als $$ \int_{[0,1]^0} \omega &:=& f(0) \\ \int_{[0,1]^k} \omega &:=& \int_{[0,1]^k} f(u)\intd u^1 \cdots \intd u^k $$ (Das Integral der Funktion $f$ auf der rechten Seite der Definition im Sinne der Analysis) ** Definition Sei $\omega \in \Omega^k(M)$, $c\colon [0,1]^k \to M$ ein singulärer Würfel in $M$. Das Integral von $\omega$ über $c$ ist definiert als $$ \int_c \omega := \int_{[0,1]^k} c^* w $$ ** Beispiel Sei $M=\mathbb R^k$, $c\colon[0,1]^k \to \mathbb R^k$, ein singulärer Würfel mit $\operatorname{det} D_xc \neq 0 \forall x\in [0,1]^k$. (Bemerkung: Diese Bedingung erzwingt, dass $\operatorname{det} D_x c > 0 (\text{oder} <0) \forall x\in [0,1]$) Sei $\omega = f(u) \, \diffd u^1 \wedge \ldots \wedge du^k \in \Omega^k(\mathbb R^k)$ $$ \int_c \omega &=& \int_{[0,1]^k} c^* \omega = \int_{[0,1]^k} f(c(x)) \operatorname{det} D_x c\,\diffd x^1\cdots \diffd x^k \\ &\overset{\text{Transformationsformel}}=& \pm \int_{c([0,1]^k)} f(u) \intd^1 u^1 \cdots \intd u^k %TODO missing $$ $$ + && \text{wenn $\det D_x c> 0$ } \\ - && \text{wenn $\det D_x c >0$ }, \forall x \in [0,1]^k $$ %TODO Bildchen 2 $$ c^* &=& \tilde f(x) \, \diffd x^1 \wedge \ldots \wedge \diffd x^k \in \Omega^k([0,1]^k) \\ \tilde f (x) &=& (c^* \omega)(x) \left(\frac{\partial}{\partial x^1}, \ldots, \frac{\partial}{\partial x^k}\right) \\ &=& \omega(c(x)) \left( c_*\frac{\partial}{\partial x^1}, \ldots, c_*\frac{\partial}{\partial x^k} \right) \\ &=& f(c(x)) \, \diffd u^1 \wedge \ldots \wedge \diffd^k \left( D_x c\frac{\partial}{\partial x^1}, \ldots, D_x c\frac{\partial}{\partial x^k} \right) \\ &=& f(c(x)) \operatorname{det} \bigg( \underbrace{ \diffd u^i \bigg( \underbrace{ D_x c\left(\frac{\partial}{\partial x^j}\right) }_{j\text{-te Spalte der Jacobi-Matrix}} \bigg) }_{i\text{-te Komponente}} \bigg)^k_{i,j = 1} \\ &=& f(c(x)) \cdot \det D_x c \\ &=& \pm \int_{c([0,1]^k)} f(u) \intd u^1 \cdots \intd u^k $$ ** Lemma Das Integral von $\omega$ über einen singuläreren Würfel $c\colon [0,1]^k \to M$ ist parametrisierungsunabhängig: Wenn $F\colon [0,1]^k \to [0,1]^k$ ein Diffeomorphismus mit $\det D_x F > 0 \forall x\in [0,1]^k$, dann gilt: $$ \int_{c\circ F} \omega = \int_c \omega, \quad \quad \forall\omega\in \Omega^k(M) $$ Beweis: $$ \int_{c\circ F} \omega &\overset{\text{Def.}}=& \int_{[0,1]^k} (c\circ F)^*\omega \\ &=& \int_{[0,1]^k} F^* (c^* \omega) \\ &\overset{\text{Def.}}=& \int_F c^*\omega \\ &\overset{\text{Bsp.}}=& \int_{F([0,1]^k)} c^* \omega \left( \frac{\partial}{\partial u^1}, \ldots, \frac{\partial}{\partial u^k} \right) \intd u^1 \cdots \intd u^k \\ &\overset{ F([0,1]) = ?? [0,1]^k}=& \int_{[0,1]^k} c^* \omega \left( \frac{\partial}{\partial u^1}, \ldots, \frac{\partial}{\partial u^k} \right) \intd u^1, \ldots, \intd^k \\ &=& \int_{[0,1]^k} c^* \omega \\&\overset{\text{Def.}}=& \int_c \omega $$ %TODO Bilchen ** Definition Sei $M$ eine Mfg., $k\in \mathbb N$. Eine $k$-Kette in $M$ ist ein Element des freien $\mathbb R$-Vektorraumes auf der Menge singulärerer $k$-Würfel in $M$, d.h. eine formale Linearkombination. $$ \sum_{i=1}^{N} a_ic_i $$ mit $a_i \in \mathbb R$, $c_i \colon [0,1]^k \to M$ singulärer $k$-Würfel. Für $\omega \in \Omega^k(M)$ definiere $$ \int_{\sum_{i=1}^N a_ic_i} &:=& \sum_{i=1}^N a_i \int_{c_i} \omega $$ Sei $W_k := [0,1]^k$ der Standardwürfel in $\mathbb R^k$ $$ \partial W_k = \bigcup_{i=0}^k W_{i,0} \cup \bigcup_{i=0}^k W_{i,1} $$ $$ W_{i,0} &=& \{ x\in W \mathrel | x = (x_1, \ldots, x_{i-1}, 0, x_{i+1}, \ldots, x_k) \} \\&=& \{ x\in W \mathrel | x_i = 0 \} \\&\cong& W_{k-1} $$ $$ W_{i,1} &=& \{ x\in W_k \mathrel| x_i = 1 \} \\&\cong& W_{k-1} $$ ** Definition Sei $c\colon W_k \to M$ ein singulärer $k$-Würfel. Der Rand von $c$ ist die singuläre $(k-1)$-Kette %TODO author of book might have done a mistake $$ \partial c &:=& \sum_{i=1}^k \sum_{j=0}^1 (-1)^{i+j} c |_{W_{i,j}} $$ $c|_{W_{i,j}}$ ist ein singulärer $(k-1)$-Würfel, weil $W_{i,j} \cong W_{k-1}$ wie oben ** Beispiel $$ k=0 &\Rightarrow& \partial c = 0 \\ k=1 &\Rightarrow& \partial c = c|_{\{1\}} - c|_{\{0\}} \\ k=2 &\Rightarrow& \partial c = -c|_{W_{1,0}} + c|_{W_{1,1}} - c|_{W_{2,1}} +c|_{W_{2,0}} $$ %TODO Bilchen (4) Es gilt $\partial(partial(c)) = 0$. ($k=1$ klar, $k=2$:) $$ \partial(\partial(c)) = \cancel{ c|_{\{A\}} } - \xcancel{ c|_{\{D\}}} + \bcancel{ c|_{\{B\}} } -\cancel{c|_{\{A\}}} +c|_{\{C\}} -\bcancel{ c|_{\{B\}}} +\xcancel{c|_{\{D\}}} -c|_{\{C\}} $$ Beweis: sie Walschap ** Bemerkung/Übung: Für jeden singulären Würfel $c$ ($\Rightarrow$ für jede Kette) gilt $\partial^2(c) := \partial(\partial(c)) = 0$ ** Beispiel Sei $c = \sum_{i=1}^N a_i c_i$ eine $1$-Kette in $\mathbb R$ $(c_i\colon [0,1] \to \mathbb R)$, $f\colon \mathbb R \to \mathbb R$ Dann gilt: $$ \int_c \intd f = \int_{\partial c} f $$ Beweis: Nach Linearität reicht es, dies für einen singulären $1$-Würfel $c\colon [0,1] \to \mathbb R$ zu zeigen. $$ \int_c \intd f &=& \int_{[0,1]} c^* (\diffd f) \\ &=& \int_{[0,1]} (f\circ c)' du \\ &\overset{\text{Haupsatz der Diff/ und Int-Rechnung}}=& f(c(1)) \\ &=& f(c(0)) -f(c(0)) \\ &=& \int_{\partial c} f $$ $$ \intd f &=& f'(t) \diffd t \\ c^* (diffd f) = \tilde f(u) \diffd u = (f\circ c)' \intd u \\ \tilde f(u) &=& c^*(\diffd) (\frac{\partial}{\partial u}) \\ &=& \diffd f(c_* \frac{\partial}{\partial u}) \\ &=& f'(c'(u))\diffd t(c_* \frac{\partial}{\partial u}) \\ &=& f'(c(u)) c'(u) $$ ** Nächstes Ziel Satz von Stokes: 1) lokale Form $\int_c \intd \omega = \int_{\partial c} \omega$ ($c$-$k$-Kette, $\omega \to (k-1)$-Form) 2) Erweiterung der Integration auf Mannigfaltigkeit wenn $\operatorname{dim} M=n (+\ldots)$ für $\omega\in \Omega^n(M) \rightsquigarrow \int_M \omega$ und $$ \int_{\underbrace{ M }_{\text{Mannigfaltigkeit mit Rand}}} \intd \omega' = \int_{\partial M} \omega' $$ %2019-05-08 * Integration von Differentialformen $M$ -- eine Mannigfaltigkeit, $\omega \in \Omega^k(M)$ $$ c\colon [0,1]^k \to M $$ singulärer $k$-Würfel $$ \int_c \omega &:=& \int_{[0,1]^k} c^*\omega $$ ($c^*\omega \underbrace{\text{linear}}{=} f(u) \intd u^1 \wedge \ldots \wedge du^k$) haben auch $$ \partial c = \sum_{i=1}^n \sum_{j=0}^1 (-1)^{i+j} c_{i,j} $$ $c_{i,j}$ ist Einschränkung von $c$ auf $W_{i,j} \leftarrow$ Randkomponente von $[0,1]^k$ %TODO Bilchen $$ \partial c = c|_{W_{1,1}} -c|_{W_{1,0}} +c|_{W_{2,0}} -c|_{W_{2,1}} $$ ** Satz von Stokes lokale Version $$ \underbrace{ \text{Newton-Leibnitz}}_{k=1} \text- \underbrace{\text{Green}}_{k=2} \text- \underbrace{\text{Gauss-Ostragradisk}}_{k=3} \text - \underbrace{\text{Stokes-Poincaré}}_{k\in \mathbb N} $$ Wenn $\omega \in \Omega^{k-1} (M)$, $c\colon [0,1]^k \to M$ singulärer $k$-Würfel. Dann gilt: $$ \int_c \intd \omega = \int_{\partial c} \omega $$ Beweis: Zunächst $M = \mathbb R^k$, $c\colon[0,1]^k \hookrightarrow \mathbb R^k$ Für $k=2$: $$ \omega &\in& \Omega^1([0,1]^2) \\ \Rightarrow \omega(u) &=& f_1(u)\diffd u^2 + f_2(u) \diffd u^1, \quad u\in [0,1]^2, f_1, f_2 \in C^\infty\left( [0,1]^2 \right) $$ Integrieren ist linear $\Rightarrow$ können $f_1(u)\diffd u^2$, $f_2(u)\diffd u^1$ separat behandeln $$ \diffd (f_1(u) \diffd u^2) = \frac{\partial f_1}{\partial u_1} \intd ^u1 \wedge \intd u^2 $$ $$ \int_{[0,1]^2} \frac{\partial f_1}{\partial u_1} \intd u^1 \wedge \intd u^2 &\overset{\text{Def.}}{=}& \int_{[0,1]^2} \frac{\partial f_1}{\partial u_1} \intd u^1 \intd u^2 = \int_0^1 \left[ \int_0^1 \frac{\partial f_1}{\partial u_1} \intd u^1 \right] \intd u^2 \\ &=& \int_0^1 (f_1 (1,u_2) - f_1(0,u_2)) \intd u^2 \\&=& \int_{W_{1,1}} f_1(u_1, u_2) \intd u^2 + \int_{W_{2,0}} \underbrace{ f_1(u) }_{=0} \intd u^2 \\&-& \int_{W_{2,1}} \underbrace{ f_1(u) }_{=0} \intd u^2 - \int_{W_{1,0}} f_1(u_1, u_2) \intd u^2 + \\&=& \int_{\partial [0,1]^2} f_1 (u) \intd u^2 $$ Für $f_2 (u) \diffd u^1 \rightsquigarrow \diffd (f_2(u) \diffd u_1) = -\frac{\partial f_2}{\partial u_2} \diffd u_1 \wedge \diffd u_2$ Dann bekommt man analog $$ -\int \frac{\partial f_2}{\partial u_2} \diffd u_1 \wedge \diffd u_2 = \int_{\partial [0,1]^2} f_2 (u) \diffd u^1 $$ (beachte Vorzeichen bei Randkomponenten!) Im Allgemeinen (für $k\in \mathbb N$): jedes $\omega\in\Omega^{k-1}\left([0,1]^k\right)$ ist von der Form $$ \omega(u) = \sum_{i=1}^k \underbrace{ f_2(u) }_{\in C^{\infty}\left( [0,1]^k \right) } \diffd u^1 \wedge \ldots \wedge \diffd u^{i-1} \wedge \diffd u^{i+1} \wedge \ldots \wedge \diffd u^k $$ Dach über $\diffd u^i$ heißt weglassen. $$ \partial c = \sum_{i=1}^k \sum_{j=0}^1 (-1)^{i+j} c_{i,j} $$ Wegen Linearität reicht es einen Summanden $$ \omega_i = f_i (u) \diffd u^1 \wedge \ldots \wedge \widehat{ \diffd u^i } \wedge \ldots \wedge \diffd u^k $$ zu betrachten $$ \diffd \omega_i = (-1)^{i+1} \frac{\partial f_i}{\partial u_i} \diffd u^1 \wedge \ldots \wedge \diffd u^i \wedge \ldots \wedge \diffd u^k $$ $$ \int_{[0,1]^k} \diffd \omega_i &=& \int_{[0,1]^k} (-1)^{i+1} \frac{\partial f_i}{\partial u_i} \intd u^1 \cdots \diffd u^k \\&=& \int_{[0,1]^{k-1}} (-1)^{i+1} f_i (u^1, u^{i+1}, 1, u^{i+1}, \ldots, u^k) \diffd u^1 \cdots \widehat{ \diffd u^1 }\cdots \diffd u^k \\&-& \int_{[0,1]^{k-1}} (-1)^{i+1} f_i (u^1, \ldots, u^{i-1}, 0, u^{i+1}, \ldots, u^k) \intd u^1 \cdots \widehat{ \diffd u^i } \cdots \diffd u^k \\&(*)=& \sum_{l=1}^{k} \sum_{j=0}^{1} (-1)^{l+j} \int_{W_{l,j}} \omega_i = \int_{\partial c} \omega_i $$ Beachte $(*)$ alle Summanden mit $l\neq i$ verschwinden (da ist eine der Variablen $u^1,\ldots, u^{i-1}, u^{i+1}, \ldots, u^k$ konstant) Allgemeiner Fall: $c\colon [0,1]^k \to M$, $\omega \in \Omega^{k-1} (M)$ $c_{i,j} = c|_{W_{i,j}} \cong W_{k-1}$ $$ \int_{\partial c} \omega &=& \sum_{i=1}^{k} \sum_{j=1}^1 (-1)^{i+1} \int_{c_{i,j}} \omega \\&\overset{\text{Def.}}=& \sum_{i=1}^{k} \sum_{j=0}^1 (-1)^{i+j} \int_{[0,1]^{k-1}} c_{i,j}^* \omega \\&=& \int_{\partial[0,1]^k} c^* \omega \\&\overset{\text{Stokes für } [0,1]^k \text{ eben bewiesen}}=& \int_{[0,1]^k} \diffd (c^* \omega) \\&\overset{\diffd c^* = c^* \diffd}=& \int_{[0,1]^k} c^* (\diffd \omega) \\&\overset{\text{Def.}}=& \int_c \diffd \omega $$ Errinnerung: Dann gilt: $$ \int_{c\circ F} \omega &=& \int_c \omega, \quad \omega \in \Omega^k (M) $$ Fazit: $\int \omega$ ist koordinatennabhängig, wenn man nur orientierungserhaltende Koordinatentransformation zulässt. ** Definition Eine $n$-dimensionale Mannigfaltigkeit $M$ heißt \emph{orientierbar}, wenn $\exists \omega \in \Omega^n (M)$ mit $\omega(p) \neq 0$, $\forall p\in M$. ** Bemerkung Die Wahl einer Volumenform $\omega$ definiert eine Orientierung von $T_p M$ für jedes $p\in M$ ($(e_1,\ldots, e_n) \in T_pM$ ist positiv orientiert $\Leftrightarrow$ $\omega(e_1, \ldots, e_n) > 0$) ($M$ ist also orientierbar, wenn man alle $T_pM$ konstant orientieren kann) ** Bemerkung Innerhalb einer Karte $(U,x)$ existiert immer eine Volumenform $\diffd x^1 \wedge \ldots \wedge \diffd x^n$ D.h. Orientierbarkeit hängt davon ab, ob man diese lokalen Volumenformen zu $\omega \in \Omega^n (M)$ „verkleben“ kann. Solche „lokal-zu-global“-Fragen werden mit der Teilung der Eins behandelt ** Definition $$ \operatorname{supp} \varphi := \overline{ \{ x\in M \mathrel| \varphi(x) \neq 0 \} } $$ ** Definition Eine Teilung der Eins auf $M$ ist eine Familie $\{\varphi_\alpha\}_{\alpha \in A} \subset C^\infty (M, [0,1])$ 1. $\{ \operatorname{supp} \varphi_alpha \}$ ist lokal endlich, d.h. $\forall p\in M$ gibts nur endlich viele $\alpha\in A$ mit $p\in \operatorname{supp} \varphi_\alpha$ 2. $$ \sum_{\alpha\in A} \varphi_{\alpha} (p) = 1, \forall p\in M $$ %TODO Bilchen: Zerlegung der 1 auf R, überschneidende Hügel ** Satz Sei $M$ eine Mannigfaltigkeit, $\{U_\alpha\}_{\alpha\in A}$ eine Überdeckung von $M$. Dann existiert eine Teilung der Eins $\{ \varphi_k \}_{k\in K}$ mit der Eigenschaft $\forall k\in K \exists \alpha \in A$ (die Teilung der Eins ist der Überdeckung untergeordnet) Die Menge $K$ kann sogar abzählbar gewählt werden. Beweis: wird nachgeliefert ** Bemerkung Kurzfassung des Satzes: Mannigfaltigkeiten sind \emph{parakompakt} ** Proposition $M$ ist orientierbar genau dann, wenn es einen Atlas $$ \mathcal A = \{ (U, x) \} $$ von $M$ gibt mit der Eigenschaft $\det D_{\xi} (y\circ x^{-1}) > 0, \xi \in x(U\cap V)$, für alle $(U,x)$, $(V,y) \in \mathcal A$ Beweis: Orientierbarkeit $\Rightarrow \exists \mathcal A$: Sei $\omega \in \Omega^n(M)$ eine Volumenform $$ \mathcal A := \left\{ \underbrace{ (U,x) }_{\text{Karte}} \ \middle |\ \omega\left( \frac{\partial}{\partial x^1}, \ldots, \frac{\partial}{\partial x^n} \right) > 0 \right\} $$ Das ist ein Atlas (nimm beliebige $(U', x')$ und stelle zwei Koordinaten gegebenenfalls um) $\mathcal A$ erfüllt die Aussage des Satzes, weil wegen $(U,x)$, $(V,y)$ zwei Karten mit $U\cap V \neq \emptyset$ $$ \Rightarrow \omega = f \intd x^1 \wedge \ldots \wedge \diffd x^n = g \intd y^1 \wedge \ldots \wedge \diffd y^n $$ auf $U\cap V$ mit $f$, $g\in C^\infty (U\cap V)$, $f(p) \neq 0$, $g(p)\neq 0$, $p \in U\cap V$, (weil $\omega \neq 0$) Es gilt: $$ \intd y^1 \wedge \ldots \wedge \diffd y^n = \frac{f}{g} \intd x^1 \wedge \ldots \wedge \diffd x^n $$ und $$ h = \frac{f}{g} > 0 $$ Andererseits gilt $$ h(p) = \det D_p(y\circ x^{-1}) $$ weil $f=\omega \left( \frac{\partial}{\partial x^1}, \ldots, \frac{\partial}{\partial x^n} \right)$, $g=\omega \left( \frac{\partial}{\partial y^1}, \ldots, \frac{\partial}{\partial y^n} \right)$ $p\in U\cap V$ (Umbenennung von Differentialformen ) $\Rightarrow \mathcal A$ orientiert