diff --git a/edit-this-file.tex b/edit-this-file.tex index 5a267c74bc9e9bf6edbaa0e5c7cd26985fc6fe74..af365f8e56be2ebcf8508e9a0998f1907b81069f 100644 --- a/edit-this-file.tex +++ b/edit-this-file.tex @@ -106,7 +106,7 @@ Idee: da $M$ lokal wie $\mathbb R^n$ aussieht, versucht man, Objekte aus der Ana %DATE 2019-04-02 -* 1. Übung +* Übung 1 Differential einer Abbildung @@ -307,3 +307,225 @@ $$\\&=& 1 + t\cdot \operatorname{Trace}(A) + O(t^2)$$ + + +* Integration auf Mannigfaltigkeiten + +Suchen eines koordinateninvarianten Integrationsbegriffs + +%TODO schöner +\begin{tikzcd} + \arrow[rr, "U", no head] & & \mathbb R^n \\ + & & \downarrow \ \alpha \colon U\overset{\cong} \to V \text{ Diffeo} \\ + \arrow[rr, "V"', no head] & & \mathbb R^n +\end{tikzcd} + +Betrachte $n=1$: + +$U$, $V \subseteq \mathbb R$ offenen Intervalle. $\alpha\colon \underbrace{U}_{=(a,b)} \to V$ Diffeo ($=$ strikt monotone glatte Fkt.) + +Transformationsformel: +$$+ \int_{\alpha(a)}^{\alpha(b)} f(\alpha(t))\alpha'(t)\,\mathrm d t = \int_{a}^{b}f(t)\,\mathrm dt +$$ + +„Mnemonik“: +$$+ \intd v = v'(u)\intd u +$$ + +$f\colon V\to \mathbb R$ +$$+ \int_{U}(\alpha^*(f))(u)\alpha'(u)\intd u = \int_V f(v)\intd v \neq \int_V \alpha^*(f)(t) \intd t +$$ + +In $\mathbb R^n$: + +$$+\int_U \alpha^*(t)(\det D_u\alpha)\intd_{u_1}\cdots\intd_{u_n} = \int_V f(v) \intd_{v_1}\dotsm\intd_{v_n} +$$ + +$$+\alpha \colon &U& \to V \text{ Diffeo} +\\ &(u_1,\dotsc,u_n)& \mapsto (v_1, \dotsc, v_n) +$$ + +$v=v(u)$ +$$+\int_V f(v) \intd v_1 \intd v_2 +$$ + +$$+ \intd v_1 + = \frac{\partial v_1 }{\partial u_1 }\intd u_1 + + \frac{\partial v_1 }{\partial u_2 }\intd u_2 +$$ + +$$+ \intd v_2 + = \frac{\partial v_2 }{\partial u_1 }\intd u_1 + + \frac{\partial v_2 }{\partial u_2 }\intd u_2 +$$ + +$$+ \intd v_1 \intd v_2 + = \xcancel{\frac{\partial v_1 }{\partial u_1 }\frac{\partial v_2 }{\partial u_1 } \intd u_1 \intd u_1} + + \xcancel{\frac{\partial v_1 }{\partial u_2 }\frac{\partial v_2 }{\partial u_2 } \intd u_2 \intd u_2} + + \frac{\partial v_1 }{\partial u_1 }\frac{\partial v_2 }{\partial u_2 } \intd u_2 \intd u_2 + + \frac{\partial v_1 }{\partial u_2 }\frac{\partial v_2 }{\partial u_1 } \intd u_2 \intd u_1 + =: (*) +$$ + +$$+ = \int_V f(v) \intd v_1 \intd v_2 + = \int_U f(v(u)) +% \left%TODO overcome boxes + \Bigg + ( + \underbrace{ + \frac{\partial v_1 }{\partial u_1 } \frac{\partial v_2}{\partial u_2} - \frac{\partial v_1}{\partial u_2}\frac{\partial v_2}{\partial u_1} + }_{ + \underset{ + \begin{subarray}{c} + \text{sollte}\\ + (*)\text{ sein} + \end{subarray} + }{=} \det \left( + \begin{matrix} + \frac{\partial v_1}{\partial u_1} & \frac{\partial u_1}{\partial u_2} + \\ \frac{\partial v_2}{\partial u_1} & \frac{\partial v_2}{\partial u_2} + \end{matrix}\right) + } + \Bigg +% \right + ) + \intd u_1 \intd u_2 +$$ + +Damit die Mnemonik stimmt, muss also gelten: + +$$+ \intd u_1 \cdot \intd u_1 &=& \intd u_2 \cdot \intd u_2 = 0 + \\ \intd u_1 \cdot \intd u_2 &=& - \intd u_2 \cdot \intd u_1 = 0 +$$ + +Erkenntniss: + +Koordinatenfrei werden nicht Funktionen, sondern sogenannte Differentialformen integriert. Eine $n$-Differentialform auf $\mathbb R^n$ ist (informell) ein Ausdruck +$$+ \omega = f(x) \intd x_1 \wedge \ldots \wedge \intd x_n +$$ +mit den Rechenregeln: wenn $x=x(y)$ mit $y = (y_1,\dotsc,y_n)$ dann transformiert sich der Ausdruck zu + +$$+ f(x(y)) + \left( + \frac{\partial x_1}{\partial y_1}\intd y_1 + \ldots + \frac{\partial x_1}{\partial y_n}\intd y_n + \wedge \ldots \wedge + \frac{\partial x_n}{\partial y_1}\intd y_1 + \ldots + \frac{\partial x_n}{\partial y_n}\intd y_n + \right) +$$ + +und es gilt: + +$$+ T^*M \ni \intd y_i \wedge \intd y_j = -\intd y_j \wedge \intd y_i,\ \ \ \ i,j = 1,\ldots, n +$$ + +folglich ist $\int \omega$ unabhängig von Koordinaten. + +Ziel: + +* Das Tensorprodukt + +ausgehend von einem Vektoraum $V(= T_pM, T_p^*M)$ einen Kalkühl zu entwickeln, welcher die Interpretation von Ausdrücken wie $\intd x_1 \wedge \ldots \wedge \intd x_k$ mit Rechenregeln $\intd x_i \wedge \intd x_j = \intd x_j \wedge \intd x_i$ erlaubt. + +Das wird durch Theorie von Tensorprodukten und multiliniearen (z.B. $\det\colon \underbrace{\mathbb R^n \times \ldots \times \mathbb R^n}_{n\text{-mal}} \to \mathbb R$) Abbildungen gemacht + +Hauptidee: eine multilinieare Abbildung $f\colon V_1 \times \ldots \times V_n \to W$. Es reicht diese Idee für bilineare Abbildungen zu realisieren. (dann wiederholt man es) + +** Definition: Tensorprodukt + +Ein Vektoraum $V\otimes W$ zusammen mit einer bilinearen Abbildung $i\colon V \times W \to V \otimes W$ heißt Tensorprodukt von $V$ und $W$, wenn für jede bilineare Abbildung $f V\times W \to Z$, ($Z$ beliebiger Vektoraum) eine eindeutige lineare Abbildung $\bar f \colon V\oplus W \to Z$ existiert mit $\bar f\circ i = f$ (genannt universelle Eigenschaften) + +\begin{center} +\begin{tikzcd} +V\times W \arrow[r, "i"] \arrow[rd, "f"'] & V\otimes W \arrow[d, "\exists!\bar f", dashed] \\ + & Z +\end{tikzcd} +\end{center} + +** Lemma: Eindeutigkeit des Tensorprodukts $V\oplus W$ + +Wenn $V\oplus W$ existiert, dann ist es eindeutig bis auf einen eindeutigen Isomorphismus. + +Beweis: + +\begin{center} +\begin{tikzcd} +V + W \arrow[r, "i_1"] \arrow[rd, "i_2"'] & (V\oplus W)_1 \arrow[d, "\exists!f_1", dashed] & \ \\ + & (V\oplus W)_2 & \arrow[u, "\exists!f_2", dashed] +\end{tikzcd} +\end{center} + +Die universelle Eigenschaft von $(V\oplus W)_1$ liefert $f_1\colon (V\oplus W)_1 \to (V\oplus W)_2$ mit $f_1\circ i_1 = i_2$. + +Die universelle Eigenschaft von $(V\oplus W)_2$ liefert $f_2\colon (V\oplus W)_2 \to (V\oplus W)_1$ mit $f_2\circ i_2 = i_1$. + +Beh. $f_1$, $f_2$ sind invers zueinander. Betrachte z.B.: $f_1\circ f_2$ + +\begin{center} +\begin{tikzcd} +V\oplus W \arrow[r, "i_2"] \arrow[rd, "i_2"'] & (V\oplus W)_2 \arrow[d, "f_1\circ f_2"] & \ \\ +\ & (V\oplus W)_2 & \ \arrow[u, "id"'] +\end{tikzcd} +\end{center} + +Wegen der Eigenschaften in der Definition von $(V\oplus W)_2$ ist $f_1\circ f_2 = \operatorname{id}_{(V\oplus W)_2}$. Analog gilt $f_2\circ f_1 = \operatorname{id}_{(V\circ W)_1}$ + +** Existenz von $V \oplus W$ + +Idee: $V\oplus W$ soll von Ausdrücken der Form $v\oplus w$, $v\in V$, $w\in W$ aufgespannt werden und $v\oplus w$ soll linear in $V$ und $W$ sein. + +Definition: +Sei $X$ eine Menge. Der freie (re­elle) Vektoraum auf $X$, $\mathcal F_{\mathbb R}(X)$, ist der %TODO der? +(reelle) Vektoraum mit Basis $X$. + +$$+ \mathcal F_{\mathbb R}(X) \cong \{ f\colon X\to \mathbb R\ |\ f(x) \neq 0 \text{ für endlich viel } x \} +$$ + +$$+ V\oplus W := \nicefrac + { + \mathcal F(V\times W) + }{ + \left\langle + \begin{subarray}{l} + (v_1+v_2, w) -(v_1,w) -(v_2,w), v_1, v_2 \in V, w\in W \\ + (v, w_1+w_2) -(v,w_1) -(v,w_2), v \in V, w_1, w_2\in W \\ + \left. + \begin{subarray}{l} + (\lambda v, w) - \lambda(v,w) \\ + (v, \lambda w) - \lambda(v,w) \\ + \end{subarray} + \right\} + v \in V, w\in W, \lambda \in \mathbb R + \end{subarray} \right\rangle + } +$$ + +Sei +$$+ i \colon &V\times W& \to V\oplus W + \\ &(v,w)& \mapsto [(v,w)] =: v\oplus w +$$ + +Diese Definition heißt, dass folgende Rechenregeln gelten: + +$$+ (v_1+v_2)\oplus w &:=& v_1\oplus w + v_2 \oplus w + \\ v\oplus (w_1 + w_2) &:=& v\oplus w_1 + v\oplus w_2 + \\ \lambda(v\oplus w) &=& v\oplus \lambda w = \lambda v\oplus w,\ \ v_1, v_2 \in V, w_1, w_2 \in W, \lambda \in \mathbb R +$$ + diff --git a/latex.template b/latex.template index 6d164fc9dbbfa880ddfaada81730747dce062f98..8056d4e75fb2ac679c695d9642d17d1f0a6d737b 100644 --- a/latex.template +++ b/latex.template @@ -380,9 +380,12 @@ $endif$ $endif$ %custom +\usepackage{cancel} +\usepackage{nicefrac} $if(tikz)$ \usepackage{tikz, tikz-cd} $endif$ +\newcommand{ \intd }{ \,\mathrm d } \begin{document}