edit-this-file.tex 56.2 KB
Newer Older
Harry Fuchs's avatar
Harry Fuchs committed
1
2
%TODO alles mit ??

Harry Fuchs's avatar
Harry Fuchs committed
3
Compiled on \today
Harry Fuchs's avatar
Harry Fuchs committed
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76

* Erinnerungen an WS

Wir studieren Mannigfaltigkeiten (Mfg).

$\approx$ topologische Räume, die lokal wie $\mathbb R^n$ aussehen + glatte ~Strukturen~ von glatten Abbildungen zu sprechen.

Konkret: um jeden Punkt $p\in M$ gibt es eine Umgebung $U\ni p$ zusammen mit einer Karte $x\colon U\to \mathbb R^n$

%Bild 1

Idee: da $M$ lokal wie $\mathbb R^n$ aussieht, versucht man, Objekte aus der Analysis auch auf $M$ zu verstehen.

~Wichtig dabei~: das Objekt auf $M$ muss koordinatenunabhängig werden! (Physik verlangt das auch!)

1. ~Tangentialraum~ „über“ jedem Punkt $p\in M$ „hängt“ ein Vektorraum $T_pM$, $\dim T_pM = \dim M$ Elemente von $T_pM$ heißen Tangentialvektoren.
  %TODO %TYPO: remove space here
  $$
    T_pM &=& \{ \text{Ableitungen von Funktionen an } p \}
    \\&=& \{ \partial \colon C^{\infty}(M) \to \mathbb R \text{ linear} \ |\ \partial(fg) = f(p)\cdot\partial(g) + g(p)\cdot\partial(f) \}
  $$
  
  Motto: Tangentialvektor $\mathrel{\hat=}$ Richtungsableitung!
  
  %Bild 2
  
  $\pi \colon TM \to M$ ist glatt
  $v\in T_pM \mapsto p$
  
  Nutzen: wir verstehen „wirklich“, was Ableitungen sind
  
  Früher: 
  $$
    f\in C^\infty(\mathbb R^m, \mathbb R^n) &\rightsquigarrow& D_pf \in \mathbb M_{n\times m} (\mathbb R)
    \\&& Df \in C^\infty(\mathbb R^m, \mathbb M_{n\times m}(\mathbb R))
  $$
  
  Jetzt in Diffgeo:
  
  $$1
  f\in C^\infty(M, N) \underset{p\in M}\rightsquigarrow D_pf \colon T_pM \to T_{f(p)}N \text{ linear}
  $$1
  
  %Bild 3
  
2. ODEs als Flüsse von Vektorfeldern
  %Bild 4
  
  Vektorfeld: $X\colon M \to TM$ mit $\pi \circ X = id_M$ ($\Leftrightarrow X(p) \in T_pM$)
  Gegeben $X \rightsquigarrow \Phi \colon \underset{\subseteq \mathbb R \times M}W \to M$ (Fluss des Vektorfeldes)
  
  s.d. $\forall p\in M\ \gamma_p(t) := \Phi(t,p)$ die ODE
  $$1
    \dot \gamma(t) = X(\gamma(t))
  $$1
  lässt

3. Lie-Klammer von Vektorfeld und Lie-Gruppen Auf Vektorfeldern auf $M$ ergibt es eine interessante algebraische Struktur: die Lie-Klammer: gegeben $X$, $Y \in \underbrace{\Gamma(TM)}_{Vektorfeld} \rightsquigarrow [X,Y] \in \Gamma (TM)$
  
  $(\Gamma(TM), [\cdot, \cdot])$ wird zu einer Lie-Algebra.
  
  Def. Eine Lie-Algebra $(V, [\cdot, \cdot])$ ist ein Vektorraum $V$ mit einer bilinearen Abbildung $[\cdot, \cdot]: V\times V \to V$ mit folgenden Eingenschaften:
  
    1. $[X,Y] = -[Y,X]$, $\ X$, $Y \in V$
    2. Jacobi-Identität: $X$, $Y$, $Z\in V$:
    $$
      [X, [Y,Z]] + [Y, [Z, X]] + [Z, [X,Y]] = 0
    $$
    
  Beispiele:
    1. $\Gamma(TM)$, $[\cdot, \cdot]$ ist eine Lie-Algebra
    2. $\mathbb M_u(\mathbb R)$, $[A,B] = AB - BA$ ist eine Lie-Algebra
  
Harry Fuchs's avatar
Harry Fuchs committed
77
  Verbindung zwischen a) und b)%ref
Harry Fuchs's avatar
Harry Fuchs committed
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
  -- Lie-Gruppen
  Lie-Gruppe $=$ Mannigfaltigkeit und Gruppe (auf kompatible Weise) Multiplikation, Inversion glatt.
  
  $G$ Lie-Gruppe $\rightsquigarrow \operatorname{Lie}(G) = 2(G) = \{ X\in \Gamma(TG) \ |\ \underbrace{(Lg)_*}_{(Lg)_{*,p} = D_pLg} X = X \} = \{ x\ |\ x \text{ linksinvariantes Vektorfeld } \}$
  
  $\rightarrow$ Lie-Algebra bzgl. $[\cdot, \cdot]$, heißt Lie-Algebra von $G$.
  
  Eigenschaften: $\operatorname{Lie}(G) \cong T_1G$ als Vektoraum
  $\Rightarrow \dim_{\mathbb R} \operatorname{Lie}(G) = \dim G$
 
  %TODO %TYPO vertical space
  $$
    Lg \colon G &\to& G\\
    h &\mapsto& g\cdot h
  $$

  Satz $G = GL(n, \mathbb R) \underset{\text{offen}}{\subset} \mathbb M_n(\mathbb R)$
  
  $\operatorname{Lie}(G) \cong T_1G \underset{\text{Vektoraum}}\cong \mathbb M_n (\mathbb R)$
  
  Dies ist auch ein Isomorphismus zwischen Lie-Algebren!
  
  $$1
    (\operatorname{Lie}(\operatorname{GL(n, \mathbb R)}), [\cdot, \cdot]) \cong (\mathbb M_n(\mathbb R), [\cdot, \cdot])
  $$1
  
  Für jedes $G< \operatorname{GL}(n, \mathbb R)$ ist dann $\operatorname{Lie}(G) \subseteq (\mathbb M_n(\mathbb R), [\cdot, \cdot])$.
  $$1
    [A,B] = AB - BA
  $$1
Harry Fuchs's avatar
Harry Fuchs committed
108
109

%DATE 2019-04-02
Harry Fuchs's avatar
Harry Fuchs committed
110

Harry Fuchs's avatar
Harry Fuchs committed
111
* Übung 1
Harry Fuchs's avatar
Harry Fuchs committed
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149

Differential einer Abbildung

$$1
  f\colon \mathbb R^n  \to \mathbb R^n
$$1

$$
p\in \mathbb R^n\ \ \ D_p f \colon \mathbb R^n &\to& \mathbb R^m (\text{linear})
\\ v &\mapsto& \underbrace{\partial_vf(p)}_{=D_pf(v)}
$$

$$
  \partial_v f(p) &=& \sum_{i=1}^n \left.\frac{\partial f}{\partial x^i}\right|_p v^i
  \\ D_pf \underset{\text{als Matrix}}{=} \left(\frac{\partial f_i}{\partial x^j} \right)_{
    \begin{matrix}
      i = \overline{1, m} \\
      j = \overline{1, n}
    \end{matrix}}
$$

$$
  f\colon M\to N
$$
$$
  p\in M \rightsquigarrow D_p f \colon &T_p M& \to T_{f(p)}N\ \text{linear}
  \\ &\reflectbox{\rotatebox[origin=c]{90}{$\in$}}&
  \\ &v& \mapsto (\underbrace{\varphi}_{C^\infty} \mapsto v(f^*\varphi)) = v(\underbrace{\phi \circ f}_{\in C^\infty(M)})
$$

$v \mathrel{\hat=}$ Ableitungsoperation ($v\colon C^\infty(M) \to \mathbb R$) mit $v(fg) = f(p)v(g) + g(p)v(f)$

\begin{tikzcd}
M \arrow[r, "f"] \arrow[rr, "f^*\varphi"', bend right] & N \arrow[r, "\varphi"] & \mathbb R
\end{tikzcd}

%TODO vertical line

Harry Fuchs's avatar
Harry Fuchs committed
150
151
%2019-??-??

Harry Fuchs's avatar
Harry Fuchs committed
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
219
220
221
222
223
224
225
226
227
228
229
230
231
232
233
234
235
236
237
238
239
240
241
242
243
244
245
246
247
248
249
250
251
252
253
254
255
256
257
258
259
260
261
262
263
264
265
266
267
268
269
270
271
272
273
274
275
276
277
278
279
280
281
282
283
284
285
286
287
288
289
290
291
292
293
294
295
296
297
298
299
300
301
302
303
304
305
306
307
308
309
310
311
312
313
TODO Bildchen %TODO

$$
  M &\overset f\to& N
  \\ &\reflectbox{\rotatebox[origin=c]{270}{$\leadsto$}}&
  \\ C^\infty(N) &\overset{f^*}{\to}& C^\infty(M)\ \text{linear, sogar Algebrenhomomorphismus}%TODO letzes Wort nicht verstanden
  \\ \varphi &\mapsto& \varphi\circ f
$$

Jeder Tangentialvektor $v$ ist eine lineare Abbildung $v\colon C^\infty(M) \to \mathbb R$, dann ist $\underbrace{v\circ f^*}_{=D_{\pi(v)}f(v) = f_*v} \colon C^\infty(M) \to \mathbb R$ linear

%TODO vertical line

** Beispiel

$$1
  G = U(n) = \{ A \in \mathbb M_n (\mathbb C) \ |\ A^*A = 1 \} \subseteq \operatorname{GL}(n, \mathbb C)
$$1

$$
  &\operatorname{Lie}(G)& = \operatorname{og} = \underline{u}(n) = {?} = \{ X\in \mathbb M_n \mathbb(C) \ |\ X^* = -X \},\ [\cdot, \cdot]
  \\&\reflectbox{\rotatebox[origin=c]{90}{$\cong$}}&\\
  &T_1G& \subset T_1\operatorname{GL}(n, \mathbb C) \cong \operatorname{gl}(n, \mathbb C) \cong \mathbb M_n(\mathbb C)
  \\&\reflectbox{\rotatebox[origin=c]{90}{$=$}}&\\
  \{&\dot\gamma(0)& \ |\ \gamma\colon(-\epsilon, \epsilon) \to G \wedge \gamma(0) = 1\}
$$

Sei $\gamma\colon(-\epsilon, \epsilon) \to G$ eine Kurve, $\gamma(0)=1$

$G=U(n)\Rightarrow \gamma(t)^*\cdot \gamma(t) = 1 \leftarrow \left.\frac{d}{dt}\right|_{t=0}$

$$
  \dot\gamma(0)^*\gamma(0) &+& \gamma(0)^*\dot\gamma(0) = 0\\
  &\reflectbox{\rotatebox[origin=c]{90}{$=$}}&\\
  \dot\gamma(0)^* &+& \dot\gamma(0) = 0
$$

Also:

$$
  T_1(G) \subseteq \{ X\in \mathbb M_n(\mathbb C)\ |\ X^* = -X \}
$$

Dazu: Zeige $\supseteq$ betrachte:
$$
  \gamma(t) := e^{tX} \left(:= \sum_{k=0}^\infty \frac{t^k X^k}{k!}\right)
\\  \gamma(t)^* = e^{tX^*} = e^{-tX}
\\  \gamma(t)*\gamma(t) = e^{-tX}\cdot e^{tX} = 1 \Rightarrow \gamma(t)\in \operatorname{U}(n)
\\ \dot\gamma(t) = Xe^{tX} \Rightarrow \dot\gamma(0) = X
$$
wie gewünscht. $\Rightarrow$ Gleichheit

%Hinweis nur mündlich:
$$
  D_1 \det = (A\mapsto \operatorname{Trace}(A))
$$

$$
  G = U(n) < \operatorname{GL}(n,\mathbb R)
  \operatorname{og} = \underline{u}(n) \subset \operatorname{gl}(n,\mathbb R) = \mathbb M_n(\mathbb R)
$$

Wir haben gesehen:
$$
  \exp \colon &\operatorname{og}& \to G\\
  &\reflectbox{\rotatebox[origin=c]{90}{$\in$}}&\\
  &X& \mapsto \exp(X)
$$

$$
  \gamma(t) = e^{tX} = \exp(tX)
$$

$$
  \dot\gamma(t) = Xe^{tX} = e^{tX} \cdot X = \gamma(t) \cdot X = \left( L_{\gamma{(t)}} \right)_* \underbrace{X}_{\in T_1G} = \tilde X(\gamma(t))
$$

wobei $\tilde X$ das linksinvariante Vektorfeld zu $X$ ist

$\Rightarrow \gamma(t)$ ist eine Integralkurve von $\tilde X$

Ausführlicher:

$G\in \operatorname{GL}(m, \mathbb R) \subset \mathbb M_n(\mathbb R) \cong \mathbb R^{n^2}$

$$
  X\in T_1G \rightsquigarrow
  \underbrace{\tilde X(A)}_{ \text{linksinvariantes VF} }
  = \underbrace A_{\in G}\cdot X \in T_AG\subseteq \mathbb M_n(\mathbb R)
$$

Eine Integralkurve $A(t) \in G$ von $\tilde X$ erfüllt dann:
$$
  \dot A(t) = A(t)\cdot X
$$

$\rightsquigarrow$ mit $A(0) = 1 \rightsquigarrow A(t) = e^{tX}$

%TODO vertical line

$$
  x &\mapsto& A\cdot x
  \\ f\colon \mathbb R^n &\to& \mathbb R^n \ \text{linear}
  \\ \Rightarrow D_pf = f\colon \mathbb R^n &\to& \mathbb R^m
  \\
  \\ f\colon V &\to& W \text{ linear}
$$

mit Übung 28 %TODO ref
$p\in V$:


\begin{center}
  \begin{tikzcd}
  T_pV \arrow[r, "D_pf"] \arrow[d, phantom, "\reflectbox{\rotatebox[origin=c]{90}{$\cong$}}" description] & T_pW \arrow[d, phantom, "\reflectbox{\rotatebox[origin=c]{90}{$\cong$}}" description] \\
  V \arrow[r, "f"]                                      & W
  \end{tikzcd}
\end{center}

%TODO vertical line
%TODO das war das mündliche Zeug

$$
  \det \gamma(t) = 1 \leftarrow \left.\frac{d}{dt}\right|_{t=0}
$$

$$
  \det \colon \operatorname{GL}(n, \mathbb R) \to \mathbb R
$$

$$
  D_1 \det \colon \mathbb M_n(R) &\to &\mathbb R
  \\ A &\mapsto& {?} = \operatorname{Tr}(A)
$$

$$
  \det (1+tA) = 1 + ({?}) + O(t^2)
$$

Determinante ist Konjugationsinvariant

$$1
  \det(1+tA) = \det (1+tBAB^{-1})
$$1

Wenn $A$ diagonalisierbar ist folgt somit:

$$
  \det (1+tA)
  &=&
    \left|\begin{matrix}
      1+t\lambda_1& & \\
      & \ddots & \\
      && 1+t\lambda_n
    \end{matrix}\right|
  \\&=&
    (1+t\lambda_1)\cdots(1+t\lambda_n)
  \\&=&
    1+t(\lambda_1 + \lambda_n) + O(t^2)
  \\&=&
    1 + t\cdot \operatorname{Trace}(A) + O(t^2)
$$
Harry Fuchs's avatar
Harry Fuchs committed
314
315
316
317
318
319
320
321
322
323
324
325
326
327
328
329
330
331
332


* Integration auf Mannigfaltigkeiten

Suchen eines koordinateninvarianten Integrationsbegriffs

%TODO schöner
\begin{tikzcd}
 \arrow[rr, "U", no head]  &  & \mathbb R^n                                        \\
                           &             & \downarrow \ \alpha \colon U\overset{\cong} \to V \text{ Diffeo} \\
 \arrow[rr, "V"', no head] &             & \mathbb R^n                                       
\end{tikzcd}

Betrachte $n=1$:

$U$, $V \subseteq \mathbb R$ offenen Intervalle. $\alpha\colon \underbrace{U}_{=(a,b)} \to V$ Diffeo ($=$ strikt monotone glatte Fkt.)

Transformationsformel:
$$
Harry Fuchs's avatar
Harry Fuchs committed
333
  \int_{\alpha(a)}^{\alpha(b)} f(\alpha(t))\alpha'(t)\intd t = \int_{a}^{b}f(t)\intd t
Harry Fuchs's avatar
Harry Fuchs committed
334
335
336
337
338
339
340
341
342
343
344
345
346
347
348
349
350
351
352
353
354
355
356
357
358
359
360
361
362
363
364
365
366
367
368
369
370
371
372
373
374
375
376
377
378
379
380
381
382
383
384
385
386
387
388
389
390
391
392
393
394
395
396
397
398
399
400
401
402
403
404
405
406
407
408
409
410
411
412
413
414
415
416
417
418
419
420
421
422
423
424
425
426
427
428
429
430
431
432
433
434
435
436
437
438
439
440
441
442
443
444
445
446
447
448
449
450
451
452
$$

„Mnemonik“:
$$
  \intd v = v'(u)\intd u
$$

$f\colon V\to \mathbb R$
$$
  \int_{U}(\alpha^*(f))(u)\alpha'(u)\intd u = \int_V f(v)\intd v \neq \int_V \alpha^*(f)(t) \intd t
$$

In $\mathbb R^n$:

$$
\int_U \alpha^*(t)(\det D_u\alpha)\intd_{u_1}\cdots\intd_{u_n} = \int_V f(v) \intd_{v_1}\dotsm\intd_{v_n}
$$

$$
\alpha \colon &U& \to V \text{ Diffeo}
\\ &(u_1,\dotsc,u_n)& \mapsto (v_1, \dotsc, v_n)
$$

$v=v(u)$
$$
\int_V f(v) \intd v_1 \intd v_2
$$

$$
  \intd v_1
  = \frac{\partial v_1 }{\partial u_1 }\intd u_1 
  + \frac{\partial v_1 }{\partial u_2 }\intd u_2
$$

$$
  \intd v_2
  = \frac{\partial v_2 }{\partial u_1 }\intd u_1 
  + \frac{\partial v_2 }{\partial u_2 }\intd u_2 
$$

$$
  \intd v_1 \intd v_2
  = \xcancel{\frac{\partial v_1 }{\partial u_1 }\frac{\partial v_2 }{\partial u_1 } \intd u_1 \intd u_1}
  + \xcancel{\frac{\partial v_1 }{\partial u_2 }\frac{\partial v_2 }{\partial u_2 } \intd u_2 \intd u_2}
  + \frac{\partial v_1 }{\partial u_1 }\frac{\partial v_2 }{\partial u_2 } \intd u_2 \intd u_2
  + \frac{\partial v_1 }{\partial u_2 }\frac{\partial v_2 }{\partial u_1 } \intd u_2 \intd u_1
  =: (*)
$$

$$
  = \int_V f(v) \intd v_1 \intd v_2
  = \int_U f(v(u))
%   \left%TODO overcome boxes
  \Bigg
  (
    \underbrace{
      \frac{\partial v_1 }{\partial u_1 } \frac{\partial v_2}{\partial u_2} - \frac{\partial v_1}{\partial u_2}\frac{\partial v_2}{\partial u_1}
    }_{
      \underset{
        \begin{subarray}{c}
          \text{sollte}\\
          (*)\text{ sein}
        \end{subarray}
      }{=} \det \left(
      \begin{matrix}
        \frac{\partial v_1}{\partial u_1} & \frac{\partial u_1}{\partial u_2}
        \\ \frac{\partial v_2}{\partial u_1} & \frac{\partial v_2}{\partial u_2}  
      \end{matrix}\right)
    }
  \Bigg
%   \right
  )
  \intd u_1 \intd u_2
$$

Damit die Mnemonik stimmt, muss also gelten:

$$
  \intd u_1 \cdot \intd u_1 &=& \intd u_2 \cdot \intd u_2 = 0
  \\ \intd u_1 \cdot \intd u_2 &=& - \intd u_2 \cdot \intd u_1 = 0
$$

Erkenntniss:

Koordinatenfrei werden nicht Funktionen, sondern sogenannte Differentialformen integriert. Eine $n$-Differentialform auf $\mathbb R^n$ ist (informell) ein Ausdruck
$$
  \omega = f(x) \intd x_1 \wedge \ldots \wedge \intd x_n
$$
mit den Rechenregeln: wenn $x=x(y)$ mit $y = (y_1,\dotsc,y_n)$ dann transformiert sich der Ausdruck zu 

$$
  f(x(y))
  \left(
    \frac{\partial x_1}{\partial y_1}\intd y_1 + \ldots + \frac{\partial x_1}{\partial y_n}\intd y_n
    \wedge \ldots \wedge
    \frac{\partial x_n}{\partial y_1}\intd y_1 + \ldots + \frac{\partial x_n}{\partial y_n}\intd y_n
  \right)
$$

und es gilt:

$$
 T^*M \ni \intd y_i \wedge \intd y_j = -\intd y_j \wedge \intd y_i,\ \ \ \ i,j = 1,\ldots, n
$$

folglich ist $\int \omega$ unabhängig von Koordinaten.

Ziel:

* Das Tensorprodukt

ausgehend von einem Vektoraum $V(= T_pM, T_p^*M)$ einen Kalkühl zu entwickeln, welcher die Interpretation von Ausdrücken wie $\intd x_1 \wedge \ldots \wedge \intd x_k$ mit Rechenregeln $\intd x_i \wedge \intd x_j = \intd x_j \wedge \intd x_i$ erlaubt.

Das wird durch Theorie von Tensorprodukten und multiliniearen (z.B. $\det\colon \underbrace{\mathbb R^n \times \ldots \times \mathbb R^n}_{n\text{-mal}} \to \mathbb R$) Abbildungen gemacht

Hauptidee: eine multilinieare Abbildung $f\colon V_1 \times \ldots \times V_n \to W$. Es reicht diese Idee für bilineare Abbildungen zu realisieren. (dann wiederholt man es)

** Definition: Tensorprodukt

Harry Fuchs's avatar
Harry Fuchs committed
453
Ein Vektoraum $V\otimes W$ zusammen mit einer bilinearen Abbildung $i\colon V \times W \to V \otimes W$ heißt Tensorprodukt von $V$ und $W$, wenn für jede bilineare Abbildung $f \colon V\times W \to Z$, ($Z$ beliebiger Vektoraum) eine eindeutige lineare Abbildung $\bar f \colon V\otimes W \to Z$ existiert mit $\bar f\circ i = f$ (genannt universelle Eigenschaften)
Harry Fuchs's avatar
Harry Fuchs committed
454
455
456
457
458
459
460
461

\begin{center}
\begin{tikzcd}
V\times W \arrow[r, "i"] \arrow[rd, "f"'] & V\otimes W \arrow[d, "\exists!\bar f", dashed] \\
                                          & Z                                             
\end{tikzcd}
\end{center}

Harry Fuchs's avatar
Harry Fuchs committed
462
** Lemma: Eindeutigkeit des Tensorprodukts $V\otimes W$
Harry Fuchs's avatar
Harry Fuchs committed
463

Harry Fuchs's avatar
Harry Fuchs committed
464
Wenn $V\otimes W$ existiert, dann ist es eindeutig bis auf einen eindeutigen Isomorphismus.
Harry Fuchs's avatar
Harry Fuchs committed
465
466
467
468
469

Beweis:

\begin{center}
\begin{tikzcd}
Harry Fuchs's avatar
Harry Fuchs committed
470
471
V + W \arrow[r, "i_1"] \arrow[rd, "i_2"'] & (V\otimes W)_1 \arrow[d, "\exists!f_1", dashed] &  \                                 \\
                                          & (V\otimes W)_2                                  &  \arrow[u, "\exists!f_2", dashed]
Harry Fuchs's avatar
Harry Fuchs committed
472
473
474
\end{tikzcd}
\end{center}

Harry Fuchs's avatar
Harry Fuchs committed
475
Die universelle Eigenschaft von $(V\otimes W)_1$ liefert $f_1\colon (V\otimes W)_1 \to (V\otimes W)_2$ mit $f_1\circ i_1 = i_2$.
Harry Fuchs's avatar
Harry Fuchs committed
476

Harry Fuchs's avatar
Harry Fuchs committed
477
Die universelle Eigenschaft von $(V\otimes W)_2$ liefert $f_2\colon (V\otimes W)_2 \to (V\otimes W)_1$ mit $f_2\circ i_2 = i_1$.
Harry Fuchs's avatar
Harry Fuchs committed
478

Harry Fuchs's avatar
Harry Fuchs committed
479
Beh. $f_1$, $f_2$ sind invers zueinander. Betrachte:
Harry Fuchs's avatar
Harry Fuchs committed
480
481
482

\begin{center}
\begin{tikzcd}
Harry Fuchs's avatar
Harry Fuchs committed
483
484
V\otimes W \arrow[r, "i_1"] \arrow[rd, "i_1"'] & (V\otimes W)_2 \arrow[d, "\bar f"] \\
                                               & (V\otimes W)_2                    
Harry Fuchs's avatar
Harry Fuchs committed
485
486
487
\end{tikzcd}
\end{center}

Harry Fuchs's avatar
Harry Fuchs committed
488
489
490
491
492
493
494
495
496
497
498
$f_2\circ f_1$ und $\operatorname{id}$ erfüllen beide die geforderte Eigenschaft an $\bar f$.

$$
  (f_2\circ f_1)\circ i_1 &=& i_1
  \\ {\operatorname{id}} \circ i_1 &=& i_1
$$
Da es aber nur eine solche Funktion gibt, müssen sie gleich sein:
$$
  f_2\circ f_1 = \bar f = \operatorname{id}
$$
Also $f_1\circ f_2 = \operatorname{id}_{(V\otimes W)_2}$ und analog gilt $f_2\circ f_1 = \operatorname{id}_{(V\circ W)_1}$. Also $f_1$ Isomorphismus
Harry Fuchs's avatar
Harry Fuchs committed
499

Harry Fuchs's avatar
Harry Fuchs committed
500
** Existenz von $V \otimes W$
Harry Fuchs's avatar
Harry Fuchs committed
501

Harry Fuchs's avatar
Harry Fuchs committed
502
Idee: $V\otimes W$ soll von Ausdrücken der Form $v\otimes w$, $v\in V$, $w\in W$ aufgespannt werden und $v\otimes w$ soll linear in $V$ und $W$ sein.
Harry Fuchs's avatar
Harry Fuchs committed
503
504

Definition:
Harry Fuchs's avatar
Harry Fuchs committed
505
Sei $X$ eine Menge. Der freie (reelle) Vektoraum auf $X$, $\mathcal F_{\mathbb R}(X)$, ist der %TODO der? Eindeutigkeit?
Harry Fuchs's avatar
Harry Fuchs committed
506
507
508
(reelle) Vektoraum mit Basis $X$.

$$
Harry Fuchs's avatar
Harry Fuchs committed
509
  \mathcal F_{\mathbb R}(X) \cong \{ f\colon X\to \mathbb R\ |\ f(x) \neq 0 \text{ für endlich viele } x\in X \}
Harry Fuchs's avatar
Harry Fuchs committed
510
511
512
$$

$$
Harry Fuchs's avatar
Harry Fuchs committed
513
  V\otimes W &:=&
Harry Fuchs's avatar
Harry Fuchs committed
514
  {
Harry Fuchs's avatar
Harry Fuchs committed
515
516
517
    \mathcal F_{\mathbb R}(V\times W)
  }/\underbrace{
    \left\langle\left\{
Harry Fuchs's avatar
Harry Fuchs committed
518
      \begin{subarray}{l}
Harry Fuchs's avatar
Harry Fuchs committed
519
520
521
522
        \eins_{(v_1+v_2, w)} -\eins_{(v_1,w)} -\eins_{(v_2,w)}
        \\ \eins_{(v, w_1+w_2)} -\eins_{(v,w_1)} -\eins_{(v,w_2)}
        \\ \eins_{(\lambda v, w)} - \lambda\eins_{(v,w)}
        \\ \eins_{(v, \lambda w)} - \lambda\eins_{(v,w)}
Harry Fuchs's avatar
Harry Fuchs committed
523
      \end{subarray}
Harry Fuchs's avatar
Harry Fuchs committed
524
525
526
527
528
529
530
531
532
533
534
535
536
    \mathrel{\middle|}
      \begin{subarray}{l}
        v_1, v_2, v\in V,
        \\w_1, w_2, w\in W,
        \\ \lambda \in \mathbb R
      \end{subarray}
    \right\}\right\rangle
  }_{:=\langle\ldots\rangle}
  \\&=& \left\{ f + \langle\ldots\rangle \mathrel{\middle|} f \in \mathcal F_{\mathbb R} (V\times W)\right\}
$$

$$
  \langle \cdot \rangle = \operatorname{span}(\cdot), \quad \eins = \text{Indikatorfunktion}
Harry Fuchs's avatar
Harry Fuchs committed
537
538
539
540
$$

Sei
$$
Harry Fuchs's avatar
Harry Fuchs committed
541
  i \colon &V\times W& \to V\otimes W
Harry Fuchs's avatar
Harry Fuchs committed
542
  \\ &(v,w)& \mapsto \left[\eins_{(v,w)}\right] =: v\otimes w
Harry Fuchs's avatar
Harry Fuchs committed
543
544
545
546
547
$$

Diese Definition heißt, dass folgende Rechenregeln gelten:

$$
Harry Fuchs's avatar
Harry Fuchs committed
548
549
550
551
552
  (v_1+v_2)\otimes w &=& v_1\otimes w + v_2 \otimes w
  \\ v\otimes (w_1 + w_2) &=& v\otimes w_1 + v\otimes w_2
  \\ \lambda(v\otimes w) &=& v\otimes \lambda w = \lambda v\otimes w,\ \ v_1, v_2 \in V, w_1, w_2 \in W, \lambda \in \mathbb R
$$

Harry Fuchs's avatar
Harry Fuchs committed
553
554
555
556
557
558
559
560
561
562
563
§Begründung:
§$$
§  v_1\otimes w + v_2 \otimes w
§  &=& [(v_1,w)] + [(v_2, w)]
§  \\&=& {\eins}_{(v_1,w)} + \langle\ldots\rangle + \eins_{(v_2, w)} + \langle\ldots\rangle
§  \\&=& \eins_{(v_1,w)} + \eins_{(v_2, w)} + \langle\ldots\rangle
§  \\&\overset{\langle\ldots\rangle \text{ ist UV}}=& \eins_{(v_1,w)} + \eins_{(v_2, w)} + \left(\left( \eins_{(v_1+v_2, w)} -\eins_{(v_1,w)} -\eins_{(v_2,w)} \right) + \langle\ldots\rangle \right)
§  \\&=& \eins_{(v_1+v_2, w)} + \langle\ldots\rangle
§  \\&=& \left[\eins_{(v_1+v_2, w)}\right]
§  \\&=& (v_1+v_2)\otimes w
§$$
Harry Fuchs's avatar
Harry Fuchs committed
564

Harry Fuchs's avatar
Harry Fuchs committed
565
%2019-04-10
Harry Fuchs's avatar
Harry Fuchs committed
566
567
568
569
570
571
572
573
574

wenn $E$ ein Vektoraum ist, $E' \subseteq E$ Untervektorraum, dann ist ${E}/{E'} = \{ e+E'\ |\ e\in E \}$ mit mengenmäßiger Addition und Skalarmultiplikation. (bei uns ist $E = \mathcal F(V\times W)$, $E' = \langle \ldots \rangle$)

Interpretation: ${E}/{E'} =$ Vektoraum der Äquivalenzklassen von Vektoraum in $E$ modulo $E'$. 
($e'=0$, $e'\in E'$) %TODO ?

Entsprechend ist

$$
Harry Fuchs's avatar
Harry Fuchs committed
575
576
577
578
579
580
581
  V\otimes W
§  &=&\{f+\langle\ldots \rangle \mathrel | f \in \mathcal F(V\times W) \}
§  \\&=& \left\{ \sum_{i=1}^n  \lambda_i\cdot\eins{(v,w)_i} + \langle\ldots\rangle\mathrel{\middle |} (v,w)_i\in V\times W, \lambda_i\in\mathbb R, i\in \mathbb \{1,\ldots,n\}, n\in \mathbb N \right\}
§  \\&=& \operatorname{span}\{ \eins_{(v,w)} + \langle\ldots\rangle\mathrel | (v,w)\in V\times W \}
%   \\&=& \operatorname{span}\{ [\eins_{(v,w)}] \mathrel | v\in V, w\in W \}
§  \\
  &=& \operatorname{span}\{ v\otimes w \mathrel| v\in V, w\in W \}
Harry Fuchs's avatar
Harry Fuchs committed
582
583
584
585
586
587
588
589
590
591
592
593
594
595
596
597
598
599
600
601
602
603
604
605
606
607
608
609
$$

mit den Relationen:
$$
  (v_1+v_2)\otimes w &=& v_1\otimes w + v_2 \otimes w
  \\ v\otimes (w_1 + w_2) &=& v\otimes w_1 + v\otimes w_2
  \\ \lambda(v\otimes w) &=& v\otimes \lambda w = \lambda v\otimes w,\ \ v_1, v_2 \in V, w_1, w_2 \in W, \lambda \in \mathbb R
$$

** Lemma

Die angegebene Konstruktion von $V\otimes W$ erfüllt die universelle Eigenschaft.

Beweis:

Sei $f\colon V\times W \to Z$ gegeben, bilinear

Definiere

$$
  \hat f\colon V\times W &\to& Z,\ \ \ \ \text{linear}
  \\ \sum_{i=1}^k \lambda_i(v_i, w_i) &\mapsto& \sum_{i=1}^k \lambda_i f(v_i, w_i)
$$

Behauptung: $\hat f$ induziert eine lineare Abbildung $\bar f$
$$
  \bar f\colon V\otimes W &\to& Z
  \\ (v\otimes w) &\mapsto& \hat f((v,w))
Harry Fuchs's avatar
Harry Fuchs committed
610
§  \\ \left( \sum_{i=1}^{n} \lambda_i \eins_{(v,w)_i} \right) &\mapsto& \sum_{i=1}^n \lambda_i f\left((v,w)_i\right)
Harry Fuchs's avatar
Harry Fuchs committed
611
612
613
614
615
616
$$

Dazu muss man überprüfen, dass $(v_1 + v_2, w) - (v,w) - (v_2, w)$ sowie andere Relationen von irgendwas oben %TODO ref 
im Kern von $\hat f$ liegen. Das ist dadurch gewährleistet, dass $f$ bilinear ist, z.B.

$$
Harry Fuchs's avatar
Harry Fuchs committed
617
618
619
620
621
§  && \bar f(\eins_{(v_1 + v_2, w)} -\eins_{(v_1, w)} -\eins_{(v_2, w)})
§  \\
  &
§  =
  & \hat f( (v_1 + v_2, w) - (v_1, w) - (v_2, w) )
Harry Fuchs's avatar
Harry Fuchs committed
622
623
624
625
626
627
628
629
630
631
632
633
634
635
636
637
638
639
640
641
642
643
644
645
646
647
648
649
650
651
652
653
654
655
656
657
658
659
660
661
662
  \\ &\overset{\text{Def. } \hat f}{=}& f(v_1 + v_2, w) - f(v_1, w) - f(v_2, w)
  \\ &\overset{\text{Bilinearität von } f}=& 0
$$

$\Rightarrow$ $\bar f$ erfüllt dann $\bar f(v\otimes w) = f(v,w) \Rightarrow V\otimes W$ erfüllt die universelle Eigenschaft.

** Homomorphismen und Dualräume: (Erinnerung aus LAAG)

$V$, $W$ Vektorräume $\rightsquigarrow Hom(V,W) = \{ f\colon V\to W\ |\ f \text{ linear } \}$ ist selbst ein Vektoraum, wenn $V$, $W$ endlichdimensional $\Rightarrow \operatorname{dim} \operatorname{Hom}(V,W) = \operatorname{dim}V \cdot \operatorname{dim} W$ ($\operatorname{Hom}(V,W) \cong \mathbb{M}(m\times n, \mathbb R)$, wenn $V\cong \mathbb R^n$, $W\cong \mathbb R^m$) 

$V^* := \operatorname{Hom}(V, \mathbb R)$ ist dann der Dualraum von $V$. Wenn $\{ e_i \}_{i=1}^n$ eine Basis in $V$ ist, dann gibt es die duale Basis $\{ \alpha_j \}_{j=1}^n \subset V^*$ mit: $\alpha_j(e_i) := \delta_{ij} = \begin{cases} 1,  & i=j \\ 0, & i\neq j \end{cases}$

Schließlich ist für $\operatorname V < \infty$ die Einbettung $i\colon V\to V^{**}$, $v\mapsto (\alpha \mapsto \alpha(v))$ ein Isomorphismus

** Proposition

$W\otimes V^*$ ist kanonisch isomorph zu $\operatorname{Hom}(V,W)$ für endlichdimensionale $V$, $W$. Insbesondere gilt dann:

$$
  \operatorname{dim} W\otimes V^* = \operatorname{dim} W \cdot \operatorname{dim} V = \operatorname{dim} W \otimes V
$$

Mehr: wenn $\{ f_j \}^m_{j=1}$ und $\{ e_i \}^n_{i=1}$ Basen in $W$ bzw. $V$ sind. Dann ist $\{ f_j \otimes e_i \}_{i=1,\dotsc, n; j=1,\dotsc, m}$ eine Basis in $W\otimes V$

Beweis:

Sei $L\colon W\times V^* \to \operatorname{Hom}(V,W)$, $(w,\alpha) \mapsto (\theta_{w,\alpha} \colon v \mapsto \alpha(v)\cdot w)$, ($\theta_{w,\alpha}\operatorname{Rang} 1$-Operator definiert durch $\alpha$, $w$)

$L$ ist bilinear, weil:

$$
  && (L(w_1 + \lambda w_2, \alpha_1 + \mu\alpha_2))(v)
  \\&=& (\alpha_1 + \mu\alpha_2)(v)\cdot(w_1 + \lambda w_2)
  \\&=& \underbrace{ \alpha_1(v)w_1 }_{L(w_1, \alpha_1)(v)}
  + \underbrace{ \mu \alpha_2(v)w_1 }_{L(w_1, \alpha_2)(v)}
  + \lambda \underbrace{ \alpha_1(v)w_2 }_{L(w_2, \alpha_1)(v)}
  + \mu\lambda \underbrace{ \alpha_2(v)\cdot w_2 }_{L(w_2, \alpha_2)(v)}
$$

Nach der universellen Eigenschaft vom Tensorprodukt bekommen wir eine lineare Abbildung

Harry Fuchs's avatar
Harry Fuchs committed
663
$$
Harry Fuchs's avatar
Harry Fuchs committed
664
665
666
667
668
669
670
671
672
673
674
675
676
677
678
679
680
681
682
683
684
685
686
687
688
689
690
691
692
693
694
695
696
697
698
699
700
701
702
703
704
705
706
707
708
709
710
711
712
713
714
715
716
717
718
719
720
721
722
723
724
725
726
727
728
729
730
731
732
733
734
735
736
737
738
739
740
741
742
743
744
745
746
747
748
  \bar L \colon W\otimes V^* &\to& \operatorname{Hom}(V,W)
  \\ w\otimes \alpha &\mapsto& \theta_{w,\alpha}
$$

$\bar L$ ist ein Isomorphismus: geben wir das Inverse an. Sei $\{ e_i \}_{i=1}^n$ eine Basis on $V$, $\{ \alpha_i \}_{i=1}^n$ die duale Basis in $V^*$. Definiere

$$
  \varphi \colon \operatorname{Hom}(V,W) &\to& W\otimes V^*
  \\ T &\mapsto& \sum_{i=1}^n T(e_i) \otimes \alpha_i
$$

$$
  \varphi \circ \bar L(w\otimes \alpha) &=& \varphi(\theta_{w,\alpha})
  \\&=& \sum_{w,\alpha} (e_i) \otimes \alpha_i
  \\&=& \sum_{i=1}^{n} \alpha(e_i)w\otimes \alpha_i
  \\&=& w\otimes \left( \sum_{i=1}^{n}\alpha(e_i)\cdot \alpha_i \right)
  \\&=& w\otimes \alpha
  \\&\Rightarrow& \varphi \circ \bar L = \operatorname{id}
$$

$$
  (\bar L\circ \varphi(T)(v)) 
  &=& \sum_{i=1}^{n} \theta_{T(e_i), \alpha_i}(v)
  \\&=& \sum_{i=1}^{n}\alpha_i(v)T(e_i)
  \\&=& T\left(\sum_{i=1}^{n} \alpha_i (v) e_i\right)
  \\&=& T(v) 
  \\&\Rightarrow& \bar L \circ \varphi = \operatorname{id}
$$

$W\otimes W$ ist nach Konstruktion aufgespannt durch $f_j \otimes e_i$, $\operatorname{dim} W\otimes V = \operatorname{dim} W \cdot \operatorname{dim} V \Rightarrow \{ f_j \otimes e_i \}$ ist eine Basis.

** Korollar

Wenn $X$, $Y$ endliche Mengen sind, dann gilt:

$$
  \mathcal F(X\times Y) \cong \mathcal{F}(X) \otimes \mathcal{F}(Y)
$$

Erinnerung: hier gilt $\mathcal F(X) = \{ f\colon X \to \mathbb R \}$ mit punktweisen Operationen

** Korollar

$W\otimes V \cong V\otimes W$, $W\otimes(V\otimes Z) = (W\otimes V)\otimes Z$

Bemerkung: Es gilt auch ohne Einschränkung auf Dimensionen

** Definition Tensor

Ein Tensor vom Typ $(r,s)$ (zum Vektoraum $V$) ist ein Element des Vektoraumes

$$
  T_{r,s}(V) := V \underbrace{ \otimes \ldots \otimes V }_{r\text{-mal}} \otimes \underbrace{ V^* \otimes \ldots \otimes V^* }_{s\text{-mal}}
$$

Bemerkung: Wenn $\{ e_i \}_{i=1}^n$ eine Basis in $V$, $\{ \alpha_i \}_{i=1}^n \subset V^*$ duale Basis. $\rightsquigarrow$

$$
  \{ e_{i_1} \otimes \ldots \otimes e_{i_r} \otimes \alpha_{j_1} \otimes \ldots \otimes \alpha_{j_r} \ |\ i_1, \ldots, i_r, j_1, \ldots, j_s \in \{ 1,\ldots, n \} \}
$$

ist eine Basis in $T_{r,s}$ (Beweis: wende induktiv die Proposition an).

$\Rightarrow$ jedes $T\in T_{r,s}(V)$ ist darstellbar also

$$
  T= \sum_{i_1, \ldots, i_r, j_1, \ldots, j_s \in \{ 1,\ldots, n \} } T_{j_1,\ldots,j_s}^{i_1,\ldots,i_r} (e_{i_1} \otimes \ldots \otimes e_{i_r}\otimes \alpha_{j_1} \otimes \ldots \otimes \alpha_{j_s})
$$

Beispiel $T_{1,1} (V) = V\otimes V^* \cong \operatorname{Hom}(V,V) = \operatorname{End}(V)$ d.h., elemente von $T_{1,1}$ kann man als lineare Abbildung von $V$ nach $V$ interpretieren. Multilinear heißt linear in jeder Komponente. Sei
$$
  M_{s,r}(V) := \{ f\colon \underbrace{ V\times \ldots \times V }_{s\text{-mal}} \times \underbrace{ V^* \times \ldots \times V^* }_{r\text{-mal}} \to \mathbb R\ |\ f \text{ multiliniear } \}
$$

** Proposition

$T_{r,s}(V)$ ist kanonisch isomorph zu $M_{s,r} (V)$

** Korollar

$$
  \operatorname{Bil}(V) = \{ b\colon V\times V \to \mathbb R \text{ biliniear} \} \cong V^*\otimes V^*
$$

Insbesondere ist ein Skalarpodukt auf $V$ ein Tensor vom Typ $(0,2)$ Notation $g_{i,j}$ für Koordinaten einer Metrik ist konstant mit Tensorprodukten.
Harry Fuchs's avatar
Harry Fuchs committed
749

Harry Fuchs's avatar
Harry Fuchs committed
750
751
752
753
754
755
756
757
758
759
760
761
762
763
764
765
766
767
768
769
770
771
772
773
774
775
776
777
778
779
780
781
782
783
784
785
786
787
788
789
790
791
792
793
794
795
796
797
798
799
800
801
802
803
804
805
806
807
808
809
810
811
812
813
814
815
816
817
818
819
820
821
822
823
824
825
826
827
828
829
830
831
832
833
834
835
836
837
838
839
840
841
842
843
844
845
846
847
848
849
850
851
852
853
854
855
856
857
858
859
860
861
862
863
864
865
866
867
868
869
870
871
872
873
874
875
876
877
878
879
880
881
882
883
884
885
886
887
888
889
890
891
892
893
894
895
896
897
898
899
900
901
902
903
904
905
906
907
908
909
910
911
912
913
914
915
916
917
918
919
920
921
922
923
924
925
926
927
928
929
930
931
932
933
934
935
936
937
938
939
940
941
942
943
944
945
946
947
948
949
950
951
952
953
954
955
956
957
958
959
960
961
962
963
964
965
966
967
968
969
970
971
972
973
974
975
976
977
978
979
980
981
982
983
984
985
986
987
988
989
%2019-04-16

* Tensorprodukte von Vektorräumen

$$
  && \operatorname{Hom} (V\otimes \underbrace W_{ \mathbb R }) \cong \operatorname{Bil}(V\times W, \underbrace Z_{\mathbb R})
  \\&\overset{\text{Induktion}}\Rightarrow& \operatorname{Hom}(V_1\otimes\ldots\otimes V_n, Z) \cong \{ f\colon V_1\times\ldots\otimes V_n \to Z \ |\ f \text{ multiliniear } \}
$$

Letzes mal:

$$
  T_{r,s} (V) := \underbrace{ V \otimes \ldots \otimes V}_{r\text{-mal}} \times \underbrace{V^* \times \ldots \times V^*}_{s\text{-mal}}
$$

$$
  M_{s,r} := \{ f\colon \underbrace{ V \otimes \ldots \otimes V}_{s\text{-mal}} \times \underbrace{V^* \times \ldots \times V^*}_{r\text{-mal}} \to \mathbb R\ |\ f \text{ multiliniear } \}
$$

** Proposition

%TODO kan. ?
$$1
  T_{r,s}(V) \overset{kan.}\cong M_{s,r}(V)
$$1

Beweis:

Nach obigen Eigenschaften gilt:

$$
M_{s,r} &\cong& \operatorname{Hom}(T_{s,r}(V), \mathbb R) \cong t_{s,r}(V)^* = (V^*\otimes\ldots\otimes V^* \otimes V \otimes \ldots \otimes V)^*
\\&\overset{?}\cong& \underbrace{ V\otimes \ldots \otimes V}_{r\text{-mal}} \otimes \underbrace{ V^* \otimes \ldots \otimes V^*}_{s\text{-mal}}
$$

Wir wollen also zeigen: $W$, $Z$ zwei Vektoräume, wollen zeigen, dass $W^* \cong Z$ ($W=T_{s,r}(V)$, $Z=T_{r,s}(V)$)

Def./Erinnerung:

Eine nichtsinguläre Paarung zwischen $W$, $Z$ ist eine bilineare Abbildung $\beta\colon W\times Z \to \mathbb R$ mit

- $\beta(W,Z) = 0$ $\forall Z\in Z \Rightarrow w = 0$
- $\beta(W,Z) = 0$ $\forall w\in W \Rightarrow Z = 0$

Übung:

Wenn $W$, $Z$ endlichdimensional, $(w_i)^n_{i=1}$, $(z_i)_{i=1}^m$ Basen in $W$ bzw. $Z$ dann ist
$\beta$ nichtsingulär
$\Leftrightarrow (\beta(w_i, z_j))_{ \begin{subarray}{l} i=1, \ldots, n \\ j=1, \ldots, m \end{subarray} }$ nicht ausgeartet ist $\Rightarrow n = m$

$\beta$ gibt einen Isomorphismus $\hat \beta \colon Z \to W^*$

Beispiel:

$W = Z$, euklidischer Raum mit Skalarpodukt $\langle \cdot, \cdot \rangle$

$$
  \beta (W,Z) = \langle \cdot, \cdot \rangle
$$

Alos: Wir betrachten eine nichtsinguläre Paarung
$$
  \beta_i \colon T_{s,r}(V) \times T_{r,s}(V) \to \mathbb R
$$

Definiere
$$
  && \beta(v_1\otimes\ldots \otimes v_s \otimes v_1^* \otimes \ldots \otimes v_r^*, v_1 \otimes \ldots \otimes u_r \otimes u_1^* \otimes \ldots \otimes u_s^*)
  \\&=& \Pi_{i=1}^r v_i^*(u_i) \cdot \Pi_{j=1}^s u_j^* (v_j)_s \text{ bilinear fortgesetzt }
$$

** Tensorprodukte von Vektorräumen

Zu zeigen ist, dass $\beta$ nicht ausgeartet ist. Dazu sei $0\neq t \in T_{r,s}(V)$, wir suchen $t^*\in T_{s,r}(V)$ mit $\beta(t^*, t) \neq 0$

Sei $(e_i)_{i=1}^n$ eine Basis in $V$, $(\alpha)_{j=1}^n$ die Dualbasis in $V^*$

Dann gilt:

$$
  t = \sum_{ \begin{subarray}{l} {i_1,\ldots, i_r \in \{ 1,\ldots, n \}} \\ {j_1,\ldots j_s \in \{ 1,\ldots, n \}} \end{subarray}} t_{j_1\cdots j_s}^{i_1\cdots i_r}
  e_{i_1}\otimes \ldots \otimes e_{i_r} \otimes \alpha_{j_1}\otimes \ldots \otimes  \alpha_{j_s}
$$

$D_a t \neq 0$, ist eins von den Koeffizienten $\neq 0$:

$$
  0\neq t_{j_1 \cdots j_s}^{i_1 \cdot i_r} = \beta (\alpha_{i_1}\otimes \ldots \otimes \alpha_{i_r}\otimes e_{j_1}\otimes \ldots \otimes e_{j_s}, t)
$$

Bemerkung: Die Paarung zwischen $T_{r,s}$ mal $T_{s,r}$ wird gelegentlich einfach durch $\langle \cdot, \cdot \rangle$ oder $(\cdot, \cdot)$ bezeichnet.

Beispiel $V = T_p M$, $(U,x)$ eine Karte um $p$, dann hat $V=T_p M$ eine Basis $\{ \frac{\partial}{\partial x_i} \}_{i=1}^n$

$V^* = T^*_pM$ bekommt die duale Basis $\{ \mathrm d x^i \}_{i=1}^n$

Erinnerung:
$\mathrm d x^i (\underbrace{T_p M} (v):= v(x^i) )$, daher $d x^i(\frac{\partial}{\partial x^j}) = \frac{\partial}{\partial x^j} (x^i) = \delta_{ij}$

%TODO \intd s
Wir bekommen jetzt z.B. ($i,j$ fest)

1. $t_{ij} = \intd x^i \otimes \intd x^j \in V^* \otimes V^* = T_{0,2}(V) \cong T_{0,2}(V) \cong \operatorname{Bil}(V\times V, \mathbb R)$

  $$
    t_{ij} &=& (\intd x^i \otimes \intd x^j )(v,w)
    \\&=& \intd x^i(v)\cdot \intd x^j(w)
    \\&=& v(x^i)\cdot w(x^j),\ v,w\in T_p M
  $$

Beispiel:

$$
  g := \sum_{i=1}^{n} \intd x^i \otimes \intd x^i
$$

ist auch eine Biliniarform auf $T_pM$. Wenn $M = \mathbb R^n$, $p$ beliebig, dann ist $g$ das Standardskalarprodukt auf $T_p \mathbb R^n \cong \mathbb R^n$

$$
  g\left(\frac{\partial}{\partial x^k}, \frac{\partial}{\partial x^l}\right)
  &=& \sum_{i=1}^n
    \underbrace{ \intd x^i \left(\frac{\partial}{\partial x^k}\right) }_{=\delta_{ik}}
    \underbrace{ \intd x^i \left(\frac{\partial}{\partial x^l}\right) }_{=\delta_{il}}
  \\&=& \delta_{kl} + \delta_{lk}
  \\&=& \delta_{kl}
$$

** Äußere Potenzen, äußere Algebra

Errinnerung:

für Integrationstheorie wollen wir die Rechenregeln
$$
  d_x^i \wedge \intd x^j = - \intd x^j \wedge \intd x^i
$$

Beobachtung:
Tensoren kann man miteinander multiplizieren. Es gibt eine kanonische bilineare Abbildung

$$
  (\underbrace{ V\otimes \ldots \otimes V}_{k\text{-mal}}) \times \underbrace{ V\otimes \ldots \otimes V}_{l\text{-mal}} \to \underbrace{ V\otimes \ldots \otimes V}_{(k+l)\text{-mal}}
  \\ ((v_1 \otimes \ldots \otimes v_k), (v_{k+1}\otimes \ldots \otimes v_{k+l})) \mapsto (v_1 \otimes \ldots \otimes v_{k+l})
$$

Notation:

$$
  V^{\otimes k} :=
  \begin{cases}
    \underbrace{V\otimes \ldots \otimes V}_{k\text{-mal}}  & k > 0 \\
    \mathbb R & k = 0
\end{cases}
$$

$$
  T(V) := \bigoplus_{k=0}^\infty V^{\otimes k}
$$

heißt die Tensoralgebra von $V$

Multiplikation: $t\in V^{\otimes r}$, $t'\in V^{\otimes s}$

$$
  t\cdot t' := t\otimes t' \in V^{\otimes (r+s)}
$$

definiert eine Multiplikation auf $T(V)$

In $T(V)$ gelten die Relationen $v\otimes v = 0$ nicht.

Diese wollen wir erzwingen.

Sei $Z(V) = \langle v\otimes v | v \in V \rangle$ das Ideal in $T(V)$ erzeugt von Elementen der Form $v\otimes v$

Notation:

$$
  I_r(V) := I(V) \cap V^{\otimes r}, I(V) = \bigoplus_{r=0}^\infty I_n (V) \text{ (kleine Übung) }
$$

Multiplikation wird durch $\bigwedge$ bezeichnet. nach Konstruktion gilt $v_1\wedge \ldots \wedge v_k = [v_1\otimes \ldots \otimes v_k]$

** Definition

$$
  \bigwedge (V) := T(V) / I(V)
$$
heißt äußere Algebra von $V$

Nach Konstruktion und Eigenschaft von $I(V)$ gilt

$$
  \bigwedge (V) = \bigoplus_{r=0}^\infty \underbrace{ \bigwedge^r (V) }_{V^{op?} / I_r(V}
$$

1. $\wedge^0 V \cong \mathbb R$, weil $I_0(V) = \{0\}$
2. $\wedge^1 V \cong V$, weil $I_1(V) = \{0\}$

** Proposition

Sei $(e_1, \ldots, e_n)$ eine Basis in $V$. Dann ist

$$
  \{ e_{i_1}\wedge \ldots \wedge e_{i_k} \ |\ k \leqslant i_1 < i_2 < \ldots < i_k \leqslant n \}
$$

eine Basis von $\bigwedge^k(V)$ ($\leftarrow$ $k$-te äußere Potenz)

Insbesondere gilt:
$$
  \bigwedge^k(V) = \binom{n}{k},\ \ \ 0\leqslant k \leqslant n,\ \ \ \wedge_k (V) = \{0\},\ \ \ k>n
$$

** Äußere Potenzen, äußere Algebra

Beweis

Nach Konstruktion gilt: $e_i \wedge e_j = -e_j \wedge e_i$, daher spannt

$$
  \{ e_{i_1} \wedge \ldots \wedge e_{i_k} \ |\ 1\leqslant i_1 < i_k \leqslant n \}
$$

den Raum $\bigwedge^kV$. Wir brauchen also zu zeigen, dass

$$
  \sum_{1\leqslant i_1 < \ldots < i_k \leqslant n} \alpha_{i_1,\ldots, i_k} e_{i_1} \wedge \ldots \wedge e_{i_k} = 0
$$

Sei $I=(i_1,\ldots, i_k)$ $1\leqslant i_1 < \ldots < i_k \leqslant n$ fixiert.

Sei $J = \{ 1,\ldots n \} \setminus I = (j_1, \ldots, j_{n-k})$ $1\leqslant j_1 < \ldots < j_{k} \leqslant n$

Betrachte das Element $e_{j_1} \wedge \ldots \wedge e_{i_k}$ und multipliziere es an $(*)$:

$$
  \pm \alpha_{i_1,\ldots, i_k} e_1\wedge\ldots \wedge e_n = 0
$$

Alle anderen Terme verschwinden, weil eine Vektor im Produkt doppelt vorkommt.
Harry Fuchs's avatar
Harry Fuchs committed
990
991
992
993
994
995
996
997
998
999
1000
1001
1002
1003
1004
1005
1006
1007
1008
1009
1010
1011
1012
1013
1014
1015
1016
1017
1018
1019
1020
1021
1022
1023
1024
1025
1026
1027
1028
1029
1030
1031
1032
1033
1034
1035
1036
1037
1038
1039
1040
1041
1042
1043
1044
1045
1046
1047
1048
1049
1050
1051
1052
1053
1054
1055
1056
1057
1058
1059
1060
1061
1062
1063
1064
1065
1066
1067
1068
1069
1070
1071
1072
1073
1074
1075
1076
1077
1078
1079
1080
1081
1082
1083
1084
1085
1086
1087
1088
1089
1090
1091
1092
1093
1094
1095
1096
1097
1098
1099
1100
1101
1102
1103
1104
1105
1106
1107
1108
1109
1110
1111
1112
1113
1114
1115
1116
1117
1118
1119
1120
1121
1122
1123
1124
1125
1126
1127
1128
1129
1130
1131
1132
1133
1134
1135
1136
1137
1138
1139
1140
1141
1142
1143
1144
1145
1146
1147
1148
1149
1150
1151
1152
1153
1154
1155
1156
1157
1158
1159
1160
1161
1162
1163
1164
1165
1166
1167
1168
1169
1170
1171
1172
1173
1174
1175
1176
1177
1178
1179
1180
1181
1182
1183
1184
1185
1186
1187
1188
1189
1190
1191
1192
1193
1194
1195
1196
1197
1198
1199
1200
1201
1202
1203
1204
1205
1206
1207
1208
1209
1210
1211
1212
1213
1214
1215
1216
1217
1218
1219
1220
1221
1222
1223
1224
1225
1226

%2019-04-17

Gestern:

$$
  \bigwedge (V) = T(V) / I(V)
$$

$I(V) = \langle v\otimes v\ |\ v\in V \rangle$ Ideal erzeugt durch $v\otimes v$

$$
  = \left\{ \sum_{i=1}^k t_i \otimes v_i \otimes v_i z_i \ \middle|\ t_i, t'_i \in T(V), v_i \in V \right\}
$$

$$
  [\underbrace{ v_1\otimes \ldots \otimes v_n }_{\in T(V)}] =: i v_1 \wedge \ldots \wedge v_n \in \bigwedge (V)
$$

nach Konstruktion gilt $v\wedge v = 0$, $v'\in V$ (daraus folgt: $v \wedge w = -w \wedge w$, $v$, $w \in V$, $0= (v+w)\wedge (v+w) = \underbrace{v\wedge v}_{=0} + v\wedge w + w\wedge v + \underbrace{w \wedge w}_{=0} = v\wedge w + w\wedge v$)

Das Bild von $V^{\otimes k}$ in $\bigwedge (V)$ heißt $\bigwedge^k(V)$ -- die Elemente der Länge $k$,

$$
  \bigwedge^k (V) = \left\{ \sum_{i=1}^{k} v_{i_1} \wedge \ldots \wedge v_{i_k} \middle| v_{i_l} \in V \right\}
$$

** Proposition

Wenn $(e_i)^n_{i=1}$ eine Basis von $V$ ist, ist $\{ e_{i_1} \wedge \ldots \wedge e_{i_k} \ |\ 1\leqslant i_1 < \ldots < i_k \leqslant u \}$ eine Basis von $\bigwedge^k(V)$; insbesondere $\dim \bigwedge_k(V) = \binom{n}{k}$, $0\leqslant k\leqslant n$, $\bigwedge^k(V) = \{0\}$ für $k> n$

Beweis:

Wir haben die Aussage darauf reduziert, dass in $\bigwedge_k(V)$ $e_1\wedge \ldots \wedge e_n \neq 0$
$\longrightarrow$ Reduktion für $k=2$, $n=4$. wird behauptet, dass $\{ e_1\wedge e_2, e_1 \wedge e_3, e_1\wedge e_n, e_2\wedge e_3, e_2\wedge e_4, e_3\wedge e_4 \}$ linear unabhängig sind. Wenn nicht $\exists \alpha_{ij}$:

$$
  \alpha_{12}e_1\wedge e_2 + \alpha_{13}e_1\wedge e_j + \alpha_{14} e_1\wedge e_4 + \ldots = 0
$$

$\rightarrow \alpha_{13} e_1e_3\wedgee_2\wedgee_4 = 0 = -\alpha_{13}(e_1\wedge e_2 \wedge e_3 \wedge e_4)$

$$
  e_1\wedge \ldots \wedge e_n \neq 0 \Leftrightarrow e_1\otimes \ldots \otimes e_n \notin I(V)
$$

Wenn

$$
  v &=& \sum_{i=1}^{n} \lambda_i e_i
  \\ v\otimes v &=& \sum_{i,j = 1}^{n} \lambda_i \lambda_j e_i \otimes e_j
  \\ &=& \sum_{i=1}^{n} \lambda_i^2 e_i \otimes e_i + \sum_{i,j = 1\atop i<y}^{n} \lambda_i\lambda_j (e_i\otimes e_j + e_j \otimes e_i)
$$

Sei $x\in I_n(V) = I(V)\cap V^{\operatorname{op}}$. Aus der obigen Rechnung folgt: Wenn man $x$ in der Tensorbasis ausdrückt.

$$
  x = \sum_{1\leqslant i_{1}, \ldots, i_n \leqslant n} x^{i_1, \ldots, i_n} e_{i_1} \otimes \ldots \otimes e_{i_n}
$$

dann gilt: wenn alle $i_j$'s verschieden sind, so gilt

$$
  x^{i_1,\ldots,i_j,i_{j+1},\ldots,l_n} = x^{i_1, \ldots, i_{j+1}, i_j, \ldots, i_n}
$$

Bei $e_1\otimes \ldots \otimes e_n$ ist der Koeffizient $x^{1,2,\ldots, n} = 1$ alle anderen $0 \Rightarrow e_1 \otimes \ldots \otimes e_n \notin I_n(V)$

Bemerkung:

Jede lineare Abbildung $f\colon V \to V$ induziert eine lineare Abbildung
$$
  \bigwedge f\colon \bigwedge V &\to& \bigwedge V
  \\ (v_1\wedge \ldots \wedge v_k) &\mapsto& (f(v_1)\wedge \ldots \wedge f(v_k))
$$

Insbesondere bekommt man die Abbildung ($\dim V = n$) $\bigwedge_n f \colon \underbrace{\bigwedge^n V}_{\cong R} \overset{\det f}\longrightarrow \underbrace{ \bigwedge^n V }_{ \cong R }$

$$
  \bigwedge (g\circ f) = \bigwedge g \circ \bigwedge f &\Rightarrow& \det (g\circ f) = \det (g) \cdot \det (f)
  \\ && \det(\operatorname{id}) = 1
$$

Die explizite Formel ergibt sich daraus, dass $e_1\wedge \ldots \wedge e_n$ ein Basisvektor in $\bigwedge^n V$ ist. $\rightsquigarrow$

$$
  f(e_1\wedge \ldots \wedge e_n) = f(e_1) \wedge \ldots \wedge f(e_n) = \ldots\ \text{ (Leibnitz-Formel) } e_1\wedge \ldots \wedge e_n
$$

$[f_{ij}] = M_{\xi}^{\xi} (f)$

$$
  f(e_i) = \sum_{j=1}^{n} f_{ij} e_j
$$

$$
  f(e_1\wedge \ldots \wedge e_n) &=& \sum_{j_1,\ldots, j_n = 1}^n f_{1,j_1} \cdots f_{n,j_n} e_{j_1} \wedge \ldots \wedge e_{j_n}
  \\&=& \sum_{j=(j_1, \ldots, j_1) \in S_n} f_{1,j_1} \cdots f_{n,j_n} \operatorname{sign}(j) e_1\wedge\ldots\wedge e_n
$$

Letzes Mal:

$$
  \text{Tensoren vom Typ $(n,s)$ } \mathrel{\hat=} T_{r,s} (V) \cong M_{s,r}(V) \mathrel{\hat=} \text{ lineare Abbildungen } V^{\otimes s}\otimes(V^*)^{\otimes r} \to \mathbb R
$$

Nächstes Ziel:

Interpretiere $\bigwedge^k V^*$ als gewisse multiliniear Abbildung $V^k \to \mathbb R$

$$
  \bigwedge^k V^* &=& (V^*)^{\otimes k} / I_k(V^*)
  \\ (V^*)^{\otimes k} = \{ f\colon V^k \to \mathbb R \ |\ f \text{ multilinieare Abbildung } \}
$$

$$
  I_k(V^*) = I(V^*) \wedge (V^*)^{\otimes k}
$$

$I(V^*) = \{ \sum t\otimes \alpha \otimes \alpha \otimes t' \}$, erzeugt durch $\{ \alpha \otimes \alpha\ |\ \alpha \in V^* \}$

$$
  (\alpha \otimes \alpha)(v_1\otimes v_2) = \alpha (v_1)\alpha(v_2) = (\alpha \otimes \alpha)(v_2, v_1)
$$

** Definition

Eine multiliniear Abbildung $m\colon \underbrace{ V^{k} }_{= V\times \ldots \times V} \to \mathbb R$ ($= m\colon V^{\otimes k}\to \mathbb R$) heißt alternierend, wenn

$$
  m(\ldots, v_i, \ldots, v_j, \ldots) = 0\ \text{ für alle } v\in V
$$

$\Leftrightarrow m$ verschwindet, wenn zwei (beliebige) $V$ gerade gleich sind)

** Beispiel

$\det (\mathbb R^n)^n \to \mathbb R$ ist eine alternierende Abbildung. Wenn $m\colon V^{\otimes k} \to \mathbb R$ alternierend, dann gilt

$$
  m|_{I_k(V)} = 0
$$
(nach Definition von $I_k(V)$)

$\longrightarrow$ $m$ definiert eine Abbildung

$$
  \overline{m} \colon \bigwedge^kV &\to& \mathbb R
  \\ [v_1\wedge\ldots\wedge v_n] \mapsto m(v_1\otimes \ldots \otimes v_n)
$$

** Proposition

$$
  \bigwedge^k V^* \cong (\bigwedge^k V)^* \cong A_k(V) = \{ m\colon V^k \to \mathbb R \text{ alternierend } \}
$$

Beweis:

Wie gerade gesehen, definiert jedes $m\in A_k \in (V)$ ein Element $\overline m \in \left(\bigwedge^k\right)^*$, $m\mapsto \overline m$ ist offensichtlich linear. Umgekehrt: jedes $\overline m\colon \bigwedge^k V \to \mathbb R$ definiert eine multilinieare Abbildung
$$
  m\colon V\times \ldots \times V &\to& \mathbb R
  \\ (v_1,\ldots, v_k) &\mapsto& \overline{m}(v_1\wedge\ldots\wedge v_k)
$$

sie ist alternierend, weil

$$
  v_1 \wedge \ldots \wedge v \wedge \ldots \wedge v \wedge \ldots \wedge v_k = 0
$$

Zum Iso %TODO ??
$\bigwedge^k V^* \cong (\bigwedge^k V)^*$: wir brauchen eine nichtsinguläre bilineare Paarung $\bigwedge^kV^*\times\bigwedge^kV\to \mathbb R$ (die für $K=1$ offensichtlich ist)

$$
  V^*\times V &\to& \mathbb R
  (\alpha, v) \mapsto \alpha(v)
$$

Man definiert die Paarung so:

$$
  (\alpha_1\wedge\ldots\wedge\alpha_k, v_1\wedge\ldots\wedge v_k) \mapsto \det(\alpha_i(v_j))_{i,j=1}^k
$$

Die Paarung ist nicht ausgeartet, denn: in $\bigwedge^k V$ haben wir nach der Wahl einer Basis $e_1, \ldots, e_n \in V$ die Basis

$$
  \{ e_{i_1}\wedge\ldots\wedge e_{i_k}\ |\ (1\leqslant i_1 < \ldots < i_k \leqslant n) \} (*)
$$

Wenn $e_1^*, \ldots, e_n^* \in V$ dual zu $e_1, \ldots, e_n$, dann ist

$$
  \{ e_{i_1}^* \wedge \ldots \wedge e_{i_k}^* \ |\ 1\leqslant i_1 < \ldots < i_k \leqslant n \}
$$

dual zu $(*)$ bezüglich der Paarung:

$$
  (e_i^*(e_j))_{i,j = 1}^k =
  \left(\begin{matrix}
    1 & & \\
     & \ddots & \\
     && 1
  \end{matrix}\right)
$$

wenn aber $(i_1,\ldots, i_k) \neq (j_1,\ldots j_k)$, dann ist

$$
  (e_{il}^*(e_{jl})) =
  \left(\begin{matrix}
    1 &&&& \\
     & \ddots &&& \\
     &&0&&  \\
     &&&\ddots& \\
     &&&& 1
  \end{matrix}\right)
$$

$\Rightarrow$ $\det = 0$

%TODO missing

** Bemerkung
Unter der Identifikation aus der Proposition bekommen wir die Rechenregeln

$$
  (\alpha_1\wedge\ldots \wedge \alpha_k)(v_1,\ldots, v_k) = \det(\alpha_i(v_j))_{i,j = 1}^k
$$

Insbesondere gilt für $k=2$:

$$
  \alpha_1 \wedge \alpha_2(v_1, v_2) = \alpha_1(v_1)\alpha_2(v_2) - \alpha_1(v_2)\alpha_2(v_1)
$$
Harry Fuchs's avatar
Harry Fuchs committed
1227
1228
1229
1230
1231
1232
1233
1234
1235
1236
1237
1238
1239
1240
1241
1242
1243
1244
1245
1246
1247
1248
1249
1250
1251
1252
1253
1254
1255
1256
1257
1258
1259
1260
1261
1262
1263
1264
1265
1266
1267
1268
1269
1270
1271
1272
1273
1274
1275
1276
1277
1278
1279
1280
1281
1282
1283
1284
1285
1286
1287
1288
1289
1290
1291
1292
1293
1294
1295
1296
1297
1298
1299
1300
1301
1302
1303
1304
1305
1306
1307
1308
1309
1310
1311
1312
1313
1314
1315
1316
1317
1318
1319
1320
1321
1322
1323
1324
1325
1326
1327
1328
1329
1330
1331
1332
1333
1334
1335
1336
1337
1338
1339
1340
1341
1342
1343
1344
1345
1346
1347
1348
1349
1350
1351
1352
1353
1354
1355
1356
1357
1358
1359
1360
1361
1362
1363
1364
1365
1366
1367
1368
1369
1370
1371
1372
1373
1374
1375
1376
1377
1378
1379
1380
1381
1382
1383
1384
1385
1386
1387
1388
1389
1390
1391
1392
1393
1394
1395
1396
1397
1398
1399
1400
1401
1402
1403
1404
1405
1406
1407
1408
1409
1410
1411
1412
1413
1414
1415
1416
1417
1418
1419
1420
1421
1422
1423
1424
1425
1426
1427
1428
1429
1430
1431
1432
1433
1434
1435
1436
1437
1438
1439
1440
1441
1442
1443
1444
1445
1446
1447
1448
1449
1450
1451
1452
1453
1454
1455
1456
1457
1458
1459
1460
1461
1462
1463
1464
1465
1466
1467
1468
1469
1470
1471
1472
1473
1474
1475
1476
1477
1478
1479
1480
1481
1482
1483
1484
1485
1486
1487
1488
1489
1490
1491
1492
1493
1494
1495
1496
1497
1498
1499
1500
1501
1502
1503
1504
1505
1506

%2019-04-23

%TODO missing exercise

%2019-04-24

* Differentialformen

\begin{center}
\begin{tikzcd}
TM \arrow[d, "\pi"]     & T^*M \arrow[d, "\pi"]    \\
M \arrow[d, no head]    & M \arrow[d, no head]     \\
\text{Tangentialbündel} & \text{Kotangentialbüdel}
\end{tikzcd}
\end{center}

Geometrisch: über jedem Punkt $p$ hängt $T_pM$ tzw, $T^*_pM$ und

$$
  TM = \bigsqcup_{p\in M} T_pM, \quad T^*M = \bigsqcup_{p\in M} T^*_pM
$$

** Idee

man macht punktweise Konstruktion wie Tensorprodukt, äußere Potenzen etc. mit $T_pM$ bzw. $T_p^*M$ und bekommt „Bündel“, die ähnlich wie $TM/T^*M$ angegeben, aber etwas kompliziert sind

** Definition

Sei $M$ eine Mannigfaltigkeit. Ein $k$-dimensionales Vektorbündel $E$ über $M$ ist eine Mannigfaltigkeit $E$ zusammen mit einer glatten Abbildung $\pi\colon
E\to M$ ($\pi$ heißt Bündelprojektion) mit folgenden Eigenschaften:

 * (1) $\forall p\in M$ ist $E_p := \pi^{-1}p$ ein $(R)$-Vektoraum von $k$. 
 * (2) [lokale Trivialität] $\forall p\in M \exists U \ni p$ offen mit
    $$
      E|_U := \pi^{-1}(U) \overset{\overset{\psi}{\underset{\text{diffeomorph}}\cong}}\longrightarrow U \times \mathbb R^k
    $$
    sodass $\forall q\in U$, $\forall v_1$, $v_2 \in E_q = \pi^{-1}(q)$, $\forall \lambda \in \mathbb R$ gilt: ($\pi_^{\mathbb R^k} \colon U\times \mathbb R^k \to \mathbb R^k$ Projektion)
    
    $$
      \pi_{\mathbb R^k} \circ \psi(v_1 + \lambda v_2) = \pi_^{\mathbb R^k} \circ \psi(v_1) + \lambda\cdot\pi_{\mathbb R^k} \circ \psi(v_2)
    $$
    
    (die Vektorraumoperation auf $E_q$ entsprechen den auf $\mathbb R^k$ durch $\psi$)

** Bemerkung

Über jeder Mannigfaltigkeit existiert das triviale Vektorbündel der Dimension $k$:
$$
  E:= \underbrace{ M\times \mathbb R^k }_{=\mathbb R^k} \overset{\pi}\longrightarrow M
$$

Die Bedingung (2) verlangt gerade dass ein Vektorbündel $E$ lokal (d.h. über $U$) trivial sein muss (= isomorph zum trivialen Bündel)
  
** Beispiel
  $TM$, $T_pM$ sind Vektorbündel über $M$. Eig. (2) kamen von dem Beweis, dass $TM$, $T^*M$ Mannigfaltigkeiten sind.
  
** Erinnerung

Wenn $V$ ein Vektorraum ist,
$$
  T_{r,s}(V) := \underbrace{ V\otimes \ldots \otimes V }_{r\text{-mal}} \otimes \underbrace{ V^* \otimes \ldots \otimes V^* }_{s\text{-mal}}
$$

VR von Tensor von Typ $(r,s)$

Definiere jetzt

$$
  T_{r,s} (\underbrace{ M }_{\text{Mannigfaltigkeit}}) = \bigsqcup_{p\in M}T_{r,s}(T_pM)
$$

$T_{r,s}(M)$ heißt Vektorbündel von Tensoren vom Typ $(r,s)$ über $M$.

Analog:

$$
  \bigwedge^k (TM) &:=& \bigsqcup_{p\in M} \bigwedge_k(T_pM)
  \\ \bigwedge^k (T^*M) &=& \bigsqcup_{p\in M} \bigwedge^k(T_p^*M)
$$

heißen äußere Potenzen von $TM$ bzw. $T^*M$; entsprechend sind $\bigwedge^*(TM)$, $\bigwedge^*(T^*M)$ definiert.

** Proposition
$$
  T_{r,s}(M),\quad \bigwedge^*(TM),\quad \bigwedge^k(T^M),\quad \bigwedge^*(TM),\quad \bigwedge^*(T^*M)
$$
sind Vektorbündel über $M$.

Beweis: (Für $T_{r,s}$ andere analog)

 - Eigenschaft 1) ist klar:
   $$
     \pi^{-1} (p) = T_{r,s} (T_pM)
   $$
   ist ein Vektorraum
 - Eigenschaft 2) Sei $(U,x)$ eine Karte um $p\in M$. Auf $U$ existiert kanonische Vektorfelder $\frac{\partial}{\partial x_1}, \ldots, \frac{\partial}{\partial x_n} \in \Gamma (TU)$ s.d für alle $q\in M: \left\frac{\partial}{\partial x_1}\right|_q,\ldots, \left\frac{\partial}{\partial x_n}\right|_q \in T_qM$ eine Basis mit Dualbasis $(\intd x^1)(q), \ldots, (\intd x^n)(q) \in T_q^* M$

Entsprechend gilt $\forall q\in M$:

$$
  \left\{ \left.\frac{\partial}{\partial x^{i_1}}\right|_{q} \otimes \ldots \otimes \left.\frac{\partial}{\partial x^{i_r}}\right|_{q} \otimes \intd x^{j_1}(q) \otimes \ldots \otimes \intd x^{j_s} (q) \mathrel{\middle|} i_1, \ldots, i_r, j_1, \ldots, j_s \in \{ 1, \ldots, n \} \right\}
$$

ist eine Basis von $T_{r,s} (T_q M)$. Entsprechend haben wir für jedes $q\in U$ eine Koordinatenabbildung

$$
  \varphi_q\colon T_{r,s}(T_qM) \overset{\cong}\longrightarrow \mathbb R^{n^{r+s}}
$$

die jedem $t\in T_{r,s}(T_qM)$ die Koordinaten in dieser Basis zugeordnet. Also haben wir eine Bijektion

$$
  \psi \colon \bigsqcup_{q\in U} \underbrace{ T_{r,s}(T_pM) }_{=T_{r,s}(M)|_U} \overset{\cong}\longrightarrow U\times \mathbb R^{n^{r+s}}
$$

$v\in T_{r,s} (T_qM) \mapsto (q,\varphi_q(v))$ Die diffbare Struktur auf $T_{r,s}(M)$ definiert man durch die Forderung, dass alle 4 Diffeomorphismen sind 
$\longrightarrow$ dann ist insbesondere (2) auf errfüllt.

** Fazit

aus $TM$ kann man jede Menge Vektorbündel Konstruiren ($TM$, $T_{r,s} (M)$ ($= T_{r,s}(TM)$), $\bigwedge^kTM$, $\bigwedge^kT^*M, \ldots$)

Slogan: 

#+BEGIN_QUOTE
man macht lineare Algebra/Tensorkonstruktionnen punktweise
#+END_QUOTE

** Definition

Sei $\pi\colon E\to M$ ein Vektorbündel. Ein Schnitt $s$ von $E$ ist eine Abbildung

$$
  s\colon M\to E
$$

mit
$$
  \pi\circ s= \operatorname{id}_M
$$
($\Leftrightarrow \forall p\in M: s(p) \in \underbrace{ E_p }_{=\pi^{-1}(p)}$)

** Bezeichung

$$
  \Gamma (E) = \{ s\colon M\to E \text{ Schnitt}\}
$$

der Raum der Schnitte von $E$.

 - (1) $\Gamma(E)$ ist ein Vektorraum: $s_1$, $s_2 \in E$, $\lambda \in \mathbb R$
    $\Rightarrow$ $(s_1 + s_2)(p) := s_1(p) + s_2(p) \in E_p$, $(\lambda\cdot s_1)(p) := \lambda \cdot s_1(p) \in E_p$

 - (2) Für $f\in C^\infty(M)$, $s\in \Gamma(E)$ kann man
    $$
      (f\cdot s)(p) := f(p) s(p) \in E_p
    $$
    definieren, $f\cdot s \in \Gamma(E)$
    
    Das macht $\Gamma(E)$ zu einem $C^\infty(M)$-Modul [
    $\Leftrightarrow (f_1+f_2)\cdot s=f_1 s + f_2 s$, $(fg)\cdot s = f(g\cdot s)$
    ]

** Beispiel

 - Vektorfeld auf $M$ sind Schnitt im Tangentialbündel
 - $C^\infty(M) = \Gamma(\underline{\mathbb R}) = \Gamma(M\times \mathbb R)$ 

** Definition

Schnitte von $T_{r,s}(TM)$ heißen Tensoren vom Typ $(r,s)$ auf $M$.

** Definition

$$
  O^k(M) := \Gamma \left(\bigwedge^k T^*M\right)
$$

heißen Differentialformen auf $M$

 - $O^{0} (M) = \Gamma\left(\bigwedge^0T^*M\right) = \Gamma(M\times \mathbb R) = C^\infty (M)$
 - $O^{1} (M) = \Gamma (\bigwedge^1T^*M) = \Gamma(T^*M)$-Vektorfelder auf 

%TODO msisng

Wenn $(U, x)$ eine Karte von $M$ ist $\rightsquigarrow$ bekommen

$$
  \frac{\partial}{\partial x^1}, \ldots, \frac{\partial}{\partial x^n} &\in& \Gamma (TM|_U)
  \\ \intd x^1, \ldots, \intd x^n &\in& \Gamma (T*M|_U)
$$

Daher sieht jeder Schnitt $\chi \in \Gamma (T_{r,s}(TM))$ auf $U$ so aus:

$$
  \chi|_U = \sum_{i_1, \ldots, i_r, j_1, \ldots, j_s \in \{1,\ldots, n\}} \chi^{i_1,\ldots, i_r}_{j_1,\ldots, j_s}
  \frac{\partial}{\partial x^{i_1}} \otimes \ldots \otimes \frac{\partial}{\partial x^{i_r}} \otimes \intd x^{j_1} \otimes \ldots \otimes \intd x^{j_s}
$$

für gewisse $\chi_{j_1,\ldots,j_s}^{i_1, \ldots, i_r} \in C^\infty(U)$

Analog:

die Menge
$$
  \{ \intd x^{i_1}(q)\wedge\ldots\wedge\intd x^{i_k} (q) \mathrel | 1\leqslant i_1 < \ldots < i_k \leqslant n \}
$$

bildet eine Basis in $\bigwedge^k T^*qM$ $\forall q\in U$

Daher sieht jede Differentialform $\omega \in \underline{O}^k(M)$ auf $U$ so aus:

$$
  \omega|_U = \sum_{1\leqslanti_1 < \ldots < i_k \leqslant n} \omega_{i_1, \ldots, i_k} \intd x^{i_1} \wedge \intd x^{i_2} \wedge \ldots \wedge \intd x^{i_k}
$$

für gewisse $\omega_{i_1,\ldots, i_k} \in C^\infty(U)$

Algebraisch heißt es:

$$
  \left\{ \frac{\partial}{\partial x^{i_1}} \otimes \ldots \otimes \frac{\partial}{\partial x^{i_r}} \otimes \intd x^{j_1} \otimes \ldots \otimes \intd x^{j_s} \mathrel{\middle |} i_1, \ldots, i_r, j_1,\ldots, j_s \in \{ 1,\ldots, n \} \right\}
$$

bildet eine Basis von $\Gamma(T_{r,s}(TM)|_U)$ über $C^\infty(U)$ Entsprechend für $\left\{ \intd x^{i_1}\wedge\ldots\wedge\intd x^{i_k} \mathrel| \ldots \right\}$ für $\underline O^k(U)$

D.h. jetzt können wir interpretieren was z.B. $\intd x^1 \wedge \intd x^2$ ist:

Das ist eine $2$-Form auf $U$ (eine der Basis-$2$-Formen)

Er­in­ne­rung:

Für einen Vektoraum $V$ haben wir festgestellt, dass
$$
  \bigwedge_k V \cong A_k(V) = \{ f\colon V^k \to \mathbb R \mathrel| \text{multiliniear, alternierend }\}
$$

Daher definiert jede Differentialform
$$
  \omega \in \Omega^k (M) = \Gamma\left(\bigwedge^k T^*M\right)
$$
eine multilinieare alternierende Abbildung

$$
  \Gamma(T^*M) \times \ldots \times \Gamma (T^*M) &\to& C^\infty (M)
  \\ (\mathcal X, \ldots, \mathcal X_k) &\mapsto& (p\mapsto (\omega(p))(\mathcal X_1(p), \ldots, \mathcal X_k(p)) )
$$

Notation:
$$
  (\omega(\mathcal X_1, \ldots, \mathcal X_k))(p) := \omega(p)(\mathcal X_1(p), \ldots, \mathcal X_k(p))
$$

Diese Konstruktion ist $C^\infty(M)$-linear

$$
  \omega(f \mathcal X, \ldots, \mathcal X_k) = f\omega(\mathcal X_1, \ldots, \mathcal X_k),\quad f\in C^\infty
$$

Bemerkung:

Das gilt in jedem Argument

Analoge Konstruktion existiert für Tensorfelder:

da $T_{r,s}(T_pM) \cong M_{s,r} (T_pM),\quad \forall p\in M$

Dabei war 
$$1
  M_{s,r}(T_pM) = \{ \alpha \colon \underbrace{ T_pM \times \ldots \times T_pM }_{s\text{-mal}} \times \underbrace{ T^*_pM \times \ldots \times T^*_pM }_{r} \mathrel| \alpha \text{ multiliniear} \}
$$1

definiert jedes Tensorfeld $t\in \Gamma (T_{r,s}(T_pM))$ eine $C^\infty(M)$-multilinieare Abbildung.

$$
  \Gamma(TM) \times \ldots \times \Gamma (TM) \times \Gamma(T^*M)\times \ldots \times \Gamma (T^*M) &\to& C^\infty (M)
  \\ (\mathcal X_1,\ldots, \mathcal X_r, \alpha_1, \ldots, \alpha_s) &\mapsto& (p \mapsto (t(p)) (\mathcal X_1(p),\ldots, \mathcal X_r(p), \alpha_1(p), \ldots, \alpha_s(p) )
$$

Harry Fuchs's avatar
Harry Fuchs committed
1507
1508
1509
1510
1511
1512
1513
1514
1515
1516
1517
1518
1519
1520
1521
1522
1523
1524
1525
1526
1527
1528
1529
1530
1531
1532
1533
1534
1535
1536
1537
1538
1539
1540
1541
1542
1543
1544
1545
1546
1547
1548
1549
1550
1551
1552
1553
1554
1555
1556
1557
1558
1559
1560
1561
1562
1563
1564
1565
1566
1567
1568
1569
1570
1571
1572
1573
1574
1575
1576
1577
1578
1579
1580
1581
1582
1583
1584
1585
1586
1587
1588
1589
1590
1591
1592
1593
1594
1595
1596
1597
1598
1599
1600
1601
1602
1603
1604
1605
1606
1607
1608
1609
1610
1611
1612
1613
1614
1615
1616
1617
1618
1619
1620
1621
1622
1623
1624
1625
1626
1627
1628
1629
1630
1631
1632
1633
1634
1635
1636
1637
1638
1639
1640
1641
1642
1643
1644
1645
1646
1647
1648
1649
1650
1651
1652
1653
1654
1655
1656
1657
1658
1659
1660
1661
1662
1663
1664
1665
1666
1667
1668
1669
1670
1671
1672
1673
1674
1675
1676
1677
1678
1679
1680
1681
1682
1683
1684
1685
1686
1687
1688
1689
1690
1691
1692
1693
1694
1695
1696
1697
1698
1699
1700
1701
1702
1703
1704
1705
1706
1707
1708
1709
1710
1711
1712
1713
1714
1715
1716
1717
1718
1719
1720
1721
1722
1723
1724
1725
1726
1727
1728
1729
1730
1731
1732
1733
1734
1735
1736
1737
1738
1739
%2019-04-30

* Differentialformen

$$
  \Omega (M) := \Gamma(\bigwedge_k \Gamma^* M) \text{$k$-Differentialformen auf $M$}
$$

Lokal sieht jede $\omega \in \Omega^k (M)$ so aus:

$$
  \omega|_U = \sum_{1\leqslant i_1 < \ldots < i_k \leqslant n} \underbrace{ \omega_{i_i,\ldots,i_k} }_{\in C^\infty(U)} \intd x^{i_1} \wedge \ldots \wedge \intd x^{i_k} =: \sum_{I\subseteq \{ 1,\ldots,n \} \atop |I| = k} \omega_I \intd x^I
$$

Ableitungsoperation ($=$ das äußere Differential) auf Formen.

Letztes Mal:
$$
\Omega^0(M) &=& C^\infty
\\\Omega^1 (M) = \Gamma (T^* M)
$$

haben schon die Ableitungsoperation ($=$ Differential)

$$
  \intd \colon \Omega^0 (M) &\to& \Omega^1 (M)
  \\f &\mapsto& \intd f
  \\ \intd f(X) &:=& X(f)
$$

definiert.

** Satz: Existenz und Eindeutigkeit des äußeren Differentials

Sei $\Omega^* (M) = \bigoplus_{k=0}^\infty \Omega^k(M) = \bigoplus_{k=0}^{\operatorname{dim} M} \Omega^k(M)$

Es gibt eine eindeutige lineare Abbildung $\intd \colon \Omega^*(M) \to \Omega^*(M)$ mit folgenden Eigenschaften:
 - $\intd \colon \Omega^k(M) \to \Omega^{k+1}(M)$
 - Leibnitz-Regel: $\intd (\alpha \wedge \beta) = \intd \alpha\wedge \beta + (-1)^k \alpha \wedge \intd \beta$, $\alpha \in \Omega^k(M)$, $\beta\in \Omega^l(M)$
 - $d^2 = 0$ ($d_0 d = 0$)
 - für $k=0$ stimmt $\intd \colon \Omega^0(M) \to \Omega^1(M)$ mit den Differential einer Funktion überein (wie oben)

Beweis:

Wir definieren $d$ folgendermaßen:

Sei $\omega \in Omega^k(M)$ mit der lokalen Darstellung

$$
  \omega = \sum_{I\subseteq \{1,\ldots,n\}\atop |I| = k } \omega_I \intd x^I
$$

wie oben $(U,x)$ eine Karte.

Definiere 
$$
  \intd \omega|_U := \sum_{I\subseteq\{1,\ldots,n\}\atop |I| =k } \intd \omega_I \wedge \intd x^I
$$

Mit dieser Definition gilt:

 - (1') $\intd \omega|_U \in \Omega^{k+1}(U)$, $\intd \omega|_U$ hängt linear von $\omega$ ab
 - (2') $\intd (\alpha \wedge \beta) = \intd \alpha\wedge\beta + (-1)^k\alpha\wedge\intd\beta$, $\alpha\in \Omega^k(U)$, $\beta \in \Omega^l(U)$
   (Beweis: es reicht, das für $\alpha = \alpha_I \intd x^I$, $\beta = \beta_J\intd x^J$ zu zeigen ($I\cap J = \emptyset$, $I<J$ in $\{ 1,\ldots, n \}$, $\forall i\in I, j\in J: i<j$))
   $$
     \alpha \wedge \beta = \alpha_I \beta_J  \intd x^{I\cup J} \Rightarrow \intd (\alpha\wedge\beta) = \beta_J \intd \alpha_I \wedge \intd x^{I\cup J}
     +\alpha_I \intd\beta_J \wedge \intd x^{I\cup J}
     = \intd \alpha \wedge \beta + (-1)^k \alpha \wedge \intd \beta
   $$
 - $\intd(\intd f) = 0$, $f+\Omega^0(M)$, weil
   $$
     \intd(\intd f) = \intd\left( \sum_{i=1}^{n} \frac{\partial f}{\partial x^i} \right) = \sum_{j=1}^{n} \sum_{i=1}^n \left( \frac{\partial^2 f}{\partialx^i\partial x^j} \intd x^j \wedge dx^i \right) = 0
   $$
 - (4') für $k= 0$ ist $\intd f|_U = \sum_{i=1}^{n} \frac{\partial f}{\partial x^i} \intd x^i = \intd \underbrace{f}_{\text{Differential von } f}$
 - (5') wenn $\omega_1 = \omega_2$ auf $\underbrace{ V }_{\text{offen}}\subseteq U$, dann gilt
   $$
     \intd \omega_1|_V = \intd\omega_2|_V
   $$
   (weil dres für Funktionen gilt)
Nun zeigen wir, dass somit $\intd$ wohldefiniert ist d.h. $\intd \omega|_U$ hängt nicht von der Wahl der Karte $(U,x)$ ab. Dazu sei $(U',y)$ eine andere Karte und $\intd'$ das entsprechen definierte Differential:

$$
  \intd' \omega|_U = \sum_{I\subseteq \{ 1,\ldots, n \} \atop |I| = k} \intd \omega_I \wedge \intd y^I, \quad \omega = \sum \omega_I \intd x^I
$$

Zu zeigen: $\intd' \omega = \intd \omega$

Nach (4') %TODO ref
gilt:

$$
  \intd'(\wedge_I\intd x^I)
  &\overset{\text{Leibnitz (2'%TODO ref
  )}}{=}
  &
  \intd'\omega_I \wedge \intd x^I + \omega_1 \wedge \intd'(\intd x^I)
  \\&\overset{\text{(4')}}=& \intd \omega_I \wedge \intd x^I + 0 = \intd(\omega_I \intd x^I) 
$$
weil:

$$
  \intd'(\intd x_{i_1} \wedge \ldots \wedge \intd x_{i_k} ) \overset{\text{(4')}}= \intd'(\intd' x_{i_1} \wedge \ldots \wedge \intd'x_{i_k}) 
  \overset{\text{(2')} \text{(3')}}= 0, d'^2 = 0
$$

Das $\intd$ erfüllt (1) - (4) wegen (1') - (4') $\Rightarrow$ Existenz.

Zur Eindeutigkeit seien $\intd^{(1)}$ und $\intd^{(2)}$ zwei lineare Abbildungen, die (1) - (2) erfüllen.

Die Eigenschaften (1) - (4) implizieren, dass in jeder Karte $(U,x)$ (1') - (4') erfüllt sind und wir haben gerade festgestellt, dass diese die Abbildung $\intd$ eindeutig bestimmen.

Beispiel:

Sei $M=\mathbb R^2$, $\omega = P\intd x + \Q \intd y$

$$
  \intd \omega &=& \left( \frac{\partial P}{\partial x} \intd x + \frac{\partial P}{\partial y} \intd y \right) \wedge \intd x
  \\&+& \left( \frac{\partial Q}{\partial x} \intd x + \frac{\partial P}{\partial y} \intd y \right) \wedge \intd y
  \\(&=& \intd P\wedge \intd x + \intd Q \wedge dy)
  \\&=& \left( \frac{\partial Q}{\partial x} - \frac{\partial P}{\partial y} \right) \intd x \wedge \intd y
$$

Erinnerung:

geens Formel: $\gamma\colon [a,b] \to \mathbb R^2$ einfach geschlossen, $\Omega$ beschränktes Gebiet, von $\gamma$ berandet.

$$
  \int_{\gamma} \intd x + Q \intd y = \int_{\Omega} \left( \frac{\partial Q}{\partial x} - \frac{\partial P}{\partial y} \right) \intd x\intd y
$$

$$
  \int_{\Omega} \intd w = \int_{\partial\Omega} w 
$$

* Integration von Differentialformen

** Pullback: (Zurückziehen)

Seien $M$, $N$ Mannigfaltigkeiten, $f\colon M\to N$ glatt.

Erinnerung:

Wir können durch $f$ Funktionen Zurückziehen für

$$
  \varphi \in \Omega^0(N) = C^\infty(N) \text{ ist } \underbrace{ f^*(\varphi) }_{\in C^\infty(M)} := \varphi \circ f
$$

$\Rightarrow f^* \colon \Omega^0 (N) \to \Omega^0(M)$ linear (sogar Algebrahomomorphismus)

Errinnerung:

eine Differentialform $\omega \in \Omega^k (M)$ definiert eine $C^\infty$-lineare alternierend Abbildung

$$
  \omega\colon\Gamma(TM)\times\ldots\times\Gamma(TM) &\to& C^\infty(M)
  \\ X_1,\ldots,X_k &\mapsto& (p\mapsto \omega(p) (X_1(p), \ldots, X_k(p)))
$$

Übung:

Jede $C^\infty$-lineare alternierende Abbildung

$$
  \Gamma(TM) \times \ldots \times \Gamma(TM) \to C^\infty(M)
$$

bestimmt eindeutig eine $k$-Form $\omega$, die diese Abbildung induziert. (Beweis sie Buch Walschap)
Sei $\omega \in \Omega^k(N)$ Definiere
$$
  (f^*(\omega) (X_1,\ldots, X_k)) (p) := \omega (f(p))(f_*(X_1(p)), \ldots, f_*(X_k(p)))
$$

$f^*(\omega)$ heißt Pullback von $\omega$ von $\omega$. Durch Nachrechnen ergibt sich:

 - (1) $f^*(\omega_1\wedge \omega_2) = f^*(w_1)\wedge f^*(w_2)$
 - (2) $\intd (f^*\omega) = f^*(\intd \omega)$

Zu (2):

Sei $U, x$ eine Karte von $N$

$$
  \omega|_U = \omega_I\intd x^I = \omega_I \intd x^{i_1} \wedge \ldots \wedge \intd x^{i_k}
$$

$k=0$:

wenn $\omega = \varphi \Rightarrow$

$$
  f^*(\intd \varphi)(X) &=& \intd \varphi(f_*X)
  \\&=& (f_*X)(\varphi)
  \\&=& X(\varphi \circ f)
  \\&=& X(f^*(\varphi))
  \\&=& \intd (f^*\varphi) (X)
$$

$k>0$:

$$
  f^* \omega &=& (\omega_I \circ f) f^*(\intd x^{i_1}) \wedge \ldots \wedge f^*(\intd x^{i_k})
  \\&=& (\omega_I \circ f) \intd (f^*(x^{i_1})) \wedge \ldots \wedge \intd (f^*(x^{i_k}))
$$

%TODO missing

* Integration von Differentialform

Idee: wir können in $\mathbb R^n$ integrieren also führen wir die Situation auf Mannigfaltigkeit darauf zurück.

Der $k$-Würfel in $\mathbb R^n$ ist $[0,1]^k \subset \mathbb R^k$

Definition:

Sei $\omega = f \intd u^1 \wedge \ldots \wedge \intd u^k$ eine Differentialform auf $[0,1]^k$ (Errinnerung: d.h dass (e) eigentlich auf einer offenen Umgebung $V\supseteq [0,1]^k$ definiert ist)

Definiere
$$
  \intd_{[0,1]^k}  \omega := \intd_{[0,1]^k} f(u) \intd u^1 \cdots \intd u^k
$$

Definition:

Ein singulärer $k$-Würfel in $M$ ist eine glatte Abbildung $e\colon [0,1]^k \to M$

Definition:

Sei $\omega\in \Omega^k (M)$ , $c\colon [0,1]^k \to M$ eine singulärer $k$-Würfel:

$$
  \int_c \omega := \int_{[0,1^k]} c^*(\omega)
$$