📚 The CoCalc Library - books, templates and other resources
License: OTHER
% Original Source: http://mitschriebwiki.nomeata.de/data/SS10/Ana2Bachelor.tex1\documentclass[a4paper,oneside,DIV15,BCOR12mm]{scrbook}2\usepackage{mathe}3\usepackage{saetze-schmoeger}45\lecturer{Dr. C. Schmoeger}6\semester{Sommersemester 2010 und 2012}7\scriptstate{complete}89\author{Die Mitarbeiter von \href{http://mitschriebwiki.nomeata.de/}{mitschriebwiki.nomeata.de} und \href{https://github.com/MartinThoma/LaTeX-examples/tree/master/documents}{GitHub}}10\title{Analysis II}11\makeindex1213\hypersetup{14pdfauthor = {Die Mitarbeiter von mitschriebwiki.nomeata.de und GitHub},15pdfkeywords = {Analysis},16pdftitle = {Analysis II}17}1819\begin{document}20\maketitle2122\renewcommand{\thechapter}{\Roman{chapter}}23%\chapter{Inhaltsverzeichnis}24\addcontentsline{toc}{chapter}{Inhaltsverzeichnis}25\tableofcontents2627\chapter*{Vorwort}2829\section*{Über dieses Skriptum}30Dies ist ein erweiterter Mitschrieb der Vorlesung "`Analysis II"' von Herrn Schmoeger im31Sommersemester 2005 (bis einschließlich §14) und im Sommersemester 2010 (ab §15) an der Universität32Karlsruhe (KIT). Die Mitschriebe der Vorlesung werden mit ausdrücklicher Genehmigung33von Herrn Schmoeger hier veröffentlicht, Herr Schmoeger ist für den Inhalt nicht34verantwortlich.3536\section*{Wer}37Gestartet wurde das Projekt von Joachim Breitner. Beteiligt am38Mitschrieb (von 2005) sind außer Joachim39noch Pascal Maillard, Wenzel Jakob und andere.40Beteiligt am Mitschrieb (von 2010) sind Rebecca Schwerdt, Philipp Ost und Manuel Kaiser.4142Im September 2012 wurde das Skript mit der Revisionsnummer 7255 von43\href{http://svn.nomeata.de/wsvn/mitschriebwiki/SS10/Ana2Bachelor.tex?op=log&}{mitschriebwiki}44auf \href{https://github.com/MartinThoma/LaTeX-examples/blob/master/documents/Analysis%20II}{GitHub} hochgeladen.4546\section*{Wo}47Alle Kapitel inklusive \LaTeX-Quellen können unter48\href{http://mitschriebwiki.nomeata.de}{mitschriebwiki.nomeata.de}49abgerufen werden.50Dort ist ein \emph{Wiki} eingerichtet und von Joachim Breitner um die51\LaTeX-Funktionen erweitert.52Das heißt, jeder kann Fehler nachbessern und sich an der Entwicklung53beteiligen. Auf Wunsch ist auch ein Zugang über \emph{Subversion} möglich.5455Oder man geht auf \href{https://github.com/MartinThoma/LaTeX-examples/blob/master/documents/Analysis%20II/}{github},56erstellt einen Fork und kann direkt Änderungen umsetzen.575859\renewcommand{\thechapter}{\arabic{chapter}}60\renewcommand{\chaptername}{§}61\setcounter{chapter}{0}6263\chapter{Der Raum $\MdR^n$}6465Sei $n\in\MdN$. $\MdR^n=\{(x_1, \ldots, x_n) : x_1,\ldots, x_n \in \MdR\}$ ist mit der üblichen Addition und Skalarmultiplikation ein reeller Vektorraum.\\66$e_1 := (1,0,\ldots,0),\ e_2:=(0,1,0,\ldots, 0),\ \ldots,\ e_n:=(0,\ldots,0,1) \in \MdR^n$.6768\begin{definition}69Seien $x=(x_1, \ldots, x_n), y=(y_1, \ldots, y_n) \in \MdR^n$70\begin{enumerate}71\item $x\cdot y := xy := x_1y_1+\cdots+x_ny_n$ heißt das \textbf{Skalar}\indexlabel{Skalarprodukt}- oder \begriff{Innenprodukt} von $x$ und $y$.72\item $\|x\|=(x\cdot x)^\frac{1}{2} = (x_1^2 + \cdots + x_n^2)^\frac{1}{2}$ heißt die \begriff{Norm} oder \begriff{Länge} von $x$.73\item \indexlabel{Abstand!zwischen zwei Vektoren}$\|x-y\|$ heißt der \textbf{Abstand} von $x$ und $y$.74\end{enumerate}75\end{definition}7677\begin{beispiele}78\item $\|e_j\|=1\ (j=1,\dots,n)$79\item $n=3: \|(1,2,3)\|=(1+4+9)^{\frac{1}{2}}=\sqrt{14}$80\end{beispiele}8182\textbf{Beachte: }83\begin{enumerate}84\item $x \cdot y \in \MdR$85\item $\|x\|^2=x \cdot x$86\end{enumerate}8788\begin{satz}[Rechenregeln zur Norm]89Seien $x,y,z \in \MdR^n,\ \alpha, \beta \in \MdR,\ x=(x_1, \ldots, x_n),\ y=(y_1, \ldots, y_n)$90\begin{enumerate}91\index{Cauchy-!Schwarzsche Ungleichung}92\item $(\alpha x + \beta y)\cdot z=\alpha(x\cdot z)+\beta(y \cdot z),\ x(\alpha y + \beta z)=\alpha(xy)+\beta(xz)$93\item $\|x\|\ge 0; \|x\|=0\equizu x=0$94\item $\|\alpha x\|=|\alpha|\|x\|$95\item $|x \cdot y|\le\|x\| \|y\|$ \textbf{Cauchy-Schwarzsche Ungleichung} (\begriff{CSU})96\item $\|x+y\|\le\|x\|+\|y\|$97\item ${\left|\|x\|-\|y\|\right|}\le \|x-y\|$98\item $|x_j|\le\|x\|\le |x_1|+|x_2|+\ldots+|x_n|\ (j=1,\ldots,n)$99\end{enumerate}100\end{satz}101102\begin{beweise}103\item[(1)], (2), (3)\ nachrechnen.104\item[(6)] Übung.105\item[(4)] O.B.d.A: $y\ne0$ also $\|y\|>0$. $a:=x\cdot x=\|x\|^2,\ b:=xy,\ c:=\|y\|^2=y\cdot y,\ \alpha:=\frac{b}{c}.\ 0\le\sum_{j=1}^n(x_j-\alpha y_j)^2=\sum_{j=1}^n(x_j^2-2\alpha x_jy_j+\alpha^2y_j^2)=a-2\alpha b + \alpha^2 c=a-2\frac{b}{c}b+\frac{b^2}{c^2}c=a-\frac{b^2}{c}\folgt0\le ac-b^2\folgt b^2\le ac\folgt(xy)^2\le\|x\|^2\|y\|^2$.106\item[(5)] $\|x+y\|^2=(x+y)(x+y)\gleichnach{(1)}x\cdot x + 2xy+y \cdot y=\|x\|^2+2xy+\|y\|^2\le\|x\|^2+2|xy|+\|y\|^2\overset{\text{(4)}}{\le}\|x\|^2+2\|x\|\|y\|+\|y\|^2=(\|x\|+\|y\|)^2$.107\item[(7)] $|x_j|^2=x_j^2\le x_1^2 + \ldots + x_n^2 = \|x\|^2\folgt$ 1. Ungleichung; $x=x_1e_1+\ldots+x_ne_n\folgt\|x\|=\|x_1e_1+\ldots+x_ne_n\|\overset{(5)}{\le}\|x_1e_1\|+\ldots+\|x_ne_n\|=|x_1|+\ldots+|x_n|$108\end{beweise}109110Seien $p,q,l \in \MdN$. Es sei $A$ eine reelle $p${\tiny x}$q$-Matrix.111112\[113A = \begin{pmatrix}114\alpha_{11} & \cdots & \alpha_{1q}\\115\vdots & & \vdots\\116\alpha_{p1} & \cdots & \alpha_{pq}117\end{pmatrix}\qquad \|A\|:=\left(\sum_{j=1}^p\sum_{k=1}^q\alpha^2_{jk}\right)^\frac{1}{2} \text{\textbf{Norm} von A}118\]119Sei $B$ eine reelle $q${\tiny x}$l$-Matrix ($\folgt AB$ existiert). \textbf{Übung}: $\|AB\|\le\|A\|\|B\|$\\120Sei $x=(x_1,\ldots,x_q) \in \MdR^q$. $Ax:=A\begin{pmatrix}x_1\\ \vdots \\ x_q\end{pmatrix}$ (\begriff{Matrix-Vektorprodukt}). \\121Es folgt: \[\|Ax\|\le\|A\|\|x\|\]122123\begin{definition}124Sei $x_0 \in \MdR^n$, $\delta > 0$, $A, U\subseteq \MdR^n$.125\begin{enumerate}126\item $U_\delta(x_0) := \{ x \in \MdR^n: \|x-x_0\|<\delta\}$ heißt $\delta$-Umgebung von $x_0$ oder \begriff{offene Kugel} um $x_0$ mit Radius $\delta$.127\item $U$ ist eine \begriff{Umgebung} von $x_0$ $:\equizu$ $\exists \delta > 0 : U_\delta(x_0) \subseteq U$.128\item \indexlabel{Beschränktheit!einer Menge}$A$ heißt \textbf{beschränkt} $:\equizu$ $\exists c \ge 0: \|a\|\le c \forall a\in A$.129\item $x_0\in A$ heißt ein \begriff{innerer Punkt} von A $:\equizu$ $\exists \delta>0: U_\delta(x_0) \subseteq A$. \\130$A^\circ:=\{ x\in A: x \text{ ist innerer Punkt von }A\}$ heißt das \indexlabel{Inneres einer Menge}\textbf{Innere} von A. Klar: $A^\circ\subseteq A.$131\item $A$ heißt offen $:\equizu$ $A=A^\circ$. Zur Übung: $A^\circ$ ist offen.132\end{enumerate}133\end{definition}134135\begin{beispiele}136\item offene Kugeln sind offen, $\MdR^n$ ist offen, $\emptyset$ ist offen.137\item $A=\{x\in\MdR^n: \|x-x_0\|\le \delta\}$, $A^\circ = U_\delta(x_0)$138\item $n=2$: $A=\{(x_1,x_2)\in\MdR^n: x_2 = x_1^2\}$, $A^\circ=\emptyset$139\end{beispiele}140141\begin{definition}142$A\subseteq \MdR^n$143\begin{enumerate}144\item $x_0\in \MdR^n$ heißt ein \begriff{Häufungspunkt} (HP) von $A$ $:\equizu$ $\forall \delta > 0: (U_\delta(x_0) \backslash \{x_0\}) \cap A \ne \emptyset$. $\H(A) := \{ x\in\MdR^n: x \text{ ist Häufungspunkt von } A\}$.145\item $x_0\in\MdR^n$ heißt ein \begriff{Berührungspunkt} (BP) von $A$ $:\equizu$ $\forall\delta>0: U_\delta(x_0) \cap A \ne \emptyset$. $\bar{A}:=\{x\in\MdR^n: x \text{ ist ein Berührungspunkt von } A\}$ heißt der \begriff{Abschluss} von $A$.\\146Klar: $A\subseteq\bar{A}$. Zur Übung: $\bar{A} = A \cup \H(A)$.147\item \indexlabel{abgeschlossen!Menge}$A$ heißt \textbf{abgeschlossen} $:\equizu$ $A=\bar{A}$. Zur Übung: $\bar{A}$ ist abgeschlossen.148\item $x_0\in\MdR^n$ heißt ein \begriff{Randpunkt} von $A$ $:\equizu$ $\forall\delta>0: U_\delta(x_0) \cap A \ne \emptyset$ und $U_\delta(x_0) \cap (\MdR^n\backslash A) \ne \emptyset$. $\partial A := \{x\in\MdR^n: x \text{ ist ein Randpunkt von } A \}$ heißt der \begriff{Rand} von $A$. Zur Übung: $\partial A = \bar{A}\backslash A^\circ$.149\end{enumerate}150\end{definition}151152\begin{beispiele}153\index{abgeschlossen!Kugel}154\item $\MdR^n$ ist abgeschlossen, $\emptyset$ ist abgeschlossen; \\155$\bar{A}=\overline{U_\delta(x_0)} = \{x\in\MdR^n: \|x-x_0\| \le \delta\}$ (\textbf{abgeschlossene Kugel} um $x_0$ mit Radius $\delta$)156\item $\partial U_\delta(x_0) = \{x\in\MdR^n: \|x-x_0\|=\delta\} = \partial \overline{U_\delta(x_0)}$157\item $A = \{(x_1,x_2)\in\MdR^2; x_2 = x_1^2\}$. $A=\bar{A}=\partial A$158\end{beispiele}159160\begin{satz}[Offene und abgeschlossene Mengen]161\begin{enumerate}162\item Sei $A\subseteq\MdR^n$. $A$ ist abgeschlossen $:\equizu$ $\MdR^n\backslash A$ ist offen.163\item Die Vereinigung offener Mengen ist offen.164\item Der Durchschnitt abgeschlossener Mengen ist abgeschlossen.165\item Sind $A_1,\ldots,A_n\subseteq\MdR^n$ offen $\folgt$ $\bigcap_{j=1}^nA_j$ ist offen166\item Sind $A_1,\ldots,A_n\subseteq\MdR^n$ abgeschlossen $\folgt$ $\bigcup_{j=1}^nA_j$ ist abgeschlossen167\end{enumerate}168\end{satz}169170\begin{beispiel}171$(n=1)$. $A_t := (0,1+t)\ (t>0)$. Jedes $A_t$ ist offen. $\bigcap_{t>0}A_t = (0,1]$ ist nicht offen.172\end{beispiel}173174\begin{beweise}175\item "`\folgt"': Sei $x_0\in\MdR^n\backslash A$. Annahme: $\forall \delta>0: U_\delta(x_0) \nsubseteq \MdR^n\backslash A\folgt\forall\delta>0: U_\delta(x_0)\cap A\ne\emptyset \folgt x_0\in\bar{A} \gleichnach{Vor.} A$, Widerspruch \\176"`$\impliedby$"': Annahme: $\subset\bar{A} \folgt \ \exists x_0\in\bar{A}: x_0\notin A$; also $x_0\in\MdR^n\backslash A$. Voraussetzung $\folgt \ \exists \delta > 0: U_\delta(x_0) \subseteq \MdR^n\backslash A \folgt U_\delta(x_0) \cap A = \emptyset \folgt x_0 \notin \bar{A}$, Widerspruch!177\item Sei $(A_\lambda)_{\lambda\in M}$ eine Familie offener Mengen und $V := \bigcup_{\lambda\in M} A_\lambda$. Sei $x_0\in V \folgt \exists\lambda_0\in M: x_0 \in A_{\lambda_0}$. $A_{\lambda_0}$ offen $\folgt \ \exists \delta > 0: U_\delta(x_0) \subseteq A_{\lambda_0} \subseteq V$178\item folgt aus (1) und (2) (Komplemente!)179\item $D:=\bigcap_{j=1}^mA_j$. Sei $x_0\in D$. $\forall j\in\{1,\ldots,m\}: x_0\in A_j$, also eixistiert $\delta_j>0: U_\delta(x_0)\subseteq A_j$. $\delta := \min\{\delta_j,\ldots,\delta_m\} \folgt U_\delta(x_0) \subseteq D$180\item folgt aus (1) und (4)181\end{beweise}182183\chapter{Konvergenz im $\MdR^n$}184185Sei $(a^{(k)})$ eine Folge in $\MdR^n$, also $(a^{(k)}) = ( a^{(1)}, a^{(2)}, \ldots ) $ mit $a^{(k)} = (a_1^{(k)}, \ldots a_n^{(k)}) \in \MdR^n$. Die Begriffe \begriff{Teilfolge} und \begriff{Umordnung} definiert man wie in Analysis I. $(a^{(k)})$ heißt beschränkt $:\equizu$ $\exists c\ge0: \|a^{(k)}\| \le c \ \forall k\in\MdN$.186187\begin{definition*}[Grenzwert und Beschränktheit]188\indexlabel{Konvergenz}$(a^{(k)})$ heißt \textbf{konvergent}189$:\equizu$ $\exists a\in\MdR^n: \|a^{(k)} - a\| \to 0 \ (k\to\infty)$ ($\equizu\ \exists a\in\MdR^n: \forall \ep>0\exists k_0 \in\MdN: \|a^{(k)} - a\|<\ep \ \forall k\ge k_0$).190In diesem Fall heißt $a$ der \begriff{Grenzwert} (GW) oder \begriff{Limes} von $(a^{(k)})$ und man schreibt:191$a=\lim_{k\to\infty}a^{(k)}$ oder $a^{(k)} \to a \ (k\to\infty)$192\end{definition*}193194\begin{beispiel}195$(n=2)$: $a^{(k)} = (\frac{1}{k}, 1+\frac{1}{k^2})$ (Erinnerung: $\frac{1}{n}$ konvergiert gegen 0); $a := (0,1)$; $\|a^{(k)} - a \| = \|(\frac{1}{k} , \frac{1}{k^2})\| = (\frac{1}{k^2} + \frac{1}{k^4})^\frac{1}{2} \to 0 \folgt a^{(k)} \to (0,1)$196\end{beispiel}197%satz 2.1198\begin{satz}[Konvergenz]199Sei $(a^{(k)})$ eine Folge in $\MdR^n$.200\begin{enumerate}201\item Sei $a^{(k)} = (a_1^{(k)}, \ldots, a_n^{(k)})$ und202$a = (a_1,\ldots,a_n)\in\MdR^n$. Dann:203\[ a^{(k)} \to a \ (k\to\infty) \equizu a_1^{(k)} \to a_1, \ldots, a_n^{(k)} \to a_n \ (k\to\infty) \]204\item Der Grenzwert einer konvergenten Folge ist eindeutig bestimmt.205\item Ist $(a^{(k)})$ konvergent $\folgt \ a^{(k)}$ ist beschränkt206und jede Teilfolge und jede Umordnung von $(a^{(k)})$ konvergiert gegen $\lim a^{(k)}$.207\item Sei $(b^{(k)})$ eine weitere Folge, $a,b\in\MdR^n$ und $\alpha\in\MdR$.208Es gelte $a^{(k)}\to a$, $b^{(k)} \to b$ Dann:209\begin{align*}210\|a^{(k)}\| &\to \|a\|\\211a^{(k)} + b ^{(k)} &\to a+b\\212\alpha a^{(k)} &\to \alpha a\\213a^{(k)}\cdot b^{(k)}&\to a\cdot b214\end{align*}215\item \begriff{Bolzano-Weierstraß}: Ist $(a^{(k)})$ beschränkt, so enthält $(a^{(k)})$ eine konvergente Teilfolge.216\item \indexlabel{Cauchy!-Kriterium}\textbf{Cauchy-Kriterium}:217$(a^{(k)})$ konvergent $\equizu \ \forall\ep>0\ \exists k_0\in\MdN: \|a^{(k)} - a^{(l)}\| <\ep \ \forall k,l \ge k_0$218\end{enumerate}219\end{satz}220221\begin{beweise}222\item 1.1(7) $\folgt |a_j^{(k)} - a_j| \le \|a^{(k)}-a\| \le \sum_{i=1}^n|a_j^{(k)} - a_j| \folgt $ Behauptung.223\item und224\item wie in Analysis I.225\item folgt aus (1)226\item Sei $(a^{(k)})$ beschränkt. O.B.d.A: $n=2$. Also $a^{(k)}=(a_1^{(k)},a_2^{(k)})$ 1.1(7) $\folgt |a_1^{(k)}|,|a_2^{(k)}|\le\|a^{(k)}\|\ \forall k\in\MdN \folgt (a_1^{(k)},a_2^{(k)})$ sind beschränkte Folgen in $\MdR$. Analysis 1 $\folgt (a_1^{(k)})$ enthält eine konvergente Teilfolge $(a_1^{(k_j)})$. $(a_2^{(k_j)})$ enthält eine konvergente Teilfolge$ (a_2^{(k_{j_l})})$. Analysis 1 $\folgt (a_1^{(k_{j_l})})$ ist konvergent $\overset{(1)}{\folgt} (a^{(k_{j_l})})$ konvergiert.227\item "`$\folgt$"': wie in Analysis 1. "`$\impliedby$"': 1.1(7) $\folgt |a_j^{(k)}-a_j^{(l)}| \le \|a^{(k)}-a^{(l)}\|\ (j=1,\ldots,n)\ \folgt$ jede Folge $(a_j^{(k)})$ ist eine Cauchyfolge in $\MdR$, also konvergent $\overset{(1)}{\folgt} (a^{(k)})$ konvergiert.228\end{beweise}229230\begin{satz}[Häufungswerte und konvergente Folgen]231Sei $A\subseteq\MdR^n$232\begin{enumerate}233\item $x_0 \in \H(A)\equizu\ \exists$ Folge $(x^{(k)})$ in $A\ \backslash\ \{x_0\}$ mit $x^{(k)}\to x_0$.234\item $x_0 \in \bar A\equizu\ \exists$ Folge $(x^{(k)})$ in $A$ mit $x^{(k)}\to x_0$.235\item $A$ ist abgeschlossen $\equizu$ der Grenzwert jeder konvergenten Folge in $A$ gehört zu $A$.236\item Die folgenden Aussagen sind äquivalent:237\begin{enumerate}238\item $A$ ist beschränkt und abgeschlossen239\item Jede Folge in $A$ enthält eine konvergente Teilfolge, deren Grenzwert zu $A$ gehört.240\item A ist kompakt241\end{enumerate}242\end{enumerate}243\end{satz}244245\begin{beweise}246\item Wie in Analysis 1247\item Fast wörtlich wie bei (1)248\item[(4)] Wörtlich wie in Analysis 1249\item[(3)] "`$\folgt$"': Sei $(a^{(k)})$ eine konvergente Folge in $A$ und $x_0:=\lim a^{(k)} \overset{(2)}{\folgt} x_0 \in \bar A \overset{\text{Vor.}}{=}A$. "`$\impliedby$"': z.z: $\bar A \subseteq A$. Sei $x_0 \in \bar A \overset{(2)}{\folgt}x_0 \in A$. Also: $A=\bar A$.250\end{beweise}251252\begin{satz}[Überdeckungen]253$A \subseteq \MdR^n$ sei abgeschlossen und beschränkt254\begin{enumerate}255\item Ist $\ep>0\folgt\ \exists a^{(1)},\ldots,a^{(m)} \in A: A\subseteq \displaystyle\bigcup_{j=1}^m U_\ep(a^{(j)})$256\item $\exists$ abzählbare Teilmenge $B$ von $A: \bar B=A$.257\item \begriff{Überdeckungssatz von Heine-Borel}: Ist $(G_\lambda)_{\lambda \in M}$ eine Familie offener Mengen mit $A \subseteq \displaystyle\bigcup_{\lambda \in M} G_\lambda$, dann existieren $\lambda_1, \ldots, \lambda_m \in M: A\subseteq \displaystyle\bigcup_{j=1}^m G_{\lambda_j}$.258\end{enumerate}259\end{satz}260261\begin{beweise}262\item Sei $\ep>0$. Annahme: Die Behauptung ist falsch. Sei $a^{(1)}\in A$. Dann: $A\nsubseteq U_{\ep}(a^{(1)})\folgt\exists a^{(2)}\in A: a^{(2)}\notin U_\ep(a^{(1)})\folgt\|a^{(2)}-a^{(1)}\|\ge\ep$. $A\nsubseteq U_\ep(a^{(1)})\cup U_\ep(a^{(2)})\folgt\exists a^{(3)} \in A: \|a^{(3)}-a^{(2)}\|\ge\ep,\ \|a^{(3)}-a^{(1)}\|\ge\ep$ etc.. Wir erhalten so eine Folge $(a^{(k)})$ in A: $\|a^{(k)}-a^{(l)}\|\ge\ep$ für $k\ne l$. 2.2(4) $\folgt (a^{(k)})$ enthält eine konvergente Teilfolge $\folgtnach{2.1(6)}\ \exists j_0 \in\MdN:\ \|a^{(k_j)}-a^{(k_l)}\|<\ep\ \forall j,l\ge j_0$, Widerspruch!263\item Sei $j\in\MdN$. $\ep:=\frac{1}{j}$. (1) $\folgt\exists$ endl. Teilmenge $B_j$ von $A$ mit $(*)\ A\subseteq \displaystyle\bigcup_{x \in B_j}U_{\frac{1}{j}}(x)$. $B:=\displaystyle\bigcup_{j\in\MdN}B_j\folgt B\subseteq A$ und $B$ ist abzählbar. Dann: $\bar B\subseteq\bar A\gleichnach{Vor.}A$. Noch zu zeigen: $A\subseteq\bar B$. Sei $x_0\in A$ und $\delta>0$: zu zeigen: $U_\delta(x_0)\cap B\ne\emptyset$. Wähle $j\in\MdN$ so, dass $\frac{1}{j}<\delta\ (*)\folgt\exists x \in B_j\subseteq B:\ x_0\in U_{\frac{1}{j}}(x)\folgt \|x_0-x\|<\frac{1}{j}<\delta\folgt x\in U_\delta(x_0)\folgt x\in U_\delta(x_0)\cap B$.264\item Teil 1: Behauptung: $\exists \ep>0:\ \forall a \in A\ \exists\lambda\in M: U_\ep(a)\subseteq G_\lambda$. Beweis: Annahme: Die Behauptung ist falsch. $\forall k\in\MdN\ \exists a^{(k)}\in A:\ (**) U_{\frac{1}{k}}(a^{(k)})\nsubseteq G_\lambda\ \forall \lambda\in M$. 2.2(4) $\folgt (a^{(k)})$ enthält eine konvergente Teilfolge $(a^{(k_j)})$ und $x_0:=\displaystyle\lim_{j\to\infty}a^{k_j}\in A\folgt\exists \lambda_0\in M: x_0 \in G_{\lambda_0};\ G_{\lambda_0}$ offen $\folgt\exists \delta>0: U_\delta(x_0)\subseteq G_{\lambda_0}.\ a^{(k_j)}\to x_0\ (j\to\infty)\folgt\exists m_0\in\MdN: a^{(m_0)}\in U_{\frac{\delta}{2}}(x_0)$ und $m_0\ge\frac{2}{\delta}$. Sei $x\in U_{\frac{1}{m_0}}(a^{(m_0)})\folgt \|x-x_0\|=\|x-a^{(m_0)}+a^{(m_0)}-x_0\|\le\|x-a^{(m_0)}\|+\|a^{(m_0)}-x_0\|\le\frac{1}{m_0}+\frac{\delta}{2}\le\frac{\delta}{2}+\frac{\delta}{2}=\delta\folgt x\in U_\delta(x_0)\folgt x \in G_{\lambda_0}$. Also: $U_{\frac{1}{m_0}}(a^{(m_0)})\subseteq G_{\lambda_0}$, Widerspruch zu $(**)$!\\265Teil 2: Sei $\ep>0$ wie in Teil 1. (1) $\folgt\exists a^{(1)},\ldots,a^{(m)}\in A: A\subseteq\displaystyle\bigcup_{j=1}^mU_\ep(a^{(j)})$. Teil 1 $\folgt\exists \lambda_j\in M: U_\ep(a^{(j)})\subseteq G_{\lambda_j}\ (j=1,\ldots,m)\folgt A\subseteq \displaystyle\bigcup_{j=1}^m G_{\lambda_j}$266\end{beweise}267268\chapter{Grenzwerte bei Funktionen, Stetigkeit}269270\begin{vereinbarung}271\indexlabel{vektorwertige Funktion}Stets in dem Paragraphen: Sei $\emptyset \ne D \subseteq \MdR^n$ und $f: D\to\MdR^m$ eine (\textbf{vektorwertige}) Funktion. Für Punkte $(x_1, x_2) \in \MdR^2$ schreiben wir auch $(x,y)$. Für Punkte $(x_1, x_2, x_3) \in\MdR^3$ schreiben wir auch $(x, y, z)$. Mit $x=(x_1,\ldots,x_n)\in D$ hat $f$ die Form $f(x)=f(x_1,\ldots,x_n)=(f_1(x_1,\ldots,x_n),\ldots,f_m(x_1,\ldots,x_n))$, wobei $f_j:D\to\MdR\ (j=1,\ldots,m)$. Kurz: $f=(f_1,\ldots,f_m)$.272\end{vereinbarung}273274\begin{beispiele}275\item $n=2,m=3$. $f(x,y)=(x+y,xy,xe^y);\ f_1(x,y)=x+y, f_2(x,y)=xy, f_3(x,y)=xe^y$.276\item $n=3,m=1$. $f(x,y,z)=1+x^2+y^2+z^2$277\end{beispiele}278279\begin{definition*}280Sei $x_0\in \H(D)$.281282\begin{enumerate}283\item Sei $y_0 \in \MdR^m$. $\displaystyle\lim_{x\to x_0}f(x)=y_0 :\equizu$ für \textbf{jede} Folge $(x^{(k)})$ in $D\ \backslash\ \{x_0\}$ mit $x^{(k)}\to x_0$ gilt: $f(x^{(k)})\to y_0$. In diesem Fall schreibt man: $f(x)\to y_0(x\to x_0)$.284\item $\displaystyle\lim_{x\to x_0}f(x)$ existiert $:\equizu\ \exists y_0 \in \MdR^m: \displaystyle\lim_{x\to x_0}f(x)=y_0$.285\end{enumerate}286\end{definition*}287288\begin{beispiele}289\item $f(x,y)=(x+y,xy,xe^y); \displaystyle\lim_{(x,y)\to(1,1)}f(x,y)=(2,1,e)$, denn: ist $((x_k, y_n))$ eine Folge mit $(x_k,y_k)\to(1,1)\folgtnach{2.1}x_k\to 1, y_k\to 1 \folgt x_k+y_k\to 2, x_ky_k\to 1, x_ke^{y_k}\to e\folgtnach{2.1}(x_k,y_k)\to(2,1,e)$.290\item $f(x,y)=\begin{cases}291\frac{xy}{x^2+y^2}&\text{, falls }(x,y)\ne(0,0)\\2920&\text{, falls }(x,y)=(0,0)293\end{cases}$\\294$f(\frac{1}{k},0)=0\to 0\ (k\to \infty), (\frac{1}{k},0)\to(0,0), f(\frac{1}{k},\frac{1}{k})=\frac{1}{2}\to\frac{1}{2}\ (k\to \infty), (\frac{1}{k},\frac{1}{k})\to(0,0)$, d.h $\displaystyle\lim_{(x,y)\to(0,0)}f(x,y)$ existiert nicht! \textbf{Aber}: $\displaystyle\lim_{x\to 0}(\displaystyle\lim_{y\to 0} f(x,y))=0=\displaystyle\lim_{y\to 0}(\displaystyle\lim_{x\to 0} f(x,y))$.295\end{beispiele}296297\begin{satz}[Grenzwerte vektorwertiger Funktionen]298\begin{enumerate}299\item Ist $f = (f_1,\ldots,f_m)$ und $y_0 = (y_1,\ldots,y_m) \in \MdR^m$, so gilt: $f(x) \to y_0\ (x \to x_0) \equizu f_j(x) \to y_j\ (x \to x_0)\ (j=1,\ldots,m)$300\item Die Aussagen des Satzes Ana I, 16.1 und die Aussagen (1) und (2) des Satzes Ana I, 16.2 gelten sinngemäß für Funktionen von mehreren Variablen.301\end{enumerate}302\end{satz}303304\begin{beweise}305\item folgt aus 2.1306\item wie in Ana I307\end{beweise}308309\begin{definition*}[Stetigkeit vektorwertiger Funktionen]310\begin{enumerate}311\item \indexlabel{Stetigkeit}Sei $x_0 \in D$. $f$ heißt \textbf{stetig} in $x_0$ gdw. für jede Folge $(x^{(k)})$ in $D$ mit $(x^{(k)}) \to x_0$ gilt: $f(x^{(k)}) \to f(x_0)$. Wie in Ana I: Ist $x_0 \in D \cap \H(D)$, so gilt: $f$ ist stetig in $x_0 \equizu \displaystyle{\lim_{x \to x_0}} f(x) = f(x_0)$.312\item \indexlabel{Stetigkeit!auf einem Intervall}$f$ heißt auf $D$ stetig gdw. $f$ in jedem $x \in D$ stetig ist. In diesem Fall schreibt man: $f \in C(D,\MdR^m)\ (C(D) = C(D,\MdR)).$313\item \indexlabel{Stetigkeit!gleichmäßige}$f$ heißt auf $D$ \textbf{gleichmäßig} (glm) stetig gdw. gilt:\\314$\forall \ep>0\ \exists \delta>0: \|f(x)-f(y)\| < \ep\ \forall x,y \in D: \|x-y\| < \delta$315\item \indexlabel{Stetigkeit!Lipschitz-}$f$ heißt auf $D$ \textbf{Lipschitzstetig} gdw. gilt:\\316$\exists L\ge0: \|f(x)-f(y)\| \le L\|x-y\|\ \forall x,y \in D.$317\end{enumerate}318\end{definition*}319320\begin{satz}[Stetigkeit vektorwertiger Funktionen]321\begin{enumerate}322\item Sei $x_0 \in D$ und $f = (f_1,\ldots,f_m).$ Dann ist $f$ stetig in $x_0$ gdw. alle $f_j$ stetig in $x_0$ sind. Entsprechendes gilt für "`stetig auf $D$"', "`glm stetig auf $D$"', "`Lipschitzstetig auf $D$"'.323\item Die Aussagen des Satzes Ana I, 17.1 gelten sinngemäß für Funktionen von mehreren Variablen.324\item Sei $x_0 \in D$. $f$ ist stetig in $x_0$ gdw. zu jeder Umgebung $V$ von $f(x_0)$ eine Umgebung $U$ von $x_0$ existiert mit $f(U \cap D) \subseteq V$.325\item Sei $\emptyset \ne E \subseteq \MdR^m$, $f(D) \subseteq E$, $g: E \to \MdR^p$ eine Funktion, $f$ stetig in $x_0 \in D$ und $g$ stetig in $f(x_0)$. Dann ist $g \circ f: D \to \MdR^p$ stetig in $x_0$.326\end{enumerate}327\end{satz}328329\begin{beweise}330\item folgt aus 2.1331\item wie in Ana 1332\item Übung333\item wie in Ana 1334\end{beweise}335336\begin{beispiele}337\item $f(x,y) := \begin{cases}338\frac{xy}{x^2+y^2}, & (x,y) \ne (0,0)\\3390, & (x,y) = (0,0)340\end{cases}\quad(D = \MdR^2)$341342$f(\frac{1}{k},\frac{1}{k}) = \frac{1}{2} \to \frac{1}{2} \ne 0 = f(0,0) \folgt f$ ist in $(0,0)$ \emph{nicht} stetig.343344\item $f(x,y) := \begin{cases}345\frac{1}{y} \sin(xy), & y \ne 0\\346x, & y = 0347\end{cases}$348349Für $y \ne 0: |f(x,y) - f(0,0)| = \frac{1}{|y|}|\sin(xy)| \le \frac{1}{|y|}|xy| = |x|.$350351Also gilt: $|f(x,y) - f(0,0)| \le |x|\ \forall (x,y) \in \MdR^2 \folgt f(x,y) \to f(0,0)\ ((x,y) \to (0,0)) \folgt f$ ist stetig in $(0,0)$.352353\item Sei $\Phi \in C^1(\MdR),\ \Phi(0) = 0,\ \Phi'(0) = 2$ und $a \in \MdR$.354355$f(x,y) := \begin{cases}356\frac{\Phi(a(x^2+y^2))}{x^2+y^2}, & (x,y) \ne (0,0)\\357\frac{1}{2}, & (x,y) = (0,0)358\end{cases}$359360Für welche $a \in \MdR$ ist $f$ stetig in $(0,0)$?361362Fall 1: $a = 0$363364$f(x,y) = 0\ \forall(x,y) \in \MdR^2\backslash\{(0,0)\} \folgt f$ ist in $(0,0)$ nicht stetig.365366Fall 2: $a \ne 0$367368$r := x^2 + y^2.\ (x,y) \to (0,0) \equizu \|(x,y)\| \to 0 \equizu r \to 0$, Sei $(x,y) \ne (0,0)$. Dann gilt:369370$f(x,y) = \frac{\Phi(ar)}{r} = \frac{\Phi(ar) - \Phi(0)}{r - 0} = a \frac{\Phi(ar) - \Phi(0)}{ar - 0} \overset{r \to 0}{\to} a \Phi'(0) = 2a$. Das heißt: $f(x,y) \to 2a\ ((x,y)\to(0,0))$.371372Daher gilt: $f$ ist stetig in $(0,0) \equizu 2a = \frac{1}{2} \equizu a = \frac{1}{4}$.373\end{beispiele}374375\begin{definition*}[Beschränktheit einer Funktion]376\indexlabel{Beschränktheit!einer Funktion}377$f:D \to \MdR^m$ heißt \textbf{beschränkt} (auf $D$) gdw. $f(D)$ beschränkt ist $(\equizu \exists c \ge 0: \|f(x)\| \le c\ \forall x \in D)$.378\end{definition*}379380\begin{satz}[Funktionen auf beschränkten und abgeschlossenen Intervallen]381$D$ sei beschränkt und abgeschlossen und es sei $f \in C(D,\MdR^m)$.382\begin{enumerate}383\item $f(D)$ ist beschränkt und abgeschlossen.384\item $f$ ist auf $D$ gleichmäßig stetig.385\item Ist $f$ injektiv auf $D$, so gilt: $f^{-1} \in C(f(D),\MdR^n)$.386\item Ist $m = 1$, so gilt: $\exists a,b \in D: f(a) \le f(x) \le f(b)\ \forall x \in D$.387\end{enumerate}388\end{satz}389390\begin{beweis}391wie in Ana I.392\end{beweis}393394\begin{satz}[Fortsetzungssatz von Tietze]395Sei $D$ abgeschlossen und $f \in C(D,\MdR^m) \folgt \exists F \in C(\MdR^n,\MdR^m): F=f$ auf $D$.396\end{satz}397398\begin{satz}[Lineare Funktionen und Untervektorräume von $\MdR^n$]399\begin{enumerate}400\item Ist $f:\MdR^n \to \MdR^m$ und \emph{linear}, so gilt: $f$ ist Lipschitzstetig auf $\MdR^n$, insbesondere gilt: $f \in C(\MdR^n,\MdR^m)$.401\item Ist $U$ ein Untervektorraum von $\MdR^n$, so ist $U$ abgeschlossen.402\end{enumerate}403\end{satz}404405\begin{beweise}406\item Aus der Linearen Algebra ist bekannt: Es gibt eine $(m \times n)$-Matrix $A$ mit $f(x) = Ax$. Für $x,y \in \MdR^n$ gilt: $\|f(x)-f(y)\| = \|Ax - Ay\| = \|A(x-y)\| \le \|A\|\cdot \|x-y\|$407408\item Aus der Linearen Algebra ist bekannt: Es gibt einen UVR $V$ von $\MdR^n$ mit: $\MdR^n = U \oplus V$. Definiere $P: \MdR^n \to \MdR^n$ wie folgt: zu $x \in \MdR^n$ existieren eindeutig bestimmte $u \in U,\ v \in V$ mit: $x = u+v;\ P(x) := u$.409410Nachrechnen: $P$ ist linear.411412$P(\MdR^n) = U$ (Kern $P = V,\ P^2 = P$). Sei $(u^{(k)})$ eine konvergente Folge in $U$ und $x_0 := \lim u^{(k)}$, z.z.: $x_0 \in U$.413414Aus (1) folgt: $P$ ist stetig $\folgt P(u^{(k)}) \to P(x_0) \folgt x_0 = \lim u^{(k)} = \lim P(u^{(k)}) = P(x_0) \in P(\MdR^n) = U$.415\end{beweise}416417\begin{definition*}[Abstand eines Vektor zu einer Menge]418\indexlabel{Abstand!zwischen Vektor und Menge}419Sei $\emptyset \ne A \subseteq \MdR^n,\ x \in \MdR^n.\ d(x,A) := \inf\{\|x-a\|:a \in A\}$ heißt der \textbf{Abstand} von $x$ und $A$.420421Klar: $d(a,A) = 0\ \forall a \in A$.422\end{definition*}423424\begin{satz}[Eigenschaften des Abstands zwischen Vektor und Menge]425\begin{enumerate}426\item $|d(x,A) - d(y,A)| \le \|x-y\|\ \forall x,y \in \MdR^n$.427\item $d(x,A) = 0 \equizu x \in \overline{A}$.428\end{enumerate}429\end{satz}430431\begin{beweise}432\item Seien $x,y \in \MdR^n$. Sei $a \in A$. $d(x,A) \le \|x-a\| = \|x-y+y-a\| \le \|x-y\|+\|y-a\|\\433\folgt d(x,A)-\|x-y\| \le \|y-a\|\ \forall a \in A\\434\folgt d(x,A) - \|x-y\| \le d(y,A)\\435\folgt d(x,A) - d(y,A) \le \|x-y\|$436437Genauso: $d(y,A) - d(x,A) \le \|y-x\| = \|x-y\| \folgt$ Beh.438\item Der Beweis erfolgt duch Implikation in beiden Richtungen:439\begin{itemize}440\item["`$\impliedby$"':] Sei $x \in \overline{A} \folgtnach{2.2} \exists$ Folge $(a^{(k)})$ in $A: a^{(k)} \to x \folgtnach{(1)} d(a^{(k)},A) \to d(x,A) \folgt d(x,A) = 0$.441\item["`$\implies$"':] Sei $d(x,A) = 0.\ \forall k \in \MdN\ \exists a^{(k)} \in A: \|a^{(k)} - x\| < \frac{1}{k} \folgt a^{(k)} \to x \folgtnach{2.2} x \in \overline{A}$.442\end{itemize}443\end{beweise}444445446447\chapter{Partielle Ableitungen}448449Stets in diesem Paragraphen: $\emptyset\ne D\subseteq \MdR^n$, $D$ sei offen und $f:D\to\MdR$ eine reellwertige Funktion. $x_0 = (x_1^{(0)}, \ldots, x_n^{(0)}) \in D$. Sei $j\in\{1,\ldots,n\}$ (fest).450451Die Gerade durch $x_0$ mit der Richtung $e_j$ ist gegeben durch folgende Menge: $\{x_0+te_j:t\in\MdR\}$. $D$ offen $\folgt$ $\exists\delta>0: U_\delta(x_0)\subseteq D$. $\|x_0+te_j - x_0\| = \|te_j\| = |t| \folgt x_0+e_j \in D $ für $t\in(-\delta,\delta)$. $g(t) := f(x_0+te_j)$ $(t\in(-\delta,\delta))$452Es ist $g(t) = f(x_1^{(0)}, \ldots, x_{j-1}^{(0)}, x_j^{(0)} + t, x_{j+1}^{(0)}, \ldots, x_n^{(0)} )$453454\begin{definition}455$f$ heißt in $x_0$ \textbf{partiell differenzierbar} nach $x_j$ :\equizu es exisitert456der Grenzwert457\[\lim_{t\to0}\frac{f(x_0+te_j) - f(x_0)}t\]458und ist $\in\MdR$. In diesem Fall heißt obiger Grenzwert die \textbf{partielle Ableitung459von $f$ in $x_0$} nach $x_j$ und man schreibt für diesen Grenzwert:460\[f_{x_j}(x_0) \text{ oder }\frac{\partial f}{\partial x_j}(x_0)\]461462Im Falle $n=2$ oder $n=3$ schreibt man $f_x$, $f_y$, $f_z$ bzw. $\frac{\partial f}{\partial x}$, $\frac{\partial f}{\partial y}$, $\frac{\partial f}{\partial z}$463\end{definition}464465466\begin{beispiele}467\item $f(x,y,z) = xy+z^2+e^{x+y}$; $f_x(x,y,z) = y + e^{x+y} = \frac{\partial f}{\partial x}(x,y,z)$. $f_x(1,1,2)=1+e^2$. $f_y(x,y,z) = x+e^{x+y}$. $f_z(x,y,z) = 2z = \frac{\partial f}{\partial z}(x,y,z)$.468\item $f(x) = f(x_1,\ldots, x_n) = \|x\| = \sqrt{x_1^2 + \cdots + x_n^2}$.469470Sei $x\ne0$: $f_{x_j}(x) = \frac{1}{2\sqrt{x_1^2 + \cdots + x_n^2}}2x_j = \frac{x_j}{\|x\|} $471472Sei $x=0$: $\frac{f(t,0,\ldots,0) - f(0,0,\ldots,0)}{t} = \frac{|t|}{t} = \begin{cases} 1, &t>0\\-1,&t<0\end{cases} \folgt f$ ist in $(0,\ldots,0)$ nicht partiell differenzierbar nach $x_1$. Analog: $f$ ist in $(0,\ldots,0)$ nicht partiell differenzierbar nach $x_2,\ldots,x_n$473\item $f(x,y) = \begin{cases} \frac{xy}{x^2+y^2}, &(x,y)\ne(0,0)\\0,&(x,y) = (0,0) \end{cases}$474475$\frac{f(t,0) - f(0,0)}{t} = 0 \to 0 \ (t\to0) \folgt f$ ist in $(0,0)$ partiell differenzierbar nach $x$ und $f_x(0,0) = 0$. Analog: $f$ ist in $(0,0)$ partiell differenzierbar nach $y$ und $f_y(0,0) = 0$. Aber: $f$ ist in $(0,0)$ nicht stetig.476\end{beispiele}477478\def\grad{\mathop{\rm grad}\nolimits}479\begin{definition}480\indexlabel{partiell!Differenzierbarkeit}481\indexlabel{partiell!Ableitung}482\indexlabel{Differenzierbarkeit!partielle}483\indexlabel{Ableitung!partielle}484\begin{enumerate}485\item $f$ heißt in $x_0$ \textbf{partiell differenzierbar} $:\equizu$ $f$ ist in $x_0$486partiell differenzierbar nach allen Variablen $x_1,\ldots, x_n$. In diesem Fall heißt487$\grad f(x_0) := \nabla f(x_0) := (f_{x_1}(x_0),\ldots, f_{x_n}(x_0))$ der \textbf{Gradient} von488$f$ in $x_0$. \indexlabel{Gradient}489\item $f$ ist auf $D$ \textbf{partiell differenzierbar} nach $x_j$ oder $f_{x_j}$ ist auf $D$ vorhanden :\equizu $f$ ist in jedem $x\in D$ partiell differenzierbar nach $x_j$. In diesem Fall wird durch $x\mapsto f_{x_j}(x)$ eine Funktion $f_{x_j}: D\to \MdR$ definiert die \textbf{partielle Ableitung} von $f$ auf $D$ nach $x_j$.490\item $f$ heißt \textbf{partiell differenzierbar} auf $D$ :\equizu $f_{x_1},\ldots,f_{x_n}$ sind auf $D$ vorhanden.491\item $f$ heißt auf $D$ \textbf{stetig partiell differenzierbar} :\equizu $f$ ist auf $D$ partiell differenzierbar und $f_{x_1},\ldots,f_{x_n}$ sind auf $D$ stetig. In diesem Fall schreibt man $f\in C^1(D,\MdR)$.492\end{enumerate}493\end{definition}494495\begin{beispiele}496\item Sei $f$ wie in obigem Beispiel (3). $f$ ist in $(0,0)$ partiell differenzierbar und $\grad f(0,0) = (0,0)$497\item Sei $f$ wie in obigem Beispiel (2). $f$ ist auf $\MdR^n\backslash\{0\}$ partiell differenzierbar und $\grad f(x) = (\frac{x_1}{\|x_n\|},\ldots,\frac{x_n}{\|x_n\|}) = \frac{1}{\|x\|} x \ (x\ne 0)$498\end{beispiele}499500\begin{definition}501Seien $j,k\in\{1,\ldots,n\}$ und $f_{x_j}$ sei auf $D$ vorhanden. Ist $f_{x_j}$ in502$x_0\in D$ partiell differenzierbar nach $x_k$, so heißt503\[f_{x_jx_k}(x_0) := \frac{\partial^2 f}{\partial x_j\partial x_k}(x_0) := \left(f_{x_j}\right)_{x_k}(x_0)\]504die \textbf{partielle Ableitung zweiter Ordnung} von $f$ in $x_0$505nach $x_j$ und $x_k$. Ist $k=j$, so schreibt man:506\[\frac{\partial^2 f}{\partial x_j^2}(x_0) = \frac{\partial^2 f}{\partial x_j\partial x_j}(x_0) \]507Entsprechend definiert man partielle Ableitungen höherer Ordnung (soweit vorhanden).508\end{definition}509510\begin{schreibweisen}511$\ds f_{xxyzz} = \frac{\partial^5 f}{\partial x^2\partial y\partial z^2}$, vergleiche: $\ds\frac{\partial^{180} f}{\partial x^{179}\partial y}$512\end{schreibweisen}513514\begin{beispiele}515\item $f(x,y) = xy + y^2$, $f_x(x,y)=y$, $f_{xx} = 0$, $f_y = x + 2y$, $f_{yy} = 2$, $f_{xy}=1$, $f_{yx} = 1$.516\item $f(x,y,z) = xy + z^2e^x$, $f_x = y+z^2e^x$, $f_{xy} = 1$, $f_{xyz} = 0$. $f_z=2ze^x$, $f_{zy}=0$, $f_{zyx} = 0$.517\item $f(x,y) = \begin{cases} \frac{xy(x^2-y^2)}{x^2+y^2}, & (x,y) \ne (0,0) \\ 0, &(x,y)=(0,0)\end{cases}$518519Übungsblatt: $f_{xy}(0,0)$, $f_{yx}(0,0)$ existieren, aber $f_{xy}(0,0) \ne f_{yx}(0,0)$520\end{beispiele}521522\begin{definition}523Sei $m\in\MdN$. $f$ heißt auf $D$ \textbf{$m$-mal stetig partiell differenzierbar} :\equizu alle partiellen Ableitungen von $f$ der Ordnung $\le m$ sind auf $D$ vorhanden und auf $D$ stetig. In diesem Fall schreibt man: $f\in C^m(D,\MdR)$524525\[C^0(D, \MdR) := C(D,\MdR),\qquad C^\infty(D,\MdR) := \bigcap_{k\in\MdN_0}C^{k}(D,\MdR)\]526\end{definition}527528\begin{satz}[Satz von Schwarz]529Es sei $f\in C^2(D,\MdR)$, $x_0\in D$ und $j,k\in\{1,\ldots,n\}$. Dann: $f_{x_jx_k}(x_0) = f_{x_kx_j}(x_0)$530\end{satz}531532\begin{satz}[Folgerung]533Ist $f\in C^m(D,\MdR)$, so sind die partiellen Ableitungen von $f$534der Ordnung $\le m$ unabhängig von der Reihenfolge der Differentation.535\end{satz}536537\begin{beweis}538O.B.d.A: $n=2$ und $x_0=(0,0)$. Zu zeigen: $f_{xy}(0,0)=f_{yx}(0,0)$. $D$539offen $\folgt\exists\delta>0: U_\delta(0,0)\subseteq D$. Sei $(x,y) \in U_\delta(0,0)$ und $x\ne 0\ne y$.540\[\nabla:=f(x,y)-f(x,0)-(f(0,y)-f(0,0)),\quad\varphi(t):=f(t,y)-f(t,0)\]541für $t$ zwischen $0$ und $x$. $\varphi$ ist differenzierbar und542$\varphi'(t)=f_x(t,y)-f_x(t,0)$. $\varphi(x)-\varphi(0)=\nabla$.543MWS, Analysis I $\folgt\exists\xi=\xi(x,y)$ zwischen $0$ und $x$:544$\nabla=x\varphi'(\xi)=x(f_x(\xi,y)-f_x(\xi,0))$. $g(s):=f_x(\xi,s)$545für s zwischen $0$ und $y$; $g$ ist differenzierbar und546$g'(s)=f_{xy}(\xi,s)$. Es ist $\nabla=x(g(y)-g(0))\gleichnach{MWS}xyg'(\eta),\ \eta=\eta(x,y)$547zwischen $0$ und $y$. $\folgt \nabla=xyf_{xy}(\xi,\eta).$ (1)\\548$\psi(t):=f(x,t)-f(0,t)$, $t$ zwischen $0$ und $y$.549$\psi'(t)=f_y(x,t)-f_y(0,t)$. $\nabla=\psi(y)-\psi(0)$.550Analog: $\exists \bar\eta=\bar\eta(x,y)$ und $\bar\xi=\bar\xi(x,y)$, $\bar\eta$551zwischen $0$ und $y$, $\bar\xi$ zwischen $0$ und $x$. $\nabla=xyf_{yx}(\bar\xi,\bar\eta).$ (2)\\552Aus (1), (2) und $xy\ne0$ folgt $f_{xy}(\xi,\eta)=f_{yx}(\bar\xi,\bar\eta)$.553$(x,y)\to(0,0)\folgt\xi,\bar\xi,\eta,\bar\eta\to 0\folgtwegen{f\in C^2}f_{xy}(0,0)=f_{yx}(0,0)$554\end{beweis}555556\chapter{Differentiation}557\def\grad{\mathop{\rm grad}\nolimits}558559\begin{vereinbarung}560Stets in dem Paragraphen: $\emptyset\ne D\subseteq\MdR^n$, $D$ offen und $f:D\to\MdR^m$ eine Funktion, also $f=(f_1,\ldots,f_m)$561\end{vereinbarung}562563\begin{definition*}564\begin{enumerate}565\item Sei $k\in\MdN$. $f\in C^k(D,\MdR^m) :\equizu f_j\in C^k(D,\MdR)\ (j=1,\ldots,m)$566\item Sei $x_0\in D$. $f$ heißt \textbf{partiell differenzierbar} in567$x_0 :\equizu$ jedes $f_j$ ist in $x_0$ partiell differenzierbar.568In diesem Fall heißt569\[\frac{\partial f}{\partial x}(x_0):=\frac{\partial(f_1,\ldots,f_m)}{\partial(x_1,\ldots,x_n)}:=J_f(x_0):=570\begin{pmatrix}571\frac{\partial f_1}{\partial x_1}(x_0) & \cdots & \frac{\partial f_1}{\partial x_n}(x_0) \\572\vdots & & \vdots \\573\frac{\partial f_m}{\partial x_1}(x_0) & \cdots & \frac{\partial f_m}{\partial x_n}(x_0)574\end{pmatrix}\]575\indexlabel{Jacobi-Matrix}576\indexlabel{Funktionalmatrix}577die \textbf{Jacobi-} oder \textbf{Funktionalmatrix} von $f$ in $x_0$.578\end{enumerate}579\textbf{Beachte:}580\begin{enumerate}581\item $J_f(x_0)$ ist eine $(m \times n)$-Matrix.582\item Ist $m=1$ folgt $J_f(x_0)=\grad f(x_0)$.583\end{enumerate}584\end{definition*}585586\begin{erinnerung}587Sei $I\subseteq\MdR$ ein Intervall, $\varphi:I\to\MdR$ eine Funktion, $x_0\in I$. $\varphi$ ist in $x_0$ differenzierbar588\[589\overset{\text{ANA 1}}{\equizu}\exists a \in\MdR: \ds\lim_{h\to 0}\frac{\varphi(x_0+h)-\varphi(x_0)}{h}=a590\equizu\exists a\in\MdR:\ds\lim_{h\to 0}\frac{\varphi(x_0+h)-\varphi(x_0)-ah}{h}=0591\equizu\exists a\in\MdR: \ds\lim_{h\to 0}\frac{\varphi(x_0+h)-\varphi(x_0)-ah}{|h|}=0592\]593\end{erinnerung}594595\begin{definition*}596\begin{enumerate}597\index{Differenzierbarkeit}598\item Sei $x_0\in D$. $f$ heißt \textbf{differenzierbar} (db) in599$x_0 :\equizu \exists (m \times n)$-Matrix $A$, sodass gilt:600\begin{align*}601\ds\lim_{h\to 0}\frac{f(x_0+h)-f(x_0)-Ah}{\|h\|}=0\ \tag{$*$}602\end{align*}603\item $f$ heißt differenzierbar auf $D\ :\equizu f$ ist in604jedem $x\in D$ differenzierbar.605\end{enumerate}606\end{definition*}607608\begin{bemerkungen}609\item $f$ ist differenzierbar in610$x_0\equizu\exists (m \times n)$-Matrix $A$:611\[ \ds\lim_{x\to x_0}\frac{f(x)-f(x_0)-A(x-x_0)}{\|x-x_0\|}=0 \]612\item Ist $m=1$, so gilt: $f$ ist differenzierbar in $x_0$613\begin{align*}614\equizu \exists a \in\MdR^n:615\ds\lim_{h\to 0}\frac{f(x_0+h)-f(x_0)-ah}{\|h\|}=0\ \tag{$**$}616\end{align*}617\item Aus 2.1 folgt: $f$ ist differenzierbar in $x_0\equizu$ jedes618$f_j$ ist differenzierbar in $x_0$.619\end{bemerkungen}620621\begin{satz}[Differenzierbarkeit und Stetigkeit]622$f$ sei in $x_0\in D$ differenzierbar623\begin{enumerate}624\item $f$ ist in $x_0$ stetig625\item $f$ ist in $x_0$ partiell differenzierbar und die Matrix A in626$(*)$ ist eindeutig bestimmt: \\627$A=J_f(x_0)$. $f'(x_0):=A=J_f(x_0)$ (\begriff{Ableitung} von $f$ in $x_0$).628\item Ist $m=1$, so ist $f'(x_0) = a$ (aus $(**)$), also $f'(x_0) = \grad(f(x_0))$629\end{enumerate}630\end{satz}631632\begin{beweis}633Sei A wie in $(*)$, $A=(a_{jk})$, $\varrho(h):=\frac{f(x_0+h)-f(x_0)-Ah}{\|h\|}$,634also: $\varrho(h)\to0\ (h\to 0)$. Sei $\varrho=(\varrho_1,\ldots,\varrho_m)$.6352.1 $\folgt \varrho_j(h)\to 0\ (h\to 0)\ (j=1,\ldots,m)$636\begin{enumerate}637\item $f(x_0+h)=f(x_0)+\underbrace{Ah}_{\overset{\text{3.5}}{\to}0}+\underbrace{\|h\|\varrho(h)}_{\to 0\ (h\to 0)}\to f(x_0)\ (h\to 0)$638\item Sei $j\in\{1,\ldots,m\}$ und $k\in\{1,\ldots,n\}$.639Zu zeigen: $f_j$ ist partiell differenzierbar und640$\frac{\partial f_j}{\partial x_k}(x_0)=a_{jk}$.641$\varrho_j(h)=\frac{1}{\|h\|}(f_j(x_0+h)-f_j(x_0)-(a_{j1},\ldots,a_{jn})\cdot h)\to 0\ (h \to 0)$.642Für $t\in\MdR$ sei $h=te_k\folgt\varrho(h)=\frac{1}{|t|}(f(x_0+te_k)-a_{jk}t)\to 0\ (t\to 0)\folgt\left|\frac{f(x_0+te_k)-f(x_0)}{t}-a_{jk}\right|\to 0\ (t\to 0)\folgt f_j$ ist in $x_0$ partiell differenzierbar und $\frac{\partial f_j}{\partial x_k}(x_0)=a_{jk}$.643\end{enumerate}644\end{beweis}645646\begin{beispiele}647\item $$f(x,y)=\begin{cases}648\frac{xy}{x^2+y^2}&\text{, falls } (x,y)\ne(0,0)\\6490&\text{, falls } (x,y)=(0,0)650\end{cases}$$651Bekannt: $f$ ist in $(0,0)$ \textbf{nicht} stetig, aber partiell652differenzierbar und $\grad f(0,0)=(0,0)$ 5.1 $\folgt f$ ist in653$(0,0)$ \textbf{nicht} differenzierbar.654\item \[655f(x,y)=656\begin{cases}657(x^2+y^2) \underbrace{\sin\frac{1}{\sqrt{x^2+y^2}}}_\text{beschränkt}&\text{, falls } (x,y)\ne(0,0)\\6580&\text{, falls }(x,y)=(0,0)659\end{cases}660\]661Für $(x,y)\ne(0,0): \left|f(x,y)\right|=(x^2+y^2)\left|\sin\frac{1}{\sqrt{x^2+y^2}}\right|662\le x^2+y^2\overset{(x,y)\to(0,0)}{\to}0 \folgt f$ ist in $(0,0)$ stetig.663$\frac{f(t,0)-f(0,0)}{t}=\frac{1}{t}t^2\sin\frac{1}{|t|}=t\sin\frac{1}{|t|}\to 0\ (t\to 0)\folgt f$664ist in $(0,0)$ partiell differenzierbar nach $x$ und $f_x(0,0)=0$.665Analog: $f$ ist in $(0,0)$ partiell differenzierbar nach $y$ und666$f_y(0,0)=0$. $\varrho(h)=\frac{1}{\|h\|}f(h)\gleichwegen{h=(h_1,h_2)}\frac{1}{\sqrt{h_1^2+h_2^2}}(h_1^2+h_2^2)\sin\frac{1}{h_1^2+h_2^2}=\sqrt{h_1^2+h_2^2}\underbrace{\sin\frac{1}{\sqrt{h_1^2+h_2^2}}}_{\text{beschränkt}}\to 0\ (h\to 0)\folgt f$667ist differenzierbar in $(0,0)$ und $f'(0,0)=\grad f(0,0)=(0,0)$668669\item $$f(x,y) := \begin{cases}670\frac{x^3}{x^2+y^2}&\text{, falls} (x,y) \ne (0,0)\\6710&\text{, falls} (x,y) = (0,0)\end{cases}$$672673Übung: $f$ ist in $(0,0)$ stetig.674675$\frac{f(t,0) - f(0,0)}{t} = \frac{1}{t} \frac{t^3}{t^2} = 1 \to 1\ (t \to 0).\ \frac{f(0,t) - f(0,0)}{t} = 0 \to 0\ (t \to 0)$.676677$\folgt f$ ist in $(0,0)$ partiell db und $\grad f(0,0) = (1,0)$.678679Für $h = (h_1,h_2) \ne (0,0): \rho(h) = \frac{1}{\|h\|}(f(h) - f(0,0) - \grad f(0,0)\cdot h) = \frac{1}{\|h\|} (\frac{h_1^3}{h_1^2+h_2^2} - h_1) = \frac{1}{\|h\|} \frac{-h_1 h_2^2}{h_1^2 + h_2^2} = \frac{-h_1 h_2^2}{(h_1^2 + h_2^2)^{3/2}}.$680681Für $h_2 = h_1 > 0: \rho(h) = \frac{-h_1^3}{(\sqrt{2})^3 h_1^3} = - \frac{1}{(\sqrt{2})^3} \folgt \rho(h) \nrightarrow 0\ (h \to 0) \folgt f$ ist in $(0,0)$ \emph{nicht} db.682\end{beispiele}683684\begin{satz}[Stetigkeit aller partiellen Ableitungen]685Sei $x_0 \in D$ und \emph{alle} partiellen Ableitungen686$\frac{\partial f_j}{\partial x_k}$ seien auf $D$ vorhanden und in687$x_0$ stetig $(j=1,\ldots,m,\ k=1,\ldots,n)$. Dann ist $f$ in $x_0$688db.689\end{satz}690691\begin{beweis}692O.B.d.A: $m=1$ und $x_0=0$. Der Übersicht wegen sei $n=2$.693694Für $h = (h_1,h_2) \ne (0,0):$ $$\rho(h) := \frac{1}{\|h\|}(f(h) - f(0,0) - (\underbrace{h_1 f_x(0,0) + h_2 f_y(0,0)}_{= \grad f(0,0)\cdot h}))$$695696$f(h) - f(0) = f(h_1,h_2) - f(0,0) = \underbrace{f(h_1,h_2) - f(0,h_2)}_{=:\Delta_1} + \underbrace{f(0,h_2) - f(0,0)}_{=:\Delta_2}$697698$\varphi(t) := f(t,h_2),\ t$ zwischen $0$ und $h_1 \folgt \Delta_1 = \varphi(h_1) - \varphi(0),\ \varphi'(t) = f_x(t,h_2)$699700Aus dem Mittelwertsatz aus Analysis I folgt:701$\exists \xi = \xi(h)$ mit $0 \leq \xi \leq h_1: \Delta_1 = h_1\varphi(\xi) = h_1 f_x(\xi,h_2)\\702\exists \eta = \eta(h)$ zw. $0$ und $h_2: \Delta_2 = h_2\varphi(\eta) = h_2 f_x(\eta,h_2)$703704$\folgt \rho(h) := \frac{1}{\|h\|}(h_1 f_x(\xi,h_2) - h_2 f_y(0,\eta) - (h_1 f_x(0,0) + h_2 f_y(0,0)))\\705= \frac{1}{\|h\|} h(\underbrace{f_x(\xi,h_2) - f_x(0,0),\ f_y(0,\eta) - f_y(0,0)}_{=:v(h)})706= \frac{1}{\|h\|} h\cdot v(h)$707708$\folgt |\rho(h)| = \frac{1}{\|h\|} |h\cdot v(h)| \overset{\text{CSU}}{\le} \frac{1}{\|h\|} \|h\| \|v(h)\| = \|v(h)\|$709710$f_x,f_y$ sind stetig in $(0,0) \folgt v(h) \to 0\ (h \to 0) \folgt \rho(h) \to 0\ (h \to 0)$711\end{beweis}712713\begin{folgerung}714Ist $f \in C^1(D,\MdR^m) \folgt f$ ist auf $D$ db.715\end{folgerung}716717\begin{definition*}718Sei $k \in \MdN$ und $f \in C^k(D,\MdR^m)$.719Dann heißt $f$ \textbf{auf $D$ $k$-mal stetig db}.720\end{definition*}721722\begin{beispiele}723\item $f(x,y,z) = (x^2+y, xyz).\ J_f(x,y,z) = \begin{pmatrix}7242x & 1 & 0\\725yz & xz & xy\end{pmatrix} \folgt f \in C^1(\MdR^3,\MdR^2)$726727$\folgtnach{5.3} f$ ist auf $\MdR^3$ db und $f'(x,y,z) = J_f(x,y,z)\ \forall (x,y,z) \in \MdR^3.$728729\item Sei $f:\MdR^n \to \MdR^m$ \emph{linear}, es ex. also eine $(m \times n)$-Matrix $A:f(x) = Ax\ (x \in \MdR^n).$730731Für $x_0 \in \MdR^n$ und $h \in \MdR^n \backslash\{0\}$ gilt:\\732$\rho(h) = \frac{1}{\|h\|}(f(x_0+h) - f(x_0) - Ah) = \frac{1}{\|h\|}(f(x_0) + f(h) - f(x_0) - f(h)) = 0.$733734Also: $f$ ist auf $\MdR^n$ db und $f'(x) = A\ \forall x \in \MdR^n$. Insbesondere ist $f \in C^1(\MdR^n,\MdR^m).$735736\item[(2.1)] $n = m$ und $f(x) = x = Ix$ ($I = (m \times n)$-Einheitsmatrix). Dann: $f'(x) = I\ \forall x \in \MdR^n$.737738\item[(2.2)] $m = 1:\ \exists a \in \MdR^n: f(x) = ax\ (x \in \MdR^n)$ (Linearform). $f'(x) = a\ \forall x \in \MdR^n$.739740\item $$f(x,y) = \begin{cases}741(x^2+y^2) \sin \frac{1}{\sqrt{x^2+y^2}} & \text{, falls} (x,y) \ne (0,0)\\7420 & \text{, falls} (x,y) = (0,0)\end{cases}$$743744Bekannt: $f$ ist in $(0,0)$ db. Übungsblatt: $f_x,f_y$ sind in745$(0,0)$ \emph{nicht} stetig.746747\item Sei $I \subseteq \MdR$ ein Intervall und748$g = (g_1,\ldots,g_m): I \to \MdR^m;\ g_1,\ldots,g_m: I \to \MdR.$749750$g$ ist in $t_0 \in I$ db $\equizu g_1,\ldots,g_m$ sind in $t_0 \in I$ db. In diesem Fall gilt: $g'(t_0) = (g_1'(t_0),\ldots,g_m'(t_0)).$751752\item[(4.1)] $m = 2: g(t) = (\cos t,\sin t),\ t \in [0,2\pi].\ g'(t) = (-\sin t,\cos t).$753\item[(4.2)] Seien $a,b \in \MdR^m,\ g(t) = a+t(b-a),\ t \in [0,1],\ g'(t) = b-a$.754\end{beispiele}755756\begin{satz}[Kettenregel]757$f$ sei in $x_0 \in D$ db, $\emptyset \ne E \subseteq \MdR^m,\ E$ sei offen, $f(D) \subseteq E$ und $g:E \to \MdR^p$ sei db in $y_0 := f(x_0)$. Dann ist $g \circ f: D \to \MdR^p$ db in $x_0$ und $$(g \circ f)'(x_0) = g'(f(x_0))\cdot f'(x_0)\text{ (Matrizenprodukt)}$$758\end{satz}759760\begin{beweis}761$A := f'(x_0),\ B := g'(y_0) = g'(f(x_0)),\ h := g \circ f.$762763$$\tilde{g}(y) = \begin{cases}764\frac{g(y)-g(y_0)-B(y-y_0)}{\|y-y_0\|} & \text{, falls } y \in E\backslash\{y_0\} \\7650 & \text{, falls } y = y_0766\end{cases}$$767768$g$ ist db in $y_0 \folgt \tilde{g}(y) \to 0\ (y \to y_0).$ Aus Satz 5.1 folgt, dass $f$ stetig ist in $x_0 \folgt f(x) \to f(x_0) = y_0\ (x \to x_0) \folgt \tilde{g}(f(x)) \to 0\ (x \to x_0)$769770Es ist $g(y) - g(y_0) = \|y-y_0\| \tilde{g}(y) = B(y-y_0)\ \forall y \in E.$771772$\ds{\frac{h(x)-h(x_0)-BA(x-x_0)}{\|x-x_0\|} = \frac{1}{\|x-x_0\|}(g(f(x))-g(f(x_0))-BA(x-x_0))}$\\773$\ds{= \frac{1}{\|x-x_0\|} (\|f(x)-f(x_0)\| \tilde{g}(f(x)) + B(f(x)-f(x_0))-BA(x-x_0))}$\\774$\ds{= \underbrace{\frac{\|f(x)-f(x_0)\|}{\|x-x_0\|}}_{=:D(x)} \underbrace{\tilde{g}(f(x))}_{\to 0} + \underbrace{B(\underbrace{\frac{f(x)-f(x_0)-A(x-x_0)}{\|x-x_0\|}}_{\overset{f\text{ db}}{\to} 0\ (x \to x_0)})}_{\overset{\text{3.5}}{\to} 0\ (x \to x_0)}}$775776Noch zu zeigen: $D(x)$ bleibt in der "`Nähe"' von $x_0$ beschränkt.777778$0 \le D(x) = \ds{\frac{\|f(x)-f(x_0)-A(x-x_0)+A(x-x_0)\|}{\|x-x_0\|}}$\\779$\ds{= \underbrace{\frac{\|f(x)-f(x_0)-A(x-x_0)\|}{\|x-x_0\|}}_{\to 0\ (x \to x_0)} + \underbrace{\frac{\|A(x-x_0)\|}{\|x-x_0\|}}_{\le \|A\|}}.$780\end{beweis}781782\paragraph{Wichtigster Fall}783$g = g(x_1,\ldots,x_m)$ reellwertig,784\begin{align*}785h(x) &= h(x_1,\ldots,x_n) \\786&= g(f_1(x_1,\ldots,x_n),f_2(x_1,\ldots,x_n),\ldots,f_m(x_1,\ldots,x_n)) \\787&= (g \circ f)(x)788\end{align*}789790$h_{x_j}(x) = g_{x_1}(f(x))\frac{\partial f_1}{\partial x_j}(x)+g_{x_2}(f(x))\frac{\partial f_2}{\partial x_j}(x)+\cdots+g_{x_m}(f(x))\frac{\partial f_m}{\partial x_j}(x)$791\begin{beispiel}792$g = g(x,y,z),\ h(x,y) = g(xy,x^2+y,x \sin y) = g(f(x,y)).$793794$h_x(x,y) = g_x(f(x,y))y + g_y(f(x,y))2x + g_z(f(x,y))\sin y.$\\795$h_y(x,y) = g_x(f(x,y))x + g_y(f(x,y))1 + g_z(f(x,y))x \cos y.$796\end{beispiel}797798\begin{hilfssatz}799Es sei $A$ eine $(m \times n)$-Matrix (reell), es sei $B$ eine $(n \times m)$-Matrix (reell) und es gelte800\begin{itemize}801\item[(i)] $BA = I $($= (n \times n)$-Einheitsmatrix) und802\item[(ii)] $AB = \tilde{I} $($= (m \times m)$-Einheitsmatrix)803\end{itemize}804Dann: $m = n$.805\end{hilfssatz}806807\begin{beweis}808$\Phi(x):=Ax (x \in \MdR^n). \text{ Lin. Alg.} \folgt \Phi \text{ ist linear, }809\Phi:\MdR^n \to \MdR^m. \folgtnach{(i)} \Phi \text{ ist injektiv, also }810Kern \Phi = {0}. \text{ (ii) Sei }z \in \MdR^m, x:=Bz \folgtnach{(ii)} z = ABz = Ax = \Phi(x) \folgt \Phi \text{ ist surjektiv. Dann: } n = \dim \MdR^n \gleichnach{LA} \dim\kernn\Phi + \text{dim}\Phi(\MdR^n) = m.$811\end{beweis}812813\begin{satz}[Injektivität und Dimensionsgleichheit]814$f:D\to \MdR^m$ sei db auf $D$, es sei $f(D)$ offen, $f$ injektiv auf $D$ und $f^{-1}:f(D)\to \MdR^n$ sei db auf $f(D)$. Dann:815\item[(1)] $m = n$816\item[(2)] $\forall x \in D:f'(x)$ ist eine invertierbare Matrix und $f'(x)^{-1} = (f^{-1})'(f(x))$817\end{satz}818819\textbf{Beachte:}820\begin{itemize}821\item[(1)] Ist $D$ offen und $f:D\to \MdR^m$ db, so muss i. A. $f(D)$ nicht offen sein. Z.B.: $f(x) = \sin x, D = \MdR, f(D) = [-1,1]$822\item[(2)] Ist $D$ offen, $f:D\to \MdR^m$ db und injektiv, so muss i.A. $f^{-1}$ \underline{nicht} db sein. Z.B.: $f(x) = x^3, D = \MdR, f^{-1}$ ist in 0 \underline{nicht} db.823\end{itemize}824825\begin{beweis} von 5.5: $g:=f^{-1}; x_0 \in D, z_0:=f(x_0) (\folgt x_0 = g(z_0))$826Es gilt: $g(f(x)) = x \forall x \in D, f(g(z)) = z \forall z \in f(D) \folgtnach{5.4} g'(f(x))\cdot f'(x) = I \forall x \in D; f'(g(z))\cdot g'(z) = \tilde{I}827\forall z \in f(D) \folgt \underbrace{g'(z_0)}_{=:B}\cdot \underbrace{f'(x_0)}_{=:A} = I, f'(x_0)\cdot g'(z_0) = \tilde{I} \folgtnach{5.5} m = n$ und $f'(x_0)^{-1} = g'(z_0) = (f^{-1})'(f(x_0))$.828\end{beweis}829830\theoremstyle{numberbreak}831\newtheorem{spezialfall}[satz]{Spezialfall}832\chapter{Differenzierbarkeitseigenschaften reellwertiger Funktionen}833\def\grad{\mathop{\rm grad}\nolimits}834835\begin{definition}836\begin{enumerate}837\index{Konvexität}838\item Seien $a,b \in \MdR^n; S[a,b]:=\{a+t(b-a): t\in [0,1]\}$ heißt839\begriff{Verbindungsstrecke} von $a$ und $b$840\item $M\subseteq \MdR^n$ heißt \textbf{konvex} $:\equizu$\ aus $a,b \in M$ folgt841stets: $S[a,b] \subseteq M$842\item Sei $k \in \MdN$ und $x^{(0)},\ldots,x^{(k)} \in \MdR^n.\ S[x^{(0)},\ldots,x^{(k)}]:=\bigcup_{j=1}^{k}S[x^{(j-1)}, x^{(j)}]$ heißt \begriff{Streckenzug} durch $x^{(0)},\ldots,x^{(k)}$ (in dieser Reihenfolge!)843\item Sei $G \subseteq \MdR^n$. $G$ heißt \begriff{Gebiet}$:\equizu\ G$ ist offen und aus $a,b \in G$ folgt: $\exists x^{(0)},\ldots,x^{(k)} \in G: x^{(0)}=a, x^{(k)}=b$ und $S[x^{(0)},\ldots,x^{(k)}] \subseteq G$.844\end{enumerate}845\end{definition}846847\begin{vereinbarung}848Ab jetzt in diesem Paragraphen: $\emptyset \ne D \subseteq \MdR^n$, $D$ offen und849$f:D\to \MdR$ eine Funktion.850\end{vereinbarung}851852\begin{satz}[Der Mittelwertsatz]853$f:D\to\MdR$ sei differenzierbar auf $D$, es seien $a,b \in D$ und $S[a,b]\subseteq D$. Dann: $$\exists\ \xi \in S[a,b]: f(b)-f(a)=f'(\xi)\cdot(b-a)$$854$ $%Bug855\end{satz}856857\begin{beweis}858Sei $g(t):=a+t\cdot(b-a)$ für $t\in[0,1]$. $g([0,1])=S[a,b]\subseteq D$. $\Phi(t):=f(g(t)) (t \in [0,1])$ 5.4 $\folgt \Phi$ ist differenzierbar auf $[0,1]$ und $\Phi'(t) = f'(g(t))\cdot g'(t) = f'(a+t(b-a))\cdot(b-a)$. $f(b)-f(a)=\Phi(1)-\Phi(0) \folgtnach{MWS, AI} \Phi'(\eta) = f'(\underbrace{a+\eta(b-a)}_{=:\xi \in S})\cdot(b-a), \eta \in [0,1]$859\end{beweis}860861\begin{folgerungen}862Sei $D$ ein \textbf{Gebiet} und $f,g:D\to\MdR$ seien differenzierbar auf $D$.863\begin{enumerate}864\item Ist $f'(x)=0\ \forall x \in D \folgt f$ ist auf $D$ konstant.865\item Ist $f'(x)=g'(x) \forall x \in D \folgt \exists c \in \MdR: f=g+c$ auf $D$.866\end{enumerate}867\end{folgerungen}868869\begin{beweis}870(2) folgt aus (1). (1) Seien $a,b \in D$. Z.z.: $f(a)=f(b)$.871$\exists x^{(0)},\ldots,x^{(k)} \in D, x^{(0)}=a, x^{(k)}=b: S[x^{(0)},\ldots,x^{(k)}] \subseteq D$872$\forall j \in \{1,\ldots,k\}$ ex. nach 6.1 ein $\xi_j \in S[x^{(j-1)}, x^{(j)}]:873f(x^{(j)})-f(x^{(j-1)}) = \underbrace{f'(\xi_j)}_0\cdot(x^{(j)}-x^{(j-1)})=0874\folgt f(x^{(j)}) = f(x^{(j-1)}) \folgt f(a)=f(x^{(0)})=f(x^{(1)})=f(x^{(2)})=\ldots = f(x^{(k)}) = f(b)$.875\end{beweis}876877\begin{satz}[Bedingung für Lipschitzstetigkeit]878$D$ sei konvex und $f:D\to\MdR$ sei differenzierbar auf $D$. Weiter sei $f'$ auf $D$ beschränkt. Dann ist $f$ auf $D$ Lipschitzstetig.879\end{satz}880881\begin{beweis}882$\exists L \ge 0: \|f'(x)\| \le L \forall x \in D$. Seien $u,v \in D$. $D$ konvex $\folgt S[u,v]\subseteq D$. 6.1 $\folgt \exists\xi\in S[u,v]:f(u)-f(v)=f'(\xi)\cdot(u-v) \folgt |f(u)-f(v)|=|f'(\xi)\cdot(u-v)|\stackrel{CSU}{\le}\|f'(\xi)\| \|u-v\| \le L\|u-v\|$.883\end{beweis}884885\begin{satz}[Linearität]886Sei $\Phi:\MdR^n\to\MdR^m$ eine Funktion.887888$\Phi$ ist linear $\equizu \Phi \in C^1(\MdR^n, \MdR^m)$ und $\Phi(\alpha x)=\alpha\Phi(x)\ \forall x \in \MdR^n\ \forall \alpha \in \MdR.$889\end{satz}890891\begin{beweis}892``$\folgt$'':893``$\impliedby$'': O.B.d.A.: $m=1$. Z.z.: $\exists a \in \MdR^n:\Phi(x)=a\cdot x \forall x \in \MdR^n$.894$a:=\Phi'(0) \Phi(0)=\Phi(2\cdot0)=2\cdot \Phi(0) \folgt \Phi(0)=0$.895$\forall x \in \MdR^n \forall \alpha \in \MdR: \Phi(\alpha x)=\alpha\Phi(x) \folgtnach{5.4} \alpha \Phi'(\alpha x)=\alpha\Phi'(x)\ \forall x \in \MdR^n\ \forall \alpha \in \MdR896\folgt \Phi'(x)=\Phi'(\alpha x)\ \forall x \in\MdR^n\ \forall\alpha\ne0$.$ \folgtnach{$\alpha\to0, f\in C^1$} \Phi'(x)=\Phi'(0)=a\ \forall x \in\MdR^n$.897$g(x):=(\Phi(x)-ax)^2\ (x \in \MdR^n)$, $ g(0)=(\Phi(0)-a\cdot0)^2=0$.8985.4 $\folgt g$ ist differenzierbar auf $\MdR^n$ und $g'(x)=2(\Phi(x)-ax)(\Phi'(x)-a)=0\ \forall x \in \MdR^n$.8996.2(1) $\folgt g(x)=g(0)=0\ \forall x\in\MdR^n \folgt \Phi(x)=a\cdot x\ \forall x \in \MdR^n.$900\end{beweis}901902\paragraph{Die Richtungsableitung}903\indexlabel{Richtung}904\indexlabel{Richtungs-!Vektor}905\indexlabel{Richtungs-!Ableitung}906Sei $\emptyset \ne D \subseteq \MdR^n,\ D$ offen, $f:D \to \MdR$ und $x_0 \in D$. Ist $a \in \MdR^n$ und $\|a\|=1$, so heißt $a$ eine \textbf{Richtung} (oder ein \textbf{Richtungsvektor}).907908Sei $a \in \MdR^n$ eine Richtung. $D$ offen $\folgt \exists \delta>0: U_\delta(x_0) \subseteq D$. Gerade durch $x_0$ mit Richtung $a:\{x_0+ta:t\in\MdR\}.\ \|x_0+ta-x_0\| = \|ta\| = |t|$. Also: $x_0+ta \in D$ für $t \in (-\delta,\delta),\ g(t) := f(x_0+ta)\ (t \in (-\delta,\delta))$.909910$f$ heißt \textbf{in $x_0$ in Richtung $a$ db}, gdw. der Grenzwert $$\lim_{t\to 0} \frac{f(x_0+ta)-f(x_0)}{t}$$ existiert und $\in \MdR$ ist. In diesem Fall heißt $$\frac{\partial f}{\partial a}(x_0) := \lim_{t\to 0} \frac{f(x_0+ta)-f(x_0)}{t}$$ die \textbf{Richtungsableitung von $f$ in $x_0$ in Richtung $a$}.911912\begin{beispiele}913\item $f$ ist in $x_0$ partiell db nach $x_j \equizu f$ ist in $x_0$ db in Richtung $e_j$. In diesem Fall gilt: $\frac{\partial f}{\partial x_j}(x_0) = \frac{\partial f}{\partial e_j}(x_0)$.914915\item $$f(x,y) := \begin{cases}916\frac{xy}{x^2+y^2} & \text{, falls } (x,y) \ne (0,0)\\9170 & \text{, falls } (x,y) = (0,0)\end{cases}$$918919$x_0 = (0,0).$ Sei $a=(a_1,a_2) \in \MdR^2$ eine Richtung, also $a_1^2+a_2^2=1;\ \frac{f(ta)-f(0,0)}{t} = \frac{1}{t} \frac{t^2a_1a_2}{t^2a_1^2+t^2a_2^2} = \frac{a_1a_2}{t}$. D.h.: $\frac{\partial f}{\partial a}(0,0)$ ex. $\equizu a_1a_2 = 0 \equizu a \in \{(1,0),(-1,0),(0,1),(0,-1)\}$. In diesem Fall: $\frac{\partial f}{\partial a}(0,0) = 0.$920921\item $$f(x,y) := \begin{cases}922\frac{xy^2}{x^2+y^4} & \text{, falls } (x,y) \ne (0,0)\\9230 & \text{, falls } (x,y) = (0,0)\end{cases}$$924925$x_0 = (0,0)$. Sei $a = (a_1,a_2) \in \MdR$ eine Richtung. $\frac{f(ta)-f(0,0)}{t} = \frac{1}{t} \frac{t^3a_1a_2^2}{t^2a_1^2+t^4a_2^4} = \frac{a_1a_2^2}{a_1^2+t^2a_2^4} \overset{t \to 0}{\to} \begin{cases}9260 & \text{, falls } a_1=0\\927\frac{a_2^2}{a_1} & \text{, falls } a_1 \ne 0 \end{cases}$928929D.h. $\frac{\partial f}{\partial a}(0,0)$ existiert für \emph{jede} Richtung $a \in \MdR^2$. Z.B.: $a = \frac{1}{\sqrt{2}}(1,1): \frac{\partial f}{\partial a}(0,0) = \frac{1}{\sqrt{2}}.$930931$f(x,\sqrt{x}) = \frac{x^2}{2x^2} = \frac{1}{2}\ \forall x>0 \folgt f$ ist in $(0,0)$ \emph{nicht} stetig.932\end{beispiele}933934\begin{satz}[Richtungsableitungen]935Sei $x_0 \in D,\ a \in \MdR^n$ eine Richtung, $f:D \to \MdR$.936\begin{enumerate}937\item $\frac{\partial f}{\partial a}(x_0)$ existiert $\equizu \frac{\partial f}{\partial (-a)}(x_0)$ existiert. In diesem Fall ist: $$\frac{\partial f}{\partial (-a)}(x_0) = -\frac{\partial f}{\partial a}(x_0)$$938\item $f$ sei in $x_0$ db. Dann:939\begin{enumerate}940\item[(i)] $\frac{\partial f}{\partial a}(x_0)$ existiert und $$\frac{\partial f}{\partial a}(x_0) = a\cdot \grad f(x_0).$$941\item[(ii)] Sei $\grad f(x_0) \ne 0$ und $a_0 := \|\grad f(x_0)\|^{-1}\cdot \grad f(x_0)$. Dann: $$\frac{\partial f}{\partial (-a_0)}(x_0) \le \frac{\partial f}{\partial a}(x_0) \le \frac{\partial f}{\partial a_0}(x_0) = \|\grad f(x_0)\|.$$ Weiter gilt: $\frac{\partial f}{\partial a}(x_0) < \frac{\partial f}{\partial a_0}(x_0)$, falls $a \ne a_0$; $\frac{\partial f}{\partial (-a_0)}(x_0) < \frac{\partial f}{\partial a}(x_0)$, falls $a \ne -a_0$.942\end{enumerate}943\end{enumerate}944\end{satz}945946\begin{beweis}947\begin{enumerate}948\item $\frac{(f(x_0+t(-a))-f(x_0))}{t} = -\frac{(f(x_0+(-t)a)-f(x_0))}{-t} \folgt$ Beh.949\item \begin{enumerate}950\item[(i)] $g(t) := f(x_0+ta)$ ($|t|$ hinreichend klein). Aus Satz 5.4 folgt: $g$ ist db in $t=0$ und $g'(0) = f'(x_0) \cdot a \folgt \frac{\partial f}{\partial a}(x_0)$ existiert und ist $= g'(0) = \grad f(x_0)\cdot a$951\item[(ii)] $\uwave{\left| \frac{\partial f}{\partial a}(x_0) \right|} \gleichnach{(i)} |a\cdot \grad f(x_0)| \overset{\text{CSU}}{\le} \|a\|\cdot \|\grad f(x_0)\| = \|\grad f(x_0)\| = \frac{1}{\|\grad f(x_0)\|} \grad f(x_0) \cdot \grad f(x_0) = a_0\cdot \grad f(x_0) \gleichnach{(i)} \uwave{\frac{\partial f}{\partial a_0}(x_0)}$952953$\folgt \frac{\partial f}{\partial (-a_0)}(x_0) \gleichnach{(1)} -\frac{\partial f}{\partial a_0}(x_0) \le \frac{\partial f}{\partial a}(x_0) \le \frac{\partial f}{\partial a_0}(x_0) = \|\grad f(x_0)\|$954955Sei $\frac{\partial f}{\partial a}(x_0) = \frac{\partial f}{\partial a_0}(x_0) \folgtnach{(i),(ii)} a\cdot\grad f(x_0) = \|\grad f(x_0)\| \folgt a\cdot a_0 = 1 \folgt \|a-a_0\|^2 = (a-a_0)(a-a_0) = a\cdot a - 2a\cdot a_0 + a_0\cdot a_0 = 1-2+1 = 0 \folgt a=a_0.$956\end{enumerate}957\end{enumerate}958\end{beweis}959960\paragraph{Der Satz von Taylor}961Im Folgenden sei $f:D \to \MdR$ zunächst "`genügend oft partiell db"', $x_0 \in D$ und $h=(h_1,\ldots,h_n) \in \MdR^n$. Wir führen folgenden Formalismus ein.962963$$\nabla := \left( \frac{\partial}{\partial x_1},\ldots,\frac{\partial}{\partial x_n}\right)\ \text{("`Nabla"')};\ \nabla f:= \left( \frac{\partial f}{\partial x_1},\ldots,\frac{\partial f}{\partial x_n}\right) = \grad f;\ \nabla f(x_0) := \grad f(x_0)$$964965$$(h\cdot\nabla) := h_1 \frac{\partial}{\partial x_1} + \ldots + h_n \frac{\partial}{\partial x_n};\ (h\cdot\nabla) f:= h_1 \frac{\partial f}{\partial x_1} + \ldots + h_n \frac{\partial f}{\partial x_n} = h \grad f;\ (h\cdot\nabla) f(x_0) := h\cdot\grad f(x_0)$$966967$(h\cdot\nabla)^{(0)} f(x_0) := f(x_0)$. Für $k\in\MdN: (h\cdot\nabla)^{(k)} := \left( h_1 \frac{\partial}{\partial x_1} + \ldots + h_n \frac{\partial}{\partial x_n} \right)^k$968969$(h\cdot\nabla)^{(2)} f(x_0) = \sum_{j=1}^n \sum_{k=1}^n h_jh_k\frac{\partial^2 f}{\partial x_j \partial x_k} (x_0)$970971$(h\cdot\nabla)^{(3)} f(x_0) = \sum_{j=1}^n \sum_{k=1}^n \sum_{l=1}^n h_jh_kh_l\frac{\partial^3 f}{\partial x_j \partial x_k \partial x_l} (x_0)$972973\begin{beispiel}974$(n=2): h = (h_1,h_2).$975976$(h\cdot\nabla)^{(0)} f(x_0) = f(x_0),\ (h\cdot\nabla)^{(1)} f(x_0) = h\cdot \grad f(x_0) = h_1 f_x(x_0) + h_2 f_y(x_0)$.977978$(h\cdot\nabla)^{(2)} f(x_0) = \left( h_1 \frac{\partial f}{\partial x} + h_2 \frac{\partial f}{\partial y}\right)^2 (x_0) = h_1^2 \frac{\partial^2 f}{\partial^2 x} (x_0) + h_1h_2 \frac{\partial^2 f}{\partial x \partial y} (x_0) + h_2h_1 \frac{\partial^2 f}{\partial y \partial x} (x_0) + h_2^2 \frac{\partial^2 f}{\partial^2 y} (x_0).$979\end{beispiel}980981\begin{satz}[Der Satz von Taylor]982Sei $k\in\MdN, f\in C^{k+1}(D,\MdR),x_0 \in D, h\in\MdR^n$ und $S[x_0,x_0+h]\subseteq D$. Dann:983$$f(x_0+h)=\sum_{j=0}^k\frac{(h\cdot\nabla)^{(j)}f(x_0)}{j!}+\frac{(h\cdot\nabla)^{(k+1)}f(\xi)}{(k+1)!}$$984wobei $\xi \in S[x_0, x_0+h]$985\end{satz}986987\begin{beweis}988$\Phi(t):=f(x_0+th)$ für $t\in[0,1]$. 5.4$\folgt \Phi \in C^{k+1}[0,1],\ \Phi'(t)=f'(x_0+th) \cdot h=(h \cdot \nabla)f(x_0+th)$\\989Induktiv: $\Phi^{(j)}(t)=(h\cdot\nabla)^{(j)}f(x_0+th)\ (j=0,\ldots,k+1, t\in[0,1]).\ \Phi(0)=f(x_0), \Phi(1)=f(x_0+h);\ \Phi^{(j)}(0)=(h\cdot\nabla)^{(j)}f(x_0)$. Analysis 1 (22.2) $\folgt \Phi(1)=\ds\sum_{j=0}^k\frac{\Phi^{(j)}(0)f(x_0)}{j!}+\frac{\Phi^{(k+1)}f(\eta)}{(k+1)!}$, wobei $\eta\in[0,1]\folgt f(x_0+h)=\ds\sum_{j=1}^k\frac{(h\cdot\nabla)^{(j)}f(x_0)}{j!}+\frac{(h\cdot\nabla)^{(k+1)}f(x_0+\eta h)}{(k+1)!},\ \xi:=x_0+\eta h$990\end{beweis}991992\begin{spezialfall}993Sei $f\in C^2(D,\MdR),x_0\in D, h\in \MdR^n, S[x_0,x_0+h]\subseteq D$. Dann:994$$f(x_0+h)=f(x_0)+\grad f(x_0)\cdot h+\frac{1}{2}\sum_{j,k=1}^nh_jh_k\frac{\partial^2 f}{\partial x_j\partial x_k}(x_0+\eta h)$$995\end{spezialfall}996997\chapter{Quadratische Formen}998\def\grad{\mathop{\rm grad}\nolimits}9991000\begin{vereinbarung}1001In diesem Paragraphen sei $A$ stets eine reelle und symmetrische $(n\times n)$-Matrix, $(A=A^\top)$. Also: $A=(a_{jk})$, dann $a_{jk}=a_{kj}\ (k,j=1,\ldots,n)$1002\end{vereinbarung}10031004\begin{definition*}1005$Q_A:\MdR^n\to\MdR$ durch $Q_A(x):=x(Ax)$. $Q_A$ heißt die zu $A$ gehörende \begriff{quadratische Form}. Für $x=(x_1,\ldots,x_n):$1006$$Q_A(x)=\ds\sum_{j,k=1}^na_{jk}x_jx_k$$1007\end{definition*}10081009\begin{beispiel}1010Sei $f\in C^2(D,\MdR),x_0\in D, h\in \MdR^n, S[x_0,x_0+h]\subseteq D$.1011$$H_f(x_0):=\begin{pmatrix}1012f_{x_1x_1}(x_0)&\cdots&f_{x_1x_n}(x_0)\\1013f_{x_2x_1}(x_0)&\cdots&f_{x_2x_n}(x_0)\\1014\vdots& &\vdots\\1015f_{x_nx_1}(x_0)&\cdots&f_{x_nx_n}(x_0)\\1016\end{pmatrix}$$1017heißt die \begriff{Hesse-Matrix} von $f$ in $x_0$. 4.1$\folgt H_f(x_0)$ ist symmetrisch. Aus 6.7 folgt:1018$$f(x_0+h)=f(x_0)+\grad f(x_0)\cdot h + \frac{1}{2}Q_B(h)\text{ mit }B=H_f(x_0+\eta h)$$1019\end{beispiel}1020\begin{definition*}1021\begin{tabular}{ll}1022\\ % Bug!1023\\1024\index{Positivdefinitheit}1025\index{Indefinitheit}1026\index{Negativdefinitheit}1027$A$ heißt $\textbf{positiv definit}$ (pd) & $:\equizu$ $Q_A(x)>0\ \forall x\in\MdR^n\ \backslash\ \{0\}$\\1028$A$ heißt $\textbf{negativ definit}$ (nd) & $:\equizu$ $Q_A(x)<0\ \forall x\in\MdR^n\ \backslash\ \{0\}$\\1029$A$ heißt $\textbf{indefinit}$ (id) & $:\equizu \exists u,v\in\MdR^n: Q_A(u)>0, Q_A(v)<0$1030\end{tabular}1031\end{definition*}10321033\begin{beispiele}1034\item $(n=2),\ A=\left(\begin{smallmatrix}a&b\\b&c\end{smallmatrix}\right)$\\1035$Q_A(x,y):=ax^2+2bxy+cy^2\ \left((x,y)\in\MdR^2\right)$. Nachrechnen:\\1036$$aQ_A(x,y)=(ax+by)^2+(\det A)y^2\ \forall (x,y)\in\MdR^2$$ Übung:\\1037\begin{tabular}{ll}1038A ist positiv definit & $\equizu a>0, \det A>0$\\1039A ist negativ definit & $\equizu a<0, \det A>0$\\1040A ist indefinit& $\equizu \det A<0$1041\end{tabular}1042\item $(n=3),\ A=\left(\begin{smallmatrix}1&0&1\\0&0&0\\1&0&1\end{smallmatrix}\right)$\\1043$Q_A(x,y,z)=(x+z)^2\ \forall\ (x,y,z)\in\MdR^3.\ Q_A(0,1,0)=0.\ A$ ist weder pd, noch id, noch nd.1044\item ohne Beweis ($\to$ Lineare Algebra). $A$ symmetrisch $\folgt$ alle \begriff{Eigenwerte} (EW) von $A$ sind $\in\MdR$.\\1045\begin{tabular}{ll}1046A ist positiv definit & $\equizu$ Alle Eigenwerte von $A$ sind $>0$\\1047A ist negativ definit & $\equizu$ Alle Eigenwerte von $A$ sind $<0$\\1048A ist indefinit& $\equizu \exists$ Eigenwerte $\lambda, \mu$ von $A$ mit $\lambda>0,\ \mu<0$1049\end{tabular}1050\end{beispiele}10511052\begin{satz}[Regeln zu definiten Matrizen und quadratischen Formen]1053\begin{enumerate}1054\item $A$ ist positiv definit $\equizu$ $-A$ ist negativ definit1055\item $Q_A(\alpha x)=\alpha^2Q_A(x)\ \forall x\in\MdR^n\ \forall \alpha\in\MdR$1056\item \begin{tabular}{ll}1057A ist positiv definit & $\equizu \exists c>0: Q_A(x)\ge c\|x\|^2\ \forall x\in\MdR^n$\\1058A ist negativ definit & $\equizu \exists c>0: Q_A(x)\le -c\|x\|^2\ \forall x\in\MdR^n$1059\end{tabular}1060\end{enumerate}1061\end{satz}10621063\begin{beweise}1064\item Klar1065\item $Q_A(\alpha x)=(\alpha x)(A(\alpha x))=\alpha^2x(Ax)=\alpha^2Q_A(x)$1066\item "`$\impliedby$"': Klar. "`$\folgt$"': $K:=\{x\in\MdR^n: \|x\|=1\}=\partial U_1(0)$ ist beschränkt und abgeschlossen. $Q_A$ ist stetig auf $K$. 3.3 $\folgt\exists x_0\in K: Q_A(x_0)\le Q_A(x)\ \forall x\in K$. $c:=Q_A(x_0).\ A$ positiv definit, $x_0\ne 0\folgt Q_A(x_0)=c>0$. Sei $x\in\MdR^n\ \backslash\ \{0\};\ z:=\frac{1}{\|x\|}x\folgt z\in K\folgt Q_A(z)\ge c\folgt c \le Q_A\left(\frac{1}{\|x\|}x\right)\gleichnach{(2)}\frac{1}{\|x\|}^2Q_A(x)\folgt Q_A(x)\ge c\|x\|^2$1067\end{beweise}10681069\begin{satz}[Störung von definiten Matrizen]1070\begin{enumerate}1071\item $A$ sei positiv definit \alt{negativ definit}. Dann existiert ein $\ep>0$ mit: Ist $B=(b_{jk})$ eine weitere symmetrische $(n\times n)$-Matrix und gilt: $(*)\ |a_{jk}-b_{jk}|\le\ep\ (j,k=1,\ldots, n)$, so ist B positiv definit \alt{negativ definit}.1072\item $A$ sei indefinit. Dann existieren $u,v\in\MdR^n$ und $\ep>0$ mit: ist $B=(b_{jk})$ eine weitere symmetrische $(n\times n)$-Matrix und gilt: $(*)\ |a_{jk}-b_{jk}|\le\ep\ (j,k=1,\ldots,n)$, so ist $Q_B(u)>0, Q_B(v)<0$. Insbesondere: $B$ ist indefinit.1073\end{enumerate}1074\end{satz}10751076\begin{beweise}1077\item $A$ sei positiv definit $\folgtnach{7.1}\exists c>0: Q_A(x)\ge c\|x\|^2\ \forall x\in\MdR^n$. $\ep:=\frac{c}{2n^2}$. Sei $B=(b_{jk})$ eine symmetrische Matrix mit $(*)$. Für $x=(x_1,\ldots,x_n)\in\MdR^n:\ Q_A(x)-Q_B(x)\le|Q_A(x)-Q_B(x)|=\left|\ds\sum_{j,k=1}^m(a_{jk}-b_{jk})x_jx_k\right|\le\ds\sum_{j,k=1}^n\underbrace{|a_{jk}-b_{jk}|}_{\le\ep}\underbrace{|x_j|}_{\le\|x\|}\underbrace{|x_k|}_{\le\|x\|}\le\ep\|x\|^2n^2=\frac{c}{2n^2}\|x\|^2n^2=\frac{c}{2}\|x\|^2$1078\item $A$ sei indefinit. $\exists u,v\in\MdR^n:\ Q_A(u)>0, Q_A(v)<0$. $\alpha:=\min\left\{\frac{Q_A(u)}{\|u\|^2},\ -\frac{Q_A(v)}{\|v\|^2}\right\}\folgt\alpha>0$. $\ep:=\frac{\alpha}{2n^2}$. Sei $B=(b_{jk})$ eine symmetrische Matrix mit $(*)$.\\1079$Q_A(u)-Q_B(u)\overset{\text{Wie bei (1)}}{\le}\ep u^2\|u\|^2=\frac{\alpha}{2n^2}n^2\|u\|^2=\frac{\alpha}{2}\|u\|^2\le\frac{1}{2}\frac{Q_A(u)}{\|u\|^2}\|u\|^2=\frac{1}{2}Q_A(u) \folgt Q_B(u)\ge\frac{1}{2}Q_A(u)>0$. Analog: $Q_B(v)<0$.1080\end{beweise}10811082\chapter{Extremwerte}1083\def\grad{\mathop{\rm grad}\nolimits}10841085\begin{vereinbarung}1086In diesem Paragraphen sei $\emptyset\ne D \subseteq\MdR^n, f:D\to\MdR$ und $x_0\in D$1087\end{vereinbarung}10881089\begin{definition*}1090\indexlabel{lokal!Maximum}1091\indexlabel{lokal!Minimum}1092\indexlabel{lokal!Extremum}1093\indexlabel{stationärer Punkt}1094\begin{enumerate}1095\item1096$f$ hat in $x_0$ ein \textbf{lokales Maximum} $:\equizu \exists \delta>0:\ f(x)\le f(x_0)\ \forall x\in D \cap U_\delta(x_0)$.\\1097$f$ hat in $x_0$ ein \textbf{lokales Minimum} $:\equizu \exists \delta>0:\ f(x)\ge f(x_0)\ \forall x\in D \cap U_\delta(x_0)$.\\1098\textbf{lokales Extremum} = lokales Maximum oder lokales Minimum1099\item Ist $D$ offen, $f$ in $x_0$ partiell differenzierbar und $\grad f(x_0)=0$, so heißt $x_0$ ein stationärer Punkt.1100\end{enumerate}1101\end{definition*}11021103\begin{satz}[Nullstelle des Gradienten]1104Ist $D$ offen und hat $f$ in $x_0$ ein lokales Extremum und ist $f$ in $x_0$ partiell differenzierbar, dann ist $\grad f(x_0)=0$.1105\end{satz}11061107\begin{beweis}1108$f$ habe in $x_0$ ein lokales Maximum. Also $\exists \delta>0: U_\delta(x_0)\subseteq D$ und $f(x)\le f(x_0)\ \forall x\in U_\delta(x_0)$. Sei $j \in \{1,\ldots,n\}$. Dann: $x_0 + te_j \in U_\delta(x_0)$ für $t\in (-\delta, \delta)$. $g(t):=f(x_0 + te_j)\ (t\in (-\delta, \delta))$. $g$ ist differenzierbar in $t=0$ und $g'(0)=f_{x_j}(x_0)$. $g(t)=f(x_0+te_j)\le f(x_0)=g(0)\ \forall t\in(-\delta,\delta)$. Analysis 1, 21.5 $\folgt g'(0)=0\folgt f_{x_j}(x_0)=0$1109\end{beweis}11101111\begin{satz}[Definitheit und Extremwerte]1112Sei $D$ offen, $f\in C^2(D,\MdR)$ und $\grad f(x_0)=0$.1113\begin{enumerate}1114\item[(i)]1115Ist $H_f(x_0)$ positiv definit $\folgt f$ hat in $x_0$ ein lokales Minimum.1116\item[(ii)]1117Ist $H_f(x_0)$ negativ definit $\folgt f$ hat in $x_0$ ein lokales Maximum.1118\item[(iii)]1119Ist $H_f(x_0)$ indefinit $\folgt f$ hat in $x_0$ \underline{kein} lokales Extremum.1120\end{enumerate}1121\end{satz}11221123\begin{beweis}1124\begin{enumerate}1125\item[(i),]1126(ii) $A:=H_f(x_0)$ sei positiv definit oder negativ definit oder indefinit. Sei $\ep>0$ wie in 7.2. $f\in C^2(D,\MdR)\folgt \exists \delta>0: U_\delta(x_0)\subseteq D$ und $(*)\ |f_{x_jx_k}(x)-f_{x_jx_k}(x_0)|\le\ep\ \forall x\in U_\delta(x_0)\ (j,k=1,\ldots,n)$. Sei $x\in U_\delta(x_0) \ \backslash\ \{x_0\}, h:=x-x_0\folgt x=x_0+h, h\ne 0$ und $S[x_0,x_0+h] \subseteq U_\delta(x_0)$ 6.7$\folgt\exists \eta\in [0,1]:\ f(x)=f(x_0+h)=f(x_0) + \underbrace{h\cdot \grad f(x_0)}_{=0}+\frac{1}{2}Q_B(h)$, wobei $B=H_f(x_0 + \eta h)$. Also: $(**)\ f(x)=f(x_0)+\frac{1}{2}Q_B(h)$. $A$ sei positiv definit \alt{negativ definit} $\folgtnach{7.2} B$ ist positiv definit \alt{negativ definit}. $\folgtwegen{h\ne 0}Q_B(h)\stackrel{(<)}{>}0 \folgtwegen{(**)}f(x)\stackrel{(<)}{>}f(x_0)\folgt f$ hat in $x_0$ ein lokales Minimum \alt{Maximum}.1127\item[(iii)]$A$ sei indefinit und es seien $u, v\in\MdR^n$ wie in 7.2. Wegen 7.1 OBdA: $\|u\|=\|v\|=1$. Dann: $x_0+tu, x_0+tv \in U_\delta(x_0)$ für $t\in(-\delta, \delta)$. Sei $t\in(-\delta, \delta), t\ne 0$. Mit $h:=t\stackrel{(v)}{u}$ folgt aus 7.2 und $(**):\ f(x_0+t\stackrel{(v)}{u})=f(x_0)+\frac{1}{2}Q_B(t\stackrel{(v)}{u})=f(x_0)+\frac{t^2}{2}\underbrace{Q_B(\stackrel{(v)}{u})}_{>0\text{/}<0\text{ (7.2)}}\stackrel{(>)}{<}f(x_0)\folgt f$ hat in $x_0$ kein lokales Extremum.1128\end{enumerate}1129\end{beweis}11301131\begin{beispiele}1132\item $D=\MdR^2, f(x,y)=x^2+y^2-2xy-5$. $f_x=2x-2y, f_y=2y-2x;\ \grad f(x,y)=(0,0)\equizu x=y$. Stationäre Punkte: $(x,x)\ (x\in\MdR)$.\\1133$$f_{xx}=2,\ f_{xy}=-2=f_{yx},\ f_{yy}=2\folgt H_f(x,x)=\begin{pmatrix}2&-2\\-2&2\end{pmatrix}$$1134$\det H_f(x,x)=0\folgt H_f(x,x)$ ist weder pd, noch nd, noch id.\\1135Es ist $f(x,y)=(x-y)^2-5\ge -5\ \forall\ (x,y)\in\MdR^2$ und $f(x,x)=-5\ \forall x\in\MdR$.1136\item $D=\MdR^2, f(x,y)=x^3-12xy+8y^3$.\\1137$f_x=3x^2-12y=3(x^2-4y),\ f_y=-12x+24y^2=12(-x+2y^2)$. $\grad f(x,y)=(0,0)\equizu x^2=4y, x=2y^2\folgt 4y^4=4y\folgt y=0$ oder $y=1\folgt (x,y)=(0,0)$ oder $(x,y)=(2,1)$\\1138$$f_{xx}=6x,\ f_{xy}=-12=f_{yx},\ f_{yy}=48y.\ H_f(0,0)=\begin{pmatrix}0&-12&\\-12&0\end{pmatrix}$$1139$\det H_f(0,0)=-144<0\folgt H_f(0,0)$ ist indefinit $\folgt f$ hat in $(0,0)$ kein lokales Extremum.1140$$H_f(2,1)=\begin{pmatrix}12&-12\\-12&48\end{pmatrix}$$1141$12>0, \det H_f(2,1)>0\folgt H_f(2,1)$ ist positiv definit $\folgt f$ hat in $(2,1)$ ein lokales Minimum.1142\item $K:=\{(x,y)\in\MdR^2: x,y\ge 0, y\le -x+3\}, f(x,y)=3xy-x^2y-xy^2$. Bestimme $\max f(K), \min f(K)$. $f(x,y)=xy(3-x-y).\ K=\partial K \cup K^\circ$. $K$ ist beschränkt und abgeschlossen $\folgtnach{3.3}\exists\ (x_1,y_1), (x_2,y_2)\in K: \max f(K)=f(x_1, y_1), \min f(K)=f(x_2,y_2)$. $f\ge 0$ auf $K$, $f=0$ auf $\partial K$, also $\min f(K)=0$. $f$ ist nicht konstant $\folgt f(x_2,y_2)>0\folgt (x_2,y_2)\in K^\circ\folgtnach{8.1}\grad f(x_1,x_2)=0$. Nachrechnen: $(x_2,y_2)=(1,1); f(1,1)=1=\max f(K)$.1143\end{beispiele}11441145\chapter{Der Umkehrsatz}1146\def\grad{\mathop{\rm grad}\nolimits}11471148\begin{erinnerung}1149Sei $x_0\in\MdR^n$ und $U\subseteq\MdR^n$. $U$ ist eine Umgebung von $x_0\equizu\exists\delta>0:U_\delta(x_0)\subseteq U$1150\end{erinnerung}11511152\begin{wichtigerhilfssatz}[Offenheit des Bildes]1153Sei $\delta>0, f:U_\delta(0)\subseteq\MdR^n\to\MdR^n$ stetig, $f(0)=0$ und $V$ sei eine offene Umgebung von $f(0)\ (=0)$. $U:=\{x\in U_\delta(0):f(x)\in V\}$. Dann ist $U$ eine offene Umgebung von $0$.1154\end{wichtigerhilfssatz}1155\begin{beweis}1156Übung1157\end{beweis}11581159\begin{erinnerung}1160\begriff{Cramersche Regel}: Sei $A$ eine reelle $(n\times n)$-Matrix, $\det A\ne 0$, und $b\in\MdR^n$. Das lineare Gleichungssystem $Ax=b$ hat genau eine Lösung: $x=(x_1,\ldots,x_n)=A^{-1}b$. Ersetze in $A$ die $j$-te Spalte durch $b^\top$. Es entsteht eine Matrix $A_j$. Dann: $x_j=\frac{\det A_j}{\det A}$.1161\end{erinnerung}11621163\begin{satz}[Stetigkeit der Umkehrfunktion]1164Sei $\emptyset\ne D\subseteq \MdR^n, D$ offen, $f\in C^1(D,\MdR^n)$. $f$ sei auf $D$ injektiv und es sei $f(D)$ offen. Weiter sei $\det f'(x)\ne 0\ \forall x\in D$ und $f^{-1}$ sei auf $f(D)$ differenzierbar. Dann: $f^{-1}\in C^1(f(D),\MdR^n)$.1165\end{satz}11661167\begin{beweis}1168Sei $f^{-1}=g=(g_1,\ldots,g_n), g=g(y)$. Zu zeigen: $\frac{\partial g_j}{\partial y_k}$ sind stetig auf $f(D)$. 5.6\folgt $g'(y)\cdot f'(x)=I$ $(n\times n\text{-Einheitsmatrix})$, wobei $y=f(x)\in f(D)\folgt$1169$$1170\begin{pmatrix}1171g_1'(y)\\1172\vdots\\1173g_n'(y)1174\end{pmatrix}\cdot f'(x)=1175\begin{pmatrix}11761 & & 0 \\1177& \ddots &\\11780 & & 11179\end{pmatrix}$$1180$\folgt \grad g_j(y)\cdot f'(x)=e_j\folgt f'(x)^\top\cdot \grad g_j(y)^\top=e_j^\top$. Ersetze in $f'(x)^\top$ die $k$-te Spalte durch $e_j^\top$. Es entsteht die Matrix $A_k(x)=A_k(f^{-1}(y))$. Cramersche Regel $\folgt \frac{\partial g_j}{\partial y_k}(y)=\frac{\det A_k(f^{-1}(y))}{\det f'(x)}=\frac{\det A_k(f^{-1}(y))}{\det f'(f^{-1}(y))}$. $f\in C^1(D,\MdR), f^{-1}$ stetig $\folgt$ obige Definitionen hängen stetig von y ab $\folgt \frac{\partial g_j}{\partial y_k}\in C(f(D),\MdR)$.1181\end{beweis}11821183\begin{satz}[Der Umkehrsatz]1184Sei $\emptyset \ne D \subseteq \MdR ^n$, $D$ sei offen,1185$f\in C^1(D, \MdR^n)$, $x_0\in D$ und $\det f'(x_0) \ne 0$.\\1186Dann existiert eine offene Umgebung $U$ von $x_0$ und eine offene1187Umgebung $V$ von $f(x_0)$ mit:1188\begin{enumerate}[(a)]1189\item $f$ ist auf $U$ injektiv, $f(U)=V$ und1190$\det f'(x) \ne 0 \ \forall x\in U$1191\item Für $f^{-1}: V\to U$ gilt: $f^{-1}$ ist stetig1192differenzierbar auf $V$ und1193\[ (f^{-1})'(f(x)) = (f'(x))^{-1}\ \forall x\in U \]1194\end{enumerate}1195\end{satz}11961197\begin{folgerung}[Satz von der offenen Abbildung]1198$D$ und $f$ seien wie in 9.3 und es gelte: $\det f'(x) \ne 0 \ \forall x\in D$. Dann ist $f(D)$ offen.1199\end{folgerung}12001201\begin{beweis}1202O.B.d.A: $x_0 = 0$, $f(x_0) = f(0) = 0$ und $f'(0) = I$ (=$(n\times n)$-Einheitsmatrix)12031204Die Abbildungen $x \mapsto \det f'(x)$ und $x\mapsto \|f'(x) - I\|$ sind auf D stetig, $\det f'(0) \ne 0$, $\| f'(0)- I \| = 0$. Dann existiert ein $\delta > 0$: $K := U_\delta(0) \subseteq D$, $\overline{K} = \overline{U_\delta(0)} \subseteq D$ und1205\begin{enumerate}1206\item $\det f'(x) \ne 0 \ \forall x\in\overline{K}$ und1207\item $\|f'(x) - I \| \le \frac{1}{2n} \ \forall x\in\overline{K}$12081209\item \textbf{Behauptung:} $\frac{1}{2} \|u-v\| \le \|f(u) - f(v)\| \ \forall u,v\in\overline{K}$, insbesondere ist $f$ injektiv auf $\overline{K}$12101211\item $f^{-1}$ ist stetig auf $f(\overline{K})$: Seien $\xi, \eta \in f(\overline{K})$, $u:=f^{-1}(\xi)$, $v:= f^{-1}(\eta) \folgt u,v \in \overline{K}$ und $\|f^{-1}(\xi) - f^{-1}(\eta)\| = \|u-v\| \stackrel{\text{(3)}}{\le} 2\|f(u) - f(v)\| = 2\|\xi - \eta\|$1212\end{enumerate}12131214Beweis zu (3): $h(x) := f(x) - x \ (x\in D) \folgt h\in C^1(D,\MdR^n)$ und $h'(x) = f'(x) - I $. Sei $h=(h1,\ldots,h_n)$. Also: $h' = \begin{pmatrix} h_1' \\ \vdots \\ h_n' \end{pmatrix}$. Seien $u,v\in \overline{K}$ und $j\in \{1,\ldots,n\}$.12151216$|h_j(u) - h_j(v)| \gleichnach{6.1} |h_j'(\xi) \cdot (u-v)| \stackrel{\text{CSU}}{\le} \|h_j'(\xi)\| \|u-v\| \le \|h'(\xi)\| \|u-v\|$, $\xi \in S[u,v] \in \overline{K}$. (2) $\folgt \le \frac{1}{2n}\|u-v\|$ \\1217$\folgt \|h(u) - h(v)\| = \left(\sum_{j=1}^{n}(h_j(n) - h_j(v))^2\right)^{\frac{1}{2}} \le \left( \sum_{j=1}^n \frac{1}{4n^2}\|u-v\|^2\right)^{\frac{1}{2}} = \frac{1}{2n}\|u-v\|\sqrt{n} \le \frac{1}{2}\|u-v\| \folgt \|u-v\| - \|f(u)-f(v)\| \le \|f(u) - f(v) - (u-v)\| = \|h(u) - h(v)\| \le \frac{1}{2}\|u-v\| \folgt$ (3)12181219$V:=U_{\frac{\delta}{4}}(0)$ ist eine offene Umgebung von $f(0) \ (=0)$. $U:=\{x\in K: f(x) \in V\}$ Klar: $U\subseteq K \subseteq \overline{K}$, $0\in U$, 9.1 $\folgt$ $U$ ist eine offene Umgebung von 0. (3) $\folgt$ $f$ ist auf $U$ injektiv. (1) $\folgt \det f'(x) \ne 0 \ \forall x\in U$. (4) $\folgt$ $f^{-1}$ ist stetig auf $f(U)$. Klar: $f(U) \subseteq V$. Für (a) ist noch zu zeigen: $V\subseteq f(U)$.12201221Sei $y\in V$. $w(x) := \| f(x) - y\|^2 = (f(x) - y)\cdot(f(x)-y) \folgt w\in C^1(D,\MdR)$ und (nachzurechnen) $w'(x) = 2(f(x)-y)\cdot f'(x)$. $\overline K$ ist beschränkt und abgeschlossen $\folgtnach{3.3} \exists x_1 \in \overline K: \text{ (5) } w(x_1) \le w(x) \ \forall x\in\overline K$.12221223\textbf{Behauptung:} $x_1 \in K$. \\1224Annahme: $x_1\ne K \folgt x_1 \in \partial K \folgt \| x_1 \| = \delta$. $2\sqrt {w(0)} = 2\|f(0) - y\| = 2\|y\|\le 2 \frac{\delta} 4 = \frac \delta 2 = \frac{\|x_1\|} 2 = \frac 1 2 \|x_1 - 0 \| \stackrel{\text{(3)}}{\le} \|f(x_1) - f(0)\| = \|f(x_1) - y + y - f(0)\| \le \|f(x_1)-y\| -\|f(0) - y\| = \sqrt{w(x_1)} + \sqrt{w(0)} \folgt \sqrt{w(0)} < \sqrt{w(x_1)} \folgt w(0) < w(x_1) \overset{\text{(5)}}{\le} w(0)$, Widerspruch. Also: $x_1\in K$12251226(5) $\folgt w(x_1) \le w(x) \ \forall x\in K$. 8.1 $\folgt w'(x_1) = 0 \folgt \left( f(x_1) - y \right) \cdot f'(x_1) = 0$; (1) $\folgt f'(x_1)$ ist invertierbar $\folgt y = f(x_1) \folgt x_1 \in U \folgt y=f(x_1) \in f(U)$. Also: $f(U) = V$. Damit ist (a) gezeigt.12271228% Laut Schmöger 5.6, bei uns 5.5. Wessen Zählung ist falsch? Wer Lust hat, mal überprüfen1229(b): Wegen 5.5 und 9.2 ist nur zu zeigen: $f^{-1}$ ist differenzierbar auf $V$. Sei $y_1 \in V$, $y \in V\backslash\{y_1\}$, $x_1 := f^{-1}(y_1)$, $x := f^{-1}(y)$; $L(y) := \frac{f^{-1}(y) - f^{-1}(y_1) - f'(x_0)^{-1}(y-y_1)}{\|y-y_1\|}$. zu zeigen: $L(y) \to 0 \ (y-y_1)$. $\varrho(x) := f(x)-f(x_1)-f'(x_1)(x-x_1)$. $f$ ist differenzierbar in $x_1$ $\folgt \frac{\varrho(x)}{\|x-x_1\|} \to 0 \ (x\to x_1)$.12301231$$f'(x_1)^{-1}\varrho(x) = f'(x_1)^{-1}(y-y_1) - (f^{-1}(y) - f^{-1}(y_1)) = -\|y-y_1\| L(y)$$1232$$\folgt L(y) = -f'(x_1)^{-1} \frac{\varrho(x)}{\|y-y_1\|} = - f'(x_1)^{-1} \underbrace{\frac{\varrho(x)}{\|x-x_1\|}}_{\to 0\ (x\to x_1)} \cdot \underbrace{\frac{\|x-x_1\|}{\|f(x)-f(x_1)}}_{\le 2, \text{ nach (3)}}$$1233Für $y\to y_1$, gilt (wegen (4)) $x\to x_1 \folgt L(y) \to 0$.12341235\end{beweis}12361237\begin{beispiel}12381239$$f(x,y) = (x \cos y, x \sin y)$$12401241$$f'(x,y) = \begin{pmatrix} \cos y & -x \sin y \\ \sin y & x \cos y \end{pmatrix}, \det f'(x,y) = x \cos^2 y + x \sin^2 y = x$$12421243$D:=\{(x,y) \in \MdR^2: x\ne 0\}$. Sei $(\xi, \eta)\in D$ 9.3 $\folgt \exists$ Umgebung $U$ von $(\xi, \eta)$ mit: $f$ ist auf $U$ injektiv $(*)$. z.B. $(\xi, \eta) = (1, \frac{\pi}{2}) \folgt f(1,\frac{\pi}2) = (0,1)$. $f'(1,\frac{\pi}2) = \begin{pmatrix}0 & -1 \\ 1 & 0 \end{pmatrix}$, $(f^{-1})(0,1) = f'(1,\frac{\pi}{2})^{-1} = \begin{pmatrix}0 & 1 \\ -1 & 0\end{pmatrix}$.12441245\end{beispiel}12461247\paragraph{Beachte:} $f$ ist auf $D$ "`lokal"' injektiv (im Sinne von $(*)$), aber $f$ ist auf $D$ \emph{nicht} injektiv, da $f(x,y) = f(x,y+2 k\pi) \ \forall x,y\in\MdR \ \forall k\in\MdZ$.12481249\chapter{Implizit definierte Funktionen}1250\def\grad{\mathop{\rm grad}\nolimits}1251\def\MdU{\ensuremath{\mathbb{U}}}12521253\begin{beispiele}1254\item $f(x,y)=x^2+y^2-1$. $f(x,y)=0\equizu y^2=1-x^2\equizu y=\pm\sqrt{1-x^2}$. \\1255Sei $(x_0, y_0)\in\MdR^2$ mit $f(x_0, y_0)=0$ und $y_0\overset{(<)}{>}0$. Dann existiert eine Umgebung $U$ von $x_0$ und genau eine Funktion $g:U\to\MdR$ mit $g(x_0)=y_0$ und $f(x,g(x))=0\ \forall x \in U$, nämlich $g(x)=\overset{(-\sqrt{\cdots})}{\sqrt{1-x^2}}$12561257\textbf{Sprechweisen}: "`$g$ ist implizit durch die Gleichung $f(x,y)=0$ definiert"' oder "`die Gleichung $f(x,y)=0$ kann in der Form $y=g(x)$ aufgelöst werden"'12581259\item $f(x,y,z)=y+z+\log(x+z)$. Wir werden sehen: $\exists$ Umgebung $U\subseteq \MdR^2$ von $(0,1)$ und genau eine Funktion $g:U\to\MdR$ mit $g(0,-1)=1$ und $f(x,y,g(x,y))=0\ \forall\ (x,y)\in U$.1260\end{beispiele}12611262\textbf{Der allgemeine Fall}:1263Es seien $p,n\in\MdN,\ \emptyset\ne D\subseteq\MdR^{n+p},\ D$ offen, $f=(f_1,\ldots, f_p) \in C^1(D,\MdR^p)$. Punkte in $D$ (bzw. $\MdR^{n+p}$) bezeichnen wir mit $(x,y)$, wobei $x=(x_1,\ldots, x_n)\in\MdR^n$ und $y=(y_1,\ldots, y_p)\in\MdR^p$, also $(x,y)=(x_1,\dots,x_n,y_1,\ldots,y_p)$. Damit:1264$$ f'=1265\underbrace{1266\left(1267\begin{array}{ccc|}1268\frac{\partial f_1}{\partial x_1} & \cdots & \frac{\partial f_1}{\partial x_n} \\1269\vdots & & \vdots \\1270\frac{\partial f_p}{\partial x_1} & \cdots & \frac{\partial f_p}{\partial x_n} \\1271\end{array}1272\right.1273}_{=:\frac{\partial f}{\partial x}\ (p \times n)\text{-Matrix}}1274\underbrace{1275\left.1276\begin{array}{ccc}1277\frac{\partial f_1}{\partial y_1} & \cdots & \frac{\partial f_1}{\partial y_p} \\1278\vdots & & \vdots \\1279\frac{\partial f_p}{\partial y_1} & \cdots & \frac{\partial f_p}{\partial y_p} \\1280\end{array}1281\right)1282}_{=:\frac{\partial f}{\partial y}\ (p\times p)\text{-Matrix}}1283\text{; also } f'(x,y)=\left(\frac{\partial f}{\partial x}(x,y),\ \frac{\partial f}{\partial y}(x,y)\right)$$12841285\begin{satz}[Satz über implizit definierte Funktionen]1286Sei $f:D \rightarrow \MdR^p,\ f \in C^1(D, \MdR^p),\ (x_0, y_0) \in D,\ f(x_0, y_0)=0$ und1287$\det\frac{\partial f}{\partial y}(x_0, y_0)\ne 0$. \\1288Dann existiert eine offene Umgebung $U\subseteq \MdR^n$ von $x_0$ und1289genau eine Funktion $g:U\to D \subseteq \MdR^p$ mit:1290\begin{enumerate}1291\item $(x, g(x))\in D\ \forall x\in U$1292\item $g(x_0)=y_0$1293\item $f(x,g(x))=0\ \forall x\in U$, mit $V = g(U)$ gilt:1294$V$ ist offen und für $(a, b) \in U \times V$ mit1295$f(a,b) = 0$ gilt: $b = g(a)$1296\item $g \in C^1(U,\MdR^p)$1297\item $\det\frac{\partial f}{\partial y}(x, g(x))\ne0\ \forall x\in U$1298\item $g'(x)=-\left(\frac{\partial f}{\partial y}(x, g(x))\right)^{-1} \cdot \frac{\partial f}{\partial x}(x, g(x))\ \forall x\in U$1299\end{enumerate}1300\end{satz}13011302\begin{beweis}1303Definition: $F:D\to\MdR^{n+p}$ durch $F(x,y):=(x,f(x,y))$. Dann: $F\in C^1(D,\MdR^{n+p})$ und1304$$1305F'(x,y)=\left(\begin{array}{c|c}1306\begin{array}{ccc}13071 & & 0 \\1308& \ddots & \\13090 & & 1 \\1310\end{array} &1311\begin{array}{ccc}13120 & \cdots & 0 \\1313\vdots & & \vdots \\13140 & \cdots & 0 \\1315\end{array} \\1316\hline\\1317\ds\frac{\partial f}{\partial x}(x,y)&1318\ds\frac{\partial f}{\partial y}(x,y)1319\end{array}1320\right)$$1321Dann: \begin{enumerate}1322\item[(I)] $\det F'(x,y)\gleichnach{LA}\det\frac{\partial f}{\partial y}(x,y)\ ((x, y) \in D)$, insbesondere: $\det F'(x_0, y_0)\ne 0$. Es ist $F(x_0, y_0)=(x_0, 0)$. 9.3$\folgt\exists$ eine offene Umgebung $\MdU$ von $(x_0, y_0)$ mit: $\MdU\subseteq D, f(\MdU)=\vartheta$. $F$ ist auf $\MdU$ injektiv, $F^{-1}:\vartheta\to\MdU$ ist stetig differenzierbar und1323\item[(II)] $\det F'(x,y)\gleichnach{(I)}\det\frac{\partial f}{\partial y}(x,y)\ne 0\ \forall\ (x,y)\in\MdU$1324\end{enumerate}1325\textbf{Bezeichnungen}: Sei $(s,t)\in\vartheta\ (s\in\MdR^n, t\in\MdR^p)$, $F^{-1}(s,t)=:(u(s,t),v(s,t))$, also $u:\vartheta\to\MdR^n$ stetig differenzierbar, $v:\vartheta\to\MdR^p$ stetig differenzierbar. Dann: $(s,t)=F(F^{-1}(s,t))=(u(s,t),f(u(s,t),v(s,t)))\folgt u(s,t)=s\folgt F^{-1}(s,t)=(s,v(s,t))$. Für $(x,y)\in\MdU: f(x,y)=0\equizu F(x,y)=(x,0)\equizu(x,y)=F^{-1}(x,0)=(x,v(x,0))\equizu y=v(x,0)$, insbesondere: $y_0=v(x_0,0)$. $U:=\{x\in\MdR^n: (x,0)\in\vartheta\}$. Es gilt: $x_0\in U$. Übung: $U$ ist eine offene Umgebung von $x_0$.13261327\textbf{Definition}: $g:U\to\MdR^p$ durch $g(x):=v(x,0)$, für $x\in U$ gilt: $(x,0)\in\vartheta\folgt F^{-1}(x,0)=(x,v(x,0))=(x,g(x))\in \MdU$. Dann gelten: (1), (2), (3) und (4). (5) folgt aus (II).13281329Zu (6): Definition für $x\in U: \psi(x):=(x,g(x)), \psi\in C^1(U,\MdR^{n+p}),$1330$$\psi'(x)=\left(\begin{array}{c}1331\begin{array}{ccc}13321 & & 0 \\1333& \ddots & \\13340 & & 1 \\1335\end{array}\\1336\hline \\1337\ds{g'(x)}1338\end{array}\right)$$1339(3)$\folgt 0=f(\psi(x))\ \forall x\in U$. 5.4$\folgt 0=f'(\psi(x))\cdot\psi'(x)=\left(\frac{\partial f}{\partial x}(x, g(x))\ \vline \frac{\partial f}{\partial y}(x, g(x))\right)\cdot\psi'(x)\gleichnach{LA}\frac{\partial f}{\partial x}(x, g(x)) + \frac{\partial f}{\partial y}(x, g(x))\cdot g'(x)\ \forall x\in U$. (5) $\folgt \frac{\partial f}{\partial y}(x, g(x))$ invertierbar, Multiplikation von links mit $\frac{\partial f}{\partial y}(x, g(x))^{-1}$ liefert (6).1340\end{beweis}13411342\begin{beispiel}1343$f(x,y,z)=y+z+\log(x+z)$. Zeige: $\exists$ offene Umgebung $U$ von $(0,1)$ und genau eine stetig differenzierbare Funktion $g:U\to\MdR$ mit $g(0,-1)=1$ und $f(x,y,g(x,y))=0\ \forall (x,y)\in U$. Berechne $g'$ an der Stelle $(0,-1)$.\\1344$f(0,-1,1)=0$, $f_z=1+\frac{1}{x+z}$; $f_z(0,-1,1)=2\ne 0$. Die Behauptung folgt aus dem Satz über impliziert definierte Funktionen. Also: $0=y+g(x,y)+\log(x+g(x,y))\ \forall (x,y)\in U$.\\1345Differentiation nach $x$: $0=g_x(x,y)+\frac{1}{x+g(x,y)}(1+g_x(x,y))\ \forall (x,y)\in U\overset{(x,y)=(0,-1)}{\folgt}0=g_x(0,-1)+\frac{1}{1}(g_x(0,-1)+1)\folgt g_x(0,-1)=-\frac{1}{2}$.\\1346Differentiation nach $y$: $0=1+g_y(x,y)+\frac{1}{x+g(x,y)}g_y(x,y)\ \forall (x,y)\in U \folgtnach{(x,y)=(0,-1)}g_y(0,-1)=-\frac{1}{2}$. Also: $g'(0,-1)=(-\frac{1}{2},-\frac{1}{2})$.1347\end{beispiel}13481349\chapter{Extremwerte unter Nebenbedingungen}13501351\begin{definition}1352\indexlabel{Einschränkung einer Funktion}1353Seien $M,N$ Mengen $\ne \emptyset,\ f:M\to N$ eine Funktion und1354$\emptyset \ne T \subseteq M$. Die Funktion1355$f_{|_T}: T \to N,\ f_{|_T}(x) := f(x)\ \forall x \in T$ heißt die1356\textbf{Einschränkung} von $f$ auf $T$.1357\end{definition}13581359In diesem Paragraphen gelte stets: $\emptyset \ne D \subseteq \MdR^n,\ D$ offen, $f \in C^1(D,\MdR),\ p \in \MdN,\ p<n$ und $\varphi = (\varphi_1,\ldots,\varphi_p) \in C^1(D,\MdR^p)$. Es sei $T:=\{x\in D: \varphi(x) = 0\} \ne \emptyset.$13601361\begin{definition}1362\indexlabel{lokal!Extremum unter einer Nebenbedingung}1363$f$ hat in $x_0\in D$ ein \textbf{lokales Extremum unter der Nebenbedingung1364$\varphi = 0$} $:\equizu x_0 \in T$ und $f_{|_T}$ hat in $x_0$ ein lokales Extremum.1365\end{definition}13661367Wir führen folgende Hilfsfunktion ein: Für $x=(x_1,\ldots,x_n) \in D$ und1368$\lambda = (\lambda_1,\ldots,\lambda_p) \in \MdR^p$ gilt:1369\[ H(x,\lambda) := f(x) + \lambda\cdot\varphi(x) = f(x) + \lambda_1\varphi_1(x) + \cdots + \lambda_p\varphi_p(x)\]13701371Es ist1372\[ H_{x_j} = f_{x_j} + \lambda_1\frac{\partial\varphi_1}{\partial x_j} + \cdots +\lambda_p\frac{\partial\varphi_p}{\partial x_j}\ (j=1,\ldots,n),\ H_{\lambda_j} = \varphi_j ~~~ (j = 1, \dots, p)\]13731374Für $x_0 \in D$ und $\lambda_0 \in \MdR^p$ gilt:13751376$H'(x_0,\lambda_0) = 0 \equizu f'(x_0) + \lambda_0\varphi'(x_0) = 0$. Außerdem gilt:\\1377$\varphi(x_0) = 0 \equizu f'(x_0) + \lambda_0\varphi'(x_0) = 0$ und $x_0 \in T$ (I)13781379\begin{satz}[Multiplikationenregel von Lagrange]1380\indexlabel{Multiplikator}1381$f$ habe in $x_0\in D$ eine lokales Extremum unter der Nebenbedingung1382$\varphi=0$ und es sei Rang $\varphi'(x_0) = p$. Dann existiert ein1383$\lambda_0 \in \MdR^p$ mit: $H'(x_0,\lambda_0) = 0$ ($\lambda_0$ heißt \textbf{Multiplikator}).1384\end{satz}13851386\begin{beispiel}1387\begin{align*}1388f(x, y) &:= x^2 + y^2\\1389\varphi(x, y) &:= x + y -1\\1390\end{align*}1391(Also $n=2, p=1$), $\varphi(x,y)' = (1,1)$, $\text{Rang } \varphi(x,y)' = 1$\\1392$H(\uwave{x,y}, \lambda) = x^2 + y^2 + \lambda (x+y-1)$\\1393\begin{align*}1394H_x &= 2x + \lambda \stackrel{!}{=} 0\\1395H_y &= 2y + \lambda \stackrel{!}{=} 0\\1396H_\lambda &= x+y-1 \stackrel{!}{=} 0\\1397\end{align*}1398$\Rightarrow x=y \Rightarrow 2x-1 = 0 \Rightarrow x = y = \frac{1}{2}$.\\1399Extremwertverdächtig: $(\frac{1}{2}, \frac{1}{2})$1400\end{beispiel}14011402\begin{folgerung}1403$T$ sei kompakt \folgtwegen{3.3} $\exists a,b \in T: f(a) = \max f(T),\ f(b) = \min f(T).$1404Ist Rang $\varphi'(\underset{b}{a}) = p \folgt \exists \lambda_0 \in \MdR^p: H'(\underset{b}{a},\lambda_0) = 0$.1405\end{folgerung}14061407\begin{beweis}1408Es ist $x_0 \in T$ und14091410$$\varphi'(x_0) =1411\underbrace{1412\left(1413\begin{array}{ccc|}1414\frac{\partial \varphi_1}{\partial x_1}(x_0) & \cdots & \frac{\partial \varphi_1}{\partial x_p}(x_0)\\1415\vdots & & \vdots\\1416\frac{\partial \varphi_p}{\partial x_1}(x_0) & \cdots & \frac{\partial \varphi_p}{\partial x_p}(x_0)\\1417\end{array}1418\right.1419}_{=:A}1420\left.1421\begin{array}{cc}1422\cdots & \frac{\partial \varphi_1}{\partial x_n}(x_0)\\1423& \vdots\\1424\cdots & \frac{\partial \varphi_p}{\partial x_n}(x_0)\\1425\end{array}1426\right)$$14271428Rang $\varphi'(x_0) = p \folgt$ o.B.d.A.: $\det A \ne 0.$14291430Für $x=(x_1,\ldots,x_n) \in D$ schreiben wir $x=(y,z)$, wobei $y=(x_1,\dots,x_p),\ z=(x_{p+1},\ldots,x_n).$ Insbesondere ist $x_0=(y_0,z_0)$. Damit gilt: $\varphi(y_0,z_0) = 0$ und $\det \frac{\partial \varphi}{\partial y}(y_0,z_0) \ne 0$.14311432Aus 10.1 folgt: $\exists$ offene Umgebung $U \subseteq \MdR^{n-p}$ von $z_0,\ \exists$ offene Umgebung $V \subseteq \MdR^p$ von $y_0$ und es existiert $g \in C^1(U,\MdR^p)$ mit:14331434\begin{itemize}1435\item[(II)] $g(z_0)=y_0$1436\item[(III)] $\varphi(g(z),z) = 0\ \forall z \in U$1437\item[(IV)] $g'(z_0) = -(\frac{\partial \varphi}{\partial y}\underbrace{(g(z_0),z_0)}_{=x_0})^{-1}\frac{\partial \varphi}{\partial z}\underbrace{(g(z_0),z_0)}_{=x_0}$1438\end{itemize}14391440(III) $\folgt (g(z),z) \in T\ \forall z \in U$. Wir definieren $h(z)$ durch1441$$h(z) := f(g(z),z)\ (z \in U)$$14421443Dann hat $h$ in $z_0$ ein lokales Extremum (\emph{ohne} Nebenbedingung). Damit gilt nach 8.1:14441445$$0=h'(z_0) \gleichnach{5.4} f'(g(z_0),z_0)\cdot\left(1446\begin{array}{c}1447g'(z_0)\\1448I1449\end{array}\right) = \left(1450\begin{array}{c|c}1451\frac{\partial f}{\partial y}(x_0) & \frac{\partial f}{\partial z}(x_0)1452\end{array}\right) \cdot \left(1453\begin{array}{c}1454g'(z_0)\\1455I1456\end{array}\right) = \frac{\partial f}{\partial y}(x_0) g'(z_0) + \frac{\partial f}{\partial z}(x_0)$$14571458$$\gleichnach{(IV)} \underbrace{\frac{\partial f}{\partial y}(x_0) \left(-\frac{\partial \varphi}{\partial y}(x_0)\right)^{-1}}_{=: \lambda_0 \in \MdR^p} \frac{\partial \varphi}{\partial z}(x_0) + \frac{\partial f}{\partial z}(x_0) \folgt \frac{\partial f}{\partial z}(x_0) + \lambda_0 \frac{\partial \varphi}{\partial z}(x_0) = 0\text{ (V)}$$14591460$\ds{\lambda_0 = \frac{\partial f}{\partial y}(x_0) \left(-\frac{\partial \varphi}{\partial y}(x_0)\right)^{-1} \folgt \frac{\partial f}{\partial y}(x_0) + \lambda_0 \frac{\partial \varphi}{\partial y}(x_0) = 0}$ (VI)14611462Aus (V),(VI) folgt: $f'(x_0) + \lambda_0\varphi'(x_0) = 0 \folgtnach{(I)} H'(x_0,\lambda_0) = 0.$14631464\end{beweis}14651466\begin{beispiel}1467$(n=3,p=2)\ f(x,y,z) = x+y+z,\ T:=\{(x,y,z) \in \MdR^3: x^2+y^2=2,\ x+z=1\},\ \varphi(x,y,z) = (x^2+y^2-2,x+z-1).$14681469Bestimme $\max f(T),\ \min f(T)$. Übung: $T$ ist beschränkt und abgeschlossen $\folgtnach{3.3} \exists a,b \in T: f(a) = \max f(T),\ f(b) = \min f(T)$.14701471$$\varphi'(x,y,z) = \left(\begin{array}{ccc}14722x & 2y & 0\\14731 & 0 & 11474\end{array}\right)$$14751476Rang $\varphi'(x,y,z) = 1 < p=2 \equizu x=y=0.\ a,b\in T \folgt$ Rang $\varphi'(a) =$ Rang $\varphi'(b) = 2$14771478\def\shouldbe{\overset{!}{=}}14791480$H(x,y,z,\lambda_1,\lambda_2) = x+y+z+\lambda_1(x^2+y^2-2) + \lambda_2(x+z-1)$\\1481\begin{tabbing}1482$H_x=1+2\lambda_1x+\lambda_2$ \= $\shouldbe 0$ (1)\\1483$H_y=1+2\lambda_1y $ \> $\shouldbe 0$ (2)\\1484$H_z=1+\lambda_2 $ \> $\shouldbe 0$ (3)\\1485$H_{\lambda_1}=x^2+y^2-2 $ \> $\shouldbe 0$ (4)\\1486$H_{\lambda_2}=x+z-1 $ \> $\shouldbe 0$ (5)1487\end{tabbing}14881489(3) $\folgt \lambda_2=-1 \folgtnach{(1)} 2\lambda_1x=0$; (2) $\folgt \lambda_1\ne0 \folgt x=0 \folgtnach{(5)} z=1$; (4) $\folgt y = \pm \sqrt{2}$1490149111.2 $\folgt a,b \in \{(0,\sqrt{2},1),(0,-\sqrt{2},1)\}$14921493$f(0,\sqrt{2},1) = 1+\sqrt{2} = \max f(T);\ f(0,-\sqrt{2},1) = 1-\sqrt{2} = \min f(T)$14941495\end{beispiel}14961497\paragraph{Anwendung}1498Sei $A$ eine reelle, \emph{symmetrische} $(n\times n)$-Matrix. Beh: $A$ besitzt einen reellen EW.14991500\begin{beweis}1501$f(x) := x\cdot(Ax) = Q_A(x)\ (x \in \MdR^n),\ T:= \{x \in \MdR^n: \|x\|=1\} = \partial U_1(0)$ ist beschränkt und abgeschlossen.15021503$\varphi(x) := \|x\|^2-1 = x\cdot x-1;\ \varphi'(x) = 2x,\ f'(x) = 2Ax$.150415053.3 $\folgt \exists x_0 \in T: f(x_0) = \max f(T);\ \varphi'(x) = 2(x_1,\ldots,x_n);\ x_0 \in T \folgt$ Rang $\varphi'(x_0) = 1\ (=p)$1506150711.2 $\folgt \exists \lambda_0 \in \MdR: H'(x_0,\lambda_0) = 0;\ h(x,\lambda) = f(x)+\lambda\varphi(x);\ H'(x,\lambda) = 2Ax+2\lambda x$15081509$\folgt 0 = 2(Ax_0+\lambda_0 x_0) \folgt Ax_0 = (-\lambda_0) x_0,\ x_0 \ne 0 \folgt -\lambda_0$ ist ein EW von $A$.1510\end{beweis}1511\chapter{Wege im $\MdR^n$}15121513\indexlabel{Weg-}1514\indexlabel{Bogen}1515\indexlabel{Anfangspunkt}1516\indexlabel{Endpunkt}1517\indexlabel{Weg-!inverser}1518\indexlabel{Inverser Weg}1519\indexlabel{Parameter-!Intervall}1520\begin{definition}1521\begin{enumerate}1522\item Sei $[a,b]\subseteq \MdR$ und $\gamma: [a,b] \to \MdR^n$ sei stetig. Dann heißt $\gamma$ ein \textbf{Weg} im $\MdR^n$1523\item Sei $\gamma :[a,b] \to \MdR^n$ ein Weg. $\Gamma_\gamma := \gamma([a,b])$ heißt der zu $\gamma$ gehörende \textbf{Bogen}, $\Gamma_\gamma \subseteq \MdR^n$. 3.3 \folgt{} $\Gamma_\gamma$ ist beschränkt und abgeschlossen.1524$\gamma(a)$ heißt der \textbf{Anfangspunkt} von $\gamma$, $\gamma(b)$ heißt der \textbf{Endpunkt} von $\gamma$. $[a,b]$ heißt \textbf{Parameterintervall} von $\gamma$. \\1525$\gamma$ heißt \textbf{geschlossen} $:\equizu \gamma(a) = \gamma(b)$.1526\item $\gamma^-:[a,b]\to \MdR^n$, definiert durch $\gamma^-(t):=\gamma(b+a-t)$ heißt der zu $\gamma$ \textbf{inverse Weg}. Beachte: $\gamma^- \ne \gamma$, aber $\Gamma_\gamma = \Gamma_{\gamma^-}$.1527\end{enumerate}1528\end{definition}15291530\begin{beispiele}1531\item Sei $x_0, y_0\in\MdR^n$, $\gamma(t) := x_0 + t(y_0-x_0)$, $t\in[0,1]$. $\Gamma_\gamma=S[x_0,y_0]$1532\item Sei $r>0$ und $\gamma(t) := (r \cos t, r \sin t)$, $t\in[0,2\pi]$\\ $\Gamma_\gamma=\{(x,y)\in\MdR^2: x^2+y^2=r^2\} = \partial U_r(0)$ \\1533$\tilde\gamma(t) := (r \cos t, r \sin t)$, $t\in[0,4\pi]$. $\tilde\gamma \ne \gamma$, aber $\Gamma_{\tilde\gamma} = \Gamma_\gamma$.1534\item Sei $f:[a,b] \to \MdR$ stetig und $\gamma(t) := (t, f(t)) \quad (t \in [a,b])$. Dann: $\Gamma_\gamma = $ Graph von $f$.1535\end{beispiele}15361537\begin{erinnerung}1538$\Z$ ist die Menge aller Zerlegungen von $[a,b]$1539\end{erinnerung}15401541\begin{definition}1542Sei $\gamma:[a,b]\to \MdR^n$ ein Weg. Sei $Z=\{t_0, \ldots, t_m\} \in \Z$.\\1543$$L(\gamma,Z):= \sum_{j=1}^m\|\gamma(t_j) - \gamma(t_{j-1})\|$$1544Übung: Sind $Z_1,Z_2\in\Z$ und gilt $Z_1 \subseteq Z_2 \folgt L(\gamma,Z_1) \le L(\gamma,Z_2)$15451546$\gamma$ heißt \textbf{rektifizierbar} (rb) \indexlabel{Rektifizierbarkeit} $:\equizu$ $\exists M\ge0: L(\gamma,Z)\le M\ \forall Z\in\Z$. In diesem Fall heißt $L(\gamma) := \sup\{L(\gamma,Z): Z\in\Z\}$ die \textbf{Länge} von $\gamma$\indexlabel{Länge}.15471548Ist $n=1$, so gilt: $\gamma$ ist rektifizierbar $\equizu$ $\gamma\in \BV[a,b]$. In diesem Fall: $L(\gamma) = V_\gamma([a,b])$.1549\end{definition}15501551\begin{satz}[Rektifizierbarkeit und Beschränkte Variation]1552Sei $\gamma = (\eta_1, \ldots, \eta_n):[a,b]\to\MdR^n$ ein Weg. $\gamma$ ist rektifizierbar $\equizu$ \mbox{$\eta_1,\ldots,\eta_n\in \BV[a,b]$}.1553\end{satz}15541555\begin{beweis}1556Sei $Z = \{t_0,\ldots,t_n\} \in \Z$ und $J=\{1,\ldots,n\}$.\\1557$|\eta_j(t_k)-\eta_j(t_{k-1})| \stackrel{\text{1.7}}{\le} \|\gamma(t_k) - \gamma(t_{k-1})\| \stackrel{\text{1.7}}\le \sum_{\nu=1}^n |\eta_\nu(t_k) - \eta_\nu(t_{k-1})\|$. Summation über $k$ $\folgt$ $V_{\eta_j} \le L(\gamma,Z) \le \sum_{k=1}^m\sum_{\nu=1}^n |\eta_\nu(t_k)-\eta_\nu(t_{k-1})| = \sum_{\nu=1}^n V_{\eta_\nu}(Z) \folgt$ Behauptung1558\end{beweis}1559\paragraph{Übung:} $\gamma$ ist rektifizierbar $\equizu$ $\gamma^-$ ist rektifizierbar. In diesem Fall: \mbox{$L(\gamma) = L(\gamma^-)$}15601561\paragraph{Summe von Wegen:}Gegeben: $a_0, a_1,\ldots a_l \in \MdR$, $a_0<a_1<a_2<\ldots<a_l$ und Wege $\gamma_k:[a_{k-1},a_k] \to \MdR^n$ $(k=1,\ldots,l)$ mit : $\gamma_k(a_k) = \gamma_{k+1}(a_k)$ $(k=1,\ldots,l-1)$.1562Definiere $\gamma:[a_0,a_l]\to\MdR^n$ durch $\gamma(t):=\gamma_k(t)$, falls $t\in[a_{k-1},a_k]$. $\gamma$ ist ein Weg im $\MdR^n$, $\Gamma_\gamma = \Gamma_{\gamma_1} \cup \Gamma_{\gamma_2} \cup \cdots \cup \Gamma_{\gamma_l}$. $\gamma$ heißt die Summe der Wege $\gamma_1,\ldots,\gamma_l$ und wird mit. $\gamma = \gamma_1 \oplus \gamma_2 \oplus \cdots \oplus \gamma_l$ bezeichnet. \indexlabel{Summe von Wegen}15631564\begin{bemerkung}1565Ist $\gamma:[a,b]\to\MdR^n$ ein Weg und $Z=\{t_0,\ldots,t_m\}\in\Z$ und $\gamma_k:=\gamma_{|_{[t_{k-1},t_k]}}$ $(k=1,\ldots,m)$ $\folgt$ $\gamma = \gamma_1 \oplus \cdots \oplus \gamma_m$. Aus Analysis I, 25.1(7) und 12.1 folgt:1566\end{bemerkung}15671568\begin{satz}[Summe von Wegen]1569Ist $\gamma = \gamma_1 \oplus \cdots \oplus \gamma_m$, so gilt: $\gamma$ ist rektifizierbar $\equizu$ $\gamma_1,\ldots,\gamma_m$ sind rektifizierbar. In diesem Fall: $L(\gamma)=L(\gamma_1) + \cdots + L(\gamma_m)$1570\end{satz}15711572\begin{definition}1573\index{Weg-!Längenfunktion}1574Sei $\gamma:[a,b]\to\MdR^n$ ein rektifizierbarer Weg. Sei $t\in(a,b]$. Dann: $\gamma_{|_{[a,t]}}$ ist rektifizierbar (12.2).1575$$s(t):= \begin{cases}L(\gamma_{|_{[a,t]}}),&\text{falls }t\in(a,b] \\0, &\text{falls }t=a\end{cases}$$ heißt die zu $\gamma$ gehörende \textbf{Weglängenfunktion}.1576\end{definition}15771578\begin{satz}[Eigenschaften der Weglängenfunktion]1579Sei $\gamma:[a,b]\to\MdR^n$ ein rektifizierbarer Weg. Dann:1580\begin{enumerate}1581\item $s\in C[a,b]$1582\item $s$ ist wachsend.1583\end{enumerate}1584\end{satz}15851586\begin{beweis}1587\begin{enumerate}1588\item \textbf{\color{red}In der großen Übung}1589\item Sei $t_1, t_2 \in [a,b]$ und $t_1<t_2$. $\gamma_1:=\gamma_{|_{[a,t_1]}}$, $\gamma_2:=\gamma_{|_{[t_1,t_2]}}$, $\gamma_3:=\gamma_{|_{[a,t_2]}}$. Dann $\gamma_3 = \gamma_1 \oplus \gamma_2$. 12.2 $\folgt$ $\gamma_1,\gamma_2,\gamma_3$ sind rektifizierbar und $\underbrace{L(\gamma_3)}_{=s(t_2)} = \underbrace{L(\gamma_1)}_{s(t_1)} + \underbrace{L(\gamma_2)}_{\ge 0} \folgt s(t_2) \ge s(t_1)$.1590\end{enumerate}1591\end{beweis}15921593\begin{satz}[Rechenregeln für Wegintegrale]1594Sei $f=(f_1,\ldots,f_n):[a,b]\to\MdR^n$ und $f_1,\ldots,f_n\in R[a,b]$.1595$$\int_a^bf(t)dt := \left(\int_a^bf_1(t)dt, \int_a^bf_2(t)dt,\ldots, \int_a^bf_n(t)dt\right) \quad (\in\MdR^n)$$1596Dann: \begin{enumerate}1597\item $$x\cdot \int_a^bf(t)dt = \int_a^b(x\cdot f(t))dt \ \forall x\in\MdR^n$$1598\item $$\left\|\int_a^bf(t)dt\right\| \le \int_a^b\|f(t)\|dt$$1599\end{enumerate}1600\end{satz}16011602\begin{beweis}1603\begin{enumerate}1604\item Sei $x=(x_1,\ldots,x_n) \folgt$\\ $x\cdot\int_a^b f(t)dt = \sum_{j=1}^n x_j\int_a^bf_j(t) dt = \int_a^b\left(\sum_{j=1}^n x_j f_j(t)dt\right) = \int_a^b \left(x\cdot f(t)\right) dt$1605\item $y:=\int_a^bf(t)dt$. O.B.d.A: $y\ne 0$. $x:= \frac{1}{\|y\|} y \folgt \|x\|=1, y=\|y\|x$. $\|y\|^2 = y\cdot y = \|y\|(x\cdot y) = \|y\|\left(x\cdot \int_a^bf(t)dt \right) = \|y\|\int_a^b\left(x\cdot f(t)\right) dt \le \|y\|\int_a^b\underbrace{|x \cdot f(t)|}_{\le\|x\|\|f(t)\| = \|f(t)\|} dt \le \|y\| \int_a^b\|f(t)\|dt$1606\end{enumerate}1607\end{beweis}160816091610\begin{satz}[Eigenschaften stetig differenzierbarer Wege]1611$\gamma:[a,b]\to\MdR^n$ sei ein stetig differenzierbarer Weg. Dann:1612\begin{enumerate}1613\item $\gamma$ ist rektifizierbar1614\item Ist $s$ die zu $\gamma$ gehörende Weglängenfunktion, so ist $s\in C^1[a,b]$ und $s'(t)=\|\gamma'(t)\|\ \forall t\in[a,b]$1615\item $L(\gamma)=\int_a^b\|\gamma'(t)\|dt$1616\end{enumerate}1617\end{satz}16181619\begin{beweise}1620\item $\gamma=(\eta_1,\ldots,\eta_n)$, $\eta_j\in C^1[a,b]\folgtnach{A1,25.1}\eta_j\in \text{BV}[a,b]\folgtnach{12.1}\gamma$ ist rektifizierbar.1621\item Sei $t_0\in[a,b)$. Wir zeigen:1622$$\frac{s(t)-s(t_0)}{t-t_0}\to\|\gamma'(t_0)\|\ (t\to t_0+0)\text{. (analog zeigt man :}\frac{s(t)-s(t_0)}{t-t_0}\to\|\gamma'(t_0)\|\ (t\to t_0-0)\text{).}$$1623Sei $t\in (t_0, b];\ \gamma_1:=\gamma_{|_{[a,t_0]}}, \gamma_2:=\gamma_{|_{[t_0,t]}}, \gamma_3:=\gamma_{|_{[a,t]}}$. Dann: $\gamma_3=\gamma_1 \oplus \gamma_2$ und $\underbrace{L(\gamma_3)}_{=s(t)}=\underbrace{L(\gamma_1)}_{=s(t_0)}+L(\gamma_2)\folgt s(t)-s(t_0)=L(\gamma_2)\ (I).$\\1624$\tilde{Z}:=\{t_0, t\}$ ist eine Zerlegung von $[t_0,t]\folgt \|\gamma(t)-\gamma(t_0)\|=L(\gamma_2,\tilde{Z})\le L(\gamma_2)$\\1625\textbf{Definition}: $F:[a,b]\to\MdR$ durch $F(t)=\ds\int_a^t\|\gamma'(\tau)\|\text{d}\tau$. 2.Hauptsatz der Differential- und Integralrechnung $\folgt F$ ist differenzierbar und $F'(t)=\|\gamma'(t)\|\ \forall t\in[a,b]$. Sei $Z=\{\tau_0,\ldots,\tau_m\}$ eine beliebige Zerlegung von $[t_0, t]$.1626$$\ds\int_{\tau_{j-1}}^{\tau_j}\gamma'(\tau)\text{d}\tau=\left(\cdots, \ds\int_{\tau_{j-1}}^{\tau_j}\eta_k'(\tau)\text{d}\tau,\cdots\right)\gleichnach{A1}\left(\cdots, \eta_k(\tau_j)-\eta_k(\tau_{j-1}),\cdots\right)=\gamma(\tau_j)-\gamma(\tau_{j-1})$$1627$\folgt \|\gamma(\tau_j)-\gamma(\tau_{j-1})\|\overset{12.4}{\le}\ds\int_{\tau_{j-1}}^{\tau_j}\|\gamma'(\tau)\|\text{d}\tau$. Summation $\folgt L(\gamma_2,Z)\le\ds\int_{t_0}^t\|\gamma'(\tau)\|\text{d}\tau=F(t)-F(t_0)\folgt L(\gamma_2)\le F(t)-F(t_0)\ (III)$.\\1628$(I), (II), (III)\folgt\|\gamma(t)-\gamma(t_0)\|\overset{(II)}{\le}L(\gamma_2)\overset{(I)}{=}s(t)-s(t_0)\overset{(III)}{\le}F(t)-F(t_0)$1629$$\folgt\underbrace{\frac{\|\gamma(t)-\gamma(t_0)\|}{t-t_0}}_{\overset{t\to t_0}{\to}\|\gamma'(t_0)\|}\le\frac{s(t)-s(t_0)}{t-t_0}\le\underbrace{\frac{F(t)-F(t_0)}{t-t_0}}_{\overset{t\to t_0}{\to}F'(t_0)=\|\gamma'(t_0)\|}$$1630$(3)\ L(\gamma)=s(b)=s(b)-s(a)\overset{AI}{=}\ds\int_a^b s'(t)\text{d}t\gleichnach{(2)}\ds\int_a^b\|\gamma'(t)\|\text{d}t$1631\end{beweise}16321633\begin{beispiele}1634\item $x_0, y_0\in\MdR^n, \gamma(t):=x_0+t(y_0-x_0)\ (t\in [0,1])$. $\gamma'(t)=y_0-x_0\folgt L(\gamma)=\ds\int_0^1\|y_0-x_0\|\text{d}t=\|y_0-x_0\|$.1635\item Sei $f:[a,b]\to\MdR$ stetig und $\gamma(t):=(t, f(t)), t\in[a,b]$. $\gamma$ ist ein Weg im $\MdR^2$. $\gamma$ ist rektifizierbar $\equizu f \in \text{BV}[a,b]$. $\Gamma_\gamma=$Graph von $f$. Jetzt sei $f\in C^1[a,b] \folgtnach{12.5} L(\gamma)=\ds\int_a^b\|\gamma'(t)\|\text{d}t=\ds\int_a^b (1+f'(t)^2)^{\frac{1}{2}}\text{d}t$.1636\item $\gamma(t):=(\cos t, \sin t)\ (t\in [0,2\pi])$. $\gamma'(t)=(-\sin t, \cos t)$. $\|\gamma'(t)\|=1\ \forall t\in [0,2\pi]\folgtnach{12.5}s'(t)=1\ \forall t\in[0,2\pi]\folgt s(t)=t\ \forall t\in[0,2\pi]$ (\begriff{Bogenmaß}). \begriff{Winkelmaß}: $\varphi:=\frac{180}{\pi}t$. $L(\gamma)=2\pi$.1637\end{beispiele}16381639\begin{definition*}1640$\gamma:[a,b]\to\MdR^n$ sei ein Weg.1641\begin{enumerate}1642\index{stückweise!stetige Differenzierbarkeit}\index{Differenzierbarkeit!stückweise stetige}1643\index{Glattheit}1644\index{stückweise!Glattheit}\index{Glattheit!stückweise}1645\item $\gamma$ heißt \textbf{stückweise stetig differenzierbar} $:\equizu\exists z=\{t_0,\ldots,t_m\}\in\Z$ mit: $\gamma_{|_{[t_{k-1},t_k]}}$ sind stetig differenzierbar $(k=1,\ldots,m)\equizu\exists$ stetig differenzierbare Wege $\gamma_1,\ldots,\gamma_l: \gamma=\gamma_1\oplus\cdots\oplus\gamma_l$.1646\item $\gamma$ heißt \textbf{glatt} $:\equizu \gamma$ ist stetig differenzierbar und $\|\gamma'(t)\|>0\ \forall t\in[a,b]$.1647\item $\gamma$ heißt \textbf{stückweise glatt} $:\equizu\exists$ glatte Wege $\gamma=\gamma_1\oplus\cdots\oplus\gamma_l$1648\end{enumerate}1649\end{definition*}16501651Aus 12.2 und 12.5 folgt:16521653\begin{satz}[Rektifizierbarkeit von Wegsummen]1654Ist $\gamma=\gamma_1\oplus\cdots\oplus\gamma_l$ stückweise stetig differenzierbar, mit stetig differenzierbaren Wegen $\gamma_1,\ldots,\gamma_l\folgt \gamma$ ist rektifizierbar und $L(\gamma)=L(\gamma_1)+\cdots+L(\gamma_l)$.1655\end{satz}16561657\begin{definition*}1658\index{Parameter-!Darstellung}1659Sei $\gamma:[a,b]\to\MdR^n$ ein Weg. $\gamma$ heißt eine \textbf{Parameterdarstellung} von $\Gamma_\gamma$.1660\end{definition*}16611662\begin{beispiele}1663\item $x_0, y_0\in\MdR^n, \gamma_1(t):=x_0+t(y_0-x_0)\ t\in[0,1],\ \gamma_2(t):=\gamma_1^-(t)\ t\in[0,1],\ \gamma_3(t):=x_0+7t(y_0-x_0)\ t\in[0,\frac{1}{7}].\ \gamma_1,\gamma_2,\gamma_3$ sind Parameterdarstellungen von $S[x_0, y_0]$.1664\item $\gamma_1(t)=(\cos t, \sin t),\ (t\in [0,2\pi]), \gamma_2(t):=(\cos t, \sin t), (t\in[0,4\pi])$. $\gamma_1, \gamma_2$ sind Parameterdarstellungen von $K=\{(x,y)\in\MdR^2: x^2+y^2=1\}.$1665\end{beispiele}16661667\begin{definition*}1668$\gamma_1:[a,b]\to\MdR^n$ und $\gamma_2:[\alpha,\beta]\to\MdR^n$ seien Wege.16691670\index{Äquivalenz}1671\index{Parameter-!Transformation}1672$\gamma_1$ und $\gamma_2$ heißen \textbf{äquivalent}, in Zeichen $\gamma_1\sim\gamma_2:\equizu\exists h:[a,b]\to[\alpha, \beta]$ stetig und streng wachsend, $h(a)=\alpha, h(b)=\beta$ und $\gamma_1(t)=\gamma_2(h(t))\ \forall t\in[a,b]$ (also $\gamma_1=\gamma_2\circ h)$. $h$ heißt eine \textbf{Parametertransformation} (PTF). Analysis 1 $\folgt h([a,b])=[\alpha,\beta]\folgt \Gamma_{\gamma_1}=\Gamma_{\gamma_2}$.1673Es gilt: $\gamma_2=\gamma_1\circ h^{-1}\folgt \gamma_2\sim\gamma_1$. "`$\sim$"' ist eine Äquivalenzrelation.1674\end{definition*}16751676\begin{beispiele}1677\item $\gamma_1, \gamma_2, \gamma_3$ seien wie in obigem Beispiel (1). $\gamma_1\sim\gamma_3, \gamma_1\sim\gamma_2$.1678\item $\gamma_1, \gamma_2$ seien wie in obigem Beispiel (2). $\gamma_1\nsim\gamma_2$, denn $L(\gamma_1)=2\pi\ne 4\pi=L(\gamma_2)$1679\end{beispiele}16801681\begin{satz}[Eigenschaften der Parametertransformation]1682$\gamma_1:[a,b]\to\MdR^n$ und $\gamma_2:[\alpha,\beta]\to\MdR^n$ seien äquivalente Wege und $h:[a,b]\to[\alpha,\beta]$ eine Parametertransformation.1683\begin{enumerate}1684\item $\gamma_1$ ist rektifizierbar $\equizu \gamma_2$ ist rektifizierbar. In diesem Falle: $L(\gamma_1)=L(\gamma_2)$1685\item Sind $\gamma_1$ und $\gamma_2$ glatt $\folgt h\in C^1[a,b]$ und $h'>0$.1686\end{enumerate}1687\end{satz}16881689\begin{beweise}1690\item[(2)] \textbf{\color{red}In den großen Übungen.}1691\item[(1)] Es genügt zu zeigen: Aus $\gamma_2$ rektifizierbar folgt: $\gamma_1$ ist rektifizierbar und $L(\gamma_1)\le L(\gamma_2)$. Sei $Z=\{t_0,\ldots,t_m\}\in\Z\folgt\tilde{Z}:=\{h(t_0),\ldots, h(t_m)\}$ ist eine Zerlegung von $[\alpha,\beta]$.1692$$L(\gamma_1, Z)=\ds\sum_{j=1}^m\|\gamma_1(t_j)-\gamma_1(t_{j-1})\|=\ds\sum_{j=1}^m\|\gamma_2(h(t_j))-\gamma_2(h(t_{j-1}))\|=L(\gamma_2, \tilde{Z})\le L(\gamma_2)$$1693$\folgt \gamma_1$ ist rektifizierbar und $L(\gamma_1)\le L(\gamma_2)$.1694\end{beweise}16951696\paragraph{Weglänge als Parameter}1697Es sei $\gamma:[a,b]\to\MdR^n$ ein \emph{glatter} Weg. 12.5 $\folgt \gamma$ ist rb. $L:=L(\gamma)$. 12.5 $\folgt s \in C^1[a,b]$ und $s'(t) = \|\gamma'(t)\| > 0\ \forall t\in[a,b].\ s$ ist also \emph{streng wachsend}. Dann gilt: $s([a,b]) = [0,L],\ s^{-1}:[0,L]\to[a,b]$ ist streng wachsend und stetig db. $(s^{-1})'(\sigma) = \frac{1}{s'(t)}$ für $\sigma \in [0,L],\ s(t) = \sigma.$16981699\begin{definition}1700$\tilde{\gamma}[0,L] \to \MdR^n$ durch $\tilde{\gamma}(\sigma) := \gamma(s^{-1}(\sigma)),$ also $\tilde{\gamma} = \gamma\circ s^{-1};\ \tilde{\gamma}$ ist ein Weg im $\MdR^n$ und $\tilde{\gamma} \sim \gamma;\ \Gamma_\gamma = \Gamma_{\tilde{\gamma}}.$1701170212.7 $\folgt \tilde{\gamma}$ ist rb, $L(\tilde{\gamma})=L(\gamma)=L,\ \tilde{\gamma}$ ist stetig db. $\tilde{\gamma}$ heißt Parameterdarstellung von $\Gamma_\gamma$ mit der Weglänge als Parameter. Warum?1703\end{definition}17041705Darum: Sei $\tilde{s}$ die zu $\tilde{\gamma}$ gehörende Weglängenfunktion. $\forall \sigma\in[0,L]: \tilde{\gamma}(\sigma) = \gamma(s^{-1}(\sigma)).$ Sei $\sigma\in[0,L],\ t:= s^{-1}(\sigma) \in [a,b],\ s(t) = \sigma.$17061707$\tilde{\gamma}(\sigma) = (s^{-1})'(\sigma)\cdot\gamma'(s^{-1}(\sigma)) = \frac{1}{s'(t)}\gamma'(t) \gleichnach{12.5} \frac{1}{\|\gamma'(t)\|}\gamma'(t) \folgt \|\gamma'(\sigma)\|=1$ ($\folgt \tilde{\gamma}$ ist glatt).17081709$\tilde{s}'(\gamma) \gleichnach{12.5} \|\gamma'(\sigma)\| = 1 \folgtwegen{\tilde{s}(0)=0} \tilde{s}(\sigma)=\sigma.$17101711Also: $\|\tilde{\gamma}'(\sigma)\| = 1,\ \tilde{s}(\sigma)=\sigma\ \forall \sigma\in[0,L].$17121713\begin{beispiel}1714$\gamma(t) = \frac{e^t}{\sqrt{2}}(\cos t,\sin t),\ t \in [0,1];\ \gamma$ ist stetig db; Nachrechnen: $\|\gamma'(t)\|=e^t\ \forall t \in [0,1] \folgt \gamma$ ist glatt.17151716$s'(t) \gleichnach{12.5} \|\gamma'(t)\| = e^t \folgt s(t) = e^t+c \folgt 0=s(0) = 1+c \folgt c=-1,\ s(t) = e^t-1\ (t\in[0,1]) \folgt L=L(\gamma)=s(1)=e-1.\ e^t=1+s(t),\ t=\log (1+s(t)).$17171718$\tilde{\gamma}(\sigma) = \gamma(s^{-1}(\sigma)) = \gamma(\log (1+\sigma)) = \frac{1+\sigma}{\sqrt{2}}(\cos (\log(1+\sigma)),\sin (\log(1+\sigma))),\ \sigma\in[0,e-1].$1719\end{beispiel}17201721\chapter{Wegintegrale}17221723In diesem Paragraphen seien alle vorkommenden Wege stets stückweise stetig differenzierbar.17241725\begin{definition}1726Sei $\gamma:[a,b]\to\mdr^n$ ein Weg, $\gamma=(\eta_1,\ldots,\eta_n), \Gamma :=\Gamma_\gamma.$1727$g:\Gamma\to\mdr$ stetig und $f=(f_1,\ldots,f_n):\Gamma\to\mdr^n$ stetig.1728\begin{enumerate}1729\item Für $j\in \{1,\ldots,n\}: \int_\gamma g(x) \text{ d}x_j:=\int_a^b g(\gamma(t))\cdot\eta_j'(t)\text{ d}t$1730\item \begin{align*}1731\int_\gamma f(x)\cdot\text{d}x &:= \int_\gamma f_1(x)\text{ d}x_1+\cdots+f_n(x)\text{ d}x_n\\1732&:=\sum_{j=1}^n \int_\gamma f_j(x)\text{ d}x_j1733\end{align*}1734Es ist $\int_\gamma f(x)\cdot\text{d}x=\int_a^b f(\gamma(t))\cdot\gamma'(t)\text{ d}t$ und heißt das1735\textbf{Wegintegral von $f$ längs $\gamma$}.1736\end{enumerate}1737\end{definition}17381739\begin{beispiel}1740$f(x,y,z) := (z,y,x),\ \gamma(t) = (t,t^2,3t),\ t\in[0,1].\ f(\gamma(t)) = (3t,t^2,t),\ \gamma'(t)=(1,2t,3),\ f(\gamma(t))\cdot\gamma'(t) = 3t+2t^3+3t = 6t+2t^3$.17411742$\int_\gamma f(x,y,z)\cdot d(x,y,z) = \int_0^1 (6t+2t^3) dt = \frac{7}{2}.$1743\end{beispiel}17441745\begin{satz}[Rechnen mit Wegintegralen]1746$\gamma,\Gamma,f$ seien wie oben, $g:\Gamma\to\MdR^n$ sei stetig, $\hat\gamma = (\hat{\gamma}_1,\ldots,\hat{\gamma}_n): [\alpha,\beta] \to \MdR^n$ sei rektifizierbar und $\xi,\eta \in \MdR$.1747\begin{enumerate}1748\item $\ds{\int_\gamma(\xi f(x)+\eta g(x))\cdot dx = \xi \int_\gamma f(x)\cdot dx+\eta \int_\gamma g(x)\cdot dx}$1749\item Ist $\gamma = \gamma^{(1)} \oplus \gamma^{(2)} \folgt \ds{\int_\gamma f(x)\cdot dx = \int_{\gamma^{(1)}} f(x)\cdot dx + \int_{\gamma^{(2)}} f(x)\cdot dx}$1750\item $\ds{\int_{\gamma^-} f(x)\cdot dx = -\int_\gamma f(x)\cdot dx}$1751\item $\ds{\left| \int_\gamma f(x)\cdot dx\right| \le L(\gamma)\cdot \max\{\|f(x)\|:x \in \Gamma\}}$1752\item Ist $\ds{\hat{\gamma} \sim \gamma \folgt \int_\gamma f(x)\cdot dx = \int_{\hat{\gamma}} f(x)\cdot dx}$.1753\end{enumerate}1754\end{satz}17551756\begin{beweise}1757\item klar1758\item Ana I, 26.1(3)1759\item nur für $\gamma$ stetig differenzierbar. $\gamma^-(t) = \gamma(b+a-t),\ t\in[a,b].$17601761$\int_{\gamma^-} f(x)\cdot dx = \int_a^b f(\gamma(b+a-t))\cdot \gamma'(b+a-t) (-1) dt =$ (subst. $\tau=b+a-t,\ d\tau = dt$) $= \int_b^a f(\gamma(\tau))\cdot\gamma'(\tau) d\tau = -\int_a^b f(\gamma(\tau))\cdot\gamma'(\tau) d\tau = -\int_\gamma f(x)\cdot dx.$1762\item Übung1763\item Sei $\hat{\gamma} = \gamma\circ h,\ h:[\alpha,\beta]\to[a,b]$ stetig und streng wachsend. $h(\alpha) = a,\ h(\beta) = b$. Nur für $\gamma$ und $h$ stetig db. Dann ist $\hat{\gamma}$ stetig db.17641765$\int_{\hat{\gamma}} f(x)\cdot dx = \int_\alpha^\beta f(\gamma(h(t)))\cdot \gamma'(h(t))\cdot h'(t) dt =$ (subst. $\tau = h(t),\ d\tau = h'(t)dt$) $= \int_a^b f(\gamma(\tau))\cdot \gamma'(\tau)d\tau = \int_\gamma f(x)\cdot dx.$1766\end{beweise}17671768\begin{definition}1769$\gamma,\Gamma$ seien wie immer in diesem Paragraphen. $s$ sei die zu $\gamma$ gehörende Weglängenfunktion und $g:\Gamma \to \MdR$ stetig. 12.4 $\folgt s$ ist wachsend $\folgtnach{Ana I} s \in BV[a,b];\ g\circ\gamma$ stetig $\folgtnach{Ana I, 26.6} g\circ\gamma \in R_s[a,b]$.17701771$$\int_\gamma g(x) ds := \int_a^b g(\gamma(t))ds(t)$$17721773\textbf{Integral bzgl. der Weglänge}.1774\end{definition}17751776\begin{satz}[Rechnen mit Integralen bzgl. der Weglänge]1777Seien $\gamma,g$ wie oben.1778\begin{enumerate}1779\item $\ds{\int_{\gamma^-} g(x) ds = \int_\gamma g(x) ds}$1780\item Ist $\ds{\gamma = \gamma^{(1)} \oplus \gamma^{(2)} \folgt \int_\gamma g(x)ds = \int_{\gamma^{(1)}} g(x)ds + \int_{\gamma^{(2)}} g(x)ds}$.1781\item Ist $\gamma$ stetig db $\folgt \importantbox{\ds{\int_\gamma g(x)ds = \int_a^b g(\gamma(t))\|\gamma'(t)\|dt}}$1782\end{enumerate}1783\end{satz}17841785\begin{beispiel}1786$g(x,y) = (1+x^2+3y)^{1/2},\ \gamma(t) = (t,t^2),\ t\in[0,1].$17871788$g(\gamma(t)) = (1+t^2+3t^2)^{1/2} = (1+4t^2)^{1/2},\ \gamma'(t) = (1, 2t),\ \|\gamma'(t)\| = (1+4t^2)^{1/2} \folgt \int_\gamma g(x,y)ds = \int_0^1 (1+4t^2) dt = \frac{7}{3}$1789\end{beispiel}17901791\paragraph{Gegeben:} $\gamma_1,\gamma_2,\ldots,\gamma_m$ rektifizierbare Wege, $\gamma_k:[a_k,b_k]\to\MdR^n$ mit $\gamma_1(b_1) = \gamma_2(a_2), \gamma_2(b_2) = \gamma_3(a_3),\ldots , \gamma_{m-1}(b_{m-1}) = \gamma_m(a_m)$. $\Gamma := \Gamma_{\gamma_1} \cup \ldots \cup \Gamma_{\gamma_m}$.17921793$\text{AH}(\gamma_1,\ldots,\gamma_m) := \{\gamma:\gamma$ ist ein rektifizierbarer Weg im $\MdR^n$ mit: $\Gamma_\gamma=\Gamma$, $L(\gamma)=L(\gamma_1)+\cdots+L(\gamma_m)$ und $\int_\gamma f(x)\cdot dx = \int_{\gamma_1}f(x)\cdot dx+ \cdots + \int_{\gamma_m}f(x)\cdot dx$ für \emph{jedes} stetige $f:\Gamma\to\MdR^n\}.$17941795Ist $\gamma\in \text{AH}(\gamma_1,\ldots,\gamma_m)$, so sagt man $\gamma$ entsteht durch \indexlabel{Aneinanderhängung}\textbf{Aneinanderhängen} der Wege $\gamma_1,\ldots,\gamma_m$.17961797\begin{satz}[Stetige Differenzierbarekeit der Aneinanderhängung]1798$\gamma_1,\ldots,\gamma_m$ seien wie oben. Dann: $\text{AH}(\gamma_1,\ldots,\gamma_m) \ne \emptyset$. \\1799Sind $\gamma_1,\ldots,\gamma_m$ stetig differenzierbar, so existiert ein stückweise stetig differenzierbarer Weg $\gamma\in \text{AH}(\gamma_1,\ldots,\gamma_m)$.1800\end{satz}18011802\begin{beweis}1803O.B.d.A: $m=2$.18041805Def. $h:[b_1,c] \to [a_2,b_2]$ linear wie folgt: $h(x)=px+q$, $h(b_1)=a_2$, $h(c)=b_2$. $\hat\gamma_2 := \gamma_2\circ h$. Dann: $\gamma_2\sim \hat\gamma_2$. $\gamma := \gamma_1\oplus\hat\gamma_2$. 12.2, 12.7, 13.2 $\folgt$ $\gamma\in \text{AH}(\gamma_1,\gamma_2)$.1806\end{beweis}18071808\begin{beispiel}1809In allen Beispielen sei $f(x,y)=(y,x-y)$ und $t\in[0,1]$.1810\begin{enumerate}1811\item $\gamma_1(t)=(t,0)$, $\gamma_2(t)=(1,t)$.18121813Sei $\gamma \in \text{AH}(\gamma_1,\gamma_2)$. Anfangspunkt von $\gamma$ ist (0,0), Endpunkt von $\gamma$ ist (1,1). Nachrechnen: $\int_{\gamma_1}f(x,y)\cdot d(x,y) = 0$, $\int_{\gamma_2}f(x,y)\cdot d(x,y) = \frac{1}{2}$. Also: $\int_\gamma f(x,y) \cdot d(x,y) = \frac{1}{2}$18141815\item $\gamma_1(t) = (0,t)$, $\gamma_2(t)=(t,1)$.18161817Sei $\gamma\in \text{AH}(\gamma_1,\gamma_2)$, Anfangspunkt von $\gamma$ ist (0,0), Endpunkt von $\gamma$ ist (1,1). Nachrechnen: $\int_{\gamma}f(x,y)\cdot d(x,y) = \frac{1}{2}$18181819\item $\gamma(t)=(t,t^3)$. Anfangspunkt von $\gamma$ ist (0,0), Endpunkt von $\gamma$ ist (1,1). Nachrechnen: $\int_\gamma f(x,y)\cdot d(x,y) = \frac{1}{2}$1820\end{enumerate}1821\end{beispiel}18221823\chapter{Stammfunktionen}18241825In diesem Paragraphen sei stets: $\emptyset \ne G \subseteq \MdR^n$, $G$ ein \emph{Gebiet} und $f=(f_1,\ldots,f_n): G\to\MdR^n$ stetig.18261827\begin{definition}1828Eine Funktion $\varphi:G\to\MdR$ heißt eine \textbf{Stammfunktion (SF) von $f$ auf $G$}\indexlabel{Stammfunktion} $:\equizu$ $\varphi$ ist auf $G$ partiell differenzierbar und $\grad\varphi = f$ auf $G$. Also: $\varphi_{x_j} = f_j$ auf $G$ ($j=1,\ldots,n$).1829\end{definition}18301831\begin{bemerkung}1832\1833\vspace{-1.5em}1834\begin{enumerate}1835\item Ist $\varphi$ eine Stammfunktion von $f$ auf $G$ $\folgt$ $\grad\varphi = f \folgt \varphi \in C^1(G,\MdR) \folgtnach{5.3} \varphi$ ist auf $G$ differenzierbar und $\varphi' = f$ auf $G$.1836\item Sind $\varphi_1$, $\varphi_2$ Stammfunktionen von $f$ auf $G$ $\folgtnach{(1)}$ $\varphi_1'=\varphi_2'$ auf $G$ $\folgtnach{6.2} \exists c\in\MdR: \varphi_1=\varphi_2+c$ auf $G$1837\item Ist $n=1$ $\folgt$ $G$ ist ein offenes Intervall. AI, 23.14 $\folgt$ \emph{jedes} stetige $f:G\to\MdR$ besitzt auf $G$ eine Stammfunktion! Im Falle $n\ge 2$ ist dies \emph{nicht} so.1838\end{enumerate}1839\end{bemerkung}18401841\begin{beispiele}1842\item $G=\MdR^2$, $f(x,y) = (y,-x)$.18431844Annahme: $f$ besitzt auf $\MdR^2$ die Stammfunktion $\varphi$. Dann: $\varphi_x = y$, $\varphi_y = -x$ auf $G$ $\folgt$ $\varphi\in C^2(\MdR^2,\MdR)$ und $\varphi_{xy} = 1 \ne -1 = \varphi_{yx}$. Widerspruch zu 4.1. Also: $f$ besitzt auf $\MdR^2$ \emph{keine} Stammfunktion.1845\item $G=\MdR^2$, $f(x,y) = (y,x-y)$.18461847Ansatz für eine Stammfunktion $\varphi$ von $f$: $\varphi_x=y \folgt \varphi=xy+c(y)$, $c$ differenzierbar, $\folgt$ $\varphi_y\stackrel{!}{=}x+c'(y) = x-y \folgt c'(y) = -y$, etwa $c(y)=-\frac{1}{2}y^2$. Also: $\varphi(x,y) = xy - \frac{1}{2}y^2$. Probe: $\varphi_x=y$, $\varphi_y=x-y$, also: $\grad\varphi=f$. $\varphi$ ist also eine Stammfunktion von $f$ auf $\MdR^2$.1848%Weiß wer warum man da ne Probe braucht?1849%Braucht man nicht, war nur um uns zu überzeugen1850\end{beispiele}1851\vspace{2em} % ntheorembugumgehung1852\begin{satz}[Hauptsatz der mehrdimensionalen Integralrechnung]1853$f$ besitzt auf $G$ die Stammfunktion $\varphi$; $\gamma:[a,b]\to\MdR^n$ ein ein stückweise stetig differenzierbarer Weg mit $\Gamma_\gamma\subseteq G$. Dann:1854$$ \int_\gamma f(x)\cdot dx = \varphi\left(\gamma(b)\right) - \varphi\left(\gamma(a)\right) $$1855Das heißt: $\int_\gamma f(x)\cdot dx$ hängt nur vom Anfangs- und Endpunkt von $\gamma$ ab.18561857Ist $\gamma$ \emph{geschlossen}, das heißt $\gamma(a) = \gamma(b)$, dann gilt $\int_\gamma f(x)\cdot dx = 0$.1858\end{satz}18591860\begin{beweis}1861O.B.d.A.: $\gamma$ ist stetig differenzierbar. $\Phi(t):= \varphi (\gamma(t))$, $t\in[a,b]$. $\Phi$ ist stetig differenzierbar und $\Phi'(t) = \varphi'(\gamma(t))\cdot \gamma'(t) = f(\gamma(t))\cdot\gamma(t)$ Dann: $\int_\gamma f(x)\cdot dx \gleichnach{13.1} \int_a^bf(\gamma(t))\cdot\gamma'(t)dt = \int_a^b\Phi'(t)dt \gleichnach{AI} \Phi(b)-\Phi(a) = \varphi(\gamma(b))-\varphi(\gamma(a))$.1862\end{beweis}18631864\begin{wichtigerhilfssatz}1865Es seien $x_0,y_0\in G$. Dann existiert ein stückweise stetig differenzierbarer Weg $\gamma$ mit: $\Gamma_\gamma\subseteq G$ und Anfangspunkt von $\gamma = x_0$ und Endpunkt von $\gamma=y_0$.1866\end{wichtigerhilfssatz}18671868\begin{beweis}1869$G$ Gebiet $\folgt \exists z_0,z_1,\ldots,z_m \in G: S[z_0,\ldots,z_m]\subseteq G, z_0=x_0, z_m = y_0$.18701871$\gamma_j(t) := z_{j-1} + t(z_j - z_{j-1})$, $(t\in[0,1])$, ($j=1,\ldots,n$). Dann:$\Gamma_{\gamma_j} = S[z_{j-1},z_{j}] \folgt \Gamma_{\gamma_1}\cup\ldots\cup\Gamma_{\gamma_m} = S[z_0,\ldots,z_m] \subseteq G$. 13.4 $\folgt \exists \gamma \in \text{AH}(\gamma_1,\ldots,\gamma_m)$ stückweise stetig differenzierbar $\folgt \Gamma_{\gamma} = S[z_0,\ldots,z_m] \subseteq G$.1872\end{beweis}18731874\begin{definition*}1875\indexlabel{Weg-!unabhängig}1876$\int f(x)\cdot \text{d}x$ heißt \textbf{in G wegunabhängig} (wu) $:\equizu$ für je zwei Punkte $x_0, y_0\in G$ gilt: für jeden stückweise stetig differenzierbaren Weg $\gamma:[a,b]\to\MdR^n$ mit $\Gamma_\gamma\subseteq G$, $\gamma(a)=x_0$ und $\gamma(b)=y_0$ hat das Integral $\ds\int_\gamma f(x)\cdot\text{d}x$ stets denselben Wert. In diesem Fall: $\ds\int_{x_0}^{y_0}f(x)\cdot\text{d}x:=\ds\int_\gamma f(x)\cdot\text{d}x$.1877\end{definition*}18781879\textbf{14.1 lautet dann}: besitzt f auf G die Stammfunktion $\varphi\folgt \ds\int f(x)\cdot\text{d}x$ ist in $G$ wegunabhängig und $\int_{x_0}^{y_0}=\varphi(y_0)-\varphi(x_0)$ (Verallgemeinerung von Analysis 1, 23.5).18801881\begin{satz}[Wegunabhängigkeit, Existenz von Stammfunktionen]1882$f$ besitzt auf $G$ eine Stammfunktion $\equizu\int f(x)\cdot\text{d}x$ ist in G wegunabhängig. \\1883In diesem Fall: ist $x_0\in G$ und $\varphi:G\to\MdR$ definiert durch:1884\begin{align*}1885\varphi(z)=\ds\int_{x_0}^z f(x)\cdot\text{d}x\ (z\in G)\ \tag{$*$}1886\end{align*}1887Dann ist $\varphi$ eine Stammfunktion von $f$ auf $G$.1888\end{satz}18891890\begin{beweis}1891"`$\folgt$"': 14.1\quad "`$\impliedby$"': Sei $x_0\in G$ und $\varphi$ wie in $(*)$. Zu zeigen: $\varphi$ ist auf $G$ differenzierbar und $\varphi'=f$ auf G. Sei $z_0\in G, h\in\MdR^n,h\ne 0$ und $\|h\|$ so klein, dass $z_0+th\in G\ \forall t\in[0,1].\ \gamma(t):=z_0+th\ (t\in[0,1]), \Gamma_\gamma=s[z_0, z_0+h]\subseteq G$. $\rho(h):=\frac{1}{\|h\|}(\varphi(z_0+h)-\varphi(z_0)-f(z_0)\cdot h)$. Zu zeigen: $\rho(h)\to 0\ (h\to 0)$. 14.2 $\folgt$ es existieren stückweise stetig differenzierbare Wege $\gamma_1, \gamma_2$ mit: $\Gamma_{\gamma_1},\Gamma_{\gamma_2}\subseteq G$. Anfangspunkt von $\gamma_1=x_0=$Anfangspunkt von $\gamma_2$. Endpunkt von $\gamma_1=z_0$, Endpunkt von $\gamma_2=z_0+h$. Sei $\gamma_3\in \text{AH}(\gamma_1,\gamma)$ stückweise stetig differenzierbar (13.4!). Dann:1892$$\underbrace{\ds\int_{\gamma_3}f(x)\cdot\text{d}x}_{=\varphi(z_0+h)}=\underbrace{\ds\int_{\gamma_1}f(x)\cdot\text{d}x}_{=\varphi(z_0)}+\ds\int_{\gamma}f(x)\cdot\text{d}x$$1893$\ds\int f(x)\cdot\text{d}x$ ist wegunabhängig in $G\folgt$\\1894$$\ds\int_{\gamma_3}f(x)\cdot\text{d}x=\ds\int_{\gamma_2}f(x)\cdot\text{d}x=\varphi(z_0+h)\folgt\varphi(z_0+h)-\varphi(z_0)=\ds\int_{\gamma}f(x)\cdot\text{d}x$$1895Es ist:1896\begin{eqnarray*}1897&&\ds\int_{\gamma}f(z_0)\cdot\text{d}x=\ds\int_0^1 f(z_0)\cdot\underbrace{\gamma'(t)}_{=h}\text{d}t=f(z_0)\cdot h\\1898&&\folgt \rho(h)=\frac{1}{\|h\|}\ds\int_{\gamma}(f(x)-f(z_0))\text{d}x\\1899&&\folgt |\rho(h)|=\frac{1}{\|h\|}\left|\ds\int_{\gamma}f(x)-f(z_0)\text{d}x\right|\\1900&&\le\frac{1}{\|h\|}\underbrace{L(\gamma)}_{=\|h\|}\underbrace{\max\{\|f(x)-f(z_0)\|: x\in\Gamma_\gamma\}}_{=\|f(x_n)-f(z_0)\|}1901\end{eqnarray*}1902wobei $x_n\in\Gamma_\gamma=S[z_0,z_0+h]\folgt |\rho(h)|\le\|f(x_n)-f(z_0)\|$. Für $h\to 0: x_n\to z_0\folgtnach{f stetig}\|f(x_n)-f(z_0)\|\to 0\folgt\rho(h)\to 0$.1903\end{beweis}19041905\begin{satz}[Integrabilitätsbedingungen]1906Sei $f=(f_1,\ldots, f_n)\in C^1(G,\MdR^n)$. Besitzt $f$ auf $G$ die Stammfunktion $\varphi\folgt$19071908$$\frac{\partial f_j}{\partial x_k}=\frac{\partial f_k}{\partial x_j}\text{ auf }G\ (j,k=1,\ldots,n)$$1909(\begriff{Integrabilitätsbedingungen} (IB)). Warnung: Die Umkehrung von 14.4 gilt im Allgemeinen \textbf{nicht} ($\to$ Übungen!).1910\end{satz}19111912\begin{beweis}1913Sei $\varphi$ eine Stammfunktion von $f$ auf $G\folgt\varphi$ ist differenzierbar auf $G$ und $\varphi_{x_j}=f_j$ auf $G\ (j=1,\ldots,n)$. $f\in C^1(G,\MdR^n)\folgt\varphi\in C^2(G,\MdR)$1914$$\folgt \frac{\partial f_j}{\partial x_k}=\varphi_{x_jx_k}\gleichnach{4.7}\varphi_{x_kx_j}=\frac{\partial f_k}{\partial x_j}\text{ auf G.}$$ $ $1915\end{beweis}19161917\begin{definition*}1918\index{Sternförmigkeit}1919Sei $\emptyset\ne M\subseteq\MdR^n$. $M$ heißt \textbf{sternförmig} $:\equizu\exists x_0\in M: S[x_0,x]\subseteq M\ \forall x\in M$.\\1920\textbf{Beachte:}1921\begin{enumerate}1922\item Ist $M$ konvex$\folgt M$ ist sternförmig1923\item Ist $M$ offen und sternförmig$\folgt M$ ist ein Gebiet1924\end{enumerate}1925\end{definition*}19261927\begin{satz}[Kriterium zur Existenz von Stammfunktionen]1928Sei $G$ sternförmig und $f\in C^1(G,\MdR^n)$. Dann: $f$ besitzt auf $G$ eine Stammfunktion $:\equizu f$ erfüllt auf $G$ die Integrabilitätsbedingungen1929\end{satz}19301931\begin{beweis}1932"`$\folgt$"': 14.1\quad "`$\impliedby$"': $G$ sternförmig $\folgt\exists x_0\in G:S[x_0,x]\subseteq G\ \forall x\in G$. OBdA: $x_0=0$.19331934Für $x=(x_1,\ldots,x_n)\in G$ sei $\gamma_x(t)=tx, t\in [0,1]$.1935\begin{eqnarray*}1936\varphi(x)&:=&\int_{\gamma_x}f(z)\cdot\text{d}z\ (x\in G)\\1937&=&\ds\int_0^1 f(tx)\cdot x\text{d}t\\1938&=&\ds\int_0^1(f_1(tx)\cdot x_1+f_2(tx)\cdot x_2+\ldots+f_n(tx)\cdot x_n)\text{d}t\\1939\end{eqnarray*}1940Zu zeigen: $\varphi$ ist auf $G$ partiell differenzierbar nach $x_j$ und $\varphi_{x_j}=f_j\ (j=1,\ldots,n)$.1941OBdA: $j=1$. Später (in 21.3) zeigen wir: $\varphi$ ist partiell differenzierbar nach $x_1$ und:1942$$\varphi_{x_1}(x)=\ds\int_0^1\frac{\partial}{\partial x_1}(f_1(tx)x_1+\ldots+f_n(tx)\cdot x_n)\text{d}t$$19431944Für $k=1,\ldots,n:\ g_k(x)=f_k(tx)\cdot x_k$.\\1945$k=1:\ g_1(x)=f_1(tx)x_1\folgt\frac{\partial g_1}{\partial x_1}(x)=f_1(tx)+t\frac{\partial f_1}{\partial x_1}(tx)x_1$\\1946$k\ge 2:\ g_k(x)=f_k(tx)x_k\folgt\frac{\partial g_k}{\partial x_1}(x)=t\frac{\partial f_k}{\partial x_1}(tx)x_k\folgt$19471948\begin{eqnarray*}1949\varphi_{x_1}(x)&=&\int_0^1(f_1(tx)+t(\frac{\partial f_1}{\partial x_1}(tx)x_1+\ldots+\frac{\partial f_n}{\partial x_1}(tx)x_n))\text{d}t\\1950&\gleichnach{IB}&\int_0^1(f_1(tx)+t(\frac{\partial f_1}{\partial x_1}(tx)x_1+\frac{\partial f_1}{\partial x_2}(tx)x_2+\ldots+\frac{\partial f_1}{\partial x_n}(tx)x_n))\text{d}t\\1951&=&\ds\int_0^1(f_1(tx)+tf_1'(tx)\cdot x)\text{d}t1952\end{eqnarray*}19531954Sei $x\in G$ (fest), $h(t):=t\cdot f_1(tx)\ (t\in [0,1])$. $h$ ist stetig differenzierbar und $h'(t)=f_1(tx)+tf_1'(tx)\cdot x\folgt \varphi_{x_1}(x)=\ds\int_0^1 h'(t)\text{d}t\gleichnach{A1}h(1)-h(0)=f_1(x)$.1955\end{beweis}19561957\chapter{Vorgriff auf Analysis III}19581959In Analysis III werden wir für gewisse Mengen $A\subseteq\MdR^n$ und gewisse Funktionen1960$f:A\to\MdR$ folgendes Integral definieren:1961\[\int_A f(x)\text{d}x=\int_A f(x_1,\ldots,x_n)\text{ d}(x_1,\ldots,x_n)\]1962In diesem Paragraphen geben wir "`Kochrezepte"' an, wie man solche Integrale1963für spezielle Mengen $A \subseteq \MdR^2$ (bzw. $A \subseteq \MdR^3$)1964und stetige Funktionen $f:A \to \MdR$ berechnen kann.19651966\renewcommand{\theenumi}{\Roman{enumi}}1967\renewcommand{\labelenumi}{\theenumi}19681969\begin{enumerate}1970\item \textbf{Der Fall $n=2$}:\\1971\begin{definition*}1972\indexlabel{Normalbereich}1973Es sei $[a,b]\subset\MdR$, $h_1,h_2\in C[a,b]$ und $h_1\le h_2$ auf $[a,b]$.1974\[A:=\Set{(x,y)\in\MdR^2 | x\in[a,b],h_1(x)\le y\le h_2(x)}\]1975\[\left(A:=\Set{(x,y)\in\MdR^2 | y\in[a,b],h_1(y)\le x\le h_2(y)}\right)\]1976heißt \textbf{Normalbereich} bezüglich der $x$-Achse ($y$-Achse).\\1977\textbf{Übung:} $A$ ist kompakt.1978\end{definition*}19791980\begin{satz}[Integral über Normalbereiche im $\MdR^2$]1981Sei $A$ wie oben und $f:A\to\MdR$, dann gilt:1982\[\int_A f(x,y)\text{d}(x,y)=\int_a^b\left(\int_{h_1(x)}^{h_2(x)} f(x,y)\text{d}y\right)\text{ d}x\]1983\[\left(\int_A f(x,y)\text{d}(x,y)=\int_a^b\left(\int_{h_1(y)}^{h_2(y)} f(x,y)\text{ d}x\right)\text{ d}y\right)\]1984\end{satz}19851986\textbf{Achtung:} $\int_A f(x)\text{d}x$ nicht mit dem Wegintegral $\int_\gamma f(x)\cdot\text{d}x$1987verwechseln!19881989\begin{definition*}1990\indexlabel{Flächeninhalt}1991Sei $A$ ein Normalbereich bzgl. der $x$- oder $y$-Achse, so heißt:1992\[|A|:=\int_A 1\text{ d}(x,y)\]1993der \textbf{Flächeninhalt} von $A$.1994\end{definition*}19951996\begin{beispiele}1997\item[(1)] Sei $A$ ein Normalbereich bzgl. der x-Achse und seien $h_1,h_2$ wie oben. Dann gilt:1998\begin{align*}1999|A|&=\int_A 1\text{ d}(x,y)\\2000&\stackrel{15.1}{=}\int_a^b\left(\int_{h_1(x)}^{h_2(x)} 1\text{ d}y\right)\text{ d}x\\2001&=\int_a^b(h_2(x)-h_1(x))\text{ d}x2002\end{align*}2003Ist z.B. $h_1=0$, so folgt:2004\[|A|=\int_a^b h_2(x)\text{ d}x\]2005\item[(2)] Sei $A=[a,b]\times[c,d]$, dann ist $A$ Normalbereich bezüglich der $x$-2006\textbf{und} der $y$-Achse. Sei $f:A\to\MdR$ stetig. Es folgt aus 15.1.:2007\begin{align*}2008\int_A f(x,y)\text{d}(x,y) &= \int_a^b\left(\int_c^d f(x,y)\text{ d}y\right)\text{ d}x\\2009&= \int_c^d\left(\int_a^b f(x,y)\text{ d}x\right)\text{ d}y2010\end{align*}2011\item[(3)] Sei $r>0$ und $A:=\Set{(x,y)\in\MdR^2 | x^2+y^2\le r^2}$. Dann ist2012$A$ ein Normalbereich der $x$-Achse mit $h_1(x):=\sqrt{r^2-x^2}$ und $h_2(x):=-\sqrt{r^2-x^2}$2013(mit $x\in[-r,r]$), und es gilt:2014\begin{align*}2015|A|&=\int_{-r}^r h_2(x)-h_1(x)\text{ d}x\\2016&=\int_{-r}^r 2\sqrt{r^2-x^2}\text{ d}x\\2017&=\pi r^22018\end{align*}2019\item[(4)] Sei $A:=\Set{(x,y)\in\MdR^2 | x\in[0,1],x\le y\le \sqrt x}$ und $f(x,y)=xy$.2020Dann gilt für $h_1(x)=x$ und $h_2(x)=\sqrt x$:2021\begin{align*}2022\int_A xy\text{ d}(x,y) &= \int_0^1\left(\int_x^{\sqrt x} xy\text{ d}y\right)\text{ d}x\\2023&= \int_0^1\left(\left[\frac12 xy^2\right]_x^{\sqrt x}\right)\text{ d}x\\2024&= \int_0^1 \frac12x^2 -\frac12x^3\text{ d}x\\2025&= \frac12\left[\frac13 x^3-\frac14 x^4\right]_0^1 = \frac1{24}2026\end{align*}2027Da $A=\Set{(x,y)\in\MdR^2 | y\in[0,1],y^2\le x\le y}$ außerdem Normalbereich bzgl. der2028$y$-Achse ist, gilt:2029\begin{align*}2030\int_A f(x,y)\text{ d}y &= \int_0^1\left(\int_{y^2}^y xy \text{ d}x\right)\text{ d}y\\2031&=\int_0^1 \left[ \frac12 x^2y\right]_{y^2}^y \text{ d}y\\2032&=\int_0^1 \frac12y^3-\frac12y^5 \text{ d}y\\2033&= \frac12 \left[ \frac14y^4-\frac16 y^5\right]_0^1 = \frac1{24}2034\end{align*}2035\end{beispiele}2036\item \textbf{Der Fall $n=3$:}\\2037\indexlabel{Normalbereich}2038\begin{definition}2039Sei $A\subseteq\MdR^2$ ein Normalbereich bzgl. der $x$- oder der $y$-Achse,2040es seien $g_1,g_2:A\to\MdR$ stetig und $g_1\le g_2$ auf $A$.2041\[B:=\Set{(x,y,z)\in\MdR^3 | (x,y)\in A, g_1(x,y)\le z\le g_2(x,y)}\]2042heißt ein \textbf{Normalbereich} bezüglich der $x$-$y$-Ebene.2043Normalbereiche bzgl der $x$-$z$- und $y$-$z$-Ebene werden analog definiert.2044\end{definition}20452046\begin{satz}[Integral über Normalbereiche im $\MdR^3$]2047Sei $B, g_1, g_2$ wie oben und $f:B\to\MdR$ stetig, dann gilt:2048\[\int_B f(x,y,z) \text{ d}(x,y,z) = \int_A\left(\int_{g_1(x,y)}^{g_2(x,y)} f(x,y,z) \text{ d}z\right)\text{ d}(x,y)\]2049\end{satz}20502051\begin{definition}2052\indexlabel{Volumen}2053$B$ sei wie in 15.2.2054\begin{align*}2055|B|&:=\int_B 1\text{ d}(x,y,z)\\2056&\left( = \int_A g_2(x,y)-g_1(x,y)\text{ d}(x,y)\right)2057\end{align*}2058heißt \textbf{Volumen} von $B$.2059\end{definition}20602061\begin{beispiele}2062\item[(1)] Sei $B:=\overbrace{[a,b]\times[c,d]}^{:= A}\times[\alpha,\beta]$, dann gilt:2063\begin{align*}2064\int_B f(x,y,z) \text{ d}(x,y,z) &= \int_A\left(\int_\alpha^\beta f(x,y,z) \text{ d}z\right)\text{ d}(x,y)\\2065&=\int_a^b\left(\int_c^d\left(\int_\alpha^\beta f(x,y,z) \text{ d}z\right)\text{ d}y\right)\text{ d}x2066\end{align*}2067Dabei darf die Integrationsreihenfolge beliebig vertauscht werden.2068\item[(2)] Sei $B:=\Set{(x,y,z)\in\MdR^3 | x^2+y^2\le 1, 0\le z\le h}$ für ein2069$h>0$. Dann setze $A:=\Set{(x,y)\in\MdR^2 | x^2+y^2\le 1}, g_1=0, g_2=h$. Es gilt:2070\begin{align*}2071|B|&= \int_A h\text{ d}(x,y)\\2072&= h \int_A 1 \text{ d}(x,y)\\2073&= h\cdot |A| = h\pi2074\end{align*}2075\end{beispiele}20762077\begin{satz}[Eigenschaften von Integralen über Normalbereiche]2078Sei $B\subseteq\MdR^2$ oder $B\subseteq\MdR^3$ und $f,g:B\to\MdR$ stetig.2079Je nach Definition von $B$ sei $X=(x,y)$ oder $X=(x,y,z)$.2080\begin{enumerate}2081\item[(1)] Für alle $\alpha,\beta\in\MdR$ gilt:2082\[\int_B \alpha f(X)+\beta g(X)\text{ d}X=\alpha\int_B f(X)\text{ d}X+\beta\int_B g(X)\text{ d}X\]2083\item[(2)] Es gilt die bekannte Dreiecksungleichung:2084\[\left|\int_B f(X)\text{ d}X\right|\le \int_B |f(X)| \text{ d}X\le |B|\cdot \max\{|f(X)|: X\in B\}\]2085\item[(3)] Ist $f\le g$ auf $B$, so gilt:2086\[\int_B f(X)\text{ d}X \le \int_B g(X)\text{ d}X\]2087\end{enumerate}2088\end{satz}2089\end{enumerate}20902091\chapter{Folgen, Reihen und Potenzreihen in $\MdC$}2092\renewcommand{\labelenumi}{(\arabic{enumi})}20932094\index{komplex!Betrag}\index{Betrag!komplexer}2095$\MdC$ und $\MdR^2$ sind Vektorräume \textbf{über $\MdR$} der Dimension zwei.2096Sie unterscheiden sich als Vektorräume über $\mathbb{R}$ nur dadurch, dass ihre Elemente2097mit:2098\[z=x+\text{i} y\in \MdC \quad \text { bzw. }\quad (x,y)\in\MdR^2 \quad(x,y\in\MdR)\]2099bezeichnet werden. Mit dem \textbf{komplexen Betrag} $|z|:=\sqrt{x^2+y^2}$ gilt:2100\[|z|=\|(x,y)\|\]2101Man sieht, dass alle aus der Addition, der Skalarmultiplikation und der Norm entwickelten Begriffe2102und Sätze aus §1 und §2 auch in $\MdC$ gelten.\\21032104\begin{beispiel}[Konvergente Folgen]2105Sei $(z_n)$ eine Folge in $\MdC$ und $z_0\in\MdC$. $(z_n)$ konvergiert genau dann gegen2106$z_0$, wenn gilt:2107\begin{align*}2108&|z_n-z_0|\stackrel{n\to\infty}{\to}0\\2109\stackrel{2.1}{\iff} &\Re(z_n)\stackrel{n\to\infty}{\to}\Re(z_0)\wedge2110\Im(z_n)\stackrel{n\to\infty}{\to}\Im(z_0)2111\end{align*}2112Außerdem ist $(z_n)$ genau dann eine Cauchyfolge, wenn gilt:2113\[\forall\ep>0\exists n_0\in\MdN\forall n,m\ge n_0: |z_n-z_m|<\ep\]2114Also nach Cauchykriterium genau dann, wenn $(z_n)$ konvergent ist.2115\end{beispiel}21162117\begin{satz}[Produkte und Quotienten von Folgen]2118Seien $(z_n),(w_n)$ Folgen in $\MdC$ mit $z_n\stackrel{n\to\infty}{\to}z_0,2119w_n\stackrel{n\to\infty}{\to}w_0$.2120\begin{enumerate}2121\item Es gilt:2122\[z_nw_n\stackrel{n\to\infty}{\to}z_0w_0\]2123\item Ist $z_0\ne 0$, so existiert ein $m\in\MdN:\forall n\ge m:z_n\ne 0$ und:2124\[\frac1{z_n}\stackrel{n\to\infty}{\to}\frac1{z_0}\]2125\end{enumerate}2126\end{satz}21272128\begin{beweis}2129Wie in Ana I.2130\end{beweis}21312132\begin{definition}2133\index{unendliche Reihe}\index{Reihe!unendliche}2134\index{Konvergenz}\index{Divergenz}2135Sei $(z_n)$ eine Folge in $\MdC$, $s_n:=z_1+\cdots+z_n (n\in\MdN)$. $(s_n)$ heißt2136\textbf{unendliche Reihe} und wird mit $\sum_{n=1}^{\infty} z_n$ bezeichnet.\\2137$\sum_{n=1}^{\infty} z_n$ heißt genau dann \textbf{konvergent} (\textbf{divergent}),2138wenn $(s_n)$ konvergent (bzw. divergent) ist. Im Konvergenzfall gilt:2139\[\sum_{n=1}^{\infty} z_n:=\limsup_{n\to\infty} s_n\]2140\end{definition}21412142Die Definitionen und Sätze der Paragraphen 11, 12, 13 aus Ana I gelten wörtlich2143auch in $\MdC$, bis auf diejenigen Definitionen und Sätze, in denen die Anordnung2144auf $\MdR$ eine Rolle spielt (z.B. das Leibniz- und das Monotoniekriterium).2145\\2146\begin{beispiele}2147\index{geometrische Reihe}\index{Reihe!geometrische}2148\index{Exponentialfunktion}\index{komplex!Exponentialfunktion}2149\index{Cosinus}\index{Kosinus}\index{komplex!Kosinus}2150\index{Sinus}\index{komplex!Sinus}2151\item Sei $z\in\MdC$. $\sum_{n=0}^{\infty} z^n$ heißt \textbf{geometrische Reihe}.\\2152\textbf{Fall 1:} Ist $|z|< 1$, dann gilt:2153\begin{align*}2154&\sum_{n=0}^{\infty} |z|^n \text{ konvergiert}\\2155\implies &\sum_{n=0}^{\infty} z^n\text{ konvergiert absolut}\\2156\implies &\sum_{n=0}^{\infty} z^n\text{ konvergiert}2157\end{align*}2158\textbf{Fall 2:} Ist $|z|\ge 1$, dann gilt:2159\begin{align*}2160&|z|^n=|z^n|\stackrel{n\to\infty}{\not\to} 0\\2161\implies &z^n\stackrel{n\to\infty}{\not\to} 0\\2162\implies &\sum_{n=0}^{\infty} z^n \text{ divergiert}2163\end{align*}2164Ist $|z|<1$, so zeigt man wie in $\MdR$:2165\[\sum_{n=0}^{\infty} z^n= \frac1{1-z}\]2166\item Betrachte $\sum_{n=0}^\infty \frac{z^n}{n!}$. Für alle $z\in\MdC$ gilt:2167\begin{align*}2168&\sum_{n=0}^\infty \frac{|z|^n}{n!} \text{ konvergiert}\\2169\implies &\sum_{n=0}^\infty \frac{z^n}{n!} \text{ konvergiert absolut}2170\end{align*}2171Für alle $z\in\MdC$ definiere die (komplexe) \textbf{Exponentialfunktion} wie folgt:2172\[e^z:=\sum_{n=0}^\infty\frac{z^n}{n!}\]2173\item Wie in Beispiel (2) sieht man, dass $\sum_{n=0}^\infty (-1)^n \frac{z^{2n}}{(2n)!}$ und2174$\sum_{n=0}^\infty (-1)^n \frac{z^{2n+1}}{(2n+1)!}$ für alle $z\in\MdC$ absolut konvergieren.\\2175Dadurch lassen sich auch \textbf{Cosinus} und \textbf{Sinus} auf ganz $\MdC$ definieren:2176\[\cos{z}:=\sum_{n=0}^\infty (-1)^n\frac{z^{2n}}{(2n)!}\]2177\[\sin{z}:=\sum_{n=0}^\infty (-1)^n\frac{z^{2n+1}}{(2n+1)!}\]2178\end{beispiele}21792180\begin{satz}[Eigenschaften von Exponentialfunktion, Cosinus und Sinus]2181Seien $z,w\in\MdC, z=x+iy$ mit $x,y\in\MdR$. Es gilt:2182\begin{enumerate}2183\item $e^{z+w}=e^z e^w$2184\item $e^{iy}=\cos y+i\sin y$, insbesondere ist: $|e^{iy}|=1$2185\item $e^z=e^x e^{iy}=e^x(\cos y+i\sin y)$2186\item $ \cos (z)=\frac{e^{iz}+e^{-iz}}{2}, \sin (z)=\frac{e^{iz}-e^{-iz}}{2i}$\\2187Insbesondere ist für alle $t\in\MdR: \cos(it)=\frac{e^{-t}+e^t}{2} \xrightarrow{t \rightarrow \infty} \infty,2188\sin(it)=\frac{e^{-t}-e^t}{2i} \xrightarrow{t \rightarrow \infty} - \infty$\\2189Also sind Cosinus und Sinus auf $\MdC$ \textbf{nicht} beschränkt.2190\item $\forall k\in\MdZ:e^{z+2\pi i k}=e^z$2191\item $e^z=1 \iff \exists k\in\MdZ:z=2k\pi i$2192\item $e^{i\pi}+1=0$2193\end{enumerate}2194\end{satz}21952196\begin{beweise}2197\item Wie in Ana I.2198\item Nachrechnen!2199\item Folgt aus (1) und (2).2200\item Nachrechnen!2201\item Es gilt:2202\begin{align*}2203e^{z+2k\pi i} &\stackrel{(1)}{=}e^ze^{2k\pi i}\\2204&\stackrel{(2)}{=}e^z(\underbrace{\cos(2k\pi)}_{=1}+i\underbrace{\sin(2k\pi)}_{=0})\\2205&= e^z2206\end{align*}2207$\Rightarrow e^z$ ist auf $\mathbb{C}$ nicht injektiv!2208\item2209Die Äquivalenz folgt aus Implikation in beiden Richtungen:2210\begin{enumerate}2211\item["`$\impliedby$"'] Folgt aus (5) mit $z=0$.2212\item["`$\implies$"'] Sei $z=x+iy$ mit $x,y\in\MdR$. Es gilt:2213\[1=e^z=e^x(\cos(y)+i\sin(y))=e^x\cos(y)+ie^x\sin(y)\]2214Daraus folgt:2215\[\sin(y)=0\implies \exists j\in\MdZ:y=j\pi\]2216Und damit:2217\begin{align*}2218&1=e^x\cos(j\pi)=e^x(-1)^j\\2219\implies &x=0\wedge\exists k\in\MdN: j=2k2220\end{align*}2221Also ist $z=i2k\pi$.2222\end{enumerate}2223\item Es gilt:2224\[e^{i\pi}\stackrel{(2)}{=}\cos(\pi)+i\sin(\pi)=-1\]2225\end{beweise}22262227\begin{beispiel}2228Im Folgenden wollen wir alle $z\in\MdC$ bestimmen, für die $\sin(z)=0$ ist. Es gilt:2229\begin{align*}2230\sin(z)=0 &\stackrel{16.2(4)}{\iff}e^{iz}=e^{-iz}\\2231&\stackrel{16.2(1)}{\iff}e^{2iz}=e^{-iz}e^{iz}=e^0=1\\2232&\stackrel{16.2(6)}{\iff}\exists k\in\MdZ: 2iz=i2k\pi\\2233&\iff z=k\pi2234\end{align*}2235Der Sinus hat also nur reelle Nullstellen.2236\end{beispiel}22372238\begin{definition}2239\index{Potenzreihe}2240\index{Konvergenzradius}2241Sei $(a_n)$ ein Folge in $\MdC$ und $z_0\in\MdC$. $\sum_{n=0}^\infty a_n(z-z_0)^n$2242heißt eine \textbf{Potenzreihe} (PR). Sei nun:2243\[\rho:=\limsup \sqrt[n]{|a_n|}\]2244Dabei ist $\rho=\infty$, falls $\sqrt[n]{|a_n|}$ unbeschränkt ist. Dann heißt2245\[r:=2246\begin{cases}22470&\text{, falls }\rho=\infty\\2248\infty&\text{, falls }\rho=0\\2249\frac1\rho&\text{, falls }0<\rho<\infty2250\end{cases}\]2251der \textbf{Konvergenzradius} (KR) der PR.2252\end{definition}22532254\begin{satz}[Konvergenz von Potenzreihen]2255$\sum_{n=0}^\infty a_n(z-z_0)^n$ und $r$ seien wie oben.2256\begin{enumerate}2257\item Ist $r=0$, so konvergiert die PR \textbf{nur} für $z=z_0$.2258\item Ist $r=\infty$, so konvergiert die PR absolut für alle $z\in\MdC$.2259\item Sei $0<r<\infty$. Es gilt:2260\begin{enumerate}2261\item Ist $z\in\MdC$ und $|z-z_0|<r$, so konvergiert die PR absolut in $z$.2262\item Ist $z\in\MdC$ und $|z-z_0|>r$, so divergiert die PR in $z$.2263\item Ist $z\in\MdC$ und $|z-z_0|=r$, so ist keine allgemeine Aussage möglich.2264\end{enumerate}2265\end{enumerate}2266\end{satz}22672268\begin{beweis}2269Wie in Ana I.2270\end{beweis}22712272\begin{beispiele}2273\item Die PR $\sum_{n=0}^\infty z^n$ hat den KR $r=1$ und es gilt:2274\[\sum_{n=0}^\infty z^n\text{ konvergiert }\iff |z|<1\]2275\item Die PR $\sum_{n=0}^\infty \frac{z^n}{n^2}$ hat den KR $r=1$. Für $|z|=1$ gilt:2276\[\sum_{n=0}^\infty \frac{|z|^n}{n^2}=\sum_{n=0}^\infty \frac1{n^2}\]2277Also konvergiert $\sum_{n=0}^\infty \frac{z^n}{n^2}$ absolut. Insgesamt gilt also:2278\[\sum_{n=0}^\infty \frac{z^n}{n^2}\text{ konvergiert }\iff |z|\le 1\]2279\item Die PR $\sum_{n=0}^\infty \frac{z^n}{n}$ hat KR $r=1$, divergiert in $z=1$ und2280konvergiert in $z=-1$.2281\item Die PRen2282\begin{align*}2283&\sum_{n=0}^\infty \frac{z^n}{n!}&&\sum_{n=0}^\infty(-1)^n\frac{z^{2n}}{(2n)!}2284&&\sum_{n=0}^\infty (-1)^n\frac{z^{2n+1}}{(2n+1)!}2285\end{align*}2286haben jeweils KR $r=\infty$ (siehe 16.3).2287\end{beispiele}22882289\chapter{Normierte Räume, Banachräume, Fixpunktsatz}2290In diesem Paragraphen sei $\mathbb{K}$ stets gleich $\mathbb{R}$ oder $\mathbb{C}$2291und sei $X$ ein Vektorraum (VR) über $\mathbb{K}$.22922293\begin{definition}2294\index{Norm}2295\index{normierter Raum}\index{Raum!normierter}2296Eine Abbildung $\|\cdot\|:X\to\mathbb{R}$ heißt genau dann eine \textbf{Norm} auf $X$,2297wenn folgendes erfüllt ist:2298\begin{enumerate}2299\item $\forall x\in X: \|x\|\ge0 \text{ und } \|x\|=0\iff x=0$2300\item $\forall x\in X,\alpha\in\mathbb{K}:\|\alpha x\|=|\alpha|\cdot\|x\|$2301\item $\forall x,y\in X: \|x+y\|\le \|x\|+\|y\|$2302\end{enumerate}2303In diesem Fall heißt $(X,\|\cdot\|)$ ein \textbf{normierter Raum} (NR).2304\end{definition}23052306\begin{beispiele}2307\index{euklidische Norm}\index{Norm!euklidische}2308\item Sei $n\in\mathbb{N},X=\mathbb{K}^n$ und für $x=(x_1,\ldots,x_n)\in X$2309die \textbf{euklidische Norm} gegeben:2310\[\|x\|_2:=\sqrt{\sum_{j=1}^n |x_j|^2}\]2311Dann ist $(\mathbb{K}^n,\|\cdot\|_2)$ ein normierter Raum (vgl. §1).2312\item Sei $X=C[a,b]$ und für $f\in X$ seien die folgenden Normen gegeben:2313\begin{align*}2314&\|f\|_1:=\int_a^b|f(x)|\text{ d}x\\2315&\|f\|_2:=\sqrt{\int_a^b|f(x)|^2\text{ d}x}\\2316&\|f\|_\infty:=\max\{|f(x)|:x\in[a,b]\}2317\end{align*}2318Leichte Übung: $(X,\|\cdot\|_1),(X,\|\cdot\|_2)$ und $(X,\|\cdot\|_\infty)$2319sind NRe.2320\item Sei $K\subseteq \mathbb{R}^n$ kompakt, $X:=C(K,\mathbb{R}^m)$ und sei für2321$f\in X$ die Norm2322\[\|f\|_\infty:=\max\{\|f(x)\|:x\in K\}\]2323Leichte Übung: $(X,\|\cdot\|_\infty)$ ist ein NR.2324\end{beispiele}23252326Für den Rest dieses Paragraphen sei $X$ stets ein NR mit Norm $\|\cdot\|$.23272328\begin{bemerkung}2329Wie in §1 zeigt man die umgekehrte Dreiecksungleichung:2330\[\forall x,y\in X:|\|x\|-\|y\||\le\|x-y\|\]2331\end{bemerkung}23322333\begin{definition}2334\index{Konvergenz}2335\index{Divergenz}2336\index{Grenzwert}2337\index{Limes}2338\index{Cauchy-!Folge}2339\index{Offenheit}2340\index{Abgeschlossenheit}2341\begin{enumerate}2342\item Sei $(x_n)$ eine Folge in $X$. $(x_n)$ heißt genau dann \textbf{konvergent},2343wenn ein $x_0\in X$ existiert für das gilt:2344\[\|x_n-x_0\|\stackrel{n\to\infty}\to 0\]2345In diesem Fall ist $x_0$ eindeutig bestimmt und man schreibt $x_n\stackrel{n\to\infty}\to x_0$2346oder $\lim_{n\to\infty} x_n=x_0$. $x_0$ heißt \textbf{Grenzwert} oder \textbf{Limes}2347von $(x_n)$.2348\item $(x_n)$ heißt genau dann \textbf{divergent}, wenn $(x_n)$ nicht konvergent ist.2349\item $(x_n)$ heißt genau dann eine \textbf{Cauchyfolge} (CF), wenn gilt:2350\[\forall\ep>0 \exists n_0=n_0(\ep)\in\MdN:\|x_n-x_m\|<\ep\quad \forall n,m\ge n_0\]2351\item Sei $x_0\in X$ und $\delta>0$. Definiere:2352\[U_\delta(x):=\Set{x\in X | \|x-x_0\|<\delta}\]2353\item Sei $A\subseteq X$. $A$ heißt \textbf{offen}, genau dann wenn gilt:2354\[\forall x\in A\exists \delta=\delta(x)>0: U_\delta(x)\subseteq A\]2355A heißt \textbf{abgeschlossen}, genau dann wenn $X\setminus A$ offen ist.2356\end{enumerate}2357\end{definition}23582359\begin{satz}[Eigenschaften von Folgen in normierten Räumen]2360\index{Beschränktheit}2361\index{gleichmäßige Konvergenz}\index{Konvergenz!gleichmäßige}2362Seien $(x_n),(y_n)$ Folgen in $X$, $(\alpha_n)$ Folge in $\mathbb{K}$, $x,y\in X$ und2363$A\subseteq X$.2364\begin{enumerate}2365\item Gilt $x_n\to x,y_n\to y$ und $\alpha_n\to\alpha\in\mathbb{K}$, so folgt:2366\begin{align*}2367&x_n+y_n\to x+y& &\alpha_n x_n\to\alpha x& &\|x_n\|\to\|x\|2368\end{align*}2369D.h. die Addition und Skalarmultiplikation sind stetig.2370\item Ist $(x_n)$ konvergent, so ist $(x_n)$ \textbf{beschränkt}, d.h.:2371\[\exists c\ge 0:\forall n\in\MdN:\|x_n\|\le c\]2372und $(x_n)$ ist eine CF.2373\item Genau dann wenn $A$ abgeschlossen ist, gilt für jede konvergente Folge $(x_n)$ in $A$:2374\[\lim_{n\to\infty}x_n\in A\]2375\item Sei $(X,\|\cdot\|_\infty)$ wie in obigem Beispiel (3). Dann gilt für2376$(f_n)$ in $X$ und $f\in X$, dass $(f_n)$ genau dann auf $K$ \textbf{gleichmäßig} gegen $f$2377\textbf{konvergiert}, wenn gilt:2378\begin{align*}2379&\|f_n-f\|_\infty \stackrel{n\to\infty}{\to}0\\2380:\iff &\forall\ep>0\exists n_0\in\MdN:\|f_n(x)-f(x)\|<\ep\quad \forall n\ge n_0\forall x\in K2381\end{align*}2382\end{enumerate}2383\end{satz}23842385\begin{beweise}2386\item Wie im $\MdR^n$.2387\item Wie im $\MdR^n$.2388\item Wie im $\MdR^n$.2389\item \textbf{\color{red}In der großen Übung.}2390\end{beweise}23912392\begin{beispiel}2393Sei $X=C[-1,1]$ mit $\|f\|_2:=\sqrt{\int_{-1}^1 |f(x)|^2\text{ d}x}$. Definiere die2394Folge $(f_n)$ wie folgt:2395\[\forall n\in\MdN: f_n(x)=2396\begin{cases}2397-1&,-1\le x\le -\frac1n\\2398nx&,-\frac1n\le x\le \frac1n\\23991&,\frac1n\le x\le 12400\end{cases}\]2401Dann ist klar, dass $f_n\in X$ für alle $n\in\MdN$. In den \textbf{\color{red}großen Übungen} wird gezeigt:2402\begin{enumerate}2403\item $(f_n)$ ist eine CF in $X$.2404\item Es existiert \textbf{kein} $f\in X$ mit $\|f_n-f\|_2\to 0$2405\end{enumerate}2406\end{beispiel}24072408\begin{definition}2409\index{Banachraum}2410\index{vollständiger Raum}\index{Raum!vollständiger}2411$X$ heißt ein \textbf{Banachraum} oder \textbf{vollständig}, genau dann wenn jede2412CF in $X$ einen Grenzwert in $X$ hat.2413\end{definition}24142415\begin{beispiele}2416\item Sei $X=\mathbb{K}^n, \|x\|_2=\sqrt{\sum_{j=1}^n |x_j|^2}$. Dann folgt aus §2,2417dass $(X,\|\cdot\|_2)$ ein BR ist.2418\item Sei $X=C[-1,1], \|f\|_2=\sqrt{\int_{-1}^1 |f(x)|^2 \text{ d}x}$. Dann ist2419$(X,\|\cdot\|_2)$ \textbf{kein} BR.2420\item Sei $(X,\|\cdot\|_\infty)$ wie in 17.1(4). In den \textbf{\color{red}großen Übungen} wird gezeigt,2421dass $(X,\|\cdot\|_\infty)$ ein BR ist.2422\end{beispiele}24232424\begin{satz}[Banachscher Fixpunktsatz]2425\index{Kontraktion}2426\index{Folge der sukzessiven Approximationen}\index{sukzessive Approximationen!Folge der}2427Sei $(X,\|\cdot\|)$ ein BR, $\emptyset\ne A\subseteq X$ sei abgeschlossen und es sei2428$F:A\to X$ eine Abbildung mit:2429\renewcommand{\labelenumi}{(\roman{enumi})}2430\begin{enumerate}2431\item $F(A)\subseteq A$2432\item $F$ ist eine \textbf{Kontraktion}, d.h.:2433\[\exists L\in[0,1):\forall x,y\in A:\|F(x)-F(y)\|\le L\cdot \|x-y\|\]2434\end{enumerate}2435\renewcommand{\labelenumi}{(\arabic{enumi})}2436Dann existiert genau ein $x^*\in A$ mit $F(x^*)=x^*$.\\2437Ist $x_0\in A$ beliebig und $(x_n)$ definiert durch $x_{n+1}:=F(x_n)\ (n\ge 0)$,2438so ist $x_n\in A$ für alle $n\in\MdN$ und es gilt:2439\[x_n\stackrel{n\to\infty}\to x^*\]2440Weiter gilt für alle $n\in\MdN$:2441\[\|x_n-x^*\|\le\frac{L^n}{1-L}\|x_1-x_0\|\]2442Diese Folge heißt Folge der \textbf{sukzessiven Approximationen}.2443\end{satz}24442445\begin{beweis}2446Sei $x_0\in A$ und $(x_n)$ wie oben definiert. Es gilt:2447\[\|x_2-x_1\|=\|F(x_1)-F(x_2)\|\le L\cdot \|x_1-x_0\|\]2448Induktiv lässt sich zeigen:2449\[\forall k\in\MdN_0: \|x_{k+1}-x_k\|\le L^k\cdot \|x_1-x_0\|\]2450Seien nun $m,n\in\MdN$ und $m>n$, dann gilt:2451\begin{align*}2452\|x_m-x_n\| &= \|(x_m-x_{m-1})+\cdots+(x_{n+1}-x_n)\|\\2453&\le \|x_m-x_{m-1}\|+\cdots+\|x_{n+1}-x_n\|\\2454&\le L^{m-1}\|x_1-x_0\|+\cdots+L^n\|x_1-x_0\|\\2455&=(L^{m-1}+\cdots+L^n)\cdot \|x_1-x_0\|\\2456&= L^n(1+\cdots+L^{m-n-1})\cdot \|x_1-x_0\|\\2457&\le L^n(\sum_{j=0}^\infty L^j)\cdot \|x_1-x_0\|\\2458&= \frac{L^n}{1-L}\|x_1-x_0\|2459\end{align*}2460Also ist $(x_n)$ eine CF. Da $X$ außerdem $BR$ ist, existiert ein $x^*\in X$ mit2461$x_n\to x^*$. Wegen $(x_n)\subseteq A$ und $A$ abgeschlossen ist außerdem $x^*\in A$.\\2462Festes $n$ und $m\to\infty$ liefert aus obiger Gleichung:2463\[\forall n\in\MdN:\|x_n-x^*\|\le \frac{L^n}{1-L}\|x_1-x_0\|\]2464Für $F(x^*)$ gilt also:2465\begin{align*}2466\|F(x^*)-x^*\| &= \|F(x^*)-x_{n+1}+x_{n+1}-x^*\|\\2467&\le \|F(x^*)-x_{n+1}\|+\|x_{n+1}-x^*\|\\2468&=\|F(x^*)-F(x_n)\|+\|x_{n+1}-x^*\|\\2469&\le L\|x^*-x_n\|+\|x_{n+1}-x^*\|\stackrel{n\to\infty}\to 02470\end{align*}2471Daraus folgt:2472\[\|F(x^*)-x^*\| = 0\iff F(x^*)=x^*\]2473Sei nun $z\in A$ und $F(z)=z$. Es gilt:2474\begin{align*}2475&\|x^*-z\|=\|F(x^*)-F(z)\| \le L\|x^*-z\|\\2476\implies &(1-L)\|x^*-z\| \le 0\\2477\implies &x^*=z2478\end{align*}2479Also ist $x^*$ eindeutig.2480\end{beweis}24812482\chapter{Differentialgleichungen: Grundbegriffe}2483In diesem Paragraphen seien $I,J,\ldots$ immer Intervalle in $\MdR$.24842485\begin{erinnerung}2486Seien $p,k\in\MdN$. Eine Funktion $y=(y_1,\ldots,y_p):I\to\MdR^p$ heißt2487$k$-mal (stetig) db, genau dann wenn $y_1,\ldots,y_p$ $k$-mal auf $I$ (stetig)2488db sind.\\2489In diesem Fall ist $y^{(j)}=(y_1^{(j)},\ldots,y_p^{(j)})\ (j=1,\ldots,k)$.2490\end{erinnerung}24912492\begin{definition}2493\index{gewöhnliche Differentialgleichung}\index{Differentialgleichung!gewöhnliche}2494\index{Differentialgleichung!Lösung}\index{Lösung!einer Differentialgleichung}2495Seien $n,p\in\MdN$, sei weiter2496$D\subseteq\MdR\times\underbrace{\MdR^p\times\cdots\times\MdR^p}_{n+1 \text{ Faktoren}}$2497und $F:D\to\MdR^p$ eine Funktion.\\2498Eine Gleichung der Form:2499\begin{align*}2500F(x,y,\ldots,y^{(n)})=0 \tag{i}2501\end{align*}2502heißt eine \textbf{(gewöhnliche) Differentialgleichung} (Dgl) \textbf{$n$-ter Ordnung}.\\2503Eine Funktion $y:I\to\MdR^p$ heißt eine \textbf{Lösung} (Lsg) von (i), genau dann wenn2504$y$ auf $I$ $n$-mal db, für alle $x\in I, (x,y(x),\ldots,y^{(n)}(x))\in D$ ist und gilt:2505\[\forall x\in I: F(x,y(x),\ldots,y^{(n)}(x))=0\]2506\end{definition}25072508\begin{beispiele}2509\item Sei $n=p=1$, $F(x,y,z)=z+\frac yx$ und $D=\Set{(x,y,z)\in\MdR^3 | x\ne 0}$, dann ist die2510zugehörige Dgl:2511\[y'+\frac yx =0\]2512Z.B. ist $y:(0,\infty)\to\MdR, y(x)=\frac1x$ eine Lösung der Dgl.\\2513Weitere Lösungen sind:2514\begin{align*}2515y:(0,1)\to\MdR,y(x):=0\\2516y:(-\infty,0)\to\MdR,y(x):=\frac3x2517\end{align*}2518\item Sei $n=1,p=2$ und folgende Dgl gegeben:2519\[y'=\begin{pmatrix}y_1'\\y_2'\end{pmatrix}=\begin{pmatrix}-y_2\\y_1\end{pmatrix}\]2520Dann ist $y:\MdR\to\MdR^2, y(x):=(\cos x,\sin x)$ eine Lösung der Dgl.2521\end{beispiele}25222523\begin{definition}2524\index{explizite Differentialgleichung}\index{Differentialgleichung!explizite}2525Seien $n,p\in\MdN, D\subseteq \MdR\times\underbrace{\MdR^p\times\cdots\times\MdR^p}_{n \text{ Faktoren}}$2526und $f:D\to\MdR^p$.\\2527Eine Gleichung der Form:2528\begin{align*}2529y^{(n)}=f(x,y,\ldots,y^{(n-1)})\tag{ii}2530\end{align*}2531heißt \textbf{explizite Differentialgleichung $n$-ter Ordnung}.\\2532(hier gilt: $F(x,y,\ldots,y^{(n)})=y^{(n)}-f(x,y,\ldots,y^{(n-1)})$)2533\end{definition}25342535\begin{definition}2536\index{Anfangswertproblem}2537\index{Anfangswertproblem!Lösung}\index{Lösung!eines Anfangswertproblems}2538\index{eindeutige Lösung}\index{Lösung!eindeutige}2539Seien $p,n,D$ und $f$ wie oben. Weiter sei $(x_0,y_0,\ldots,y_{n-1})\in D$ fest.\\2540Dann heißt:2541\begin{align*}2542\begin{cases}y^{(n)}=f(x,y,\ldots,y^{(n-1)})\\2543y(x_0)=y_0,\ldots,y^{(n-1)}(x_0)=y_{n-1}\end{cases}\tag{iii}2544\end{align*}2545ein \textbf{Anfangswertproblem} (AwP).\\2546Eine Funktion $y:I\to\MdR^p$ heißt eine \textbf{Lösung} des AwP (iii), genau dann2547wenn $y$ eine Lösung von (ii) ist und gilt:2548\[y(x_0)=y_0,\ldots,y^{(n-1)}(x_0)=y_{n-1}\]2549Das AwP heißt \textbf{eindeutig lösbar}, genau dann wenn (iii) eine Lösung hat und2550für je zwei Lösungen $y:I\to\MdR^p,\tilde y:J\to\MdR^p$ von (iii) gilt:2551\[\forall x\in I\cap J:y(x)=\tilde y(x)\]2552(Beachte: $x_0\in I\cap J$)2553\end{definition}25542555\begin{beispiele}2556\item Sei $n=p=1$ und das folgende AwP gegeben:2557\[\begin{cases}2558y'=2\sqrt{|y|}\\2559y(0)=02560\end{cases}\]2561Dann sind:2562\begin{align*}2563&y:\MdR\to\MdR, x\mapsto x^2\\2564&y:\MdR\to\MdR, x\mapsto 02565\end{align*}2566Lösungen des AwP.2567\item Sei $n=p=1$ und das folgende AwP gegeben:2568\[\begin{cases}2569y'=y\\2570y(0)=12571\end{cases}\]2572Dann ist:2573\[y:\MdR\to\MdR, x\mapsto e^x\]2574eine Lösung des AwP. In §19 werden wir sehen, dass dieses AwP eindeutig lösbar ist.2575\end{beispiele}25762577\chapter{Lineare Differentialgleichungen 1. Ordnung}2578In diesem Paragraphen sei $I\subseteq\MdR$ ein Intervall und $a,s:I\to\MdR$ \textbf{stetig}.2579Weiter sei $J\subseteq I$ ein Teilintervall von $I$.25802581\begin{definition}2582\index{linear!Differentialgleichung (1. Ordnung)}\index{Differentialgleichung!lineare (1.Ordnung)}2583\index{homogen!Differentialgleichung}\index{Differentialgleichung!homogene}2584\index{inhomogen!Differentialgleichung}\index{Differentialgleichung!inhomogene}2585\index{Störfunktion}2586Die Differentialgleichung2587\begin{align*}2588& y'=a(x)y+s(x)&\tag{$*$}2589\end{align*}2590heißt \textbf{lineare Differentialgleichung 1. Ordnung}. Sie heißt \textbf{homogen},2591falls $s\equiv 0$, anderenfalls heißt sie \textbf{inhomogen}. $s$ heißt \textbf{Störfunktion}.2592\end{definition}25932594Wir betrachten zunächst die zu ($*$) gehörende \textbf{homogene Gleichung}:2595\begin{align*}2596&y'=a(x)y&\tag{H}2597\end{align*}2598Aus Ana I 23.14 folgt, dass $a$ auf $I$ eine Stammfunktion $A$ besitzt.25992600\begin{satz}[Lösung einer homogenen linearen Dgl 1. Ordnung]2601Sei $y:J\to\MdR$ eine Funktion. $y$ ist genau dann eine Lsg von (H), wenn ein $c\in\MdR$2602existiert mit:2603\[y(x)=c\cdot e^{A(x)}\]2604\end{satz}26052606\begin{beweis}2607\begin{enumerate}2608\item["`$\impliedby$"'] Es existiere ein $c\in\MdR$, sodass $y(x)=ce^{A(x)}$ für $x\in J$. Dann gilt:2609\[\forall x\in J: y'(x)=c\cdot e^{A(x)}\cdot A'(x)=a(x)\cdot c\cdot e^{A(x)}=a(x)y(x)\]2610\item["`$\implies$"'] Sei $g(x):=\frac{y(x)}{e^{A(x)}}$. Nachrechnen: $\forall x\in J:g'(x)=0$\\2611Aus Ana I folgt, dass ein $c\in\MdR$ existiert, sodass für alle $x\in J$ gilt $g(x)=c$.2612\end{enumerate}2613\end{beweis}26142615\begin{satz}[Eindeutige Lösung eines Anfangswertproblems]2616Sei $x_0\in I,y_0\in\MdR$. Dann hat das2617\[\text{AwP}2618\begin{cases}2619y'=a(x)y\\2620y(x_0)=y_02621\end{cases}\]2622auf $I$ genau eine Lösung.2623\end{satz}26242625\begin{beweis}2626Sei $c\in\MdR,y(x)=c\cdot e^{A(x)}$ für alle $x\in I$. Dann folgt aus 19.1, dass2627$y$ eine Lösung von (H) ist. Außerdem gilt:2628\begin{align*}2629&y_0=y(x_0)\\2630\iff &y_0=c\cdot e^{A(x_0)}\\2631\iff &c=y_0\cdot e^{-A(x_0)}2632\end{align*}2633\end{beweis}26342635\begin{beispiel}2636Sei das folgende AwP gegeben:2637\[\begin{cases}2638y'=\sin(x)y\\2639y(0)=12640\end{cases}\]2641Die allgemeine Lösung der homogenen Gleichung $y'=\sin(x)y$ ist für $c\in\MdR$:2642\[\importantbox{y(x)=c\cdot e^{-\cos(x)}}\]2643Außerdem gilt:2644\[1=y(0)=c\cdot e^{-\cos(0)}=\frac ce\]2645Also folgt $c=e$ und damit ist die Lösung des AwP $y(x)=e^{1-\cos(x)}$.2646\end{beispiel}26472648\index{Variation der Konstanten}2649Nun betrachten wir die \textbf{inhomogene Gleichung}2650\begin{align*}2651y'=a(x)y+s(x)\tag{IH}2652\end{align*}2653Für eine spezielle Lösung $y_s$ von (IH) macht man den Ansatz $y_s(x)=c(x)\cdot e^{A(x)}$2654mit einer (unbekannten) db Funktion $c$. Dies heißt \textbf{Variation der Konstanten}.\\2655Mit diesem Ansatz gilt:2656\begin{align*}2657y_s'(x)&=c'(x)\cdot e^{A(x)}+c(x)\cdot e^{A(x)}\cdot a(x)\\2658&\stackrel{!}{=}a(x)y_s(x)+s(x)\\2659&=a(x)c(x)\cdot e^{A(x)}+s(x)2660\end{align*}2661Dies ist äquivalent dazu, dass gilt:26622663\begin{align*}2664&c'(x)\cdot e^{A(x)}=s(x)\\2665\iff &c'(x)=s(x)\cdot e^{-A(x)}\\2666\iff &\importantbox{c(x)=\int s(x)\cdot e^{-A(x)}\text{ d}x}2667\end{align*}2668Ist also $c$ eine Stammfunktion von $s\cdot e^{-A}$, so ist $y_s(x):=c(x)\cdot e^{A(x)}$2669eine Lösung von (IH). Insbesondere besitzt (IH) auf $I$ Lösungen.26702671\begin{beispiel}2672Sei folgende inhomogene Gleichung gegeben:2673\begin{align*}2674y'=\sin(x)y+\sin(x)\tag{$*$}2675\end{align*}2676Der Ansatz $y_s(x)=c(x)\cdot e^{-\cos(x)}$ für eine spezielle Lösung von ($*$) liefert wie oben:2677\[c(x)=\int \sin(x)\cdot e^{\cos(x)}\text{ d}x = -e^{\cos(x)}\]2678Dann ist $y_s(x)=-e^{\cos(x)}\cdot e^{-\cos(x)}=-1$.2679\end{beispiel}26802681\begin{definition}2682Definiere die Lösungsmengen:2683\begin{align*}2684L_H &:=\Set{y:I\to\MdR | y\text{ ist eine Lösung von (H)} }\\2685L_{IH}&:=\Set{y:I\to\MdR | y\text{ ist eine Lösung von (IH)}}2686\end{align*}268716.1$\implies$ $L_H=\Set{c\cdot e^{A} | c\in \MdR}$. Bekannt: $L_{IH}\ne\emptyset$.2688\end{definition}26892690\begin{satz}[Lösungen]2691Sei $y_s\in L_{IH}, x_0\in I,y_0\in \MdR$.2692\begin{enumerate}2693\item $y\in L_{IH}\iff \exists y_h\in L_{H}: y=y_h+y_s$2694\item Das2695\[2696\text{AwP}2697\begin{cases}2698y'=a(x)y+s(x)\\2699y(x_0)=y_02700\end{cases}\]2701hat auf $I$ genau eine Lösung2702\end{enumerate}2703\end{satz}27042705\begin{beweis}2706Leichte Übung!2707\end{beweis}27082709\begin{beispiele}2710\item ($I=\MdR$) Bestimme die allg. Lösung von2711\begin{align*}2712y'=2xy+x\tag{$*$}2713\end{align*}27141. Bestimme die allg. Lösung der Gleichung $y'=2xy$: $y(x)=ce^{x^2} (c\in\MdR)$.\\27152. Bestimme eine spezielle Lösung von $(*)$: $y_s(x)=ce^{x^2}$ mit $c(x)=\int xe^{-x^2}=-\frac 12 e^{-x^2}$2716Also: $y_s(x)=-\frac12$\\27173. Die Allgemeine Lösung von $(*)$ lautet:2718\[y(x)=ce^{x^2}-\frac 12 \quad(c\in\MdR)\]2719\item Löse das AwP:2720\[\begin{cases}2721y'=2xy+x\\2722y(1)=-12723\end{cases}\]2724Allg. Lösung der Dgl: $y(x)=ce^{x^2}-\frac 12$\\2725\[-1=y(1)=ce-\frac 12\implies c=-\frac 1{2e}\]2726Lösung des AwPs: $y(x)=-\frac1{2e}e^{x^2}-\frac 12$.2727\end{beispiele}27282729\chapter{Differentialgleichungen mit getrennten Veränderlichen}27302731In diesem §en seien $I,J\subseteq\MdR$ Intervalle, $f\in C(I),g\in C(J),x_0\in I$ und2732$y_0\in J$.27332734\begin{definition}2735\index{Differentialgleichung!mit getrennten Veränderlichen}2736\index{getrennte Veränderliche!Differentialgleichung mit}2737Die Differentialgleichung:2738\begin{align*}2739y'=f(x)g(y)\tag{i}2740\end{align*}2741heißt \textbf{Differentialgleichung mit getrennten Veränderlichen}.\\2742Wir betrachten auch noch das2743\begin{align*}2744\text{AwP}2745\begin{cases}2746y'=f(x)g(y)\\2747y(x_0)=y_02748\end{cases}2749\tag{ii}2750\end{align*}2751\end{definition}27522753\begin{satz}[Lösungen]2754Sei $y_0\in J^0$ (also ein innerer Punkt von $J$) \textbf{und} $g(y)\ne 0\ \forall y\in J$.\\2755Dann existiert ein Intervall $I_{x_0}$ mit $x_0\in I_{x_0}\subseteq I$ und:2756\begin{enumerate}2757\item Das AwP (ii) hat eine Lösung $y:I_{x_0}\to\MdR$.2758\item Die Lösung aus (1) erhält man durch Auflösen der folgenden Gleichung nach $y(x)$.2759\begin{align*}2760\importantbox{\int_{y_0}^{y(x)}\frac 1{g(t)}\text{ d}t=\int_{x_0}^x f(t)\text{ d}t\tag{$*$}}2761\end{align*}2762\item Sei $U\subseteq I$ ein Intervall und $u:U\to\MdR$ eine Lösung des AwPs (ii),2763so ist $U\subseteq I_{x_0}$ und $u=y$ auf $U$ (wobei $y$ die Lösung aus (1) ist).\\2764Insbesondere ist das AwP (ii) eindeutig lösbar.2765\end{enumerate}2766\end{satz}27672768\begin{beweis}2769Definiere $G\in C^1(J)$ und $F\in C^1(I)$ durch:2770\begin{align*}2771&G(y):=\int_{y_0}^y \frac 1{g(t)}\text{ d}t &&F(x):=\int_{x_0}^x f(t)\text{ d}t2772\end{align*}2773Dann ist $G'=\frac 1g, F'=f$ und $F(x_0)=0=G(y_0)$.\\2774Da für alle $y\in J$ gilt:2775\[G'(y)=\frac 1{g(y)}\ne 0\]2776ist entweder $G'>0$ auf $J$ oder $G'<0$ auf $J$.\\2777Also existiert die Umkehrabbildung $G^{-1}:G(J)\to J$, $K:=G(J)$ ist ein Intervall und es gilt:2778\begin{align*}2779y_0\in J^0&\implies 0=G(y_0)\in K^0\\2780&\implies \exists \ep>0:(-\ep,\ep)\subseteq K2781\end{align*}2782Da $F$ stetig in $x_0$ ist, existiert ein $\delta>0$ mit:2783\[|F(x)|=|F(x)-F(x_0)|<\ep \quad \forall x\in U_\delta(x_0)\cap I=:M_0\]2784$M_0$ ist ein Intervall, $x_0\in M_0\subseteq I$ und $F(M_0)\subseteq K$. Sei2785\[\mathfrak{M}:=\Set{M\subseteq I | M \text{ ist Intervall},x_0\in M,F(M)\subseteq K}\]2786Da $M_0\in\mathfrak{M}$ ist, ist $\mathfrak{M}\ne\emptyset$. Sei2787\[I_{x_0}:=\bigcup_{M\in\mathfrak{M}} M\]2788dann ist $I_{x_0}\in\mathfrak{M}$. Definiere nun $y:I_{x_0}\to\MdR$ durch:2789\[y(x):=G^{-1}(F(x))\]2790so ist $y$ auf $I_{x_0}$ differenzierbar und es gilt:2791\[y(x_0)=G^{-1}(F(x_0))=G^{-1}(0)=y_0\]2792Weiter gilt:2793\begin{align*}\forall x\in I: G(y(x))=F(x)\tag{+}\end{align*}2794also gilt $(*)$.2795Differenzierung von (+) liefert:2796\begin{align*}2797&\forall x\in I_{x_0}: G'(y(x)y'(x)=F'(x)\\2798\implies &\forall x\in I_{x_0}: \frac 1{g(y(x))}y'(x)=f(x)\\2799\implies &\forall x\in I_{x_0}: y'(x)=f(x)g(y(x))2800\end{align*}2801\begin{itemize}2802\item[(3)] Es ist $u'(t)=f(t)g(u(t))$ für alle $t\in U$ \textbf{und} $u(U)\subseteq J$.2803Daraus folgt:2804\begin{align*}2805&f(t)=\frac{u'(t)}{g(u(t))}\\2806\implies &F(x)=\int_{x_0}^x f(t)\text{ d}t=\int_{x_0}^x \frac{u'(t)}{g(u(t))}\text{ d}t\\2807&\stackrel{Subst.}{=}2808\begin{cases}2809s=u(t)\\2810\text{ d}s= u'(t)\text{ d}t\\2811t=x_0\implies s=u(x_0)=y_02812\end{cases}=\int_{y_0}^{u(x)}\frac 1{g(s)}\text{ d}s=G(u(x))2813\end{align*}2814Also: $\forall x\in U:F(x)=G(u(x))$. Somit gilt:2815\[F(U)=G(u(U))\subseteq G(J)=K\]2816D.h. $U\in\mathfrak{M}$ und daher ist: $U\subseteq I_{x_0}$.\\2817Weiter gilt:2818\[\forall x\in U: u(x)=G^{-1}(F(x))=y(x)\]2819\end{itemize}2820\end{beweis}28212822\textbf{Für die Praxis: Trennung der Veränderlichen (TDV):}\\2823\begin{align*}2824&y'=f(x)g(y)\\2825\to\ &\frac{\text{ d}y}{\text{ d}x}=f(x)g(y)\\2826\to\ &\frac{\text{ d}y}{g(y)}=f(x)\text{ d}x\\2827\to\ &\int{\frac{\text{ d}y}{g(y)}}=\int f(x)\text{ d}x+c\tag{iii}2828\end{align*}2829Die allgemeine Lösung von (i) erhält man durch Auflösen der Gleichung (iii) nach $y$.\\2830Zur Lösung von (ii) passt man die Konstante $c$ der Anfangsbedingung $y(x_0)=y_0$ an.28312832\begin{beispiele}2833\item Sei $y'=2xe^{-y}$. Dann gilt:2834\begin{align*}2835\frac{\text{ d}y}{\text{ d}x}=2xe^{-y}\\2836\to\ &e^y\text{ d}y = 2x\text{ d}x\\2837\to\ &\int e^y\text{ d}y=\int 2x\text{ d}x+c\\2838\to\ & e^y=x^2+c\\2839\to\ &y=\log(x^2+c)2840\end{align*}2841Ist z.B. $c=0$, so ist $y(x):=\log(x^2)$ eine Lösung auf $(0,\infty)$, oder2842$y(x)=\log(x^2)$ ist eine auf $(-\infty,0)$.\\2843$c=2: y(x)=\log(x^2+2)$ ist eine Lösung auf $\MdR$.\\2844$c=-1: y(x)=\log(x^2-1)$ ist eine Lösung auf $(1,\infty)$.\\2845Löse das2846\begin{align*}2847\text{AwP}2848\begin{cases}2849y'=2xe^{-y}\\2850y(1)=12851\end{cases}2852\end{align*}2853Allg. Lösung der Dgl:2854\begin{align*}2855&y(x)=\log(x^2+c)\\2856\implies &1=y(1)=\log(1+c)\\2857\implies &e=1+c \iff c=e-12858\end{align*}2859$y(x)=\log(x^2+e-1)$ ist Lösung des AwPs auf $\MdR$.2860\item $y'=\frac{x^2}{1-x}\cdot\frac{1+y}{y^2}$. Trennung der Veränderlichen:2861\begin{align*}2862&\frac{\text{ d}y}{\text{ d}x}=\frac{x^2}{1-x}\cdot\frac{1+y}{y^2}\\2863\to\ &\frac{y^2}{y+1}\text{ d}y=\frac{x^2}{x-1}\text{ d}x\\2864\to\ &\frac{y^2}2-y+\log(1+y)=\frac{x^2}2+x+\log(x-1)+c2865\end{align*}2866(Lösungen in impliziter Form)2867\end{beispiele}286828692870\chapter{Systeme von Differentialgleichungen 1. Ordnung}28712872In diesem Paragraphen sei $D \subseteq \MdR^{n+1}$ und $f = (f_1, \ldots, f_n): D \to \MdR^n$. Für Punkte im $\MdR^{n+1}$ schreiben wir $(x,y)$, wobei $x \in \MdR$ und $y = (y_1,...,y_n) \in \MdR^n$.28732874\begin{definition}2875\index{System von Differentialgleichungen}\index{Differentialgleichung!System von}2876\index{Anfangswertproblem}2877Ein \textbf{System von Differentialgleichungen 1. Ordnung} hat die Form:2878\begin{align*}2879\begin{cases}2880y_1'=f_1(x, y_1, \ldots, y_n)\\2881y_2'=f_2(x, y_1, \ldots, y_n)\\2882\quad\ \vdots\\2883y_n'=f_n(x, y_1, \ldots, y_n)2884\end{cases}2885\tag{i}2886\quad\text{oder kurz: } y'=f(x,y)2887\end{align*}2888Wir betrachten auch noch das2889\begin{align*}2890\text{AwP}2891\begin{cases}2892y'=f(x,y)\\2893y(x_0) = y_0\\2894\end{cases}2895\tag{ii}2896\quad\text{(wobei } (x_0, y_0) \in D)2897\end{align*}2898\end{definition}28992900\begin{satz}[Integralgleichung zur Lösbarkeit eines Anfangswertproblems]2901Sei $I \subseteq \MdR$ ein Intervall, $D := I \times \MdR^n, x_o\in I, y_0\in \MdR^n$ und $f:D\to\MdR^n$ sei stetig. Für $y\in C(I,\MdR^n)$ gilt:2902\[\text{$y$ ist eine Lösung des AwP (ii)} \iff \forall x\in I:y(x) = y_0 + \int_{x_0}^x f(t, y(t)) \text{d}t \]2903In diesem Fall ist $y \in C^1(I, \MdR^n)$.2904\end{satz}29052906\begin{beweis}2907\begin{enumerate}2908\item["`$\implies$"'] Es gilt: $y'(x) = f(x, y(x)) \forall x\in I$; da $y$ und $f$ stetig sind, folgt: $y' \in C(I,\MdR )$. Weiter:2909\[\int_{x_0}^x f(t,y(t)) \text{d}t = \int_{x_0}^x y'(t)\text{d}t = y(x) - y(x_0) = y(x) - y_0 \quad \forall x\in I.\]2910Bringt man $y_0$ auf die linke Seite, ergibt sich die Behauptung.2911\item["`$\impliedby$"'] Es gelte für alle $x\in I$:2912\[y(x) = y_0 + \int_{x_0}^x f(t, y(t))\text{d}t\]2913Aus dem zweiten Hauptsatz der Differential- und Integralrechnung folgt: $y$ ist auf $I$ differenzierbar und2914\[ y'(x) = \frac{\text{d}}{\text{d}x} \int_{x_0}^x f(t, y(t))\text{d}t = f(x, y(x)) \quad \forall x \in I. \]2915Also erfüllt $y$ die Differentialgleichung.2916Klar: $y(x_0) = y_0$. Also löst $y$ das AwP.2917\end{enumerate}2918\end{beweis}291929202921\begin{definition}2922\index{Lipschitz-Bedingung}2923\index{Lipschitz-Bedingung!lokale}\index{lokal!Lipschitz-Bedingung}2924Es sei weiterhin $D \subseteq \MdR^{n+1}$. Sei $f: D \to \MdR^n$ eine Funktion.2925\begin{enumerate}2926\item $f$ genügt auf $D$ einer \textbf{Lipschitz-Bedingung bezüglich \boldmath \(y\)}2927\[2928:\iff2929\exists L \ge 0:2930\forall (x,y), (x,\bar y ) \in D:2931\|f(x,y)-f(x,\bar y)\| \le L \|y-\bar y \|2932\]2933\item $f$ genügt auf $D$ einer \textbf{lokalen Lipschitz-Bedingung bezüglich \boldmath \(y\)}2934\[2935:\iff2936\forall a \in D \exists \text{Umgebung } U_a:2937f_{|_{D \cap U}} \text{ genügt einer Lipschitz-Bedingung bzgl. } y2938\]2939\end{enumerate}2940\end{definition}29412942\begin{satz}[Satz über die $\alpha$-Norm]2943Sei $I = [a,b] \subseteq \MdR, x_o \in I$ und für $y\in C(I, \MdR^n)$ sei $\|y\|_\infty := \max \{\|y(x)\| : x\in I \}$ wie in §17 (also ist $(C(I, \MdR^n), \|\cdot \|_\infty )$ ein Banachraum).29442945Sei $\alpha > 0$ mit $\varphi_\alpha (x) := e^{-\alpha |x-x_0|}\ (x \in I)$.29462947Für $y \in C(I, \MdR^n)$ sei $\|y\|_\alpha := \max \{\varphi_\alpha(x)\cdot \|y(x)\| : x\in I \}$.29482949Dann:2950\begin{enumerate}2951\item $\|\cdot\|_\alpha$ ist eine Norm auf $C(I,\MdR^n)$.2952\item Seien $c_1 := \min \{ \varphi_\alpha(x) : x \in I \},\text{ } c_2 := \max \{ \varphi_\alpha(x) : x \in I \}$. Es gilt:2953\[c_1\|y\|_\infty \leq \|y\|_\alpha \leq c_2 \|y\|_\infty \quad \forall y \in C(I, \MdR^n)\]29542955\item Sei $(g_k)$ eine Folge in $C(I,\MdR^n)$ und $g \in C(I, \MdR^n)$.2956\begin{enumerate}2957\item Es gilt:2958\begin{align*}2959\|g_k -g\|_\alpha \stackrel{k \to \infty}\to 0 &\iff \|g_k - g\|_\infty \stackrel{k \to \infty}\to 0\\2960&\iff (g_k)\text{ konvergiert auf $I$ gleichmäßig gegen $g$}2961\end{align*}2962\item $(g_k)$ ist eine Cauchy-Folge in $(C(I,\MdR^n), \|\cdot \|_\alpha)$, genau dann2963wenn $(g_k)$ eine Cauchy-Folge in $(C(I,\MdR^n), \|\cdot \|_\infty)$ ist.2964\item $(C(I,\MdR^n), \|\cdot \|_\alpha)$ ist ein Banachraum.2965\end{enumerate}2966\end{enumerate}2967\end{satz}29682969\begin{beweis}2970(1), (2) \text{ Nachrechnen.}29712972(3) \text{ (i) und (ii) folgen aus (2); (iii) folgt aus (i) und (ii).}2973\end{beweis}29742975\textbf{Bezeichnung:} EuE = Existenz und Eindeutigkeit.2976\index{Existenz und Eindeutigkeit}2977\begin{satz}[EuE-Satz von Picard-Lindelöf (Version I)]2978Sei $I = [a,b], x_o \in I, y_0 \in \MdR^n, D:= I \times \MdR^n, f\in C(D, \MdR^n)$2979und $f$ genüge auf $D$ einer Lipschitz-Bedingung bezüglich $y$.\\2980\\2981Dann ist das2982\begin{align*}\text{AwP}2983\begin{cases}2984y'=f(x,y)\\2985y(x_0) = y_0\\2986\end{cases}2987\tag{ii}2988\end{align*}2989auf $I$ eindeutig lösbar.29902991Ist $g_0 \in C(I, \MdR^n)$ und $(g_k)$ definiert durch2992\[ g_{k+1}(x) := y_0 + \int_{x_0}^x f(t, g_k(t)) \text{d}t \quad (x \in I, k \geq 0), \]2993dann konvergiert $(g_k)$ auf $I$ gleichmäßig gegen die Lösung des AwPs (ii).\\2994$(g_n)$ heißt Folge der sukzessiven Approximationen.2995\end{satz}29962997\begin{beweis}2998Da $f$ auf $D$ einer Lipschitz-Bedingung genügt, gilt:2999\[\exists L > 0: \|f(x,y) - f(x, \bar y )\| \leq L \|y- \bar y \| \quad \forall(x,y), (x, \bar y ) \in D.\]3000Es sei $\alpha := 2L$; $\varphi_\alpha$ und $\|\cdot\|_\alpha$ seien wie in 21.2, $X := C(I, \MdR^n)$. Definiere $F: X \to X$ durch3001\[(F(y))(x) := y_0 + \int_{x_0}^x f(t, y(t))\text{d}t\]30023003Für $y \in X$ gilt dann:3004\begin{align*}3005y \text{ ist Lösung des AwP} &\iff F(y) = y\\3006F(y) = y &\iff y(x) = y_0 + \int_{x_0}^x f(t, y(t))\text{d}t \quad \forall x \in I \\3007&\stackrel{21.1}\iff y \text{ löst das AwP (ii)}3008\end{align*}3009Wir zeigen: $\|F(y)-F(z)\|_\alpha \leq \frac12 \|y-z\|_\alpha \quad \forall y,z \in X$. \textbf{Alle} Behauptungen folgen dann aus 17.2.30103011Seien $y,z \in X, x \in I$. Dann ist3012\begin{align*}3013\|(F(y))(x) - (F(z))(x)\|&= \left\|\int_{x_0}^x (f(t, y(t)) - f(t, z(t)))\text{ d}t \right\|\\3014&\stackrel{12.4}\le \left| \int_{x_0}^x \|f(t, y(t)) - f(t,z(t))\| \text{ d}t \right|\\3015&\le \left| \int_{x_0}^x L \|y(t)-z(t)\| \text{ d}t \right|\\3016&= L \left| \int_{x_0}^x \|y(t)-z(t)\| \text{ d}t \right| \displaybreak[0]\\3017&= L \left| \int_{x_0}^x \|y(t)-z(t)\| \varphi_\alpha (t) \cdot \frac1{\varphi_\alpha(t)}\text{ d}t \right| \displaybreak[0]\\3018&\le L \left| \int_{x_0}^x \|y-z\|_\alpha \cdot \frac1{\varphi_\alpha(t)}\text{ d}t \right| \displaybreak[0]\\3019&\le L \|y-z\|_\alpha \left| \int_{x_0}^x \frac1{\varphi_\alpha(t) }\text{ d}t\right|\\3020&= \frac{L}{\alpha} \|y-z\|_\alpha \left(\frac1{\varphi_\alpha(x)} -1 \right)\\3021&\le \frac12 \|y-z\|_\alpha \frac{1}{\varphi_\alpha(x)}3022\end{align*}3023Also gilt:3024\begin{align*}3025&\|(F(y))(x) - (F(z))(x)\| \leq \frac12 \|y-z\|_\alpha \frac{1}{\varphi_\alpha(x)} \quad \forall x \in I\\3026\implies &\varphi_\alpha(x) \|(F(y))(x) - (F(z))(x)\| \leq \frac12 \|y-z\|_\alpha \quad \forall x \in I3027\end{align*}3028Fazit: $\|F(y)-F(z)\|_\alpha \leq \frac12 \|y-z\|_\alpha$.3029\end{beweis}30303031\textbf{Frage: } Warum haben wir in obigem Beweis nicht die $\|\cdot \|_\infty$-Norm benutzt?30323033\begin{align*}3034\|(F(y))(x) -(F(z))(x)\| &\stackrel{\text{wie oben}}\leq L \left| \int_{x_0}^x \|y(t)-z(t)\| dt \right| \\3035&\leq L \left| \int_{x_0}^x \|y-z\|_\infty dt \right| \\3036&\leq L \|y-z\|_\infty \left| \int_{x_0}^x 1 \text{d}t \right|\\3037&= L \|y-z\|_\infty |x-x_0|\\3038&\leq L(b-a) \|y-z\|_\infty \quad \forall x \in I3039\end{align*}3040Dann: $\|F(y)-F(z)\|_\infty \leq L(b-a)\|y-z\|_\infty$3041I.A. wird $L(b-a)$ \textbf{nicht} kleiner 1 sein!304230433044\begin{beispiel}[zu 21.3]3045Zeige, dass das3046\begin{align*}3047\text{AwP}3048\begin{cases}3049y' = 2x(1+y)\\3050y(0) = 03051\end{cases} \end{align*}3052\textbf{auf $\mathbb{R}$} genau eine Lösung hat.\\3053Sei $a > 0$ und $I := [-a, a]; f(x,y) = 2x(1+y).$ Dann gilt $\forall x \in I, \forall y, \bar y \in \mathbb{R}:$3054\begin{align*}3055|f(x,y)-f(x, \bar y )|&= |2xy-2x\bar y | \\3056&= 2|x||y-\bar y | \\3057&\leq 2a|y-\bar y |.3058\end{align*}30593060Aus 21.3 folgt dann: das Anfangswertproblem hat auf $I$ genau eine Lösung $y: [-a, a] \to \mathbb{R}$.3061Setze nun $g_0(x) :=0$ und $(g_k)$ sei definiert wie in 21.3.3062Induktiv sieht man (Übung!):3063\[g_k(x) = x^2 + \frac{x^4}{2!} + \frac{x^6}{3!} + \cdots + \frac{x^{2k}}{k!} \]3064Aus 21.3 folgt: $(g_k)$ konvergiert auf $I$ gleichmäßig gegen $y$.\\3065Aus Analysis I folgt: $(g_k)$ konvergiert auf $I$ gleichmäßig gegen $e^{x^2} - 1$.\\3066Also: Lösung des AwPs auf $[-a,a]$: $y(x) = e^{x^2} -1$.\\3067Es war $a > 0$ beliebig, also ist $y(x) = e^{x^2} -1$ \textbf{die} Lösung des AwPs \textbf{auf $\mathbb{R}$}.3068\end{beispiel}30693070\textbf{Ohne} Beweis:3071\begin{satz}[EuE-Satz von Picard-Lindelöf (Version II)]3072Sei $I=[a,b] \subseteq \MdR, x_0 \in I, y_0 \in \MdR^n, s > 0$, es sei3073\[D := \Set{(x,y)\in\MdR^{n+1} | x \in I, \|y-y_0\| \leq s}\]3074und $f \in C(D,\MdR^n)$. Weiter sei3075\[M := \max\{\|f(x,y)\| : (x,y) \in D \} > 0\]3076und $f$ genüge auf $D$ einer Lipschitz-Bedingung bezüglich $y$.3077Außerdem sei3078\[J := I \cap \left [x_0 - \frac{s}{M}, x_0 + \frac{s}{M} \right ]\]3079Dann hat das3080\begin{align*}3081\text{AwP}3082\begin{cases}3083y' = f(x,y)\\3084y(x_0) = y_03085\end{cases}3086\label{(ii)}3087\end{align*}3088auf \(J\) genau eine Lösung.3089\end{satz}30903091\textbf{Ohne} Beweis:3092\begin{satz}[EuE-Satz von Picard-Lindelöf (Version III)]3093Es sei $D \subseteq \MdR^{n+1}$ \textbf{offen}, $(x_0, y_0) \in D, f\in C(D, \MdR^n)$ und $f$ genüge auf $D$ einer \textbf{lokalen} Lipschitz-Bedingung bezüglich $y$.30943095Dann hat das3096\begin{align*}3097\text{AwP}3098\begin{cases}3099y' = f(x,y)\\3100y(x_0) = y_03101\end{cases}3102\label{(ii)}3103\end{align*}3104genau eine Lösung.3105\\3106\\3107(Nochmals, das heißt: Das AwP (ii) hat eine Lösung $y: J \to \MdR^n\quad(J \subseteq \MdR$3108Intervall) und für je zwei Lösungen $\hat y : \hat J \to \MdR, \tilde y : \tilde J \to \MdR$3109von (ii) gilt: $\hat y = \tilde y$ auf $\hat J \cap \tilde J \quad (\hat J, \tilde J \text{ Intervalle in } \MdR$))3110\end{satz}31113112\begin{definition}3113\index{Fortsetzbarkeit}3114Sei $y: J \to \MdR^n$ ($J \subseteq \MdR$ ein Intervall) eine Lösung des AwPs (ii).\\3115\(y\) heißt \textbf{nicht fortsetzbar}, genau dann wenn aus $\hat y : \hat J \to \MdR^n3116(\hat J$ ein Intervall in $\MdR$) ist Lösung von (ii) stets folgt, dass $\hat J \subseteq J$3117und auf $\hat J$ $\hat y = y$ ist.3118\end{definition}31193120\begin{satz}[Eindeutigkeit einer nicht fortsetzbaren Lösung]3121Es seien $D, (x_0, y_0)$ und $f$ wie in 21.5. Dann besitzt das AwP (ii) eine eindeutig bestimmte, nicht fortsetzbare Lösung.3122\end{satz}31233124\begin{beweis}3125Es sei3126\[\mathfrak{M} := \{ (y,I_y) : I_y \subseteq \MdR \text{ Intervall, }3127x_0 \in I_y, y: I_y \to \MdR^n \text{ ist Lösung von (ii)} \}\]3128Aus 21.5 folgt, dass $\mathfrak{M} \ne \emptyset$ ist und für3129$(y_1, I_{y_1}), (y_2, I_{y_2}) \in \mathfrak{M}$ gilt: $y_1 = y_2$ auf3130$I_{y_1} \cap I_{y_2}$.3131\begin{align*}3132I := \bigcup_{(y, I_y) \in \mathfrak{M}} I_y3133\end{align*}3134ist ein Intervall. Definiere $y: I \to \MdR^n$ wie folgt: zu $x \in I$ existiert3135ein $(y_1, I_{y_1}) \in \mathfrak{M}$, sodass für $x \in I_{y_1}$ gilt: $y(x) := y_1(x)$.31363137\textbf{Übung:} $y: I \to \MdR^n$ leistet das Gewünschte.3138\end{beweis}31393140\chapter{Lineare Systeme}3141In diesem Paragraphen sei $I\subseteq\mdr$ ein Intervall, $x_0\in I, y_0\in\mdr^n,3142D:=I\times\mdr^n,b:I\to\mdr^n$ stetig und $A:I\to\mdr^{n\times n}$ ebenfalls stetig3143(d.h. für $A(x)=(a_{jk}(x))$ sind alle $a_{jk}:I\to\mdr$ stetig).\\3144Hier ist für alle $x\in I$ und $y=(y_1,\ldots,y_n)\in\mdr^n$:3145\[f(x,y):=A(x)y+b(x)\]31463147\begin{definition}3148\index{linear!System von Differentialgleichungen}3149\index{System von Differentialgleichungen!lineares}3150\index{homogen!System von Differentialgleichungen}3151\index{System von Differentialgleichungen!homogenes}3152\index{inhomogen!System von Differentialgleichungen}3153\index{System von Differentialgleichungen!inhomogenes}3154\index{Anfangswertproblem}3155Das System von Differentialgleichungen:3156\begin{align*}3157y'=A(x)y+b(x)\tag{S}3158\end{align*}3159heißt ein \textbf{lineares System}. (Fall $n=1$ siehe §19.)\\3160Ist $b\equiv 0$, so heißt (S) \textbf{homogen}, anderenfalls \textbf{inhomogen}.\\3161Neben (S) betrachten wir auch noch das zu (S) gehörige \textbf{homogene System}3162\begin{align*}3163y'=A(x)y\tag{H}3164\end{align*}3165und das3166\begin{align*}3167\text{AwP}3168\tag{A}3169\begin{cases}3170y'=A(x)y+b(x)\\3171y(x_0)=y_03172\end{cases}3173\end{align*}3174\end{definition}31753176\begin{satz}[Lösungen]3177\begin{enumerate}3178\item (A) hat auf $I$ genau eine Lösung.3179\item Das System (S) hat Lösungen auf $I$.3180\item Ist $J\subseteq I$ ein Intervall und $\hat y:J\to\mdr^n$ eine Lösung von (S),3181so gibt es eine Lösung $y:I\to\mdr^n$ von (S) mit $\hat y=y$ auf $J$.3182\item Sei $y_s:I\to\mdr^n$ eine spezielle Lösung von (S), dann ist $y:I\to\mdr^n$ genau dann eine3183Lösung von (S) auf $I$, wenn eine Lösung $y_h:I\to\mdr^n$ von (H) existiert mit:3184\[y=y_h+y_s\]3185\end{enumerate}3186\end{satz}31873188\begin{wichtigebemerkung}3189Wegen 22.1(3) gehen wir immer davon aus, dass Lösungen von (S) auf ganz $I$ definiert sind.3190\end{wichtigebemerkung}31913192\begin{beweise}3193\item \textbf{Fall 1:} $I=[a,b]$\\3194Es ist $f(x,y)=A(x)y+b(x)$. Sei $L:=\max\{\|A(x)\|:x\in I\}$. Für alle $(x,y),(x,\overline y)\in D$ gilt:3195\begin{align*}3196\|f(x,y)-f(x,\overline y) \| &=\|A(x)(y-\overline y)\|\\3197&\stackrel{\text{§1}}{\le} \|A(x)\|\cdot\|y-\overline y\|\\3198&\le L\|y-\overline y\|3199\end{align*}3200Die Behauptung folgt aus 21.3.32013202\textbf{Fall 2:} $I$ beliebig.\\3203Sei $\mathfrak{M}:=\Set{K\subseteq I | K\text{ ist kompaktes Intervall, } x_0\in K}$.3204Dann ist $I=\bigcup_{K\in\mathfrak{M}} K$.\\3205Ist $x\in I$, so existiert ein $K\in\mathfrak{M}$ mit $x\in K$. Nach Fall 1. hat das3206AwP auf $K$ genau eine Lösung $y_K:K\to\mdr^n$. Definiere nun $y:I\to\mdr^n$ wie folgt:3207\begin{align}3208y(x):=y_K(x)\tag{$*$}3209\end{align}3210Sei $\tilde K\in\mathfrak{M}$ mit $x\in\tilde K$ und sei $y_{\tilde K}$ die eindeutig3211bestimmte Lösung von (A) auf $\tilde K$. Dann ist $y_K=y_{\tilde K}$ auf $K\cap\tilde K$, also:3212\[y_K(x)=y_{\tilde K}(x)\]3213D.h. $y$ ist durch ($*$) wohldefiniert.\\3214\textbf{Leichte Übung}: $y$ ist auf $I$ db und löst das AwP auf $I$.\\3215Sei $\tilde y:I\to\mdr^n$ eine weitere Lösung von (A) auf $I$ und sei $x\in I$.3216Dann existiert ein $K\in\mathfrak{M}$ mit $x\in K$ und nach Definition gilt $y(x)=y_K(x)$.3217Da $\tilde y_K$ eine Lösung des AwPs (A) auf $K$ ist, gilt nach Fall 1.: $\tilde y\mid_K=y_K$3218Dann gilt also:3219\[\tilde y(x)=\tilde y\mid_K(x)=y_K(x)=y(x)\]3220\item Folgt aus (1).3221\item Sei $\xi \in J,\eta:=\hat y(\xi)$. Dann ist $\hat y$ eine Lösung auf $J$ des AwPs3222\begin{align*}3223\tag{+}3224\begin{cases}3225y'=A(x)+b(x)\\3226y(\xi)=\eta3227\end{cases}3228\end{align*}3229Aus (1) folgt, dass das AwP auf $I$ eine eindeutig bestimmte Lösung $y:I\to\mdr^n$ hat. Sei $x\in J$.\\3230\textbf{Fall $x=\xi$}:\\3231In diesem Fall gilt:3232\[\hat y(x)=\hat y(\xi)=\eta=y(\xi)=y(x)\]3233\textbf{Fall $x>\xi$}:\\3234Sei $K:=[\xi,x]$. Da $\hat y$ und $y$ Lösungen des AwPs (+) auf $[\xi,x]$ sind folgt aus3235(1), dass $y=\hat y$ auf $K$, also:3236\[\hat y(x)=y(x)\]3237\textbf{Fall $x<\xi$}:\\3238Sei $K:=[x,\xi]$. Da $\hat y$ und $y$ Lösungen des AwPs (+) auf $[x,\xi]$ sind folgt aus3239(1), dass $y=\hat y$ auf $K$, also:3240\[\hat y(x)=y(x)\]3241\item Leichte Übung!3242\end{beweise}32433244\begin{definition}3245Setze $\mathbb{L} := \{ y: I\to \MdR^n : y $ ist eine Lösung von (H) auf $I$ $\}$\\3246($y \equiv 0$ liegt in $\mathbb{L}$)3247\end{definition}32483249\begin{satz}[Lösungsmenge als Vektorraum]3250\begin{enumerate}3251\item Sind $y^{(1)}, y^{(2)} \in \mathbb{L}$ und $\alpha \in \MdR$, so3252sind $y^{(1)} + y^{(2)} \in \mathbb{L}$ und $\alpha y^{(1)} \in \mathbb3253{L}$. $\mathbb{L}$ ist also ein reeller Vektorraum.32543255\item Seien $y^{(1)}, ..., y^{(k)} \in \mathbb{L}$. Dann sind3256äquivalent:3257\begin{enumerate}3258\item $y^{(1)}, ... , y^{(k)}$ sind in $\mathbb{L}$ linear unabhängig.3259\item $\forall x \in I$ sind $y^{(1)}(x), ..., y^{(k)}(x)$ linear3260unabhängig im $\MdR^n$.3261\item $\exists \xi \in I: y^{(1)}(\xi ), ..., y^{(k)}(\xi )3262$ sind linear unabhängig im $\MdR^n$.3263\end{enumerate}32643265\item $\dim \mathbb{L} = n$.3266\end{enumerate}3267\end{satz}32683269\begin{beweise}3270\item Nachrechnen32713272\item Der Beweis erfolgt durch Ringschluss:3273\begin{enumerate}3274\item[(i)$\implies$ (ii)] Sei $x_1 \in I$. Seien $\alpha_1, ...,3275\alpha_k \in \MdR$ und3276\begin{align*}32770 &= \alpha_1 y^{(1)}(x_1) + \cdots + \alpha_k y^ {(k)}(x_1)\\3278\tilde y :&= \alpha_1 y^{(1)} + \cdots + \alpha_k y^{(k)}3279\end{align*}3280Aus (1) folgt: $\tilde y \in \mathbb{L}$. Weiter ist $\tilde y$ eine3281Lösung des AwPs3282\begin{align*} \begin{cases}3283y' = A(x) y\\3284y(x_1) = 03285\end{cases} \end{align*}3286Da $y \equiv 0$ dieses AwP ebenfalls löst und aus 22.1 folgt, dass das AwP3287eindeutig lösbar ist, muss gelten:3288\[0 = \tilde y = \alpha_1 y^{(1)} + \cdots + \alpha_k y^{(k)}\]3289Aus der Voraussetzung folgt dann:3290\[\alpha_1 = \alpha_2 = \cdots = \alpha_k = 0\]3291Also sind $y^{(1)}(x_1), ..., y^{(k)} (x_1)$ sind linear unabhängig im $\MdR^n$.3292\item[(ii) $\implies$ (iii)] Klar \checkmark3293\item[(iii) $\implies$ (i)]Seien $\alpha_1, ..., \alpha_k \in \MdR$3294und $0 = \alpha_1 y^{(1)} + \cdots + \alpha_k y^{(k)}$, dann folgt:3295\[0 = \alpha_1 y^{(1)}(\xi ) + \cdots + \alpha_k y^{(k)}(\xi )\]3296Aus der Voraussetzung folgt dann: $\alpha_1 = \alpha_2 = \cdots = \alpha_k = 0$3297Also sind $y^{(1)}, ..., y^{(k)}$ linear unabhängig in $\mathbb{L}$.3298\end{enumerate}32993300\item Aus (2) folgt, dass $\dim \mathbb{L} \le n$ ist.33013302Für $j = 1,..., n$ sei $y^{(j)}$ die eindeutig bestimmte Lösung des3303AwPs3304\begin{align*}3305\begin{cases}3306y' = A(x) y\\3307y(x_0) = e_j3308\end{cases}3309(e_j = \text{ j-ter Einheitsvektor im }\MdR^n).3310\end{align*}3311Dann sind $y^{(1)}(x_0), ..., y^{(n)}(x_0)$ linear unabhängig im $3312\MdR^n$. Aus (2) folgt, dass $y^{(1)}, ..., y^{(k)}$ linear unabhängig3313in $\mathbb{L}$ sind, also ist $\dim \mathbb{L} \ge n$.3314\end{beweise}33153316\begin{definition}3317\index{Differenzierbarkeit!einer $n \times n$-Matrix}3318Sei $B : I \to \MdR^{n \times n}, B(x) = \left( b_{jk}(x) \right)$ für alle $x\in I$.\\3319$B$ heißt \textbf{differenzierbar} auf $I$, genau dann wenn $b_{jk} : I \to \MdR$3320auf $I$ differenzierbar sind ($j,k = 1,\ldots, n$).\\3321In diesem Fall ist3322\[B'(x) := (b'_{jk}(x)) \quad (x\in I)\]3323\end{definition}33243325\begin{definition}3326\index{Lösungs-!System}\index{Lösungs-!Matrix}\index{Wronskideterminante}3327\index{Fundamental-!Matrix}\index{Fundamental-!System}3328\begin{enumerate}3329\item Seien $y^{(1)}, ..., y^{(n)} \in \mathbb{L}$. $y^{(1)}, ..., y^{(n)}$3330heißt ein \textbf{Lösungssystem} (LS) von (H).3331\[Y(x) := (y^{(1)}(x), ..., y^{(n)}(x))\]3332(j-te Spalte von $Y$ = $y^{(j)}$) heißt \textbf{Lösungsmatrix} (LM) von (H).3333\[W(x) := \det Y(x)\]3334heißt \textbf{Wronskideterminante}.3335\item Sei $y^{(1)}, ..., y^{(n)}$ ein Lösungssystem von (H). Sind3336$y^{(1)}, ..., y^{(n)}$ linear unabhängig in $\mathbb{L}$, so heißt3337$y^{(1)}, ..., y^{(n)}$ ein \textbf{Fundamentalsystem} (FS) und3338$Y = (y^{(1)}, ..., y^{(n)})$ eine \textbf{Fundamentalmatrix} (FM).3339\item Ist $y^{(1)}, ..., y^{(n)}$ ein FS von (H), so lautet die allgemeine Lösung von (H):3340\[y(x) = c_1 y^{(1)}(x) + \cdots + c_n y^{(n)} (x) \quad (c_1, ..., c_n \in \MdR)\]3341\end{enumerate}3342\end{definition}33433344\begin{satz}[Zusammenhang FS, FM und Wronskideterminante]3345$y^{(1)}, ..., y^{(n)}$ sei ein LS von (H). $Y$ und $W$ seien definiert wie oben. Dann:\begin{enumerate}3346\item $Y'(x) = A(x)Y(x) \quad \forall x \in I$.3347\item $y^{(1)}, ..., y^{(n)}$ ist ein Fundamentalsystem von (H)\\ $\iff Y(x) \text{ invertierbar } \forall x \in I$ \\ $\iff \exists \xi \in I: Y(\xi )$ ist invertierbar \\ $\iff \forall x \in I: W(x) \neq 0$ \\ $\iff \exists \xi \in I: W(\xi ) \neq 0$.3348\end{enumerate}3349\end{satz}33503351\begin{beweise}3352\item Nachrechnen3353\item folgt aus 22.3.3354\end{beweise}335533563357\textbf{Spezialfall:} $n=2$. $A(x) = \begin{pmatrix} a_1(x) & -a_2(x) \\ a_2(x) & a_1(x) \end{pmatrix}$; $a_1, a_2 : I \to \MdR$ stetig. Sei $y^{(1)} = (y_1, y_2)$ eine Lösung von3358\begin{align*}3359\tag{$*$} y' = A(x) y3360\end{align*}3361auf $I$ und $y^{(1)} \not\equiv 0$. Das heißt:3362\begin{align*}3363\begin{cases}3364y_1' = a_1(x) y_1 - a_2(x) y_2 \\3365y_2' = a_2(x) y_1 + a_1(x) y_23366\end{cases}.3367\end{align*}33683369Setze $y^{(2)} := (-y_2, y_1)$. Dann ist:3370\begin{align*}3371A(x) y^{(2)} = \begin{pmatrix} -a_1(x) y_2 - a_2(x) y_1 \\ -a_2(x) y_2 + a_1(x) y_1 \end{pmatrix} = \begin{pmatrix} -y_2' \\ y_1' \end{pmatrix} = \left( y^{(2)} \right)'3372\end{align*}3373Das heißt: $y^{(2)}$ löst ebenfalls ($*$) auf $I$, oder: $y^{(1)}, y^{(2)}$ ist ein Lösungssystem von ($*$).3374\begin{align*}3375Y(x) = \begin{pmatrix} y_1(x) & -y_2(x) \\ y_2(x) & y_1(x) \end{pmatrix}, W(x) = \det Y(x) = y_1(x)^2 + y_2(x)^2 \neq 03376\end{align*}3377Mit 22.4 folgt: $y^{(1)}, y^{(2)}$ ist ein Fundamentalsystem von ($*$).33783379\begin{beispiel} ($n=2$), $A = \begin{pmatrix} 0 & -1 \\ 1 & 0 \end{pmatrix}$;3380\begin{align*}3381\tag{$*$} y' = Ay3382\end{align*}3383und $y = (y_1, y_2)$. Also: $\begin{pmatrix} y_1' \\ y_2' \end{pmatrix} = \begin{pmatrix} -y_2 \\ y_1 \end{pmatrix}$.33843385$y^{(1)}(x) := \begin{pmatrix} \cos(x) \\ \sin(x) \end{pmatrix}$ ist eine Lösung von ($*$) auf $\MdR$.3386$y^{(2)}(x) := \begin{pmatrix} -\sin(x) \\ \cos(x) \end{pmatrix}$ ist eine weitere Lösung von ($*$) auf $\MdR$.3387$y^{(1)}, y^{(2)}$ ist ein Fundamentalsystem von ($*$).3388Allgemeine Lösung von ($*$): $y(x) = \begin{pmatrix} c_1 \cos(x) - c_2 \sin(x) \\ c_1 \sin(x) + c_2 \cos(x) \end{pmatrix}\quad (c_1, c_2 \in \MdR)$.33893390\end{beispiel}33913392\textbf{Ohne} Beweis:33933394\begin{satz}[Spezielle Lösung]3395Sei $y^{(1)}, ..., y^{(n)}$ ein Fundamentalsystem von (H), $Y(x)$ sei definiert wie oben. Setze3396\begin{align*}3397\importantbox{y_s(x) := Y(x) \int Y(x)^{-1} b(x) \text{d}x \quad (x \in I).}3398\end{align*}3399Dann ist $y_s$ eine spezielle Lösung von (S) auf $I$.3400\begin{align*}3401W_k(x) := \det \left( y^{(1)}(x), ..., y^{(k-1)}(x), b(x), y^{(k+1)}(x), ..., y^{(n)}(x) \right)\quad (k=1,...,n)3402\end{align*}3403Dann gilt: $y_s(x) = \sum_{k=1}^n \left( \int \frac{W_k(x)}{W(x)} \text{d}x\right) y^{(k)}(x)$.3404\end{satz}34053406\begin{beispiel}3407Bestimme die allgemeine Lösung von3408\begin{align*}3409\tag{+}3410y' = Ay + \begin{pmatrix} -\sin(x) \\ \cos(x) \end{pmatrix},3411\end{align*}3412wobei3413\begin{align*}3414A = \begin{pmatrix} 0 & -1 \\ 1 & 0 \end{pmatrix}.3415\end{align*}3416Bekannt: Fundamentalsystem der homogenen Gleichung $y' = Ay$:3417\begin{align*}3418y^{(1)}(x) = \begin{pmatrix} \cos(x) \\ \sin(x) \end{pmatrix}, y^{(2)}(x) = \begin{pmatrix} -\sin(x) \\ \cos(x) \end{pmatrix}.3419\end{align*}3420\begin{align*}3421&W(x) = \left| \begin{array}{cc} \cos(x) & -\sin(x) \\ \sin(x) & \cos(x) \end{array} \right| = \cos^2(x) + \sin^2(x) = 1. \\3422&W_1(x) = \left| \begin{array}{cc} -\sin(x) & -\sin(x) \\ \cos(x) & \cos(x) \end{array} \right| = 0. \\3423&W_2(x) = \left| \begin{array}{cc} \cos(x) & -\sin(x) \\ \sin(x) & \cos(x) \end{array} \right| = 1. \\3424&y_s(x) := \left( \int 1 \text{d}x \right) y^{(2)}(x) = xy^{(2)}(x) = \begin{pmatrix} -x \sin(x) \\ x \cos(x) \end{pmatrix} \text{ ist eine spezielle Lösung von (+).}3425\end{align*}3426Allgemeine Lösung von (+):3427\begin{align*}3428y(x) &= \underbrace{c_1 \begin{pmatrix} \cos(x) \\ \sin(x) \end{pmatrix} + c_2 \begin{pmatrix} -\sin(x) \\ \cos(x) \end{pmatrix}}_{\text{allg. Lsg. der hom. Glg.}} + \underbrace{\begin{pmatrix} -x \sin(x) \\ x \cos(x) \end{pmatrix}}_{\text{spez. Lsg.}} \\3429&= \begin{pmatrix} c_1 \cos(x) - c_2 \sin(x) - x \sin(x) \\ c_1 \sin(x) + c_2 \cos(x) + x \cos(x) \end{pmatrix}\quad(c_1, c_2 \in \MdR)3430\end{align*}3431Löse das3432$\text{AwP}3433\begin{cases}3434y' = \begin{pmatrix} 0 & -1 \\ 1 & 0 \end{pmatrix}y + \begin{pmatrix} -\sin(x) \\ \cos(x) \end{pmatrix} \\3435y(0) = \begin{pmatrix} 0 \\ 0 \end{pmatrix}3436\end{cases}$. \\3437Es gilt:3438\begin{align*}3439\begin{pmatrix}0 \\ 0\end{pmatrix} = y(0) = \begin{pmatrix} c_1 \cos(0) - c_2 \sin(0) - 0\cdot\sin(0) \\ c_1 \sin(0) + c_2 \cos(0) + 0\cdot\cos(0) \end{pmatrix} = \begin{pmatrix}c_1 \\ c_2\end{pmatrix}.3440\end{align*}3441Also: $c_1 = c_2 = 0$, d.h.: \textbf{die} Lösung des AwP ist: $y(x) = \begin{pmatrix} -x \sin(x) \\ x \cos(x) \end{pmatrix}$.34423443\end{beispiel}3444344534463447\chapter{Homogene lineare Systeme mit konstanten Koeffizienten}344834493450In diesem Paragraphen sei $A \in \mathbb{R}^{n \times n}$ eine3451konstante Matrix. \\3452Wir betrachten das homogene System3453\begin{align*}3454\tag H y'=Ay3455\end{align*}34563457\textbf{Ohne} Beweise geben wir ein "`Kochrezept"' an, wie man zu einem Fundamentalsystem von (H) kommt.34583459\textbf{Vorbereitungen}:3460\index{charakteristisches Polynom}\index{Polynom!charakteristisches}3461\begin{enumerate}3462\item Es sei stets $p(\lambda) := \det(A - \lambda I)$ das \textbf{charakteristische Polynom}3463von $A$ ($I$ = Einheitsmatrix). \\3464Sei $\lambda_0 \in \MdC$ ein Eigenwert (EW) von $A$, dann3465ist $p(\lambda_0) = 0$. Die Koeffizienten von $p$ sind reell, also ist $p(\overline{\lambda_0}) = 0$3466und damit $\overline{\lambda_0}$ ein Eigenwert von $A$.3467\item Für $\lambda_0 \in \mdc$ gilt:3468\[\kernn(A-\lambda_0 I) \subseteq \kernn((A-\lambda_0 I)^2) \subseteq \kernn((A-\lambda_0 I)^3) \subseteq \ldots\]3469\end{enumerate}34703471\textbf{Kochrezept}:3472\begin{enumerate}3473\item Bestimme die \textbf{verschiedenen} Eigenwerte $\lambda_1, \ldots, \lambda_r (r \le n)$3474von $A$ und deren algebraische Vielfachheiten $k_1, \ldots, k_r$, also:3475\[p(\lambda) = (-1)^n (\lambda - \lambda_1)^{k_1} (\lambda - \lambda_2)^{k_2} \cdots (\lambda - \lambda_r)^{k_r}\]3476Ordne diese Eigenwerte wie folgt an: $\lambda_1, \ldots, \lambda_m \in \mdr, \lambda_{m+1}, \ldots, \lambda_r \in \mdc \setminus \mdr$.\\3477Aus der Liste $\lambda_{m+1}, \ldots, \lambda_r$ entferne jedes $\lambda_j$ mit3478$\Im(\lambda_j) < 0$. Es bleibt:3479\[M := \{\lambda_1, \ldots, \lambda_m\} \cup \{\lambda_j : m + 1 \le j \le r, \Im(\lambda_j) > 0 \}\]34803481\item Zu $\lambda_j \in M$ bestimme eine Basis von $V_j := $ Kern$((A-\lambda_j I)^{k_j})$3482wie folgt: Bestimme eine Basis von Kern$(A-\lambda_j I)$, ergänze diese Basis zu3483einer Basis von Kern$((A-\lambda_j I)^2)$, usw.34843485\item Sei $\lambda_j \in M$ und $v$ ein Basisvektor von $V_j$. \\3486\[y(x) := e^{\lambda_j x} (v+\frac{x}{1!} (A-\lambda_j I)v + \frac{x^2}{2!} (A-\lambda_j I)^2 v + \cdots + \frac{x^{k_j - 1}}{ (k_j - 1)! } (A - \lambda_j I)^{k_j - 1} v )\]3487Oder kürzer:3488\[\importantbox{y(x) := e^{\lambda_j x} \cdot \left ( \sum_{i=0}^{k_j-1} \frac{x^i}{i!} (A - \lambda_j I)^i \cdot v \right )}\]3489\textbf{Fall 1}: $\lambda_j \in \mdr$.\\3490Dann ist $y(x) \in \mdr^n \; \forall x \in \mdr$ und y ist eine Lösung von (H). \\3491\textbf{Fall 2}: $\lambda_j \in \mdc \setminus \mdr$.\\3492Zerlege $y$ komponentenweise in Real- und Imaginärteil:3493\[y(x) := y^{(1)}(x) + i y^{(2)}(x)\]3494mit $y^{(1)}(x),y^{(2)}(x)\in\mdr^n$. Dann sind $y^{(1)}, y^{(2)}$ linear unabhängige Lösungen von (H).34953496\item Führt man (3) für \textbf{jedes} $\lambda_j \in M$ und \textbf{jeden} Basisvektor von $V_j$ durch, so erhält man ein Fundamentalsystem von (H).3497\end{enumerate}34983499\begin{definition}3500\index{linear!Hülle}\index{Hülle!lineare}3501$ [\ldots] $ bezeichne die \textbf{lineare Hülle}.3502\end{definition}35033504\textbf{Beispiele}:35053506\begin{enumerate}3507\item Bestimme ein Fundamentalsystem der Gleichung:3508\begin{align*}3509\tag{$\ast $} y' = Ay3510\end{align*}3511mit3512\[A:=\begin{pmatrix} 1 & -4 \\ 1 & 1 \end{pmatrix}\]3513Es gilt:3514\[p(\lambda)=\det(A-\lambda I) = (\lambda - (1 + 2i))(\lambda-(1-2i))\]3515\begin{align*}3516\lambda_1 &= 1 + 2i &\lambda_2 &= 1-2i\\3517k_1 &= 1 &k_2&=1\\3518\end{align*}3519Also ist $M := \{\lambda_1\}$. Aus $\kernn(A-\lambda_1 I) = \left[ \begin{pmatrix} 2i \\ 1 \end{pmatrix} \right]$3520folgt:3521\begin{align*}3522y(x) &= e^{(1+2i)x} \begin{pmatrix} 2i \\ 1 \end{pmatrix} \\3523&= e^x (\cos(2x) + i \sin(2x)) \begin{pmatrix} 2i \\ 1 \end{pmatrix}\\3524&= e^x \begin{pmatrix} -2\sin(2x) \\ \cos(2x) \end{pmatrix}3525+ ie^x \begin{pmatrix} 2\cos(2x) \\ \sin(2x) \end{pmatrix}3526\end{align*}3527Sei also:3528\begin{align*}3529y^{(1)}(x)&:=e^x \begin{pmatrix} -2\sin(2x) \\ \cos(2x) \end{pmatrix}&3530y^{(2)}(x)&:=e^x \begin{pmatrix} 2\cos(2x) \\ \sin(2x) \end{pmatrix}3531\end{align*}3532Dann ist $y^{(1)}, y^{(2)}$ ein Fundamentalsystem von ($\ast$).35333534\item Bestimme ein Fundamentalsystem der Gleichung:3535\begin{align*}3536\tag{$\ast $} y' = Ay3537\end{align*}3538mit3539\[A:=\begin{pmatrix} 0 & 1 & -1 \\ -2 & 3 & -1 \\ -1 & 1 & 1 \end{pmatrix}\]3540Es gilt:3541\[p(\lambda)=\det(A-\lambda I) = -(\lambda - 2)(\lambda - 1)^2\]3542\begin{align*}3543\lambda_1 &= 2 &\lambda_2&=1\\3544k_1&=1 &k_2&=23545\end{align*}3546Also ist $M := \{\lambda_1, \lambda_2\}$.\\3547\boldmath $\lambda_1 = 2$\unboldmath: Aus $\kernn(A-2I) =3548\left[ \begin{pmatrix} 0 \\ 1\\1 \end{pmatrix} \right]$ folgt:3549\[y^{(1)}(x) := e^{2x}\begin{pmatrix} 0 \\ 1\\1 \end{pmatrix}\]3550\boldmath $\lambda_2 = 1$\unboldmath: Aus $\kernn(A-I) =3551\left[ \begin{pmatrix} 1 \\ 1\\0 \end{pmatrix} \right]3552\subseteq \left[ \begin{pmatrix} 1\\1\\0 \end{pmatrix},3553\begin{pmatrix} 0\\0\\1\end{pmatrix} \right] = $ Kern$((A -I)^2)$ folgt:3554\begin{align*}3555y^{(2)}(x) := e^x \begin{pmatrix} 1\\1\\0 \end{pmatrix} &&3556y^{(3)}(x) := e^x\left( \begin{pmatrix} 0\\0\\1\end{pmatrix} + x(A-I) \begin{pmatrix} 0\\0\\1\end{pmatrix} \right) = e^x \begin{pmatrix} -x \\ -x \\ 1 \end{pmatrix}3557\end{align*}3558$y^{(1)}, y^{(2)}, y^{(3)}$ ist ein Fundamentalsystem von ($\ast$).35593560\item Sei $A$ wie in Beispiel (2). Löse das \[3561\text{AwP}3562\begin{cases}3563y'=Ay\\3564y(0) = \begin{pmatrix} 1 \\ 0 \\ 1 \end{pmatrix}3565\end{cases}\]3566Die allgemeine Lösung von $y' = Ay$ lautet:3567\[ y(x) = c_1 e^{2x}\begin{pmatrix} 0 \\ 1\\1 \end{pmatrix}3568+ c_2 e^x \begin{pmatrix} 1\\1\\0 \end{pmatrix}3569+ c_3 e^x \begin{pmatrix} -x \\ -x \\ 1 \end{pmatrix}\quad c_1, c_2, c_3 \in \mdr \]3570Es gilt:3571\begin{align*}3572\begin{pmatrix} 1 \\ 0 \\ 1 \end{pmatrix} \stackrel!= y(0)3573= c_1 \begin{pmatrix} 0 \\ 1\\1 \end{pmatrix}3574+ c_2 \begin{pmatrix} 1\\1\\0 \end{pmatrix}3575+ c_3 \begin{pmatrix} 0 \\ 0 \\ 1 \end{pmatrix}3576= \begin{pmatrix} c_2 \\ c_1+c_2\\c_1+c_3 \end{pmatrix}\\3577\end{align*}3578\begin{align*}3579\implies c_1=-1 &&c_2 = 1 && c_3 = 23580\end{align*}3581Lösung des AWPs:3582\[y(x) = -e^{2x}\begin{pmatrix} 0 \\ 1\\1 \end{pmatrix}3583+ e^x \begin{pmatrix} 1\\1\\0 \end{pmatrix}3584+ 2e^x \begin{pmatrix} -x \\ -x \\ 1 \end{pmatrix}\]35853586\item Bestimme die allgemeine Lösung von3587\begin{align*}3588\tag{$\ast $} y' = Ay + \begin{pmatrix} e^x \\ e^x \end{pmatrix}3589\end{align*}3590Mit3591\[A:=\begin{pmatrix} 1 & 0 \\ 0 & -1 \end{pmatrix}\]3592Bestimme dazu zunächst die allgemeine Lösung von $y' = Ay$. Es gilt:3593\[p(\lambda)=\det(A-\lambda I) = (1-\lambda)(1+\lambda)\]3594\begin{align*}3595\lambda_1 &= 1 &\lambda_2 &= -1\\3596k_1&=1&k_2&=13597\end{align*}3598Da $\kernn(A-I) = \left[ \begin{pmatrix} 1 \\ 0 \end{pmatrix} \right]$ und3599$\kernn(A+I) = \left[ \begin{pmatrix} 0 \\ 1 \end{pmatrix} \right]$ ist, ist3600\begin{align*}3601y^{(1)}(x) &= e^x \begin{pmatrix} 1 \\ 0 \end{pmatrix}3602&y^{(2)}(x) &= e^{-x} \begin{pmatrix} 0 \\ 1 \end{pmatrix}3603\end{align*}3604ein Fundamentalsystem von $y' = Ay$.\\3605Sei nun $Y(x) := \begin{pmatrix} e^x & 0 \\ 0 & e^{-x} \end{pmatrix}$ \\3606Dann ist3607\begin{align*}3608y_s(x) &= Y(x) \int Y(x)^{-1} \begin{pmatrix} e^x \\ e^x \end{pmatrix} \text{ d}x\\3609&= Y(x) \int \begin{pmatrix} e^{-x} & 0 \\ 0 & e^x \end{pmatrix} \begin{pmatrix} e^x \\ e^x \end{pmatrix} \text{ d}x\\3610&= Y(x) \int \begin{pmatrix} 1 \\ e^{2x} \end{pmatrix}\text{ d}x\\3611&= \begin{pmatrix} e^x & 0 \\ 0 & e^{-x} \end{pmatrix} \begin{pmatrix} x \\ \frac12e^{2x} \end{pmatrix} = \begin{pmatrix} xe^x \\ \frac12e^x \end{pmatrix}3612\end{align*}3613eine spezielle Lösung von ($\ast$).36143615Die allgemeine Lösung von ($\ast$) lautet also:3616\[y(x) = c_1 e^x \begin{pmatrix} 1 \\ 0 \end{pmatrix}3617+ c_2 e^{-x} \begin{pmatrix} 0 \\ 1 \end{pmatrix}3618+ \begin{pmatrix} xe^x \\ \frac12e^x \end{pmatrix}\quad c_1, c_2 \in \mdr\]3619\end{enumerate}362036213622\chapter{Lineare Differentialgleichungen n-ter Ordnung}3623\index{linear!Differentialgleichung n-ter Ordnung}\index{Differentialgleichung!lineare (n-ter Ordnung)}3624\index{homogen!Differentialgleichung n-ter Ordnung}\index{Differentialgleichung!homogene (n-ter Ordnung)}3625\index{inhomogen!Differentialgleichung n-ter Ordnung}\index{Differentialgleichung!inhomogene (n-ter Ordnung)}3626\index{Anfangswertproblem}3627In diesem Paragraphen sei $n\in\mdn, I\subseteq\mdr$ ein Intervall und $a_0,\ldots,a_{n-1},b:I\to\mdr$3628stetig. Für $y\in C^n(I,\mdr)$ setze $Ly:=y^{(n)}+a_{n-1}(x)y^{(n-1)}+\cdots+a_0(x)y$.3629Die Differenzialgleichung3630\begin{align*}3631\tag D Ly=b3632\end{align*}3633heißt eine \textbf{lineare Dgl $n$-ter Ordnung}. Sie heißt \textbf{homogen}, falls $b\equiv 0$,3634anderenfalls \textbf{inhomogen}.\\3635Setze $b_0(x):=(0,\ldots,0,b(x))^T (\in\mdr^n)$ und3636\begin{align*}3637A(x):=3638\begin{pmatrix}36390&1&0&\cdots&0\\3640\vdots&\ddots&\ddots&\ddots&\vdots\\3641\vdots&&\ddots&\ddots&0\\36420&\ldots&\ldots&0&1\\3643-a_0(x)&\ldots&\ldots&\ldots&-a_{n-1}(x)3644\end{pmatrix}3645\end{align*}3646Damit erhalten wir das System:3647\begin{align*}3648\tag S z'=A(x)z+b_0(x)3649\end{align*}36503651\begin{satz}[Lösungen]3652\begin{enumerate}3653\item Ist $y:I\to\mdr$ eine Lösung von (D) auf $I$, so ist $z:=(y,y',\ldots,y^{(n-1)})$3654eine Lösung von (S) auf $I$.3655\item Ist $z:=(z_1,\ldots,z_n)$ eine Lösung von (S) auf $I$, so ist $y:=z_1$ eine Lösung von (D) auf $I$.3656\end{enumerate}3657\end{satz}36583659\begin{beweis}3660Nachrechnen!3661\end{beweis}36623663Wir betrachten auch noch die zu (D) gehörende \textbf{homogene} Gleichung3664\begin{align*}3665\tag H Ly=03666\end{align*}3667Sind $y_0,\ldots,y_{n-1}\in\mdr$ und $x_0\in I$, so heißt3668\begin{align*}3669\tag A \begin{cases}3670Ly=b\\3671y(x_0)=y_0,\ldots,y^{(n-1)}(x_0)=y_{n-1}3672\end{cases}3673\end{align*}3674ein \textbf{Anfangswertproblem} (AwP).36753676Die folgenden Sätze 24.2 und 24.3 folgen aus 24.1 und den Sätzen aus §21.36773678\begin{satz}[Lösungsmenge als Vektorraum]3679\begin{enumerate}3680\item Das AwP (A) hat auf $I$ genau eine Lösung.3681\item (D) hat Lösungen auf $I$.3682\item Sei $y_s$ eine spezielle Lösung von (D) auf $I$. Für $y:I\to\mdr$ gilt:\\3683$y$ ist eine Lsg von (D) auf $I$, genau dann wenn eine Lösung $y_h$ von (H) existiert:3684\[y=y_h+y_s\]3685\item Ist $J\subseteq I$ ein Intervall, $\hat y:J\to\mdr$ eine Lsg von (D) auf $J$,3686so existiert eine Lsg $y:I\to\mdr$ mit $\hat y=y|_J$.3687\item Sei $\mathbb{L}$ die Menge aller Lösungen von (H) auf $I$. Dann ist $\mathbb{L}$3688ein reeller Vektorraum und $\dim\mathbb{L}=n$.\\3689Für $y_1,\ldots,y_k\in\mathbb{L}$ sind äquivalent:3690\begin{enumerate}3691\item $y_1,\ldots,y_k$ sind linear unabhängig in $\mathbb{L}$.3692\item Für alle $x\in I$ sind die Vektoren $(y_j(x),y_j'(x),\ldots,y_j^{(n-1)}(x)) (j=1,\ldots,k)$3693linear unabhängig im $\mdr^n$.3694\item Es existiert ein $\xi\in I$ sodass die Vektoren $(y_j(\xi),\ldots,y_j^{(n-1)}(\xi)) (j=1,\ldots,k)$3695linear unabhängig sind im $\mdr^n$.3696\end{enumerate}3697\end{enumerate}3698\end{satz}36993700\begin{definition}3701\index{Wronskideterminante}3702\index{Fundamental-!System}3703Seien $y_1,\ldots,y_n\in\mathbb{L}$.3704\begin{align*}3705W(x):= \det\begin{pmatrix}3706y_1(x)&\cdots&y_n(x)\\3707\vdots& &\vdots\\3708y_1^{(n-1)}(x)&\cdots&y_n^{(n-1)}(x)3709\end{pmatrix}3710\end{align*}3711heißt \textbf{Wronskideterminante}. Sind $y_1,\ldots,y_n$ linear unabhängig in $\mathbb{L}$,3712so heißt $y_1,\ldots,y_n$ ein \textbf{Fundamentalsystem} (FS) von (H). I.d. Fall3713lautet die allgemeine Lösung von (H):3714\[y=c_1y_1+\cdots+c_ny_n \quad (c_1,\ldots,c_n\in\mdr)\]3715Aus 24.2 folgt für $y_1,\ldots,y_n\in\mathbb{L}$:\\3716$y_1,\ldots,y_n\in\mathbb{L}$ ist genau dann ein FS von (H), wenn gilt:3717\begin{align*}3718\forall x\in I: W(x)\ne 0 \iff \exists\xi\in I:W(\xi)\ne 03719\end{align*}3720\end{definition}37213722\begin{satz}[Spezielle Lösung]3723Sei $y_1,\ldots,y_n$ ein FS von (H) und $W$ wie oben. Für $k=1,\ldots,n$ sei3724$W_k(x)$ die Determinante die entsteht, wenn man die $k$-te Spalte von $W(x)$3725ersetzt durch $(0,\ldots,0,b(x))^T$. Setze3726\[y_s(x):=\sum_{k=1}^n\left(y_k(x)\cdot \int \frac{W_k(x)}{W(x)}\text{ d}x\right)\]3727Dann ist $y_s$ eine spezielle Lösung von (D).3728\end{satz}37293730\begin{beispiel}[Spezialfall $n=2$]3731Die homogene Gleichung hat die Form3732\begin{align*}3733\tag H y''+a_1(x)y'+a_0(x)y=03734\end{align*}3735Sei $y_1$ eine Lsg von (H) mit $y_1\ne 0\forall x\in I$. Sei $z\not\equiv$ eine Lsg von3736\[z'=-\left(a_1(x)+\frac{2y_1'(x)}{y_1(x)}\right)z, \text{ \quad so ist}\]3737\[y_2(x):=y_1(x)\cdot\int z(x)\text{ d}x\]3738eine weitere Lsg von (H) und $y_1,y_2$ ist ein FS von (H).3739\end{beispiel}37403741\begin{beweis}3742Nachrechnen: $y_2$ ist Lsg von (H).\\3743Aus $y_2'=y_1'\cdot\int z(x)\text{ d}x+y_1z(x)$ folgt:3744\begin{align*}3745W(x)&=\det\begin{pmatrix}3746y_1(x)&y_1(x)\cdot\int z(x)\text{ d}x\\3747y_1'(x)&y_1'(x)\int z(x)\text{ d}x+y_1z(x)3748\end{pmatrix}\\3749&= y_1y_1'\cdot\int z(x)\text{ d}x+y_1^2z(x)-y_1y_1'\cdot\int z(x)\text{ d}x\\3750&= y_1^2z(x)3751\end{align*}3752Da $z\not\equiv 0$ ist, existiert ein $\xi\in I$ mit $z(\xi)\ne 0$, also $W(\xi)\ne 0$.3753D.h. $y_1,y_2$ sind linear unabhängig in $\mathbb{L}$.3754\end{beweis}37553756\begin{beispiele}3757\item Bestimme die allg. Lösung der Gleichung (mit $I=(1,\infty)$)3758\begin{align*}3759\tag{$*$} y''+\frac{2x}{1-x^2}y'-\frac{2}{1-x^2}y=03760\end{align*}3761Offensichtlich ist $y_1(x)=x$ eine Lsg von ($*$) auf $I$. Die Gleichung erster Ornung lautet:3762\begin{align*}3763\tag{$**$} z'=-\left(\frac{2x}{1-x^2}+\frac 2x\right)z=\frac 2{x(x^2-1)} z3764\end{align*}3765Es ist $\int\frac2{x(x^2-1)}\text{ d}x=\log(1-\frac1{x^2})$, daraus ergibt sich die allgemeine3766Lösung von ($**$):3767\[z(x)=ce^{\log(1-\frac1{x^2})}=c(1-\frac1{x^2})\quad (c\in\mdr)\]3768Sei also:3769\[y_2(x):=y_1(x)\cdot\int 1-\frac1{x^2}\text{ d}x=1+x^2\]3770Damit ist $y_1,y_2$ ein Fundamentalsystem von ($*$) und die allgemeine Lösung lautet:3771\[y(x)=c_1x+c_2(1+x^2)\quad (c_1,c_2\in\mdr)\]3772\item Bestimme die allg. Lösung der Gleichung3773\begin{align*}3774\tag{+} y''+\frac{2x}{1-x^2}y'-\frac{2}{1-x^2}y=x^2-13775\end{align*}3776Die allg. Lösung der homogenen Gleichung lautet3777\[y(x)=c_1x+c_2(1+x^2)\]3778Es ist also $y_1(x)=x$ und $y_2(x)=1+x^2$. Damit gilt:3779\begin{align*}3780W(x)&=\det\begin{pmatrix}3781x&1+x^2\\37821&2x3783\end{pmatrix}=2x^2-(1+x^2)=x^2-1\\3784W_1(x)&=\det\begin{pmatrix}37850&1+x^2\\3786x^2-1&2x3787\end{pmatrix}=-(1+x^2)(x^2-1)\\3788W_2(x)&=\det\begin{pmatrix}3789x&0\\37901&x^2-13791\end{pmatrix}=x^3-x3792\end{align*}3793Es folgt:3794\begin{align*}3795\frac{W_1(x)}{W(x)}=-1-x^2 &&\frac{W_2(x)}{W(x)}=x3796\end{align*}3797Daraus ergibt sich nun eine spezielle Lösung von (+):3798\[y_s(x)=y_1(x)\cdot\int(-1-x^2)\text{ d}x+y_2(x)\cdot\int x\text{ d}x=\frac16 x^4-\frac12 x^2\]3799Die allgemeine Lösung von (+) lautet:3800\[y(x)=c_1x+c_2(1+x^2)+\frac16 x^4-\frac12 x^2\quad (c_1,c_2\in\mdr)\]3801\item Löse das3802\begin{align*}3803\text{AwP}3804\begin{cases}3805y''+\frac{2x}{1-x^2}y'-\frac{2}{1-x^2}y=x^2-1\\3806y(0)=0, y'(0)=13807\end{cases}3808\end{align*}3809Die allgemeine Lösung der Dgl lautet:3810\[y(x)=c_1x+c_2(1+x^2)+\frac16 x^4-\frac12 x^2\quad (c_1,c_2\in\mdr)\]3811Also ist:3812\[y'(x)=c_1+2c_2x+\frac23x^3-x\]3813Außerdem gilt:3814\begin{align*}38150\stackrel!= y(0)=c_2&&1\stackrel!=y'(0)=c_13816\end{align*}3817Daraus folgt für die Lösung des AwPs:3818\[y(x)=x+\frac16x^4-\frac12x^2\]3819\end{beispiele}38203821\chapter{Lineare Differentialgleichungen n-ter Ordnung mit konstanten Koeffizienten}3822In diesem Paragraphen sei $n\in\mdn, a_0,\ldots,a_{n-1}\in\mdr, I\subseteq\mdr$ ein Intervall3823und $b:I\to\mdr$ stetig.38243825\index{homogen!Differentialgleichung}\index{Differentialgleichung!homogene}3826\index{charakteristisch!Polynom}\index{Polynom!charakteristisches}3827Wir betrachten zunächst die \textbf{homogene Gleichung}3828\begin{align*}3829\tag H y^{(n)}+a_{n-1}y^{(n-1)}+\cdots+a_0y=03830\end{align*}3831und geben \textbf{ohne} Beweis ein "`Kochrezept"' an, wie man zu einem FS von (H) kommt.3832\[p(\lambda):=\lambda^n+a_{n-1}\lambda^{n-1}+\cdots+a_1\lambda+a_0\]3833heißt das \textbf{charakteristische Polynom} von (H).38343835\textbf{Übung:}\\3836Ist3837\[A:=\begin{pmatrix}38380&1&0&\cdots&0\\3839\vdots&\ddots&\ddots&\ddots&\vdots\\3840\vdots&&\ddots&\ddots&0\\38410&\cdots&\cdots&0&1\\3842-a_0&\cdots&\cdots&\cdots&-a_{n-1}3843\end{pmatrix}\]3844so ist $\det(\lambda I-A)=p(\lambda)$.38453846\textbf{Kochrezept:}3847\begin{enumerate}3848\item Bestimme die verschiedenen Nullstellen $\lambda_1,\ldots,\lambda_r (r\le n)$ von $p$3849und deren Vielfachheiten $k_1,\ldots,k_r$, also:3850\[p(\lambda)=(\lambda-\lambda_1)^{k_1}\cdots(\lambda-\lambda_r)^{k_r}\]3851Es seien $\lambda_1,\ldots,\lambda_m\in\mdr$ und $\lambda_{m+1},\ldots,\lambda_r\in\mdc\setminus\mdr$.3852\[M:=\Set{\lambda_1,\ldots,\lambda_m}\cup\Set{\lambda_j | m+1\le j\le r,\Im(\lambda_j)>0}\]3853\item Sei $\lambda_j\in M$.\\3854\textbf{Fall 1:} $\lambda_j\in\mdr$\\3855Dann sind3856\[e^{\lambda_jx},xe^{\lambda_jx},\ldots,x^{k_j-1}e^{\lambda_jx}\]3857$k_j$ linear unabhängige Lösungen von (H).\\3858\textbf{Fall 2:} $\lambda_j\in\mdc\setminus\mdr$, etwa $\lambda_j=\alpha+i\beta$ $(\alpha,\beta\in\mdr,\beta>0)$\\3859Dann sind3860\begin{align*}3861e^{\alpha x}\cos(\beta x), xe^{\alpha x}\cos(\beta x),\ldots,x^{k_j-1}e^{\alpha x}\cos(\beta x)\\3862e^{\alpha x}\sin(\beta x), xe^{\alpha x}\sin(\beta x),\ldots,x^{k_j-1}e^{\alpha x}\sin(\beta x)3863\end{align*}3864$2k_j$ linear unabhängige Lösungen von (H).3865\item Führt man (2) für jedes $\lambda_j\in M$ durch, so erhält man ein FS von (H).3866\end{enumerate}38673868\begin{beispiele}3869\item Bestimme die allg. Lösung der Gleichung3870\begin{align*}3871\tag{$*$} y^{(6)}-6y^{(5)}+9y^{(4)}=03872\end{align*}3873Es gilt:3874\[p(\lambda)=\lambda^6-6\lambda^5+9\lambda^4=\lambda^4(\lambda^2-6\lambda+9)=\lambda^4(\lambda-3)^2\]3875Sei also:3876\begin{align*}3877\lambda_1&:=0&\lambda_2&:=3\\3878k_1&:=4&k_2&:=23879\end{align*}3880Ein FS von ($*$) lautet: $1,x,x^2,x^3,e^{3x},xe^{3x}$. Das bedeutet für die allgemeine Lösung von ($*$):3881\[y(x)=c_1+c_2x+c_3x^2+c_4x^3+c_5e^{3x}+c_6xe^{3x}\quad(c_1,\ldots,c_6\in\mdr)\]3882\item Bestimme die allgemeine Lösung der Gleichung:3883\begin{align*}3884\tag{$*$} y'''-2y''+y'-2y=03885\end{align*}3886Es gilt:3887\[p(\lambda)=\lambda^3-2\lambda^2+\lambda-2=(\lambda^2+1)(\lambda-2)=(\lambda-2)(\lambda+i)(\lambda-i)\]3888Sei also:3889\begin{align*}3890\lambda_1&:=2&\lambda_2&:=i&\lambda_3&:=-i\\3891k_1&:=1&k_2&:=1&k_3&:=13892\end{align*}3893Dann ist $M:=\{2,i\}$ und ein FS von ($*$) lautet: $e^{2x},\cos(x),\sin(x)$. Das bedeutet für3894die allgemeine Lösung von ($*$):3895\[y(x)=c_1e^{2x}+c_2\cos(x)+c_3\sin(x)\quad (c_1,c_2,c_3\in\mdr)\]3896\item Löse das3897\begin{align*}3898\text{AwP}3899\begin{cases}3900y'''-2y''+y'-2y=0\\3901y(0)=0,y'(0)=1,y''(0)=03902\end{cases}3903\end{align*}3904Die allgemeine Lösung der Dgl lautet:3905\[y(x)=c_1e^{2x}+c_2\cos(x)+c_3\sin(x)\]3906Es ist:3907\begin{align*}3908y'(x)&=2c_1e^{2x}-c_2\sin(x)+c_3\cos(x)\\3909y''(x)&=4c_1e^{2x}-c_2\cos(x)-c_3\sin(x)3910\end{align*}3911Außerdem gilt:3912\begin{align*}39130&\stackrel!=y(0)=c_1+c_2&1&\stackrel!=y'(0)=2c_1+c_3&0&\stackrel!=4c_1-c_23914\end{align*}3915Daraus folgt:3916\begin{align*}3917c_1&=0&c_2&=0&c_3&=13918\end{align*}3919Also lautet die Lösung des AwPs:3920\[y(x)=\sin(x)\]3921\end{beispiele}39223923\index{inhomogen!Differentialgleichung}\index{Differentialgleichung!inhomogene}3924Wir betrachten auch noch die \textbf{inhomogene Gleichung}3925\begin{align*}3926\tag{IH} y^{(n)}+a_{n-1}y^{(n-1)}+\cdots+a_0y=b(x)3927\end{align*}39283929\begin{definition}3930\index{nullfache Nullstelle}\index{Nullstelle!nullfache}3931$\mu\in\mdc$ heißt eine \textbf{nullfache Nullstelle} von $p$, genau dann wenn3932$p(\mu)\ne 0$ ist.3933\end{definition}39343935\textbf{Regel} (ohne Beweis):\\3936Seien $\alpha,\beta\in\mdr,m,q\in\mdn_0$ und $b$ von der Form:3937\begin{align*}3938&b(x)=(b_0+b_1x+\cdots+b_mx^m)e^{\alpha x}\cos(\beta x)\quad\text{, oder}\\3939&b(x)=(b_0+b_1x+\cdots+b_mx^m)e^{\alpha x}\sin(\beta x)3940\end{align*}3941Ist $\alpha+\beta i$ eine $q$-fache Nullstelle von $p$, so gibt es eine spezielle Lösung3942$y_s$ von (IH) der Form:3943\[y_s(x)=x^qe^{\alpha x}\left[(A_0+A_1x+\cdots+A_mx^m)\cos(\beta x)+(B_0+B_1x+\cdots+B_mx^m)\sin(\beta x)\right]\]39443945\begin{beispiel}3946Bestimme die allgemeine Lösung der Gleichung3947\begin{align*}3948y'''-y'=x+1\tag{$*$}3949\end{align*}3950\begin{enumerate}3951\item Bestimme die allgemeine Lösung der homogenen Gleichung3952\begin{align*}3953y'''-y'=0\tag{$**$}3954\end{align*}3955Es gilt:3956\[p(\lambda)=\lambda^3-\lambda=\lambda(\lambda^2-1)=\lambda(\lambda+1)(\lambda-1)\]3957Also ist ein FS von ($**$): $1,e^x,e^{-x}$. Damit lautet die allgemeine Lösung der homogenen3958Gleichung:3959\[y_h(x)=c_1+c_2e^x+c_3e^{-x}\quad(c_1,c_2,c_3\in\mdr)\]3960\item Bestimme eine allgemeine Lösung der inhomogenen Gleichung ($*$).\\3961Es ist $m=1,\alpha=\beta=0,q=1$. Ansatz:3962\begin{align*}3963&y_s(x)=x(A_0+A_1x)=A_0x+A_1x^2\\3964&y_s'(x)=A_0+2A_1x\\3965&y_s''(x)=2A_1\\3966&y_s'''(x)=03967\end{align*}3968Mit Einsetzen in ($*$) folgt:3969\[0-(A_1+2A_1x)=x+1\]3970Also ist:3971\begin{align*}3972A_0=-1&&A_1=-\frac123973\end{align*}3974D.h. eine spezielle Lösung von (IH) lautet:3975\[y_s(x)=-x-\frac12 x^2\]3976\end{enumerate}3977Damit lautet die allgemeine Lösung von (IH):3978\[y(x)=c_1+c_2e^x+c_3e^{-x}-x-\frac12 x^2\quad(c_1,c_2,c_3\in\mdr)\]3979\end{beispiel}39803981\appendix3982\chapter{Satz um Satz (hüpft der Has)}3983\listtheorems{satz,wichtigedefinition}39843985\renewcommand{\indexname}{Stichwortverzeichnis}3986\addcontentsline{toc}{chapter}{Stichwortverzeichnis}3987\printindex39883989\chapter{Credits für Analysis II}3990Abgetippt haben die folgenden Paragraphen:\\3991\textbf{§ 1: Der Raum $\MdR^n$}: Wenzel Jakob, Joachim Breitner\\3992\textbf{§ 2: Konvergenz im $\MdR^n$}: Joachim Breitner und Wenzel Jakob\\3993\textbf{§ 3: Grenzwerte bei Funktionen, Stetigkeit}: Wenzel Jakob, Pascal Maillard\\3994\textbf{§ 4: Partielle Ableitungen}: Joachim Breitner und Wenzel Jakob\\3995\textbf{§ 5: Differentiation}: Wenzel Jakob, Pascal Maillard, Jonathan Picht\\3996\textbf{§ 6: Differenzierbarkeitseigenschaften reellwertiger Funktionen}: Jonathan Picht, Pascal Maillard, Wenzel Jakob\\3997\textbf{§ 7: Quadratische Formen}: Wenzel Jakob\\3998\textbf{§ 8: Extremwerte}: Wenzel Jakob\\3999\textbf{§ 9: Der Umkehrsatz}: Wenzel Jakob und Joachim Breitner\\4000\textbf{§ 10: Implizit definierte Funktionen}: Wenzel Jakob\\4001\textbf{§ 11: Extremwerte unter Nebenbedingungen}: Pascal Maillard\\4002\textbf{§ 12: Wege im $\MdR^n$}: Joachim Breitner, Wenzel Jakob und Pascal Maillard\\4003\textbf{§ 13: Wegintegrale}: Pascal Maillard und Joachim Breitner\\4004\textbf{§ 14: Stammfunktionen}: Joachim Breitner und Ines Türk\\4005\textbf{§ 15: Vorgriff auf Analysis III}: Rebecca Schwerdt\\4006\textbf{§ 16: Folgen, Reihen und Potenzreihen in $\MdC$}: Rebecca Schwerdt\\4007\textbf{§ 17: Normierte Räume, Banachräume, Fixpunktsatz}: Rebecca Schwerdt\\4008\textbf{§ 18: Differentialgleichungen: Grundbegriffe}: Rebecca Schwerdt\\4009\textbf{§ 19: Lineare Differentialgleichungen 1. Ordnung}: Rebecca Schwerdt\\4010\textbf{§ 20: Differentialgleichungen mit getrennten Veränderlichen}: Rebecca Schwerdt\\4011\textbf{§ 21: Systeme von Differentialgleichungen 1. Ordnung}: Peter Pan\\4012\textbf{§ 22: Lineare Systeme}: Rebecca Schwerdt, Peter Pan\\4013\textbf{§ 23: Homogene lineare Systeme mit konstanten Koeffizienten}\\4014\textbf{§ 24: Lineare Differentialgleichungen n-ter Ordnung}: Rebecca Schwerdt\\4015\textbf{§ 25: Lineare Differentialgleichungen n-ter Ordnung mit konstanten Koeffizienten}: Rebecca Schwerdt\\40164017\end{document}401840194020