Links und Funktionen
Sprachumschaltung

Navigationspfad
Sie sind hier: Startseite / Lehre / WS 2016/17 / Grundlagen der Analysis / Material / Analysis-WS16-13


Inhaltsbereich

Analysis-WS16-13

Plain Text icon skript13.txt — Plain Text, 6 KB (6428 bytes)

Dateiinhalt

11 Differentialrechnung mit mehreren Variablen
==============================================

Wir geben hier nur einen ganz groben intuitiven Einblick.

Fuer eine Liste von Variablen ("Vektor") (x1,..,xn) schreiben wir
gerne xs, gelesen "ixes" oder "x-Vektor".

Sei f:D -> RR mit D<=RR^n eine n-stellige Funktion auf einer Teilmenge
der reellen Zahlen.


11.1 Partielle Ableitungen
--------------------------

Man definiert die partiellen Ableitungen f_1, f_2, ..., f_n

f_i(xs) = lim (f(x1,...,x_(i-1), xi+h,x(i+1),...,xn) - f(xs))/h
          h->0

als die Ableitung der einstelligen Funktion, die man aus f erhaelt, wenn man alle Variablen bis auf eine festhaelt.

Man schreibt auch df/dxi fuer f_i und verwendet hier ein geschwungenes d.

Im Falle n=2 kann man sich die Funktion f als "Gebirge"
vorstellen. Jedem Punkt in der x1,x2-Ebene wird eine "Hoehe" f(x1,x2)
zugewiesen.

Die partielle Ableitung f_i(xs) gibt die Steigung des Gebirges an,
wenn man sich in Richtung xi bewegt.

Die Steigung in Richtung 45 Grad zwischen x1 und x2 (Fall n=2) ergibt
sich (unter gewissen Annahmen an f, "total differenzierbar") als
1/sqrt(2)(f_1(xs) + f_2(xs)). Ebenso fuer andere Richtungen.

Fasst man die partiellen Ableitungen zu einem Vektor zusammen, so
erhaelt man den *Gradienten* von f. Er zeigt in die Richtung des
steilsten Anstieges und seine Laenge ist ein Mass fuer die Steilheit.

Beispiel: f(x,y)=1-x^2-y^2 

f bildet eine Art Zuckerhut. (Nach unten offene um eins nach oben geschobene Normalparabel, die um ihre Symmetrieachse gedreht wird). 

f_x(x,y) = -2x, f_y(x,y) = -2y

/* bei benannten Variablen schreibt man auch f_x, f_y fuer die partiellen Ableitungen nach x und y */

Der Gradient von f ist grad(f)(x,y) = (-2x,-2y)^T

/* das hochgestellte T ("transponiert")
soll andeuten, dass wir einen Spaltenvektor meinen */

Der Gradient zeigt immer in Richtung von (0,0) und sein Betrag wird kleiner, je kleiner x und y werden.

Weiteres Beispiel: Nach oben offene Halbkugelschale: f(x,y) = 1-sqrt(1-x^2-y^2).


11.2 Richtungsableitung und totale Differenzierbarkeit
------------------------------------------------------

Hat man irgendeinen Einheitsvektor v, so erhaelt man die Steigung in
Richtung v als das Skalarprodukt des Gradienten mit v.

D_v(f) = grad(f).v

und bezeichnet dies als *Richtungsableitung* von f (in Richtung
v). Allerdings gilt diese Darstellung der Steigung in v-Richtung als
Linearkombination der Steigungen in x- und y-Richtung nur unter der
oben bereits angedeuteten Bedingung der *totalen Differenzierbarkeit*.
Diese wird formal als Approximierbarkeit von f im Punkt xs durch eine
lineare Funktion definiert. Intutitiv bedeutet sie im Falle von RR^2,
dass an den Graphen von f im Punkt xs eine Tangentialebene angelegt
werden kann.  Klar ist, dass solch eine Ebene, wenn es sie ueberhaupt
gibt, durch ihre Steigungen in x- und y-Richtung bestimmt ist. Eine
hinreichende, wenn auch nicht notwendige Bedingung fuer die totale
Differenzierbarkeit ist, dass die partiellen Ableitungen in einer
Umgebung von xs existieren und stetig sind.

Die klassischen Gegenbeispiele lauten wie folgt: 

*) f(x,y) = x y^3 / (x^2 + y^4) und f(0,0)=0 ist in (0,0) nicht total
 differenzierbar.

*) f(x,y) = (x^2 + y^2) sin(1/(x^2+y^2)) und f(0,0)=0 ist in (0,0)
 total differenzierbar, obwohl die partiellen Ableitungen in (0,0)
 nicht stetig sind. 



11.3 Lokale Extrema
-------------------

Eine notwendige Bedingung dafuer, dass eine stetig differenzierbare, in
einer Umgebung von xs definierte Funktion an der Stelle xs ein lokales
Extremum besitzt, ist, dass der Gradient dort Null ist:
grad(f)(xs)=0. Im Beispiel "Zuckerhut"
ist grad(f)(0,0)=0 und in der Tat hat f
dort ein lokales Maximum.

Fuer hinreichende Bedingungen benoetigt man eine Verallgemeinerung
der zweiten Ableitung: die Hesse-Matrix.

Definition: Sei f n-stellige Funktion wie oben. Die Hesse-Matrix von f
an der Stelle xs ist eine n x n Matrix H(f)(xs)=(a_ik) wobei

                     a_ik = d/dx_i d/dx_k f(xs)

An der Stelle (i,k) der Hessematrix befindet sich also die partielle
Ableitung nach xi der partiellen Ableitung nach xk von f.

Beispiel: f(x,y)=1-x^2-y^2

            (-2   0)
H(f)(x,y) = (      )
            (0   -2)


Beispiel: g(x,y)=xy

grad(g)(x,y) = (y,x)^T

            (0   1)
H(g)(x,y) = (     )
            (1   0)


Beispiel: h(x,y) = 1-sqrt(1-x^2-y^2)

grad(h)(x,y) = 1/sqrt(1-x^2-y^2)(x,y)^T

                               ( 1-y^2      xy   )
H(h)(x,y) = (1-x^2-y^2)^(-3/2)*(                 )
                               ( xy         1-x^2)


Bemerkung: Sind alle ersten und zweiten Ableitungen stetig, so kann
die Reihenfolge der Ableitungen vertauscht werden: die Hessematrix ist
symmetrisch.


Definition: Eine nxn-Matrix A ist positiv definit, wenn fuer alle
Vektoren v=/=0 gilt v^TAv > 0. Sie ist positiv semidefinit, wenn v^TAv
>=0, negativ definit, wenn v^TAv < 0, negativ semidefinit, wenn v^TAv
<= 0, indefinit sonst.

                                   (a  b)
Satz: Eine symmetrische 2x2 Matrix (    ) ist positiv definit, genau dann, wenn
                                   (b  c)

a>0 und ac > b^2. Sie ist negativ definit, genau dann, wenn a<0 und ac > b^2. Sie ist indefinit, wenn ac<b^2.

Beweis: Falls v=(x y)^T, so ist v^TAv = ax^2+2bxy+cy^2.  also v^TAv =
1/a * ((ax+by)^2+(ac-b^2)y^2) > 0, falls a>0 und ac>b^2.
Umgekehrt ist a>0 notwendig wg
v=(1 0)^T und ac-b^2 notwendig wg v=(b  -a)^T. Die anderen Aussagen
werden aehnlich gezeigt.



Satz: Es sei grad[f](xs)=0 (an der Stelle xs). Wenn H[f](xs) positiv
definit ist, dann liegt bei xs ein lokales Minimum vor. Wenn H[f](xs)
negativ definit ist, so liegt ein lokales Maximum vor. Ist H[f](xs)
indefinit, so handelt es sich um einen Sattelpunkt.

Beweisidee: Wende positive Definitheit auf die Richtungsvektoren an:
in jeder Richtung konvex -> lok. Minimum, in jeder Richtung konkav->
lok. Maximum.

Beispiel:

f(x,y) = 1-x2-y2.
grad[f] = (-2x -2y)^T

            (-2   0) 
H[f](x,y) = (      ) (immer negativ definit)
            (0   -2)

grad[f](0,0)=0 -> lokales Maximum


f(x,y) = xy^2-x.

grad[f](x,y) = (y^2-1   2xy)^T

            (0    2y)
H[f](x,y) = (       )
            (2y   2x)

grad[f](x,y) = 0
<=> (x,y) : {(1 0), (-1 0)}

           (0  2)                         (0  -2)
H[f](1,0) =(    )            H[f](-1,0) = (     )
           (2  0)                         (-2  0)

beides indefinit. Nur Sattelpunkte. 


Artikelaktionen


Funktionsleiste