Forum:  Mehrdim. Differentialrechnung
Thema: Differenzierbarkeit mit Skalarprodukt und symmetrischer Matrix
Themen-Übersicht
Webee
Aktiv
Dabei seit: 15.12.2018
Mitteilungen: 36
Aus:
Themenstart: 2019-06-15 17:04

Hallo zusammen,

ich komme bei der folgenden Aufgabe nicht weiter:
Sei \(A\) eine symmetrische \(nxn\)-Matrix und \(\langle \cdot ,\cdot \rangle\) das Standardskalarprodukt auf \(\mathbb{R} ^n\). Ich soll nun zeigen, dass die Funktion \(f:\mathbb{R} ^n\to \mathbb{R} ,x\mapsto e^{\langle x,Ax\rangle }\) differenzierbar ist und die Ableitung bestimmen.

Leider habe ich bisher noch keine Idee, wie man am besten an diese Aufgabe heran geht und dementsprechend noch keinen Ansatz. Deshalb würde ich mich wirklich über Hilfestellungen freuen.

Viele Grüße
Webee


Kampfpudel
Senior
Dabei seit: 02.08.2013
Mitteilungen: 1626
Aus:
Beitrag No.1, eingetragen 2019-06-15 17:16

Hey Webee,

du hast hier eine Verkettung zweier Abbildungen, einmal die Abbildung \(g: \mathbb{R}^n \to \mathbb{R}\), \(x \mapsto \langle x, Ax \rangle\) sowie \(h: \mathbb{R} \to \mathbb{R}\), \(t \mapsto e^t\) . Dann ist \(f(x)=h(g(x))\). Mache dir das zu nutze


Webee
Aktiv
Dabei seit: 15.12.2018
Mitteilungen: 36
Aus:
Beitrag No.2, vom Themenstarter, eingetragen 2019-06-15 19:26

Hallo,

danke für die Antwort. Dies ist ein hilfreicher Hinweis. \(h\) ist offensichtlich differenzier, sodass ich hier nichts mehr zeigen muss. Wenn ich nun \(\langle x,Ax\rangle \) betrachte, dann komme ich auf die Ableitung \(2Ax\) (wie man darauf kommt, wurde hier im Forum ja schon gezeigt). Reicht es denn, wenn ich zeige, dass die Ableitung existiert, um zu zeigen, dass \(\langle x,Ax\rangle \) differenzierbar ist?
Mit der Kettenregel ist dann ja auch \(f\) differenzierbar und die Ableitung ist \(f'(x)=2Ax\cdot e^{\langle x,Ax\rangle }\).


Kampfpudel
Senior
Dabei seit: 02.08.2013
Mitteilungen: 1626
Aus:
Beitrag No.3, eingetragen 2019-06-15 22:09

2019-06-15 19:26 - Webee in Beitrag No. 2 schreibt:
Reicht es denn, wenn ich zeige, dass die Ableitung existiert, um zu zeigen, dass \(\langle x,Ax\rangle \) differenzierbar ist?

Ich verstehe nicht ganz, was du damit meinst. Die Abbildung \(x \mapsto \langle x,Ax\rangle \) ist ein Polynom mit \(n\) Variablen und damit offenbar differenzierbar


Webee
Aktiv
Dabei seit: 15.12.2018
Mitteilungen: 36
Aus:
Beitrag No.4, vom Themenstarter, eingetragen 2019-06-16 11:54

Achso, ja da hatte ich mich selbst verwirrt. Ich habe aber noch eine Frage zu der Ableitung, die ich berechnet habe. Wenn diese stimmen sollte, ist es dann richtig, dass \(f'\) nach \(\mathbb{R}^n\) abbildet? Durch \(2Ax\) bekomme ich dann ja einen Spaltenvektor, die ursprüngliche Funktion bildet aber nach \(\mathbb{R}\) ab.

Viele Grüße
Webee


Kampfpudel
Senior
Dabei seit: 02.08.2013
Mitteilungen: 1626
Aus:
Beitrag No.5, eingetragen 2019-06-16 15:02

Ja, das Ergebnis stimmt und ja, \(f'\) bildet vom \(\mathbb{R}^n\) nach \(\mathbb{R}^n\) ab.

Wenn \(V,W\) normierte Vektorräume sind und \(f: V \to W\) eine (Frechét)-differenzierbare Abbildung (im Falle von \(V= \mathbb{R}^n\) und \(W = \mathbb{R}^m\) sagt man total differenzierbar oder einfach differenzierbar), dann ist für jedes \(v \in V\) das Objekt \(f'(v)\) die bestmögliche, lineare und stetige Approximation der Funktion \(f\) an der Stelle \(v\). Man schreibt auch \(f'(v) \in L(V,W)\) (nochmal zum mitschreiben: \(f'(v)\) ist selbst eine Abbildung von \(V\) nach \(W\)). D.h. also, \(f'\) ist eine Abbildung von \(V\) nach \(L(V,W)\). Im Falle  \(V= \mathbb{R}^n\) und \(W = \mathbb{R}^m\) kann man \(L(V,W)\) mit der Menge aller \(m \times n\)-Matrizen identifizieren (jede \(m \times n\)-Matrix \(M\) induziert die (stetige) lineare Abbildung \(x \in \mathbb{R}^n \mapsto Mx \in \mathbb{R}^m\) und jede (stetige) lineare Abbildung von \(\mathbb{R}^n\) nach \(\mathbb{R}^m\) lässt sich so darstellen. Das sollte aber aus LinA 1 bekannt sein.)
Im Falle \(V= \mathbb{R}^n\) und \(W = \mathbb{R}^m\) ist also \(f': \mathbb{R}^n \to L(\mathbb{R}^n, \mathbb{R}^m)\), man steckt also in \(f'\) einen Vektor aus dem \(\mathbb{R}^n\) und erhält eine \(m \times n\)-Matrix (die sogenannte Jacobi-Matrix).
Im speziellen Fall \(m=1\) - den wir hier ja haben - ist diese Matrix ja wieder ein Vektor im \(\mathbb{R}^n\).


Webee
Aktiv
Dabei seit: 15.12.2018
Mitteilungen: 36
Aus:
Beitrag No.6, vom Themenstarter, eingetragen 2019-06-16 16:26

Alles klar. Und vielen Dank für die ausführliche Erklärung. Jetzt ist mir einiges klarer geworden.

Viele Grüße
Webee




Dieses Forumbeitrag kommt von Matroids Matheplanet
https://https://matheplanet.de

Die URL für dieses Forum-Thema ist:
https://https://matheplanet.de/default3.html?topic=242300=400510
Druckdatum: 2019-12-07 10:13