Algorithmisches Differenzieren           Sommersemester 06

Nr.:  0230 L 254     Integrierte LV (VL mit UE)

Termin: dienstags 14:15-15:45 Uhr MA 645

Dozent: Dr. Thomas Slawig

Tel. 314 28035

Sprechstunde Di 10.15-11.45 Uhr MA 478

slawig@math.tu-berlin.de

Inhalt:

Algorithmisches (oder Automatisches) Differenzieren (AD) ist eine Technologie, die aus einem gegebenen Computerprogramm zur Berechnung einer Funktion ein neues Programm generiert, das die Ableitung der Funktion auswertet, und zwar exakt, ohne Approximationsfehler und numerische Instabilitäten. AD kann überall da eingesetzt werden, wo Ableitungsinformationen benötigt werden, z.B. in Simulation, Optimierung und Optimalsteuerung. AD ist besonders effektiv, wenn über das zu Grunde liegende Simulationsprogramm wenig analytische Informationen vorliegt oder dieses einem laufenden Entwicklungsprozess durchläuft. Beispiele sind z.B. Modelle der Fluiddynamik oder Klimaforschung. In der VL werden die mathematischen und algorithmischen Aspekte der AD-Technologie - wie z.B. Effektivität und Realisierung - beschrieben. Übungen mit den wichtigsten AD-Programmen sind integriert.

Voraussetzungen: Grundkenntnisse der Numerischen Mathematik, evtl. Optimierung, Programmierkenntnisse (C, C++, Fortran oder Matlab)

Woche
VL
Thema
Übung

dazu

Tools
Aufgabe/Thema
14
18.7.
11. Ausnutzen von Dünnbesetztheitsmustern von Jacobi-Matrizen
13
11.7.
10. Nicht-Differenzierbarkeit und numerische Instabilitäten
12
4.7.
9. (Forts.)
11
27.6.
9. Differenzieren von iterativen Algorithmen
10
20.6.
8. (Forts.)
9
13.6.
8. Anwendung: Unrestringierte Optimierung
20.6.
AdiC

Adol-C

Erweiterte Rosenbrockfunktion (in C++)
8
6.6.
7.5. Aufwand des Rückwärtsmodus
13.6.
7
30.5.
7.4. Realisierung des Rückwärtsmodus

7.3. Rückwärtsmodus bei Darstellung der Funktion als Graph

6.6.
ADMAT

Berechne Sensitivität von F=||(u,v,p)||

bezgl. des Startwertes der Newtoniteration

Funktion zur Berechnung des Speicherbedarfs

des RW-Modus bei ADMAT

6
23.5.
7.2. Idee des Rückwärtsmodus

7.1. Aufwand des Vorwärtsmodus

7. Aufwand - Der Rückwärtsmodus

30.5.
ADMAT

Reverse Mode

Vergleich Aufwand Vorwärts-/Rückwärts-Modus

erweiterte Rosenbrock-Funktion

oder Produkt-Beispiel

Vergleiche den Rechenaufwand in Abh. vom Parameter k

Funktion zur Berechnung des Speicherbedarfs bei ADMAT

5
16.5.
6. Operatorüberladen
23.5.
ADMAT -

OO für MATLAB

Rosenbrockfunktion ableiten s.u.
4
9.5.
5. Test algorithmisch generierter Ableitungen

4. Anwendung: Lösung nichtlinearer Gleichungen

16.5.
ADiMat
Newton mit iterativem Löser (nur Richtungsableitung)

oder

Gradiententestprogramm, Anwendung auf Rosenbrockfunktion

3
2.5.
3. (Forts.)
9.5.
ADiMat
volle Jacobi-Matrix für Newton-Verfahren für Strömungscode

Hinweis: in der alg. gen. Jacobi-Matrix das Element (nmax,nmax) auf 1e12 setzen, vgl. analyt. Jacobi-Matrix

2
25.4
3. Vorwärtsmodus und Quelltransformation

2. Differenzierbarkeitsbegriffe

2.5.
ADiMat - Quelltransfomation

für Matlab

erste Schritte

Abl. Rosenbrockfunktion

1
18.4.
1. Einleitung