Vorträge in MA041
14:00Multilevel Monte Carlo ohne Simulation von stochastischen iterierten Integralen
 Friederike Manke (Master)
14:20Bayesian Change Point Detection with an asymmetric miss criterion
 Paul Hager (Bachelor)
14:40Bayessche Filterung von dynamischen Systemen mit der Optimalen-Transportmethode
 Maria Karnauhova (Bachelor)
15:00Mean-Field Approximation für ein gleichgewichtetes Netzwerk von Neuronen
 Torben Burow (Master)
15:20Kaffeepause
15:35Stochastische Funktionaldifferentialgleichungen: Zufällige Systeme mit Verzögerung
 Torben Schröder (Master)
15:55Highly dense mobile communication networks with random fadings
 András Tóbiás (Master, Vortrag auf englisch)
16:15Wie Rauschen zu Synchronisation führen kann
 Isabell Vorkastner (Master)
16:35Evolutionsgleichungen mit nichtmonotonem Hauptteil
 André Eikmeier (Master)
17:00Kaffeepause

Vorträge in MA042
14:00Störung der Polarzerlegung linearer Operatoren
 Richard Duong (Bachelor)
14:20Stabilisator der Determinante und maximal lineare Teilräume
 Philipp Reichenbach (Bachelor)
14:40Mobiles Sampling unter Optimierung der Pfaddichte
 Qiao Luo (Bachelor)
15:00Mathematische Analyse und Optimierung von Metronetzen
 Felix Thoma (Bachelor)
15:20Kaffeepause
15:35A Generic Approach to Solving the Steiner Tree Problem and Variants
 Daniel Rehfeldt (Master)
15:55Block Basiertes Compressed Sensing in der Analysis Formulierung - Wie Mathematik in der medizinischen Bildgebung helfen kann
 Maximilian März (Master)
16:15Zielorientierte Fehlerschätzer für die Topologieoptimierung
 Jakob Schneck (Master)
16:35Rekonstruktion mit binären Messungen - oder bringen mehr Pixel wirklich bessere Bilder?
 Laura Terhaar (Master)
16:55A-posteriori-Abschätzungen vom Funktionaltyp für elliptische Optimalsteuerungsprobleme
 Mathieu Pascal Rosière (Master)
17:15Kaffeepause
Vorträge in MA043
14:00Renormalisierte Lösungen elliptischer Randwertaufgaben
 Lukas Geuter (Bachelor)
14:20Kontaktprobleme in der nichtlinearen Elastizitätstheorie
 Anne Sur (Bachelor)
14:40Elastische Deformationen ebener Gebiete
 Jonas Tervooren (Master)
15:00Sterne zählen mithilfe der komplexen Analysis
 Jan Zur (Master)
15:20Kaffeepause
15:35Flip-Abstand konvexer Polygone und hyperbolische Geometrie
 Robert Löwe (Master)
15:55Homothetische Dreieckskontaktdarstellungen
 Hendrik Schrezenmaier (Master)
16:15Persistente Homologie
 Olivia Röhrig (Bachelor)
16:35Verallgemeinerte Persistenzmoduln
 René Corbet (Master)
16:55Kaffeepause

Vorträge Bachelor: Abstracts

Störung der Polarzerlegung linearer Operatoren

Richard Duong

Die Polarzerlegung A = QP einer Matrix ist ein wohlbekanntes Objekt aus der linearen Algebra. Im Rahmen einer Störungsanalyse ist es von Interesse, ob und unter welchen Bedingungen die Polarfaktoren unter Störung der Ausgangsmatrix stabil bleiben. Für den endlich-dimensionalen Fall von Matrizen sind bereits gute Resultate bekannt. Die vorgestellte Abschlussarbeit verallgemeinert diese Ergebnisse auf den unendlich-dimensionalen Fall linearer Operatoren und schwächt darüber hinaus die im Matrix-Fall gestellten Bedingungen der Störungsresultate ab.

Renormalisierte Lösungen elliptischer Randwertaufgaben

Lukas Geuter

Ein zentrales Werkzeug zur Untersuchung von Randwertproblemen ist die Umformulierung solcher als Operatorgleichungen. Eine grundlegende Voraussetzung für diesen Ansatz ist jedoch, dass die rechte Seite des betrachteten Problems hinreichend regulär ist. Dies ist aber nicht in allen auftretenden Fällen gegeben. Eine Möglichkeit die gemeinhin verwendete Theorie der schwachen Lösungen auf solche Problemstellungen zu erweitern sind die sogenannten renormalisierten Lösungen. Lösung in diesem Sinne ist eine Funktion, die unter anderem eine Variationsgleichung erfüllt, welche mittels Abschneidefunktionen regularisiert wurde. Wir wollen diesen verallgemeinerten Lösungsbegriff vorstellen und die wichtigsten Methoden zum Nachweis von Existenz und Eindeutigkeit anhand eines linearen Problems erläutern. Abschließend soll ein kurzer Ausblick auf Verwendung dieses Konzept im nichtlinearen Fall gegeben werden.

Bayesian Change Point Detection with an asymmetric miss criterion

Paul Hager

The problem of finding an optimal stopping time for detecting the moment at which a Brownian motion gets disturbed is treated by many authors, however for different criteria of optimality. We picked up on the work of I. Karatzas, who treated the objective of minimizing the expected distance between the stopping time and the actual time of disturbance, which is assumed to suffice a generalized exponential distribution. By introducing a free parameter we generalized this symmetric criteria to a more asymmetric one and solved the new posed problem. This criteria, depending on the choice of the parameter, punishes a case of a premature respectively delayed stopping with different weights. It turns out that by introducing this parameter we can find the solution to a even more comprehensive class of criteria for the optimal stopping, since - as we prove - criteria of this class are just a scaling of the previously treated asymmetric criteria with an corresponding choice of the parameter. This is a combining result for works on the topic.

Bayessche Filterung von dynamischen Systemen mit der Optimalen-Transportmethode

Maria Karnauhova

Will man das wahre Verhalten einer nicht direkt beobachtbaren Größe, auch Signal genannt, herausfinden, so bedarf es nicht nur an regelmäßigen Messungen dieses Signals. Denn diese sind mit zufälligen Störungen, so genanntem Rauschen, verbunden und sind außerdem unvollständig. Aus diesem Grund wurde die stochastische Filtertheorie entwickelt. Je nachdem welches dynamische System hinter dem Signal steckt, eignet sich das eine oder andere Filter für das Schätzen des wahren Verhaltens eines Systems besser. Ziel dieser Bachelorabeit ist es zu untersuchen, inwiefern das von Sebastian Reich entwickelte Partikelfilter, namens Ensemble Transformation Particle Filter (ETPF), sich zum Abbilden von Dynamiken eignet, die neuronale Prozesse widerspiegeln. Dazu betrachten wir zwei Modelle eines Neurons, FitzHugh-Nagumo und Hodgkin-Huxley Modell, die wir in MATLAB simulieren und worauf wir unter der perfekten Modellannahme den ETPF loslassen. Als Gütekriterium nehmen wir die Wurzel aus der mittleren Fehlerquadratsumme gemittelt über die diskrete Zeit aus den Simulationen und schauen uns an, ob dieser Fehler nach Anwendung des Filters kleiner wird als die durch das System bestimmte natürliche Fehlerschranke ohne Anwendung des Filters. In dem Vortrag wollen wir uns dieses spezielle Filter, das keine Kenntnisse über die Prior- Verteilung des Signals braucht und zur Lösung des Filterproblems das Monge-Kantorowitsch Transportproblem löst, anschauen und auf die Ergebnisse aus den Simulationen eingehen.

Mobiles Sampling unter Optimierung der Pfaddichte

Qiao Luo

Eine grundlegende Aufgabe der modernen Datenverarbeitung ist die Rekonstruktion einer Funktion aus gemessenen Abtastwerten (Samples). Ein typisches Problem ist die Rekonstruktion eines physikalischen Feldes, z.B. eine Temperaturverteilung, mittels Messungen. Nun gibt es die Möglichkeit im untersuchten Feld Sensoren an festgelegten Plätzen zu verteilen, sogenannte statische Sensoren, oder Sensoren auf einzelnen Pfaden bewegen zu lassen, die über das Feld gelegt sind, sogenannte mobile Sensoren. Für beide Sampling-Methoden stellen sich folgende Fragen, mit denen wir uns auseinandersetzen werden: Welche Bedingungen muss eine Familie von Abtastwerten erfüllen, damit die Funktion eindeutig und stabil rekonstruiert werden kann? Kann man die Menge der benötigten Abtastwerte minimieren, ohne die Stabilität der Rekonstruktion zu?

Stabilisator der Determinante und maximal lineare Teilräume

Philipp Reichenbach

Ab den 1950er Jahren beschäftigten sich viele MathematikerInnen mit "Linear Preserver Problems" (LPPs). Das heißt es wurde untersucht, welche linearen Abbildungen bestimmte Eigenschaften (z.B. Rang, Spur, Nilpotenz) von (quadratischen) Matrizen invariant lassen. Dabei sind meist eine ganze Reihe solcher linearen Abbildungen schnell gefunden. Die Schwierigkeit liegt vielmehr in der Beantwortung der Frage, ob dies wirklich alle sind.
In diesem Vortrag beschäftigen wir uns mit allen linearen Abbildungen, die die Determinante invariant lassen. Dazu verfolgen wir den Zugang von Dieudonn'e von 1949, indem wir alle bijektiven, linearen Abbildungen charakterisieren, die die Menge der singulären (nicht invertierbaren) Matrizen $Sigma_n$ erhalten. Dabei spielen die in $Sigma_n$ enthaltenen Vektorräume maximaler Dimension eine entscheidende Rolle.
Zuerst wird es eine Einführung in die Problemstellung samt Motivation geben. Anschließ:end werden die Hauptresultate meiner Bachelor-Arbeit vorgestellt. Letztlich wird der Beweis in wesentlichsten Schritten sehr grob skizziert und für den Fall n=2 veranschaulicht. Das Gute: Zum Verständnis des Großteils genügen Kenntnisse der Linearen Algebra I. Am Ende wird noch etwas projektive Geometrie benötigt. (Für Ersti's: Am besten vorher die Begriffe Determinante, Vektorraum und lineare Abbildung im Lehrbuch angucken.)

Persistente Homologie

Olivia Röhrig

Persistente Homologie ist ein Konzept aus der algebraischen Topologie, das formalisiert, wie sich gewisse Veränderungen eines topologischen Raumes auf eine topologische Invariante namens Homologie auswirken. Folgen topologischer Räume lassen sich auf einer Vielzahl von Objekten definieren, unter anderem auf den Punktwolken-Daten, die als Ergebnis wissenschaftlicher Experimente, als Output von Sensoren, und bei verschiedensten anderen Gelegenheiten in großem Umfang anfallen. Da es sich hierbei meist um sehr komplexe Repräsentationen eines hoffentlich strukturell einfachen Zusammenhangs handelt, kann es wünschenswert sein, viel Information "wegzuschmeißen", um die "grobe Struktur" erkennen zu können. Persistente Homologie, eine eher grobe Klassifizierung, kann dabei helfen, einen Schritt zurück zu treten und die Augen zusammenzukneifen.

Kontaktprobleme in der nichtlinearen Elastizitätstheorie

Anne Sur

Die zeitunabhängige Deformation eines hyperelastischen, kontinuierlichen, komprimierbaren Festkörpers unter der Einwirkung von äußeren Kräften kann als Minimierer eines Energiefunktionals oder als Lösung eines daraus abgeleiteten Randwertproblems beschrieben werden. Hierbei wird der bei großen Deformationen auftretende nichtlineare Zusammenhang zwischen der Deformation des Körpers und den auftretenden Spannungskräften durch eine partielle Differentialgleichung modelliert.
Von besonderem Interesse sind die Randbedingungen, die sich bei möglicherweise auftretendem reibungslosen Selbstkontakt des Körpers oder Kontakt mit einem Hindernis ergeben. Mit der a-priori-Kenntnis der geometrischen Ausgangsbedingungen und unter Berücksichtigung der Materialeigenschaften bestimmen wir diese aus der Minimierung des Energiefunktionals. Darüber hinaus untersuchen wir Bedingungen für die Existenz von energieminimierenden, fast überall injektiven Deformationen in Sobolew-Räumen für den Fall von reibungslosem Selbstkontakt.

Mathematische Analyse und Optimierung von Metronetzen

Felix Thoma

Metrosysteme werden in ihrer Entwicklung entscheidend von politischen, ökonomischen, stadtplanerischen und verkehrsplanerischen Rahmenbedingungen beeinflusst und daher gemeinhin in deren Kontext untersucht. In meiner Bachelorarbeit wird jedoch der Versuch gewagt, städtische Schnellbahnnetze nur anhand der topologischen Struktur ihres Netzgraphen sowie dessen geometrischer Einbettung zu analysieren und zu bewerten. Der hohe Abstraktionsgrad erfordert zwar zunächst einige realitätsfern erscheinende Annahmen, ermöglicht es allerdings, allgemeinere Aussagen über optimale Netzstrukturen zu treffen - schließlich muss die Form eines Metronetzes aufgrund der Langlebigkeit der Infrastruktur ohne die Kenntnis der zukünftigen Verkehrsströme nach zeitlosen Gesichtspunkten gewählt werden. Weil die meisten Kennzahlen aus der Literatur bereits zur Bewertung einfacher Netzformen ungeeignet sind, wird als Maß für die Direktheit und Effizienz eines Metronetzes die Fahrgast-Betreiber-Effektivität neu eingeführt, für die der relative Fahrgastnutzen und die relativen Betreiberkosten geeignet definiert und ins Verhältnis gesetzt werden. Danach werden Schranken an die Indikatoren geliefert und konkrete Werte für idealtypische fiktive Netztypen, zu denen aber Beispiele ähnlicher realer Netze präsentiert werden können, sowie für ausgewählte komplexere Schnellbahnnetze berechnet. Am Ende des Vortrags wird die verwendete Methodik von bestehenden Ansätzen der Verkehrsplanung und der mathematischen Optimierung abgegrenzt und die Relevanz der Ergebnisse meiner Bachelorarbeit diskutiert.

Vorträge Master: Abstracts

Mean-Field Approximation für ein gleichgewichtetes Netzwerk von Neuronen

Torben Burow

Im Gehirn befinden sich ca. 2,5 * 1010 Nervenzellen. Im Gegensatz zu den meisten anderen Zelltypen verfügen diese mittels spannungsgesteuerter Ionenkanäle über die Möglichkeit, ihr Membranpotential ab einem speziellen Schwellenwert weiter zu erhöhen und ein sogenanntes Aktionspotential, auch Spike genannt, auszulösen. In der Neurobiologie haben Experimente an verschiedenen Tierarten gezeigt, dass viele Phänomene stochastischer Natur sind. Dadurch motiviert, werden zur Beschreibung des zeitlichen Verlaufs des Potentials einer Nervenzelle unter anderem stochastische Modelle verwendet. Dabei beeinflussen sich miteinander verbundene Neuronen mittels des Aktionspotentials gegenseitig. Da somit diese stochastischen Prozesse zu jedem Zeitpunkt von ihrer eigenen Verteilung abhängen, ist es nicht selbstverständlich, dass das empirische Mittel der Potentiale in geeigneter Form konvergiert, wie man es von unabhängig identisch verteilten Zufallsvariablen gewohnt ist. Jedoch wäre eine vereinfachte Formel unter anderem zur Beschreibung der Statistiken von Interesse. Gemeinsam wollen wir uns auf spielerische Art und Weise dem in der Arbeit verwendeten Modell nähern und einen Blick auf die Tricks riskieren, wie unter geeigneten Voraussetzungen eine Konvergenz für diese Struktur fernab der standard McKean-Vlasov-Theorie möglich ist.

Verallgemeinerte Persistenzmoduln

René Corbet

Im Spannungsfeld der algebraischen Topologie mit diskreten, geometrischen und numerischen Einflüssen wurde die sogenannte topologische Persistenz entwickelt. Sie ist eine zumeist algebraische Methode, topologische Eigenschaften veränderlicher Räume zu bestimmen und die Veränderungen entlang einer gewissen Ordnung zu verstehen. Im Anwendungskontext der Datenanalyse ist man daran interessiert, qualitative Eigenschaften von Messdaten unabhängig von empirisch immanentem Rauschen bestimmen zu können. Hierfür nutzt man häufig die sogenannte persistente Homologie. Wie allgemein können wesentliche Ergebnisse formuliert werden? Welcher ist der mathematische Charakter topologischer Persistenz? Um diese Fragen beantworten zu können, lohnen sich für das mathematische Arbeiten typische Verallgemeinerungsansätze.

Evolutionsgleichungen mit nichtmonotonem Hauptteil

André Eikmeier

Evolutionsgleichungen mit nichtmonotonem Hauptteil besitzen vielfältige Anwendungen. Die sogenannte anisotrope Diffusion, ein Verfahren zur Unterdrückung von Bildrauschen, beruht beispielsweise auf einer solchen Evolutionsgleichung. Dabei sichert uns die Nichtmonotonie, dass wichtige Details des Bildes beim Verfahren erhalten bleiben. Weitere Anwendungsmöglichkeiten bietet die Modellierung von Phasenübergängen und ähnlichen physikalischen Phänomenen wie zum Beispiel den stabil geschichteten turbulenten Scherströmungen. Wir werden uns in diesem Vortrag auf die sogenannte Rückwärts-Vorwärts-Wärmeleitungsgleichung, eine spezielle Variante der gewöhnlichen Wärmeleitungsgleichung, konzentrieren. Nach einer kurzen Erläuterung der durch die Nichtmonotonie auftretenden Probleme und einer Einführung in die Theorie der schwachen und Young-Maß-wertigen Lösungen werden wir uns mit den Fragen der Existenz und Eindeutigkeit solcher Lösungen auseinandersetzen. Die Topologie von Schäumen

Antonio Günzler

Diese Arbeit befasst sich mit den kombinatorischen Eigenschaften von Schäumen. Schäume bestehen aus zwei Phasen, wobei gasförmige Zellen von festen oder flüssigen Wänden eingeschlossen werden. Wir betrachten diese Strukturen als sogenannte trockene Schäume, bei denen der Flüssigkeitsanteil als vernachlässigbar klein angenommen wird. Folglich nehmen die einzelnen Schaumzellen jeweils eine Form mit diskreter Randstruktur an, die den kombinatorischen Typ eines Polytops hat. Der Fokus dieser Arbeit liegt zum einen Teil auf der Untersuchung von trockenen Schäumen bezüglich ihrer kombinatorischen Eigenschaften. Zum anderen Teil wurde großer Zeit- und Arbeitsaufwand in die Simulation des Alterungsverhaltens von Schaumstrukturen gesteckt. Neben klassischen kombinatorischen Eigenschaften von Polytopen wird der der kombinatorischen Rundheit für die kombinatorische Analyse der Schaumstrukturen eingeführt. Wir ziehen Vergleiche zu anderen zellulären Mikrostrukturen und zwischen gealterten und polydispersen Schaumstrukturen. Außerdem wird ein Funktional eingeführt, das die Häufigkeit von Zelltypen in metallischen Mikrostrukturen näherungsweise vorhersagen soll, diskutiert und auf Schäume angewandt. Für stark gealterte Schäume schlagen wir ein modifiziertes Funktional vor. -->

Flip-Abstand konvexer Polygone und hyperbolische Geometrie

Robert Löwe

Triangulierungen konvexer Polygone können mittels Diagonalflips ineinander transformiert werden. Der Flip-Abstand zweier Triangulierungen ist die minimale Anzahl an Flips, die benötigt werden, um die Triangulierungen ineinander zu transformieren. Es ist bewiesen, dass der maximale Flip-Abstand von Triangulierungen eines Polygons mit $n$ Ecken durch $2n-10$ gegeben ist, falls $n>12$ gilt. Problematisch ist dabei, die Existenz zweier extremaler Triangulierungen zu zeigen, deren Flip-Abstand 2n-10 beträgt. Daniel Sleator, Robert Tarjan und William Thurston übersetzen dieses Problem in den dreidimensionalen hyperbolischen Raum. Hierbei wird der Flip-Abstand mit der minimalen Anzahl an Tetraedern, die benötigt werden, um bestimmte hyperbolische Polytope zu triangulieren, in Beziehung gesetzt. Dadurch wird die Existenz extremaler Triangulierungen für hinreichend große $n$ konstruktiv gezeigt.

Block Basiertes Compressed Sensing in der Analysis Formulierung -- Wie Mathematik in der medizinischen Bildgebung helfen kann

Maximilian März

Magnetresonanztomographie (MRT) ist eines der wichtigsten medizinischen Bildgebungsverfahren, welches die Darstellung von Gewebe und Organen - im Gegensatz zum Röntgen - ohne jegliche ionisierende Strahlung ermöglicht. Ein große Herausforderung dieser Bildgebungstechnik ist die relativ emph{lange Messdauer, in welcher der Patient möglichst still liegen muss, um detaillierte Rekonstruktionen zu erhalten. Insbesondere für die kardiale Diagnostik ist dies wichtig, da dort hochauflösende Bilder des Herzens entscheidend sind, um mögliche koronare Herzkrankheiten zu entdecken. In diesem Vortrag wird illustriert, wie mathematische Konzepte dabei helfen können, qualitativ hochwertige Bilder trotz kurzer Messzeiten zu rekonstruieren. Es wird dargestellt, wie es die Theorie des Compressed Sensing beweisbar macht, dass bereits mit einer kleinen Anzahl von zufällig gewählten Messungen eine gute Bildqualität erreicht werden kann. Eine entscheidende Beobachtung für die Regularisierung des betrachteten inversen Problems ist, dass Bilder häufig sparse in redundanten Transformationen (z.B. in der Shearlet Transformation) sind. Bevor nun die relativ junge Theorie des Compressed Sensing auf praktisch relevante Probleme übertragen werden kann, ist zunächst die Schwierigkeit zu überwinden, dass die Messungen aus physikalischen Gründen häufig "'in Blöcken"' aufgenommen werden müssen. Es wird in diesem Vortrag aufgezeigt wie redundante Transformationen und Block-basierte Messungen ein effektives Rekonstruktionsschema in der sogenannten Analysis Formulierung des Compressed Sensing bieten. Die präsentierten theoretischen Ideen und Resultate werden durch konkrete Beispiele aus der MRT untermauert.

Antithetic Multilevel Monte Carlo ohne Simulation von stochastischen iterierten Integralen

Friederike Manke

Ein langer Titel, (fast) simple Ideen und eine große Wirkung. Monte Carlo Algorithmen werden zur Schätzung von Erwartungswerten genutzt. Eine Motivation mag sein, die mittlere Zeit herauszufinden, zu der man nicht unter der Dusche stehen sollte, um die Post nicht nackt entgegen nehmen zu müssen. Eine andere die Bepreisung einer Call-Option. Dazu müssen wir den Postboten oder die Aktie modellieren. Eine Aktie kann durch eine stochastische Differentialgleichung beschrieben werden, welche meist approximiert werden muss. Ein simpler Monte Carlo Algorithmus simuliert eine große Anzahl zufälliger Verläufe (z.B. der Aktie in Zukunft) und bildet aus den gewonnen Daten einen Mittelwert. Dies ist aber sehr teuer. Wir werden uns anschauen, wieso ein Multilevel Monte Carlo Algorithmus eine gute Alternative ist und in Kombination mit einem reduzierten Milsteinverfahren die Kosten um eine ganze Ordnung verbessern kann.

A Generic Approach to Solving the Steiner Tree Problem and Variants

Daniel Rehfeldt

Das Steinerbaumproblem in Graphen ist ein klassisches NP-schweres Optimierungsproblem. Motiviert von praktischen Anwendungen haben sich in der Literatur eine Vielzahl von Varianten des ursprünglichen Steinerbaumproblems etabliert. Obwohl diese Varianten untereinander eine starke Verwandtschaft aufweisen, sind moderne (exakte) Lösungsanansätze durchgehend problemspezifisch. Dem entgegengestellt wird in dieser Arbeit ein generisches Konzept eingeführt, das schließlich das exakte Lösen des klassischen Steinerbaumproblems und 10 seiner Varianten mit Hilfe eines einzigen Programms ermöglicht. Dies wird realisiert durch die Transformation der verschiedenen Varianten in eine allgemeine Form. Dank einer Vielzahl neu entwickelter Lösungsmethoden wie Reduktionstechniken und Heuristiken liefert der neue Löser für mehrere der behandelten Steinerbaum Varianten bessere Ergebnisse als die jeweils besten problemspezifischen Programme.

A-posteriori-Abschätzungen vom Funktionaltyp für elliptische Optimalsteuerungsprobleme

Mathieu Pascal Rosi`ere

Optimierungsprobleme in Funktionenräumen sind in der Regel schwer zu lösen -- selbst dann, wenn man die Existenz und Eindeutigkeit einer Lösung bereits bewiesen hat. Man muss sich daher oft damit zufrieden geben, eine Näherungslösung entweder zu raten oder mithilfe des Computers zu berechnen. In beiden Fällen stellt sich die Frage, wie weit die jeweilige Näherungslösung von der (leider unbekannten) exakten Lösung des Optimierungsproblems entfernt ist. Im Vortrag werden die sogenannten A-posteriori-Abschätzungen vom Funktionaltyp vorgestellt, mit deren Hilfe der Abstand zur exakten Lösung abgeschätzt werden kann, ohne dass man dazu zusätzliche Eigenschaften der Näherungslösung benötigt. Die Technik ist daher völlig unabhängig von konkreten numerischen Verfahren!

Zielorientierte Fehlerschätzer für die Topologieoptimierung

Jakob Schneck

Die Simulation oder Optimierung vieler physikalischer Vorgänge erfordert das numerische Lösen partieller Differentialgleichungen. Eine oft dafür verwendete Technik ist die Finite-Elemente-Methode. Für eine Beurteilung der Qualität der berechneten Ergebnisse ist es wichtig, den durch die Diskretisierung eingebrachten Fehler zuverlässig zu schätzen. Außerdem ist in der Regel bei der Betrachtung von Optimalsteuerungsproblemen mit partiellen Differentialgleichungen als Nebenbedingungen nicht der globale Diskretisierungsfehler in der Zustandsgleichung von vorrangigem Interesse, sondern sein Einfluss auf die berechnete optimale Steuerung und den resultierenden Wert des Kostenfunktionals. Für diesen Zweck präsentieren wir zwei Möglichkeiten zielorientierter a posteriori Fehlerschätzung für Optimalsteuerungsprobleme: Das All-At-Once- und das reduzierte Konzept. Zusätzlich vergleichen wir das Verhalten der Fehlerschätzer in numerischen Experimenten an einem Beispielproblem aus der Topologieoptimierung.

Homothetische Dreieckskontaktdarstellungen

Hendrik Schrezenmaier

Eine homothetische Dreieckskontaktdarstellungen ist eine geometrische Darstellung eines planaren Graphen $G$, also eines Graphen, der in der Ebene ohne sich kreuzende Kanten gezeichnet ist. Als Dreieckskontaktdarstellung von $G$ wird eine Familie von Dreiecken in der Ebene bezeichnet (ein Dreieck für jeden Knoten des Graphen), die sich paarweise nicht überlappen und genau dann berühren, wenn die zugehörigen Knoten in $G$ benachbart sind. Eine solche Darstellung heißt homothetisch, wenn die einzelnen Dreiecke ausschließlich durch Verschieben und Skalieren ineinander transformiert werden können. Es ist bekannt, welche planaren Graphen eine homothetische Dreieckskontaktdarstellung besitzen. Offen ist hingegen die Frage, ob eine solche auch effizient berechnet werden kann. Das Interessante dabei ist, dass es einen mysteriösen Algorithmus gibt, der in der Praxis genau dies tut. Allerdings ist nicht bekannt, warum dieser Algorithmus immer mit einer gültigen Lösung terminiert, geschweige denn, weshalb er so schnell läuft. In dem Vortrag wird dieser Algorithmus vorgestellt und gezeigt, wie die Existenz homothetischer Dreieckskontaktdarstellungen aufbauend auf den Ideen des Algorithmus bewiesen werden kann.

Stochastische Funktionaldifferentialgleichungen: Zufällige Systeme mit Verzögerung

Torben Schröder

In vielen dynamischen Systemen tritt Zeitverzögerung auf. Das hat zur Folge, dass die Dynamik auch von der Vergangenheit abhängig ist. Beispiele für diesen Effekt finden sich unter anderem in der Populationsentwicklung, wie etwa eine Entwicklungs- bzw. Reifezeit, oder in der Regeltechnik durch Zeitverzögerung bei der Signalübertragung. Diese Systeme lassen sich mit Hilfe von Funktionaldifferentialgleichungen modellieren. Nun beachten wir, dass zusätzlich die Außenwelt Systeme stört. Diese Fremdeinwirkung ist oftmals extrem komplex und erscheint chaotisch, sodass diese mittels Zufall beschrieben wird. Beispiele hierfür sind die Zu- bzw. Abwanderung von Menschen im Zusammenhang mit der Bevölkerungsentwicklung einer bestimmten Region und das Rauschen bei der Signalübertragung. Insgesamt ergeben sich stochastische Funktionaldifferentialgleichungen. In diesem Vortrag werden wir das Konzept erläutern, welches sich hinter stochastischen Funktionaldifferentialgleichungen verbirgt. Dazu werden Begriffe aus der stochastischen Analysis, wie zum Beispiel Brownsche Bewegung und stochastische Integration veranschaulicht. Letztendlich wird auf das Langzeitverhalten von Lösungen eingegangen und erläutert, warum die Tatsache, dass wir auf unendlich dimensionalen Zustandsräumen arbeiten, Probleme bei der Untersuchung bereitet.

Rekonstruktion mit binären Messungen -- oder bringen mehr Pixel wirklich bessere Bilder?

Laura Terhaar

Smartphone- und Kamerahersteller werben mit immer hochwertigeren Kameras, die immer mehr Megapixel haben. Gleichzeitig können innovative Programme Bilder zunehmend kleiner komprimieren, ohne dass die Bildqualität leidet. Aber warum sammeln wir immer mehr Daten, wenn wir immer weniger Daten speichern müssen, um unser Lieblingsfoto in sehr guter Qualität verfügbar zu haben? Intelligente Methoden erlauben es uns heute direkt zu komprimieren und so von Anfang an weniger Daten zu sammeln. Dadurch ist es zum Beispiel möglich, Kameras zu entwickeln die nur ein Pixel aufnehmen können und deshalb nur einen Sensor benötigen. Diese Kameras liefern dennoch sehr gute Ergebnisse. Dies ist im Besonderen hilfreich, wenn die Sensoren sehr teuer sind. In diesem Vortrag geht es um das Verhältnis zwischen der Anzahl der gesammelten und der gespeicherten Daten. Dabei ist es wichtig darauf zu achten, dass das Kompressionsverfahren immer noch stabil und akkurat arbeiten kann. Wünschenswert, jedoch im allgemeinen nicht möglich, wäre ein eins-zu-eins Verhältnis. Im Speziellen geht es um die Rekonstruktion mit dem sogenannten generalized sampling. Die Daten werden mit Hilfe von binären Messungen gesammelt und mit Wavelets, die bekannt dafür sind natürliche Bilder sehr gut zu approximieren, komprimiert. Wir zeigen, dass ein lineares Verhältnis für eine stabile und akkurate Rekonstruktion ausreicht.

Elastische Deformationen ebener Gebiete

Jonas Tervooren

Es werden Energie-Funktionale für elastische Deformationen ebener Gebiete untersucht, für deren kritische Punkte (elastische Abbildungen) eine weit vollständigere Theorie gefunden wurde, als es die bisherige Elastizitätstheorie vermuten ließ. Neben dem bekannten squared distance functional werden auch einige Modifikationen desselben untersucht, die ähnliche Eigenschaften aufweisen. Numerische Experimente mit elastischen Deformationen zeigten, dass wenn die Randbedingungen größere Deformationen nötig machen, elastische Abbildungen Verzweigungspunkte entwickeln, wie es von holomorphen Funktionen bekannt ist. Die Klasse der zu untersuchenden Abbildungen wurde von den orientierungstreuen Immersionen auf fast immersierte Abbildungen erweitert, um dieses Verhalten untersuchen zu können. Eine notwendige Bedingung für die Elastizität einer solche Abbildung $f$ ist, dass der zugehörige Stresstensor, eine $mathbb{C

$-wertige 1-Form, geschlossen ist. Dies ist wiederum äquivalent dazu, dass eine von $f$ und dem Funktional abhängige Funktion $g$ holomorph ist. Die Euler-Lagrange Gleichungen für elastische Abbildungen entsprechen folglich den Cauchy- Riemann Gleichungen für $g$. Die Lösungen der Euler-Lagrange Gleichungen lassen sich in zwei Klassen einteilen: Die erste besteht aus globalen Minima unter den fast immersierten Abbildungen mit denselben Randbedingungen (elastische Abbildungen), die zweite aus Funktionen, die selbst lokal instabil sind. Die elastischen Abbildungen lassen sich wiederum in strikte und nicht strikte Minima aufteilen. Letztere besitzen für jeden Punkt ihres Definitionsbereichs lokale Variationen, welche die Energie nicht ändern und werden deshalb Schmelzpunkt Lösungen genannt. Für beide Klassen von elastischen Abbildungen lassen sich unter gewissen Voraussetzungen Weierstraß Repräsentationen in Form von zwei holomorphen Funktionen finden, wie es in ähnlicher Weise schon für Minimalflächen bekannt ist. Mit Hilfe der Weierstraß Repräsentation lassen sich nicht nur viele Beispiele für elastische Abbildungen konstruieren, sondern sie zeigt auch, dass die Euler-Lagrange Gleichungen für elastische Abbildungen integrabel sein können. Als Beispiel für elastische Abbildungen mit freiem Rand werden Kreisringe untersucht. Diese lassen sich anhand ihrer Windungszahl um ihr Zentrum klassifizieren. Es wird gezeigt, wie ein Streifen elastisch zu einem Kreisring mit beliebiger Windungszahl und freiem Rand gebogen werden kann und welche elastischen Abbildungen die Windungszahl eines Kreisrings mit freiem Rand ändern können. Des Weiteren wurde bewiesen, dass die einzigen elastischen Abbildungen einfach zusammenhängender ebener Gebiete mit freien Randbedingungen euklidische Bewegungen sind. Dies klingt auf den ersten Blick offensichtlich, wird jedoch falsch, wenn man eine der Voraussetzungen einfach zusammenhängend oder eben weglässt.

Highly dense mobile communication networks with random fadings

András Tóbiás

In my Master's thesis, we investigate a mathematical model for a wireless communication network. In our model, the communication area is a compact subset W of R^d, which contains a single base station. The users in the network are located randomly, according to a Poisson point process in W, the intensity of which tends to infinity. We consider the setting when each user transmits a message to the base station, either directly or relaying through another user. The quality of service of the transmissions is expressed in terms of the signal-to-interference ratio (SIR). Each user has a positive, random fading value, interpreted as the loudness of the user. Conditional on the realization of the Poisson point process, the fadings are assumed to be i.i.d. We say that a user is frustrated if its SIR value is below a given threshold. The main goal of my thesis is to determine the asymptotic exponential rate of decay of frustration probabilities. These are probabilities that more than a given amount of users experiences SIR less than a given positive threshold. The rate function is expressed in terms of a variational formula, which describes the asymptotically most likely configuration of the users' locations and fadings, conditional on the considered frustration event. We provide a classification about which frustration probabilities decay exponentially fast (i.e., which ones have a strictly negative asymptotic rate). Moreover, in special cases, we determine the minimizers of the variational formula, and investigate properties of the minimizers, e.g. radial symmetry and average loudness of the users. We also relax the i.i.d. assumption on the fadings in the model, allowing the loudness of a given user depend on the spatial position of the user.

Wie Rauschen zu Synchronisation führen kann

Isabell Vorkastner

Das Langzeitverhalten von Systemen ist von besonderer Bedeutung. Für stochastische Differentialgleichungen kann dieses Verhalten mit Hilfe von zufälligen Attraktoren beschrieben werden. Besteht der zufällige Attraktor aus einem Punkt, nennen wir dieses Synchronisation. Wir werden ein Beispiel betrachten, welches ohne Rauschen nicht synchronisiert. Fügt man jedoch Rauschen in allen Richtungen hinzu, beobachtet man Synchronisation. Ein noch interessanteres Verhalten erhält man, falls das Rauschen in nur eine Richtung wirkt. In diesem Fall hängt Synchronisation von der Stärke des Rauschens ab. Auch hier begünstigt mehr Rauschen die Synchronisation.

Sterne zählen mithilfe der komplexen Analysis

Jan Zur

Der Gravitationslinseneffekt ist ein Phänomen der Astrophysik, bei dem das Licht einer weit entfernten Lichtquelle durch massereiche Objekte "abgelenkt" wird. Die Lichtquelle erscheint für einen Beobachter unter Umständen verzerrt oder sogar vervielfacht. Es wird ein einfaches mathematisches Modell dieses Phänomens vorgestellt. Zugrunde liegt das Nullstellenproblem rationaler harmonischer Funktionen. Weiterhin werden die aus der Physik bekannten Resultate formuliert, veranschaulicht und verallgemeinert, sowie Beweisideen mit Hilfsmitteln der komplexen Analysis präsentiert.