Vorträge in MA042
14:00 Die isodiametrische Konstante für eine geschlossene Fläche
 Leon Atmacayan (Bachelor)
14:20 Enumeration von Triangulierungen ebener Punktmengen
 Constantin Fischer (Bachelor)
14:40Projektive Diskretisierung von Kegelschnitten
 Fabian Heil (Bachelor)
15:00Strahlung mathematisch fassbar machen
 Mones Raslan (Bachelor)
15:20Kaffeepause
15:40Die Listen-Kanten-Färbungszahl von vollständigen Graphen
 Christoph Standke (Bachelor)
16:00Black Box Faktorisierung von multivariaten Polynomen
 Sascha Timme (Bachelor)
16:20Zur Interaktion von Nervenzellen
 Sebastian Zachrau (Bachelor)
16:40Rekurrenz von Markovketten mit Anwendung auf die neuronale Feldgleichung
 Johannes Zeisberg (Bachelor)
17:00Kaffeepause

Vorträge in MA043
14:00Ein LP-basierter Approximationsalgorithmus für das Standortoptimierungsproblem mit Kapazitäten
 David Blumenthal (Master)
14:20Die operatorwertige Riccati-Differentialgleichung
 Moni Eisenmann (Master)
14:40Diskretes Compressed Sensing: Struktur, Geometrie und Zufall im Dienst der Nachrichtenübertragung
 Axel Flinth (Master)
15:00Sparse Proteomics Analysis: Wie Mathematik in der Krebsforschung helfen kann
 Martin Genzel (Master)
15:20Kaffeepause
15:40Rekonstruktion von Bildern und Videos mittels Shearlet-Transformation
 Johannes Guzy (Master)
16:00Sleeve Funktionen - Ein Weg den Fluch der Dimensionalität zu umgehen?
 Sandra Keiper (Master)
16:20Schneller Surfen mit stabilen Mengen - Planung von modernen Telekommunikationsnetzwerken mit Hilfe kombinatorischer Optimierung
 Kai Hennig (Master)
16:40Seedbank-Modelle mit fluktuierender Populationsgröße
 Christina Koeppen (Master)
17:00Kaffeepause

Vorträge Bachelor: Abstracts

Die isodiametrische Konstante für eine geschlossene Fläche

Leon Atmacayan

Wir beschäftigen uns mit einer - bis heute ungelösten - Vermutung von A.D. Alexandrov. Danach ist das Verhältnis des Flächeninhalts zum quadrierten (intrinsischen) Durchmesser einer geschlossenen Fläche durch pi/2 beschränkt, sofern die Fläche überall nichtnegative Krümmung hat. Die bisher beste bekannte Schranke für diese isodiametrische Konstane lieferte Shioya, dessen Resultate wir hier unter anderen vorstellen wollen.

Enumeration von Triangulierungen ebener Punktmengen

Constantin Fischer

Gegenstand meiner Bachelorarbeit waren Triangulierungen ebener Punktmengen. Diese können als ebene Graphen mit vorgeschriebener Eckenmenge und maximal vielen überschneidungsfreien Kanten zwischen diesen angesehen werden. Auch wenn Triangulierungen vielseitg eingesetzt werden und oftmals spezielle Vertreter dieser von Interesse sind, kann die Anzahl an Triangulierungen wertvolle Informationen liefern. Das entsprechende Zählproblem stellt bereits in der Ebene eine große Herausforderung dar und findet seit vielen Jahren Forschungsinteresse, was sich in neuen und schnelleren Lösungsansätzen widerspiegelt. Victor Alvarez und Raimund Seidel haben kürzlich einen Meilenstein in diesem Wettlauf geschaffen und einen Algorithmus vorgestellt, dessen Laufzeit sublinear in der Anzahl aller Triangulierungen ist. Neben der theoretischen Untersuchung habe ich nach der Skizze der Autoren den Algorithmus in Polymake umgesetzt. Des Weiteren konnte ich mit Hilfe einer Vergleichsimplementierung eine vorgeschlagene Optimierung korrigieren.

Projektive Diskretisierung von Kegelschnitten

Fabian Heil

Ziel dieser Arbeit ist es, eine mögliche Definition zur Diskretisierung von (nicht-degenerierten) Kegelschnitten mittels Polygonen zu liefern und deren Eigenschaften zu untersuchen, wobei insbesondere diskrete Analoga zu Eigenschaften von Kegelschnitten von Interesse sind. Dabei werden zwei wesentliche Ansätze verfolgt: Zum einen sollen die gewählten Polygone sich nur um eine projektive Abbildung von regulären Polygonen unterscheiden, zum anderen soll es sich um eine projektive Definition handeln, das Bild eines solchen diskreten Kegelschnittes unter einer projektiven Abbildung sollte also wieder ein diskreter Kegelschnitt sein.

Strahlung mathematisch fassbar machen

Mones Raslan

Ein Aspekt unseres Lebens, mit dem wir täglich unterbewusst zu tun haben, ist die Bewegung von Strahlung und ihre Interaktion mit Materie wie z.B. unserer Haut. Dieses Phänomen lässt sich durch eine einfach aussehende, lineare partielle Differentialgleichung modellieren. Allerdings ist die exakte Lösung, obwohl existent und eindeutig festgelegt, sehr schwer zu finden. Daher sind zumindest Näherungslösungen erwünscht. Um diese möglichst schnell zu berechnen, wird ein diskretes lineares Gleichungssystem entwickelt, welches äquivalent zu der ursprünglichen Differentialgleichung ist. Zur Herleitung dieses Gleichungssystems benutzen wir einen Ridgelet-Frame (ein spezielles Erzeugendensystem, das linear abhängig ist). Um die Lösung des Gleichungssystems anschließend näherungsweise zu berechnen, machen wir von Richardson-Iterationen, welche ein Standardinstrument der Numerik sind, Gebrauch. Dabei sind wir insbesondere in der Lage, solche Lösungen der Differentialgleichung optimal anzunähern, die Singularitäten entlang von Hyperebenen enthalten.

Die Listen-Kanten-Färbungszahl von vollständigen Graphen

Christoph Standke

Wir wollen einen Jeder-gegen-Jeden Wettbewerb planen. Dafür darf sich jedes Paar von Spielern eine Liste von möglichen Terminen für ihr Spiel suchen. Die Frage ist: Wie viele Termine muss sich jedes Paar suchen, damit alle Begegnungen so realisiert werden können, dass kein Spieler zwei Spiele zur gleichen Zeit hat? Im ersten Teil des Vortrages modellieren wir das Problem graphentheoretisch und zeigen, dass wir eigentlich nach einer Nicht-Nullstelle eines Polynoms suchen. Dadurch führen wir das Problem auf die Bestimmung eines Koeffizienten zurück. Anschließend versuchen wir diesen Koeffizienten zu berechnen. Dafür interpretieren wir ihn graphentheoretisch und nutzen einfache Auslöschungen und Symmetrien, um die Berechnung drastisch zu erleichtern.

Black Box Faktorisierung von multivariaten Polynomen

Sascha Timme

Das Problem Polynome zu faktorisieren ist Jahrhunderte alt. Bereits von Newton wurde ein Algorithmus zur Faktorisierung univariater Polynome beschrieben, mit dessen Hilfe Kronecker 1882 auch einen Algorithmus zur Faktorisierung multivariater Polynome beschrieb. Aus praktischer Sicht sind diese Algorithmen jedoch unbefriedigend, da ihre Laufzeit exponentiell ist. Für univariate Polynome wurde 1982 mit dem LLL-Algorithmus von Lenstra, Lenstra und Lovász ein Algorithmus präsentiert der eine polynomielle Laufzeit hat und schließlich entwickelten Kaltofen und Trager 1990 für multivariate Polynome einen Algorithmus mit polynomieller Laufzeit. In diesem Vortrag wollen wir uns die wesentlichen Schritte und theoretischen Hintergründe dieses Algorithmus’ anschauen. Dazu beschäftigen wir uns mit der Frage einer geeigneten Datenstruktur und entwickeln algebraische Varianten von Ideen aus der Analysis und Numerik und kombinieren diese anschließend mit Ideen aus der Topologie und einer effektiven Version von Hilberts Irreduzibilitätstheorem.

Zur Interaktion von Nervenzellen

Sebastian Zachrau

Jede Nervenzelle sendet unter äußeren Einflüssen zu einem zufallsbehafteten Zeitpunkt ein Aktionspotential aus, was wiederum andere Nervenzellen zu einem Aktionspotential anregen kann. Dementsprechend führt die gemeinsame Aktivität von neuronalen Populationen auf ein System von gekoppelten stochastischen Differentialgleichungen, die für eine große Anzahl von Nervenzellen durch eine Mean-Field Gleichung approximiert werden kann. Der Beweis für Existenz und Eindeutigkeit dieser Gleichung lässt sich auf die Analysis von Erstpassagezeiten von Diffusionsprozessen zurückführen. Hierfür konnten wir über eine Integraldarstellung der Erstpassagezeit neue Regularitätsaussagen in Abhängigkeit der deterministischen Drift zeigen.

Rekurrenz von Markovketten mit Anwendung auf die neuronale Feldgleichung

Johannes Zeisberg

Markovketten spielen eine große Rolle in der Modellierung von Warteschlangen, Aktienkurs- und Zinsentwicklungen sowie beim PageRank einer Homepage um nur einige Beispiele zu nennen. In vielen Fällen ist man am Langzeitverhalten, also der Frage nach der Konvergenz, dieser stochastischen Prozesse interessiert. Wünschenswert ist hierbei die Konvergenz gegen eine invariante Verteilung, welche sich vielfach auf die Existenz von Zustandsmengen, in die die Markovkette wiederholt zurückkehrt, zurückführen lässt. In diesem Vortrag führen wir zunächst die Lyapunov-Technik ein, mit der für zeitdiskrete Markovprozesse auf allgemeinen Zustandsräumen die Existenz solcher rekurrenter Mengen nachgewiesen werden kann. Anschließend bietet uns ein neuronales Netzwerk, ein Modell zur Modellierung der Interaktivität von Neuronen, die Möglichkeit diese Technik beispielhaft anzuwenden. Hierbei interpretieren wir die dem Modell zugrunde liegende neuronale Feldgleichung als stochastischen Kern einer Markovkette und analysieren diese auf Rekurrenz. So können wir schließlich Rückschlüsse über ihr Langzeitverhalten ziehen.

Vorträge Master: Abstracts

Ein LP-basierter Approximationsalgorithmus für das Standortoptimierungsproblem mit Kapazitäten

David Blumenthal

Beim Standortoptimierungsproblem mit Kapazitäten soll für eine gegebene Menge von Kunden aus einer gegebenen Menge von Standorten eine Teilmenge zu eröffnender Standorte und eine Zuordnung von Kunden zu zu eröffnenden Standorten ausgewählt werden, sodass jeder Kunde genau einem Standort zugeordnet wird und keinem Standort mehr Kunden zugeordnet werden, als es seine Kapazität gestattet. Falls wir uns dazu entschließen, einen Standort zu eröffnen, müssen wir dafür die Eröffnungskosten des Standortes bezahlen; und wenn wir einen Kunden einem bestimmten Standort zuordnen, hat dies zur Folge, dass wir für die Verbindungskosten zwischen dem Kunden und dem Standort aufkommen müssen. Ziel ist es nun, die Teilmenge der zu eröffnenden Standorten und die Zuordnung von Kunden zu diesen Standorten so geschickt zu wählen, dass die Gesamtkosten minimal sind. Wie viele kombinatorische Optimierungsprobleme ist das Standortoptimierungsproblem mit Kapazitäten NP-schwer: wollen wir es optimal lösen, müssen wir exponentiell lange rechnen. Wir müssen uns deshalb mit effizienten Approximierungsalgorithmen zufrieden geben. Eine Standardansatz zur Entwicklung von Approximationsalgorithmen besteht darin, das zu approximierende Optimierungsproblem als ganzzahliges Optimierungsproblem zu formulieren, es dann zu einem linearen Programm zu relaxieren und schließlich die optimale Lösung des linearen Programms zu einer ganzzahligen Lösung zu runden. Lange war nicht klar, ob dieser Ansatz auch auf das Standortoptimierungsproblem mit Kapazitäten übertragbar ist. Seit 2014 wissen wir: er ist es. Wie diese Übertragung aussieht, soll im Vortrag präsentiert werden.

Die operatorwertige Riccati-Differentialgleichung

Moni Eisenmann

In diesem Vortrag stellen wir das Anfangswertproblem 𝒫 ' ( t ) + A * 𝒫 ( t ) + 𝒫 ( t ) A + 𝒫 2 ( t ) = 𝒬 ( t ) , t ( 0 , T ) 𝒫 ( 0 ) = P 0 für die operatorwertige Riccati-Differentialgleichung in ( V , V * ) vor. Hierbei handelt es sich um eine abstrakte, nichtlineare Differentialgleichung erster Ordnung, deren Lösungen ein wichtiges Hilfsmittel für die Betrachtung einiger Optimalsteuerungsprobleme partieller Differentialgleichungen darstellen. Wir untersuchen das Anfangswertproblem auf schwache Lösbarkeit und erklären die Schwierigkeiten, mit denen man im Existenzbeweis konfrontiert wird. Zum einen kann der nichtlineare Term 𝒫 2 unter allgemeinen Voraussetzungen zu einem Blow-up nach endlicher Zeit führen und verhindert die direkte Nutzung bekannter Resultate für lineare oder monotone Probleme. Zum anderen wird die Lösungstheorie erschwert, da wir auf dem Raum ( V , V * ) keine passende Struktur haben, um die Gleichung zu testen. Aus diesem Grund bietet es sich an, auf dem Raum der Hilbert-Schmidt-Operatoren zu arbeiten, einem Teilraum des Raumes der kompakten Operatoren, auf dem wir mithilfe der Spur eines Operators ein Skalarprodukt definieren können.

Diskretes Compressed Sensing: Struktur, Geometrie und Zufall im Dienst der Nachrichtenübertragung

Axel Flinth

Es ist ein wohlbekanntes Prinzip, dass für die Lösung eines linearen Gleichungssystems mindestens so viele Gleichungen wie Variablen benötigt werden. Diese Wahrheit bereitet Probleme in der Praxis - man denke zum Beispiel an drahtlose Nachrichtenübertragung. Hier entspricht jede Gleichung einer empfangenden Antenne. Antennen kosten Geld und verbrauchen Ressourcen. Wenn man die Anzahl der Gleichungen reduzieren könnte, wäre das also von immenser Bedeutung. Etwas überraschend lässt sich das ziemlich oft tun. Grund dafür ist, dass die Daten, die übertragen werden, oft eine sparse (engl. „dünn besetzte“) Struktur aufweisen. Mit Hilfe der Methoden des Compressed Sensing lässt sich diese Struktur ausnutzen, um die Anzahl der Gleichungen drastisch zu verringern. Compressed Sensing ist dabei nicht nur erfolgreich in der Praxis, sondern durchaus mathematisch sehr interessant. Im Falle der Nachrichtenübertragung können wir noch eine Strukturannahme treffen - die Nachrichten, die übertragen werden, sind nämlich Bit-Folgen. Insbesondere sind die Einträge der möglichen Signale ganze Zahlen. Kann man diese zusätzliche Struktur ausnutzen? Und dann, wie? In diesem Vortrag werden wir verschiedene Ideen dafür präsentieren und untersuchen, ob sie funktionieren. Dabei werden wir sowohl unsere geometrische Intuition als auch Resultate der Theorie der Zufallsmatrizen verwenden müssen.

Sparse Proteomics Analysis: Wie Mathematik in der Krebsforschung helfen kann

Martin Genzel

Tumorkrankheiten wie zum Beispiel Krebs bilden eine der häufigsten Todesursachen in der westlichen Welt. Die klinische Forschung der letzten Jahrzehnte hat gezeigt, dass viele der zugrunde liegenden pathologischen Mechanismen auf der Ebene von Proteinaktivitäten ablaufen. Um die Behandlungsmöglichkeiten und Frühdiagnose von Krankheiten zu verbessern, ist es von daher unabdingbar, ein umfassendes Verständnis für Proteinstrukturen und deren Wechselwirkungen zu erlangen. Im Mittelpunkt dieses Forschungszweigs steht der Begriff des Proteoms, welches die Gesamtheit aller Proteine im Körper eines menschlichen Individuums bezeichnet. In diesem Vortrag werden wir sehen, wie mathematische Konzepte dabei helfen können, ein Proteom bezüglich Krankheiten zu analysieren. Eine besondere Schwierigkeit ist hierbei, dass Proteom-Daten üblicherweise extrem kompliziert und hochdimensional sind. Es ist also zunächst unklar, wie man gerade diejenigen Proteine identifizieren kann, welche eng mit einer gewissen Krankheit verknüpft sind. Glücklicherweise ist die Anzahl der besonders signifikanten Proteinstrukturen oftmals relativ gering, verglichen mit der ursprünglichen Dimension der Daten. In der Sprache der mathematischen Signalverarbeitung sagt man dann auch, dass die relevanten Informationen sparse (dünnbesetzt) seien. Dieser Begriff bildet die Grundlage der noch relativ jungen Gebiete des Compressed Sensings und Sparse Learnings. Es wird sich herausstellen, dass die damit verbundenen Konzepte und Algorithmen tatsächlich dazu verwendet werden können, wichtige Informationen über eine Krankheit aus den Daten zu extrahieren.

Rekonstruktion von Bildern und Videos mittels Shearlet-Transformation

Johannes Guzy

Es wird die Shearlet-Transformation vorgestellt und deren Anwendung für die Bildverarbeitung im Bereich des „Inpaintings“ diskutiert. Ein theoretisches Resultat wird vorgestellt, das die Bedeutung von Shearlet-Funktionen für Inpaintingprozesse aufzeigt. Ferner wird ein spezieller Algorithmus analysiert, der dieses Resultat anschaulich verifiziert.

Sleeve Funktionen - Ein Weg den Fluch der Dimensionalität zu umgehen?

Sandra Keiper

Jedes Jahr in der Sommerzeit ereilen uns erschreckende Nachrichten über Waldbrände in verschiedensten Regionen der Erde. Die Einwohner der entsprechenden Regionen erfahren dabei zum Teil großes Leid. Daher ist es von Bedeutung, neue Methoden zu erforschen, die in der Lage sind Waldbrände möglichst exakt vorherzusagen. Eine vielversprechende Möglichkeit ist es, die Waldgebiete mit sogenannten Sensornetzwerken auszustatten und die Waldbrandgefahr als eine Funktion der Form f : N , x f ( x ) zu modellieren, wobei N die Anzahl der Messwerte aller Sensoren darstellt und typischerweise sehr groß ist. Doch hier stoßen wir auf ein wohlbekanntes mathematisches Problem, dem sogenannten Fluch der Dimensionalität. Dieser erklärt uns, dass solch hochdimensionale Probleme nur sehr schlecht approximiert werden können. Daher versuchen wir uns auf unsere Erfahrung zurückzuziehen, die uns lehrt, dass viele reale Probleme sehr viel mehr Struktur besitzen, als eine gewöhnliche N -variate Funktion. Aus diesem Grund führen wir den Begriff der sogenannten Sleeve-Funktion ein, analysieren ihre Approximationseigenschaften mithilfe neuer Algorithmen und prüfen diese abschließend numerisch.

Schneller Surfen mit stabilen Mengen - Planung von modernen Telekommunikationsnetzwerken mit Hilfe kombinatorischer Optimierung

Kai Hennig

Der flächendeckende Ausbau von Telekommunikationsnetzwerken der nächsten Generation und die Erhöhung der Breitbandinternetzugangsrate gehören zu den wichtigen infrastrukturellen Herausforderungen denen sich Deutschland derzeit stellen muss. Neben dem Ausbau von LTE und der Verbesserung von Technologien die auf Co-Axial-Kabeln beruhen (Kabel-TV), nimmt die Erweiterung und Verbesserung der auf kupfernen Telefonkabeln basierenden DSL-Technologien eine Schlüsselrolle ein. In diesem Zusammenhang spielt die sogenannte Vectoring-Technologie eine entscheidende Rolle. Die Bitrate, die ein DSL-Anschluss erreichen kann, hängt entscheidend von der Länge des Kupferkabels ab, mit welchem dieser an die Glasfaserhauptleitungen (das sogenannte Backbone-Network) angeschlossen ist. Um diese Entfernungen zu verringern werden im Kupfernetzwerk Digital Subscriber Line Access Multiplexers (DSLAMs) installiert, welche auf der einen Seite durch neue Glasfaserkabel direkt an das Backbone-Network angeschlossen werden, und an denen auf der anderen Seite die Kupferleitungen vorzeitig terminiert werden können. Die Nutzung von speziellem Vectoring-Equipment am DSLAM kann die Bitrate noch zusätzlich erhöhen, jedoch bringt sie eine wichtige technische Auflage mit sich: Jedes aktiv genutzte Kupferkabel muss unter der Kontrolle von genau einem DSLAM stehen. Im Vortrag stellen wir eine Modellierung des zugrundeliegenden Planungsproblems als Standortsentscheidungsproblem in einem ungerichteten Graphen vor. Wir führen zusätzlich einen Konfliktgraphen ein, dessen maximale stabile Mengen zulässigen Lösungen entsprechen. Um diese effektiv berechnen zu können entwickeln wir außerdem zwei Klassen von ganzzahligen Programmen, in denen sich zwei unterschiedliche Sichtweisen auf das Problem widerspiegeln. Nach einer polyedrischen Analyse werden abschließend Rechenergebnisse für Instanzen vorgestellt, welche auf realen Daten basieren.

Seedbank-Modelle mit fluktuierender Populationsgröße

Christina Koeppen

Jeder Mensch macht sich irgendwann darüber Gedanken, wer eigentlich seine Vorfahren waren und betrachtet seinen Stammbaum. Auch Biologen und Mathematiker machen sich auf die Suche nach dem ältesten gemeinsamen Vorfahren einer Population bzw. nach dem Stammbaum einer Population. Der Mathematiker John Kingman befasste sich mit der Ahnenherkunft einer kleinen Stichprobe aus einer großen Population mit konstanter Populationsgröße. Er fand eine Möglichkeit, die Ahnenherkunft mithilfe einer zeitstetigen Markovkette, dem sogenannten Kingman- Koaleszenten, zu beschreiben. In diesem Vortrag wird das von Kingman betrachtete Modell verallgemeinert, indem man es mit einer variierenden Populationsgröße und einer Seedbank-Struktur ausstattet, und es wird eine Intuition für die resultierenden Änderungen des Kingman-Koaleszenten gegeben.