NW /2: Effiziente Vorverarbeitung für schwere Probleme: neue Techniken und präzise Modelle für Datenreduktion


Vorverarbeitung, im Sinne von Datenreduktion, ist von fundamentaler Bedeutung für die praktische Lösung NP-schwerer Probleme. Ein sehr erfolgreiches Beispiel ist das kommerzielle Tool CPLEX zur Lösung ganzzahliger linearer Programme, bekannt für seine starke Vorverarbeitung. Trotzdem wurde Vorverarbeitung über lange Zeit hinweg kaum theoretisch analysiert. Ein Grund war, dass sich kein robustes theoretisches Modell für Vorverarbeitung finden ließ: Eine Routine die jede Instanz in Polynomialzeit verkleinert, könnte das gesamte Problem in Polynomialzeit lösen (unmöglich wenn nicht P = NP). Der Begriff der Kernelisierung aus dem jungen Gebiet der parametrisierten Komplexität umgeht dieses Problem: Eine Kernelisierung generiert eine äquivalente Instanz deren Größe durch eine Funktion eines Parameters der Eingabe beschränkt ist; die Größe der Eingabe spielt keine Rolle. Polynomielle Kernelisierungen, also mit Outputgröße polynomiell im Parameter, haben sich zu einem dynamischen Forschungsgebiet entwickelt. Ziel dieses Projekts ist eine grundlegende Vertiefung des Wissens über Vorverarbeitung, ausgehend vom Begriff der Kernelisierung. Dafür sollen einerseits neue Techniken für Kernelisierungen und untere Schranken entwickelt werden. Andererseits sollen aber auch andere Modellierungen für effiziente Vorverarbeitung untersucht werden. Gerade das Zusammenspiel dieser beiden Ziele soll zu möglichst präzisen Erkenntnissen über Vorverarbeitung führen. Eine Motivation sind aktuelle Techniken zu unteren Schranken. Unter komplexitätstheoretischen Annahmen lässt sich damit für manche Probleme die Existenz polynomieller Kernelisierungen ausschließen. Es hat sich aber herausgestellt, dass dann auch allgemeinere Modelle von Vorverarbeitung für diese Probleme ausgeschlossen sind; darunter praxisrelevante aber auch eher theoretische Varianten. Die Techniken sind also nicht gänzlich in der Lage die Frage nach der Existenz effizienter Vorverarbeitung zu beantworten. In PREMOD soll dem nachgegangen werden: Gibt es praxistaugliche Modelle die nicht ausgeschlossen sind? Können wir präzisere Techniken für untere Schranken entwickeln? Wann können wir feststellen, dass ein Problem keine effiziente Vorverarbeitung erlaubt? Eine weitere Motivation ist das Interesse an der Anwendbarkeit von Kernelisierungsresultaten. PREMOD soll durch Untersuchung strengerer Modelle sowie durch Experimente dazu beitragen: Sind bestehende Kernelisierungen auch zeit- und speichereffizient umsetzbar? Lässt sich die Parameterwahl verbessern, so dass stärkere Resultate erzielt werden? Wie gut ist das Zusammenspiel mit Approximationsalgorithmen oder Heuristiken? Gibt es präzisere Modelle für die erfolgreichen, einfachen und lokalen Reduktionsregeln aus der Praxis? Zusammenfassend steht PREMOD für die Entwicklung praxisrelevanter und zugleich theoretisch robuster Modelle für Vorverarbeitung.


Projektleitung
Kratsch, Stefan Prof. Dr. (Details) (Algorithm Engineering)

Laufzeit
Projektstart: 09/2017
Projektende: 08/2019

Forschungsbereiche
Theoretische Informatik

Forschungsfelder
Theoretische Informatik

Publikationen
Eva-Maria C. Hols, Stefan Kratsch:
On Kernelization for Edge Dominating Set under Structural Parameters. STACS 2019: 36:1-36:18

Eva-Maria C. Hols, Stefan Kratsch:
A Randomized Polynomial Kernel for Subset Feedback Vertex Set. Theory Comput. Syst. 62(1): 63-92 (2018)

Zuletzt aktualisiert 2021-05-08 um 13:21