Loading…
Thumbnail Image

Uncertainty exploration

algorithms, competitive analysis, and computational experiments

Meißner, Julie

Combinatorial optimization captures a wide range of applications such as infrastructure design and scheduling of tasks. For a fixed number of possible new infrastructure connections or tasks to schedule, there are exponentially many infrastructure networks and schedules that can be created from them. Additionally, a major challenge is data uncertainty. If, for example, the construction cost of a connection within a network or the processing time of a job is only known roughly, this may significantly influence the quality of a solution containing the connection or job. Optimization with explorable uncertainty considers combinatorial problems with uncertain input data, where improved or exact data can be explored at an additional cost. The goal is to quantify the trade-off between an investment in more precise data and the resulting quality for the solution to the optimization problem. A classical application are estimated user demands that can be specified by undertaking a user survey. This is an investment in terms of time and/or cost which improves the demand estimate. In this thesis we investigate the potential, limits, and applicability of optimization with explorable uncertainty. We present new algorithmic results, lower bounds, and computational experiments. We first study the most popular model for uncertainty exploration: Minimize the exploration cost to find an optimal solution for the underlying optimization problem. We show that randomization can improve upon deterministic algorithms for minimum spanning tree (MST) under uncertainty. This solves and important open problem in the area. Furthermore, we present algorithms for the generalizations to non-uniform query costs and to matroid-like set systems. Both generalizations do not incur an increase in the competitive ratio. We also conduct the first practical experiments for MST under uncertainty to analyze the applicability of this model for explorable uncertainty. We observe that the average performance and the absolute number of queries are both far from the theoretical worst-case bounds, and thus show that these problems can be solved with small exploration cost in practice. We prove for any set system that is not matroid-like, no algorithm has competitive ratio less than three. We also show non-constant lower bounds for bipartite matching and knapsack with uncertain profits and a geometric proof for linear programs. This means there are limits to the usefulness of the classical model for uncertainty exploration. We consider variants of this model with alternative objectives, different queries, and from a parallelization viewpoint. We consider MST, k-th smallest value, and sequencing under uncertainty. Having seen the possibilities and limits of the classical approach for uncertainty exploration and its variants, we propose to combine the exploration cost and the solution quality in a single objective function as a novel model. We analyze scheduling jobs on a single machine, where the processing time of each job can potentially be reduced (by an a priori unknown amount) by scheduling a test of the job. The objective is minimizing the sum of completion times. We give first and nearly tight lower and upper bounds on the competitive ratio for deterministic and randomized algorithms. We also show that minimizing the makespan is a considerably easier problem for which we give optimal deterministic and randomized online algorithms.
Kombinatorische Optimierung beschreibt viele Anwedungen wie Infrastukturdesign oder Aufgabenplanung. Für eine feste Menge von möglichen neuen Infrastrukturverbindungen oder Aufgaben gibt es exponentiell viele mögliche Netzwerke oder Pläne. Zusätzlich stellen unsichere Ausgangsdaten eine große Herausforderung dar. Sind zum Beispiel die Kosten einer Netzwerkverbindung oder die Dauer einer Aufgabe nur ungefähr bekannt, kann dies entscheidenden Einfluss auf die Qualität eines Netzwerks oder Planes haben. Optimierung mit explorierbarer Unsicherheit beschreibt kombinatorische Optimierungsprobleme mit ungenauen Eingabedaten, in denen verbesserte oder exakte Daten durch zusätzlichen Aufwand beschafft werden können. Ziel ist es die Abhängigkeit zwischen genaueren Daten und verbesserten Lösungen zu untersuchen. Eine klassische Anwendung sind geschätze Marktpotentiale die durch Nutzerbefragungen verbessert werden können. Diese verursachen jedoch finanzielle und zeitliche Mehrkosten. In dieser Arbeit untersuchen wir das Potential, die Grenzen und die Anwendbarkeit von Optimierung mit explorierbarer Unsicherheit. Wir stellen neue Algorithmen vor, konstruieren untere Schranken für die Güte von Algorithmen und beschreiben Computerexperimente. Zunächst untersuchen wir das klassische Modell: Minimiere die Kosten für genau Daten um eine optimale Lösung des kombinatorischen Problems zu finden. Für das minimale Spannbaum Problem (MST) unter Unsicherheit entwickeln wir einen randomisierten Algorithmus der in Erwartung besser ist als jeder deterministische Algorithmus. Damit Lösen wir eine wichtige Frage des Gebiets. Zudem beschreiben wir Algorithmen für individuelle Datenkosten anstelle von uniformen und erweitern unsere Ergebnisse auf Matroide. Außerdem führen wir die ersten Computerexperimente für dieses Problem durch. Wir zeigen, dass unsere Algorithmen deutlich besser sind als die theoretischen Garantien und somit insgesamt geringe Kosten für genauere Daten auftreten. Wir zeigen für jedes Unabhängigkeitssystem das nicht Matroid-ähnlich ist, dass kein Algorithmus besser als drei-kompetitiv ist. Dazu beweisen wir, dass es für die Spezialfälle bipartites Matching und Knapsack mit unsicheren Profiten kein Algorithmus mit konstatem Kompetitivitätsfaktor gibt. Zusätzlich betrachten wir lineare Programme mit unsicheren Daten, da sie eine tolle geometrische Interpretation erlauben. Wir untersuchen verschiedene Varianten des klassischen Modells für explorierbare Unsicherheit. Unter anderen, betrachten wir veränderte Zielfunktionen, andere Datenverbesserung und Parallelisierung für MST, k-kleinster Wert und Sortieren unter Unsicherheit. Unter dem Eindruck dieser Möglichkeiten und Grenzen des klassischen Modells für explorierbare Unsicherheit schlagen wir vor die Lösungsqualität und die Kosten für die Datenverbesserung in einer gemeinsamen Zielfunktion zu betrachten. In diesem neuen Modell betrachten wir die Planung einer Menge von Aufgaben auf einer Maschine. Die Aufgabendauer kann sich möglicherweise um einen unbekannten Anteil verkürzen, wenn ein Test für sie eingeplant wird. Dabei soll die Summe der Fertigstellungszeiten minimiert werden. Wir zeigen untere und obere Schranken an die Kompetitivität von deterministischen und randomisierten Algorithmen. Zusätzlich betrachten wir die Länge des Plans als Zielfunktion und beschreiben optimale deterministische und randomisierte Algorithmen für diese einfachere Variante.