Please use this identifier to cite or link to this item: doi:10.22028/D291-23756
Title: Worst case instances are fragile
Author(s): Schäfer, Guido
Language: English
Year of Publication: 2004
SWD key words: Kürzester-Weg-Problem; Kombinatorische Optimierung
DDC notations: 004 Computer science, internet
Publikation type: Dissertation
Abstract: We describe three results in this thesis. The first one is a heuristic improvement for a shortest path problem, which we termed single-source many-targets shortest path problem. In this problem, we need to compute a shortest path from a source node to a node that belongs to a designated target set. Dijkstra`s algorithm can be used to solve this problem. We are interested in the single-source many-targets shortest path problem since matching algorithms repeatedly solve this problem so as to compute a maximum weighted matching in a bipartite graph. The heuristic is easy to implement and, as our experiments show, considerably reduces the running time of the matching algorithm. We provide an average case analysis which shows that a substantial fraction of queue operations is saved by Dijkstra`s algorithm if the heuristic is used. (Corresponding paper: A heuristic for Dijkstra`s algorithm with many targets and its use in weighted matching algorithms. Algorithmica, 36(1):75-88, 2003.) The second and third result are about the extension of smoothed complexity to the area of online algorithms. Smoothed complexity has been introduced by Spielman and Teng to explain the behaviour of algorithms that perform well in practice while having a poor worst case complexity. The idea is to add some noise to the initial input instances by perturbing the input values slightly at random and to analyze the performance of the algorithm on these perturbed instances. In this work, we apply this notion to two well-known online algorithms. The first one is the multi-level feedback algorithm (MLF), minimizing the average flow time on a sequence of jobs released over time, when the processing times of these jobs are not known. MLF is known to work very well in practice, though it has a poor competitive ratio. As it turns out, the smoothed competitive ratio of MLF improves exponentially with the amount of random noise that is added; on average, MLF even admits a constant competitive ratio. We also prove that our bound is asymptotically tight. (Corresponding paper: Average case and smoothed competitive analysis of the multi-level feedback algorithm. In Proceedings of the Forty-Fourth Annual IEEE Symposium on Foundations of Computer Science (FOCS), pages 462-471, 2003.) The second algorithm that we consider is the work function algorithm (WFA) for metrical task systems, a general framework to model online problems. It is known that WFA has a poor competitive ratio. We believe that due to its generality it is interesting to analyze the smoothed competitive ratio of WFA. Our analysis reveals that the smoothed competitive ratio of WFA is much better than its worst case competitive ratio and that it depends on certain topological parameters of the underlying metric. We present asymptotic upper and matching lower bounds on the smoothed competitive ratio of WFA.
In der vorliegenden Arbeit werden drei Resultate vorgestellt. Als erstes beschreiben wir eine Heuristik für eine Variante des kürzesten Wege Problems, welches wir das Single-Source Many-Targets Shortest Path Problem nennen. Gegeben sind ein ungerichteter Graph mit nichtnegativen Kantenkosten, ein Quellknoten s und eine Menge T von Zielknoten. Die Aufgabe ist es, einen kürzesten Weg vom Quellknoten s zu einem der Zielknoten in T zu berechnen. Dieses Problem wird wiederholt von Matching Algorithmen gelöst, um ein maximal gewichtetes Matching in bipartiten Graphen zu berechnen. Der Algorithmus von Dijkstra kann verwendet werden, um das Single-Source Many-Targets Shortest Path Problem zu lösen. Unsere Heuristik lässt sich leicht implementieren und erzielt, wie unsere Experimente zeigen, eine signifikante Laufzeitverbesserung des Matching Algorithmus. In den Experimenten auf Zufallsgraphen konnten wir eine Laufzeitverbesserung von bis zu einem Faktor 12 beobachten. Wir präsentieren eine Average Case Analyse, in der wir zeigen, dass die Heuristik auf Zufallsinstanzen eine nicht unerhebliche Anzahl von Operationen in der Ausführung von Dijkstra’s Algorithmus einspart. Im zweiten Teil der Arbeit erweitern wir die kürzlich von Spielman und Teng eingeführte Smoothed Complexity auf den Bereich der online Algorithmen. Die Smoothed Complexity ist ein neues Komplexitätsmaß, mit dem man versucht, die Effizienz eines Algorithmus in der Praxis in adäquater Weise zu repräsentieren. Die grundlegende Idee ist, die Eingabeinstanzen mehr oder weniger stark zufällig zu perturbieren, d. h. zu stören, und die Effizienz eines Algorithmus anhand seiner erwarteten Laufzeit auf diesen perturbierten Instanzen festzumachen. Im allgemeinen ist die Smoothed Complexity eines Algorithmus sehr viel geringer als seine Worst Case Complexity, wenn die Worst Case Instanzen künstlichen oder konstruierten Instanzen entsprechen, die in der Praxis so gut wie nie auftreten. Spielman und Teng führten die Smoothed Complexity im Zusammenhang mit der Laufzeit als Effizienzkriterium ein. Die zugrunde liegende Idee lässt sich jedoch auch auf andere Kriterien erweitern.
Link to this record: urn:nbn:de:bsz:291-scidok-3341
hdl:20.500.11880/23812
http://dx.doi.org/10.22028/D291-23756
Advisor: Kurt Mehlhorn
Date of oral examination: 30-Apr-2004
Date of registration: 9-Aug-2004
Faculty: SE - Sonstige Einrichtungen
Department: SE - Sonstige Einrichtungen
Collections:SciDok - Der Wissenschaftsserver der Universität des Saarlandes

Files for this record:
File Description SizeFormat 
GuidoSchaefer_ProfDrKurtMehlhorn.pdf1,24 MBAdobe PDFView/Open


Items in SciDok are protected by copyright, with all rights reserved, unless otherwise indicated.