Bitte benutzen Sie diese Referenz, um auf diese Ressource zu verweisen: doi:10.22028/D291-23756
Titel: Worst case instances are fragile
Verfasser: Schäfer, Guido
Sprache: Englisch
Erscheinungsjahr: 2004
SWD-Schlagwörter: Kürzester-Weg-Problem; Kombinatorische Optimierung
DDC-Sachgruppe: 004 Informatik
Dokumentart : Dissertation
Kurzfassung: We describe three results in this thesis. The first one is a heuristic improvement for a shortest path problem, which we termed single-source many-targets shortest path problem. In this problem, we need to compute a shortest path from a source node to a node that belongs to a designated target set. Dijkstra`s algorithm can be used to solve this problem. We are interested in the single-source many-targets shortest path problem since matching algorithms repeatedly solve this problem so as to compute a maximum weighted matching in a bipartite graph. The heuristic is easy to implement and, as our experiments show, considerably reduces the running time of the matching algorithm. We provide an average case analysis which shows that a substantial fraction of queue operations is saved by Dijkstra`s algorithm if the heuristic is used. (Corresponding paper: A heuristic for Dijkstra`s algorithm with many targets and its use in weighted matching algorithms. Algorithmica, 36(1):75-88, 2003.) The second and third result are about the extension of smoothed complexity to the area of online algorithms. Smoothed complexity has been introduced by Spielman and Teng to explain the behaviour of algorithms that perform well in practice while having a poor worst case complexity. The idea is to add some noise to the initial input instances by perturbing the input values slightly at random and to analyze the performance of the algorithm on these perturbed instances. In this work, we apply this notion to two well-known online algorithms. The first one is the multi-level feedback algorithm (MLF), minimizing the average flow time on a sequence of jobs released over time, when the processing times of these jobs are not known. MLF is known to work very well in practice, though it has a poor competitive ratio. As it turns out, the smoothed competitive ratio of MLF improves exponentially with the amount of random noise that is added; on average, MLF even admits a constant competitive ratio. We also prove that our bound is asymptotically tight. (Corresponding paper: Average case and smoothed competitive analysis of the multi-level feedback algorithm. In Proceedings of the Forty-Fourth Annual IEEE Symposium on Foundations of Computer Science (FOCS), pages 462-471, 2003.) The second algorithm that we consider is the work function algorithm (WFA) for metrical task systems, a general framework to model online problems. It is known that WFA has a poor competitive ratio. We believe that due to its generality it is interesting to analyze the smoothed competitive ratio of WFA. Our analysis reveals that the smoothed competitive ratio of WFA is much better than its worst case competitive ratio and that it depends on certain topological parameters of the underlying metric. We present asymptotic upper and matching lower bounds on the smoothed competitive ratio of WFA.
In der vorliegenden Arbeit werden drei Resultate vorgestellt. Als erstes beschreiben wir eine Heuristik für eine Variante des kürzesten Wege Problems, welches wir das Single-Source Many-Targets Shortest Path Problem nennen. Gegeben sind ein ungerichteter Graph mit nichtnegativen Kantenkosten, ein Quellknoten s und eine Menge T von Zielknoten. Die Aufgabe ist es, einen kürzesten Weg vom Quellknoten s zu einem der Zielknoten in T zu berechnen. Dieses Problem wird wiederholt von Matching Algorithmen gelöst, um ein maximal gewichtetes Matching in bipartiten Graphen zu berechnen. Der Algorithmus von Dijkstra kann verwendet werden, um das Single-Source Many-Targets Shortest Path Problem zu lösen. Unsere Heuristik lässt sich leicht implementieren und erzielt, wie unsere Experimente zeigen, eine signifikante Laufzeitverbesserung des Matching Algorithmus. In den Experimenten auf Zufallsgraphen konnten wir eine Laufzeitverbesserung von bis zu einem Faktor 12 beobachten. Wir präsentieren eine Average Case Analyse, in der wir zeigen, dass die Heuristik auf Zufallsinstanzen eine nicht unerhebliche Anzahl von Operationen in der Ausführung von Dijkstra’s Algorithmus einspart. Im zweiten Teil der Arbeit erweitern wir die kürzlich von Spielman und Teng eingeführte Smoothed Complexity auf den Bereich der online Algorithmen. Die Smoothed Complexity ist ein neues Komplexitätsmaß, mit dem man versucht, die Effizienz eines Algorithmus in der Praxis in adäquater Weise zu repräsentieren. Die grundlegende Idee ist, die Eingabeinstanzen mehr oder weniger stark zufällig zu perturbieren, d. h. zu stören, und die Effizienz eines Algorithmus anhand seiner erwarteten Laufzeit auf diesen perturbierten Instanzen festzumachen. Im allgemeinen ist die Smoothed Complexity eines Algorithmus sehr viel geringer als seine Worst Case Complexity, wenn die Worst Case Instanzen künstlichen oder konstruierten Instanzen entsprechen, die in der Praxis so gut wie nie auftreten. Spielman und Teng führten die Smoothed Complexity im Zusammenhang mit der Laufzeit als Effizienzkriterium ein. Die zugrunde liegende Idee lässt sich jedoch auch auf andere Kriterien erweitern.
Link zu diesem Datensatz: urn:nbn:de:bsz:291-scidok-3341
hdl:20.500.11880/23812
http://dx.doi.org/10.22028/D291-23756
Erstgutachter: Kurt Mehlhorn
Tag der mündlichen Prüfung: 30-Apr-2004
SciDok-Publikation: 9-Aug-2004
Fakultät: Sonstige Einrichtungen
Fachrichtung: SE - Sonstige Einrichtungen
Fakultät / Institution:SE - Sonstige Einrichtungen

Dateien zu dieser Ressource:
Datei Beschreibung GrößeFormat 
GuidoSchaefer_ProfDrKurtMehlhorn.pdf1,24 MBAdobe PDFÖffnen/Anzeigen


Alle Ressourcen in diesem Repository sind urheberrechtlich geschützt.