Studienarbeit aus dem Jahr 2007 im Fachbereich Informatik – Theoretische Informatik, Note: 2, Hochschule Zittau/Görlitz; Standort Zittau, Veranstaltung: Algorithmen und Komplexität, Sprache: Deutsch, Abstract: Es ist mehrfach festgestellt worden, dass schnellere Rechner nur einen geringen Einfluss auf die Aufwandsordnung haben, d.h. sie leisten nur einen begrenzten Beitrag zur schnelleren/effizienteren Verarbeitung eines Verfahrens. Die einzige Lösung besteht in dem Suchen und Finden immer besserer und schnellerer Algorithmen zur Lösung konkreter Probleme.
Eine Kategorie von immer besseren Berechnungsverfahren sind die Probabilistischen Algorithmen. Diese Algorithmen verwenden Zufallsbits um ihren Ablauf zu steuern, was soviel bedeutet, dass sie im Laufe der Berechnung, also während der Laufzeit des Algorithmuses, Zufallszahlen benutzen.
Diese Algorithmen haben mehrere Vorteile gegenüber ihren deterministischen Vettern. Sie sind in den meisten Fällen
– schneller (bezüglich Laufzeit); – benötigen weniger Speicher; – sind einfacher zu verstehen und damit …; – … einfacher zu implementieren als die schnellsten deterministischen Algorithmen für das selbe Problem.
Der Nachteil pobabilistischer Algorithmen ist, dass sie zufällig auch worst-case-Entscheidungen treffen können. Ebenfalls nachteilig ist die Tatsache, dass diese Algorithmen falsche Aussagen produzieren (Monte Carlo-Algorithmen) können oder erst gar nicht terminieren, weil eine ungünstige Zufallszahlenauswahl so getroffen wurde, dass die Berechnung in eine Sackgasse führt (Las Vegas-Algorithmus).
Sebastian Rick & Jörg Wiesner
Probabilistische Algorithmen [PDF ebook]
Probabilistische Algorithmen [PDF ebook]
Mua cuốn sách điện tử này và nhận thêm 1 cuốn MIỄN PHÍ!
Ngôn ngữ tiếng Đức ● định dạng PDF ● Trang 30 ● ISBN 9783640215942 ● Kích thước tập tin 1.4 MB ● Nhà xuất bản GRIN Verlag ● Thành phố München ● Quốc gia DE ● Được phát hành 2008 ● Phiên bản 1 ● Có thể tải xuống 24 tháng ● Tiền tệ EUR ● TÔI 4016355 ● Sao chép bảo vệ không có