Das Buch vermittelt umfassende Grundlagen moderner Techniken des verteilten und parallelen Datenmanagements, die das Fundament moderner Informationssysteme bilden. Ausgehend von einer Betrachtung der Architekturvarianten, die sich aus verteilten sowie parallelen Hardwareinfrastrukturen ergeben, werden die Bereiche Datenverteilung, Anfrageverarbeitung sowie Konsistenzsicherung behandelt. Hierbei werden jeweils Verfahren und Techniken für klassische verteilte, parallele sowie moderne massiv-verteilte bzw. massiv-parallele Architekturen vorgestellt und hinsichtlich ihrer Eigenschaften diskutiert. Damit schlagen die Autoren die Brücke zwischen klassischen Verfahren und aktuellen Entwicklungen im Cloud- und Big Data-Umfeld.
Table of Content
Teil I Einführung:.- Einleitung.- Architekturen für verteiltes und paralleles Datenmanagement.- Teil II Katalogverwaltung und Datenverteilung:.- Schemaarchitektur und Katalogverwaltung.- Grundlagen der Datenverteilung.- Datenverteilung in Parallelen DBS.- Teil III Anfrageverarbeitung:.- Grundlagen der Anfrageverarbeitung.- Verteilte Anfrageverbreitung- Parallele Anfrageverarbeitung.- Parallele Analyse großer Datenmengen mit Map Reduce.- Teil IV Konsistenzsicherung:.- Verteilte Transaktionsausführungen.- Synchronisationsverfahren.- Replikation.- Transaktionsverarbeitung für Shared Disk.- Konsistenz in Cloud-Datenbanken.- Literatur.- Index.
About the author
Erhard Rahm ist Professor für Datenbanken an der Universität Leipzig. Er promovierte und habilitierte an der TU Kaiserslautern und verbrachte Forschungsaufenthalte bei IBM Research und Microsoft Research in den USA. Prof. Rahm verfügt über umfassende Lehr- und Forschungserfahrung zu den Themen dieses Lehrbuchs, v.a. zu Parallelen DBS und Big Data. Er ist Autor bzw. Koautor mehrerer Lehrbücher zu Datenbankkonzepten sowie von über 200 wissenschaftlichen Publikationen. Zu seinen Auszeichnungen gehören ein VLDB Ten Year Best Paper Award (2011) sowie ein ICDE Influential Paper Award (2013). Gunter Saake ist Professor für Datenbanken und Informationssysteme an der Otto-von-Guericke Universität Magdeburg. Zu seinen aktuellen Arbeitsgebieten gehören maß-geschneiderte Datenbanken für eingebettete Systeme, Informationsintegration, Datenbank-operationen auf neuer Hardware, Digital Engineering sowie Variabilitätsmanagement bei der Implementierung von Software-Produktlinien. Er ist Koautor mehrerer Lehrbücher zu Datenbankkonzepten, eines einführenden Buches zu Algorithmen und Datenstrukturen sowie zum Entwurf und Implementierung feature-orientierter Software-Produktlinien. Kai-Uwe Sattler ist Professor für Datenbanken und Informationssysteme an der TU Ilmenau. Zu seinen Arbeitsgebieten zählen Datenbanksystemaspekte, Datenbankintegration sowie Anfrageverarbeitung für, heterogenen, massiv verteilte und dynamische Datenbestände. Er ist Koautor mehrerer Lehrbücher, u.a. zu verschiedenen Datenbankkonzepten wie Grundlagen, Implementierungstechniken, Data Warehousing und Cloud Data Management sowie zu Algorithmen und Datenstrukturen.