Informatik Forsch. Entw. (2005) 20: 119–120 DOI 10.1007/s00450-005-0215-7
EDITORIAL
Theo Härder
Editorial zum Themenheft: „Datenbanksysteme”
Online publiziert am 16. November 2005 © Springer-Verlag 2005
Nach ihrer Gründung als Tagungsreihe „Datenbanksysteme in Büro, Technik und Wissenschaft“ im Jahre 1985 feierte die BTW-Tagung der Gesellschaft für Informatik (GI) 2005 ihren 20. Geburtstag und kehrte dazu vom 2. bis 4. März 2005 an ihren Geburtsort, die Universität Karlsruhe, zurück. Die BTW ist die größte deutsche Tagung zu allen Themen in den Bereichen Datenbanken und Informationssysteme. Sie versteht sich als das zentrale Forum der deutschen Datenbankgemeinde, bei dem Wissenschaftler, Praktiker und Anwender im zweijährigen Turnus über ihre Forschungsund Entwicklungsergebnisse vortragen. Das Akronym BTW wurde jüngst umgedeutet und steht heute für „Datenbanksysteme für Business, Technologie und Web“. Nach 20 Jahren ist das Gebiet der Datenbanksysteme sowohl seitens der Forschung als auch seitens der Anwendungen etabliert und allgemein akzeptiert als ein Gebiet, welches nach wie vor wichtige Beiträge zum Fortschritt der Informationstechnik leistet. Datenbanksysteme sind heute Standardsoftware auf sämtlichen Rechnerplattformen; Datenbanken sind zentrales Fundament vieler Anwendungen und Anwendersysteme. Die Verbindung von Datenbanktechnik mit Telematik, verteilten Systemen, Ingenieurwissenschaften und Wirtschaftsinformatik spielt heute im deutschen Wirtschaftsraum eine besondere Rolle. Problemlösungen in diesen Bereichen werden an vielen Universitäten und Hochschulen sowie in industriellen Forschungslabors gesucht. Deshalb sollte die BTW 2005 diese beiden Aspekte – Datenbank-Kernthemen (Technologie) und Zusammenspiel mit Anwendungen (Business und Web) – gleichrangig reflektieren. Dazu wurden Einreichungen zur Datenbanktechnik (dem Kern) und zu ihrem Zusammenspiel mit anderen Techniken und Anwendungen (der Schale) erbeten. Von den etwa 70 eingereichten Aufsätzen wurden 15 Lang- und 9 Kurzbeiträge angenommen und in einem Tagungsband der GI-Edition (Lecture Notes in Informatics, Volume P-65) publiziert. Die fünf am besten bewerteten Beiträge wurden für eine Veröffentlichung in diesem Themenheft ausgewählt. Dazu wurden die AutoTheo Härder Technische Universität Kaiserslautern
ren aufgefordert, verbesserte und erweiterte Versionen ihrer Aufsätze zu erstellen, die erneut begutachtet wurden. Der erste Beitrag, Efficient interval management using object-relational database servers von Christoph Brochhaus, Jost Enderle, Achim Schlosser, Thomas Seidl (RWTH Aachen) und Knut Stolze (IBM Deutschland und Universität Jena), beschreibt den Einsatz der Erweiterungsinfrastruktur eines speziellen objekt-relationalen Datenbanksystems, um eine benutzerdefinierte Indexierungstechnik nahtlos in dieses System zu integrieren. Der sogenannte Relationale Intervallbaum, eine Indexstruktur zur beschleunigten Abwicklung von Intervallschnittanfragen, verlässt sich auf die im System vorhandene Funktionalität der Indexmechanismen und kann so ihre Robustheit und ihr Leistungsverhalten nutzen und zugleich mit Hilfe des Erweiterungsmechanismus eine spezialisierte Funktionalität anbieten. Experimentelle Ergebnisse zeigen, dass auf diese Weise sehr gute Leistungswerte zu erzielen sind. Ebenso die Verbesserung der Anfrageverarbeitung betreffend befasst sich im zweiten Beitrag, A learning optimizer for a federated database management system, eine Gruppe von IBM-Autoren, nämlich Stephan Ewen (IBM Deutschland), Michael Ortega-Binderberger (IBM Silicon Valley Lab) und Volker Markl (IBM Almaden Research Center), mit speziellen Aspekten eines DBMS-Optimierers. Die Leistungsfähigkeit eines kostenbasierten Optimierers hängt wesentlich von der Genauigkeit der aus den DB-Daten abgeleiteten Statistiken ab. In föderierten DBMS sind zusätzlich Statistiken über entfernte Daten erforderlich, deren Wartung sich als sehr aufwändig erweist. Durch Austausch zusätzlicher Daten kann der vorgeschlagene lernende Optimierer die Qualität der „entfernten“ Statistiken überprüfen und unzutreffende Statistikdaten und -zusammenhänge automatisch auffinden. Auf diese Weise lässt sich die Genauigkeit des Kostenmodells bei nur geringem Zusatzaufwand erheblich verbessern. Auch in diesem Beitrag belegen empirische Leistungsuntersuchungen das Potenzial dieser Methode, die Ausfrageauswertung ggf. um Größenordnungen zu beschleunigen. Der dritte Beitrag, Das MINERVA-Projekt: Datenbankselektion für Peer-to-Peer-Websuche von Matthias Bender,
120
Sebastian Michel, Gerhard Weikum und Christian Zimmer (Max-Planck-Institut für Informatik, Saarbrücken), beschreibt wichtige Funktionen der Prototyp-Implementierung einer verteilten Suchmaschine, die auf einer Peer-to-PeerArchitektur (P2P-Architektur) basiert. Die Peers verhalten sich wie völlig autonome Benutzer mit lokalen Suchmöglichkeiten, die ihre Funktionalität zur Verbesserung von Anfragen im Rahmen einer Kollaboration zur Verfügung stellen. Als zentrales Problem wird die effiziente Suche nach vielversprechenden Peers für eine konkrete Anfrage innerhalb eines Verbundes herausgestellt. In diesem Beitrag beschriebene Experimente weisen darauf hin, dass diese Auswahl der Peers besonders wichtig ist, da eine geringe Anzahl sorgfältig ausgewählter Datenbanken oft bereits einen Großteil aller relevanten Ergebnisse des Gesamtsystems auffinden kann. Im letzten Beitrag dieses Themenheftes, Flexible Autorisierung in Datenbank-basierten Web-Service-Föderationen von Martin Wimmer, Pia Ehrnlechner, Armin Fischer, Alfons Kemper (Technische Universität München), geht es um mehrstufige Autorisierungsverfahren, bei denen ein Zusammenspiel von lokaler und verteilter Autorisierung erforderlich ist. Web-Service-Technologie wird vor allem zur Integration von Anwendungen über standardisierte Schnittstellen eingesetzt, um eine plattformunabhängige Interaktion mit Diensten kooperierender Organisationen zu ermöglichen. Dabei kann eine lokale Zugriffskontrolle nur die Autorisierungsregeln einer Organisation berücksichtigen. Durch die interagierende Ausführung von Web Services werden Ressourcen wie Datenbanken jedoch organisationsübergreifend bereitgestellt, so dass eine globale Zugriffskontrolle erforderlich ist, die verteilt erfolgen kann. Es wird gezeigt, dass sich mittels eines flexiblen Delegationsmechanismus sowohl schwach wie auch stark gekoppelte Zusammenschlüsse unterstützen lassen. Die Skalierbarkeit des vorgestellten Ansatzes wird zum einen durch den Einsatz von rollenbasier-
T. Härder
ter Zugriffskontrolle erreicht. Zum anderen können CachingTechniken eingesetzt werden, um wiederkehrende, ähnliche Autorisierungsanfragen effzient zu behandeln und zudem die Skalierbarkeit weiter zu verbessern. Der fünfte Beitrag, Ein Schritt zurück ist kein Rückschritt – Mit flexibler Sondierung zum negativen Datenbank-Caching von Andreas Bühmann (Technische Universität Kaiserslautern), muss aus Platzgründen ins nächste Heft 20/4 verschoben werden. Im Gegensatz zu Web-Caching, bei dem einzelne Objekte im Cache aufgrund ihres Identifizierers lokalisiert werden, erlaubt Datenbank-Caching die Auswertung bestimmter Datenbankanfragen im Cache, wozu Prädikatenvollständigkeit, d. h. die Anwesenheit aller zur korrekten Auswertung des Anfrageprädikates notwendigen Sätze, durch den Cache-Manager gewährleistet werden muss. Constraint-basiertes Datenbank-Caching in der Form von Cache Groups erlaubt die Auswertung bestimmter Gleichheitsprädikate (für Selektion und Verbund), wobei die Auswertbarkeit einer Anfrage durch einfache Sondierungsverfahren auf dem Cache-Inhalt entschieden werden kann. Der Beitrag schlägt ein neues Sondierungsverfahren vor, das den Cache flexibler und für eine größere Anzahl von Anfragetypen nutzbar macht. Insbesondere erlaubt „negatives Caching“ auch die korrekte Beantwortung von Anfragen mit leerem Ergebnis. Ich möchte mich bei den Autoren für die stets reibungslose Kooperation bei der Erstellung dieses Themenheftes bedanken. Sie haben ihre Konferenzbeiträge für dieses Themenheft erweitert und sich einem erneuten Begutachtungsprozess unterworfen. Dazu mussten sie den teilweise engen Zeitrahmen einhalten und kurzfristig Verbesserungen und Ergänzungen in ihre Beiträge einarbeiten. Den Gutachtern danke ich dafür, dass sie in kurzer Zeit diese Beiträge ausführlich bewertet und kommentiert haben. Theo Härder