Studienarbeit aus dem Jahr 2005 im Fachbereich Informatik – Internet, neue Technologien, Note: 2, Universität Kassel, Veranstaltung: Internetsuchmaschinen, Sprache: Deutsch, Abstract: „The ultimate search engine would basically understand everything in the world, and it would always give you the right thing. And we’re a long, long ways from that.“
Dieses Zitat von Larry Page, der mit dem von ihm entwickelten Page Rank Algorithmus nicht unerheblich zur Markt dominierenden Stellung von Google als Internet-Suchmaschine beigetragen hat, zeigt, dass auf dem Gebiet der Suchmaschinen noch viel zu tun ist. Davon, dass eine Suchmaschine wie Google „alles auf der Welt versteht“ und immer die richtigen Ergebnisse auf unsere Suchanfragen zurück liefert, sind wir mit Sicherheit noch sehr weit entfernt.
Gerade wenn es darum geht, die relevanten Informationen aus der riesigen Fülle an Webseiten aus denen das World Wide Web besteht herauszufiltern, gleicht dies „der Suche nach der Nadel in einem täglich wachsenden Heuhaufen“.
Dabei stehen die Suchmaschinenbetreiber vor allem vor dem Problem, den Inhalt dieser unzähligen Webseiten richtig zu „erkennen“. Das dabei die vor allem auf „Word-Matching“ Verfahren ausgelegten Algorithmen nicht die besten Ergebnisse bringen, ist kaum verwunderlich und hat wohl jeder schon selber bei seiner Suche im Internet feststellen können. Und diese Probleme mit denen heutige Suchmaschinen zu kämpfen haben, werden nicht kleiner, sondern steigen Tag für Tag mit den neu im Web entstehenden Seiten. Um dieser Herausforderung zu begegnen, gibt es vor allem zwei verschiedene Möglichkeiten. Auf der einen Seite könnten die Betreiber von Suchmaschinen auf den massiven Einsatz von Verfahren aus dem Bereich der künstlichen Intelligenz bauen, mit deren Hilfe es vielleicht möglich wäre, aus bestimmten auf der Webseite vorhandenen Wortkombinationen oder dem Satzbau Rückschlüsse auf den Inhalt der Webseite zu ziehen. Hier wird also versuch im nachhinein die implizit im Seiteninhalt „verborgene“ Bedeutung zu ermitteln. Das nachträgliche Erschließen implizit vorhandener Informationen hat den Nachteil, dass die Last der Erkenntnisgewinnung ausschließlich auf Seite der Serviceanbieter (z.B. Suchmaschinen) liegt und das prinzipielle Problem besteht, dass sich vorhandene Daten auf sehr unterschiedliche Art und Weise interpretieren lassen. Auf der anderen Seite könnten man das Gerüst, aus dem sich die Webseiten zusammensetzen, erweitern und den Entwicklern der Webseiten auf diese Weise eine Möglichkeit an die Hand geben, selber den Inhalt ihrer Seite explizit zu beschreiben.
Samuel Greef
Semantic Web – Aufbau und Suchtechnologien [EPUB ebook]
Semantic Web – Aufbau und Suchtechnologien [EPUB ebook]
Bu e-kitabı satın alın ve 1 tane daha ÜCRETSİZ kazanın!
Dil Almanca ● Biçim EPUB ● ISBN 9783638421799 ● Dosya boyutu 1.2 MB ● Yayımcı GRIN Verlag ● Kent München ● Ülke DE ● Yayınlanan 2005 ● Baskı 1 ● İndirilebilir 24 aylar ● Döviz EUR ● Kimlik 3766998 ● Kopya koruma olmadan