Aus der Verfügbarkeit großer Textkorpora ergeben sich für die maschinelle Sprachverarbeitung, für die Lexikographie und für das Information Retrieval neue Perspektiven. In dieser Arbeit werden Möglichkeiten aufgezeigt, mit Hilfe statistischer Verfahren zu verläßlichen Aussagen über die Existenz komplexer lexikalischer Einheiten zu kommen. Zu diesen Lexikoneinheiten zählen Funktionswörter ebenso wie Kollokationen und feste Wendungen. Grundlage der Untersuchungen sind Textkorpora des Deutschen. Bei der Bewertung der Güte verschiedener statistischer Verfahren zeigt es sich, daß die Wahl eines Verfahrens von der konkreten Aufgabe abhängig ist. Anhand dreier Fallstudien – Abtönungspartikeln, Verbpartikeln und Pronomen – wird anschaulich dargelegt, welcher Erkenntnisgewinn für die lexikalische Arbeit aus der Wahl des geeigneten statistischen Verfahrens zu ziehen ist. Für die maschinelle Sprachverarbeitung und das Computerlexikon von morgen folgt, daß korpusgestützte lexikalische Arbeit fruchtbringender ist als die systematische Auswertung gedruckter Wörterbücher. Es wird auch gezeigt, wie orthographisch komplexe Lexikoneinheiten angemessen in einem Computerlexikon repräsentiert werden können. Mit einem um komplexe Einheiten bereicherten Lexikon sind auch Probleme der Worterkennung beim Information Retrieval und in der Lexikostatistik besser zu meistern.
Lothar Lemnitzer
Akquisition komplexer Lexeme aus Textkorpora [PDF ebook]
Akquisition komplexer Lexeme aus Textkorpora [PDF ebook]
Acquista questo ebook e ricevine 1 in più GRATIS!
Lingua Tedesco ● Formato PDF ● Pagine 266 ● ISBN 9783110927986 ● Dimensione 39.6 MB ● Casa editrice De Gruyter ● Città Tübingen ● Pubblicato 2011 ● Edizione 1 ● Scaricabile 24 mesi ● Moneta EUR ● ID 6299968 ● Protezione dalla copia Adobe DRM
Richiede un lettore di ebook compatibile con DRM