Titelblatt des Buchs
Reginald Ferber Information Retrieval
Suchmodelle und Data-Mining-Verfahren für Textsammlungen und das Web

Position im Angebot Information Retrieval -> Grundlagen und klassische IR-Methoden -> Klassische Information-Retrieval-Verfahren
Stichwörter dieser Seite Information Retrieval, Effizienz, Effektivität
Navigation Zurück ]    [ Inhalt ]    [ Stichwörter ]    [ Feedback ]    [ Home ]

1.3.7: Bewertung und Vergleich von IR-Systemen

Am Ende der in der Einleitung gegebenen Beschreibung des Information Retrieval durch die Fachgruppe Information Retrieval der Gesellschaft für Informatik hatte es geheißen: "Aus dieser Problematik ergibt sich die Notwendigkeit zur Bewertung der Qualität der Antworten eines Informationssystems, wobei in einem weiteren Sinne die Effektivität des Systems in bezug auf die Unterstützung des Benutzers bei der Lösung seines Anwendungsproblems beurteilt werden sollte."

Will man diesem Anspruch gerecht werden, so lassen sich IR-Systeme nur mit ungeheurem Aufwand beurteilen und vergleichen: Man müsste eine repräsentative Auswahl von Anwendungsproblemen und Benutzenden zur Verfügung haben und den Einfluss des IR-Systems auf die Lösung der Anwendungsprobleme isolieren und bewerten können. Eine solche Bewertung ist im Allgemeinen weder theoretisch noch praktisch möglich. Viele Evaluierungen beschränken sich deshalb darauf, Systeme mit einigen (manchmal kleinen) Dokument- und Anfragesammlungen zu überprüfen. Bei diesen Methoden bleiben allerdings zwangsläufig eine ganze Reihe von Einflussfaktoren unberücksichtigt.

In anderen Untersuchungen - so genannten user studies - werden einzelne Schritte in der Bearbeitung von Dokumenten und Anfragen in IR-Systemen und Aspekte des Verhaltens von Indexierenden und Nutzenden untersucht und verglichen. Auf diese Studien wird hier nicht weiter eingegangen.

Pfeil als Kennzeichnung einer Unterueberschrift 1.3.7.1: Einflussfaktoren

Neben dieser Aufteilung der Evaluation nach den verschiedenen Systemkomponenten kann man auch eine Aufteilung nach verschiedenen Bewertungskriterien vornehmen. Dabei kann man zwischen Effizienz und Effektivität unterscheiden.

Unter Effizienz versteht man dabei den möglichst sparsamen Umgang mit Ressourcen wie Rechenzeit und Speicherplatz. Effektivität beschreibt die Fähigkeit des Systems, den Nutzenden die benötigte Information bei möglichst geringen Kosten an Zeit und Anstrengung anzubieten. Während die Frage nach der Effizienz bei genügend genauer Analyse der verwendeten Algorithmen weitgehend analytisch und durch Benchmark-Tests geklärt werden kann, muss die Effektivität mit empirischen Methoden ermittelt werden. Im Folgenden werden nur Fragen zur Effektivität behandelt.

Pfeil als Kennzeichnung einer Unterueberschrift 1.3.7.2: Relevanz

Pfeil als Kennzeichnung einer Unterueberschrift 1.3.7.3: Precision und Recall

Pfeil als Kennzeichnung einer Unterueberschrift 1.3.7.4: Mittelwertbildungen

Pfeil als Kennzeichnung einer Unterueberschrift 1.3.7.5: Testkollektionen

Pfeil als Kennzeichnung einer Unterueberschrift 1.3.7.6: Die TREC-Experimente

Navigation Zurück ]    [ Inhalt ]    [ Stichwörter ]    [ Feedback ]    [ Home ]
Position im Angebot Information Retrieval -> Grundlagen und klassische IR-Methoden -> Klassische Information-Retrieval-Verfahren
Dieser Abschnitt und seine Unterabschnitte
Inhalt Stichwörter in der Reihenfolge ihres AuftretensStichwörter alphabetisch sortiert
1.3.7Bewertung und Vergleich von IR-Systemen
1.3.7.1Einflussfaktoren
1.3.7.2Relevanz
Def. 6 Relevanz
1.3.7.3Precision und Recall
Def. 7 Precision und Recall
Def. 8 Precision-Recall-Diagramm
Abb. 39 Beispiel einer Ergebnisliste und der daraus berechneten Folge von Precision-Recall-Paaren
Abb. 40 Precision-Recall-Diagramm
1.3.7.4Mittelwertbildungen
1.3.7.5Testkollektionen
Abb. 41 Testkollektionen
1.3.7.6Die TREC-Experimente
Abb. 42 Beispieldokument aus dem TREC-Korpus
Abb. 43 Topics aus den ersten TREC-Durchgängen
Abb. 44 Topics aus späteren TREC-Durchgängen
Abb. 45 Überprüfung der Relevanzbeurteilung bei TREC-2
Abb. 46 Größe der Grundmenge der auf Relevanz beurteilten Dokumente
Abb. 47 Ergebnisse einzelner Systeme aus TREC-4 mit unterschiedlichen Relevanzbeurteilungen
Information Retrieval, Einflussfaktoren, input policies, Dokumentformat, physical input form, Indexierungsmethode, indexing language, kontrolliertes Vokabular, Indexierungsvorgang, indexing operation, search operation, Effizienz, Effektivität, Relevanz, Relevanz, Precision, Präzision, Genauigkeit, Recall, Vollständigkeit, Vektorraummodell, Ähnlichkeitsschranke, Rangfolge, Schwelle, Precision-Recall-Diagramm, Precision-Recall-Diagramm, Makrobewertung, nutzungsorientiert, user-oriented, Mikrobewertung, systemorientiert, system oriented, Durchschnitt, mittlere Precision, Break-Even Point, Testkollektion, Frageerweiterung, repräsentative Stichprobe, Relevanzurteil, Document-Source-Methode, Testkollektion, document test collection, TREC, Text REtrieval Conference, National Institute of Standards and Technology, NIST, Topic, Narrative, Ad-hoc-Anfrage, Routing, Relevanz, Pooling-Verfahren, Relevanzurteil, Relevanzurteil Ad-hoc-Anfrage, Ähnlichkeitsschranke, Break-Even Point, document test collection, Document-Source-Methode, Dokumentformat, Durchschnitt, Effektivität, Effizienz, Einflussfaktoren, Frageerweiterung, Genauigkeit, Indexierungsmethode, Indexierungsvorgang, indexing language, indexing operation, Information Retrieval, input policies, kontrolliertes Vokabular, Makrobewertung, Mikrobewertung, mittlere Precision, Narrative, National Institute of Standards and Technology, NIST, nutzungsorientiert, physical input form, Pooling-Verfahren, Präzision, Precision, Precision-Recall-Diagramm, Precision-Recall-Diagramm, Rangfolge, Recall, Relevanz, Relevanz, Relevanz, Relevanzurteil, Relevanzurteil, Relevanzurteil, repräsentative Stichprobe, Routing, Schwelle, search operation, system oriented, systemorientiert, Testkollektion, Testkollektion, Text REtrieval Conference, Topic, TREC, user-oriented, Vektorraummodell, Vollständigkeit

Diese Seiten sind urheberrechtlich geschützt. Die Verantwortung für die Inhalte und die Rechte der Online-Version liegen beim Autor Reginald Ferber, Münster (Westf). Die Rechte der gedruckten Version beim dpunkt.verlag, Heidelberg. Die Weiterverwendung von Texten oder Abbildungen - auch auszugsweise - ist ohne die schriftliche Zustimmung des Autors Reginald Ferber bzw. des dpunkt.verlags nicht gestattet.

Es wird darauf hingewiesen, dass die verwendeten Soft- und Hardware-Bezeichnungen sowie Markennamen und Produktbezeichnungen der jeweiligen Firmen im Allgemeinen warenzeichen-, marken-, oder patentrechtlichem Schutz unterliegen. Alle Angaben und Programme wurden mit großer Sorgfalt kontrolliert. Trotzdem kann keinerlei Haftung für Schäden irgendwelcher Art übernommen werden, die sich im Zusammenhang mit der Nutzung dieser Seiten ergeben.

Diese HTML-Datei wurde am 27-10-2003 erzeugt.