Titelblatt des Buchs
Reginald Ferber Information Retrieval
Suchmodelle und Data-Mining-Verfahren für Textsammlungen und das Web

Position im Angebot Information Retrieval
Navigation Zurück ]    [ Inhalt ]    [ Stichwörter ]    [ Feedback ]    [ Home ]

2: Wissensgewinnung mit Data-Mining-Methoden

Pfeil als Kennzeichnung einer Unterueberschrift 2.1: Einleitung

Pfeil als Kennzeichnung einer Unterueberschrift 2.2: Lernen

Pfeil als Kennzeichnung einer Unterueberschrift 2.3: Kategorisieren

Pfeil als Kennzeichnung einer Unterueberschrift 2.4: Cluster und unscharfe Mengen

Pfeil als Kennzeichnung einer Unterueberschrift 2.5: Assoziative Regeln

Pfeil als Kennzeichnung einer Unterueberschrift 2.6: Ein komplexeres Beispiel

Navigation Zurück ]    [ Inhalt ]    [ Stichwörter ]    [ Feedback ]    [ Home ]
Position im Angebot Information Retrieval
Dieser Abschnitt und seine Unterabschnitte
Inhalt Stichwörter in der Reihenfolge ihres AuftretensStichwörter alphabetisch sortiert
2Wissensgewinnung mit Data-Mining-Methoden
2.1Einleitung
2.2Lernen
Abb. 48 Deduktives und probabilistisches Schließen
2.2.1Lernen als Informationsverarbeitung
Abb. 49 Beispiele der verschiedenen Schlussfolgerungen
2.2.2Automatisches Lernen aus Beispielen
2.2.2.1Faktendatenbanken
2.3Kategorisieren
2.3.1Attribute und Kategorien
Def. 9 Kategorisierung
Def. 10 Nach einem Attribut kategorisieren
Def. 11 Induktive Kategorisierung
2.3.2Trainings- und Testmenge
Abb. 50 Beispielmenge von Tupeln mit Kategorisierung
2.3.3Lernparadigmen
2.3.4Der ID3-Algorithmus
Abb. 51 Entscheidungsbaum nach dem ID3-Algorithmus
Alg. 2 ID3 im Überblick
2.3.4.1Formale Beschreibung des ID3-Algorithmus
Alg. 3 ID3 im Detail
Abb. 52 Entropiewerte, nach denen die Attribute bei der Konstruktion eines ID3 Baums selektiert werden.
Abb. 53 ID3-Entscheidungsbaum
2.3.4.2Kategorisieren mit dem ID3-Algorithmus
Alg. 4 ID3-Baum anwenden
2.3.5Rahmenbedingungen für Lernalgorithmen
2.3.5.1Konsistenz
Def. 12 Konsistenz
Satz 2 Kategorisierbarkeit konsistenter Beispielmengen
2.3.5.2Größe von Entscheidungsbäumen
Abb. 54 Maximaler Entscheidungsbaum mit zwei Kategorien
Abb. 55 Entscheidungsbaum mit zwei Kategorien
2.3.5.3Wertebereiche der Attribute
2.3.5.4Bewertung von Kategorisierungsergebnissen
Def. 13 Accuracy und Coverage
2.3.5.5Inkonsistente Trainingsdaten
2.3.5.6Unvollständige Beispiele
2.3.5.7Größe und Repräsentativität der Trainingsmenge
2.3.5.8Inkrementelles Lernen
2.3.5.9Overfitting
2.3.5.10Suchstrategien
Abb. 56 Gütefunktion mit lokalen Maxima
2.3.6Einfache Regelsysteme
Def. 14 Normalformen
Abb. 57 Einige Regeln, die sich aus einem Entscheidungsbaum ableiten lassen.
2.3.6.1Entscheidungslisten
Abb. 58 Konstruktion einer Entscheidungsliste
2.3.6.2Ripple-down-Regelmengen
Alg. 5 Formale Regelbildung aus Beispielen
Abb. 59 Konstruktion eines Ripple-down Sets
2.3.6.3Top-down- und Bottom-up-Methoden
2.3.7Der AQ-Algorithmus
Def. 15 Selektor, Komplex, Abdeckung
Abb. 60 Verallgemeinerung von Regeln
Def. 16 Stern
Alg. 6 AQ15: Regelgenerierung
Abb. 61 Beispiele nach Kategorien sortiert
Alg. 7 AQ15: Partieller Stern
Abb. 62 Konstruktion einer Abdeckung
2.3.7.1Generalisierungsoperationen
2.3.8Regelsysteme mit zusammengesetzten Attributen
Abb. 63 Regeln, die auch Vergleiche von Attributen zulassen
Abb. 64 Beispiele, die sich mit einem zusammengesetzten Attribut gut trennen lassen
2.3.9Multivariate Entscheidungsbäume
2.3.9.1Attributauswahl
2.3.9.1.1Sequenzielle Elimination und Auswahl
2.3.9.1.2Verteilungsbasiertes Eliminationsverfahren
2.3.9.1.3Das CART-Verfahren
2.3.9.2Koeffizientenbestimmung
2.3.9.3Evaluierung
2.4Cluster und unscharfe Mengen
2.4.1Cluster
Abb. 65 Cluster-Bildung mit der Hamming Distance
2.4.2Unscharfe Mengen
Def. 17 Unscharfe Menge
Def. 18 Träger, Kern, Schnitte und Höhe
Abb. 66 Unscharfe Mengen zur Beschreibung von Lebensaltern
Satz 3 Festlegung durch Schnitte
Abb. 67 Rekonstruktion des Werts der Zugehörigkeitsfunktion aus den Alpha-Schnitten
Def. 19 Vereinigung, Durchschnitt und Komplement
Abb. 68 Vereinigung und Durchschnitt von unscharfen Mengen
2.5Assoziative Regeln
Def. 20 Assoziative Regel
2.5.1Warenkorbmodell
Abb. 69 Anzahl der Regeln aus zwei Beispielsammlungen
Def. 21 Template
Def. 22 Teilordnung
2.5.2DBLearn/DBMiner
Abb. 70 Konzepthierarchien aus DBLearn
Alg. 8 DBLearn
Abb. 71 Regelgenerierung mit DBLearn
2.6Ein komplexeres Beispiel
2.6.1Problemstellung
2.6.2Lösungsansätze
2.6.3Verfahren
2.6.4Durchführung und Bewertung
Abb. 72 Vergleich der unterschiedlichen Missbrauchsdetektoren
Wissensgewinnung, Regel, Machine Learning, Psychologie, Lernen, Verhaltensdisposition, Erfahrung, Reifung, Entwicklung, Gedächtnis, Lernforschung, Wissen, Kennen, Können, künstliche Intelligenz, KI, Üben, Generalisierung, Unabhängigkeit, Kognitionspsychologie, Gedächtnispsychologie, Cognitive Science, deduktiver Prozess, Aussage, abduktiver Prozess, induktiver Prozess, Wissensgewinnung, Knowledge Discovery in Databases, KDD, Information Retrieval, Data Mining, DM, Faktendatenbank, Faktendatenbank, Attribut, Wertebereich, Attribut-Wert-Paar, Tupel, Wertebereich, Machine Learning, Kategorisierung, Kategorie, binäre Kategorisierung, TREC, Routing, Kategorie, Kategorisierung, Klassifikation, Attribut, Attribut, vorherzusagendes Attribut, predicted attributes, vorhersagendes Attribut, predicting attributes, Wertebereich, Trainingsmenge, induktiv erzeugter Kategorisierungsalgorithmus, Trainingsmenge, training set, Trainingsphase, Testmenge, test set, Testphase, unabhängig, supervised learning, überwachtes Lernen, Testmenge, bewertetes Lernen, nichtüberwachtes Lernen, Ähnlichkeitsmaß, Cluster-Verfahren, Kategorisierung, Wertebereich, Trainingsmenge, Konsistenz, konsistente Beispielsammlung, Trainingsmenge, Konsistenz, Wertebereich, Skalenniveau, Nominalskala, Relation, Ordinalskala, Intervallskala, Rationalskala, Nominalskala, Intervallskala, Ordinalskala, Schwellwertfunktion, Nominalskala, Testmenge, Precision, Recall, classification accuracy, Abdeckung, Coverage, Accuracy, Coverage, Kategorisierung, Genauigkeit, Abdeckung, Mikrobewertung, Makrobewertung, Skalenniveau, inkonsistente Trainingsdaten, Trainingsmenge, statistische Aussage, Konsistenz, Vorbehandlung, preprocessing, unvollständige Beispiele, Wertebereich, undefined, Skalenniveau, Nominalskala, Ordinalskala, Intervallskala, Trainingsmenge, Wertebereich, Testkollektion, Fenstertechnik, Fenster, inkrementelles Lernen, Trainingsmenge, Overfitting, Hill-Climbing, vollständige Suche, Beam-Search, Attribut-Wert-Paar, elementare Bedingung, atomare Bedingung, Bedingung, zusammengesetzte Bedingung, Konjunktion, Disjunktion, Komplement, Regel, konjunktive Normalform, disjunktive Normalform, Entscheidungsliste, Regel, decision list, Kategorie, Ripple-down-Regelmenge, Trainingsmenge, Regel, Top-down, Bottom-up, AQ-Algorithmus, AQ15, Regel, Kategorie, Selektor, Komplex, Abdeckung, cover, Spezialisierung, Stern, Einschränkung, constraint, beschränkter Stern, partieller Stern, Wertebereich, Spezialisierung, dropping condition rule, adding condition rule, extending reference rule, closing interval rule, turning conjunction into disjunction rule, Regel, Skalenniveau, Ordinalskala, Split, splitting value, Skalenniveau, Kategorie, multivariater Entscheidungsbaum, Linearkombination, Skalenniveau, Intervallskala, lineare Schwellwertfunktion, linear threshold unit, LTU, Skalarprodukt, lineare Maschine, linear machine, LM, Elimination, sequenzielle Rückwärtselimination, Sequential Backward Elimination, SBE, Auswahl, sequenzielle Vorwärtsauswahl, Sequential Foreward Selection, SFS, Top-down, Bottom-up, Heuristisches Sequenzielles Suchverfahren, HSS, verteilungsbasierte Rückwärtselimination, Dispersion-Guided Sequential Backward Elimination, DSBE, impurity, Methode der kleinsten Fehlerquadrate, Recursive Least Squares, RLS, Skalarprodukt, Pocket-Algorithmus, Trainingsmenge, Testmenge, überwachtes Lernen, vorherzusagendes Attribut, Nominalskala, Vektorraummodell, Skalenniveau, Hamming Distance, Single-Link, Complete-Link, Ähnlichkeitsfunktion, Bottom-up, Single-Pass-Cluster-Verfahren, unscharfe Menge, Cluster-Verfahren, Fuzzy Set, Grad der Mitgliedschaft, Zugehörigkeitsfunktion, membership function, unscharfe Menge, Grundbereich, Grad der Zugehörigkeit, scharfe Menge, charakteristische Funktion, Vektorraummodell, leere unscharfe Menge, Träger, support, Alpha-Schnitt, Schnitt, Kern, Höhe, Durchschnitt, Vereinigung, Durchschnitt, unscharfes Schließen, unscharfe Relation, vorherzusagendes Attribut, vorhersagendes Attribut, assoziative Regel, Basis, Grad, support threshold, confidence threshold, Warenkorb, Template, Selektor, Teilordnung, Relation, teilgeordnete Menge, maximales Element, Klassifikation, Konzepthierarchie, Wertebereich, charakteristische Regel, characteristic rules, Unterscheidungsregel, discriminant rule, quantitative Regel, quantitative rule, Bottom-up, Komplex, Attribut-Wert-Paar, Wissensgewinnung, Kategorisierung, vorherzusagendes Attribut, überlagerter Betrug, superimposed fraud, Geschwindigkeitsindikator, assoziative Regel, Profilierung, profiling, lineare Schwellwertfunktion, LTU, Wertebereich, Trainingsmenge, Testmenge, Gewichtungsmethode Abdeckung, Abdeckung, Abdeckung, abduktiver Prozess, Accuracy, adding condition rule, Ähnlichkeitsfunktion, Ähnlichkeitsmaß, Alpha-Schnitt, AQ-Algorithmus, AQ15, assoziative Regel, assoziative Regel, atomare Bedingung, Attribut, Attribut, Attribut, Attribut-Wert-Paar, Attribut-Wert-Paar, Attribut-Wert-Paar, Aussage, Auswahl, Basis, Beam-Search, Bedingung, beschränkter Stern, bewertetes Lernen, binäre Kategorisierung, Bottom-up, Bottom-up, Bottom-up, Bottom-up, characteristic rules, charakteristische Funktion, charakteristische Regel, classification accuracy, closing interval rule, Cluster-Verfahren, Cluster-Verfahren, Cognitive Science, Complete-Link, confidence threshold, constraint, cover, Coverage, Coverage, Data Mining, decision list, deduktiver Prozess, discriminant rule, Disjunktion, disjunktive Normalform, Dispersion-Guided Sequential Backward Elimination, DM, dropping condition rule, DSBE, Durchschnitt, Durchschnitt, Einschränkung, elementare Bedingung, Elimination, Entscheidungsliste, Entwicklung, Erfahrung, extending reference rule, Faktendatenbank, Faktendatenbank, Fenster, Fenstertechnik, Fuzzy Set, Gedächtnis, Gedächtnispsychologie, Genauigkeit, Generalisierung, Geschwindigkeitsindikator, Gewichtungsmethode, Grad, Grad der Zugehörigkeit, Grad der Mitgliedschaft, Grundbereich, Hamming Distance, Heuristisches Sequenzielles Suchverfahren, Hill-Climbing, Höhe, HSS, impurity, induktiv erzeugter Kategorisierungsalgorithmus, induktiver Prozess, Information Retrieval, inkonsistente Trainingsdaten, inkrementelles Lernen, Intervallskala, Intervallskala, Intervallskala, Intervallskala, Kategorie, Kategorie, Kategorie, Kategorie, Kategorie, Kategorisierung, Kategorisierung, Kategorisierung, Kategorisierung, Kategorisierung, KDD, Kennen, Kern, KI, Klassifikation, Klassifikation, Knowledge Discovery in Databases, Können, Kognitionspsychologie, Komplement, Komplex, Komplex, Konjunktion, konjunktive Normalform, konsistente Beispielsammlung, Konsistenz, Konsistenz, Konsistenz, Konzepthierarchie, künstliche Intelligenz, leere unscharfe Menge, Lernen, Lernforschung, linear machine, linear threshold unit, lineare Schwellwertfunktion, lineare Maschine, lineare Schwellwertfunktion, Linearkombination, LM, LTU, LTU, Machine Learning, Machine Learning, Makrobewertung, maximales Element, membership function, Methode der kleinsten Fehlerquadrate, Mikrobewertung, multivariater Entscheidungsbaum, nichtüberwachtes Lernen, Nominalskala, Nominalskala, Nominalskala, Nominalskala, Nominalskala, Ordinalskala, Ordinalskala, Ordinalskala, Ordinalskala, Overfitting, partieller Stern, Pocket-Algorithmus, Precision, predicted attributes, predicting attributes, preprocessing, Profilierung, profiling, Psychologie, quantitative Regel, quantitative rule, Rationalskala, Recall, Recursive Least Squares, Regel, Regel, Regel, Regel, Regel, Regel, Reifung, Relation, Relation, Ripple-down-Regelmenge, RLS, Routing, SBE, scharfe Menge, Schnitt, Schwellwertfunktion, Selektor, Selektor, Sequential Foreward Selection, Sequential Backward Elimination, sequenzielle Rückwärtselimination, sequenzielle Vorwärtsauswahl, SFS, Single-Link, Single-Pass-Cluster-Verfahren, Skalarprodukt, Skalarprodukt, Skalenniveau, Skalenniveau, Skalenniveau, Skalenniveau, Skalenniveau, Skalenniveau, Skalenniveau, Spezialisierung, Spezialisierung, Split, splitting value, statistische Aussage, Stern, superimposed fraud, supervised learning, support, support threshold, teilgeordnete Menge, Teilordnung, Template, test set, Testkollektion, Testmenge, Testmenge, Testmenge, Testmenge, Testmenge, Testphase, Top-down, Top-down, Träger, training set, Trainingsmenge, Trainingsmenge, Trainingsmenge, Trainingsmenge, Trainingsmenge, Trainingsmenge, Trainingsmenge, Trainingsmenge, Trainingsmenge, Trainingsmenge, Trainingsphase, TREC, Tupel, turning conjunction into disjunction rule, Üben, überlagerter Betrug, überwachtes Lernen, überwachtes Lernen, unabhängig, Unabhängigkeit, undefined, unscharfe Menge, unscharfe Menge, unscharfe Relation, unscharfes Schließen, Unterscheidungsregel, unvollständige Beispiele, Vektorraummodell, Vektorraummodell, Vereinigung, Verhaltensdisposition, verteilungsbasierte Rückwärtselimination, vollständige Suche, Vorbehandlung, vorhersagendes Attribut, vorhersagendes Attribut, vorherzusagendes Attribut, vorherzusagendes Attribut, vorherzusagendes Attribut, vorherzusagendes Attribut, Warenkorb, Wertebereich, Wertebereich, Wertebereich, Wertebereich, Wertebereich, Wertebereich, Wertebereich, Wertebereich, Wertebereich, Wertebereich, Wissen, Wissensgewinnung, Wissensgewinnung, Wissensgewinnung, Zugehörigkeitsfunktion, zusammengesetzte Bedingung

Diese Seiten sind urheberrechtlich geschützt. Die Verantwortung für die Inhalte und die Rechte der Online-Version liegen beim Autor Reginald Ferber, Münster (Westf). Die Rechte der gedruckten Version beim dpunkt.verlag, Heidelberg. Die Weiterverwendung von Texten oder Abbildungen - auch auszugsweise - ist ohne die schriftliche Zustimmung des Autors Reginald Ferber bzw. des dpunkt.verlags nicht gestattet.

Es wird darauf hingewiesen, dass die verwendeten Soft- und Hardware-Bezeichnungen sowie Markennamen und Produktbezeichnungen der jeweiligen Firmen im Allgemeinen warenzeichen-, marken-, oder patentrechtlichem Schutz unterliegen. Alle Angaben und Programme wurden mit großer Sorgfalt kontrolliert. Trotzdem kann keinerlei Haftung für Schäden irgendwelcher Art übernommen werden, die sich im Zusammenhang mit der Nutzung dieser Seiten ergeben.

Diese HTML-Datei wurde am 17-11-2003 erzeugt.