Titelblatt des Buchs
Reginald Ferber Information Retrieval
Suchmodelle und Data-Mining-Verfahren für Textsammlungen und das Web

Position im Angebot Information Retrieval -> Wissensgewinnung mit Data-Mining-Methoden -> Kategorisieren -> Multivariate Entscheidungsbäume
Stichwörter dieser Seite Methode der kleinsten Fehlerquadrate, Recursive Least Squares, RLS, Skalarprodukt, Pocket-Algorithmus, Trainingsmenge
Navigation Zurück ]    [ Inhalt ]    [ Stichwörter ]    [ Feedback ]    [ Home ]

2.3.9.2: Koeffizientenbestimmung

Auch bei der Bestimmung der Koeffizienten kann man wieder verschiedene Verfahren und Gütefunktionen verwenden. Für die binäre Entscheidung mit einer LTU verwendeten Brodley und Utgoff das klassische Verfahren der (rekursiven) Methode der kleinsten Fehlerquadrate (Recursive Least Squares, RLS). Ziel ist es dabei, die Summe
Mathematisches Zeichen: Summe
dMathematisches Zeichen: Element ausT
(d·x-zd)2
der Quadrate der Abweichungen des Skalarprodukts für das Beispiel d von dem vorgegebenen Entscheidungswert zdMathematisches Zeichen: Element von{-1,1} zu minimieren. Dazu werden Methoden aus der linearen Algebra verwendet. Zu dem Koeffizientenvektor x einer linearen Schwellwertfunktion wird für jedes Beispiel d=(w0,...,wn) der Vektor
Griechischer Buchstabe Deltax=-Pjd(d·x-zd )
addiert. Pj bezeichnet dabei die Fehlerkovarianzmatrix, die nach jedem Schritt neu berechnet wird (siehe Brodley und Utgoff, 1995 [->] ) und den Einfluss der Veränderungen kleiner werden lässt. Die RLS ist verhältnismäßig aufwändig, garantiert aber bei linear separierbaren Beispielen ein richtiges Ergebnis (wenn auch eventuell erst nach mehreren Durchgängen).

Es gibt auch einfachere Methoden, die Koeffizientenvektoren einer linearen Schwellwertfunktion oder einer linearen Maschine zu ändern. Um zu erreichen, dass ein bisher falsch klassifiziertes Beispiel in einer binären linearen Maschine richtig klassifiziert wird, kann man zu dem Koeffizientenvektor x der Menge, in die das Beispiel gehört, ein skalares Vielfaches des Beispielvektors d addieren und von dem Koeffizientenvektor y der Menge, der es fälschlich zugewiesen wurde, denselben Korrekturvektor abziehen. Den skalaren Faktor kann man aus der Beziehung (x+cd)*d-(y-cd) *d=0 folgendermaßen herleiten: (x+cd)*d-(y-cd) *d=(x-y)*d+2cd*d und damit
c=-
(x-y)*d
Leere Abbildung mit der der Bruchstrich erzeugt wird
2d*d
Weiter kann man eine kleine positive Zahl Griechischer Buchstabe eta zu dem Faktor hinzuaddieren. Dadurch liegt das Beispiel nicht genau auf der Grenze der beiden Entscheidungsmengen.

Man kann nun sequenziell die Beispiele durchgehen und immer dann, wenn ein Beispiel von der aktuellen Entscheidungsfunktion falsch zugeordnet wird, diese so ändern, dass es richtig zugeordnet wird. Wenn die Mengen der Beispiele aber nicht linear separabel sind, kann dieses Verfahren nicht konvergieren. Man kann aber versuchen, den Einfluss von einigen wenigen Ausreißern zu verringern. Dazu kann man den skalaren Faktor mit einer zeitlichen Dämpfung versehen, sodass die Korrekturen im Laufe des Algorithmus immer geringer werden.

Ein anderes Verfahren wird im Pocket-Algorithmus von Gallant verwendet: Hier werden zunächst alle Koeffizienten auf 0 gesetzt. Mit dieser Entscheidungsfunktion werden dann so lange zufällig ausgewählte Beispiele der Trainingsmenge klassifiziert, bis ein Beispiel falsch klassifiziert wird. Die Anzahl der bis dahin richtig klassifizierten Beispiele wird zusammen mit den Koeffizientenvektoren in der "Pocket" P gespeichert und ein Lernschritt ausgeführt, sodass das fehlerhafte Beispiel richtig klassifiziert wird. Dann werden mit dieser neuen Entscheidungsfunktion wieder zufällig ausgewählte Beispiele klassifiziert, bis ein Fehler auftritt. Ist die Anzahl der so richtig klassifizierten Beispiele größer als die der Funktion, die in P gespeichert ist, wird diese durch die aktuelle Funktion ersetzt. Durch die zufällige Auswahl der Beispiele soll so in einem Hill-Climbing-Prozess eine möglichst gute Entscheidungsfunktion ermittelt werden.

Navigation Zurück ]    [ Inhalt ]    [ Stichwörter ]    [ Feedback ]    [ Home ]
Position im Angebot Information Retrieval -> Wissensgewinnung mit Data-Mining-Methoden -> Kategorisieren -> Multivariate Entscheidungsbäume
Dieser Abschnitt und seine Unterabschnitte
Inhalt Stichwörter in der Reihenfolge ihres AuftretensStichwörter alphabetisch sortiert
2.3.9.2Koeffizientenbestimmung
Methode der kleinsten Fehlerquadrate, Recursive Least Squares, RLS, Skalarprodukt, Pocket-Algorithmus, Trainingsmenge Methode der kleinsten Fehlerquadrate, Pocket-Algorithmus, Recursive Least Squares, RLS, Skalarprodukt, Trainingsmenge

Diese Seiten sind urheberrechtlich geschützt. Die Verantwortung für die Inhalte und die Rechte der Online-Version liegen beim Autor Reginald Ferber, Münster (Westf). Die Rechte der gedruckten Version beim dpunkt.verlag, Heidelberg. Die Weiterverwendung von Texten oder Abbildungen - auch auszugsweise - ist ohne die schriftliche Zustimmung des Autors Reginald Ferber bzw. des dpunkt.verlags nicht gestattet.

Es wird darauf hingewiesen, dass die verwendeten Soft- und Hardware-Bezeichnungen sowie Markennamen und Produktbezeichnungen der jeweiligen Firmen im Allgemeinen warenzeichen-, marken-, oder patentrechtlichem Schutz unterliegen. Alle Angaben und Programme wurden mit großer Sorgfalt kontrolliert. Trotzdem kann keinerlei Haftung für Schäden irgendwelcher Art übernommen werden, die sich im Zusammenhang mit der Nutzung dieser Seiten ergeben.

Diese HTML-Datei wurde am 27-10-2003 erzeugt.