ZURÜCK

4.2.11.1: Fenstertechnik

Zunächst wird mit einer kleinen Teilmenge der Beispiele - einem Fenster - als Trainingsset ein Lerndurchgang berechnet. Dann werden weitere Beispiele des Trainingssets mit dem so gewonnenen Algorithmus kategorisiert. Die Beispiele, bei denen die Kategorisierung nicht stimmt, werden zu dem Trainingsset hinzugefügt. Anschließend wird ein neuer Lerndurchgang gestartet. Auf diese Weise soll die Anzahl der Beispiele, die der Algorithmus richtig kategorisiert hat, vergrößert werden. Es kann aber natürlich vorkommen, dass nach dem Hinzufügen von neuen Beispielen zum Trainingsset Beispiele, die nicht im ursprünglichen Trainingsset lagen, aber richtig kategorisiert worden waren, nicht mehr richtig kategorisiert werden.

Als Beispiel kann man annehmen, dass das Trainingsset inkonsistent ist, also zwei Tupel s und t exisitieren, wie sie in Gleichung ( _4.2.9_ ) definiert wurden, die nicht im zunächst gewählten Fenster liegen. Falls s durch den im ersten Durchgang berechneten Algorithmus richtig kategorisiert wurde und t falsch, wird t im ersten kategorisierenden Kontrolldurchgang durch das Trainingsset zur Menge der Beispiele, aus denen der Algorithmus gelernt wird, hinzugefügt. Dadurch kann s durch den daraus konstruierten, neuen Algorithmus nicht mehr richtig kategorisiert werden. Wird ein weiterer Kontrolldurchgang durchgeführt, wird sich die Inkonsistenz zeigen. Solche Effekte können bei mehreren inkonsistenten Beispielen mit identischen Werten auf den vorhersagenden Attributen noch komplexer werden.

Insgesamt dient die Fenstertechnik dazu, die "schwierigen" Beispiele im Trainingsset zu finden. Dadurch wird das Trainingsset im Allgemeinen nicht mehr für die Grundmenge repräsentativ sein. Insbesondere wenn das Trainingsset nur einen kleinen Ausschnitt aus einer großen Menge möglicher Wertekombinationen darstellt, können dadurch Verzerrungen bei den Ergebnissen des Lernens auftreten, die die Effizienz der gefundenen Algorithmen beeinträchtigen.


ZURÜCK

© 2000 / HTML-Version 14. 1. 2000: R. Ferber