Untersuchungen, die mit Kookurrenzdaten arbeiten, wurden bereits Anfang der 1960er Jahre durchgeführt (Giuliano & Jones, 1963 [->]). Seitdem ist das Thema immer wieder aufgegriffen, häufig aber als nicht erfolgreich bewertet worden (Salton & Buckley 1988 [->], Peat & Willett 1991 [->]). Ein grundsätzliches Problem des Ansatzes ist der große Bedarf an Rechenkapazität und Speicherplatz sowie die Notwendigkeit, für die Bestimmung der Kookurrenzdaten große Korpora zur Verfügung zu haben, um brauchbare Schätzungen für die Wahrscheinlichkeiten des gemeinsamen Auftretens von Termen zu gewinnen (Gale & Church, 1990 [->]).
Formal lassen sich Kookurrenzmodelle auf mehrere Arten herleiten. Zunächst greifen wir auf die Definition des Vektorraumodells in Abschnitt _3.4.1_ zurück. Dort waren die Dokumente einer Sammlung D={d1,...,dm} als Vektoren wi=(wi,1,...,wi,n) über den Termen T={t1,...,tn} oder den Attributen A={A1,...,An} definiert worden, wobei der Eintrag wi,j in einem Dokumentvektor die Wichtigkeit des Terms tj im Dokument di , bzw. den Wert des Attributes Aj(di) angab. Diese Vektoren kann man als Zeilen einer Term-Dokument-Matrix
Die direkte Anwendung von Machine Learning Verfahren auf den Term-Dokument-Matrizen wie in dieser Studie sind allerdings die Ausnahme. Im Allgemeinen werden Term-Dokument-Matrizen dazu verwendet, Ähnlichkeiten zu berechnen. Für Ähnlichkeiten zwischen Dokumenten wurde das im Abschnitt _3.4_ über Vektorraummodelle beschrieben. Aus diesen Verfahren lassen sich nicht unmittelbar Regelmäßigkeiten der Dokumentsammlung ablesen. Verfahren zur Berechnung von Ähnlichkeiten zwischen Termen können aber als Methoden der Regelextraktion gesehen werden: ihre Ergebnisse geben Auskunft über die Verwendung von Termen in den Dokumenten der Sammlung und können in eine für Nutzende verständliche Form gebracht werden.