Während eine Grammatik sich vorwiegend mit syntagmatischen Relationen befasst, werden im Lexikon vorwiegend paradigmatische Relationen definiert.
Ein handelsübliches Lexikon kann zum grössten Teil als eine Matrix von Lexikoneinträgen und ihren verschiedenen Attributen (Aussprache, Orthographie, Grammatik, Definition usw.) formalisiert werden. In den Zellen der Matrix sind die Werte der Attribute. Beispiel aus dem Longmans Dictionary of Contemporary English:
spanieln a small or medium-sized short-legged dog with long ears and long wavy hair - see picture at DOG
Diese Informationen ist in Tabelle 3 dargestellt.
Entsprechend können AWS für Einträge formuliert werden:
Im folgenden Mini-Lexikon werden etwas andere AWS verwendet:
{
,
,
}
Diese Einträge geben idiosynkratische semantische Eigenschaften der Wörter spaniel, poodle, bulldog an. Es handelt sich um eine Menge, also haben die Einträge keine besonderen (z.B. alphabetische) Sortierung, im Gegensatz zu einem normalen Lexikon.
Es handelt sich aber nicht nur um idiosynkratische Eigenschaften. Offenbar haben diese Hundearten einige Eigenschaften gemeinsam, beispielsweise das Bellen, die Anzahl der Beine, und die Verhaltensweise, ihre Jungen zu säugen.
Die Generalisierung ist in gewisser Weise das Gegenstück zur Unifikation, indem sie nicht alle verträglichen Informationen verbindet, sondern nur die gemeinsamen Operationen AWS-Paaren herausholt.
Die Generalisierung von spaniel und poodle ist offenbar:
Also:
=
Die Generalisierung C von zwei AWS A und B ist also die grösstmögliche AWS, die sowohl A als auch B subsumiert.
Wenn diese wiederum mit der AWS für bulldog generalisiert wird, entsteht eine noch kleinere AWS:
=
Sollten andere Hundearten aufgenommen werden, so würde sich die Hierarchie entsprechend erweitern lassen.
Auf diese Weise entsteht aufgrund der Generaliserung der AWS eine Generalisierungshierarchie von Objekten, in denen die übergeordneten Objekte die untergeordneten subsumieren (vgl. Abbildung 4).
Diese Art von Hierarchie heißt dementsprechend Typhierarchie, oder auch Subsumtionshierarchie. In der Terminologie der Künstlichen Intelligenz wird auch die Bezeichnung ISA-Hierarchie verwendet, wegen der möglichen Redeweise ``a poodle ISA dog'' (``a poodle is a dog'').
Eine Generalisierungs- bzw. Subsumptions-Hierarchie kann auch semantisch als Netzwerk von Implikationen interpretiert werden:
usw. Die Implikation ist transitiv, so dass aus diesen beiden Implikationen geschlossen werden kann
usw. für alle Elemente in der Subsumtionshierarchie. Daher wird die Subsumtionshierarchie bzw. Typhierarchie auch als Implikationshierarchie bezeichnet.
Die generalisierten AWS (semantisch interpretiert: die generalisierten Informationen, die durch die AWS ausgedrückt werden) können sofort zur Konstruktion eines Synonym/Antonym-Wörterbuchs verwendet werden, wie z.B. in einem Thesaurus.
Die Subsumtionshierarchie von AWS kann aber auch verwendet werden, um ``normale'' Wörderbücher zu erstellen, bei denen generalisierbare Informationen nicht direkt in den Enträgen gespeichert sind sondern mit der Generalisierungsoperation herausabstrahiert und gesondert formuliert werden. So entsteht ein vernetztes Hyperlexikon, wie man sie oft bei online-Wörterbüchern häufig findet. Ein sehr komplexes vernetztes Lexikon ist Wordnet, von Psycholinguisten um George Miller u.a. entwickelt (Websuche!), in denen nicht nur Implikationsrelationen sondern viele andere semantische Relationen definiert werden.
Aber wenn die Information aus den einzelnen Einträgen herausabstrahiert werden, können die Einträge eigentlich verkleinert werden. So entsteht ein kompakteres Lexikon, in denen die Eigenschaften der Einträge vermittels Implikationsoperation inferiert werden.
Die Operation, mit der die nun ``redundanten'' Informationen aus den Lexikoneinträgen herausgeschnitten werden, ist die Differenzoperation. Die Differenz C von zwei AWS A, B ist die grösstmmögliche AWS, die A subsumiert, Generalisierung von B und C die leere AWS ist.
So werden zwei AWS A, B durch Differenzbildung mit ihrer Generalisierung jeweils vereinfacht bzw. verkleinert:
-
=
Mit solchen verkleinerten AWS entsteht ein sehr kompaktes Lexikon.
Eine Hierarchie, deren Knoten solche reduzierte AWS zugewiesen werden, ist streng genommen keine Subsumtionshierarchie, weil die übergeordneten AWS die untergeordneten nicht mehr subsumieren, weil sie ja aufgrund der Differenzoperation disjunkt sind. Sie können nur dann als Subsumptionshierarchie angesehen werden, wenn Operationen angewandt werden, mit denen die vollständig spezifizierten AWS wieder rekonstituiert werden.
Um die Typ-Hierarchie weiterhin als Subsumtionshierarchie zu interpretieren ist es notwendig, geeignete Operationen zu definieren, die die Typen wieder vollständig spezifizieren.
Auch der Nutzer eines solchen Lexikons benötigt, semantisch interpretiert, prinzipiell die vollständigen Informationen über einen Lexikoneintrag und kann mit etwas wie
nicht unbedingt viel anfangen. Wie können also die vollständigen Informationen rekonstituiert werden?
Dieses Problem reduziert sich auf folgende, wohl einfach zu beantwortende
Frage:
Des Pudels Kern lässt sich also durch Unifikation wieder zu einem vollständigen Pudel wieder rekonstituieren...
=
Die Unifikation wird hier, interpretiert als Implikation, als Inferenzregel verwendet: Wenn ein Knoten mit allen ihn subsumierenden, d.h. in der Subsumtionshierarchie übergeordneten Knoten unifiziert wird, entsteht der voll spezifizierte lexikalische Eintrag.
Ein Formalismus, der für die Inferenz nur eine sehr generelle Inferenzregel dieser Art benötigt, wird deklaratriv genannt.
Im Einzelnen wird die Vererbung, wie dieses Verfahren genannt wird, rekursiv definiert:
{
,
,
,
,
,
,
,
,
,
,
}
Zur Diskussion:
Mit der Erläuterung des Aufbaus eines Vererbungslexikon wurden bereits einige einfache Grundlagen formaler Lernmodelle bzw. des maschinellen Lernens eingeführt:
Es gibt, wie Sie wissen, viele Lernstrategien, nicht nur die generalisierende Induktion.