Folgende Themen werden wiederholt und um vier Bereiche erweitert:
Wir werden uns zunächst auf kontextfreie Grammatiken beschrnken.
Einige Sprachen sind endlich, d.h. sind durch endliche Mengen von Ketten darstellbar. Möglicherweise wäre eine solche Sprache die Sprache einfacher Wettervorhersagen, oder eine bestimmte Art alltäglicher Kommunikation, die nur aus Floskeln und festen Redewendungen besteht. Oder die Sprache, die die Silben der deutschen Sprache repräsentiert: Silben haben eine definierbare maximale Länge, die Sprache, die sie repräsentiert, muss daher endlich sein.
Eine endliche Sprache kann im Prinzip aufgelistet werden.
Dennoch kann es sinnvoll sein, eine Grammatik und nicht eine Aufzählung zu benutzen, um Ähnlichkeiten zwischen den Sätzen herauszuabstrahieren, und dadurch einerseits interessante Generalisierungen auszudrücken, andererseits, um eine Vereinfachung der Repräsentation zu erzielen.
Die Chomsky-Hierarchie definiert eine Ordnung über Sprachen und Grammatiken, die auf der Komplexität der Grammatiken beruht und auch eine Aussage über die Eignung verschiedener formaler Grammatik- und Sprachtypen für die Beschreibung verschiedener sprachlicher Strukturen.
Informell ausgedrückt reicht die Skala der Komplexität von der Fähigkeit, lineare, flache Strukturen zu beschreiben (Typ-3-Grammatiken) über die Fähigkeit, baumgraphische Strukturen zu beschreiben (Typ-2-Grammatiken) und die Fähigkeit, Graphiken mit Koindizierung zu Beschreibung (Typ-1-Grammatiken) bis hin zu den mächtigsten Grammatiken, die beliebige Strukturen beschreiben können (Typ-1-Grammatiken).
Grammatiken sind in jedem Fall Quadrupel <V,T,P,S> (unterschiedliche Buchstaben werden in der Literatur verwendet):
Konventionell werden die Elemente von T mit Kleinbuchstaben, die Elemente von N mit Großbuchstaben dargestellt.
Die Unterschiede zwischen den Grammatiktypen sind in der Definition der Struktur der Produktionsregeln zu finden.
Die Regelmenge P enthält Regeln folgender Typen:
Die Regelmenge P enthält Regeln folgender Typen:
Die Regelmenge P enthält Regeln folgender Typen:
Die Regelmenge P enthält Regeln folgender Typen:
Die Regelmenge P enthält Regeln folgender Typen:
Die Regelmenge P enthält Regeln folgender Typen:
Die Regelmenge P enthält Regeln folgender Typen:
Eine Grammatikregel
baut auf 2 Operationen auf:
Diese beiden Operationen werden in der Linguistik eingesetzt, um zwei verschiedene syntagmatische Relationen zu modellieren:
Neuere Grammatiktheorien trennen scharf zwischen diesen beiden Operationen, und ebenso zwischen den beiden linguistischen Interpretationen der Operationen. Grammatiken, die diese Trennung machen, heißen ID/LP-Grammatiken.
Eine kontextfreien Grammatik G mit den Regeln
wäre dann detaillierter anzugeben, z.B. in der Form:
Hier wird das Symbol
verwendet, um eine ungeordnete Reihung zu
repräsentieren, und
, um die lineare Präzedenz anzugeben.
Die lineare Präzedenzbedingung stellt eine Art Filter da, der aus allen möglichen Anordnungen nur eine relevante Reihenfolge (oder auch mehrere) herausfiltert.
Auch hier könnte man die Mobile-Analogie verwenden, um die fehlende Anordnung zu illustrieren.
Die Symbole einer konventionellen formalen Grammatik haben relativ simple linguistische Interpretationen als einfache linguistische Kategorien.
Aber linguistische Kategorien können auch komplex sein, wie z.B. in den Fällen, die durch komplexe Attribut-Wert-Strukturen ausgedrückt werden.
Komplexe Symbole wurden bereits vor knapp 40 Jahren (1965) in die Grammatiktheorie eingeführt, um die komplexen Kategorien und Bedingungen zu beschreiben, unter denen lexikalische Einheiten (Wörter) in Sätzen vorkommen können. Vor allem seit ca. 1980 wird diese Idee zunehmend generalisiert. Grammatiken, die in ihren Regeln komplexe Symbole verwenden, heißen Merkmalsgrammatiken.
Beispiel:

Die bekannte Mobile-artige-Struktur von Attribut-Wert-Strukturen wird hier direkt eingesetzt, um die nichtgeordnete RHS der Regel darzustellen.
Hinzu kommt eine LP-Bedingung, auf die hier nicht weiter eingegangen wird. Eine solche Grammatik ist HPSG, die als letztes Thema besprochen werden soll.
Die Umformulierung als AWS wird konventionell noch weiter getrieben, indem auch die Pfeil-Operation mit einbezogen wird:

Effektiv hat man hier eine Unifikation der LHS und der RHS durchgeführt.
Wenn eine linguistische Relation auch als Funktion definiert werden kann, eignen sich Attribute, um sie auszudrücken.
Hierbei haben sich zwei Einsatzbereiche für Attribute herausgebildet: