Habel stellt schon am Anfang klar, daß er mit dem Begriff ,,Lexikon`` nicht nur ein Wortformenverzeichnis, sondern eine Repräsentation der in der natürlichen Sprache verwendeten Begriffe meint. Für gute Lexika gibt es viele Anwendungsgebiete, aber oft beeinflußt auch das Anwendungsgebiet die Form und den Umfang der Lexika. Zwei der Informatik entnommene Annahmen sind dem Autor wichtig: daß 1. sprachliche Prozesse informationsverarbeitend und 2. sprachliche Phänomene durch sprachlicher Prozeduren zu erklären sind. Um aber das Ganze auf einem Computer laufen zu lassen, muß man es formalisieren, was eine Beschränkung sein kann. Weil kognitive Prozesse wissens- bzw. informationsbasiert sind, also durch Wissen gesteuert werden, muß u. U. auch Weltwissen oder Erfahrungswissen in die Sprachverarbeitung einfließen.
In der Sprachverarbeitung muß es eine wohldefinierte Beziehung zwischen den Ausdrücken und ihren Bedeutungsrepräsentationen geben. Die Produktion sowie das Verstehen natürlicher Sprache wird durch Vorwissen gesteuert - bei unterschiedlichem Vorwissen können unterschiedliche Bedeutungsrepräsentationen entstehen. Vor allem Tilgungsvorgänge und umgekehrt das Auffüllen von Lücken wird durch das Vorwissen des Systems gesteuert.
Habel teilt nun Wissen grob in drei Klassen ein: Er stellt semantisches dem episodischen Wissen gegenüber, und teilt das semantische in lexikalisches und enzyklopädisches Wissen auf (siehe Abbildung 2.1). Episodisches Wissen bezieht sich auf einzelne Situationen oder autobiographische Erfahrungen, wohingegen lexikalisches Wissen das Wissen von Wörtern und Bezeichnungen und enzyklopädisches Wissen das Wissen um Kategorien und Einordnungsmöglichkeiten beinhaltet. Weil aber diese drei Arten des Wissens oft zusammenspielen, kann man sie nicht gut voneinander getrennt behandeln. Vor allem die Auflösung von Mehrdeutigkeiten beruht meist auf mehr als einer Wissensklasse. Danach zeigt Habel dieses Dilemma anhand der Sätze ,,Flying planes can be dangerous`` versus ,,Flying bees can be dangerous`` und ,,Müllers sahen die Alpen, als sie nach Süden flogen`` versus ,,Müllers sahen die Kraniche, als sie nach Süden flogen``, und macht einige Lösungsvorschläge, z. B. bei Verben die Agenten anzugeben, oder die Verwendung von Features zur Kennzeichnung von möglichen Objekten. Auch das Erkennen von temporalen und kausalen Bezügen ist abhängig vom Weltwissen - durch das Wort ,,weil`` erkennt der Leser eine Kausalbeziehung und formuliert eine Kette von Bezügen, die je nach Wissen unterschiedlich lang ist.
Schließlich erwähnt der Autor noch die Unterscheidung von prozeduralem und deklarativem Wissen, also Wissen, wie und Wissen, daß. Diese Unterscheidung kann man auch bei der Programmierung von Systemen treffen - man kann entweder alle Daten in Listen verpacken oder mit Prozeduren ausstatten. Zur Auswahl des Wissens im nächsten Schritt wird das Kontrollwissen verwendet. Es steuert außerdem die Suche und Inferenz des nötigen Wissens. Die beiden Vorgehensweisen prozedurale vs. deklarative Repräsentation von Wissen haben unterschiedliche Vor- und Nachteile. Bei deklarativen Wissenssystemen kann man flexibel und ökonomisch arbeiten, weil der Prozeßablauf nicht im voraus geplant werden muß und das Kontrollwissen ist nur implizit vorhanden. Aber wenn man es übertreibt und alles als Daten betrachtet, wird diese Vorgehensweise ineffizient, weil man immer neu feststellen muß, welches Wissen relevant ist. Bei prozeduralem Wissen gibt man das Kontrollwissen explizit an und kann bei jeder Wissenseinheit einen Verweis auf relevantes Wissen geben. Idealerweise verbindet man die beiden Vorgehensweisen jedoch.
Im Abschnitt ,,Wissensrepräsentation`` stellt Habel einige Ansätze aus der
Wissensrepräsentation vor. Zunächst erklärt er semantische Netze,
netzartige Ontologien, die mit is-a
- und has-prop
-Kanten
arbeiten. Bei diesen ist die Organisation wichtig. Innerhalb des Netzes gibt es
eine Klassenhierarchie und Vererbungsmöglichkeiten, wobei Vererbung
auch blockiert werden kann. Er erläutert das Konzept des ,,semantischen
Abstands`` - eine Eigenschaft wird über mehrere Kanten vererbt, und ist
deshalb nicht so präsent wie unmittelbar vererbte Eigenschaften. Um
Redundanz zu vermeiden, sollte man Konzepte bzw. has-prop
-Kanten am
höchstmöglichen Knoten zuordnen, aber Explizitheit, Relevanz oder Häufigkeit
einer Eigenschaft führen manchmal zur redundanten Zuordnung - hier wird die
Debatte zwischen Speicherungsökonomie und Verarbeitung-
bzw. Inferenzökonomie erwähnt. Außerdem gibt es Konzepte, die Individuen
entsprechen, (wie z. B. der Papagei ``Klara'' als Konzept-Knoten bei
``Vogel'') sowie generische Konzepte, die durch gewisse charakteristische
Eigenschaften bestimmt werden - diese Konzepte beziehen sich meist auf
Weltwissen.
In diesem Zusammenhang erwähnt Habel auch die Conceptual-Dependancy-Theorie von Schank, und gibt seine Beispiele in dieser Notation wieder. Mit Hilfe dieser Skizzen findet er vier Bedeutungen des Wortes ,,fliegen``, so daß er die oben erwähnten Beispielsätze unterscheiden kann. Allerdings erwähnt er auch das Problem, daß man sich bei semantischen Netzen in Details verstricken kann, oder, wenn man Verweise zwischen Knoten ermöglicht, zu viele Knoten als ,,Bedeutung`` eines einzelnen Knotens erhalten kann.
Die nächste Theorie, die erwähnt wird, ist die Schema-Theorie, mit der Ereignisse und Abläufe beschrieben werden. Die bekanntesten Ansätze hierzu sind Scripts und Frames, die gleich erläutert werden. Wenn man ein passendes Schema gefunden hat, kann man Variablen o. ä. belegen, mögliche Folgen inferieren und evtl. Erwartungen erzeugen. Auch hierbei gibt es Vererbungsmöglichkeiten.
Bei Frames gibt es zwei Arten von Objekten: Slots und Filler. Slots sind die
Eigenschaften bzw. Parameter, die ein Frame haben kann, Filler die
aktuellen Belegungen dieser Slots. Dabei gibt es Default-Belegungen und
Methoden, die beim Belegen von Slots ausgeführt werden: if-needed
, falls
ein Slot interessant oder notwendig ist, if-added
, falls ein Slot
tatsächlich ausgefüllt wird.
Im Gegensatz zu Frames sind Scripts ereignisorientiert. Wichtig sind dabei die beteiligten Rollen bzw. Individuen, die Eingangsbedingungen und Ergebnisse sowie der Ereignisablauf. Mit Tracks kann man ein Script je nach Situation und Belegung in verschiedene Abläufe aufteilen. Schlüsselbegriffe weisen auf das richtige Script hin, dies können z. B. Scriptnamen, Tracks oder Rollen sein. Nach einem kurzen Beispiel erwähnt der Autor Erweiterungen der Script-Theorie mit Plänen und Zielen.
Die Bedeutung eines Wortes innerhalb der Schema-Theorien ist mit dem Schema und den dadurch aktivierten Schemata gegeben. Habel erläutert nun kurz, daß man die vorgestellten Systeme zum einen deklarativ sehen kann, als Abart der Prädikatenlogik. Aber auch eine prozedurale Sichtweise ist möglich, z. B. wegen der if-added und if-needed-Mechanismen bei Frames. Dann erläutert er die Unterschiede bezüglich Vollständigkeit und Konsistenz bei deklarativem und prozeduralem Vorgehen. Zur Konsistenz erwähnt er kurz die Defaultlogik, die nicht-monotones Schließen benutzt und mit ihren Default-Regeln auch ein interessanter Ansatz für die Lösung von Problemen wie dem Pinguin-Problem ist. (Kurz: Vögel können fliegen, und Pinguine sind Vögel, also können Pinguine fliegen.)
Im vorletzten Teil geht Habel noch kurz auf offene Probleme ein: so ist manchmal bildhaftes Wissen vonnützen, oder das implizite Wissen um die notwendige und hinreichende Inferenztiefe abhängig vom Interesse bzw. der Relevanz des Schlusses. Auch erwähnt er, daß aus der Linguistik oder der Psychologie interessante Ansätze zur Wissensrepräsentation kommen.
Schließlich betont der Autor in der Zusammenfassung noch einmal, daß bei der Verarbeitung natürlicher Sprache das Lexikon sowohl deklarativ als auch prozedural sein sollte, und auch beim Abruf von Einträgen gewisse Prozesse starten könne sollte. Die Trennung von verschiedenen Wissenskategorien ist nicht praktikabel, da oft mehrere Arten von Wissen gebraucht werden. Schließlich betont er nochmals seine Grundannahme: die Verknüpfung der Lexikographie mit der Wissensrepräsentation.