Instruktionsgrammatik

Zusammenfassung von "Der Mensch und seine Grammatik. Eine historische Korpusstudie in anthropologischer Absicht" (2020)

Welchen Stellenwert hat die Kenntnis einer Grammatik für unser menschliches Selbst- und Weltverhältnis? Und wofür braucht es Grammatik überhaupt, wenn grammatische Mehrdeutigkeit ohnehin meist unbemerkt bleibt und selten ein Verstehensproblem darstellt? Im vorliegenden Buch präsentiere ich eine empirisch fundierte anthropologische These, die auf diese Fragen eine umfassende Antwort gibt. In vier Kapiteln entwickle ich anhand konkreter Phänomene eine Perspektive auf das sprachliche und nichtsprachliche Verstehen, die sowohl der leiblichen Existenz des Menschen als auch der Grammatizität seiner Sprache Rechnung trägt.

 

 

 

Kasper, Simon (2020):

Der Mensch und seine Grammatik. Eine historische Korpusstudie in anthropologischer Absicht.

Tübingen: Narr.

Das erste Kapitel (ca. 25 S.) beginnt mit der Beobachtung, dass die Eindeutigkeit sprachlicher Äußerungen im Grunde einen Ausnahmefall darstellt, nämlich wenn man ihr die prinzipiell vielfältige Ausdeutbarkeit aller Ereignisse entgegenhält, mit denen wir in der nichtsprachlichen Wirklichkeit konfrontiert sind, ganz zu schweigen von Fällen sprachlicher Mehrdeutigkeit. Dabei stellen Mehrdeutigkeit und Ausdeutbarkeit von Ereignissen für uns aber in der Regel gar keine praktischen Probleme dar und werden in den seltensten Fällen überhaupt bemerkt. Warum uns das Verstehen im Angesicht der Mehrdeutigkeit so mühelos gelingt, stellt also zunächst die Kernfrage dar. Hierin werden bereits die späteren anthropologische Thesen vorgebahnt: Um den Begriff des Interpretierens und Verstehens lebensweltlich zu verankern, mache ich deutlich, dass unsere Interpretationen von Wahrgenommenem stets an unserem Verhalten und Handeln ausgerichtet sind und kognitive und leibliche Aktivitäten in einem wechselseitigen Dienstverhältnis stehen. Wie wir etwas deuten, hängt unter anderem davon ab, ob und inwiefern es relevant für unsere Handlungspläne ist (Pertinenz) oder ob es von sich aus unsere Aufmerksamkeit auf sich zieht, weil es vitale Bedeutung für uns hat (Salienz). Ich präsentiere die Hauptthese des Buchs und skizziere die dazugehörige Korpusstudie in ihren Eckdaten. Die These besagt, dass mehrdeutige sprachliche Äußerungen allein (!) dadurch richtig verstanden werden können, dass sich Interpret·innen an den relativen Belebtheitswerten der Ereignisteilnehmer·innen orientieren, die sich diesbezüglich hierarchisch ordnen lassen („Belebtheitshierarchie“). Die Hypothese wird an Bibelübersetzungen aus der englischen und deutschen Sprachgeschichte überprüft, da nur für solche Paralleltexte auch sicher ist, welche die richtige Interpretation der darin vorkommenden mehrdeutigen Äußerungen ist. Ich beende das Einleitungskapitel mit dem Plan für den Rest des Buches und der Vorstellung der Bibeltexte.

 

Das zweite Kapitel (ca. 150 S.) startet mit der Erörterung, wie es überhaupt möglich ist, dass jemand seine privaten Vorstellungen mittels Sprache so öffentlich machen kann, dass sie für jemand anderes bezüglich ihrer „Eckdaten“ – Was steht womit in welcher Beziehung? – aus der Äußerung herausgelesen werden können. Aus dieser gewissermaßen naiven Perspektive heraus entwickle ich den Begriff einer überindividuellen sprachlichen „Eigenstruktur“ (= Grammatik), die in einem komplexen Spannungsverhältnis zur vorsprachlichen und individuellen Vorstellungswelt des Menschen steht. Sprachen bedienen sich dieser vorsprachlichen Vorstellungswelt, da sprachliche Äußerungen theoretisch als „Instruktionen“ begriffen werden können, sich etwas vorzustellen. Bestimmten Merkmalen der sprachlichen Eigenstruktur kommt hierbei eine besondere instruktive Bedeutung zu: grammatische Morpheme (Kasus, Kongruenz) und grammatikalisierte Reihenfolgeregelungen. Sie dienen Interpret·innen als instruktive Hinweise darauf, wie sie ihre durch Lexeme ausgedrückten Vorstellungen zu einer komplexen Vorstellung zusammenfügen sollen. Ich illustriere an sprachlichen Beispielen, auf welche Weise die eigenstrukturellen Hinweise zu sprachlicher Eindeutigkeit führen, nämlich dann, wenn sie als instruktive Hinweise verfügbar und aussagekräftig sind. Fehlende Aussagekraft (etwa durch Synkretismus) oder Unverfügbarkeit morphologischer Markierungen bzw. syntaktischer Regelungen führen entsprechend dazu, dass Äußerungen nicht eindeutig zum Aufbau von Vorstellungen instruieren. Die Beziehung der eigenstrukturellen Hinweise zueinander diskutiere ich anschließend im Forschungsüberblick vor dem Hintergrund der untersuchten Sprach(stuf)en. Hier kommen sprachhistorische, psycholinguistische und methodische Aspekte zur Geltung. In der Korpusstudie untersuche ich dann die Ausprägung der eigenstrukturellen Hinweise in den einzelnen Sprachstufen. In allen Sprach(stuf)en ergeben sich nicht unerhebliche Anteile an grammatisch mehrdeutigen Äußerungen – bis zu ¼ aller untersuchten Sätze. Damit sind zunächst die Voraussetzungen der Hypothese erfüllt. Im Zuge der jeweiligen Sprachgeschichten nehmen die Mehrdeutigkeiten zudem zu. Dennoch sind die Äußerungen für die jeweiligen Muttersprachler·innen problemlos richtig interpretierbar.

 

Dies leitet ins dritte Kapitel über (ca. 50 S.): Nachdem ich die eigenstrukturellen Hinweise Morphologie und Reihenfolge sprachhistorisch zunehmend als unverfügbar und nicht aussagekräftig für die Interpretation ausgewiesen habe, eruiere ich hier, warum es Interpret·innen in der Regel unbewusst und mühelos gelingt, mehrdeutige Äußerungen richtig zu verstehen und welche „außergrammatischen Hinweise“ sie auf Satzebene heranziehen könnten, damit ihnen dies gelingt. Unter mehreren Kategorienkandidaten ermmittle ich die Belebtheit und die Akzessibilität von Referenten als die vielversprechendsten heraus. Ich präsentiere zunächst überblicksartig, aber an konkreten Phänomenen bekannte Effekte dieser Kategorien in der Sprache, um dann im zweiten Teil der Korpusanalyse die Hypothese im engeren Sinne zu testen. Es stellt sich heraus, dass Belebtheit der zuverlässigere Hinweis auf die richtige Interpretation ist als Akzessibilität, aber dennoch in einigen Fällen in die Irre führt. Daraufhin entwickle ich eine revidierte Hypothese, in der ich Belebtheitsinformationen mit (nicht grammatikalisierten) Reihenfolgehinweisen auf bestimmte Weise kombiniere. Die revidierte Interpretationsstrategie erweise ich dann im dritten und letzten Teil der Korpusanalyse als die effektivste: Ohne es zu merken, also automatisch oder routinisiert, können Interpret·innen mehrdeutige Äußerungen in über 95% der Fälle als richtig interpretieren, indem sie außergrammatische Belebtheits- und Reihenfolgehinweise als instruktiv behandeln.

 

Ein Konferenzbeitrag, der einige Ideen des Buches in (zu) knapper Form enthält

 


Im vierten Kapitel (ca. 80 S.) präsentiere ich dann eine anthropologische Skizze, in deren Rahmen ich eine Erklärung für die Wirksamkeit der Belebtheits- und Reihenfolgehinweise in der sprachlichen und nichtsprachlichen Interpretation anbiete. Vor dem Hintergrund meiner anthropologischen Erklärung erfolgt dann zuletzt die Neuinterpretation der Grammatik im menschlichen Selbst- und Weltverhältnis. Für die beiden Teilschritte führe ich verschiedene theoretische Linien auf Basis konvergierender Evidenz zusammen:

 

‒ den Weltoffenheitsgedanken und den Entlastungsgedanken der Philosophischen Anthropologie, nach denen der Mensch in seinen motorischen und Wahrnehmungsmöglichkeiten im Gegensatz zum Tier nicht fixiert ist, sich in der Folge aber durch Hand, Auge und Sprache von der phänomenalen Überbelastung entlasten muss;

 

‒ den Simulations- und den Instruktionsgedanken aus dem zweiten Kapitel, nach denen sprachliche Äußerungen jemandes Instruktionen sind, damit jemand anderes sich etwas vorstellt, und Vorstellungen simulierte Wahrnehmungen sind;

 

‒ den Uexküll’schen Funktionskreis, den ich in Anwendung auf den Menschen in einen salienzbasierten Verhaltenskreis und einen pertinenzbasierten Handlungskreis differenziere, wobei Ersterer in Letzeren eingebettet ist;

 

‒ den Gedanken, dass der Mensch ein prädiktives Wesen ist und, um sein Wohlergehen und seine Handlungsfähigkeit zu sichern, jederzeit seine Wahrnehmungen automatisch dahingehend auswertet, was als nächstes passieren wird; und zuletzt

 

‒ die Hierarchisierung von Lernformen, derzufolge beim Menschen solche Aktivitäten, die auf höheren Lernformen (z.B. operante Konditionierung) beruhen, andere Aktivitäten, die auf niedrigeren Lernformen (z.B. Instinktverhalten) beruhen, überformen können.

 

Daraus ergibt sich das folgende Bild: Die Äußerungen anderer stellen für Interpret·innen Widerfahrnisse dar; sie erwarten vielleicht, mit Äußerungen konfrontiert zu werden, sie kennen aber im Vornherein nicht die simulierten Wahrnehmungen, zu denen sie instruiert werden. Die simulierten Wahrnehmungen sind somit salient für sie. Weil Menschen aber jederzeit so schnell wie möglich die Ursache eines Ereignisses zu identifizieren trachten – gleich, ob es sich um wirklich wahrgenommene oder sprachlich vermittelte, simulierend wahrgenommene Ereignisse handelt –, machen sie instinktiv von den entsprechenden Hinweisreizen Gebrauch. Dies sind bei grammatisch mehrdeutigen Äußerungen: genau die Belebtheits- und Reihenfolgehinweise, die sich in der Korpusstudie als effektiv erwiesen haben. Hohe Belebtheit und frühes Auftreten sind inner- und außerhalb der Sprache Hinweise auf (Ver)Ursache(r·inne)n von Ereignissen. Sie zu identifizieren hat vitalen Wert für den Menschen, weil ein Ereignis zu simulieren in phänomenaler Hinsicht gleichrangig damit ist, das Ereignis tatsächlich wahrzunehmen: Die eigenen vitalen Funktionen und die Handlungsfähigkeit müssen in beiden Fällen maximiert werden. Daher erfolgt die richtige Interpretation auch unbewusst und mühelos, kurz: automatisch, und bedarf keiner besonderen Deutungsarbeit. Die Wirksamkeit der außergrammatischen Hinweise gehört zum vorsprachlichen humanökologischen Unterbau. Damit sind die Effekte, die in der Hypothese behauptet wurden, erklärt.

 

Die funktionale Neueinordnung der Grammatik ergibt sich, indem man den Blick nun vom menschlichen Umgang mit Mehrdeutigkeit wieder auf seinen Umgang mit Grammatik richtet, d.h. wenn man die eigenstrukturellen Hinweise Morphologie und grammatikalisierte Reihenfolgeregelungen wieder in den Blick nimmt: Die Erwartung, dass höhere Belebtheit und frühere Position mit den (Ver)Ursache(r·inne)n von Ereignissen korrelieren, tragen Interpret·innen nicht nur in die Interpretation grammatisch mehrdeutiger, sondern auch in die Interpretation grammatisch eindeutiger Äußerungen mit hinein. Damit aber werden die außergrammatischen und die eigenstrukturellen Hinweise zu konkurrierenden Reizen. Die eigenstrukturellen Hinweise können außergrammatisch motivierten Erwartungen, die sich aus der Konstitution des Menschen und seinem Weltverhältnis ergeben, entweder bestätigen oder ihnen widersprechen. Der entscheidende Punkt dabei: Eigenstrukturelle Hinweise sind gegenüber außergrammatischen Hinweisen stets verbindlicher. Sie haben also Stattgabe- bzw. Vetopotenzial diesen gegenüber. Der Grund dafür ist, dass eigenstrukturelle Hinweise anders gelernt werden. Ihren Instruktionen zu folgen, beruht auf operanter Konditionierung, während die Instruktivität der außergrammatischen Hinweise instinktiv ist. Erstere sind ontogenetisch erworben, Letztere phylogenetisch ererbt. Höhere Lernformen wie Konditionierung haben aber (beim Menschen) gegenüber niedrigeren wie dem Instinkt Vetopotenzial. Ohne das Veto würden die instinktiven Prozesse einfach „durchlaufen“. So aber können die höheren Lernformen das Instinktverhalten hemmen. Entsprechend rekonstruiere ich den Menschen als animal symbolis interveniens: als Lebewesen, das mittels grammatischer Zeichen gegen die Suggestionen aus seinem Inneren intervenieren kann.

 

Auf diese Weise führe ich im Buch die Einsichten der symbolphilosophischen (Bühler, Cassirer, Schwemmer) und philosophisch-anthropologischen (Plessner, Gehlen) Sprachtheorien mit zentralen Ergebnissen der modernen empirischen Linguistik zur Grammatik und Interpretation zusammen. Am Ende steht eine anthropologische Neueinordnung von Grammatik und Sprachverstehen – ein linguistisch-anthropologischer Entwurf, der zugleich die Sprachtheorie der Philosophischen Anthropologie bis ins grammatische Grundgerüst der Sprachen hinein vertiefend wiederaufnimmt und der modernen gebrauchsbasierten kognitiven Linguistik den anthropologisch-erkenntnistheoretischen Unterbau anbietet, der ihr bislang fehlt.



Zusammenfassung von "Instruction Grammar. From Perception via Grammar to Action" (2015)

Das Ziel der Arbeit ist es, eine Diskussion über das Wesen der sprachlichen Kompetenz anzustoßen, die sowohl linguistisch als auch philosophisch, psychologisch, soziologisch und neurowissenschaftlich plausibel ist. Es wird gezeigt, dass das Verhältnis zwischen Syntax und Semantik in vergleichbarem Maße durch kultürliche und natürliche Faktoren bestimmt ist. Eine der zentralen Thesen lautet, dass sprachliche Äußerungen konventionell konzeptuelle und nicht-konzeptuelle Inhalte kodieren, wobei konzeptuelle Inhalte letztlich aus der Struktur der Wahrnehmung abgeleitet werden können (Konzepte simulieren Perzeptionen) und nicht-konzeptuelle Inhalte ihren Ursprung in soziokulturell verorteten, internalisierten Handlungs- und Zuschreibungspraxen haben, die innerhalb einer Kultur ausgeübt werden. Letztgenannte Inhalte nehmen die Form deklarativen Wissens an.



Die durch die Struktur der Wahrnehmung bestimmte Struktur von Konzepten wird als unterspezifiziert hinsichtlich handlungs- und zuschreibungsbezogener Aspekte angenommen. Das heißt, dass speziell Begriffe wie Intentionalität, Agentivität, Volitionalität etc. nicht aus der Wahrnehmung abgeleitet werden können, sondern sich aus soziokulturellen Praxen ergeben. Das deklarative, handlungs- und zuschreibungsbezogene Wissen von Sprachbenutzern muss also auf Konzepte angewandt werden, um diese zu spezifizieren. Anders formuliert: Ihre praktische Relevanz erhalten Wahrnehmungen und Konzepte immer erst vor dem Hintergrund von internalisiertem handlungs- und zuschreibungsbezogenen Wissen. Für die Sprache heißt dies nun, dass sie selbst unterspezifiziert ist, wo sie konzeptuelle Inhalte kodiert. Nur dort, wo eine sprachliche Form auch handlungs- und zuschreibungsbezogene Aspekte kodiert, ist sie nicht unterspezifiziert.

 

Die sprachlichen Phänomene, an denen das oben Genannte gezeigt und auf die es angewendet werden soll, sind die weithin bekannten sog. Argumentalternationen wie Aktiv-Passiv, Dativalternation, Lokativalternation, Unakkusativ- vs. Unergativalternation, Konativalternation, Agens/Patiens-Shift und andere. Diese Phänomene illustrieren Asymmetrien im Verhältnis von Syntax und Semantik, die das Erklärungsziel zahlreicher existierender „Linking-Theorien“ sind. Drei erkannte Desiderate strukturieren die Arbeit:

 

1. Die Implikationen einer kultürlichen und natürlichen Herleitung der Fähigkeit, wohlgeformte und situationsadäquate Äußerungen zu erkennen, zu verstehen und zu produzieren weisen die bestehenden Erklärungsparadigmen als problematisch aus: Die sog. Kognitiv-Funktionale Linguistik beschränkt sich auf die individuelle Kognition und lässt die in soziokulturellen Praxen erworbenen Handlungs- und Zuschreibungskompetenzen außer acht. Die Chomsky’sche Linguistik beschränkt sich unter Zuhilfenahme diverser Idealisierungen und Gegenstandshomogenisierungen auf die Erklärung von syntaktischer Wohlgeformtheit und lässt sowohl die überindividuellen Handlungs- und Zuschreibungsprozesse als auch die Frage nach situationell angemessener Sprache außer acht. Daher muss ein gegenstandsadäquates, neues Forschungsprogramm formuliert werden, das diese Verkürzungen behebt.


 

 

 

Kasper, Simon (2015):

Instruction Grammar. From Perception via Grammar to Action.

Berlin/Boston: De Gruyter (Trends in Linguistics. Studies and Monographs 293).


2. Die bestehenden Theorien in den genannten Forschungsprogrammen bedienen sich bei der Modellierung semantischer Inhalte Prädikat-Argument-Strukturen. Diese haben ihren Ursprung in philosophischen Programmen, die das Ziel hatten, die Unzulänglichkeiten natürlicher Sprachen durch Formalisierung zu beseitigen. Dennoch haben sie ihren Weg in die moderne Linguistik gefunden und fungieren dort als semantische Beschreibungen des sprachlichen Wissens von Sprachbenutzern. Diese Übernahme des Beschreibungsinstrumentariums unter Außerachtlassung seiner forschungsprogrammtischen Einbettung ist problematisch. Es muss ein semantisches Beschreibungsinstrumentarium gefunden werden, das aus psychologischer, philosophischer und soziologischer Perspektive der Kompetenz von Sprachbenutzern, wohlgeformt und situationsadäquat zu kommunizieren, gerecht wird.

 

3. Ein Begriff, der seit jeher eine große Rolle in Theorien über das Verhältnis von Syntax und Semantik spielt, ist der der thematischen Rollen. Dabei kann gezeigt werden, dass die postulierten Rollen ihren Ursprung in raum-zeitlichen sowie handlungsbezogenen Domänen haben. Dennoch werden die beiden Rollentypen zumeist gleich behandelt. In der vorliegenden Arbeit wird jedoch gezeigt, dass die raum-zeitlichen Rollen aus der physischen und kognitiven Konstitution von Sprachnutzern abgeleitet werden kann, nämlich aus der Funktionsweise von Perzeption und Konzeptualisierung. Die handlungsbezogenen Rollen dagegen haben ihren Ursprung in den Handlungs- und Zuschreibungspraxen, an denen Personen partizipieren. Während also die erstgenannten Rollen letztlich eine natürliche und über Kulturen und Sprachgemeinschaften hochgradig ähnliche Basis verfügen, variieren die Bedingungen der handlungsbezogenen Rollenzuweisungen kulturell in Abhängigkeit von Handlungs- und Zuschreibungspraxen. Dies erfordert eine Problematisierung der Bedingungen, unter denen Sprachbenutzer diese Rollen an die Objekte ihrer Wahrnehmung zuweisen.

 

Teil I der Arbeit widmet sich dem Forschungsprogramm. Dieser Terminus wird in Anlehnung an ten Hackens Begriff des „research programme“ verwendet. Es ist eine Modifikation des Kuhn’schen Paradigma-Begriffs, der um seine wissenschaftssoziologischen Aspekte reduziert und auf die intellektuellen Aspekte begrenzt wird. Dies macht ein Forschungsprogramm zu einem normativen, allgemein akzeptierbaren Komplex von Annahmen, in deren Kontext Theorien formuliert werden und die empirische Forschung ermöglichen sollen. Der Komplex von Annahmen besteht aus solchen Annahmen, die den „empirischen Zirkel“ „zum Laufen“ bringen. Das Problem des empirischen Zirkels lässt sich in Kurzform so beschreiben, dass man ohne zusätzliche Annahmen und Heuristiken aus der Menge des Beobachtbaren sowohl unendlich viele Daten ableiten kann, als auch unendlich viele Theorien mit gleichem Gültigkeitsanspruch aus diesen Daten herleiten kann.

 

In Auseinandersetzung mit den Annahmen der Kognitiv-Funktionalen Linguistik wird dann die Notwendigkeit eines neuen Forschungsprogramms gerechtfertigt. Das Resultat der Konstruktion dieses Forschungsprogramms ist ein Komplex an Annahmen, die die kultürliche und natürliche Konstitution der Linking-Kompetenz berücksichtigt, sowie ein Modell, das handlungsleitend für die konkrete Forschung ist. Im vorliegenden Fall besteht das Modell aus drei Levels. Der unterste Level determiniert die Auswahl und Beschreibung der Daten (beobachtbare Daten sind verbale Interaktionen aller Art, beschrieben werden syntaktische Strukturen und Interaktionsvariablen). Der nächste Level, der des Individuums, determiniert den Gegenstand der Theorie und die Theorie selbst (Gegenstand der Theorie ist die Linking-Kompetenz des Sprachbenutzers, die Theorie ist die des Verhältnisses von Syntax und Semantik als Kompetenz von Sprachbenutzern). Der oberste Level betrifft spezies- und gesellschaftsspezifische Aspekte und determiniert alle menschlichen Kompetenzen und Formen der Interaktion sowie Theorien darüber. Die übergreifende Idee dabei ist, dass die infragestehende Theorie die Daten erklärt und durch die Daten getestet wird. Da diverse Teilkompetenzen an der Linking-Kompetenz beteiligt sind, restringieren Theorien anderer Disziplinen (Wahrnehmungstheorie, Theorie der Konzeptualisierung, Attributionstheorie etc.) diejenigen Aspekte, die in einer Linking-Theorie plausibel, nachweisbar und wahrscheinlich sind. Gleichzeitig testet die Beschaffenheit der Linking-Theorie die Theoriegebäude der anderen Disziplinen. Auf diese Weise ist die im vorliegenden Werk behandelte Theorie sowohl „von unten“ durch die vorgefundenen Daten als auch „von oben“ durch das Wissen über andere Kompetenzen und Interaktionsformen des Menschen restringiert.


Ein einführender Vortrag in die Theorie der Instruktionsgrammatik im Rahmen eines Seminars zu kognitiven Konstruktionsgrammatiken



In Auseinandersetzung mit den Annahmen der Kognitiv-Funktionalen Linguistik wird dann die Notwendigkeit eines neuen Forschungsprogramms gerechtfertigt. Das Resultat der Konstruktion dieses Forschungsprogramms ist ein Komplex an Annahmen, die die kultürliche und natürliche Konstitution der Linking-Kompetenz berücksichtigt, sowie ein Modell, das handlungsleitend für die konkrete Forschung ist. Im vorliegenden Fall besteht das Modell aus drei Levels. Der unterste Level determiniert die Auswahl und Beschreibung der Daten (beobachtbare Daten sind verbale Interaktionen aller Art, beschrieben werden syntaktische Strukturen und Interaktionsvariablen). Der nächste Level, der des Individuums, determiniert den Gegenstand der Theorie und die Theorie selbst (Gegenstand der Theorie ist die Linking-Kompetenz des Sprachbenutzers, die Theorie ist die des Verhältnisses von Syntax und Semantik als Kompetenz von Sprachbenutzern). Der oberste Level betrifft spezies- und gesellschaftsspezifische Aspekte und determiniert alle menschlichen Kompetenzen und Formen der Interaktion sowie Theorien darüber. Die übergreifende Idee dabei ist, dass die infragestehende Theorie die Daten erklärt und durch die Daten getestet wird. Da diverse Teilkompetenzen an der Linking-Kompetenz beteiligt sind, restringieren Theorien anderer Disziplinen (Wahrnehmungstheorie, Theorie der Konzeptualisierung, Attributionstheorie etc.) diejenigen Aspekte, die in einer Linking-Theorie plausibel, nachweisbar und wahrscheinlich sind. Gleichzeitig testet die Beschaffenheit der Linking-Theorie die Theoriegebäude der anderen Disziplinen. Auf diese Weise ist die im vorliegenden Werk behandelte Theorie sowohl „von unten“ durch die vorgefundenen Daten als auch „von oben“ durch das Wissen über andere Kompetenzen und Interaktionsformen des Menschen restringiert.

 

Es ist evident, dass die Erkenntnisse der verschiedenen Disziplinen miteinander kompatibel sein oder gemacht werden müssen, um konvergierende Evidenz aus ihnen zu ziehen. Aus diesem Grund wird am Ende des forschungsprogrammatischen Teils eine Handlungstheorie vorgeschlagen, die die lebensweltlichen Differenzierungen kodifiziert, die Menschen in ihrer alltäglichen Interaktion praktizieren. Die Theorien und Resultate der diversen wissenschaftlichen Disziplinen, die im vorliegenden Werk berücksichtigt werden, müssen auf diese Differenzierungen zurückführbar bzw. durch sie rekonstruierbar sein.

 

Teil II der Arbeit behandelt die Teilkompetenzen der Fähigkeit, wohlgeformte, situationsadäquate Äußerungen zu erkennen, zu verstehen und zu produzieren. Die erste diskutierte Teilkompetenz ist die Perzeption. Sie ist zusammengesetzt aus bottom-up-Wahrnehmung und top-down-Identifikation. Erstere ist, so die Annahme, universal, da sie sich vollständig auf die Funktionsweise des menschlichen Wahrnehmungsapparats reduzieren lässt. Letztere involviert aber bereits individuelle sowie kulturspezifische Relevanzmuster, die nur unter Rekurs auf die Ziele und Interessen der Wahrnehmenden beschreiben lassen. Zentral im Zusammenhang der Wahrnehmung ist, dass Perzepte, d.h. die Resultate von bottom-up-Wahrnehmungen, eine Struktur besitzen: Sie sind als Figur-Grund-Konfigurationen beschreibbar. Welche Objekte in der Wahrnehmung als Figur und Grund fungieren, ist durch diverse Faktoren determiniert, darunter die Gestaltgesetze.

 

Die zweite Teilkompetenz ist die Konzeptualisierung. Unter Bezugnahme auf neuro- und kognitionswissenschaftliche Evidenz (z.B. retinotopische Mappings, mentale Rotation) lässt sie sich als simulierte Wahrnehmung charakterisieren. D.h. auf neuronaler und phänomenologischer Ebene teilt Erstere wichtige Merkmale mit Letzterer. Der wichtigste Unterschied liegt in der Abwesenheit von aktuellen Wahrnehmungsstimuli in der Konzeptualisierung. Eine Folge davon ist, dass Konzeptualisierung modal funktioniert, d.h. ein Konzept eines Ereignisses hat die Struktur einer Wahrnehmung und Wahrnehmungen sind quasi Abbildungen der Stimuli via Lichtwellen, die auf die Retina treffen.

 

Die Frage, welche Stimuli wahrgenommen, erkannt und als „etwas“ identifiziert werden, wird unter Bezugnahme auf die Begriffe der Salienz und Pertinenz erklärt. Es stellt sich aber heraus, dass für die Mensch-Mensch-Interaktion und die Kommunikation wichtige Inhalte keine Basis in der Wahrnehmung haben: Ob etwas Perzipiertes eine Instanz von Verursachung war, ob eine Bewegung eine intentionale war u.a. kann nicht aufgrund wahrnehmungsbasierter Informationen festgestellt werden. Es sind aber gerade diese Informationen, die darüber entscheiden, welche der beiden Äußerungen situationsadäquat ist: Nicole hat die Milch heruntergeworfen vs. Nicole ist die Milch heruntergefallen.

 

Die wahrnehmungsbasierten konzeptuellen Inhalte müssen also durch zusätzliches Wissen komplementiert werden. Dies ist das o.g. nicht-konzeptuelle Wissen, dass von Menschen innerhalb von kulturellen Praxen im Rahmen ihrer Sozialisierung im Rahmen von Zuschreibungen anderer Menschen erworben wird. Dies ist die dritte Teilkompetenz. Kleinkinder lernen, welche ihrer Taten ihnen als Handlungen zugeschrieben werden und für welche sie nichts können. Auf diese Weise erwerben sie ein Handlungs- und Zuschreibungswissen, welches sie auf Konzepte anwenden, die hinsichtlich dieser Aspekte unterspezifiziert sind. Dabei sind die Kalkulationen, die ihren Zuschreibungen zugrundeliegen, weder objektiv noch statistisch adäquat, sondern von ihren Dispositionen, Pertinenzen und Zwecken abhängig. Dies wird anhand eines Experiments gezeigt, bei dem die Attributionen, die Menschen sprachlich tätigen, mittels der Manipulation einiger kontrollierbarer Parameter vorhergesagt werden können. Zudem wird eine Theorie des Erkennens von kausalen Relationen vorgeschlagen. Eine prominente Rolle spielen auch sog. Objekt-„Affordances“: Aufgrund von Merkmalen in der Wahrnehmung „bieten“ bestimmte Objekte einem Beobachter bestimmte (rezenz-, frequenz-, salienz- und pertinenzabhängige) Zustände, Prozesse oder Aktivitäten „an“, an denen sie teilhaben können. D.h. was ein Objekt tun, sein oder werden kann, ist durch seine Merkmale und kognitive Parameter von Wahrnehmenden determiniert. Diese Beobachtung verkehrt somit die traditionellen selektionalen Restriktionen, die Prädikate hinsichtlich ihrer Argumente haben sollen, derart, dass es Objekte sind, die qua ihrer Merkmale bestimmte Affordances haben und damit den Umfang der Eventualitäten (d.h. Zustände, Prozesse, Aktivitäten) anzeigen, an denen sie teilhaben können.

 

Die vierte Teilkompetenz ist die Zuordnung von Konzepten zu Teilen von sprachlichen Äußerungen. Dabei wird argumentiert, dass die Struktur von Konzepten auf nicht-zufällige Weise mit der Struktur von Äußerungen korreliert. Da Konzepte simulierte Wahrnehmungen sind, haben auch sie eine Figur/Grund-Struktur (zur Abgrenzung zur Wahrnehmung „Trajektor“ und „Landmark“ genannt). Es scheint nun so zu sein, dass die syntaktischen Strukturen vieler Äußerungen diagrammatisch ikonisch zu Trajektor/Landmark-Konfigurationen sind. Es scheint so zu sein, als ob eine Äußerung ein Diagramm der Konzeptualisierung einer Eventualität ist. Als solches nimmt eine Äußerung den Charakter einer Anleitung zum Simulieren einer Wahrnehmung an (daher „Instruktionsgrammatik“). Im Anschluss an diese Beobachtung werden zahlreiche Konsequenzen davon diskutiert, darunter die Frage, wie diese Syntax/Semantik-Verbindungen erworben werden, wie sie sich zu nicht-motivierten Verbindungen (Hypostasierungen, Kompressionen) verhalten, wo die Grenzen von Hypostasierung und Kompression liegen, welche Aspekte an diesen Form/Inhalts-Verbindungen universell und welche typologisch kontingent sind und welche syntaktischen Konstruktionen zu Verfügung stehen, um verschiedene Trajektor/Landmark-Konfigurationen auf motivierte, d.h. diagrammatisch ikonische Weise zu kodieren.


 Ein Konferenzbeitrag zu Unterscheidungsmerkmalen zwischen der Theorie der Instruktionsgrammatik und anderen kognitiven Grammatiktheorien



Ein weiterer Teil bezüglich der Zuordnung von Konzepten zu sprachlichen Äußerungen betrifft die Frage, wie die temporale Organisation von Eventualitäten sich zu der Struktur von sprachlichen Äußerungen verhält. Zunächst wird gezeigt, dass Menschen in Abhängigkeit von ihren jeweiligen Pertinenzen und Zwecken in der Lage sind, Eventualitäten auf verschiedenen Levels zu segmentieren: auf der Ebene der Wahrnehmung in Form von Figur/Grund-Konfigurationen, auf der Ebene der Identifikation in Form von Schematisierungen von Figur/Grund-Konfigurationen und auf der Ebene der Attribution in Form von zugeschriebenen Handlungsschemata. Die syntaktische Konstruktion ist dabei „blind“ gegenüber der Ebene, auf der sie Segmentierungen kodiert. Das bedeutet, dass hinsichtlich konstruktional identischer Äußerungen ganz verschiedene Konzeptualisierungsleistungen erbracht werden müssen, um eine Äußerung zu verstehen (vgl. Peter nimmt das Glas vs. Russland privatisiert die sowjetische Industrie). Besonders wichtig im Zusammenhang von der Kodierung temporaler Aspekte von Eventualitäten ist die Rolle der Landmark. Die Frage, wie sich das Objekt, das in einer Eventualität konzeptuell als Landmark fungiert, durch ein Ereignis hindurch entwickelt (bezüglich seiner Merkmale oder seiner Lokation), scheint entscheidend für zentrale Informationen hinsichtlich der Affiziertheit eines direkten Objekts, der Perfektivität eines Ereignisses, der Köpfigkeit eines Ereignisses und der Identität einer Eventualität zu sein.

 

Den Übergang zum dritten Teil stellt eine kurze Reevaluation des Status von Prädikat-Argument-Strukturen dar oder präziser: der Rolle des semantischen Korrelats eines Verbs. Konzeptualisierung wurde als simulierte Wahrnehmung und als modal funktionierend beschrieben. Äußerungen sind Diagramme von (simulierten) Wahrnehmungen. Das heißt aber, dass die konzeptellen Korrelate von Verben keine retinalen Bilder verursachen, da sich Eventualitäten (kodiert durch Verben) an nichts außer an Objekten manifestieren. Damit zeigt sich die grundlegende Asymmetrie oder beinahe Anti-Symmetrie zwischen Syntax und Semantik: Während in ersterer das Verb das Zentrum einer Äußerung ist und weite Teile der Äußerung formal determiniert, existiert so etwas wie ein Verb konzeptuell streng genommen gar nicht, sondern ist nichts anderes als die Aktualisierung einer der Affordances eines Objekts oder die Aktualisierung von wechselseitigen Affordances mehrerer Objekte. In jedem Fall manifestiert sich eine Eventualität nur an Objekten, aber „ist nichts“ davon Unabhängiges.

 

Teil III stellt dar, wie die Teilkompetenzen aus Teil II dazu verwendet werden, wohlgeformte, situationsadäquate Äußerungen zu erkennen, zu verstehen und zu produzieren. Damit Kommunikation gelingt, ist es von entscheidender Wichtigkeit, dass ein Zeichensystem dazu in der Lage ist, hinreichend ähnliche Konzepte (+/- Attributionen) einer Eventualität bei Sprecher und Hörer zu garantieren. Die wichtigsten formalen Mittel, die dies gewährleisten sollen, sind (neben lexikalischen Elementen) die Wortstellung, Kasusmorphologie, Kongruenz und die syntaktische Konstruktion. Es wird auf detaillierte Weise gezeigt, wie diese formalen Konstituenten dazu beitragen, dass Sprecher und Hörer die Objekte, die durch lexikalisches Material bezeichnet werden, adäquat und auf wohlgeformte Weise mit den konzeptuellen Rollen Trajektor und Landmark assoziieren und dem komplexen Konzept, das sie aufbauen, hinreichend ähnliche räumliche und temporale Strukturen zu geben. In diesem Zusammenhang wird eine Theorie des deutschen adverbalen Dativs präsentiert

 

Es kann aber gezeigt werden, dass es immer wieder Äußerungen gibt, die formal derart unterspezifiziert sind, dass es mehrere Möglichkeiten ihrer Interpretation gibt. In diesem Fall greifen Interaktanten auf nicht-formale Mittel zurück und wenden Sprachverstehensmechanismen an, die kognitiv verwurzelt sind, aber keinen Niederschlag im Zeichensystem finden. Dabei handelt es sich um die Einbeziehung semantischer Merkmale der an einer Eventualität beteiligten Objekte, wie etwa ihre Belebtheitswerte, ihr Diskursstatus, Empathie-Erwägungen oder Individuiertheit. In der Wirksamkeit dieser Faktoren im Sprachverstehen zeigt sich ein übergeordnetes Prinzip, demzufolge Menschen beim Sprachverstehen wie als wahrnehmende und handelnde Wesen immer danach streben, zugunsten ihrer Handlungsfähigkeit und Umgebungskontrolle den (verantwortlichen) Verursacher der Eventualitäten in ihrer Umgebung zu identifizieren. Sprachlich entspricht dieser Entität ein traditionelles Agens.

 

Daran anschließend wird Schritt für Schritt gezeigt, wie mit den entwickelten theoretischen Mitteln zu beschreiben ist, wie eine Äußerung – begriffen als Anleitung zur Simulation einer Wahrnehmung – verstanden wird und wie eine solche Anleitung – in Form einer Äußerung – infolge der Wahrnehmung einer lebensweltlichen Szene produziert wird. Im vorletzten inhaltlichen Kapitel wird dann gezeigt, wie die vorliegende Theorie klassische Linking-Probleme, nämlich Argumentalternationen und syntaktische Operationen, erklärt. Dabei kommen alle relevanten zuvor präsentierten und charakterisierten Teilkompetenzen der Linking-Kompetenz zum Tragen: Mechanismen der Wahrnehmung, Identifikation, Konzeptualisierung und Attribution, diagrammatische Ikonizität und Unterspezifiziertheit.

 

Die Arbeit schließt mit einer Reihe von Vorhersagen und Konsequenzen, die aus der Theorie der Linking-Kompetenz und des Verhältnisses von Syntax und Semantik abgeleitet werden können. Sie betreffen Typologie, Sprachverstehen, die Entstehung von Grammatik, Bedeutungstheorien u.a.