Das Ziel der Arbeit ist es, eine Diskussion über das Wesen der sprachlichen Kompetenz anzustoßen, die sowohl linguistisch als auch philosophisch, psychologisch, soziologisch und neurowissenschaftlich plausibel ist. Es wird gezeigt, dass das Verhältnis zwischen Syntax und Semantik in vergleichbarem Maße durch kultürliche und natürliche Faktoren bestimmt ist. Eine der zentralen Thesen lautet, dass sprachliche Äußerungen konventionell konzeptuelle und nicht-konzeptuelle Inhalte kodieren, wobei konzeptuelle Inhalte letztlich aus der Struktur der Wahrnehmung abgeleitet werden können (Konzepte simulieren Perzeptionen) und nicht-konzeptuelle Inhalte ihren Ursprung in soziokulturell verorteten, internalisierten Handlungs- und Zuschreibungspraxen haben, die innerhalb einer Kultur ausgeübt werden. Letztgenannte Inhalte nehmen die Form deklarativen Wissens an.
Die durch die Struktur der Wahrnehmung bestimmte Struktur von Konzepten wird als unterspezifiziert hinsichtlich handlungs- und zuschreibungsbezogener Aspekte angenommen. Das heißt, dass speziell Begriffe wie Intentionalität, Agentivität, Volitionalität etc. nicht aus der Wahrnehmung abgeleitet werden können, sondern sich aus soziokulturellen Praxen ergeben. Das deklarative, handlungs- und zuschreibungsbezogene Wissen von Sprachbenutzern muss also auf Konzepte angewandt werden, um diese zu spezifizieren. Anders formuliert: Ihre praktische Relevanz erhalten Wahrnehmungen und Konzepte immer erst vor dem Hintergrund von internalisiertem handlungs- und zuschreibungsbezogenen Wissen. Für die Sprache heißt dies nun, dass sie selbst unterspezifiziert ist, wo sie konzeptuelle Inhalte kodiert. Nur dort, wo eine sprachliche Form auch handlungs- und zuschreibungsbezogene Aspekte kodiert, ist sie nicht unterspezifiziert.
Die sprachlichen Phänomene, an denen das oben Genannte gezeigt und auf die es angewendet werden soll, sind die weithin bekannten sog. Argumentalternationen wie Aktiv-Passiv, Dativalternation, Lokativalternation, Unakkusativ- vs. Unergativalternation, Konativalternation, Agens/Patiens-Shift und andere. Diese Phänomene illustrieren Asymmetrien im Verhältnis von Syntax und Semantik, die das Erklärungsziel zahlreicher existierender „Linking-Theorien“ sind. Drei erkannte Desiderate strukturieren die Arbeit:
1. Die Implikationen einer kultürlichen und natürlichen Herleitung der Fähigkeit, wohlgeformte und situationsadäquate Äußerungen zu erkennen, zu verstehen und zu produzieren weisen die bestehenden Erklärungsparadigmen als problematisch aus: Die sog. Kognitiv-Funktionale Linguistik beschränkt sich auf die individuelle Kognition und lässt die in soziokulturellen Praxen erworbenen Handlungs- und Zuschreibungskompetenzen außer acht. Die Chomsky’sche Linguistik beschränkt sich unter Zuhilfenahme diverser Idealisierungen und Gegenstandshomogenisierungen auf die Erklärung von syntaktischer Wohlgeformtheit und lässt sowohl die überindividuellen Handlungs- und Zuschreibungsprozesse als auch die Frage nach situationell angemessener Sprache außer acht. Daher muss ein gegenstandsadäquates, neues Forschungsprogramm formuliert werden, das diese Verkürzungen behebt.
2. Die bestehenden Theorien in den genannten Forschungsprogrammen bedienen sich bei der Modellierung semantischer Inhalte Prädikat-Argument-Strukturen. Diese haben ihren Ursprung in philosophischen Programmen, die das Ziel hatten, die Unzulänglichkeiten natürlicher Sprachen durch Formalisierung zu beseitigen. Dennoch haben sie ihren Weg in die moderne Linguistik gefunden und fungieren dort als semantische Beschreibungen des sprachlichen Wissens von Sprachbenutzern. Diese Übernahme des Beschreibungsinstrumentariums unter Außerachtlassung seiner forschungsprogrammtischen Einbettung ist problematisch. Es muss ein semantisches Beschreibungsinstrumentarium gefunden werden, das aus psychologischer, philosophischer und soziologischer Perspektive der Kompetenz von Sprachbenutzern, wohlgeformt und situationsadäquat zu kommunizieren, gerecht wird.
3. Ein Begriff, der seit jeher eine große Rolle in Theorien über das Verhältnis von Syntax und Semantik spielt, ist der der thematischen Rollen. Dabei kann gezeigt werden, dass die postulierten Rollen ihren Ursprung in raum-zeitlichen sowie handlungsbezogenen Domänen haben. Dennoch werden die beiden Rollentypen zumeist gleich behandelt. In der vorliegenden Arbeit wird jedoch gezeigt, dass die raum-zeitlichen Rollen aus der physischen und kognitiven Konstitution von Sprachnutzern abgeleitet werden kann, nämlich aus der Funktionsweise von Perzeption und Konzeptualisierung. Die handlungsbezogenen Rollen dagegen haben ihren Ursprung in den Handlungs- und Zuschreibungspraxen, an denen Personen partizipieren. Während also die erstgenannten Rollen letztlich eine natürliche und über Kulturen und Sprachgemeinschaften hochgradig ähnliche Basis verfügen, variieren die Bedingungen der handlungsbezogenen Rollenzuweisungen kulturell in Abhängigkeit von Handlungs- und Zuschreibungspraxen. Dies erfordert eine Problematisierung der Bedingungen, unter denen Sprachbenutzer diese Rollen an die Objekte ihrer Wahrnehmung zuweisen.
Teil I der Arbeit widmet sich dem Forschungsprogramm. Dieser Terminus wird in Anlehnung an ten Hackens Begriff des „research programme“ verwendet. Es ist eine Modifikation des Kuhn’schen Paradigma-Begriffs, der um seine wissenschaftssoziologischen Aspekte reduziert und auf die intellektuellen Aspekte begrenzt wird. Dies macht ein Forschungsprogramm zu einem normativen, allgemein akzeptierbaren Komplex von Annahmen, in deren Kontext Theorien formuliert werden und die empirische Forschung ermöglichen sollen. Der Komplex von Annahmen besteht aus solchen Annahmen, die den „empirischen Zirkel“ „zum Laufen“ bringen. Das Problem des empirischen Zirkels lässt sich in Kurzform so beschreiben, dass man ohne zusätzliche Annahmen und Heuristiken aus der Menge des Beobachtbaren sowohl unendlich viele Daten ableiten kann, als auch unendlich viele Theorien mit gleichem Gültigkeitsanspruch aus diesen Daten herleiten kann.
In Auseinandersetzung mit den Annahmen der Kognitiv-Funktionalen Linguistik wird dann die Notwendigkeit eines neuen Forschungsprogramms gerechtfertigt. Das Resultat der Konstruktion dieses Forschungsprogramms ist ein Komplex an Annahmen, die die kultürliche und natürliche Konstitution der Linking-Kompetenz berücksichtigt, sowie ein Modell, das handlungsleitend für die konkrete Forschung ist. Im vorliegenden Fall besteht das Modell aus drei Levels. Der unterste Level determiniert die Auswahl und Beschreibung der Daten (beobachtbare Daten sind verbale Interaktionen aller Art, beschrieben werden syntaktische Strukturen und Interaktionsvariablen). Der nächste Level, der des Individuums, determiniert den Gegenstand der Theorie und die Theorie selbst (Gegenstand der Theorie ist die Linking-Kompetenz des Sprachbenutzers, die Theorie ist die des Verhältnisses von Syntax und Semantik als Kompetenz von Sprachbenutzern). Der oberste Level betrifft spezies- und gesellschaftsspezifische Aspekte und determiniert alle menschlichen Kompetenzen und Formen der Interaktion sowie Theorien darüber. Die übergreifende Idee dabei ist, dass die infragestehende Theorie die Daten erklärt und durch die Daten getestet wird. Da diverse Teilkompetenzen an der Linking-Kompetenz beteiligt sind, restringieren Theorien anderer Disziplinen (Wahrnehmungstheorie, Theorie der Konzeptualisierung, Attributionstheorie etc.) diejenigen Aspekte, die in einer Linking-Theorie plausibel, nachweisbar und wahrscheinlich sind. Gleichzeitig testet die Beschaffenheit der Linking-Theorie die Theoriegebäude der anderen Disziplinen. Auf diese Weise ist die im vorliegenden Werk behandelte Theorie sowohl „von unten“ durch die vorgefundenen Daten als auch „von oben“ durch das Wissen über andere Kompetenzen und Interaktionsformen des Menschen restringiert.
In Auseinandersetzung mit den Annahmen der Kognitiv-Funktionalen Linguistik wird dann die Notwendigkeit eines neuen Forschungsprogramms gerechtfertigt. Das Resultat der Konstruktion dieses Forschungsprogramms ist ein Komplex an Annahmen, die die kultürliche und natürliche Konstitution der Linking-Kompetenz berücksichtigt, sowie ein Modell, das handlungsleitend für die konkrete Forschung ist. Im vorliegenden Fall besteht das Modell aus drei Levels. Der unterste Level determiniert die Auswahl und Beschreibung der Daten (beobachtbare Daten sind verbale Interaktionen aller Art, beschrieben werden syntaktische Strukturen und Interaktionsvariablen). Der nächste Level, der des Individuums, determiniert den Gegenstand der Theorie und die Theorie selbst (Gegenstand der Theorie ist die Linking-Kompetenz des Sprachbenutzers, die Theorie ist die des Verhältnisses von Syntax und Semantik als Kompetenz von Sprachbenutzern). Der oberste Level betrifft spezies- und gesellschaftsspezifische Aspekte und determiniert alle menschlichen Kompetenzen und Formen der Interaktion sowie Theorien darüber. Die übergreifende Idee dabei ist, dass die infragestehende Theorie die Daten erklärt und durch die Daten getestet wird. Da diverse Teilkompetenzen an der Linking-Kompetenz beteiligt sind, restringieren Theorien anderer Disziplinen (Wahrnehmungstheorie, Theorie der Konzeptualisierung, Attributionstheorie etc.) diejenigen Aspekte, die in einer Linking-Theorie plausibel, nachweisbar und wahrscheinlich sind. Gleichzeitig testet die Beschaffenheit der Linking-Theorie die Theoriegebäude der anderen Disziplinen. Auf diese Weise ist die im vorliegenden Werk behandelte Theorie sowohl „von unten“ durch die vorgefundenen Daten als auch „von oben“ durch das Wissen über andere Kompetenzen und Interaktionsformen des Menschen restringiert.
Es ist evident, dass die Erkenntnisse der verschiedenen Disziplinen miteinander kompatibel sein oder gemacht werden müssen, um konvergierende Evidenz aus ihnen zu ziehen. Aus diesem Grund wird am Ende des forschungsprogrammatischen Teils eine Handlungstheorie vorgeschlagen, die die lebensweltlichen Differenzierungen kodifiziert, die Menschen in ihrer alltäglichen Interaktion praktizieren. Die Theorien und Resultate der diversen wissenschaftlichen Disziplinen, die im vorliegenden Werk berücksichtigt werden, müssen auf diese Differenzierungen zurückführbar bzw. durch sie rekonstruierbar sein.
Teil II der Arbeit behandelt die Teilkompetenzen der Fähigkeit, wohlgeformte, situationsadäquate Äußerungen zu erkennen, zu verstehen und zu produzieren. Die erste diskutierte Teilkompetenz ist die Perzeption. Sie ist zusammengesetzt aus bottom-up-Wahrnehmung und top-down-Identifikation. Erstere ist, so die Annahme, universal, da sie sich vollständig auf die Funktionsweise des menschlichen Wahrnehmungsapparats reduzieren lässt. Letztere involviert aber bereits individuelle sowie kulturspezifische Relevanzmuster, die nur unter Rekurs auf die Ziele und Interessen der Wahrnehmenden beschreiben lassen. Zentral im Zusammenhang der Wahrnehmung ist, dass Perzepte, d.h. die Resultate von bottom-up-Wahrnehmungen, eine Struktur besitzen: Sie sind als Figur-Grund-Konfigurationen beschreibbar. Welche Objekte in der Wahrnehmung als Figur und Grund fungieren, ist durch diverse Faktoren determiniert, darunter die Gestaltgesetze.
Die zweite Teilkompetenz ist die Konzeptualisierung. Unter Bezugnahme auf neuro- und kognitionswissenschaftliche Evidenz (z.B. retinotopische Mappings, mentale Rotation) lässt sie sich als simulierte Wahrnehmung charakterisieren. D.h. auf neuronaler und phänomenologischer Ebene teilt Erstere wichtige Merkmale mit Letzterer. Der wichtigste Unterschied liegt in der Abwesenheit von aktuellen Wahrnehmungsstimuli in der Konzeptualisierung. Eine Folge davon ist, dass Konzeptualisierung modal funktioniert, d.h. ein Konzept eines Ereignisses hat die Struktur einer Wahrnehmung und Wahrnehmungen sind quasi Abbildungen der Stimuli via Lichtwellen, die auf die Retina treffen.
Die Frage, welche Stimuli wahrgenommen, erkannt und als „etwas“ identifiziert werden, wird unter Bezugnahme auf die Begriffe der Salienz und Pertinenz erklärt. Es stellt sich aber heraus, dass für die Mensch-Mensch-Interaktion und die Kommunikation wichtige Inhalte keine Basis in der Wahrnehmung haben: Ob etwas Perzipiertes eine Instanz von Verursachung war, ob eine Bewegung eine intentionale war u.a. kann nicht aufgrund wahrnehmungsbasierter Informationen festgestellt werden. Es sind aber gerade diese Informationen, die darüber entscheiden, welche der beiden Äußerungen situationsadäquat ist: Nicole hat die Milch heruntergeworfen vs. Nicole ist die Milch heruntergefallen.
Die wahrnehmungsbasierten konzeptuellen Inhalte müssen also durch zusätzliches Wissen komplementiert werden. Dies ist das o.g. nicht-konzeptuelle Wissen, dass von Menschen innerhalb von kulturellen Praxen im Rahmen ihrer Sozialisierung im Rahmen von Zuschreibungen anderer Menschen erworben wird. Dies ist die dritte Teilkompetenz. Kleinkinder lernen, welche ihrer Taten ihnen als Handlungen zugeschrieben werden und für welche sie nichts können. Auf diese Weise erwerben sie ein Handlungs- und Zuschreibungswissen, welches sie auf Konzepte anwenden, die hinsichtlich dieser Aspekte unterspezifiziert sind. Dabei sind die Kalkulationen, die ihren Zuschreibungen zugrundeliegen, weder objektiv noch statistisch adäquat, sondern von ihren Dispositionen, Pertinenzen und Zwecken abhängig. Dies wird anhand eines Experiments gezeigt, bei dem die Attributionen, die Menschen sprachlich tätigen, mittels der Manipulation einiger kontrollierbarer Parameter vorhergesagt werden können. Zudem wird eine Theorie des Erkennens von kausalen Relationen vorgeschlagen. Eine prominente Rolle spielen auch sog. Objekt-„Affordances“: Aufgrund von Merkmalen in der Wahrnehmung „bieten“ bestimmte Objekte einem Beobachter bestimmte (rezenz-, frequenz-, salienz- und pertinenzabhängige) Zustände, Prozesse oder Aktivitäten „an“, an denen sie teilhaben können. D.h. was ein Objekt tun, sein oder werden kann, ist durch seine Merkmale und kognitive Parameter von Wahrnehmenden determiniert. Diese Beobachtung verkehrt somit die traditionellen selektionalen Restriktionen, die Prädikate hinsichtlich ihrer Argumente haben sollen, derart, dass es Objekte sind, die qua ihrer Merkmale bestimmte Affordances haben und damit den Umfang der Eventualitäten (d.h. Zustände, Prozesse, Aktivitäten) anzeigen, an denen sie teilhaben können.
Die vierte Teilkompetenz ist die Zuordnung von Konzepten zu Teilen von sprachlichen Äußerungen. Dabei wird argumentiert, dass die Struktur von Konzepten auf nicht-zufällige Weise mit der Struktur von Äußerungen korreliert. Da Konzepte simulierte Wahrnehmungen sind, haben auch sie eine Figur/Grund-Struktur (zur Abgrenzung zur Wahrnehmung „Trajektor“ und „Landmark“ genannt). Es scheint nun so zu sein, dass die syntaktischen Strukturen vieler Äußerungen diagrammatisch ikonisch zu Trajektor/Landmark-Konfigurationen sind. Es scheint so zu sein, als ob eine Äußerung ein Diagramm der Konzeptualisierung einer Eventualität ist. Als solches nimmt eine Äußerung den Charakter einer Anleitung zum Simulieren einer Wahrnehmung an (daher „Instruktionsgrammatik“). Im Anschluss an diese Beobachtung werden zahlreiche Konsequenzen davon diskutiert, darunter die Frage, wie diese Syntax/Semantik-Verbindungen erworben werden, wie sie sich zu nicht-motivierten Verbindungen (Hypostasierungen, Kompressionen) verhalten, wo die Grenzen von Hypostasierung und Kompression liegen, welche Aspekte an diesen Form/Inhalts-Verbindungen universell und welche typologisch kontingent sind und welche syntaktischen Konstruktionen zu Verfügung stehen, um verschiedene Trajektor/Landmark-Konfigurationen auf motivierte, d.h. diagrammatisch ikonische Weise zu kodieren.
Ein weiterer Teil bezüglich der Zuordnung von Konzepten zu sprachlichen Äußerungen betrifft die Frage, wie die temporale Organisation von Eventualitäten sich zu der Struktur von sprachlichen Äußerungen verhält. Zunächst wird gezeigt, dass Menschen in Abhängigkeit von ihren jeweiligen Pertinenzen und Zwecken in der Lage sind, Eventualitäten auf verschiedenen Levels zu segmentieren: auf der Ebene der Wahrnehmung in Form von Figur/Grund-Konfigurationen, auf der Ebene der Identifikation in Form von Schematisierungen von Figur/Grund-Konfigurationen und auf der Ebene der Attribution in Form von zugeschriebenen Handlungsschemata. Die syntaktische Konstruktion ist dabei „blind“ gegenüber der Ebene, auf der sie Segmentierungen kodiert. Das bedeutet, dass hinsichtlich konstruktional identischer Äußerungen ganz verschiedene Konzeptualisierungsleistungen erbracht werden müssen, um eine Äußerung zu verstehen (vgl. Peter nimmt das Glas vs. Russland privatisiert die sowjetische Industrie). Besonders wichtig im Zusammenhang von der Kodierung temporaler Aspekte von Eventualitäten ist die Rolle der Landmark. Die Frage, wie sich das Objekt, das in einer Eventualität konzeptuell als Landmark fungiert, durch ein Ereignis hindurch entwickelt (bezüglich seiner Merkmale oder seiner Lokation), scheint entscheidend für zentrale Informationen hinsichtlich der Affiziertheit eines direkten Objekts, der Perfektivität eines Ereignisses, der Köpfigkeit eines Ereignisses und der Identität einer Eventualität zu sein.
Den Übergang zum dritten Teil stellt eine kurze Reevaluation des Status von Prädikat-Argument-Strukturen dar oder präziser: der Rolle des semantischen Korrelats eines Verbs. Konzeptualisierung wurde als simulierte Wahrnehmung und als modal funktionierend beschrieben. Äußerungen sind Diagramme von (simulierten) Wahrnehmungen. Das heißt aber, dass die konzeptellen Korrelate von Verben keine retinalen Bilder verursachen, da sich Eventualitäten (kodiert durch Verben) an nichts außer an Objekten manifestieren. Damit zeigt sich die grundlegende Asymmetrie oder beinahe Anti-Symmetrie zwischen Syntax und Semantik: Während in ersterer das Verb das Zentrum einer Äußerung ist und weite Teile der Äußerung formal determiniert, existiert so etwas wie ein Verb konzeptuell streng genommen gar nicht, sondern ist nichts anderes als die Aktualisierung einer der Affordances eines Objekts oder die Aktualisierung von wechselseitigen Affordances mehrerer Objekte. In jedem Fall manifestiert sich eine Eventualität nur an Objekten, aber „ist nichts“ davon Unabhängiges.
Teil III stellt dar, wie die Teilkompetenzen aus Teil II dazu verwendet werden, wohlgeformte, situationsadäquate Äußerungen zu erkennen, zu verstehen und zu produzieren. Damit Kommunikation gelingt, ist es von entscheidender Wichtigkeit, dass ein Zeichensystem dazu in der Lage ist, hinreichend ähnliche Konzepte (+/- Attributionen) einer Eventualität bei Sprecher und Hörer zu garantieren. Die wichtigsten formalen Mittel, die dies gewährleisten sollen, sind (neben lexikalischen Elementen) die Wortstellung, Kasusmorphologie, Kongruenz und die syntaktische Konstruktion. Es wird auf detaillierte Weise gezeigt, wie diese formalen Konstituenten dazu beitragen, dass Sprecher und Hörer die Objekte, die durch lexikalisches Material bezeichnet werden, adäquat und auf wohlgeformte Weise mit den konzeptuellen Rollen Trajektor und Landmark assoziieren und dem komplexen Konzept, das sie aufbauen, hinreichend ähnliche räumliche und temporale Strukturen zu geben. In diesem Zusammenhang wird eine Theorie des deutschen adverbalen Dativs präsentiert
Es kann aber gezeigt werden, dass es immer wieder Äußerungen gibt, die formal derart unterspezifiziert sind, dass es mehrere Möglichkeiten ihrer Interpretation gibt. In diesem Fall greifen Interaktanten auf nicht-formale Mittel zurück und wenden Sprachverstehensmechanismen an, die kognitiv verwurzelt sind, aber keinen Niederschlag im Zeichensystem finden. Dabei handelt es sich um die Einbeziehung semantischer Merkmale der an einer Eventualität beteiligten Objekte, wie etwa ihre Belebtheitswerte, ihr Diskursstatus, Empathie-Erwägungen oder Individuiertheit. In der Wirksamkeit dieser Faktoren im Sprachverstehen zeigt sich ein übergeordnetes Prinzip, demzufolge Menschen beim Sprachverstehen wie als wahrnehmende und handelnde Wesen immer danach streben, zugunsten ihrer Handlungsfähigkeit und Umgebungskontrolle den (verantwortlichen) Verursacher der Eventualitäten in ihrer Umgebung zu identifizieren. Sprachlich entspricht dieser Entität ein traditionelles Agens.
Daran anschließend wird Schritt für Schritt gezeigt, wie mit den entwickelten theoretischen Mitteln zu beschreiben ist, wie eine Äußerung – begriffen als Anleitung zur Simulation einer Wahrnehmung – verstanden wird und wie eine solche Anleitung – in Form einer Äußerung – infolge der Wahrnehmung einer lebensweltlichen Szene produziert wird. Im vorletzten inhaltlichen Kapitel wird dann gezeigt, wie die vorliegende Theorie klassische Linking-Probleme, nämlich Argumentalternationen und syntaktische Operationen, erklärt. Dabei kommen alle relevanten zuvor präsentierten und charakterisierten Teilkompetenzen der Linking-Kompetenz zum Tragen: Mechanismen der Wahrnehmung, Identifikation, Konzeptualisierung und Attribution, diagrammatische Ikonizität und Unterspezifiziertheit.
Die Arbeit schließt mit einer Reihe von Vorhersagen und Konsequenzen, die aus der Theorie der Linking-Kompetenz und des Verhältnisses von Syntax und Semantik abgeleitet werden können. Sie betreffen Typologie, Sprachverstehen, die Entstehung von Grammatik, Bedeutungstheorien u.a.
(c) Simon Kasper
Umfrage zum regionalen Satzbau. Jetzt mitmachen. Offen für alle. Keine Vorkenntnisse erforderlich
Dániel Czicza hat mein Buch "Der Mensch und seine Grammatik jüngst hier rezensiert.
Open Access!
Podcast zur Vorlesung "Einführung in die Semantik und Pragmatik"!
Ein einführendes Video zu meiner Instruktionsgrammatik