Remko
Scha
Virtuele
grammatica's
en creatieve algoritmes [1]
Summary.
In this
lecture I try to assess how computational approaches may contribute
to theoretical work in the Arts and Letters. I focus on a paradigm
case: the importance of computational linguistics for linguistic
theory.
I evaluate
our current experience with computational systems that implement
formal competence-grammars, and point out some inadequacies of these
systems. First of all, the coverage of such systems is always limited;
it turns out to be extremely difficult to develop a descriptively
adequate grammar of a language. But at the same time, there is a
serious problem of overgeneration: a non-trivial grammar assigns
many different analyses to most inputs, and most of these analyses
are very implausible in the interpretive performance of a human
language user. Thus, a working system would need a disambiguation
component that is not provided by the theory of linguistic competence.
To solve
this problem, I propose to move to a system design that is no longer
based on the Saussurean notion of language as a fully specified,
complete and consistent system of rules. Instead, I suggest a process
of experience-driven interpretation, which analyzes its input by
computing the best syntactic/semantic matches that can be made with
as many items as possible in a richly annotated corpus. I argue
that a computational process of this sort is a more plausible model
for human language processing than the models that are implied by
current linguistic theory. In particular, the experience-driven
processing model yields a more promising perspective on language
acquisition and language change.
Finally,
I point out that the experience-driven model of language processing
suggests an approach to the theories of art and music that differs
from the traditional semiotic paradigm. It suggests an approach
which can take its inspiration from our understanding of the workings
of language, without thereby reducing the art work to a message
that is formulated in terms of a predefined system of signs. An
approach which highlights, in language as well as in art, the genesis
of new signs -- an event that may occur any time a person analyzes
new input material, and interprets this input against the background
of a given corpus of previous experiences.
Alfa-informatica.
Het vak alfa-informatica
wordt op een wat merkwaardige manier gedefinieerd -- door zijn plaats,
tussen de informatica en de letteren-vakken. Er ontbreekt een specifieke
bepaling van een probleemstelling of een objekt van onderzoek. "Alfa-informatica"
betekent in feite nog niets. Het verwijst, als een eigennaam; maar
welk begrip de dragers van die naam geacht worden te instantiëren,
dat ligt nog niet vast. Dat moeten we zelf nog bepalen, in de dagelijkse
praktijk van het onderzoek en het onderwijs. Maar een gelegenheid
als de huidige vraagt erom eens een poging te wagen in de richting
van een bewuste, expliciete begripsbepaling.
Het begrip "letteren" omvat een groot aantal vakken die nogal verschillend
van aard zijn. In veel van die vakken speelt de bestudering van
tekstbestanden een belangrijke rol, en dat is typisch een bezigheid
waarbij de computer heel goed kan helpen. Maar bij sommige vakken
heeft de informatica niet alleen een dienende rol, maar is er een
rechtstreeksere invloed op de inhoud van het onderzoek. Dat kan
alleen bij vakken die zich met formele, mathematisch geformuleerde
theorieën bezighouden. Binnen de letteren is de Algemene Taalwetenschap
het voorbeeld bij uitstek van zo'n vak. Daarom heeft de Alfa-informatica
zich tot nu toe sterk op de taal georiënteerd, en heeft bijvoorbeeld
het onderzoek in onze vakgroep grotendeels betrekking op de computationele
taalkunde -- de interactie tussen de informatica en de linguïstiek.
Ik wil vandaag
enkele nieuwe inzichten uit de computerlinguïstiek onder uw
aandacht brengen, en de konsekwenties beschouwen die deze inzichten
hebben voor de Algemene Taalwetenschap. De opvatting over de taalkunde
die dan ter discussie staat is afkomstig van een Zwitserse linguïst
uit het begin van deze eeuw: Ferdinand de Saussure. Een interessante
bijkomstigheid is dat Saussure de Algemene Taalwetenschap als model
ziet voor een algemenere wetenschap: de semiotiek, die het "leven
der tekens in de maatschappij" bestudeert. Op dat idee kom
ik aan het eind van de voordracht nog terug, want dan wil ik de
mogelijkheid bespreken om de computerlinguïstiek als paradigmatisch
te zien voor de Alfa-informatica van de toekomst -- voor een breder
opgezet vak, dat vanuit een computationeel perspektief ook substantieel
bijdraagt aan andere letterenvakken, zoals muziekwetenschap, filmwetenschap,
literatuur-wetenschap en kunstgeschiedenis.
Taalwetenschap.
Saussure benadrukt
het feit dat de taal, op elk moment van zijn ontwikkeling, een systeem
is: een volledige, consistente code die alle leden van een taalgemeenschap
beheersen. [2] Als hij het begrip "taal"
("langue") definieert, zegt hij onder meer: "Taal
bestaat in de vorm van een som van indrukken neergelegd in de hersenen
van elk lid van een gemeenschap, bijna als een woordenboek waarvan
identieke copieën aan elk individu gedistribueerd zijn. Taal
bestaat in elk individu, maar is toch iets dat allen gemeen hebben.
En de taal wordt ook niet beïnvloed door de wil van de taalgebruikers."
(Saussure, 1915, p. 19) Hij zet het begrip "taal" af tegen
het begrip "spreken" ("parole"), waarmee hij
dan bedoelt de verzameling van alle uitingen die taalgebruikers
in de praktijk toevallig met behulp van dat systeem construeren.
Toen Saussure
het begrip "taal" definieerde, dacht hij vooral aan de
vorm en de betekenis van de woorden van de taal. De manier waarop
woorden gekombineerd kunnen worden tot uitingen, behoorde in zijn
opvatting niet tot de "taal" maar tot het "spreken";
hij rekent dit tot het domein van de vrije willekeur van de taalgebruiker.
In de vijftiger
jaren heeft Noam Chomsky een taalkundige traditie geïnitieerd,
die enkele belangrijke uitgangspunten gemeen heeft met Saussure.
Maar nu is de syntax de centrale component van het taalkundig systeem
geworden. Dat heeft tot gevolg dat Saussure's woordenboek-metafoor
op een non-triviale manier gegeneraliseerd moet worden. Om alle
zinnen van een taal, en hun struktuur en betekenis, te kunnen karakteriseren,
is meer nodig dan de eindige opsomming van een woordenboek. Het
taalsysteem stelt geen principiële beperkingen aan de lengte
en de syntaktische complexiteit van de zinnen van een taal. Om de
oneindige verzameling zinnen van een taal eenduidig te beschrijven,
introduceert Chomsky het begrip generatieve grammatika: een recursieve
definitie van de zinnen van een taal en hun struktuur, door middel
van een expliciet stelsel formele regels. (Deze techniek werd voordien
reeds gebruikt voor het definiëren van de formele talen van
de mathematische logica.)
Het opvallendste
verschil tussen een informele grammatika zoals die b.v. in schoolboekjes
gebruikt wordt, en een formele linguïstische grammatika, is
de taal waarin ze geformuleerd zijn. Een schoolboekjesgrammatika
gebruikt de gewone omgangstaal om dezelfde of een andere taal te
beschrijven, terwijl een formele grammatika gebruik maakt van een
wiskundig notatie-systeem. Een minder opvallend verschil is, dat
de taalregels in een schoolboek helemaal geen regels zijn in de
strikte zin des woords. Het zijn eerder beschrijvingen van prototypische
gevallen, waaraan iedere taalgebruiker zo gemakkelijk zoveel generalisaties
kan verbinden, dat ze bijna als regels gebruikt kunnen worden. Maar
op die manier wordt lang niet voor alle mogelijke woord-sekwenties
de grammatikaliteit en de syntaktische struktuur vastgelegd. Er
zijn talrijke gevallen, waarvoor de grammatikaliteit of de struktuur
ongedefinieerd zijn.
Omdat een moderne
linguïstische grammatika geformuleerd wordt door middel van
een stelsel formele regels, is zo'n grammatika voor een mens veel
lastiger te lezen; maar daar staan duidelijke voordelen tegenover.
Het belangrijkste voordeel is, dat er een wiskundige nauwkeurigheid
bereikt wordt: er kan heel rechtlijnig geredeneerd worden over wat
zo'n grammatika precies voorspelt over de taal.
Mede om die
reden heeft de generatieve benadering grote populariteit gekregen.
Het "generatieve paradigma" omvat nu taalkundige scholen
met een veelheid van ideeën over syntax, en ook benaderingen
die niet aan strukturele, maar aan semantische of funktionele noties
een centrale plaats toekennen. Ook is deze benadering compatibel
met allerlei verschillende opvattingen over de status van het objekt
dat door een formele grammatika gedefinieerd wordt -- verschillende
opvattingen, dus, over wat een taal eigenlijk is. Chomsky zelf,
bijvoorbeeld, benadrukt steeds dat het hem gaat om een psychologische
probleemstelling: de verantwoording van het taalvermogen van de
individuele taalgebruiker. Sommige andere linguïsten zien de
taal liever als een sociaal/kulturele entiteit, die zinvol beschreven
kan worden zonder te refereren naar de manier waarop individuele
taalgebruikers daar mee omgaan.
In de rest
van dit artikel ga ik in op enkele problemen die vastzitten aan
de formele grammatica-opvatting in al zijn varianten. Ik zal me
daarbij koncentreren op het paradigmatische geval: een grammatika
als een stelsel regels dat de syntax van een taal beschrijft. Wat
ik daarover zeg, geldt echter in grote lijnen net zo voor een grammatika
die b.v. veel meer de nadruk legt op de beschrijving van de semantiek.
Hetzelfde geldt voor de tegenvoorstellen die ik hier naar voren
breng: die zijn geformuleerd in termen van de problematiek van de
syntaktische analyse, maar ik hoop en verwacht dat een meer semantisch/pragmatisch
georiënteerde variant ervan ook uitgewerkt kan worden.
Computerlinguïstiek.
Het is opvallend
dat veelomvattende formele grammatika's van specifieke talen in
de linguïstische praktijk zelden gekonstrueerd worden. In plaats
daarvan houdt men zich bezig met algemene ideeën over de vorm
die zulke grammatika's zouden moeten hebben, aan de hand van informele
schetsen van behandelingen van specifieke verschijnselen. Maar omdat
elk artikel zich concentreert op een klein aantal verschijnselen,
worden de eigenschappen van een complete algebra die alle taalkundige
complicaties verantwoordt niet onder ogen gezien. Men oriënteert
zich op prototypische gevallen, en is zelden volledig expliciet
over de interakties met andere complicaties.
Waarom men
in taalkundige artikelen geen formele grammatika's specificeert,
is wel duidelijk: een gedetailleerde beschrijving van een grammatika
die een niet te klein aantal verschijnselen op een enigszins grondige
manier verantwoordt, is altijd te omvangrijk en te complex om door
een mens gemakkelijk verwerkt en begrepen te kunnen worden. Deze
omstandigheid heeft onmiddellijke gevolgen voor de rol van de computerlinguïstiek
t.o.v. de taalwetenschap. De computerlinguïstiek kan zich niet
beperken tot het onderzoeken van de computationele eigenschappen
van bestaande taalkundige theorieën, of het toepassen ervan
in praktisch bruikbare taalverwerkende programma's: de computer
is nodig bij het totstandkomen van de taalkundige theorie.
De validiteit van taalkundige hypotheses kan pas worden vastgesteld
als veelomvattende grammatika's van verschillende talen ook daadwerkelijk
worden gekonstrueerd. En vanwege de complexiteit van zulke grammatika's,
kunnen ze slechts getest, gemodificeerd en uitgebreid kunnen worden
als ze op de computer staan, en als we beschikken over algoritmes
die op basis van zo'n grammatika zinnen kunnen analyseren en genereren.
Het zou de
moeite waard zijn om een voordracht als deze te wijden aan de vraag
wat er allemaal voor nodig is om de computer-linguïstiek optimaal
te equiperen voor de taak die zij te vervullen heeft binnen het
thans vigerende taalkundige paradigma. Op dat punt is er nog veel
werk aan de winkel. Er moeten syntaktische formalismes ontwikkeld
worden die aansluiten bij de linguïstische praktijk, terwijl
ze tevens het ontwikkelen van grote grammatika's vergemakkelijken.
Voor die formalismes moeten dan weer efficiënte analyse- en
generatie-algoritmes geïmplementeerd worden, die op hun beurt
in comfortabele software-omgevingen voor grammatika-ontwikkeling
moeten worden ingebed.
Maar daar zal
ik nu niet verder op ingaan. In plaats daarvan wil ik het hebben
over de ervaring die de computerlinguïstiek reeds heeft opgedaan
met het implementeren van grote grammatika's. Het nieuws dat men
hier meestal over hoort is dat we nog lang niet klaar zijn, maar
wel op de goede weg; de eerste resultaten worden als bemoedigend
gezien. Het blijkt goed mogelijk te zijn om een grammatika op de
computer te zetten, die zinnen met bepaalde interessante complexiteiten
korrekt analyseert; en dan krijg je de indruk dat het een kwestie
is van vlijtig doorwerken en vroeg of laat heb je de hele grammatika
van het Nederlands erop staan. Maar die indruk is misleidend. Dat
blijkt als je een grammatika probeert te maken die een aantal vooraf
gespecificeerde problemen aan moet kunnen -- die bijvoorbeeld alle
zinnen uit een bescheiden corpus, inclusief alle voor de hand liggende
varianten ervan, van een korrekte semantische interpretatie kan
voorzien.
Dan blijkt
hoe rijk en complex de taal is, vol van lexicaal gespecificeerde
uitzonderingen en semi-idiomatische uitdrukkingen. Dat zou slechts
een praktisch, kwantitatief probleem zijn, ware het niet dat het
ontwikkelen van zo'n grammatika steeds moeizamer gaat, naarmate
de grammatika groter wordt. Hoe meer verschijnselen er reeds ten
naasten bij verantwoord worden, des te meer interakties moet je
bekijken als je een verantwoording van nieuwe verschijnselen probeert
te introduceren. Dit vestigt de aandacht op een belangrijke eigenschap
van formele grammatika's, die twijfels doet rijzen aan de psychologische
plausibiliteit ervan. Bij de menselijke taalgebruiker leiden zinnen
die al te grote aantallen gemarkeerde syntaktische konstrukties
en idiosyncratische lexicale items bevatten, tot een cognitieve
toestand waarin het steeds moeilijker wordt om definiete en konsistente
grammatikaliteitsoordelen uit te spreken. Maar voor een formele
grammatika maakt dat niets uit: die legt de interakties tussen alle
syntaktische komplikaties volledig vast. Dat de taalgebruiker soms
toch aardig in de war kan raken, moet men dan toeschrijven aan performance-factoren
die beperkingen stellen aan de operatie van de taalverwerkings-module.
Een tweede
probleem met de huidige benadering is nog makkelijker waar te nemen:
het probleem van de ambiguïteit. Het is gebleken dat zodra
een grammatika een non-triviaal gedeelte van een natuurlijke taal
karakteriseert, vrijwel elke input-zin van enige lengte veel (vaak
zeer veel) verschillende strukturele analyses (en bijbehorende semantische
interpretaties) heeft. Dit is problematisch omdat het meerendeel
van deze interpretaties door een menselijke taalgebruiker helemaal
niet als mogelijk wordt waargenomen, terwijl er toch geen reden
valt te bedenken om ze op formele syntaktische of semantische gronden
uit te sluiten. Vaak is het slechts een kwestie van relatieve implausibiliteit:
de enige reden waarom de taalgebruiker een bepaalde interpretatie
van een zin niet gewaar wordt, is dat een andere interpretatie veel
plausibeler is.
De beide genoemde
problemen zijn niet onafhankelijk van elkaar. Het eerstgenoemde
probleem, de verontrustende kombinatoriek van interagerende syntaktische
verschijnselen, heeft tot gevolg dat we de verfijning van syntaktische
subcategorieën misschien wat zouden willen beperken, met als
gevolg een "tolerantere" grammatika die allerlei minder
gelukkige konstrukties toch als grammatikaal accepteert. Maar wie
taalverwerkende systemen wil maken is daarmee niet klaar: die wordt
dan gekonfronteerd met een nog grotere ambiguïteit in de output
van de grammatikale analyse, en moet onder ogen zien dat een andere
module van het systeem daar dan toch weer een selektie uit moet
maken.
Deze beperkingen
hebben nog ernstiger gevolgen wanneer een grammatika gebruikt wordt
bij het verwerken van invoer waarin veelvuldig fouten optreden.
Zo'n situatie doet zich voor bij de verwerking van gesproken taal.
De output van een spraakherkenningssysteem is altijd zeer onvolmaakt;
zulke systemen doen in feite slechts gissingen naar wat er gezegd
wordt. In deze situatie heeft het parseermechanisme nog een extra
taak, die het bij korrekt getypte alfa-numerieke invoer niet heeft.
De spraakherkenningsmodule kan vele verschillende woordsequenties
menen te horen in het input-signaal; slechts één daarvan
is de juiste, en de parseer-module moet zijn syntaktische informatie
gebruiken om tot een optimale beslissing te komen over de aard van
de input. Een eenvoudig ja/nee oordeel over de grammatikaliteit
van een woord-sequentie is daarbij onvoldoende. Veel woord-sequenties
zijn strikt genomen grammatikaal maar erg onplausibel; en naarmate
een grammatika meer verschijnselen verantwoordt, wordt dit aantal
groter.
Competence
en Performance.
De beperkingen
van de huidige taalverwerkingssystemen zijn eigenlijk niet verrassend:
ze zijn een onmiddellijk gevolg van het feit dat deze systemen direkt
aansluiten bij Chomsky's notie van een competence-grammatika. Chomsky
heeft altijd een heel nadrukkelijk onderscheid gemaakt tussen de "competentie" van de taalgebruiker en de "performance"
van deze taalgebruiker. De competentie is de taalkennis waarover
de taalgebruiker in principe beschikt; de performance is
het resultaat van het psychologisch proces dat die kennis gebruikt
(zowel producerend als interpreterend). De formele grammatika's
die het onderwerp vormen van de theoretische linguïstiek, hebben
tot doel om de competentie van de taalgebruiker te karakteriseren.
Maar de voorkeuren die taalgebruikers hebben in het geval van meerduidige
zinnen, behoren nu typisch tot het domein dat in een Chomskyaanse
optiek tot de performance wordt gerekend. Competentie-grammatika's
geven een definitie van de zinnen van een taal en de bijbehorende
strukturele analyses, maar ze specificeren geen waarschijnlijkheidsordening
of andere "ranking" tussen de verschillende zinnen of
tussen de verschillende analyses van een zin.
Om effektieve
taalverwerkingssystemen te konstrueren, moeten we ons dus bezig
houden met de implementatie van performance-grammatika's in plaats
van competentie-grammatika's. Die performance-grammatika's moeten
dan niet alleen informatie bevatten over de strukturele mogelijkheden
van het algemene taalsysteem, maar ook over "toevallige" details van het aktuele taalgebruik in een taalgemeenschap, die
bepalend zijn voor de taal-ervaringen van een individu, en die aldus
mede bepalen wat voor taaluitingen dit individu verwacht te zullen
tegenkomen, en welke strukturen en betekenissen die taaluitingen
verwacht worden te hebben.
Impliciet in
het linguïstisch denken over performance is de aanname dat
het taalgedrag verantwoord kan worden door een systeem dat een competentie-grammatika
omvat als een identificeerbare subcomponent. Juist het ambiguïteitsprobleem
maakt dit echter tot een computationeel onaantrekkelijke aanname:
als we kriteria zouden vinden om sommige syntaktische analyses boven
andere te prefereren, dan kan het de efficiëntie van het geheel
ten goede komen als die in een vroegtijdig stadium, geïntegreerd
met de strikt syntaktische regels, worden toegepast. Dat zou dan
neerkomen op een geïntegreerde implementatie van de competentie-
en performance-noties.
We kunnen zelfs
een stap verder gaan, en de gangbare notie van een competentie-grammatika
fundamenteel ter diskussie stellen. We kunnen proberen de taal-performance
te verantwoorden zonder een beroep te doen op een expliciete competentie-grammatika.
(Dat zou dan betekenen dat grammatikaliteits-oordelen verantwoord
moeten worden als een performance-verschijnsel dat zich niet door
een bijzondere cognitieve status van andere performance-verschijnselen
onderscheidt.) Dit is de gedachte die ik nu wat verder wil uitwerken.
Analogie.
Chomsky's onderscheid
tussen competence en performance komt niet uit de lucht vallen.
Het heeft veel gemeen met Saussure's onderscheid tussen "langue"en
"parole", maar ook met een onderscheid dat door zijn strukturalistische
voorgangers, zoals Bloomfield en Harris, heel nadrukkelijk gemaakt
werd: het onderscheid tussen enerzijds het "taalsysteem" en anderzijds de psychologie van de taalgebruiker. De beschrijving
van het taalsysteem wilden ze dan op een wetenschappelijke manier
uit corpora afleiden, en de beschrijving van de taalpsychologie
wilden ze aan de psychologen overlaten. De strukturalisten maakten
niet de aanname dat het taalsysteem een specificeerbare relatie
heeft met de individuele taalpsychologie; ze bestudeerden de taal
als een eigenstandige realiteit. [3] Chomsky
maakt in feite hetzelfde onderscheid, maar introduceert de hypothese
dat het taalsysteem (de "competence") wel degelijk een
psychologische realiteit heeft, en dus een van de belangrijkste
faktoren is in het psychologische proces waarin de "performance" tot stand komt.
Ook strukturalistische
linguïsten laten zich echter wel eens verleiden tot uitspraken
over de processen die zich afspelen in de geest van de taalgebruiker.
En dan zijn ze opmerkelijk eenstemmig: de taalgebruiker creëert
en begrijpt nieuwe uitingen op basis van analogieën die hij
konstrueert met eerder ervaren uitingen. Vanuit een psychologisch
standpunt is dat geen gek idee. Ongeacht de abstrakte linguïstische
kennis die een mens misschien heeft, heeft hij in elk geval een
heleboel konkrete kennis over taal heeft: herinneringen aan uitingen,
en de interpretaties ervan, en de specifieke konteksten waarin ze
voorkwamen. En wat voor speciale taalkundige vermogens een mens
ook mag hebben, in elk geval beschikt hij over een fabelachtig associatief
geheugen met ingebouwd abstraktievermogen, dat gekoppeld is aan
waarnemingsmechanismes die in staat zijn om bij de verwerking van
nieuwe invoer rekening te houden met allerlei verleden ervaringen
die er op één of andere manier verband mee houden.
Het is dus
niet verrassend dat we dit idee vaak tegenkomen, niet alleen bij
de strukturalisten, maar ook al in de negentiende eeuw. [4] In Cartesian Linguistics vermeldt Chomsky dat hij het aantrof bij
Bloomfield, Hockett, Paul, Saussure, Jespersen, en "vele anderen".
Wel verrassend is, dat Chomsky er geen goed woord voor over heeft. "To attribute the creative aspect of language use to "analogy"
or "grammatical patterns" is to use these terms in a completely
metaphorical way, with no clear sense and with no relation to the
technical usage of linguistic theory. It is no less empty than Ryle's
description of intelligent behavior as an exercise of "powers"
and "dispositions" of some mysterious sort, or the attempt
to account for the normal, creative use of language in terms of
"generalization" or "habit" or "conditioning".
A description in these terms is incorrect if the terms have anything
like their technical meanings, and highly misleading otherwise,
in so far as it suggests that the capacities in question can somehow
be accounted for as just a "more complicated case" of
something reasonably well understood." [5]
Het analogiebegrip
dat door de meeste van zijn voorgangers werd aangeroepen als de
intuïtief plausibele grondslag van de menselijke taalverwerking
is dus volgens Chomsky niet uit te werken tot een welomschreven
en empirisch valideerbaar concept. Het enige alternatief zou dan
zijn eigen voorstel zijn: de rijkdom van het taalvermogen wordt
verklaard door de recursieve struktuur van de regels van de competentiegrammatika.
Hoewel Chomsky
de performance-mechanismes niet specificeert, en de manier waarop
de competentiegrammatika daarin zit ingebed evenmin, maakt deze
redenering toch een sterke claim over de relatie tussen competence
en performance: hij postuleert het primaat van de competence. Individuele
taalpsychologische verschijnselen moeten verantwoord worden in termen
van de wetmatigheden van de competence-grammatika, en niet andersom.
Het primaat
van de competence is een empirische hypothese die gevalideerd zou
kunnen worden door (1) een zekere mate van sukses van de formele
taalkunde en een daarop gebaseerde psycholinguistiek, in kombinatie
met (2) het mislukken van serieuze pogingen om alternatieve verklaringen
bevredigend uit te werken. Veel onderzoekers leven waarschijnlijk
in de veronderstelling dat die validering inmiddels wel voor mekaar
is, maar daar moet ik enkele vraagtekens bij plaatsen.
Dat er uit
het formeel georiënteerde linguïstisch onderzoek belangwekkende
ideeën over alle aspekten van de taal zijn voortgekomen, staat
buiten kijf; maar dat zegt nog niet veel over de aard van de theorie
waarin die ideeën uiteindelijk hun plaats moeten vinden. Om
dat vast te stellen, moet er nog veel werk verzet worden. Zoals
ik zojuist al aangaf, bestaan er geen formele grammatika's die een
natuurlijke taal goed beschrijven; en leiden alle grammatika's die
ergens op beginnen te lijken tot geweldige ambiguïteitsproblemen.
Er bestaat dus geen linguïstische, en zeker geen psycholinguïstische,
evidentie voor het idee dat alle redelijke ideeën die er over
taalkundige regelmatigheden ontwikkeld zijn, gezamenlijk onder te
brengen zijn in een consistent en compleet systeem, dat dan ook
nog in enige zin "psychologisch reëel" is. Taalkundige
essays en psycholinguïstische experimenten gaan altijd over
heel beperkte constellaties van verschijnselen, en verantwoordingen
daarvan door heel beperkte "speelgoedgrammatikaatjes".
Chomsky zelf
is vaak nogal pessimistisch over de kansen op een empirische psycholinguïstische
validering van zijn taaltheorie: "We have some understanding
of the principles of grammar, but there is no promising approach
to the normal creative use of language, or to other rule-governed
human acts that are freely undertaken. The study of grammar raises
problems that we have some hope of solving; the creative use of
language is a mystery that eludes our intellectual grasp."
[6] Deze opmerking krijgt nog extra
gewicht als we ons realiseren dat Chomsky er een min of meer technisch
begrip "mystery" op na houdt: 'een principieel onoplosbare
kwestie waar een zinnig mens zijn tijd niet mee verdoet.' Volgens
deze opvatting zal het antwoord op de vraag hoe de competence in
de performance zit ingebed, dus voor eeuwig uitblijven.
Vervolgens
moeten we opmerken dat alternatieve hypotheses over de aard van
taal en taalvermogen heel wel denkbaar zijn, maar dat er tot nu
toe geen serieuze pogingen ondernomen zijn om die hypotheses formeel
te artikuleren en empirisch te testen. Het traditionele idee betreffende
taalverwerking in termen van analogieën met eerder ervaren
uitingen is daar een goed voorbeeld van. De gedachte dat het analogiebegrip
intrinsiek ongrijpbaar en informeel is, is in brede kring geaccepteerd
-- niet alleen bij Chomsky's medestanders, maar ook bij degenen
die niets van formele grammatika's moeten hebben. Er bestaat in
de huidige taalkunde een minderheidstraditie, vertegenwoordigd door
b.v. Bolinger (1961, 1976), Becker (1984a, 1984b), en Hopper (1987),
die de konkrete taaldata centraal wil stellen, in plaats van abstrakte
regels; die nieuwe uitingen ziet als opgebouwd uit brokstukken die
aan eerder verwerkte teksten ontleend worden; die idiomaticiteit
als regel beschouwt en niet als uitzondering. Maar deze taalkundigen
leggen zich veelal toe op anekdotisch onderzoek, benadrukken het
onherhaalbare van de talige communicatie, en wekken soms de indruk
dat ze hun perspektief op taal intrinsiek inkompatibel achten met
formalisering. Hun alleszins redelijke gedachten hebben daarom onvoldoende
aandacht gekregen.
U voelt inmiddels
wel waar het heengaat: ik wil voorstellen om een begin te maken
met het uitwerken en testen van een taalmodel dat gebaseerd is op
het primaat van de performance t.o.v. de competence, en dat die
performance verantwoordt in termen van formeel geartikuleerde algoritmen
die analogieën konstrueren met eerder verwerkte uitingen.
Misschien is
dit een goed punt in mijn relaas om nog eens het belang van de computationele
benadering te benadrukken. Ik zei al dat het ontwikkelen van grote
formele grammatika's niet zonder de computer kan. Maar het zal duidelijk
zijn dat het soort model dat ik nu suggereer in zekere zin nog ingewikkelder
is -- zodanig dat iemand die niet met de computer werkt er niet
eens aan durft te denken, of in elk geval de lol er niet van inziet.
[7]
Het streven
naar een taalpsychologie die gebaseerd is op een formele theorie
van de taalkundige wetmatigheden is daarom voor velen vanzelfsprekend.
Maar als computer-linguïst hebben we er geen principiële
bezwaren tegen om ons redundante beschrijvingen van het taalvermogen
voor te stellen. Zijn we niet zodanig geobsedeerd met onze eigen
behoefte aan een mooie theorie dat we denken dat die theorie ook
materieel gerepresenteerd moet zijn in ons objekt van onderzoek.
Zijn we nog beter dan Chomsky in staat om ons de natuurkunde tot
voorbeeld te stellen, waarin het keer op keer blijkt dat observeerbare
regelmatigheden epiphenomenen zijn van onderliggende verschijnselen
die in heel andere termen beschreven moeten worden.
In het model
dat ik voorstel heeft de competence-grammatika een virtueel karakter,
is het een verschijnsel dat voortkomt uit onderliggende processen
die heel anders van aard zijn -- zoals de thermodynamische noties "temperatuur" en "druk" voortkomen uit onderliggende
mechanische noties: snelheid, massa en dichtheid van bewegende molekulen. [8] Die grammatika hoeft ook niet volledig
te zijn, en hoeft niet uniek vast te liggen; hij kan afhangen
van welke data we in het vizier hebben. Het lijkt erop dat computationele
linguïsten, meer dan theoretici, bereid zijn om de psychologische
en linguïstische feiten onder ogen te zien die in deze richting
wijzen. En daarom zullen wij wellicht degenen zijn die Chomsky's
ambitieuze onderzoeksprogramma, de formele verantwoording van het
menselijk taalvermogen, uiteindelijk volvoeren.
Data-georiënteerde
taalverwerking.
Laten we nu
eens kijken naar de funktionele eisen voor een computerprogramma
dat taal verwerkt volgens een data-georiënteerde methode. Op
de eerste plaats kunnen we opmerken, dat de menselijke waarneming
een voorkeur heeft voor eenvoudige strukturen boven complexe. Dit
is een instantie van een zeer algemene wet van Gestalt-waarneming,
die ook toepasbaar is op de verwerking van muziek of visuele input. [9] Verder is er een sterke voorkeur voor
het herkennen van zinnen, zinsdelen en patronen die reeds eerder
zijn voorgekomen. Frekwenter voorgekomen strukturen en interpretaties
worden bevoordeeld boven niet of zeldener waargenomen alternatieven.
We kunnen het principe "Voorkeur voor de eenvoudigste analyse"
zodanig uitbreiden dat dit verschijnsel erbij in rekening gebracht
wordt: door reeds eerder waargenomen strukturen, afhankelijk van
hun frekwentie van voorkomen, slechts in mindere mate mee te tellen
bij de berekening van de complexiteit -- door ze in zekere mate
als ondeelbare, "eenvoudige" eenheden te beschouwen.
Alle lexikale
elementen, syntaktische strukturen en "konstrukties" die
de taalgebruiker ooit is tegengekomen, en hun frekwentie van voorkomen,
kunnen een invloed hebben op de verwerking van nieuwe input. In
het corpus van verleden taal-ervaringen van de taalgebruiker, is
er nauwelijks informatie die veronachtzaamd kan worden. We moeten
er dus van uit gaan, dat het taalverwerkingsproces de beschikking
heeft over een zo goed mogelijke representatie van al die verleden
taal-ervaringen. Dat wil zeggen: een zo groot mogelijk corpus van
geanalyseerde en geproduceerde zinnen met hun syntaktische analyses
en semantische interpretaties. [10]
Als we over
zo'n corpus de beschikking hebben, ontstaat er een nieuw perspektief
op het syntaktisch/semantisch analyse-proces. Parsering hoeft niet
te gebeuren door toepassing van grammatikale regels op de input-zin,
maar kan bestaan uit een matching-proces dat tracht een optimale
analogie te konstrueren tussen de input-zin en zoveel mogelijk corpus-zinnen.
De aard van dit proces kan het best geïllustreerd worden aan
de hand van twee extreme gevallen. Enerzijds kan een zin herkend
worden omdat hij letterlijk in het corpus voorkomt; zo'n zin krijgt
dan ook bij voorkeur dezelfde interpretatie als de betreffende corpus-zin.
Anderzijds is het mogelijk dat het matching-proces allerlei corpus-zinnen
in beschouwing moet nemen, en in elk van die zinnen slechts één
relevant lexicaal item of één toepasbare syntaktische
konstruktie kan herkennen; in zo'n geval is het systeem in feite
bezig om naar aanleiding van de input-zin de relevante grammatika-regels
"on the fly" uit het corpus te abstraheren.
Meestal zal
het karakter van de input-zin tussen deze beide extremen in liggen:
de hele zin zal meestal niet in het corpus staan, maar sommige woordkombinaties
of complexe strukturele eigenschappen van de input-zin komen daar
allicht reeds voor. Een typisch geval vereist dus een proces dat
tussen "domme" herkenning en gewone parsering in ligt.
Zo'n proces kan gerealiseerd worden d.m.v. een ontleed-algoritme
dat niet een stelsel van grammatikale regels raadpleegt om een zin
te analyseren, maar dat een analyse probeert op te bouwen op basis
van brokstukken van syntaktische bomen die in het corpus gevonden
worden. Deze brokstukken moeten dan willekeurige kombinaties van
syntaktische en lexicale informatie kunnen bevatten, en voorzien
kunnen zijn van semantische annotaties die al of niet op een compositionele
manier met de syntaktische struktuur correleren. Ze lijken dus veel
op de "konstrukties" van Fillmore et al. (1988).
Ik zal zodadelijk
verder ingaan op de aardige eigenschappen die te verwachten zijn
van deze aanpak van het interpretatieproces. Maar eerst moet ik
misschien even ingaan op een probleem dat er aan vastzit: het implementatieprobleem.
Het is waarschijnlijk allerminst triviaal om een algoritme met de
hier geschetste eigenschappen op een efficiënte manier te implementeren.
Het informatiebestand
dat ervoor nodig is, is veel groter dan de grammatika's waaraan
we gewend zijn. En, in tegenstelling tot het menselijk brein, zijn
de thans beschikbare computer-opslag-media niet ingesteld op onmiddellijke
en flexibele associatieve toegang tot reusachtige gegevensbestanden.
Ik verwacht dus implementatie-problemen -- maar dat betekent nog
niet dat die implementatieproblemen onoplosbaar zullen zijn, met
de hardware- en software-technologie van morgen of overmorgen.
Bovendien denk
ik dat deze implementatie-problemen niet toevallig zijn. Het is
nu eenmaal zo dat de computationele hardware van het menselijk brein
essentieel anders van struktuur is dan de huidige elektronische
computers. En dat er een zekere complementariteit bestaat tussen
de vermogens van menselijke breinen en elektronische computers.
Onze breinen zijn goed in patroonherkenning, maar hebben een zekere
slordigheid; computers kunnen met eindeloos geduld en willekeurige
precisie mathematische berekeningen uitvoeren, maar zijn heel slecht
in taken als visuele herkenning. Tegen deze achtergrond zou het
niet verrassend zijn als juist psychologisch plausibele modellen
de eigenschap zouden hebben dat ze niet zo makkelijk op de huidige
rekenmachines passen.
Nu dan terug
naar de zojuist geschetste aanpak van het taalverwerkingsproces.
Een belangrijke eigenschap ervan, die ook bij de implementatie uitgebuit
zou kunnen worden, is dat er onmiddellijk een zinnige desambigueringsstrategie
uit volgt. De meest waarschijnlijke analyses komen met weinig moeite
tot stand, omdat er grote stukken van de input in één
keer gematcht worden, en wel met konstrukties die in het corpus
veelvuldig voorkomen. Naarmate een analyse onwaarschijnlijker is,
moet de input-zin gedetailleerder ontleed worden, en moeten er zeldzamere
konstrukties uit het corpus aangeroepen worden. Het intuïtieve
idee dat de meer preferabele analyses minder moeite kosten, kan
formeel uitgewerkt worden in informatietheoretische termen: voorkeur
voor de analyse met de geringere informatietheoretische complexiteit.
Op basis daarvan kunnen dan weer algoritmes bedacht worden die desambigueren
door die complexiteitsmaat expliciet te berekenen (b.v. Bod, 1992);
dezelfde noties kunnen ook gebruikt worden om de validiteit te rechtvaardigen
van algoritmes die, volgens de Monte Carlo methode, de waarschijnlijkste
analyse proberen te maken door willekeurige konstrukties uit het
corpus te gebruiken.
Op een soortgelijke
manier ontstaat er een maat voor grammaticaliteit. Als het algoritme
voor de analyse van sommige zinnen een buitengewone mate van inventiviteit
aan de dag moet leggen, kan er gesteld worden dat zulke zinnen niet
tot de paradigmatische kern van de taal behoren, zonder dat ze daarom
in absolute zin "ongrammaticaal" verklaard hoeven te worden.
Ik hoop dat het mogelijk zal zijn om het zojuist geschetste algoritme
zodanig uit te werken dat de "relatieve grammaticaliteit" die aldus uit het verwerkingsmodel volgt, overeenstemt met de relatieve
grammaticaliteitsoordelen van echte taalgebruikers.
De kontekstafhankelijkheid
van grammatikaliteitsoordelen kan in deze benadering verklaard worden
doordat het algoritme recente uitingen in het corpus zwaarder laat
meetellen dan minder recente. [11] De
verantwoording van grammatikaliteitsoordelen ligt dus in de lijn
die gesuggereerd wordt door Stich (1971): grammatikaliteits-oordelen
komen niet tot stand door de toepassing van een geprecompileerde
verzameling grammatikale regels, maar hebben het karakter van een
perceptief oordeel over de vraag, in welke mate de beoordeelde zin
lijkt op de zinnen die de taalgebruiker als voorbeelden van grammatikaliteit
in zijn hoofd heeft. De konkrete taal-ervaringen uit het verleden
van de taalgebruiker bepalen hoe die een nieuwe uiting verwerkt.
We maken niet de aanname dat de verleden taal-ervaringen veralgemeend
zijn tot een consistente theorie die de grammatikaliteit en de struktuur
van nieuwe uitingen eenduidig definieert. [12]
De regelmatigheden
van de taal die de formele linguïstiek observeert zijn gevolgen
van de reflektie op de performance. Of die regelmatigheden in één
elegant systeem zijn onder te brengen is een empirische vraag. Een
negatief antwoord op die vraag mag niet uitgesloten worden. In welke
mate niet alleen de linguïst maar ook de naïeve taalgebruiker
zich met zulke reflekties bezighoudt, en ze toestaat een effekt
op zijn taalgedrag te hebben, is ook een empirische kwestie; het
zou in principe kunnen dat er in het matching-proces expliciete
abstrakties gekonstrueerd worden die ook als zodanig onthouden worden
en dan weer een invloed op het latere taalgedrag hebben. Op die
manier zouden er regel-achtige elementen in het systeem sluipen.
Dat wordt niet uitgesloten, maar ook niet voorondersteld.
Ook als het
matching-proces helemaal geen regels gebruikt maar uitsluitend konkrete
taaldata uit een corpus, kan het toch heel goed rekursief opereren,
willekeurig veel nieuwe uitingen analyseren, en strukturele analyses
van arbitraire diepte genereren. Bod (1992), b.v., werkt het idee
van data-georiënteerde parsering zodanig uit dat de standaard-technieken
voor contextvrije ontleding ervoor gebruikt kunnen worden; het is
dan triviaal om in te zien dat de ontleedprocessen het gewenste
rekursieve karakter vertonen. Chomsky's suggestie dat taalverwerking
op basis van analogie intrinsiek eindig is, en stuk loopt op rekursieve
strukturen, blijkt dus onjuist te zijn.
Linguistics
revisited.
Het data-georiënteerde
perspektief op taalverwerking wijkt op enkele essentiële punten
af van de bestaande formele linguïstische traditie. Juist daarom
wil ik benadrukken dat er ook sprake is van een belangrijke mate
van continuïteit: hoewel er niet noozakelijkerwijs expliciete
syntaktische of semantische regels gebruikt worden, spelen zowel
de Chomskyaanse notie van constituentenstruktuur als de Montagoviaanse
notie van compositionele semantiek een belangrijke rol in de hier
gesuggereerde benadering.
Verder is het
een intrigerende vraag, in welke mate deze benadering compatibel
is met Chomsky's recente ideeën. Het is opvallend dat hij steeds
minder de nadruk legt op de notie van een grammatika als een stelsel
expliciete regels. Hij insisteert nu op een nogal abstrakte formulering
van de principes en parameters van het taalvermogen, en meent dat
het er niet veel toe doet op wat voor manier de principes en parameters
op stelsels regels kunnen worden geprojekteerd. Hij veronderstelt
nog wel dat ze op een of andere manier op regels geprojekteerd kunnen
worden, maar vindt dat geen belangrijke eigenschap. [13]
Dan is er de
kwestie van innateness en universalia. Mijn hypothese is dat er
inderdaad een aangeboren taalvermogen bestaat -- en dat dit taalvermogen
onmiddellijk verantwoordelijk is voor zowel het volwassen taalgebruik
als de taalverwerving. Het gaat dus niet om het vermogen om een
grammatika te leren of toe te passen -- het gaat om het vermogen
om struktuur te projekteren op nieuwe input of output, en om daarbij
verleden ervaringen een bepalende rol te laten spelen. In hoeverre
dit taalverwerkingsvermogen zich onderscheidt van andere cognitief/perceptieve
capaciteiten is een empirische vraag waar we heel weinig over weten.
[14]
Als we de Universele
Grammatika definiëren als de karakterisering van het genetisch
bepaalde taalvermogen [15], dan bestaat
de Universele Grammatika uit het matching-algoritme, of wellicht
uit nog diepere psychologische principes die aan dat matching-algoritme
ten grondslag liggen. Verder is alles variabel en contingent. We
maken dus niet de aanname dat er psychologisch reële parameters
zijn die geset moeten worden. Wat men in de praktijk parameter-settings
noemt zijn regelmatigheden in corpora -- die kunnen zich voordoen,
maar ze kunnen willekeurig complex zijn en staan willekeurig veel
uitzonderingen toe.
Met de taalverwerving
is dan vanzelfsprekend geen expliciete parametersetting gemoeid.
Dat lijkt me een voordeel. De opvatting over het taalverwervingsproces
die met de "Theory of Government and Binding" geassocieerd
is heeft onaantrekkelijke eigenschappen. De aanname dat parameters
defaultsettings hebben, die dan soms weer afgeleerd moeten worden,
blijkt onhandig als men empirische gegevens over de kindertaal-ontwikkeling
wil verantwoorden.
Ook wat betreft
de taalverwerving, overigens, wil Chomsky zelf de psychologische
interpretatie van het begrip Universal Grammar absoluut ongedefinieerd
laten. Hij wil het hebben over het "logische", niet over
het "psychologische" taalverwervingsprobleem. Wat U.G.
moet verantwoorden is een fictieve event van "instantaneous
acquisition". U.G. is een funktie (in de mathematische zin)
die een "course of experience" afbeeldt op de daaraan
ontleende taalkennis. En, voor alle duidelijkheid: "Certain
principles of U.G. may not be available at early stages of language
growth." [16]
Neurale
netwerken.
Velen van u
zullen wat ik tot nu toe gezegd heb in verband hebben gebracht met
het connectionistische paradigma dat de laatste jaren weer een erkende
stroming in de cognitiewetenschap is geworden. [17] De connectionisten stellen bepaalde hardware-strukturen, "kunstmatige
neurale netwerken", voor als modellen van de menselijke cognitie.
Deze netwerken zijn actieve associatieve geheugens die nieuwe invoer
in verband kunnen brengen met eerdere invoer die er op leek, en
die daarop gissingen kunnen baseren over de eigenschappen van de
nieuwe input. Het interessante van deze benadering is dat het uitsluitend
gaat om associatieve processen; er komen geen formele regels en
redeneringen aan te pas. Het moment is nu gekomen om iets te zeggen
over de relatie tussen mijn onderzoeksprogramma en dat van de connectionisten.
Het connectionistische
onderzoeksprogramma vereenzelvigt twee verschillende onderzoeksdoelen.
In de eerste plaats streeft men de uitwerking na van enkele alleszins
plausibele ideeën over het statistische, data-georiënteerde
karakter van taalverwerking en andere cognitieve processen. In de
tweede plaats legt men zich vast op een implementatie van deze statistische
processen op een heel specifiek soort gedistribueerde hardware-architektuur.
De onderliggende veronderstelling is, dat de werking van connectionistische
netwerken een zinvolle idealisering vormt van de elementaire processen
die in het menselijk brein de cognitieve vermogens implementeren;
bij deze veronderstelling zijn echter talrijke vraagtekens te plaatsen. [18] Daarom doet taalkundig onderzoek
dat zich vastlegt op deze interessante maar moeilijke implementatie-omgeving,
geen recht aan het potentieel van het statistische, data-georiënteerde
perspektief op cognitie. De capaciteiten van connectionistische
netwerken zijn beperkt. De resultaten zijn bescheiden, en kunnen
gemakkelijk bekritiseerd worden. [19]
Het connectionistische
paradigma vormt dus allerminst een alternatief voor de taalkunde.
Maar het heeft wel vragen opgeworpen waar de vigerende taalkundige
traditie het moeilijk mee heeft: vragen over de psychologische plausibiliteit
van een taalverwerkingsmodel dat in zoveel opzichten incompatibel
lijkt met wat we weten over de menselijke geest. Wat ik nu voorstel
is een model dat het neurale reduktionisme vermijdt, en wel degelijk
met symbolische representaties werkt. Maar het stelt symbolische
representaties van konkrete ervaringen centraal, in plaats van abstrakte
regels.
Net als de
voorvechters van de neurale netten, wil ik de verwerking van een
nieuwe taal-uiting beschrijven als de interactie van deze uiting
met de som van alle eerder opgeslagen uitingen; ik vermijd om een
beroep te doen op expliciet opgeslagen abstrakte regels. Maar ik
postuleer een proces waarin de struktuur en de betekenis van de
opgeslagen taal-uitingen een essentiële rol spelen. En ik leg
geen enkele beperking op aan de complexiteit van het matching-proces,
dat zich afspeelt bij het verwerken van een nieuwe uiting.
Het liefst
zie ik daarom het connectionisme als een ontwikkeling binnen de
informatica, die interessante nieuwe hardware- en software-strukturen
ontwikkelt waarmee associatieve geheugenfunkties en zelforganiserende
classificatiesystemen kunnen worden geïmplementeerd. De hier
voorgestelde benadering van de taalverwerking kan dan nuttig gebruik
maken van zulke mogelijkheden. Experimenten in deze richting zijn
inmiddels van start gegaan. (Vgl. Scholtes (1992), Scholtes en Bloembergen
(1992).)
Semiotiek.
Dan is het
nu tijd om de vraag aan de orde te stellen die ik al eerder aankondigde
-- de vraag naar de essentiële eenheid van de letterenvakken
vanuit een computationeel perspektief. Ik zie die eenheid inderdaad,
en ik zie hem in een omkering van de Saussureaanse semiotiek. De
semiotiek houdt zich bezig met de algemene eigenschappen van teken-systemen.
Voor deze wetenschap is de veelvormigheid van de letteren slechts
schijnbaar. Doordat het maatschappelijk en psychologisch funktioneren
van codes, tekens en symbolen tot het centrale onderzoeksonderwerp
gemaakt wordt, kunnen we taalkunde, letterkunde, muziekwetenschap,
filmwetenschap, kunstbeschouwing en kultuurgeschiedenis als deelgebieden
beschouwen, waar ook allerlei onderlinge relaties tussen gelegd
kunnen worden. Het teken-begrip creëert een perspektief dat
de kulturele en methodologische grenzen tussen de meeste letteren-vakken
overschrijdt.
De semiotiek
van Saussure kent aan de talige kode een paradigmatische rol toe,
en probeert taalwetenschappelijke begrippen ook op andersoortige
tekensystemen toe te passen. Dat idee zou voor de Alfa-informatica
heel interessant kunnen zijn -- vooral omdat de computerlinguïstiek
voortkomt uit dezelfde taalkundige traditie als de semiotiek. Maar
het jammere is, dat de semiotische taalopvatting nu precies de opvatting
is die ik hierboven problematisch bevonden heb. De Saussureaanse
semiotiek beschouwt de taal als een volledig en consistent systeem
van welgedefinieerde kodes met gefixeerde betekenissen.
Het is duidelijk
dat de esthetische ervaring niet als decodering kan worden beschreven.
Het esthetisch interpretatieproces heeft een rijkdom en een complexiteit
die niet zullen optreden bij het toepassen van een welgedefinieerde
code. En het levert geen welgedefinieerde betekenis op. In Kant's
woorden: "... unter einer ästhetischen Idee ... verstehe
ich diejenige Vorstellung der Einbildungskraft die viel zu denken
veranlaßt, ohne daß ihr doch irgendein bestimmter Gedanke,
d.i. Begriff, adäquat sein kann, die folglich keine Sprache
völlig erreicht und verständlich machen kann." [20]
Het Saussureaanse
perspektief kan daarom niet zo zonder meer op kunst en esthetica
toegepast worden. Als we het al over een code willen hebben, moet
het er een zijn waarvan zowel de tekens als de betekenissen niet
goed gedefinieerd zijn. En het proces van desambiguering, van het
vaststellen van de tekens en hun onderlinge relaties en hun betekenissen,
is dan een proces dat zelf interessant is, onafhankelijk van enig
stabiel eindresultaat -- een proces dat ook altijd weer voortgezet
of hernomen kan worden. Zoals A.W. Schlegel het "poëtisch
gezichtspunt" beschrijft, dat de dingen "onophoudelijk
interpreteert, en er een onuitputtelijk figuratief karakter aan
toekent." [21]
Ik zou daarom
juist de processen van struktuurwaarneming en vrije associatie centraal
willen stellen -- noties die eerder met kunstbeschouwing worden
geassocieerd dan met taalkunde.
Ik zou computationele
modellen willen ontwerpen die laten zien hoe tekens, systemen en
grammatica's uit die processen voortkomen. Ik zie een eenheid tussen
taal, muziek, en kunstbeschouwing -- niet door een verarmde taalnotie
tot paradigma te verklaren, maar door ze allemaal te analyseren
als interpreterende waarnemingsprocessen. [22]
Saussureaanse
codes doen zich dan voor wanneer het interpretatieproces snel konvergeert
en bijzonder eenduidige resultaten oplevert. En esthetische ervaringen,
daarentegen, komen tot stand als het proces juist complex is, maar
in die complexiteit wel voldoende samenhangend om tot het bewustzijn
door te dringen en betekenisvol gevonden te worden. Vaak, maar niet
noodzakelijkerwijs, heeft het interpretatieproces dan een divergerend
karakter.
In het voorbijgaan
wees ik er al op dat het begrip "creativiteit" dat Chomsky
in Cartesian Linguistics hanteert nogal karikaturaal van
aard is. Hij stelt dat begrip gelijk met het vermogen om met een
taal overweg te kunnen die recursief gedefinieerde strukturen bevat.
Volgens die opvatting zijn Pascal-compilers wel zo ongeveer de vleesgeworden
creativiteit. Ik wil daarentegen benadrukken dat elk decodeer-algoritme,
ook als het recursief werkt, een machine is die het tekenbegrip
en het betekenisbegrip ondergeschikt maakt aan een rigide, expliciet
gedefinieerd, "mechanisch" kader. Zo'n algoritme is dan
naar alle waarschijnlijkheid niet geschikt om het menselijk taalvermogen
te modelleren, en is zeker niet geschikt om in algemenere zin toegepast
te worden op vragen betreffende muziek, kunst of literatuur. [23] Het soort van algoritme dat ik daar vandaag tegenover heb willen
stellen, bevat althans in principe de mogelijkheid tot verrassingen
en onverwachte perspektieven, die we met het begrip creativiteit
associëren.
Taalverwerving.
Dat het voor
de taalkunde zinnig is om oog te hebben voor de eigen aard van het
esthetische, wil ik nog eens kort argumenteren aan de hand van de
taalverwervingsproblematiek. Als we "kunst" zien als het
bewust artikuleren van vormen die we puur formeel appreciëren
of die we in verband brengen met onuitgesproken, vermoede betekenissen,
dan gaat kunst
vooraf aan
taal. Phylogenetisch, en ook ontogenetisch. Eerst worden uit de
rijkdom van de sensorische ervaring stabiele vormen losgemaakt,
dan gaan er in de omgang met die vormen associaties mee verbonden
worden, en dan pas kunnen die associaties zo smal en eenduidig worden
dat we van een taal of zelfs van een code kunnen gaan spreken. [24]
Dit is niet alleen mythisch verhaal over de schepping van de taal
in de oertijd. Dit is de manier waarop nog steeds op elk moment
nieuwe taal ontstaat -- uit de oude taal, en ook uit gedrag dat
we niet als taal ervaren.
De manier waarop
kinderen hun eerste taal verwerven is wellicht het duidelijkste
voorbeeld van dat proces. Het kind vindt zijn eigen taal uit, en
door de ontwikkeling van zijn corpus van taal-ervaringen gaan zijn
tekens en betekenissen langzamerhand steeds meer lijken op die van
zijn omgeving. [25] Het is natuurlijk
verre van eenvoudig om de details van zo'n proces uit te werken,
maar het is althans voorstelbaar.
De formele
competence-linguïstiek houdt er daarentegen niet zo'n realistische
benadering van de taalverwervingsproblematiek op na. Fodor (1975)
heeft op een grondige manier de konsekwenties onderzocht van de
aanname dat de menselijke linguïstische cognitie op elk moment
beschreven kan worden als een consistent computationeel systeem
dat berekeningen doet op mathematisch welgedefinieerde "representaties"
-- d.w.z., op expressies van wat ik een "code" genoemd
heb. Hij laat zien dat het onder deze premisse volkomen raadselachtig
is hoe iemand ooit een "echt nieuw" concept kan leren:
alle concepten die iemand ooit in zijn denken kan gebruiken moeten
reeds gegenereerd kunnen worden door een tevoren vastgelegde algebra
van elementaire concepten en operaties: de "language of thought"
van de betreffende persoon. Hieruit volgt de konklusie dat iemands
conceptuele repertoire volledig is "aangeboren". Toen
ik Fodor's boek voor het eerst las, dacht ik dat hij het bedoelde
als een ironisch gepresenteerd bewijs uit het ongerijmde: er moet
iets fout zijn met onze cognitiewetenschap, als haar aannames tot
de konklusie leiden dat al onze concepten aangeboren zijn. Maar
intussen heb ik begrepen dat Fodor de konklusie van zijn boek wel
degelijk als waar accepteert. [26]
Zoals gezegd,
vermoed ik dat de aangeboren Universele Grammatika geen grammatika
is, maar bestaat uit analoog associërende mechanismes. Mechanismes
die de basis vormen voor de matching-processen t.o.v. het corpus,
maar ook voor het ontstaan van nieuwe betekenissen door het met
elkaar associëren van uitingssituaties, en voor het projekteren
van de betekenissen op de uitingen. De manier waarop volwassen taalgebruik
verantwoord kan worden d.m.v. matching ten opzichte van een corpus
is redelijk duidelijk. Vergeleken daarmee, is de vraag naar het
begin van de taalbeheersing van een individu veel intrigerender:
hoe werkt ons matching-algoritme als er nog geen corpus is?
Deze vraag
brengt op een heel duidelijke manier de niet-linguistische komponent
van de taalverwerking in het vizier: de semantisch/pragmatische
kontekst die we op een of andere manier op de linguïstische
input proberen te projekteren. In de vroege stadia van taalgebruik
moet deze komponent duidelijk de overheersende zijn -- later wordt
de linguïstische steeds prominenter. (Daarom kunnen volwassen
taalgebruikers "grammatikaliteitsoordelen" hebben over
"voorbeeldzinnetjes" zonder kontekst. Bij beginnende taalgebruikers
zou dat niet mogelijk zijn.) Het hier ontwikkelde gezichtspunt levert
voor het eerst uitzicht op een plausibel model van het taalverwervingsproces:
de geleidelijke ontwikkeling van de linguïstische komponent
van de taalverwerking, door de geleidelijke toename van het repertoire
van, geleidelijk aan ook complexere, linguïstische ervaringen.
In de Chomskyaanse
traditie gaat men uit van de aanname dat er veel meer specifieke
taalkundige kennis is aangeboren. Om vast te stellen of dat misschien
inderdaad zo is zouden we empirische gegevens nodig hebben over
de geleidelijke ontwikkeling van de taalbeheersing van een individu.
Merkwaardig genoeg is Chomsky daar niet in geïnteresseerd.
Hij zei daarover: "... we really would have to have a complete
record of a person's experience - a job that would be totally boring;
there is no empirical problem in getting this information, but nobody
in his right mind would try to do it." [27] Deze opmerking is interessant, omdat eruit blijkt dat de linguïstische
traditie zich niet uitsluitend definieert in termen van zijn objekt
van onderzoek, maar evenzeer in termen van zijn methoden. Hier ligt
daarom een taak voor de computerlinguïstiek, die zich ook met
taal bezighoudt, maar zich niet zo vastgelegd heeft op specifieke
methodes. Het verzamelen en doorzoeken van reusachtige corpora met
het doel om de feiten betreffende de "poverty of the stimulus"
nu eens empirisch vast te stellen, zou een computerlinguïst
misschien wel opwindend vinden, in plaats van "boring".
Conclusie.
Laat ik tot
slot terugkomen op het begin van deze voordracht, en konkluderen
dat er zekere voordelen zitten aan een vak dat zijn identiteit nog
niet bepaald heeft. Zo'n vak kan funktioneren als een vrijplaats
waar dingen gebeuren die in de bestaande disciplines niet zo goed
passen; waar elementen uit verschillende disciplines bij elkaar
komen op een manier waar de orthodoxieën van die disciplines
doorbreekt. Geen interdisciplinair, maar transdisciplinair onderzoek.
Alfa-informatica: een katalytisch vak dat, naar ik hoop, een stimulerende
invloed zal hebben op de vele vakgebieden waarmee het "interfeest",
in de Letteren en ook daarbuiten.
Referenties.
J. Baudrillard:
Simulations. New York: Semiotext(e), 1983.
A.L. Becker:
Biography of a sentence: a Burmese proverb. In: E.M. Bruner (red.):
Text, play, and story: The construction and reconstruction of
self and society. Washington, D.C.: American Ethnology Society,
1984a. Pp. 135-155.
A.L. Becker:
The linguistics of particularity: Interpreting superordination in
a Javanese text. Proceedings of the Tenth Annual Meeting of
the Berkeley Linguistics Society, pp. 425-436. Berkeley, Cal.:
Linguistics Department, University of California at Berkeley, 1984b.
L. Bloomfield:
Language. London: George Allen & Unwin, 1933/1935.
R. Bod: "A
Computational Model of Language Performance: Data Oriented Parsing."
Proceedings COLING '92, Nantes, 1992.
D. Bolinger:
Syntactic blends and other matters. Language 37,
3 (1961), pp. 366-381.
D. Bolinger:
Meaning and Memory. Forum Linguisticum 1,
1 (1976), pp. 1-14.
R.P. Botha:
Challenging Chomsky. The Generative Garden Game. Oxford:
Basil Blackwell, 1989.
N. Chomsky:
Syntactic Structures. Den Haag: Mouton, 1957.
N. Chomsky:
Aspects of the Theory of Syntax. Cambridge, Mass.: MIT
Press, 1965.
N. Chomsky:
Cartesian Linguistics. A Chapter in the History of Rationalist
Thought. New York: Harper & Row. 1966.
N. Chomsky:
Rules and Representations. New York: Columbia University
Press, 1980.
N. Chomsky:
The Generative Enterprise. A discussion with Riny Huybregts
and Henk van Riemsdijk. Dordrecht: Foris, 1982.
N. Chomsky: "On cognitive structures and their development: A reply to
Piaget. As well as other contributions to the Abbaye de Royaumont
debate (October 1975)." In: Piatelli-Palmarini(1983).
N. Chomsky:
Some Notes on Economy of Derivation and Representation. In: I. Laka
en A. Mahajan (red.): Functional Heads and Clause Structure.
MIT Working Papers in Linguistics, 10 (1989).
N. Chomsky:
Knowledge of Language: Its nature, origin and use. New
York: Praeger, 1986.
R. Collard,
P. Vos en E. Leeuwenberg: "What Melody tells about Metre in
Music." Zeitschrift für Psychologie, 189 (1981),
pp. 25-33.
B. Croce: Estetica
come scienza dell' espressione e linguistica generale. Parte
I. 1902. Engelse vertaling: The Aesthetic as the Science of
Expression and of the Linguistic in General. Cambridge, UK:
Cambridge University Press, 1992.
E.A. Esper:
Analogy and Association in Linguistics and Psychology.
Athens, Georgia: University of Georgia Press, 1973.
C.J. Fillmore,
P. Kay, and M.C. O'Connor: "Regularity and idiomaticity in
grammatical constructions. The case of 'let alone'." Language,
64, 3 (1988)
J.A. Fodor:
The language of thought. New York: T.Y. Crowell, 1975.
P.A. van der
Helm en E.L.J. Leeuwenberg: "Avoiding Explosive Search in Automatic
Selection of Simplest Pattern Codes." Pattern Recognition,
19, 2 (1985), 181-191.
B. Herrnstein
Smith: Contingencies of Value. Alternative Perspectives for
Critical Theory. Cambridge, Mass.: Harvard University Press,
1988.
W.D. Hillis: "Intelligence as an Emergent Behavior; or, The Songs of Eden."
Daedalus, Winter 1988, pp. 175-189.
P. Hopper:
Emergent Grammar. Proceedings of the 13th Annual Meeting of
the Berkeley Linguistics Society. Berkeley, Cal.: Linguistics
Department, University of California at Berkeley, 1987.
F. Jameson:
The prison-house of language: A critical account of structuralism
and Russian Formalism. Princeton and Londen: Princeton University
Press, 1972.
T.-K. Kang:
Die grammatische und die psychologische Interpretation in der
Hermeneutik Schleiermachers. Ph. D. Thesis, Eberhard-Karls-Universität
Tübingen, 1978.
I. Kant: Kritik
der Urteilskraft. 1799.
S.K. Langer:
Mind: An Essay on Human Feeling, Vol. 1. Baltimore: The
Johns Hopkins University Press, 1967.
S.K. Langer:
Mind: An Essay on Human Feeling, Vol. 2. Baltimore: The
Johns Hopkins University Press, 1972.
E.L.J. Leeuwenberg:
Structural Information of Visual Patterns. Den Haag: Mouton,
1968.
E.L.J. Leeuwenberg:
Quantitative Specification of Information in Sequential Patterns.
Psychological Review, 26, 2 (1969), 216-220.
E.L.J. Leeuwenberg:
A Perceptual Coding Language for Visual and Auditory Patterns. American
Journal of Psychology, 84, 3 (1971).
W.J.M. Levelt: "De connectionistische mode. Symbolische en subsymbolische
modellen van het menselijk gedrag." In: C. Brown, P. Hagoort,
en Th. Meijering (red.): Vensters op de geest. Cognitie op het
snijvlak van filosofie en psychologie. Utrecht: Stichting Grafiet,
1989. Pp. 202-219.
A. Lock: The
Guided Reinvention of Language. Londen: Academic Press, 1980.
J.L. McClelland,
D.E. Rumelhart, and the PDP Research Group: Parallel Distributed
Processing: Explorations in the microstructure of cognition. Volume
2: Psychological and biological models. Cambridge, Mass.: MIT Press,
1986.
M. Piatelli-Palmarini:
Language and Learning. The debate between Jean Piaget and Noam
Chomsky. Londen: Routledge and Kegan Paul, 1983.
S. Pinker en
J. Mehler (red.): Connections and Symbols. Cambridge, Mass.:
MIT Press, 1988.
G.N. Reeke
en G.M. Edelman: "Real Brains and Artificial Intelligence."
Daedalus, Winter 1988, pp. 143-173.
D.E. Rumelhart,
J.L. McClelland, and the PDP Research Group: Parallel Distributed
Processing: Explorations in the microstructure of cognition. Volume
1: Foundations. Cambridge, Mass.: MIT Press, 1986.
F. de Saussure:
Cours de Linguistique Générale. 1915. Engelse
vertaling: Course in General Linguistics. New York: McGraw-Hill,
1966.
R. Scha: "Artificiële
Kunst. De Jacquard Lezing." Informatie en Informatiebeleid,
6, 4 (winter 1988), pp. 73-80. Ook in: Zeezucht,
4 (februari/maart 1991), pp. 29-34.
R. Scha: Taaltheorie
en Taaltechnologie; Competence en Performance." In: R. de Kort
and G.L.J. Leerdam (red.): Computertoepassingen in de Neerlandistiek.
Almere: LVVN, 1990.
A.W. Schlegel:
Vorlesungen über schöne Literatur und Kunst,
I, Die Kunstlehre. Stuttgart, 1963.
J.C. Scholtes:
Resolving linguistic ambiguities with a neural data-oriented parsing
(DOP) system. Proceedings of the International Conference on
Artificial Neural Networks. Brighton, UK, 1992.
J.C. Scholtes
en S. Bloembergen: The design of a Neural Data-Oriented Parsing
(DOP) System. Proceedings of the International Joint Conference
on Neural Networks. Baltimore, 1992.
D. Sperber:
Rethinking Symbolism. Cambridge, UK: Cambridge University
Press. 1975.
S.P. Stich:
What every speaker knows. Philosophical Review, 80 (1971),
pp. 476-496.
T. Todorov:
Théories du Symbole. Parijs: Éditions du
Seuil, 1977.
Th. Vennemann: "Words and syllables in natural generative grammar." In:
A. Bruck et al. (red.): Papers from the Parasession on Natural
Phonology. Chicago: Chicago Linguistics Society, 1974.
Footnotes
[1] Een eerdere versie van deze tekst vormde het uitgangspunt voor de
rede, die ik grotendeels parafraserenderwijs heb uitgesproken bij
mijn officiële aanvaarding van het ambt van Hoogleraar in de
Alfa-informatica aan de Faculteit der Letteren van de Universiteit
van Amsterdam, op woensdag 23 januari 1991. Ik heb de vrijheid genomen
enkele formuleringen te verbeteren, nieuwe informatie te insereren,
en het noten-apparaat wat uit te breiden. Enkele alinea's zijn ontleend
aan een eerdere voordracht, gehouden voor het jaarlijkse congres
van de Landelijke Vereniging van Neerlandici (Scha, 1990).
[2] "Saussure's originality was to have insisted on the fact that
language as a total system is complete at every moment, no matter
what happens to have been altered in it a moment before". (Jameson,
1972).
[3]
Zie b.v. Bloomfield (1933), pp.34-37.
[4]
Voor een historisch overzicht zie Esper (1973).
[5] Chomsky (1966, p. 12/13; zie ook 1986, p. 32). De manier waarop
het woord "creative" hier gebruikt wordt is bij eerste
kennismaking misschien verwarrend. Met "the creative aspect
of language use" bedoelt Chomsky niet meer en niet minder dan
het verschijnsel dat de meeste zinnen die geuit en verwerkt worden
"nieuw" zijn, d.w.z. nog niet eerder letterlijk voorgekomen.
[6]
Chomsky(1980), p. 222.
[7] Een typisch voorbeeld is Chomsky zelf. In een openhartig gesprek
dat hij had met Riny Huybregts en Henk van Riemsdijk, kwam de vraag
aan de orde of er niet een zekere spanning, of zelfs een tegenspraak,
bestaat tussen enerzijds de rijke complexiteit van de psychologische
mechanismen die we moeten postuleren om de menselijke taalverwerving
te verantwoorden, en anderzijds Chomsky's natuurwetenschappelijk
geïnspireerde ideaal van een eenvoudige en elegante taaltheorie.
Hij zegt dan o.m.: "... it might be a fundamental error
to search for too much elegance in the theory of language, because
maybe those parts of the brain developed the way they did in part
accidentally. For example, what has been so far a very productive
leading idea, trying to eliminate redundancy, could be argued to
be the wrong move, because in fact we know that biological systems
tend to be highly redundant for good reasons. Suppose it does turn
out that biological systems are messy, either because of historical
accident or maybe they work better when they're messy. They may
provide many different ways of doing the same thing. If something
fails, something else will work. To the extent that that is true,
the theory of these systems is going to be messy too. If that would
be the case, it might be really a fundamental error to be guided
too much by an effort to eliminate redundancy in developing explanatory
theories. I think that is something to bear in mind. In this sense
this paradox, if you like, may be a very real one. I think, with
all due caution, we can just judge by how productive it is. So far
it seems to me to have been reasonably productive, to pretend that
we're doing elementary particle physics. Yet, I think we ought to
bear in mind that we might be going quite in the wrong direction,
and that might show up, sooner or later." En dan besluit
hij, somber van toon: "It would be unfortunate. I don't
know about others, but for me it would mean that the field would
lose a lot of its interest." (Chomsky 1982, 30-31)
[8] "Doesn't every science live on this paradoxical slope to which
it is doomed by the evanescence of its object in the very process
of its apprehension, and by the pitiless reversal this dead object
exerts on it?" (Baudrillard, 1983, p.13/14.) De taalkunde blijkbaar
niet.
[9] Voor de waarneming van visuele en muzikale strukturen is deze gedachte
het verst formeel uitgewerkt in het onderzoek van Emmanuel Leeuwenberg
te Nijmegen. Zie: Leeuwenberg (1968, 1969,1971), Collard et al.
(1981), Van der Helm en Leeuwenberg (1985). Wat de taal betreft
is er een gedeeltelijke analogie met de "Derivational Theory
of Complexity" die het psycholinguistisch pendant vormde van
Chomsky's thans verlaten "Standard Theory" (Chomsky, 1965).
De zeer tentatieve ideeën over "Economy of Derivation"
en "Economy of Representation", die geopperd zijn in de
context van de huidige "Theory of Government and Binding",
kunnen wellicht ook geïnterpreteerd worden als in deze richting
wijzend, maar zijn in hun huidige formulering essentieel anders
van aard. Zie: Chomsky(1989).
[10]
Opzettelijk maar ten onrechte verwaarloos ik hier de discourse-dimensie
van de taal.
[11] Voor de kontekstafhankelijkheid van de interpretatie geldt hetzelfde.
Een data-georiënteerde interpretatieproces formaliseert dus
bepaalde aspekten van het door de negentiende-eeuwse theoloog/filosoof
Friedrich Schleiermacher beschreven hermeneutische proces. Schleiermacher
ontkent expliciet de mogelijkheid van algemene, kontekst-onafhankelijke
interpretatieregels. Hij interpreteert woorden en konstrukties op
basis van voorkomens ervan in "Parallelstellen", en onderscheidt
daarbij "nahe Parallelstellen" van "entfernte Parallelstellen".
Zie Kang (1978), p.101.
[12] Vennemann (1974) heeft een volledig datageoriënteerde aanpak
reeds gesuggereerd voor de phonologie. Herrnstein Smith (1988) argumenteert
op een heel globaal niveau voor dit soort benaderingen in de menswetenschappen.
(Zie b.v. p. 148.)
[13]
Zie Chomsky, 1986, pp. 150-151.
[14]
De discussie tussen Chomsky en Putnam in Piatelli-Palmarini(1983)
is, bij voorbeeld, nogal inconclusief. Chomsky betoogt dat er geen
verantwoording van het taalverwervingsproces in termen van een algemene
leertheorie bestaat, en Putnam argumenteert dat er geen argumenten
zijn om de verwerving van het taalvermogen een unieke status toe
te kennen. Ze hebben allebei gelijk. (Vgl. ook Botha,1989, pp. 29-31.)
[15] "U.G. may be regarded as a characterization of the genetically
determined language faculty." (Chomsky, 1986, p.3)
[16]
Chomsky, 1986, p. 204, note 3. Vgl. ook: Botha, 1989, pp. 13-32.
[17]
Zie b.v. Rumelhart et al. (1986), McClelland et al. (1986).
[18] Als je de essentiële eigenschappen van het menselijk brein
en van de kunstmatige neurale netwerken vergelijkt, zijn de verschillen
erg indrukwekkend. Zie b.v. Reeke en Edelman (1988), pp.152/153.
[19] Zie b.v. Pinker & Mehler (1988), Levelt (1989).
[20]
Kant, 1799, pp. 192/193.
[21]
Zie het hoofdstuk over de Romantiek in Todorov (1977). Maar deze
opvatting over de aard van het symbool is allerminst tot de Romantici
beperkt. Sperber (1975) meent dat het symboolbegrip dat in de anthropologie
gehanteerd wordt net zo'n open karakter moet hebben. Ook de interpretatie
van hedendaagse kunst kan moeilijk anders gezien worden. (Zie Scha
(1988)).
[22] Deze essentiële eenheid van esthetica en linguïstiek werd
ook al met zoveel woorden geasserteerd door Benedetto Croce (1902,
Hoofdstuk 18).
[23]
Maar Chomsky's idee dat het menselijk vermogen tot rekursie een
bizonder interessante en belangrijke eigenschap is, zou heel goed
kunnen kloppen, en is alleszins kompatibel met mijn voorstel. (Vgl.
Chomsky, 1980, pp.239-240; 1982, pp.19-20.)
[24]
Dit inzicht heb ik ontleend aan het werk van Susanne Langer (1967,
Part II; 1972, Hoofdstuk 17). Een soortgelijke gedachte wordt gesuggereerd
door het verhaal over het ontstaan van de taal dat Daniel Hillis(1988)
vertelt.
[25]
Vgl. Lock (1980).
[26] Terwille van degenen onder u die zo'n standpunt niet absurd vinden,
wil ik nog opmerken dat Fodor zijn redenering niet helemaal ten
einde heeft gedacht. Als we accepteren dat ons conceptuele repertoire
is aangeboren, dan kan namelijk zijn redenering precies net zo worden
toegepast op de biologische evolutie van ons genetische conceptuele
repertoire. En dan volgt daar dus uit dat de dode stof al over dat
zelfde conceptuele repertoire beschikt! Ik vind het wel pikant dat
deze verbeterde versie van Fodor's redenering al enige tijd geleden
in alle ernst naar voren gebracht is, en wel door de onorthodoxe
Jesuïet en paleontholoog Pierre Teilhard de Chardin, toen die
zijn visionaire Darwinistische heilsleer ontvouwde in het boek "Le
Phénomène Humain."
[27]
Chomsky, 1983, p. 113.