Naar de content

Computermodel legt taalleermechanismen bloot

Een close up van een babygezicht met fel blauwe ogen.
Een close up van een babygezicht met fel blauwe ogen.
Flickr, Sarah Buckley via CC BY 2.0

Hoe leren mensen taal? En zijn er overeenkomsten met de manier waarop vogels zich hun zangrepertoire eigen maken? Raquel Garrido Alhama ontwikkelde een voorspellend computermodel op basis van een groot aantal studies.

Een groene en blauwe achtergrond met binaire codenummers.

Aan de hand van de resultaten van een groot aantal studies zocht de computer naar patronen.

Wiki Commons, DARPA,CC-0

Het is een heel moderne manier van onderzoek doen. Voor haar proefschrift voerde Alhama zelf geen experimenten uit; ze zette de computer aan het werk. Daarbij maakte ze gebruik van een grote hoeveelheid bestaande data, afkomstig uit eerdere studies. In al die studies stond taal leren centraal, niet alleen bij mensen maar ook bij dieren. Op basis van al die gegevens ging de computer op zoek naar terugkerende patronen. Zo kon de promovendus de belangrijkste mechanismen blootleggen die een rol spelen bij het leren van taal en een voorspellend computermodel ontwikkelen. Dat model kan wellicht in de toekomst van belang zijn voor echte toepassingen. Vooralsnog gaat het om heel fundamenteel onderzoek naar de manier waarop wij taal leren.

Kunsttalen en vogelzang

De input voor de computer kwam van een groot aantal gedragsexperimenten. Bij dat soort experimenten onderzoek je wat er in de hersenen gebeurt op basis van gedrag. “In het babylab bestuderen taalkundigen bijvoorbeeld welke hoofdbewegingen een kind maakt bij het horen van allerlei soorten taaluitingen. En bij volwassenen maak je gebruik van vragenlijsten”, vertelt Alhama.

Ook in een ander opzicht zijn de geanalyseerde studies vergelijkbaar. Ze werken namelijk allemaal met kunstmatige talen, legt Alhama uit. “Taalverwervingsonderzoek gebeurt vaak met behulp van artificiële talen. Elk woord in die taal is met zorg gekozen, zodat het taalysteem heel regelmatig in elkaar zit. Onderzoekers maken gebruik van artificiële talen omdat ze daarbij alle condities onder controle hebben, en dat maakt het makkelijk om te analyseren.”

Lees meer over de structuur in vinkenzang in dit Kennislinkartikel over het onderzoek van Jelle Zuidema (Universiteit van Amsterdam).

patries71 via flickr.com CC BY-NC-ND 2.0

Overigens gebruikt men dit principe van kunstmatige talen niet alleen in experimenten bij mensen, maar ook bij dieren. Het gaat dan vooral om studies met zangvogels: die hebben dan wel geen taal zoals mensen, maar wel indrukwekkende zangrepertoires die kenmerken delen met mensentaal. Zo zijn ze op te splitsen in kleinere eenheden die je op een bepaalde manier met elkaar kunt combineren.

Vogelzaad of licht uit

Hoe kun je vogels nou een kunsttaal leren? Alhama legt het uit: “Je kunt een taal bedenken waarbij je gebruikmaakt van de bouwstenen van hun eigen melodietjes. Eerst maak je opnames van zangvogels, en vervolgens deel je die opname in op vaste klankcombinaties, zeg maar lettergrepen. Die lettergrepen kun je dan opnieuw combineren zodat er een kunsttaal ontstaat.”

Je kunt vervolgens de vogels die nieuwe taal laten leren met behulp van een beloningssysteem. “Ze krijgen dan bijvoorbeeld ‘grammaticale’ en ‘ongrammaticale’ deuntjes te horen, waarop ze wel of niet moeten reageren door op een knop te drukken. Als ze op de knop drukken bij een grammaticaal deuntje krijgen ze vers vogelzaad. Als ze drukken bij een ongrammaticaal deuntje, gaat het licht een paar seconden uit: dat vinden ze niet leuk.”

Woordgrenzen en grammatica

De studies die Alhama opnam in haar corpus, gebruikten dus eenzelfde methodologie voor proefpersonen en proefdieren. Maar was het leerpoces ook vergelijkbaar? Leren mensen en dieren op eenzelfde manier? “Voor een deel wel”, stelt de promovendus. “Bij het leren van taal zijn twee mechanismen cruciaal. Het ontdekken van woordgrenzen enerzijds en van grammaticaregels anderzijds. En die mechanismen vinden we in zekere zin terug bij mens en dier. Wel werken ze bij dieren anders dan bij mensen en bovendien zijn de cognitieve vermogens van dieren veel beperkter.”

Het ontdekken van woordgrenzen noemt men ook wel segmentatie. Dat is nog niet zo makkelijk als het lijkt: als we praten laten we geen pauzes vallen tussen woorden. Baby’s horen dus een aaneenschakeling van klanken. Om te ontdekken welke klankcombinaties woorden vormen, zijn hun hersenen continu aan het rekenen. Alhama: “Ze berekenen bijvoorbeeld hoe vaak een lettergreep volgt op een andere lettergreep. Als ze vaak ta-fel horen, gaan ze ontdekken dat die klanken bij elkaar horen. Ook dieren maken gebruik van segmentatie, op een iets andere manier. Bij het leren van grammatica zijn er grotere verschillen.”

Onverwachte uitkomsten

Of en hoe dieren grammatica leren, is nog een groot discussiepunt in de taalkunde. Maar voor het ontwikkelen van dit computermodel was het niet relevant. Belangrijker is dat het model dat eruit rolde, voorspellingen kon doen die houdbaar bleken. “Het interessante aan zo’n model is dat je ook nieuwe vragen kunt stellen aan de data, en dan komen er soms onverwachte resultaten uit.”

Zo blijken we sommige nieuwe woorden beter te onthouden dan andere. En dat had in dit experiment niks met de frequentie van de woorden te maken, want ze werden even vaak aangeboden. Alhama heeft wel een vermoeden hoe het komt dat we sommige woorden beter onthouden dan andere: “We kunnen niet vanaf het begin af aan alles onthouden. Dus pikken we er willekeurig lettergrepen uit die we als eerste opslaan, terwijl we andere nog even negeren, en in een later stadium oppikken. Maar het is ook mogelijk dat sommige klanken gewoon meer opvallen. Daar moeten we nog meer onderzoek naar doen.”

Tabula rasa

Dat het model van Alhama goeie voorspellingen doet, is in eerste instantie te danken aan de grote hoeveelheid data die ze gebruikte. Maar ook deed ze een belangrijke toevoeging aan bestaande computermodellen. “Andere modellen gaan uit van een tabula rasa, een ongeschreven blad, op het moment dat kinderen een nieuwe taal leren in een babylab. Maar op dat moment hebben ze natuurlijk al veel taalervaring opgedaan. Bovendien zijn er allerlei hersenverbindingen gelegd die hen kunnen helpen bij het onthouden. Dus die heb ik ook opgenomen in het model.”

Wat kunnen we nu eigenlijk met zo’n computermodel? Het geeft inzicht in ons taalleerproces, maar kan het ook gebruikt worden om bijvoorbeeld computers taal te leren? Hoewel het proefschrift van Alhama puur theoretisch van aard is, zijn toepassingen in kunstmatige intelligentiesystemen zeker mogelijk. De promovendus ziet zelf al veel overeenkomsten tussen haar model en succesvolle zelflerende systemen in de kunstmatige intelligentie. “Wellicht kan mijn model dienen als inspiratiebron.”

Bron:
ReactiesReageer