Chatbots, online vertaaldiensten: steeds vaker ‘praten’ we direct met een computer. Gefrustreerd constateren we dan dat zo’n systeem taal niet écht begrijpt. Dat komt doordat computers heel anders omgaan met taal dan het menselijk brein. Cognitiewetenschapper Andrea Martin ontwikkelt een taalmodel dat wél realistisch is.
Iedereen die wel eens een gesprek heeft proberen te voeren met de virtuele assistent van Apple, Google of Amazon weet: dat gaat niet. Eenvoudige verzoekjes herkent het systeem nog wel, maar zodra je afwijkt van het script waarvoor het is getraind, loop je vast in een web van miscommunicatie. Hetzelfde geldt voor conversaties met chatbots op websites en ook automatische vertaaldiensten kun je beter niet blindelings vertrouwen. De computer begrijpt je duidelijk niet écht.
En dat is niet vreemd, stelt Andrea Martin, cognitiewetenschapper en leider van een onderzoeksgroep aan het Max Planck Instituut in Nijmegen. “Voor deze computersystemen doet de betekenis of de interpretatie er ook helemaal niet toe”, legt ze uit. “Ze begríj́pen taal niet, ze voorspellen alleen steeds het volgende woord. Dat doen ze op basis van de trainingsdata: grote hoeveelheden tekst van bijvoorbeeld Wikipedia of Reddit. En dan kijken ze niet alleen naar de woorden vóór het te voorspellen woord, maar ook naar die erna, in de toekomst dus. Dat lijkt in niets op hoe het menselijk brein taal begrijpt.”
Wonderlijke combinatie
Wat maakt het menselijk taalvermogen dan zo bijzonder dat het zich lastig laat vertalen naar een begrijpende computer? “Het menselijk brein vertoont een paradox als het op taal aankomt”, stelt Martin. “We bouwen onze taalkennis op door statistische regelmatigheden te ontdekken in de taal die we om ons heen horen, maar ons alledaagse taalgebruik laat ook zien dat we continu losbreken van die statistische kennis.” We produceren én begrijpen elke dag weer taaluitingen – woorden, gebaren, zinnen — die we nog nooit eerder hebben gehoord, of alleen in andere contexten hebben gebruikt.
Kijk bijvoorbeeld naar relatief nieuwe woorden, zoals ‘ontvrienden’ of ‘weigerambtenaar’. De eerste keer dat je deze woorden hoorde of las, kon je toch meteen de betekenis afleiden. Martin: “Zulke woorden komen niet totaal willekeurig tot stand, ze volgen de regels van de taal. Die regels kennen we en kunnen we dus gebruiken om de betekenis af te leiden.” Aan de uitgang en van ‘ontvrienden’ zie je dat het om een werkwoord gaat, en het voorvoegsel ont duidt op een ontkenning. Zo kom je tot de betekenis ‘een vriendschap verbreken’.
Deze wonderlijke combinatie van patroonherkenning en creativiteit ligt ook aan de basis van hoe kleine kinderen taal leren. “Uit de talige input die ze krijgen, destilleren kinderen de onderliggende regels. Vervolgens produceren ze op basis daarvan nieuwe uitingen. Als dat nodig blijkt, kunnen ze de afgeleide regel daarna bijstellen.” Een peuter kan bijvoorbeeld zelf het voltooid deelwoord ‘gezoekt’ vormen; in het verlengde van ‘gepakt’, ‘gesmeerd’ en ‘gefietst’ dat hij eerder heeft gehoord. Na een tijdje zal het merken dat het toch ‘gezocht’ moet zijn en zijn persoonlijke mentale taalmodel daarop bijstellen.
Computers kunnen niet zo creatief en flexibel met taal omgaan. Martin: “Een computersysteem is beperkt tot het geven van de meest waarschijnlijke reactie op een gegeven input. Dat is dus het antwoord dat het vaakst voorkwam in de trainingsdata. Ze zullen nooit iets zeggen of begrijpen wat ze niet eerder gehoord hebben, zelfs al wijkt het maar miniem af van de trainingsdata.”
Realistisch taalmodel
Martin werkt met haar onderzoeksteam aan een theoretisch model dat taal wél verwerkt zoals het menselijk brein dat doet.
Hoe vertaal je die paradox naar zo’n taalmodel? “Het is belangrijk dat de theorie die we ontwikkelen past binnen wat we weten over taalverwerking vanuit verschillende vakgebieden, zoals taalkunde, cognitieve neurowetenschap en psychologie”, vertelt Martin. “Dat is heel veel: van informatie over hoe talen in elkaar zitten tot hoe we een zin in zijn geheel kunnen begrijpen en uitspreken. Maar ook bijvoorbeeld hoe hersencellen actief worden en zich daarna weer opladen. Die kennis is nog niet eerder samengebracht in één model.”
Het realistische taalmodel van Martin moet dus in de eerste plaats bekende effecten uit de wetenschappelijke literatuur kunnen nabootsen. Martin: “Woorden die voorspelbaarder zijn, moeten dus ook sneller worden herkend. Maar tegelijkertijd moet het model ook kunnen omgaan met onvoorspelbare woorden of nieuwe zinnen. Als het dat niet kan, klopt er ergens iets niet en moeten we terug naar de tekentafel.”
Daarnaast moet het model ook de uitkomsten van enkele nieuwe experimenten met een MEG-scanner grotendeels kunnen verklaren. Deze scanner registreert tot op de milliseconden de magnetische velden die in het brein ontstaan door hersenactiviteit. Martin: “We hebben inmiddels een grote dataset van MEG-registraties van volwassenen die luisteren naar een luisterboek met sprookjes van de gebroeders Grimm. Gelukkig maar, want vanwege corona is het nu lastig om aan proefpersonen te komen.”
Uit de MEG-data kunnen onderzoekers bijvoorbeeld opmaken hoe voorspelbaar een lettergreep of woord is op basis van de voorafgaande woorden. Het taalmodel van Martin moet tot dezelfde conclusie leiden. Zo niet, dan moet het worden bijgesteld. “Ook kijken we hoe verschillende grammaticale structuren gerelateerd zijn aan neurale reacties in het brein”, vertelt Martin. “We hopen zo de eerste stappen te zetten in het begrijpen hoe de hersenen zowel statistische als regelgebaseerde informatie herbergen.”
Levenswerk
De eerste versie van het theoretische model publiceerde Martin al in 2016. En tweede, geüpdatete versie verscheen in 2020. “Daarin is ook neurowetenschappelijke kennis opgenomen”, legt ze uit. “Zoals dat gaat in de wetenschap zal dit model misschien nooit compleet zijn. Om de zoveel jaar kunnen we een update geven, als er meer informatie bekend is of als we ze zien dat de principes in de theorie niet overeenkomen met de experimentele data. Het model is mijn levenswerk.”
Martin verwacht niet dat haar model direct gebruikt zal worden in technische toepassingen. “Daarvoor is nog te veel onbekend. Maar cognitieve en neurowetenschappelijke kennis is wel nodig als we de interactie met een computer menselijker willen maken. Als je de principes van taalverwerking begrijpt, zal dat helpen om betere oplossingen te bedenken. Of zoals de Duitse natuurkundige Max Planck al zei: ‘Inzicht moet voorafgaan aan toepassing.’”
Zullen er ooit computers zijn die ons wel echt begrijpen? “Dat ligt eraan wat je onder begrijpen verstaat. Als je daarmee doelt op het volgen van met woorden of gebaren gegeven instructies: dat doen ze al tot op zekere hoogte. Maar als je meer wil dan het vertalen van een uiting in een commando of een vooraf bepaalde reactie, dan wordt het denk ik lastig. Zelfs als machines ooit een zin echt kunnen interpreteren, kunnen ze niet weten naar welke concepten de woorden verwijzen, hoe die concepten in een groot netwerk verbonden zijn met andere kennis en hoe de ontvanger de betekenis ervaart. Het kan nog wel menselijker dan het nu is, maar ik denk niet dat machines ons ooit zullen begrijpen zoals we dat van een mens verwachten.”