Je leest:

Stemmen in je hoofd

Stemmen in je hoofd

Auteur: | 7 november 2008

Wetenschappers van de Universiteit Maastricht hebben vastgesteld welke hersengebieden actief zijn bij spraakherkenning en welke bij sprekeridentificatie. In Science leggen ze uit hoe ze dit met behulp van fMRI en data mining voor elkaar hebben gekregen. Hun bevindingen gaan in tegen bestaande theorieën over spraakverwerking in de hersenen.

Spraak kan je altijd verstaan, ongeacht wie de spreker is. Dit is best knap van ons brein, want geen twee sprekers spreken een klank op exact dezelfde manier uit. Altijd is er wel een klein verschil in bijvoorbeeld de stembandsluiting of de plaatsing van de tong in de mond, waardoor de klank net iets verschilt van die van een andere spreker. Toch weten we precies wat er gezegd wordt. Tegelijk kan je door die persoonlijke spraakkenmerken ook de spreker herkennen. Je weet meteen of je luistert naar een goede vriendin of naar een volslagen onbekende.

Wetenschappers van de Universiteit Maastricht publiceren deze week in Science hun onderzoek waarin ze berekend hebben welk gedeelte van de hersenen betrokken is bij spraakherkenning en welk bij sprekerherkenning. Hierbij hebben ze gebruik gemaakt van hersenscans (fMRI) van luisteraars en van een ingewikkeld algoritme dat vervolgens berekent welke hersenactiviteit waarvoor verantwoordelijk is.

fMRI is een techniek om hersenactiviteit te meten. Proefpersonen worden in een fMRI scanner gelegd en krijgen plaatjes te zien, geluiden te horen, of moeten een bepaald taakje uitvoeren. De hersenactiviteit tijdens het kijken, luisteren of de handeling wordt vervolgens op anatomische hersenbeelden van dezelfde proefpersoon geprojecteerd. Zo kunnen we in het levende brein zien welke hersengebieden betrokken zijn bij een bepaalde hersenfunctie.

Wie zegt wat?

De onderzoekers hebben de hersenscans van 7 proefpersonen met elkaar vergeleken. Op deze hersenscans was de hersenactiviteit zichtbaar tijdens het luisteren naar 3 klinkers (/a/, /i/ en /o/) uitgesproken door 3 verschillende Nederlandse sprekers. De onderzoekers beredeneerden dat hersengebieden die actief zijn onafhankelijk van wat er gezegd wordt, verantwoordelijk moesten zijn voor de sprekeridentificatie. Gebieden die actief zijn onafhankelijk van wie er spreekt zijn bepalend voor de herkenning van de klinkers, de spraakherkenning. Met andere woorden, de gebieden die de stem herkennen maakt het niks uit wat die spreker zegt, en de gebieden die de spraak herkennen maakt het niks uit wie het zegt.

Om vast te stellen welke hersenactiviteit waarvoor verantwoordelijk is, hebben de onderzoekers gebruik gemaakt van data mining. Bij data mining probeert de computer patronen te vinden in grote hoeveelheden gegevens. In dit geval dus heeft de computer gekeken welke gebieden bij de proefpersonen actief waren ongeacht wat een bepaalde spreker zei en welke actief waren ongeacht van welke spreker iets zei. In de volgende figuur zie je precies welke patronen zo zijn gevonden.

Met behulp van data mining heeft de computer vastgesteld welke hersengebieden alleen actief zijn bij klinkerherkenning (de rode gebieden) en welke alleen bij sprekerherkenning (de blauwe gebieden).

Toch niet stap-voor-stap?

De hersengebieden die actief zijn bij spraakherkenning en sprekeridentificatie liggen in een regio die betrokken is bij de primaire auditieve verwerking van spraak. Op basis van eerder onderzoek hadden de wetenschappers echter verwacht dat bij deze complexe taken ‘hogere level’- gebieden meer betrokken zouden zijn. Dit zijn de gebieden waar de spraak na de eerste, snelle verwerking verder verwerkt wordt tot de luisteraar de boodschap precies heeft begrepen.

Volgens de onderzoekers ontkrachten hun bevindingen de theorie dat hersenen spraak stap-voor-stap steeds verder verwerken. Spraak- en sprekerherkenning zou niet zo hiërarchisch verlopen en al plaatsvinden in de primaire auditieve gebieden. Om dit zeker te weten moet verder onderzoek plaatsvinden, waarbij niet alleen naar losse klinkers, maar ook naar hele woorden en zinnen wordt gekeken.

Elia Formisano, Federico De Martino, Milene Bonte, Rainer Goebel, “Who” is Saying “What”? Brain-Based Decoding of Human Voice and Speech, Science vol. 322, 7 November 2008, pp 970-973.

Dit artikel is een publicatie van NEMO Kennislink.
© NEMO Kennislink, sommige rechten voorbehouden
Dit artikel publiceerde NEMO Kennislink op 07 november 2008

Discussieer mee

0

Vragen, opmerkingen of bijdragen over dit artikel of het onderwerp? Neem deel aan de discussie.

NEMO Kennislink nieuwsbrief
Ontvang elke week onze nieuwsbrief met het laatste nieuws uit de wetenschap.