Een robot heeft geen emoties, maar kan ze wel oproepen. Dat levert een voor wetenschappers interessant spanningsveld op. “Mensen gaan er vaak van uit dat een robot altijd de waarheid spreekt.”
Bezoekers van het Utrechtse evenement CTRL+ALT+PLAY schuifelen langzaam achteruit. Vanuit een garderobe komt een ober langzaam naar hen toe. De ober lijkt niet van plan te stoppen, waarop het groepje langzaam uiteensplijt. De ober lijkt zoekende, gaat langs de receptie, dan langs een meisje van een jaar of zes, dat tegen de ober begint te praten, maar geen reactie krijgt. Vervolgens stoot de ober tegen een bank en een paar seconde later tegen een tafel aan waar rendang, nacho’s, burgers en brownies worden verkocht. Enkele bezoekers gooien hun jassen over hem heen. De ober gaat tenslotte weer tussen de jassen staan.
De ober op dit evenement voor technologie, podiumkunsten en wetenschap is niet dronken of ongemanierd: het is Rober de horecarobot. Vier PhD’ers werken sinds een paar dagen met hem. De onderzoekers maken aantekeningen over hoe de robot in real life functioneert en interacteert met mensen. Rober zit nog in de testfase, dus enige compassie met de wat klungelige robot is op zijn plaats.

Robotober Rober staat in de garderobe tussen de jassen.
Daan AppelsAchter de zojuist aangereden hapjestafel staan Danielle Visser en Mila de Graaf, medewerkers van de cateraar die door het event is ingehuurd. Het duo kijkt wat meewarig naar de robot, die het uiterlijk heeft van een luxe serveerkarretje. Vrezen zij straks voor hun baan, als er meer Rober-achtigen de horeca bevolken? “Helemaal niet”, lacht Visser. “Mijn partner is heel erg van de technologische snufjes – ons huis staat er vol mee – maar ik kan me niet voorstellen dat ze dit ook wil in de horeca. Dan mis je het menselijke contact, de emotionele connectie.” Ook De Graaf moet lachen. “Ik durf te zeggen dat ik horecabezoekers beter een prettige avond kan bezorgen dan een robot. Aan de andere kant raakt een robot op een drukke dag niet overprikkeld”, analyseert ze met een knipoog.
Treurige geluidjes
Je zou kunnen zeggen dat Rober voor sommige gasten, zoals Visser en De Graaf, te weinig in staat is om een emotionele relatie aan te gaan. Er is ook wetenschappelijk onderzoek dat stelt dat robots just heel goed in staat zijn tot het ‘tonen’ van emoties. Zo bleek uit onderzoek van de Radboud Universiteit Nijmegen dat robots door het maken van treurige geluidjes en het opzetten van treurige ogen medelijden op kunnen roepen bij mensen. Onderzoekers van de Universität Duisburg-Essen vonden soortgelijke resultaten.
— Anouk Neerincx
Cognitief wetenschapper Fritz Breithaupt van de Indiana University Bloomington vertelde aan NBC News dat hij verwacht dat robots die inspelen op ons gevoel de toekomst zijn van AI. “Deze emotioneel manipulatieve robots zullen binnenkort onze emoties beter lezen dan mensen”, zo mailde hij NBC. “Hierdoor kunnen ze ons uitbuiten. Mensen zullen moeten leren dat robots niet neutraal zijn.” Ook Anouk Neerincx, onderzoeker sociale robotica aan de Universiteit Utrecht, denkt dat robots in staat zijn mensen vreemd gedrag te laten vertonen. “Ik las onderzoeken waaruit blijkt dat robots mensen gekke dingen kunnen laten doen, zoals een glas jus d’orange leeggooien in een plant. Ik weet niet of dat altijd emotionele manipulatie is, maar mensen gaan er vaak van uit dat een robot altijd de waarheid spreekt en precies weet wat je moet doen, omdat hij zogenaamd objectief is – een beetje zoals mensen ook naar computers kijken.”
Toch maakt Neerincx zich ‘niet heel veel zorgen’ over emotionele beïnvloeding door robots. Dat komt mede door strenge Europese regels. Zo vertelt ze dat robots niet zomaar emoties mogen registreren of opnemen. Wel pleit ze voor meer onderzoek naar de effecten van emotionele beïnvloeding door robots. “Doordat we robots zien als een machine die goed handelt en deze anders beoordelen dan mensen, worden we misschien wel vatbaarder voor emotionele manipulatie. Tegelijkertijd kan je zeggen dat een robot die een product aan consumenten verkoopt, hetzelfde doet als een menselijke verkoper. De vraag is of het erger is als een robot dit doet. Ik heb daar geen antwoord op; het zijn interessante filosofische vragen. Het antwoord hangt denk ik af van het doel van de robot en wie hem heeft gemaakt.” Het is daarom belangrijk dat robots uitleggen waarom ze iets doen, zodat gebruikers begrijpen wat er gebeurt, vindt ze. “Zeker bij kwetsbare groepen is transparantie essentieel. Zo kun je als gebruiker zelf beoordelen of de beslissing van de robot klopt.”
Achterlopende regelgeving
Vanessa Evers, hoogleraar human media interaction aan de Universiteit Twente, vertelt dat zij in haar onderzoek robots gebruikt die als ‘een hefboom’ werken van menselijke emoties en psychologie. Evers was als onderzoeker al in 2007 betrokken bij de ontwikkeling van een zorgrobot, die naast fysieke ondersteuning ook een gezonde levensstijl pusht. “Als iemand niet genoeg drinkt, wordt de robot traag in zijn reactie wanneer je iets van hem vraagt. Wanneer je dan weer water drinkt, fleurt hij op en gaat hij weer voor je aan de slag. Dit soort beïnvloeding wordt al heel lang gebruikt in productontwerp.”

In de Verenigde Staten mag een zelfijdende auto zonder bestuurder de weg op, zoals deze taxi in San Francisco.
9yz, CC-by-sa 4.0 vi Wikimedia CommonsZouden robotproducenten op zulke emotionele beïnvloeding verdienmodellen kunnen baseren en mensen kunnen uitbuiten? Dat een robot door zielig te doen consumenten uitdaagt om bijvoorbeeld een dure upgrade aan te schaffen? Evers denkt dat bestaande consumptiewetgeving kopers voldoende beschermt tegen de grillen van robotproducenten. De uitdaging is in haar ogen dat regelgeving soms achter de technologie aanloopt. Zo kan een nieuwe technologie zijn gebruikt, die nog niet is opgenomen in wetgeving, standaarden en regels. Ze geeft de techniek van zelfrijdende auto’s als voorbeeld. “Daar zie je dat proeftuinachtige constructies worden opgetuigd om te bepalen in welke verkeerssituaties auto’s zelf beslissen of ze remmen of uitwijken: een stad mag experimenteren met zelfrijdende taxi’s en daarvan leren we veel op technisch vlak. Het is belangrijk onderzoek naar het gedrag van mensen en robots te financieren; zo weten we al jaren vóór een robot op de markt komt wat voor- en nadelen zijn. Je kan dan proactief ingrijpen.”
En die arme en voorlopig wat stuntelige Rober? Volgens Evers moeten we niet te streng voor hem zijn en zijn sterke kanten benutten. Want hoewel Rober mogelijk nooit indringende gesprekken kan voeren met restaurantbezoekers, kan hij wel taken overnemen van het personeel. Een ober heeft zo meer tijd voor een goed gesprek. “Speel mensen vrij door technologie, zodat zij zich kunnen richten op die emotionele connectie.”