Naar de content

'Computers missen levenservaring'

Interview met Arnold Smeulders, hoogleraar informatica

Fotograaf: Peter Apers

We denken er niet meer bij na en zien het als vanzelfsprekend. Als we in Google de zoektermen ‘koe’ of ‘auto’ intikken, dan wordt ook daadwerkelijk een plaatje van dit runddier of een bolide getoond. Het is deels het gevolg van het werk van de Nederlandse wetenschapper Arnold Smeulders, die met zijn beeldherkenningssoftware werk afleverde. Smeulders ziet voor en nadelen bij de verdere ontwikkeling van artificiële intelligentie. Hij pleit dan ook voor een ethisch kader.

18 november 2016
Arnold Smeulders

Hij was mede-oprichter van het door Qualcomm overgenomen Euvision (beeldherkenningssoftware) en leerde bij dat bedrijf de computer beeld herkennen. Van 2007 tot 2014 was hij voorzitter van het ICT Platform Nederland en nog altijd is hoogleraar Informatica aan de Universiteit van Amsterdam en directeur van Commit, een publiek-privaat ICT-onderzoeksprogramma.

Arnold Smeulders is hoogleraar informatica aan de Universiteit van Amsterdam en directeur van publiek-privaat ICT-onderzoeksplatform Commit.

Fotograaf: Peter Apers

In 2015 tekenden een aantal wetenschappers en bekende zakenmensen uit de IT-wereld een brandbrief waarin gewaarschuwd wordt voor de gevaren van drones en artificiële intelligentie. Naast bekende internationale hotshots zoals Stephen Hawking, Steve Wozniak (Apple), Elon Musk (tesla) en duizend andere robotica-onderzoekers was er ook een bekende Nederlandse naam: die van Arnold Smeulders. De hoogleraar informatica aan de Universiteit van Amsterdam en directeur van publiek-privaat ICT-onderzoeksplatform Commit, neemt geen blad voor de mond. Hij waarschuwt bijvoorbeeld voor de grote hoeveelheid data die bij Google, WhatsApp en Facebook terechtkomen.

Waarom bent u tegen de inzet van drones in de strijd tegen terreur?
“Sterven door toedoen van een drone is mensonwaardig. Er zijn volkeren waarbij het op menswaardige manier strijden en met eer ten onder gaan, veel belangrijker is dan de dood zelf. Al vanaf de middeleeuwen wordt op een bepaalde heldhaftige manier gestreden. Ook in de moslimwereld is het belangrijk om voor bepaalde doelen te vechten. Als je drones inzet om mensen te doden, is dat dan vergelijkbaar met het ruimen van dieren of de overmacht van een pestepidemie? Je zaait bovendien voor twee generaties haat.”

Sommige mensen zijn bang dat de robots ons gaan domineren. Er zijn genoeg _sciencefiction_-films rondom dit thema van artificiële intelligentie. Moeten we daar bang voor zijn?
“Bij iedere innovatie in de geschiedenis zijn mensen bevreesd voor het onbekende. De eerste encyclopedie werd bijvoorbeeld verboden door de koning van Frankrijk omdat hij het gevaarlijk vond dat het gewone volk deze kennis had. Tegen de weefmachine kwam een hele opstand. Het valt altijd mee, bij artificiële intelligentie is het moment dat robots het van ons overnemen helemaal niet in het zicht.”

Is het niet logisch dat we de grenzen verleggen nu de technologie ons dat toestaat?
“Ik ben niet tegen technologie. Maar computers missen iets wat mensen wel hebben: levenservaring. Ze hebben geen idee van goed en kwaad, ze kunnen niks leren wat niet nadrukkelijk is uitgespeld. Als een probleem goed gedefinieerd is, zoals bij Googles kunstmatige intelligentieprogramma AlphaGo, dat een menselijke Go-speler (een in Azië populair bordspel) versloeg, dan verslaat de computer qua denkkracht de mens. Maar een computer die goed Go kan spelen, kan ook alleen maar dat.”

Computers zijn dus niet zo slim als we denken?
“Dat ligt aan de definitie van het woord slim. Als je als kind op de middelbare school bewijs vindt voor een stelling, dan kunnen je docenten of klasgenoten je superslim vinden, ook al bestond dat bewijs al eeuwen. De vraag is hoe je aan die kennis gekomen bent. Als je in een woud aan aangereikte regels een pad vindt dat voor jou nog niet bestond, dan ben je slim, maar niet per se grensverleggend. Als je een pad vindt dat ook voor de buitenwereld nog niet bestond, ben je echt wetenschappelijk bezig. Ik denk dat we met artificiële intelligentie voorlopig nog geen buitengrenzen gaan opschuiven, wel binnengrenzen. We zullen bij dataverwerking steeds vaker tussenstappen overslaan. Je voert ruwe data in, er zijn een aantal casussen ingevoerd, en er komen conclusies uit die in de datasets besloten liggen, niet daarbuiten.”

U heeft zelf jaren aan digitale beeldherkenning gewerkt, tot u het ei van Columbus vond. Als je nu in Google naar een koe zoekt, krijg je ook daadwerkelijk een plaatje van zo’n beest voorgeschoteld, mede dankzij uw werk. Dat is toch een uitstekend voorbeeld van een slimme technologie?
“Ik raakte al in 1977, nog voor het tijdperk van smartphone, gefascineerd door plaatjes. Hoe kunnen we naar plaatjes zoeken en hoe kunnen computers herkennen wat erop staat? Ik had echter geen idee hoe ik dat aan moest pakken. We begonnen in 1990 met contouren. Een huis heeft bepaalde lijnen, een rond verkeersbord is anders dan een driehoekig bord, een koe is zwart-wit met vier poten en een hoorn. Dat bleek niet te werken. Lang niet ieder dier met vier poten is een koe, bovendien verplaatst het probleem zich dan naar de vraag hoe een been eruit ziet.”

“Pas na vijftien jaar kwamen we tot een betere methode. Je hebt die contouren niet nodig, je moet naar specifieke elementen op het plaatje kijken. Gras hoort bijvoorbeeld bij koeien. Hoe meer gras, hoe groter de kans dat het een koe is, zeker als dat gecombineerd wordt met een zwart-witte vlek. Bij een bruine koe werkt het al iets minder, die bruine vlek in het gras kan ook een boom zijn. Maar met deze techniek heb je het in tachtig procent van de gevallen bij het juiste eind. Maar of die techniek nu echt slim is? Het is een kwestie van inleren, duizenden plaatjes laten zien.”

“Wij mensen zijn geneigd om robots enorm slim te vinden. Maar de orde van dingen die slim zijn en niet slim is voor mij als wetenschapper totaal anders. Sommige taken die wij als mens uitvoeren, kunnen ontbonden worden in stap-voor-stap-instructies. Koken is daar een goed voorbeeld van. En het openen van een deur is ook een typische regelinstructie. Hoe je een deur moet openen, kun je ook ontbinden in regels. Maar zodra die routines er niet zijn, kunnen robots minder dan we denken.”

Beeldherkenningssoftware kijkt niet naar contouren, maar naar specifieke elementen op het plaatje. Gras hoort bijvoorbeeld bij koeien. Hoe meer gras, hoe groter de kans dat het een koe is, zeker als dat gecombineerd wordt met een zwart-witte vlek.

Wiki Commons, CC BY SA 2.0

Denken computerwetenschappers wel genoeg na over het ethische aspect? Sommige onderzoekers zeggen dat ze alleen over het algoritme gaan en niet over de inzet van hun software.
“Ze zouden daar in ieder geval wel over na moeten denken. Als je wilt opereren in het menselijk domein, heb je ook een verantwoordelijkheid voor het ethische aspect van hetgeen je doet. Algoritmes zijn neutraal maar met hun data erbij niet meer. Het is de gebruiker die bepaalt hoe een algoritme functioneert. Zoek bijvoorbeeld eens in Google op ‘drie mensen’. Je krijgt allerlei plaatjes, meer blank dan zwart, meer man dan vrouw, meer poppetjes dan je denkt. Dat is omdat Google nog veel afgaat op wat mensen onder het plaatje schrijven. Als je een complete verzameling wilt krijgen van wat ‘drie mensen’ kunnen zijn, zul je de computer moeten leren dat drie Chinezen ook regelmatig voorkomen. Misschien moet je wel tien miljoen voorbeelden geven als je naar een neutrale databalans streeft.”

U zegt dus: het algoritme verandert niet, de dataset moet veranderen?
“Neutraliteit zit in de dataset. Je kunt er over vallen dat bij beeldherkenning het algoritme een zwarte man verwart met een aap. Maar die fout ligt wel voor de hand, de twee lijken in werkelijkheid op elkaar, ze hebben dezelfde kleurstelling. Je zult dan meer data in moeten voeren om de scheidslijn te bewaken. Algoritmes zijn uit zichzelf niet racistisch. Datzelfde algoritme kan een blanke man verwarren met een dom schaap.”

Een hand die een smartphone vasthoudt op een witte achtergrond.
Doordat we een smartphone op zak hebben met gps-locatie en wifi, worden we de hele dag digitaal gemonitord, tenzij we die functie uitzetten. Flickr/Kārlis Dambrāns via CC BY 2.0

Er is een spanningsveld tussen het verzamelen van data en de privacy van mensen. Hoe kijkt u daar tegenaan?
“Bij Big Data gaat het bij uitstek om grote hoeveelheden data. De technieken om uit al die gegevens iets bijzonders te detecteren staan nog in de kinderschoenen. Maar we moeten wel bij het belang van anonimiseren stilstaan. Uit de likes op Facebook kun je bijvoorbeeld afleiden wat je seksuele voorkeur is en of je ouders gescheiden waren toen je achttien was. Hoe anoniem is anoniem? De mensen in een auto, dat is slechts oppervlakkig anoniem. Als ik iedere dag ergens op een vaste tijd voor de deur sta is dat tot mijn persoon te herleiden.”

“Mensen zullen zich steeds bewuster worden van hun privacy en bijvoorbeeld de gps en wifi in hun telefoon uitzetten. Openlijke onbezonnenheid leidt vanzelf tot negatieve consequenties. Doordat ze een monopolie hebben, denken bedrijven zoals Google en Facebook dat ze van alles mogen. Maar zo werkt dat niet. In 1995 wilde Shell de olie-opslagboei Brent Spar laten afzinken. Ze dachten dat niemand ertegen zou protesteren. In een week tijd kelderde hun omzet. Monopolies worden vanzelf uitgehold. Zodra mensen zich bewust worden van de waarde van hun gegevens op sociale mediasites, zullen ze zich anders gaan gedragen.”

ReactiesReageer