Je leest:

Europese regels rondom Big Data nodig

Europese regels rondom Big Data nodig

Wetenschappers moeten verantwoordelijkheid niet van zich afschuiven

Auteur: | 11 oktober 2016

Door het gebruik van Big Data kunnen kwaadwillenden een hoop ellende aanrichten. Wetenschappers moeten bij de ontwikkeling van hun algoritme al erkennen dat er een ethisch probleem is en over een oplossing nadenken, zo meent wetenschapster Aimee van Wynsberghe. De ethisch-filosofe helpt computerwetenschappers hierbij.

Aimee van Wynsberghe is universitair docent ethiek en technologie bij de Universiteit Twente en mededirecteur bij de Foundation for Responsible Robots.

Bijstandstrekkers die op fraude worden betrapt via hun gedrag op social media, winkels die onze looppatronen volgen en robots die door artificiële intelligentie steeds slimmer worden en ons gedrag monitoren. Door de snelle opkomst van Big Data-technologie maken burgers en diverse organisaties zich zorgen over hun privacy. Wetenschappers lijken die zorgen echter niet te delen, zo constateert Aimee van Wynsberghe, universitair docent ethiek en technologie bij de Universiteit Twente en mededirecteur bij de Foundation for Responsible Robots. Ze pleit voor de komst van Europese regels rondom eigendom, opslag en gebruik van Big Data.

‘Ik hou me alleen bezig met het algoritme’ en ‘mijn technologie is niet te hacken’. Het zijn de meest gegeven antwoorden bij interviews met wetenschappers in deze serie over Big Data. Slechts een enkele wetenschapper maakt zich zorgen. “Heel herkenbaar”, zegt Van Wynsberghe als deze bevindingen aan haar worden voorgelegd. “De meeste wetenschappers zien ethiek en eventuele schending van de privacy niet als hun verantwoordelijkheid. Ze werken aan een algoritme en doen net of er geen relatie is tussen de code die ze schrijven en het uiteindelijke resultaat. Niet verwonderlijk, want als ze erkennen dat er een ethisch probleem is moeten ze er iets aan doen. Ze moeten dan bijsturen en keuzes maken.”

Fraude

Er wordt meestal niet genoeg over de gevolgen van de inzet van technologie nagedacht, aldus de Canadese ethisch-filosofe. Als voorbeeld noemt ze Tay, een automatische Twitterbot van Microsoft. De bot moest automatisch gesprekken aangaan met andere Twitter-gebruikers. De zelflerende software achter het account moest leren van hen en zo steeds slimmer antwoord geven. Direct werd hier misbruik van gemaakt door Tay kwaadwillende informatie toe te sturen, waarna hij racistische taal begon te herhalen, denkend dat dat de geldende mores was.

Het project is inmiddels tijdelijk stopgezet. Van Wynsberghe weet wel wat er fout ging. Microsoft had vooraf niet bekend moeten maken dat het een test met Tay ging doen. “Dat is vragen om problemen. Je kunt zoiets beter onaangekondigd doen of geïsoleerd experimenteren. Mensen gaan namelijk altijd testen hoever ze met zoiets kunnen gaan. Microsoft zegt dat ze niet verantwoordelijk is voor de racistische vragen die aan Tay werden gesteld, maar computerwetenschappers van dit bedrijf hebben de zelflerende algoritmes ontworpen. Zij zijn minstens voor een deel van de ellende moreel aansprakelijk.”

Bij haar werk helpt de onderzoekster collega’s om goed na te denken over eventuele gevolgen van hun werk. Sommige onderzoekers gaan bij het gebruik van Big Data over het randje, constateert ze. Maar dat randje is wel beweeglijk. Het ligt aan het doel. Bij het blootleggen van fraude help je de maatschappij. Maar bij het volgen van burgers in de winkel of winkelstraat, is alleen een commercieel doel gebaat: meer verkopen.

Europese regels

Er zijn Europese regels over datagebruik, maar de dataprotectiewet is verouderd en gebaseerd op een privacy-discussie die achterhaald is. De EU-wet stelt dat er persoonsgegevens verzameld mogen worden, zolang vooraf één bekend doel is bepaald. De data mogen niet voor andere doelen gebruikt worden. Maar bij big-data-technologie bestaat er vaak geen doel. Er worden automatisch en massaal gegevens verzameld en opgeslagen. Ook gaat het bij Big Data vaak niet om personen, maar om gedrag en gedragspatronen.

Big Brother is watching us. Het is een voorbeeld van dataverzameling waarbij veel goeds kan worden gedaan, maar die ook nadelig kan uitpakken. Willen we wel dat de overheid alles van ons weet?

Ook met onze smartphones wordt veel van ons gedrag geregistreerd, maar met robots delen we meer informatie, meent de ethicus. Ze wijst op Hello Barbie, de robotpop waarbij in 2015 bleek dat hackers haar konden gebruiken om bij gezinnen te spioneren. “Al bij het ontwerp van het algoritme voor deze pop had je moeten nadenken over eventueel misbruik. Honderden kwetsbare kinderen vertellen alles tegen die pop. Het is onverantwoord als je je dat niet realiseert bij het ontwerp.”

Robots die mensen begroeten in winkels, drones die pizza’s bezorgen. Het gaat snel met de ontwikkelingen. “Die pizzarobot weet wanneer jij thuis bent, zeker als je vaak bestelt. Er zijn geen regels. Van wie zijn de data die de robot verzamelt? Van de pizzeria, van jou? Je moet als klant de optie hebben om toestemming voor deze dataverzameling te geven. Transparantie ontbreekt, er is geen opt in of opt out model.”

Slimme robots

Bij Facebook is het duidelijk dat de data het bezit zijn van deze website, Twitter verzamelt alle gegevens in een speciale bibliotheek. Maar bij veel andere projecten is geheel onduidelijk van wie de data zijn. Daar moeten Europese regels over komen, aldus Van Wynsberghe.

“Als maatschappij moeten we beslissen hoe belangrijk we onze privacy vinden. De treinmaatschappij kent al onze patronen, weet hoe laat we dagelijks de trein nemen en waarheen. Wil je dat? En misschien vind je dat niet erg, maar het is vervelender als exact geregistreerd zou worden hoe vaak je naar de apotheek gaat. Bij verschillende soorten verzamelde data, geldt een ander ethisch antwoord, dat maakt het zo lastig.”

Er wordt steeds meer data verzameld. Maar wetenschappers moeten beter nadenken over de ethische aspecten van wat er met hun algoritmes en data gedaan kan worden.

Het begint met verantwoording nemen, aldus de wetenschapster. Collega-onderzoekers die tegen haar zeggen dat ze zich ‘alleen met het algoritme bezighouden’ komen er niet goed af. De Twentse Universiteit huurde haar in om samen met computerwetenschappers te werken en hun bewustzijn over ethische vragen te vergroten. “Ik heb bijvoorbeeld een keer een collega geadviseerd die op Facebook een steungroep wilde oprichten voor bepaalde slachtoffers. Maar zo’n platform is geen veilige plek voor een hulptool. De data zijn immers het bezit van Facebook. Doordat hij daar in de ontwerpfase al over nadacht is voor een ander anoniem platform gekozen.”

Ze geeft nog een voorbeeld, waarbij op basis van ip-adressen gekeken werd hoe mensen zich gedroegen. “IP-adressen zijn een unieke manier om mensen te identificeren. Maar je computer of wifi-koelkast kan gehackt en misbruikt worden. Er kan veel fout gaan.” Komt er een dag dat slimme robots onze maatschappij overnemen? Als het aan Van Wynsberghe ligt nog lang niet. “Onze computers zijn zo ver nog niet. En uiteindelijk is dat aan ons. Wij zijn degene die de computers ontwikkelen, wij moeten bewust zijn van de gevaren. Enerzijds wil ik de innovatie niet tegenhouden, anderzijds kun je misschien alles maar dat wil niet zeggen dat je ook alles moet doen.”

Dit artikel is een publicatie van NEMO Kennislink.
© NEMO Kennislink, sommige rechten voorbehouden
Dit artikel publiceerde NEMO Kennislink op 11 oktober 2016

Discussieer mee

0

Vragen, opmerkingen of bijdragen over dit artikel of het onderwerp? Neem deel aan de discussie.

NEMO Kennislink nieuwsbrief
Ontvang elke week onze nieuwsbrief met het laatste nieuws uit de wetenschap.