Naar de content

AI brengt ook goed nieuws

Samen slimmer: pas op voor onzinberichten

Freepik/iStock

Journalisten kunnen kunstmatige intelligentie gebruiken om een schat aan onontdekte verhalen te vertellen. Maar ze moeten sinds de komst van generatieve AI ook concurreren met een berg onzinberichten die het internet vult.

Biden dead. Harris acting president.’ Hoewel dit complete onzin is, stond deze kop een tijdje terug toch op de website celebritiesdeaths.com, waar meer ‘nieuws’ van zogenaamd overleden personen is verzameld. De organisatie NewsGuard, die strijdt tegen nepnieuws, houdt bij hoeveel misleidende AI-gegenereerde websites als celebritiesdeaths.com er bestaan. In mei van dit jaar waren dat er bijna 50, maar op 16 oktober stond de teller al op 516 websites. Er zitten ook drie Nederlandstalige websites bij, met flauwe nieuwsberichtjes over huisdieren en ‘kritische’ reviews van kattenvoer. Nog vrij onschuldig wellicht, maar NewsGuard stuitte ook op een website van de Chinese overheid die vermeldt dat de Verenigde Staten in Kazachstan kamelen infecteren met biologische wapens met als doel om Chinezen te besmetten.

Het web wordt overspoeld door nepnieuws sinds de opkomst van generatieve AI, een vorm van kunstmatige intelligentie die nieuwe content kan creëren. Het chatprogramma ChatGPT, dat eind vorig jaar werd gelanceerd, is het meest bekende voorbeeld van generatieve AI. Het programma kan met één druk op de knop perfect uitziende teksten genereren. Het baseert zich op een taalmodel, dat door softwareontwikkelaars en (laag betaalde) medewerkers is getraind om zo goed mogelijk zinnen te maken, zonder daarbij al te veel onzin uit te kramen (hoewel dat laatste nog vaak misgaat).

Varianten van ChatGPT, die met hetzelfde taalmodel werken, kunnen bijvoorbeeld filmbeelden, foto’s of muziek genereren. Handig voor scholieren om een werkstuk mee te maken en voor softwareontwikkelaars om stukken programmeercode te laten schrijven. Maar ook handig voor mensen die automatisch grote hoeveelheden informatie willen genereren, om daar een bepaald doel mee te bereiken. Bijvoorbeeld om geld te verdienen aan de ‘kliks’, maar ook om mensen mee te beïnvloeden, bijvoorbeeld met bepaalde politieke denkbeelden.

Vertrouwenscrisis

De hoeveelheid nepnieuws en onzinberichten neemt dus schrikbarende vormen aan. Volgens de Britse auteur en AI-ondernemer Nina Schick wordt 90 procent van alle online content in 2025 door AI gegenereerd. Journalistieke inhoud, waarin normen en waarden als waarheidsvinding, onafhankelijkheid en objectiviteit centraal staan, kan in dat mediageweld makkelijk ondergesneeuwd raken. “Journalistiek is maar een klein onderdeel van het medialandschap”, aldus Erik Borra, universitair docent Journalistiek & AI aan de Universiteit van Amsterdam. “Er zijn steeds meer mensen die ontevreden zijn over nieuwsmedia en ze allemaal op een hoop gooien. Zij kunnen kwaliteitsjournalistiek niet onderscheiden van content die alleen is gemaakt om je aandacht vast te houden. Met generatieve AI is het veel gemakkelijker geworden om zulke content te maken.”

“De journalistiek zit in een vertrouwenscrisis”, voegt Nele Goutier toe. Zij is docent aan de School voor de Journalistiek van de Hogeschool Utrecht en doet onderzoek naar het gebruik van AI in de journalistiek. “Het vertrouwen in instanties en traditionele partijen is minder vanzelfsprekend, en dat merken journalisten ook. Ze worden vaker bedreigd – in coronatijd moest de NOS het logo van zijn busjes verwijderen, omdat verslaggevers werden lastig gevallen (NOS werd ervan beschuldigd nepnieuws over corona te verspreiden, red.). De positie van journalisten wordt nog verder uitgedaagd doordat iedereen op sociale media nieuws of nepnieuws kan verspreiden. Daar concurreren nieuwsorganisaties mee.”

NOS moest in coronatijd het logo van zijn nieuwsbusjes verwijderen, omdat de verslaggevers werden lastiggevallen.

Steven Lek, CC BY-SA 4.0, via Wikimedia Commons

Vragen verzinnen

Maar AI is niet alleen maar een concurrent van journalisten, zij gebruiken het ook volop. Volgens een wereldwijd onderzoek onder 105 nieuwsorganisaties blijkt dat 85 procent van hen al met generatieve AI heeft geëxperimenteerd. De meesten gebruiken het om berichten te factchecken, koppen of samenvattingen te maken of om berichten te categoriseren. Ook voor het verspreiden van nieuws wordt het gebruikt, bijvoorbeeld door verschillende soorten content te maken voor verschillende doelgroepen. Maar ook voor de eerste fase van het journalistieke proces kan AI heel handig zijn, bijvoorbeeld door interviewopnames te transcriberen (in tekst om te zetten), en door grote hoeveelheden data door te pluizen. Ten slotte kan AI ook als een soort assistent helpen om slimme vragen te verzinnen voor een expert, of invalshoeken voor een verhaal te bedenken.

AI kan geluidopnames van interviews in tekst omzetten.

Freepik

Volgens Goutier ligt er ook een grote kans voor de journalistiek om niet alleen onderzoek mét, maar ook náár AI te doen. “Er zijn al wat verhalen naar buiten gekomen over de inzet van AI door de overheid en grote bedrijven, bijvoorbeeld over het gebruik van algoritmes door de Belastingdienst. Dat leidde onder meer tot de Toeslagenaffaire, maar dat is pas het topje van de ijsberg. Er ligt nog een schat aan verhalen te ontdekken als je je in AI gaat verdiepen. Journalisten hoeven daarvoor geen AI-expert te zijn, maar ze moeten wel een basisbegrip hebben van wat je met AI kan doen.”

Bedrijven zullen hun algoritmes alleen niet zomaar prijsgeven. Hoe kunnen journalisten daar misstanden aan de kaak stellen? “Soms kun je ook indirect ontdekkingen doen over de werking. Noorse journalisten lieten een bot (softwareprogramma dat automatische, repetitieve en vooraf vastgelegde taken uitvoert, red.) los op het Instagram-kanaal van een fictieve dertienjarige jongen, die geïnteresseerd was in gezonder leven. De bot scrolde automatisch door zijn tijdlijn en sloeg op wat er voorbij kwam. De journalisten wilden achterhalen hoe snel hij als gebruiker in een rabbit hole met berichten over extreem sporten zou belanden, als hij een keer zocht op het woord ‘sixpack’. Dat bleek al heel snel zo te zijn.” Een nuttige manier om als journalist onderzoek te doen naar de werking van AI, en de rol als waakhond te vervullen.

AI kan niet interviewen

Goutier merkt dat sommige journalisten in een kramp schieten als het gaat over AI. Ze zijn bang dat hun baan volledig overbodig wordt. Maar zo’n vaart zal het niet lopen, denkt ze. “Een taalmodel kan prima feitelijke, korte berichtjes schrijven en je helpen met bepaalde taken. Maar wat de journalistiek levendig maakt, zijn juist de sfeerimpressies en menselijke interacties. Dat kan generatieve AI niet beschrijven, want die was er niet bij. Interviewen is waar de menselijke kracht zit. In een gesprek reageer je op de emoties die je waarneemt, en voel je waar de frictie zit. Ik denk niet dat je hetzelfde resultaat krijgt als je dat automatisch zou genereren.”

Interviewen is waar de menselijke kracht zit.

Minister-president Rutte, Flickr via CC BY 2.0 Deed

Journalistieke nieuwsorganisaties zijn dus niet alleen in concurrentie met AI-content, ze maken het zelf ook steeds meer. Het Amerikaanse persbureau AP liet in 2014 al financiële berichten door (een simpelere versie van) AI maken, en RTL Nieuws introduceerde in 2019 redactierobot Adam, die automatisch nieuwsberichten over verkeersveiligheid maakte. Uitgeverij Mediahuis (van onder meer De Telegraaf en NRC) lanceerde onlangs de sportwebsite www.resport.nl, waarvoor AI de koppen maakt. Ook hebben veel organisaties inmiddels richtlijnen opgesteld over het gebruik van AI. De Volkskrant is het strengst: teksten, foto’s of video’s mogen niet door een computer zijn gemaakt, behalve als dat dient om de werking van AI uit te leggen. De meeste andere redacties zijn iets milder, al staat er bijna overal dat de mens erbij betrokken moet blijven. “Het denken en beslissen begint en eindigt bij de mens”, aldus de richtlijn van nieuwsdienst ANP.

Transparantie

Als er dan AI-content wordt gemaakt, dan moeten redacties daar transparant over zijn, zo is te lezen in veel richtlijnen. Redacteuren moeten het bijvoorbeeld vermelden als delen van een bericht door AI zijn gegenereerd. Borra vindt dat overbodig. “Je googelt toch ook elke dag? Dat is ook AI. Als je als nieuwsredactie journalistieke waarden onderschrijft en van daaruit handelt, dan maakt het in mijn optiek niet zoveel uit of een artikel nou door een mens of door een taalmodel is geschreven.” Goutier is het daar niet mee eens. “In een ideale wereld zou dat genoeg moeten zijn. Maar omdat het vertrouwen in de journalistiek niet meer vanzelfsprekend is, is het noemen van een gezaghebbende titel als de Volkskrant of de NOS niet meer voldoende. Ik denk dat transparantie superbelangrijk is. Als jij AI inzet als journalist om jouw artikel te laten samenvatten, bijvoorbeeld door ChatGPT, prima. Maar laat dan weten dat je dat gedaan hebt en ook dat je er zelf nog naar hebt gekeken.”

AI biedt de journalistiek dus kansen om goede verhalen te maken, maar dat biedt nog geen oplossing voor de mensen die de weg kwijtraken in het woud van echt nieuws en nepnieuws, en voor wie het niet lukt om feit en fictie van elkaar te scheiden. Goutier: “Ik denk dat we kinderen vanaf de basisschool al mediawijs moeten maken. Dat ze beseffen hoeveel desinformatie er rondgaat, en dat ze kunnen herkennen of iets echt is of fake. Nepnieuwsdetectoren worden steeds beter, maar het nepnieuws wordt ook steeds beter. Er zijn een paar dingen waarop je kunt letten. Als een verhaal bijvoorbeeld heel zwart-wit, vanuit één overtuiging is geschreven, dan is het minder geloofwaardig. Kijk dan ook eens wat andere media over dit onderwerp schrijven. Dat kan al helpen.”

AI in dit artikel

Voor het voorbereiden van dit artikel maakte Amanda Verdonk gebruik van zoekmachine Bing en van transscriptiesoftware Good Tape. Voor het schrijven zelf is geen AI gebruikt.