De moderatie van online discussies onder artikelen van NEMO Kennislink is niet alleen tijdrovend, maar ook ingewikkeld. Kan kunstmatige intelligentie dat makkelijker voor ons maken? Stagiaire Britte Schilt sprak voor haar onderzoeksstage bij NEMO Kennislink met Antal van den Bosch.
Het aantal reacties onder artikelen van NEMO Kennislink is de afgelopen weken flink gestegen. Daaruit blijkt steeds duidelijker hoe moeilijk het is om discussies goed te laten verlopen. Een constructieve discussie, die onderbouwd is met betrouwbare bronnen en waarin oprecht naar elkaar geluisterd wordt, lijkt soms ver te zoeken. Bij deze zesde blog uit de serie ga ik daarom op zoek naar concrete oplossingen. Hiervoor sprak ik Antal van den Bosch, hoogleraar taal en kunstmatige intelligentie en directeur van het Meertens Instituut.
De afgelopen jaren heeft Van den Bosch diverse soorten online reacties en discussies onderzocht, bijvoorbeeld voor het nieuwsplatform NU.nl. Dit platform ontvangt soms wel duizenden reacties per dag. Een leger aan moderatoren is dan ook dagelijks met man en macht aan het werk om deze reacties goed te controleren en filteren. Maar dit hoeft niet allemaal met de hand. Dankzij een soort spamfilter wordt het gros van ongepaste en aanvallende reacties al tegengehouden voor er een moderator aan te pas hoeft te komen.
Ik kan me voorstellen dat het uitfilteren van bepaalde (scheld)woorden of racistische termen met een relatief eenvoudig programma goed te doen is. Maar reacties kunnen ook zonder scheldwoorden aanvallend, persoonlijk of niet-constructief zijn, op manieren die misschien minder makkelijk te definiëren zijn. Hoe kan kunstmatige intelligentie ons helpen met de moderatie van deze reacties?
Voor- en tegenstanders gezocht
De eerste stap is volgens Van den Bosch het maken van een analyse van het taalgebruik in de discussie. “Discussies die gaan over onderwerpen als het vuurwerkverbod, coronavaccinaties, Zwarte Piet of de legalisering van bepaalde drugs, hebben vaak duidelijke voor- en tegenstanders”, legt Van den Bosch uit. Deze voor- en tegenstanders onderscheiden zich tot op zekere hoogte van elkaar door het gebruik van bepaalde woorden, zinsdelen, zinnen, of hashtags. Soms staan twee partijen zo lijnrecht tegenover elkaar, dat hun taalgebruik compleet verschillend is.
Neem de discussie rond coronavaccinaties. Voorstanders van deze vaccinatie zullen vaker woorden en zinsdelen als ‘blij’, ‘opgelucht’, of ‘ik laat me vaccineren’ gebruiken, en noemen de tegenstanders van de vaccinatie ‘wappies’. Tegenstanders gebruiken vaker woorden en zinsdelen als ‘onzin’, ‘ga ik echt niet doen’ en ‘bestaat niet’, en noemen voorstanders van de vaccinatie ‘schapen’.
Van den Bosch: “Het begin van dergelijke analyses is mensenwerk. Door reacties door mensen te laten labelen, kan een programma leren wat de kenmerken zijn van bijdragen van voor- en tegenstanders.” Zo kun je onderscheid maken tussen taal die door iedereen gebruikt wordt, die voornamelijk gebruikt wordt door voorstanders, of vooral gebruikt wordt door tegenstanders.
Wederzijds begrip
En dit is informatie waar je iets mee kunt. “Als je alleen maar vocabulaire gebruikt waar de ander niets mee heeft, bereik je elkaar niet. Constructieve reacties geven ruimte aan verschillende kanten van de discussie. Dat kun je met kunstmatige intelligentie achterhalen”, legt Van den Bosch uit. Als je verschillende soorten reacties uit elkaar kunt halen, kun je dus ook ontdekken welke reacties woorden en zinnen van beide kanten van de discussie bevatten. En neutrale woorden, zoals in dit voorbeeld ‘vaccinatie’, zijn natuurlijk voor beide partijen nodig om een punt te kunnen maken.
“Het gebruik van common ground, een gemeenschappelijke basis, kan erop duiden dat iemand een constructief punt wil maken”, vertelt Van den Bosch. Ook kun je op deze manier achterhalen of een reactie nieuwe informatie aan de discussie toevoegt. Een positieve toepassing van dezelfde methode: in plaats van te focussen op reacties die je niet geplaatst wil hebben, kijk je naar reacties die je juist wél uitgelicht wilt hebben. Dit onderzoek is nog in volle gang, maar deze zoektocht naar common ground lijkt veelbelovend.
Het verwijderen of uitlichten van bepaalde reacties kan met behulp van kunstmatige intelligentie dus makkelijker worden gemaakt. Maar je kunt ook nog een stapje terug doen. Van den Bosch: “In plaats van het kijken naar individuele reacties, kun je ook de discussie in zijn geheel onder de loep nemen. Je kunt op deze manier meten of een discussieplatform niet fungeert als een echo chamber.” Als er ergens alleen maar vergelijkbare reacties geplaatst worden, die één specifieke mening verkondigen, is er geen sprake van een nuttige discussie. Dan worden eigen meningen alleen maar bevestigd en versterkt, zonder op een normale manier het gesprek aan te gaan met mensen die er anders over denken.
Het beste van mens en machine
Er zijn natuurlijk grenzen aan de mate waarin kunstmatige intelligentie problemen in discussies kan oplossen. “Deze programma’s zijn nooit feilloos. Ook daar waar de techniek menselijke precisie overschrijdt, werkt het nog steeds niet voor de volle 100 procent.” Twee soorten fouten zouden gemaakt kunnen worden: reacties die verwijderd hadden moeten worden, worden niet verwijderd, of prima reacties worden onterecht verwijderd. Het is dan aan het platform om te bepalen welke soort fout minder erg is om te maken. Wil je liever te veel tegenhouden, of het risico lopen dat ongewenste reacties er tussendoor glippen?
Een groot deel van deze fouten kan opgevangen worden doordat kunstmatige intelligentie met een bepaalde zekerheid kan aangeven of een reactie ongepast is. Als mensen deze grensgevallen controleren en labelen, kun je zo bijna alles onderscheppen. Stap voor stap kunnen dergelijke programma’s zo steeds beter hun werk doen. Maar Van den Bosch benadrukt dat modereren altijd voor een deel mensenwerk zal blijven. “Je moet kunstmatige intelligentie echt zien als beslissingsondersteuning. Modereren is een zware taak, en deze technieken kunnen jou, als moderator of journalist, steunen in het werk dat je moet doen.”
Het probleem van polariserende online discussies is ondertussen duidelijk. Ik begin me steeds vaker af te vragen of het niet gewoon beter is om de reactiemogelijkheid op NEMO Kennislink helemaal uit te schakelen. Nog te vaak worden schreeuwende of onrespectvolle reacties geplaatst, en lijkt het alleen maar te gaan om het uitdragen van overtuigingen. Zulke reacties kunnen een potentiële rustige en onderbouwde discussie eenvoudig ondersneeuwen. Ik ben er nog niet helemaal uit, maar het is fijn om nu iemand te spreken die werkt aan concrete oplossingen voor dit probleem. Het inzetten van kunstmatige intelligentie zou ons op NEMO Kennislink misschien een heel stuk verder kunnen helpen.