‘Ook zonder AI te begrijpen, kun je meepraten over wat het betekent voor jouw leven.’

Artificiële Intelligentie (AI) verandert onze samenleving razendsnel. Hoe betrekken we de samenleving bij deze ontwikkeling? En hoe kan het veld van wetenschapscommunicatie zelf kritisch en verantwoord omgaan met AI? We vroegen het aan onze eigen Dagmar Heeg, adviseur bij NEWS. Zij promoveerde op het thema kritische AI-geletterdheid. ‘Je moet niet beginnen met uitleggen wat mensen nog niet snappen. Creëer in plaats daarvan ruimte om kennis en ervaringen te delen die mensen al wel hebben.

Onderdeel van de tentoonstelling ‘AI Dilemmas’, ontwikkeld door Goya Buitenhuis en Dagmar Heeg.

In 2021 startte je met je onderzoek naar kritische AI-geletterdheid. Wat sprak je aan in dit thema?

Dit thema begon voor mij te leven tijdens een bezoek aan de tentoonstelling AI: more than human in het Forum Groningen. Midden in een grote zaal omringd met een robothond, gezichtsscanners die je emotie kunnen bepalen en AI-kunst, stond ik voor een klein schermpje waarop een video van Joy Buolamwini, computerwetenschapper en activist, werd afgebeeld. In de video probeerde ze haar gezicht te laten scannen door een gezichtsherkenningssoftware, maar dat lukte niet. Pas wanneer zij een wit masker opzette, herkende het systeem ‘haar gezicht’. 

Ik werd bevangen door een gevoel van onrechtvaardigheid. Eenmaal thuis begon ik me in te lezen op het thema met boeken zoals Weapons of Math Destruction. In dit boek las ik het ene na het andere voorbeeld van discriminerende algoritmen die worden ingezet voor belangrijke taken zoals het toekennen van leningen, aannemen en beoordelen van werknemers en surveillance. 

Als toenmalige masterstudent wetenschapscommunicatie kon ik dit onderwerp niet meer loslaten. Ik voelde een noodzaak om te onderzoeken hoe we als samenleving verantwoord met dergelijke technologieën kunnen omgaan. Volgens mij begint dat bij een kritische houding ten opzichte van zulke technologieën. Maar hoe kunnen we zo’n houding stimuleren onder mensen? Die vraag stond centraal in mijn onderzoek. 

En toen startte je dus in 2021 met je onderzoek, toen was er nog niet eens iets als ChatGPT toch? 

Klopt! De komst van dit soort applicaties heeft de boel flink opgeschud. Als je de krantenkoppen van die eerste maand terugkijkt, zie je dat in het begin iedereen versteld stond van de mogelijkheden van generatieve AI (GenAI). Maar al snel liet het ook de onethische aspecten zien. 

Zo kwamen er binnen no time voorbeelden van racistische en seksistische antwoorden van ChatGPT. Kwam de discussie van dataroof op gang toen auteurs in de gaten kregen dat hun werk was gebruikt om ChatGPT te ’trainen’. Ook kwamen al snel de milieukosten van alsmaar groeiende datacentra aan het licht. Bovendien had ChatGPT een flinke impact op sectoren zoals het onderwijs. Kunnen we leerlingen nog wel vragen een werkstuk te schrijven? 

Inmiddels gebruiken heel veel mensen GenAI. Hierdoor komt de impact van AI ineens veel dichterbij. De ethische dilemma’s zijn hierdoor voor veel mensen ook concreter en relevanter geworden. 

En dus, zeg je, is het belangrijk om te weten hoe je verantwoord mét AI omgaat. Hoe help je mensen daarmee? 

Tijdens ons onderzoek zagen we dat vanuit het onderwijs, lesontwikkelaars al snel hun aandacht vestigden op de basisvragen: ‘Wat is AI? Hoe werkt het? Hoe evalueer je het?’ Dit komt vanuit de hardnekkige overtuiging dat je eerst iets moet begrijpen voordat je het goed kan evalueren of kritisch kan gebruiken. Maar tijdens verschillende workshops, interactieve activiteiten en een tentoonstelling rondom AI en ethiek, zagen wij keer op keer dat dit niet zo is.

Zonder dat mensen AI in detail begrijpen, zijn ze al betrokken bij een thema zoals AI en ethiek. Het werkt dus beter om niet te beginnen met de ‘basiskennis’ van wat AI is en hoe het werkt. In plaats daarvan kan je beter beginnen bij AI in de sociale en culturele leefwereld van mensen te plaatsen. Zo maak je het onderwerp persoonlijk relevant en betrek je mensen erbij. 

Hoe doe je dat, het onderwerp ‘persoonlijk maken’?

Daarvoor moet je met de doelgroep in gesprek. Wij interviewden bijvoorbeeld mensen uit een lokale gemeenschap in Groningen om te begrijpen welke ervaringen zij al hadden met AI. Hun ervaringen, ideeën, wensen en zorgen vormden het uitgangspunt van een tentoonstelling die we ontwierpen om dialoog op gang te brengen over AI. 

In de tentoonstelling zelf zat vrijwel geen ‘inhoud’ die wij wilden ‘uitleggen’. In plaats daarvan was het een ruimte vol met mogelijkheden voor dialoog en discussie over ChatGPT, zelfrijdende auto’s en discriminerende gezichtsherkenningsoftware. Met behulp van stellingen, open vragen, en een raadsel, kregen bezoekers de kans om eigen ervaringen te delen en onderling kennis uit te wisselen. Doordat alle vragen en voorbeelden goed aansloten bij hun eigen ervaringen, kon vrijwel elke bezoeker meepraten in de tentoonstelling en samen nadenken over oplossingen. 

De AI tentoonstelling

Je houdt dus een pleidooi voor minder ‘uitleggen’. Maar willen mensen niet gewoon meer leren, bijvoorbeeld over de onderliggende werking van AI? 

Jawel, maar daarvoor moet je mensen eerst op een gelijkwaardige manier betrekken. Als je in gesprek wil gaan met de samenleving over AI, moet je niet beginnen met uitleggen wat mensen nog niet snappen. Daarmee plaats je bepaalde kennis impliciet als voorwaarde om mee te mogen en kunnen doen aan een bepaalde discussie. Ook zonder AI te begrijpen, kan en mag je meepraten over wat het betekent voor jouw leven. 

Dus in plaats van beginnen met uitleggen, kun je beter starten met ruimte creëren om kennis en ervaringen te delen die mensen al wel hebben. Plaats mensen in de rol van kennismakers. Zo krijgen ze ruimte om hun eigen ervaringen met en inzichten over AI te delen en bij te dragen aan een discussie. Vervolgens kan je dan voortbouwen op de kennis die ze al hebben door dingen uit te leggen.

Kijk bijvoorbeeld naar een onderwerp als discriminerende algoritmen. Tijdens veel van onze workshops en activiteiten lieten we voorbeelden zien van discriminerende AI-algoritmen. Of het nu volwassenen of jonge kinderen waren, allemaal mengden zich dan met enorme betrokkenheid en emoties in een discussie. Tijdens de discussie stelden ze uiteindelijk zelf de vraag: ‘hoe kan dat nou?’ Dat is een waardevol moment om dieper op de materie in te gaan en iets uit te leggen dat voortbouwt op de kennis die er al is. 

Bovendien ontdek je ook allerlei vormen van kennis die je van tevoren niet verwacht, als je mensen over hun eigen ervaringen laat praten. Een mooi voorbeeld hiervan kwam naar voren tijdens ons onderzoek met jonge kinderen. Wanneer we kinderen vroegen hoe AI werkt, konden ze daar geen antwoord opgeven. Maar toen we ze vroegen naar TikTok, werd het een heel ander gesprek. Toen zagen we ineens dat kinderen haarfijn doorhebben hoe een algoritme leert van hun gedrag op de app. Ze hadden in de gaten dat TikTok vergelijkbare video’s laat zien als die ze kijken. In de eerste instantie dachten we dus dat ze niets begrepen van hoe AI werkt. Door een andere vraag te stellen, gekoppeld aan hun eigen beleving, zagen we veel meer kennis dan verwacht. 

En niet alleen wisten kinderen hoe AI werkt, ze konden zelfs dergelijke algoritmen manipuleren. Al die vergelijkbare video’s worden op een gegeven moment namelijk best saai volgens de kinderen. Inmiddels hadden ze allemaal trucjes gevonden die ervoor zorgden dat ze af en toe ook nog andere type video’s kregen. Zo deelde een leerling dat ze soms even een poosje heel hard door TikTok heen scrolt zonder iets te kijken. Een andere leerling gaf aan dingen te liken die hij helemaal niet leuk vindt. 

In jouw onderzoek pleit je voor kritische AI-geletterdheid. Wat betekent dat?

Om mensen kritische en verantwoorde gebruikers te maken moet niet het uitgangspunt zijn om technologische kennis over te dragen. Het gaat om mensen te leren om de juiste kritische vragen te stellen en zelf opzoek te laten gaan naar de antwoorden. Daarbij zijn vragen zoals ‘wat is het?’ en ‘hoe werkt het?’ minder belangrijk. Waardevollere vragen zijn ‘wie maakte deze AI-applicatie?’ en ‘voor wie is deze applicatie gemaakt?’. Zo leren mensen een nieuwe technologie zoals AI in de sociale en culturele context te plaatsen. Alleen zo kunnen mensen naast de potentie ook de limitaties van AI herkennen en weloverwogen keuzes maken.  

Dagmar verdedigde haar proefschrift op 20 mei 2025 aan de Rijksuniversiteit Groningen. Beeld: Jenne Hoekstra

Moeten wij ook kritisch AI-geletterd zijn binnen het veld van wetenschapscommunicatie? 

Absoluut! AI krijgt ook steeds meer plek binnen het veld van wetenschapscommunicatie. Sommige onderzoekers gaan zelfs zover als opperen dat AI wetenschapscommunicatie democratiseert; er is immers een dosis ‘talent’ voor nodig om te kunnen schrijven en tijd en ruimte om het te kunnen doen. Met GenAI tools, zoals ChatGPT, kunnen ook niet-schrijvers schrijven en kost het minder tijd. 

Ook leeft het idee dat GenAI voor dialoogvoering een uitkomst zou zijn. Een-op-een gesprekken tussen wetenschappers en de samenleving kostenn immers veel tijd, maar met ChatGPT heeft iedere burger een persoonlijke wetenschapscommunicator paraat staan die niet oordeelt over eventuele ‘domme’ vragen. 

Afgelopen week bezocht ik met mijn collega Sicco de Knecht de conferentie Ecsite. Daar deelden professionals uit de museumwereld dat ze image generators zoals Midjourney gebruiken om te ontwerpen. Sommigen gebruikten het zelfs voor hun promotiecampagnes. 

Dat klinkt als een flinke dosis nieuwe mogelijkheden, die ons bovendien werk kunnen schelen. Waarom dan zo kritisch?

Deze potentie heeft twee grote valkuilen waar we voor moeten oppassen. Ten eerste moeten we erkennen dat wetenschapscommunicatie in de vorm van tekst eenrichtingsverkeer is. Als dat sneller en gemakkelijker kan met GenAI, is het verleidelijk om dat ook meer te gaan doen. We moeten opletten dat dit niet ten koste gaan van de tijd en energie die gestoken wordt in andere vormen van wetenschapscommunicatie zoals dialoog voeren of samen onderzoek doen. 

Ten tweede moeten we AI niet te snel als dé ‘oplossing’ zien voor de uitdagingen in wetenschapscommunicatie. Dat kan ertoe leiden dat we die uitdagingen te simpel voorstellen. Zo lopen we het risico om de sociale en culturele processen, die een belangrijke rol spelen in wetenschapscommunicatie, over het hoofd zien. 

Ja, in theorie kan iedereen met ChatGPT in gesprek. Maar voelen mensen zich dan ook verbonden en gehoord? Vertrouwen mensen AI als bron van wetenschapscommunicatie? Hoe gaan mensen met AI gegenereerde kennis om? Juist dit soort vragen moeten we onszelf blijven stellen. Ze vragen om verder onderzoek. Pas dan kunnen we begrijpen hoe we AI op een waardevolle manier kunnen inzetten voor wetenschapscommunicatie.  

AI roept een enorme lading aan nieuwe vragen op binnen het veld van wetenschapscommunicatie. Of het nou gaat over communiceren over, met, of door AI. Daarom organiseert NEWS op vrijdag 4 juli van 13.00 tot 16.00 uur een Open Space rondom het thema AI en wetenschapscommunicatie. Tijdens de Open Space willen we ophalen hoe het leeft binnen ons vakgebied en welke behoeften er zijn. Van daaruit kunnen we kijken waar NEWS ondersteuning kan bieden. Aansluitend organiseren wij vanaf 16:00 een zomerborrel. Geen zin of geen tijd voor AI, dan ben je ook van harte welkom om alleen naar de borrel te komen. Hopelijk zien we je daar!