Wat is kunstmatige intelligentie? Waar kom je het tegen en hoe slim is een computer écht? Deze vragen staan centraal tijdens een interactieve les van UMCG-onderzoeker Mirjam Plantinga, die samen met Bas Altenburg van 8D Research + Design = Impact te gast is op basisschool De Mienskip in Buitenpost. Samen nemen ze de kinderen van groep 6,7 en 8 mee in de wereld van kunstmatige intelligentie (AI).
‘Ik ben onderzoeker in het UMCG. Misschien niet zoals je verwacht, want ik onderzoek geen ziektes of het menselijk lichaam’, begint Plantinga de les. ‘Ik kijk vooral naar hoe we slimme technologie goed kunnen gebruiken in het ziekenhuis.’ Ze legt uit wat kunstmatige intelligentie is: computers die leren van gegevens en die patronen herkennen. ‘In de zorg kan het bijvoorbeeld helpen bij dingen die normaal veel tijd kosten,’ zegt ze. ‘Denk aan het bekijken van röntgenfoto’s of het sorteren van veel informatie over patiënten. Zo krijgen artsen sneller een goed overzicht en kunnen ze zich richten op wat echt belangrijk is: patiënten helpen.’
“Ik kijk vooral naar hoe we slimme technologie goed kunnen gebruiken in het ziekenhuis.“
Een escaperoom in het ziekenhuis
Samen met het team van 8D ontwikkelde Plantinga een serious game voor basisscholen over het gebruik van AI in de zorg. Altenburg trapt het spel af met een duidelijke uitleg. ‘Oké, luister goed. Jullie gaan zo een ziekenhuis helpen. Dat ziekenhuis heet VITAI en daar gaat van alles mis. Computers geven verkeerde adviezen, informatie klopt niet altijd en artsen twijfelen wat ze moeten doen. Het is aan jullie om dat op te lossen.’ Op het scherm verschijnt de eerste opdracht.
‘Jullie werken in teams. De helft van jullie zit op de laptop, de andere helft krijgt papieren opdrachten. Maar let op: niemand heeft alle informatie. Alleen als je goed samenwerkt en alles met elkaar deelt, kom je verder.’ De leerlingen schuiven meteen hun stoelen dichter bij elkaar. Er wordt gefluisterd, gewezen en fanatiek overlegd.
Tijdens de escaperoom werken leerlingen samen om codes te kraken en het ziekenhuis VITAI te helpen
Welke foto hoort er niet bij?
Panda of toch niet?
Op het scherm verschijnen vier foto’s van panda’s. Tenminste… drie panda’s. Op één afbeelding staat een mens in een pandapak. ‘Die hoort er niet bij!’ roept een leerling meteen. Maar wat blijkt? Een AI-systeem herkent soms óók de verklede mens als panda. Plantinga legt uit: ‘AI leert van voorbeelden. Als een systeem vooral plaatjes heeft gezien met zwart-witte vormen en ronde ogen, kan het denken: dit lijkt genoeg op wat ik ken. Maar het weet niet wat een panda écht is.’ ‘Vergelijk het met een hele snelle sorteermachine,’ vult Altenburg aan. ‘Hij kijkt alleen naar overeenkomsten. Hij denkt niet na zoals jullie dat doen.
‘Die hebben wij thuis!’
Tijdens één van de opdrachten krijgen de leerlingen verschillende voorbeelden te zien op het scherm. Hun taak: bedenken of er AI achter zit of niet. Wijzend naar de thermometer roept een leerling: ‘Dat is echt geen AI, die hebben wij gewoon thuis!’ ‘Maar de kassascanner gebruikt echt AI, die herkent toch niet zomaar producten uit zichzelf?’ ‘Gezichtsherkenning op telefoons? Ja, dat moet wel slim zijn!’ ‘En die zelfrijdende auto dan?’
Wat eerst simpel leek, blijkt helemaal niet zo makkelijk. Het zorgt voor veel vragen en verbazing: Want hoe weet je eigenlijk of iets ‘slim’ is? Ze komen erachter dat AI vaak verstopt zit in apparaten die je dagelijks gebruikt. Thuis, in de supermarkt of op straat, soms op manieren die je niet meteen had verwacht.
Waarom al op de basisschool?
Waarom is het belangrijk om dit aan kinderen uit te leggen? ‘Iedereen is ooit patiënt,’ zegt Plantinga. ‘En deze leerlingen zijn misschien wel de artsen van de toekomst. Bovendien gebruiken ze nu vaak zelf al AI-tools. Het is belangrijk om te begrijpen hoe dat werkt.’
‘Een arts moet zelf ook begrijpen hoe een model is gemaakt. Met welke gegevens? Volgens welke regels? En kan ik dit ook aan mijn patiënt uitleggen?’
Ze merkt dat veel mensen denken dat AI altijd de waarheid vertelt. Of dat het juist iets engs is dat alles overneemt. Door er samen over te praten, ontstaat meer begrip én stellen we meer kritische vragen. Bij moeilijke beslissingen in de zorg, over behandelingen of kwaliteit van leven, blijft het menselijke oordeel essentieel. Bovendien moet een arts altijd kunnen uitleggen hoe een systeem tot een advies komt. Dat heet ‘uitlegbare AI’. ‘Een arts moet zelf ook begrijpen hoe een model is gemaakt,’ zegt ze. ‘Met welke gegevens? Volgens welke regels? En kan ik dit ook aan mijn patiënt uitleggen?’
Wat blijft hangen?
Tijdens het spel roepen leerlingen fel: ‘Zie je wel, dat is fout!’ Maar een klasgenoot zegt rustig: ‘We maken allemaal wel eens een foutje, dat mag gewoon.’ Dat is misschien wel de belangrijkste les van de middag. Mensen maken fouten, maar we begrijpen ook waarom iets fout ging. We kunnen terugkijken, bijsturen en een andere keuze maken. We denken na, wegen af en nemen bewuste beslissingen. AI kan ook fouten maken. Alleen: een computer begrijpt niet wat hij doet en kan niet zelf beoordelen of een uitkomst klopt. Een leerling verwoordt het treffend: je moet goed kijken hoe je AI gebruikt en of dat wat het systeem zegt wel klopt.
Het blijft mensenwerk
Aan het einde van de les klinkt de vraag welk cijfer de leerlingen deze AI-les geven. Handen schieten omhoog: ‘Een negen!’ ‘Een tien!’ Een mooi rapportcijfer, maar de echte boodschap is duidelijk: technologie is krachtig en handig, maar kritisch blijven nadenken en de uitkomsten beoordelen, dat blijft mensenwerk. AI is een hulpmiddel. Wij mensen zijn de echte denkers.