Wat betekent de AI Act voor onderwijsinstellingen?
- Hanjo Mastenbroek

- 29 sep
- 3 minuten om te lezen
Bijgewerkt op: 10 okt

De Europese AI Act is wetgeving die stap voor stap van kracht wordt. Voor onderwijsinstellingen is deze regelgeving relevant zodra ze AI inzetten voor bijvoorbeeld toelating, toetsafname of leerbegeleiding. Bepaalde toepassingen gelden als 'hoog risico', en daar horen extra regels bij.
Wat is de AI Act eigenlijk?
De AI Act is een Europese wet die bepaalt hoe kunstmatige intelligentie mag worden ingezet. Het idee erachter is simpel: AI moet nuttig zijn, maar ook veilig en eerlijk blijven. Daarom maakt de wet onderscheid tussen toepassingen met weinig risico, en toepassingen die wƩl grote impact hebben. Voor die laatste groep gelden zwaardere eisen.
De wet is van toepassing op organisaties die AI-systemen:
ontwikkelen,
gebruiken,
of op de markt brengen binnen de EU.
Ook als u AI-software inkoopt van een externe partij, kunt u verantwoordelijk zijn voor het correcte gebruik ervan.
Wanneer is AI in het onderwijs een 'hoog risico'?
Een AI-systeem is hoog risico als het invloed heeft op belangrijke beslissingen over mensen. In het onderwijs kan dat bijvoorbeeld zijn bij toelating tot een opleiding of bij het beoordelen van leerresultaten. Als een AI-systeem zelf keuzes maakt, dan gelden zwaardere eisen.
Voorbeelden van hoog risico toepassingen:
Software die motivatiebrieven analyseert voor toelating
Tools die tijdens examens verdacht gedrag signaleren (zoals online proctoring)
Systemen die automatisch bepalen op welk niveau een student geplaatst wordt
In al deze gevallen moet u als onderwijsinstelling extra zorgvuldig omgaan met het systeem en hoe u het inzet.
Wat moet u als onderwijsinstelling doen?
Dat hangt af van uw rol. Bent u de ontwikkelaar van het AI-systeem, of gebruikt u het alleen? In beide gevallen gelden er regels, maar de verantwoordelijkheden verschillen.
Ontwikkelt of levert u het systeem zelf? Dan moet u:
De risicoās van het systeem goed in kaart brengen,
Zorgen dat de data van goede kwaliteit zijn,
Documentatie en uitleg leveren voor gebruikers,
En het systeem zo bouwen dat mensen altijd kunnen ingrijpen.
Gebruikt u een systeem dat iemand anders heeft ontwikkeld? Dan moet u:
Het systeem gebruiken zoals het bedoeld is,
Ervoor zorgen dat er menselijk toezicht blijft,
Belangrijke gegevens bewaren, bijvoorbeeld logboeken,
En in sommige gevallen een zogeheten impactanalyse maken (FRIA).
Praktijkvoorbeeld: Toelating op basis van AI
Stel: een hogeschool gebruikt AI om te bepalen wie wordt toegelaten tot een opleiding. De software beoordeelt motivatiebrieven en kent scores toe. Omdat dit gevolgen heeft voor iemands recht op onderwijs, is het een hoog risico toepassing. De hogeschool moet uitleggen hoe het systeem werkt, controleren of de uitkomsten kloppen, en zorgen dat een mens altijd de eindbeslissing neemt.
Praktijkvoorbeeld: Gedragssignalering tijdens toetsen
Een mbo-instelling gebruikt software die studenten observeert tijdens online tentamens. Zodra de software iets verdachts ziet, geeft het een seintje. Omdat dit invloed kan hebben op toetsresultaten, is ook dit een hoog risico toepassing. De school moet het systeem testen, zorgen voor duidelijke communicatie naar studenten, en beoordelen of meldingen terecht zijn voordat maatregelen worden genomen.
Vier vragen om te bepalen wat u moet doen
U kunt als instelling de volgende vragen gebruiken om uw situatie te beoordelen:
Is het systeem dat u gebruikt een AI-systeem volgens de wet?
Valt het onder een risicocategorie?
Wat is uw rol: ontwikkelaar of gebruiker?
Welke regels horen daarbij?
Checklist voor onderwijsinstellingen:
Ā Maak een lijst van alle AI-toepassingen in uw organisatie
Ā Bepaal per systeem of u het zelf ontwikkelt of inkoopt
Ā Controleer of het een hoog risico toepassing is
Ā Zorg dat medewerkers voldoende kennis hebben van AI
Ā Stel intern beleid op voor verantwoord gebruik
AI-geletterdheid: meer dan een vinkje
De AI wetgeving verplicht instellingen om te zorgen dat personeel weet hoe AI werkt. Dat heet AI-geletterdheid. Het gaat niet alleen om een training volgen, maar echt begrijpen wat een systeem doet, welke risicoās het kan opleveren en hoe je daar goed op inspeelt.
Organiseer bijvoorbeeld:
Workshops voor docenten en beleidsmakers,
Overleggen tussen IT, privacy en onderwijs,
En scholing voor medewerkers die AI direct gebruiken.
De wet vraagt dat u dit structureel regelt, niet als eenmalige actie.
Veelgestelde vragen
Valt elk AI-systeem onder deze wet? Nee. Alleen systemen die echt beslissingen nemen of gedrag beĆÆnvloeden vallen onder de strengere regels.
Wat als we niet aan de regels voldoen?
Dan kan de toezichthouder boetes opleggen of eisen dat u het systeem aanpast of stopzet.
Hoe weet ik of een systeem hoog risico is? Controleer of het voorkomt in Bijlage III van de AI Act, of kijk of het invloed heeft op belangrijke rechten van mensen.
Wat is het verschil tussen een AI-model en een AI-systeem?
Een model is de techniek erachter. Het systeem is wat u gebruikt in de praktijk. De regels gaan over systemen.
Is een algoritmeregister verplicht?Nog niet, maar het helpt wel om overzicht te houden over wat u precies gebruikt.



















