top of page

Toezicht Inside

Wat is de AI Act?

Bijgewerkt op: 10 okt

Wat is de AI Act?

De AI Act is een Europese wet die bepaalt hoe kunstmatige intelligentie (AI) binnen de EU mag worden ontwikkeld, aangeboden en gebruikt. De wet is bedoeld om burgers te beschermen tegen de risico’s van AI, zoals discriminatie, manipulatie of gebrek aan transparantie. Tegelijk wil de wet innovatie mogelijk blijven maken.


Kunstmatige intelligentie wordt steeds vaker toegepast in sectoren zoals zorg, onderwijs, overheid en arbeidsmarkt. Denk aan algoritmen die sollicitanten beoordelen, medische diagnoses ondersteunen of fraude opsporen. Dat levert kansen op, maar ook risico’s. De AI Act probeert die risico’s beheersbaar te maken.


Hoe werkt de AI Act? Vier risiconiveaus

De AI Act deelt AI‑toepassingen in vier risicoklassen in. Elke klasse heeft zijn eigen regels.

Risicoklasse

Voorbeelden

Verplichtingen

Onacceptabel risico

Manipulatie van gedrag, sociale scoring, real-time gezichtsherkenning in publiek

Verboden. Deze AI‑systemen mogen niet op de EU-markt worden gebruikt of verkocht.

Hoog risico

AI in sollicitaties, zorg, politie, vervoer, onderwijs

Strenge regels. Denk aan risicobeoordelingen, technische documentatie, toezicht door mensen en transparantie over werking en doel.

Beperkt risico

Chatbots, deepfakes, AI in klantenservice

Transparantieplicht. Gebruikers moeten weten dat ze met AI te maken hebben en uitleg krijgen over hoe het systeem werkt.

Minimaal risico

AI in spelletjes, aanbevelingssystemen, e-mailfilters

Geen specifieke verplichtingen, maar wel wordt naleving van algemene ethische en technische normen verwacht.


Belangrijkste begrippen kort uitgelegd


  • AI‑systeem: Een systeem dat automatisch voorspellingen of beslissingen maakt op basis van data.

  • Aanbieder (provider): De partij die het AI‑systeem ontwikkelt of op de markt brengt.

  • Gebruiker (deployer): De organisatie die het systeem in de praktijk toepast.

  • Generieke AI (GPAI): AI-modellen die voor veel verschillende toepassingen kunnen worden ingezet, zoals grote taalmodellen.


Wat betekent de AI Act voor jouw organisatie?

Werk je met AI of overweeg je dat te gaan doen? Dan gelden er mogelijk verplichtingen. Het begint met inzicht in je rol: ben je aanbieder, gebruiker, distributeur of importeur van AI?

Checklist eerste stappen:

  • Breng in kaart welke AI-systemen je nu gebruikt of ontwikkelt.

  • Bepaal per systeem het risiconiveau.

  • Controleer of je verplichtingen hebt op het gebied van risicobeheer, transparantie, documentatie of toezicht.

  • Richt je processen zó in dat je tijdig kunt voldoen aan de AI Act.

  • Check of er richtlijnen zijn van je toezichthouder (zoals de AP of ACM).

Concrete acties:

  • Laat systemen beoordelen op discriminatierisico's.

  • Documenteer welke data zijn gebruikt voor training.

  • Zorg voor menselijke controle bij beslissingen in high-risk domeinen.

  • Informeer gebruikers als ze met AI communiceren.

Mogelijke voorbeelden in de praktijk

1. Arbeidsmarkt: selectie-algoritmen onder de loep

De Arbeidsinspectie onderzocht algoritmen die worden gebruikt in selectieprocedures. AI-systemen die automatisch kandidaten filteren op basis van CV of video-interview, kunnen onbewust discrimineren. Volgens de AI Act vallen zulke systemen onder “hoog risico”, wat betekent dat aanbieders en gebruikers verplichtingen hebben rond transparantie en controle.

2. NVWA en risicogericht toezicht

De Nederlandse Voedsel- en Warenautoriteit (NVWA) maakt gebruik van AI voor risicogericht toezicht. Een algoritme bepaalt waar inspecties plaatsvinden. Bij deze toepassingen geldt dat menselijk toezicht vereist is én dat er transparantie moet zijn over de werking van het systeem.

Wanneer gaat de AI Act gelden?

De AI Act is op 1 augustus 2024 formeel in werking getreden. De verplichtingen worden in fasen ingevoerd:

  • Vanaf 2025 gelden regels voor generieke AI-modellen (GPAI).

  • In 2026 moeten nieuwe high-risk AI-systemen aan de wet voldoen.

  • Voor bestaande systemen geldt overgangsrecht: zij krijgen iets langer de tijd.

Organisaties doen er verstandig aan zich nu al voor te bereiden. Veel verplichtingen vragen aanpassingen in techniek én organisatie.

Wat zijn de gevolgen bij niet-naleving?

Als je niet voldoet aan de verplichtingen uit de AI Act, kun je te maken krijgen met:

  • Boetes, oplopend tot 35 miljoen euro of 7% van de wereldwijde omzet, afhankelijk van de overtreding.

  • Verbod op gebruik of verkoop van het AI-systeem.

  • Reputatieschade, zeker bij gevoelige toepassingen zoals zorg of veiligheid.

  • Verplichte aanpassingen of terugtrekking van producten van de markt.

Hoe verhoudt de AI Act zich tot andere wetgeving?

De AI Act overlapt deels met andere wetten, maar richt zich specifiek op de risico's van AI.

  • AVG (GDPR): blijft gelden, met name bij verwerking van persoonsgegevens.

  • Sectorspecifieke wetten: zoals de MDR voor medische hulpmiddelen of de WVO voor onderwijs, blijven onverkort van kracht.

  • Internationale impact: ook bedrijven buiten de EU vallen onder de AI Act als hun systemen in de EU gebruikt worden.

Veelgestelde vragen (FAQ)

Wie moet zich aan de AI Act houden? Iedereen die AI ontwikkelt, aanbiedt of professioneel gebruikt binnen de EU. Ook buitenlandse bedrijven die systemen op de EU-markt brengen vallen onder de regels.

Is AI in klantenservice ook gereguleerd? Ja, als het systeem klanten beïnvloedt zonder dat zij weten dat het om AI gaat, geldt een transparantieplicht.

Wat zijn verboden AI-systemen? Bijvoorbeeld AI die gedrag manipuleert, burgers indeelt op ‘sociale score’, of real-time gezichtsherkenning gebruikt zonder wettelijke basis.

Moet ik iets doen als ik AI gebruik via een leverancier? Ja, ook als je een systeem inkoopt ben je als gebruiker verplicht om na te gaan of het voldoet aan de AI Act.


Bronnen

bottom of page