top of page

Toezicht Inside

Wat zijn beperkt risico AI-systemen?

Bijgewerkt op: 10 okt

Een beperkt risico AI-systeem is een toepassing waarbij je als gebruiker geïnformeerd moet worden dat je met AI te maken hebt. Denk aan chatbots, deepfakes of emotieherkenning. De verplichtingen zijn beperkt, maar niet vrijblijvend.


Organisaties vragen zich vaak af: valt mijn systeem hieronder, en wat moet ik dan regelen? In dit artikel leggen we het uit in gewone taal.


Wat zijn beperkt risico AI-systemen?

AI Act: risicoklassen op hoofdlijnen

De AI Act werkt met vier risiconiveaus:

  • Verboden AI-systemen (zoals manipulatie of social scoring)

  • Hoog-risico AI-systemen (zoals AI in rechtshandhaving, werk of gezondheidszorg)

  • Beperkt risico (vooral transparantieplicht bij mens-AI interactie)

  • Minimaal risico (veruit de meeste AI-toepassingen, geen extra regels)

De categorie beperkt risico is vooral relevant voor organisaties die AI inzetten in hun klantcontact, marketing of communicatie.

Wanneer is een AI-systeem beperkt risico?

In gewone taal: als je AI inzet in een manier die invloed kan hebben op gedrag of keuzes van mensen, maar zonder dat er sprake is van directe beslissingen over rechten, veiligheid of geld, dan val je vaak in de categorie “beperkt risico”.

Typische toepassingen met beperkt risico

Een AI-systeem is beperkt risico wanneer het:

  • Interacteert met mensen zonder dat die weten dat het AI is (zoals een chatbot)

  • Emoties of intenties herkent (zoals camera’s met emotieanalyse)

  • Deepfake- of synthetische content genereert

  • Generatieve AI gebruikt voor tekst, beeld of video (zoals bij GPT, DALL·E of Sora)

Uitzondering: duidelijk AI voor de gebruiker

Je hoeft geen melding te doen als voor de gebruiker “overduidelijk” is dat het systeem AI is. Bijvoorbeeld als een cartoonfiguur met computerstem een tekst voorleest.

Maar: zodra enige twijfel kan bestaan (bijvoorbeeld een menselijke stem, realistische video of overtuigende chatbot), is transparantie wél verplicht.

Verplichtingen voor beperkt risico AI-systemen

De verplichtingen zijn vastgelegd in artikel 50 van de AI Act en betreffen vooral transparantie richting gebruikers.

Checklist verplichtingen

  • Duidelijk maken dat ze met AI interacteren

  • Voorafgaand aan de interactie, niet achteraf

  • In begrijpelijke taal, afgestemd op doelgroep

  • Bij deepfakes: vermelden dat de content synthetisch is

  • Bij emotieherkenning: informeren dat analyse plaatsvindt

Na de melding mogen gebruikers vervolgens zelf kiezen hoe ze verder interacteren. Organisaties zijn verantwoordelijk voor een begrijpelijke en toegankelijke uitleg, bijvoorbeeld via:

  • pop-up bij eerste contactmoment

  • disclaimer voorafgaand aan video

  • pictogrammen of labels bij AI-content

Let op: dit moet actief gebeuren, dus niet verstopt in de algemene voorwaarden.

Twee voorbeelden uit de praktijk

Voorbeeld 1: Chatbot bij een overheidsinstantie

Een burger stelt via de website van een overheidsdienst een vraag over zijn vergunning. De chatbot reageert met juridische informatie. De burger denkt dat hij met een medewerker spreekt.

Toezichthouders zoals de Autoriteit Persoonsgegevens of de Nationale Ombudsman zouden in zo’n geval kunnen oordelen dat er onvoldoende transparantie is geweest. Een duidelijke melding vooraf was vereist.


Voorbeeld 2: Synthetische deepfake-video voor training

Een opleidingsinstituut gebruikt AI om gesimuleerde klantgesprekken met acteurs te genereren. De video’s worden gepresenteerd als echt.


In dit geval is een duidelijke melding verplicht, bijvoorbeeld: “Deze video is gegenereerd met AI. De personen zijn fictief.”


De Arbeidsinspectie zou hier toezicht op kunnen houden in het kader van veilige leeromgevingen.


Wat zijn de grenzen van deze categorie?

De categorie “beperkt risico” lijkt eenvoudig, maar kent in de praktijk grijze gebieden.

Wanneer schuift een systeem op naar hoog risico?

  • Wanneer het AI-systeem niet alleen informeert, maar ook besluiten beïnvloedt

  • Wanneer er sprake is van profilering of verwerking van gevoelige gegevens

  • Wanneer AI wordt ingezet binnen sectoren zoals onderwijs, rechtspraak of toegang tot werk

In zo’n geval moet je herbeoordelen of je systeem niet alsnog als “hoog risico” kwalificeert.

Wat als je de regels niet naleeft?

De AI Act voorziet in handhaving via nationale toezichthouders, waaronder de ACM, AP en sectorale inspecties. Bij niet-naleving van transparantieverplichtingen kunnen sancties volgen.

Boetes kunnen oplopen tot EUR 15 miljoen of 3% van de wereldwijde jaaromzet, afhankelijk van de ernst en opzet.

Wat moeten organisaties nu doen?

Heb je een AI-toepassing die mogelijk onder “beperkt risico” valt? Dan is het zaak om de juiste stappen te zetten:

Stappenplan

  • Stap 1: Breng AI-toepassingen in kaart Welke systemen interacteren met mensen? Gaat het om tekst, beeld, audio?

  • Stap 2: Classificeer elk systeem Is het “duidelijk” dat het om AI gaat? Of is transparantie nodig?

  • Stap 3: Ontwerp disclosure Kies een transparante, gebruiksvriendelijke manier om de melding te doen.

  • Stap 4: Test op begrijpelijkheid Werkt de melding in de praktijk? Begrijpen gebruikers de boodschap?

  • Stap 5: Documenteer alles Leg vast waarom je het systeem als beperkt risico hebt gekwalificeerd en hoe je aan verplichtingen voldoet.

  • Stap 6: Blijf up-to-date De Europese Commissie kan lijsten en eisen wijzigen. Houd wijzigingen bij.

FAQ over beperkt risico AI-systemen

Wat is het verschil tussen beperkt risico en hoog risico? Beperkt risico gaat om transparantie over AI-gebruik, zonder directe gevolgen voor rechten of veiligheid. Hoog risico vereist extra maatregelen, zoals risicobeheersing en CE-markering.


Moet ik mijn AI-systeem registreren bij beperkt risico?

Nee, registratie is niet verplicht bij beperkt risico, tenzij het systeem opschuift naar hoog risico of onder sectorale regelgeving valt.


Wat als ik geen melding maak dat het AI is?

Dan loop je risico op boetes of sancties van toezichthouders, zeker als de gebruiker misleid is.


Moet ik elke chatbot melden?

Nee, alleen als het niet duidelijk is dat het géén mens is. Een robotstem of duidelijk niet-menselijke interface kan volstaan.


Bronnen


bottom of page