top of page

Toezicht Inside

Italië straft AI‑misbruik keihard: 5 jaar cel voor Deep Fake.

Bijgewerkt op: 10 okt 2025

Italië straft AI‑misbruik keihard: 5 jaar cel voor Deep Fake.

In september 2025 heeft Italië als eerste EU-lidstaat een nationale AI-wet aangenomen die strafrechtelijke en bestuursrechtelijke kaders biedt voor het gebruik van kunstmatige intelligentie. Een van de meest in het oog springende bepalingen is de strafbaarstelling van het opzettelijk verspreiden van deepfakes met schadelijke gevolgen.

De wet komt vooruitlopend op de implementatie van de Europese AI-verordening (EU AI Act) en is bedoeld om technologische innovatie in balans te brengen met ethische verantwoordelijkheid en menselijke controle. Met deze stap stelt Italië duidelijke grenzen aan het gebruik van AI en neemt het een voortrekkersrol binnen de Europese Unie.

De nieuwe wet bevat bepalingen over onder meer strafrechtelijke aansprakelijkheid, toezicht op AI-systemen in kritieke sectoren, bescherming van minderjarigen en auteursrechtelijke afbakeningen. Naast beperkingen bevat de wet ook stimuleringsmaatregelen: de Italiaanse overheid heeft €1 miljard gereserveerd voor investeringen in AI-ontwikkeling, cyberbeveiliging en telecommunicatie.

Deepfakes als strafbaar feit

Het verspreiden van gemanipuleerde content die gebruikmaakt van AI, zogenaamde deepfakes, wordt strafbaar onder het nieuw ingevoerde artikel 612-quater in het Italiaanse Wetboek van Strafrecht.

Volgens deze bepaling is sprake van een misdrijf wanneer iemand, zonder toestemming van de afgebeelde persoon en met het oogmerk schade toe te brengen, gemanipuleerde audio- of visuele content verspreidt die voor echt wordt gehouden. De basisstraf bedraagt zes maanden tot drie jaar gevangenisstraf. Indien daadwerkelijk schade wordt veroorzaakt, kan de straf oplopen tot vijf jaar.


Het gaat om situaties waarin AI wordt gebruikt voor identiteitsfraude, laster, afpersing of reputatieschade. De strafmaat wordt verzwaard als het slachtoffer een minderjarige is of wanneer de content betrekking heeft op personen in publieke functies.


Ook het gebruik van AI bij de uitvoering van reeds strafbare feiten, zoals oplichting of valse documenten – geldt als strafverzwarende omstandigheid. Daarmee geeft de wet een krachtig signaal dat AI-gebaseerde criminaliteit niet als lichtere variant wordt beschouwd.


Transparantie en toezicht in kritieke sectoren

De wet stelt bindende vereisten aan de toepassing van AI in sectoren met een verhoogde maatschappelijke impact: gezondheidszorg, justitie, onderwijs, sport en arbeid. In deze domeinen is het gebruik van autonome AI-systemen slechts toegestaan indien:


  • beslissingen herleidbaar zijn tot menselijke logica (traceerbaarheid),

  • de werking uitlegbaar is voor toezichthouders en betrokkenen (uitlegbaarheid),

  • menselijke tussenkomst verplicht blijft bij besluitvorming (menselijke eindverantwoordelijkheid).


Werkgevers die AI inzetten voor personeelsbesluiten dienen werknemers te informeren en documentatie bij te houden. In juridische en medische context blijft de eindbeslissing uitsluitend bij de professional liggen, ongeacht de uitkomst van de AI-analyse.


Toestemming bij minderjarigen

Specifiek voor jongeren onder de 14 jaar bepaalt de wet dat toegang tot AI-diensten uitsluitend mogelijk is met expliciete toestemming van ouders of wettelijke vertegenwoordigers. Deze bepaling beoogt bescherming tegen manipulatie en blootstelling aan potentieel schadelijke of misleidende AI-inhoud.

Bedrijven die AI-diensten aanbieden moeten daarom controlemechanismen invoeren om leeftijdsverificatie en ouderlijke toestemming afdwingbaar te maken.


Auteursrecht en datamining

De wet bevestigt dat auteursrechtelijke bescherming alleen geldt voor werken met aantoonbare menselijke creatieve inbreng. Content die volledig door AI gegenereerd is zonder menselijke sturing komt niet in aanmerking voor bescherming onder het Italiaanse auteursrecht.


Voor toepassingen zoals text- en datamining geldt dat deze slechts zijn toegestaan indien de gebruikte broninhoud niet onder auteursrecht valt, of indien het gebruik plaatsvindt in het kader van erkend wetenschappelijk onderzoek. Commercieel gebruik van beschermde inhoud door AI-systemen zonder toestemming blijft verboden.


Toezicht en handhaving

De verantwoordelijkheid voor toezicht ligt bij twee nationale instanties: de Agency for Digital Italy (AgID) en de National Cybersecurity Agency (ACN). Zij zijn belast met inspectie, handhaving, registratieplicht en informatievoorziening.


Bestaande toezichthouders binnen sectoren zoals telecom, financiën en media behouden hun bevoegdheden maar dienen voortaan samen te werken met bovengenoemde AI-instanties.


De wet voorziet tevens in coördinatie op Europees niveau, zodat juridische conflicten met de aankomende EU AI-verordening kunnen worden voorkomen. Bedrijven die grensoverschrijdend AI aanbieden zullen dus rekening moeten houden met zowel nationale als Europese kaders.


Economische stimulans

Naast regulering zet Italië ook in op innovatie. Een nationaal fonds van één miljard euro wordt vrijgemaakt voor ondersteuning van bedrijven actief in AI, telecommunicatie, cybersecurity en kwantumtechnologie.


Hoewel het bedrag ambitieus lijkt, merken sommige waarnemers op dat het beperkt is in vergelijking met investeringen in landen zoals de Verenigde Staten of China. De effectiviteit van deze impuls zal mede afhangen van publieke-private samenwerking en Europese coördinatie.


FAQ

Wat is een deepfake volgens de wet? Een gemanipuleerde video, audio of afbeelding gemaakt met AI die ten onrechte als authentiek wordt gepresenteerd, met het doel te misleiden of schade te veroorzaken.


Wanneer is verspreiding strafbaar? Indien er geen toestemming is van de afgebeelde persoon én de content schadelijk is of wordt verspreid met het oogmerk schade toe te brengen.


Wie houdt toezicht op naleving van de wet? De Agency for Digital Italy (AgID) en de National Cybersecurity Agency (ACN) zijn verantwoordelijk voor toezicht, handhaving en coördinatie met andere instanties.


Gelden de regels ook voor buitenlandse AI-systemen? Ja, alle AI-systemen die actief zijn op Italiaans grondgebied vallen onder deze wet, ongeacht het land van herkomst.


Wat betekent dit voor Nederlandse bedrijven? Bedrijven die actief zijn op de Italiaanse markt moeten hun AI-systemen aanpassen aan de Italiaanse wet, met nadruk op documentatie, menselijke controle en bescherming van minderjarigen.



bottom of page