maandag 20 april 2026

AI act: VERORDENING (EU) 2024/1689 VAN HET EUROPEES PARLEMENT EN DE RAAD

Bron

VERORDENING (EU) 2024/1689 VAN HET EUROPEES PARLEMENT EN DE RAAD van 13 juni 2024 tot vaststelling van geharmoniseerde regels betreffende artificiële intelligentie en tot wijziging van de Verordeningen (EG) nr. 300/2008, (EU) nr. 167/2013, (EU) nr. 168/2013, (EU) 2018/858, (EU) 2018/1139 en (EU) 2019/2144, en de Richtlijnen 2014/90/EU, (EU) 2016/797 en (EU) 2020/1828 (verordening artificiële intelligentie)

Artikel 1: Wat is het doel van deze nieuwe AI-wet?

Deze wet is bedoeld om de interne markt in Europa beter te laten werken door duidelijke regels te stellen voor AI. Het doel is om mensenrechten, de gezondheid en de veiligheid van burgers te beschermen tegen de risico's van AI, terwijl we tegelijkertijd vernieuwing (innovatie) aanmoedigen.

Artikel 2: Voor wie en wat zijn deze regels precies bedoeld?

De wet geldt voor iedereen die AI-systemen maakt, verkoopt of gebruikt in de Europese Unie, ongeacht waar het bedrijf gevestigd is. De regels gelden niet voor militaire doeleinden, nationale veiligheid of voor mensen die AI puur voor hun eigen privégebruik thuis inzetten.

Artikel 3: Wat verstaat de wet precies onder een "AI-systeem"?

Een AI-systeem is een op een machine gebaseerd programma dat met een zekere mate van zelfstandigheid werkt. Het kan uit gegevens afleiden hoe het resultaten moet maken, zoals voorspellingen, aanbevelingen of beslissingen die invloed hebben op de wereld om ons heen.

Artikel 4: Moeten mensen die met AI werken hier verstand van hebben?

Ja, bedrijven en organisaties moeten ervoor zorgen dat hun medewerkers die AI-systemen bedienen over genoeg kennis beschikken. Dit noemen we "AI-geletterdheid": ze moeten begrijpen hoe het werkt en zich bewust zijn van de risico's.

Artikel 5: Welke vormen van AI zijn voortaan verboden in Europa?

Bepaalde gevaarlijke praktijken zijn verboden, zoals systemen die mensen stiekem manipuleren, misbruik maken van kwetsbare groepen, of een 'sociale score' bijhouden om mensen ongelijk te behandelen. Ook het op grote schaal verzamelen van gezichten van internet voor gezichtsherkenning en het live scannen van gezichten door de politie is in de meeste gevallen verboden.

Artikel 6: Wanneer wordt AI gezien als "hoog risico"?

Dat gebeurt als AI wordt gebruikt als veiligheidsonderdeel in producten die al streng gekeurd moeten worden (zoals speelgoed of liften) of voor specifieke gevoelige zaken zoals onderwijs, werk, of het beoordelen van iemands kredietwaardigheid.

Artikel 7: Kan de lijst met gevaarlijke AI-toepassingen in de toekomst veranderen?

Ja, de Europese Commissie mag nieuwe categorieën toevoegen aan de lijst van hoog-risico AI als er nieuwe technieken of gevaren ontstaan die een vergelijkbaar risico vormen voor de gezondheid of mensenrechten.

Artikel 8: Aan welke algemene regels moet hoog-risico AI voldoen?

Deze systemen moeten voldoen aan strenge eisen op het gebied van kwaliteit, documentatie en menselijk toezicht. De maker moet laten zien dat de AI veilig en eerlijk is voordat deze gebruikt mag worden.

Artikel 9: Hoe moeten risico's van AI-systemen beheerd worden?

Makers moeten een officieel plan hebben dat risico's tijdens de hele levensduur van de AI herkent, meet en probeert op te lossen. Als een risico niet helemaal weggenomen kan worden, moet de gebruiker daar duidelijk over worden ingelicht.

Artikel 10: Welke regels gelden er voor de gegevens waarmee AI getraind wordt?

De gegevens (datasets) moeten van zeer hoge kwaliteit zijn en mogen geen fouten of verborgen vooroordelen bevatten. Dit is nodig om te voorkomen dat het AI-systeem mensen gaat discrimineren op basis van bijvoorbeeld ras of geslacht.

Artikel 11: Moet er technische documentatie over de AI aanwezig zijn?

Ja, de maker moet een uitgebreid technisch dossier bijhouden waarin precies staat hoe het systeem is ontworpen en hoe het werkt. Controleurs moeten dit kunnen inzien om te checken of de wet wordt nageleefd.

Artikel 12: Houdt het AI-systeem zelf bij wat het doet?

Hoog-risico systemen moeten automatisch verslagen maken van hun eigen handelingen, ook wel "logs" genoemd. Hierdoor kan achteraf altijd worden nagekeken wat er precies is gebeurd als er een probleem ontstaat.

Artikel 13: Is het voor de gebruiker duidelijk hoe de AI werkt?

Het systeem moet transparant zijn voor degene die het bedient. De maker moet een duidelijke handleiding meeleveren zodat de gebruiker begrijpt wat de AI wel en niet kan en wat de risico's zijn.

Artikel 14: Blijft de mens altijd de baas over de AI?

Ja, hoog-risico AI moet zo ontworpen zijn dat mensen er altijd toezicht op kunnen houden. Een mens moet een beslissing van de AI kunnen terugdraaien of het systeem met een stopknop kunnen uitzetten.

Artikel 15: Hoe veilig en nauwkeurig moet de AI zijn?

De AI moet nauwkeurig werken en bestand zijn tegen fouten. Ook moet het systeem zeer goed beveiligd zijn tegen hackers die de werking van de AI proberen te veranderen of data willen stelen.

Artikel 16: Wat zijn de belangrijkste plichten voor de maker van hoog-risico AI?

De maker moet zorgen dat het systeem aan alle regels voldoet, zijn naam op het product zetten, een kwaliteitssysteem hebben en de AI officieel laten keuren en registreren.

Artikel 17: Hoe houdt een bedrijf de kwaliteit van zijn AI op peil?

Bedrijven moeten een officieel kwaliteitsplan hebben. Hierin staan vaste procedures voor het ontwerp, het testen van de data en het afhandelen van fouten of incidenten.

Artikel 18: Hoe lang moet informatie over de AI bewaard blijven?

De maker moet alle belangrijke documenten, zoals het technisch dossier en keuringsbewijzen, tot tien jaar nadat het systeem op de markt kwam bewaren voor de overheid.

Artikel 19: Hoe lang moeten de automatische logs bewaard blijven?

De makers moeten de automatisch gemaakte verslagen (logs) minstens zes maanden bewaren, zodat ze nagekeken kunnen worden bij eventuele problemen.

Artikel 20: Wat gebeurt er als er een fout wordt ontdekt in de AI?

Als de maker merkt dat de AI niet aan de regels voldoet, moet hij het systeem direct aanpassen, van de markt halen of terughalen bij de klanten. Hij moet dit ook melden aan de toezichthouders.

Artikel 21: Moeten AI-bedrijven meewerken met de overheid?

Ja, op verzoek moeten zij alle informatie en documentatie direct aan de controlerende instanties overhandigen in een begrijpelijke taal.

Artikel 22: Wat als de maker van de AI niet uit Europa komt?

Dan is het bedrijf verplicht om een officiële vertegenwoordiger (gemachtigde) binnen de Europese Unie aan te wijzen die namens hen verantwoordelijk is.

Artikel 23: Wat is de taak van een importeur?

Importeurs moeten controleren of de buitenlandse maker alle regels heeft gevolgd, of de keurmerken kloppen en of de handleidingen aanwezig zijn voordat ze de AI in Europa verkopen.

Artikel 24: Waar moet de verkoper (distributeur) op letten?

De verkoper moet checken of het officiële CE-logo aanwezig is en of de importeur en maker hun contactgegevens op de AI of de verpakking hebben gezet.

Artikel 25: Wanneer word je zelf gezien als de officiële maker van de AI?

Dat gebeurt als je een bestaand systeem onder je eigen naam verkoopt, of als je de AI zo ingrijpend verandert dat het een heel ander of gevaarlijker doel krijgt.

Artikel 26: Wat moet je doen als je AI gebruikt binnen je bedrijf?

Je moet de handleiding strikt volgen, zorgen voor getraind personeel voor toezicht en de juiste gegevens in de AI invoeren. Als er iets misgaat, moet je dit direct melden.

Artikel 27: Moet er vooraf onderzoek gedaan worden naar mensenrechten?

Overheidsinstanties en bijvoorbeeld banken moeten vooraf onderzoeken of de AI geen negatieve gevolgen heeft voor grondrechten zoals privacy of gelijkheid. Ze moeten dit onderzoek ook melden bij de overheid.

Artikel 28: Wie wijst de officiële controle-instanties aan?

Elk EU-land wijst een eigen autoriteit aan die verantwoordelijk is voor het selecteren en controleren van de bureaus die de AI-systemen mogen keuren.

Artikel 29: Hoe vraagt een keuringsbureau toestemming?

Zij moeten een aanvraag indienen bij hun land met bewijzen dat ze onafhankelijk zijn en over voldoende deskundig personeel beschikken om AI te beoordelen.

Artikel 30: Hoe verloopt de officiële melding van zo'n bureau?

Nadat de overheid het bureau heeft goedgekeurd, wordt dit gemeld aan de Europese Commissie en alle andere EU-landen, zodat het bureau overal in Europa herkend wordt.

Artikel 31: Aan welke eisen moet een keuringsbureau voldoen?

Ze moeten volkomen onafhankelijk zijn van AI-bedrijven, mogen geen advies geven aan de makers die ze controleren en moeten alle informatie strikt geheim houden.

Artikel 32: Wanneer wordt aangenomen dat een bureau goed werkt?

Als ze voldoen aan de algemene Europese standaarden voor keuringsinstanties, gaan we ervan uit dat ze hun werk volgens de wet kunnen doen.

Artikel 33: Mogen bureaus werk uitbesteden?

Ja, dat mag aan onderaannemers, maar het hoofdbureau blijft volledig verantwoordelijk en moet bewijzen dat de onderaannemer ook aan alle regels voldoet.

Artikel 34: Hoe moet een keuringsbureau te werk gaan?

Ze moeten de AI-systemen eerlijk en streng testen, maar zonder bedrijven (vooral kleine startups) onnodig veel last of kosten te bezorgen.

Artikel 35: Krijgt elk bureau een eigen nummer?

Ja, elk officieel goedgekeurd bureau krijgt een uniek identificatienummer van de Europese Commissie zodat ze herkenbaar zijn.

Artikel 36: Wat als een bureau de regels overtreedt?

Dan kan de goedkeuring worden ingetrokken of beperkt. Bestaande certificaten van dat bureau worden dan opnieuw bekeken om te zien of ze nog wel geldig zijn.

Artikel 37: Wie controleert de controleurs als er twijfel is?

De Europese Commissie kan zelf een onderzoek instellen als ze reden heeft om te twijfelen aan de kennis of eerlijkheid van een keuringsbureau.

Artikel 38: Werken de bureaus in Europa met elkaar samen?

Ja, er wordt een speciale groep opgericht waarin bureaus ervaringen uitwisselen om te zorgen dat AI overal in de EU op dezelfde manier wordt gecontroleerd.

Artikel 39: Mogen bureaus van buiten de EU ook keuren?

Alleen als de EU daar een speciale overeenkomst mee heeft en als deze bureaus aan precies dezelfde strenge eisen voldoen als Europese bureaus.

Artikel 40: Zijn er standaardregels voor het bouwen van AI?

De EU maakt officiële technische normen. Bedrijven die deze normen volgen, worden geacht automatisch aan de belangrijkste eisen van de AI-wet te voldoen.

Artikel 41: Wat als er nog geen officiële standaardregels zijn?

Dan kan de Europese Commissie zelf tijdelijke technische regels vaststellen waar bedrijven zich aan moeten houden.

Artikel 42: Wanneer wordt een systeem als veilig genoeg beschouwd?

Wanneer het is getraind met de juiste gegevens en voldoet aan de Europese regels voor digitale veiligheid (cyberbeveiliging).

Artikel 43: Hoe wordt een AI-systeem officieel goedgekeurd?

Afhankelijk van het type risico mag de maker soms zelf een check doen, maar vaak moet een onafhankelijk bureau het systeem officieel keuren voordat het verkocht mag worden.

Artikel 44: Hoe lang blijft een veiligheidscertificaat geldig?

Een certificaat is meestal vier of vijf jaar geldig. Daarna moet het systeem opnieuw worden gekeurd om de veiligheid te garanderen.

Artikel 45: Moeten keuringsbureaus informatie delen?

Ja, ze moeten aan hun overheid melden welke systemen ze hebben goedgekeurd, geweigerd of ingetrokken. Ook moeten ze informatie delen met collega-bureaus in andere landen.

Artikel 46: Mag een land in noodgevallen een uitzondering maken?

Ja, voor de volksgezondheid of de openbare veiligheid mag een overheid tijdelijk toestaan dat een AI-systeem gebruikt wordt zonder dat alle checks al klaar zijn.

Artikel 47: Welk document verklaart dat alles klopt?

De maker stelt een 'EU-conformiteitsverklaring' op. Hiermee neemt hij officieel de verantwoordelijkheid dat zijn AI aan de wet voldoet.

Artikel 48: Hoe herken je een goedgekeurd systeem?

Aan het officiële CE-logo. Dit moet zichtbaar op de AI of de verpakking staan.

Artikel 49: Moet elk systeem ergens ingeschreven staan?

Ja, makers moeten hun hoog-risico AI-systemen aanmelden bij een centrale Europese databank voordat ze deze op de markt brengen.

Artikel 50: Wanneer moet ik weten dat ik met AI te maken heb?

Bij chatbots, deepfakes (nep-filmpjes) of systemen die emoties herkennen, moet dit altijd duidelijk vermeld worden. Mensen hebben het recht om te weten dat een machine de content heeft gemaakt.

Artikel 51: Wanneer is een AI-model "algemeen doel" (zoals ChatGPT) gevaarlijk?

Dit zijn modellen die heel krachtig zijn en voor heel veel verschillende taken gebruikt kunnen worden. Ze vormen een systeemrisico als ze een enorme rekenkracht hebben of miljoenen gebruikers in de EU.

Artikel 52: Hoe wordt bepaald of zo'n model een extra risico vormt?

Makers moeten de Commissie melden als hun model een bepaalde krachtgrens overschrijdt. De Commissie kan ook zelf modellen aanwijzen die extra streng gecontroleerd moeten worden.

Artikel 53: Welke extra regels gelden voor deze grote modellen?

Makers moeten technische documentatie bijhouden, informatie delen met andere bedrijven die hun model gebruiken en zich strikt houden aan de regels voor auteursrecht.

Artikel 54: Moet een buitenlandse maker van zo'n model een contactpersoon hebben?

Ja, ook zij moeten een officiële vertegenwoordiger in de EU aanwijzen die aanspreekbaar is voor de overheid.

Artikel 55: Wat als een model een heel groot gevaar kan vormen?

Dan moet de maker extra tests doen om zwakke plekken te vinden, de risico's voor de samenleving beperken en zorgen voor een zeer sterke beveiliging tegen hackers.

Artikel 56: Mogen bedrijven zelf meeschrijven aan de gedragsregels?

Ja, de overheid stimuleert dat makers samen praktische handleidingen en regels opstellen voor hoe zij de wet gaan naleven.

Artikel 57: Bestaat er een veilige plek om nieuwe AI te testen?

Elk EU-land moet minstens één "testomgeving" (sandbox) maken. Hier kunnen bedrijven onder toezicht van de overheid veilig experimenteren met nieuwe AI voordat deze echt de markt op gaat.

Artikel 58: Hoe werkt zo'n veilige testomgeving precies?

Er komen vaste regels voor wie mag meedoen en de overheid helpt de bedrijven om hun AI direct volgens de wet te ontwerpen.

Artikel 59: Mogen privégegevens in de testomgeving worden gebruikt?

Ja, maar alleen onder zeer strenge voorwaarden en alleen als het doel heel belangrijk is, zoals voor de volksgezondheid of het milieu.

Artikel 60: Mag je ook AI testen in de "echte wereld"?

Ja, maar alleen met een goedgekeurd plan van de overheid, voor maximaal zes maanden en met goede bescherming voor de mensen die meedoen aan de test.

Artikel 61: Moeten mensen toestemming geven voor zo'n test?

Ja, deelnemers moeten vooraf precies weten wat er gebeurt en ze mogen op elk moment stoppen zonder dat dit nadelige gevolgen voor hen heeft.

Artikel 62: Krijgen kleine bedrijven extra hulp bij de uitvoering?

Ja, startups en kleine bedrijfjes krijgen voorrang bij testplekken, speciale training en ze betalen minder voor de officiële keuringen.

Artikel 63: Zijn de regels voor de allerkleinste bedrijfjes soepeler?

Hele kleine bedrijven (micro-ondernemingen) hoeven aan minder administratieve eisen te voldoen, mits dit de veiligheid niet in gevaar brengt.

Artikel 64: Wie bouwt de kennis over AI op Europees niveau op?

Het Europese AI-bureau, dat onderdeel is van de Europese Commissie.

Artikel 65: Komt er een Europese Raad voor AI?

Ja, met één vertegenwoordiger per EU-land om samen te werken aan een goede uitvoering van de wet in heel Europa.

Artikel 66: Wat gaat die Europese AI-raad precies doen?

Ze geven advies, delen goede voorbeelden onder landen en helpen bij het maken van nieuwe richtlijnen en technische specificaties.

Artikel 67: Is er ook een plek voor deskundigen van buitenaf?

Ja, er komt een adviesforum met mensen uit de industrie, de wetenschap en maatschappelijke organisaties om de Raad te helpen.

Artikel 68: Komt er een panel van topwetenschappers?

Er wordt een groep onafhankelijke experts gevormd die waarschuwen voor gevaren van grote AI-modellen en helpen bij de controle.

Artikel 69: Mogen landen deze experts om hulp vragen?

Ja, lidstaten kunnen tegen betaling deskundigen uit deze pool inhuren om hen te ondersteunen bij hun eigen nationale controles.

Artikel 70: Moet elk land eigen AI-waakhonden hebben?

Ja, elk land moet onafhankelijke autoriteiten aanwijzen die toezicht houden op de naleving van de wet en die dienen als aanspreekpunt voor burgers.

Artikel 71: Waar komt de lijst met alle AI-systemen?

De Europese Commissie maakt een centrale databank die grotendeels openbaar is voor alle burgers, behalve voor gevoelige systemen zoals die van de politie.

Artikel 72: Moet de maker na verkoop blijven opletten?

Ja, makers moeten ook nadat hun AI is verkocht actief in de gaten houden of het systeem nog steeds veilig en goed werkt in de praktijk.

Artikel 73: Wanneer moet een ongeluk gemeld worden?

Ernstige incidenten, zoals de dood van iemand of grote schade aan de infrastructuur, moeten direct gemeld worden bij de overheid.

Artikel 74: Mogen controleurs alles bekijken, zelfs de broncode?

Toezichthouders hebben grote macht en mogen op verzoek documenten en data inzien. In uiterste gevallen mogen ze zelfs de broncode van de AI bekijken.

Artikel 75: Hoe wordt toezicht op grote modellen zoals ChatGPT geregeld?

Dit wordt op Europees niveau gedaan door het AI-bureau, dat hiervoor alle bevoegdheden van een markttoezichthouder heeft.

Artikel 76: Wie controleert de tests op straat?

De markttoezichthouders controleren of tests in de echte wereld veilig verlopen en kunnen een test stopzetten als het onveilig wordt.

Artikel 77: Hebben mensenrechtenorganisaties ook een stem?

Instanties die toezien op grondrechten (zoals privacywaakhonden) krijgen het recht om documenten in te zien en AI te laten testen als er vermoeden van discriminatie is.

Artikel 78: Blijven bedrijfsgeheimen wel echt geheim?

Ja, controleurs en de overheid moeten alle informatie die ze van bedrijven krijgen strikt vertrouwelijk behandelen.

Artikel 79: Wat gebeurt er als een systeem echt gevaarlijk is?

Dan kan de overheid eisen dat het systeem direct van de markt wordt gehaald of wordt teruggeroepen van alle gebruikers.

Artikel 80: Wat als een maker ten onrechte beweert dat zijn AI veilig is?

De overheid kan dit controleren. Als blijkt dat de AI wél een hoog risico vormt, moet de maker alsnog aan alle zware regels voldoen of krijgt hij een boete.

Artikel 81: Kunnen andere landen bezwaar maken tegen een toelating?

Ja, landen kunnen elkaars besluiten controleren. De Europese Commissie neemt de definitieve beslissing bij onenigheid.

Artikel 82: Wat als een goedgekeurd systeem toch problemen geeft?

Zelfs als een systeem aan de wet voldoet, maar in de praktijk toch onverwacht gevaarlijk blijkt voor bijvoorbeeld de gezondheid, moet de maker actie ondernemen om dat risico weg te nemen.

Artikel 83: Wat als de papierwinkel niet op orde is?

Bij kleine fouten, zoals een missend CE-logo, krijgt de maker eerst een waarschuwing om dit binnen een bepaalde termijn te herstellen.

Artikel 84: Bestaat er een Europese testlocatie?

De EU kan officiële testcentra aanwijzen om de overheid te helpen bij de technische controles van AI-systemen.

Artikel 85: Waar kan een burger klagen?

Iedereen die denkt dat de AI-regels worden overtreden, kan een officiële klacht indienen bij de relevante markttoezichthouder.

Artikel 86: Heb ik recht op uitleg over een AI-besluit?

Ja, als een AI een belangrijk besluit over jou neemt dat nadelige gevolgen heeft, heb je recht op een duidelijke uitleg waarom die keuze is gemaakt.

Artikel 87: Zijn klokkenluiders beschermd?

Ja, mensen die misstanden melden over AI-bedrijven worden wettelijk beschermd tegen eventuele nadelige gevolgen van hun melding.

Artikel 88: Wie straft de makers van de grootste modellen?

De Europese Commissie heeft de exclusieve macht om de regels voor de grootste, algemene AI-modellen af te dwingen.

Artikel 89: Hoe worden deze grote bedrijven in de gaten gehouden?

Het AI-bureau houdt hen constant in de gaten. Ook andere bedrijven kunnen klachten indienen als ze zien dat een grote maker de wet overtreedt.

Artikel 90: Wanneer trekken wetenschappers aan de alarmbel?

Onafhankelijke wetenschappers kunnen een officieel alarm afgeven als ze zien dat een groot AI-model gevaarlijk wordt op Europees niveau.

Artikel 91: Mag de Commissie documenten opeisen van grote makers?

Ja, ze kunnen alle informatie opvragen die nodig is om te beoordelen of een bedrijf zich aan de wet houdt.

Artikel 92: Mogen ze de AI-modellen zelf ook testen?

Ja, de Commissie kan toegang eisen tot het model en de broncode om te onderzoeken of er grote risico's zijn.

Artikel 93: Welke maatregelen kunnen ze opleggen aan grote bedrijven?

Ze kunnen eisen dat risico's worden verkleind, of in het ergste geval dat de AI helemaal van de markt verdwijnt.

Artikel 94: Hebben de AI-makers ook rechten tijdens een onderzoek?

Ja, zij hebben recht op een eerlijke procedure en moeten de kans krijgen om gehoord te worden en zich te verdedigen.

Artikel 95: Mogen bedrijven vrijwillig meer doen dan de wet vraagt?

Ja, de overheid moedigt aan dat bedrijven ook voor minder gevaarlijke AI gedragscodes opstellen voor bijvoorbeeld duurzaamheid of toegankelijkheid.

Artikel 96: Komt er meer hulp bij de uitvoering?

Ja, de Commissie schrijft duidelijke gidsen om bedrijven en overheden te helpen de wet goed te begrijpen.

Artikel 97: Wie mag de regels in de toekomst verfijnen?

De Europese Commissie mag technische details bijwerken, maar het Parlement en de Raad kunnen dit tegenhouden.

Artikel 98: Hoe worden besluiten officieel genomen?

Via vaste Europese overlegprocedures met vertegenwoordigers uit alle EU-landen.

Artikel 99: Hoe hoog zijn de boetes bij overtreding?

De boetes kunnen extreem hoog zijn: tot wel 35 miljoen euro of 7% van de jaaromzet van een bedrijf voor de zwaarste fouten.

Artikel 100: Gelden er ook boetes voor EU-instellingen zelf?

Ja, ook zij kunnen boetes krijgen tot 1,5 miljoen euro als zij zich niet aan de AI-regels houden.

Artikel 101: Wat zijn de boetes voor makers van grote AI-modellen?

Zij kunnen boetes krijgen tot 15 miljoen euro of 3% van hun wereldwijde omzet als ze bijvoorbeeld de overheid voorliegen.

Artikel 102 t/m 110: Veranderen er ook andere wetten?

Ja, diverse bestaande wetten voor onder andere vliegtuigen, auto's en liften worden aangepast om de nieuwe AI-veiligheidsregels daarin op te nemen.

Artikel 111: Wat gebeurt er met AI die nu al te koop is?

Bestaande AI-systemen krijgen extra tijd (vaak tot 2030) om aan de nieuwe regels te voldoen.

Artikel 112: Wordt de wet nog geëvalueerd?

Ja, de Commissie gaat elk jaar en later elke vier jaar kijken of de wet nog steeds goed werkt en of de gevarenlijst moet veranderen.

Artikel 113: Wanneer gaan de regels in?

De verordening is officieel in werking getreden op 1 augustus 2024 (de twintigste dag na publicatie), maar de regels worden in verschillende stappen van kracht om organisaties de tijd te geven zich aan te passen:

  • Vanaf 2 februari 2025: De verboden op gevaarlijke AI-toepassingen (zoals sociale scoring of manipulatieve systemen) en de algemene definities worden van kracht.
  • Vanaf 2 augustus 2025: De regels voor AI-modellen voor algemene doeleinden (GPAI), de bepalingen over de governancestructuren (zoals het AI-bureau) en de regels over sancties en boetes gaan in.
  • Vanaf 2 augustus 2026: Dit is de algemene datum waarop de rest van de verordening van toepassing wordt, inclusief de meeste verplichtingen voor hoog-risico AI-systemen.
  • Vanaf 2 augustus 2027: De specifieke regels voor AI-systemen die als veiligheidscomponent dienen in producten die onder bepaalde Europese productwetgeving vallen (zoals machines of speelgoed), worden vanaf deze datum verplicht.

Voor systemen die al op de markt waren vóór de toepassingsdata gelden in sommige gevallen nog langere overgangstermijnen, die kunnen oplopen tot 2030.

Moet een particulier die een filmpje verspreidt dat gemaakt is met AI iets doen en wat?

Als particulier hangt het ervan af of u de AI gebruikt voor een louter persoonlijke, niet-professionele activiteit. In dat geval zijn de verplichtingen uit de AI-verordening voor "gebruiksverantwoordelijken" (degenen die AI-systemen inzetten) namelijk niet op u van toepassing.

Echter, de wet stelt wel algemene regels voor transparantie bij het verspreiden van content die met AI is gemaakt, met name als het gaat om deepfakes. Dit zijn beelden, geluiden of video's die door AI zijn gemaakt en die zo echt lijken dat een persoon ze voor authentiek zou kunnen houden.

Als u een filmpje verspreidt dat een deepfake is, moet u in principe het volgende doen:

  • Openbaarmaking: U moet duidelijk en opvallend aangeven dat de content kunstmatig is gegenereerd of gemanipuleerd.
  • Uitzondering voor kunst en satire: Wanneer het filmpje deel uitmaakt van een werk dat duidelijk artistiek, creatief, satirisch of fictief van aard is, is de verplichting beperkter. U moet dan nog steeds melden dat de content met AI is gemaakt, maar op een manier die het genot of het bekijken van het werk niet in de weg staat.
  • Informatie van algemeen belang: Als AI-gegenereerde tekst wordt gepubliceerd om het publiek te informeren over zaken van algemeen belang, moet dit ook worden vermeld, tenzij er een menselijke redactie aan te pas is gekomen die de verantwoordelijkheid draagt.

Daarnaast zijn er regels voor de makers van de AI-software zelf. Zij moeten ervoor zorgen dat de output van hun systemen (zoals het filmpje dat u heeft gemaakt) technisch gemarkeerd is, zodat het altijd herkenbaar blijft als een product van AI.

Kortom: zolang u het filmpje puur voor uzelf of in kleine kring (niet-professioneel) gebruikt, gelden de strenge regels niet voor u. Maar zodra u content verspreidt die mensen zou kunnen misleiden omdat het "echt" lijkt, bent u in de regel verplicht om eerlijk te zijn over het gebruik van AI.