Veiligheidsregels voor Artificiële Intelligentie (AI-verordening)

Gepubliceerd door:
Rijksdienst voor Ondernemend Nederland (RVO)
Rijksdienst voor Ondernemend Nederland (RVO)
3 min lezen
English version
Ingangsdatum: 1 augustus 2024

Wat is er veranderd?

Er zijn regels gesteld voor het ontwikkelen en gebruiken van Artificiële Intelligentie (AI) voor de hele EU. Deze regels staan in de Artificial Intelligence Act (AI Act of AI-verordening). De AI-verordening moet zorgen voor de ontwikkeling van betrouwbare AI-sytemen en moet de rechten van mensen en bedrijven beschermen.

De veiligheidsregels gelden voor aanbieders en gebruiksverantwoordelijken van allerlei AI-systemen. Bijvoorbeeld AI die helpt om beslissingen te nemen, voorspellingen te doen, inhoud te maken of mensen te helpen.

De regels zijn bijvoorbeeld:

  • U mag onder andere manipulatieve AI of AI voor emotieherkenning op het werk niet verkopen of gebruiken (verboden AI).
  • U moet bij AI-systemen voor risicovolle toepassingen (hoog-risico AI) aan verschillende eisen voldoen om de risico’s kleiner te maken voordat u ze mag verkopen of gebruiken. Bijvoorbeeld bij AI-systemen voor werving en selectie, in het onderwijs en bij veiligheid van kritieke infrastructuur moet u aan eisen voldoen voor onder andere risicobeheer, monitoring en cyberbeveiliging.
  • Voor sommige systemen zoals chatbots en generatieve AI (AI waarmee u tekst en beeld kunt maken) gelden speciale transparantie-eisen, zodat gebruikers weten dat ze met een AI-systeem of AI-gegenereerde content te maken hebben.
  • Voor aanbieders van AI-modellen voor algemene doeleinden (zoals het analyseren van afbeeldingen en het vertalen van teksten) gelden transparantieverplichtingen. Deze aanbieders moeten zich ook houden aan andere verplichtingen zoals het opstellen van informatie en documentatie. Als een AI-model voor algemene doeleinden wordt verwerkt in een AI-systeem met een hoog risico dan gelden er extra veiligheidsregels.
  • U moet duidelijk zijn over waar en hoe de consument AI bij u kan tegenkomen en welke risico’s dit kan hebben.
  • Voor AI-systemen met een laag risico gaan geen eisen gelden. Laag risico AI is bijvoorbeeld AI die zorgt dat de elektrische auto op een slim moment wordt geladen of AI die de logistiek voor de bloementeelt optimaliseert.

Welke regels er voor u of voor uw AI-systeem gelden, hangt af van:

  1. of uw toepassing een AI-systeem is volgens de AI-verordening,
  2. onder welke risicocategorie uw AI-systeem valt,
  3. of u de aanbieder of gebruiksverantwoordelijke bent van het AI-systeem

Categorieën voor AI-systemen

De risicocategorieën voor AI-systemen zijn:

  • Verboden AI, zoals manipulatieve AI of AI voor emotieherkenning op het werk.
  • Hoog-risico AI, zoals AI-systemen voor biometrische identificatie, rechtshandhaving en personeelszaken.
  • AI met transparantieverplichtingen, zoals chatbots en content vanuit generatieve AI.
  • Laag risico AI, zoals AI die zorgt dat de elektrische auto op een slim moment wordt geladen.
  • AI-modellen voor algemene doeleinden die veel verschillende taken kunnen uitvoeren, zoals het analyseren van afbeeldingen en het vertalen van teksten. Deze AI-modellen kunnen de basis vormen voor andere AI-systemen.

Voor wie?

  • Aanbieders van AI: u ontwikkelt een AI-systeem of model of laat een AI-systeem ontwikkelen en brengt dat systeem op de markt of gaat het zelf gebruiken.
  • Gebruiksverantwoordelijken van AI-systemen: u gebruikt een AI-systeem onder eigen verantwoordelijkheid.

Om te weten of u met de AI-verordening te maken heeft, kunt u controleren of uw AI-systeem in 1 van de risicocategorieën verkoopt of gebruikt en of u aanbieder of gebruiksverantwoordelijke bent van dat soort AI.

Wanneer?

De AI-verordening is ingegaan op 1 augustus 2024. Hierdoor gelden de volgende termijnen in de wet:

  • Vanaf 1 februari 2025 (na 6 maanden) mogen de verboden AI-systemen niet meer op de markt zijn in de EU.
  • Vanaf 1 augustus 2025 (na 1 jaar) moeten grote AI-modellen die voor veel toepassingen kunnen worden ingezet aan de eisen voldoen, met handhaving door de Europese Commissie.
  • Vanaf 1 augustus 2026 (na 2 jaar) moeten alle hoog-risico AI-systemen aan de eisen voldoen. Aanbieders van deze AI moeten een conformiteitsbeoordeling (laten) doen en een CE-markering gebruiken, gebruiksverantwoordelijken moeten hun verplichtingen nakomen.
  • Vanaf 1 augustus 2027 (na 3 jaar) gelden de eisen voor AI die wordt ingebouwd in gereguleerde producten zoals medische toepassingen. Aanbieders van dit soort AI moeten een conformiteitsbeoordeling laten doen en een CE-markering gebruiken, gebruiksverantwoordelijken moeten hun verplichtingen nakomen.

Naar verwachting komen er in 2025 landelijke regels voor sommige onderdelen van de AI-verordening. Bijvoorbeeld wie de toezichthouders worden voor de AI-verordening. Vanaf dat moment wordt er gecontroleerd of aanbieders en gebruiksverantwoordelijken zich houden aan de AI-verordening.

Vindt u de regels van de overheid onduidelijk?

Zorgen de regels voor onnodige administratieve lasten? Of weet u hoe de regels het ondernemen makkelijker kunnen maken? U kunt dit (anoniem) melden bij het Meldpunt regelgeving.

Dit artikel is gerelateerd aan:

  • Nieuwe wetten app

    Altijd op de hoogte blijven

    Download de gratis Nieuwe Wetten App

    Google Play store badgeApple App Store badge
    Lees meer

    Mobile app