De AI Act in Europa

De AI Act is een nieuwe Europese wetgeving die geharmoniseerde regels vaststelt voor kunstmatige intelligentie (AI)-systemen binnen de EU. Het primaire doel van deze wetgeving is het stimuleren van betrouwbare en mensgerichte AI-toepassingen. Daarnaast beschermt de AI Act fundamentele rechten van burgers, zorgt het voor veiligheid en borgt het een hoog niveau van milieubescherming. Een bijkomend voordeel is dat deze wetgeving de vrije beweging van AI-gebaseerde goederen en diensten binnen de interne markt ondersteunt.
Voor uw organisatie brengt de AI Act nieuwe normen en richtlijnen mee waaraan uw AI-systemen verplicht moeten voldoen. Dit betekent dat u als organisatie het vertrouwen in uw AI-oplossingen moet versterken en tegelijkertijd de risico’s van AI-gerelateerde cyberaanvallen moet beheersen. Daarnaast dient u strategieën te ontwikkelen om ongewenst gebruik van AI tegen te gaan. Het tijdig aanpassen aan deze nieuwe regels is cruciaal voor compliance en het optimaal benutten van betrouwbare AI-technologieën.
De AI Act kent verschillende verplichtingen, afhankelijk van het risiconiveau van het AI-systeem dat u gebruikt of ontwikkelt:
- Verboden AI: Het ontwikkelen, aanbieden en gebruiken van bepaalde AI-systemen is strikt verboden. Overtredingen worden zwaar bestraft met boetes tot €35 miljoen of maximaal 7% van de wereldwijde jaaromzet.
- Hoog-risico AI: Voor systemen die aanzienlijke risico’s met zich meebrengen, gelden uitgebreide verplichtingen. Denk hierbij aan verplichte risicoanalyses, menselijke controle, volledige transparantie en verplichte registratie van het systeem.
- Beperkt risico AI: Deze systemen vereisen voornamelijk transparantieverplichtingen, zoals duidelijke gebruikersmeldingen over het gebruik van AI.
- Minimaal risico AI: Er gelden geen specifieke verplichtingen. Wel worden best practices sterk aanbevolen.
Daarnaast moeten AI-ontwikkelaars aan diverse compliance-verplichtingen voldoen:
- Het opstellen van gedetailleerde documentatie die uitlegt hoe de AI werkt en hoe het systeem wordt getraind.
- Het toepassen van ethische en technische standaarden om bias en discriminatie in het AI-model te voorkomen.
- Implementatie van een effectief risicomanagementsysteem specifiek gericht op AI.
De AI Act is geen geïsoleerde wetgeving, maar werkt samen met bestaande EU-regels, zoals:
- GDPR: AI-systemen die persoonsgegevens verwerken, moeten aan strenge privacyregels voldoen.
- NIS2: AI-oplossingen binnen essentiële sectoren, zoals energie en telecom, moeten aan cybersecurity-standaarden voldoen.
Niet-naleving brengt aanzienlijke risico’s met zich mee:
- Hoge boetes tot maximaal 7% van de wereldwijde omzet of €35 miljoen.
- Mogelijk verbod op het gebruik van niet-compliant AI-systemen.
- Ernstige reputatieschade en juridische consequenties.

Hoe zorgt u voor compliance met de AI Act?
De AI Act is inmiddels van kracht. Daarom adviseert Opensight uw organisatie om de volgende stappen te ondernemen:
- Breng AI-gebruik in kaart: Inventariseer welke AI-systemen binnen uw organisatie worden gebruikt of ontwikkeld. Classificeer deze systemen naar risiconiveau.
- Controleer specifieke verplichtingen: Ga na of uw AI transparant genoeg is, risico’s goed worden beheerd en documentatie volledig is.
- Integreer AI-risicomanagement: Maak AI-compliance onderdeel van uw bestaande Information Security Management System (ISMS) of Governance, Risk & Compliance (GRC)-framework.
- Combineer met bestaande regelgeving: Zorg voor integratie met GDPR-privacyregels en NIS2-cybersecuritynormen.
- Gebruik ondersteunende tools: Automatiseer compliance-processen en zorg voor goede documentatie om audits probleemloos te doorlopen.
De AI Act zorgt voor ingrijpende veranderingen binnen bedrijven die AI ontwikkelen, verkopen of gebruiken. Investeer daarom tijdig in betrouwbare en transparante inzet van AI en voorkom boetes, juridische problemen en schade aan uw reputatie.