De AI-Act uitgelegd: nieuwe regels en ontwikkelingen in de AI-regelgeving
De Artificial Intelligence Act (AI Act) is bijgewerkt door de Europese Commissie en markeert een belangrijke mijlpaal in de regulering van AI-technologieën. Deze wet is een grote stap vooruit in AI-wetgeving en plaatst de EU aan de voorhoede van AI-innovatie en toezicht. Door de risico’s die met deze technologie gepaard gaan aan te pakken, beoogt deze wet uitgebreide richtlijnen vast te stellen voor de ontwikkeling, marketing, het gebruik en de toepassing van kunstmatige intelligentie. De definitieve goedkeuring van de nieuwe versie van de AI Act door de Raad van de EU vond plaats in mei 2024. Over het algemeen hebben organisaties tot mei 2026 om aan de normen te voldoen. Boetes zullen worden opgelegd bij niet-naleving. De AI Act is een baanbrekend wetgevingsinitiatief dat ervoor moet zorgen dat AI-technologieën worden ontwikkeld en ingezet op een manier die veilig, transparant en in lijn is met Europese waarden. Het doel is om potentiële risico’s van AI, zoals bias, discriminatie en schending van privacy, te beperken, terwijl innovatie en concurrentievermogen binnen de EU worden gestimuleerd. Deze wetgeving is belangrijk omdat zij een wereldwijd precedent schept voor de regulering van AI, waarbij een balans wordt gevonden tussen technologische vooruitgang en de bescherming van fundamentele rechten.
De voorgestelde risicoclassificatie onder de AI Act hanteert verschillende normen voor elk risiconiveau. Er worden drie risicocategorieën onderscheiden: onaanvaardbaar risico, hoog risico en beperkt risico. Systemen die een onaanvaardbaar risico vormen, zijn verboden, zoals systemen die subtiele methoden gebruiken om het gedrag van mensen te beïnvloeden of die misbruik maken van kwetsbaarheden van groepen. Hoogrisicosystemen moeten een conformiteitsbeoordeling doorlopen en voldoen aan een reeks strenge eisen. Deze classificatie zorgt ervoor dat de gevaarlijkste AI-toepassingen worden verboden, terwijl hoogrisicotoepassingen nauwlettend worden gecontroleerd en gereguleerd om schade te voorkomen. Systemen met een beperkt risico vallen onder minder strenge regels, maar moeten nog steeds voldoen aan basisnormen om een veilig en ethisch gebruik te garanderen. Door deze duidelijke richtlijnen en regelgevende kaders vast te stellen, wil de AI Act vertrouwen opbouwen in AI-technologieën en het bredere gebruik ervan in verschillende sectoren stimuleren. Deze wetgeving beschermt niet alleen consumenten en burgers, maar biedt ook een stabiele en voorspelbare omgeving voor bedrijven om te innoveren.
Verboden praktijken: systemen met een onaanvaardbaar risico
De AI Act heeft een uitgebreide lijst opgesteld van praktijken die niet zijn toegestaan binnen kunstmatige intelligentie. Dit vormt een kernkader voor het reguleren van AI-gebruik en het waarborgen van ethische normen. De volgende praktijken zijn verboden onder de AI Act:
- Het gebruik van AI-systemen voor onbewuste manipulatie of het uitbuiten van kwetsbaarheden om gedrag te veranderen en schade toe te brengen.
- Het gebruik van AI om mensen te beoordelen of te categoriseren op basis van hun sociale gedrag of persoonlijke kenmerken, wat leidt tot oneerlijke behandeling.
- Het uitsluitend vertrouwen op AI om mensen te profileren en crimineel gedrag te voorspellen.
- Het opbouwen of uitbreiden van databanken voor gezichtsherkenning zonder specifieke toestemming.
- Het afleiden van emoties in werk- en onderwijsomgevingen, tenzij dit noodzakelijk is voor veiligheid of medische doeleinden.
- Het classificeren van mensen op basis van biometrische gegevens om gevoelige persoonlijke informatie af te leiden.
- Het gebruik van realtime biometrische identificatie door wetshandhaving in openbare ruimtes, tenzij onder strikte voorwaarden en specifieke omstandigheden.
Hoogrisicosystemen
De AI Act heeft verschillende AI-systemen aangemerkt als hoog risico, waaronder systemen die worden gebruikt in:
- Biometrie: taken zoals identificatie op afstand, categorisering op basis van gevoelige kenmerken en emotieherkenning.
- Kritieke infrastructuur: het beheren van veiligheid in digitale infrastructuur, verkeer en nutsvoorzieningen.
- Onderwijs en beroepsopleiding: functies zoals toelating bepalen, prestaties evalueren, opleidingsniveaus beoordelen en gedrag monitoren tijdens examens.
- Werkgelegenheid: activiteiten zoals werving, besluitvorming in arbeidsrelaties, taakverdeling en prestatiemonitoring.
- Essentiële diensten: toepassingen zoals het bepalen van recht op uitkeringen, kredietwaardigheid beoordelen, risico’s in levens- en ziektekostenverzekeringen inschatten en noodsituaties classificeren.
- Wetshandhaving: taken zoals risico-inschatting om slachtoffer te worden van criminaliteit, gebruik van leugendetectors, evaluatie van bewijs, recidiverisico-inschatting en profilering voor onderzoeken.
- Migratie en grenscontrole: activiteiten zoals gebruik van leugendetectors, risicobeoordelingen, ondersteuning bij asiel- en visumaanvragen en identificatie van personen.
- Rechtspleging en democratische processen: functies zoals ondersteuning van rechters bij juridisch onderzoek en besluitvorming, en mogelijke beïnvloeding van verkiezingen.
Ethische verplichtingen voor AI-bedrijven
Na de invoering van de nieuwe AI Act door de Europese Commissie worden bedrijven aangemoedigd om uitgebreide ethische richtlijnen en regelgevende kaders te volgen om een verantwoorde ontwikkeling en inzet van AI-technologieën te waarborgen. Deze wetgeving markeert een belangrijk moment in AI-regulering en is gericht op het beperken van risico’s zoals bias, discriminatie en privacyschendingen, terwijl innovatie wordt gestimuleerd binnen een kader dat aansluit bij Europese waarden.
Bedrijven moeten prioriteit geven aan ethische principes zoals menselijke controle en toezicht, technische robuustheid en veiligheid, privacy en databeheer, transparantie, diversiteit, non-discriminatie en rechtvaardigheid, maatschappelijk en milieuwelzijn en verantwoordelijkheid. Deze principes vormen een uitgebreid kader om te waarborgen dat AI-technologieën worden ontwikkeld en ingezet op een manier die transparantie, verantwoording en maatschappelijk vertrouwen versterkt.
Verify kan bedrijven helpen om verantwoord en transparant te zijn, in lijn met de doelstellingen van de AI Act voor ethisch AI-gebruik. De AI-technologie van Verify maakt het mogelijk om de herkomst van media te identificeren door onzichtbare “fingerprints” in te voegen die gedetailleerde informatie geven over de oorsprong en context van data. Deze technologie ondersteunt naleving van regelgeving voor hoogrisico-AI-systemen door uitgebreide tracking en monitoring van mediagebruik mogelijk te maken. Daarnaast helpt het ongeautoriseerde manipulatie en misbruik te voorkomen, waardoor de privacy van consumenten wordt beschermd en vertrouwen in AI-technologieën wordt versterkt.
Door deze richtlijnen en ethische principes te omarmen, kunnen bedrijven niet alleen voldoen aan de wettelijke vereisten, maar ook bijdragen aan een betrouwbare omgeving voor AI-innovatie waarin maatschappelijk welzijn en ethische overwegingen centraal staan. Deze aanpak beschermt niet alleen individuele rechten, maar stimuleert ook een cultuur van verantwoord AI-gebruik die de samenleving als geheel ten goede komt.
“Wat wij allemaal moeten doen, is ervoor zorgen dat we AI gebruiken op een manier die de mensheid ten goede komt, en niet ten nadele van de mensheid.”
— Tim Cook

