Maatschappelijk vertrouwen in AI
Publiek vertrouwen in kunstmatige intelligentie (AI) is een cruciale factor die de adoptie en acceptatie van AI-technologieën beïnvloedt. Een recente studie laat een wereldwijde daling in vertrouwen richting AI-bedrijven zien, waarbij het vertrouwen is gedaald van 61% naar 53% in de afgelopen vijf jaar. In de Verenigde Staten is dit vertrouwen zelfs sterker afgenomen, van 50% naar 35% in dezelfde periode1. Deze scepsis komt vaak voort uit zorgen over privacy, transparantie en het risico op bias en misbruik.
Een belangrijke oorzaak van wantrouwen in AI is de aantasting van persoonlijke besluitvorming. Naarmate AI-technologieën steeds vaker worden gebruikt, beïnvloeden ze subtiel — of bepalen ze zelfs — de keuzes die mensen maken. Dit kan gevoelens van onzekerheid oproepen, omdat mensen het idee krijgen dat hun autonomie wordt ondermijnd door algoritmes die hun opties beperken en voorkeuren sturen. Het gevoel controle te verliezen over persoonlijke beslissingen kan leiden tot ongemak en wantrouwen richting AI-systemen.
Daarnaast versterkt AI washing deze zorgen. AI washing verwijst naar de praktijk waarbij bedrijven de mogelijkheden van hun AI-technologie overdrijven of verkeerd voorstellen om innovatiever te lijken dan ze daadwerkelijk zijn. Dit kan leiden tot onrealistische verwachtingen over wat AI kan. Wanneer systemen vervolgens niet presteren zoals beloofd, leidt dit tot teleurstelling en vermindert het vertrouwen. Het verschil tussen verwachting en realiteit vergroot de scepsis en roept vragen op over betrouwbaarheid en transparantie.
Het opbouwen van vertrouwen in AI hangt sterk samen met het toepassen van principes van verantwoorde AI, zoals transparantie, uitlegbaarheid en ethische standaarden. Verantwoorde AI zorgt ervoor dat technologie op een duidelijke, eerlijke en maatschappelijk verantwoorde manier wordt ontwikkeld en toegepast. Rapporten zoals de Global Index on Responsible AI spelen hierin een belangrijke rol. Deze beoordelen en rangschikken landen op basis van hun omgang met verantwoorde AI en bieden benchmarks voor ethisch gebruik. Door best practices zichtbaar te maken, vergroten ze het vertrouwen en stimuleren ze wereldwijde naleving van hoge standaarden.
- Marr, B. (2024, March 19). As AI expands, public trust seems to be falling. Forbes. https://www.forbes.com/sites/bernardmarr/2024/03/19/is-the-public-losing-trust-in-ai/ ↩︎
Aantasting van persoonlijke besluitvorming
Naarmate AI een grotere rol speelt in het dagelijks leven, groeit de zorg over de impact op persoonlijke besluitvorming. Hoewel AI veel gemak biedt, kan het ook keuzes beïnvloeden of sturen, wat de autonomie van individuen kan ondermijnen.
AI-systemen gebruiken algoritmes om gepersonaliseerde aanbevelingen te doen op basis van gebruikersdata. Hierdoor kan de keuzevrijheid beperkt worden en kunnen voorkeuren worden gevormd zonder dat mensen zich daar volledig bewust van zijn. Denk aan aanbevelingen voor nieuws, entertainment of financiële producten, die kunnen leiden tot filterbubbels en minder blootstelling aan diverse perspectieven. Dit kan het eigen oordeel van gebruikers verminderen.
De aantasting van besluitvorming ontstaat wanneer AI systemen belangrijke keuzes overnemen. Dit kan problematisch zijn omdat controle verschuift van mensen naar algoritmes. Hoewel AI efficiëntie verhoogt, roept dit vragen op over transparantie en controle.
Gebrek aan inzicht in hoe AI werkt versterkt dit probleem. Gebruikers begrijpen vaak niet waarom bepaalde keuzes worden gepresenteerd, wat kan leiden tot een gevoel van machteloosheid en afstand tot hun eigen voorkeuren.
Databetrouwbaarheid
Momenteel hebben alle Large Language Models (LLM’s) en Large Visual Models (LVM’s) als nadeel dat hun nauwkeurigheid relatief beperkt is, wat hun betrouwbaarheid kan ondermijnen. Ondanks snelle ontwikkelingen blijft databetrouwbaarheid een grote uitdaging. Interessant is dat bedrijven zoals Verify een “fingerprint” toekennen aan elk datapunt, waardoor de authenticiteit gegarandeerd wordt. Dit betekent dat met 100% zekerheid kan worden vastgesteld dat een afbeelding echt en uniek is.
Deze technologie maakt het mogelijk om de online context van beelden vast te leggen in een rijke en volledig betrouwbare dataset. De unieke fingerprint-technologie stelt Verify in staat om datasets te creëren op basis van geverifieerde publieke data. Hoewel deze data al bestond, wordt deze nu veel relevanter en betrouwbaarder.
Hierdoor kunnen datasets worden opgebouwd die compliant zijn en beter geschikt voor het trainen van AI-modellen dan traditionele datasets. Door gebruik te maken van nauwkeurige en relevante data, verbeteren prestaties van AI-systemen en wordt de kans op fouten verkleind.
Dit draagt bij aan meer transparantie en vertrouwen in AI. Wanneer gebruikers weten dat modellen zijn gebaseerd op geverifieerde data, neemt het vertrouwen in de technologie toe.
AI Washing
AI washing is een groeiend probleem waarbij bedrijven de mogelijkheden van hun AI-technologie overdrijven of verkeerd presenteren. Dit creëert een beeld van geavanceerde AI dat niet altijd klopt en kan consumenten en stakeholders misleiden.
Een voorbeeld hiervan zijn chatbots die worden gepresenteerd als geavanceerde AI-assistenten, terwijl ze in werkelijkheid werken met vooraf ingestelde antwoorden. Gebruikers denken dan dat ze met intelligente systemen communiceren, terwijl de functionaliteit beperkt is. Wanneer deze systemen niet voldoen aan verwachtingen, leidt dit tot teleurstelling en verlies van vertrouwen.
Om AI washing tegen te gaan, is meer transparantie en verantwoordelijkheid nodig binnen de industrie. Verantwoorde AI-principes spelen hierbij een cruciale rol. Deze principes benadrukken eerlijke communicatie over AI-capaciteiten, verantwoordelijkheid voor uitkomsten, privacy, veiligheid en uitlegbaarheid. Door hieraan te voldoen, kunnen organisaties vertrouwen opbouwen en misleiding voorkomen.
Verantwoorde AI
Publiek vertrouwen in AI hangt sterk samen met verantwoorde AI, waarbij technologie op een ethische, transparante en maatschappelijk verantwoorde manier wordt ontwikkeld en toegepast. Naarmate AI belangrijker wordt in het dagelijks leven, wordt het essentieel om deze principes te waarborgen.
Verantwoorde AI bestaat uit meerdere kernprincipes:
Transparantie: AI-systemen moeten begrijpelijk zijn voor gebruikers, inclusief hoe beslissingen worden genomen en hoe data wordt gebruikt.
Verantwoordelijkheid: Organisaties moeten verantwoordelijkheid nemen voor de uitkomsten van AI-systemen en eventuele fouten of bias corrigeren.
Eerlijkheid: AI moet vrij zijn van discriminatie en rekening houden met diverse groepen in de samenleving.
Privacy: Persoonsgegevens moeten veilig en vertrouwelijk worden behandeld, met respect voor toestemming van gebruikers.
Veiligheid en beveiliging: AI-systemen moeten beschermd zijn tegen misbruik en technische fouten.
Uitlegbaarheid: AI moet beslissingen kunnen toelichten op een manier die begrijpelijk is voor mensen.
Door deze principes toe te passen, kunnen organisaties vertrouwen opbouwen en AI op een verantwoorde manier inzetten.
De Global Index on Responsible AI
De Global Index on Responsible AI (GIRAI) stelt wereldwijde standaarden vast voor verantwoord AI-gebruik en beoordeelt 138 landen. Verantwoorde AI omvat ethisch ontwerp, ontwikkeling en gebruik van AI, met bescherming van mensenrechten als uitgangspunt.
De index beoordeelt landen op drie pijlers: overheidskaders, overheidsacties en niet-statelijke actoren. Deze zijn onderverdeeld in dimensies zoals AI-capaciteiten, mensenrechten en governance.
Landen krijgen scores op basis van hun prestaties binnen deze categorieën. In de eerste editie stond Nederland op nummer één met een score van 86,16. Dit onderstreept de sterke positie van Nederland op het gebied van verantwoord AI-gebruik.
Nederland loopt voorop dankzij initiatieven zoals ELSA en ICAI-labs, waar samenwerking plaatsvindt tussen overheid, bedrijfsleven en kennisinstellingen. Daarnaast zijn er veel initiatieven gericht op bewustwording en educatie rondom AI.
Belangrijke conclusies uit de index benadrukken de noodzaak van internationale samenwerking en verdere verbetering op het gebied van veiligheid, betrouwbaarheid en bescherming van werknemers binnen een AI-gedreven economie.
Dit framework helpt landen om hun AI-beleid te verbeteren en te zorgen dat AI op een ethische, transparante en maatschappelijk verantwoorde manier wordt ingezet.

