A bias in kunstmatige intelligentie (AI) verwijst naar de neiging van een algoritme om bevooroordeelde resultaten of beslissingen te produceren, waarbij bepaalde groepen of individuen bevoordeeld of benadeeld worden.
Het weerspiegelt menselijke vooroordelen of structurele fouten in gegevens, leermethoden of het ontwerp van AI-modellen. Deze vooroordelen kunnen leiden tot oneerlijke, discriminerende of onnauwkeurige beslissingen, die specifieke groepen of individuen onevenredig treffen.

Voorbeeld van AI-vooringenomenheid:
Als je een AI vraagt om een afbeelding met managers te genereren, creëert de AI een afbeelding met alleen blanke, jonge, knappe mannen met baarden, haar en geen bril...
©Alexandre SALQUE / ORSYS le mag
Oorsprong van vooroordelen in AI
- Niet-representatieve trainingsgegevens
- Bijvoorbeeld: datasets die gedomineerd worden door blanke mannen zorgen ervoor dat gezichtsherkenningssystemen vrouwen of mensen met een donkere huidskleur minder goed identificeren.
- Een goed voorbeeld: de wervingstool van Amazon, die gebaseerd was op cv's van mannen, benadeelde vrouwelijke kandidaten systematisch.
- Algoritmische vertekeningen
- Ongeschikte keuze van variabelen of metrieken (bijv. optimaliseren van algehele nauwkeurigheid ten koste van gelijkheid tussen demografische groepen).
- Voorbeeld: algoritmen voor bankleningen die indirecte criteria (buurt) gebruiken om te discrimineren op basis van ras.
- Cognitieve vooroordelen van ontwikkelaars
- De onbewuste vooroordelen van datawetenschappers (bijvoorbeeld het associëren van bepaalde banen met een bepaald geslacht) worden weerspiegeld in de modellen.
- Bevestigingsvooringenomenheid
- AI versterkt bestaande stereotypen door te vertrouwen op historisch bevooroordeelde gegevens (bijv. gendervertalingen in Google Translate).
👉 Vaak voorkomende soorten vooroordelen
-
Selectievooroordeel Niet-representatieve gegevens. (bijv. ondervertegenwoordigde minderheden, beperkte geografische gegevens). Trainingsgegevens die de algemene realiteit niet weerspiegelen.
-
Meetfouten onjuiste/onvolledige gegevens. (bijv. etiketteringsfouten, gedeeltelijke medische gegevens). Problemen met gegevensverzameling of etikettering.
-
Vooringenomenheid door uitsluiting Weglaten van belangrijke variabelen. (bijv. negeren van schoolgeschiedenis voor succes). Belangrijke factoren verwaarloosd in het model.
-
Stereotype vooroordelen Versterking van clichés. (bijv. "CEO" = blanke man). Reproductie van maatschappelijke stereotypen door AI.
-
Aggregatievooroordeel : verbergen van verschillen. (Bijvoorbeeld: gemiddeld inkomen maskeert ongelijkheid). Combinatie van gegevens die significante verschillen uitwissen.
-
Bevestigingsvooringenomenheid vooroordelen bevestigen. (bijv. webonderzoek ten gunste van theorieën van ontwikkelaars). AI die reeds bestaande ideeën valideert.
-
Verankeringsvooringenomenheid overschatting van de eerste ontvangen informatie. (bijv. onroerendgoedprijs te veel beïnvloed door initiële prijs). Te veel nadruk op het eerste stukje informatie.
-
Attributievooroordeel verkeerde oorzaak en gevolg. (bijv. fraude gelinkt aan een regio, niet aan het individu, onjuiste medische diagnose gebaseerd op een oppervlakkige correlatie tussen twee symptomen). Verkeerd oorzakelijk verband.
-
Vooringenomen presentatie Beïnvloeding door weergave. (bijv. bevooroordeelde "aanbevelingen" in e-commerce). Resultaten gepresenteerd op een bevooroordeelde manier.
-
Historisch vooroordeel Reproductie van het bevooroordeelde verleden (bijv. werving reproduceert ondervertegenwoordiging van vrouwen). Leren en bestendigen van historische vooroordelen.
-
Interactievooroordeel vooringenomenheid in gebruikersinteractie. (bijv. : chatbot vertekend door klachten van bepaalde groepen). Interactie van de gebruiker die het gedrag van de AI wijzigt.
-
Waarderingsvooringenomenheid Vooringenomen evaluatie van prestaties. (bijv. oneerlijke gezichtsherkenningstest). Niet-objectieve meting van modelprestaties.
Gevolgen
De gevolgen van vooroordelen in AI kunnen ernstig zijn en vele gebieden beïnvloeden:
- Discriminatie en onrecht : bevooroordeelde AI-systemen kunnen bestaande discriminatie van bepaalde groepen in stand houden en zelfs versterken (bijv. op het gebied van werk, krediet, strafrecht, gezondheid, etc.).
- Onjuiste of ineffectieve beslissingen : Een bevooroordeeld AI-systeem kan onjuiste of minder effectieve beslissingen nemen, omdat het gebaseerd is op een vertekende weergave van de werkelijkheid.
- Verlies van vertrouwen : Vooringenomenheid kan het vertrouwen van het publiek in AI en de daaruit voortkomende technologieën ondermijnen.
- Ethische kwesties : De vooringenomenheid roept belangrijke ethische vragen op over de eerlijkheid, rechtvaardigheid, verantwoordingsplicht en transparantie van AI-systemen.
💉 Oplossingen om vooroordelen te verminderen
- Gegevensdiversificatie
- Verrijk trainingsspellen met een verscheidenheid aan voorbeelden (voeg bijvoorbeeld gezichten van alle etniciteiten toe voor gezichtsherkenning).
- Audits en A/B-tests
- Vergelijk AI-prestaties op verschillende demografische groepen voordat ze worden ingezet.
- Algoritmische transparantie
- Gebruik hulpmiddelen zoals AI-eerlijkheid 360 (IBM) of Wat-als hulpmiddel (Google) om vertekening op te sporen.
- Multidisciplinaire teams
- Betrek deskundigen op het gebied van ethiek, sociologie en recht om technische vooroordelen tegen te gaan