Lees meer over: Artificial Intelligence


Hoe beperk ik de impact van bias?

“Zeg eens eerlijk? Wat is nu je grootste angst bij algoritmes? Als ik dit vraag aan mensen is het antwoord vaak ‘Algoritmes discrimineren!’”. En natuurlijk: het is verre van gewenst om te discrimineren, maar hoe zorgen we ervoor dat algoritmes niet discrimineren? Je weet nu waarom bias een rol kan spelen bij het gebruiken van algoritmes. In deze blog licht ik toe waar je moet beginnen om de verschillende vormen van bias te voorkomen.

Om de impact van bias te kunnen mitigeren is het belangrijk om altijd eerst te weten wat de bias in de data is en wat de versterkingsfactor van het algoritme is. Bijvoorbeeld door de verschillende soorten bias te meten als integraal onderdeel van kwaliteitscontroles tijdens de algoritmeontwikkeling. In deze whitepaper vertellen we meer over onze top 10 van aandachtspunten in datakwaliteit.

Heeft het algoritme gezorgd dat er meer bias is ontstaan dan gewenst? De suggestie van het algoritme van ABC Engineering om voor 1 op de 10 vacatures vrouwen aan te nemen is enkel gewenst wanneer kwalitatief vast te stellen is dat het hier gaat om kandidaten die betere of meer passende kwalificaties, ervaring en competenties hebben voor het vervullen van deze vacature. Wanneer de algoritmebias ongewenst is, moet je terug naar de tekentafel: de input. Hieronder geef ik zes concrete acties waarmee je vandaag nog kunt starten.

1. Zorg dat de variabele niet meer direct meegenomen wordt door het algoritme. Om discrimineren op geslacht te beperken, moet het algoritme allereerst geen direct onderscheid kunnen maken op deze variabele om de geschiktheid van kandidaten te bepalen.

2. Vertaal de gegevens op zo’n manier dat er meer gekeken wordt naar gedragselementen. Dit kan door bijvoorbeeld de behaalde certificaten, nevenactiviteiten of voorkeur voor het dragen van broeken als input te gebruiken.

Weliswaar zijn de gedragingen ook anders tussen mannen en vrouwen, maar met deze vertaling zullen mannen die zich meer gedragen als ‘vrouw’ en vrouwen die zich meer gedragen als ‘man’ door jouw algoritme in ieder geval hetzelfde beoordeeld worden.

3. Maak een zo compleet mogelijk beeld met de data om confirmation bias te beperken. Vermijd hierbij het gebruik van zogeheten confounding variabelen. Dit zijn variabelen die gecorreleerd zijn met de uitkomst van jouw algoritme, maar die geen causaal verband hebben met deze uitkomst. Bijvoorbeeld: het aantal verkochte ijsjes per dag op het strand houdt indirect verband met het aantal verkochte kaartjes voor het zwembad Neem niet het aantal ijsjes mee om het aantal verkochte kaartjes voor het zwembad te voorspellen, maar ga voor de directe factor: het weer.

De recruiter bij ABC Engineering geeft aan nooit te kijken naar nevenactiviteiten om te bepalen of een kandidaat relevante competenties heeft voor de functie. Vooral omdat het het meest effectief is gebleken om alleen gesprekken te plannen met kandidaten met de juiste studieachtergrond en/of soort gelijke werkervaring. Door bijvoorbeeld informatie over de nevenactiviteiten van de kandidaten wel mee te nemen, geven de algoritmeontwikkelaars het algoritme de kans op basis van een vollediger beeld van gedragselementen kandidaten aan te bevelen. Een tip: verzand niet te veel in de details. Zo kunnen mijn aangeschafte boodschappen van het afgelopen jaar inzicht geven in wie ik ben, maar – zelfs als dit is toegestaan – moet dit echt een rol spelen in het selectiealgoritme van ABC Engineering?

4. Verken willekeurig observaties die niet uit het algoritme naar voren komen om verdere confirmation bias zoveel mogelijk te voorkomen.

Naast het selectiealgoritme kan ABC Engineering ervoor kiezen om periodiek ook kandidaten te beoordelen met een lagere matchingsscore en hiervan ook kandidaten uit te nodigen voor een selectiegesprek.

5. Maak de benodigde keuzes voor het mitigeren van bias altijd bespreekbaar in jouw organisatie en zorg dat deze gedocumenteerd zijn. Door de keuzes te documenteren, heb je de kans om gemaakte keuzes tegen het licht te blijven houden en tijdig bij te sturen bij voortschrijdend inzicht.

6. Neem het initiatief om de bias in jouw populatie – bias in de data – te verminderen.

ABC Engineering heeft gekozen voor het algoritme dat niet intrinsiek discrimineert. Daarnaast kan de organisatie ook een rol spelen om in de toekomst de oververtegenwoordiging van mannen onder sollicitanten te verlagen, bijvoorbeeld door jonge vrouwen te motiveren ook voor de benodigde opleidingspapieren te gaan en zij-instroom te stimuleren.  En wat dacht je van onderwijsinstellingen die hun selectiealgoritme niet inzetten om te bepalen wie ze selecteren, maar om manieren te vinden om jongeren te ondersteunen hun kans op het behalen van een diploma te verhogen en jongeren selecteren op basis van de hoogste – daadwerkelijke -potentie?

Je hebt nu veel stappen gezien om de bias onder controle te houden, is dat genoeg? Welke bias is acceptabel? Je leest er meer over in de volgende blog. Dit is het derde deel uit een blogreeks over discriminatie bij algoritmes, lees ook het eerste deel  en het tweede deel uit de reeks.