Terugblik Nationaal Algoritme Debat 2022

Wij kijken terug op een inspirerend debat! Na een interessante keynote van Marjolein Fokkema over het belang van uitlegbaarheid van algoritmes, zijn de panelleden vanuit verschillende expertisegebieden met elkaar het gesprek aan zijn gegaan over het thema: ‘Wie is echt in controle: de mens of het algoritme?’.  Nieuwsgierig welke kant het gesprek op is gegaan? Wij hebben het in vier minuten voor je samengevat in onderstaande teaser.

Afgelopen 2 november vond het Nationaal Algoritme Debat plaats bij Beeld en Geluid in Den Haag. Heb je het gemist? En wil je het hele debat terugkijken? Niet getreurd, klik hier om het hele debat terug te kijken. In deze terugblik hieronder lees je de belangrijkste inzichten uit het debat. 

Eenvoud voor een betere uitlegbaarheid 

Er zijn statistische methode die nagenoeg zo goed presteren als ‘black’-box algoritmes. Marjolein Fokkema: “Houd het zo simpel mogelijk en voeg geen complexiteit toe als het niet nodig is”. In haar keynote neemt ze de deelnemers mee in een ‘Explainable AI’-methode, waarbij beslisregels gebruikt worden als variabelen in een eenvoudige (logistische) regressie voor een betere uitlegbaarheid zonder te veel verlies aan accuraatheid. Uiteraard is de keuze voor de afweging tussen uitlegbaarheid en accuraatheid afhankelijk van de toepassing met een belangrijke vraag: Wat zijn de consequenties van een foutieve voorspelling op individueel niveau?  

Doorgronden van algoritmes wordt moeilijker naarmate de complexiteit toeneemt 

Op het niveau van individuele gevallen is het lastig om te doorgronden hoe het algoritme tot een bepaalde uitkomst is gekomen. Dit gaat vaak om grote hoeveelheden combinaties van informatie die voor de mens moeilijk tot niet te vatten is. Op het niveau van de werking van het algoritme als geheel is dat beter te doorgronden en zijn er voldoende handvaten om bij te sturen.  

Doordat technieken zich steeds verder blijven ontwikkelen is het lastig om te blijven doorgronden wat er onder de motorkap gebeurt. Er zijn op het vlak van ‘Explainable AI’ – een verzameling methodes om de conformiteit van AI aan relevante normen te toetsen – steeds meer ontwikkelingen om te helpen bij de doorgronding zoals causale inferentie. Een techniek waarbij je door aanpassingen aan telkens één kenmerk (ceteris paribus) de impact meet van de waarde van het kenmerk op de uitkomst.  

Door het panel wordt terecht geconcludeerd dat ‘Explainable AI’ een belangrijk aandachtsgebied moet zijn vanuit overheid en maatschappij om ervoor te zorgen dat we in control blijven bij het inzetten van complexe algoritmes. Dit kan worden vorm gegeven door transparant te blijven over de werking van algoritmes en de uitlegbaarheid van individuele gevallen.  

Low code Machine Learning 

Low-code  Machine Learning maakt het ontwikkelen van algoritmes toegankelijker voor een breder publiek. Dit is een groot voordeel. Een nadeel kan zijn dat de ontwikkelaars van algoritmes met deze techniek minder begrip hebben van wat het algoritme precies doet.  

AI verordening representeert de waarden vanuit de maatschappij  

Zowel vanuit Europa als in Nederland vinden overheden het dermate belangrijk dat algoritmes op verantwoorde wijze worden ontwikkeld en ingezet dat aan het gebruik van algoritmes kaders gesteld worden in een concept verordening voor Artificiële Intelligentie. De consequentie hiervan is dat er eisen gaan gelden aan de controleerbaarheid van  inzet van algoritmes. Het idee is dat op deze manier over algoritmes verantwoording kan worden afgelegd.  

Het panel concludeert dat dit wel administratieve lasten zal opleveren, maar dat we hiermee kunnen streven naar een veilig ‘algoritme’- klimaat en dat er een wisselwerking is tussen praktische haalbaarheid en strakke kaders.  

Positionering van Human in the loop 

Een aanbeveling vanuit het algoritme voorleggen aan een expert alvorens een besluit te nemen, lijkt een logische stap om de expert te ondersteunen. Maar al snel concludeert het panel dat het moeilijk is om van het algoritme af te wijken, zeker als het in veel gevallen de juiste beslissing voorstelt. Stel je voor dat de expert anders besluit dan het algoritme. Zodra hij/zij het goed heeft is er niets aan de hand, maar wanneer blijkt dat de expert achteraf geen gelijk heeft, heeft de expert meer uit te leggen dan bij een afweging zonder beslissingsondersteuning. De mens moet goed gepositioneerd zijn in rol of functie om af te mogen wijken van het beslissingsondersteuningsalgoritme o, dit mechanisme te laten slagen. Want zeg nu zelf: als je auto volledig zelfrijdend is, let je dan nog steeds net zo goed op de weg?  

Eisen aan inkoop van algoritme 

In zekere zin verschilt de inkoop van een algoritme van de inkoop van ‘normale’ IT. Je zult namelijk minimaal eisen moeten stellen aan de uitlegbaarheid en afspraken moeten maken over de betrouwbaarheid.  

Meer weten? 

Heb jij het Nationaal Algoritme Debat gemist of ben je nieuwsgierig naar hoe je in controle bent en blijft van algoritmes tijdens het ontwikkelen, inzetten en beheren van algoritmes? Kijk dan hier de volledige opname van het Nationaal Algoritme Debat 2022 terug.  

Daarnaast biedt VKA ook andere ondersteuning om transparant, verantwoord en zorgvuldig algoritmes in te zetten. Neem contact op met Arjan van Venrooy voor meer informatie of bekijk onze Data & AI pagina.