Terugblik VKA Nationale Algoritme Debat 2023

De vijfde editie van het Nationale Algoritme Debat was ook dit jaar inspirerend en onverminderd relevant! Sven Stevenson (Autoriteit Persoonsgegevens, AP): “Dit jaar is het ‘5 jaar’-jubileum van het algoritme debat, complimenten voor het event dat in zekere zin haar tijd ver vooruit was. Algoritmes en AI zijn booming, dat geldt niet alleen voor de nieuwe en innovatieve toepassingen die we het afgelopen jaar hebben gezien, het geldt ook voor werkveld van ethiek, compliance, regelgeving en toezicht voor algoritmes en AI. Wij spreken op dagbasis met iedereen die op dit gebied actief zijn. Er is veel energie en enthousiasme in dit ecosysteem voor verantwoorde inzet van algoritmes en AI. Net zo groot zijn de uitdagingen door het massale gebruik van ChatGPT en generatieve AI.  ”.  

In zijn key note stond Sven stil bij het huidige risicobeeld en bestaande zorgen, de rol van de AP bij toezicht op algoritmes en de positionering van algoritmes bij gebruik. Onze panelleden hebben vanuit verschillende expertisegebieden met elkaar het gesprek gevoerd over het thema: ‘AI Act: Wat betekent het in de praktijk?’.  

Afgelopen 14 november vond het Nationale Algoritme Debat plaats bij Beeld en Geluid in Den Haag. Heb je het gemist? Niet getreurd, kijk onderaan om het event volledig terug te kijken. In deze terugblik lees je over de belangrijkste inzichten uit het debat. 

Organisaties moeten een brede definitie hanteren van AI  

De AI Act hanteert een risicogebaseerde productaanpak (een AI-systeem) in plaats van managementsysteem (inbouwen van controls rondom de systemen). Het is daardoor essentieel om te weten welke algoritmen worden gezien als AI-systeem. De AI Act is nog niet definitief en kent in haar concepten verschillende breedtes in de definitie. Het panel ging in discussie over wat een brede definitie voor organisaties betekent in de praktijk en wat hier de voor- en nadelen van zijn. Maranke: “Een algoritme is in principe een abstract stappenplan om van A naar B te komen. Dus je zult moeten bepalen wat dit voor jouw organisatie wel en niet is.” . Erwin: “Het gaat niet zozeer om het algoritme zelf, het gaat om de toepassing die je creëert. Een IF-statement kan net zoveel schade doen als een complex ‘deep learning’-algoritme.”. Machiel is het daarmee eens: Kom je in een high risk categorie dan zal je een conformiteitsbeoordeling moeten uitvoeren, voor een laag risico zal dit niet zo zijn. Voor een gebruiker of ontwikkelaar van een AI-systeem. Daarom ben ik ook voorstander van een brede definitie voor AI. 

Risicobenadering uit de AI Act maakt implementatie in de praktijk eenvoudiger 

Het panel was het eens dat een risicobenadering de praktijk weerbarstiger maakt. Het inschatten van de impact van een AI-systeem op personen en de leefomgeving is complex. De aanpak die je hierin kiest, is van belang. Ook hier geldt, “oefening baart kunst” om een afweging te maken en deze afweging vast te leggen. Marlijn: “deze stelling gaat al minder snel onder het publiek”. Hoe denk jij hierover? Gusta geeft een voorbeeld van een app om te ondersteunen bij solliciteren waarbij de risicobenadering vooraf gewerkt zou hebben: “Dit algoritme was door mannen gebouwd. Je hoort het al: discriminatie. Het is direct van de markt gehaald en dat is zonde want die innovatie die daar in zit is fantastisch, als het maar goed getraind is.” 

Om tijdig te kunnen voldoen aan de AI Act moet je vandaag beginnen  

Eerder in het debat constateerden de panelleden al dat het veel werk is om zicht te hebben op alle AI-systemen en de risicoclassificatie die daarbij komt. Dat is alleen nog voor de inventarisatie van AI-systemen, daar zit het onderhouden van bijvoorbeeld een intern register nog niet bij. Kortom het implementeren van de AI Act kost tijd. Ondanks dat de AI Act nog niet is uitgekristalliseerd kunnen organisaties wel aan de slag met de inventarisatie. Dit vraagt om specifieke kennis over de toepassing en classificatie van AI-systemen. Maranke: “Het ligt eraan welke profielen je wilt gaan opleiden. Het is maatwerk tussen wat het individu kan en wat nodig is”. Gusta vult aan: “Iedereen wil en blijft leren. Dit moet je ook bieden.” Het is raadzaam om nu al te beginnen met het in kaart brengen de AI-systemen in gebruik en de ontwikkelingsfase om tijdig te kunnen voldoen.  

Elke organisatie moet een AI compliance officer aanstellen 

Om uiteindelijk aan de AI Act en andere relevante wetgeving te voldoen zullen organisatie  moeten kijken welke taken belegd moeten gaan worden. Een AI compliance officer is een voorbeeld van een rol om deze taken op te volgen. Machiel: “Het gaat om speciale expertise. Kan een FG wel in bedrijfsprocessen zitten die nodig is voor een AI compliance rol. Kan een andere rol, zoals een privacy officer, de vertaalslag maken.” Dit kan ook een rol zijn die extern belegd wordt (tijdelijk) of een rol als AI Expert.  Maranke: “Niet overal kiezen, denk erover na of het nodig is. Moet dat in een specifieke persoon of kan het verdeeld worden?” Gusta: “Het hangt af van de grootte van de organisatie, maar wat zijn de risico’s en benodigde maatregelen.” 

Meer weten? 

Heb jij het Nationale Algoritme Debat gemist of ben je nieuwsgierig naar hoe de AI Act zich naar de praktijk vertaald? Kijk dan hieronder de volledige opname van het Nationaal Algoritme Debat 2023 terug.  

Daarnaast biedt VKA ook andere ondersteuning om transparant, verantwoord en zorgvuldig algoritmes in te zetten. Neem contact op met Sabine Steenwinkel-den Daas voor meer informatie.

Kijk ook eens naar een van de webinars uit de reeks ‘Impact & Implementatie’. Hierin bespreken we periodiek nieuwe wetgeving: link.