Lees meer over: Datagedreven werken of Privacy


Onschuldig totdat de data anders zegt?

Het science fiction boek The Minority Report uit 1956 voorzag een toekomst waarin een pre-crime unit van de politie in staat is om misdaad te voorspellen en de toekomstige criminelen preventief te arresteren. Als gevolg van de exponentiele groei van data en computerkracht is dit toekomstbeeld vandaag de dag steeds meer realiteit aan het worden. Kunstmatige intelligentie stelt agenten in China bijvoorbeeld in staat om personen en voertuigen real-time te scannen en te beoordelen via een bril, om zo potentiële verdachten te herkennen.

Hoewel wij in Nederland zo ver nog niet zijn wordt er ook in ons land steeds meer geëxperimenteerd om nieuwe inzichten te halen uit data en hier risicoprofielen uit te destileren, oftewel profiling. De kansen voor overheden om hun maatschappelijke taak beter uit te voeren zijn groot, maar worden ook er met argusogen bekeken door politiek en maatschappij.

De vraag die vaak gesteld wordt is hoe deze ontwikkeling zich verhoudt tot privacywetgeving. Privacy wordt nog te vaak gezien als beperking. Iets waardoor zeker overheden geneigd zijn om profiling te mijden. Profilering an sich is echter toegestaan, ook vanuit privacywetgeving. Uiteraard moet daarbij wel zorgvuldigheid en transparantie betracht worden. Voor overheden die belast zijn met een toezichthoudende of inspecterende taak bieden wet- en regelgeving dan ook voldoende ruimte om op basis van data voorspellingen te doen over het gedrag van groepen personen of bedrijven. Hierdoor zijn zij in staat om hun taak gerichter en effectiever uit te voeren, en zo meerwaarde te creëren voor de maatschappij.

Natuurlijk zijn er nog allerlei voorwaarden die meegenomen moeten worden bij het gebruik van data om te profilen. Naast privacy moet er bij de totstandkoming van modellen en algoritmes voldoende aandacht zijn voor een mogelijke bias in de data. In de documentaire Pre-Crime worden een aantal voorbeelden hiervan genoemd. De kern is dat mensen vaak een onterecht blind vertrouwen hebben in computers en data, terwijl deze zeker niet altijd neutraal zijn. Dit doordat het nog altijd mensen zijn die het algoritme ontwikkelen of voeden. Onderzoek van ProPublica toonde bijvoorbeeld aan dat een algoritme dat werd gebruikt in Florida om recidive te voorspellen ten onrechte Afro-Amerikanen classificeert als hoog risico en blanken ten onrechte als laag risico.

Het slimmer gebruik maken van data om gericht risicoprofielen op te stellen biedt veel kansen voor overheden om hun taak beter uit te voeren. Tegelijkertijd stuit deze constatering vaak op een Pavlovreactie van diezelfde overheden dat profiling niet kan vanwege privacy. Wanneer we echter door de bezwaren heen kijken zien we dat er voldoende mogelijkheden zijn voor overheden om profiling te gebruiken. Dat leidt niet automatisch tot een pre-crime unit en het preventief oppakken van burgers, maar wel tot een gerichte en datagedreven aanpak van maatschappelijke problemen.