Hoe ChatGPT veilig en verantwoord in te zetten in de publieke sector? Ontdek deze vijf belangrijke vuistregels

Als je begin 2024 nog nooit van ChatGPT gehoord hebt, dan heb je waarschijnlijk erg weinig nieuwsberichten gezien. Binnen slechts vier maanden na de introductie in Nederland heeft deze AI-tool van OpenAI, bekend als generatieve kunstmatige intelligentie (Generatieve AI), al 1,5 miljoen Nederlandse gebruikers aan zich gebonden[1]. Deze vorm van AI bootst de neurale structuur van het menselijk brein na met behulp van uitgebreide datasets, waardoor het in staat is om nieuwe content zoals tekst, afbeeldingen of spraak te genereren. Het kan bijvoorbeeld een lang PDF-document samenvatten, een e-mail herschrijven wanneer je vastzit, of complex jargon simpel uitleggen zodat je altijd bent voorbereid. Generatieve AI begint al een verschil te maken op de werkvloer door saaie of uitgestelde taken te automatiseren, waardoor professionals hun creativiteit beter kunnen benutten.

In de zorg zou Generatieve AI bijvoorbeeld kunnen helpen door zorgmedewerkers uit te rusten met een AI-registratietool. Dit zou de registratie van patiënten vereenvoudigen, zodat zorgverleners meer tijd kunnen besteden aan hun patiënten in plaats van aan administratieve taken.

Het gebruik van Generatieve AI-tools gaat gepaard met zowel ethische als juridische risico’s. Bij gratis chatbotdiensten is vaak onduidelijk wie de eigenaar is van ingevoerde data waarmee de tool getraind is, met mogelijke lekken van persoons- en bedrijfsgegevens tot gevolg. Dit leidde tot voorzichtigheid bij eenbedrijf als Samsung, die het gebruik van ChatGPT beperkte na incidenten met bedrijfsgeheimen[2]. Generatieve AI vereist uitgebreide datasets voor training, vergelijkbaar met de levenslange leerervaring van een mens. Echter, het verkrijgen van deze data gebeurt soms onder bedenkelijke omstandigheden, door personeel met lage lonen en onzekere arbeidsvoorwaarden[3]. Bovendien komt data scraping voor, waarbij grote hoeveelheden data zonder expliciete toestemming wordt verzameld. Dit heeft geleid tot juridische vraagstukken, zoals de rechtszaak tegen Meta in de VS. Een lagere rechter in Californië heeft onlangs uitgesproken dat dit geen schending van het auteursrecht is, maar de discussie blijft open[4]. Dit soort vraagstukken heeft bijgedragen aan het kabinetsstandpunt van staatssecretaris Van Huffelen, die pleit voor zorgvuldig gebruik van Generatieve AI in overeenstemming met bestaande wet- en regelgeving[5]. De VNG heeft hierop gereageerd met een verzoek om de mogelijkheden van Generatieve AI verantwoord te verkennen binnen gemeentes[6].

De huidige discussie rond Generatieve AI onthult twee cruciale aspecten. Enerzijds zijn de voordelen van Generatieve AI onmiskenbaar, vooral in het licht van het huidige arbeidstekort en de potentie om de efficiëntie binnen de publieke sector te verbeteren. Anderzijds mogen de aanzienlijke risico’s die aan Generatieve AI kleven niet worden genegeerd. Daarom heb ik vijf belangrijke vuistregels opgesteld om Generatieve AI op een verantwoorde wijze te gebruiken, waarmee de grootste risico’s effectief kunnen worden gemitigeerd.

 

  1. Bescherm gevoelige informatie:

Gebruik Generatieve AI veilig door geen persoonlijke of vertrouwelijke informatie te delen bij je vraagstelling. Zie het als een openbaar dagboek: deel alleen wat je openlijk zou bespreken.

 

  1. Jij hebt de leiding:

Blijf altijd de dirigent: Generatieve AI kan suggesties doen, maar de eindbeslissing over de resultaten en de controle hiervan liggen bij jou. Gebruik het als een adviestool, niet als besluitvormer.

 

  1. Dubbelcheck en verifieer:

Controleer altijd de output van Generatieve AI. Zie het als een ruwe schets die je zelf verfijnt en aanpast aan je behoeften, om te zorgen voor de nauwkeurigheid en relevantie die jij nodig hebt.

 

  1. Wees kritisch en bedachtzaam:

Behandel Generatieve AI als een informatieve bron zoals Wikipedia: nuttig voor algemene kennis, maar vertrouw niet blindelings op de nauwkeurigheid. Gebruik het als een startpunt voor verder onderzoek.

 

  1. Blijf de ethische baas:

Herinner jezelf eraan dat jij de baas bent; Generatieve AI is jouw digitale assistent. Jij bepaalt wat goed en slecht is, ga dus goed om met die verantwoordelijkheid. Doe geen dingen die niet juist voelen.

 

[1]  https://www.rtlnieuws.nl/tech/artikel/5378644/chatgpt-app-nederland-chatbot

[2] https://www.cnbc.com/2023/05/02/samsung-bans-use-of-ai-like-chatgpt-for-staff-after-misuse-of-chatbot.html

[3] https://eenvandaag.avrotros.nl/item/geen-bescherming-weinig-loon-en-onduidelijk-wie-je-werkgever-is-het-trainen-van-kunstmatige-intelligentie-heeft-een-schaduwzijde/

[4] https://www.reuters.com/legal/litigation/us-judge-trims-ai-copyright-lawsuit-against-meta-2023-11-09/

[5] https://www.rijksoverheid.nl/actueel/nieuws/2023/12/11/voorlopig-standpunt-generatieve-ai-kabinet

[6] https://vng.nl/nieuws/vng-reageert-op-kamerbrief-generatieve-ai

 

Hoe ChatGPT veilig en verantwoord in te zetten in de publieke sector? Ontdek deze vuistregels

 

Deze vuistregels bieden een solide basis voor het gebruik van generatieve AI, terwijl de risico’s worden geminimaliseerd.

Op 23 januari 2024 zal ik samen met Fenna Zeilmaker ook een webinar geven over de praktische en verantwoorde inzet van ChatGPT. Aanmelden kan via deze link: https://www.vka.nl/evenement/webinar-praktische-tips-voor-chatgpt-in-de-publieke-sector/#aanmelden

Voor meer informatie over de toepassing van generatieve AI in jouw organisatie, of advies over het navigeren door de bijbehorende risico’s en kansen, neem gerust contact met mij op via erik.deruiter@vka.nl of bel 06 57 44 60 78.

 

 

Voldoende transparantie met algoritmeregister?

In een tijdperk waarin algoritmen steeds meer invloed uitoefenen op ons dagelijks leven, is in controle blijven van de nieuwste ontwikkelingen en hier transparant over zijn meer dan ooit belangrijk. Hiermee staan we voor een cruciale vraag: wanneer is de openheid en transparantie rondom deze algoritmen voldoende? Het antwoord is niet eenvoudig, want transparantie gaat verder dan alleen de registratie van algoritme. In dit artikel duiken we dieper in op de stappen die nodig zijn om nu aan de slag te gaan met transparant en verantwoord gebruik van algoritmen op 5 volwassenheidsniveaus.

Transparantie:  Meer dan alleen beschikbaar stellen van informatie.

Om te beginnen moeten we het begrip transparantie verkennen. Het is niet simpelweg een algoritmeregister bijhouden en deze informatie beschikbaar stellen. Transparantie gaat verder dan dat; het draait om begrijpelijkheid, verantwoording, impactsafweging en de kwaliteit van informatie.

Het gaat allereerst om het goed kunnen uitleggen van de context waarin algoritmen worden gebruikt en waarom (begrijpelijkheid). Daarnaast om aan te kunnen tonen dat het algoritme doet waarvoor het is ontwikkeld (verantwoording). Maar ook ervoor zorgen dat de afweging voor gebruik duidelijk is (impactsafweging) en alle facetten controleerbaar (kwaliteit van informatie).

Dit is niet een one-time job: het draait ook om periodieke evaluatie en monitoring om ervoor te zorgen dat algoritmen nog steeds doen wat ze horen te doen en de informatie hierover volledig, actueel en correct is.

Kortom, het draait om “doen wat je zegt en zeggen wat je doet.”

Niveau 1: Inventarisatie en risicoclassificatie

De basis om transparant te kunnen zijn ligt in het kennen van de algoritmen die binnen je organisatie worden gebruikt en wie verantwoordelijk is voor de processen waarin deze worden ingezet. Dit betekent een duidelijke definitie van algoritmen (scope) om een grondige inventarisatie van alle algoritmen in gebruik en ontwikkeling te kunnen doen.

Vanuit de AI Act volgen striktere regels voor ‘hoog risico’ AI-toepassingen. Met een grondige inventarisatie kun je namelijk adequaat inschatten waar sprake is van AI en wat het risiconiveau is. Zo verklein je de kans dat je ‘hoog risico’-toepassingen misloopt.

In de inventarisatie kom je al veel te weten over de processen waar het wordt ingezet en wat het algoritme ‘berekent’. Met de verzamelde informatie ontstaat de basis voor een registratie en het uitvoeren van een risicoclassificatie. De risicoclassificatie geeft de mogelijkheid om de focus te leggen op transparantie over AI-toepassingen met ‘hoog risico’ en helpt bij het treffen van passende maatregelen waar nodig, zoals het verzamelen van aanvullende informatie en het creëren van inzicht.

“De regering wil dat de overheid algoritmes verantwoord gebruikt. Mensen moeten erop kunnen vertrouwen dat algoritmes voldoen aan de waarden en normen van de samenleving. En er moet uitleg zijn over hoe algoritmes werken. Dat doet de overheid door algoritmes voor het gebruik te controleren op hoe ze werken en op eventuele discriminatie en willekeur daarbij. Wanneer de overheid open is over algoritmes en hun toepassing, kunnen burgers, organisaties en media haar kritisch volgen en controleren of ze de wet en de regels volgt”

Niveau 2: Inzicht houden

Met de informatie over o.a. de context, doel, impact de risicoclassificatie en bijbehorende maatregelen in een algoritmeregister ben je aangekomen op niveau 1 – de basis. Echter, transparantie is een continu proces. Periodieke controle op en monitoring van algoritmen zijn van essentieel belang om te zorgen dat algoritmen blijven voldoen aan de gestelde eisen.

Om dit niveau 2 – inzicht – te behalen is het nodig om periodieke controle en monitoring in te richten. Periodieke controle op de correctheid van informatie, gemaakte aannames en de passendheid van de werkwijze helpt om continu te verbeteren en bij te sturen waar nodig. Ook is het aan te raden vast te stellen welke prestaties per toepassing minimaal verwacht worden en wanneer het algoritme onvoldoende presteert. De prestatie-eisen moeten continue gemonitord worden zodat bij afwijkingen van de norm snel over te gaan is tot actie, ook het stoppen van een algoritme. Je doet er goed aan de prestatie-eisen zelf ook periodiek te controleren – kloppen deze nog met onze waarden.

Niveau 3: Aantoonbaar maken

Zowel interne als externe toetsing zijn vereist op zowel algoritme governance als de techniek om niveau 3 – aantoonbaar – te behalen. Op dit niveau ben je in staat om aan te tonen dat jouw organisatie verantwoordelijkheid over algoritmen neemt en dat elke ‘hoog risico’-toepassing gecontroleerd wordt ingezet.

De algoritme governance moet periodiek geëvalueerd worden op de werking in de praktijk, evenals er periodiek getoetst moet worden door een tweede- en zelfs derdelijns of de AI-toepassingen nog steeds uitvoeren wat beoogd is en of de aannames nog correct zijn. Ofwel: Maken we het met onze governance makkelijk om de goede dingen te doen, in gesprek te blijven en transparant te zijn over de algoritmen die we gebruiken? En doen deze algoritmen dat technisch op de beste manier binnen onze randvoorwaarden?

Zo is bijvoorbeeld een Impact Assessment Mensenrechten Algoritme (IAMA) een geadviseerde maatregel om periodiek vanaf de ontwikkeling te monitoren of systemen in lijn zijn met publieke waarden en wet- en regelgeving. Ook zijn er diverse kaders en handvaten om algoritmen te toetsen, zie hier hoe wij dat doen.

Niveau 4: Publieke Toegang tot de code

Het publiceren van de code van gebruikte algoritmen is een cruciale stap richting volledige transparantie, niveau 4 uit 5. Het biedt namelijk de mogelijkheid voor onafhankelijke experts om de werking en wijzigingen in het algoritme te evalueren. Het geeft tevens vertrouwen aan het publiek dat er geen geheimen zijn. Een gepubliceerd algoritmeregister zal de mogelijkheid moeten bevatten om een link naar de code beschikbaar te stellen.

Maar er schuilt hier een extra risico. Het is namelijk niet de bedoeling om bijvoorbeeld onbedoeld persoonsgegevens vrij te geven of gegevens over de servers zodat criminelen een makkelijk achterdeurtje vinden om binnen te komen.  Stel dus richtlijnen op over het hoe, wanneer en welke elementen van de code openbaar gemaakt kunnen worden.

Niveau 5: Volledige transparantie

In alle volledigheid transparant zijn – niveau 5 – wordt een volledigere mogelijkheid gegeven om de algoritmen te doorgronden door externen, ook wel publieke controle genoemd. Naast het toegang geven tot (een deel van) de code is hier ook data voor nodig.

Hier liggen een aantal uitdagingen als een algoritme niet op basis van open data is ontwikkeld. De data kan vaak niet openbaar gemaakt te worden, omdat er bijvoorbeeld sprake is van gevoelige informatie en persoonsgegevens of omdat identificatie van personen in een paar stappen mogelijk is.

Alternatief is het genereren van synthetische data onder de voorwaarde dat de AI-toepassing moet hier mee kunnen werken, deze set moet volledig de privacy waarborgen van de oorspronkelijke set en systemen vooralsnog niet blootgeven.

Het 5-sterrenmodel door Willy Tadema ziet toe op de mate van transparantie per algoritme. “Een beschrijving in het algoritmeregister is een goede eerste stap – of ster. Dit geeft inzicht in de context waarin het algoritme gebruikt wordt. Als daarbij ook nog andere gegevens gepubliceerd worden, bijvoorbeeld de resultaten van een audit, of de monitoringsdata van een algoritme, komen er meer sterren bij. Deze extra gegevens bieden experts, journalisten en andere geïnteresseerden de mogelijkheid om echt te onderzoeken hoe het algoritme werkt.” Om per algoritme deze sterren te kunnen halen, zul je klaar moeten zijn voor de volwassenheidsniveaus beschreven in dit opinieartikel.

Conclusie

Het nastreven van volledige openheid en transparantie over algoritmegebruik is een nobel doel, maar het vergt inspanning en toewijding van alle betrokkenen. Het begint met het begrijpen van je algoritmen en het regelmatig beoordelen van informatie, hun prestaties en gemaakte aannames. Het inrichten van interne en externe toetsing en tot slot het delen van de code én data.

Bij VKA begrijpen we de complexiteit van deze uitdaging en staan we klaar om je te ondersteunen bij elke stap van deze reis. We hebben een gestructureerde aanpak om verantwoordelijkheid en transparantie te waarborgen, en we willen graag met jou samenwerken om de impact van algoritmen op jouw organisatie te begrijpen en te beheersen.

Meer weten?

Lees hier hoe wij de gemeente Amsterdam hebben kunnen ondersteunen door een externe review op een AI-toepassing voor het onherkenbaar maken van persoonsgegevens op panoramabeelden. Gemeente Amsterdam heeft naast het opvoeren van registratie ook aanvullende documentatie beschikbaar gesteld, met externe toetsing aangetoond dat de toepassing doet waarvoor het is ontwikkeld op inclusieve wijze, de code gedeeld en geeft inzicht in de gebruikte data (niveau 4).

Voor vragen of meer informatie kan je met mij contact opnemen via: Sabine Steenwinkel-den Daas.

Aithiek: Elke organisatie een Ethics Officer?

Steven Spielberg’s ‘Minority Report’ schetst een dystopische toekomstvisie waarin enkele individuen misdaden kunnen voorspellen voordat ze gebeuren. Interessant, maar wat als deze voorspellingen onjuist zijn, zoals in de film ook wel eens gebeurde? Dit soort vragen zijn inmiddels ook buiten Hollywood aan de orde van de dag. Dankzij de geavanceerde computertechnologie worden steeds verfijndere algoritmes ontwikkeld. De afgelopen tien jaar heeft ons geleerd dat risico’s in de toepassing ervan niet altijd de aandacht hebben gekregen die het achteraf gezien nodig had. Zo onthulde ‘Follow The Money’[1] recentelijk dat de Nederlandse politie tot 2015 een algoritme gebruikte dat mede op basis van etniciteit het risico op crimineel gedrag inschatte. Dit kon leiden tot preventieve en repressieve maatregelen zoals een persoonsgerichte aanpak. Een op de persoon gerichte benadering kan betekenen dat de politie sneller actie onderneemt, zoals preventief fouilleren, het in beslag nemen van geld en kostbaarheden, en zelfs het bieden van verplichte zorg. Daarnaast kan er bij gezinnen geïntervenieerd worden om te voorkomen dat andere gezinsleden, zoals broers en zussen, ook een verkeerde weg inslaan. Ook in andere publieke initiatieven, zoals SyRI[2] en de toeslagenaffaire[3] hebben organisaties voorspellende algoritmes gebruikt, met soms verstrekkende gevolgen.

Met de opkomst van kunstmatige intelligentie, zoals Chat-GPT, kunnen we enorme datasets analyseren en patronen identificeren. Echter, de toenemende kracht van AI maakt het ook uitdagend om de ethische aspecten van een algoritme te beoordelen.

Hoewel voorspellende systemen waardevol kunnen zijn, is het essentieel dat er goed toezicht is om (onbedoelde) misstanden te voorkomen. Gezien de complexiteit van deze systemen, benadruk ik het belang van data ethiek binnen publieke organisaties, vooral in combinatie met AI. Ik noem dit aithiek. Dit kan beginnen met het aanstellen van een specialist in data-ethiek, waarmee de organisatie deze verantwoordelijkheid formeel belegt. In dit artikel bespreek ik daarom de rol van een Data Ethics Officer.

Wat houdt de functie van een Data Ethics Officer in?

Een Data Ethics Officer, soms ook aangeduid als Chief Data Ethics Officer (CDEO), draagt de verantwoordelijkheid voor het handhaven van de ethische standaarden binnen een organisatie in al haar handelingen en besluiten. Dit houdt in dat deze professional toeziet op en richting geeft aan besluitvorming die in lijn ligt met de ethische principes van de organisatie.

Met betrekking tot datagebruik zorgt een Data Ethics Officer ervoor dat de organisatie data op een integere wijze verzamelt, analyseert en toepast. Hierbij staan de kernwaarden van de eigen organisatie centraal, bijvoorbeeld privacy, gelijkheid, transparantie en rechtvaardigheid. Zodra het in de organisatie niet duidelijk wat deze waarden zijn zal de Data Ethics Officer op zoek gaan naar een manier om deze boven water te krijgen.

De rol van de Data Ethics Officer is niet louter adviserend. Deze professional dient actief beleid te vormen en uit te voeren, trainingen te verzorgen en in dialoog te treden met zowel interne teams als met externe belanghebbenden zoals burgers en andere actoren die geraakt worden door een datatoepassing om te waarborgen dat data ethiek diep verankerd wordt in de organisatiecultuur.

Binnen (semi) publieke instellingen krijgt de Data Ethics Officer een nog prominentere rol. Hier staat het vertrouwen van de burger voorop, wat het essentieel maakt om met uiterste zorg en transparantie om te gaan met data en bijbehorende ethische kwesties.

Waarom een Data Ethics Officer?

Voor (semi) publieke organisaties zijn er veel voordelen:

  1. Burger centraal: In lijn met de trend om de burger centraal te stellen, zorgt een ethische benadering dat hun belangen beter worden beschermd. Dit kan veel ellende voorkomen voor burgers omdat ongewenste effecten worden voorkomen.
  2. Risicovermindering: Een ethische aanpak verkleind de kans op schandalen die op lange termijn kostbaar kunnen zijn, zowel financieel als voor het imago van de organisatie.
  3. Transparantie naar de burger: Een ethische benadering vergroot de transparantie, wat weer vertrouwen schept bij de burger.
  4. Strategische voorsprong: Organisaties die ethische vraagstukken op een goede manier weten te adresseren hebben een competitief voordeel en zijn beter voorbereid op toekomstige uitdagingen en regelgeving.
  5. Advies WRR: De Wetenschappelijke Raad voor het Regeringsbeleid (WRR) raadt de overheid aan om kennis over AI binnen het ambtenarenapparaat te vergroten. De reden hiervoor is dat door de toepassing van AI, het steeds ingewikkelder wordt om te doorgronden waarom een systeem een bepaalde beslissing neemt[4]. Door een Data Ethics Officer aan te nemen kan een invulling worden gegeven aan deze oproep.

Maar zijn er ook risico’s? Absoluut. Het is essentieel om waakzaam te zijn zodat ethisch toezicht niet slechts een ‘papieren tijger’ wordt. En ja, sommige beleidsinitiatieven kunnen vertraging oplopen of zelfs worden gestaakt vanwege ethische overwegingen. Echter, met de juiste structuur en ondersteuning worden deze risico’s meer dan gecompenseerd door de voordelen.

Hoe zorg ik dat zo’n Data Ethics Officer een succes wordt?

  1. Formalisering: Net zoals een privacy officer of CISO een vaste rol heeft binnen organisaties, moet een Data Ethics Officer ook een vaste plek krijgen.
  2. Mandaat en Differentiatie: Deze rol moet bevoegdheden krijgen, of dit nu besluitvormingsbevoegdheid is of het geven van zwaarwegende adviezen. Daarnaast moet de organisatie onderscheid maken tussen dagelijkse ethische kwesties en algemene kwesties die bijvoorbeeld door een ethische commissie worden beoordeeld.
  3. Beleidsontwikkeling: De Data Ethics Officer stelt beleid op rondom digitale ethische vraagstukken en is actief op zoek naar deze vraagstukken binnen de organisatie.
  4. Toezicht: Om te waarborgen dat het beleid effectief wordt uitgevoerd, dient de Data Ethics Officer erop toe te zien dat het daadwerkelijk wordt nageleefd. Hiermee wordt voorkomen dat de functie enkel in theorie succesvol is.
  5. Bewustzijn: De gehele organisatie moet zich bewust zijn van de ethische overwegingen bij het inzetten van data. Bij elk werkvoorstel hoort naast een juridische, duurzaamheids- en financiële ook een ethische paragraaf te worden opgenomen.
AIthiek-afbeelding

In het digitale tijdperk is ethisch toezicht geen optie, maar een vereiste. De publieke sector moet hierin vooroplopen. Laten we leren van het verleden en streven naar een toekomst waarin datagebruik, AI en ethiek hand in hand gaan. Aithiek dus.

Ga met mij in gesprek

Vind je dit interessant of wil je reageren op de roep om een Data Ethics Officer te implementeren? Neem dan contact op met Erik de Ruiter via VKA of via LinkedIn.

[1] https://www.ftm.nl/artikelen/nederlandse-politie-gebruikt-minority-report-algoritme

[2] https://www.rechtspraak.nl/Organisatie-en-contact/Organisatie/Rechtbanken/Rechtbank-Den-Haag/Nieuws/Paginas/SyRI-wetgeving-in-strijd-met-het-Europees-Verdrag-voor-de-Rechten-voor-de-Mens.aspx

[3] https://www.volkskrant.nl/nieuws-achtergrond/belastingdienst-gebruikte-algoritme-dat-lage-inkomens-selecteerde-voor-extra-fraudecontroles~bac84336/

[4] https://www.wrr.nl/publicaties/rapporten/2021/11/11/opgave-ai-de-nieuwe-systeemtechnologie

Invoering Wet digitale overheid per 1 juli 2023; de uitvoering duurt nog even

Per 1 juli 2023 wordt de Wet digitale overheid (Wdo) van kracht. Dit klinkt als goed nieuws voor iedereen die het belangrijk vindt om op een veilige manier digitaal met overheidsinstellingen te kunnen communiceren en zakendoen. En ook voor partijen die diensten ontwikkelen die hiervoor gebruikt worden. Na een jarenlange voorbereiding, die teruggaat tot 2016, gaf de Eerste Kamer in maart groen licht, waardoor de wet vanaf 1 juli 2023 “gefaseerd” wordt ingevoerd. En tegen dat gefaseerde kunnen we nog gaan aanlopen. In 2026 om precies te zijn.

Het nieuwsbericht met daarin de aankondiging van de invoerdatum van 1 juli 2023 was in eerste instantie een aangename verrassing. Na jaren vooruit schuiven stond de invoerdatum nu eindelijk vast. Klik je wat verder door, dan blijkt de datum waarop organisaties zich ook écht aan de wet moeten gaan houden pas drie jaar later te liggen, op 1 juli 2026.

De eerste reden voor deze gefaseerde invoering is technisch van aard: het Stelsel Toegang dat nodig is om aan de wettelijke eisen te kunnen voldoen, is naar verwachting pas in 2024 gereed. Het gaat hierbij om de infrastructuur die organisaties nodig hebben om op een veilige manier verschillende erkende inlogmiddelen, op verschillende beveiligingsniveaus, te kunnen accepteren.

Tweede reden voor het uitstel tot 2026 zit in de implementatie: de organisaties waarop de Wdo gericht is, waaronder bestuursorganen, rechterlijke instanties en zorginstellingen, krijgen nog extra tijd nodig om zich op nieuwe wetgeving voor te bereiden. Om voor elke dienst het juiste beveiligingsniveau vast te stellen moet immers eerst in kaart gebracht worden welke diensten en werkprocessen er allemaal zijn en wat de gevoeligheid is van de hierbij uitgewisselde gegevens. Dit vraagt om een zorgvuldige impactanalyse en kost dus tijd. Daar komt nog bij dat het technisch inregelen van de juiste beveiligingsniveaus ook niet zomaar gedaan is.

Drie jaar

Met name dit tweede argument, de tijd die nodig is voor de implementatie, is opmerkelijk. Dat het inventariseren en analyseren van werkprocessen een flinke klus kan zijn, weten we uit ervaring. Met name bij organisaties die uit meerdere min of meer los van elkaar werkende onderdelen bestaan, vaak ook verspreid over meerdere locaties. Je kunt je echter afvragen of je hier drie jaar voor moet uittrekken. Behalve erg lang, is de termijn namelijk ook contraproductief. De ervaring leert immers ook dat zolang de deadline voor een implementatie van wetgeving nog ver weg  is, er altijd andere projecten zijn die meer urgentie hebben. De kans lijkt dus groot dat de implementatie van de Wdo bij veel organisaties halverwege 2025 nog niet veel verder zal zijn dan nu het geval is. En dat de roep om wat extra tijd ook dan weer zal klinken. Het feit dat ook eerdere, achteraf steeds verschoven deadlines van de Wdo nog niet tot massale voorbereidingen hebben geleid, versterkt deze gedachte.

Is de conclusie dan dat de invoer van de Wdo op 1 juli 2023 vooral een nieuwe reden is om de implementatie ervan nog een keer voor ons uit te schuiven? Niet per sé.

Slipstream

Een goede reden om toch nu al te starten met de inventarisatie en de classificering van diensten en data die door de Wdo geraakt worden, is dat voor de implementatie van een andere wet momenteel de spreekwoordelijke motorkap al wijd open staat. De Wet modernisering elektronisch verkeer (Wmebv), die bestuursorganen verplicht om voor alle formele berichtenverkeer ook digitale loketten in te richten, gaat namelijk al in 2024 in. En ook hiervoor is een overzicht nodig van de digitaal geleverde diensten en een beoordeling van het noodzakelijke beveiligingsniveau. Het ligt dus voor de hand bij de implementatie hiervan direct de criteria van de Wdo te gebruiken, uitgewerkt in de Regeling Betrouwbaarheidsniveaus.

Organisaties die moeten voldoen aan de Wmebv, doen er dus goed aan om in de slipstream hiervan ook we Wdo mee te nemen. Hiermee voorkom je niet alleen dat je later in tijdnood komt, maar ook dat je twee keer tijd en geld moet vrijmaken voor hetzelfde onderzoek. Bovendien wordt je dienstverlening wordt er veiliger van. En nu we toch goede raad aan het geven zijn: ook de Wet elektronische publicaties (Wep) raakt voor een groot deel aan dezelfde processen. Heb je deze nog niet helemaal op orde, dan is het goed om deze ook direct mee te nemen. Zo zorg je ervoor dat je aan de voorkant de digitale communicatie op orde hebt, dat de inrichting ervan voldoet aan de wettelijke betrouwbaarheidsnormen én dat aan de achterkant besluiten op de juiste (elektronische) manier worden gepubliceerd. Dat zijn drie vliegen in een klap!

Hulp nodig?

Heeft u nog vragen over de implementatie één van deze wetten? Of wilt u meer informatie over de samenhang? Neem dan vrijblijvend contact op met één van onze adviseurs.

ChatGPT: kans of bedreiging?

Je kunt er niet meer omheen: ChatGPT. Scholieren gebruiken het al om opstellen te schrijven[1], GPT is in staat om een MBA te halen met een 8.0[2], de eerste risico’s voor het gebruik bij cyberaanvallen liggen op de loer[3] en iedereen kan er mee programmeren.

Maar kun je ChatGPT zomaar gebruiker voor dagelijkse werkzaamheden? Kun je de toepassing vragen beleid te schrijven, offertes op te stellen, definities op te zoeken of processen verder te automatiseren? Hoe zorg je ervoor dat je deze AI-toepassing op verantwoorde wijze gebruikt?

In deze blog neem ik je mee in wat ChatGPT kan, waar je minimaal aan moet denken om tot duidelijke richtlijnen te komen en waar je vandaag nog mee aan de slag kan om een verantwoorde toepassing van ChatGPT te waarborgen. Ik geloof dat je met de gepaste waarborgen vooral de kansen kunt benutten en tegelijkertijd de risico’s zoveel mogelijk kunt beperken.

Met deze ‘Open AI’-toepassing kun je een online chat starten en antwoorden krijgen op de moeilijkste en gekste vragen. Zeker in vergelijking met de huidige generatie chatbots zijn de antwoorden van ChatGPT onverminderd imposant. Daarnaast geeft naar mijn gevoel ook een meer menselijkere en logischere reactie dan bijvoorbeeld Google Translate als het gaat om de vertalingen naar de Nederlandse taal.

Je kunt bijvoorbeeld vragen om inspirerende teksten, samenvattingen en definities. Met steekwoorden kun je onder andere aangeven hoeveel woorden de tekst maximaal mag zijn, welke specifieke termen erin voor moeten komen en op welke toon.

Deze interactieve tekstgenerator is dus niet voor niets onwijs populair in korte tijd. Zo populair dat het meestal niet lukt om de chat te gebruiken. Ook als de servers overbelast zijn, toont deze AI een indrukwekkend vraag-antwoord:

speech-status-chatGPT

Waar moet ik aan denken als ik ChatGPT gebruik?

Ten eerste, gebruik ChatGPT alleen ter ondersteuning van werkzaamheden en nóóit om beslissingen op te baseren zonder tussenkomst van een mens. De antwoorden van ChatGPT zijn niet foutloos. Zij zijn namelijk gebaseerd op enorme hoeveelheden teksten waarin niet elk feit getoetst is en waar spellingsfouten in kunnen staan. Doordat het algoritme is getraind op online teksten, ontstaat een potentiële bias naar populaire meningen en uitersten. Als gebruiker heb je beperkt zicht op de trainingsdata die is gebruikt, deze is zo alomvattend dat je dit zelf niet kunt lezen. Doe dus altijd eigen onderzoek naar de tekst suggesties vanuit ChatGPT.

Het is niet alleen belangrijk om bewust te zijn van de potentiële bias in GPT, maar ook om de goede vragen te stellen en kritisch te blijven op het antwoord. Daarom is het van belang om als gebruiker op de hoogte te zijn hoe het algoritme tot antwoorden komt. Uiteraard zijn er zaken die ChatGPT geprogrammeerd is niet te doen, zoals het voorspellen van financiële markten[4] en het geven van politieke voorkeuren, maar er zijn echter ook signalen dat je met het stellen van andere vragen toch een reactie kan forceren waar een politieke voorkeur in doorschemert door het woordgebruik.

 

ongewenste-vragen-ChatGPTChatGPT ligt toe waarvoor de toepassingen niet bedoeld zijn.

Geef bij gebruik van ChatGPT altijd duidelijk aan welke teksten door deze AI-oplossing zijn gegenereerd. De Europese AI-verordening gaat vereisen dat elke vorm van content gegenereerd door AI als zodanig te herkennen is door de contentgebruiker. Dit gaat dus ook op voor het genereren van andere resultaten met AI toepassingen, zoals afbeeldingen of videomateriaal.

Wat moeten organisaties concreet doen?

  • Maak duidelijk wanneer ChatGPT gebruikt kan worden en vooral wanneer niet. Doe dit bijvoorbeeld met een om aan te geven voor welk type teksten medewerkers gebruiken kunnen maken van ChatGPT. Het heeft geen zin om het gebruik volledig te verbieden, kijk vooral naar waar en hoe het wel kan. Hieronder een voorbeeld van een beslisboom die je verder kan aanvullen voor jouw organisatie.

beslisboom-ChatGPTVoorbeeld beslisboom.

  • Maak bij een ‘hoog risico’-toepassing[5] van ChatGPT een vermelding van het gebruik in het algoritmeregister, zie ook het nieuwe algoritmeregister laat zien hoe hard het-nodig is. ChatGPT kan ook code genereren, maak ook altijd een aparte vermelding van elk ‘hoog-risico’- algoritme wat je door ChatGPT laat genereren.
  • Geef handvatten hoe ChatGPT te gebruiken. Start bijvoorbeeld een opleiding om per doelgroep in te zoomen op wanneer de AI-toepassingen wel en niet te gebruiken, maar ook de werking, kansen en risico’s bespreekbaar te maken. Beperk je hier niet tot de gebruikers van de AI-toepassing, maar ook op het management. Zij zullen immers kritische vragen moeten stellen over het gebruik en resultaten van ChatGPT en op kwaliteit sturen. Immers zal het niet onvermijdelijk worden dat in afzienbare tijd ook in standaard tekstverwerkingsprogramma’s GPT beschikbaar komt[6]
  • Creëer een standaard vermelding om te gebruiken bij gegenereerde teksten.

Meer weten over praktische handvatten over het opstellen van beleid voor verantwoord gebruik van algoritmes, neem vrijblijvend contact op.

Tot slot: ben je benieuwd wat ChatGPT zelf zegt over of het een kans of bedreiging is? Dat kan je dus gewoon vragen:

Toespraak-bedreigingen-kansen-AI-ChatGPT

ChatGPT schrijft een toespraak over de bedreigingen en kansen van AI.

 

 

[1] https://nos.nl/artikel/2460020-chatgpt-glipt-langs-docenten-ik-gebruik-het-om-snel-huiswerk-te-maken

[2] https://mackinstitute.wharton.upenn.edu/2023/would-chat-gpt3-get-a-wharton-mba-new-white-paper-by-christian-terwiesch/

[3] https://www.nu.nl/tech/6248283/ook-criminelen-gebruiken-chatgpt-mogelijk-begin-van-wapenwedloop.html

[4] https://www.businessinsider.nl/chatgpt-beleggen-beurs-aandelen-2023-tips/

[5] ‘hoog risico’-algoritme zoals bedoeld in de risicogerichte aanpak in de concept Europese AI-verordening.

[6] https://www.nrc.nl/nieuws/2023/01/24/microsoft-wil-aan-ai-imperium-bouwen-a4155211

Het nieuwe algoritmeregister laat zien hoe hard het nodig is

Op 21 december 2022 heeft het ministerie van BZK het startschot gegeven voor een centraal algoritmeregister voor de overheid. Alle overheidsorganisaties kunnen hierin registreren welke algoritmes ze gebruiken en hoe deze in grote lijnen worden toegepast. Deelname aan het register is nog niet verplicht, maar de verwachting is dat dit op termijn anders wordt. Met het register dat nu beschikbaar is kunnen organisaties een eerste stap maken op weg naar transparantie.

Waar staan we nu?
Op het moment van schrijven staat het register een maand open en hebben 12 overheidsorganisaties hierin één of meer algoritmes ingevoerd. Meer dan helft hiervan is afkomstig van de gemeenten Utrecht en Den Haag. De kopgroep en de directe achtervolgers hebben we dus in zicht. De vraag is nu op welke afstand het peloton volgt.

De algoritmes die beschreven zijn, zijn zeer divers. Een aantal typen algoritmen komt meerdere keren voor. Zo staan er diverse toepassingen in die analyses uitvoeren op camerabeelden, o.a. voor crowd management, voor het herkennen van bijplaatsingen bij vuilcontainers en het innen van een gemeentelijke belasting op beeldreclames. Andere veel voorkomende toepassingen zijn het beoordelen van het recht op uitkeringen of toeslagen, het voorspellen van verkeersstromen en het beoordelen en routeren van ontvangen berichten. Wat opvalt is dat de ene registratie aanmerkelijk informatiever is dan de ander. Soms gaat er een wereld voor je open en krijg je echt een kijkje in de keuken. Bij andere blijft het bij een schielijke blik achter de voordeur, met daarachter een nog nauwelijks ingerichte ruimte. Maar altijd wel met de belofte dat de deur later verder open zal gaan. Alle reden dus om het register over een tijdje nog eens te bekijken.

Een goede start!
Na een eerste rondgang is mijn conclusie dat het goed is dat het register er is. Ten eerste omdat het inzicht geeft in welke algoritmen er zoal gebruikt worden. Maar vooral ook omdat het duidelijk maakt hoe belangrijk het is om het register goed te vullen. Het geeft namelijk een bijzonder unheimisch gevoel als je wel leest dat er bij een beslissing die jou aangaat algoritmes gebruikt worden, maar uit de beschrijving niet duidelijk wordt hoe deze werken en hoe ze gebruikt worden. Is deze informatie niet in het register terug te vinden, dan werkt dat dus eerder alarmerend dan geruststellend. In de beginfase van het register zal hiervoor echter nog alle begrip zijn. Bovendien staat in de toelichting duidelijk vermeld dat het register nog werk-in-uitvoering is. Laten we deze eerste fase dus vooral benutten om ervoor te zorgen dat de informatie die in het register staat volledig wordt.

Waar mikken we op?

Doel van het register is om te komen tot transparante en verantwoorde inzet van algoritmes. “Zodat de informatie over de algoritmes die de overheid gebruikt voor iedereen beschikbaar is: burgers, hun belangenbehartigers, de media en toezichthouders”, aldus de toelichting op de website. Een interessante vraag is dus welke doelgroep behoefte heeft aan welke informatie.

Als eerste wordt genoemd de burger. Wat ikzelf als burger graag wil weten is wanneer ik met een algoritme te maken heb. Zodat ik een beslissing die met behulp van een algoritme genomen is ook in die context kan zien. En duidelijk is dat ik voor een beroep op persoonlijke omstandigheden zelf aan de bel moet trekken. Vervolgens zou ik graag weten welke gegevens het algoritme gebruikt, hoe deze van invloed zijn op de beslissing en in hoeverre de ambtenaar die het resultaat te zien krijgt hieraan gebonden is. Of zich hieraan gebonden voelt. Ook zou ik graag iets lezen over de manier waarop de kwaliteit van het model getest is en hoe dit wordt gemonitord. Voor zover ik in het register heb kunnen zien zijn juist deze onderdelen van het register nog maar zeer te dele gevuld. Wat ook nog veel voorkomt is dat een veld wel tekst bevat, maar niet de informatie die je verwacht. Zo komt het regelmatig voor dat het veld “risico’s” alleen de mededeling bevat dat naar de risico’s gekeken is, maar niet wat daar uit is gekomen. Ook staat er een algoritme in het register waarbij als enige risico genoteerd is dat “de resultaten van het model altijd geanalyseerd worden door specialisten”.

Naast burgers staan ook toezichthouders en media als doelgroep van het register vermeld. Daaraan zou je ook nog leden van gemeenteraden of Kamerleden kunnen toevoegen. Relevante onderwerpen zijn dan de wettelijke basis van een algoritme, de proportionaliteit van een toepassing en de vraag of aan alle (toekomstige) wettelijke eisen is voldaan, zoals de uitvoering van een DPIA, een IAMA en (op iets langere termijn) de eisen die de AI-verordening aan hoog-risico algoritmes stelt. Ook op deze punten voorziet het register nog slechts beperkt in informatie. Deels omdat betreffende velden nog niet gevuld zijn, maar ook omdat het aantal velden nog beperkt is.

En nu door!
De verdienste van het register nu is dus niet alleen wat er nu in staat, maar vooral ook dat het zichtbaar maakt wat nog ontbreekt. Duidelijk is in ieder geval dat op heel veel plekken binnen de overheid al algoritmes gebruikt worden en dat er veel over te zeggen valt. En dat maakt nieuwgierig. Welke doelgroep aan welke informatie behoefte heeft moet de komende periode duidelijk worden. De beste manier om dit voor elkaar te krijgen is gewoon te starten met het register en iedereen op te roepen van zich te laten horen. Precies dus wat BZK nu in gang heeft gezet.

Ben je als overheidsorganisatie bezig met het in kaart brengen van algoritmes, maar heb je behoefte aan ondersteuning bij de uitvoering? Of wil je graag eens sparren over de aanpak? Neem dan gerust contact met ons op.

Ethisch Kader voor verzekeraars: de bal rolt, maar wat is de tussenstand?

In 2023 is het zover: het Ethisch Kader van het Verbond van Verzekeraars dat sinds 2021 van kracht is gaat getoetst worden. Ik ben om meer dan één reden erg benieuwd naar de uitkomsten. De scope van het kader bevat namelijk behoorlijk wat ruimte voor interpretatie. En ook in de praktische invulling van de normen kan op meerdere manieren vorm worden gegeven. Welke keuzes hebben de verschillende verzekeraars gemaakt? En wat blijkt straks wel en niet goed te werken? De Stichting Toetsing Verzekeraars gaat nu het net ophalen. Staan we hier aan de vooravond van de geboorte van een nieuwe “veldnorm”?

Scope

De eerste vraag waar je tegenaan loopt als je met het Ethisch Kader aan de slag gaat is scope ervan, namelijk “datagedreven besluitvorming”. Het kader zelf en de toelichting erop geven weliswaar houvast, maar niet heel stevig. Dit komt deels doordat het kader gebaseerd is op een document dat specifiek gaat over artificiële intelligentie (AI): de  Ethische Richtsnoeren voor Betrouwbare AI van de High Level Expert Group on AI, een adviesorgaan van de  Europese Commissie. In dit document is een aantal principes en vereisten vastgesteld, specifiek gericht op systemen die een zekere mate van autonomie of zelflerend vermogen hebben. Zoals de representativiteit van de gebruikte data en de uitlegbaarheid van uitkomsten. Het kader van het Verbond adopteert wel de door in dit document vastgestelde vereisten, maar past deze toe op een aanzienlijk bredere scope, namelijk “alle datagedreven besluitvorming die van invloed is op het klantvertrouwen”. Wat betekent dit voor de uitkomst van een premieberekening en de data dien hiervoor gebruikt worden?

In de toelichting op het kader wordt het belang van de klant als uitgangspunt genomen. Als een besluit discriminerend is of op een ander manier oneerlijk uitpakt, maakt het voor degene die het raakt immers niet uit dit door zelflerend neuraal netwerk is genomen of op basis van een eenvoudige beslisboom. Toch is het nadrukkelijk  ook niet de bedoeling dat alle besluitvorming van verzekeraars onder het kader valt. Hoewel aan vrijwel alle besluiten van verzekeraars data ten grondslag ligt, zou de toepassing van het kader met name gericht moeten zijn op processen en toepassingen waarin de grootste risico’s zitten. Het is dus aan de verzekeraars zelf om hier handen en voeten aan te geven. Helemaal buiten de reikwijdte van het kader is een verzekeraar overigens nooit. Ook als je op het moment van peilen nog niets doet wat op datagedreven besluitvorming lijkt, zul je in je beleid moeten opnemen waar de grens ligt en het kader wel van toepassing wordt. En hoe je daar dan mee omgaat.

Aanpak

Naast de interpretatie van de scope, is het interessant om te weten hoe verschillende verzekeraars de implementatie van het normen hebben aangepakt. Op welke onderwerpen van het nodig om extra maatregelen te nemen? Veel verplichtingen waren immers ook daarvoor al van kracht, zoals het voldoen aan privacy en security eisen. Alleen heet het dan geen ethiek, maar compliance of beheerste bedrijfsvoering.

Heeft het kader bijvoorbeeld geleid tot extra aandacht voor datakwaliteit? En zijn op basis hiervan risico’s aan het licht gekomen, die daarvoor nog niet in beeld waren? Interessant is ook welke invulling de verschillende organisaties hebben gegeven aan het vergroten van kennis van datagedreven besluitvorming bij medewerkers, bestuurders en toezichthouders. Elke groep en subgroep zal immers een andere benadering nodig hebben, specifiek gericht op de informatiebehoefte en risico’s voor die groep . En ook interessant: zijn er verzekeraars die de eis van een intern controle- en verantwoordingsmechanisme voor datagedreven toepassingen hebben vertaald naar een register, zoals in de Toolkit van KPMG geadviseerd wordt? En welke informatie is hierin dan opgenomen, en welke juist niet?

Effect

Het Ethisch Kader bestaat uit 30 normen. Bij een groot deel hiervan hebben verzekeraars ruimte om te zelf bepalen hoe zij hier invulling aan geven. Het derde en misschien wel meest belangrijke punt waar ik benieuwd naar ben is welke aanpakken uiteindelijk goed blijken te werken. En voor wie? Er zijn immers grote verschillen tussen verzekeraars. In omvang, maar ook in type dienstverlening, bedrijfscultuur en volwassenheidsniveau op het gebied van data.

Wat de best practices worden, zullen we ook na de eerste toetsing van het kader in 2023 nog niet weten. Voorlopig moeten we het dus doen met de voorbeelden die we “in het veld” tegenkomen. De bal rolt, maar het doel is nog een eindje weg.

Implementatie

Een overzicht van de normen in het Ethisch Kader op één pagina is hier te vinden.  Ben je  als verzekeraar gebonden aan het Ethisch Kader, maar ben je er nog niet helemaal uit welke plek in de organisatie dit moet krijgen? Of is de plek van het kader wel duidelijk, maar is de vraag hoe je de organisatie in beweging krijgt? De volgende stappen kunnen dan richting geven:

  1. Organiseer een awareness sessie met het senior management. Doel is om gevoel te krijgen waar in de organisatie “de ethiek zit”. Welke rol speelt data de besluitvorming? Wanneer vertrouw je op de data en wanneer niet? En waarom?
  2. Breng in kaart in welke werkprocessen besluitvorming op basis van data plaatsvindt en in hoeverre hierin de verwerking van data geautomatiseerd plaatsvindt.
  3. Bepaal bij welke van deze besluiten bij een incident de impact op het klantvertrouwen het grootst is. Leg deze langs de normen van het ethisch kader, bepaal in hoeverre reeds aan het kader voldaan wordt en welke acties nog nodig zijn.

Heb je als organisatie je werkprocessen goed in beeld, dan kunnen bovenstaande stappen kort na elkaar gezet worden. Een goede manier voor stap 3 is om te beginnen met het besluit waarvan het risico het grootst is. Dit is een goede manier om het hele kader snel in de vingers te krijgen en om normen die wat meer tijd nodig hebben om te implementeren direct te kunnen oppakken. Belangrijk is ook om vast te leggen wat je doet en welke keuzes je maakt. Niet alleen om een auditor goed te woord te kunnen staan, maar ook om later te kunnen vaststellen wat wel en wat niet gewerkt heeft. En hiermee mogelijk een bijdrage te kunnen leveren aan de veldnorm.

Hulp nodig bij de implementatie van het kader of behoefte aan een sparring partner? De data- & reguleringsadviseurs van VKA denken graag met je mee. En we kunnen je ook helpen om stappen te maken.

 

Data ethiek in kleine gemeentes

Zelfs een kleine gemeente kan zo goed zijn als een G4!

Op 10 januari 2021 viel het kabinet Rutte III op de Toeslagenaffaire, waarbij tienduizenden ouders ten onrechte als fraudeur werden aangemerkt en daardoor in grote problemen raakten. Dit maakte nog eens duidelijk dat datagebruik door de overheid niet alleen aan juridische en technische normen moet voldoen, maar dat ook ethische aspecten in de afweging moeten worden betrokken. Doe je dat niet, dan loop je het risico je doel volledig voorbij te schieten. En daarbij ook nog een grote hoeveelheid omstanders te raken.

In dezelfde periode als de Toeslagenaffaire speelde ook de rechtszaak rond SyRI, het algoritme dat gemeenten moest helpen bij het opsporen van bijstandsfraude en dat door de rechter werd verboden omdat het als discriminerend en stigmatiserend werd beoordeeld. Beide zaken, waarin de overheid een flinke tik op de vingers kreeg, werkten echter ook als eyeopener. De aandacht voor data ethiek groeide. Bij veel overheidsorganisaties, waaronder alle grote gemeentes, is verantwoord datagebruik nu het uitgangspunt.

Voor kleinere overheidsorganisaties, zoals gemeentes met minder dan 100.000 inwoners, is het moeilijker om hierin stappen te maken. Ook zij moeten, net als grotere gemeenten, systemen inrichten om zaken zoals bijstandsuitkeringen, jeugdzorg en gemeentelijke belastingen te regelen. Het verschil is echter dat deze kleinere gemeentes dit met veel minder middelen en capaciteit moeten doen. Hierdoor is het voor hen aanzienlijk lastiger om data ethiek een plek te geven in de organisatie. De beleidsinstrumenten die hiervoor nodig zijn, zijn vaak duur en arbeidsintensief om op te zetten.

Om te weten te komen hoe kleinere gemeenten met ethisch datagebruik omgaan, hebben we in de eerste helft van 2022 bij vijf van deze gemeentes verschillende medewerkers geïnterviewd die zich binnen hun organisatie met dit thema bezighielden. Een belangrijke bevinding uit dit onderzoek was dat data ethiek bij kleine gemeentes vooral een informeel onderdeel is van de bedrijfsvoering. Dit wil zeggen dat er een kleine groep enthousiaste medewerkers is die de kar trekt en initiatief neemt. De verantwoordelijkheid ervoor is echter nergens formeel belegd. Valt één van deze medewerkers weg, dan is de kans groot dat het gat dat deze achterlaat niet wordt ingevuld. En de aandacht in de organisatie weer verslapt. Dit heeft als gevolg dat de organisatie weer bijna vanaf nul kan beginnen.

Om data ethiek bij kleine gemeenten structureel een plek in de organisatie te geven, zal de stap moeten worden gemaakt van een informele harde kern naar een aanpak die formeel gedragen wordt. Vanwege de beperkte mogelijkheden om hiervoor tijd en geld vrij te maken, adviseren we om dit op te knippen in een aantal kleine stappen. Zo kan elk van de stappen met een relatief kleine investering worden uitgevoerd. Ook  zal het succesvol doorlopen van elke stap de drempel voor de volgende minder hoog maken.

Is er binnen een organisatie een informele groep actief die het thema data ethiek al enige tijd trekt, dan is het raadzaam om dit momentum te benutten en het informeel bereikte niveau als springplank te gebruiken voor de eerste stap naar formalisering.

De overgang van een informele naar een formele inbedding van data ethiek zou er als volgt uit kunnen zien:

1: Bewustwording

Eerste stap is ervoor te zorgen dat de organisatie bekend raakt met het thema data ethiek. Over welk soort situaties gaat het? Waarom is het belangrijk om bij de toepassing van data ook ethische risico’s in beeld te hebben? En wat levert het uiteindelijk op? De basis kun je leggen met aanbieden van awareness trainingen of workshops voor bestuurders en medewerkers. Heb je al een concrete casus, dan is een goede dan is ook het uitdiepen hiervan aan de hand van de Aanpak Begeleidingsethiek van ECP.NL een goede start. Vervolgens is het de kunst om het gesprek levend te houden, bijvoorbeeld door er regelmatig aandacht aan te besteden in interne media en in teambesprekingen. Voor de herkenbaarheid kun je data ethiek het best bespreken aan de hand van cases uit de eigen organisatie. Richt je hierbij niet alleen in het herkennen van een dilemma’s, maar ook op het bespreken van mogelijke oplossingen. Welk handelingsperspectief heeft een als de situatie zich daadwerkelijk voordoet. En wat past het best bij de organisatie?

2: Verantwoordelijkheid beleggen

Tweede stap is data ethiek nadrukkelijk bij een specifieke functie te beleggen en hiervoor ook tijd vrij te maken. Bijvoorbeeld door het uitbreiden van het takenpakket van een bestaande functie (bijvoorbeeld de FG). Of beter nog: door het creëren een geheel nieuwe functie. Belangrijk is dat de verantwoordelijkheid ook op bestuursniveau goed wordt belegd en dat deze persoon zich er daadwerkelijk sterk voor maakt. Het uitgangspunt moet zijn dat alle relevante taken en verantwoordelijkheden zijn beschreven en in de organisatie bekend zijn. Om degene die de data ethiek gaat trekken geen valse start te geven, is het van belang dat deze van het begin af aan op de juiste manier wordt gepositioneerd. Namelijk niet als de persoon die de verantwoordelijkheid van de rest van de organisatie overneemt, maar als degene die anderen helpt om zelf verantwoordelijkheid te nemen. Het spreekt vanzelf dat ook degene die hier op bestuursniveau over gaat hier een belangrijke rol in speelt.

3: Implementatie in de bedrijfsvoering

Als medewerkers zich bewust zijn van de ethische aspecten bij het werken met data en de verantwoordelijkheid ervoor formeel in de organisatie belegd is, is de derde stap de vertaling van verantwoord datagebruik naar de dagelijkse praktijk. Hoe dit het best kan worden ingevuld, zal afhangen van de organisatie. Een voorbeeld is het inlassen van vaste ijkmomenten in dataprojecten, waarbij kritisch gekeken wordt naar de risico’s voor verschillende groepen belanghebbenden. Of de vertaling van organisatiewaarden naar concrete richtlijnen bij de ontwikkeling van nieuwe datatoepassingen. Aan de hand van best practices kan een handleiding worden opgesteld voor ambtenaren om data ethiek concreet te maken. De regie hierbij kan worden gevoerd door de rol die beschreven is in stap 2. Belangrijk hierbij is om bij het invullen van de stappen consequent alle stakeholders in de organisatie te betrekken, zodat niet alleen het plan, maar ook het succes ervan breed gedeeld wordt.

Gemeenten die van plan zijn om bewust en verantwoord datagebruik in de toekomst steviger in hun organisatie te gaan verankeren, kunnen bovenstaande stappen als leidraad gebruiken. Ook is er een Handreiking digitale ethiek van VNG beschikbaar, met daarin een groot aantal verwijzingen naar best practices, kaders en hulpmiddelen. Een andere interessante publicatie over de zorgvuldige ontwikkeling van datatoepassingen is Principes van de digitale samenleving, eveneens van VNG.

Heeft u behoefte aan ondersteuning bij de implementatie, of zoekt u een sparringpartner om uw ideeën eens mee te bespreken, dan helpen we u uiteraard graag. Hiervoor kunt u contact opnemen met Erik de Ruiter of Dorus-Jan ten Boom.

De naaf en de spaken: hoe organiseren we onze data-expertise?

Hoe halen we meer uit onze data? Dat vragen we aan onze dataspecialisten, maar waar zitten die in onze organisatie? In een apart hoekje achter grote schermen en dikke computers, tussen de medewerkers in de afdelingen of ergens er tussenin?

Het dataorganisatievraagstuk
Veel overheidsorganisaties worstelen met dit vraagstuk. Een verantwoord datagebruik wordt steeds belangrijker. We nemen dataspecialisten aan – wat vaak al een hele opgave is – en meer medewerkers gaan beschikken over datacompetenties. Omdat ze dat leuk vinden en omdat ze zien dat data helpt om maatschappelijke vraagstukken op te lossen.

In deze blog gaan we in op het organisatievraagstuk dat ontstaat door de komst van de dataspecialisten en het toenemend belang van data bij de uitvoering van publieke taken.

De hoofdrolspelers
Wie komen we hier allemaal tegen? Op de eerste plaats de medewerker die in zijn/haar afdeling ‘meer met data wil gaan doen’. Laten we haar Nuria de datavertaler noemen. Zij herkent in haar afdeling de datavraag en heeft een idee over de mogelijke bijdrage die data kan leveren aan het werk. Daarnaast betreedt Menno het toneel. Menno is als data scientist binnengehaald, omdat we meer data-expertise nodig hebben in onze organisatie om vragen zoals die van Nuria te beantwoorden. Hij kan data-oplossingen bouwen, helpen bij analyse en weet welke techniek helpend is bij welk vraagstuk. We hebben ook nog Julia, die als data engineer de taak kreeg om nieuwe datasets te ontsluiten in het dataplatform (de IT-tooling voor opslag, analyse en gebruik van data). Tot slot hebben we Karel. Karel is de manager die leiding moet gaan geven aan het datateam in oprichting. Karel heeft als opdracht om het datateam op de meest effectieve manier in te richten en een sterke positie te geven binnen de hele organisatie. Wat zijn hierbij zijn mogelijkheden?

De uitersten
We richten een centraal datateam in met eigen mensen en eigen verantwoordelijkheden. Nuria, Menno en Julia worden samen met de andere dataspecialisten in een team geplaatst waar Karel de manager van wordt. Medewerkers uit de afdelingen kunnen aankloppen bij het centrale datateam met hun datavragen en het datateam gaat ermee aan de slag.

Handig om al die specialisten bij elkaar te hebben. Er ontstaat in het datateam veel kennis op datagebied en de dataspecialisten kunnen lekker gestandaardiseerd werken. Er is ook duidelijkheid over het beheer van de data en de dataproducten: dit ligt bij het centrale datateam. Karel is als manager goed op de hoogte van wat er speelt binnen ‘zijn’ team en kan de taken slim wegzetten.

Een centraal datateam werkt vaak goed voor kleine organisaties: de lijnen zijn kort waardoor men het centrale team relatief makkelijk weet te vinden. Ook organisaties waar de datavolwassenheid laag is, kunnen met een centraal team snel voldoende schaal creëren en de eerste stappen zetten met datagedreven werken.

Wat wel onhandig is aan een centraal datateam is dat de afdelingen niet altijd duidelijke datavragen stellen. Doordat Nuria, Menno en Julia centraal in de organisatie werkzaam zijn, hebben zij relatief weinig contact met mensen uit de afdelingen en weten zij niet wat daar speelt. Zij zijn niet altijd goed in staat om de datavragen van de afdelingen te verhelderen. Hierdoor slaat het datateam soms wel erg zijn eigenwijze dataweg in. Op de een of andere manier zijn ze in de afdelingen lang niet altijd tevreden over de dataproducten waarmee het datateam komt.

Er is een alternatief: de dataspecialisten werken volledig decentraal. Elke afdeling heeft zijn eigen dataspecialisten. Nuria kan (gelukkig, vindt ze zelf) in haar eigen afdeling blijven en daar aan dataprojecten werken. Menno en Julia worden als dataspecialisten toegevoegd aan haar afdeling. Voor Karel is even geen ruimte dus hij moet wat anders gaan doen. Er is immers niet één datateam, dus valt dat ook niet te managen.

Handig, die dataspecialisten zo dichtbij het primaire proces in de afdelingen. Hoeven we ook geen nieuwe afdeling op te zetten.

Een decentraal model kan goed werken wanneer in een organisatie verschillende ‘snelheden’ zijn op het gebied van datagedreven werken: een bepaalde afdeling wil sneller dan de andere en heeft zo de vrijheid om met eigen dataspecialisten ambities te realiseren. Ook in hele grote organisaties waarin de afdelingen zeer zelfstandig zijn en weinig tot niks met elkaar van doen hebben, kan een decentraal model goed werken.

Wat onhandig is aan het decentrale model, is dat het de doorontwikkeling van de datakennis van de dataspecialisten belemmert. Bovendien gaat elke afdeling wel erg zijn eigen gang en van efficiënte gestandaardiseerde oplossingen is geen sprake. Wie is verantwoordelijk voor een goed beheer van data en dataproducten? En wat doen we met datavraagstukken die de grenzen van de afdelingen overstijgen?

De derde weg: Hub en spoke (de naaf en de spaken)
Er is nog een ander model. Stel dat we de organisatie als volgt inrichten: we richten een gemeenschappelijk datateam in waar Menno, Julia en en de andere dataspecialisten hun diensten verlenen aan de afdelingen onder aansturing van Karel. De dataspecialisten staan met één been in het centrale datateam en één been in de afdeling(en) waar zij dataproducten voor ontwikkelen. Dit team is de ‘hub’, de naaf in het fietswiel.

Nuria, onze datavertaler, blijft gewoon op haar afdeling. Ook de andere afdelingen kennen datavertalers die met hun combinatie van vakkennis en datakennis collega’s in de afdelingen helpen om goede datavragen te stellen. Zij staan in nauw contact staan met de dataspecialisten en weten welke oplossingen zij kunnen bieden aan hun afdelingen. Zij vormen de ‘spokes’, de spaken in het fietswiel die stevig verankerd zijn in de naaf en de verbinding vormen met het wiel. De plek waar de meters worden gemaakt.

Handig, want de spaken krijgen veel kennis vanuit de hub over de mogelijkheden en onmogelijkheden van data voor hun werk, en andersom krijgt de hub via de spokes veel mee van wat er speelt in de afdelingen. Het datateam komt hierdoor niet los te staan van de afdelingen. De kans dat dataprojecten efficiënt en verantwoord gebruik maken van de mogelijkheden is groot. Het gemeenschappelijke datateam kan ook de hele organisatie helpen met het ontwikkelen en uitvoeren van een datastrategie. Zeker als Karel, onze manager, een sterke positie verwerft in het management van de organisatie. De naaf en de spaken maken samen een sterk wiel. Onhandig is wellicht de complexiteit: hoe is de samenwerking tussen het centrale team en de afdelingen? Wat is de balans tussen autonomie voor de afdelingen en het conformeren aan de gezamenlijke afspraken?

Elk model heeft zijn voordelen en nadelen. De omvang van de organisatie, de ‘datavolwassenheid’ en de organisatiecultuur (o.a. de mate van autonomie van de afdelingen) zijn bepalend voor de keuze uit een van de modellen. Voor meer informatie over een effectieve en efficiënte dataorganisatie neem vooral contact op met VKA via gijs.degroot@vka.nl of nico.verbeij@vka.nl.

Ethiek en Lego: een goede combinatie?

In de afgelopen maand hebben er twee bijzondere masterclasses plaatsgevonden bij VKA over Lego Serious Play in combinatie met de vraag: ‘Wanneer ben je een ethisch adviseur?’. In deze blog reflecteren Joost van Lier (deelnemer) en Marlijn Mulder (facilitator) op hun ervaringen met het combineren van deze twee vakgebieden. Kan dat, een ethisch adviseur bouwen met Lego?

Achter de Lego Serious Play (LSP) methode zit een flinke dosis theorie. LSP gaat uit van het constructivisme (ontwikkeld door Jean Piaget), een theorie die stelt dat verschijnselen in de werkelijkheid sociale constructies zijn. Deze theorie gaat ervan uit dat wij leren als wij een discrepantie ervaren tussen ons wereldbeeld en dat van anderen. Het leerproces start wanneer we proberen deze discrepantie weg te werken door het onderwerp te verkennen en te bespreken met anderen. Een leerling van Piaget, Seymour Papert, ontwikkelde het constructionisme, wat stelt dat leren meer gebaseerd is op doen (denk aan projecten) dan op informatie overbrengen (denk aan hoorcolleges)​. Eén van de belangrijke aspecten van deze theorie is dat leren het meest effectief is als het gekoppeld is aan het maken van fysieke objecten. Wij gebruiken onze hersenen bij het leren of denken beter als we onze handen in het denkproces betrekken.​

Op basis van deze theorie is de LSP-methode ontstaan: door met behulp van een specifieke opdracht een fysiek Lego-object te maken dat een sociale constructie uitbeeldt, zijn we in staat onze eigen waarheden te bespreken en daarmee het proces om samen tot een gedeeld beeld te komen te versnellen. Daarbij is het tijdens de uitvoering enerzijds belangrijk om vragen via het model te stellen en anderzijds jouw mening over het model achterwege te laten. Immers, het is het beeld van de ander.

De LSP-methode is binnen VKA ingezet om met elkaar van gedachten te wisselen over de aspecten die voor een adviseur op ethisch gebied belangrijk zijn. Joost vertelt over zijn ervaring tijdens de workshop: “Ik ben ervan overtuigd dat door het werken met onze handen, het in elkaar zetten van een bouwwerk wat de ethisch adviseur uitbeeldt, nieuwe en andere ideeën ontstonden. Door over de as van het bouwwerk over het beeld van een ethisch adviseur te spreken, hebben we in korte tijd veel opgehaald en beelden gedeeld. Door hier ook theorie aan toe te voegen, bijvoorbeeld de verschillende typen zienswijzen van een ethicus, ontstonden er scherpere gedachten. Zo heb ik zelf een weegschaal gebouwd, omdat de adviseur altijd een afweging moet maken tussen de verschillende belangen van de klant.

Collega Marlijn, tevens ook ethicus: “We kennen het constructivisme ook in de filosofie, daar hebben we het eveneens over ‘waarheidstheorie’ en ‘waarheidsvinding’. Daar zit de eerste link tussen filosofie en de LSP-methode. Ik heb altijd geleerd dat er geen ‘heilige boontjes’ binnen de filosofie zijn en dat raakt aan het idee dat er niet één Waarheid (met de hoofletter W) bestaat. Iedereen heeft ergens wel gelijk. De LSP-methode laat deelnemers dat ook zien: er is geen fout antwoord en de ideeën die achter het bouwwerk zitten, mogen alleen via het model bevraagd worden.

We onderscheiden binnen de ethiek de vijf belangrijkste, vooral meest gebruikte, stromingen. Dit zijn: waardenethiek, plichtethiek, utilitarisme, situationalisme en zorgethiek*. Deze stromingen kijken allemaal anders naar wat het betekent om goed te handelen. Bij de meeste mensen is een combinatie van die stromingen terug te vinden. Het werken met Lego laat deelnemers zien dat meningen over de vraag: ‘Wat doe ik als ik een ethisch adviseur wil zijn?’ uiteen kunnen lopen, en dat deelnemers daarmee de nadruk op andere kwaliteiten of afwegingen leggen. Marlijn: “Specifiek gericht op ethiek proberen we duidelijk te maken dat mensen een verschillende visie hebben over wat het juiste is om te doen. De inzet van Lego om een model te creëren helpt daarbij in het verbeelden en het bespreken van je eigen visie op een abstract onderwerp, in dit geval ethiek.

Door deze twee vakgebieden, een leermethode en ethiek, met elkaar te combineren zijn we in staat op een intuïtieve, creatieve en open manier ideeën uit te wisselen en van elkaar te leren. En dit vindt niet alleen op een algemeen vakgebied plaats, maar zeker ook bij iets ingewikkelds, zoals individuele intrinsieke waarden en principes. Dit wordt behandeld in een relatief korte workshop van ongeveer drie uur. Aan de hand van de uitkomsten zal VKA haar ethisch beleid verder vormgeven én zijn deelnemers in staat om datgene wat ze gehoord hebben mee te nemen in hun ethisch denkkader.

Heb je een onderwerp waarbij de Lego Serious Play methode een bijdrage kan leveren? Laat het dan weten, wij faciliteren graag dergelijke workshops waarin we jouw projectgroep/team/afdeling/organisatie helpen om samen toe te werken naar een gemeenschappelijk beeld. Daarbij gaan wij graag in gesprek over het thema of onderwerp waarover een gemeenschappelijk beeld moet ontstaan, de vormgeving van een dergelijke workshop en de benodigde tijd om het gevraagde doel te bereiken.

* In deze blog leggen we deze stromingen niet allemaal uit. Meer en uitgebreide informatie over deze stromingen is hier te vinden of komen we graag toelichten.

Van macht naar aanzien

Position paper: Wendbare besturing in de publieke sector

Dit is de samenvatting. Onderaan deze pagina kunt u de hele Position Paper downloaden.

In het afgelopen jaar is in diverse rapporten kritisch geschreven over een overheid die faalt in het vervullen van haar maatschappelijk functie[1]. Niet alleen wordt er op verschillende vraagstukken een onvermogen geconstateerd om problemen op te lossen en de gevraagde maatschappelijke waarde te creëren, maar wordt zelfs vastgesteld dat de menselijke maat uit het oog wordt verloren en daarmee juist schade en leed worden aangericht. De roep om een overheid die meer gericht is op het aanpakken van maatschappelijke opgaven neemt toe.

Twee belangrijke oorzaken van het genoemde probleem zijn top-down, vastomlijnde oplossingen doen geen recht aan de complexiteit van de opgave in de praktijk en een organisatiestructuur die de integrale uitvoering die nodig is voor complexe opgaven belemmert. Wat nodig is, is een overheid die de complexiteit van het openbaar bestuur erkent en hier adequaat op inspeelt om op deze manier publieke waarde te organiseren. Niet alleen is het nodig om de denkwijze en de rolopvatting van de overheid te herzien, maar ook om de besturingsmodellen daarop aan te passen.

Wij pleiten in deze paper voor een nieuw besturingsmodel waarmee de overheid effectiever haar maatschappelijke functie kan waarmaken en onbedoelde problemen die nu ontstaan voorkomen kunnen worden. Vijf integrale elementen vormen de basis van dit besturingsmodel:

  • Opgavegericht werken
  • Netwerkgestuurde opdrachtenportfolio’s
  • Verantwoordelijke, stabiele opdrachtenteams
  • Kort-cyclische toetsing
  • Datagedreven sturing

Opgavegericht werken zorgt ervoor dat beleid beter kan worden vertaald naar de praktijk en context waarin dit wordt uitgevoerd. De kans op het verliezen van de menselijke maat wordt hiermee kleiner en de kans op het realiseren van maatschappelijke waarde groter. Netwerkgestuurde portfolio’s helpen om de vertaling naar praktische initiatieven te maken vanuit een afdelings- of zelfs organisatieoverstijgend perspectief, wat de effectiviteit in complexe en veelzijdige vraagstukken ten goede komt. Verantwoordelijke, stabiele opdrachtenteams zorgen voor de noodzakelijke integrale verantwoordelijkheid en het mogelijk maken van kort-cyclische toetsing. Deze kort-cyclische toetsing is belangrijk om de effecten in de praktijk zo snel mogelijk waar te nemen en hierop bij te kunnen sturen om de maatschappelijke waarde te vergroten en onbedoelde effecten te corrigeren. Datagedreven sturing is hierin het laatste belangrijke element om dit zo objectief en gericht mogelijk te kunnen doen.

Ons model is uitdagend. Het raakt op sommige aspecten aan diepgewortelde tradities en gewoonten binnen de publieke sector, die niet eenvoudig te veranderen zijn. Bovendien brengt de complexe en heterogene structuur van de overheid met zich mee dat de toepassing van de genoemde elementen maatwerk vragen. Er is geen eenduidige toepassingsvorm die in alle gevallen werkt. Tegelijkertijd weten we uit ervaring dat het toepassen van het besturingsmodel met de omschreven elementen haalbaar is in publieke organisaties, omdat het al gebeurt. De voorbeelden van hoe dit succesvol kan werken bestaan al.

Hoewel de invoering van het nieuwe besturingsmodel niet eenvoudig is, geloven wij wel dat het noodzakelijk en onvermijdelijk is. In onze hedendaagse maatschappij is een overheid die zich moet wenden tot toepassing van staatsrechtelijke macht om haar beleid tot uitvoering te brengen niet vol te houden. Het leidt namelijk niet tot de beoogde maatschappelijke waarde en bovendien tast het juist het gezag van de overheid aan.

We dagen publieke organisaties uit om te groeien in aanzien. Dit betekent een andere manier van organiseren. Afscheid nemen van de (hiërarchische) macht waarop menige publieke organisatie ook intern nog steeds is geënt. Het toepassen gelijkwaardigheid en vertrouwen als basis voor samenwerken en organiseren. Maar ook het slim gebruiken van technologische innovatie en kort-cyclisch werken, zodat bijsturen een optie blijft. Dit vraagt een overheid die zich kwetsbaar opstelt, durft te falen en daarop reflecteert.

Aanzien is een krachtigere en duurzamere basis van gezag dan macht. De transformatie die wij voor ogen hebben op basis van een nieuw besturingsmodel is daarom in één zin te vatten.

Van macht naar aanzien.

[1] Parlementaire Ondervragingscommissie Kinderopvangtoeslag (2020): “Ongekend onrecht”

Download hier de hele paper

 

Voor meer informatie kunt u contact opnemen met Arjan van Venrooy.

Datadilemma: Verantwoordelijkheid vs. Aansprakelijkheid

De digitale transformatie biedt niet alleen kansen, maar levert soms ook dilemma’s op. In deze blogreeks bespreekt Marlijn Mulder, veelvoorkomende dilemma’s die op het eerste gezicht een gevolg van elkaar lijken te zijn, maar elkaar tóch tegenspreken.

Onder welke (voor)waarden mag de overheid persoonsgegeven gebruiken?

Deze maand gaat het datadilemma over verantwoordelijkheid en aansprakelijkheid. Deze twee waarden lijken op het eerste gezicht uit elkaar voort te komen, maar voor de overheid ligt dat iets anders als het gaat om burgerdata.

Om dat te begrijpen moeten we eerst het verschil tussen verantwoordelijkheid en aansprakelijkheid duidelijk hebben, daarna gaan we in op een case waarin de positie van de overheid duidelijk wordt.

(Data) verantwoordelijkheid

Als we het hebben over (data)verantwoordelijkheid, dan wordt daar de verantwoordelijkheid van de gebruiker mee bedoeld. Dat heeft te maken met het idee van ‘eigenaarschap’. Als ik toestemming geef om bijvoorbeeld cookies op een website te accepteren, dan geef ik toestemming dat de website de data mag gebruiken. Ik geef mijn eigenaarschap over de data over aan de website. De verantwoordelijkheid voor die toestemming ligt echter bij mij, ik kan immers de cookies ook niet accepteren*. Tot zover levert dit geen conflict op met het andere begrip, aansprakelijkheid.

Aansprakelijkheid

Het begrip van aansprakelijkheid beschrijft de andere kant van het eigenaarschap van data, namelijk, wat mag ik wel en niet doen met de data die ik tot mijn beschikking heb? Hier spelen regels, normen en wetten een belangrijk rol. Ik mag volgens de AVG geen persoonsgegevens gebruiken als ik er geen doel voor heb, het begrip ‘doelbinding’. Ik heb dus verantwoordelijkheid gekregen van mijn gebruiker en ben daardoor aansprakelijk voor wetten en regels. Aansprakelijkheid volgt voor mij dus uit verantwoordelijkheid. Het dilemma van de overheid gaat over het grijze gebied in de overdracht van verantwoordelijkheid.

Het datadilemma van de overheid

Vanaf het moment dat ik geboren word, verzamelt de overheid gegevens over mij. Ik ben geregistreerd, ik heb een BSN-nummer, de overheid weet wie mijn ouders zijn, waar ik woon, en later ook wat mijn bankrekeningnummer is, wat ik verdien, waar ik werk en of ik kinderen heb. Deze informatie is noodzakelijk voor de overheid om te kunnen functioneren. Zonder bankrekening, adres, en BSN-nummer kan ik bijvoorbeeld geen toeslag krijgen, maar heb ik ook een probleem met mijn belastingaangifte. Ik heb alleen nooit toestemming gegeven, zoals ik dat doe wanneer ik cookies accepteer, dat mijn data gebruikt mag worden. Al die data van mij, die heeft de overheid gewoon. Dat betekent dat de overheid vanaf het begin mijn verantwoordelijkheid op zich heeft genomen. Als gevolg komt de overheid zélf in het grijze gebied.

Casus: Schuldenbestrijding door middel van persoonsgegevens

Stel de overheid wil schuldopbouw bestrijden. We weten dat schulden niet goed zijn voor de mentale en fysieke gezondheid van burgers, de relatie en het vertrouwen in de overheid en de overheid zelf. Genoeg reden om deze te bestrijden dus. Schuldenproblematiek volgt vaak een bepaald patroon, bijvoorbeeld iemand verliest zijn of haar baan en vindt niet snel genoeg een nieuwe baan. Als we deze gegevens over 20 jaar verzameld hebben dan kan dit kenmerk een belangrijke indicator zijn van een toekomstige schuldenproblematiek. Die gegevens zijn bekend bij de overheid en kunnen dus tot actie leiden. Acties, die mensen veel leed zouden kunnen besparen. Maar mag de overheid deze data, die ze niet met toestemming verzameld heeft, gebruiken voor toekomstig beleid?

En nu?

Een belangrijk element in de afweging is dat burgers eigenlijk geen keus hebben om van ‘leverancier’ te wisselen als het gaat om de overheid: De drempel van verhuizen naar een ander land is zodanig hoog dat dit niet mee mag worden geteld in een ethische afweging. Dat iemand niet kan kiezen welke overheid hij of zij vertrouwt, duwt de overheid in een richting in deze afweging: De verantwoordelijkheid voor de burger wordt zwaarwegender dan de aansprakelijkheid. Zogezegd kantelt de ethische weegschaal naar verantwoordelijkheid. Maar, om te voorkomen dat de overheid überhaupt voor dit dilemma komt te staan, zou de overheid kunnen overwegen om vooraf toestemming te vragen om gegevens te mogen gebruiken om dit soort beleid te kunnen maken. Een nobel doel, waar zeker een deel van de burgers de eigen data voor af zou willen geven. Ik zou het in ieder geval overwegen, wat zou jij doen als je in dit grijze gebied terecht komt?

 


*: Ik laat hier bewust achterwege dat er diensten zijn waar geen gebruik meer van kan worden gemaakt als je bepaalde voorwaarden niet accepteert.

 

AI in het coalitieakkoord Rutte IV: Ready, Set, Go?!

In de aanloop naar het nieuwe kabinet waren de verwachtingen hooggespannen bij iedereen die zich met data, AI of andere digitale innovaties bezighoudt. Het coalitieakkoord dat op 15 december werd gepubliceerd bevatte een heuse passage over digitalisering die onder andere investeringen in AI en een algoritmewaakhond aankondigt. Daarbij is bekend geworden dat Digitale Zaken onderdeel zal uitmaken van de portefeuille van staatssecretaris Van Huffelen. Het lijkt er dus op dat AI en digitalisering door het kabinet serieus genomen worden, zoals in het WRR-rapport ‘Opgave AI’ werd aanbevolen. Maar is dat ook werkelijk zo? 

De WRR omschreef AI als een systeemtechnologie die alomtegenwoordig zal zijn in de maatschappij. Om dit proces goed te laten verlopen, voorzag de WRR een vijftal opgaven voor de overheid, die gaan over wat AI is, hoe we AI in de maatschappij kunnen laten werken, wie betrokken moet zijn, welke kaders nodig zijn en hoe we ons internationaal verhouden. De voornaamste boodschap die we uit het rapport opmaken is dat het kabinet stelling dient in te nemen ten aanzien van de inbedding van AI in de maatschappij. Als het kabinet hierin in gebreke blijft, raakt regie op het proces verloren en zal Nederland na verloop van tijd achter de feiten aan lopen. Dit wordt onder andere toegelicht in de bespreking van het Collingridge-dilemma (zie onze vorige blog). De eerste acties van het nieuwe kabinet doen vermoeden dat zij deze handschoen willen oppakken, maar zien we dit werkelijk gebeuren als we kritisch naar het coalitieakkoord kijken? 

Onvoldoende aandacht voor AI 

In het coalitieakkoord wordt met enkele bullets een aantal voorgenomen acties geformuleerd die de digitalisering van Nederland zouden moeten stroomlijnen: Nederland als digitaal knooppunt; een voorgenomen versterkte samenwerking met andere Europese lidstaten om op grote thema’s in te zetten; een algoritmetoezichthouder; een aanpak van digibetisme; en de versterking van cybersecurity. Een bredere visie omtrent digitalisering of maatregelen die inbedding van AI in de maatschappij zouden moeten verbeteren worden niet genoemd. Daarnaast heeft sinds de aankondiging van de portefeuilleverdeling het mandaat en de functie van de staatssecretaris ter discussie gestaan. Dat staatssecretaris Van Huffelen ook Koninkrijksrelaties in haar portefeuille heeft, geeft te denken dat het kabinet niet de zwaarte aan digitalisering als onderwerp geeft die de WRR het onderwerp wel toekent. Kennelijk heeft het kabinet AI als systeemtechnologie nog niet in het vizier. 

AI als doel of als middel? 

Daarnaast is het opvallend dat digitalisering als apart hoofdstuk in het coalitieakkoord is opgenomen. Hoewel het onderwerp digitalisering zeker apart aandacht behoeft, veronderstelt een apart hoofdstuk zonder verbinding met andere onderwerpen dat digitalisering op zichzelf staat en los van de andere onderwerpen gezien moet worden. Dit terwijl de mogelijkheden die digitale innovaties bieden cruciaal zijn om de andere beoogde doelstellingen te realiseren. Een heldere visie, of positie, hierover komt in het coalitieakkoord te weinig naar voren. Hierdoor lijkt het kabinet digitalisering als doel an sich te benaderen, terwijl de WRR in haar rapport juist pleit voor een integrale benadering van de inbedding van AI. Hierin zou de maatschappelijke opgave of de concrete toepassing als doel centraal moeten staan, en ‘het hoe en wat’ van de inbedding van AI daaruit moeten voortkomen. De koppeling tussen digitale innovaties als middel met maatschappelijke opgaven als doel moet duidelijk zijn, maar die wordt in dit coalitieakkoord, met digitalisering als apart hoofdstuk, vooralsnog dus onvoldoende gemaakt.  

Integrale regie op lopende AI-initiatieven 

Het kabinet Rutte IV hoeft niet bij nul te beginnen. Voorbeelden van initiatieven waarin een overheid wel een positie inneemt, zijn er genoeg. Zo is de Nederlandse AI-Coalitie een echte innovatiehub geworden waar overheden de mogelijkheid hebben om AI in te zetten op innovatieprojecten. Daarbij wordt ook expliciet aandacht besteed aan kennisdeling en aan het delen van best practices. Een ander voorbeeld is de IAMA (Impact Assessment Mensenrechten en Algoritmes) die de overheid in samenwerking met Universiteit Utrecht heeft ontwikkeld. Deze praktische tool is vooral bedoeld als ondersteuning bij het maken van de keuzes die bij algoritmegebruik gemaakt moeten worden. Ook hier neemt de overheid wel een positie in over wat verantwoorde algoritmes dan zijn. Als laatste voorbeeld is afgelopen oktober de interbestuurlijke datastrategie naar de Tweede Kamer gegaan, waarin het onder andere gaat om de toekomst van datadeling tussen overheden dat uiteindelijk moet leiden tot een federatief datastelsel. Dit is een goed voorbeeld van een strategisch uitgangspunt, dat de staatssecretaris als vertrekpunt kan nemen om integraal op alle aanpalende initiatieven te sturen.  

Er zijn dus genoeg initiatieven waar de overheid wel positie inneemt met betrekking tot de inbedding van AI in de maatschappij. Deze initiatieven zijn alleen versnipperd over verschillende overheidsorganisaties en worden dus ook door verschillende overheden bestuurd. Wat mist is een overkoepelende visie, waardoor het aan integrale regie ontbreekt. Deze visie, in relatie tot lopende initiatieven komt in het coalitieakkoord niet naar voren. Als de overheid deze lijn blijft volgen, zal de regie uiteindelijk niet meer mogelijk zijn. 

De staatssecretaris is aan zet 

In deze blog hebben wij een inschatting gemaakt van de kabinetsreactie op het WRR-rapport ‘Opgave AI’ op basis van het coalitieakkoord. De vraag of het kabinet de aanbevelingen van de WRR ter harte neemt, kan pas werkelijk beantwoord worden wanneer de kabinetsreactie gepubliceerd wordt en zal daarnaast blijken in het beleid van de komende vier jaar. Uit het coalitieakkoord maken we op dat het kabinet digitalisering wel op de agenda heeft staan, maar onvoldoende prominent en uitgewerkt. Daarbij voorzien we een risico in de benadering van digitalisering als apart onderwerp. Integrale regie is nodig om digitalisering en digitale innovaties zoals AI waardevol te laten zijn voor andere maatschappelijke opgaven. Doelen en middelen moeten van elkaar onderscheiden worden en een duidelijke koppeling moet zichtbaar zijn. 

Tot slot willen we aan staatssecretaris Van Huffelen de oproep doen om, conform de aanbevelingen van de WRR, expliciet positie in te nemen als het gaat om de positie van AI in de maatschappij en lopende initiatieven als uitgangspunt te nemen voor integrale regie. Op deze manier houdt Nederland regie over de inbedding van AI als systeemtechnologie en zal de toegevoegde waarde van AI voor andere maatschappelijke opgaven het grootst zijn. 

Mijn top 5 van machine learning visualisaties

Voor meer dan 99% van de bevolking zijn machine learning algoritmes een ‘black box’. Maar is dat wel echt zo? Ik denk dat visualisaties kunnen helpen om beter begrip te krijgen van de werking van algoritmes. In deze blog neem ik je mee in mijn top 5 van visualisaties die mij helpen om onder de motorkap van een algoritme te kijken, want iedereen kent de uitdrukking: ‘een beeld zegt meer dan duizend woorden’.

Om deze top 5 te illustreren, borduur ik verder op de casus die ik in mijn vorige blog heb beschreven, waarin een fictieve gemeente probeert te voorspellen welke burgers al dan niet in de schuldhulpverlening dreigen te komen.

Op nummer 5: Hoe goed voorspelt het algoritme wie in de schuldhulpverlening terecht dreigt te komen?

De eerste visualisatie is de zogenaamde Confusion Matrix waarin wie daadwerkelijk wel of niet in de schuldhulpverlening terecht komt (‘True label’) wordt afgezet tegen de voorspelling van wie in de schuldhulpverlening terecht komt (‘Predicted label’). Een 0 betekent geen schulhulpverlening en een 1 betekent wel schuldhulpverlening. Door deze eenvoudige tabel krijg je goed inzicht op de prestatie van het gebruikte algoritme (in dit geval een Random Forest en een uitleg over de werking hiervan lees je in mijn vorige blog).

Figuur 1: Confusion Matrix

Het algoritme voorspelt correct wanneer de enen en de nullen overeenkomen en dat geldt voor 8.436 burgers (7.017 + 1.419). Wat overblijft, zijn de valse negatieven (936 burgers) en valse positieven (397 burgers). Dit betekent dat het algoritme voor 936 burgers niet voorspelt dat zij in de schuldhulpverlening komen, maar dat in de werkelijkheid wel zijn gekomen. En andersom: het algoritme voorspelt voor 397 burgers dat zij in de schuldhulpverlening komen, terwijl dat niet het geval is.

Op basis van de Confusion Matrix kunnen we gemakkelijk de accuraatheid van het algoritme uitrekenen, want dat zijn alle correcte voorspellingen gedeeld door het totaal aantal. We komen dan op een accuraatheid 86% (8.436 gedeeld door 9.769).

Op nummer 4: Hoe goed voorspelt mijn algoritme voor mijn hele dataset?

Het komt geregeld voor dat het algoritme beter voorspelt voor de ene fractie van de dataset dan voor de anderen. Om erachter te komen in hoeverre dit ook daadwerkelijk het geval is voor jouw dataset, kan je onderstaande visualisatie gebruiken.

Figuur 2: Crossvalidatie

De techniek in dit voorbeeld is dat de dataset willekeurig wordt opgedeeld in twaalf gelijke delen en voor elk ééntwaalfde fractie wordt uitgerekend hoe goed het algoritme voorspelt. In figuur 2 zie je hiervan het resultaat en het valt op dat het algoritme niet voor elke fractie evengoed voorspelt. Ook geeft de visualsatie de gemiddelde accuraatheid van deze zogenaamde crossvalidatie weer en die komt overeen met de accuraatheidsscore uit de Confusion Matrix.

Als er per fractie enorme verschillen zijn, is het goed om te kijken naar de datakwaliteit, de hoeveelheid data en het aantal variabelen dat je tot je beschikking hebt.

Op nummer 3: Hoe hangen de onderliggende variabelen in het algoritme met elkaar samen?

Eén van de zaken die bepalend is hoe goed je algoritme is, is de onderlinge samenhang van alle variabelen. Dat is de zogenaamde correlatiematrix en in figuur 3 zie je hiervan een voorbeeld:

Figuur 3: Correlatiematrix

Het is belangrijk om erop te letten welke voorspellers sterk met elkaar samen. Als ze te sterk met elkaar samenhangen – zeg een correlatie boven de 0.6 – is het het overwegen waard om één van beiden te kiezen. In dit voorbeeld kunnen alle variabelen op basis van de correlatiescores geselecteerd worden in het uiteindelijke algoritme, omdat deze scores vrij laag liggen (tussen de -.23 en .23).

Op nummer 2: Hoe kan ik mijn algoritme optimaliseren, zodat hij beter presteert?

Veel algoritmes hebben verschillende knoppen waaraan gedraaid kan worden. In ons voorbeeld gaat het knopje ‘max depth’ over hoe complex het Random Forest algoritme uiteindelijk moet worden.

Onderstaande visualisatie is een hulpmiddel om het algoritme te optimaliseren door in dit geval de waarde van de ‘max depth’ te variëren.

Figuur 4: Validatiecurve

De blauwe lijn gaat over het effect van dit knopje op de data die het algoritme tot haar beschikking heeft en je ziet hoe complexer het Random Forest hoe beter hij wordt.

De groene lijn laat zien hoe goed het getrainde algoritme zich laat generaliseren naar data die het nog niet gezien heeft. Het optimum ligt vaak vlak voordat de crossvalidatiescore afvlakt. In andere woorden, door meer detail en complexiteit toe te voegen aan het algoritme wordt het moeilijker om te voorspellen voor ongeziene observaties vanaf diepte 15. In dit voorbeeld lijkt het optimum dus te liggen op een maximale diepte van 15. Door het algoritme hierop in te stellen, is de verwachting dat het algoritme beter presteert om te voorspellen of burgers in de schuldhulpverlening gaan komen.

Op nummer 1: Wat is het belangrijkst voor de uitkomst van mijn algoritme?

Een relevante vraag is natuurlijk: aan welke variabelen hecht het algoritme meer of minder waarde? De volgende visualisatie geeft antwoord op deze vraag. In dit algoritme worden 108 variabelen meegewogen. Hieronder worden de 8 belangrijkste weergegeven.

Figuur 5: Belangrijkheid van voorspellers

Dit geeft een idee wat het algoritme meer of minder belangrijk vindt. In dit voorbeeld heeft het inkomen van burgers de meeste impact op de uitkomst. Deze visualisatie is weer een puzzelstukje om de werking van het algoritme verder te ontrafelen.

In dit artikel heb ik mijn top 5 van visualisaties op een rij gezet die mijn inziens onmisbaar zijn om te kunnen vertrouwen op je machine learning algoritme. Deze vijf visualisaties gebruik ik zelf áltijd. Er zijn nog veel meer interessante visualisaties die het inzicht kunnen vergroten. Meer weten over hoe je door middel van visualisaties meer begrip van je algoritmes kunt krijgen? Neem contact met me op via stefan.deblij@vka.nl. Samen kunnen we kijken hoe we met goede visualisaties de kwaliteit van machine learning algoritme(s) kunnen verbeteren.

 

Bronnen

5 Tips voor ambtenaren die durven toegeven dat ze niets van data weten – maar dat wel willen leren

Datagedreven werken staat bij veel overheidsorganisaties hoog op de wensenlijst. De potentie van data om waarde toe te voegen aan dienstverlening en in processen wordt breed onderkend en de spreekwoordelijke handen jeuken om hiermee aan de slag te gaan. Maar eerlijk is eerlijk, de meeste ambtenaren hebben geen verstand van data en wat ervoor nodig is om data voor de organisatie te laten werken. En dat terwijl een zekere basis wat betreft datavaardigheid essentieel is om deze stap als organisatie te willen nemen. Wil je met data aan de slag, maar weet je niet hoe? Ik geef je vijf tips om de eerste stappen in de ontwikkeling van je datavaardigheid te nemen.

Tip 1. Met de billen bloot
Om iets nieuws te kunnen leren zul je in ieder geval eerst aan jezelf moeten toegeven dat je datavaardigheid te wensen overlaat. Maak een inschatting op welke gebieden je in je werk te maken hebt met data of hoe datagebruik je werk kan verbeteren. Zet vervolgens op een rij welke kennis en vaardigheden je mist, hoe basic of complex ze ook zijn. Maak dan een selectie van welke punten je aan wilt pakken en onderscheidt de ‘Eisen’ van de ‘Wensen’.

Tip 2. Zoek een buddy
In de hectiek van je dagdagelijks werk zal je quest tegen ‘databetisme’ mogelijk snel naar de achtergrond verdwijnen als alleen jijzelf er vanaf weet. Zoek daarom een buddy, bijvoorbeeld een collega die zijn of haar datavaardigheden ook wil bijspijkeren, voor die stok achter de deur en extra motivatie. Maak afspraken met elkaar over jullie vorderingen en neem regelmatig de tijd deze samen door te nemen.

Tip 3. Gebruik een al uitgevonden wiel
Je bent niet de eerste die over data wil leren. Neem daarom zoveel mogelijk de gebaande paden en gebruik wat al voor handen is. Het aanbod om te leren over data en digitale middelen is enorm. Gratis tutorials en cursussen zijn online te vinden (kijk vooral ook op Youtube). Daarbij wordt zowel binnen als buiten overheidsland een breed scala aan cursussen en opleidingen aangeboden op verschillende gebieden. Pak je eisen- en wensenlijst erbij en zoek uit wat voor jou relevant is.

Tip 4. Stoppen met verbloemen
Ontneem jezelf niet de potentiële leermomenten die zich tijdens je werk voordoen. Als je met data te maken hebt, op welke manier dan ook, zul je onderdelen soms niet begrijpen. Een valkuil is dit te verbloemen of het van je af te schuiven. Doe dit niet, want je struikelpunten zijn juist je leermomenten. Als jij eigenaarschap toont door uit te zoeken of na te vragen hoe iets werkt, ben je zelf in de regie over je leerproces. Je zult merken dat het dan veel sneller gaat!

Tip 5. Kom van je eiland af
Data worden in toenemende mate ingezet voor inzicht in processen en voor zowel de vorming als de uitvoering van beleid. De meerwaarde van jouw vergrote datavaardigheid kan zich op verschillende gebieden voordoen, maar zal ongetwijfeld raken aan een verbeterde vertaalslag tussen wat jij doet in woorden en wat collega’s doen in code. Onderzoek daarom waar andere collega’s bij gebaat zijn of wat hen juist moeilijkheden oplevert. Zo kun jij vaststellen wat jij kunt doen om de aansluiting te verbeteren.

Benieuwd hoe het is gesteld met de datavaardigheid in jouw organisatie? Of wil je gewoon even sparren? Bel me gerust.

Artikel VNG Realisatie: Datagedreven sturing in de praktijk: grote ambities, klein beginnen

In deze bijdrage neemt Bas Bloemberg je aan de hand van een casus mee in de ervaringen met datagedreven werken in de gemeente Arnhem.
 
In een wereld met een toenemende hoeveelheid aan data, nieuwe analysetechnieken, groeiende proceskracht, digitalisering, goedkopere dataopslag en grote maatschappelijke uitdagingen (u kent het rijtje wel), is het niet vreemd dat de aandacht voor big data vaak grote belangstelling geniet. Algoritmen worden geacht in staat te zijn om patronen te herkennen in grote hoeveelheden en complexe data. 
 
In deze bijdrage voor de VNG zal ik proberen om mijn ervaringen op het gebied van datagedreven sturing zowel vanuit de business als de techniek te beschrijven en uiteen te zetten. Ik zal in dit stuk eerst toelichten wat we in mijn optiek wel en niet kunnen met AI, om vervolgens in te gaan op een praktijkvoorbeeld uit Arnhem.
Lees het vet volledige artikel: Datagedreven sturing in de praktijk

Een dataproject is geen Alpinisme

Als de Toeslagenaffaire, de SyRI-zaak en de zorgen om de corona app ons iets duidelijk hebben gemaakt, dan is het wel dat slimme dingen doen met data niet altijd verstandig is. Aandacht voor de wereld om je heen blijkt minstens even belangrijk als aandacht voor je algoritme. Schiet je hierin te kort, dan kun je op grote maatschappelijke weerstand stuiten. Ook al werkt de techniek nog zo goed, je moet altijd kunnen uitleggen hoe je ervoor gaat zorgen dat je toepassing niet tot onwenselijke uitkomsten gaat leiden. Kortom: wat je maakt moet niet alleen gaan vliegen, maar ook landen. Maar hoe pak je dat aan?

Smart from the start

Eigenlijk is er maar één manier om het goed te doen: kijk vanaf het begin van je dataproject nadrukkelijk niet alleen naar voren, maar ook zijwaarts en soms zelfs achteruit. Een strakke deadline is belangrijk, maar vergeet niet dat jouw mooie app straks echte mensen gaat raken. Wat is hun perspectief? Wat is voor hén belangrijk? Met welke gevolgen krijgen zij te maken en welke foutmarges in het algoritme zijn hierbij acceptabel? Vragen die bepalend zijn voor aantal fundamentele keuzes, die vaak al vroeg in het project gemaakt worden. Maar die in een later stadium van groot belang zijn voor de acceptatie. Denk hierbij aan het al dan niet gebruiken van bepaalde data, het type algoritme dat je gaat gebruiken of het bepalen van de groepen die je laat meepraten over de werking van het systeem.

Heb ook oog voor verschillende soorten risico’s. Technische, juridische, maar ook ethische risico’s gaan hierbij hand in hand. Vooroordelen (“bias”) in de data of in je algoritme leiden tot discriminatie. Een overload aan data kan privacyschendingen tot gevolg hebben. En een gebrek aan transparantie kan zelfs tot grote maatschappelijke onrust leiden. Een louter technische, juridische of ethische discussie bestaat eigenlijk niet. Het is daarom belangrijk om het gesprek over dit soort risico’s niet alleen vanaf het begin te voeren, maar ook met alle disciplines samen. Data, privacy en ethiek zijn hierbij drie naast elkaar staande pijlers, die samen het project moeten kunnen dragen. Een drie-eenheid dus, waarbij de onderlinge samenhang net zo belangrijk is als de afzonderlijke delen.

Stijl omhoog of geleidelijk?

In de prakrijk zien we twee manieren waarop organisaties risico’s in dataprojecten benaderen. De eerste noemen we de “alpinisme-aanpak”, waarbij risicomanagement een aparte plaats binnen het project heeft. De tweede noemen we “de geleidelijke weg omhoog”, met een meer geïntegreerde aanpak. Beide lichten we hieronder toe.

Scenario 1: alpinisme

Deze aanpak sluit aan bij de klassieke manier om risico’s beheersen. Gedurende het ontwikkeltraject houd je per onderwerp één of meerdere risicosessies. Dus een DPIA om de privacy- en securityrisico’s te benoemen, een algoritme assessment voor de meer technische vragen en een data ethiek workshop (bijvoorbeeld een DEDA-sessie) om morele vraagstukken boven tafel te krijgen. In elk assessment verzamel je risico’s, benoem je beheersmaatregelen en actiehouders.

Stem je dit niet op elkaar af, dan zit je op drie momenten, in drie verschillende samenstellingen over toegangsbeveiliging en transparantie te praten. Bovendien praat je drie keer over een onderwerp dat op dat moment nieuw is, waardoor je in één keer tegen alle eisen tegelijk aanloopt. Een muur waarbij je als alpinist misschien je vingers zou aflikken, maar waarvan je als projectteam vooral de uitzichtloosheid aan de voet meekrijgt. Gevolg is dat elk assessment als hindernis gezien wordt, waar je dus het liefst zo snel mogelijk omheen wilt om daarna weer gewoon “aan het werk” te kunnen. En waardoor het echte doel, namelijk het leggen van een solide fundament onder je dataproject, geen schijn van kans heeft.

Gevisualiseerd ziet dit er als volgt uit:

In dit scenario is het project volledig gefocust op wat het moet opleveren. Er is pas aandacht voor risico’s als het echt niet anders kan. Daardoor loop het projectteam bij elk assessment opnieuw tegen een muur van issues aan.  Het best mogelijke resultaat in dit scenario is dat je elke keer de discipline en de energie weet op te brengen om het gat weer dicht te lopen. Met een grote kans dat dingen achteraf gezien toch anders moeten. Of hádden gemoeten.

Scenario 2: de geleidelijke weg omhoog

Hoe kan het beter? Zoals reeds gesteld: door vanaf het begin niet alleen recht naar voren te kijken, maar ook zijwaarts en soms achteruit. Dit is hieronder gevisualiseerd in Scenario 2: de geleidelijke weg omhoog. De route is vanaf het begin stijgend, maar uiteindelijk veel minder intensief dan de alpinistenroute.  Door de risico’s in samenhang te benaderen en keuzes te maken op momenten dat ze zich voordoen, kom je stap voor stap op een steeds hoger niveau. Het projectteam groeit zo in zijn rol en op het moment dat je een assessment houdt, zijn niet alleen de vragen bekend, maar ook de antwoorden.

Zeker, ook als alpinist kun je uiteindelijk boven komen. De manier waarop is echter een wereld van verschil. Wat ook geldt voor het niveau waarop je uitkomt. En je het volgende project weer ingaat.

Wat te doen?

Wil je meer weten over de integratie van data, privacy en ethiek in je dataproject? Of heb je een concrete casus en wil je weten hoe je het in jouw geval zou kunnen aanpakken? Neem dan vrijblijvend contact met ons op. We lopen graag met je mee omhoog!

Daarnaast bieden we een Online Workshop Data, Privacy & Ethiek aan, waar je meer inzicht krijgt in deze thema’s. Meer informatie en direct inschrijven kan hier.

Artikel in AG Connect: Een effectieve dataorganisatie is maatwerk

Data bieden enorme kansen voor organisaties. Er wordt dan ook veel geïnvesteerd in datagedreven werken en digitale innovaties. Deze trajecten kunnen echter alleen succesvol zijn wanneer data ook als asset worden gezien én bestuurd. De dataorganisatie staat daarbij centraal. Maar er is geen one size fits all, zien Christian Verhagen en Edward Blom 

Ze schreven een artikel dat is gepubliceerd in de november editie van AG Connect, klik hier om het artikel te lezen.

 

Heliview Talk: Interview met Frank van Vonderen over algoritmes

 

Voor Heliview Talks gaf collega Frank van Vonderen een interview over de kansen en risico’s bij het gebruik van algoritmes. Dit mede naar aanleiding van de lancering van het VKA boekje “Algoritmes, als je het kan spellen kan je het ook begrijpen”.

Ben je benieuwd naar het boek? Je kunt het E-book op deze pagina downloaden.

Algoritme transparantie redt levens

Wie gebruikt ze niet: Alexa, Google Assistant of Siri? Slimme spraakherkenningsapps met intelligente software die leren van jouw vragen en daardoor met steeds betere antwoorden komen. Helaas zijn de antwoorden nu soms onhandig, onwetend of zelfs fout. Voor een eenvoudige vraag om de radio aan te doen én reclameblokken eruit te halen komt ze niet uit, zelfs na veel herhalingsvragen. Waarom, hoe en wat? Werkelijk geen idee want het is niet transparant gemaakt. Dit is voor grappige toepassingen niet erg maar voor serieuze toepassingen kan een fout levens kosten of maatschappelijke onvrede betekenen.

Een bekend voorbeeld is de Amazon ‘AI applicatie voor recruitment’ die voor de werving van personeel niet gender neutraal beoordeelde. Het algoritme bleek voorkeuren te hebben voor mannelijke experts.

Een ander schokkend voorbeeld is die van de autonoom rijdende auto van Uber. Uber had een met algoritmen uitgeruste autonoom rijdende auto ontwikkeld die niet tijdig ingreep bij het oversteken van een voetgangster met de dood als gevolg. Een belangrijke oorzaak van het ongeluk was een algoritme dat door late en vage input uit sensoren besloot door te rijden omdat remmen geen zin meer had terwijl uitwijken ten koste van de auto ook geen optie was.  Algoritmen zijn per definitie, net zoals mensenwerk niet altijd objectief. Een algoritmetoets en een laboratoriumproef voordat de Uber-auto de weg op ging, had het ergste kunnen voorkomen.

Sinds de komst van kunstmatige intelligentie (AI) neemt de complexiteit toe en is de betrouwbaarheid een steeds grotere uitdaging. De intelligentie wordt gecreëerd door gebruik te maken van algoritmen. Deze algoritmen worden geschreven door softwarespecialisten. Het schrijven is mensenwerk, waarbij het algoritme lastig transparant en objectief te maken is zoals in het voorbeeld van Uber autonoom rijden en de gender neutrale werving bij Amazon.

Daarom is het noodzakelijk het algoritme onafhankelijk te laten toetsen. Toetsing maakt de kwaliteit van het algoritme transparant en maakt het uitlegbaar richting gebruikers en toezichthouders. Een algoritme toets volgens VKA is een review in hoeverre je algoritme voldoet aan generieke principes zoals: bewust gebruik, gebaseerd op kennis van, privacy by design, lerend, gecontroleerde toepassing, transparant, en maatschappelijk uitlegbaarheid.

Hierbij de top drie tips om de bestuurbaarheid, transparantie, voorspelbaarheid en draagvlak te vergroten van AI en het algoritme.

Tip 1. Toets algoritmen onafhankelijk.

Als Uber in 2018 een onafhankelijke algoritmetoets en laboratoriumproef had gedaan alvorens de straat op te gaan had het een leven gered. Overigens zal je algoritmen moeten blijven toetsen en testen, ook na implementatie. In het geval van Amazon had men de “bias” kunnen voorkomen door gebruik te maken van een onafhankelijke algoritme toets.  Een dergelijke toets kijkt niet alleen naar generieke principes zoals hierboven beschreven, maar ook naar de mate van datakwaliteit, ethiek en subjectiviteit in werkwijzen.

Tip 2. Controleer je datakwaliteit.

Het is belangrijk te weten wat de kwaliteit is van je data, zeker als je “data lakes” combineert. Zijn er privacygegevens of gender data die je wilt schrappen voordat je de data gebruikt? Zijn de gegevens goed genoeg voor gebruik of zijn niet betrouwbare datablokken te herkennen? Maak de data klaar voor gebruik. Controleer in hoeverre historische data nog representatief zijn voor de gewenste of toekomstige uitkomsten. Opschoning of het verwijderen van gegevens voorkomt subjectiviteit of “bias”.

Tip 3. Maak het algoritme transparant zodat het maatschappelijk uitlegbaar is.

Wat het doel ook is, hoe de softwarespecialist ook te werk is gegaan, hoe goed het ook lijkt te zijn geregeld rondom privacy, hoe complex het ook is, stel de vraag: “zijn voordelen én nadelen uitlegbaar voor alle stakeholders?”. Vraag om transparantie over (opgeschoonde) data, de werking van het algoritme en de werkprocessen. Hebben de getoetste uitkomsten een mogelijke impact op het maatschappelijk draagvlak? Ken de “bias” van het algoritme en communiceer altijd de mogelijke maatschappelijke – voordelen én -nadelen. Zo is het maatschappelijk uitlegbaar.

Een krachtig mogelijk “live saving” voorbeeld van het gebruik van algoritmes is van begin dit jaar. Het Deepmind Google algoritme herkent borstkanker beter dan de menselijke dokter. Helaas waren er ook klachten over transparantie van (privacy) data afspraken. Met een onafhankelijke algoritme toets had Google wellicht dit gedoe kunnen voorkomen. Een algoritme toets op met transparantie in het “hey google” algoritme had mijn onwetendheid kunnen oplossen of mijn begrip kunnen verbeteren.

Mijn tip aan Google: ‘Algoritm transparency saves lives and may solve my ignorence‘.

Dilemma: ik heb geen overzicht meer over mijn acties!

Heb jij jezelf ook verrast? Hoe heeft je werkgever thuiswerken ervaren in de intelligente lockdown periode? Interessant om bij stil te staan want hybride werken is (voorlopig) de norm. Af en toe en dag naar kantoor, maar vooral vanuit huis werken. In deze blog tips voor hybride werken. Leuker kunnen we het niet maken, wel makkelijker. Hoe? Door slim gebruik van beschikbare tools. In deze rubriek reageert Le of Lo op een dilemma van een gedwongen hybridewerker.

Beste LeLo, 

Ook in onze organisatie hebben we verschillende digitale hulpmiddelen in gebruik genomen en ik merk dat veel hulpmiddelen op hun eigen manier acties bijhouden. Zo staan er acties in mijn digitale aantekeningen (OneNote), staan er acties en e-mails die ik een vlag geef in mijn mailprogramma (Outlook), staan acties op de Planner borden van Teams en op andere (digitale) plekken. Het lijkt efficiënt maar ik raak in verwarring! Ik weet niet meer waar ik wat heb opgeschreven én ik heb geen overzicht meer in welke taken bij mij liggen. Het resultaat is dat ik soms taken vergeet te doen en dat krijg ik ook van m’n collega’s te horen. Hebben jullie tips hoe ik hiermee om kan gaan?

Met vriendelijke groet,

De thuiswerker


Beste thuiswerker,

Wees gerust, je bent niet de enige die worstelt met deze problemen rondom de takenlijsten. We ervaren net als jij dat het enerzijds lastig is om in verschillende programma’s de taken apart bij te houden, anderzijds moet je zelf ook de discipline opbrengen om je takenlijst bij te houden en regelmatig te updaten.

Om je dag écht focus te geven adviseren we je te werken met ‘The Rule of 3’. Deze beschrijft Chris Bailey in zijn boek Hyperfocus. The Rule of 3 zegt dat je bij de start van elke dag drie intenties moet kiezen die je die dag realiseert. Hiermee ben je in staat om te prioriteren tussen de belangrijke en niet belangrijke onderwerpen die gedurende de dag voorbijkomen. Ook al zit je dag vol met meetings, je kan altijd een of meerdere intenties rondom deze meetings kiezen. Vergeet bij het vaststellen van de Rule of 3 repeterende taken niet. Ze zijn belangrijk om te prioriteren en zeker fijn af te vinken. Overigens bieden nieuwe tools de mogelijkheid om terugkerende taken aan te maken.

Om de intenties die je in de rule of 3 hebt opgeschreven te realiseren moet je vaak verschillende taken uitvoeren. Voor het efficiënt bijhouden van je taken hebben we drie tips.

Tip 1: kies een centrale takenlijst
Kies één methodiek en applicatie voor het vastleggen van je acties. Het klinkt zo eenvoudig om één centrale takenlijst te gebruiken, maar welke kies je dan? Outlook? Herinneringen op je iPhone? OneNote? Een persoonlijk Planner bord in Teams? Een aparte App uit één van de app stores? Allemaal goede suggesties. Maar kies in ieder geval een tool uit die je op verschillende platformen (Android, iOS, Windows etc.) kan synchroniseren om je taken altijd bij de hand te hebben. Zelf gebruiken we Microsoft To-Do. Microsoft integreert To-Do steeds meer binnen het Office365 platform, waardoor je nu To-Do kan koppelen aan de Planner borden van Teams en is To-Do volledig geïntegreerd in Outlook.

Tip 2: gun jezelf tijd na een meeting om je taken bij te werken
Helaas is nog niet alle door jouw gebruikte software te koppelen aan één centrale tool die je taken bijhoudt. Als je bijvoorbeeld notities tijdens een overleg digitaal bijhoudt komen die vaak niet in jouw takenlijst terecht. Als dit inderdaad het geval is neem dan na afloop van elke meeting even de tijd voor jezelf om je aantekeningen na te lopen en de taken uit je aantekeningen over te nemen in de door jouw gebruikte takenlijst. 

Tip 3: vinken taken af
Om je takenlijst bij te houden moet je ook taken afvinken als je de actie hebt uitgevoerd. Zo behoud je niet alleen het overzicht, het geeft je ook (on)bewust een voldaan gevoel. Zeker als je na een dag terugkijkt op de afgeronde taken heb je sneller het gevoel dat je een productieve dag hebt gehad.

Wij hopen dat je hiermee verder kan en de controle over je acties terugkrijgt.

Heeft u ook een dilemma of thuiswerktips? Stuur ze naar LeLo: Lotte Meidertsma

Lees hier ook de eerste, tweede en de derde blog uit de blogreeks.

Data en privacy professionals: verenigt u!

Niet zelden zie ik in organisaties gevechten tussen data scientists en privacy professionals. En dan gaat de strijd niet over traditionele oorzaken zoals land, religie of eer, maar over dataminimalisatie (hoeveel data heb je nodig), opslag (hoe lang sla je data op) en grondslag (mag dit eigenlijk wel). Met felle discussies, rookgordijnen en achterhoedediscussies gaat men elkaar te lijf. Maar bij gevechten zijn eigenlijk nooit winnaars. Ook niet bij dit gevecht.

Het is ook niet raar dat deze gevechten plaatsvinden: het zijn allebei immers nieuwe vakgebieden, waarbij (net als op het schoolplein) een territorium moet worden afgebakend. En dat territorium van data lijkt op het eerste oog wel eens ten koste te gaan van het privacy territorium.

Lijkt. Want nu beide vakgebieden wat volwassener worden, valt dat bij nader inzien best mee. Want eigenlijk hebben beide beroepsgroepen dezelfde kernwaarden. Beide zijn op drie manieren sterk afhankelijk van de kwaliteit van gegevens: de juistheid, de actualiteit en de volledigheid. OK, de privacy pro kijkt vooral naar persoonsgegevens en de data pro naar alle gegevens, maar de kernwaarden zijn hetzelfde.

Bij opdrachtgevers doen we steeds meer opdrachten die data én privacy raken. En langzaam zie ik dat de privacy en data teams elkaar ook steeds beter beginnen te vinden, te begrijpen en te waarderen.

Natuurlijk, vanuit data perspectief is er soms de behoefte om te experimenteren, waardoor je wel eens de grenzen opzoekt van de privacywetgeving. En vanuit privacy perspectief is het nodig om een goede wettelijke basis te hebben en transparant te zijn. Iets waar je als data scientist niet direct bij stil staat als je verbanden zoekt.

Maar het zijn de juistheid, de actualiteit en de volledigheid van de gegevens die de vakgebieden verbinden. De discussies gaan dus in ieder geval over de goede gegevens!

Dilemma: Hoe kom ik van 40 uur videobellen af?

Heb jij jezelf ook verrast? Hoe heeft je werkgever hybride werken ervaren in de intelligente lockdown periode? Interessant om bij stil te staan want hybride werken is (voorlopig) de norm. Af en toe en dag naar kantoor, maar vooral vanuit huis werken. In deze blog tips voor hybride werken van Leontien en Lotte (LeLo). Leuker kunnen we het niet maken, wel makkelijker. Hoe? Door slim gebruik van beschikbare tools. In deze rubriek reageert Le of Lo op een dilemma van een gedwongen hybridewerker. 

Beste LeLo, 

Omdat ik mijn team en andere betrokkenen bij mijn project niet meer op de werkvloer tegenkom, staat mijn werkagenda nog voller dan normaal met vergaderingen en gesprekken. Voordat ik er erg in heb staan volgende week mijn werkdagen weer helemaal vol met (video)vergaderingen. Hoe kan ik dit doorbreken? Ik heb voor behoefte aan meer afwisseling op mijn werkdag.

Groetjes, 

Een projectleider die moe is van al het videobellen 


Beste projectleider,

Dit is een herkenbaar probleem, waar we vaker vragen over krijgen. We kunnen je dan ook een aantal concrete tips geven om je werk gevarieerder te maken.

Veel succes en laat je nog even horen of ze je geholpen hebben?

Tip 1: werkvormen variëren: infographic van 5 type van (samen)werken. 

Weet je nog; de hype van flexibel werken, waarop alle kantoren zijn aangepast in grote open ruimtes met hippe interieurstyling? De basis hiervan waren de typen van samenwerken op kantoor, waar Marshall nog een variatie bij introduceerde, namelijk digitaal samenwerken. In onderstaande infographic vind je suggesties, ook voor projecten, om het type van werken online toe te passen. Bijvoorbeeld het maken van een dashboard voor een project (huddle), ad-hoc scherm delen in plaats van 1 op 1 overleg inplannen (hive). Wellicht geeft het je suggesties om uit te proberen? 

(klik op de afbeelding voor een grotere versie) De verschillende aspecten van digitaal samenwerken in beeld, door Sandra Stroeve van Picture it, via Frankwatching.

Concreet zou je als projectleider kunnen afspreken dat jullie wekelijks op hetzelfde moment de planning bijwerken, vanuit hetzelfde document/plek. Je hoeft dan niet te videobellen of achteraf besproken zaken bij te werken want je doet het ‘terplekke’ met elkaar.

Tip 2: plan ‘focus’ of deepwork tijden in overleg met je projectteam.

Bij projecten is het ook belangrijk dat collega’s geconcentreerd kunnen werken (deepwork). Als projectleider heb je de mogelijkheid om dit bespreekbaar te maken. Hebben meer collega’s die behoefte, dan zouden jullie bewust tijd kunnen blokken om gefocust te werken. Of dat gelijktijdig is hangt er natuurlijk van af of jullie als projectteam bereikbaar moeten blijven voor collega’s buiten het team. Als dit het geval is, is het juist handig om af te spreken om de ‘deepwork’ tijden af te wisselen. Lees ook deze blog van #le over extreem geconcentreerd werken voor teams.

Tip 3: hoe gaat het met de organisatie?

En hoe gaat het met je andere collega’s? Sluit je met je team niet op door uitsluitend contact te hebben met directe collega’s. Digitaal samenwerken aan je project heeft het gevaar in zich dat je alleen nog met elkaar en het project bezig bent. Heel logisch voor een korte periode, bijvoorbeeld vlak voor een livegang, maar structureel niet erg gezond. In Microsoft Teams kun je veel; chatten, videobellen, kennisdelen en andere tools eraan koppelen. Veel bedrijfscommunicatie en sociale communicatie van organisaties gaan echter (nog) via andere kanalen zoals social intranet Yammer. Betrokkenheid bij de organisatie en wat er nog meer speelt hou je door daar ook ‘bij’ te blijven. Kijk dus nog regelmatig op het social media kanaal en/of internet van je organisatie. Blok hier desnoods tijd voor in je werkagenda, dat is weer één videovergadering minder.

Heeft u ook een dilemma of thuiswerktips? Stuur ze naar Lotte Meindertsma.

Lees hier ook de eerste en tweede en vierde blogs uit de reeks.

 

Publicatie: De overheid als partner bij datadelen

Digicampus heeft in samenwerking met het programma ‘SBR Vernieuwing’ van Logius onderzoek uitgevoerd naar datadeling en de rollen die overheden daarin kunnen spelen. Het resultaat is de paper ‘De overheid als partner bij datadelen’, dat een overzicht biedt van de onderdelen van datadelen, de relevante documenten en visies van bestuurders en experts. Christian Verhagen is een van de auteurs van de publicatie waarin wordt besproken wat er nodig is om data delen te organiseren.

Download de publicatie

Digitale vaardigheden is geen vak apart

‘Hoe zorgen we dat digitale innovatie door de business wordt gedreven?’ Dit is een vraag die mij en mijn collega’s vaak wordt gesteld. Als we doorvragen waarom dit nu niet gebeurt, wordt het gebrek aan digitale vaardigheid als een van de belangrijkste oorzaken genoemd. Daarom pleit ik ervoor dit probleem bij de basis aan te pakken.

Op dit moment valt voor wat betreft het bijbrengen van digitale vaardigheden een gat waar beroepsopleidingen tot dusver onvoldoende aandacht aan besteden. Vanuit de centrale overheid wordt met de ‘Digitaliseringsagenda primair en voortgezet onderwijs’ wel gewerkt aan de digitale geletterdheid van de jeugd. Ook investeert de overheid in programma’s om bestaande werknemers digitaal vaardig(er) te maken (bijvoorbeeld digivaardigindezorg.nl) en werken kennisinstituten, branches en overheid samen om specifieke bijscholing te ontwikkelen. Beroepsopleidingen blijven echter achter, wat negatieve gevolgen heeft voor noodzakelijke innovatie.

Noodzakelijke innovatie blijft uit

In deze tijd waar digitalisering hoog op de strategische agenda staat, is de digitale vaardigheid van de medewerker een hot topic. Bestuurders realiseren zich dat digitale vaardigheden essentieel zijn om als organisatie waardevol te zijn en blijven. Gebrek aan digitale vaardigheden maakt het moeilijk voor medewerkers om kansen voor innovatie te herkennen, ze weten immers niet wat de mogelijkheden zijn. De oplossing om deze vaardigheden te ontwikkelen zijn vaak kostbare en tijdrovende trainingen voor de hele organisatie. Dit maakt dat de vaak schaarse middelen die je graag zou gebruiken om daadwerkelijk te innoveren nu worden besteed aan het überhaupt in staat zijn om te innoveren.

Gebrek aan digitale vaardigheden heeft nog een remmend effect: gebrek aan kennis leidt tot angst voor het nieuwe en daarmee tot weerstand om te innoveren. Neem bijvoorbeeld de zorg, waar het tekort aan zorgpersoneel alleen maar groeit. Uit gesprekken die wij hebben gevoerd met bestuurders en managers binnen de zorg blijkt een grote behoefte om te innoveren. De focus van de zorgmedewerkers ligt echter op kwalitatief goede cliëntenzorg. Digitalisering wordt juist als een bedreiging daarvan gezien; zorgmedewerkers zijn bang vervangen te worden of afstand te creëren tot de cliënt.

Het kunnen bedienen van de smartphone is niet genoeg

Helaas heerst de misvatting dat digitale vaardigheden bestaan uit het gebruik van laptops en smartphones en dat de huidige jeugd dit van jongs af aan kan. Het gebruik van een smartphone is echter niet hetzelfde als het goed kunnen inschatten van de impact van digitalisering op het vakgebied. Een impact die kan bestaan uit specifieke innovatieve oplossingen in de uitvoering van het werk zoals domotica en datagedreven werken, maar ook in het primaire proces van het werk.

Onderbelicht is namelijk vaak de impact van digitalisering op het beleidsdomein. Hoe kun je beleid maken voor bijvoorbeeld strafrecht als je onvoldoende kennis bezit van de vergevorderde digitalisering van criminaliteit en de middelen om dit aan te pakken? En hoe ga je om met ruimtelijke ontwikkeling, vaak met langdurige contracten, als snel ontwikkelende innovaties als zelfrijdende auto’s direct impact hebben op de wijze waarop de infrastructuur het beste kan worden ingericht?

Beroepsopleidingen: maak digitale vaardigheden integraal onderdeel van het curriculum!

Er is nog steeds een tekort aan digitale vaardigheden bij starters op de arbeidsmarkt. Als dit nu niet wordt opgelost blijven we achter de feiten aanlopen en kunnen we niet de ambities waarmaken die Nederland heeft gesteld ten aanzien van digitalisering.

Laten we dus nu aan de slag gaan met de vakspecifieke digitale vaardigheden binnen beroepsopleidingen, zodat we voor onze innovatie kunnen blijven bouwen op onze vakspecialisten in samenwerking met digitaliseringsspecialisten.

Meer weten?

VKA heeft jaren ervaring in het ICT. Schroom daarom niet om contact met ons op te nemen om te zien wat we voor jou kunnen betekenen.

Dilemma: afdelingsoverleg met videobellen is energielek

Heb jij jezelf ook verrast? Hoe heeft je werkgever thuiswerken ervaren in de intelligente lockdown periode? Interessant om bij stil te staan want thuiswerken is voorlopig de norm. Af en toe op kantoor werken, maar vooral thuiswerken dus. In deze blog thuiswerktips van Leontien en Lotte (LeLo). Leuker kunnen we het niet maken, wel makkelijker. Hoe? Door slim gebruik te maken van de beschikbare tools. In de rubriek LeLo staat elke blog een dilemma centraal van gedwongen thuiswerkers.

Beste LeLo, 

Ik ben een dokter, door de coronacrisis moet ik ook veel thuiswerken. Ons wekelijks afdelingsoverleg doen wij nu via Teams; videobellen dus. Behalve advies van collega’s, is ons afdelingsoverleg, zeker nu, ook om je hart te luchten. In anderhalf uur met tien collega’s vergaderen is niet te doen, vanaf 10 plekken te zien via het beeldscherm. Meer timide mensen komen nauwelijks aan het woord, terwijl anderen juist (constant) het voortouw nemen. Ik merk dat er geen ruimte is om mijn hart te luchten. Eerder het tegenovergestelde, ik erger mij kapot tijdens onze vergaderingen. Na zo’n vergadering ben ik al mijn energie kwijt. Hopelijk hebben jullie tips, want anders raak ik nog gefrustreerder.  

Een anonieme dokter 


Beste anonieme dokter, 

Zeker vervelend als je al je energie kwijtraakt door een afdelingsoverleg via Teams; videobellen. Het middel is erger dan de kwaal. Om een afdelingsoverleg digitaal effectief te maken, is het belangrijk om er energie van te krijgen. Voorwaarde ervan, is dat ieder die wil, zijn ‘ei ’kwijt kan. Met beeldbellen blijven non-verbale signalen onopgemerkt, de dynamiek is anders en gelden andere ‘regels’ voor een gestructureerd overleg. Zo te lezen houdt jouw afdeling hier geen rekening mee. Jullie overleggen met beeldbellen op dezelfde manier als regulier.

3 Vuistregels voor effectief videobellen

Wil je energie krijgen van je afdelingsoverleg, benut videobellen anders. Een aantal vuistregels als tips om van je afdelingsoverleg een energizer te maken in je werkweek. Laat je weten of het helpt? 

Tip 1: Halveer het aantal deelnemers aan overleg 

Met 10 personen afdelingsoverleg videobellen is veel, te veel. Wanneer je de tijdens het digitale overleg inhoud of meer persoonlijke onderwerpen wil gaan bespreken, hanteer dan de volgende vuistregel “reguliere aantal deelnemers/2”. Wanneer het belangrijk is dat iedereen aan het woord komt, splits de groep in tweeën. In jullie geval kom je dan uit op maximaal vijf collega’s. In Teams is het mogelijk om twee gelijktijdige beeldbelsessies te hebben. Na of voor het opsplitsen, heb je een ‘plenair’ gedeelte, dus met alle collega’s. Gebruik hiervoor tip 3.  

Tip 2: Ga uit van 1,5 keer de normale duur van je overleg  

In een uur je afdelingsoverleg vanuit 10 verschillende plekken houden is kort. Ga maar na, het schakelen van de ene naar de andere collega, dus van beeld wisselen; dat duurt langer dan in een vergaderruimte toch? En er gaat geen videobelsessie voorbij of iemand heeft verstoring; zoals slechter geluid of iemand die door het beeld loopt. Hanteer de volgende vuistregel voor je afdelingsoverleg “reguliere lengte * 1,5”. Dan heb je ook meer ruimte om tip 1 te realiseren.  

Tip 3: Benoem een (video)voorzitter en een (chat)voorzitter  

Non-verbale signalen kun je niet opmerken via videobellen; voor een blijvende goede verbinding is het raadzaam ieders videobeeld uit te zetten. Alleen degene die spreken zetten hun videobeeld aan. Ook zijn er soms technische zaken die direct opgelost moeten worden, maar als iedereen helpt lukt dat vaak juist niet. Uitkomst biedt de chatfunctie die beschikbaar is tijdens het videobellen. Handig om ook te gebruiken. Dat werkt verstorend zul je denken, want behalve video- ook een chatten is toch dubbel en leidt af. Toch helpt het, mits er 2 ‘voorzitters’ zijn in het afdelingsoverleg. Eén voorzitter die het videobellen voorzit en een voorzitter die de chatgesprekken voorzit. Want, niemand kan écht multitasken zegt wetenschappelijk onderzoek. Deze laatste persoon leest de chat goed mee, en zal soms het woord vragen naar aanleiding van een opmerking. Bijvoorbeeld een goede vraag of suggestie. Het is een goed alternatief voor non-verbale signalen en/of collega’s die minder snel het woord nemen.  

Heeft u ook een dilemma of thuiswerktips? Stuur deze naar LeLo: Lotte Meindertsma

Lees hier de tweede en de derde  en de vierde  blog uit de blogreeks.

 

Coronacrisis versnelt digitalisering van het onderwijs

Welke impact heeft de coronacrisis op een van de grootste universiteiten, de Universiteit van Amsterdam? Wij vroegen het Jan Lintsen, lid van het College van Bestuur van de Universiteit van Amsterdam.

Ik zie dat de verdere digitalisering nu in een stroomversnelling komt, mede als gevolg van corona. We waren als UvA volop bezig met de voorbereiding van meer blended leren, een combinatie van fysiek en digitaal onderwijs. Een belangrijk vraagstuk was hoe we iedereen mee konden krijgen in deze digitaliseringsslag. Corona heeft ons voor het blok gezet: uiteindelijk doen we het gewoon.

Gelukkig hadden we de organisatie al voorbereid op blended leren. Zo heeft elke faculteit een ‘Teaching en Learning Center’ (TLC) en ook op centraal niveau is er een TLC dat zorgt voor de verbinding. Een TLC houdt zich bezig met vernieuwing van het onderwijs en onderwijsmethodes, het omvat veel meer dan alleen digitalisering. Digitalisering is onderdeel van een bredere vernieuwing, waarbij we op zoek zijn naar een nieuw evenwicht tussen fysiek en digitaal.

Big data en Artificial Intelligence zullen onderzoeksdoorbraken forceren

Ik verwacht een enorme impact van digitalisering op het onderzoek. Alle onderzoeksdisciplines zetten nu grootschalig in op big data en AI. En niet alleen bij de ‘usual suspects’, zoals de Bètawetenschappen. Ook in de Geesteswetenschappen komen er grote doorbraken. Zij kunnen een grote stap zetten waarbij kwalitatieve onderzoeksmethoden kunnen worden aangevuld met meer kwantitatieve. We zullen onverwachte relaties en verbanden kunnen blootleggen. Ik zie daarbij kansen voor interdisciplinaire samenwerking, waarbij ervaringen met algoritmes in de ene discipline worden gedeeld met andere disciplines.

Digitaal onderwijs creëert ruimte voor hoogwaardig persoonlijk contact

Ik geloof dat de digitalisering van het onderwijs onverminderd doorzet. De grote vraag is: wat het nieuwe evenwicht wordt tussen digitaal en fysiek? In mijn ogen is de kern van de universiteit dat wij jonge, nieuwsgierige mensen samenbrengen met meer ervaren mensen om samen op zoek te gaan naar nieuwe spannende ontdekkingen en innovaties. Persoonlijke ontmoetingen zijn daarvoor essentieel. Ik verwacht een combinatie van grootschalig digitaal onderwijs gecombineerd met kleinschalige fysieke ontmoeting en samenwerking. In zekere zin creëert meer digitaal onderwijs ruimte om daarnaast meer kleinschalige ontmoetingen van hoge kwaliteit te hebben. En daarmee geeft digitalisering een impuls aan ons onderwijs.

Dit is een fragment uit het interview dat wij met Jan Lintsen hebben gehouden voor een boek waarin wij 35 bestuurders en CIO’s uit verschillende sectoren interviewen over hun toekomstvisie op IT en digitalisering. We verwachten het boek dit najaar te publiceren, check onze website voor actuele updates.

 

 

 

 

 

 

Data verrijkt de leerKRACHTaanpak in het MBO

De leerKRACHT aanpak bij mbo Verpleegkunde

De opleiding Verpleegkunde van het Albeda College (locatie Albrandswaardsedijk) is in het vorige schooljaar gestart met het werken volgens de leerKRACHT aanpak. Dit betekent dat de lerarenteams gebruik maken van ‘Verbeterborden’ waarop doelen en acties staan die het team gaan helpen bij het verbeteren van het onderwijs voor de studenten. Het werken met borden en korte bordsessies is een van de componenten van de leerKRACHTaanpak. Deze bestaat verder uit ‘gezamenlijk ontwerpen’ van onderwijs, ‘onderling lesbezoek’ en ruimte geven aan de ‘stem van de student’. Vanuit stichting leerKRACHT begeleid ik dit toegewijde onderwijsteam.

Data als extra input voor het teambord

Een van de nieuwe aspecten in de leerKRACHTaanpak is de aandacht die we besteden aan het gebruik maken van studentdata. Analyse van studentdata fungeert als aanvullende informatie t.b.v. het formuleren van doelen en acties op het bord. De teams verzamelen zelf data en vatten deze samen op een ‘datamuur’. Het gaat dan om data die een directe relatie heeft met studiesucces en die helpend is bij het ontwikkelen en uitvoeren van verbeteringen door het lerarenteam.

Van datamuur naar dashboard

Vanuit VKA richten we ons op datavraagstukken en Artificial Intelligence. O.a. voor gemeenten, uitvoeringsorganisaties en onderwijsinstellingen voeren wij dataprojecten uit. VKA is partner van LeerKRACHT en zodoende zijn we met Albeda Zorgcollege Poortugaal de pilot ‘data voor lerarenteams’ gestart. De ambitie is om de lerarenteams te ondersteunen met een data-dashboard dat hen helpt hun eigen verbeterdoelen te bereiken. Het dashboard moet het team inzicht geven t.b.v. de doelen en acties op het verbeterbord. Van datamuur naast het teambord naar een dashboard.

Pilot data voor lerarenteams

In overleg met de onderwijsleider en de leerKRACHTcoaches hebben we een aanpak gekozen die bestaat uit de volgende stappen.

Stap 1. Inventarisatie van de databronnen

In een tweetal werkbijeenkomsten zijn we de verschillende systemen die data verzamelen over studenten langsgelopen. Uiteindelijk zijn er meer dan 20 databronnen geïdentificeerd waarvan er 10 relevant lijken omdat ze data bevatten met een relatie tot studiesucces

Stap 2. Data extractie

Bij alle databronnen hebben we bekeken of extractie mogelijk was en in welke vorm. In het kader van deze beperkte pilot zijn er exports gemaakt uit het studentvolgsysteem (Eduarte) en uit een toetssysteem met kennistoetsen (Prove to Move). Deze data zijn samengebracht in een gecombineerd databestand dat als basis diende voor het dashboard. Uiteraard gepseudonimiseerd uit privacy oogpunt.

Stap 3. Hypothesen formuleren

Samen met een van de leraren zijn hypothesen geformuleerd die toetsbaar zijn m.b.v. de beschikbare data. Deze hypothesen kwamen ook aan de orde in de workshop met een van de lerarenteams.

De twee hypothesen zijn:

– Hogere aanwezigheid van studenten leidt tot hogere cijfers op de kennistoetsen.

– Studenten die meer tijd nemen tijdens het maken van de digitale toetsen halen hogere cijfers.

Stap 4. Data visualisatie in een prototype dashboard

Met behulp van Microsoft Power BI is in een eerste versie gemaakt van een dashboard t.b.v. onderzoek naar de twee hypothesen.

De belangrijkste schermen zijn de correlatiediagrammen met op de ene as de gemiddelde toetscijfers en op de andere as bijvoorbeeld de aanwezigheid.

Er blijkt hier een zwak verband tussen aanwezigheid en toetscijfers maar er is ook een groep die wel voldoende aanwezig is en toch laag scoort. Het lerarenteam kan verder onderzoeken wat hier aan de hand is en welk acties nodig zijn.

Stap 5. Data workshop met het lerarenteam

In een workshop met een van de lerarenteams hebben we:

  • Informatie gegeven over de achtergrond van de pilot en de gekozen aanpak.
  • De hypothesen met de leraren onderzocht aan de hand van hun eigen beelden bij de hypothesen en het dashboard.
  • Met de leraren gekeken naar de bruikbaarheid van een dergelijk dashboard zowel naar de inhoud (welke data zou je willen toevoegen) als de gebruiksvriendelijkheid (welke visualisaties helpen wel en niet)
  • Met de leraren gekeken naar een mogelijk vervolg op deze pilot.

De opbrengst

Het lerarenteam reageerde enthousiast op het dashboard en op de inzichten die het opleverde. Er kwamen uiteraard veel vervolgvragen bijvoorbeeld naar het koppelen van nog meer data aan dit dashboard. Ook wilden de mentoren graag weten hoe het voor hun mentorgroep zat. Terecht werd opgemerkt dat we als leraren heel zorgvuldig (en kundig) met studentdata moeten omgaan. Te rechtlijnige (wellicht stigmatiserende) conclusies zijn riskant.

Het doel lijkt bereikt: Een nog beter gesprek bij het leerKRACHT teambord op basis van data, hypotheses in een onderzoeksdashboard.

Voor meer informatie over deze pilot en de andere dataprojecten van VKA in het onderwijs neem gerust contact op met Nico Verbeij en Gijs de Groot.

Nico Verbeij is adviseur bij VKA op het terrein van leren en ontwikkelen, met speciale aandacht voor de rol van data en AI daarbij.

VKA is maatschappelijk partner van stichting leerKRACHT en vanuit dit partnerschap werkt Nico 2 dagen per week voor leerKRACHT. Hij begeleidt schoolteams op de weg naar een professionele verbetercultuur met behulp van de praktische leerKRACHT instrumenten.

 

 

Digitale Transformatie in het onderwijs

De maatschappij wordt steeds digitaler en afhankelijker van technologie. Het verandert de manier waarop wij leven, werken en leren. Hogescholen en universiteiten leiden mensen op voor leven en werken in een in toenemende mate onvoorspelbare, complexe, gedigitaliseerde en geglobaliseerde wereld. Een wereld waarin de arbeidsmarkt in hoog tempo verandert en waar de technologische ontwikkelingen elkaar in rap tempo opvolgen. Deze ontwikkelingen hebben impact op de manier waarop onderwijsinstellingen hun onderwijs kunnen inrichten en aanbieden. Het beeld dat technologie kan bijdragen aan het vergroten van de kwaliteit van het onderwijs en het slimmer en beter leren wordt gedeeld, maar de inspanningen die nodig zijn om deze digitale transformatie in de praktijk te brengen zijn soms lastig te overzien en/of ingrijpend voor de hele organisatie. Dit komt doordat er op veel fronten verandering nodig is om de potentie van de inzet van technologie maximaal te benutten. Dit vereist een goede visie en transformatiestrategie en –aanpak. Het doel is onderwijs van hoge kwaliteit te bieden, dat zo veel mogelijk op maat wordt aangeboden en dat studenten voorbereidt op een technologie-intensieve arbeidsmarkt.

Technologische ontwikkelingen bieden naast het vergroten van de kwaliteit van het onderwijs, ook kansen voor meer flexibiliteit, maatwerk en community-vorming in het onderwijs. Modularisering, microcredentialing, online afstandsonderwijs, mengvormen van face-to-face en online onderwijs (ook van andere dan de eigen instelling) komen steeds meer voor. Blended learning maakt met verschillende leervormen de leerervaring rijker, waarbij ICT wordt ingezet als hulpmiddel voor informatie- en kennisverwerving, de ontwikkeling van vaardigheden en het ondersteunen van het leren. Ook draagt ICT bij aan gemeenschapsvorming en samenwerkend leren door het ondersteunen van communicatie en samenwerking tussen studenten onderling, tussen studenten en docenten en met het werkveld (werkplekleren). Zeker beginnende studenten hebben belang bij binding en het deel kunnen uitmaken van een community. Dat draagt ook bij aan het vergroten van het studiesucces. Een hoogwaardige Digitale Leer- en Werk Omgeving (DLWO) ondersteunt actief studeren met digitaal onderwijsmateriaal, digitale opdrachten en digitale begeleiding en feedback.

De inzet van ICT in het primaire onderwijsproces en meer flexibiliteit in het onderwijsprogramma hebben ook invloed op de manier waarop het onderwijsproces georganiseerd wordt. Denk bijvoorbeeld aan logistieke processen, zoals aanmelding en inschrijving van studenten, inschrijving op tentamens, inzicht in de studievoortgang (voor zowel studenten als docenten), planning en roostering van onderwijs en toetsing. Om ervoor te zorgen dat een onderwijsinstelling onderwijsinnovatie kan ondersteunen is het noodzakelijk om ook de juiste ICT-ondersteuning te realiseren voor deze nieuwe/aangepaste logistieke processen.

Tot slot leidt een toename van de inzet van ICT in het primaire onderwijsproces en in de administratieve en logistieke processen tot een toename van beschikbare data over het leergedrag van studenten, studiesucces, leerrendement, etc. Met behulp van learning analytics kan betekenis worden gegeven aan deze data en kunnen op basis hiervan studenten beter worden voorgelicht en begeleid. Echter, privacyaspecten en ethische dilemma’s spelen hierbij een belangrijke rol. Wij onderkennen dat de inzet van learning analytics veelbelovend is, maar wel vraagt om een doordachte aanpak met aandacht voor de impact op organisatie, docenten en studenten en aandacht voor ethiek en niet-technische overwegingen en dilemma’s.

Onze aanpak

Hogescholen en universiteiten staan voor de uitdaging om bij digitale transformaties de verandering van hun organisatie, docenten, studenten en medewerkers succesvol en ‘in control’ uit te voeren. Het gaat bij dergelijke trajecten niet om een radicale verandering in één keer, maar om de organisatie en mensen stapsgewijs naar een hoger niveau te krijgen. De gerichte inzet van technologie moet een plek krijgen in het instellingsplan en het onderwijsmodel. Onderwijsprocessen en logistieke processen moeten worden aangepast en bovenal moeten docenten en ondersteunend personeel de overtuiging, competenties en vaardigheden hebben om ICT ook op een goede en natuurlijke wijze te kunnen gebruiken. Docenten moeten bijvoorbeeld worden ondersteund op gebieden als online didactiek, instructional design, video en social media. Het op een dergelijke manier integraal veranderen van de onderwijsinstelling en haar mensen om de potentie van de inzet van ICT maximaal te kunnen benutten noemen wij ‘digitale transformatie’. Onze integrale aanpak van digitale transformatie in het onderwijs is schematisch weergegeven in figuur 1.

Figuur 1: Digitale transformatie in het onderwijs

Klik hier om de afbeelding te vergroten. 

Gefaseerde en stapsgewijze aanpak

In onze aanpak nemen we het onderwijsmodel, organisatie-inrichting, processen, IT en mensen mee in de transformatie. We onderscheiden vijf fases in onze aanpak, welke ook als losse fases in te zetten zijn:

Figuur 2: Gefaseerde en stapsgewijze aanpak

Klik hier om de afbeelding te vergroten. 

VKA als katalysator van uw digitale transformatie-traject

We kunnen u op verschillende momenten in het transformatieproces en in verschillende rollen van dienst zijn. Zo kunnen we u ontzorgen door regievoering op de uitvoering van het hele traject, maar bieden wij ook ondersteuning bij losse fases van een digitale transformatie en bijbehorende activiteiten. Denk daarbij aan meedenken met de ontwikkeling van het onderwijsmodel, het opstellen of toetsen van een informatieplan/-beleid, onderzoek naar de volwassenheid van de ICT-besturing, uitvoeren van een benchmark, functionaris gegevensbescherming a.i. enzovoort.

We vervullen rollen als adviseur, kwartiermaker, programmamanager, adviseur, sparringpartner en/of coach voor medewerkers, management en directie. Onze adviseurs beschikken over jarenlange ervaring in het onderwijs en de juiste competenties om te schakelen tussen technische, politiek-bestuurlijke en organisatorische vraagstukken. Hierdoor zijn zij in staat om de impact van IT op de organisatieonderdelen en vice versa te bepalen en samenhang te organiseren.

Digitale transformatie-trajecten doen wij niet voor, maar samen met de mensen in uw organisatie. We brengen mensen op alle niveaus in beweging door hen eigenaar te maken van de verandering. Op deze manier levert VKA meerwaarde in de kwaliteit van de resultaten en zijn de medewerkers in staat om de beweging zelfstandig voort te zetten.

 

 

 

 

Waarom zijn we bang voor een Corona app?

een ethische analyse van het Chinese schrikbeeld

Aangezien deze dagen iedereen het nieuws volgt, is het niemand ontgaan; overal in de wereld overwegen overheden om gedetailleerd in kaart te brengen wie dicht in de buurt is geweest van een drager van het Corona virus. Zo ook de Nederlandse. Aangezien de contactonderzoeken van de GGD te arbeidsintensief en daardoor te langzaam zijn, is de blik gericht op de smartphone. Nog voordat de persconferentie van minister de Jonge klaar was waren de eerste reacties al binnen. Ook de Autoriteit Persoonsgegevens had zijn oordeel al snel gegeven: niet toegestaan zonder wettelijke basis.

Maar waarom zijn we eigenlijk bang voor zo’n app? Weten we eigenlijk wel welk doel de app precies heeft? En dat schrikbeeld uit China dan, hoe ziet die app eruit, welke gegevens worden verzameld en hoe vind het misbruik dan plaats?

Wij hebben de proef op de som genomen en hebben zo’n Chinese app (van de Suzhou regio) geanalyseerd vanuit een ethisch perspectief. Niet om een oordeel te geven of dit goed of fout is, maar om iets bij te dragen aan de discussie.

Allereerst is er in China niet één ‘Corona-app’ maar meerdere. Elke decentrale overheid heeft zijn eigen app. De app’s zijn veelal ontwikkeld door of Tencent of Alibaba (Alipay platform) en geïntegreerd in WeChat of Alipay. Twee bedrijven die een veelheid van diensten leveren, variërend van chat-apps, betaaldiensten tot e-commerce.

De functie van de app is om te bepalen of je wel of niet mag reizen of dat je verplicht in quarantaine moet. Op basis een vragenlijst met basale medische vragen én je reishistorie krijg je een groene, gele of rode ‘health score’ in de vorm van een QR-code. Groen is ok. Oranje krijg je als familieleden een rode health score hebben of als je zelf lichte klachten hebt. De consequentie is verplicht 7 dagen in quarantaine. Rood betekent verplichte medische observatie en 14 dagen quarantaine. Met oranje of rood mag je niet reizen.

Zie de afbeeldingen voor het soort vragen. Interessant is ook dat bij het ondertekenen je belooft alles naar waarheid ingevuld te hebben en dat je er mee akkoord gaat dat als de informatie niet correct of volledig is je juridisch aansprakelijk bent.

 

 Klik hier als de afbeelding niet goed te zien is. 

De QR-code mag ook als ID bewijs worden gebruikt bij controleposten op straat. Afhankelijk van je score mag je doorlopen en wordt je temperatuur gemeten. Doordat de apps in het ecosysteem van de genoemde partijen hangen is de gezondheidsinformatie gekoppeld aan de van jou bekende persoonlijke informatie. Overigens zijn het niet alleen overheden die zo controleren, ook winkels, werkgevers en verhuurders voeren controles uit. Op een site van de overheid binnen WeChat kan je een kaart vinden met alle locaties van recente besmettingen. Hoe precies de kleurcodering wordt bepaald is niet transparant. In de media zijn berichten verschenen van gebruikers waar de healthcode zonder aanleiding meerdere keren van kleur wisselde.

Als je de opzet en het functioneren van de app zo leest dan vinden wij Nederlanders hier wel iets van, en dat is meestal niet enthousiasme. Maar wat maakt dit dan tot een schrikbeeld voor ons?

Dat komt onder meer doordat wij andere keuzes maken in een aantal ethische dilemma’s. Voor een deel maken we die afweging niet op basis van feiten, maar op basis van subjectieve beweringen; aannames, onderbuikgevoel en emotie. Juist het niet weten van de precieze werking, in combinatie met achterdocht (gevoed door ervaringen uit het verleden) heeft een negatief effect.

Ter illustratie een viertal ethische dilemma’s:

Overheid of bedrijfsleven?

Voor de gemiddelde Nederlander voelt de intensieve rol van partijen als Tencent en Alibaba ongemakkelijk.  Terwijl iedereen een rol heeft in het voorkomen van verdere verspreiding zou je zeggen (de slogan is immers ‘Alleen samen krijgen we Corona onder controle’). En als zoveel mogelijk publieke en private partijen hieraan meedoen, is een fijnmaziger controle mogelijk. Het probleem is natuurlijk dat we private partijen snel associëren met de waarde winst maken. In Nederland zien we gezondheidszorg en rampenbestrijding toch vooral als een overheidstaak.

Huidig nut versus toekomstig misbruik

Worden de verzamelde gegevens alleen gebruikt om de verdere verspreiding van Corona te voorkomen, of wordt de informatie in de toekomst ook voor een ander doel gebruikt? Feiten ontbreken hier, het zijn zorgen vanuit de redenatie ‘de data hebben is de data houden’. In de toekomst dient zich vast een situatie aan waarin het redelijk lijkt om die data weer in te zetten. Bijvoorbeeld om een beter wetenschappelijk inzicht te krijgen in de ziekte en hoe deze zich verspreid. Maar het zou ook gebruikt kunnen worden om de ziektekostenpremie te differentiëren, of om je strafrechtelijk te vervolgen. (nu al is dreigen met corona goed voor weken gevangenisstraf). Relevant is hier vooral de context waarin de data in de toekomst gebruikt worden.

Snel handelen versus doordacht ontwerp

De snelheid waarmee het virus zich verspreidt vergt snel handelen. Het stoplicht mechanisme is nogal grof en een oranje of rode kleur heeft vergaande sociale en persoonlijke consequenties. Klopt het wel allemaal? En hoe werkt dat algoritme nu precies? Goede vragen, maar nu geen tijd voor. Nederland kiest normaliter voor tijdrovende polderdiscussies waar met ieders belang rekening wordt gehouden om zo consensus en draagvlak te bereiken. Maar eigenlijk zijn we ook wel blij dat de normaal toch veel bediscussieerde en bekritiseerde overheid nu de leiding neemt en vertelt wat we moeten doen. Het doortastende optreden waarmee de overheid ongekende economische maatregelen heeft genomen heeft veel lof opgeleverd. Waar we voorheen jaren parlementair discussiëren over punten en komma’s, zijn nu in recordtempo de meest verstrekkende noodwetten geaccepteerd. Waarom? Omdat iedereen op dit punt vanuit dezelfde waarden redeneert: snelheid is geboden om grootschalig lijden te voorkomen

Controle of vertrouwen

Het Chinese app systeem is er op gericht snel en effectief controles op straat te kunnen uitvoeren om te bepalen wie binnen moet blijven en wie niet. Voor het individu heeft de app zelf weinig nut. In Zweden wordt een heel ander beleid toegepast, dat ervan uitgaat dat iedereen zelf in staat is verstandige keuzes te nemen en zichzelf te redden. Waar staat Nederland eigenlijk in dit spectrum? De precieze werking van het soort apps waar nu in Nederland de discussie over gaat (digitaal traceren of je in de nabijheid bent geweest van een persoon die positief heeft getest) moet passen bij onze waarden. Een schot voor de boeg: de app moet je wel vertellen dat je in de buurt bent geweest, maar niet bij wie. Met dat ‘dichtbijheidsbewijs’ zou je voorrang moeten krijgen in de schaarse testcapaciteit.

Interessant genoeg lijkt de discussie in Nederland nu nog vooral te gaan over de technische kanten van een Corona-app en privacy. Maar het is nadrukkelijk ook een ethische discussie. Ons pleidooi is om die eerst te voeren, dan wordt vanzelf scherp welke functie een eventuele app moet hebben. En dan vervolgens zorgen voor duidelijke (liefst democratische) controle van de werking (lees: het algoritme) om ervoor te zorgen dat er geen misbruik van gemaakt wordt.

Hoe voer je een ethische discussie? VKA is participant in de Utrecht Data School, een initiatief van de Universiteit Utrecht. Met behulp van onder andere de Ethische Data Assistent wordt een structurele inventarisatie en afweging geboden voor ethische vraagstukken bij de inzet van big data en artificial intelligence.

 

Corona en innovatie

Het is pas een week geleden dat we de deur van ons kantoor achter ons dicht trokken om vanaf dat moment volledig thuis te gaan werken. Het voelt als veel langer geleden. De nieuwe maatregelen om het Coronavirus te bestrijden volgen elkaar in hoog tempo op en inmiddels blijkt thuiswerken inclusief kinderen te zijn, omdat nu ook de scholen dicht zijn.

Digitaal werken is voor ons nu de nieuwe standaard. Voor ons in de samenwerking tussen collega’s, maar ook in onze adviesopdrachten voor opdrachtgevers. Een verandering die een paar weken geleden nog onmogelijk zou worden geacht heeft zich in een week voltrokken. Microsoft Teams, Skype, Facetime, we gebruiken de tools gretig. Met wat spoed trainingen en instructies is iedereen in een paar dagen over. Natuurlijk is het nog wennen, maar de stap is gezet.

Gisteren hadden wij onze maandelijkse plenaire vergadering. Normaal gesproken een avond met eten, presentaties en een borrel, maar vooral ook samen zijn op ons kantoor in Zoetermeer. Maar deze keer via Microsoft Teams, met 80 deelnemers, 7 sprekers, 2 jubilarissen en een nieuwe medewerker. Spannend wel, want gaat het wel werken? En is de sfeer wel hetzelfde? Het besluit was eerder al snel genomen, we moeten wel, en laten we het maar gewoon doen, dan zien we wel hoe het werkt.

Het plenair startte zoals het altijd gaat: iedereen druppelt langzaam binnen en maakt wat grapjes of kletst bij. Een digitale plenaire vergadering blijkt goed te werken. De chat bleek een gouden greep. Er werd al snel gesuggereerd dat we die ook bij een fysiek plenair moesten gaan invoeren. Presentaties gingen prima, al moet wel gezegd worden, dat het vooral als spreker lastig is dat je geen enkele feedback krijgt van je toehoorders als je zelf in je slides aan het kijken bent. Je praat als het ware in de ruimte wat een beetje een bevreemdend gevoel geeft. De chat blijkt vooral een sociale functie te hebben en niet zozeer een manier om inhoudelijke vragen aan de spreker te stellen.

Een paar voorbereidingen hielpen ons wel. De eerste sheet had als simpele instructie, zet je audio en video uit, en zet de chat aan. Daarnaast hadden we een paar rollen onderscheiden om de sessie goed te laten lopen.

Deze eerste keer hebben we met elkaar ervaren als een groot succes. Een grote stap ook wel. De komende periode gaan we zoeken hoe we dit nieuwe medium nog beter kunnen benutten. Meer interactie inbouwen, andere manieren van presenteren zoeken, en dat vooral door het gewoon te doen. Corona heeft ons wat dit betreft ook iets goeds gebracht, de noodzaak te innoveren, en het ervaren van het succes van die innovatie.

Algoritmes discrimineren niet, toch?

Algoritmes worden overal gebruikt, in het bedrijfsleven en binnen de overheid. Online word je, door Facebook, Google of Netflix, de hele dag door gemeten en ingedeeld in een hokje op basis van de gegevens die je achterlaat en de algoritmes die zij daarop loslaten. Maar ook bij alledaagse dingen, zoals shoppen in de supermarkt, rijden in je auto naar het werk, en betalen via de betaal app van je bank doen algoritmes hun werk en wordt op basis daarvan geprobeerd je gedrag te beïnvloeden. Superhandig, dat zeker. Gelukkig gaat het ook heel vaak goed en maakt het ons leven een stuk makkelijker. Maar helaas gaat het soms ook fout. In een tweeluik gaan we in op de voor- en nadelen van het gebruik van algoritmes. In dit eerste deel geven we antwoord op de vraag of algoritmes kunnen discrimineren. Deel twee van de blogreeks wordt op 10 december gepubliceerd. In deel twee schetsen wij het gebruik van algoritmes als criminele tool.

Niet alleen de overheid discrimineert met algoritmes

In de afgelopen maanden zijn er diverse artikelen verschenen over het gebruik van algoritmes en hoe dat een negatieve invloed kan hebben op racisme, seksisme en rechtszekerheid. Zo verscheen er op 29 mei jl. al een artikel op NOS.nl met de titel; ‘Overheid gebruikt op grote schaal voorspellende algoritmes, ‘risico op discriminatie’. In het artikel komt naar voren dat de overheid op grote schaal voorspellende algoritmes gebruikt om bijvoorbeeld fraude op te sporen. Deze hebben echter de schijn van discriminatie en in de gebruikte data zit vaak een vooringenomenheid, zo wordt in het artikel gesteld. Meer recent schrijft de VN-rapporteur voor de mensenrechten Philip Alston de rechtbank in Den Haag aan. Hij waarschuwt in de brief dat het gebruik van het Systeem Risico Indicatie (SyRI), een significante dreiging op het gebied van mensenrechten kan opleveren. SyRI stelt risicoprofielen op, op basis van de gegevens van bestaande fraudeurs en combineert databases met persoonsgegevens van verschillende overheidsinstanties. De gegevens van de Belastingdienst en de gemeenten worden vervolgens vergelijken met de risicoprofielen. Hiermee wordt dan bepaald of een burger mogelijk een hogere kans heeft om fraude te plegen. Vervolgens kan dit tot overheidsoptreden leiden – adressen die afwijken van de norm krijgen een huisbezoek. Toevallig is de inzet van dit systeem louter in armere, etnisch diverse wijken geweest, aldus de NRC. De vraag is hoe er geborgd wordt dat het systeem niet gaat profileren op financiële situatie of etniciteit. 

Bias en discriminatie

Bij de toepassing van algoritmes kan er sprake zijn van een zogenaamde bias, vooringenomenheid. Vanuit een juridisch perspectief is discriminatie volgens de Grondwet verboden. Maar bias is een breder aspect. Het gaat immers niet alleen over discriminatie, maar (ook) over de sociaal psychologische effecten die rationele oordeelsvorming of besluitvorming in groepen in de weg kunnen staan. Bias komt in vele vormen voor. De belangrijkste hiervan zijn de zogenaamde confirmation bias en de ingroup bias. Confirmation bias gaat over het menselijke aspect, dat we sociale wezens zijn en graag mensen om ons heen verzamelen die dezelfde meningen en ideeën hebben als wijzelf. Hierdoor kan een tunnelvisie ontstaan. Ingroup bias betreft de neiging van mensen om in te stemmen met de dominante mening van de groep. Deze twee effecten moeten zoveel mogelijk worden voorkomen omdat een vooringenomen algoritme resultaten produceert die afwijken van de realiteit die zij poogt te beschrijven.

De ontwikkelaars van algoritmes kunnen onbedoeld een bepaalde bias inbouwen in het algoritme. Als er bijvoorbeeld een dataset wordt gebruikt om de kans op crimineel gedrag van mensen te voorspellen en in de dataset zitten, om wat voor reden ook, significant veel mensen met groene ogen, dan zal het algoritme al snel mensen met groene ogen als crimineel gaan bestempelen. Dit levert vanzelfsprekend een groot ethisch dilemma op. Hierbij geldt dan ook dat een zo groot mogelijke diversiteit in de (test)data van groot belang is voor een representatief en juist resultaat.

Zouden de ontwikkelaars in het vorige voorbeeld ervoor gekozen hebben om de kleur van de ogen niet mee te wegen in de beoordeling, dan zou er ook geen bias ontstaan zijn – of in ieder geval niet op dit punt. Toch blijkt het in de praktijk vaak lastiger te zijn dan alleen bepaalde wegingsfactoren uit te schakelen.

Hoe voorkom je bias en discriminatie

Maar hoe voorkom je nu, bij de ontwikkeling van een algoritme, dat de bias en discriminatie toch hun werk gaan doen? Om verschillende redenen wil je dat als organisatie natuurlijk voorkomen. Neem ten minste de volgende 3 stappen om je algoritme ethisch verantwoord te laten zijn. 

STAP 1: BEPAAL ETHISCHE PRINCIPES VOOR JE DATAPROJECT

Wanneer je start met een data project, bepaal dan vooraf een aantal ethische principes voor je data project. Deze ethische principes zijn in feite je morele kompas gedurende de ontwikkeling van je algoritme. Door periodiek je data project (waaronder het algoritme) te toetsen aan je eigen ethische principes, ben je in staat om je morele kompas tijdig te herijken. Een hulpmiddel om te komen tot ethische principe is De Ethische Data Assistent (DEDA). Met DEDA ontwikkelen wij ethische principes om ethische vraagstukken in innovatieve projecten op te lossen. Meer informatie hierover vind je hier. Zorg dat je de juiste ethische afwegingen maakt en laat jouw organisatie groeien in de digitale volwassenheid.

STAP 2: MITIGEER DE RISICO’S 

Uit de DEDA komen zeer waarschijnlijk een aantal project en ethische risico’s. Belangrijk is om deze te kwalificeren en mitigerende maatregelen te bedenken. Het moet voor het hele team duidelijk zijn welke risico’s er spelen en of deze risico’s acceptabel zijn of de implementatie van het algoritme in de weg staat. 

STAP 3: HET ALGORiTME KEURMERK

Bij het gebruik van een algoritme is het essentieel dat er (achteraf) getoetst kan worden c.q. verantwoord kan worden of het algoritme goed gebouwd is en goed beheerd en gebruikt wordt. Het Algoritme Keurmerk van VKA en Totta Datalab brengt zekerheid en transparantie. Hiermee kan vooringenomenheid in het algoritme onderkend worden en kunnen algoritmes op een verantwoorde wijze toegepast en verbeterd worden. Als resultaat ontvangt men een duidelijk rapport met de conclusies en verbeterpunten. Meer informatie over het Algoritme Keurmerk vind je hier

 

Zullen we even bij het bord gaan staan ….?

Waar is het whiteboard?

Hangt er een whiteboard of staat er een flip-over? Die vraag heb ik altijd als ik voor een gesprek een ruimte binnenloop. Vaak is zo’n whiteboard er wel maar hangt het vol. Een beetje ruimte maken kan altijd. Er komt namelijk zeker een moment waarop ik de sleutelvraag kan stellen: Zullen we even bij het bord gaan staan …? We staan op. Ik pak de stiften (altijd in mijn tas) en we vervolgen ons gesprek al schrijvend en tekenend. Waarom overleg ik zo graag bij het bord?

Samen snel concreet worden

De voordelen van een staand gesprek bij het whiteboard zijn groot:

  • We begrijpen elkaar beter.

De aantekeningen op het bord maken we samen. Eerst even overleggen of we de juiste woorden hebben gekozen en onderzoeken of we onder die woorden hetzelfde verstaan. Even weghalen als het niet klopt. Zijn we niets vergeten? Klopt het dat dit onze vervolgafspraken zijn? Het bord ondersteunt al deze cruciale onderdelen in het gesprek.

  • We zetten onze visuele bril op.

Het vergt een beetje lef maar het gebruik van symbolen, tekeningetjes, icoontjes en schema’s maakt de aantekeningen op het bord en het gesprek rijker. Kim Ravers schreef een mooi (visueel) boek over het maken van deze Visual Notes.

  • We overleggen sneller en actiever.

Er is inmiddels veel bewijs voor de stelling dat staand vergadereren sneller gaat en dat de deelnemers actiever bijdragen aan de bijeenkomst. Niet zo vreemd dat in de Agile/Scrumwereld de ‘daily-stand-up’ aan de hand van een bord volledig is ingeburgerd. Ook bij de evaluatiebijeenkomsten (retrospectives) gebruiken de teams een bord.

  • We hoeven geen tijd te besteden aan het verslag.

Het verslag van het gesprek is snel gemaakt. Even allebei een foto maken met onze smartphone (en opslaan in een apart album) en de verslaggeving is gedaan.

Leraren en lerarenteams

Lerarenteams die werken met de methode van stichting leerKRACHT weten dat het teamoverleg bij het (verbeter-) bord uitermate effectief is. De doelen en acties staan op het bord en komen in een korte bordsessies langs. Vervolgens kunnen we weer samen aan het werk in plaats van te ‘vergaderen’. Als de borden in de teamkamer hangen zijn de afspraken ook nog continu zichtbaar. VKA ondersteunt vanuit haar maatschappelijke betrokkenheid Stichting LeerKRACHT, die streeft naar een betere onderwijskwaliteit in Nederland.

Dus stop die stiften in je tas, pak ze eruit en vraag aan je gesprekspartners: Zullen we even bij het bord gaan staan…?

DEDA: praktisch omgaan met ethische vragen

Stel: je beschikt als organisatie over een grote hoeveelheid klantdata. Je hebt deze door de jaren heen verzameld, maar er nooit iets anders mee gedaan dan de administratie. Nu vermoed je dat je door deze data slim in te zetten, je niet alleen je klanten beter kunt bedienen, maar ook jezelf. Bijvoorbeeld door het bieden van veel meer op maat gesneden dienstverlening, of door onder je klanten bepaalde risicogroepen te identificeren. Er lijkt weinig reden om hier niet vol op in te zetten. Meer rendement, minder kosten, wie wil dit nou niet? Toch heb je een onbestemd gevoel…

Onbestemd, maar niet onterecht

Hoewel het een aantrekkelijk idee is dat de data voor je werken, ben je zelf degene die erop wordt afgerekend als het mis gaat. En die de vraag moet beantwoorden waarom persoon X een korting krijgt en persoon Y een deurwaarder. Of waarom in de ene straat elk kwartier een politieauto langskomt en in de andere twee keer per week een wijkagent. Kun je niet uitleggen wat je doet, dan moet je jezelf afvragen of wat je doet wel kan. En of je dat wel wilt.

Zelfs als iets wettelijk mag en een fantastische business case heeft, zijn er ethische afwegingen. Komen we tot eerlijke keuzes? Weegt het voordeel dat de ene groep ervan heeft op tegen het nadeel dat de andere groep ervaart? Kan ik goed uitleggen en verantwoorden wat ‘de computer’ of ‘het algoritme’ doet?

Hoe je dit soort keuzes maakt en welke maatstaven je hierbij hanteert, is van oudsher het domein van de ethiek. Betreffen deze keuzes het gebruik van data, dan spreken we van data-ethiek. Maar probeer het maar eens: een gestructureerde discussie voeren over ethiek. Iedere deelnemer aan deze discussie brengt zijn eigen afwegingen en beelden mee. Ethische discussies ontaarden dan ook niet zelden in principiële en hardnekkige stellingnames. Hoe voer je dan een gestructureerde discussie over ethiek? Met een concreet resultaat?

Kleur bekennen

Een goede en praktische manier om hier in de praktijk handen en voeten aan te geven is toepassing van de DEDA (De Ethische Data Assistent), een workshopmethodiek die is ontwikkeld vanuit de Utrecht Data School (onderdeel van de Universiteit van Utrecht) en waarvoor VKA een licentie heeft. De kern van DEDA is dat je als project, maar ook als organisatie gedwongen wordt om kleur te bekennen. Welke afwegingen moeten we maken? En wat vinden we wel en wat vinden we niet kunnen? Korte termijn resultaat van een DEDA is dat deze vragen voor een concreet project worden beantwoord. Pas je de methodiek echter structureel toe, dan helpt het je ook om een normenkader te ontwikkelen dat je veel breder in je organisatie kunt toepassen en ook extern kunt uitdragen.

Belangstelling?

Als je als organisatie graag meer uit je data wilt halen, maar dit wel op een bewuste manier wil doen, dan nodigen we je van harte uit eens verder te praten over de inzet van de DEDA-methodiek. Of beter nog: het eens een keer te proberen.

Onze handelsmissie Artificial Intelligence (AI) naar Boston

Afgelopen maand was Verdonck, Klooster & Associates op handelsmissie naar Boston om de kansen van Artificial Intelligence te verkennen. Samen met 125 Nederlandse ondernemers bezochten we bedrijven en universiteiten. Ook Mark Rutte sloot aan na zijn bezoek aan het Witte Huis. Het was een geslaagde missie, waarin we interessante contacten hebben gelegd. Maar vooral: goede ideeën opgedaan voor het gebruik van AI door onze klanten.

Waarom hebben we gekozen voor de handelsmissie? De eerste trigger was het onderwerp AI. VKA is bezig dat onderwerp te verkennen. Wat zijn de kansen voor onze klanten? Welke dienstverlening kunnen wij bieden? Welke kennis hebben we al en welke moeten we nog opdoen? Daarnaast spraken ook de bedrijven en organisaties in Boston ons aan. Dat bood ons de kans om ook eens over de grens te kijken. En ook het netwerk van deelnemers vanuit Nederland was natuurlijk interessant. Een groep mensen met dezelfde interesse biedt ook mogelijkheid tot dialoog. Als laatste was de handelsmissie ook wel een beetje een experiment voor ons, het was tenslotte de eerste keer dat wij deelnamen aan zoiets.

Boston is een interessante stad voor een missie. Naast de bekende namens als Harvard en MIT zitten er namelijk tientallen andere universiteiten in en om de stad, hebben zich tegen die universiteiten allemaal bedrijven aan genesteld op zoek naar talent en ideeën, en zitten daaromheen allerlei incubator-achtige bedrijven die startups helpen aan een onderkomen, voorzieningen en financiering. Het woord ‘ecosystem’ werd door de Amerikanen frequent gebruikt (‘it’s all about the ecosystem’). Dat gold voor ons onderwerp AI, maar zeker ook voor robotica en medische producten.

Wat direct opvalt is dat de investeringen vanuit financiers, weldoeners en bedrijven vele malen hoger zijn dan bij ons. Zowel universiteiten als startups worden flink gesponsord. Ze lijken ook minder kritisch op de ideeën van startups dan wij zijn. Er is meer ruimte om een idee te ontwikkelen en tot wasdom te laten komen. Wat ook opvalt is dat wij het best goed doen, ook zonder al die investeringen. Waarbij wij overigens wel het risico lopen dat al ons talent wegtrekt naar dit soort ecosystemen in andere landen, omdat men daar een veel aantrekkelijker innovatieklimaat heeft voor jong talent.

Een bedrijf dat mij aansprak was Affectiva. Zij hebben een systeem ontwikkeld op basis van deep learning dat in een split second je emotionele toestand inschat. Dus: ben je boos, blij, verdrietig, etc? Het maakt het mogelijk om systemen ook de menselijke emotie mee te laten nemen in een dialoog. Ze richten zich op zelfrijdende auto’s, marktonderzoek en sociale robots met hun oplossingen. Zelf proberen? Download de app AffdexMe. Een ander interessante presentatie was van het bedrijf SmartVid. Zij hadden een AI-systeem geleerd in foto’s en filmpjes van bouwplaatsen de risicovolle situaties te detecteren. Als verantwoordelijke voor toezicht stop je duizenden foto’s in het systeem en je krijgt die drie foto’s terug met een plek waar zich risico’s voordoen.

Gedurende de reis zie je ook beter dat het in belangrijke mate ook een diplomatiek doel heeft. De relatie tussen de VS en Nederland is vele malen onderwerp van gesprek. Het bezoek van Mark Rutte aan het Witte Huis en het aanbieden van de eerste vlag die tijdens D-Day aan land kwam onderstreepte dat alleen maar. Een officieel diner met Amerikaanse gasten is onderdeel van de missie, als ook een afsluitend event met een flink aantal sprekers met interesse voor en relaties met Nederland. De belangrijke handelsrelatie en de oude band met de VS worden door beide partijen belangrijk geacht.

Ben je benieuwd naar de ideeën die wij hebben opgedaan voor het gebruik van AI of wil je meer weten over onze ervaringen? Neem dan contact op met mij.

Learning Analytics: Kenmerken van studenten als voorspellers voor studiesucces

In de vorige blogs hebben we toegelicht wat learning analytics is. Tevens hebben we aan de hand van een dashboard laten zien dat schaal in het hoger beroepsonderwijs van invloed is op studiesucces en welke interventies op basis deze informatie mogelijk zijn. Schaal van een onderwijsinstelling is echter niet de enige variabele die van invloed is op studiesucces. Studenten verschillen immers van elkaar. Zijn er bepaalde typen, of profielen, van studenten die het beter doen dan anderen? In dit derde en laatste blog van deze reeks gaan wij, wederom aan de hand van het dashboard, op zoek naar een antwoord op deze vraag.

Vooropleiding van student heeft grote invloed op studiesucces

Niet iedereen kan een HBO-opleiding volgen. Alleen met bepaalde vooropleidingen wordt een student toegelaten tot het HBO. In de regel wordt een student toegelaten tot een HBO-opleiding als hij of zij een Havo-, Vwo- of MBO-4-diploma heeft, eventueel aangevuld met aanvullende eisen (bijvoorbeeld bepaalde vakken). Hoewel je dus niet “zo maar” naar het HBO kan, zit er veel verschil in de vooropleiding. Een student met een Havo-diploma is vaak iets jonger dan een student met Vwo als vooropleiding. Bovendien is het niveau van het Vwo hoger en is de opleiding theoretischer van aard. Een student met een MBO-4-diploma heeft al een drie- of vierjarige vervolgopleiding achter de rug, is wat ouder en heeft meer ervaring met studeren. Uit het dashboard blijkt dat er grote verschillen zijn in studiesucces tussen studenten met verschillende vooropleidingen. Studenten met een Vwo-diploma studeren het snelst af: van de studenten die in 2008 aan een HBO-opleiding is begonnen, is 46% na 4 jaar afgestudeerd. Dit is ruim anderhalf keer zo veel als studenten met een Havo-diploma (28%) en ook substantieel meer dan studenten met een MBO-4-diploma (35%). Wat verder opvalt is dat na 8 jaar het percentage studenten met een Havo-diploma dat is afgestudeerd (67%) hoger is dan het percentage afgestudeerde studenten met een MBO-4-diploma (60%). De Havisten halen de MBO’ers dus als het ware in.

Vrouwelijke studenten doen het beter dan mannelijke op het HBO

Naast vooropleiding is geslacht een belangrijk kenmerk dat invloed heeft op studiesucces. 40% van de vrouwelijke studenten die in 2008 is gestart met een HBO-opleiding is na 4 jaar afgestudeerd, tegenover 27% van de mannelijke. Er zijn dus anderhalf keer meer vrouwelijke studenten die nomimaal (dat wil zeggen in 4 jaar) afstuderen dan mannelijke: een groot verschil. De mannen maken deze achterstand in de jaren erna ook niet meer goed.

Kennis over de invloed van kenmerken van studenten op studiesucces maakt gerichte ondersteuning mogelijk

Kennis over de effecten die bepaalde kenmerken of verzamelingen van kenmerken (zogenaamde profielen) van studenten hebben op studiesucces is van groot belang voor onderwijsinstellingen. De hiervoor genoemde kenmerken in relatie tot studiesucces zijn over het algemeen wel bekend in het hoger onderwijs. Echter, als we een tandje dieper gaan en meer gedetailleerde informatie over studenten relateren aan studiesucces, ontstaan vaak verrassende inzichten. Inzichten die niet gebaseerd zijn op onderbuik en gevoel, maar op harde data. Met deze kennis kan een instelling de begeleiding en ondersteuning van studenten zo veel mogelijk op maat maken, bijvoorbeeld met specifieke ondersteuningspakketten en individuele interventies. De werving, voorlichting en begeleiding kunnen worden aangepast gebaseerd op kenmerken van de studentenpopulatie, zodat voor nieuwe studenten een reëel beeld ontstaat van opleidingen en de werklast die daarbij hoort.

De belofte van learning analytics is groot

In drie blogs hebben we laten zien dat learning analytics gaat over het op diverse niveaus inzetten van inzichten verkregen uit analyse van (studenten)data. Om succesvol met learning analytics aan te slag te gaan, is het belangrijk het niet als ICT-project te benaderen maar als veranderopgave. Niet alleen de techniek is belangrijk, maar ook strategie, processen, mensen en zaken als privacy, ethiek en gegevensbescherming. Uiteindelijk is voor een succesvolle toepassing van learning analytics de docent de sleutel tot succes. De inzet van data en analytics moet een plek krijgen in het ‘beroepsbeeld’ van de docent. Het vraagt om een andere manier van werken, waar docenten en studenten zich voldoende senang bij moeten voelen.

We hebben aan de hand van analyses van open onderwijsdata en een dashboard het verband laten zien tussen schaal van onderwijsinstellingen en kenmerken van studenten en studiesucces. Op basis van deze relatief eenvoudig verkregen inzichten hebben we diverse mogelijke generieke interventies voor HBO’s geschetst. Meer detailinformatie en detailanalyses zullen tot meer gedetailleerde inzichten leiden, waardoor maatwerk en passende individuele interventies in het verschiet liggen. Kortom: de belofte van learning analytics is groot.

Uit de data blijkt: schaal is ook in hoger beroepsonderwijs van invloed op studierendement

Uit de data blijkt: schaal is ook in hoger beroepsonderwijs van invloed op studierendement

Wat zeggen de data over onderwijskwaliteit en studierendement in het hoger beroepsonderwijs? En welke handvatten bieden de data voor het verbeteren hiervan? Wij hebben open data over hoger beroepsonderwijs verzameld, geanalyseerd en gevisualiseerd in een dashboard. Dit dashboard is te vinden op onze website.

Uit de analyse valt op te maken dat het studierendement na 5 jaar onderwijs in het HBO sinds 2002 met ongeveer 10% procentpunt is gedaald. Waar van de studenten die in 2002 (het zogenaamde cohort 2002) begonnen aan hun opleiding bijna 60% in 5 jaar het diploma haalde, is dat voor de studenten die 10 jaar later begonnen nog maar zo’n 50%.

Voor universiteiten geldt dat de kleinere het beter doen dan de grotere. Dit geldt ook voor hogescholen. Uit het dashboard blijkt dat grote instellingen (met meer dan 20.000 studenten) beneden het landelijk gemiddelde (de zwarte lijn in de figuur) scoren op studierendement. Het gat met het landelijk gemiddelde is sinds het cohort 2000 wel substantieel kleiner geworden.

Klik op knop “full screen” rechtsonder de figuur voor volledige weergave

Om beter zicht te krijgen op de relatie tussen studierendement en omvang van de instelling hebben wij een correlatieanalyse uitgevoerd. Hierin is goed te zien dat de kleine instellingen het beter doen dan de grote instellingen: de kleine instellingen bevinden zich in de linker bovenkant van de figuur en de grote in de rechter onderkant.

Klik op knop “full screen” rechtsonder de figuur voor volledige weergave

Een verklaring voor de betere prestaties van kleine instellingen kan zijn dat deze hele specifieke opleidingen aanbieden (met name in de kunstsector, agri-business en gebaseerd op een specifieke grondslag/signatuur). Studenten die voor deze instellingen kiezen, maken daarmee een bewustere keuze voor een specifieke opleiding. In het wetenschappelijk onderwijs is dat terug te zien bij de Universiteit Wageningen. Deze universiteit komt sinds 2004 ieder jaar het beste uit de bus in de Studiekeuzegids. Studenten die kiezen voor deze universiteit in “provinciedorp” Wageningen moeten wel “erg gemotiveerd” zijn aldus de gids.

Learning analytics is de basis voor interventies om rendement en kwaliteit te verhogen

Ook in het hoger beroepsonderwijs heeft schaal dus een negatief effect op studierendement. Wat kan een hogeschool met deze inzichten? Radicaal een studentenstop instellen is met het oog op toegankelijkheid van het onderwijs en financiën niet wenselijk. Er zijn echter diverse interventies te bedenken die wel mogelijk zijn. Grote instellingen kunnen studenten veel gerichter gaan voorlichten. Met name studenten die willen kiezen voor de grote opleidingen. Een andere mogelijke interventie is het invoeren van toelatingstesten, waar ook in wordt gegaan op motivatie. Met behulp van Learning Analytics technieken kunnen grote instellingen hun studenten veel beter gaan volgen en hen eerder ondersteunen als dat nodig blijkt. Tevens kunnen grote instellingen anders omgaan met werving. Ook hier is de vergelijking met het wetenschappelijk onderwijs relevant: universiteiten die te veel hebben meegelift op succesvolle citymarketing (met name de Universiteit van Amsterdam en de Erasmus universiteit) plukken daar nu de wrange vruchten van in de vorm van lager studierendement.

Met behulp van learning analytics zijn nog tal van interventies te ontwikkelen die onderwijskwaliteit en studierendement kunnen verhogen. Voorbeelden hiervan zijn het aanbieden van de mogelijkheid tot proefstuderen, actieve studieloopbaanbegeleiding, beter aanleren van studievaardigheden, creëren van leergemeenschap middels leergroepen, de inzet van medestudenten als ‘peer-mentor’ en de inzet van formatieve toetsing om studenten te stimuleren actief en continu te leren. Voor een betere individuele begeleiding kunnen heel specifiek doelgroepen worden geselecteerd die het in het bijzonder slecht of goed doen. De studenten in deze groepen kunnen dan veel meer op maat bediend worden door een instelling. Een andere mogelijkheid is om uitval te voorspellen en daarop in te spelen. Hiervoor is data nodig op het niveau van de individuele student. Data die niet (gelukkig maar) beschikbaar zijn als open data, maar waar instellingen zelf wel over beschikken.

In het volgende Learning Analytics blog verkennen we verder welke inzichten het dashboard oplevert en welke mogelijkheden dit biedt voor hogescholen.

 

 

Gaan de hogescholen de universiteiten achterna?

Universiteiten en hogescholen hebben al jaren te maken met stijgende instroomcijfers. Volgens de Studiekeuzegids leidt dit voor universiteiten niet tot lagere onderwijskwaliteit. Desalniettemin maakt de voorzitter van universiteitenkoepel VSNU zich zorgen over de gevolgen van stijgende studentenaantallen voor werkdruk en onderwijskwaliteit.

De vraag is wat de consequenties zijn van stijgende studentenaantallen in het hoger beroepsonderwijs. Gaan hogescholen de universiteiten achterna? Of weten zij, ondanks de toename van het aantal studenten, onderwijskwaliteit en studierendement te behouden of zelfs te verbeteren? In deze serie VKA Learning Analytics blogs gaan wij – met behulp van data – op zoek naar antwoorden.

Inzicht is cruciaal om de uitdagingen in het hoger onderwijs aan te kunnen

Hogescholen en universiteiten streven ernaar – net als veel andere onderwijsinstellingen – om onderwijskwaliteit en studiesucces en -rendement op een zo hoog mogelijk peil te brengen, gegeven de financiële kaders. Daarnaast moet het onderwijs toegankelijk zijn: in principe heeft iedereen recht op het volgen van een opleiding naar keuze aan een instelling naar keuze. Hiervoor is schaal nodig. In de inleiding hebben we echter gezien dat een grotere schaal de onderwijskwaliteit en studiesucces en -rendement onder druk kan zetten.

Inzicht is cruciaal om te kunnen sturen op onderwijskwaliteit en studiesucces en -rendement en om slim om te gaan met schaalvergroting. Dit inzicht zit op twee niveaus:

– Macro en meso niveau: welke factoren zijn bepalend voor studiesucces? Welke opleidingen en onderwijsvormen passen het best bij de studentenpopulatie en bepaalde studentengroepen? Hoe worden voorlichting, studiekeuze en werving slim vormgegeven? Ook sluit dit niveau aan op de ontwikkeling van de smart campus: slimme ‘dingen’ overal op de campus die de beleving van de campus verbeteren en kosten helpen besparen.

-Microniveau: het niveau van de individuele student. Hoe kan hij/zij passend begeleid worden door de docent en begeleiders? En hoe kan de relatie en interactie tussen docent en student worden verbeterd?

Analyse van studiedata leidt tot het gewenste inzicht

Door studiedata – op macro-, meso- en microniveau – te analyseren kunnen deze inzichten worden verkregen. De term die vaak wordt gehanteerd voor de analyse van studiedata is learning analytics. De basis voor learning analytics is de grote hoeveelheid data die ontstaat door de toegenomen inzet van ICT in het onderwijsproces en in administratieve en logistieke processen daaromheen. Studiesucces is complex: bepalende factoren verschillen per regio en per opleiding. Een meer analytische benadering op basis van data leidt tot inzicht in studie-obstakels. Hierdoor kunnen passende maatregelen worden getroffen: een mix van effectieve interventies. Door gerichte interventies gebaseerd op deze inzichten kunnen het studiesucces en -rendement worden verbeterd en de kwaliteit van het onderwijs worden verhoogd.

Learning analytics is een veranderopgave

Bij learning analytics gaat het niet om data-analyse en technologie alleen. Een belangrijke randvoorwaarde voor een succesvolle toepassing van learning analytics is om een doordachte en integrale aanpak te hanteren. Learning analytics is geen ICT-project, maar een veranderopgave waarbij aandacht moet worden besteed aan een vijftal thema’s:

Klik hier om de afbeelding te vergroten.


In het volgende blog gaan we in het aan de hand van data-analyses in op de relatie tussen schaal en studiesucces in het hoger beroepsonderwijs.

 

Alleen een DigiD audit is onvoldoende voor beveiliging van webdiensten

De overheid digitaliseert in rap tempo. Burgers (en ondernemers) worden steeds meer verleid of zelfs verplicht om gebruik te maken van webportalen om zaken te doen met de overheid. Door deze ontwikkeling moeten overheidsorganisaties méér moeten doen om de veiligheid van hun digitale dienstverlening te kunnen garanderen.

Bij een flink aantal webdiensten vraagt de overheid om in te loggen met DigiD, zodat bekend is met wie de overheid van doen heeft. De overheid eist ook dat publieke dienstverleners, zoals ziekenhuizen en zorgverzekeraars, gebruik maken van DigiD.

De overheid moet ervoor zorgen dat elektronisch verkeer tussen de burger en de overheid voldoende veilig, dus betrouwbaar en vertrouwelijk verloopt.

Dat gebeurt door te bepalen op welk beveiligingsniveau de burger kan inloggen. Nu is dat vaak nog alleen met een eenvoudig DigiD wachtwoord, eventueel aangevuld met SMS of het via de DigiD-app scannen van een QR-code. Gestart is met het inloggen op een hogere beveiligingsniveau, zoals het gebruik van de chip in het rijbewijs of paspoort. Naast DigiD kunnen ook authenticatiemiddelen en vertrouwensdiensten uit de markt ingezet worden.

Tegelijkertijd moeten ook de websites en applicaties van overheidsorganisaties waarmee digitale diensten worden geleverd veilig zijn.

‘The tone at the top’

Dat begint altijd met een goede besturing van de informatieveiligheid door de leiding van de organisatie (‘the tone at the top’) op basis van een actueel IT-beveiligingsplan en een transparante publieke verantwoording over het gevoerde beheer aan de belanghebbenden. Vanzelfsprekend voldoet de organisatie daarbij aan de algemeen geldende eisen voor beveiliging van de informatievoorziening (‘de basis op orde’), zoals toegangsbeheer, versleuteling, wijzigingenbeheer, incidentenbeheer, logging en afspraken met leveranciers.

Voor de specifieke webdienstverlening wordt dit aangevuld met de gangbare eisen voor beveiliging van webdiensten, zoals de webrichtlijnen van het Nationaal Cyber Security Centrum (NCSC).

De samenleving vraagt steeds meer om een onafhankelijk oordeel van een auditor over de beveiliging van de webdienstverlening. Websites blijken nog maar al te vaak kwetsbaar te zijn voor aanvallen van hackers. Dat heeft er in 2012 toe geleid dat jaarlijks DigiD audits worden uitgevoerd op overheidwebsites waarbij de burger kan inloggen met DigiD. Onmiskenbaar heeft dit bijgedragen aan het verbeteren van de beveiliging van de websites, maar het is slechts een eerste stap die dringend om opvolging vraagt.

Maatschappelijke verantwoordelijkheid van overheidsorganisaties

Op dit moment vraagt de minister van BZK voor webdienstverlening waarbij gebruik gemaakt wordt van DigiD alleen een auditrapport. Dit op basis van een beperkte selectie van twintig NCSC richtlijnen en bovendien slechts op opzet en bestaan van beveiligingsrichtlijnen. Of de maatregelen over een heel jaar gewerkt hebben blijft buiten beeld. Door het beperkt aantal richtlijnen en de beperking tot opzet en bestaan ontstaat het risico dat het auditrapport schijnzekerheid biedt.

De maatschappelijke verantwoordelijkheid van overheidsorganisaties en andere publieke dienstverleners om veilige digitale diensten te leveren gaat veel verder dan alleen te voldoen aan twintig NCSC richtlijnen. De burger heeft recht op veilige digitale dienstverlening, waarin zijn of haar gegevens op een betrouwbare en vertrouwelijke manier verwerkt worden.

De overheid heeft de afgelopen jaren meerdere initiatieven genomen om de informatiebeveiliging op een hoger plan te brengen.  De implementatie van al deze initiatieven blijft een enorme opgave. Veel aandacht wordt besteed aan het technisch veilig maken van de systemen. Penetratietesten leggen de kwetsbaarheid van systemen voor aanvallen vanuit het internet bloot en securityspecialisten repareren de gaten.

Een meer proactieve en continue opstelling is nodig

Het gevaar dreigt dat informatiebeveiliging daarmee beperkt blijft tot reageren op incidenten en een ‘feestje van securityspecialisten’ blijft. Een meer proactieve en continue opstelling is nodig, gericht op het voorkomen van kwetsbaarheden en continu monitoren en verbeteren. De beste beveiligingsmaatregelen liggen immers in de organisatie en bij de mensen zelf (‘beveiliging is mensenwerk’).

Dit vraagt een veel grotere betrokkenheid van de leiding en bestuurders van organisaties. Concreet houdt dit in dat het onderwerp informatiebeveiliging regelmatig aan de bestuurstafel besproken moet worden, inclusief het monitoren van de voortgang. Overheidsorganisaties moeten daarnaast zorgen voor een professionele beveiligingsorganisatie, met een sterke Chief Information Security Officer en zorgen dat de basisprocessen en maatregelen rondom beveiliging en beheer op orde zijn en belegd bij de juiste verantwoordelijke. Informatiebeveiliging hoort op dezelfde wijze besproken te worden aan de bestuurstafel als de financiële huishouding.

De auditpraktijk moet hierop inspelen. De beoordeling van specifieke NCSC beveiligingsrichtlijnen voor websites blijft bestaan, maar wordt uitgebreid met de beoordeling van de besturing van de informatiebeveiliging door de leiding van de organisatie (‘the tone at the top’) en de inrichting van de basisprocessen voor informatiebeveiliging (‘de basis op orde’). Hierbij niet alleen de opzet en het bestaan van maatregelen beoordelen, maar ook de continue aandacht het gehele jaar door.

 

Drs. Joep GM Janssen RE MIM  is Lead IT Auditor bij VKA en voorzitter van de landelijke NOREA werkgroep DigiD assessments. Deze bijdrage is op persoonlijke titel geschreven.

 

Data op orde? Verbeter ook je processen

Data is steeds vaker op orde gebracht als gevolg van aandacht voor datamanagement. Er wordt vergeten dat hierdoor verbeteringen te behalen vallen in de primaire en ondersteunende processen met als gevolg minder fouten en hogere effectiviteit. Deze procesverbeteringen zorgen er juist weer voor dat de datakwaliteit toeneemt waardoor sprake is van een zichzelf versterkend effect. Vergeet na het op orde brengen van de data dus niet de processen te verbeteren.

Ik kom bij steeds meer organisaties die serieus bezig zijn met datamanagement. Dit om te voldoen aan de AVG (Algemene Verordening Gegevensbescherming) maar ook omdat ze op basis van de data hun ambities zoals informatiegestuurd werken kunnen realiseren. Bij het voldoen aan de AVG gaat de aandacht uit naar welke gegevens er bewaard mogen en moeten blijven en wie er toegang heeft tot deze gegevens. Bij informatiegestuurd werken is het vooral de zoektocht naar data waar sturing op plaats kan vinden.

Het gevolg hiervan is dat data steeds vaker op orde is gebracht. Dit wil zeggen: er is geïnventariseerd welke data er aanwezig is binnen de organisatie, omdat hier vaak geen overzicht van is, en vervolgens is het op een geschikte locatie ondergebracht met bijpassende autorisaties. Maar al te vaak zie ik dat vervolgens wordt vergeten om deze op orde gebrachte data ook beter in te zetten in de primaire en ondersteunde processen.  Men laat zo een kans voor open doel liggen.

Een voorbeeld hiervan in het primaire proces is het op orde brengen van cliëntendossiers in een zorginstelling. De toegevoegde waarde hiervan wordt veel groter als vervolgens wordt gekeken hoe deze data effectief en efficiënt kan worden ingezet door medewerkers. Welke informatie hebben zij nodig om in specifieke gevallen de cliënt zo goed mogelijk te helpen? Hoe kunnen we ervoor zorgen dat juist deze informatie makkelijk en snel uit het dossier te halen valt?

Een ander voorbeeld is het inzetten van de stuurinformatie. Op basis van deze data kan in ondersteunende processen worden gekeken naar de kwaliteit van het capaciteitsmanagement van medewerkers, of waar in administratieve processen de grootste vertraging op treed. Dit blijkt vaak laaghangend fruit te zijn omdat het weinig tijd kost om verbeteringen te benoemen.

En als op deze manier procesverbeteringen tot stand komen, leidt dit met terugwerkende kracht bovendien tot het verder versterken van de datakwaliteit. Wanneer er minder fouten in processen worden gemaakt en ze effectiever zijn, neemt immers ook de kwaliteit van de data toe. Zo ontstaat een zichzelf versterkend effect.


Wil je weten waar voor jouw organisatie de procesverbetering op basis van data is te behalen, neem dan contact met mij op.

 

“Binnen drie jaar heeft elke zichzelf respecterende organisatie een CDO”

Onlangs mocht ik spreken op een congres over het belang van datamanagement binnen organisaties. Mijn stelling was dat binnen drie jaar elke zichzelf respecterende organisatie een Chief Data Officer (CDO) heeft. In de zaal leidde dit tot een interessant discussie over de toegevoegde waarde van een CDO. Wat betekent het hebben van zo’n rol voor de organisatie, en waarom zou je juist nu moeten nadenken over een CDO?

Data (en daarmee datamanagement) wordt steeds belangrijker voor organisaties. Daar zijn twee simpele redenen voor. Ten eerste: er is meer data, bijvoorbeeld door het gebruik van slimme sensoren. Ten tweede: de mogelijkheden om hier nieuwe uitzichten uit te halen zijn sterk gegroeid, bijvoorbeeld door het breed beschikbaar komen van analyse- en rekenkracht via de cloud. Veel organisaties onderkennen deze ontwikkelingen en zijn onder de noemer van datagedreven of informatiegestuurd werken bezig om ‘hun’ data beter te benutten.

Data is daarmee uitgegroeid tot één van de belangrijkste assets van de organisatie. De vraag wie verantwoordelijk is voor deze asset is echter nog te vaak onbeantwoord. Om die vraag te beantwoorden en om grip te houden op het geheel aan data binnen de organisatie is sinds een aantal jaar de CDO in opkomst. De CDO is de verpersoonlijking van alles wat met data te maken heeft, verantwoordelijk voor het gebruik van data en bovendien boegbeeld van uw datagedreven ambitie.

De CDO is verantwoordelijk voor de datavisie en -strategie en vertaalt technologische ontwikkelingen naar kansen voor de organisatie. Maar daarnaast borgt hij ook de inrichting van datamanagement binnen de organisatie, binnen wet- en regelgeving zoals rondom privacy en security. Als nieuwkomer op C-level is de CDO daarmee direct één van de belangrijkste functionarissen. Niet in plaats van, maar naast de CIO, die gaat over de informatievoorziening en de ICT-infrastructuur.

Natuurlijk is benoemen van een CDO geen panacee voor een datagedreven organisatie, maar het zorgt er wel voor dat data als asset de aandacht krijgt die het verdient. Daar was de zaal het uiteindelijk ook mee eens. Van de ruim 120 organisaties gaf bijna 70% aan het eens te zijn met de stelling. Ik ben benieuwd hoeveel van deze organisaties over drie jaar ook echt een CDO heeft.

 

De vijf van Jasmijn

Ik werk ondertussen vijf jaar als adviseur én ik ben vijf jaar in dienst bij VKA. Tijd dus om de balans op te maken; welke lessen heb ik geleerd? Ik deel er graag vijf.  

1: ICT dient de mens, en niet andersom

Ik ben heel blij dat de afgelopen tijd meer aandacht is voor ‘de mens’. Dat klinkt misschien een beetje zweverig, maar dat is zeker niet zo bedoeld. Ik ben er stellig van overtuigd dat mensen de uiteindelijke waarde van ICT bepalen. Een systeem kan nog zo fantastisch zijn, als het niet aansluit op de behoefte van de gebruiker of de gebruiker wil/kan er niet meer werken is het systeem compleet waardeloos. Het is belangrijk om tijdig de juiste mensen te betrekken bij de aanschaf, bouw of verbouw van ICT-diensten of –producten, zodat deze aansluiten bij de behoeften en wensen van degenen die er uiteindelijk mee gaan werken. Klinkt als een inkoppertje toch? In theorie: ja. In praktijk: nee.

2: Neem jezelf niet als uitgangspunt

Belangrijk kenmerk van een adviseur is de veranderende omstandigheden waar je werkt, de opdracht die je uitvoert en de mensen waarmee je werkt. Voor anderen is het misschien helemaal niet zo vanzelfsprekend om je constant aan te moeten passen aan een nieuwe situatie. De mens is van nature een gewoontedier: gewoonten geven houvast en rust. Zodra deze gewoonten in gedrang komen raken mensen soms zelf ook in de knoop.

In opdrachten ben ik regelmatig in de valkuil gestapt om mezelf als uitgangspunt te nemen, met als gevolg dat ik onvoldoende stil stond bij de mogelijkheid en welwillendheid van anderen om te veranderen. De mate waarin men los kan komen van gewoonten verschilt per persoon. Houd dit voor ogen en ga hier zorgvuldig mee om!

3: Focus op de nieuwe situatie is goed, maar besteed ook aandacht aan de fantoompijn

Deze metafoor hoorde ik laatst iemand gebruiken voor de houding van mensen bij verandertrajecten. Ik vind dit zo’n treffende vergelijking dat ik het hierbij even leen. Fantoompijn is een pijngevoel dat wordt ervaren in een geamputeerd lichaamsdeel. In projecten merk ik, aansluitend op het hierboven genoemde leerpunt, dat er vaak te weinig aandacht voor de transitie van het oude naar het nieuwe. De nieuwe werkomgeving, de verbeterde processen of het gedigitaliseerde proces kan nog zo goed zijn, zolang mensen niet loskomen van het ‘oude’ zullen zij ook fantoompijn kunnen ervaren en de nieuwe situatie niet (volledig) kunnen accepteren.  Ik heb geleerd dat het belangrijk is om deze pijn te erkennen, er niet aan voorbij te gaan, maar er vervolgens wel voor te zorgen dat mensen het afsluiten.

4: Groeien doe je samen

Voor dit leerpunt zijn de uitspraken: ‘Alleen ga je sneller, samen kom je verder’ en ‘wie nooit van mening is veranderd, heeft ook nooit iets geleerd’ het uitgangspunt. Misschien clichés, maar daarom niet minder waar. Bij VKA werken we veel in teams. Dit is handig omdat je onderling kan afstemmen en ook omdat je veel van elkaar kan leren. Met name de combinatie van meester en gezel werkt goed: ervaring en kennis wordt verrijkt door frisse ideeën. Door open te staan voor de mening/visie/gedachten van anderen kom je vaak op ideeën waar je alleen niet op zou zijn gekomen. Samen aan een project werken maakt het ook mogelijk om af en toe even achterover te leunen en te kijken hoe een collega iets aanpakt. Dit kan je bij de volgende opdracht of het volgende gesprek weer helpen!

5: Hou eens op met die ‘lege’ managementwoorden

Tot slot nog een persoonlijk ‘irritatiefactortje’ zoals Jochem Myjer het bezingt: het gebruik van lege management- en consultancytermen die niets betekenen. ‘Het even in de week leggen’, ‘over de schutting gooien’, ‘even sparren’, ‘ergens een klap op geven’, ‘je ding doen’ en ‘stukje’. Voor iemand als ik die visueel is ingesteld ziet dit gelijk gebeuren. Hoe ziet een idee eruit als het een paar uur in een teiltje met water heeft gelegen? En bij sparren denk ik gelijk aan Kerstmis of aan een wijd uitgestrekt veld ergens in Zwitserland waar af en toe een boom staat en ‘je ding doen’ snap ik gewoon echt niet. Los van het feit dat ik, als taalneuroot, hier jeuk van krijg heeft het ook een ander nadeel: het biedt ruimte. Ruimte om onduidelijke afspraken te maken, verwachtingen niet naar elkaar uit te spreken en geen verantwoordelijkheid hoeven te nemen.

En toch betrap ik mezelf er stiekem ook wel eens op dat ik een vergaderverzoek ‘inschiet’…

 

En als het dan helemaal gelukt is ….?

In een gesprek met een schoolleider kwam de ambitie van de school ter sprake. ‘We willen gepersonaliseerd leren gaan vormgeven’. Mijn vraag: ‘ Hoe ziet dat eruit voor de leerling als het helemaal gelukt is? ‘Nou dan valt er wat te kiezen en kan iedereen zijn eigen talenten ontwikkelen? Ik weer: ‘Wat kan die leerling dan wat nu nog niet kan? Tussendoor was de pen al wel een keer op de tafel gegooid met de verzuchting ‘Wat een lastige vragen’. Pas langzaam kwamen we bij een meer ingekleurd beeld van dat vage idee van gepersonaliseerd leren. En dat was dan nog alleen zijn beeld maar wat denkt zijn lerarenteam?

Zo concreet en tastbaar mogelijk

De vraag ‘en als het dan helemaal gelukt is…?’ zou vaker gesteld moeten worden. Het gaat er daarbij niet om een dichtgetimmerde bouwtekening op te leveren van het nieuwe huis maar om de houtskoolschetsen van het huis waarin jij graag wilt leven. Moet daar een kookeiland in of een stoomoven, vier kinderkamers of een studio om muziek te kunnen maken? Zo’n schets zou je ook de ‘richtinggevende visie’ kunnen noemen waar zo vaak om gevraagd wordt.

Dit gaat verder dan enkel ‘te beginnen met het einde voor ogen’ zoals onder meer Stephen Covey het formuleert. Het maakt het einddoel tastbaar en het dwingt betrokkenen verder te denken dan vage vergezichten en algemene doelstellingen. Zo komt er focus. Wat willen we nu echt bereiken?

Fantaseren en inspireren

Deze vraag leidt dus tot fantaseren. Nadenken over een tastbare eindsituatie houdt ons namelijk ook nog even weg van alle belemmeringen op de weg naar dit einddoel. Het maakt dat we alle mogelijkheden zien.  Die belemmeringen komen later wel als we weten waar we naartoe willen.

Deze werkwijze leidt bovendien tot inspirerende resultaten. De genoemde schets van de woning vormt een veel betere basis om enthousiast mee verder te gaan dan de technische specificaties die anders waren opgesteld.

Kruisbestuiving

De vraag stellen aan een ander, betekent hem ook samen beantwoorden. Het is juist in de kruisbestuiving tussen ideeën dat de beste inzichten ontstaan. Als je deze vraag stelt, hoef je daarom niet meteen genoegen te nemen met het eerste antwoord zoals blijkt uit het gesprek met de schoolleider. Doorvragen is nodig net als brainstormen met anderen. De antwoorden voor iedereen zichtbaar vastleggen op een flipover of een whiteboard helpt ook. We zien waar we samen heen willen.

Altijd en overal

En wat als het helemaal gelukt is … ? Stel deze vraag dus altijd. Bij het begin van een project, bij het voorbereiden van een workshop of een les, of bij het formuleren van goede voornemens tijdens de jaarwisseling. Het is dé vraag die helpt.

 

 

Zo ga je om met visualisatiedrang: 6 tips voor de vormgeving van visualisaties

Omdat visualisaties binnen organisaties op veel manieren kunnen worden gemaakt is het zoeken naar de juiste vorm. De keuzes in vormgeving hebben invloed op het resultaat. De inhoud kan ogenschijnlijk identiek zijn, terwijl een krachtige vormgeving zorgt dat de boodschap beter begrepen wordt of beter overkomt. De volgende 6 tips helpen in de keuze voor de vormgeving.

Tip 1: Kies een duidelijke doelgroep voor de visualisatie.
Een bestuurder wil geen complexe Excel sheets, terwijl anderen juist de details willen bestuderen. Laat daarom de boodschap aansluiten bij de doelgroep. Is de doelgroep organisatiebreed zorg dan dat het voor iedereen toegankelijk is en hou het zo simpel mogelijk.

Tip 2: Kies de setting waarbinnen de visualisatie moet landen.
Is het een rapportage uit tooling, de rapportage en presentatie van een onderzoek, een communicatiebericht, een tekening op whiteboard/flipover, een aanvulling op een offerte etc., de setting geeft richting aan de vormgeving. Een communicatiebericht moet alleen om de boodschap gaan, terwijl een visualisatie in een offerte visueel aantrekkelijk moet zijn en ook inhoud moet ondersteunen.

Tip 3: De kunst van het weglaten.
Stel de vraag of het echt nodig is om bepaalde informatie te presenteren. Hoe meer informatie wordt weggelaten hoe meer focus er komt voor hetgeen is overgebleven. Hierdoor is een discussie veel specifieker te voeren en wordt men gerichter aan het denken gezet.

Tip 4: Gebruik binnen visualisaties figuren in plaats van tekst.
Is binnen een visualisatie een woord of zinsdeel te vervangen met een figuur dan is dit makkelijker te begrijpen en beklijft het beter. Dit werkt tegenovergesteld als het gekozen figuur niet voldoende duidelijk is, dan ontstaat er discussie en onduidelijkheid.

Tip 5: Zorg voor overzicht binnen het blikveld.
Een infographic past bijvoorbeeld in één pagina, maar als er veel op staat gaat de boodschap verloren. Als er daarentegen meer visualisaties zijn voor hetzelfde onderwerp, vraag je dan af of het niet gecombineerd kan worden in bijvoorbeeld klikbare selecties.

Tip 6: Gebruik veel kleur.
Donkere kleuren zijn sneller saai. Felle kleuren spreken aan, maar zijn niet altijd goed zichtbaar of het is kinderlijk. Zorg daarom bij het toevoegen van kleur altijd voor de juiste vorm en toegankelijkheid.

Extra tip: neem contact met mij op om nog meer overwegingen door te nemen voor het maken van krachtige visualisaties.

 

5 principes om samenwerken in ecosystemen te laten werken

In blog 1 hebben we uitgewerkt waarom het belangrijk is om te schakelen van het denken in silo’s naar het denken in ecosystemen. Het is de essentie van de transitie naar een digitale wereld. In blog 2 lichten we vijf principes toe die de samenwerking in ecosystemen kenmerken.

Succesvol werken in ecosystemen

Door de permanente uitwisseling van data is steeds meer alles met alles verbonden en iedereen met iedereen. Bewust kiezen voor samenwerking over de grenzen van de eigen organisatie heen en in beeld krijgen van de ecosystemen waarin we opereren, is essentieel om beschikbare middelen efficiënt en effectief in te zetten. We gaan er hierbij van uit dat een ecosysteem meerdere partijen omvat, waarvan de klant er één is. Een ecosysteem heeft daarnaast een doel, dat voor de langere termijn en breder dan de eigen organisatie betekenis heeft. Dit gezamenlijke doel geeft een zekere stabiliteit aan het ecosysteem, terwijl het tegelijkertijd meebeweegt met de dynamiek van de omgeving en van de verschillende partners. Soms is het leiden, soms volgen. Als een partner wegvalt, wordt een nieuwe gezocht om het systeem aan te vullen.

Vijf principes beïnvloeden het succes

We onderkennen een vijftal principes die het samenwerken in een ecosysteem tot een succes kunnen maken. Deze principes zijn ontleend aan interviews die zijn gehouden met regisseurs en spelers uit de praktijk van de podiumkunsten. Bij deze vergelijking met de praktijk van de podiumkunsten gaan we ervan uit dat een ecosysteem soms ook bewust in het leven wordt geroepen om een bepaald doel te realiseren.

Centrale vraag in de interviews was: Hoe zorgen zij dat er synergie is in de groep, zodat de boodschap die zij willen brengen overkomt bij het publiek?

Belangrijk: De volgorde van de principes is niet van belang en het toepassen is iteratief: het is nooit klaar.

  • Iedere partij in een ecosysteem heeft zijn eigen waarde voor de functie die het systeem heeft (zo niet >> vertrek). Dit betekent dat de functie van het systeem bekend is en dat partijen zich daarvan bewust zijn en zich er aan hebben verbonden. Het betekent ook dat partijen oog hebben voor het effect van hun inbreng op het functioneren van de andere partijen in het systeem en de uitkomsten als geheel.
  • ‘Bring the system in the room’. Pas als je elkaar fysiek ontmoet, ontstaat begrip en respect voor elkaar en elkaars functioneren. Dat verdiept en brengt relevante vragen boven water en creatieve oplossingen. Werken in ecosystemen is werken in N op N relaties. Je moet elkaar horen, zien, proeven om de complexiteit van het grotere geheel te vatten.
  • Samenwerken is een proces dat zich over langere tijd ontwikkelt (net als vertrouwen, solidariteit, intrinsieke motivatie). Iedere persoon (en organisatie) heeft hierin een rol en een verantwoordelijkheid. Gun de samenwerking tijd.
  • De relatie draagt het systeem (functies zijn vervangbaar). Focus op de verbinding en wat er over de lijn gaat, zowel intermenselijk als in data. De verantwoordelijkheid voor data bijvoorbeeld blijft vaak bestaan, ook al zijn data in handen van een andere partij. Transparantie is in dit kader een belangrijk begrip.
  • Er is ruimte voor eigen inbreng en creativiteit om de doelen vorm te geven. Die ruimte ontstaat wanneer concrete kaders voor de manier van samenwerken (de verbinding) en voor het resultaat zijn gegeven. Van tijd tot tijd is het nodig te kalibreren: waar staan we, dienen we nog steeds hetzelfde doel, welke relevante ontwikkelingen zijn er binnen de deelnemende organisaties en in onze omgeving.

Deze vijf principes kenmerken een horizontale kijk op samenwerken, op basis van gelijkwaardigheid en met een open verbinding. Ze hebben impact op onze managementstijl en manier van organiseren. In de praktijk valt het niet altijd mee om hier vorm aan te geven. Veel organisaties zijn nu eenmaal (nog) georganiseerd in silo’s. En we willen toch graag ergens de regie op houden, terwijl in ecosystemen regie steeds minder een rol speelt. In het volgende blog geven we voorbeelden uit de praktijk van het horizontaal samenwerken. De belangrijkste conclusie: Regie in ecosystemen begint bij jezelf!

 

Meer weten?

VKA heeft ruime ervaring in vraagstukken zoals deze. Neem daarom contact met ons op met jouw vragen over regievoering, samenwerking in ecosystemen of andere digitale uitdagingen.

 

Waarom denken in ecosystemen loont

Van silo’s naar ecosystemen
Silodenken is uit, ecosysteem is het nieuwe modewoord. Het geeft de essentie weer van het transitie denken, de transitie naar een digitale maatschappij. Dit blog legt in drie afleveringen uit waarom dat van belang is, welke principes het succes bepalen en hoe je daar stappen in kunt maken. In dit eerste deel: waarom denken in ecosystemen loont.

Alles is met alles verbonden en iedereen met iedereen

De transitie naar een digitale wereld is onomkeerbaar en gaat razendsnel. Dit heeft op diverse manieren invloed op onze wereld. Als eerste op onze wereld als consument. Data uitwisseling vindt plaats via platforms, apps, apparaten die we in huis hebben, via onderwijs, bedrijven waar we werken en bedrijven waar we aankopen doen. Alles is met alles verbonden door uitwisseling van data. We kunnen daardoor gemakkelijk met elkaar communiceren en één consument kan soms meer teweegbrengen dan een groot concern. Op dezelfde manier is onze bedrijfswereld verbonden met praktijken en stakeholders binnen en buiten onze organisatie. Voorheen, in het industriële tijdperk, konden we ons bedrijf zien als spil van een markt of een maatschappelijk werkveld. Het ging er om een behoefte bij de klant te creëren die paste bij ons aanbod. Nu maakt de klant door de uitwisseling van data deel uit van ons organisatienetwerk. De klant bepaalt zelf of en hoe men ons nodig heeft. Nieuwe technologieën maken het mogelijk dat klanten met klanten afspraken maken en bijvoorbeeld de bank links laten liggen – zoals bij bitcoin transacties. Of het gedrag van klanten dwingt de markt tot het ontwikkelen van nieuwe standaarden, zoals bij het inzetten van robotics en het Internet of Things.

Data uitwisseling tussen ongelijke grootheden binnen en buiten de organisatie

We raken er steeds meer aan gewend dat we data uitwisselen met een grote diversiteit aan partijen die een rol spelen in ons persoonlijk leven en ook in de wereld van ons bedrijf. Een onderwijsorganisatie legt verantwoordelijkheid af aan de overheid over het aantal aangenomen studenten en de voortgang van de studie, wisselt gegevens uit met uitgeverijen in verband met e-learning systemen, voorziet de student van informatie over het onderwijscurriculum en de planning van lessen. Patiëntgegevens worden meer en meer gedeeld onder gezondheidsinstellingen, apotheken en behandelaars. In deze uitwisseling van data is niet de ene partij belangrijker dan de andere. Als bedrijf willen we maar al te graag die data van consumenten verzamelen om nieuwe commerciële proposities te maken. Tegelijkertijd zijn we afhankelijk van de bereidheid van die consument om data aan ons af te staan. Omgekeerd zijn klanten in de levering van diensten steeds meer afhankelijk van juiste en betrouwbare data van een leverancier.

Verticaal managen versus horizontaal samenwerken

De digitalisering maakt dat we niet meer onze organisaties kunnen indelen in business units die onafhankelijk van elkaar profit realiseren of afdelingen als ICT, HR, Marketing en Communicatie die als eilanden opereren. En ook top down managen van de uitvoering binnen deze silo’s heeft weinig zin als iedere medewerker op vele manieren – vaak buiten de bedrijfsvoorzieningen om – verbonden is met informatie van binnen en buiten de organisatie. Verticaal managen maakt plaats voor horizontaal samenwerken. We hebben de expertise van andere bedrijven en instellingen nodig en ook de feedback van de klant om onze plannen voor de toekomst waar te kunnen maken. En ook om dit plan, als dat nodig is, snel te kunnen bijstellen.

Bewust opereren in ecosystemen

Voor deze manier van samenwerken gebruiken we de metafoor van het ecosysteem. Alle partijen zijn in gelijke mate verantwoordelijk voor het geheel, alle partijen hebben een eigen rol en zijn even belangrijk (in de watercyclus is de regendruppel niet belangrijker dan de rivier.) Als er één partij tussenuit valt, verandert het resultaat als geheel of valt het ecosysteem uit elkaar.

Door de permanente uitwisseling van data zijn we met alle partijen in het systeem verbonden, vaak zonder te weten wat we uitwisselen en welke functie dat voor ons als organisatie heeft. We bewegen, gewild of ongewild, mee met de dynamiek die zich in het ecosysteem afspeelt, met de ontwikkelingen en veranderingen bij andere partijen. Dit vergroot de complexiteit van onze bedrijfsvoering. Digitalisering vraagt van managers en bestuurders dat zij zich bewust zijn van de ecosystemen waarin zij opereren. En met de nieuwe verordening rond data en privacy (AVG) is het des te meer de verantwoordelijkheid van de business om te weten in welke systemen de organisatie opereert, waarom we dat doen en welke verantwoordelijkheid we daar in willen of moeten nemen.

Ecosysteem is niet zomaar een modewoord, het staat voor horizontaal denken, over de grenzen van de eigen organisatie heen. Jan Rotmans, goeroe van de transitie naar een duurzame wereld, noemt dit kantelen. In het kwaliteitsdenken van de vorige eeuw spraken we van volwassenheid op niveau 4 en 5, een niveau dat alleen was weggelegd voor een zeer beperkt aantal bedrijven met hoogstaande expertise, zoals de NASA. Volwassenheidsniveau 4 (klantgericht opereren) en 5 (over de grenzen van de organisatie heen samenwerken) is de nieuwe norm. Onbereikbaar? Dat valt te bezien. Over de manier van werken en de principes die het succes bepalen gaat blog 2 in deze serie.

 

Meer weten?

VKA heeft ruime ervaring in vraagstukken zoals deze. Neem daarom contact met ons op met jouw vragen over regievoering, ecosystemen of andere digitale uitdagingen.

 

De valkuilen van Data & Analytics in zeven spreekwoorden

Big data, datamining, deep learning, data science, AI; of het nu om marketing, procesoptimalisatie, diagnoses of DNA-onderzoek gaat, voor alle vraagstukken lijken slimme analysetechnieken dé oplossing. Voorspellingen over de bloeiende markt voor data science en het grote gebrek aan analisten vliegen je om de oren. Maar hoe ga je slim om met deze hype, en haal je écht waarde uit data door de valkuilen te vermijden?


“Zoekt en gij zult vinden”

Start altijd met een concrete businessvraag. Het klinkt heel mooi om “data te laten spreken”. Met zoveel data en analysetechnieken – waarom niet gewoon wat proberen? Omdat statistisch gezien je altijd verbanden zal vinden in data, maar die hoeven niets te betekenen. Bovendien heb je zonder businessvraag geen idee welke data relevant is. Start liever met een concrete vraag als “Hoe kan ik meer winstgevende nieuwe klanten trekken”, “Hoe verlaag ik de kosten van dit klantproces” of “Hoe ontdek ik fraude”. Hoe specifieker, hoe beter. Die concrete vraag vormt dan de leidraad in je analyseproces en dataverzameling.


“De mens leeft niet bij brood alleen”

Een data scientist kan het niet alleen. Om een concrete businessvraag goed op te lossen is meer nodig dan kennis van analysemethoden en -technieken. Er is veel domeinkennis nodig, kennis over het concrete klantproces, marketingvraagstuk of fraudegebied dat je op wil lossen. Deze kennis helpt om de juiste data te verzamelen en de juiste vragen aan de data te stellen. Dagelijkse samenwerking in multidisciplinaire teams is een goede manier om dit te realiseren.


“Eén ei is geen ei…”

Weet wat je doet. Kan je analysevragen oplossen zonder data analist? Je zou het bijna denken, voorspelmodellen zijn tegenwoordig in een handomdraai gemaakt. Maar … fouten nog veel sneller! Er kan veel misgaan in een analyseproces. Een perfect resultaat bijvoorbeeld is voor een goede analist juist reden tot zorg. Want als je 100% correct kan voorspellen welke klanten weg zullen lopen, heb je waarschijnlijk last van zelf verstopte paaseieren. Dat wil zeggen dat je per ongeluk een gegeven hebt meegenomen in je model dat één op één verband heeft met wat je wil voorspellen. Dit verband kan soms  goed verstopt zitten, bijvoorbeeld een gegeven dat in het exitgesprek met klanten wordt genoteerd. Een goede analist kijkt kritisch naar het resultaat, checkt het bij domeinexperts, toetst de afhankelijkheden en verifieert de resultaten met andere bronnen.


“In de beperking toont zich de meester”

Begin klein. Hé, we hebben het toch juist over big data? Jazeker, maar succes met big data heb je pas als je goed kan kiezen. Begin met de concrete businessvraag en pak je project klein en iteratief aan. Begin met makkelijk verkrijgbare data en eenvoudige technieken en kijk of je daarmee al een deel van de vraag kan beantwoorden. Check je resultaten bij domeinkenners en voeg meer data en technieken alleen toe als het nodig is.


“Wie schrijft die blijft”

Documenteren is cruciaal. In het proces van businessvraag naar analyse-antwoord doe je aannames, bouw je domeinkennis op, maak je keuzes voor databronnen, technieken etc. Als je 3 of 6 maanden later de analyse wil herhalen, ben je het meeste weer glad vergeten. De keuzes in het analyseproces bepalen ook wanneer het model toepasbaar is, en wanneer niet. Bijvoorbeeld een model dat is ontwikkeld voor consumentenklanten, kan niet zomaar worden toegepast op zakelijke klanten. Zonder documenteren leren jij en anderen niets van dit hele proces, en moet je bij een volgende vraag weer helemaal opnieuw beginnen. Zonde!


“Met passen en meten wordt de meeste tijd versleten”

Datapreparatie kost tijd. Datapreparatie is het minst sexy en tegelijk het meest succesbepalende onderdeel van het analyseproces. Gemiddeld gaat meer dan 80% van de tijd hieraan op. Voor de voorspelkracht van modellen zijn de keuzes in datapreparatie veel bepalender dan de keuzes in modelleertechnieken. In deze fase is het gebruik van domeinkennis cruciaal.


“Je kunt geen ijzer met handen breken”

Data geeft niet altijd antwoord op je echte vraag. Soms is er simpelweg te weinig informatie om een probleem met data-analyse te kunnen beantwoorden. Soms vind je wel duidelijke verbanden in data, maar begrijp je nog niet waarom dat zo is. Je weet bijvoorbeeld dat klanten in een bepaalde regio sneller jouw dienst opzeggen. Maar pas als je weet waarom ze dit doen, kun je proberen die klanten te behouden. De kennis uit data kan dan aangevuld worden met bijvoorbeeld marktonderzoek.


 

Bovenstaande tips zijn gebaseerd op 25 jaar praktische ervaring met data en analyse. Wil je meer weten over het omzetten van data in waarde voor jouw organisatie? Neem dan contact met mij op via de gegevens links.

 

De stille helden van data-gedreven samenwerken: zingeving, vormgeving en betekenisgeving

Datavisualisatie is het nieuwe toverwoord. Met visualisatietools zoals Tableau, Power BI, Qlik BI lijkt het alsof elke organisatie binnen een paar minuten kan beschikken over de juiste verantwoording- en stuurinformatie. Flitsende dashboard visualisaties op de 4K-monitor in het kantoor van de directeur. Voor de klant het gevoel ‘in-control’ te zijn en voor de adviseur een snelle succesvolle opdracht.

Maar is dit dan de essentie van data-gedreven samenwerken? Helpt het ‘dashboardje’ daadwerkelijk om beter te sturen en te verantwoorden?

Het antwoord is: ja en nee. Er zijn drie stille helden van data-gedreven samenwerken waar u over na kunt denken als u wilt starten met business intelligence: zingeving, vormgeving en betekenisgeving.

Geef deze spreekwoordelijke ‘helden’ ruimte bij het starten van een business intelligence project en bedenk, ‘het zijn de mensen die het hem doen’, zij zijn de werkelijke stille helden die data-gedreven samenwerken mogelijk maken. Een inspirerend voorbeeld is de film ‘Mission Control: The unsung heroes of Apollo, over de team samenwerking die nodig was om een mens op de maan te zetten. Business intelligence projecten lijken net zo ambitieus als een maanmissie, resultaten liggen vaak ver weg en zijn moeilijk te bereiken.

Welke ruimte geeft u aan de stille helden?

Zingeving. Elke bestuurder brengt zijn eigen persoonlijkheid, kennis en kunde mee. Waar de een het belangrijker vindt om ‘op de tent te passen’ wil de ander de spreekwoordelijke ’stempel drukken op de organisatie’. De intrinsieke motivatie van de bestuurder(s) is vaak de basis van samenwerking of strijd in de directie of het managementteam. Zingeving is daarbij een voorwaarde.

Waarom willen wij beter verantwoorden en sturen? Wat is onze missie en visie?

Het lijken vage termen, maar met een realistische missie en visie kunt u teams inspireren. Hierbij zal u als leider in staat zijn om verantwoordelijkheid te nemen en anderen mee te krijgen. Zoals de schrijver van de kleine prins, Antoine de Saint-Exupery, al schreef: ‘Wilt u dat mensen schepen bouwen, laat ze dan verlangen naar de zee’. Voor ruimteschepen of Big Data ambities geldt dan de maan, zoals in de film, of een andere planeet.

Met draagvlak vanuit de directie kunnen teams een missie en visie omzetten in realiteit. Binnen het BI-project of de BI-afdeling gaat het dan om een pakkend verhaal met behulp van data en visualisaties te produceren i.p.v. het maken van het zoveelste nietszeggende standaardrapport. Een product dat in trek is motiveert zowel het team als de stakeholders.

Vormgeving. De visualisatietool kan de start zijn voor een business intelligence project. Communicatie en marketing kunnen ondersteunen bij het vertellen van het verhaal. Inzicht en overzicht. Extern en intern. Vormgeving is een ambacht en vergt tijd en inspanning. Datavisualisatie maakt trend- en patroonherkenning mogelijk en versterkt het lerende vermogen.

Het gevisualiseerde verhaal inspireert een organisatie om winst te maken en/of het maatschappelijk nut te bevorderen. Vormgeving treft het doel als het een reflectie is van de realiteit, zoals de klant of medewerker dat in de dagelijkse praktijk ervaart. Daarom is het essentieel om bij vormgeving samen te werken met personen die klantcontact hebben. De realiteit omvat meer dan alleen de eigen interne administratieve werkelijkheid. Visualisatie moet een feedbackmechanisme zijn tussen organisatie, klant en medewerker.

Betekenisgeving. Ieder persoon kent een andere betekenis toe aan een object of ervaring. Taal is ambigu. Een BI-project of BI-afdeling slaagt alleen met behulp van teamwork en continue feedbackmechanismen binnen én buiten het team. Pas als uw organisatie begrepen wordt, kan er door mensen een vertaling gemaakt worden naar bruikbare begrippen, datamodellen, rekenregels, BI-producten en visualisaties. Zorg dat de teamleden beschikken over toepasbare creativiteit, vakkennis, communicatieve kwaliteiten en werkervaring. Deze mensen zijn de stille helden van uw stuur- en verantwoordingsambities. Business intelligence, datawarehousing, datamining en datavisualisatie zijn een ambacht, uitgevoerd door stille helden, en vergen tijd, ook met de opkomst van mooie visualisatietools!

 

Beste meneer Rutte, big data in het onderwijs… (1/5)

…is trending, maar wat kunt u daarmee in de onderhandelingen over de formatie van het nieuwe kabinet?

De VVD stelt in haar verkiezingsprogramma dat ons onderwijs “tot de top van de wereld behoort”. “Om de kwaliteit van het onderwijs hoog te houden, moet het meebewegen met ontwikkelingen in de samenleving”. De VVD benoemt daarbij in het basis- en voortgezet onderwijs onder meer de meerwaarde van “digitale hulpmiddelen” en het belang van “digitale vaardigheden”.

Internet giganten zoals Apple, Facebook, Google en Microsoft hebben het afgelopen decennium een enorme invloed gekregen op onze maatschappij. Hun smartphones, laptops en apps zijn inmiddels doorgedrongen tot in de klaslokalen. De toekomst van deze bedrijven zit echter in de informatie die zij vergaren van hun gebruikers, deze wordt via advertentie inkomsten ten gelde gemaakt. Daarvoor maken deze bedrijven gebruik van (big) data analytics: technieken om bijvoorbeeld verborgen patronen, onbekende correlaties en gedragingen uit grote en gevarieerde datasets te halen.

Klinkt het niet logisch dat ons onderwijs, waarin we mensen opleiden voor een wereld waarin data niet weg te denken is, zelf ook gebruik maakt van de mogelijkheden die (big) data biedt?

Begrijp me niet verkeerd: ik heb het dan niet over het ongebreideld verzamelen en doorverkopen van informatie. Ik heb het wel over het gebruik van beschikbare informatie die leeropbrengsten kan verhogen, in de veilige omgeving die onze onderwijssector biedt, binnen de strikte kaders die de Nederlandse wet daaraan verbindt.

Bij (big) data analytics in het onderwijs kun je aan veel aspecten denken. Voorbeelden zijn adaptief toetsen waarbij leerlingen, door een analyse op hun eerdere toetsresultaten (data), toetsen krijgen die passen bij hun niveau. Ook kan door data analytics voorspeld worden welke leerlingen de grootste kans hebben om te blijven zitten, of zelfs het onderwijs definitief te verlaten. Data analytics in het onderwijs, aangevuld met domeinkennis van docenten, bieden mogelijkheden voor beter (en gerichter) onderwijs.

Mijn tips voor u, meneer Rutte

De VVD kan het basis- en voortgezet onderwijs helpen op topniveau te blijven, door op het gebied van digitale ontwikkelingen:
1. Kennis en ervaring van data-analyse op alle niveaus in het onderwijs te stimuleren. Een deskundig aanspreekpunt binnen scholen, met een laagdrempelige toegang voor docenten kan helpen. In de regio Utrecht zijn goed ervaringen opgedaan met de zogenaamde datacoach: een docent die weet hoe hij/zij beschikbare data kan gebruiken, zodat op basis van die data binnen de school beslissingen kunnen worden genomen en vernieuwingen kunnen worden doorgevoerd.
2. De informatie die de Inspectie van het Onderwijs vanuit haar controlerende taak verzamelt, en de ervaring met de analyses van die informatie, kan zij praktisch toepasbaar maken en delen met docenten en andere belanghebbenden.
3. Kennis over privacy en wetgeving is belangrijk voor het handhaven van de veilige omgeving die ons onderwijs biedt, binnen de sector groeit het bewustzijn van de gevolgen van digitalisering op privacy, maar we zijn er nog niet. Middels bijscholing kan de kennis in de sector worden vergroot.


In een serie van vijf blogs schetst Sander van Geest hoe (big) data in het onderwijs kan bijdragen aan de realisatie van de verkiezingsprogramma’s van VVD, CDA, D66 en GroenLinks. Elke week verschijnt er een blog aan één van de onderhandelaars, we sluiten af met een voorstel aan de formateur waarin alle partijen elkaar kunnen vinden. Lees ook de tweede blog gericht aan meneer Buma.

 

6 tips voor Predictive Analytics

‘You can run, but you can’t hide’. Kinderen, volwassenen, organisaties, overheidsinstanties en zelfs huisdieren ontkomen er niet aan.

Zo helpt Tindog je hond (of toch stiekem het baasje?) op voorhand al een leuk speelmaatje voor in het park uit te zoeken. Hoe konden we toch ooit zonder?! ICT mengt zich letterlijk in ieder aspect van ons leven; van werken en vrijetijdsbesteding tot aan het vinden van onze levenspartners.

Gedrag voorspellen

De razendsnelle adoptie van nieuwe technologieën, producten en diensten creëert de behoefte bij organisaties en overheidsinstanties om toekomstig klant- of burgergedrag te voorspellen. De technologie is reeds beschikbaar en de benodigde hoeveelheid data ook; Predictive Analytics (PA) is voor veel organisaties een feit!

De eerste ervaringen met PA

Mijn nieuwsgierigheid naar de eerste ervaringen met PA heeft geleid tot interviews bij een tiental organisaties, zowel in de publieke als private sector. Een artikel met daarin de ‘lessons-learned’ van deze organisaties is in de maak. In dit blog alvast een voorproefje op de resultaten, die leidden tot deze 6 tips:

1 Stel binnen het voorspellende model de vraag vanuit de business centraal; alleen relevante data hoeft zo tot een gewenst niveau gebracht te worden. Met deze focus op ‘quick-wins’ borg je je bestaansrecht.

2 Geen business & IT meer, maar een PA-team! Businesskennis is onmisbaar voor een juiste analyse en interpretatie van data. De verklaarbaarheid is cruciaal.

3 Vergeet ‘text- & audio-mining’ niet. Recensies, berichten op social media, klachtenmails en telefonische enquêtes: Dit alles kan omgezet worden naar nulletjes en eentjes.

4 Denk vooraf goed na over mogelijke consequenties én effecten. In geval van een fraude-inspectiebureau; heb je wel genoeg handjes om de 50% extra fraudegevallen aan te pakken?

5 Kijk ook met een ethische bril naar je model; hoeveel macht mogen wij in handen van ‘de computer’ leggen? Bepaalt de computer in het vervolg wanneer een gevangene wel of niet op verlof mag?

6 Onthoud: “Een beeld zegt méér dan duizend woorden”. Hoe de uitkomsten gepresenteerd en gevisualiseerd worden heeft een enorme impact op de interpretatie ervan.

 

2017: Het jaar om innovatief leiderschap te stimuleren en te belonen!

(Gebrek aan) innovatie binnen de overheid

Technologische vooruitgang is altijd disruptief geweest. De stoommachine, elektriciteit en de opkomst van computers hebben allemaal gezorgd voor een revolutie in het maatschappelijk en economisch leven, maar nog nooit hebben innovaties zich zo snel achtereenvolgens opgevolgd als nu. Dit leidt continu tot nieuwe verwachtingen met betrekking tot producten en diensten van bedrijven, maar ook van overheden.

Om aan deze verwachtingen te kunnen voldoen, moeten overheden zichzelf kunnen innoveren. Dit vraagt om leiderschap; visie, eigenheid, nieuwsgierigheid en het lef om te durven falen. Met andere woorden: mensen die vanuit de burger kunnen denken, ondernemend zijn, mogelijkheden zien, samenwerkingen zoeken en ideeën durven ontwikkelen. Niet alleen aan de top van een organisatie, maar door de hele organisatie.

Binnen de overheid zien we een aantal goede voorbeelden waar ruimte wordt gecreëerd voor innovatie. Zo heeft de gemeente Amsterdam nu ruim twee jaar een Chief Technology Officer in dienst. Ger Baron is in zijn rol als CTO verantwoordelijk voor het volgen van (technologische) innovatie, met als doel de gemeente beter, sneller en effectiever te laten functioneren.

De gemeenten Hollands Kroon en Nijkerk hebben een meer rigoureuze aanpak gekozen, namelijk het afschaffen van de managers. Door te werken in zelfsturende teams wordt eigen verantwoordelijkheid en resultaatgerichtheid gestimuleerd en door het bestuur gefaciliteerd. Teams bestaan uit minimaal vier verplichte rollen: de controller, de ontwikkelaar, de zorgdrager en de netwerker. De overige rollen zijn vrij in te vullen. Hierdoor worden teams zelf verantwoordelijk voor producten, diensten en processen. Dit geeft de teams ruimte om te innoveren en te experimenteren, mede omdat zij zelf hun budget en onderlinge resultaatafspraken mogen bepalen.

Deze voorbeelden laten zien dat lef, visie, durven loslaten, en ondernemen belangrijk zijn om te kunnen innoveren. Innovatief leiderschap hoort altijd gestimuleerd en beloond te worden, van de postkamer tot in de ambtelijke top.

Wie nomineert u voor de ‘Overheidsleider van het jaar’-award?

Innovatieve leiders zijn niet per definitie de mensen die zich kwalificeren voor de overheidsmanager van het jaar-award, waar alleen managers/leidinggevenden met ‘uitzonderlijke managementkwaliteiten en een stevige verantwoordelijkheid’ voor in aanmerking komen. Innovatieve leiders kunnen ook beleidsmedewerkers of beheerders zijn. Wat ons betreft is het daarom tijd voor een ‘Overheidsleider van het jaar’-award. Wie zou u nomineren?