Wildgroei aan hulpmiddelen
De opkomst van generatieve AI is niet meer te negeren. Organisaties gebruiken ChatGPT of andere generatieve AI op veel verschillende manieren, vaak als zoekmachine ( lees hier waarom dat een slecht idee is), om samenvattingen te maken, voor juridische analyses (niet altijd even succesvol), maar bijvoorbeeld ook om te brainstormen.
Tegelijkertijd zien we dat in de nasleep van de toeslagenaffaire, er een wildgroei is ontstaan aan hulpmiddelen voor verantwoorde ontwikkeling en inzet van data, algoritmes en AI. Om een paar bekende te noemen, in willekeurige volgorde:
- IAMA (Impact Assessment Mensenrechten en Algoritmes), Ministerie van Binnenlandse Zaken
- Het CODIO- instrument, universiteit Utrecht en Berenschot
- Fundamental Rights Impact Assessment, (wordt verplicht vanuit de AI verordeningen voor hoog risico AI, deze versie is van ICT recht)
- AIIA (Artificial Intelligence Impact Assessment), Ministerie van infrastructuur en waterstaat
- AIIA(Artificial Intelligence Impact Assessment), ECP
- Toolbox Ethisch Verantwoorde Innovatie, Ministerie van Binnenlandse Zaken
- Algoritmekader, Ministerie van Binnenlandse Zaken
- Ethische dialoogsessie, Filosofie in actie
- Begeleidingsethiek, ECP
- De Ethische Data Assistant (DEDA), oa, Utrecht Data school
- Toetsingskader Algoritmes, Algemene rekenkamer.
- Handreiking Non-discriminatie by design, Tilburg University e.a.
En dan zijn er ook nog vele internationale initiatieven die hier nog niet genoemd zijn. Niet al deze middelen zijn met elkaar uitwisselbaar. Zo is een impact assessment echt iets anders dan een ethische dialoogsessie. Door deze grote verscheidenheid blijkt het in de praktijk lastig om overzicht te houden: wanneer gebruik je welk hulpmiddel en waarom? Bovendien zijn een aantal van de hulpmiddelen dermate complex dat ze in de praktijk lastig in te zetten zijn. Je hebt dan veel verschillende experts nodig op verschillende momenten van het ontwikkelproces. Om zoiets succesvol te laten verlopen is een volwassen vorm van algoritme governance nodig, wat in veel organisaties nog in de kinderschoenen staat. Ik zie hierdoor in de praktijk veel onafgemaakte IAMA’s of ethische sessies zonder adequate opvolging.
Iets wat generatieve AI juist heel goed kan, is het verwerken en filteren van een grote verscheidenheid aan bronnen. Dus niet geheel verrassend ontstond in een gesprek over wildgroei aan hulpmiddelen het idee om generatieve AI te gebruiken voor ethische reflectie op de inzet van data, algoritmes en AI, waarbij het generatieve systeem gevoed kan worden met al die tools en hulpmiddelen die tot onze beschikking staan.