Wildgroei aan hulpmiddelen
De opkomst van generatieve AI niet meer te negeren. Organisaties gebruiken ChatGPT of andere generatieve AI op veel verschillende manieren, vaak als zoekmachine ( lees hier waarom dat een slecht idee is), om samenvattingen te maken, voor juridische analyses (niet altijd even succesvol), maar bijvoorbeeld ook om te brainstormen.
Tegelijkertijd zien we dat in de nasleep van de toeslagenaffaire, er een wildgroei is ontstaan aan hulpmiddelen voor verantwoorde ontwikkeling en inzet van data, algoritmes en AI. Om een paar bekende te noemen, in willekeurige volgorde:
- IAMA (Impact Assessment Mensenrechten en Algoritmes) van BZK
- Fundamental Rights Impact Assessment (wordt verplicht vanuit de AI verordeningen voor hoog risico AI, deze versie is van ICT recht)
- AIIA (Artificial Intelligence Impact Assessment), van het ministerie van infrastructuur en waterstaat)
- AIIA(Artificial Intelligence Impact Assessment), van de ECP
- Toolbox Ethisch Verantwoorde Innovatie van BZK
- Algoritmekader van BZK
- Ethische dialoogsessie, van Filosofie in actie
- Begeleidingsethiek van de ECP
- De Ethische Data Assistant (DEDA), oa, van de Data school van Universiteit Utrecht
- Toetsingskader Algoritmes van de Algemene rekenkamer.
- Handreiking Non-discriminatie by design van Tilburg University e.a.
Niet al deze middelen zijn met elkaar uitwisselbaar en ze hebben ieder afzonderlijk hun eigen toegevoegde waarde, waar een en ander zeker kan overlappen. Door deze grote verscheidenheid blijkt het in de praktijk lastig om overzicht te houden: wanneer gebruik je welke hulpmiddel en waarom? Bovendien zijn een aantal van de hulpmiddelen dermate complex dat ze in de praktijk vaak stranden. Je hebt veel verschillende expertise gebieden nodig en informatie vanuit verschillende stadia van het ontwikkelproces. Om zoiets succesvol te laten verlopen is een volwassen vorm van algoritme governance nodig, wat in veel organisaties nog in de kinderschoenen staat. Ik zie hierdoor in de praktijk veel onafgemaakte IAMA’s of ethische sessies zonder adequate opvolging.
Nu is generatieve AI juist heel goed in het filteren van vele verschillende bronnen. Dus niet geheel verrassend ontstond in een gesprek over wildgroei aan hulpmiddelen het idee om generatieve AI te gebruiken voor ethische reflectie, waarbij het generatieve systeem gevoed kan worden met al die tools en hulpmiddelen die tot onze beschikking staan.