Transparante, betrouwbare en non-discriminatoire AI-toepassingen bieden mooie kansen voor de optimalisatie van bedrijfsprocessen en het verbeteren van persoonlijke dienstverlening. De juiste inzet van AI vraagt echter om zorgvuldige ethische afwegingen. Hoe voorkom je dat het systeem mogelijk onterecht discrimineert? Is de inzet van AI een subsidiair middel voor het beoogde doel? En hoe behoud je betekenisvolle menselijke controle? Binnen je organisatie een functie inrichten voor het realiseren van het ethisch gebruik van digitale technologie is waardevol en wellicht zelfs noodzakelijk. Het is echter geen totaaloplossing.
Ethiek-hobbyist
De organisatie-ethicus loopt soms het risico door uitvoerend personeel te worden gezien als de hobbyist, die de lijnorganisatie vooral vertraagt in het uitvoeren van haar primaire werkzaamheden. Daarnaast kan vanuit beleid de gedachte ontstaan dat het thema ‘digitale ethiek’ mooi is afgevinkt met het inrichten van een ethiek-rol. Beide houdingen zijn schadelijk. De realiteit is namelijk dat het ethisch gebruik van digitale technologie altijd vraagt om een teaminspanning. Ethiek functioneert niet wanneer het slechts een plek krijgt op een geïsoleerd eiland, zonder gedegen verbinding met de rest van de organisatie. Er ontstaat dan een situatie die rijp is voor wat ik zou willen omschrijven als interne ethische outsourcing. Ethiek is dan niet iets voor iedereen, maar wordt uitbesteed aan Harrie, de ethiek-hobbyist.
Breed eigenaarschap voor ethisch handelen
Niet voor niets ligt bij bestaande ethische begeleidingsmethodieken zoals De Ethische Data Assistent (DEDA), Aanpak Begeleidingsethiek (ABE) en Moreel Beraad, de nadruk op het bij elkaar brengen van meerdere perspectieven. Wat voor de één ethisch verantwoord is, kan voor de ander over de morele grens gaan. De normatieve beoordeling van casussen in de context van digitale technologie is dus altijd een teaminspanning. Daarnaast is een breed deskundig team noodzakelijk voor het adequaat implementeren van handelingsopties en mitigerende maatregelen die eventueel nodig blijken te zijn vanuit de normatieve afweging. Zodoende heeft het ‘Ethische AI-team’ niet alleen een ethicus nodig, maar is het raadzaam ook eens te denken aan data scientists, ontwikkelaars, product owners, business owners, compliance officers en de daadwerkelijke eindgebruikers van een AI-toepassing.
In het ideale scenario hebben álle individuele medewerkers binnen een organisatie die AI-toepassingen inzet, een technisch-ethisch bewustzijn. Dit is complementair aan de eis voor AI-geletterdheid die per 2025 geldt vanuit de AI Act. Dergelijk breed eigenaarschap voor ethisch handelen kan binnen een organisatie daadwerkelijk worden benaderd door de drijvende kracht van een multidisciplinair team, dat in verbinding staat met de verschillende hoeken van de organisatie.
Geïnteresseerd in dit thema? Lees hier een van mijn vorige blogs ‘Zandbakethiek: Stimuleer morele verbeelding’.
Interesse om eens kennis uit te wisselen over digitale ethiek vanuit een organisatorisch perspectief? Neem gerust contact op!
fotocredit: https://www.freepik.com/