Was er ooit een moment dat je met meer data overspoeld werd dan de afgelopen weken?

De uitbraak van Covid-19 lijkt van iedereen een data-scientist te maken. Lijkt, want de risico’s van de lukrake interpretatie van cijfers zijn niet gering. Casper Alberts, hoogleraar toegepaste statistiek aan de Rijksuniversiteit Groningen zet zelfbenoemde statistici weer met beide voeten op de grond in zijn blog.

Desalniettemin laat deze drang naar data zien hoe vanzelfsprekend het al voor ons is om data als uitgangspunt te nemen voor beslissingen. Data lijken objectief, zijn dat overigens niet. Data moet altijd geïnterpreteerd worden voordat we er conclusies aan kunnen verbinden. Of die interpretatie nu door een mens, of door een algoritme gedaan wordt. In de interpretatie ontstaat de mogelijkheden voor discriminatie, misinterpretatie, etc.

Het Massachusetts Institute of Technology deed in 2016-2017 al onderzoek naar de moraal van zelflerende systemen. Ze ontwikkelden de moral machine. Een programma waarin je een zelfbesturende auto leert onmogelijke keuzes te maken. Hier wordt (pijnlijk) duidelijk dat het verschil tussen mens en algoritme vooral zit in de schaal. Algoritmes zijn sneller. Dat is vaak positief, maar ook een risico. In de tijd dat een mens een fout één keer maakt, kan het algoritme dat misschien wel 100 keer doen.

De roep om wetgeving en ethiek in algoritmes is dan ook groot. Denk alleen al aan de enorme stroom aan boeken dat hierop ingaat: Hello World van Hannah Fry; Dansen op de maat van het algoritme door Willem Gooijer; weapons of math destruction van Cathy O’Neil. Om maar een (klein) aantal te noemen.

Op het gebied van persoonlijke data is inmiddels strenge wetgeving. Denk aan de Algemene Verordening Gegevensbescherming (AVG). Recent is door Pels Rijcken een overzicht gemaakt van wetgeving rond afsprakenstelsels binnen regie op gegevens (Sandra van Heukelom-Verhage & Nina Bontje, 2020). Toch biedt enkel wetgeving geen oplossing op alle ethische vragen. Goede voorbeelden hiervan zijn er legio, onder andere in dit blog van de SDU.

Digital_we-landschap

Ook op het gebied van deze ethische datavragen zijn, in binnen en buitenland initiatieven te vinden. InnoValor bracht deze in kaart in het kader van onderzoek naar de Datagedreven Organisatie. Immers, als data en algoritmes op een goede manier worden ingezet bieden ze ook veel kansen om de dienstverlening van een organisatie te versnellen, verscherpen en verbeteren. De vraag lijkt dus niet of we algoritmes moeten toepassen, maar hoe we dat verantwoord kunnen doen?

Dit is de vraag waar we in het onderzoeksproject Digital We aan werken. Hoe pak je als organisatie het verantwoord gebruik van data en algoritmes aan? Hoe zorg je voor praktische handvatten, waarmee iedereen in de organisatie kan werken? Hoe zorg je dat de juiste mensen een bijdrage kunnen en willen leveren aan een ethisch beleid rondom het gebruik van algoritmes?

Verantwoord Inzetten van Data en Algoritmes

De discussietool en werkmethode, genaamd VIDA, voor Verantwoord Inzetten van Data en Algoritmes, die we binnen Digital We ontwikkelden helpt hierbij. Met VIDA kan een organisatie in korte tijd algoritmes tegen het licht houden. Gegeven deze praktische, concrete handvatten, blijken organisaties prima zelf met ethische vraagstukken aan de slag te kunnen. Dit is in ieder geval wat wij hebben ondervonden toen we met hen in discussie gingen. Veel kennis ligt immers bij de partijen zelf.

De VIDA werkmethode kan eenvoudig gebruikt worden voor het creëren van draagvlak of kennis over het gebruik van algoritmes. Het is zelfs mogelijk om al de eerste lijnen van beleid rondom verantwoord datagebruik in de organisatie, uit te zetten.

Wil je meer weten over VIDA en hoe jij met jouw organisatie concreet de discussie kunt aangaan over ethische kaders en het opstellen van een verantwoord algoritme beleid? Neem dan contact met ons op via liesbeth.hijink@innovalor.nl of +31 6 574 680 87