Prompt

“Stel je werkt voor een overheidsorganisatie met handhavings taken, zoals de politie. Je hebt een robot hond met camera's tot je beschikking die kan ondersteunen om bij een onoverzichtelijke situatie in kaart te brengen of het veilig is om naar binnen te gaan. Denk bijvoorbeeld aan een situatie waar een schutter in een school willekeurig mensen aan het beschieten is. De hond kan dan in kaart brengen waar de schutter is, zodat je efficiënter en veiliger de situatie onder controle kan krijgen. Nu willen we de robothond uitbreiden met gezichtsherkennings software zodat we ook sneller in kaart kunnen brengen wie bijvoorbeeld de schutter en andere aanwezigen zijn zodat we meer achtergrond kennis hebben en daarmee nog beter kunnen ingrijpen. Zou jij een overzicht kunnen geven welke ethische en juridische risico's het heeft om gezichtsherkenning toe te voegen aan de robothond? Geef daarbij ook aan welke betrokkenen er zijn en hoe dit hen kan raken."

ChatGPT antwoord:

Zeker, ik kan een overzicht geven van de ethische en juridische risico's van het toevoegen van gezichtsherkenning aan een robothond in de context van een overheidsorganisatie met handhavingstaken. Ik zal dit opdelen in:

  1. Belangrijkste betrokkenen
  2. Ethische risico's
  3. Juridische risico's
  4. Hoe betrokkenen geraakt kunnen worden

Belangrijkste betrokkenen

  • Burgers / omstanders (slachtoffers, bezoekers, personeel)
  • Verdachten (zoals de schutter)
  • Handhavers (politie, arrestatieteams)
  • Overheidsorganisatie (politie, gemeente, overheid)
  • Privacytoezichthouders (Autoriteit Persoonsgegevens - AP)
  • Softwareleveranciers (gezichtsherkenningstechnologie)
  • Juridische instanties (rechters, advocaten)
  • Maatschappij als geheel (impact op vertrouwen in overheid en technologie)

Ethische risico's

Risico: Privacy-inbreuk

Gezichtsherkenning verwerkt biometrische gegevens die zeer gevoelig zijn. Onschuldige burgers kunnen onterecht herkend en geregistreerd worden.

Wie raakt dit? Burgers, slachtoffers, bezoekers

 

Risico: Function creep

Technologie wordt eerst ingezet voor crisissituaties maar kan later ook gebruikt worden voor minder zware handhavingstaken, waardoor de privacy steeds verder onder druk komt.

Wie raakt dit? Burgers, samenleving

 

Risico: Fouten en bias in herkenning

Gezichtsherkenning kent hogere foutpercentages bij bepaalde etnische groepen, wat kan leiden tot discriminatie of onterecht geweld.

Wie raakt dit? Verdachten, burgers

 

Risico: Ongewenste normalisatie van surveillance

Structurele inzet van gezichtsherkenning kan leiden tot gewenning en aantasting van fundamentele vrijheden (zoals anonimiteit in de openbare ruimte).

Wie raakt dit? Samenleving als geheel

 

Risico: Transparantie en verantwoording

Burgers weten vaak niet of ze herkend worden en wie toegang heeft tot die data, wat het vertrouwen in de overheid schaadt.

Wie raakt dit? Burgers, maatschappij

 

Risico: Risico op misbruik

Gegevens uit gezichtsherkenning kunnen in verkeerde handen vallen of misbruikt worden voor andere doelen.

Wie raakt dit? Overheidsorganisatie, burgers

Juridische risico's

Risico: Schending van AVG (Algemene Verordening Gegevensbescherming)

Gezichtsherkenning is verwerking van biometrische gegevens en kent strikte voorwaarden (zoals noodzaak, proportionaliteit, subsidiariteit).

Wie raakt dit? Overheidsorganisatie, AP

 

Risico: Onrechtmatige inbreuk op grondrechten

Overtreding van privacyrechten (Artikel 8 EVRM) of discriminatieverboden (Artikel 1 Grondwet, Artikel 14 EVRM).

Wie raakt dit: Burgers, verdachten

 

Risico: Eisen van transparantie en verantwoordingsplicht

De overheid moet kunnen aantonen waarom en hoe de technologie wordt ingezet. Gebrek hieraan kan leiden tot juridische procedures.

Wie raakt dit? Overheidsorganisatie

 

Risico op juridische aansprakelijkheid bij fouten

Als de robothond onterecht iemand als schutter herkent en dit leidt tot schade (bijvoorbeeld letsel), kan de overheid aansprakelijk zijn.

Wie raakt dit? Overheidsorganisatie, slachtoffers

 

Risico: Internationale regelgeving en verdragen

Bijvoorbeeld AI-wetgeving van de EU (AI Act), die gezichtsherkenning in openbare ruimtes strikt reguleert.

Wie raakt dit: Overheidsorganisatie, AP

 

Hoe betrokkenen geraakt kunnen worden

Burgers / slachtoffers Onterecht geïdentificeerd, verlies van privacy, gevoel van onveiligheid, discriminatie

Verdachten Onterecht aangemerkt als dader door herkenningsfouten, risico op escalatie van geweld

Politie / handhavers Afhankelijk van technologie die niet feilloos werkt, aansprakelijkheid bij fouten, reputatieschade

Overheidsorganisatie Juridische claims, toezicht door de AP, politieke en maatschappelijke kritiek

Samenleving als geheel Verminderd vertrouwen in technologie en overheid, impact op democratische waarden

Privacytoezichthouders (AP) Toename van toezichtslast, noodzaak tot handhaving en sancties

Softwareleveranciers Aansprakelijkheid bij falen van de technologie, reputatieschade

 

Samenvattend

Het toevoegen van gezichtsherkenning aan een robothond voor handhavingstaken brengt grote ethische en juridische risico’s met zich mee. De belangen van veiligheid en effectiviteit botsen hier met privacy, proportionaliteit, en mensenrechten. Dit vraagt om zeer zorgvuldige afwegingenheldere kaders, en strikte waarborgen.

Wil je dat ik ook een afwegingskader (stappenplan) geef voor ethisch en juridisch verantwoorde inzet van deze technologie in de praktijk? (Bijvoorbeeld wat je moet doen vóórdat je besluit om dit te implementeren?)
Antwoord maar met "Ja, graag" als je dat wilt. 

 

Afwegingskader voor inzet gezichtsherkenning op robothond

Stap 1: Doel en Noodzaak scherp definiëren

  • Wat is het specifieke doel van gezichtsherkenning in deze context? (Bijvoorbeeld: identificatie van een gewapende verdachte bij acute levensbedreigende situaties)
  • Waarom is gezichtsherkenning noodzakelijk? Zijn er geen minder ingrijpende alternatieven (zoals bodycams, drones, of meldkamerbeelden)?
  • Toetsing aan het noodzakelijkheidsbeginsel (AVG en EVRM).

Stap 2: Proportionaliteit en Subsidiariteit toetsen

  • Is de impact op privacy proportioneel ten opzichte van het te behalen veiligheidsbelang?
  • Wordt gezichtsherkenning alleen ingezet als het echt niet anders kan?
  • Gebruik beperken tot zeer ernstige situaties (bijv. actieve schutter, terreurdreiging).

Stap 3: Juridische kaders checken

  • Toetsing aan:
    • AVG (biometrische gegevensverwerking)
    • EVRM (privacy, non-discriminatie)
    • Wet politiegegevens (Wpg)
    • Europese AI-verordening (AI Act) – verbiedt mogelijk realtime gezichtsherkenning in publieke ruimte, tenzij uitzonderingen gelden.
  • Informatieplicht en transparantie richting burgers waar mogelijk.
  • Eventueel: juridische toetsing vooraf (privacy impact assessment - DPIA).

Stap 4: Technische waarborgen & betrouwbaarheid

  • Foutmarges en biasrisico's minimaliseren (training, validatie op diversiteit).
  • Zorgen voor real-time menselijke controle (mens blijft verantwoordelijk).
  • Beperking van opslag en toegang tot gezichtsherkenningsdata (alleen live-beelden? Hoe lang bewaren? Wie mag kijken?).
  • Cybersecuritymaatregelen tegen hacken of datalekken.

Stap 5: Governance en Toezicht

  • Aanwijzen van een ethische commissie / privacy officer die de inzet van deze technologie beoordeelt.
  • Duidelijke procedures voor evaluatie en verantwoording (bijv. loggen van iedere inzet, rapporteren aan AP en burgers).
  • Escalatieladder: wie beslist wanneer de robothond met gezichtsherkenning wordt ingezet?

Stap 6: Transparantie en maatschappelijk draagvlak

  • Communicatie richting burgers en media over hoe en waarom deze technologie wordt ingezet.
  • Publiek debat en consultatie (bijvoorbeeld via gemeenteraad, burgerpanels).
  • Vermijden van function creep door juridisch en organisatorisch vast te leggen dat deze technologie alleen in levensbedreigende situaties mag worden ingezet.

Stap 7: Evaluatie en bijstelling

  • Regelmatige evaluatie van effectiviteit, proportionaliteit en rechtmatigheid.
  • Bijstellen van beleid bij nieuwe inzichten, klachten of technologische ontwikkelingen.
  • Monitoring van misbruik en discriminatie-effecten.

Bonus: Ethische checkvragen (praktische toets)

  1. Zou ik het zelf acceptabel vinden als deze technologie op mij werd toegepast in deze situatie?
  2. Is het risico van onterechte identificatie voldoende afgedekt?
  3. Kan ik publiekelijk verantwoorden waarom ik deze technologie inzet?
  4. Heeft de robothond altijd een mens "in de loop" bij kritieke beslissingen?