Datawerkplaats

IAMA: Impact Assessment Mensenrechten en Algoritmes (ontwikkeld bij Data School)

Impact Assessment Mensenrechten en Algoritmes (IAMA)

Ontwikkeld bij de Data School van Universiteit Utrecht

Doelgroep: Organisaties die overwegen hoog risicoalgoritmes te (laten) ontwikkelen, in te kopen, aan te passen en/of in te gaan zetten (hierna: inzet van algoritmes).

NB: Dit instrument is ontwikkeld en getest bij overheidsorganisaties. Echter, de workshop kan ook worden gebruikt en waardevol zijn buiten de context van het openbaar bestuur.

Wat: Enkele online assessments met een groot aantal vragen dat dialoog mogelijk maakt over de inzet van hoog risico algoritmes met betrekking tot mensenrechten.

Doelstelling: Het voeren van een afgewogen discussie met relevante partijen bij de afweging om wel of niet hoog risico algoritmische toepassing in te zetten.

Resultaten:

  • Vastlegging van verbanden met regels, instrumenten en toetskaders op het gebied van algoritmes.
  • Vastlegging van overwegingen en keuzes rondom de inzet van algoritmes.

Voorbeeld: De toepassing van een hoog risico bestempelde algoritme. Bij het gebruik van IAMA voor deze algoritme zullen de volgende vragen centraal staan: Op welke grondrechten wordt inbreuk gemaakt? Hoe groot is de kans dat dit gebeurt? Wat is de impact voor iemand, en staat dit in verhouding tot het doel van het algoritme? En is de afweging – wel of niet acceptabel – transparant genoeg en goed uit te leggen?

NB: Om erachter te komen of het algoritme zich leent voor het gebruik van IAMA kan de tool Algorithm Risk Assessment (ARA) worden uitgevoerd.

NB: Het IAMA is ontwikkeld door de Data School van de Universiteit Utrecht. De Universiteit Utrecht is niet aansprakelijk voor mogelijke schade in verband met, of voortkomend uit, het gebruik van materiaal of inhoud van het IAMA.


Heeft u vragen of opmerkingen? Laat het ons weten! Contact NL
Sending