Waarschuwing! Algoritmes bij reclassering werken te goed: 'zorgen voor etnisch profileren'

Meerdere verdachten in beeld bij politie ter identificatie door slachtoffer. Foto via Shutterstock.com, door FrameStockFootages
Het gaat hier om een algoritme dat is ontwikkeld door de Universiteit van Oxford. Het is bedoeld om de kans op recidive mee te berekenen, dus om te voorspellen hoe groot het herhalingsrisico is. En ja, dan neem je natuurlijk zoveel mogelijk factoren mee die hierbij meewegen: leeftijd, opleidingsniveau, inkomen, alcohol- en drugsgebruik, omgeving, criminaliteitscijfers van die buurt, bijstandsuitkeringen etc. En laat daardoor nou verrassend vaak bepaalde groepen in terug te zien zijn! Een behoorlijke oververtegenwoordiging, terwijl factoren als etniciteit, nationaliteit of huidskleur niet door het algoritme worden meegenomen. Ook de foutmarges zijn volgens de reclassering 'voldoende betrouwbaar en wetenschappelijk onderbouwd'.
Waar het dus op neerkomt is dat een algoritme, zonder te kijken naar uiterlijke kenmerken, maar puur naar zaken als iemands gedrag, verleden, omgeving en leefsituatie, vrijwel tot dezelfde conclusie komt als mensen die de beschuldiging van 'etnisch profileren' naar zich toegeworpen krijgen.
Altijd maar weer die vervelende racistische, discriminerende algoritmen, die zijn gemaakt door witte mannen op een witte universiteit in een land met een koloniale geschiedenis en een slavernijverleden. Potverdikkie zeg!
Plaats reactie
0 reacties
Je bekijkt nu de reacties waarvoor je een notificatie hebt ontvangen, wil je alle reacties bij dit artikel zien, klik dan op onderstaande knop.
Bekijk alle reacties