Dit is Nederland in 2026. De reclassering - de organisatie die rechters adviseert over de vraag of criminelen veilig kunnen terugkeren in de samenleving - gebruikte jarenlang algoritmes die er in één op de vijf gevallen naast zaten. Eén van die rekenmodellen draaide op verouderde data van Zweedse gedetineerden, bevatte verwisselde formules, negeerde ernstige psychische stoornissen en voldeed op vrijwel geen enkel vlak aan de normen. En de directeur? Die "kan niet uitsluiten" dat er mensen te vroeg zijn vrijgelaten. Maar acht de kans "heel erg klein." Slaapt u daar lekker bij? Zweedse data voor Nederlandse criminelen
Het verhaal is zo bizar dat je het niet zou geloven als het niet zwart op wit in een rapport van de Inspectie Justitie en
Veiligheid stond. De reclassering adviseert zo'n 48.000 keer per jaar rechters over het risico dat een verdachte of veroordeelde opnieuw de fout in gaat. Dat advies kan letterlijk het verschil betekenen tussen cel of vrijheid.
En waarmee maakten ze die inschatting? Met een algoritme genaamd Oxrec dat draaide op verouderde gegevens van Zweedse gedetineerden. Zweedse. Niet Nederlandse. Zweedse. Een land met een totaal andere bevolkingssamenstelling, andere criminaliteitscijfers en een ander rechtssysteem. Maar dat maakte de reclassering kennelijk niet uit.
Alsof dat niet genoeg is: in het model waren cruciale formules verwisseld, drugsproblematiek zat niet goed verwerkt en ernstige psychische aandoeningen werden simpelweg niet meegenomen. Cynthia Liem, universitair hoofddocent aan de TU Delft, noemt het "gênant" dat het model nooit correct is toegepast en dat daar jarenlang geen controle op is geweest.
Al in 2020 gewaarschuwd - niets mee gedaan
Het wordt nog erger. De reclassering werd al in 2020 gewaarschuwd dat het Oxrec-algoritme discriminerende elementen bevatte. Postcode en inkomen werden meegewogen, wat indirect kan leiden tot etnisch profileren. Een jaar later zei het College voor de Rechten van de Mens expliciet dat dit verboden is zonder deugdelijke onderbouwing.
Had de reclassering die onderbouwing? Nee. Directeur Jessica Westerik geeft dat zelf toe. Maar het algoritme bleef gewoon draaien. Jarenlang. Tienduizenden adviezen lang. Terwijl iedereen die er verstand van had zei dat het niet deugde.
De Autoriteit Persoonsgegevens noemt het rapport een van de "pijnlijkste" die ze in jaren onder ogen hebben gekregen. Sven Stevenson van diezelfde autoriteit stelt dat burgers erop moeten kunnen vertrouwen dat zo'n algoritme eerlijk is en niet discrimineert - en dat beide bij meerdere algoritmes niet in orde waren.
💰 ZE LIETEN CRIMINELEN VRIJ OP BASIS VAN EEN KAPOT ALGORITME - EN NIEMAND DEED IETS! De overheid faalt keer op keer in het beschermen van de gewone burger, en de mainstream media hebben jarenlang niet de moeite genomen om dit soort schandalen uit te graven. Wij wel. Wilt u dat wij ook in 2026 de waakhond van de rechtsstaat blijven? Steun ons dan nu!
OPTIE 1: Via BackMe (Snel & Simpel) 👉 Klik hier: https://dds.backme.org OPTIE 2: Via uw eigen bank IBAN: NL95 RABO 0159 0983 27 t.n.v. Liberty Media. Vergeet niet uw e-mailadres in de omschrijving te zetten voor toegang tot onze 'verboden' columns! Gratis in uw inbox! "Mensenwerk" - het excuus van de century
En dan de reactie van directeur Westerik. Ze noemt de conclusies "heel confronterend" en zegt "verantwoordelijkheid te willen nemen." Ze erkent dat er "onvoldoende kennis" was over algoritmes binnen de organisatie. Maar - en daar komt het - ze benadrukt dat "reclassering mensenwerk is" en dat "het professionele oordeel van onze medewerkers leidend is."
Laat dat even op u inwerken. De reclassering voert een algoritme in dat 48.000 keer per jaar advies uitbrengt aan rechters. Dat algoritme blijkt in één op de vijf gevallen fout te zitten. En dan is het verweer: maar het is eigenlijk mensenwerk.
Als het mensenwerk is, waarom liet u dan een kapot computerprogramma op basis van Zweedse data het werk doen? En als het computerwerk is, waarom controleerde dan niemand of dat programma deugde?
Het is het bekende spelletje in Den Haag en omstreken: als het goed gaat, is het de verdienste van het systeem. Als het misgaat, is het "mensenwerk" en "heel confronterend" en gaan we een "inhaalslag" maken. Verantwoordelijkheid nemen betekent in overheidstaal kennelijk: sorry zeggen en vervolgens gewoon op je plek blijven zitten.
De burger betaalt de prijs - zoals altijd
Bij het grootste deel van de foutieve inschattingen werd het recidiverisico te laag berekend. Te laag. Dat betekent in gewone mensentaal: criminelen die als laag risico werden aangemerkt terwijl ze dat niet waren. Mensen die mogelijk te vroeg zijn vrijgelaten. Mensen die mogelijk opnieuw de fout in zijn gegaan terwijl ze achter slot en grendel hadden moeten zitten.
En wie is daarvan het slachtoffer? Niet de directeur van de reclassering. Niet de beleidsmakers in Den Haag. Niet de algoritme-ontwikkelaar die Zweedse data in een Nederlands systeem propte. Nee, het slachtoffer is de gewone burger. De winkelier die wordt overvallen door iemand die nooit vrij had mogen lopen. Het gezin in de wijk waar een veroordeelde terugkeert die als "laag risico" was bestempeld door een kapot computerprogramma.
Maar maak u geen zorgen. De directeur neemt "verantwoordelijkheid." Er komt een "inhaalslag." En de kans dat het echt misgegaan is, is "heel erg klein." Wie gelooft dit nog?
🚀 WORD AANDEELHOUDER VAN HET VERZET! Wij blijven hameren op het falen van de overheid die keer op keer de veiligheid van de gewone Nederlander op het spel zet. Steun de onafhankelijke pers die niet meedoet aan het gladstrijken!
🚀 Steun ons via BackMe: https://dds.backme.org Of maak uw bijdrage over op NL95 RABO 0159 0983 27 t.n.v. Liberty Media. PS: Zet uw e-mailadres erbij voor onze verboden SubStack-columns! Elke dag gratis en direct in uw mail!