Hollanda’da Reclassering Skandalı: Suç Tekrarı Riski Yıllarca Yanlış Hesaplandı
Amsterdam – 12 Şubat 2026 – Hollanda’da mahkemelere ve savcılığa danışmanlık yapan denetimli serbestlik kurumu (Reclassering), suçluların yeniden suç işleme riskini (recidive) hesaplamak için kullandığı algoritmada yıllarca süren ciddi hatalar yaptı.
Inspectie Justitie en Veiligheid tarafından yayımlanan rapora göre, kullanılan yazılım sistemi teknik olarak yanlış uygulanmış ve bu durum bazı vakalarda risk oranlarının olduğundan daha düşük hesaplanmasına yol açtı.
OxRec Nedir ve Nerede Hata Yapıldı?
Reclassering Nederland, suç tekrar riskini ölçmek için “OxRec” (Oxford Risk of Recidivism Tool) adlı bir algoritma kullanıyordu. Bu sistem; yaş, sabıka geçmişi, sosyal durum ve bazı çevresel faktörleri analiz ederek kişinin yeniden suç işleme olasılığını yüzde olarak hesaplıyor.
Ancak müfettişlerin tespitine göre:
-
Farklı gruplara (tutuklu / tutuksuz) ait hesaplama formülleri yazılımda karıştırıldı.
-
Yanlış parametreler nedeniyle sonuçlar gerçek risk düzeyini yansıtmadı.
-
Teknik olarak doğru çalışsaydı, vakaların yaklaşık %21’inde risk kategorisi farklı (çoğunlukla daha yüksek) çıkacaktı.
Bu durum, mahkemelere verilen denetimli serbestlik raporlarının doğruluğunu doğrudan etkileyebilecek nitelikte.
Mahkeme Kararları Etkilenmiş Olabilir
Algoritma, tek başına karar verici olmasa da hâkimlere sunulan tavsiye raporlarında önemli rol oynuyor.
Yanlış düşük hesaplanan riskler:
-
Daha hafif denetim koşullarına,
-
Daha az gözetim önerilerine,
-
Yetersiz tedavi veya rehabilitasyon planlarına
yol açmış olabilir.
Öte yandan, bazı durumlarda riskin gereğinden yüksek çıkması da daha ağır tedbir önerilerine neden olmuş olabilir.
Denetim Raporunda Öne Çıkan Eleştiriler
Inspectie Justitie en Veiligheid raporunda sadece teknik hata değil, kurumsal eksiklikler de vurgulandı:
1️⃣ Yetersiz Kurumsal Kontrol (Governance)
Algoritmanın düzenli olarak test edilmediği ve bağımsız doğrulama süreçlerinin eksik olduğu belirtildi.
2️⃣ Gizlilik ve KVKK/AVG Sorunları
Bu tür risk profilleme sistemleri için zorunlu olan Veri Koruma Etki Analizi (DPIA) yapılmamıştı.
3️⃣ Ayrımcılık Riski
Gelir düzeyi ve mahalle verileri gibi değişkenlerin dolaylı ayrımcılık riski oluşturabileceği ifade edildi.
4️⃣ İnsan Denetiminin Zayıflığı
Personelin algoritmanın sınırlamaları konusunda yeterince eğitilmediği ve sonuçların bazen sorgulanmadan kabul edildiği belirtildi.
Ayrıca sistemin, Avrupa Birliği’nin yeni AI (Yapay Zeka) düzenlemeleri kapsamında “yüksek riskli sistem” kategorisine girebileceği ve bu nedenle daha sıkı yasal yükümlülüklere tabi olacağı ifade edildi.
Reclassering Kullanımı Askıya Aldı
Reclassering Nederland, raporun ardından OxRec kullanımının geçici olarak durdurulduğunu ve teknik düzeltmeler üzerinde çalışıldığını açıkladı.
Bu Skandal Ne Anlama Geliyor?
Bu gelişme, Hollanda’da kamu kurumlarında algoritma kullanımına yönelik denetimlerin ne kadar kritik olduğunu bir kez daha gündeme getirdi.
Adalet sisteminde kullanılan yapay zeka araçlarının:
-
Şeffaf olması,
-
Sürekli denetlenmesi,
-
İnsan kontrolü altında çalışması
gerektiği vurgulanıyor.
Yanlış risk hesaplamaları hem toplum güvenliği hem de bireysel haklar açısından ciddi sonuçlar doğurabilir.
©TURKİNFO.NL
Yorumlar
Kalan Karakter: