Re-Paper

Inherent Trade-Offs in the Fair Determination of Risk Scores

Autor(en)
Jon Kleinberg, Sendhil Mullainathan, Manish Raghavan
Tags
Soziale Gerechtigkeit und Teilhabe Tag entfernen Politik und Regulierung Tag hinzufügen Verlässlichkeit und Vertrauen Tag hinzufügen KI-Risiken Tag hinzufügen
Artikeldetails
Intro verfasst von
Benedikt Höltgen
Intro

„Eine Software wird landesweit genutzt, um zukünftige Straftäter vorherzusagen. Und sie benachteiligt Schwarze“, titelten die Investigativjournalisten von ProPublica am 23. Mai 2016. Ihre statistischen Analysen scheinen zu belegen, dass ein in Strafprozessen genutztes KI-System Schwarze systematisch benachteiligt. Nicht zuletzt dieser Artikel entfachte eine akademische Debatte über Fairness-Kriterien für KI-basierte Algorithmen. Kleinberg und Kollegen zeigen, dass es unter normalen Bedingungen mathematisch unmöglich ist, mehrere solcher Fairness-Kriterien gleichzeitig zu erfüllen.

Bei te.ma veröffentlicht
Jul 01, 2023

Veröffentlichungsdatum
Jan 01, 2017
Quelle
8th Innovations in Theoretical Computer Science Conference
Band
67
DOI des Papers
https://doi.org/10.4230/LIPIcs.ITCS.2017.43
Preprint
https://arxiv.org/abs/1609.05807