te.ma ist seit dem 01. August 2024 bis auf Weiteres inaktiv und befindet sich im Archiv-Modus. Alle Publikationen sind weiter zugänglich. Der Kommentarbereich ist jedoch abgeschaltet. Bestehende Nutzerkonten bleiben bis 31. Juli 2025 weiter zugänglich, neue Nutzerkonten können nicht mehr angelegt werden. Unser Newsletter wird nicht mehr weiter bespielt.
Spannendes Thema, Bias und Fairness in der KI sind ja gerade wirklich hochrelevant. Der Artikel verdeutlicht die Notwendigkeit, Fairness in maschinellen Lernmodellen zu gewährleisten.
Im ersten Schritt müssen Daten und Trainingsdaten bestenfalls sorgfältig ausgewählt und überprüft werden, um sicherzustellen, dass keine Voreingenommenheit oder Diskriminierung entsteht. Darüber hinaus gibt es verschiedene Fairnessmethoden, sogenannte Fairness-Constraints, welche die Datenauswertung an eine zuvor festgestellte Benachteiligung von einer oder mehreren bestimmten Gruppen anpasst. Diese kann man also einsetzen, um zusätzlich sicherzustellen, dass das Modell keine unerwünschten Vorurteile reproduziert.
Am wichtigsten ist meiner Meinung nach also, dass wir uns bewusst machen, welche Stereotypen und Vorurteile in den Daten und Modellen stecken - nur so können wir versuchen diesen entgegen zu wirken.
Die Frage, ob etwas anzüglich ist oder nicht, scheint mir schwer zu beantworten zu sein. Ich würde sagen, dass das von Mensch zu Mensch unterschiedlich ist. Wie findet man in diesem Fall eine passende Definition, was diskriminierend und was fair ist?