Total 3

Spannendes Thema, Bias und Fairness in der KI sind ja gerade wirklich hochrelevant. Der Artikel verdeutlicht die Notwendigkeit, Fairness in maschinellen Lernmodellen zu gewährleisten.

Im ersten Schritt müssen Daten und Trainingsdaten bestenfalls sorgfältig ausgewählt und überprüft werden, um sicherzustellen, dass keine Voreingenommenheit oder Diskriminierung entsteht. Darüber hinaus gibt es verschiedene Fairnessmethoden, sogenannte Fairness-Constraints, welche die Datenauswertung an eine zuvor festgestellte Benachteiligung von einer oder mehreren bestimmten Gruppen anpasst. Diese kann man also einsetzen, um zusätzlich sicherzustellen, dass das Modell keine unerwünschten Vorurteile reproduziert.

 

Am wichtigsten ist meiner Meinung nach also, dass wir uns bewusst machen, welche Stereotypen und Vorurteile in den Daten und Modellen stecken - nur so können wir versuchen diesen entgegen zu wirken.

Diskussionen
6 Kommentare
There are new comments!

Neuer Kommentar

Der Ort für deinen Diskussionsbeitrag. Du kannst taggen, linken und Text formatieren. Bitte beachte unsere Community Guidelines.

Total 2

Die Frage, ob etwas anzüglich ist oder nicht, scheint mir schwer zu beantworten zu sein. Ich würde sagen, dass das von Mensch zu Mensch unterschiedlich ist. Wie findet man in diesem Fall eine passende Definition, was diskriminierend und was fair ist?

te.ma sammelt keine Cookies. Um mit der Allgemeinen Datenschutzgrundverordnung (DSGVO) übereinzustimmen, müssen wir dich aber informieren, dass von uns eingebundene externe Medien (z.B. von YouTube) möglicherweise Cookies sammeln. Mehr dazu in unserer Datenschutzerklärung.