Total 3

Aus der Perspektive der KI-Forschung ergeben sich mir deutlich die Vorteile eines solchen Models, das seine eigene (Un-)Sicherheit transparent wiedergeben kann.

Mir stellt sich allerdings die Frage, welche Vorteile dies im Bezug auf Nachhaltigkeit hat. Das Thema der Nachhaltigkeit ist ein Bereich vieler Meinungsverschiedenheiten, wie schon in den Kommentaren auf te.ma ersichtlich wird. Birgt die bewusste Verminderung der Selbstsicherheit in den Antworten der Modelle nicht die Gefahr, den gesamten Diskurs weiter von der Ebene der Fakten zu entfernen? Wenn schon die Modelle im Konjunktiv argumentieren, wie sollen Menschen dann noch Entscheidungen treffen, die für die Lösung der anderen vorgestellten Probleme auf dieser Seite wichtig sind?

Diskussionen
7 Kommentare
There are new comments!

Neuer Kommentar

Der Ort für deinen Diskussionsbeitrag. Du kannst taggen, linken und Text formatieren. Bitte beachte unsere Community Guidelines.

Total 3

Meiner Ansicht nach bedeutet die Transparenz von Unsicherheit genau das Gegenteil, also dass man der Wahrheit damit deutlich näher kommt als mit bloßen Aussagen. Das gilt für den menschlichen Diskurs genauso wie für den mit KI. Eine bloße Punktschätzung über etwas enthält nicht sehr viel Aussagekraft, auch wenn wir anderes gewohnt sind in alltäglichen Diskussionen. Dabei wäre es auch bei denen super hilfreich, darüber zu reden, wie sicher wir uns bei den Behauptungen sind, die wir treffen. Allerdings sind wir bei Menschen gewohnt, dass sie sich irren, während Maschinen immer eine gewisse Unfehlbarkeit umgibt. Da ist es nochmal wichtiger, dass hier Unsicherheit offensichtlich gemacht wird und so ein angemessener einsatz von KI ermöglicht . Und ich denke, das gilt für alle Themenbereiche und birgt auch in sich selbst eine Nachhaltigkeit, da eine bessere Weise der Infovermittlung auch nachhaltig bessere Entscheidungen fördert.

Total 1

Ich möchte zur “bewusste[n] Verminderung der Selbstsicherheit in den Antworten der Modelle”, die du erwähnst, anmerken, dass das vorgestellte maschinelle Lernmodell nicht allgemein unsicherer wird, sondern nur für Bilder, die es nicht gut klassifizieren kann. Bei Bildern, die es gut klassifizieren kann, ist es nach wie vor sicher.

Diese Eigenschaft erscheint mir durchaus hilfreich zu sein. Ein Beispiel: Ein maschinelles Lernmodel erkennt Tumoren und ein Arzt stellt anhand dieses Modells eine Diagnose. Wenn er weiß, dass das Modell unsicher ist, wird er vielleicht selber nochmal genauer hinschauen.

Total 4

Ich denke dass die kommunizierte (Un)Sicherheit einer KI die Benutzbarkeit und Akzeptanz in der Gesellschaft stark verbessern würde. Denn gerade mit einer KI wie ChatGPT kann man sich sehr unsicher fühlen, da man nie weiß, ob eine Aussage stimmt oder nicht - so oder so liest sich die Antwort selbstbewusst. Das führt dazu, dass man sich garnicht mehr auf eine Antwort verlassen kann. Erst wenn die KI einem verlässlich mitteilen kann, wie sicher sie in ihrer Antwort ist, kann man sich auf die Technologie verlassen.

te.ma sammelt keine Cookies. Um mit der Allgemeinen Datenschutzgrundverordnung (DSGVO) übereinzustimmen, müssen wir dich aber informieren, dass von uns eingebundene externe Medien (z.B. von YouTube) möglicherweise Cookies sammeln. Mehr dazu in unserer Datenschutzerklärung.