Wissen sie, was sie nicht wissen? Über die (Un-)Zuverlässigkeit neuronaler Netze

Re-Paper

Wissen sie, was sie nicht wissen? Über die (Un-)Zuverlässigkeit neuronaler Netze

»Provably Robust Detection of Out-of-distribution Data (almost) for free«

Inhalte

Intro

Geschrieben von Solveig Klepper

Bei te.ma veröffentlicht 18.04.2023

te.ma DOI https://doi.org/10.57964/2vfj-js80

Geschrieben von Solveig Klepper
Bei te.ma veröffentlicht 18.04.2023
te.ma DOI https://doi.org/10.57964/2vfj-js80

Weiß ein künstliches neuronales Netz, wann es überfragt ist? Es ist oft sehr selbstsicher in seinen Antworten, selbst wenn es die Frage nicht versteht. Alexander Meinke, Julian Bitterwolf und Matthias Hein versuchen herauszufinden, wie man ihm beibringen kann, zu erkennen, dass es eine Aufgabe nicht lösen kann.

Angenommen wir haben ein kompliziertes maschinelles Lernmodell auf einer riesigen Menge von Tierbildern dazu trainiert, unterschiedliche Tiere zu erkennen. Wir haben es auf einer fast genauso großen Menge an Tierbildern getestet und es funktioniert hervorragend. Es kann Hunde von Wölfen unterscheiden, Käfer von Spinnen und klassifiziert auch jeden Vogel korrekt. Was passiert, wenn wir diesem scheinbar perfekten Modell ein Bild von einer VW-Ente zeigen? Unsere Trainingsdaten enthalten nur Bilder von Tieren und unser Modell hat noch nie zuvor ein Auto gesehen. Es wird uns als Antwort eine bestimmte Tierklasse ausspucken, wobei ein Delfin genauso wahrscheinlich wie eine Stockente ist.

In der Praxis reicht es uns aber nicht, dass unser Modell eine bestimmte Tierklasse als Antwort gibt. Es soll uns mitteilen, wie sicher es sich bei seiner Zuordnung ist. Wir wollen, dass sich das Modell, das wir auf Tierbildern trainiert haben, besonders unsicher ist bei der Frage: „Welches Tier ist eine VW-Ente?“ Es soll merken, dass es sich hierbei um kein Tier handelt.

Das ist noch lange nicht alles. Unser Modell soll außerdem auf eine gewisse Art robust sein: Für zwei sehr ähnliche Bilder soll es die gleiche Antwort geben. Das bedeutet, kleine Änderungen im Bild, wie Schatten, Unschärfe oder Rauschen, sollen seine Antwort nicht beeinflussen. Es soll sich auch bei dieser Antwort ähnlich sicher beziehungsweise unsicher sein.

Für einige dieser Anforderungen gibt es bereits zufriedenstellende Lösungen. Viele Modelle klassifizieren Bilder besser, als es Menschen können. Es gibt einerseits Modelle, die robust gegen subtile oder für den Menschen unmerkliche Veränderungen etwa im Hintergrund des Bildes sind, und andererseits Modelle, die zuverlässig wissen, wenn sie die Antwort nicht wissen. Alles gleichzeitig zu können, erweist sich aber als Herausforderung. Oft sind Modelle wenig robust oder übertrieben selbstsicher bei der Zuordnung von Bildern, die sie eigentlich nicht erkennen können.

In ihrem Paper verbinden Meinke, Bitterwolf und Hein bereits bestehende Ansätze zu robusten Modellen. Sie entwickeln eine Lernmethode, mit der ein Modell zuverlässig lernt, unsicher zu sein bei Bildern von Dingen, die es nicht kennen kann, und robust richtige Antworten zu geben bei Bildern, auf die es trainiert wurde. Wenn wir unser Modell nach dieser Methode trainieren, dann klassifiziert es also zuverlässig Tierbilder und sagt uns, dass es unsicher ist, wenn wir ihm ein Foto von einem Auto zeigen.

Aber woher wissen wir, dass unser Modell wirklich weiß, wenn es überfragt ist, und nicht bei einem Foto von einem Haus antwortet, dass es sich um eine Schildkröte handelt? Meinke und Kollegen konstruieren ein Modell, das beweisbar, robust und zuverlässig ist. Zudem adaptieren sie dessen Architektur so, dass die für neuronale Netze typischen zu selbstsicheren Antworten vermieden werden. Wie jeder Beweis basiert auch der von Meinke und Kollegen auf festen Annahmen, von denen wir nicht sicher sagen können, ob sie unsere Welt richtig beschreiben. Daher können wir auch nicht sagen, ob der Beweis der Realität standhält. Es stimmt uns aber zuversichtlich, dass robuste und zuverlässige Methoden im maschinellen Lernen möglich sind.

Transparenzhinweis: Das hier vorgestellte Paper entstand an der Universität Tübingen.

Re-Paper

Offener Zugang
Offener Zugang bedeutet, dass das Material öffentlich zugänglich ist.
Related Articles

Künstliche neuronale Netze (KNN) sind mathematische Funktionen, die durch die Funktionsweise von Nerven in unserem Gehirn inspiriert sind. Hierbei wird die Signalverarbeitung zwischen einzelnen „künstlichen Neuronen" simuliert. Jedes KNN besteht aus mehreren Schichten dieser Neuronen. Eingehende Signale, wie Beispielsweise Pixel in einem Bild, werden von Schicht zu Schicht weitergeleitet, bis sie in der finalen Schicht eine Ausgabe – 1 oder 0, Katze oder Hund – produzieren. Mehrere Schichten können sich hierbei komplexeren Funktionen annähern.

Das künstliche neuronale Netz findet breite Anwendung in der Bildverarbeitung, um Objekte auf Bildern zu erkennen. Auch Zeitserien, also Daten mit zeitlicher Dimension, können mit künstlichen neuronalen Netzwerken verarbeitet werden, um sie zu vervollständigen oder fortzusetzen. So basieren auch Algorithmen zur Sprachverarbeitung oder zur Wettervorhersage auf künstlichen neuronalen Netzen. Eine großartige Erklärungsreihe zu künstlichen neuronalen Netzen ist auf YouTube zu finden, unter https://www.youtube.com/playlist?list=PLZHQObOWTQDNU6R1_67000Dx_ZCJB-3pi 

Ein statistisches Modell, das auf Trainingsdaten beruht. Aus diesen Daten lernt das Modell Entscheidungsregeln abzuleiten, indem es die Daten als Eingabe (input) erhält, diese verarbeitet (processing) und schließlich eine Ausgabe (output) produziert. Während des Trainings wird die Modellausgabe mit dem gewünschten Ergebnis verglichen. Bei Abweichung erfolgt eine Aktualisierung des Modells, sodass es beim nächsten Mal eher die richtige Antwort produziert. Sobald ein Modell trainiert wurde, kann es auf neue Daten angewandt werden, indem es diese als Eingabe erhält und idealerweise korrekte Vorhersagen als Ausgabe generiert.

Diskussionen
7 Kommentare
There are new comments!

Neuer Kommentar

Der Ort für deinen Diskussionsbeitrag. Du kannst taggen, linken und Text formatieren. Bitte beachte unsere Community Guidelines.

Du antwortest auf den Beitrag: "Wissen sie, was sie nicht wissen? Über die (Un-)Zuverlässigkeit neuronaler Netze".

Total 2

Mir stellt sich hier allerdings die Frage, in wie Fern diese Methode zukunftssicher ist. Im Laufe der Zeit werden Maschinen bzw. KIs und/oder neuronale Netze immer mit neuen Gegebenheiten konfrontiert (Erfindungen, neue gesellschaftliche Ereignisse wie z.B. Corona, …. ). In wie fern kann hierbei sichergestellt werden, dass die KI mit solchen neuen Begebenheiten zuverlässig unterscheiden kann und auch hierbei eine “richtige Antwort” ausgibt ?

Total 2

Es gibt tatsächlich maschinelle Lernmodelle, die man fortwährend trainieren kann (continual learning). Man könnte das vorgestellte Modell also auch noch mit Autobildern (oder mit anderen “neuen” Daten) trainieren, nachdem man es mit Tierbildern trainiert hat. Dann könnte es auch für diese neue Daten “richtige Antworten” ausgeben. Ohne Training kann das meines Wissens nach nicht funktionieren. Ein Mensch weiß ja auch nicht, dass etwas ein Auto ist, wenn man ihm/ihr nie sagt, was ein Auto ist. Eine andere Sache wäre das Konzept “Auto” zu erlernen (4 Räder, bewegt sich etc.). Das wäre dann eher "unsupervised learning”.

<Deleted>
Mai 11, 2023 13:14
Total 1

Ich frage mich, ob wir einer KI überhaupt die Fähigkeit zuschreiben sollten, die absolut richtige Antwort zu geben. Die große Stärke von KI-Algorithmen ist es doch, unfassbar große Datenmengen zu verarbeiten, die ein Mensch niemals verarbeiten könnte. Damit können KIs für den Menschen von großem Nutzen sein, wenn wir ein Ergebnis bekommen, das (aufgrund der hohen verarbeiteten Datenmenge) mit großer Wahrscheinlichkeit sehr gut ist. Doch ich als Mensch sollte das Ergebnis der KI prüfen und diesem im Zweifel nicht blind vertrauen.

Bei schwerwiegenden Entscheidungen, trage ich als Mensch, der die KI “bedient” die letzte Verantwortung. Beispielsweise im medizinischen Bereich: KIs können sehr hilfreich sein, doch der behandelnde Arzt / die behandelnde Ärztin trägt die Verantwortung, auch wenn etwas schief gehen sollte.

Total 3

Aus der Perspektive der KI-Forschung ergeben sich mir deutlich die Vorteile eines solchen Models, das seine eigene (Un-)Sicherheit transparent wiedergeben kann.

Mir stellt sich allerdings die Frage, welche Vorteile dies im Bezug auf Nachhaltigkeit hat. Das Thema der Nachhaltigkeit ist ein Bereich vieler Meinungsverschiedenheiten, wie schon in den Kommentaren auf te.ma ersichtlich wird. Birgt die bewusste Verminderung der Selbstsicherheit in den Antworten der Modelle nicht die Gefahr, den gesamten Diskurs weiter von der Ebene der Fakten zu entfernen? Wenn schon die Modelle im Konjunktiv argumentieren, wie sollen Menschen dann noch Entscheidungen treffen, die für die Lösung der anderen vorgestellten Probleme auf dieser Seite wichtig sind?

Total 3

Meiner Ansicht nach bedeutet die Transparenz von Unsicherheit genau das Gegenteil, also dass man der Wahrheit damit deutlich näher kommt als mit bloßen Aussagen. Das gilt für den menschlichen Diskurs genauso wie für den mit KI. Eine bloße Punktschätzung über etwas enthält nicht sehr viel Aussagekraft, auch wenn wir anderes gewohnt sind in alltäglichen Diskussionen. Dabei wäre es auch bei denen super hilfreich, darüber zu reden, wie sicher wir uns bei den Behauptungen sind, die wir treffen. Allerdings sind wir bei Menschen gewohnt, dass sie sich irren, während Maschinen immer eine gewisse Unfehlbarkeit umgibt. Da ist es nochmal wichtiger, dass hier Unsicherheit offensichtlich gemacht wird und so ein angemessener einsatz von KI ermöglicht . Und ich denke, das gilt für alle Themenbereiche und birgt auch in sich selbst eine Nachhaltigkeit, da eine bessere Weise der Infovermittlung auch nachhaltig bessere Entscheidungen fördert.

Total 1

Ich möchte zur “bewusste[n] Verminderung der Selbstsicherheit in den Antworten der Modelle”, die du erwähnst, anmerken, dass das vorgestellte maschinelle Lernmodell nicht allgemein unsicherer wird, sondern nur für Bilder, die es nicht gut klassifizieren kann. Bei Bildern, die es gut klassifizieren kann, ist es nach wie vor sicher.

Diese Eigenschaft erscheint mir durchaus hilfreich zu sein. Ein Beispiel: Ein maschinelles Lernmodel erkennt Tumoren und ein Arzt stellt anhand dieses Modells eine Diagnose. Wenn er weiß, dass das Modell unsicher ist, wird er vielleicht selber nochmal genauer hinschauen.

Total 4

Ich denke dass die kommunizierte (Un)Sicherheit einer KI die Benutzbarkeit und Akzeptanz in der Gesellschaft stark verbessern würde. Denn gerade mit einer KI wie ChatGPT kann man sich sehr unsicher fühlen, da man nie weiß, ob eine Aussage stimmt oder nicht - so oder so liest sich die Antwort selbstbewusst. Das führt dazu, dass man sich garnicht mehr auf eine Antwort verlassen kann. Erst wenn die KI einem verlässlich mitteilen kann, wie sicher sie in ihrer Antwort ist, kann man sich auf die Technologie verlassen.

te.ma sammelt keine Cookies. Um mit der Allgemeinen Datenschutzgrundverordnung (DSGVO) übereinzustimmen, müssen wir dich aber informieren, dass von uns eingebundene externe Medien (z.B. von YouTube) möglicherweise Cookies sammeln. Mehr dazu in unserer Datenschutzerklärung.