Als Breiman den vorliegenden Essay schreibt, sind die Vorläufer des heutigen maschinellen Lernens noch einfache Modelle aus Statistik und Wahrscheinlichkeitstheorie. Er nennt diese „klassische“ Perspektive Data Modeling Culture.
Doch was bedeutet das praktisch? Ein Beispiel: Wenn wir aus Messdaten wie Temperatur, Wolkendichte und Windstärke die Regenwahrscheinlichkeit vorhersagen möchten, brauchen wir zunächst ein Modell. Dieses bündelt unser Weltwissen über die Physik des Wetters. In der Natur gibt es nämlich einen Zusammenhang zwischen all unseren Messdaten. Diesen Zusammenhang bildet ein mathematisches Modell so genau wie möglich ab. Im Idealfall enthält das Wettermodell dann also eine exakte Beschreibung aller atmosphärischen Phänomene und Faktoren, die zu Regen führen könnten.
Breiman sieht in diesem Data-Modeling-Verfahren einige Vorteile. Unser beispielhaftes Wettermodell lässt sich nämlich nicht nur zur Regenvorhersage nutzen – zusätzlich können Meteorolog*innen mithilfe des Modells besser verstehen, wie genau einzelne Wetterphänomene zusammenwirken, oder die Auswirkungen von Extremwetter-Szenarien simulieren. Außerdem ermöglicht die mathematische Beschreibung des Systems, die Korrektheit der Vorhersagen zu garantieren. Das heißt: Man kann sogar mathematisch beweisen, wie gut eine Wettervorhersage sein wird.
Trotz dieser Vorteile kritisiert Breiman den Data-Modeling-Ansatz fundamental: Denn all seine Vorzüge ließen sich nur realisieren, wenn die Modelle auch wirklich korrekt seien. Und da die Welt meist deutlich komplexer sei als die Modelle von Statistiker*innen, könne man davon in der Regel nicht ausgehen. Damit wären aber laut Breiman sowohl die Interpretierbarkeit als auch die mathematisch garantierte Korrektheit dahin.
Breiman wirft der klassischen Statistik außerdem vor, sich zu sehr auf ihre altbekannten Werkzeuge zu beschränken – in seinen eigenen Worten: „Es gibt ein altes Sprichwort: ‚Wenn ein Mann als Werkzeug nur einen Hammer hat, dann sieht jedes Problem wie ein Nagel aus.‘ Das Problem für Statistiker ist, dass in letzter Zeit einige Probleme nicht mehr wie Nägel aussehen.“
Im Kontrast dazu wirbt Breiman für die Kultur des Algorithmic Modeling: Aus seiner Sicht muss man sich nicht damit aufhalten, die Mechanismen der Natur exakt zu verstehen und nachzubauen. Vielmehr sollte man auf flexible Algorithmen setzen, die mit möglichst wenig Annahmen über die Welt möglichst präzise Vorhersagen liefern. Dabei legt Breiman kaum Wert darauf, ob die Algorithmen dafür denselben „Rechenweg“ wie die Natur verwenden – oder ob sie eine völlig andere Lösung finden.
Im Algorithmic Modeling ersetzen wir also beispielsweise alle Regenmechanismen aus unserem Beispiel mit der Black Box des Algorithmus. Damit können wir aus dem Algorithmus nicht ohne Weiteres Neues über die Physik des Regens lernen. Und auch, wie genau der Algorithmus aus Messwerten Regenschauer vorhersagt, entzieht sich unserem Verständnis. Als Praktiker sieht Breiman darin keinen Nachteil, sondern fokussiert sich auf das, was aus seiner Sicht zählt: ob die Vorhersage stimmt. Schließlich interessiert uns in vielen Fällen nicht, welches Zusammenspiel von Wind und Luftdruck an einem bestimmten Tag zu besonders ergiebigen Regenwolken führt, sondern nur, ob wir einen Regenschirm einpacken sollten oder nicht.
Diese von Breiman beworbene „Black Box“-Kultur prägt maschinelles Lernen bis heute. Viele KI-Ingenieur*innen trimmen Algorithmen allein auf beste Leistung. Welche Zusammenhänge in der Welt vorliegen und auf welchen Mechanismen die Vorhersagen beruhen, ist zweitrangig. Doch diese Perspektive ändert sich zunehmend: In immer mehr Anwendungen von künstlicher Intelligenz und maschinellem Lernen sind undurchschaubare Black Boxes nämlich mindestens fragwürdig. Beispielsweise wenn Computerprogramme automatisch über Krebsdiagnosen oder Kreditwürdigkeit entscheiden, aber keine Begründung für ihre Entscheidungen liefern können. Daher braucht es neue Ansätze, die die Black Boxes der KIs öffnen.