Das Aufkommen großer Sprachmodelle wie dem
Emma Strubell und ihre Ko-Autor*innen betrachteten schon 2019 mit Sorge, wie Sprachmodelle in Tech-Industrie und Forschung immer größer und damit energiehungriger wurden. Ihr Argument ist einfach: Der Klimawandel verlangt von allen Gesellschaftsbereichen, bis spätestens 2050 klimaneutral zu werden. Dafür sollen schon bis 2030 die Emissionen von heute um die Hälfte sinken. Das passt nicht zusammen mit den exponentiell wachsenden Stromverbräuchen durch KI-Rechenzentren. Strubell hält also der eigenen Branche den Spiegel vor: Solange sauberer Strom aus erneuerbaren Energien an vielen Orten der Welt noch knapp sei, müsse sich jede energieintensive Industrie fragen, ob die grüne Energie nicht für etwas anderes dringender gebraucht wird als für das Training des nächsten Silicon-Valley-Chatbots. Für Strubell war es daher Zeit für eine Bestandsaufnahme, wie groß dieses Problem genau ist.
Dazu untersuchte sie zunächst, wie viel Strom die besonders weit verbreiteten Transformer-KIs verbrauchen, wenn man sie für einen Tag auf einem standardisierten Computer trainieren lässt. Auf Basis des US-
Den Fußabdruck dieser sogenannten Hyperparametersuche abzuschätzen ist nicht leicht, da sie für jedes KI-System und jede Aufgabe anders verlaufen kann und während der Entwicklung einer KI möglicherweise mehrfach durchgeführt werden muss. Die Forschungsgruppe um Strubell nahm daher die eigenen Aufzeichnungen zu einem vergangenen Projekt als Grundlage, um die Emissionen einer beispielhaften Parametersuche zu beziffern. Für die preisgekrönte Sprach-KI LISA, die die Gruppe 2018 entwickelt hatte, hatten Strubell und Co. insgesamt über 100 Parametersuchen durchgeführt und dabei ihr LISA-Modell fast 5.000 Mal von Grund auf neu trainiert.
Es ist also nicht nur der einzelne Trainingslauf, der die Emissionen hochtreibt, sondern auch der Umstand, dass während der Entwicklung einer KI eben viele solche Durchläufe ausprobiert werden müssen. Außerdem nehmen Größe und Komplexität der Modelle ständig zu und damit auch der Strombedarf und die Emissionen des einzelnen Trainingslaufs. So brachte es einer der ersten Transformer von 2017 wie erwähnt nur auf 12 kg CO2 pro Training – sein Nachfolger BERT kam nur zwei Jahre später schon auf über 600 kg CO2, also das 50-fache
Nur: Lohnen sich die immer größeren KI-Modelle und die umfangreichen Parametersuchen für ihre Entwicklung angesichts dieser Emissionen noch? Oft bringt eine neue Version einer KI nämlich nur kleine Leistungsverbesserungen.
Strubell und Kollegen liefern hierzu einen ersten Anstoß, indem sie beispielhaft die Emissionen des Trainings einflussreicher KI-Systeme benennen. Trotzdem bleiben Fragen offen, um den Einfluss des KI-Sektors auf den Klimawandel abzuschätzen. Wie viel Strom verbrauchen KIs, wenn sie fertig trainiert sind und in der Breite eingesetzt werden? Erste Schätzungen lassen vermuten, dass auch hier substantielle Emissionen zu erwarten sind.
Insgesamt führt Strubell der KI-Forschung und den großen Tech-Konzernen vor Augen, dass ihre Zukunft von einer knappen Ressource abhängt: sauberer Energie. Solange es diese nicht im Überfluss gibt, müssen wir entscheiden, wie Strom aus erneuerbaren Energien verteilt wird. Was ist wichtiger, eine neue KI zu entwickeln, ein Auto zu produzieren oder für ein Jahr die Wärmepumpe einer Privatwohnung zu betreiben?