te.ma ist seit dem 01. August 2024 bis auf Weiteres inaktiv und befindet sich im Archiv-Modus. Alle Publikationen sind weiter zugänglich. Der Kommentarbereich ist jedoch abgeschaltet. Bestehende Nutzerkonten bleiben bis 31. Juli 2025 weiter zugänglich, neue Nutzerkonten können nicht mehr angelegt werden. Unser Newsletter wird nicht mehr weiter bespielt.

KI: Freund oder Feind im Kampf gegen den Klimawandel?

Re-Web

KI: Freund oder Feind im Kampf gegen den Klimawandel?

»How do Artificial Intelligence and Energy belong together?«

Inhalte

Intro

Geschrieben von Solveig Klepper

Bei te.ma veröffentlicht 31.05.2023

Geschrieben von Solveig Klepper
Bei te.ma veröffentlicht 31.05.2023

Während KI häufig als Allzweckwaffe im Kampf gegen globale Herausforderungen wie den Klimawandel angepriesen wird, steigt zugleich der Energieverbrauch von KI-Algorithmen stetig an. In dieser Folge des Wissenspodcasts Neuland geht es um den hohen Energieverbrauch, aber auch um das Potential von KI und die Rolle der Forschung für intelligente Energielösungen der Zukunft.

KI-Systeme sind inzwischen weit verbreitet und werden in fast jedem Bereich angewandt. Die Umsetzung und Nutzung von smarten Systemen hinterlässt jedoch Spuren: Grob vier Prozent des globalen Energieverbrauchs sei Rechenzentren zuzuordnen, schätzt Ralf Herbrich. Hinzu komme der Energieverbrauch von mobilen Geräten wie Handys und Laptops, der grob dem gleichen Anteil entspricht. Nicht alles davon stehe in Beziehung zu maschinellem Lernen, doch ein wachsender Teil der Rechenoperationen sei auf maschinelle Lernalgorithmen zurückzuführen.

Der Grund dafür sei simple Arithmetik, sagt Robert Williamson. Maschinelles Lernen basiere auf Mathematik, und wenn man es in Code übersetzt, damit ein Computer es verstehen kann, benötige es eine verblüffend große Menge an Operationen. Jede dieser elementaren Operationen benötigt für sich genommen zwar nur eine winzige Energiemenge, die Gesamtzahl an Operationen – beispielsweise in einem großen Sprachmodell – ist allerdings enorm groß. Ein Model wie GPT-3 hat schätzungsweise um die 175 Milliarden Parameter. Nutzt man solch ein Modell, um Text zu generieren, kann dieses, je nach Textlänge, Billionen oder sogar Quadrillionen von Rechenoperationen benötigen. Die Energiekosten für das Training eines solchen Sprachmodells vergleicht Herbrich mit einem Passagierflug von Frankfurt nach San Francisco. In der Technikfolgenabschätzung des Bundestags heißt es: „Schätzungen zufolge waren für das Training von GPT-3 1.287 MWh Strom nötig“.1 Das entspricht dem Jahresstromverbrauch von 400 deutschen Haushalten und den Treibhausgasemissionen von sechs Passagierflügen von New York nach San Francisco.

Diese Zahlen sind signifikant und Forschende tragen eine Verantwortung zur Entwicklung von energieeffizienten KI-Algorithmen. Ideen hierfür gibt es bereits, zum Beispiel leichte Abstriche bei der Präzision: Die meisten Computer rechnen mit möglichst hoher, teilweise unnötig hoher Genauigkeit. Darstellungen und Rechenoperationen mit solchen Kommazahlen benötigen viel Speicher und Energie. Wenn nun weniger genaue Realisierungen von Zahlen erlaubt wären, spart dies Energie. Die Kehrseite der Medaille: Die Ergebnisse sind unter Umständen weniger präzise. Die Genauigkeit des Ergebnisses und der Energieverbrauch stehen also in einem Zielkonflikt.

Bisher waren die meisten Anwendungen laut Herbrich auf die Vergangenheit bezogen. Mit Mathematik und Statistik wurden bestehende Daten analysiert. Da wollte man möglichst akkurat sein. Im Rechnungswesen beispielsweise könne man keine Kompromisse machen. Mit KI wolle man allerdings oft die Zukunft vorhersagen. Hier sei Raum für Ungenauigkeit. Schließlich könnten auch Menschen die Zukunft nicht gut vorhersagen, betont Herbrich. Im Bereich des maschinellen Lernens ist oft die Genauigkeit eines Modells auf einem Testdatensatz der Maßstab für Qualität. Aber wie viel Genauigkeit brauchen wir wirklich? Oft können wir ein Prozent schlechtere Leistung in Kauf nehmen, wenn wir dafür nur ein Zehntel der Energie verbrauchen. Diese vermeintliche Diskrepanz zwischen enormer Energieeinsparung bei nur geringfügig schlechterer Leistung erklärt sich aus der Tatsache, dass viel Zeit und Energie in die Optimierung von KI-Modellen fließen und in den Versuch, noch ein Tausendstel bessere Leistung gegenüber dem Vorgängermodell zu erreichen.

KI ermöglicht uns jetzt schon in vielen Bereichen einen nachhaltigeren Umgang mit Ressourcen. Das 200-fache an Energie, die wir an einem Tag benötigen, erreicht unseren Planeten täglich in Form von sauberer Sonnenenergie. Das Problem sei die Verteilung und Speicherung dieser Energie. Dabei helfen KI-Algorithmen, die beispielsweise dazu verwendet werden, die Position von Wolken und so die zu erwartende Energieausbeute in einem bestimmten Gebiet vorherzusagen.2 Das optimiert die Planung und Nutzung von Energienetzen. Auch in der Werkstoffkunde für bessere Batterien mit größerer Energiekapazität und längerer Lebensdauer kann maschinelles Lernen Kosten und Zeit sparen. Algorithmen, die den inneren Abbauprozess der Batterien vorhersagen, ersetzen herkömmliche Methoden, nämlich das Öffnen (und dadurch die Zerstörung) der Batterie. Mit Hilfe von maschinellem Lernen können auch Eigenschaften neuer Materialien simuliert und so die Suche nach neuen Batterietechnologien erleichtert werden.

Bei der Frage nach dem größten Potential von KI für den Klimawandel bleibt Williamson vage: Die meisten komplexen Probleme könne man nicht durch eine einzelne Stellschraube lösen, sagt er, sonst wären es keine komplexen Probleme. Eine Stärke sieht er in der Vielfalt der Menschen aus unterschiedlichen Fachrichtungen, die sich mit dem Problem beschäftigen. Das werde uns zu einer Lösung führen, wir kennen sie nur noch nicht. 

Transparenzhinweis: Der Podcast-Gast Bob Williamson ist mit der Universität Tübingen affiliiert.

Fußnoten
2

Steffen Albrecht: ChatGPT und andere Computermodelle zur Sprachverarbeitung – Grundlagen, Anwendungspotenziale und mögliche Auswirkungen. TAB-Hintergrundpapier Nr. 26. 21. April 2023, abgerufen am 26. Mai 2023.

Re-Web

Offener Zugang
Offener Zugang bedeutet, dass das Material öffentlich zugänglich ist.
Verwandte Artikel

Ein Algorithmus ist eine Anleitung mit endlich vielen, wohl definierten Handlungsschritten zur Bearbeitung eines Problems. Ein Lernalgorithmus ist ein Computerprogramm oder eine mathematische Methode, die entwickelt wurde, um eigenständig aus Daten zu lernen und auf Grundlage des Erlernten Vorhersagen oder Entscheidungen zu treffen.

Eine Quadrillion ist das Produkt aus einer Billion mal einer Billion – eine Eins mit 24 Nullen.

Die Technikfolgenabschätzung (TA) des Bundestags wird von einem unabhängigen wissenschaftlichen Institut durchgeführt. Sie soll Informationen über mögliche Risiken und Folgen von Technologien bereitstellen. Die Ergebnisse fließen in politische Entscheidungsprozesse ein.

Ein Rechenzentrum ist eine Einrichtung, die aus vernetzten Computern und Speicherplatten besteht. Diese werden von Unternehmen und anderen Institutionen zur Organisation, Verarbeitung, Speicherung und Verbreitung großer Datenmengen genutzt.

Das Rechnungswesen ist ein Teilgebiet der BWL. Im Rechnungswesen werden alle Geldströme und Güterströme im Unternehmen systematisch erfasst, ausgewertet und überwacht.

Ein Testdatensatz ist eine Sammlung von neuen Daten, auf denen ein Modell ausgewertet wird. Diese hat das Model während des Trainings noch nicht „gesehen“.

Diskussionen
4 Kommentare
Es gibt neue Kommentare!
Te.ma befindet sich im Archiv-Modus und daher ist die Kommentarfunktion deaktiviert.
Total 1

Der steigende Energieverbrauch von KI-Algorithmen ist zweifellos besorgniserregend und stellt eine Herausforderung dar. Es ist wichtig, dass die Forschung und Entwicklung energieeffizienter KI-Systeme vorangetrieben wird, um die negativen Auswirkungen auf die Umwelt zu reduzieren. Gleichzeitig dürfen wir jedoch nicht die positiven Aspekte von KI übersehen. Von der Vorhersage erneuerbarer Energien bis hin zur effizienteren Nutzung von Ressourcen bietet KI ein enormes Potenzial, den Klimawandel anzugehen. Es ist wichtig, dass wir eine ausgewogene Diskussion führen, um sowohl die negativen als auch die positiven Aspekte zu berücksichtigen.

Total 1

Diesen Artikel beziehungsweise Podcast finde ich wegen der konkreten Möglichkeiten, an denen schon geforscht wird ermutigend. Aber auch, dass es scheinbar so “einfache” Möglichkeiten gibt, doch einen Teil des Rechenaufwands einzusparen, wenn eine gewisse Ungenauigkeit in Kauf genommen wird. Hoffentlich geht es in diese Richtung gut weiter.

Total 1

Anders als bei der Energieversorgung von Menschen im Alltag, haben Forschende Einfluss auf den Ort und Zeitpunkt des Trainings von KI Algorithmen. Könnte man nicht Rechenzentren in sehr sonnigen Orten bauen und das Training der KI Modelle abhängig von der verfügbaren Solarenergie durchführen? Die Energiekosten könnten dadurch eventuell sogar sinken und die nachhaltige Alternative somit für die Wirtschaft interessant machen.

Total 0

Zweifellos muss der Energieverbrauch für das Training von KI-Algorithmen reduziert werden. Interessant finde ich, wie die KI selbst zu diesem Optimierungsprozess beitragen kann. Schon heute gibt es Ansätze, wie KI helfen kann, effizientere Prozessoren zu entwickeln. Aber auch in Bereichen wie der Optimierung von Windparks sehe ich großes Potenzial.

Eine “Beschneidung“ der Technik durch Reduzierung der Genauigkeit halte ich jedoch für den falschen Ansatz.

te.ma sammelt keine Cookies. Um mit der Allgemeinen Datenschutzgrundverordnung (DSGVO) übereinzustimmen, müssen wir dich aber informieren, dass von uns eingebundene externe Medien (z.B. von YouTube) möglicherweise Cookies sammeln. Mehr dazu in unserer Datenschutzerklärung.