KI und Nachhaltigkeit: Neue Wege zur Minimierung des Energieverbrauchs von generativer KI
- Generative KI ist ein Stromfresser und für mehr Nachhaltigkeit alles andere als zuträglich. Ihre zunehmende Verbreitung droht die Umstellung auf erneuerbare Energien aus der Bahn zu werfen
- Versorgungsbetriebe stecken in der Klemme: Sie müssen versuchen, die Weichen für eine emissionsfreie Zukunft zu stellen, und gleichzeitig die häufigen Stromspitzen in Rechenzentren bewältigen
- Der Ausbau der Verteilungsnetze ist in Arbeit, könnte jedoch Jahrzehnte dauern. Entwickler generativer KI und Hyperscaler sind gefordert, technologiebasierte Lösungen für ein technologiebasiertes Problem zu entwickeln
Der digitale Wandel verhieß eine sauberere, grünere Wirtschaft. Die heutige Realität sieht anders aus: Vielerorts belastet die Umsetzung eben dieses Wandels Versorgungsnetze und verursacht Ausfälle in Rechenzentren. Ohne ein Eingreifen scheinen die Revolutionen der Künstlichen Intelligenz (KI) und der erneuerbaren Energien auf einen Zusammenprall zuzusteuern. Die enorme Leistungsstärke Generativer KI geht mit einem ebenso enormen Stromverbrauch einher. Laut einer Studie des Weltwirtschaftsforums nimmt der Energiebedarf für die Ausführung von KI-Aufgaben bereits heute jährlich um 26 % zu. Bis 2028 könnte generative KI mehr Strom verbrauchen als die gesamte isländische Bevölkerung.
Lässt sich mit Wind-, Solar- und Wasserkraftwerken wirklich genug Energie produzieren, um eine ausreichende Stromversorgung langfristig zu gewährleisten? Oder werden Versorgungsunternehmen gezwungen sein, doch weiterhin auf fossile Brennstoffe zu setzen? Experten halten eine ökologisch nachhaltige Entwicklung und Umsetzung von KI-Modellen durchaus für möglich, jedoch nur unter der Voraussetzung eines grundsätzlichen Umdenkens im Hinblick sowohl auf das Training maschineller Lernmodelle als auch die Programmierung von KI-Anwendungen. Zudem sind massive Investitionen in die Infrastruktur erforderlich, um bedarfsgerecht sauberen Strom liefern zu können.
Warum frisst generative KI so viel Energie?
Große Sprachmodelle (Large Language Models, LLMs) sind sozusagen der Motor, der generative KI antreibt, und sie haben einen unstillbaren Durst nach Treibstoff. Eine Ende 2023 veröffentlichte wissenschaftliche Studie prognostiziert, dass Anwendungen wie ChatGPT bis 2027 zwischen 85 und 134 Terawattstunden (TWh) verbrauchen werden. Das entspricht in etwa dem kombinierten Jahresverbrauch der Niederlande und Schwedens.
Nach Meinung von Shahab Mousavi, einem auf Nachhaltigkeit spezialisierten KI-Forscher an der Stanford University, haben drei Veränderungen in jüngster Zeit das Cloud Computing energieintensiver gemacht. „Kurz gesagt: Nvidia und Konsorten haben ihre Grafikprozessoren [GPUs], die für Hochleistungsrechner und Parallelverarbeitung ausgelegt sind, ständig verbessert und damit die Grundlage für die Rechenzentren mit unglaublich hoher Rechenleistung geschaffen, die die heutigen KI-Systeme überhaupt erst ermöglichen“, konstatiert er.
„In gewisser Hinsicht konnten sie von mehreren Wellen der Nachfrage nach GPUs profitieren“, fährt Mousavi fort. „Zuerst wurden sie für Spiele und den Grafikbedarf verwendet. Mit dem Aufkommen von Bitcoin sorgte Krypto-Mining für den nächsten Boom. Heute gibt es neben den beiden vorherigen Faktoren auch KI-Anwendungen, insbesondere generative KI-Produkte, die eine neue Welle der Nachfrage auslösen. Sie führen eine Menge relativ einfacher Berechnungen durch, um ihre Modelle zu trainieren, was eine Datenverarbeitung im massiven Umfang erfordert, und aufgrund der Parallelisierbarkeit dieser Berechnungsaufgaben lässt sich der Prozess mit GPUs im Vergleich zu herkömmlichen CPUs erheblich beschleunigen.“
Allen voran sind die sogenannten Hyperscale-Rechenzentren betroffen. Mit Racks und Serverschränken, die sich über Millionen von Quadratmetern erstrecken, werden sie immer energieintensiver, da die KI-Server Unmengen von Anfragen verarbeiten. Die GPUs erhitzen sich, und zu ihrer Kühlung sind größere Mengen an Strom erforderlich, die die Kapazität der lokalen Stromnetze häufig überfordern.
In einer Rede vor Führungskräften der Energiebranche im März 2024 prognostizierte John Pettigrew, CEO des britischen National Grid, dass der Strombedarf von Rechenzentren in den nächsten zehn Jahren um 500 % ansteigen wird. Ein veraltetes Verteilernetz schränke das System ein, warnte er und fügte hinzu, dass „das weitere Wachstum zukunftsweisender Technologien wie künstliche Intelligenz und Quantencomputer eine noch größere und energieintensivere Recheninfrastruktur erfordern wird“. Angesichts von über 10.500 weltweit betriebenen Rechenzentren und Hunderten weiteren im Bau befindlichen Rechenzentren ist nicht damit zu rechnen, dass sich dieses Problem in Wohlgefallen auflösen wird.
Angebot, Nachfrage, Verteilung: das Dilemma der erneuerbaren Energien
Die offensichtliche Lösung wäre die Deckung des zunehmenden Strombedarfs aus Wind-, Sonnen- und Wasserkraft. In Großbritannien wurde im vergangenen Jahr genug saubere Energie erzeugt, um sämtliche Haushalte zu versorgen. Problematisch wird es, wenn man versucht, die grünen Elektronen in der Nachfragesteuerung der Versorgungsunternehmen einzusetzen. Mousavi verweist auf US-Bundesstaaten wie Kalifornien und Texas, die massiv in den Ausbau der erneuerbaren Energien investiert haben. „Das Netz ist nicht dafür optimiert, erneuerbare Energie dorthin zu bringen, wo sie gebraucht wird. Wenn die Übertragungskapazitäten für erneuerbare Energien nicht ausreichen, vor allem zu Spitzenzeiten wie mittags bei der Solarenergie, haben sie keine andere Wahl, als auf Drosselungen zurückzugreifen, d. h. erneuerbare Energiequellen einfach vom Netz zu trennen.“
Als Paradebeispiel führt er die umfangreichen Investitionen in Solaranlagen im kalifornischen Central Valley an. „Das Netz muss erst noch entsprechend aufgerüstet werden, um den Großteil des im Großraum San Francisco nachgefragten Stroms von den Orten im Central Valley zu übertragen, wo die Solarstromerzeugungskapazität stark gestiegen ist, wie z. B. in den Außenbezirken von Davis und Merced“, führt er an. „Also gibt es in der Bay Area zwar eine hohe Verbrauchsnachfrage, aber nicht die geeignete Netzinfrastruktur, um die gesamte nachgefragte erneuerbare Energie dorthin zu liefern. Das führt dazu, dass die verfügbaren erneuerbaren Energiequellen wie die Solarenergie während der Nachfragespitzen abgeschaltet werden, um die Stabilität des Stromnetzes aufrechtzuerhalten, und stattdessen herkömmliche Kraftwerke zu Zeiten hoher Nachfrage im lokalen Verbrauchsgebiet eingesetzt werden.“
Investitionen in die Infrastruktur versprechen zwar Abhilfe, jedoch kann der Ausbau des Stromnetzes sich über Jahre oder sogar Jahrzehnte hinziehen. Was kann man heute zur Bewältigung des steigenden Strombedarfs durch KI tun? Eine Möglichkeit besteht darin, die Rechenkapazität zu rationieren, wie es Amazon Web Services Berichten zufolge in Irland tun musste, oder Anreize für die Verlagerung und den Ausbau von Rechenkapazitäten in Gebiete zu schaffen, in denen erneuerbare Energien im Überfluss vorhanden sind. Dadurch ließe sich der zusätzliche Druck auf das Stromnetz verringern, der durch das Zusammentreffen stark erhöhter Nachfrage mit der Umstellung auf erneuerbare Quellen entsteht. Eine Alternative wäre, weiterhin fossile Brennstoffe zu verbrennen. Trotz aller Probleme sind Öl- und Gaskraftwerke reichlich vorhanden, zuverlässig und gleichmäßig in der Nähe großer Bevölkerungszentren verteilt.
Je mehr diese Energieträger jedoch genutzt werden, desto weniger dringlich erscheint es, neue saubere Kraftwerke in Betrieb zu nehmen. In den USA gibt es eine lange Liste von Projekten für erneuerbare Energieträger, deren behördliche Genehmigung noch aussteht. Im Zuge der zunehmenden Nutzung von KI nicht nur in der Wirtschaft, sondern auch in Privathaushalten könnte sich die Realisierung solcher Projekte weiter verzögern.
Vor diesem Hintergrund setzen Rechenzentren teilweise auf Umgehungslösungen wie Stromabnahmevereinbarungen (PPAs) und Zertifikate für erneuerbare Energien (RECs), um ihre CO2-Bilanz auszugleichen. „PPAs und RECs sind zwei der wichtigsten Faktoren für eine verstärkte Stromerzeugung, und obwohl sie ein Segen für die erneuerbare Energiebranche waren, sind sie absolut kein Allheilmittel“, mahnt Mousavi. „Sie tragen nicht viel dazu bei, die Übertragung zu verbessern oder funktionierende Mechanismen für die Rechenschaftspflicht durch eine ordnungsgemäße Zuweisung der Emissionsverantwortung an die Endverbraucher zu schaffen. Zudem macht der Handel mit Emissionsattributen durch Mechanismen wie RECs es praktisch unmöglich, die reale Treibhausbilanz eines Unternehmens zu ermitteln.“
Unter Berufung auf eine Ende 2023 veröffentlichte kritische Stellungnahme zur marktbasierten Berechnung der indirekten Treibhausgasemissionen gemäß Scope 2 fordert Mousavii: „Wir müssen das Gleichgewicht zwischen Produktion und Nachfrage nach erneuerbaren Energien verbessern. Wir haben die saubere Stromerzeugung in den letzten Jahren rapide gesteigert, aber wir haben es versäumt, die Infrastruktur zu verbessern, um diese erhöhte Erzeugungskapazität dorthin zu liefern, wo die Nachfrage besteht.“
Effizientere KI-Entwicklung mit kleineren Modellen
Während politische Entscheidungstragende Pläne zur Verbesserung der Stromverteilung ausarbeiten, können Unternehmen, die generative KI entwickeln, einiges tun, um die CO2-Bilanz von LLMs zu verbessern.
Reshmi Ghosh, Spezialistin für maschinelles Lernen bei Microsoft, hält es für möglich, dass LLMs kleineren Modellen weichen könnten, die für spezifische Anwendungsfälle entwickelt werden. Diese wären weniger rechenintensiv und würden daher weniger Energie benötigen. „Es gibt Bereiche, in denen diese großen, nicht spezialisierten Modelle nicht gut funktionieren“, meint sie und verweist auf die Verzerrungen und fehlerhaften Ergebnisse, die generative KI-Modelle häufig produzieren. „In meinem Forschungsgebiet wird untersucht, wie wir es vermeiden können, in diese riesigen Datensätze zu investieren, wenn wir nur spezielle Aufgaben zu erfüllen haben.“
Sie verweist auf die Arbeit von Microsoft mit kleinen Sprachmodellen (Small Language Models, SLMs) sowie die offene Phi-3-Suite von KI-fähigen Datensätzen. Mit 3 bis 5 Milliarden Parametern sind diese wesentlich stärker spezialisiert als LLMs wie ChatGPT, das nach Angaben der Entwickler 175 Milliarden Parameter oder mehr verwendet. SLMs erfordern weniger Training (z. B. das kontinuierliche Durchlaufen bestimmter Vorgänge, um sie zu optimieren und zu präzisieren) und ermöglichen daher nachhaltigere KI-Entwicklungsverfahren. Ghosh zufolge ist das ein Bereich, den Microsoft gerne weiter erforschen möchte.
„Wir stellen fest, dass nur Teile des Datenmodells die Informationen enthalten, die tatsächlich für eine bestimmte Aufgabe oder einen bestimmten Bereich benötigt werden“, führt sie an. „Wir können die KI effizienter machen, indem wir die Parameter effizienter gestalten.“
Wie realistisch ist eine nachhaltige „Öko-KI“?
Schon vor ChatGPT stieg der Energieverbrauch aufgrund der fortschreitenden Elektrifizierung aller Bereiche stetig an. Die aktuellen Nachfragespitzen erfordern ein sorgfältiges Abwägen zwischen verschiedenen Prioritäten: Wie lässt sich die Energiewende vorantreiben, ohne das Potenzial der KI auszubremsen? Ghosh und Mousavi sind der Meinung, dass neue Investitionen und Ansätze unverzichtbar sein werden, um sowohl die Energieinfrastruktur als auch generative KI-Anwendungen effizienter, resilienter und nachhaltiger zu machen. Durch umweltfreundlichere Verfahren in der Entwicklungsphase ließe sich auch die CO2-Bilanz von generativer KI verbessern.
„Energieeffiziente Codierung, optimierte Codekontrolle sowie die kontinuierliche Überwachung und Optimierung von KI-Modellen während des gesamten Lebenszyklus sollten zum Standard gehören“, meint Pranjali Ajay Parse, Datenwissenschaftlerin bei Autodesk. „Wir können auch zu optimierten Trainingsplänen übergehen, bei denen wir Trainingsaufgaben außerhalb der Spitzenzeiten ausführen, um von den niedrigeren Energiekosten zu profitieren.“
Als weiteren Ansatz nennt sie die Verteilung von Workloads auf mehrere Rechner beim Training der Modelle. „Dadurch lassen sich ebenfalls Effizienzgewinne erzielen und Engpässe reduzieren.“
Zudem kann maschinelles Lernen auf das Problem angewendet werden. Laut Parse setzte Google bereits 2016 DeepMind ein, um die Energieeffizienz seiner Rechenzentren zu analysieren und zu verbessern, wodurch der Energieverbrauch für die Kühlung um 40 % gesenkt werden konnte. „Das Project Natick von Microsoft, bei dem Rechenzentren unter Wasser betrieben werden, um Kühlung zu sparen, ist ein weiterer vielversprechender Ansatz“, erläutert sie.
Generative KI stellt die Gesellschaft vor große Fragen – ethischer, rechtlicher, wirtschaftlicher und philosophischer Natur. Nach Ansicht von Experten ist es nun an der Zeit, Nachhaltigkeit als weiteren Faktor in die Überlegungen einzubeziehen. Ohne einen gesunden Planeten, auf dem sie ausgetragen werden können, sind alle Debatten über die positiven und negativen Auswirkungen von LLMs reine Makulatur.