Der Stromverbrauch von Künstlicher Intelligenz gilt als hoch, ja geradezu als exorbitant. In den USA werden viele neue Rechenzentren geplant – und mit ihnen neue Kraftwerke. Elon Musk hat für seine KI übergangsweise dreckige mobile Gasturbinen eingesetzt. Für die Zukunft plant mancher Konzern mit Atomkraftwerken. Das hat Folgen: Die Debatte um den Stromverbrauch hält durchaus einige Deutsche davon ab, sich die neue Technik intensiver zunutze zu machen. Doch ein genauer Blick auf den Stromverbrauch führt zu überraschenden Ergebnissen.
Eine einfache Anfrage an einen KI-Chatbot braucht mindestens 0,3 Wattstunden. Solche Werte nennen Google und Open AI. Der unabhängige Branchendienst „Epoch AI“ und die Universität des US-Bundesstaats Rhode Island haben detektivische Arbeit geleistet, den Stromverbrauch von KI-Chips und Erfahrungswerte von Rechenzentren herangezogen: Sie kamen auf ähnliche Werte, und das unabhängig voneinander.
Mit so einer Zahl kann aber kaum jemand etwas anfangen. Deshalb braucht man Vergleiche. Nehmen wir zum Beispiel den Fernseher. Dem schreibt die Europäische Union vor, wie viel Strom er im Standby verbrauchen darf. Bei neuen Fernsehern sind das höchstens zwölf Wattstunden am Tag. Bei diesem Wert verbraucht ein neuer Fernseher also im Standby täglich so viel Energie wie 40 einfache Anfragen an die Künstliche Intelligenz.
Aber der Stromverbrauch geht schnell nach oben. Denn Künstliche Intelligenz denkt über ihre Antworten länger nach und kann immer komplexere Aufgaben erledigen. Da sind zum Beispiel die „Deep Research“-Berichte, für die der Computer Dutzende von Websites verarbeitet und zu einem langen Dossier zusammenfasst. Den Stromverbrauch für so einen Bericht schätzt der KI-Forscher Andy Masley auf das Hundertfache einer einfachen Anfrage, also rund 30 Wattstunden. Das wäre ungefähr der Verbrauch eines Büro-Laptops in einer Stunde, ohne externen Bildschirm, der leicht noch mal so viel Strom verbraucht.
Das heißt: Wer für so einen Bericht von Hand ohne KI eine Stunde gebraucht hätte, benötigt genauso viel Strom wie die KI für die gleiche Recherche. So gesehen müsste man über die Technik anhand ihrer Qualität entscheiden und nicht so sehr nach dem Stromverbrauch.
Dieser Text stammt aus der Frankfurter Allgemeinen Sonntagszeitung.
Einigkeit herrscht darüber, dass die Produktion der Chips viel weniger Strom braucht als ihr Betrieb. Unser Stromverbrauch entscheidet sich also nicht am Computer, sondern bei Verkehr und Heizung. Wer nur eine Minute kürzer duscht, spart rund 140 Wattstunden, in ähnlicher Größenordnung liegt der Stromverbrauch für einen Kilometer mit dem Elektroauto. Für einen Autokilometer oder eine Minute Duschen bekommt man also fünf Stunden am Laptop. Wer ein Bad nimmt oder gar eine Sauna anheizt, muss über den Stromverbrauch seiner KI-Chats in den nächsten Monaten nicht mehr nachdenken.
Das führt direkt zum Wasserbedarf. Da herrscht mehr Streit. Sicher ist so viel: Das Wasser wird nicht verbraucht. Es verschwindet nicht. Es wird nicht mal großartig dreckig. Es wird nur zur Kühlung durch die Rechenzentren geleitet und wärmt sich dabei auf. In Deutschland wird dieses warme Wasser dann oft in Fernwärmenetze eingespeist, um beim Heizen zu helfen. Darauf dringt das Gesetz. Wie viel Wasser aber fließt, darüber gibt es unterschiedliche Angaben. Google spricht von 0,26 Millilitern pro Anfrage, eine Studie der University of California rechnet pessimistischer und kommt eher auf 16 Milliliter. Wie viel ist das? Vielleicht ist der beste Vergleich wieder die Dusch-Minute. Die braucht oft rund zehn Liter Wasser (das nicht nur warm wird, sondern auch dreckig). Da entspräche eine Minute Duschen mehr als 600 KI-Anfragen.
Bisher haben wir nur die Nutzung betrachtet. Doch jede Künstliche Intelligenz muss erschaffen werden. Techniker sagen: Das Modell wird trainiert. Wie viel Strom das kostet, sagen die Konzerne nicht. Unabhängige Schätzungen gibt es auch hier. Sie belaufen sich auf mindestens 50 Gigawattstunden an Strom für ein neues KI-Modell, wie es alle paar Wochen oder Monate auf den Markt kommt und dann weltweit genutzt wird.
50 Gigawattstunden kann sich gar niemand vorstellen, da helfen diese Vergleiche: 61 Gigawattstunden liefert ein modernes Offshore-Windrad jährlich, so plant es RWE für seinen „Nordseecluster“. Man könnte auch sagen: 50 Gigawattstunden sind ein Drittel des täglichen Energiebedarfs der Lufthansa (der dort aus Kerosin gedeckt wird). Deutschland verbraucht so viel Strom in einer Stunde.
Das KI-Training findet oft in den USA statt und kommt dort auf den bisherigen Strombedarf obendrauf. Deshalb sind dort neue Kraftwerke nötig, und zwar oft konzentriert in wenigen Bundesstaaten wie Virginia. Aus Virginia heraus wird die halbe Welt mit KI-Leistungen beliefert, sodass deren KI-Strombedarf ebenfalls in Virginia anfällt. Kein Wunder, dass dort neue Kraftwerke nötig sind.
Auch in Deutschland müsste man darüber nachdenken, wo der Strom für Rechenzentren herkommen soll. Insgesamt aber fällt das nicht so ins Gewicht. Trotz Künstlicher Intelligenz: Gutachter für die Bundesregierung haben ihre Strombedarfsprognose für 2030 gerade deutlich gesenkt. Die energieintensive Industrie hat so viele Probleme, dass KI das nicht ausgleicht.
