Sie verwenden einen veralteten Browser. Bitte aktualisieren Sie Ihren Browser.
Stromverbrauch Künstliche Intelligenz
ChatGPT, Google Bard & Co. haben unsere digitale Welt verändert. Zielgerichtet eingesetzt, können uns Künstliche Intelligenzen das Leben und die Arbeit erleichtern. Doch bis es so weit ist, müssen die Sprachmodelle angelernt und mit unzähligen Daten gefüttert werden. Dies macht sie zu riesigen Stromfressern.
KI ist nicht neu: Wir alle kennen Alexa und Siri seit vielen Jahren, nutzen die Gesichtserkennung beim Smartphone oder Smart-Home-Anwendungen. Doch seit der Einführung von ChatGPT im Jahr 2022 erlebt die generative KI einen massiven Boom. Ihre Hauptaufgabe ist es, Texte, Bilder oder andere Daten zu erzeugen.
Trainieren verbraucht Energie
Bevor Künstliche Intelligenzen unsere Fragen beantworten können, müssen sie trainiert werden. Das verschlingt große Datenmengen. Dieser Prozess ist extrem energieintensiv. Alex de Vries, Doktorand an der VU Amsterdam School of Business and Economics berichtet in der Zeitschrift Joule, dass große Sprachmodelle, darunter GPT-3, Gopher und Open Pretrained Transformer (OPT), 1.287, 1.066 bzw. 324 Megawattstunden für ihr Training verbrauchten.
Nach dem Training werden die Modelle in die Praxis überführt, um auf neue Daten zu reagieren und entsprechende Ergebnisse zu generieren. Auch die so genannte Inferenzphase ist mit einem hohen Energieverbrauch verbunden. Generative KI-Systeme benötigen enorme Rechenleistung und leistungsstarke Prozessoren. Laut einer Untersuchung von SemiAnalysis sind für den Betrieb von Chat-GPT in der Inferenzphase 3.617 Server nötig, die 28.936 Grafikprozessoren umfassen, was wiederum einem täglichen Energiebedarf von 564 Megawattstunden entspricht. Für das Training von GPT-3 waren insgesamt 1.287 Megawattstunden nötig.
Fragen kostet
Jede Anfrage bei ChatGPT und Co. kostet aktuell zwischen drei und neun Wattstunden Strom. Jedes Mal, wenn eine KI einen Text oder ein Bild erstellt, verbraucht sie eine Menge an Rechenleistung und damit an Energie. Allein ChatGPT hat mehr als 195 Millionen Anfragen pro Tag. Google verarbeitet täglich neun Milliarden Suchanfragen. De Vries beschreibt, wenn jede dieser Anfragen über die KI Bard laufen würde, läge der jährliche Energieverbrauch der Google-Rechenzentren bei 29,3 Terawattstunden.
Prognosen gehen durch weiter steigende Nutzerzahlen von einem Stromverbrauch der weltweiten KI-Systeme von über 80 Terawattstunden pro Jahr aus. Dies entspricht dem Elektrizitätsbedarf von Ländern wie den Niederlanden, Schweden oder Argentinien. Rechenzentren verursachen heute vier bis fünf Prozent des weltweiten Energieverbrauchs. Schätzungen zufolge könnte dieser in den nächsten Jahren sogar auf 30 Prozent ansteigen.
Problematik Wasserknappheit
Die Sprachmodelle verbrauchen nicht nur Unmengen an Strom, sondern auch an Wasser. Der Supercomputer von GPT-Entwickler OpenAI besteht aus 10.000 Grafikkarten und 285.000 Prozessorkernen. Der Kühlbedarf in den Rechenzentren ist extrem hoch, so dass Wissenschaftler bereits jetzt vor Wassermangel warnen. Zudem ist eine hohe Qualität des Wassers notwendig, um Korrosion und Bakterien im Kühlkreislauf zu vermeiden.
Futurezone aus Wien hat analysiert, dass ChatGPT einen halben Liter Wasser pro Gespräch benötigt. Sein Training verschlang laut einer Studie von US-Forschern 700.000 Liter Wasser.
Effiziente Nutzung im Fokus
Alex de Vries warnt vor einem wahllosen Einsatz von KI: Wer zum Beispiel ChatGPT eine Rechenaufgabe stellt, anstatt den Taschenrechner zu benutzen, erhöht den Energieverbrauch unnötig. So kann jeder Internetnutzer zur Ressourcenschonung beitragen, indem er genau überlegt, ob er ein Sprachmodell befragt oder doch 'einfach nur' die Suchmaschine, denn der Dialog mit einer KI kostet etwa das Zehnfache im Vergleich zu einer Standard-Suche.