Der Energieverbrauch von AI-Lösungen ist immens, wie ich schon mal hier im Blog thematisiert habe. Ein Doktorant hat die Situation mal abgeschätzt und die künftige Entwicklung extrapoliert. Wenn die Entwicklung anhält, wird der Energieverbrauch für KI-Lösungen bis 2027 eine Größenordnung annehmen, die dem eines kleinen Landes wie die Niederlande entspricht. Vielleicht ein Punkt, mal innezuhalten und den gesamten Ansatz KI grundsätzlich zu hinterfragen.
Anzeige
KI-Lösungen als Energiefresser
Ich hatte im Beitrag Green Washing oder total bekloppt: Microsoft-Fails auf dem Weg zur CO2-Neutralität auf einen speziellen Aspekt hingewiesen. Es ist bekannt, dass jede Suchanfrage über Bing mit ChatGPT-Unterstützung die 10fache Energie, im Vergleich zu einer einfachen Suchanfrage, benötigt.
Aktuell beginnt Microsoft damit, seine AI-Lösung CoPilot breit in Windows 11 und in Microsoft Office auszurollen und auch in Bing sowie anderer Software bereitstellen. Und die CoPilot-Unterstützung in Windows 11 sowie Office wird den Energieverbrauch der Software weiter in die Höhe treiben.
Das Training und der Betrieb von LLMs frisst riesige Energiemengen. Ich hatte im Blog-Beitrag Was, wenn die generative KI sich als Blindgänger entpuppt? bereits darauf hingewiesen, dass die künstliche Intelligenz hinter Microsofts Suchmaschine Bing enorme Mengen an Strom benötigt. Berechnungen des texanischen Rechenzentrumsbetreibers TRG Datacenters ergaben, dass das Training der KI von Bing mit 7.200 Megawattstunden der größte Stromfresser unter den populären KI-Chatbots sei.
"Stromsparmeister" unter den KI-Modellen ist den Berechnungen zufolge Google Bard. Das Training des Chatbots kommt mit 312 Megawattstunden aus. Aber auch Bard verursacht einen Energiemehrverbrauch. Generell lässt sich feststellen, dass AI-gestützte Lösungen große Mengen an Energie verschlingen.
Anzeige
Abschätzung des künftigen Energieverbrauchs
Seit ChatGPT Ende 2022 vorgestellt wurde, versuchen sich die großen Technologieunternehmen im Rattenrennen um die schnellste Einführung von KI-gestützten Diensten. Den Ansatz Microsofts mit CoPilot hatte ich ja oben skizziert. Aber inzwischen trägt fast jedes Produkt unter dem Label "KI". Diese KI-gestützten Dienste verbrauchen weitaus mehr Strom als herkömmliche Anwendungen, so dass der Online-Betrieb sehr viel energieintensiver ist.
Vorige Woche ist von der BBC der Artikel Warning AI industry could use as much energy as the Netherlands erschienen, der eine deutliche Warnung enthält, dass es so nicht weitergehen kann. Bis zum Jahr 2027 könnte der zusätzliche Energieverbrauch, der durch AI-Lösungen erforderlich wird, wenn die Entwicklung so wie bisher anhält, dem Energieverbrauch eines Lands von der Größe der Niederlande entsprechen.
Das geht aus einer Studie von Alex De Vries, Doktorand an der VU Amsterdam School of Business and Economics, hervor, die sich diesem Aspekt widmet. Die Prämisse basiert auf Annahmen wie etwa die Wachstumsrate der KI-Anwendungen, die Verfügbarkeit von KI-Chips und die Tatsache, dass die Server weiterhin auf Hochtouren arbeiten.
De Vries postuliert für seine Studie, dass Nvidia schätzungsweise 95 % der von der Branche für KI-Lösungen benötigten Hardware liefern wird. Anhand dieser Menge, die Nvidia bis 2027 voraussichtlich liefern wird, konnte De Vries einen ungefähren Bereich für den Energieverbrauch der KI von 85-134 Terrawattstunden (TWh) Strom pro Jahr ermitteln. "Das entspricht [im oberen Wert] der Größe eines Landes wie den Niederlanden, was den Stromverbrauch angeht. Das ist etwa ein halbes Prozent unseres gesamten weltweiten Stromverbrauchs", sagte er gegenüber BBC News.
Die Studie besagt jedoch auch, dass die Auswirkungen der KI auf die Umwelt geringer sein könnten als befürchtet, wenn sich ihr derzeitiges Wachstum verlangsamt. Es ist aber festzuhalten, dass die Studie auf Annahmen basiert, die nicht zutreffen müssen. Denn die Tech-Unternehmen geben nicht genügend Daten heraus, um die Annahmen zu unterfüttern. Optimisten werden argumentieren, dass alles nicht so schlimm sei und alles doch besser wird.
Pessimisten werden argumentieren, dass es im ungünstigsten Fall noch schlimmer als in der Studie prognostiziert wird. Wenn Microsoft flächendeckend CoPilot in seinen Produkten ausrollt, wird dies den Energieverbrauch auf jeden Fall erhöhen. Angesichts der Bemühungen der Menschheit, den Temperaturanstieg der Erde durch Reduzierung des CO2-Ausstoßes zu begrenzen, klingt der AI-Ansatz der Technologieunternehmen unter Berücksichtigung dieser Folgen wie ein schlechter Witz. De Vries sagt, dass seine Ergebnisse zeigten, dass KI nur dort eingesetzt werden sollte, wo sie wirklich gebraucht wird.
Ähnliche Artikel:
Microsoft Copilot kommt – KI-Funktionen für alles?
Green Washing oder total bekloppt: Microsoft-Fails auf dem Weg zur CO2-Neutralität
KI-Informationshäppchen (23. August 2023)
Was, wenn die generative KI sich als Blindgänger entpuppt?
Anzeige
Tja wer weis vielleicht bringt uns KI ja auch zu einem Erfolg der Kalten Fusion, so das Energie kein Problem mehr darstellt.
Wenn der Hund ned gschisse hätt, hätt er den Hase erwischt ;-P
Wir verbraten auch eine Menge Energie und Ressourcen etwas aufzuhalten was nicht mehr aufzuhalten ist, anstatt anzufangen mit den geänderten Bedingungen zu (über)leben.
Die Frage ist halt, muss Energie verbraucht werden bzw. ist der Dienst sinnvoll?
Das kann man aber bei jeder Anwendung/Gerät fragen. Bestimmte Router senden auch im Sekundentakt irgendwelche discovery Anfragen ins Netz um andere Geräte vom Hersteller zu finden, die es aber gar nicht gibt. Verbraucht auch alles CPU, auf mehreren Geräten. Auch sinnlos wenn man es nicht deaktivieren kann… Wenn man solchen Kleinkram mal hochrechnet..
Der Kram der bei Windows und anderen Betriebssystemen im Hintergrund läuft, die Default Apps bei Smartphones die erst runtergeladen und installiert werden, dann löscht der Nutzer diese wieder nur damit das Smartphone diese dann noch mal installiert, weil die Einrichtung nicht abgeschlossen war. Allein der Unterschied beim Stromverbrauch von Geräten. Großdrucker haben noch mal ordentliche Energieoptionen, dass man nutzungszeiträume festlegen kann. Wenn Jemand 22 Uhr noch was druckt, dann ist der Drucker evtl. noch eine Ewigkeit im Standby-Modus, weil man Nutzungszeiträume nicht fest definieren kann.
Wenn mal wirklich Jemand ermitteln würde wo Energie durch dumme Sachen oder schlechte Umsetzung verschenkt wird… Die KI macht zumindest noch irgendwas, auch wenn es ggf. sinnlos ist.
Die Energiebranche steckt mit Sicherheit dahinter.
Kryptogeld ist so gut wie tot, jetzt verbraucht KI den "überflüssigen Strom", muss ja schließlich wo hin…
Das soll Ironie sein, auch wenn mir selbst das Lachen im Hals stecken bleibt.
Mir fällt spontan nur ein "Verschleudern, Verbrauchen, Vernichten" usw.
Wer es ergänzen mag, biddeschön.
Wenn KI bewertet wird, dann muss man den Nutzen auch aus Umweltgesichtspunkten betrachten und nicht nur den Energieverbrauch. Welche Entscheidungen werden durch die Hinweise oder Antworten der KI verändert und was für Energieeinsparungen bringt das mit sich…? Dann mal los, Herr Doktorand, da kann man (wie in seiner Studie auch) viele, viele Annahmen treffen.
Schon der Vergleich mit dem
Stromverbrauch eines "kleinen"
Landes wie den Niederlanden stellt
eine Verniedlichung des Problems
dar. Immerhin stehen die Niederlande
bei den 50 reichsten Nationen
gemessen am BIP ( Bruttoinlands-
produkt) auf Platz 16, während das
ach so große Russland Platz 14
belegt. Mehr auf Wikipedia.
Aber es ist der nackte Wahnsinn
was diese sogenannte künstliche
Intelligenz an Dummheit hervorbringt.
In Wahrheit geht es Big Tech nur
darum, einen weiteren Schritt der
Rationalisierungsmaßnahmen
vorzubereiten, mit denen Massen-
entlassungen eingeleitet werden
können. Die Öffetlichkeit soll's bloß
nicht merken. Den Texten soll man
es ja nicht ansehen, daß sie garnicht
von Menschen geschrieben wurden,
vom Denken reden wir ja erstmal
nicht. Wozu dann noch lesen und
schreiben lernen… Kinder? Brauchen
wir nicht, wir haben ja KI.
Und dafür fahren wir mal eben den
Planeten energetisch vor die Wand
(als ob er da nicht schon sowieso
wäre). Nur damit ein paar Figuren
sich wie Gott fühlen können,
Milliarden über Milliarden anhäufen,
mit denen sie dann doch nichts
Vernünftiges anfangen können
(ihre Intelligenz ist halt zu gering).
Daß Elon Musk sich mit dem
Gedanken trägt, sich selber auf
den Mars zu schiessen läßt hoffen…
@Hans van Aken
Danke. Genau meine Meinung! Und die Hoffung zum Schluß: *gefällt mir*
Sieht mal leider immer öfters auch auf Nachrichtenseiten als Footer, sinngemäß: "Dieser Artikel wurde mittels KI erstellt/übersetzt (und von @name kontrolliert)". Aber selbst wenn es durch @name kontrolliert wurde, sind teils Fehler drin die ein Mensch nie machen würden. Z.B. gesehen bei FR, Focus usw. Ist das noch Journalismus?
Also muss einfach jede Suche bzw. Anfrage einem persönlichen CO2-Konto zugerechnet werden, mit allen entspr. Folgen?
Nur kurz: hier geht es nicht um den
gewöhnlichen Such-Traffic, sondern
darum, daß die Konzerne und
wissenschaftlichen Institutionen
(z.B. Stanford) zur Zeit ihre im
Aufbau befindlichen AI/KI-Systeme
mit Hochdruck trainieren, indem sie
sie mit jeder Information, derer sie
habhaft werden können, füttern und
dadurch natürlich eine außergewöhnlich große Suchnachfrage erzeugen, wodurch
dieser riesige Extra-Stromverbrauch
entsteht, von dem im Artikel die Rede
war. Außerdem wird natürlich der
normale Suchverkehr dadurch extrem
behindert. Hab's mit meiner Searx-
Suchmaschine, die wohl das Beste
ist, was man derzeit haben kann,
ausprobiert: streckenweise
meldeten mehr als 70% der 80
angefragten Suchmaschinen Fehler
wegen Überlastung.