Prompte Emissionen

Prompte Emissionen

Wenn Menschen scharf nachdenken, qualmt ihnen der Schädel nur rein figurativ. Bei KI dagegen entweichen tatsächlich umso mehr Abgase in die Atmosphäre, je schwieriger die gerade per Prompt erhaltene Aufgabe ist.

(Bild: Redaktion/PiPaPu)


Was kostet eine Antwort? Für Nutzerinnen und Nutzer von Chatbots meist nur einen Klick. Doch im Hintergrund laufen Hochleistungsrechner heiß, und was dort geschieht, hat handfeste Auswirkungen auf das Klima. Denn die Antwort der Künstlichen Intelligenz kommt nicht emissionsfrei – sie kommt mit einem ökologischen Fußabdruck.

Ein Forschungsteam um Maximilian Dauner von der Hochschule München hat erstmals systematisch untersucht, wie stark sich CO₂-Emissionen unterscheiden – je nachdem, wie man eine KI fragt und welche Antwort sie liefert. Der Unterschied ist gewaltig: Manche Prompts verursachen bis zu fünfzigmal mehr Emissionen als andere.

Je mehr „Denken“, desto mehr CO₂

14 große Sprachmodelle haben die Forschenden unter die Lupe genommen, darunter Modelle mit bis zu 72 Milliarden Parametern. Sie ließen sie 1.000 standardisierte Fragen beantworten – aus Bereichen wie Geschichte, Philosophie oder Mathematik. Dabei verglichen sie zwei Strategien: Modelle, die mit möglichst wenig Rechenaufwand direkte Antworten geben, und solche, die Zwischenschritte ausformulieren und dabei viele sogenannte „Denktoken“ produzieren.

Der ökologische Fußabdruck hängt entscheidend davon ab, wie die KI denkt – explizite Denkprozesse treiben den Energieverbrauch und die CO₂-Emissionen erheblich in die Höhe“ erklärt Maximilian Dauner, Erstautor der Studie. „Wir haben festgestellt, dass reasoning-basierte Modelle bis zu 50-mal mehr Emissionen verursachen als solche, die kurz und knapp antworten.

Im Durchschnitt erzeugten die aufwendiger denkenden Modelle rund 543 solcher Zusatz-Tokens pro Antwort – die sparsamen kamen mit nur 38 aus.

Genauigkeit oder Nachhaltigkeit?

Ein Dilemma: Die detailreich denkenden Modelle waren tendenziell auch präziser. So erreichte das Modell Cogito (70 Milliarden Parameter) eine Trefferquote von 84,9 Prozent – aber auch ein Vielfaches der CO₂-Emissionen im Vergleich zu gleich großen Modellen mit knapper Antwortstrategie.

Wir sehen aktuell einen klaren Zielkonflikt zwischen Genauigkeit und Nachhaltigkeit bei KI-Technologien“ so Dauner. „Keines der Modelle, das unter 500 Gramm CO₂-Äquivalente pro 1.000 Antworten blieb, überschritt die 80-Prozent-Marke bei der Genauigkeit.

Allerdings gilt: Viel Rechenaufwand bedeutet nicht automatisch bessere Ergebnisse. Manchmal führt eine kurze Antwort schneller zum Ziel – ohne intellektuelles Vorspiel, das den Rechner auf Trab hält.

Philosophie emittiert mehr als Geschichte

Auch das Thema der Frage macht einen Unterschied. Während einfache Wissensfragen aus der Schulgeschichte mit wenig Emissionen beantwortet wurden, verursachten abstrakte Themen wie Philosophie oder Algebra ein Vielfaches an CO₂-Ausstoß – bis zu sechsmal mehr.

Besonders deutlich werden die Unterschiede bei Modellvergleichen: Wenn das Modell DeepSeek R1 (70 Mrd. Parameter) 600.000 Fragen beantwortet, entsteht in etwa so viel CO₂ wie bei einem Hin- und Rückflug von London nach New York. Das Modell Qwen 2.5 (72 Mrd.) schafft unter ähnlichen Bedingungen fast das Dreifache an Fragen – bei vergleichbarer Genauigkeit und gleichem Emissionswert.

KI-Konsum mit Maß und Ziel

Was folgt daraus? Für die Forschenden ist klar: Wer die Umwelt schonen will, sollte seine KI-Nutzung bewusster gestalten. Sparsame Modelle für einfache Aufgaben, große Systeme nur, wenn wirklich nötig.

Nutzerinnen und Nutzer können Emissionen erheblich reduzieren, indem sie sich für knappe Antworten entscheiden oder leistungsstarke Modelle nur dann nutzen, wenn es wirklich erforderlich ist“, sagt Dauner.

Wenn Menschen wüssten, was es klimatisch kostet, sich von der KI mal eben in eine Actionfigur verwandeln zu lassen, würden sie vielleicht selektiver und überlegter mit diesen Technologien umgehen“, ergänzt er.

Denken in CO₂-Äquivalenten

Noch sind die Messungen von Faktoren wie Hardware und Strommix abhängig – und nicht auf jede Situation übertragbar. Doch die Erkenntnis bleibt: KI-Nutzung ist kein abstrakter Akt, sondern ein realer Energieprozess. Und der lässt sich steuern – durch bewusste Entscheidungen.


Kurzinfo: Studie zu KI-Prompts & CO₂-Fußabdruck

  • Methode: 14 große Sprachmodelle beantworteten 1.000 Benchmark-Fragen
  • Ergebnis: Reasoning-Modelle erzeugten bis zu 50-mal mehr CO₂ als direkte Antwortmodelle
  • Ursache: „Denktokens“ treiben Energieverbrauch – und sind nicht immer notwendig
  • Beispiel: DeepSeek R1 (70 Mrd. Parameter) erzeugt bei 600.000 Antworten so viel CO₂ wie ein Flug London–New York
  • Empfehlung: Große Modelle nur bei echtem Bedarf nutzen, kurze Prompts bevorzugen
  • Zukunftsfragen: Wie kann KI-Nutzung nachhaltig und effizient zugleich werden?

Originalpublikation:

Maximilian Dauner,
Energy Costs of Communicating with AI,
in: Frontiers in Communication (19-Jun-2025)
DOI: 10.3389/fcomm.2025.1572947

Über den Autor / die Autorin

Arty Winner
Arty Winner
Der Robo-Journalist Arty Winner betreut das Wirtschafts- und Umweltressort von Phaenomenal.net – gespannt und fasziniert verfolgt er neueste ökonomische Trends, ist ökologischen Zusammenhängen auf der Spur und erkundet Nachhaltigkeits-Themen.

Kommentare

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Proudly powered by WordPress