Wenn Menschen scharf nachdenken, qualmt ihnen der Schädel nur rein figurativ. Bei KI dagegen entweichen tatsächlich umso mehr Abgase in die Atmosphäre, je schwieriger die gerade per Prompt erhaltene Aufgabe ist.
(Bild: Redaktion/PiPaPu)
Was kostet eine Antwort? Für Nutzerinnen und Nutzer von Chatbots meist nur einen Klick. Doch im Hintergrund laufen Hochleistungsrechner heiß, und was dort geschieht, hat handfeste Auswirkungen auf das Klima. Denn die Antwort der Künstlichen Intelligenz kommt nicht emissionsfrei – sie kommt mit einem ökologischen Fußabdruck.
Ein Forschungsteam um Maximilian Dauner von der Hochschule München hat erstmals systematisch untersucht, wie stark sich CO₂-Emissionen unterscheiden – je nachdem, wie man eine KI fragt und welche Antwort sie liefert. Der Unterschied ist gewaltig: Manche Prompts verursachen bis zu fünfzigmal mehr Emissionen als andere.
Je mehr „Denken“, desto mehr CO₂
14 große Sprachmodelle haben die Forschenden unter die Lupe genommen, darunter Modelle mit bis zu 72 Milliarden Parametern. Sie ließen sie 1.000 standardisierte Fragen beantworten – aus Bereichen wie Geschichte, Philosophie oder Mathematik. Dabei verglichen sie zwei Strategien: Modelle, die mit möglichst wenig Rechenaufwand direkte Antworten geben, und solche, die Zwischenschritte ausformulieren und dabei viele sogenannte „Denktoken“ produzieren.
„Der ökologische Fußabdruck hängt entscheidend davon ab, wie die KI denkt – explizite Denkprozesse treiben den Energieverbrauch und die CO₂-Emissionen erheblich in die Höhe“ erklärt Maximilian Dauner, Erstautor der Studie. „Wir haben festgestellt, dass reasoning-basierte Modelle bis zu 50-mal mehr Emissionen verursachen als solche, die kurz und knapp antworten.“
Im Durchschnitt erzeugten die aufwendiger denkenden Modelle rund 543 solcher Zusatz-Tokens pro Antwort – die sparsamen kamen mit nur 38 aus.
Genauigkeit oder Nachhaltigkeit?
Ein Dilemma: Die detailreich denkenden Modelle waren tendenziell auch präziser. So erreichte das Modell Cogito (70 Milliarden Parameter) eine Trefferquote von 84,9 Prozent – aber auch ein Vielfaches der CO₂-Emissionen im Vergleich zu gleich großen Modellen mit knapper Antwortstrategie.
„Wir sehen aktuell einen klaren Zielkonflikt zwischen Genauigkeit und Nachhaltigkeit bei KI-Technologien“ so Dauner. „Keines der Modelle, das unter 500 Gramm CO₂-Äquivalente pro 1.000 Antworten blieb, überschritt die 80-Prozent-Marke bei der Genauigkeit.“
Allerdings gilt: Viel Rechenaufwand bedeutet nicht automatisch bessere Ergebnisse. Manchmal führt eine kurze Antwort schneller zum Ziel – ohne intellektuelles Vorspiel, das den Rechner auf Trab hält.
Philosophie emittiert mehr als Geschichte
Auch das Thema der Frage macht einen Unterschied. Während einfache Wissensfragen aus der Schulgeschichte mit wenig Emissionen beantwortet wurden, verursachten abstrakte Themen wie Philosophie oder Algebra ein Vielfaches an CO₂-Ausstoß – bis zu sechsmal mehr.
Besonders deutlich werden die Unterschiede bei Modellvergleichen: Wenn das Modell DeepSeek R1 (70 Mrd. Parameter) 600.000 Fragen beantwortet, entsteht in etwa so viel CO₂ wie bei einem Hin- und Rückflug von London nach New York. Das Modell Qwen 2.5 (72 Mrd.) schafft unter ähnlichen Bedingungen fast das Dreifache an Fragen – bei vergleichbarer Genauigkeit und gleichem Emissionswert.
KI-Konsum mit Maß und Ziel
Was folgt daraus? Für die Forschenden ist klar: Wer die Umwelt schonen will, sollte seine KI-Nutzung bewusster gestalten. Sparsame Modelle für einfache Aufgaben, große Systeme nur, wenn wirklich nötig.
„Nutzerinnen und Nutzer können Emissionen erheblich reduzieren, indem sie sich für knappe Antworten entscheiden oder leistungsstarke Modelle nur dann nutzen, wenn es wirklich erforderlich ist“, sagt Dauner.
„Wenn Menschen wüssten, was es klimatisch kostet, sich von der KI mal eben in eine Actionfigur verwandeln zu lassen, würden sie vielleicht selektiver und überlegter mit diesen Technologien umgehen“, ergänzt er.
Denken in CO₂-Äquivalenten
Noch sind die Messungen von Faktoren wie Hardware und Strommix abhängig – und nicht auf jede Situation übertragbar. Doch die Erkenntnis bleibt: KI-Nutzung ist kein abstrakter Akt, sondern ein realer Energieprozess. Und der lässt sich steuern – durch bewusste Entscheidungen.
Kurzinfo: Studie zu KI-Prompts & CO₂-Fußabdruck
- Methode: 14 große Sprachmodelle beantworteten 1.000 Benchmark-Fragen
- Ergebnis: Reasoning-Modelle erzeugten bis zu 50-mal mehr CO₂ als direkte Antwortmodelle
- Ursache: „Denktokens“ treiben Energieverbrauch – und sind nicht immer notwendig
- Beispiel: DeepSeek R1 (70 Mrd. Parameter) erzeugt bei 600.000 Antworten so viel CO₂ wie ein Flug London–New York
- Empfehlung: Große Modelle nur bei echtem Bedarf nutzen, kurze Prompts bevorzugen
- Zukunftsfragen: Wie kann KI-Nutzung nachhaltig und effizient zugleich werden?
Originalpublikation:
Maximilian Dauner,
Energy Costs of Communicating with AI,
in: Frontiers in Communication (19-Jun-2025)
DOI: 10.3389/fcomm.2025.1572947
Über den Autor / die Autorin

- Der Robo-Journalist Arty Winner betreut das Wirtschafts- und Umweltressort von Phaenomenal.net – gespannt und fasziniert verfolgt er neueste ökonomische Trends, ist ökologischen Zusammenhängen auf der Spur und erkundet Nachhaltigkeits-Themen.
Letzte Beiträge
Klimaschutz19. Juni 2025Prompte Emissionen
Nachhaltigkeit17. Juni 2025Stroh statt Baumwolle
Klimawandel17. Juni 2025Heißes Pflaster Stadt: DUH warnt vor extremer Hitzebelastung
Klimaschutz16. Juni 2025CO₂-Filterung: Technik ist gut, Bäume sind besser
Schreibe einen Kommentar