Wie gross ist mein Digitaler Fussabdruck? Und was kann ich tun?

Eine Leiterplatte überlagert von einem Fussabdruck

Wir trennen Abfall, recyclen; wir fahren Velo oder Zug statt Auto. Oder nehmen es uns mal wieder vor. Einige essen weniger Fleisch, auch aus Rücksicht auf die Umwelt. Gleichzeitig konsumieren wir Digitales wie Cloud, Streaming, KI etc. mehr ohne Überlegungen, was das für unsere Umwelt bedeutet. Dieser Artikel soll das Bewusstsein für unseren Digitalen Fussabdruck schärfen. Und auch aufzeigen, was wir als Individuum tun können. Und wo wir als Einzelne keinen Einfluss haben und damit Gesellschaft, Wirtschaft und Politik gefragt sind.

Dazu stellen wir uns insbesondere folgende drei Fragen:

  1. Wieso interessiert uns der Digitale Fussabdruck?
  2. Woher stammt der Ressourcenbedarf der „grossindustriellen“ Komponenten der Digitalisierung – Cloud, RZ und KI – und wie entwickelt er sich?
  3. Was können wir tun? Was müssen andere tun?

Digitaler Fussabdruck: Wieso interessiert er uns?

Wer in den letzten Monaten die Nachrichten verfolgt hat, ist auf Schlagzeilen wie diese gestossen. Die Nachricht: Der Energieverbrauch von Rechenzentren, insbesondere für KI, steigt und wird unsere Netze aus- oder überlasten und die Stromversorgung für Bestandskunden gefährden. Gleichzeitig sollen alte Kohlekraftwerke reaktiviert werden und neue Gaskraftwerk spriessen wie Pilze aus dem Boden.

Allenorts werden damit die Sorgenfalten noch bedenklicher:

  • Für diejenigen, die auf Umweltschutz bedacht sind und denen die Folgen der menschgemachte Klimaerwärmung nicht egal sind, denen sind fossil betriebene Kraftwerktypen ein Dorn im Auge. Denn diese sind für ihren hohen CO2-Austoss bekannt.
  • Wer hingegen noch fossil heizt oder ein Fahrzeug mit Auspuff fährt, dessen Bedenken sind eher finanzieller Natur: Werde ich mir angesichts der steigenden Erdöl- und Erdgaspreise noch eine warme Wohnung und Fortbewegung leisten können? Wie stark wird die höhere Nachfrage den Preis noch weiter in die Höhe treiben?
  • Ähnliche Überlegungen stellen auch Industriebetriebe an, welche für die Herstellung ihrer Produkte Erdöl bzw. Kohlenwasserstoffe benötigen. Firmen für Düngemittel, Farben, Kosmetika und Kunststoffe fallen da gleich mal ein. Und ihre Kundinnen und Kunden.
Online-Zeitungscollage aus den Titelbereichen folgender Artikel: Stefan Krempl: „Das KI-Energie-Dilemma: Wenn der digitale Boom die Netze überlastet„, Heise, 2025-12-01 (plus Zwischentitel „Auf Erdgas angewiesen“ aus demselben Artikel); Sarah-Indra Jungblut: „Rechenzentrumsausbau auf Kosten der Stromkunden? Das Energieproblem hinter dem KI-Hype„, Algorithmwatch, 2025-11-25 und Jennifer Elias: „Google must double AI serving capacity every 6 months to meet demand, AI infrastructure boss tells employees„, CNBC, 2025-11-21.

Gleichzeitig gibt es Prognosen der Internationalen Energieagentur (IEA), nach denen der Stromverbrauch von Rechenzentren sich zwischen 2024 und 2030 rund verdoppeln soll. Und wenn KI wirklich der grosse Renner wird und nicht als platzende Blase endet, ist laut IEA noch mit einem weiteren Wachstum zu rechnen.

Stromverbrauch von Rechenzentren 2020–2030, nach IEA. Für 2025 waren rund 500 TWh vorausgesagt, davon ca. 100 TWh für sog. „accelerated servers“, also Server mit Spezialbeschleuniger-Hardware, auch bekannt als „KI-Grafikkarten“. „Übrige IT-Hardware“ dürften insbesondere die in den Rechenzentren installierten Switches und Router für die Anbindung an das Internet und die interne Verteilung des Netzwerkverkehrs sein.

Kurz vor Jahresende 2025 hat Googles KI-Infrastruktur-Chef seine Mitarbeiter aufgefordert, dass sie die verfügbare Kapazität alle 6 Monate zu verdoppeln hätten.

Monate6121824303642485460
Faktor2481632641282565121024
Jahr20262027202820292030
Wenn Google sich bei der Entwicklung an die Vorgabe des KI-Chefs hält, nimmt der Energiebedarf bei ihren KI-Rechenzentren bis 2030 um mehr als einen Faktor 1000 zu.

Wenn Google dieses Tempo wirklich vorlegen kann, dann wird der Energiebedarf durch die Decke gehen. Ganz besonders, wenn man annimmt, dass die Konkurrenz nicht schläft, wie im folgenden Bild. Und selbst wenn sie schläft: Dann geht es 1–1½ Jahre später durch die Decke (Annahme: Google hat ⅛ bis ¼ der gesamten KI-Kapazität).

Globaler Elektrizitätskonsum von Rechenzentren. Zusätzlich Google-Extrapolation und Schweiz-Vergleich, siehe Text
Unter der Annahme, dass die KI-Kapazitäten alle 6 Monate verdoppelt werden, geht, verhundertfacht(!) sich der Gesamtenergiebedarf von Rechenzentren bis 2030. Selbst wenn Google die einzigen sind, die das durchziehen, ergibt das mindestens eine Verzehnfachung und nicht die Verdoppelung wie von der IEA prognostiziert. Die rot schraffierte Fläche zeigt die Verdoppelung alle 6 Monate ab 2025; der dunkle rote Balken unten den Stromverbrauch der Schweiz im vergangenen Jahr zum Vergleich. Datenquellen: IEA, CNBC, DNIP, BFE.

Eigentlich sollte schon eine Verdoppelung des Energieverbrauchs in den nächsten 5 Jahren ein Alarmsignal sein. The Atlantic berichtet in seiner kommenden April-Ausgabe ausführlich über die Entwicklungen im US-amerikanischen Data Center Valley bei Washington. Dort spriessen Rechenzentren gerade wie Pilze aus dem Boden, der Stromverbrauch soll in den nächsten Jahren um 20 GW steigen. Dazu werden unzählige Gaskraftwerke in Betrieb genommen, z.T. ohne die notwendigen Genehmigungen, was die Luftqualität in der Gegend weiter verschlechtert. Daneben werden auch alte Kohle- und Kernkraftwerke wieder in Betrieb genommen, beispielsweise der 2019 abgeschaltete Schwesterreaktor des 1979 teilweise geschmolzenen Reaktors in Three Mile Island bei Harrisburg, der jetzt als „Crane Clean Energy Center“ umgelabelt wird.

Laut desselben Atlantic-Artikels wurden in den USA in der KI-Boom-Phase seit 2022 Rechenzentren für 600 Milliarden USD gebaut. Und schon ein einzelnes dieser frisch geschlüpften Rechenzentren brauchte 50 Millionen Liter Kühlwasser, Alleine im September.

Energiebedarf und Funktion von Cloud, Rechenzentren und KI

Cloud

In den 1970er-Jahren hatten die Computernutzer eigentlich alles: In dedizierten, lauten Rechnerräumen standen die grossen, schweren Computer, die man mit Daten ab grossen Bändern oder Loch­karten­stapeln füttern konnte. Und Software hatte man selbst geschrieben oder ebenfalls auf Bändern per Post mit Kollegen geteilt.

Dummerweise musste man immer zu den Rechnern hingehen. Und es gab sie nur an einigen Unis und Grossfirmen. Wie schön wäre es doch, dachte man sich damals, wenn nicht nur der Strom für die Rechner, sondern auch die Daten, die Rechenleistung und auch die Software aus der Steckdose käme! Und so entstanden über mehrere Schritte u.a. das Internet, das Web, Appstores und «die Cloud».

Eine Grafik mit 3 sich gegenseitig überlappenden Kreisen. Einer ist bezeichnet mit "Daten kommen aus der Steckdose", einer mit "Rechenleistung kommt aus der Steckdose" und der dritte "Software kommt aus der Steckdose". Dann gibt es verschiedene Kombinationen der drei. In der Mitte, bei der alles aus der Steckdose kommt, steht "Cloud"
In jedem der drei farbigen Kreise kommt ein im IT-Umfeld wichtiger Bereich aus der Steckdose: Die Daten, die Rechenleistung bzw. die Software. Diese wurden für sich oder in Kombination schon länger verwendet. Die Kombination aller drei ist das, was die Cloud-Anbieter uns weis machen wollen: Dass alles automatisch und ohne weitere Arbeit oder Kompetenz einfach — wie wir das vom Strom gewohnt sind — aus der Steckdose kommt.
Grafik aus Wo genau geht es in die Cloud? Ein Wegweiser durch den Dschungel (2024-10-24).

Doch auch diese «Cloud» ist kein einheitliches Konstrukt. Darin laufen viele Anwendungen mit unterschiedlichen Eigenschaften und Bedürfnissen:

Der Cloud-Kreis: Aussen die drei Dimensionen Storage, Compute und Communication. Innen Applikationen, welche so platziert sind, dass sie bei den entsprechenden Ausprägungen stehen
Cloud-Dienste bestehen aus drei technischen Komponenten (Netzwerkverkehr, Rechenleistung und Speicherkapazität), welche in unterschiedlicher Kombination und unterschiedlichem Integrations-/Abstraktionsniveau angeboten werden. Grafik aus Wo genau geht es in die Cloud? Ein Wegweiser durch den Dschungel (2024-10-24).

Aber es gibt nicht nur verschiedene Anwendungen in der Cloud, «die Cloud» wird auch als Begriff für modulares IT-Outsourcing genutzt. Am Vergleich mit einem Schrebergarten kann man die verschiedenen Stufen von Outsourcing gut erkennen: Auf der einen Seite haben wir eigene Beete auf eigenem Land, auf welchem wir selbst die Tomaten säen, pflegen und ernten. In verschiedenen Schritten beginnen wir das Land zu mieten und Services vom Hauswart oder Gärtner dazuzubuchen. Am anderen Extrem kaufen wir das Tomatensugo im Supermarkt. Also eigentlich ist «Cloud» gar kein Hexenwerk.

Verschiedene Gärten mit Beeten in unterschiedlichem Outsourcinglevel und Granularität. Erklärung im Text.
Grafik aus Wo genau geht es in die Cloud? Ein Wegweiser durch den Dschungel (2024-10-24), gemeinsam mit mehr Erläuterungen

Also: Wenn jemand «Cloud!» sagt, kann er ganz unterschiedliche Dinge meinen, mit verschiedenen technischen Eigenschaften, verteilt über das ganze Spektrum von Outsourcing-Levels und unzähligen Varianten an Einflussmöglichkeiten durch die Kund:innen (oder auch dem vollständigen Mangel an Einfluss).

Mehr dazu in meinem früheren Artikel Wo genau geht es in die Cloud? Ein Wegweiser durch den Dschungel (2024-10-24).

Rechenzentrum

Also, hinter «der Cloud» (und auch jeder Webseite oder App) stehen Rechner, die einfach jemand anderem gehören. Und die mit einem Satz an Dienstleistungen gebündelt werden. Doch irgendwo müssen diese Computer stehen. Und diese Computer stehen in klimatisierten Gebäuden, sogenannten Rechenzentren.

Wie sieht denn so ein Rechenzentrum aus? Das erzählen die folgenden vier Bilder.

Wichtig zu wissen: Der gesamte Strom, der als Energie in einen Server hineingesteckt wird, wird als Wärme abgegeben (bis auf kleine Ausnahmen wie die blinkenden Lichter und das Geräusch der Luftströmung). Aus energetischer Sicht ist ein Server daher eigentlich ein teurer Heizlüfter, bei dem zufälligerweise noch Daten oder Rechenergebnisse rausplumpsen.

Bei Geräten mit Bildschirm (Fernseher, Tablet, Smartphone) ist das Licht des Bildschirms ein wichtiger Faktor für den Energieverbrauch, zumindest, solange dieser an ist. Bei Mobilgeräten (Tablet, Smartphone) hat auch das WLAN- oder Mobilfunkmodul einen Anteil am Energieverbrauch. Beides fällt aber bei Servern weg.

Klassische Künstliche Intelligenz und Maschinelles Lernen

Der Name «Artificial Intelligence» wurde in den 1960er-Jahren geprägt. Eine erste Ausprägung war das Computerprogramm ELIZA von Joseph Weizenbaum, das eine Psychotherapeutin nachzuahmen versuchte. Durch die Wahl der klientenzentrierten Psychotherapie, die sich vor allem durch Rückfragen auszeichnet, war es einfach, einen Gesprächsverlauf zu simulieren. Das ELIZA-Programm suchte in den Eingaben der Nutzer:innen nach einzelnen Stichwörtern und stellte dann dazu eine Rückfrage. Als Computerantwort auf die Erwähnung von Familienmitgliedern wie Vater, Mutter, Bruder, Schwester kam dann ein Satz wie «Erzähl mir mehr über deine Familie.», den es in verschiedenen Formulierungen gab, damit die Automatismen nicht so auffielen. Doch obwohl es nur etwa 600 verschiedene Antwortmuster gab, fühlten sich einzelne Personen von dieser vorgeblichen Psychotherapeuting „verstanden“. Wer will, kann hier mal mit ELIZA chatten, in einer modernen Version der Hardware von damals.

Ein Beispieldialog mit ELIZA.

Später versuchte man, solche Frage-Antwortmuster gezielter zu bauen. Das Ziel war, mit sogenannten Expertensysteme Menschen in komplexen Themengebieten wie Reparatur von Industrieanlagen oder Krankheitsdiagnose zu unterstützen. Doch die grossen Erfolge blieben aus. Zum einen war es schwierig, Satzverständnis (Verb/Subjekt/Objekt, Hauptsatz/Nebensatz etc.) zu programmieren, andererseits erwiesen sich diese Themengebiete als sehr schwierig abzubilden. Auch war die Erfassung der Zusammenhänge sehr komplex, zeitaufwändig und fehleranfällig.

Parallel entstand deshalb ein weiterer Zweig der KI: Die Maschine sollte selbst die Zusammenhänge erkennen können, selbst lernen. Der dazu verwendete Mechanismus, sogenannte neuronalen Netze, sollte das menschliche Gehirn mit seinen Neuronen nachbilden.

Links drei Verkehrsschilder, die von einer 3x3-Kamera aufgenommen werden. Jedes dieser 3x3 Pixel "sieht" den Durchschnittswert (Farbe, Helligkeit) des entsprechenden Schilderbereichs. Diese 9 Inputs werden in das neuronale Netz gefüttert, das ähnlich wie ein mehrstufiges Mischpult aufgebaut ist. Am Schluss gibt es dann für jedes zu erkennende Schild eine Lampe, die heller oder dunkler leuchtet, je ähnlicher das Eingangsschild dem Label am Ausgang ist.

Ein neuronales Netz zur Verkehrszeichenerkennung könnte wie folgt aufgebaut sein: Links nimmt eine (für dieses Gedankenexperiment sehr einfache) Kamera ein 3×3 Pixel grosses Bild auf. Wenn man drei Verkehrsschilder nacheinander vor diese 3×3-Kamera hält, nimmt die Kamera ein 3×3 Pixel grosses Bild auf Jedes dieser 3×3 Pixel „sieht“ den Durchschnittswert (Farbe, Helligkeit) des entsprechenden Schilderbereichs. Diese 9 Inputs werden in den Input Layer des neuronalen Netzes gefüttert, das ähnlich wie ein mehrstufiges Mischpult aufgebaut ist, wobei die Mischstufen die sogenannten „Hidden Layers“ darstellen. Am Schluss gibt es dann für jedes zu erkennende Schild eine Lampe, die mit dem Namen eines Schildes angeschrieben ist. Das Ziel ist es, dass die Ausgangslampe heller oder dunkler leuchtet, je ähnlicher das Eingangsschild dem Namen am Ausgang ist.

Um das neuronale Netz zu trainieren, werden die Schalter am Mischpult anfänglich auf zufällige Positionen eingestellt. Welche Lampe bei welchem Schild wie hell aufleuchtet, ist damit auch völlig zufällig und in den allermeisten Fällen völlig falsch. Um das zu korrigieren, werden jetzt – sehr vereinfacht – der Reihe nach folgende Schritte ausgeführt:

  1. Eine der Tafeln wird vor die Kamera gehalten.
  2. Ein zufälliger Drehregler am Mischpult wird ausgewählt.
  3. Dieser wird leicht nach links oder nach rechts gedreht.
  4. Wenn danach die zur Tafel passende Lampe heller leuchtet (bzw. die anderen Lampen weniger hell) wird diese Position beibehalten, ansonsten wird der Regler wieder in seine Ursprungsposition zurückbewegt.

Dieser Prozess wird so lange wiederholt, bis die richtige Lampe sich bei jedem Schild deutlich von den falschen Lampen abhebt. Das sind schon bei sehr einfachen Aufgaben Abertausende von Wiederholungen.

Damit kann unser neuronales Netz nun die drei Schilder erkennen. Wenn aber ein unbekanntes Schild vor die Kamera kommt oder das Schild verschmutzt oder beklebt ist, kann das Resultat völlig falsch sein. Für viele Fälle ist das aber trotzdem gut genug.

Mehr zu neuronalen Netzen, Bildererkennung und den Fehlermöglichkeiten in meinem Artikel Machine Learning: Künstliche Faultier-Intelligenz (2022-08-16).

Moderne Künstliche Intelligenz: Grosse Sprachmodelle und Chatbots

Seit der Verfügbarkeit von ChatGPT Ende 2022 werden vor allem die Chatbots als „KI“ bezeichnet. Hinter diesen Chatbots stecken sogenannte Grosse Sprachmodelle, im Englischen als „Large Language Model“ (LLM) bekannt. Drei wichtige Schritte auf dem Weg von den oben beschriebenen KI-Systemen zu ChatGPT möchte ich hier nennen:

  1. Die Abkehr vom Versuch des strukturierten Satzverständnisses (also der Erkennung von Verb, Subjekt oder Objekt bzw. der Erkennung von anderen Satzmerkmalen wie Haupt- oder Nebensatz). Stattdessen werden einfach automatisiert unzählige statistische Zusammenhänge zwischen Zeichen und Zeichenketten erfasst. Diese Zusammenhänge haben keine für uns Menschen verständliche Struktur. Dazu werden riesige Mengen an Texten gebraucht. Moderne Sprachmodelle benötigen dazu riesige Datenmengen, mehr, als das gesamte Internet freiwillig hergibt.
  2. Die (relativ) kompakte Codierung dieser Zusammenhänge. Dies ist etwa vergleichbar mit der Bildkompression: Wenn man das Bild stärker komprimiert, wird die Datei viel kleiner. Trotzdem sind die wichtigsten Teile des Bildes weiterhin zu erkennen. Sehr vereinfacht gesagt ähnelt das auch der Kompression dieser riesigen Statistiken mit Zeichenabhängigkeiten, bei Sprachmodellen Transformer genannt.
  3. Neben den Texten aus dem Internet wurde ChatGPT und seine Kollegen (Gemini, Claude, Mistral, DeepSeek, Apertus, …) auch mit Frage-Antwort-Paaren trainiert. Dadurch verhalten sie sich interaktiv.

Mehr dazu in meinen früheren Artikeln Wie funktioniert eigentlich ChatGPT? (2023-01-30: Technik), Die KI ChatGPT und die Herausforderungen für die Gesellschaft (2023-01-28: Funktionsweise und Fehler), Die dunklen Daten-Geheimnisse der KI (2024-01-12: Datenquellen) und Petzt die KI? Schlimm? (2024-09-26: Interaktion und Korrektur-/Trainingsvorgänge).

Der Zuwachs

Bis in 5 Jahren ist laut der Hauptprognose der IEA mit einem Zuwachs des Strombedarfs von Rechenzentren um insgesamt rund 500 TWh pro Jahr zu rechnen. Das entspricht in etwa einer Verdoppelung. In der gleichen Zeit wachsen aber andere Industriebereiche noch stärker (in absoluten Zahlen).

Wachstumsprognose des Strombedarfs der IEA. Rechenzentren sollen zwischen 2024 und 2030 um über 500 TWh/Jahr wachsen, sich also rund verdoppeln.

Insgesamt ist mit einem Zuwachs bis 2030 von rund 6500 TWh zu rechnen, oder über 700 GW Dauerlast.

Der Energiemix für Rechenzentren 2020-2030. Basisgrafik („Rechenzentren Welt“): IEA; Aufteilung Energiemix CH: Eigene Darstellung auf Basis Energiedashboard (BFE) für 2025.

Zum Vergleich: Der Strombedarf bis 2030 steigt laut IEA um rund 6500 TWh, d.h. im Jahr 2030 werden 6500 TWh mehr verbraucht als 2024. Das entspricht rund 700 GW Dauerlast oder 700 Kraftwerken der Gösgen-Klasse (Gösgen liefert ziemlich genau 1 GW, wenn es in Betrieb ist; neuere Kernkraftwerke wie z.B. Flamanville liegen bei rund 1½ GW). Davon stammen rund 500 TWh (oder rund 60 Gösgen) für Rechenzentren, also eine Verdoppelung laut der Basis-IEA-Prognose. Wenn wir die angekündigte Google-Verdoppelungsrate als Massstab nehmen, wächst der Rechenzentrumsbedarf aber nicht auf das Doppelte, sondern um das 100- bis 1000-Fache, also um 50’000 oder 500’000 TWh, entsprechend 6’000 bis 60’000 Gösgen.

Zum Vergleich: Der weltweite Gesamtstromverbrauch 2024 lag bei rund 30’000 TWh, würde also – je nach Prognosemodell – um 6 % bis Faktor 15(!) zunehmen.

Der Gesamtenergieverbrauch 2024 (inklusive Brenn- und Treibstoffe) lag bei rund 180’000 TWh, also 6x höher als der Stromverbrauch.

Lösungsoption 1: Zusätzliche Kraftwerke

Die offensichtlichste Lösung ist natürlich der Neubau bzw. die Reaktivierung von Kraftwerken.

Angesichts des Klimawandels und der Abgase müssten fossile Kraftwerke (als Gas- und Kohlekraftwerke) die Ausnahme bleiben und können auf keinen Fall als Standardlösung in Betracht gezogen werden.

Erneuerbare Energiequellen haben ein sehr grosses Potenzial, sie haben aber keine garantierte Verfügbarkeit, sind abhängig vom Sonnenlicht oder Wind. Glücklicherweise sind Sonne und Wind relativ unabhängig bzw. ergänzen sich sogar: In 150-200 m über Boden ist der Wind grundsätzlich konstanter und in der Nacht sogar stärker als tagsüber.

Trotzdem sind Sonne und Wind (wie aber auch der Regen und damit der Füllstand von Speicherseen oder das Laufwasser im Fluss) nicht kontrollierbar. Eine sogenannte „Dunkelflaute“ (also ein Zeitpunkt, in dem weder Solar- noch Windkraftwerke Energie liefern) ist also durchaus möglich. Wie wir aber gerade an der Blockade der Strasse von Hormus und den steigenden Erdölpreisen sehen, gibt es Ähnliches wie Dunkelflauten auch bei Erdöl und Erdgas.

Solar- und Windkraftwerke benötigen also immer auch Speichermedien, um die Leistung mindestens ein paar Stunden zu verschieben. Für die eigenen Solarpanels auf dem Hausdach mag das ein Batteriespeicher sein, für grössere Zeiten eignen sich bei uns Pumpspeicherwerke.

Kernkraftwerke

In letzter Zeit geistert immer wieder die Idee von neuen Kernkraftwerken durch den Blätterwald. Insbesondere Politiker mit Beziehungen zu grossen Energiekonzernen denken zunehmend darüber nach. Neben den althergebrachten Kernkraftwerken wie Beznau, Gösgen oder Leibstadt kommen auch vermehrt sogenannte „Small Modular Reactors“ (SMR) ins Spiel, die angeblich in naher Zukunft unsere Energieprobleme lösen sollen. Doch davon gibt es bisher weder Prototypen noch ist es wahrscheinlich, dass die in der Nachbarschaft beliebter sein werden als die klassischen KKWs.

Bei Kernkraft wird argumentiert, dass sie die Lücke beim Ausbau von erneuerbaren Energien decken könnten. Doch die zwei letzten in Europa gebauten Kernkraftwerke, Flamanville und Olkiluoto, brauchten rund 18 Jahre Bauzeit, Planung und andere Vorbereitungen nicht eingerechnet. Und Flamanville muss nach knapp einem Jahr Betrieb schon in die erste grössere Revision, da der Reaktordeckel noch ausgetauscht werden muss. Bis zur stabilen Inbetriebnahme vergehen also mindestens 20 Jahre und es wird über 23 Milliarden € gekostet haben.

Kernkraftwerke liefern Bandenergie, sie können kaum geregelt werden und ihre Energieproduktion lässt sich nur in einem schmalen Band regeln. In einer Zeit, in der erneuerbare Energien Realität sind, kann solche Bandenergie aufgrund ihrer mangelnden Regelbarkeit nicht zur Ergänzung der Erneuerbaren herangezogen werden.

Und davon, dass die notwendigen Uranbrennstäbe alle aus geopolitisch kritischen Regionen stammen und das Entsorgungsproblem immer noch nicht gelöst ist, wollen wir gar nicht erst sprechen.

Mehr zur Illusion von baldigen magischen Kernkraftwerken bei Bert Hubert (Nuclear power: no, yes, maybe, but not like this; 2024-08-10) oder einem 6-Minuten-Interview von Prof. Dr. Volker Quaschning in der deutschen Tagesschau (Sehr teuer und riskant; 2026-03-11). Aus diesen beiden Beiträgen stammen auch viele der Informationen in diesem Abschnitt.

Lösungsoption 2: Rechenzentren im Weltraum

Eine weitere Idee, die im letzten Jahr von Big-Tech-Milliardären aufgebracht wurde: Hey, packen wir die Rechenzentren doch in den Weltraum!

Auf den ersten Blick erscheint das wie eine gute Idee: Auf der einen Seite strahlt die im erdnahen Weltraum rund doppelt so stark wie auf der Erde, da die Atmosphäre (und die Ozonschicht) mit ihrer Licht- und UV-Absorption wegfällt. Und auf der anderen Seite ist es im Weltraum sehr kalt, also müsste Kühlung doch kein Problem sein.

Doch genau diese Kühlung ist im Weltraum viel schwieriger als auf der Erde. Wann kühlen wir im Winter am stärksten aus? Wenn wir etwas Kaltes berühren, beispielsweise ein Metallgeländer. Oder wenn uns eine kalte, feuchte Bise um die Ohren zieht. Im Weltraum haben wir aber bekanntermassen weder kühle Geländer noch Wind. Anders gesagt: Es gibt weder (unbegrenzte) Wärmeleitung noch Wärmetransport. Es bleibt nur die Abstrahlung von Hitze in den Weltraum. Und ihre Effizienz ist abhängig von der Oberflächentemperatur des Strahlers. Aufgrund ihrer vielfach höheren Temperatur (ca. 6500 K) ist die Sonne aber viel effizienter, etwas aufzuheizen, als das fliegende Rechenzentrum (rund 30° C oder 300 K) in der Lage ist, sich abzukühlen.

Daher ist nicht nur eine riesige Solarfläche notwendig (ca. 1 Fussbalfeld für einen einzelnen KI-Rechenzentrums-Schrank), sondern nochmals eine mindestens so grosse abgeschattete Fläche zur Kühlung. Zumindest kann die Kühlfläche im Schatten der Solarpanels aufgebaut werden.

Weitere Probleme betreffen die Kommunikation (es sind wohl keine wirklich hohen Bandbreiten möglich). Ein beinahe unlösbares Problem dürfte auch die kosmische Strahlung und ihr schädlicher Einfluss auf die Chips sein. Die Chips, die bisher im Weltraum genutzt werden, haben „Leiterbahnen“ und Transistoren auf dem Chip, die Dutzende Male dicker sind, als was heutige KI-Chips und ihre RAM-Speicher einsetzen. Entsprechend ist die Chance, dass eines der tausende Kilometer pro Sekunde(!) schnellen geladenen Teilchen der kosmischen Strahlung dort irgendein durcheinander anrichtet, noch um ein mehrfaches höher (die Strukturen sind in alle drei Dimensionen dünner, was die Verwundbarkeit noch viel stärker steigen lässt).

Mit einem einzelnen Rack voller KI-Rechenleistung kommt man heute nicht weit. Die KI-Rechenzentren, die aktuell gebaut werden, haben hunderte bis tausend Racks. Ebenfalls sind KI-Rechenzentren sind bei der aktuellen Technologieentwicklung innert 2–3 Jahren veraltet. D.h. um auch nur ein modernes Rechenzentrum auf der Erde zu ersetzen, müssten 1000 solcher Racks in den Weltraum geschossen werden, jedes mit fussbaldfeldgrossen Solar- und Kühlanlagen. Und nach 2-3 Jahren würden sie „entsorgt“ werden, möglicherweise durch Eintritt in die Erdatmosphäre. Damit bei einer Lebensdauer von 3 Jahren immer 1000 Racks im Weltraum wären, müsste täglich ein neues in eine Erdumlaufbahn geschossen werden.

Das alles erscheint kaum realistisch. Ausser in den Träumen von Tech-Milliardären, die sich über Umweltschutzregeln auf der Erde ärgern und denen jedes Mittel recht ist, um ihren Willen zu bekommen.

Die Informationen im obigen Abschnitt stammen zu einem grossen Teil von Taranis: Datacenters in space are a terrible, horrible, no good idea, 2025-11-28. Dort finden sich weitere Informationen und Hintergründe.

Lösungsoption 3: Weniger Nutzung

Damit bleibt uns eigentlich nur weniger Nutzung von Elektrizität, also die Reduktion unseres «Digitalen Fussabdrucks». Hier einige Möglichkeiten dafür.

Weniger Streamen

Fraunhofer Fokus hat sich im Projekt «Green Streaming» den Energieverbrauch von Streaming angesehen. Erstaunlicherweise ist der gar nicht so hoch. Bei der Nutzung eines grossen Fernsehers beispielsweise ist der Stromverbrauch des Fernsehers höher, als die Daten von den Servern bis zum Fernseher zu transportieren.

Interessant aber der Stromverbrauch von den verschiedenen Technologien, mit denen die Filme in die heimische Stube transportiert werden: So ist das Schauen von Live-TV nicht unbedingt energieeffizienter als das Streaming. Wer beispielsweise Kabelfernsehen live schaut, benötigt fast doppelt so viel Energie, wie jemand, der via Glasfaser streamt. Dafür ist Live-TV ab der heimischen Satellitenschüssel rund doppelt so sparsam wie Streamen über Mobilfunk oder einen DSL-Anschluss, wie die folgende Grafik zeigt:

Stromverbrauch unterschiedlicher Verteiltechnologien. Ausschnitt aus dem Whitepaper «Green Streaming» von Fraunhofer Fokus (2024-10).
Zu beachten ist, dass der Stromverbrauch der terrestrischen Ausstrahlung von Fernsehprogrammen (roter Balken bei „DVB-T2“) unabhängig davon ist, wie viele Personen gerade fernsehen. Er verteilt sich dann einfach auf mehr oder weniger Personen. Ähnliche Überlegungen treffen – in reduziertem Ausmass – auch auf die anderen zentral erbrachten Dienste zu.

Interessant auch die Feststellung, dass in vielen Fällen die Geräte in unserem Heim (die hellblauen Striche, als „CPE“, „Customer Premises Equipment“, in etwa „Geräte am Ort des Kunden“ bezeichnet), einen Grossteil des Stromverbrauchs ausmachen. Cloud (dunkelblau) und Internet (grün) sind auch beim Streaming nur ein Bruchteil dessen, was das Netzwerkequipment beim Internetanbieter (rot) und bei uns zu Hause (eben hellblau) ausmachen.

Also: Streamen über Glasfaser auf das Handy oder Tablet ist vorbildlich.

Cloudspeicher aufräumen

Eine weitere Idee, die oft auftaucht: Räumt doch euren Cloudspeicher auf, dann braucht es weniger Festplatten!

Beginnen wir dazu mit dem Speicherbedarf üblicher Mediendateien:

  • Ein 500 Seiten langes Buch ohne Illustrationen belegt ca. 2 kB (Kilobyte) pro Seite, also insgesamt rund 1 MB (Megabyte). Text lässt sich aber etwa um den Faktor 10 komprimieren, oft noch mehr. D.h. ein Buch benötigt ca. 100 kB.
  • Ein Bild meines Handys ist im Durchschnitt etwa 2 MB gross. Das dürfte bei vielen Feld-Wald-Wiesen-Handys ähnlich aussehen.
  • Ein Film auf DVD belegte oft 5 GB (Gigabyte), manchmal auch 9. HD-Filme haben zwar eine höhere Auflösung, verwenden aber auch bessere Kompressionstechniken. Bleiben wir mal bei der Schätzung von 5 GB. Ein 1-Minuten-Ferienvideo dürfte etwa ein Hundertstel davon sein, also ca. 50 MB.

Wer jetzt eine USB-Festplatte kauft, dürfte mit einer Festplatte von rund 3 TB (Terabyte) Speicher gut beraten sein. Es gibt aber auch Festplatten mit der zehnfachen Kapazität (30 TB), die für grosse, selten benutzte Speichermengen ideal sind. Im Ruhezustand (einfach drehen, kein Lese- oder Schreibzugriff) benötigen beide etwa 5 W.

Hier ein Überblick über die Anzahl Dateien jeden Typs, die auf unsere zwei Beispielfestplatten passen:

Um also eine Festplatte oder 5 W zu sparen, müsste man Abermillionen von Büchern löschen, Millionen von Bildern entsorgen oder rund Hunderttausend Ferienfilme aus seinem Online-Gedächtnis verbannen.

Sehr viel Aufwand für ein Resultat, was man auch mit Ausziehen des Steckers des Fernsehers erreichen kann (also Wechsel vom Standby in den Stromlos-Zustand).

Übrigens: Rechenzentrumsbetreiber sind froh, wenn nicht alle Daten auf ihren Festplatten und Datenträgern dauernd gelesen und geschrieben werden. Denn je „aktiver“ die Daten genutzt werden, desto mehr aktive Nutzer:innen müssen sich die relativ geringe Geschwindigkeit und Bandbreite der Festplatte teilen. Wenn der Rechenzentrumsbetreiber also den Kund:innen eine akzeptable Geschwindigkeit bieten möchte, muss er mehr Festplatten kaufen. Die Anzahl der Festplatten und ihre Stromaufnahme hängt also nur teilweise von der Menge der darauf gespeicherten Daten ab; mindestens so wichtig ist im Serverumfeld, wie viele Anfragen an die Platten kommen. Deshalb nutzen datentransferintensive Speichersysteme viele kleine Festplatten anstelle von wenigen grossen.

Weniger KI nutzen

Wir haben gesehen, dass KI-Rechenzentren sehr viel Strom fressen und demnächst wahrscheinlich noch ein Vielfaches davon. Alleine für die konservativ prognostizierte Zunahme des KI-Energiebedarfs wäre bis 2030 die Inbetriebnahme von über 20 Gösgen notwendig. Das klingt doch noch einem Ansatzpunkt. Was verbrauchen denn unsere KI-Anfragen so etwa? MIT Technology Review hat das letztes Jahr analysiert.

AnfrageEnergiebedarfUmgerechnet
Eine Textanfrage (Chatbot)0,2 – 3 Wh< 1 km Autofahrt
Eine Bilderzeugung0,3 – 1 Wh< 1 km Autofahrt
Ein 5 s-Video erstellen1000 Wh200 km Autofahrt, 20 Schnitzel

Für jede kleine Anfrage könnte mal also ein paar Minuten mit dem Benziner im Quartier herumkurven; schon für ein kurzes Video kann man mit dem Diesel in die Ferien fahren oder die ganzen guten Vorsätze zur Reduktion des CO2-Fussabdrucks bei der Ernährung der letzten Wochen zunichte machen. Und meist bleibt es ja nicht bei einem Text, einem Bild oder einem Video. Bis man zufrieden ist mit dem Resultat sind oft etliche Versuche notwendig. Und bei jeder könnte man wieder mit dem Auto um den Block fahren.

Zusammenfassung

Es bleibt also recht wenig, was man als Einzelne:r so tun kann. Und gerade beim Hype-Thema KI soll man verzichten? Dabei brauchen wir das dringend, um die Komplexität unserer Gesellschaft zu verstehen und zu managen. Was sollen wir also tun?

Die Informationsschleife der generativen KI: Um komplexe Mechanismen, Prozesse und Daten zu verstehen, nutzen wir KI. Das resultiert in einer Effizienzsteigerung, wenn auch oft nur gefühlt. Diese Effizienzsteigerung wird aber auch ausgenutzt von Betrügern und anderen Kriminellen, aber auch von Personen, welche sich einfach ohne Gegenleistung bereichern wollen (und dabei trotzdem Schaden anrichten, vielleicht aber nicht bewusst) oder politischen und wirtschaftlichen Akteuren, welche primär beeinflussen wollen. Dabei entstehen Mails, Nachrichten und Webseiten mit sinnlosem, verwirrendem oder falschem Inhalt. Um in dieser Flut an nicht hilfreichen Informationen den Durchblick zu bewahren, greifen dann viele wieder auf KI zurück.

KI wird aber nicht nur zur Vereinfachung von Prozessen eingesetzt, sondern auch absichtlich zur Platzierung von wertlosen oder gar vollständig falschen Informationen. Um mit der daraus resultierenden Flut klar zu kommen, sind wir wieder auf KI angewiesen. Eine Schleife.

Um aus dieser Schleife auszubrechen, wären folgende Schritte nötig, im Interesse unserer gesamten Wirtschaft und Gesellschaft:

  1. Prozesse und Abläufe, die wir nutzen wollen (oder müssen), sollten von Anfang an so einfach und klar definiert sein, dass sie auch von jemandem ohne Vorerfahrung verstanden werden und fehlerfrei genutzt werden können.
  2. Wir brauchen mehr zuverlässige, vertrauenswürdige Informationsquellen und -kanäle.
  3. Weil die beiden anderen nicht so schnell kommen (wenn überhaupt), müssen wir unbedingt in allen Gesellschaftsschichten auch für mehr Medien- und Informationskompetenz sorgen.

Der Nutzen von Digitalem Cleanup

Das Aufräumen von Texten, Bildern und Apps, bringt aber nicht nur Vorteile bezüglich Stromverbrauch, sondern hilft auch, den Überblick über unsere Daten und unser Leben wiederzuerlangen. Insbesondere die Reduktion von unnötigen Applikationen kann auch zu mehr IT-Sicherheit und Privatsphäre beitragen. Hier ein Versuch, die verschiedenen Vorteile tabellarisch zusammenzufassen.

Take Home Message

Für eine nachhaltige Gesellschaft, nicht nur in Bezug auf den Digitalen Fussabdruck, sollten wir folgende Themen mit nach Hause (oder an die Arbeitstelle und in die politischen Prozesse) nehmen:

StreamingCloud, SpeicherKIWeniger ist besserKlarheit
Über GlasfaserUSB-FestplatteReduzieren, Alternativen nutzenKeine SelbstkasteiungEinfache Abläufe
Auf kleinen BildschirmIn der SchweizKeine Videos generierenAusbau erneuerbarer EnergiequellenZuverlässige Informationsquellen

Wenn jeder sich nur einigen wenigen Punkten annimmt, wird unsere Gesellschaft besser. Für uns und unsere Nachkommen.

Auch wenn die Wirtschaft und ihre Bosse eigentlich die Verantwortung tragen müssten.

Weiterführende Literatur

Wer mehr zum Thema wissen will: Hier sind weiterführende Texte; viele davon dienten auch als Quelle für diesen Artikel oder zumindest als Inspiration.

Digitale Nachhaltigkeit

Energiebedarf durch (KI-)Rechenzentren

Statistiken und Prognosen Energieproduktion und -verbrauch

Cloud-Technologie erklärt

Rechenzentren

(Generative) Künstliche Intelligenz

KI und Effizienz

  • 2025 State
 of AI code quality, Qodo
    609 Freiwillige, kurze, wenig reproduzierbare Studie, Eigeninteresse: 78% fühlen sich schneller, 14% sogar 10x
  • Joel Becker, Nate Rush, Elizabeth Barnes, and David Rein: Measuring the Impact of Early-2025 AI on Experienced Open-Source Developer Productivity, Model Evaluation and Threat Research (METR), 2025-07-10
    16 Freiwillige, längere, solide Studie: Die Entwickler fühlten sich 20 % schneller, waren aber gemessen 19 % langsamer
  • Mike Judge: Where’s the Shovelware? Why AI Coding Claims Don’t Add Up, 2025-09-03
    1. Wenn alle Entwickler 10x produktiver seien, müsste sich doch das im Zuwachs bei Open-Source-Projekten zeigen; dieser ist aber nicht sichtbar.
    2. Selbstexperiment über 1½ Monate: Morgens Zeitschätzung für das Tagesprojekt und erst dann (Münzwurf) entschieden, ob er die Aufgabe mit oder ohne KI-Unterstützung durchführt. Mit KI-Unterstützung war er 21 % langsamer als ohne.

Fussabdruck

dnip.ch mit Deiner Spende unterstützen

Wir wollen, dass unsere Inhalte frei verfügbar sind, weil wir es wichtig finden, dass möglichst viele Menschen in unserem Land die politischen Dimensionen der Digitalisierung erkennen und verstehen können.

Damit das möglich ist, sind wir auf deine Unterstützung angewiesen. Jeder Beitrag und sei er noch so klein, hilft uns, unsere Aufgabe wahrzunehmen.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Weitere Beiträge