[Anmerkung: Alle Hervorhebungen in diesem Beitrag im Original!]
Der Vergleich der Leistungsdaten verschiedener Stromerzeuger ist vergleichbar mit der Verwendung des IQ als einzigem oder geeignetstem Maß für den Wert eines Mitarbeiters für das Unternehmen, für das er oder sie arbeitet… Wenn alle Menschen den gleichen Gesundheitszustand, die gleichen Fähigkeiten und die gleiche Arbeitsmoral hätten, würde das vielleicht ausreichen. Aber dem ist nicht so. Und bei verschiedene Arten von Kraftwerken auch nicht.
Für diejenigen unter uns, die sich mit den Kosten und Vorteilen der verschiedenen Arten von Kraftwerken innerhalb eines Netzsystems befassen, scheint es, dass es durch die Medien, die Werbung und die Öffentlichkeitsarbeit – und sogar durch Regierungsbehörden – eine gezielte Anstrengung gegeben hat, um die Öffentlichkeit über den Nutzen von Wind- und Solarkraftwerken in die Irre zu führen.
Eines der eklatantesten Beispiele ist die ständige Verwendung der „Nennleistung“ (Erzeugungskapazität) von Wind und Sonne als Maßstab für Wert und Vergleich. Die Nennleistung selbst spiegelt nicht den Beitrag von Energie oder Zuverlässigkeit zu einem Netzsystem wider.
Im 20. Jahrhundert war die „Nennleistung“ ein vernünftiger Indikator für den Beitrag zur Deckung der Spitzennachfrage, wann immer diese auftreten konnte. Anders ausgedrückt: Alle gängigen Kraftwerkstypen konnten – bis zu ihrer „Nennleistung“ – immer dann eingeschaltet und betrieben werden, wenn sie gebraucht wurden (abgesehen von planmäßigen Zeiten für größere Wartungsarbeiten oder bei der geringen Wahrscheinlichkeit eines unerwarteten Ausfalls), weil sie in der Lage waren, ihre Brennstoffe zu verwalten.
Bei diesen bewährten Technologien, deren Brennstoffverfügbarkeit von menschlichem Einfallsreichtum und Lernen/Anpassen bestimmt wird, ist es üblich, die Nennleistung nur um etwa 10 bis 15 % zu verringern, um einen „Kapazitätswert“ oder „Systemadäquanzbeitrag“ (in zuverlässigen, bedarfsgerechten Watt) zu erhalten. Dieser Wert wird für jedes Kraftwerk im gesamten System addiert, und die Summe soll die maximale Systemnachfrage (die so genannte Spitzenlast) decken, wobei etwa zehn bis fünfzehn Prozent mehr als „Reservemarge“ verbleiben, um mögliche Stromausfälle durch unerwartete Generatorausfälle oder unerwartet hohe Nachfrage zu vermeiden.
Die Höhe der Reservemarge ist ein Kompromiss zwischen dem Risiko von Stromausfällen (und anderen Problemen der Systemzuverlässigkeit) und den Kosten. Die „richtige Dimensionierung“ des Systems ist also wichtig, um die Strompreise niedrig zu halten, denn der Bau und die Wartung von Kraftwerken kosten weit mehr als der gesamte Brennstoff, den sie während ihrer Lebensdauer verbrauchen werden. Dementsprechend sind zu viele Kraftwerke in der Tat zu viele, weil ihr Bau teuer ist und sie daher auf angemessene Einnahmen aus ihrer Produktivität angewiesen sind, um sich selbst zu finanzieren und eine Investitionsrendite über mehrere Jahrzehnte zu erzielen.
Ein Systemadäquanzbeitrag von 90 Prozent pro Watt Nennleistung ist fair und bei allen konventionellen Kraftwerkstypen von Kohle über Gas bis hin zu Kernkraft üblich. Wind- und Solarenergie unterscheiden sich jedoch von Technologien mit „fester“ Kapazität. Ihre „Brennstoffe“, die Sonneneinstrahlung und der Wind, können nicht gesteuert werden, d. h. sie können nicht konstant geliefert und in Strom umgewandelt werden. Dies ist besonders kritisch zu den Zeiten, in denen die Nachfrage am größten ist. Daher können sie den teuersten Bestandteil der Stromkosten, nämlich die einsatzfähigen Kraftwerke, nicht wesentlich ersetzen. Stattdessen nehmen sie dem zuverlässigen Kraftwerkspark, den sie nur vorgeben zu ersetzen, Marktanteile, Bruttomargen und Einnahmen weg.
Ebenso problematisch wie die grundsätzliche Unfähigkeit der erneuerbaren Energien, zu Zeiten mit der höchsten Nachfrage Strom zu erzeugen, ist die Tatsache, dass diese „intermittierend betriebenen Stromerzeuger“ oft dann am meisten Strom erzeugen, wenn die Gesellschaft weniger Strom benötigt, was zu einem unterbewerteten Marktpreis für alle Stromerzeuger führt – der manchmal niedriger ist als die Kosten, die sie für die Erzeugung aufbringen müssen (bekannt als Grenzkosten), und weit unter den Gesamtkosten für die Aufrechterhaltung der Angemessenheit des Systems liegt, wenn man die Darlehenszahlungen, die Gehaltsabrechnungen und andere monatliche Ausgaben berücksichtigt, die von allen Kraftwerken getragen werden müssen.
Bei Wind- und Solarkraftwerken ist die „Nennleistung“ weder ein Maß für die erwartete Stromerzeugung im Laufe der Zeit noch für ihren Beitrag zur Zuverlässigkeit des Systems. Dennoch sehen wir immer wieder, wie staatliche Stellen, Netzbetreiber und vor allem die Medien die ERZEUGUNGSKAPAZITÄT (Nennleistung) im Vergleich zu konventionellen Stromerzeugungstechnologien anführen:
Die Verwendung der Nennkapazität zum Vergleich von Technologien führt die Menschen in die Irre, wenn sie glauben, dass wetterabhängige Elektrizität Technologien „ersetzen“ kann, die ihre Brennstoffe verwalten können, obwohl sie dies nicht können. Diese Art der Berichterstattung und Öffentlichkeitsarbeit ist, ob absichtlich oder nicht, einseitig auf die intermittierende Stromerzeugung ausgerichtet. Es ist traurig, wenn dies von den Medien und der Öffentlichkeitsarbeit gemacht wird, und noch schlimmer, wenn es von einer Regierungsbehörde gemacht wird.
Was jedoch den Kostenvergleich betrifft, so stellt das US-Energieministerium EIA dies in seinen jährlichen Berichten über die Stromgestehungskosten klar und deutlich fest und fordert:
„Der Arbeitszyklus für intermittierende erneuerbare Ressourcen, Wind und Sonne, wird nicht vom Betreiber gesteuert, sondern hängt vom Wetter oder dem Sonnenzyklus ab (d.h. Sonnenaufgang/Sonnenuntergang)…(und daher) sind ihre nivellierten Kosten nicht direkt mit denen anderer Technologien vergleichbar…“
PJM*, der größte Stromgroßhandelsmarktbetreiber der Welt, scheint in dieser Erklärung, in der er die Prioritäten seiner jüngsten Studie zur Umstellung auf erneuerbare Energien beschreibt, zuzustimmen: „Die korrekte Berechnung des Kapazitätsbeitrags der Erzeuger ist von entscheidender Bedeutung: Ein System mit mehr variablen Ressourcen wird neue Ansätze erfordern, um den Zuverlässigkeitswert jeder einzelnen Ressource und des Systems insgesamt angemessen zu bewerten.“
[PJM: Die Bedeutung des Kürzels wird auch auf der Homepage des Unternehmens nicht genannt. A. d. Übers.]
Dies spricht direkt für die Bedeutung eines genauen Vergleichs der Systemadäquanzbeiträge zwischen verschiedenen Erzeugungstechnologien als Hauptmaßstab für den Wert – anstelle der Nennleistung.
Die beiden richtigen Vergleichsmaßstäbe für intermittierende und disponible Kraftwerke, die die Verwendung der Nennleistung ersetzen sollten, sind:
1) Beitrag zur Systemadäquanz (in MW) und
2) annualisierte elektrische Energieerzeugung (in MW/h)
Leider sind, wie PJM angibt, auch die Verfahren zur Schätzung des Systemadäquanzbeitrags umstritten. Die am weitesten verbreitete Messgröße ist der „alte Ansatz“ oder ELCC (effective load carrying capability). Dieser Maßstab wäre hilfreich, wenn alle Stromerzeugungstechnologien symbiotisch und nicht parasitär wären. Mit anderen Worten: ELCC lässt außer Acht, dass Wind- und Solarenergie die finanzielle Rentabilität der bestehenden einsatzfähigen Flotte, die für den Fortbestand der erneuerbaren Energien erforderlich ist, leicht unterminieren, und dass ELCC als Grundlage für die Berechnung des Systemadäquanzbeitrags der „parasitären“ erneuerbaren Energien dient! Im Grunde genommen eignet sich die Kennzahl nicht für einen Energiemix, bei dem konkurrierende Technologien keine direkten Substitute füreinander sind. Die Argumentation von ELCC ist auf subtile Weise zirkulär, da die erneuerbaren Energien politisch begünstigt werden und die finanzielle Solvenz zuverlässiger Kraftwerksinvestitionen untergraben.
Eine bessere Methode zur Schätzung des Beitrags zur Systemadäquanz ist die Betrachtung der jüngsten historischen Erzeugungsmuster der erneuerbaren Energien im Zusammenhang mit den Lastprofilen und Amplituden, die sie bedienen könnten, unabhängig vom bestehenden Erzeugungsmix. Wir bevorzugen eine Methode namens „Mean of Lowest Quartile generation across peak load hours (MLQ)“, die vom Market Monitor in seinem SOM-Bericht 2012 über MISO vorgeschlagen wurde.
Realistischerweise zeigt die folgende Abbildung sowohl die Nennkapazität (skizziert, nicht farblich hervorgehoben) als auch den Beitrag zur Systemadäquanz (farblich hervorgehoben) des US-Strommixes zum Ende des Jahres 2018:
Indem sie die falschen Vergleichsbasis zwischen den Kraftwerkstypen verwenden, ignorieren Regierungen, Marktteilnehmer und imagebesessene Unternehmen umsichtige wirtschaftliche und physikalische Überlegungen und stellen die Vorstellung einer saubereren, sich selbst versorgenden Welt, die vom Wetter abhängig ist, über wirkliche Prioritäten wie ein erschwingliches, reichhaltiges und zuverlässiges Stromnetzsystem, in Übereinstimmung mit dem Auftrag der FERC, das menschliche Wohlergehen zu unterstützen.
Erneuerbare Energien schlagen nur deshalb „Wurzeln“, weil Regierungen, Marktteilnehmer, Regulierungsbehörden und fehlgeleitete Umwelt-, Sozial- und Governance-Faktoren (ESG) – die nur insofern fehlgeleitet sind, als sie nicht berücksichtigen, wie das Stromnetz tatsächlich funktioniert (siehe oben) – ein unrealistisches Tempo und eine unzureichende Dynamik der „Energiewende“ anstreben. Sie drängen die moderne Zivilisation dazu, eine Wirtschaft zu erreichen, wie wir sie um 1800 und davor hatten – dem letzte Mal, als die Welt „dekarbonisiert“ wurde.
Autoren: Ronald Stein is an engineer who, drawing upon 25 years of project management and business development experience, launched PTS Advance in 1995. He is an author, engineer, and energy expert who writes frequently on issues of energy and economics.
Tom Stacy Electricity System Analyst / Consultant, Ohio.
Link: https://www.cfact.org/2022/01/29/we-should-not-compare-electricity-sources-using-nameplate-ratings/
Übersetzt von Christian Freuer für das EIKE