Kategorie: Nachrichten
Studie zeigt enorme Umweltschäden durch Onshore-Windkraftanlagen

Neue Erkenntnisse über die ökologischen Verwüstungen, die Onshore-Windkraftanlagen weltweit verursachen, enthält eine schockierender Studie von einer Gruppe von Ökologen. Sie zeigt welch erheblich Schäden Windparks für die Biodiversität haben. Die Studie, die in Nature veröffentlicht wurde, zeigt dass die Auswirkungen der Windenergieerzeugung im industriellen Maßstab „weitreichend sein können und manchmal große und unerwartete Folgen für […]
Der Beitrag Studie zeigt enorme Umweltschäden durch Onshore-Windkraftanlagen erschien zuerst unter tkp.at.
Wintererwärmung ja, aber nicht durch Kohlendioxid
Grund der Erwärmung seit 1988: stark erwärmend wirkende Süd-Westlagen mit feuchter Atmosphäre
Von Josef Kowatsch, Matthias Baritz,
- Die Wintererwärmung Deutschlands begann 1987 auf 1988 mit einem Temperatursprung.
- Davor gab es über 100 Jahre gar keine Erwärmung, sondern sogar eine Abkühlung.
- Keine CO₂-Treibhauserwärmung erkennbar in den Grafiken
- Die Erwärmung in Europa seit 1988 hat natürliche und anthropogene Gründe
Zum Winter 2026 gehören die drei Monate Dezember 25, sowie Januar und Februar 2026. Laut dem europäischen Klimadienst Copernicus waren alle drei Monate die fünftwärmsten seit Beginn der Temperaturmessungen. Der Deutsche Wetterdienst (DWD) gibt den Winter 2026 mit knapp 1,7°C an, ermittelt mithilfe seiner über 2000 Wetterstationen. Und trotz des milden Februars am Schluss doch etwas kälter als letztes Jahr. Die Aufzeichnungen des DWD begannen für die Jahreszeit Winter 1882. Damals mit ganz anderen Messstationen und nach ganz anderen Messverfahren in der englischen Wetterhütte an ganz anderen, nämlich kälteren Örtlichkeiten ermittelt. Wollen wir mal hoffen, dass die damals ermittelten Temperaturen mit heute vergleichbar sind und der DWD „sauber“ umgerechnet, d.h. wärmer gemacht hat. Wie gesagt: Hoffen. Insgesamt lag der Niederschlag unter dem Schnitt und die Sonnenstunden deutlich darüber.
Behauptet wird vom IPCC und vom PIK, dass allein das in der Atmosphäre zunehmende CO₂ zur Erwärmung geführt haben soll, siehe Definition: Der Begriff Klimawandel bezeichnet langfristige Temperatur- und Wetterveränderungen, die hauptsächlich durch menschliche Aktivitäten verursacht sind, insbesondere durch die Verbrennung fossiler Brennstoffe
Wir fragen uns: Wo ordnet sich dieser 1,7 Grad Winterschnitt für 2025/26 ein in der langen DWD-Messreihe und wie ist die Erwärmung seit 1988 zu erklären?
In der folgenden Grafik handelt es sich um Original-DWD-Temperaturen, man sieht gleich bei der ersten Grafik, dass Copernicus falsch liegt, was Deutschland anbelangt.
Grafik 2: Seit Messbeginn im Kaiserreich war die Jahreszeit Winter über 100 Jahre ausgeglichen, mal wärmere, mal kältere Jahrzehnte – siehe blaue Trendlinie – dann erfolgte 1987/88 ein Temperatur-sprung von gut einem Grad, mit anschließender Weitererwärmung der drei Monate bis heute.
Bei näherer Betrachtung sieht man, dass das DWD-Startjahr in einem Kältetief lag, (etwa von 1840 bis 1900). Beginnt man die Reihe erst um 1900, dann ergibt sich folgende Grafik
Grafik 3a: Der Winter laut den Daten des DWD 90 Jahre erst einmal kälter. Erst nach dem Temperatursprung, also erst seit 1988 beginnt die Erwärmung.
Grafik 3b: Und schließlich noch der Zeitraum während der Mouna-Loa-CO₂-Messungen in Grafik 1. Und zu Copernicus: Nicht einmal in den letzten 40 Jahren war es der fünftwärmste Winter.
Anhand dieser drei Grafiken ist bereits bewiesen, dass die stetige CO₂-Zunahme der Atmosphäre nichts mit den DWD-Temperaturreihen zu tun hat. Es besteht keine Korrelation, denn CO₂ kann nicht 90 Jahre lang und insbesondere seit 1957 abkühlend wirken, dann 87/88 einen großen Temperatursprung verursachen, und anschließend eine Weitererwärmung hinlegen.
Nach den DWD-Temperaturreihen zu folgern hätte CO₂ bis 1987 abkühlend gewirkt, und dann ab 1988 plötzlich stark erwärmend. Solche Gaseigenschaften, die erst seit 1988 plötzlich erwärmend wirken, (davor noch abkühlend) gibt es nicht.
Interessant ist nun die Aufschlüsselung der Wintertemperaturen in Tag- und Nachtvergleiche, die wir als Tmin und Tmax darstellen werden.
Leider bietet der Deutsche Wetterdienst für seine ca. 2000 Wetterstationen keine Tages- und Nachttemperaturen im Schnitt seit 1900 an. Er bietet überhaupt keinen Schnitt an. Aber es gibt etwa 550 Wetterstationen die ab Kriegsende alle drei Temperaturen aufzeichnen. Wir mussten diese aus der DWD-Stationendatei raussuchen und selbst zu einem Schnitt aufsummieren. Zunächst mal erst seit 1948, denn nach dem Kriege hat der DWD bedingt durch die neuen Außengrenzen Deutschlands neue Wetterstationen hinzugefügt und andere entfernt. Und nach der Einheit 1990 musste auch wieder umsortiert werden.
Bitte beachten: Für jeden Jahrespunkt musste M. Baritz aus 545 Stationen erst den Schnitt errechnen, und zwar für alle drei Graphen. Welch zeitraubende Aufgabe für einen unbezahlten Klimawissenschaftler, wo dies doch die Aufgabe der DWD-Angestellten wäre. Die nächste Grafik findet man deshalb bei der bezahlten Treibhauswissenschaftsgilde nirgendwo. Warum wohl?
Grafik 4: Dargestellt sind die Wintertemperaturen vor und nach dem Temperatursprung, die obere graue Linie ist Tmax, die untere Tmin. Der braune Graph ist der Tagesschnitt. Bitte die Steigung ab 1988 selbst vergleichen mit dem DWD-Schnitt der vorigen Grafiken. Es besteht fast kein Unterschied.
Ergebnisse:
- Von 1948 bis 1987, also 40 Jahre kühlen die Winter tagsüber etwas stärker ab als die Nächte
- Gleich großer Temperatursprung bei allen drei Graphen von 1987 auf 1988
- Die Winter erwärmen sich ab 1988 tagsüber etwas stärker als T-min nächtens.
Erkenntnis: Dieses unterschiedliche Verhalten von Tages- und Nachttemperaturen ist auch mit keinerlei CO₂-Treibhauserwärmungstheorie erklärbar. Und nur deshalb findet man diese Grafik nirgendwo, denn sie widerlegt die Behauptung, CO₂ wäre der maßgebliche Temperaturregelknopf für die Erdatmosphäre.
Aufforderung: Die CO₂- Treibhauserwärmungsüberzeugten sollten die vollkommen unterschiedliche Tag-Nachterwärmung endlich mit Ihrer Theorie erklären. Und das hat einer versucht im Oktober 2020. Der selbst ernannte und gut bezahlte CO₂-RTL-Klimaexperte Christian Häckl behauptet sogar, die Nächte würden sich stärker erwärmen wie die Tage, rein von seiner alimentierten Theorieüberzeugung so dahergeschwätzt, ohne seine Vorhersagen an DWD-Temperaturreihen zu überprüfen. Siehe RTL-Häckl im Oktober 2020.
Anmerkung zur IR-Absorption: Richtig sind die physikalischen Grundlagen, die wir auch nicht bezweifeln: Die IR-Rot Absorption einiger Gase, die in Deutschland irrtümlich Treibhausgase genannt werden, gibt es. Hier anschaulich erklärt.
Diese IR-Absorption/Emission ist physikalisch leicht in Versuchen nachweisbar. Aber: die behauptete Erwärmung diese behauptete Thermalisierung der Luft ist nicht nachweisbar. Unsere Graphiken beweisen zusätzlich, dass eine Treibhauswirkung allerhöchstens minimalst und versteckt wirken könnte.
Sieben weitere Gründe für ein Nichtwirken von CO₂:
1) es gibt keine Versuchsbeweise zum erwärmenden CO₂-Treibhauseffekt, aber auch
2) keine natürlichen Erwärmungshotspots in freier Natur, wo naturbedingt ständig oder plötzlich große Mengen an Treibhausgasen freigesetzt werden wie im September 2022 beim ungewollten Großversuch mit dem ausströmenden Methan über der Ostsee. Und es gibt auch
3) keine technische Anwendung, die auf dem Treibhaus-Erwärmungseffekt beruht. Und
4) Das wussten bereits die deutschen Physiker-Größen wie Einstein, Planck, Schrödinger, Heisenberg und Otto Hahn. Siehe “Albert Einstein said 1917 no to CO₂ radiative warming of the atmosphere” (hier)
5) alle DWD Temperatur-Grafiken können nur für kurze Zeiträume Korrelationen mit dem steigenden CO₂-Gehalt in der Atmosphäre finden. Das sind Zufallskorrelationen.
6) Insbesondere begann die Klimaerwärmung in Mitteleuropa nicht nach der Kleinen Eiszeit, wie die bezahlte Treibhausreligion behauptet, sondern erst durch einen Temperatursprung 1987/88 und danach die steile Weitererwärmung.
7) Dabei sind vor allem im Sommer bis in die Herbst hinein die Tagestemperaturen gestiegen, die Nachttemperaturen kaum, gar nicht oder bei manchen Wetterstationen sogar leicht gesunken.
Fazit: All diese Gründe und noch viele mehr mitsamt unserer Wintergrafiken sind der Beweis, dass der Treibhauseffekt keinerlei erkennbare wärmende Wirkung hat, eine homöopathische Dosenwirkung ist möglich. Die seit 1988 stattfindende Erwärmung hat andere Gründe. Wir nennen einige weiter unten.
Wir verlangen von der Politik: Ein Absenken der jährlich gemessenen CO₂-ppm-Zuwachsraten ist somit vollkommen unnütz, weil wirkungslos, zudem sehr teuer und sollte unterlassen werden. CO₂-Bodenverpressungen sind absolut sinnlos. Eine Gefahr für die Bodenorganismen und für die Umwelt.
Die letzte Generation, viele Jugendliche, sowie viele Bürger Deutschlands sind ein Opfer der CO₂- Klimaangstpropaganda, ein Teil des Geschäftsmodells „Treibhausgase“, oftmals zugleich aber auch Mitverdiener an der von uns bezahlten CO₂-Ablaßhandelssteuer. Tatsache ist: Wir sind weit entfernt von irgendwelchen irdischen Erwärmungs-Katastrophen aufgrund der CO₂-Zunahme. Die Atmosphäre braucht mehr CO₂ und nicht weniger.
Diese Klimapropaganda ist ein Geschäftsmodell ähnlich dem Ablasshandelsmodell der Kirche im Mittelalter. Die kirchlichen mainstream-Wissenschaftler vor 700 Jahren haben die Begriffe „Erbsünde“, „Fegefeuer“ und „Todsünde“ eigens erfunden, um den Leuten Angst einzujagen. Von dieser Lebensangst konnte man sich durch eine Ablassteuer freikaufen. Heute heißen die Begriffe Treibhausgas, Klimakipppunkte und ständige weitere Erderhitzung mit vorhergesagten angeblichen von CO₂ verursachten Klimakatastrophen.
Wir müssen diesen politisch gewollten und durchgeplanten Blödsinn der CO₂-Angstmache endlich stoppen. Letztlich ist unsere Demokratie in Gefahr. Was bedeutet, jeder auf seinem Weg, dynamisch und selbstbewusst auftretend. Die Vertreter der Treibhauskirche lächerlich machen ist auch ein Weg, der bisher noch kaum gewählt wurde. Endlose physikalische Diskussionen sind sinnlos.
Und was meldet der klimapanikverbreitende EU-Klimadienst mit seinen gekauften Klimaangestellten über diesen Winter: „weltweit der …..wärmste“:
Unsere Anmerkung:. Es gibt überhaupt keine zuverlässigen weltweiten Messungen von früher, mit denen man diesen Winter vergleichen könnte. Bezahlte Wissenschaftler melden, was von Ihnen verlangt wird, weil ihr Gehalt davon abhängt.
Was hat nun tatsächlich zu den winterlichen Erwärmungen in Mitteleuropa seit 1987/88 geführt?
- Die ständige Ausbreitung der Wärmeinseln, die innerhalb Deutschlands schon längst keine Inseln mehr sind: 15% der Deutschlandfläche sind inzwischen bebaut und versiegelt, täglich kommen 45 bis 50 ha dazu: Siehe hier, Stand aktuell 51 000 km²
Allerdings ist die Wärmeinselwirkung im Winter nicht so stark ausgeprägt wie im Sommerhalbjahr, weil die Sonne nur kurz scheint und tief am Horizont steht. Die Aufheizung kommt hauptsächlich aus den Heizungen, den Autos und der Industrie. Im Gegensatz zu früher mündet der Rhein heute bereits als warmer „Golfstrom“ in den Bodensee, aufgeheizt durch uns.
- Natürliche Klimaveränderungen
- Temperatursprung 1987/88, er fand in ganz Mittel- Nord- und Westeuropa statt.
In Holland wurden die Gründe des Temperatursprunges genauer in dieser Arbeit untersucht. Zitat aus der Introduction: „This warming has not takenplace uniformly: there is a jump around 1988 of about one degree in the average temperature.“
Die Änderung der Großwetterlagen: plötzlich mehr Süd-und SW-Anteil, mitbedingt durch natürliche Atlantikzyklen. Das sind natürliche Ursachen der ständigen Klimaänderungen, die weder CO₂ noch sonst menschenverursacht sein kann.
Abb. 5: Noch nie seit Aufzeichnungsbeginn (1881) gab es über einen so langen Zeitraum derart viele Großwetterlagen mit westlichem und südwestlichem Strömungsanteil (rotviolett), wie seit dem Klimasprung im Winter 1987/88. Diese transportierten teils extrem milde atlantische Luftmassen (mPs, mSp, mS) nach Deutschland, so dass die Winter seitdem teils extrem mild verliefen. Großwetterlagen-Klassifikation nach HESS/BREZOWSKY und zwecks besserer Veranschaulichung Umrechnung aller Größen in Index-Werte. Daten für Winter 2023/24 noch nicht vollständig ausgewertet, aber auch da im Dezember und Februar sehr viele West- und SW-Lagen.
Die Änderung der Wetterlagen von Nord auf mehr Südanteil und der Windrichtungen ab 1987/88 führt auch zu einer Änderung der Sonnenstunden und der Niederschläge.
Abb. 6a/b: Die Abnahme der Sonnenstunden bis 1987 könnte auch die Abnahme der deutschen Tagestemperaturen bis 1987, siehe Grafik 4, erklären. Seit 1988 verzeichnen die Sonnenstunden einen leichten Anstieg. Niederschläge: steigend bis 1987, dann leichter Abfall.
Besonders eindrucksvoll zeigt sich die Häufung der stark erwärmend wirkenden Lagen mit westlichem Strömungsanteil in feuchter Atmosphäre nach der Objektiven Wetterlagen-Klassifikation des DWD (seit dem Winter 1979/80 vorliegend). Deren Häufigkeit stieg mit dem Klimasprung 1987/88 stark an und erreichte im abgelaufenen, sehr milden und nassen Winter einen neuen Häufigkeitsrekord.
Abb. 7: Häufigkeitsentwicklung der westlichen Lagen mit feuchter Atmosphäre seit dem Aufzeichnungsbeginn 1979/80. Unsere aktuelle, 1988 begonnene moderne Warmzeit zeichnet sich durch besonders viele feuchte Westlagen aus; diese behindern die nächtliche Abkühlung (Wolken und Wasserdampf).
Fazit: Kohlendioxid soll laut Treibhausglaubenskirche das temperaturtreibende Erwärmungsgas sein, angeblich ein Giftgas und Klimakiller. Kipppunkte sollen laut dem Treibhausangstgeschrei der bezahlten und unseriösen Klimawissenschaft unmittelbar bevorstehen, so deren Orakel. Unsere Wintergrafiken zeigen, dass meistens überhaupt keine Korrelation zur Grafik 1, dem steilen CO₂-Anstieg in der Atmosphäre besteht.
Zusammenfassungen:
CO₂ ist ein lebensnotwendiges Gas für die Photosynthese und das Pflanzenwachstum auf dieser Erde. Die Schöpfung der Erde ist auf Kohlenstoff und Kohlendioxid aufgebaut. Ein weiterer CO₂-Anstieg hätte positive Wirkungen für das Leben und wäre wünschenswert.
Ebenso wünschenswert wäre, wenn der Winter in Mitteleuropa weiterhin so mild bleiben würde wie seit 1988, nach dem Temperatursprung. Von einer Klimakatastrophe oder gar von Klima-Kipppunkten sind wir weit entfernt. Das sind Kindermärchen-Erfindungen und Teil des Geschäftsmodelles Klimahysterie
Der fast überall auf der Welt steigende WI-Effekt der Landmassen ist der tatsächlich anthropogene Anteil an der Erwärmung und nicht der wirkungslose nicht nachweisbare CO₂-Effekt. Es handelt sich um eine gewollt wissenschaftliche Verwechslung. Will man den WI-Effekt zurückfahren, dann muss die flächenversiegelnde Naturzerstörung, nicht nur in Deutschland reduziert werden.
Leider nimmt die Naturzerstörung täglich weiter zu und die DWD Wetterstationen sind mehrheitlich dort, wo der Mensch wohnt, arbeitet und die Landschaft besonders erwärmt, dort wo geheizt wird. (ca. 15% der Deutschlandfläche)
Anstatt sich sinnlose CO₂-Einsparungen zu überlegen, sollten die Umweltministerien der Länder sofort einen Ideenwettbewerb starten wie man den Niederschlag wieder in der freien Landschaft, in den Städten und Gemeinden halten und versickern lassen kann.
Die Klimaerwärmung brachte Deutschland bisher nur Vorteile. Deshalb sind gerade die jungen Leute aufgefordert, sich am regen Ideenwettbewerb gegen die Versteppung und Austrocknung Deutschlands im Sommer zu beteiligen. Das Wasser muss wieder dort gehalten werden, wo es niedergeht. Wir haben hier vorläufig 15 Vorschläge erarbeitet.
Wir brauchen mehr CO₂ in der Atmosphäre, CO₂ ist das Lebensgas
Eine positive Eigenschaft hat die CO₂-Zunahme der Atmosphäre. Es ist das notwendige Wachstums- und Düngemittel aller Pflanzen, mehr CO₂ führt zu einem beschleunigten Wachstum, steigert die Hektarerträge und bekämpft somit den Hunger in der Welt. Ohne Kohlendioxid wäre die Erde kahl wie der Mond. Das Leben auf der Erde braucht Wasser, Sauerstoff, ausreichend Kohlendioxid und eine angenehm milde Temperatur. Der optimale CO₂-gehalt der Atmosphäre liegt etwa bei 800 bis 1000ppm, das sind 0,1%. Nicht nur für das Pflanzenwachstum, wahrscheinlich auch für uns eine Art Wohlfühlfaktor. Von dieser Idealkonzentration sind wir derzeit weit entfernt. Tatsächlich mussten die Pflanzen einige Tricks entwickeln, um mit diesem geringen Lebensangebot CO₂ überhaupt zurecht zu kommen. So haben die C3-Pflanzen ein Enzym mit dem Namen Rubisco entwickelt, das die Fotosynthese unterstützt. Das Leben auf der Erde braucht mehr und nicht weniger CO₂ in der Luft. Untersuchungen der NASA bestätigen dies (auch hier) Und vor allem dieser Versuchsbeweis.
Es wird Zeit, dass endlich Natur- und Umweltschutz in den Mittelpunkt des politischen Handelns gerückt werden und nicht das teure Geschäftsmodell Klimaschutz, das keinerlei Klima schützt, sondern über gesteuerte Panik- und Angstmache auf unser Geld zielt. Eben ein Geschäftsmodell. Und die linksgrüne Klimalüge will letztendlich unsere Demokratie, unser Deutschland mit der gewachsenen 1000-jährigen Kultur zerstören.
Gegen die Terrorgruppe „letzte Generation“ und gegen die „Klimakleber“ und andere grünlinken Gruppierungen muss mit allen gesetzlichen Mitteln vorgegangen werden, da die Gruppen keine Natur- und Umweltschützer sind, sondern bezahlte Chaosanstifter. Sie sind aufgehetzt, um das lebensnotwendige CO₂ zu verteufeln, um die CO₂-Steuer weiter von uns einzufordern. Abzocke ohne Gegenleistung nennt man das Geschäftsmodell, das ähnlich wie das Sündenablassmodell der Kirche im Mittelalter funktioniert. Ausführlich hier beschrieben
Die Wintertemperaturreihen des Deutschen Wetterdienstes beweisen: Es gibt keinen von Kohlendioxid verursachten Klimanotstand. Deshalb muss auch keiner bekämpft werden.
Matthias Baritz, Naturschützer und Naturwissenschaftler
Josef Kowatsch, aktiver Naturschützer, ausgezeichnet mit Dutzenden Natur-und Umweltpreisen, unabhängiger, weil unbezahlter Klimaforscher.
Der Beitrag Wintererwärmung ja, aber nicht durch Kohlendioxid erschien zuerst auf EIKE – Europäisches Institut für Klima & Energie.
Verwaltungsgericht: Merkels Stasi-Akte wird weiter geheimgehalten
„Sie haben eine Jungkommunistin, eine überzeugte Jungkommunistin zur Kanzlerin gewählt. Ist Ihnen das überhaupt klar? Denn Frau Merkel war FDJ-Funktionärin für Propaganda und Agitation.“ (Oskar Lafontaine, 2008) (David Berger) Im Streit um mögliche Stasi-Unterlagen zur früheren Bundeskanzlerin Angela Merkel hat das Verwaltungsgericht Berlin die Klage des Bürgerrechtlers und Gewerkschaftsvorsitzenden Marcel Luthe abgewiesen. Luthe hatte Einsicht […]
Der Beitrag Verwaltungsgericht: Merkels Stasi-Akte wird weiter geheimgehalten erschien zuerst auf Philosophia Perennis.
Konjunkturforscher: Inflation könnte auf sechs Prozent steigen

Kommt die Horror-Inflation zurück, wird alles noch viel teurer als ohnehin schon? Der Konjunktur-Chef des RWI-Leibniz-Institutes, Torsten Schmidt, warnt: Sollte der Iran-Krieg länger als vier Wochen dauern, könnte die Inflation in diesem Jahr wieder auf sechs Prozent steigen. „Deutschland würde in das vierte Jahr der Rezession rutschen“, sagte Schmidt der „Rheinischen Post“ (Düsseldorf).
Zu befürchten sei außerdem, dass es zu echten Engpässen auf dem Weltmarkt kommen könne. Einen Ölpreis von 150 Dollar pro Barrel schließt der Ökonom bei längerer Kriegsdauer nicht aus.
The post Konjunkturforscher: Inflation könnte auf sechs Prozent steigen appeared first on Deutschland-Kurier.
Der Preis des Krieges gegen den Iran: Washingtons steigende militärische und finanzielle Belastung
Mit der Ausweitung des Konflikts könnte sich der entscheidende Schauplatz vom Schlachtfeld selbst hin zur immensen wirtschaftlichen und militärischen Belastung verlagern, die mit der Aufrechterhaltung eines langwierigen Krieges gegen eine gut vorbereitete Regionalmacht einhergeht.
Der Krieg zwischen den USA und Israel gegen den Iran hat eine der gefährlichsten Eskalationen der letzten Jahre in Westasien ausgelöst. US- Militärstützpunkte entlang des Persischen Golfs geraten zunehmend unter direkten Raketen- und Drohnenangriff, was eine bedeutende Veränderung der regionalen Kriegsführung markiert.
Während sich die anfängliche Berichterstattung auf die Entwicklungen auf dem Schlachtfeld und das Tempo der Luftangriffe konzentrierte, haben sich die umfassenderen und folgenreicheren Kosten der Konfrontation – sowohl militärischer als auch wirtschaftlicher Art – allmählich herauskristallisiert.
Neben den gegenseitigen Schlägen mehren sich die Anzeichen für eine rasche Erschöpfung der hochwertigen Raketenabwehrsysteme, den umfangreichen Einsatz teurer strategischer Munition und die zunehmende operative Belastung der US-Streitkräfte.
Verluste des US-Militärs und operative Kosten
Die ersten Tage der Konfrontation mit dem Iran unterschieden sich deutlich von früheren US-Militäreinsätzen in der Region. Anstatt von sicheren, weitgehend vor Vergeltungsmaßnahmen geschützten Stellungen aus zu operieren, sah sich Washingtons regionale Truppenpräsenz anhaltenden Raketen- und Drohnenangriffen ausgesetzt. Diese Entwicklung hatte sowohl materielle Konsequenzen als auch strategische Auswirkungen.
Berichten zufolge erlitten die US-Streitkräfte in der ersten Kampfwoche sowohl direkte als auch indirekte Verluste. Dazu zählten ein erhöhter Verbrauch teurer Abfangraketen, Beschädigungen oder Störungen von Radaranlagen sowie Angriffe auf militärische Einrichtungen, die Teile des US-Frühwarnsystems beeinträchtigten.
Laut regionalen Sicherheitsanalysen und Schätzungen westlicher Medien belief sich der Wert der beschädigten US-Militärausrüstung in der Anfangsphase der Konfrontation auf mehrere Milliarden Dollar . Strategische Radaranlagen, Raketenabwehrsysteme und wichtige Stützpunkte im Persischen Golf und in Jordanien wurden Berichten zufolge Ziel von Raketen- und Drohnenangriffen.
Zu den Vorfällen, die besondere Aufmerksamkeit erregten, zählten Berichte über den Treffer oder die Außerbetriebnahme eines AN/TPY-2- Radars, das mit dem THAAD-Raketenabwehrsystem auf dem Luftwaffenstützpunkt Muwaffaq Salti in Jordanien verbunden ist. Das Radar, dessen Wert auf rund 300 Millionen US-Dollar geschätzt wird, ist eine Schlüsselkomponente des US-Frühwarnsystems zur Erkennung und Abwehr ballistischer Raketen.
Weitere Berichte – darunter Behauptungen über visuelles Material, die in regionalen Medien kursierten – legten nahe, dass iranische Angriffe Radaranlagen, Kommunikationseinrichtungen und US-Militärinfrastruktur in Katar, den Vereinigten Arabischen Emiraten, Bahrain, Kuwait und Saudi-Arabien zum Ziel hatten .
Im Luftraum kamen zudem Berichte auf, wonach drei F-15E Strike Eagle-Kampfflugzeuge über Kuwait bei einem mutmaßlichen Eigenbeschuss inmitten intensiver regionaler Luftoperationen verloren gingen. Weitere Berichte wiesen auf Verluste unter US-Personal nach Angriffen auf Stützpunkte in Kuwait in den ersten Kampftagen hin.
Belastung der Raketenabwehr und Druck auf die Raketenbestände
Eines der deutlichsten Anzeichen für die militärische Belastung ist der verstärkte Einsatz strategischer Luftverteidigungssysteme, insbesondere des THAAD-Systems (Terminal High Altitude Area Defense). Analysten, die mit US-Raketenabwehrprogrammen befasst sind, schätzen die Kosten einer einzelnen THAAD-Abfangrakete auf 12 bis 15 Millionen US-Dollar.
In Phasen intensiven Raketenbeschusses können innerhalb kürzester Zeit Dutzende Abfangraketen gestartet werden. Dies kann innerhalb weniger Tage zu Ausgaben in dreistelliger Millionenhöhe führen . Die THAAD-Batterie selbst zählt zu den teuersten Luftverteidigungssystemen der Welt; die geschätzten Kosten für eine einzelne Einheit belaufen sich auf 1,5 bis 2 Milliarden US-Dollar .
Der rasche Rückgang der Abfangraketenbestände stellt eine strategische Herausforderung dar. Die Produktionskapazitäten sind weiterhin begrenzt, und die Herstellungszeiten für neue Raketen können sich über mehrere Jahre erstrecken. Ein andauernder Konflikt birgt daher das Risiko, Lücken in der Verteidigungsabdeckung nicht nur in Westasien, sondern auch in anderen Einsatzgebieten der US-Streitkräfte zu hinterlassen.
Die Situation wird noch komplexer, wenn verbündete Staaten zusätzliche Abfangjäger anfordern. Die Regierungen der Golfstaaten, die stark auf die US-Luftverteidigungsunterstützung angewiesen sind, haben Berichten zufolge Besorgnis über die sinkenden Lagerbestände geäußert , was zu dringenden Beschaffungsgesprächen und zusätzlichen finanziellen Zusagen geführt hat.
Die AP zitierte zudem regionale Beamte, die ihre Besorgnis darüber äußerten, dass die USA dem Schutz ihrer eigenen Streitkräfte und Israels Priorität einräumten, während verbündete Staaten zunehmenden Bedrohungen aus der Luft ausgesetzt seien. Sicherheitsanalysen warnten davor , dass das derzeitige Tempo der Raketenabwehr sich als nicht nachhaltig erweisen könnte, da die Produktionsraten für fortschrittliche US-Abfangsysteme den Bedarf in den gleichzeitig laufenden Konflikten, einschließlich der Verpflichtungen im Zusammenhang mit der Ukraine, kaum decken können.
Radaranfälligkeit und Herausforderungen bei der Frühwarnung
Abgesehen vom Einsatz von Abfangjägern hat die Konfrontation die Aufmerksamkeit auf die Verwundbarkeit der Radarsysteme gelenkt, die das Rückgrat der US-amerikanischen Überwachungs- und Frühwarnarchitektur in der Region bilden.
Beschädigungen an Frühwarnanlagen können die Reaktionszeiten verlängern und die Abfangplanung erschweren. Unbestätigten Berichten zufolge soll sich Israels Frühwarnzeit deshalb von acht auf vier Minuten verkürzt haben.
In hochintensiven Konfliktsituationen können selbst geringfügige Verkürzungen der Vorwarnzeit die Wahrscheinlichkeit erfolgreicher Angriffe auf strategische Ziele erhöhen. Der Bedarf an Reparatur oder Ersatz beschädigter Systeme trägt zusätzlich zu steigenden Einsatzkosten bei.
US-Stützpunkte und anvisierte Einrichtungen
Angriffe auf US-Stützpunkte in der gesamten Golfregion haben die veränderten Realitäten der regionalen Militärstrategie Washingtons deutlich gemacht. Einrichtungen, die einst relativ sicher operierten, sind nun einer ständigen Bedrohung ausgesetzt.
Die Einrichtungen im gesamten Persischen Golf erfüllen unterschiedliche, aber miteinander verbundene strategische Funktionen. In Katar beherbergt der Luftwaffenstützpunkt Al-Udeid wichtige Kommandoinfrastruktur und Frühwarnsysteme mit großer Reichweite, darunter Radarsysteme für ballistische Raketenabwehrprogramme im Wert von mehreren hundert Millionen Dollar.
In den Vereinigten Arabischen Emiraten bilden die von den USA betriebenen Raketenabwehrstellungen mit THAAD-Batterien eine zentrale Ebene der regionalen Luftverteidigungsarchitektur. In Bahrain spielen Satellitenkommunikationsanlagen, die mit der 5. US-Flotte verbunden sind , eine wesentliche Rolle bei der Koordinierung von Marineoperationen und der Aufrechterhaltung sicherer militärischer Kommunikation.
In Kuwait bilden wichtige Einrichtungen wie der Luftwaffenstützpunkt Ali al-Salem, Camp Arifjan und Camp Buehring das logistische Rückgrat für den Einsatz der US-Streitkräfte. Die Investitionen in die Infrastruktur belaufen sich insgesamt auf Milliarden von Dollar. Daher hat die gezielte Zerstörung oder der Ausfall dieser Anlagen strategische Auswirkungen, die weit über unmittelbare materielle Schäden hinausgehen.
Wiederholte Angriffe oder erhöhte Alarmbereitschaft erzwingen zudem die Verteilung von Flugzeugen und Ausrüstung, was die Instandhaltung erschwert und die Koordination der Befehlsgewalt komplizierter macht. Mit der Zeit tragen diese Belastungen zu einem kumulativen Verschleiß bei, selbst wenn keine katastrophalen Verluste auftreten.
Die Kosten für strategische Munition und Luftoperationen
Die militärischen Verluste beschränkten sich nicht auf Verteidigungssysteme. Offensivoperationen stützten sich maßgeblich auf teure Präzisionswaffen und moderne Flugzeuge.
Die Kosten für Tomahawk -Marschflugkörper, die bei Langstreckenangriffen eingesetzt werden, werden auf jeweils rund 2 Millionen US-Dollar geschätzt. Ihr wiederholter Einsatz im Rahmen längerer Operationen kann erhebliche finanzielle Belastungen verursachen.
Die Betriebskosten von Flugzeugen variieren je nach technologischer Komplexität. Tarnkappenbomber wie die B-2 Spirit verursachen aufgrund des hohen Wartungsaufwands und der spezialisierten Unterstützungssysteme Kosten von über 130.000 US-Dollar pro Flugstunde.
Moderne Kampfflugzeuge wie die F-22 und F-35 verursachen stündliche Kosten in Höhe von Zehntausenden, während Plattformen wie die F-15E, F-16 und A-10 ebenfalls erhebliche logistische und Treibstoffressourcen benötigen.
Die Unterstützung durch Flugzeuge erhöht die Ausgaben zusätzlich. Luftbetankungsmissionen mit KC-135-Tankflugzeugen und schwere Transportoperationen mit C-17-Flugzeugen sind weiterhin unerlässlich, um die hohe Einsatzfrequenz über längere Kampagnen hinweg aufrechtzuerhalten.
Marineeinsätze und Kosten für Kampfgruppen
Marineoperationen stellen eine weitere große finanzielle Belastung dar. US-Flugzeugträger werden typischerweise als Teil von Flugzeugträgerkampfgruppen eingesetzt, die aus Zerstörern, Kreuzern, U-Booten und Logistikschiffen bestehen.
Schätzungen der US-Finanzbehörden und des Kongresses zufolge können die Betriebskosten eines einzelnen Flugzeugträgers unter normalen Bedingungen zwischen 6 und 8 Millionen US-Dollar pro Tag liegen. Bei Einbeziehung der gesamten Kampfgruppe können die täglichen Betriebskosten während Kampfeinsätzen auf 10 bis 13 Millionen US-Dollar steigen. Längere Einsätze von Wochen oder Monaten bedeuten daher erhebliche Budgetbelastungen.
Wirtschaftliche Auswirkungen und Marktvolatilität
Erste Schätzungen deuten darauf hin, dass die Konfrontation sich rasch zu einer bedeutenden wirtschaftlichen Herausforderung für Washington entwickelt. Analysten warnen, dass die täglichen Ausgaben , getragen von den US-Steuerzahlern, bei Fortsetzung des aktuellen Tempos fast eine Milliarde Dollar erreichen könnten.
Einigen Einschätzungen US-amerikanischer Medien zufolge verursachten die Militäroperationen in den ersten Kampftagen Kosten in Höhe von mehreren Milliarden Dollar, vor allem durch Munitionsverbrauch, Truppenverlegungen und Verstärkungsmaßnahmen.
Das Pentagon steht zudem unter zunehmendem finanziellen Druck aufgrund der raschen Erschöpfung der Raketen- und Munitionsbestände. Berichten zufolge wurden in der Anfangsphase des Krieges Präzisionswaffen und strategische Raketen im Wert von Milliarden Dollar eingesetzt, was in Washington Diskussionen über die Notwendigkeit zusätzlicher Mittel des Kongresses zur Aufrechterhaltung der Operationen und zum Wiederaufbau der Reserven auslöste.
Über die direkten Militärausgaben hinaus haben die Spannungen im Persischen Golf begonnen, die Weltwirtschaft und die Energiemärkte zu beeinträchtigen . Die Befürchtung einer Unterbrechung der Öllieferungen durch die Straße von Hormus hat zu steigenden Rohölpreisen beigetragen, während die Benzinpreise in den USA in Eskalationsphasen innerhalb kurzer Zeiträume angestiegen sind. Höhere Energiekosten belasten Transport, Industrieproduktion und die Konsummärkte insgesamt.
Die Finanzmärkte reagierten ebenfalls stark auf die geopolitische Unsicherheit. An der Wall Street kam es in den ersten Kriegstagen zu erheblichen Kursschwankungen, wobei die wichtigsten Indizes aufgrund der Sorgen der Anleger über steigende Ölpreise und die zunehmenden Konfliktrisiken Verluste verzeichneten . Schätzungen zufolge vernichteten die Markteinbrüche in diesem Zeitraum fast eine Billion US-Dollar an Marktkapitalisierung von US-Unternehmen.
Laut Finanzberichten flossen innerhalb einer Woche Dutzende Milliarden Dollar aus US-Aktienfonds ab, da Anleger in sichere Anlagen wie Gold und Staatsanleihen flüchteten. Dieses Muster spiegelt eine erhöhte Risikoaversion in Zeiten geopolitischer Krisen wider, insbesondere wenn diese mit Energiepreisschocks einhergehen, die die Unternehmensrentabilität und das Wirtschaftswachstum gefährden.
Finanzinstitute warnen davor , dass ein länger andauernder Konflikt zu stärkeren Kursschwankungen an den US-Märkten führen könnte. Anhaltende Ölpreissteigerungen aufgrund von Lieferengpässen im Persischen Golf könnten den Inflationsdruck erhöhen, die geldpolitischen Entscheidungen der US-Notenbank beeinflussen und Branchen wie Fluggesellschaften, Transport und das verarbeitende Gewerbe belasten.
Ein kostspieliger Ausdauertest
Zusammengenommen deuten diese militärischen und wirtschaftlichen Indikatoren darauf hin, dass sich die Konfrontation mit dem Iran zu einem langwierigen Abnutzungskrieg ausweiten könnte. Die Angriffe auf kostspielige Radarsysteme, Raketenabwehrsysteme und wichtige Stützpunkte verdeutlichen die finanzielle und strategische Belastung, die mit einer anhaltenden Eskalation einhergeht.
Für Washington geht die Herausforderung über die Ergebnisse auf dem Schlachtfeld hinaus. Es geht darum, die industrielle Kapazität, die finanziellen Ressourcen und die politische Unterstützung langfristig zu sichern. In modernen Konflikten prägt die Ausdauer – sowohl die wirtschaftliche als auch die militärische – zunehmend den Verlauf und den potenziellen Ausgang eines Krieges.
Merkels Stasi-Akten bleiben unter Verschluss: Was hat die Ex-Kanzlerin zu verbergen?
16 Jahre lang regierte sie Deutschland, lenkte die Geschicke von Millionen Menschen – doch wenn es um ihre eigene DDR-Vergangenheit geht, wird gemauert. Ein Urteil des Berliner Verwaltungsgerichts zementiert nun die Mauer des Schweigens: Die Stasi-Akten von Ex-Kanzlerin Angela Merkel (CDU) bleiben streng geheim! Das von Steuerzahlern finanzierte Stasi-Unterlagen-Archiv muss nicht einmal verraten, ob überhaupt Dokumente über sie existieren.
Auch heute noch ist die Aufklärung über die Verstrickungen Angela Merkels mit der DDR-Diktatur ein Thema, das die Bürger interessiert. Auf Akteneinsicht geklagt hatte der Ex-FDP-Politiker und Gründer der Good Governance Gewerkschaft, Marcel Luthe. Wie Apollo News berichtet, will er für ein Buchprojekt wissen: Wie tief steckte “Dr. Angela Merkel, geb. Kasner” wirklich im System aus MfS, SED und FDJ? Doch die Behörde blockt ab – mit Standardfloskeln. Und die Berliner Justiz, die spielt brav mit. Der Datenschutz der mächtigsten Frau der jüngeren deutschen Geschichte wiegt für das Gericht schwerer als das Recht der Öffentlichkeit auf die Wahrheit.
Es geht um hochbrisante Fragen: Welche Rolle spielte Merkel beim “Demokratischen Aufbruch”? Und vor allem: War sie am Zentralinstitut für Physikalische Chemie wirklich “FDJ-Sekretärin für Agitation und Propaganda” – also ein wichtiges Rädchen in der ideologischen Gehirnwäsche der DDR? Merkel selbst streitet das bis heute ab, behauptet, sie habe sich lediglich um “Kultur” gekümmert.
Doch anstatt Licht ins Dunkel zu bringen, wischt der Vorsitzende Richter Jens Tegtmeier diese zentrale Frage einfach vom Tisch. Seine abenteuerliche Begründung: Selbst als Agitprop-Sekretärin sei Merkel damals keine “Person der Zeitgeschichte” gewesen. Eine Akteneinsicht wurde kategorisch abgelehnt! Das Gericht weigerte sich sogar, die Akten vertraulich anzufordern, um sich selbst ein Bild zu machen. Man will offenbar gar nicht erst wissen, was in den Archiven schlummert.
Besonders brisant und völlig ungeklärt bleibt ein Vorfall aus dem Jahr 1981. Bei der Rückreise aus Polen filzte der DDR-Zoll Merkels Gepäck. Der Fund: eine Zeitschrift der verbotenen Gewerkschaft Solidarność, ein Solidarność-Abzeichen und Fotos eines Denkmals. Jeder, der die DDR erlebt hat, weiß: Für normale Bürger hätte das den sofortigen Weg in den Stasi-Knast bedeutet. Solidarność war der absolute Staatsfeind des Ostblocks. Doch was passierte mit Angela Merkel? Nichts. Die Gegenstände wurden beschlagnahmt, und sie durfte völlig unbehelligt weiterreisen.
Warum diese unfassbare Schonbehandlung? War Merkel eine “Begünstigte” der Stasi? Das Stasi-Unterlagen-Gesetz sieht vor, dass für Begünstigte – also Personen, die vom MfS bei der Strafverfolgung geschont wurden – weniger strenge Datenschutzregeln gelten. Klägeranwalt Marcel Templin brachte es auf den Punkt: Es ist völlig absurd zu glauben, dass der paranoide Stasi-Apparat über einen derart heiklen Vorgang keinen Vermerk angelegt hat. Doch Richter Tegtmeier blockte auch hier ab. Es gebe “keine ausreichenden Anhaltspunkte” für eine Begünstigung. Einen Beweisbeschluss gab es nicht. Das Urteil stand offenbar schon fest. Die Berufung wurde vom Gericht gar nicht erst zugelassen.
Marcel Luthe will diesen Justiz-Skandal nicht auf sich sitzen lassen. Er kündigte an, alle rechtlichen Mittel auszuschöpfen und die Zulassung der Berufung zu erzwingen. Und Angela Merkel selbst? Die Ex-Kanzlerin hüllt sich in Schweigen. Eine Anfrage, ob sie einer freiwilligen Herausgabe der Akten zustimmen würde, um endlich für Transparenz zu sorgen, ließ ihr Büro bislang unbeantwortet. Die Frage bleibt im Raum stehen: Wenn es in den Akten nichts Schlimmes zu finden gibt – warum wehrt man sich dann mit Händen und Füßen gegen ihre Veröffentlichung?
Der Westen führt Krieg – China gestaltet seine Zukunft

Nach einer Woche Sitzungszeit endeten in China die beiden Kongresse, der Kongress der Politischen Konsultativkonferenz des Chinesischen Volkes PKKCV sowie des Nationale Volkskongress NVK. Durch Diskussion und Beschluss des 15. Fünfjahresplans gibt sich China die Entwicklungsziele der Periode 2026-2030 und für uns ist es das Fenster in die Zukunft Chinas. Die Fünfjahrespläne, die erfolgreich die Entwicklungslinien […]
Der Beitrag Der Westen führt Krieg – China gestaltet seine Zukunft erschien zuerst unter tkp.at.
Veto von Polens Präsident Nawrocki gegen die Teilnahme am EU-Verteidigungskredit

Der polnische Präsident Karol Nawrocki gab in einer Fernsehansprache an die Nation bekannt, dass er sein Veto gegen ein Gesetz eingelegt hat, das Polen den Zugang zu einem Kredit in Höhe von 44 Milliarden Euro aus dem Programm „Sicherheitsmaßnahmen für Europa“ (SAFE) der Europäischen Union ermöglichen würde. Das Gesetz, mit dem die Freigabe der Mittel […]
Der Beitrag Veto von Polens Präsident Nawrocki gegen die Teilnahme am EU-Verteidigungskredit erschien zuerst unter tkp.at.
Krieg, Cyberangriffe, „Schläferzellen“ – was das bald für jeden einzelnen Bürger bedeuten könnte
Der Krieg im Nahen Osten hat eine neue Dimension erreicht. Neben Raketen, Drohnen und Tankerangriffen rückt nun ein Begriff immer stärker in den Mittelpunkt der öffentlichen Debatte: iranische Schläferzellen.
Trump sprach aktuell auch davon und das er informiert ist.
In den vergangenen Tagen warnten Politiker, Geheimdienstquellen und Medien zunehmend vor möglichen Netzwerken, die im Westen aktiviert werden könnten. Der Begriff, der lange nur in Sicherheitsanalysen auftauchte, ist plötzlich Teil der täglichen Nachrichten geworden. Hier, hier.
Passend: Der Krieg wurde gerade ausgeweitet
Solche Warnungen haben Konsequenzen. Sobald Sicherheitsbehörden öffentlich über mögliche Schläferzellen sprechen, steigt automatisch der Druck, präventive Maßnahmen zu verstärken. Mehr Überwachung, mehr Datenauswertung und mehr Kontrolle digitaler Kommunikation werden dann häufig als notwendige Schritte dargestellt, um potenzielle Angriffe zu verhindern.
Gleichzeitig zeigt die Geschichte moderner Sicherheitsstaaten ein wiederkehrendes Muster: Große Bedrohungsszenarien führen oft zu dauerhaft erweiterten Befugnissen für Behörden. Nach den Anschlägen vom 11. September wurden weltweit Anti-Terror-Gesetze verschärft, Überwachungsprogramme massiv ausgeweitet und Geheimdiensten neue Möglichkeiten zur Datensammlung eingeräumt. Kommt daher bald wieder eine False flag?
Heute könnte eine ähnliche Dynamik entstehen – allerdings unter ganz anderen technologischen Bedingungen. Während früher Telefonüberwachung und Datenspeicherung im Mittelpunkt standen, rücken nun digitale Identitätssysteme, zentrale Datenbanken und Echtzeit-Überwachung digitaler Netzwerke stärker in den Fokus.
Befürworter argumentieren, dass solche Instrumente notwendig sind, um moderne Bedrohungen zu bekämpfen. Wenn Staaten davon ausgehen, dass sich potenzielle Angreifer innerhalb ihrer Gesellschaft bewegen könnten, erscheint eine eindeutig identifizierbare digitale Infrastruktur aus Sicht vieler Sicherheitsstrategen als logische Lösung.
Kritiker sehen darin jedoch eine mögliche Verschiebung der gesellschaftlichen Balance. Sie warnen davor, dass Sicherheitskrisen den politischen Raum schaffen könnten, um Systeme einzuführen, die weit über ihre ursprüngliche Begründung hinausreichen. Digitale Identitätssysteme könnten zu zentralen Zugangsschlüsseln für Finanzsysteme, staatliche Dienstleistungen, Kommunikation oder Reisen werden.
In diesem Kontext wird auch die Frage gestellt, wie mit Menschen umgegangen wird, die sich solchen Systemen entziehen wollen. In Zeiten erhöhter Bedrohung könnten Bürger ohne digitale Identitätsstruktur schneller ins Visier von Sicherheitsbehörden geraten oder zumindest stärker überprüft werden.
Solche Dynamiken sind in Krisen nicht neu. Während der COVID-19-Pandemie entstand in vielen Ländern ein stark polarisiertes Klima, in dem Menschen ohne Impfung teilweise als Gefahr für andere dargestellt wurden. Für manche Beobachter zeigt diese Erfahrung, wie schnell gesellschaftlicher Druck entstehen kann, wenn Sicherheit oder Gesundheit zur zentralen politischen Begründung wird. Du hast keine digitale-ID du bist ein Terrorist?
Ein weiterer Aspekt, der in solchen Debatten immer wieder auftaucht, ist die Sorge vor politischer Instrumentalisierung von Krisen. Historische Beispiele verdeckter Operationen oder Täuschungsmanöver werden von Kritikern häufig genannt, wenn sie davor warnen, dass Bedrohungen auch genutzt werden könnten, um politische Maßnahmen schneller durchzusetzen. Belege für solche Szenarien in der aktuellen Situation gibt es jedoch nicht.
Fest steht dennoch: Wenn der Begriff „Schläferzellen“ in den politischen und medialen Diskurs einzieht, verändert sich die Sicherheitsdebatte automatisch. Denn er erzeugt das Bild einer unsichtbaren Bedrohung innerhalb der eigenen Gesellschaft.
Und genau solche Bedrohungsbilder haben in der Vergangenheit oft den politischen Raum geschaffen, in dem neue Sicherheitsstrukturen entstanden sind.
Matthias Helferich (AfD): „Wiedereröffnung des russischen Pavillons auf der Biennale ist Zeichen der Völkerverständigung!“

Die EU werde die Finanzierung der Kunstausstellung Biennale in Venedig einstellen, sollte Russland seinen Pavillon bei der diesjährigen Ausgabe wiedereröffnen. Das hat ein Sprecher der EU-Kommission bekräftigt. Der AfD-Bundestagsabgeordnete Matthias Helferich, Mitglied im Ausschuss für Kultur und Medien, weist die Drohungen aus Brüssel scharf zurück.
Helferich betonte: „Die Kunstbiennale in Venedig sollte an der Wiedereröffnung des russischen Pavillons festhalten. Gerade in Kriegszeiten müssen Institutionen wie die Biennale Kanäle des künstlerischen Austausches aufrechterhalten. Auch die Kunst kann die Basis für Streit, Kritik und im besten Falle sogar Diplomatie und Frieden bilden.“
Die AfD-Fraktion fordere die Bundesregierung deshalb auf, sich auf diplomatischem Wege dafür einzusetzen, „dass die Drohgebärden aus Brüssel eingestellt werden und der russische Pavillon als Zeichen der Völkerverständigung wiedereröffnet werden kann.“
The post Matthias Helferich (AfD): „Wiedereröffnung des russischen Pavillons auf der Biennale ist Zeichen der Völkerverständigung!“ appeared first on Deutschland-Kurier.
Iran-Eskalation: Mullah-Regime droht mit Inferno und globalem Öl-Schock!
Die Lage im Nahen Osten droht völlig außer Kontrolle zu geraten. Das radikale Mullah-Regime im Iran spricht eine extreme Drohung gegen den Westen aus: Sollten iranische Öl-Anlagen angegriffen werden, werde man die gesamte Energie-Infrastruktur am Golf in ein flammendes Inferno verwandeln. Ein Horror-Szenario für die Weltwirtschaft!
Die Islamischen Revolutionsgarden (IRGC) – die Terror-Truppe der Mullahs – ließen am Donnerstag über das Staatsfernsehen eine unmissverständliche Warnung verlauten. Jeder Angriff auf iranische Energieanlagen oder Häfen werde eine “vernichtende und verheerende Antwort” nach sich ziehen. Die irre Drohung aus Teheran: Man werde sämtliche Öl- und Gasanlagen der USA und ihrer westlichen Verbündeten in der Region “in Brand setzen und zerstören”.
Hintergrund ist der immer weiter eskalierende Konflikt zwischen dem Iran, den USA und Israel. Schon jetzt terrorisieren iranische Truppen die internationale Schifffahrt in der Straße von Hormus mit Raketen und Drohnen. Sie blockieren damit eine der wichtigsten Lebensadern der globalen Energieversorgung.
Gleichzeitig wendet sich das Regime mit markigen Worten direkt an US-Präsident Donald Trump. Der iranische Top-Sicherheitsberater Ali Laridschani warf Trump eine “schwere Fehleinschätzung” vor, weil dieser den Konflikt initiiert habe. Auf der Plattform X tönte Laridschani: “Einen Krieg zu beginnen ist einfach, aber man kann ihn nicht mit ein paar Tweets gewinnen.” Die Mullahs, so die Drohung, würden erst ruhen, wenn Trump seine Entscheidungen bereut. Garniert wurde der Post mit dem Hashtag #TrumpMustPay (Trump muss zahlen).
Doch die USA lassen sich von den islamistischen Terror-Paten in Teheran offenbar nicht einschüchtern und schlagen mit beispielloser Härte zurück. Das US-Zentralkommando (CENTCOM) meldet beeindruckende Zahlen: Seit Beginn des Konflikts haben amerikanische Streitkräfte bereits mehr als 5.500 Ziele im Iran unter Feuer genommen und pulverisiert, darunter über 60 Schiffe.
Sollten die Mullahs ihre Drohungen wahrmachen, könnten die Ölpreise die Marke von 200 Dollar (also dem doppelten Preisniveau von heute) überschreiten. Die Zerstörung der Ölinfrastruktur auf der Arabischen Halbinsel durch iranische Drohnen und Raketen würde für langfristige Disruptionen auf den Energiemärkten führen. Andere wichtige Förderländer können nämlich die Produktionsausfälle der Golfaraber nicht ausreichend kompensieren, da die Ausweitung der eigenen Ölförderung Monate braucht.
Wie viel Batterieparks sind nötig, um Deutschland mit Strom zu versorgen?
Allein mit immer mehr Windkraft- und Solaranlagen ist eine durchgehende Stromversorgung nicht möglich. Die Lösung sollen Batterieparks sein. Mit gut 25 GWh ist ein Anfang gemacht. Das garantiert aber nur eine landesweite Versorgung von wenigen Minuten – wenn sie voll geladen sind. Was wäre also nötig, um Deutschland ausreichend zu versorgen?
Von Maurice Forgeng
Die deutsche Energiewende hat ein windiges Problem: Durch die starke Priorisierung von Windkraft- und Solaranlagen ist unsere Energieerzeugung zu einem nicht vernachlässigbaren Anteil wetterabhängig geworden.
Es gibt Zeiten, in denen die Wetterbedingungen gut sind, wo viel Wind weht und die Sonne scheint. Dann können diese erneuerbaren Energien viel Strom bereitstellen, teilweise mehr, als das Land gerade benötigt. In so einem Fall müssen die Netzbetreiber den überschüssigen Strom entweder günstig oder zu Minuspreisen an andere Länder abgeben.
Falls das nicht reicht, müssen sie Windräder oder Solaranlagen drosseln oder komplett abschalten. Diese Drosselungen haben im vergangenen Jahr einen neuen Rekordwert erreicht.
Im Gegensatz dazu gibt es Zeiten, in denen die Erneuerbaren zu wenig oder keinen Strom produzieren. Im Extremfall ist hier von einer sogenannten Dunkelflaute die Rede. Dann ist Deutschland auf Importstrom von Nachbarländern angewiesen.

Stromerzeugung nach Kraftwerksarten (bunt) und -verbrauch (schwarze Linie) in Deutschland vom 11. bis 17. August 2025.
Foto: energy-charts.info/Fraunhofer ISE, Bearbeitung: mf/Epoch Times
Hoffen auf mehr Großspeicher
Pumpspeicherkraftwerke können die Differenz zwischen Überschuss- und Mangelzeiten in gewissem Umfang ausgleichen. Bei Stromüberschuss befördern Pumpen Wasser in einen höhergelegenen Speichersee, was Strom verbraucht. Bei Strommangel fließt das Wasser wieder hinab, wobei die Anlagen Strom abgeben.
Deren Gesamtkapazität ist deutschlandweit auf knapp 10 Gigawatt (GW) an Leistung begrenzt. Diese ist nicht ständig komplett verfügbar. Wenn ein Speichersee voll oder leer ist, kann er nicht weiter befüllt beziehungsweise entleert werden.
Hoffnung geben soll der seit wenigen Jahren anhaltende Boom der Batteriespeicher. Laut dem Portal „Battery-Charts“ ist hierzulande eine Gesamtkapazität von knapp 26 Gigawattstunden (GWh) in Betrieb. Diese bestehen überwiegend aus Heimspeichern in Privathaushalten (20,2 GWh), Gewerbespeichern (1,3 GWh) und Großspeichern (4,3 GWh).

Der Anstieg der Speicherkapazität in Deutschland von Januar 2020 bis Februar 2026.Foto: Battery Charts, CC BY 4.0
Relevant bei Batterien ist neben der Kapazität auch ihre Leistung. Aktuell bringen es alle hierzulande in Betrieb befindlichen Batteriesysteme auf rund 17,1 GW. Das entspricht rund einem Drittel des sommerlichen Strombedarfs von Deutschland in Höhe von rund 50 GW. Alle vorhandenen Batterien könnten also ein Drittel Deutschlands für rund 1,5 Stunden mit Strom versorgen können.
Allerdings sind derzeit nur die Großspeicher wirklich netzdienlich. Sie können – ebenfalls für rund 1,5 Stunden – rund 2,8 GW der Netzlast abdecken. Das entspricht einem Anteil von etwas über 5 Prozent des deutschen Sommerstrombedarfs. Gewerbe- und Heimspeicher sind nur bedingt netzdienlich, da sie vielmehr auf das individuelle Verbrauchsverhalten ihrer Betreiber ausgerichtet sind.
Die aktuellen Kapazitäten reichen somit keinesfalls, um die Stromüberschüsse mit den Mangelphasen im deutschen Netz in vollem Umfang zu harmonisieren. Welche Kapazität und Leistung wären nötig, um das zu schaffen und um mit den Erneuerbaren autark zu werden? Autark bedeutet hier, dass die Bundesrepublik nicht mehr auf Strom aus dem Ausland oder von fossilen Kraftwerken angewiesen wäre – und ebenso keinen Überschussstrom abstoßen müsste.
60 Millionen Tonnen Batterie für zehn Tage Strom
Um der Antwort auf diese Frage näherzukommen, hat Staffan Reveman, Autor, Redner und Berater in energieintensiven Branchen, eine Rechnung aufgestellt. Im Sommer liegt der durchschnittliche Strombedarf hierzulande bei rund 50 GW, im Winter bei rund 60 GW, wobei die Spitzenwerte rund 80 GW betragen. Die ebenfalls angestrebte Elektrifizierung wird diese Werte sommers wie winters steigen lassen.
Reveman rechnete dennoch nur mit dem Sommerschnitt von 50 GW. Um diese Leistung über 12 Stunden abgeben zu können, sei eine Batteriekapazität von 600 GWh erforderlich, also rund dem 24-fachen der heutigen gesamten Batteriekapazität. „Eine solche ‚Deutschland-Batterie‘ wiegt bei 5 Kilogramm pro Kilowattstunde (kWh) mindestens 3 Millionen Tonnen“, so der Fachmann. Das verdeutlicht den hohen Materialbedarf, primär an Lithium.
Im Winter gewinnt der Strom aus Batterien noch mehr an Bedeutung. Bei Dunkelflauten liefern Windkraft- und Solaranlagen nur einen Bruchteil ihrer installierten Leistung. Reveman rechnet daher mit einer Überbrückungszeit von bis zu zehn Tagen. Sollen 50 GW über 240 Stunden lang bereitstehen, bedeutet das eine Speicherkapazität von 12.000 GWh. Das wäre rund das 470-fache der heutigen Batteriekapazität und rund das 2.800-fache der heutigen Großbatterien. „Eine solche Batterie wiegt mindestens 60 Millionen Tonnen“, ergänzte Reveman.
Viel zu lange Bauzeit?
Zugleich wies Reveman mehrfach darauf hin, dass eine solche „Deutschland-Batterie“ vor jeder Entladung erst neu aufgeladen werden muss. Da die deutsche Bundesregierung fossile Kraftwerke im Optimalfall künftig nicht mehr im Strommix haben möchte – die Kohleverstromung ist gesetzlich auf 2038 begrenzt – müssten die erneuerbaren Energiequellen den Strombedarf Deutschlands abdecken und entsprechend hohe Stromüberschüsse für das gleichzeitige Laden der Batterien bereitstellen. Doch es gibt ein weiteres Problem.
In den vergangenen drei Jahren gingen 6,0 bis 6,5 GWh pro Jahr an zusätzlicher Batteriekapazität in Deutschland ans Netz. Laut Reveman könnte eine große Batteriezellenfertigung, wie der chinesische Hersteller CATL in Thüringen, bis zu 14 GWh pro Jahr produzieren. „Für die Produktion der 12-Stunden-Batterie benötige die Fabrik 43 Jahre, für die Großbatterie 857 Jahre“, so Reveman.
Er fügte allerdings hinzu: „Das Traurige daran ist, dass sie nach 25 bis 30 Jahren immer wieder von vorn anfangen müssen, da die Gebrauchsdauererwartung der Batterie begrenzt ist.“ Im Laufe der Jahre verringern sich Leistung und Kapazität einer Batterie. Die meisten kennen das vom Handyakku, der nach wenigen Jahren nachlässt und ausgetauscht werden sollte. Laut Branchenkreisen könnten Batterieparks 10 bis 15 Jahre ihren Dienst leisten.
Um das Wettrennen gegen die Zeit gewinnen zu können, bräuchte es eine Vielzahl solcher Großfabriken. Angenommen, die Batterien könnten 15 Jahre im Einsatz sein, bräuchte es 57 solche Fabriken, um die 12.000 GWh zu errichten – und dauerhaft aufrechtzuerhalten. Speicherzeiten über zehn Tage hinaus, um etwas Solarstrom aus dem Sommer in den Winter mitzunehmen, sind dabei wiederum nicht Teil der Rechnung.
Reveman fügte hinzu, dass es sich bei seiner Berechnung um „eine einfache Plausibilitätsprüfung der Möglichkeiten, Batterien zum Ausgleich der schwankenden Stromerzeugung durch Photovoltaik und Wind einzusetzen“, handelt.
Simulierte Stromerzeugung für 2030
Wie würde sich nun eine große Speicherkapazität auswirken, falls genügend Batterieparks in den kommenden Jahren entstehen sollten? Hierzu bietet „Energy-Charts“ vom Fraunhofer-Institut eine Simulation der künftigen erneuerbaren Stromerzeugung an. Hier kann man das Verbrauchs- und Wettermuster einer bereits vergangenen Woche mit künftigen installierten Leistungen der Erneuerbaren kombinieren.
Im folgenden Beispiel ist das Muster vom 11. bis 17. August 2025 mit den Ausbauzielen für 2030 kombiniert. Bei angenommenen 360 GW installierter Leistung bei Windkraft und Solar fallen besonders die hohen Solarspitzen auf, die viel Strom für die Batterien bereitstellen, sofern die Netze ausreichend dimensioniert sind. Die Last ist auf 550 Terawattstunden pro Jahr gesetzt, rund 20 Prozent mehr als aktuell.

Simulierte Stromerzeugung mit dem Verbrauchs- und Wettermuster von Woche 33 aus 2025 in Kombination mit den Ausbauzielen von Windkraft und Photovoltaik für 2030.
Foto: Bildschirmfoto /energy-charts.info/Fraunhofer ISE
Bei aktiviertem „Verbrauch“ und „Erzeugung“ – besser: Stromaufnahme und -abgabe – der Batteriekapazität in der Simulation kann der solare Stromüberschuss den Strommangel der Nacht ausgleichen. Wenn allerdings die Windkraft mangels Wind kaum Strom liefert, ist dennoch eine Zusatzstromerzeugung von teils mehr als 19 GW nötig. Diese müsste durch flexibel regelbare Kraftwerke, beispielsweise Gaskraftwerke, und/oder Stromimporte erfolgen. Andererseits sind auch weiterhin Stromexporte erforderlich, um das Netz zu stabilisieren.

Simulierte Stromerzeugung von Woche 33 aus 2025 in Kombination mit den Ausbauzielen von Windkraft und Photovoltaik für 2030 sowie dem Betrieb von Batterieparks.
Foto: Bildschirmfoto /energy-charts.info/Fraunhofer ISE
Flexible Kraftwerksreserve doch unverzichtbar?
In Zeiten mit ausreichend Wind und Sonneneinstrahlung ist rechnerisch keine Zusatzstromerzeugung notwendig. Im vergangenen Jahr war dies jedoch nur selten für eine komplette Woche wie Mitte September der Fall. Zwischendurch müssten immer wieder Reservekraftwerke einspringen, um entstehende Lücken zu füllen, die über Stromimporte allein nicht zu kompensieren sind.
Andererseits wäre in fünf Jahren im Falle einer Dunkelflaute wie in der ersten Dezemberwoche 2025 eine Zusatzstromerzeugung von rund 63,5 GW nötig. Das entspräche 45 großen Kernreaktoren oder 218 durchschnittlichen Gaskraftwerken. In der Simulation ist nicht angegeben, wie hoch die Batteriekapazität ist.
Der Bedarf einer teils massiven Zusatzstromerzeugung in der Simulation lässt die Vermutung aufkommen, dass eine vollständige Versorgung nur durch Erneuerbare auch dann nicht möglich ist, wenn große Batterieparks zur Verfügung stehen. Es muss offenbar stets eine flexible Kraftwerksreserve vorhanden sein, die bei zu großer Lücke einspringt. Eine solche Lücke kann besonders im Winter entstehen, wenn der Strombedarf hoch und die Solarenergie niedrig ist.
60 GWh allein in einem Landkreis?
Eine Rechnung hierzu hat auch der Energieexperte Stefan Spiegelsperger aufgestellt – nicht für ganz Deutschland, aber für den Landkreis Traunstein im Südosten Bayerns. Diese Region soll 700 GWh pro Jahr verbrauchen.
Seiner Rechnung zufolge wären in dieser Gegend Batterien mit insgesamt rund 60 GWh Kapazität nötig, um Traunstein weitestgehend mit der Energie von Windkraft und Solar zu versorgen. Zur Erinnerung: Ganz Deutschland mit seinen rund 400 Landkreisen hat aktuell 25,5 GWh.
Die Kosten für die Kombination Solar, Windkraft und Batterie lägen für Traunstein im Großhandel bei 217 Cent pro kWh anstatt bei 6 Cent pro kWh ohne Speicher.
So viel Platz benötigen die Batterieparks
Generell benötigt ein Batteriepark mit einer Kapazität von 200 MWh rund 1 Hektar (ha) an Fläche. Die im Juni 2025 in Betrieb genommene Anlage im schleswig-holsteinischen Bollingstedt hat 238 MWh auf 1,2 ha.
Die „Deutschland-Batterie“ für 12 Stunden mit 600 GWh käme demnach auf eine Gesamtfläche von rund 3.000 ha. Für die Version, die Deutschland vollgeladen für 240 Stunden versorgen könnte, wären 60.000 ha, oder 600 Quadratkilometer, nötig. Das entspricht etwa zwei Drittel der Fläche Berlins.
Das ist eine große, aber überschaubare Fläche. Zudem ist es sinnvoll, die Speicherblöcke nicht geballt in einer Region zu errichten, sondern verteilt im ganzen Land, nahe an Verbrauchern und Kraftwerken, für möglichst kurze Leitungswege.
Mangelnde Netzstabilität vergessen?
Bei einem Strommix, der zu mindestens 80 Prozent aus Windkraft, Photovoltaik und Batterien besteht, wird jedoch häufig ein entscheidender Punkt vergessen: die Netzstabilität. Nach heutigem Stand der Infrastruktur in Deutschland wäre unser Stromnetz noch gar nicht bereit für diese Form der Energieversorgung.
Aktuell tragen große und tonnenschwere Schwungmassen in Kraftwerksturbinen zur Momentanreserve und einer ausreichenden Blindleistungssteuerung bei. Diese mechanischen Schwungmassen können Spannungs- und Frequenzschwankungen im Netz ausgleichen. Für ein ausreichend stabiles Stromnetz sollte mindestens 40 Prozent der einspeisenden Kraftwerksleistung von Anlagen mit diesen Schwungmassen stammen.
Wenn dieser Wert deutlich unterschritten wird, droht ein flächendeckender Stromausfall, wie im vergangenen Jahr in Spanien und Portugal geschehen. Die Momentanreserve lag kurz davor bei nur noch 24 Prozent.
Windkraft- und Solaranlagen haben diese Schwungmassen nicht. Sie speisen den Strom elektronisch über Wechselrichter ins Netz ein. Diese elektronisch gebildeten Sinuswellen können ungleichmäßig werden und Störungen im Netz verursachen.
Eine Lösung können sogenannte E-STATCOM-Anlagen sein. Ihr Name bedeutet Elektr(on)ischer STATischer BlindleistungsKOMpensator. Es handelt sich um einen Blindleistungskompensator mit Superkondensatoren, der Netzspannung und -frequenz automatisiert und durchgehend stabil halten soll. Derzeit ist in Deutschland nur eine solche Anlage in Betrieb. Für ein stabiles Windkraft-Solar-Batterie-Netz bräuchte es jedoch mehrere Dutzend solcher Anlagen.
Maurice Forgeng
Das Fachgebiet von Maurice Forgeng beinhaltet Themen rund um die Energiewende. Er hat sich im Bereich der erneuerbaren Energien und Klima spezialisiert und verfügt über einen Hintergrund im Bereich der Energie- und Gebäudetechnik.
Der Beitrag erschien zuerst bei EPOCHTIMES hier
Der Beitrag Wie viel Batterieparks sind nötig, um Deutschland mit Strom zu versorgen? erschien zuerst auf EIKE – Europäisches Institut für Klima & Energie.

