Kategorie: Nachrichten

Wie frei sind unsere Universitäten?
Leider ist es um die Wissenschaftsfreiheit in unserem Land schlecht bestellt – lasst uns das ändern! Angesichts zunehmender Angriffe der neuen US-Regierung auf die Wissenschaftsfreiheit der amerikanischen Universitäten1 und Bemühungen, auf Druck der Politik an deutschen Hochschulen Zivilklauseln abzuschaffen bzw. für Rüstungszwecke zu forschen2, können wir die Frage stellen: Wie frei sind eigentlich die deutschen […]
Der Beitrag Wie frei sind unsere Universitäten? erschien zuerst unter tkp.at.

Warum „billigere“ Solarenergie die Kosten steigen lässt – Teil II: Die versteckten Kosten von hauseigenen Solaranlagen
Planning Engineer (Russ Schussler)
In Teil 1 [in deutscher Übersetzung hier] haben wir gezeigt, wie die niedrigen Kosten von Wind- und Solarenergie in 80 % der Zeit von den Kosten in Spitzenzeiten überlagert werden, so dass sie keine Kostenvorteile für den Erzeugungsmix bieten. Bei der Solarenergie für Privathaushalte verhält es sich ähnlich: Sie scheint für Hausbesitzer erschwinglich zu sein, erhöht aber die Systemkosten durch Tarifstrukturen, die einen übermäßigen Anreiz für die Einführung bieten. Großzügige Subventionen, wie z. B. Net-Metering für Privatkunden, treiben das übermäßige Wachstum der Solarenergie voran, gefährden die Netzstabilität und verlagern die Kosten auf nicht-solare Kunden, die oft weniger wohlhabend sind. Weniger großzügige Tarife für Solarenergie in Privathaushalten würden jedoch die Akzeptanz verlangsamen, jedoch die Solarenergie besser mit dem Netzbedarf in Einklang bringen und für Fairness und Nachhaltigkeit sorgen.
Das wirtschaftliche Problem: Kostenverschiebung durch Tarifstrukturen
Es ist schwer zu verstehen, warum viele die Ungerechtigkeit der Tarifstrukturen nicht erkennen, da ähnliche Regelungen in anderen Branchen absurd erscheinen würden. Stellen Sie sich vor, Hotels müssten Zimmer für alle Kunden (zu Standardtarifen) bereithalten, nur für den Fall, dass diese sie „vielleicht“ brauchen. Noch schlimmer wäre es, wenn die Hotels bei geringer Auslastung ihre Gäste auf die Airbnb-Immobilien ihrer Kunden verweisen müssten, wenn es überschüssige Zimmer gibt. Oder denken Sie an die Pizzaketten, die gezwungen sind, in Zeiten geringer Auslastung überschüssige Pizzen von Restaurants zu kaufen, während sie in Spitzenzeiten günstige Pizzen liefern und alle Kosten für Abholung und Lieferung übernehmen. In all diesen Fällen besteht das Hauptproblem darin, dass große Infrastrukturinvestitionen erforderlich sind, die die meiste Zeit ungenutzt bleiben und von den Nutznießern nur unzureichend ausgeglichen werden.
Wie Solartarif-Strukturen für Privatkunden funktionieren
Solarsysteme für Privathaushalte, die in der Regel an Net Metering gebunden sind, ermöglichen es Hausbesitzern, Strom auf eine Weise zu erzeugen und zu verkaufen, die kosteneffizient erscheint:
– Deckung des Eigenbedarfs: Solarmodule produzieren in sonnigen Zeiten mit geringer Nachfrage (z. B. in der Mittagszeit im Frühjahr), so dass die Hausbesitzer keine Gebühren für den Stromversorger zahlen müssen. Bei diesen Gebühren handelt es sich in der Regel um einen Pauschalbetrag, der auf den Durchschnittskosten basiert. (Hinweis: Das Energieversorgungsunternehmen zahlt sie zurück, wenn die Module nicht genug Strom erzeugen).
– Verkauf von überschüssigem Strom: Überschüssiger Strom wird in das Netz eingespeist und zu je nach Bundesland unterschiedlichen Tarifen vergütet. In der Regel übersteigen diese Zahlungen den Wert der Energie für das Versorgungsunternehmen in Zeiten geringer Nachfrage.
– Schwere Belastungen: Nachts, an bewölkten Tagen oder bei Spitzenbedarf (z. B. an Sommerabenden) erzeugen die Module nur wenig Strom. Hauseigentümer kaufen Strom aus dem Netz zu Pauschaltarifen, welche die hohen Kosten von Spitzenlastkraftwerken nicht berücksichtigen.
Die heutigen Tarifstrukturen unterscheiden sich durch den Grad der Subventionierung von Solaranlagen für Privathaushalte. Hier folgen allgemeine Kategorien von Tarifstrukturen, geordnet nach der Höhe der Subventionen, von hoch bis niedrig:
– Netzeinspeisung zum Einzelhandelstarif: Solarstrom für Privathaushalte wird zum vollen Endkundentarif vergütet (~$0,20-$0,42/kWh, z. B. in Hawaii, Massachusetts, New York, New Jersey, Rhode Island). Erzielt hohe Renditen für Solarenergie für Privathaushalte (20-50% ROI) und fördert die schnelle Akzeptanz (z.B. Hawaii mit 30% Marktanteil, ~200.000 Haushalte).
– Teilweise Einzelhandel/Hybrid Net Billing: Gutschriften in Höhe von 50-80% des Einzelhandelspreises (~$0,10-$0,20/kWh, z.B. Connecticut, Vermont, Maryland, Minnesota) fördern die moderate Einführung von Solarenergie für Privathaushalte (z.B. 8% Marktdurchdringung in Vermont, ~15.000 Haushalte) bei geringerer Kostenverschiebung.
– Nettorechnung zu vermiedenen Kosten: Niedrigere Gutschriften (~$0,05-$0,08/kWh, z.B. Kaliforniens NEM 3.0, Arizona, Arkansas) verlangsamen das Wachstum.
– Großhandelstarife/abgerechnete Kosten: Minimale Gutschriften (~$0,03-$0,07/kWh, z.B. Alabama, South Dakota, Tennessee, Idaho, Kentucky) führen zu einer geringen Marktdurchdringung (0,02-1,2%, ~270-10.000 Haushalte), wodurch sich Subventionen und
Auch im Original bricht der letzte Satz einfach ab. A. d. Übers.
Ursprünglich wurden die Tarife für die Solarenergie auf der Grundlage des Einzelhandelstarifs für die Netzmessung festgelegt. Niedrigere Subventionen konnten keine ausreichende Beteiligung bewirken. Da die Beteiligung anfangs gering war, waren die geringen Subventionen für die überwältigend große Gruppe der Nichtteilnehmer nicht von Bedeutung. Je mehr Kunden sich für Solaranlagen entscheiden, desto mehr ändert sich die Wirtschaftlichkeit. Die Erfahrungen in Kalifornien zeigen, dass dieser Ansatz nicht nachhaltig ist. Kalifornien arbeitet jetzt an Version 3.0 seines Net-Metering-Konzepts, bei dem nur die vermiedenen Kosten für neue Kunden bezahlt werden. Das Net-Metering zum Einzelhandelstarif wurde unhaltbar, als die Beteiligung zunahm.
Das folgende Diagramm zeigt die Beziehung zwischen höheren Gutschriften und der daraus resultierenden Verbreitung von Solarenergie in Privathaushalten in einer Auswahl von Staaten:
Natürlich korrelieren höhere Subventionen mit einer höheren Beteiligung. Kalifornien NEM 3.0 scheint ein Ausreißer zu sein, aber es muss klar sein, dass diese Beteiligungsrate nicht auf der NEM 3.0 Tarifstruktur beruht. Die große Basis an Solaranlagen für Privathaushalte wurde auf der Grundlage der alten Politik aufgebaut, und die heutige Rentabilität wird durch die hohen Endkundentarife in der Region und die Besitzstandswahrung für bestehende Solarkunden unter den alten Tarifen unterstützt.
In einem Beitrag aus dem Jahr 2015 habe ich verschiedene Ansätze zur Kostenbeteiligung bei Solaranlagen für Privathaushalte erörtert. Es lohnt sich, diesen Beitrag noch einmal zu lesen, da er zusätzliche Informationen zu diesem Thema enthält. In diesem Beitrag wies ich darauf hin, dass bei den Modellen mit den geringsten Subventionen die Solarkunden nur die von ihnen verursachten zusätzlichen Kosten zu tragen hatten, nicht aber die gemeinsamen Systemkosten. Sollten sich private Solarkunden an den grundlegenden Systemkosten beteiligen? Die Antwort wird umso wichtiger, je höher der Anteil der privaten Solaranlagen ist. Die Verantwortung für die grundlegenden Systemkosten wird auf immer weniger Kunden verteilt. Leider sind es unverhältnismäßig viele weniger wohlhabende Verbraucher, die von den steigenden Energiekosten am stärksten betroffen sind, welche die Rechnung zahlen.
Die wirtschaftliche Belastung durch zu großzügige Tarife:
– Verlorene Einnahmen: Die Versorgungsunternehmen benötigen konstante Gebühren zur Deckung der Fixkosten (Netzleitungen, Notstromversorgung). Solareigenheimbesitzer vermeiden diese Kosten in Zeiten geringer Nachfrage, was zu geringeren Einnahmen führt.
– Überbezahlte Käufe: Hohe Gutschriften für Strom mit geringem Wert belasten die Budgets der Versorgungsunternehmen.
– Spitzenlastkosten: Spitzenzeiten verursachen hohe Kosten (Spitzenlastkraftwerke und Ausbau von Übertragung und Verteilung). Studien des National Renewable Energy Laboratory zufolge werden die Tarife für Nicht-Solarstromkunden in Gebieten mit hohem Solarstromverbrauch um 1-2 % angehoben.
Großzügige Tarifstrukturen, wie z. B. die Nettomessung für Endkunden, fördern die übermäßige Einführung von Solarenergie, wodurch die Kosten und die Ungerechtigkeit steigen. Weniger günstige Tarife, wie Kaliforniens NEM 3.0 oder South Dakotas Großhandelstarife, verringern die Akzeptanz, was richtig ist, wenn die Solarenergie den Systembedarf übersteigt.
Die ersten Net-Metering-Tarife zielten darauf ab, die Solarenergie anzukurbeln, aber ihre Kosten – verschobene Kosten und Netzrisiken – sind jetzt offensichtlich. Die Regulierungsbehörden, die der grünen Energie Vorrang einräumen, haben oft großzügige Tarife vorgeschrieben, wie bei NEM 1.0/2.0 in Kalifornien, das einen Verbreitungsgrad von 25 % erreichte, bevor die niedrigeren Tarife von NEM 3.0 das Wachstum bremsten. Vorschläge für eine faire Preisgestaltung werden oft als anti-erneuerbar bezeichnet und behindern Reformen.
Eine gängige Rechtfertigung ist, dass die Subventionierung von Solaranlagen für Privathaushalte die Preise senken und die Erschwinglichkeit erhöhen wird. Dabei wird jedoch verkannt, dass je billiger die Solarenergie für Privathaushalte wird, desto mehr unhaltbare Tarife entstehen, da weniger Nicht-Solar-Kunden übrig bleiben, um das System zu stützen.
Ein Weg voran
Solarprogramme für Privathaushalte beruhen auf Strukturen, bei denen der Strom zu hoch und die Netznutzung zu niedrig vergütet wird. Eine bessere Gestaltung würde die Anreize verringern und die Akzeptanz mit der Netzökonomie in Einklang bringen. Mögliche Optionen zur Verbesserung der Solartarife sind:
– Nutzungszeit-Tarife: Solarenergie wird während der Mittagszeit weniger zum Marktwert vergütet, und für Spitzenstrom wird mehr berechnet. Dies bremst die Akzeptanz, wie bei NEM 3.0 in Kalifornien zu sehen war (80 % Installationsrückgang).
– Zahlung vermiedener Kosten: Im Gegensatz zu Time-of-Use-Tarifen könnten die vermiedenen Kosten auf Durchschnittswerte festgelegt werden, um kostspielige Messungen und Komplexität zu vermeiden.
– Netzzugangsentgelte: Feste Gebühren stellen sicher, dass Solar-Hausbesitzer für die Zuverlässigkeit zahlen.
– Gebühren für Nachfragespitzen: Rechnungen, die auf dem Spitzenverbrauch basieren, reflektieren die tatsächlichen Kosten.
Diese Optionen fördern die Gerechtigkeit, indem sie die Subventionen von Nicht-Solarkunden zugunsten wohlhabenderer Kunden reduzieren. Der Schlüssel liegt in der Anerkennung der Kostenunterschiede zwischen dem, was Solarkunden erhalten, und dem, was sie leisten. Weniger Anreize bedeuten weniger Solarenergie, was richtig ist, wenn sie die Kosten in die Höhe treibt, wie in Staaten wie Alabama (0,7 % Marktanteil). Der politische Druck zur Förderung der Solarenergie wird sich solchen Bemühungen widersetzen.
Unter dem Strich
Schlechte Tarifgestaltung verschleiert die wahren Kosten der Solarenergie und lässt sie erschwinglich erscheinen, während die Strompreise für alle steigen. Netzentgelte für Endkunden fördern die übermäßige Nutzung von Solarenergie und verlagern die Kosten auf Nicht-Solar-Kunden. Weniger förderliche Tarife wie vermiedene Kosten oder das kalifornische NEM 3.0 verlangsamen das Solarwachstum und passen es an den Netzbedarf an. Dies sorgt für Fairness und vermeidet Kostenspiralen. Eine nachhaltige Energieversorgung erfordert eine Preisgestaltung, welche die wahren Kosten abbildet und die Erschwinglichkeit für alle gewährleistet.
In künftigen Beiträgen werden wir uns auf die Wirtschaftlichkeit von Versorgungsunternehmen konzentrieren, Probleme mit den Energiemärkten erörtern und uns mit vielen der oft ignorierten, nicht berücksichtigten Kosten im Zusammenhang mit Wind- und Solarenergie befassen. Viele gehen zum Beispiel davon aus, dass das Netz einfacher zu betreiben ist, wenn ein Teil der Lastbasis seinen eigenen Bedarf deckt. In Wirklichkeit belastet die Solarenergie in Privathaushalten die Netzbetreiber und erhöht die Komplexität sowie die Kosten der Stabilisierungsmaßnahmen. In Australien, einem der führenden Länder im Bereich der erneuerbaren Energien, sehen die Betreiber die Notwendigkeit, die Solaranlagen auf den Dächern in stressigen Zeiten abzuschalten, um die Systemstabilität zu erhalten. In den kommenden Wochen werden wir weitere Beiträge veröffentlichen.
Übersetzt von Christian Freuer für das EIKE
Der Beitrag Warum „billigere“ Solarenergie die Kosten steigen lässt – Teil II: Die versteckten Kosten von hauseigenen Solaranlagen erschien zuerst auf EIKE – Europäisches Institut für Klima & Energie.

Warum „billigere“ Solarenergie die Kosten steigen lässt – Teil II: Die versteckten Kosten von hauseigenen Solaranlagen
Planning Engineer (Russ Schussler)
In Teil 1 [in deutscher Übersetzung hier] haben wir gezeigt, wie die niedrigen Kosten von Wind- und Solarenergie in 80 % der Zeit von den Kosten in Spitzenzeiten überlagert werden, so dass sie keine Kostenvorteile für den Erzeugungsmix bieten. Bei der Solarenergie für Privathaushalte verhält es sich ähnlich: Sie scheint für Hausbesitzer erschwinglich zu sein, erhöht aber die Systemkosten durch Tarifstrukturen, die einen übermäßigen Anreiz für die Einführung bieten. Großzügige Subventionen, wie z. B. Net-Metering für Privatkunden, treiben das übermäßige Wachstum der Solarenergie voran, gefährden die Netzstabilität und verlagern die Kosten auf nicht-solare Kunden, die oft weniger wohlhabend sind. Weniger großzügige Tarife für Solarenergie in Privathaushalten würden jedoch die Akzeptanz verlangsamen, jedoch die Solarenergie besser mit dem Netzbedarf in Einklang bringen und für Fairness und Nachhaltigkeit sorgen.
Das wirtschaftliche Problem: Kostenverschiebung durch Tarifstrukturen
Es ist schwer zu verstehen, warum viele die Ungerechtigkeit der Tarifstrukturen nicht erkennen, da ähnliche Regelungen in anderen Branchen absurd erscheinen würden. Stellen Sie sich vor, Hotels müssten Zimmer für alle Kunden (zu Standardtarifen) bereithalten, nur für den Fall, dass diese sie „vielleicht“ brauchen. Noch schlimmer wäre es, wenn die Hotels bei geringer Auslastung ihre Gäste auf die Airbnb-Immobilien ihrer Kunden verweisen müssten, wenn es überschüssige Zimmer gibt. Oder denken Sie an die Pizzaketten, die gezwungen sind, in Zeiten geringer Auslastung überschüssige Pizzen von Restaurants zu kaufen, während sie in Spitzenzeiten günstige Pizzen liefern und alle Kosten für Abholung und Lieferung übernehmen. In all diesen Fällen besteht das Hauptproblem darin, dass große Infrastrukturinvestitionen erforderlich sind, die die meiste Zeit ungenutzt bleiben und von den Nutznießern nur unzureichend ausgeglichen werden.
Wie Solartarif-Strukturen für Privatkunden funktionieren
Solarsysteme für Privathaushalte, die in der Regel an Net Metering gebunden sind, ermöglichen es Hausbesitzern, Strom auf eine Weise zu erzeugen und zu verkaufen, die kosteneffizient erscheint:
– Deckung des Eigenbedarfs: Solarmodule produzieren in sonnigen Zeiten mit geringer Nachfrage (z. B. in der Mittagszeit im Frühjahr), so dass die Hausbesitzer keine Gebühren für den Stromversorger zahlen müssen. Bei diesen Gebühren handelt es sich in der Regel um einen Pauschalbetrag, der auf den Durchschnittskosten basiert. (Hinweis: Das Energieversorgungsunternehmen zahlt sie zurück, wenn die Module nicht genug Strom erzeugen).
– Verkauf von überschüssigem Strom: Überschüssiger Strom wird in das Netz eingespeist und zu je nach Bundesland unterschiedlichen Tarifen vergütet. In der Regel übersteigen diese Zahlungen den Wert der Energie für das Versorgungsunternehmen in Zeiten geringer Nachfrage.
– Schwere Belastungen: Nachts, an bewölkten Tagen oder bei Spitzenbedarf (z. B. an Sommerabenden) erzeugen die Module nur wenig Strom. Hauseigentümer kaufen Strom aus dem Netz zu Pauschaltarifen, welche die hohen Kosten von Spitzenlastkraftwerken nicht berücksichtigen.
Die heutigen Tarifstrukturen unterscheiden sich durch den Grad der Subventionierung von Solaranlagen für Privathaushalte. Hier folgen allgemeine Kategorien von Tarifstrukturen, geordnet nach der Höhe der Subventionen, von hoch bis niedrig:
– Netzeinspeisung zum Einzelhandelstarif: Solarstrom für Privathaushalte wird zum vollen Endkundentarif vergütet (~$0,20-$0,42/kWh, z. B. in Hawaii, Massachusetts, New York, New Jersey, Rhode Island). Erzielt hohe Renditen für Solarenergie für Privathaushalte (20-50% ROI) und fördert die schnelle Akzeptanz (z.B. Hawaii mit 30% Marktanteil, ~200.000 Haushalte).
– Teilweise Einzelhandel/Hybrid Net Billing: Gutschriften in Höhe von 50-80% des Einzelhandelspreises (~$0,10-$0,20/kWh, z.B. Connecticut, Vermont, Maryland, Minnesota) fördern die moderate Einführung von Solarenergie für Privathaushalte (z.B. 8% Marktdurchdringung in Vermont, ~15.000 Haushalte) bei geringerer Kostenverschiebung.
– Nettorechnung zu vermiedenen Kosten: Niedrigere Gutschriften (~$0,05-$0,08/kWh, z.B. Kaliforniens NEM 3.0, Arizona, Arkansas) verlangsamen das Wachstum.
– Großhandelstarife/abgerechnete Kosten: Minimale Gutschriften (~$0,03-$0,07/kWh, z.B. Alabama, South Dakota, Tennessee, Idaho, Kentucky) führen zu einer geringen Marktdurchdringung (0,02-1,2%, ~270-10.000 Haushalte), wodurch sich Subventionen und
Auch im Original bricht der letzte Satz einfach ab. A. d. Übers.
Ursprünglich wurden die Tarife für die Solarenergie auf der Grundlage des Einzelhandelstarifs für die Netzmessung festgelegt. Niedrigere Subventionen konnten keine ausreichende Beteiligung bewirken. Da die Beteiligung anfangs gering war, waren die geringen Subventionen für die überwältigend große Gruppe der Nichtteilnehmer nicht von Bedeutung. Je mehr Kunden sich für Solaranlagen entscheiden, desto mehr ändert sich die Wirtschaftlichkeit. Die Erfahrungen in Kalifornien zeigen, dass dieser Ansatz nicht nachhaltig ist. Kalifornien arbeitet jetzt an Version 3.0 seines Net-Metering-Konzepts, bei dem nur die vermiedenen Kosten für neue Kunden bezahlt werden. Das Net-Metering zum Einzelhandelstarif wurde unhaltbar, als die Beteiligung zunahm.
Das folgende Diagramm zeigt die Beziehung zwischen höheren Gutschriften und der daraus resultierenden Verbreitung von Solarenergie in Privathaushalten in einer Auswahl von Staaten:
Natürlich korrelieren höhere Subventionen mit einer höheren Beteiligung. Kalifornien NEM 3.0 scheint ein Ausreißer zu sein, aber es muss klar sein, dass diese Beteiligungsrate nicht auf der NEM 3.0 Tarifstruktur beruht. Die große Basis an Solaranlagen für Privathaushalte wurde auf der Grundlage der alten Politik aufgebaut, und die heutige Rentabilität wird durch die hohen Endkundentarife in der Region und die Besitzstandswahrung für bestehende Solarkunden unter den alten Tarifen unterstützt.
In einem Beitrag aus dem Jahr 2015 habe ich verschiedene Ansätze zur Kostenbeteiligung bei Solaranlagen für Privathaushalte erörtert. Es lohnt sich, diesen Beitrag noch einmal zu lesen, da er zusätzliche Informationen zu diesem Thema enthält. In diesem Beitrag wies ich darauf hin, dass bei den Modellen mit den geringsten Subventionen die Solarkunden nur die von ihnen verursachten zusätzlichen Kosten zu tragen hatten, nicht aber die gemeinsamen Systemkosten. Sollten sich private Solarkunden an den grundlegenden Systemkosten beteiligen? Die Antwort wird umso wichtiger, je höher der Anteil der privaten Solaranlagen ist. Die Verantwortung für die grundlegenden Systemkosten wird auf immer weniger Kunden verteilt. Leider sind es unverhältnismäßig viele weniger wohlhabende Verbraucher, die von den steigenden Energiekosten am stärksten betroffen sind, welche die Rechnung zahlen.
Die wirtschaftliche Belastung durch zu großzügige Tarife:
– Verlorene Einnahmen: Die Versorgungsunternehmen benötigen konstante Gebühren zur Deckung der Fixkosten (Netzleitungen, Notstromversorgung). Solareigenheimbesitzer vermeiden diese Kosten in Zeiten geringer Nachfrage, was zu geringeren Einnahmen führt.
– Überbezahlte Käufe: Hohe Gutschriften für Strom mit geringem Wert belasten die Budgets der Versorgungsunternehmen.
– Spitzenlastkosten: Spitzenzeiten verursachen hohe Kosten (Spitzenlastkraftwerke und Ausbau von Übertragung und Verteilung). Studien des National Renewable Energy Laboratory zufolge werden die Tarife für Nicht-Solarstromkunden in Gebieten mit hohem Solarstromverbrauch um 1-2 % angehoben.
Großzügige Tarifstrukturen, wie z. B. die Nettomessung für Endkunden, fördern die übermäßige Einführung von Solarenergie, wodurch die Kosten und die Ungerechtigkeit steigen. Weniger günstige Tarife, wie Kaliforniens NEM 3.0 oder South Dakotas Großhandelstarife, verringern die Akzeptanz, was richtig ist, wenn die Solarenergie den Systembedarf übersteigt.
Die ersten Net-Metering-Tarife zielten darauf ab, die Solarenergie anzukurbeln, aber ihre Kosten – verschobene Kosten und Netzrisiken – sind jetzt offensichtlich. Die Regulierungsbehörden, die der grünen Energie Vorrang einräumen, haben oft großzügige Tarife vorgeschrieben, wie bei NEM 1.0/2.0 in Kalifornien, das einen Verbreitungsgrad von 25 % erreichte, bevor die niedrigeren Tarife von NEM 3.0 das Wachstum bremsten. Vorschläge für eine faire Preisgestaltung werden oft als anti-erneuerbar bezeichnet und behindern Reformen.
Eine gängige Rechtfertigung ist, dass die Subventionierung von Solaranlagen für Privathaushalte die Preise senken und die Erschwinglichkeit erhöhen wird. Dabei wird jedoch verkannt, dass je billiger die Solarenergie für Privathaushalte wird, desto mehr unhaltbare Tarife entstehen, da weniger Nicht-Solar-Kunden übrig bleiben, um das System zu stützen.
Ein Weg voran
Solarprogramme für Privathaushalte beruhen auf Strukturen, bei denen der Strom zu hoch und die Netznutzung zu niedrig vergütet wird. Eine bessere Gestaltung würde die Anreize verringern und die Akzeptanz mit der Netzökonomie in Einklang bringen. Mögliche Optionen zur Verbesserung der Solartarife sind:
– Nutzungszeit-Tarife: Solarenergie wird während der Mittagszeit weniger zum Marktwert vergütet, und für Spitzenstrom wird mehr berechnet. Dies bremst die Akzeptanz, wie bei NEM 3.0 in Kalifornien zu sehen war (80 % Installationsrückgang).
– Zahlung vermiedener Kosten: Im Gegensatz zu Time-of-Use-Tarifen könnten die vermiedenen Kosten auf Durchschnittswerte festgelegt werden, um kostspielige Messungen und Komplexität zu vermeiden.
– Netzzugangsentgelte: Feste Gebühren stellen sicher, dass Solar-Hausbesitzer für die Zuverlässigkeit zahlen.
– Gebühren für Nachfragespitzen: Rechnungen, die auf dem Spitzenverbrauch basieren, reflektieren die tatsächlichen Kosten.
Diese Optionen fördern die Gerechtigkeit, indem sie die Subventionen von Nicht-Solarkunden zugunsten wohlhabenderer Kunden reduzieren. Der Schlüssel liegt in der Anerkennung der Kostenunterschiede zwischen dem, was Solarkunden erhalten, und dem, was sie leisten. Weniger Anreize bedeuten weniger Solarenergie, was richtig ist, wenn sie die Kosten in die Höhe treibt, wie in Staaten wie Alabama (0,7 % Marktanteil). Der politische Druck zur Förderung der Solarenergie wird sich solchen Bemühungen widersetzen.
Unter dem Strich
Schlechte Tarifgestaltung verschleiert die wahren Kosten der Solarenergie und lässt sie erschwinglich erscheinen, während die Strompreise für alle steigen. Netzentgelte für Endkunden fördern die übermäßige Nutzung von Solarenergie und verlagern die Kosten auf Nicht-Solar-Kunden. Weniger förderliche Tarife wie vermiedene Kosten oder das kalifornische NEM 3.0 verlangsamen das Solarwachstum und passen es an den Netzbedarf an. Dies sorgt für Fairness und vermeidet Kostenspiralen. Eine nachhaltige Energieversorgung erfordert eine Preisgestaltung, welche die wahren Kosten abbildet und die Erschwinglichkeit für alle gewährleistet.
In künftigen Beiträgen werden wir uns auf die Wirtschaftlichkeit von Versorgungsunternehmen konzentrieren, Probleme mit den Energiemärkten erörtern und uns mit vielen der oft ignorierten, nicht berücksichtigten Kosten im Zusammenhang mit Wind- und Solarenergie befassen. Viele gehen zum Beispiel davon aus, dass das Netz einfacher zu betreiben ist, wenn ein Teil der Lastbasis seinen eigenen Bedarf deckt. In Wirklichkeit belastet die Solarenergie in Privathaushalten die Netzbetreiber und erhöht die Komplexität sowie die Kosten der Stabilisierungsmaßnahmen. In Australien, einem der führenden Länder im Bereich der erneuerbaren Energien, sehen die Betreiber die Notwendigkeit, die Solaranlagen auf den Dächern in stressigen Zeiten abzuschalten, um die Systemstabilität zu erhalten. In den kommenden Wochen werden wir weitere Beiträge veröffentlichen.
Übersetzt von Christian Freuer für das EIKE
Der Beitrag Warum „billigere“ Solarenergie die Kosten steigen lässt – Teil II: Die versteckten Kosten von hauseigenen Solaranlagen erschien zuerst auf EIKE – Europäisches Institut für Klima & Energie.

Baerbocks Schleuser-Netzwerk muss lückenlos aufgeklärt werden
Nach neuen Berichten, laut denen der Visa-Skandal beim Aufnahmeprogramm für Afghanen immer größere Ausmaße annimmt, fordern die stellvertretenden Vorsitzenden der AfD-Bundestagsfraktion Sebastian Münzenmaier und Stefan Keuter die Einsetzung eines Untersuchungsausschusses. Die AfD-Fraktion hat von Anfang vor Baerbocks Afghanen-Aufnahmeprogramm gewarnt. Jetzt zeigt sich, dass diese Warnungen mehr als berechtigt waren. Baerbocks Anordnung nach einer möglichst großzügigen […]
Der Beitrag Baerbocks Schleuser-Netzwerk muss lückenlos aufgeklärt werden erschien zuerst auf Philosophia Perennis.

Neue Chancen für die Zukunft: Prominente Speaker bei Online-Kongress Futur-nova

Noch bis zum 1. Juni findet der Futur-nova-Online-Kongress statt: Speaker aus den verschiedensten Fachbereichen zeigen dort Wege in eine bessere und lebenswertere Zukunft auf. Finanzexperte Ernst Wolff, Andreas Kalcker (“Gesundheit verboten”), Energie-Fachmann Dr. Martin Steiner, Kabarettist Gernot Haas und zahlreiche weitere Macher und Visionäre gehen den Fragen nach, die uns alle umtreiben. Die Teilnahme ist kostenlos!
Neue Techniken und Technologien, neue Chancen für DEINE neue Zukunft: Das ist das Motto des Online-Kongresses Futur-nova, der vom 26. Mai bis zum 1. Juni stattfindet.
„Freie“ Energie für mehr Gesundheit, mehr Sicherheit, mehr Wohlstand und mehr Freiheit – auf diese Fragen sollen beim Kongress Antworten gefunden werden:
- Müssen wir durch die Sicherheit auf unsere Freiheit verzichten?
- Ist dein Geld in Sicherheit?
- Kann Krypto- oder digitale Währung oder Edelmetalle die Lösung sein?
- Haben wir die Möglichkeit, unsere neue Zukunft mitzugestalten?
- Ist Netzwerken die fairste Arbeitsweise oder sogar die Wirtschaftsform der neuen Zukunft?
- Willst du alt werden oder länger, besser und gesünder leben?
Hier geht’s zur Website – Jetzt kostenlos dabei sein!
Warum wird der Futur-nova-Kongress veranstaltet?
Dazu erörtern die Veranstalter: “Weil die Zukunft nicht einfach passiert – wir gestalten sie. Der Kongress Futur-nova.com bringt Vordenker, Macher und Visionäre zusammen, um die großen Fragen von morgen zu diskutieren: Wie wollen wir leben, arbeiten und wirtschaften? Welche Technologien, Ideen und Kooperationen brauchen wir für eine nachhaltige und lebenswerte Zukunft?
Futur-nova ist eine Plattform für Austausch, Inspiration und konkrete Lösungen. Wir schaffen Raum für neue Perspektiven, mutige Konzepte und vernetzte Umsetzungskraft.”
Mit dabei sind:
- Alica Wohlfart, Expertin für Subliminals
- Alois Michael Wagner, Fitness Influencer
- Andreas Kalcker, CDL Gesundheit verboten?
- Andreas Kaufmann Dr. Dr., Europäischer Konsumentenverein
- Andreas Renz, ehem. Eishockeyprofi, Selbstfindungsexperte
- Andreas Winter, Diplompädogoge, Coach und Autor
- Arthur Tränkle, Visionär innovativer Technologien
- Carl Albrecht Waldstein, Erfinder von solaren Meerwasserentsalzungsanlagen
- Chris, Cybersecurity und digitale Privatsphäre
- Christian Beer, Innovativer Unternehmer
- Christina Schmautz, Ethische Frequenzmarketing
- Ernst Wolff, Wirtschaftsjournalist und Finanzexperte
- Ewald Schober, Lebensforscher, Bestsellerautor, Visionär
- Friedemann Mack, Mäckle macht gute Laune
- Gabi Steiner, Ikone im Network Marketing
- Gernot Haas, Schauspieler, Parodist, Kabarettist
- Hendrik M Holler, Astrologe, Traumatherapeut, Systemischer Coach
- Markus Hardegger, Mentaltrainer
- Markus Riedler, Unternehmer Napalm-Records
- Martin F. Steiner Dr., Wissenschaftler, CO2-Experte
- Marvin Alberg, Forscher im Bereich der Grenzwissenschaften
- Thomas & Magda Leskoschek, Langzeitreisende Entfaltungszeit
- Thomas Bachheimer, Ökonom und Gold-Experte
- Thomas Eglinski, Coach, Speaker, Moderator und Glücksbringer

Vitamin D: Der Schlüssel zur Verlangsamung des Alterns?

Vitamin D, das “Sonnenvitamin”, unterstützt nicht nur unser Immunsystem. Einer neuen Studie zufolge schützt es auch die Telomere an unseren Chromosomen. Damit kann es Alterungsprozesse verlangsamen – und wie eine Art Jungbrunnen wirken.
Die simple Gewohnheit, jeden Tag etwas Vitamin D zu sich zu nehmen, könnte tatsächlich dabei helfen, ihre biologische Uhr um fast drei Jahre zurückzudrehen. Was zunächst wie ein zu schönes Märchen klingt, hat nun wissenschaftliche Substanz bekommen. Eine wegweisende Studie im American Journal of Clinical Nutrition zeigt: Das oft unterschätzte “Sonnenvitamin” greift direkt in einen der fundamentalsten Alterungsprozesse unseres Körpers ein.
Telomere – die vergessenen Helden unserer Zellen
Tief in unseren Zellen spielt sich täglich ein Drama ab, das die meisten von uns nie bemerken. An jedem Ende unserer 46 Chromosomen sitzen winzige Strukturen, die Telomere genannt werden. Stellen Sie sich diese vor wie die Plastikkappen an Schnürsenkeln – ohne sie würden die Enden ausfransen und unbrauchbar werden. Genau das passiert auch mit unseren Chromosomen, wenn ihre Telomere verschwinden.
Bei jeder Zellteilung werden diese Schutzkappen ein bisschen kürzer. Es ist ein natürlicher Prozess, aber eben auch ein gnadenloser. Wie ein Countdown ticken sie unaufhörlich Richtung null. Sind sie zu kurz geworden, stellt die Zelle ihre Arbeit ein oder stirbt sogar ab. Wissenschaftler haben erkannt: Hier tickt eine biologische Uhr, die nicht nur über das Schicksal einzelner Zellen entscheidet. Sie bestimmt auch, wie schnell wir altern und wie anfällig wir für Krankheiten werden.
Menschen mit kürzeren Telomeren haben ein höheres Risiko für Herzkrankheiten, Diabetes und sogar Krebs. Das Problem: Bisher gab es kaum überzeugende Strategien, um diesen Prozess aufzuhalten. Kleinere Studien hatten zwar Hinweise geliefert, dass bestimmte Nährstoffe helfen könnten. Aber die Ergebnisse waren widersprüchlich und oft nicht reproduzierbar.
VITAL – wenn große Zahlen sprechen
Dann kam VITAL. Diese Studie ist anders als alles, was Forscher bisher auf diesem Gebiet unternommen haben. Vier Jahre lang. Über 25.000 Teilnehmer. Randomisiert, placebokontrolliert, doppelblind – alle Kriterien erfüllt, die eine Studie zur Goldstandard-Forschung machen. “VITAL ist die erste große und langfristige randomisierte Studie, die zeigt, dass Vitamin D-Präparate Telomere schützen und ihre Länge erhalten”, sagt Co-Autorin JoAnn Manson vom Mass General Brigham.
Die Teilnehmer – amerikanische Frauen ab 55 und Männer ab 50 – erhielten täglich entweder echtes Vitamin D3 oder wirkungslose Placebos. Niemand wusste, wer was bekam. Nach vier Jahren dann die Überraschung: Die Vitamin D-Gruppe hatte signifikant weniger Telomerverkürzung erlebt. Der Effekt war so deutlich, dass die Forscher ihn quantifizieren konnten. Es entspricht dem Schutz vor “fast drei Jahren des Alterns”.
Besonders interessant: Omega-3-Fettsäuren, die parallel getestet wurden, zeigten keinen vergleichbaren Effekt. Das unterstreicht, wie spezifisch Vitamin D offenbar wirkt. Es ist nicht irgendein Gesundheitsbooster – es greift gezielt in die Telomer-Maschinerie ein.
Weit mehr als starke Knochen
Lange Zeit kannten wir Vitamin D hauptsächlich als Knochenvitamin. Rachitis bei Kindern, Osteoporose bei Erwachsenen – das waren die klassischen Mangelerscheinungen. Doch die Forschung der letzten Jahre hat ein viel komplexeres Bild gezeichnet. Vitamin D-Rezeptoren finden sich praktisch überall im Körper. In Immunzellen, im Herz-Kreislauf-System, sogar im Gehirn.
“Dies ist von besonderem Interesse, weil VITAL auch Vorteile von Vitamin D bei der Reduzierung von Entzündungen und der Senkung des Risikos für ausgewählte chronische Krankheiten des Alterns gezeigt hat”, erklärt Manson. Dazu gehören fortgeschrittene Krebserkrankungen und Autoimmunerkrankungen. Das Vitamin scheint wie ein molekularer Allrounder zu wirken, der an verschiedenen Stellschrauben dreht.
Haidong Zhu von der Augusta University sieht darin großes Potenzial: “Unsere Befunde deuten darauf hin, dass eine gezielte Vitamin D-Supplementierung eine vielversprechende Strategie sein könnte, um einem biologischen Alterungsprozess entgegenzuwirken.” Gleichzeitig bleibt er wissenschaftlich vorsichtig. Weitere Forschung sei definitiv notwendig.
Die Sache mit der Sonne
Eigentlich sollte Vitamin D-Mangel kein Problem sein. Unser Körper kann das Vitamin selbst herstellen – er braucht nur Sonnenlicht dazu. Etwa 15 Minuten täglich würden theoretisch reichen. Die Realität sieht anders aus. Viele Menschen verbringen den Großteil ihrer Zeit in Gebäuden. Im Winter steht die Sonne zu tief. Sonnencreme blockiert die Vitamin D-Produktion. Ältere Menschen synthetisieren weniger effizient.
Die Nahrung hilft nur begrenzt. Fettreiche Fische wie Lachs und Makrele sind gute Quellen. Auch Eigelb, bestimmte Käsesorten und angereicherte Lebensmittel enthalten Vitamin D. Aber die Mengen sind oft zu gering, um den Bedarf zu decken. Deshalb greifen inzwischen immer mehr Menschen zu Nahrungsergänzungsmitteln – Tendenz steigend.
Mehr Fragen als Antworten
Trotz der beeindruckenden Ergebnisse bleiben viele Fragen offen. Welche Dosierung ist optimal? Gibt es ein Zuviel des Guten? Wirkt Vitamin D bei allen Menschen gleich? Und vor allem: Lassen sich die Laborwerte tatsächlich in echte Gesundheitsvorteile übersetzen?
Die VITAL-Studie liefert wichtige Hinweise, aber sie ist nur ein Puzzleteil. Weitere Studien müssen folgen, um die optimalen Dosierungen zu finden und Langzeiteffekte zu untersuchen. Möglicherweise spielen auch genetische Faktoren eine Rolle – nicht jeder Mensch verstoffwechselt Vitamin D gleich gut.
Ein neues Kapitel beginnt
Was bedeutet das alles für uns? Sollen wir alle täglich Vitamin D schlucken in der Hoffnung auf ewige Jugend? So einfach ist es nicht. Aber die Studie zeigt eindrucksvoll, dass relativ simple Interventionen möglicherweise tiefgreifende Auswirkungen auf unsere biologische Uhr haben können.
In einer Gesellschaft, die immer älter wird, könnte das “Sonnenvitamin” zu einem wichtigen Baustein gesunden Alterns werden. Nicht als Wundermittel, sondern als Teil einer durchdachten Präventionsstrategie. Immerhin hat es sich schon während der Corona-Zeit gezeigt, dass Menschen mit hohen Leveln an Vitamin D im Kreislauf ein besser funktionierendes Immunsystem hatten – und wir eigentlich mehr dieses wichtigen Wirkstoffes brauchen, als bislang angenommen..

Ermittler sprechen von „staatlich legalisierter Schleusung“: Interne E-Mails belasten Baerbock schwer!
Im Zusammenhang mit der Visa-Vergabe an Afghanen sprechen Ermittler einem Spiegel-Bericht zufolge inzwischen von „staatlich legalisierter Schleusung“. Interne Emails belasten Ex-Außenministerin Annalena Baerbock („Grüne“) demnach schwer.
Zitiert wird aus einem Lagebericht der deutschen Botschaft in der pakistanischen Hauptstadt Islamabad aus dem Jahr 2023. Darin werden unter anderem nicht näher genannte Nichtregierungsorganisationen kritisiert, weil diese „verfälschte und verfahrensangepasste Dokumente“ an Afghanen verteilen würden und ihnen raten würden, „abweichende Angaben im Visumverfahren zu machen“.
Welche NGOs an dem Verfahren beteiligt waren, erfuhr die Botschaft vom Auswärtigen Amt dem Bericht zufolge nie vollständig – das sorgte offenbar für Chaos.
Deshalb und aufgrund allgemein widriger Bedingungen bei der Prüfung der Anträge von Tausenden Afghanen beklagten die Botschaftsmitarbeiter, dass immer mehr Menschen „zu Unrecht eine Aufnahmezusage und nachfolgend ein Visum“ erhalten würden. Laut Spiegel soll das Dokument „seitenlang“ Missstände in der Botschaft ankreiden.
In internen Mails der deutschen Botschaft wird die Zentrale in Berlin für die Zustände verantwortlich gemacht. Das Auswärtige Amt habe auf eine besonders laxe Vergabepraxis gedrängt – ohne Rücksicht auf Sicherheitsbedenken.
The post Ermittler sprechen von „staatlich legalisierter Schleusung“: Interne E-Mails belasten Baerbock schwer! appeared first on Deutschland-Kurier.
Die Weltbank und der schleichende Ausverkauf Syriens
Mit stillschweigender Billigung der USA und finanziert durch Golfstaaten kehrt die Weltbank unter dem Deckmantel der „technischen Kooperation“ nach Syrien zurück – ein Vorzeichen für neue Privatisierungen, Spardiktate und ausländische Kontrolle über syrisches Staatsvermögen.
Trotz der westlichen Sanktionen und der politischen wie wirtschaftlichen Instabilität hat die Bank rasch Kontakt zur von Hayat Tahrir al-Sham (HTS) geführten Übergangsregierung aufgenommen. Auslöser: Saudi-Arabien und Katar beglichen Syriens Rückstände bei der Weltbank in Höhe von 15,5 Mio. Dollar.
Zeitgleich fanden drei entscheidende Entwicklungen statt: Erstens stufte Washington Syriens Status bei der UN zu einer „nicht anerkannten Regierung“ herab, forderte aber eine „inklusive Übergangsregierung“. Zweitens setzten sich mehrere Staaten dafür ein, dass syrische Beamte Visa für die Frühjahrestagung 2025 von IWF und Weltbank erhielten. Drittens ernannte der IWF einen Syrien-Beauftragten – kurz darauf kündigte US-Präsident Trump in Saudi-Arabien die Aufhebung der Sanktionen an, nach einem Treffen mit Syriens neuem Präsidenten Ahmad al-Sharaa.
Diese Kette von Ereignissen wirft Fragen auf: Agierte die Bank unabhängig von Washingtons strategischer Linie? Hätte sie ohne Trumps Sanktionserlass kooperiert? Ging es wirklich nur um nicht gezahlte Beiträge – oder war es Assad selbst, der im Weg stand?
Weltbank als geopolitisches Werkzeug
Syrien, seit 1947 Mitglied der Weltbank, war nie ein einfacher Kunde. Trotz Baath-Sozialismus holte sich Damaskus gelegentlich technische Hilfe. Zwischen 1963 und 1986 erhielt Syrien insgesamt 19 Kredite. Zwischen 2002 und 2011 – nach Begleichung früherer Schulden – begann eine neue Phase beratender Zusammenarbeit, orchestriert von Abdullah al-Dardari, einem neoliberalen Architekten aus Damaskus und später selbst Weltbank-Berater.
Diese Perioden der Öffnung fielen stets mit geopolitischen Veränderungen zusammen. In den 2000er Jahren etwa harmonierten US-Ziele einer marktwirtschaftlichen Transformation in der arabischen Welt mit Damaskus’ vorsichtiger Modernisierungspolitik – eine Annäherung an neoliberale Strukturen ohne vollständige Preisgabe staatlicher Kontrolle.
Doch ebenso häufig gab es Brüche: 1986–2002 (wegen Schulden und Sanktionen) sowie 2011–2025 (wegen des westlich unterstützten Regimewechsels). Trotzdem beobachtete die Bank weiterhin Syriens wirtschaftlichen Niedergang und dokumentierte Verluste von 226 Mrd. Dollar BIP – das Vierfache des Vorkriegsniveaus.
Privatisierung unter dem Vorwand der „Entwicklung“
Riyadh und Doha sichern mit ihrer Zahlungsbereitschaft ihren Einfluss. Die Türkei wiederum verspricht sich von der IWF-Linie Vorteile in Sachen Flüchtlingsrückführung und Grenzhandel. Die HTS-nahe Übergangsregierung selbst äußert sich technokratisch: Man wolle keine Kredite aufnehmen, sondern „nur technische Zusammenarbeit“.
Doch Experten erwarten anderes. Frühere Erfahrungen zeigen: Technische Hilfe ist oft nur das Vorspiel für Auflagenpakete – mit Spardiktaten, Subventionsabbau, Entlassungen und der Vorbereitung auf Währungsfreigaben. Schon jetzt prüft die Bank diskret syrische Infrastruktur und Vermögensverzeichnisse – ein bewährtes Drehbuch.
Ein geopolitischer Deal mit hohen Kosten
Noch sind keine formellen Bedingungen bekannt. Doch der Verdacht liegt nahe, dass zukünftige Hilfen an politische Konzessionen gekoppelt sein könnten – etwa die Normalisierung mit Israel, wie sie aus ähnlichen Kontexten in Libanon bekannt ist.
Dass die Rückkehr der Weltbank ausgerechnet unter Trump erfolgt, ist bezeichnend: Der „Abbruch der Sanktionen“ wurde hinter verschlossenen Türen mit den neuen syrischen Machthabern verhandelt. Für Damaskus könnten die wahren Kosten des Wiederbeitritts zur Finanzordnung bald sichtbar werden – in Form von verlorenem Volksvermögen und wachsender sozialer Not.
„Massenhaftes deutsches Sterben möglich“ – Ungarischer Sicherheitsexperte warnt nach Merz‘ Entscheidung zu Waffenlieferungen
Nach der Ankündigung des deutschen Bundeskanzlers Friedrich Merz, dass die Ukraine nun mit westlichen Waffen, darunter auch deutschen Taurus-Raketen, russisches Territorium angreifen kann, äußerte der ungarische Sicherheitsexperte György Nógrádi in einem Interview ernste Bedenken.
Der ungarische Analyst warnte, dass diese Entscheidung den Krieg auf eine „neue Stufe“ heben könnte. Er erklärte, dass die Lieferung von Taurus-Raketen, die eine hohe Reichweite haben, den ukrainischen Streitkräften ermöglichen würde, russische Städte, einschließlich Moskau, zu attackieren. Diese Waffe wurde zuvor von der deutschen Regierung unter Olaf Scholz abgelehnt, da deren Einsatz deutschen Militärs erfordert hätte, was eine direkte Eskalation des Konflikts bedeutet hätte.
„Die einzige Waffe, deren Übergabe die vorherige Regierung verweigert hat – die Taurus-Raketen – wird jetzt übergeben“, sagte Nógrádi. Er machte deutlich, dass der Einsatz dieser fortschrittlichen Raketen durch ukrainische Truppen möglicherweise den Einsatz deutscher Spezialisten notwendig machen könnte, was zu einem „massiven Tod von Deutschen“ führen könnte.
Die Lieferung dieser Waffensysteme könnte eine drastische Veränderung in der deutschen Außenpolitik darstellen, da sie Deutschland näher in den Konflikt hineinzieht. Nógrádi erklärte, dass dies ein direkter Beweis für die zunehmende militärische Eskalation sei, die nicht nur die Ukraine, sondern auch westliche Länder wie Deutschland stärker involviere. Besonders besorgniserregend ist dabei der Einsatz von Drohnen und Raketen durch Russland, deren Zahl und Effizienz laut Nógrádi deutlich gestiegen sind, was die ukrainische Luftabwehr zunehmend überfordert.
Ein verlängertes Kriegsszenario und die Gefahr eines nuklearen Konflikts
Nógrádi betonte, dass Merz‘ Entscheidung die Wahrscheinlichkeit eines langen und intensiven Konflikts erhöhe, da Waffen und Ausrüstung weiterhin in die Ukraine fließen würden. Die potenziellen nuklearen Folgen eines solchen Konflikts dürfen nicht unterschätzt werden, da Russland und die USA über umfangreiche Atomwaffenbestände verfügen. Ein atomarer Konflikt könnte verheerende globale Auswirkungen haben.
Wirtschaftliche Folgen für Deutschland
Über die militärischen Implikationen hinaus sprach Nógrádi auch die wirtschaftlichen Folgen für Deutschland an. Er erklärte, dass die deutsche Wirtschaftspolitik, die auf der Kombination von billigen russischen Rohstoffen und fortschrittlicher deutscher Technologie basierte, nun „gesprengt“ wurde. Deutschland bezieht jetzt russische Rohstoffe zu deutlich höheren Preisen über Zwischenhändler wie Indien oder Norwegen, was zu einer „wirtschaftlichen Selbstschädigung“ führe.
Nógrádi schloss mit einer düsteren Prognose: „Dieser Krieg ist noch nicht zu Ende, er fängt gerade erst an, richtig hart zu werden.“
Städte setzen stillschweigend Gesichtserkennung ein, um jede Bewegung zu verfolgen – auf dem Weg zur totalen Überwachung
In den USA wird in Städten landesweit zunehmend KI-gestützte Gesichtserkennungstechnologie eingesetzt, um Menschen in Echtzeit zu identifizieren und zu überwachen – oft ohne öffentliche Debatte. In Städten wie Milwaukee und New Orleans formiert sich zwar Widerstand, doch der Trend ist eindeutig: Schritt für Schritt werden Städte zu „Smart Cities“ – mit dem Fernziel: die „15-Minuten-Stadt“.
Milwaukee: Rat gegen Polizeiüberwachung – doch Technokraten bleiben am Drücker
Die Polizei von Milwaukee will Gesichtserkennung – obwohl der Stadtrat mit großer Mehrheit dagegen ist. 11 von 15 Ratsmitgliedern haben ein Schreiben unterzeichnet, das sich klar gegen die Einführung dieser Technologie durch die Polizei ausspricht. Bedenken gibt es vor allem wegen Voreingenommenheit, ethischer Risiken und Missbrauchsmöglichkeiten.
Die Polizei argumentiert erwartungsgemäß mit „Sicherheit“, „Schnelligkeit“ und „Effizienz“. Die Technologie könne helfen, Verbrechen schneller aufzuklären – unter Wahrung der Bürgerrechte. Man wolle die Öffentlichkeit konsultieren, verspricht sie. Doch das Schreiben des Rats widerspricht: Die Risiken überwögen die möglichen Vorteile deutlich. Auch werde auf Studien verwiesen, wonach die meisten Algorithmen bei Menschen mit dunkler Hautfarbe, Frauen und älteren Menschen häufiger falsch liegen.
Als Risikofaktor wird im Schreiben sogar explizit der mögliche Missbrauch durch die Trump-Regierung erwähnt – was Leo Hohmann zu Recht als kurzsichtig kritisiert: Wäre alles in Ordnung, wenn ein anderer Präsident im Amt wäre? Gesichtserkennung ist keine Frage des politischen Lagers – sondern des Prinzips.
New Orleans: Project NOLA auf dem Prüfstand
Auch in New Orleans wird debattiert. Die dortige Polizei nutzt bereits „Project NOLA“, ein landesweites Netzwerk von Überwachungskameras. Die Stadt prüft derzeit, ob die KI-Gesichtserkennung darin verboten, reguliert oder unter städtische Aufsicht gestellt werden soll. Echtzeit-Alerts wurden pausiert – aber die Nutzung geht weiter.
Das eigentliche Problem: Smart Cities auf dem Vormarsch
Was hier passiert, ist keine einzelne Fehlentscheidung, sondern Teil eines globalen Trends. Mächtige Technokraten und Konzerne drängen weltweit auf die Einführung totaler Überwachung unter dem Deckmantel von Sicherheit und Modernisierung. Viele Lokalpolitiker sind überfordert oder naiv – sie erkennen nicht, was diese Technologien langfristig bedeuten.
Laut Smart Cities Dive gehören Städte wie Atlanta, Boston, San Francisco, Washington D.C., Chicago, Seattle, Miami, New York, Los Angeles und San Jose zu den am schnellsten digitalisierten Städten der USA. Der nächste Schritt: die „15-Minuten-Stadt“ – ein dystopisches Konzept, bei dem Überwachung nicht mehr nur „Schutz“ bietet, sondern aktiv zur Durchsetzung politischer Agenden genutzt wird – von Klimaauflagen bis Verhaltenslenkung.
Gesichtserkennung, Nummernschilderfassung, Bewegungsprofile – willkommen in Orwells Realität
Kombiniert mit Kennzeichenscannern wird die Gesichtserkennung zur perfekten Kontrollinfrastruktur: Fußgänger, Radfahrer, Autofahrer, Bahnreisende – jeder ist sichtbar, verfolgbar, analysierbar. Und das meist ohne Wissen oder Zustimmung der Betroffenen.
Während einige Städte darüber öffentlich streiten, wird in vielen anderen bereits stillschweigend eingeführt – oft mit finanzieller Unterstützung aus Washington. Wird in deiner Stadt schon gescannt und verfolgt, ohne dass du es weißt?
Jetzt ist der Moment, es herauszufinden – und öffentlich zu machen.
Trump „entkernt den Tiefen Staat“ im Nationalen Sicherheitsrat – Medien
Mehr als 100 Mitarbeiter wurden abrupt entlassen, wie Quellen berichten, die an der Umstrukturierung beteiligt waren.
Die Trump-Regierung hat den Nationalen Sicherheitsrat (NSC) massiv umgestaltet. Übereinstimmenden Berichten zufolge wurden über 100 Beamte entlassen, das Personal des mächtigen Beratungs- und Koordinierungsgremiums wurde drastisch reduziert – ein Schritt, den ein Insider aus dem Weißen Haus als gezielten Versuch bezeichnete, „den Tiefen Staat auszunehmen“.
Wie mehrere Medien am Freitag berichteten, traf es Mitarbeiter nahezu aller Abteilungen des NSC – darunter auch solche, die für sensible globale Krisenregionen wie die Ukraine, den Iran und den indopazifischen Raum zuständig waren. Die betroffenen Beschäftigten erhielten laut CNN und Reuters am späten Freitagnachmittag E-Mails mit der Mitteilung, dass sie lediglich 30 Minuten Zeit hätten, ihre Schreibtische zu räumen.
Ein Regierungsbeamter beschrieb die Umstrukturierung gegenüber Axios als eine strategische Neuausrichtung. Ziel sei es, die bürokratische Einflussnahme zu minimieren und außenpolitische Entscheidungen stärker auf die Spitze der Regierung zu konzentrieren. Eine zentrale Rolle spiele dabei Außenminister Marco Rubio, der zugleich als nationaler Sicherheitsberater fungiert.
„Der NSC ist der ultimative Deep State“, sagte der Beamte.
„Es ist Marco gegen den Tiefen Staat. Wir nehmen den Tiefen Staat auseinander.“
Rubio, der bereits maßgeblich an der Verschlankung des Außenministeriums und der US-Entwicklungshilfeagentur USAID beteiligt war, betonte, dass der NSC zu seinem „ursprünglichen Zweck“ zurückgeführt werden solle – nämlich zur Koordination, nicht zur Gestaltung von Politik.
„Der NSC wird jetzt besser in der Lage sein, mit den Behörden zusammenzuarbeiten“, sagte Rubio gegenüber Axios, ohne den genauen Umfang der Kürzungen zu bestätigen.
Laut mehreren anonymen Regierungsquellen soll der NSC künftig nur noch rund 50 Mitarbeiter umfassen – deutlich weniger als die über 300 unter der Biden-Regierung und auch weniger als die bereits verschlankte Struktur in Trumps erster Amtszeit. Wie Reuters berichtet, könnten ganze Abteilungen gestrichen oder zusammengelegt werden – darunter auch jene, die für die Afrikapolitik oder die NATO-Zusammenarbeit zuständig sind.
Hochrangige Regierungsbeamte verweisen auf Trumps jüngste Aufhebung der Syrien-Sanktionen als Beispiel für das neue, stark zentralisierte Entscheidungsmodell.
„Der Präsident gab den Befehl. Das Kabinett folgte. Kein Bedarf an endlosen Schichten von Ausschüssen“, erklärte ein Beamter gegenüber Axios.
„Das ist umgekehrter Workflow in Aktion.“
Die Entlassungen folgten nur wenige Wochen, nachdem Trump den ehemaligen nationalen Sicherheitsberater Mike Waltz entlassen und zum US-Botschafter bei den Vereinten Nationen ernannt hatte – ein Schritt, der Berichten zufolge mit der Weitergabe sensibler militärischer Planungen zusammenhängen soll. Waltz hatte offenbar an politischem Einfluss verloren, nachdem er versehentlich einen Journalisten zu einem vertraulichen Gespräch über Luftangriffe im Jemen eingeladen hatte.
Die plötzliche Umstrukturierung, die direkt vor dem Memorial-Day-Wochenende vollzogen wurde, gehört zu den tiefgreifendsten institutionellen Eingriffen während Trumps zweiter Amtszeit. Betroffen waren dabei sowohl langjährige Beamte als auch politische Ernennungen aus dem Trump-Lager. Das Weiße Haus äußerte sich bislang nicht öffentlich zu den Personalentscheidungen.
Es gilt jedoch als sicher, dass Rubio den Nationalen Sicherheitsrat vorerst weiterführen wird – unterstützt von seinen beiden neuen Stellvertretern Andy Baker und Robert Gabriel in der neu aufgestellten Führungsstruktur.

Maskenpflicht: Wie das Robert Koch-Institut die Öffentlichkeit täuschte
anonymousnews.org – Nachrichten unzensiert
Maskenpflicht: Wie das Robert Koch-Institut die Öffentlichkeit täuschte
Rückblick ins erste Corona-Jahr: Das RKI hatte das Maskentragen im öffentlichen Raum zunächst abgelehnt, schwenkte während des Lockdowns im April 2020 aber überraschend um. Die Professorin für Krankenhaushygiene Ines Kappstein hat nun nachgewiesen, wie die Behörde damals eine Evidenz für die Wirksamkeit der Masken nur vortäuschte – und damit die Beschlüsse der Regierung zu einer Maskenpflicht ermöglichte.
von Paul Schreyer
Am Anfang galt die Wissenschaft. Als die Debatte um die Masken in Deutschland begann, vertrat das Robert Koch-Institut (RKI) noch eine evidenzbasierte Position. Man kannte die Fakten und referierte sie nüchtern. Das interne Protokoll des RKI-Krisenstabes vom 27. Januar 2020 ließ an Deutlichkeit wenig zu wünschen übrig. Selbstbewusst hielten die Fachleute der Behörde fest:
„Tragen von Mund-Nasenschutz für öffentliche Bevölkerung bei asymptomatischen Patienten nicht sinnvoll. Es liegt keine Evidenz vor als sinnvolle präventive Maßnahme für die Allgemeinbevölkerung. Sinnvoll bei: symptomatischen Patienten (sofern sie dies tolerieren) und auch bei pflegenden Angehörigen bei engem Kontakt. Es wird keine Bevorratung von Masken, etc. empfohlen. BZgA weist auf normale Husten-Etiquette und Händehygiene im Rahmen der Influenza-Saison hin. Information zur häufigen Maskennutzung in Asien, da hier die Anwendung oft sichtbar ist und Fragen aufkommen. Dieses Verhalten in Asien bezieht sich aber nicht nur auf nCoV-Lage, sondern generell auf die saisonale Grippe und auch auf Luftverschmutzung.“

Einen Monat später, im Protokoll vom 26. Februar hieß es mit ähnlichem Tenor:
„Evidenz für MNS – keine Studien die Kontraproduktivität belegen/dagegen sind, keine Evidenz dafür. ECDC empfehlen sie nicht für gesunde Personen in der Allgemeinbevölkerung. RKI bleibt dabei: nicht empfohlen in der Öffentlichkeit, in häuslichem Umfeld mit Fall ja, auch zum Schutz anderer“
Nicht nur in den internen Protokollen, auch öffentlich wurde diese Position klar und deutlich vertreten. So bekräftigte der damalige RKI-Vizepräsident Lars Schaade auf einer Pressekonferenz zur Corona-Lage am 28. Februar vor laufenden Kameras nochmals ausdrücklich, was das RKI nicht empfehle:
„Wir empfehlen nicht die Nutzung von Desinfektionsmitteln im allgemeinen Alltagsleben, auch in dieser jetzigen Situation nicht, und wir empfehlen ebenfalls nicht die Nutzung von Gesichtsmasken oder Mund-Nasen-Schutz im Allgemeinen in der allgemeinen Öffentlichkeit und im Alltagsleben. Das sind noch zwei Punkte, die ich gerne betonen möchte.“
Auf Nachfrage eines anwesenden Journalisten zum Nutzen der Masken in der Öffentlichkeit stellte Schaade klar:
„Das ist mehrfach untersucht worden: Es gibt einfach keine wissenschaftliche Evidenz, dass das irgendeinen Sinn hätte.“
Doch rasch drehte sich der Wind. Eine Maskenpflicht geriet zunehmend in die öffentliche Diskussion und das RKI leistete nicht etwa Widerstand und verteidigte die wissenschaftlichen Fakten, sondern knickte Zug um Zug ein, wie die folgenden Auszüge aus den Protokollen eindrücklich belegen. So hieß es am 19. März:
„Maskenbenutzung: Wenn es mehr Infizierte gibt laufen auch mehr Ausscheider rum, Thema wird relevanter und muss erneut bedacht werden. Spätestens wenn Masken wieder besser verfügbar sind, sollte das Tragen stärker propagiert werden (…) ToDo: FG 14 soll Konzeptvorschlag zu Maskenverwendung mit Ziel Fremdschutz vorbereiten, später auch Abstimmung mit BZgA, und bezüglich regulatorischer Hürden entsprechende Behörden involvieren“

FG14 bezeichnet behördenintern das Fachgebiet Angewandte Infektions- und Krankenhaushygiene unter Leitung von Mardjan Arvand. Dort sollte offenbar eine wissenschaftliche Rechtfertigung für den anstehenden Kurswechsel vorbereitet werden. Dessen Hintergründe blieben vage. Drei Tage später, Bundeskanzlerin Angela Merkel verkündete gerade den ersten Lockdown und die zugehörigen „Leitlinien für das Verhalten und die Bewegungsfreiheit“, machte Christian Drosten, Corona-Chefberater der Regierung, in einer öffentlichen Stellungnahme allerdings überraschend deutlich, dass den Masken in erster Linie eine psychologische Funktion zugedacht war:
„Masken sind eine Ergänzung der Maßnahmen und eine Erinnerung für alle an den Ernst der Lage!“
Am nächsten Tag, dem 23. März, vermerkte das RKI-Krisenstabsprotokoll:
„Empfehlung von Masken für die Bevölkerung: Es gibt die Tendenz dazu, dass eine Empfehlung als zusätzlicher Fremdschutz (insbesondere wenn kein Abstand möglich ist wie z.B. im Einzelhandel) ausgesprochen werden muss. Dies wäre eine Abweichung von den bisherigen Empfehlungen und es muss berücksichtigt werden, ob es genug Masken gibt. Es kann sein, dass eine Maske als Schutzobjekt die Träger dazu bringt, andere Maßnahmen wie Abstand halten zu vernachlässigen. Es gibt Studien, dass Personen, die einen MNS tragen, sich häufiger ins Gesicht fassen und ihre Händehygiene vernachlässigen. Gerade mit Videos zum Selbstnähen von Masken, dem Erfolg in China, wo viele Leute Masken tragen etc. wird es schwer sein, die Position, keine Masken zu empfehlen, zu vertreten. Man könnte es in die FAQs aufnehmen mit dem Hinweis des Fremdschutzes – insbesondere vor dem Hintergrund des Anstieges an kranken Personen. Aber Vorsicht vor Stigmatisierungen, daher ist eine gute Begründung notwendig. Keine offensive Empfehlung.“
Hier wird das bevorstehende Einknicken sogar offen angesprochen: Angesichts des öffentlichen Drucks werde es „schwer sein, die Position, keine Masken zu empfehlen, zu vertreten“. Die RKI-Leitung argumentierte zu diesem Zeitpunkt somit intern schon politisch, nicht mehr nur rein fachlich. An dieser Stelle scheint der organisatorische Konstruktionsfehler durch, die Behörde dem Gesundheitsministerium, also der Regierung als „weisungsgebunden“ unterzuordnen. Im Zweifel entscheidet der Minister, was das RKI öffentlich zu sagen hat, was Lothar Wieler und Lars Schaade zu jedem Zeitpunkt bewusst war und – nicht weniger wichtig – was sie auch akzeptierten und wodurch sie sich offenbar veranlasst sahen, selbst politisch zu argumentieren. Eine Woche später, am 30. März, heißt es im Protokoll:
„Zukünftiger Umgang mit Maskenfrage: Hochrangige Publikation von Autoren aus Hong Kong (NEJM?) steht an, Manuskript ist RKI bekannt, wann es publiziert wird noch nicht. Paper schlussfolgert, dass MNS zum Eigenschutz sinnvoll sein kann. Dies wurde bereits am Wochenende besprochen und stellt eine gute Möglichkeit dar, RKI Position in schriftlicher Form in den FAQ anzupassen. Bitte von BZgA: viele Akteure warten hierauf, gute, abgestimmte Kommunikation ist ganz wichtig um Vernachlässigung anderer Maßnahmen zu vermeiden. In 2 Wochen laufen hoffentlich mehr Produktionen an, wenn die Ausgangssperren gelockert werden, könnte dies gut hiermit gepaart werden, aber nur, wenn Publikation nicht vorher kommt und nicht vorher bereits Druck auf RKI zur Stellungnahme besteht. ToDo: Kommunikation MNS wenn Publikation raus, FG14 bereitet RKI Stellungnahme hierfür (FAQ) vor“
Die bevorstehende Publikation einer Studie aus Asien sollte also als Rechtfertigung für den Kurswechsel genutzt werden („gute Möglichkeit, Position anzupassen“). Die Maskenempfehlung sollte mit dem Aufheben von Ausgangssperren „gepaart“ werden. Auch das klang nach politischem Kalkül. Am Folgetag, dem 31. März, wurde der angedachte Kurswechsel konkreter. Mit Wissenschaft hatte das Agieren des RKI nun immer weniger zu tun, dafür mit Erwägungen, wie man sie von der Pressestelle oder von PR-Beratern eines Ministers erwarten würde:
„MNS Schutz: Stets mehr in den Medien, Stadt Jena macht MNS-Tragen Pflicht. RKI muss Haltung entwickeln, soll es für alle empfohlen werden? (…) RKI empfiehlt zunächst Zurückhaltung. WHO rät von allgemeinem MNS Tragen ab (…) Haltung muss zeitnah entwickelt werden, damit RKI glaubwürdig bleibt. Wo keine/mangelnde Public Health Evidenz verfügbar ist, muss auch weniger harte Evidenz genutzt werden, wichtig ist die Sprachregelung um für die Bevölkerung akzeptabel zu sein. FG14 und FG36 bereiten Sprachregelung vor, wie wir dazu kommen, allgemeinen MNS zu empfehlen; führende Rationale: es dient dem Fremdschutz, aber Argument, dass Infektionsstatus ggf. nicht bekannt ist; darf nicht zu einer Verringerung anderer Hygienemaßnahmen führen. ToDo: FG14 und FG36 bereiten RKI Stellungahme zur allgemeinen Verwendung von MNS vor“

Zu diesem Zeitpunkt scheint der politische Beschluss zur Maskenpflicht bereits gefasst worden zu sein. Das RKI musste den gewünschten 180-Grad-Kurswechsel nun so organisieren, dass seine Glaubwürdigkeit nicht nachhaltig geschädigt wurde. Drei Tage später, am 3. April verkündete die Nationale Akademie der Wissenschaften Leopoldina in einer Stellungnahme „Bedingungen für gelockerte Maßnahmen“, insbesondere das „flächendeckenden Tragen von Mund-Nasen-Schutz“ im öffentlichen Raum. Am 6. April wurde eine Maskenpflicht in Österreich eingeführt. Am gleichen Tag vermerkt das RKI-Protokoll:
„Parallel zur Deeskalationsstrategie sollte die Strategie um weitere Maßnahmen wie ein klares Statement zur Mund- Nasen-Bedeckung ergänzt werden. FAQ sind bereits modifiziert, aber Empfehlung für Mund-Nase-Bedeckungen in der Bevölkerung noch nicht aktiv genug propagiert. Die Problematik müsste so aufgearbeitet werden, dass zusätzliche Maßnahmen angesichts der gemäß NowCast weiter steigenden Fallzahlen sinnvoll erscheinen, auch wenn Evidenz für das Maskentragen in der Gesamtbevölkerung noch fehlt, aber aus Plausibilität und angesichts der Fallzahlen in Ländern, die diese Maßnahme einsetzen, sinnvoll ist.“
Eine Woche später, am 14. April, publizierte das RKI dann das bereits angekündigte Papier, das der Regierung die fachliche Vorlage zur Maskenpflicht bot: „Das RKI empfiehlt ein generelles Tragen einer Mund-Nasen-Bedeckung in bestimmten Situationen im öffentlichen Raum“. Das Papier spricht von einer „Neubewertung“.
Wie die Behörde in diesem Dokument die angebliche neue Evidenz für eine Wirksamkeit der Masken nur vorgetäuscht hat und damit die Öffentlichkeit – auch die Fachöffentlichkeit der Mediziner – in die Irre führte, hat Ines Kappstein in Ihrem gerade erschienenen Buch „Aerosole, Angst und Masken“ minutiös dargelegt. Frau Professor Kappstein, Jahrgang 1951, ist Fachärztin für Mikrobiologie, Virologie und Infektionsepidemiologie sowie Fachärztin für Hygiene und Umweltmedizin. Sie habilitierte in Krankenhaushygiene, arbeitete als Hygienikerin am Klinikum der TU München und war Chefärztin der Abteilung Krankenhaushygiene an den Kliniken Südostbayern. Es folgt ein Buchauszug.
Wie kam es zur Maskenpflicht in Deutschland?
Hintergrund und Grundlage für die Einführung der Maskenpflicht überall in Deutschland war die sogenannte „Neubewertung“ (1) durch das Robert Koch-Institut (RKI), die ich kurz danach zum Anlass für meinen Artikel in einer Fachzeitschrift meines Fachgebietes („Krankenhaushygiene up2date“) gemacht habe. Darin wurden vom RKI zwei entscheidende Aussagen gemacht, auf die sich die Empfehlung von Masken für die Öffentlichkeit stützt: erstens würden Masken „Fremdschutz“ gewährleisten, und dies sei erforderlich, weil es zweitens zu „unbemerkter Übertragung“ ausgehend von Personen kommen könne, die entweder asymptomatisch oder präsymptomatisch sind, das Virus also im Nasenrachenraum tragen und von dort auch ausscheiden, aber ohne es zu wissen, weil sich entsprechende respiratorische Symptome gar nicht entwickeln (asymptomatisch) oder noch nicht aufgetreten sind (präsymptomatisch).
In all den Jahren ‘vor Corona’ wurde im wissenschaftlichen Bereich nie von der Möglichkeit einer „unbemerkten Übertragung“ gesprochen, (…) wurde erst bei SARS- CoV-2 als ein völlig neues und noch dazu bedrohliches Risiko eingeführt und entstammt vermutlich der internationalen Pandemieübung „Event 201“ vom Oktober 2019, wo dieses Risiko zum skizzierten, aber auch als „fiktiv“ bezeichneten Szenario gehörte (…)
Alle Menschen sollten also deshalb eine Maske tragen, damit die Menschen, die bereits infiziert sind, es aber noch nicht wissen (können), weil sie noch keine Symptome haben (präsymptomatisch) oder auch gar keine entwickeln werden (asymptomatisch), alle andere Personen, denen sie begegnen, durch ihre Maske vor einem möglichen Erregerkontakt schützen. (…)
Das RKI sagt übrigens an keiner Stelle in dem Beitrag über die „Neubewertung“ ausdrücklich, dass es eine wissenschaftliche Grundlage (im Sinne von wissenschaftlichen Beweisen oder Belegen) für den Gebrauch von Masken in der Öffentlichkeit gebe. (1) Diese Schlussfolgerung legt der Text mit seinen mehrdeutigen Formulierungen lediglich nahe. Der Beitrag des RKI wurde, wie heute in Fachzeitschriften üblich, vorab online publiziert, und zwar schon am 14. April 2020, also unmittelbar nach Ostern. Somit stand die Stellungnahme des RKI für die Entscheidung der Bundesregierung über die Lockerungsmaßnahmen des ersten Lockdowns, die für eine Woche nach Ostern 2020 angekündigt waren, rechtzeitig zur Verfügung (und wie aus den ‘RKI-Files’ bekannt, wurde diese Stellungnahme im RKI seit Ende März 2020 vorbereitet). (…)
Das RKI empfiehlt in seinem Beitrag „ein generelles Tragen einer Mund-Nasen-Bedeckung (MNB) in bestimmten Situationen im öffentlichen Raum als einen weiteren Baustein, um Risikogruppen zu schützen und den Infektionsdruck und damit die Ausbreitungsgeschwindigkeit von COVID-19 in der Bevölkerung zu reduzieren“. Diese Empfehlung beruhe „auf einer Neubewertung aufgrund der zunehmenden Evidenz, dass ein hoher Anteil von Übertragungen unbemerkt erfolgt, und zwar bereits vor dem Auftreten von Krankheitssymptomen“.
Das RKI spricht in seinem Beitrag davon, dass ein „hoher Anteil von Übertragungen unbemerkt“ erfolge, verweist dafür aber nicht auf eine Quelle, obwohl es von „zunehmender Evidenz“ spricht. In der Literaturliste des Beitrags finden sich jedoch zwei Publikationen, auf die sich das RKI bei seiner Aussage vielleicht bezogen hat (und im Text wurden möglicherweise nur die Literaturverweise dazu vergessen). Es handelt sich zum einen um eine mathematische Schätzung, wonach die präsymptomatische Übertragung sehr hoch, nämlich zwischen 48 % und 77 %, sei. (2) Dem Ergebnis der zweiten Publikation liegt ebenfalls eine mathematische Schätzung, auch mit einer sehr hohen präsymptomatischen Übertragungsrate von 79 % zugrunde. (3)
Auf den Internetseiten des RKI hieß es unter den FAQ zu der Frage „Was ist beim Tragen einer MNB in der Öffentlichkeit zu beachten?“ vom 15. Juli (4) dann nicht mehr „hoher Anteil“, sondern nur noch „gewisser Anteil“, um schließlich in den FAQ seit dem 7. September 2020 von einem „relevanten Anteil“ (5) zu sprechen. (…) Im COVID-Steckbrief vom 26. November 2021 taucht der Begriff „unbemerkte Übertragung“ nicht mehr auf, sondern es heißt:
„Da im Zeitraum vor dem Auftreten von Symptomen eine hohe Infektiosität besteht, steckt sich ein relevanter Anteil von Personen innerhalb von 1-2 Tagen bei bereits infektiösen, aber noch nicht symtomatischen Personen an . Wie groß dieser Anteil ist, kann nicht genau beziffert werden, da in vielen der Studien der ‘Symptombeginn’ nicht oder nicht ausreichend definiert wurde“.
Die beiden angegebenen Referenzen sind die oben vorgestellten mathematischen Schätzungen, in denen hohe Übertragungsraten genannt sind, und das RKI stellt nun einfach fest, dass „nicht genau beziffert werden“ könne, wie groß der Anteil an präsymptomatischen Übertragungen ist, hat aber ursprünglich von einem „hohen“, kurze Zeit später von einem „gewissen“ und vier Wochen danach von einem „relevanten“ Anteil gesprochen, bevor es in der Version dem 26. November 2021 schlicht sagt, dass man nicht weiß, wie hoch dieser Anteil ist, bezeichnet ihn auch dann aber weiterhin doch noch als ‘relevant’, was auch immer das bedeuten soll. Für eine Behörde, die zur Wissenschaftlichkeit verpflichtet ist (Paragraf 1 Infektionsschutzgesetz), ein bemerkenswerter Schwenk in der Aussage. (…)
Es sagt seit Juni 2020 (also ca. 2 Monate nach dem alles entscheidenden Artikel im Epidemiologischen Bulletin vom April 2020), ohne dass es irgendwelche anderen wissenschaftlichen Daten dafür nannte (sogar auf genau derselben Publikationsgrundlage wie zur Zeit der „Neubewertung“ Mitte April 2020, die bereits keinen wissenschaftlichen Hintergrund hatte, da es sich um mathematische Schätzungen, sogenannte Modellierungen beziehungsweise Simulationen, handelt), dass
- symptomatische Personen am wichtigsten für eine Erregerübertragung sind (was schon immer zum Basiswissen selbst von medizinischen Laien gehört), dass aber
- nicht genau beziffert werden könne, wie hoch der Anteil präsymptomatischer Personen an der Übertragung des Virus sei, und dass
- asymptomatische Personen von geringer Bedeutung seien. Und das alles, nachdem das RKI im April 2020 mit der „Neubewertung“ behauptet hatte, die „unbemerkte Übertragung“ durch prä- und asymptomatische Personen mache einen so hohen Anteil an den Übertragungen aus, dass die gesamte Bevölkerung in der Öffentlichkeit Masken tragen müsse, um alle anderen vor den Viren der prä- und asymptomatischen Personen zu schützen.
Nichts war jemals wissenschaftlich belegt. Insgesamt war dies eine große Irreführung der Bevölkerung, die nicht durch mangelndes Wissen zur damaligen Zeit erklärt werden kann. (…)
Zwei Dinge sind jedenfalls klar: Eine Maskenpflicht hätte mit dem, was das RKI schon seit Juni 2020 zur Übertragung dieses Virus schreibt, nicht begründet werden können, und waren auch die Massen-Tests bei Gesunden nur über die behauptete „unbemerkte Übertragung“ zu rechtfertigen. (…)
Nachdem also der – so vermutet – politische Auftrag des RKI mit dem Maskenartikel von Mitte April 2020 erledigt worden war, musste das RKI wieder den Weg zurück zur Wissenschaftlichkeit finden, und hat dies frühzeitig (im Sommer 2020) über die FAQ so unauffällig wie möglich (von „hoher Anteil“ über „gewissen Anteil“ zu „relevanter Anteil“) und deutlich über den COVID-Steckbrief (etwa zur selben Zeit) getan. (…) Das RKI hat in seinem Maskenartikel über die „unbemerkte Übertragung“ eine unbelegte Behauptung aufgestellt, diese Aussagen aber kurz danach auf den wissenschaftlichen Internet-Seiten des RKI revidiert. Diese Diskrepanz wurde öffentlich nicht bemerkt (…) auch die Fach-Öffentlichkeit hat es nicht gemerkt oder nicht darauf reagiert. (…)
Neu war das alles aber nicht. Dass nämlich infizierte Personen bereits vor Beginn der Krankheitssymptome potentiell infektiös sind (und in der Regel dabei sogar mehr Viren ausscheiden als während der symptomatischen Phase der Erkrankung), ist seit langer Zeit von anderen Virusinfektionen bekannt, deren Erreger ebenfalls über das respiratorische Sekret ausgeschieden werden (z. B. Influenza, Masern). Dass dies bei einer Infektion mit dem neuen Coronavirus auch der Fall ist, war deshalb für die eigentliche Fachwelt nichts Neues beziehungsweise zu erwarten. (…) Das bedeutet aber in der Realität nur, dass es möglich ist, jedoch nicht, dass diese Personen zwangsläufig den jeweiligen Erreger auch verbreiten: Über das Ausmaß der („unbemerkten“) Erregerverbreitung bei präsymptomatischer oder asymptomatischer Virusausscheidung gibt es inzwischen weitere Daten, die zeigen, dass es sich nur um einen geringen Anteil handelt. Eine Wissenschaftlerin der WHO, Dr. Maria van Kerkhove, äußerte sich bei einem Presse-Briefing der WHO in Genf schon am 8. Juni 2020 folgendermaßen:
„Nach den uns vorliegenden Daten scheint es immer noch selten vorzukommen, dass eine asymptomatische Person das Virus tatsächlich an eine zweite Person weitergibt.“ Und weiter: „Wir haben eine Reihe von Berichten aus Ländern, die eine sehr detaillierte Kontaktverfolgung betreiben. Sie verfolgen asymptomatische Fälle. Sie verfolgen Kontakte. Und sie finden keine sekundäre Übertragung. Das ist sehr selten.“ (6) (…)
Dies liegt sehr wahrscheinlich daran, dass bei infizierten Personen ohne die klinischen Symptome einer oberen Atemwegsinfektion, also ohne Husten und Niesen, eine Erregerübertragung vor allem bei engem Kontakt stattfindet, also insbesondere bei Schleimhautkontakt, wie bei Paaren und in Familien, aber eben in der Regel nicht bei den meist sehr kurzen Begegnungen von Menschen im öffentlichen Raum wie ebenso nicht in Schulen. (…)
Ende November 2020 wurde eine Untersuchung aus China publiziert, die über das Ergebnis eines PCR-Screening-Programms in ganz Wuhan zwischen 14. Mai und 1. Juni 2020 berichtet. (7) Dabei wurden fast 10 Millionen (!) Menschen untersucht. Neue symptomatische Fälle wurden nicht gefunden, aber 300 asymptomatische Personen. Unter den engen Kontaktpersonen dieser asymptomatischen Personen (N = 1.174) fand sich kein positiver Fall. Es gab also danach keinen Hinweis auf asymptomatische Übertragungen, obwohl jeweils nur enge Kontaktpersonen untersucht wurden.
Ein systematischer Review mit Metaanalyse über Corona-Übertragungen in Haushalten erschien im Dezember 2020 und ergab erwartungsgemäß eine höhere Übertragungsrate ausgehend von symptomatischen Index-Fällen (18,0 %) als ausgehend von asymptomatischen Fällen, bei denen die Übertragungsrate sogar nur 0,7 % betrug. (8) (…) Wie gering dann aber erst das Risiko sein muss, dass eine Erregerübertragung ausgehend von asymptomatischen Personen bei den flüchtigen Kontakten im öffentlichen Raum stattfindet, ist nie untersucht worden. Dennoch mussten trotz dieser Datenlage weiterhin knapp 80 Millionen Menschen in Deutschland – und insbesondere Kinder – bei zahlreichen Gelegenheiten in der Öffentlichkeit, sogar außerhalb von geschlossenen Räumen Masken tragen. (…)
Zusammenfassend kann die vom RKI zitierte wissenschaftliche Grundlage für die Maskenempfehlung im öffentlichen Raum folgendermaßen beurteilt werden:
- 1. Nicht evidence-based: Es gibt aus der im Beitrag des RKI zitierten Fachliteratur keine wissenschaftlichen Belege dafür, dass Masken (ganz gleich welcher Art), die von der normalen Bevölkerung im öffentlichen Raum (Geschäfte, ÖPNV, Schulen etc.) getragen werden, die Erregerübertragung bei respiratorischen Infektionen auf der Ebene der Bevölkerung reduzieren können. (…)
- 2. „Unbemerkte Übertragung“ selten: Das RKI führt keine Belege für die Aussage am Anfang des Beitrags an, dass es eine zunehmende Evidenz dafür gebe, „dass ein hoher Anteil von Übertragungen unbemerkt erfolgt“. Man muss festhalten: Genau diese angebliche Möglichkeit der unbemerkten Übertragung war der Grund für die „Neubewertung“ von Masken in der Öffentlichkeit durch das RKI. Schon damals aber gab es keine Belege dafür. (…)
- 3. Epidemiologischer Zusammenhang entscheidend: Zwar führt das RKI in dem Beitrag an, dass „Ausbruchsuntersuchungen und Modellierungsstudien“ zeigten, dass „die rasche Ausbreitung von SARS-CoV-2 auf einem hohen Anteil von Erkrankungen beruhe, die initial mit nur leichten Symptomen beginnen, ohne die Erkrankten in ihrer täglichen Aktivität einzuschränken. Bereits 1–3 Tage vor Auftreten der Symptome kann es zu einer Ausscheidung von hohen Virusmengen kommen. Eine teilweise Reduktion dieser unbemerkten Übertragung von infektiösen Tröpfchen durch das Tragen von MNB könnte auf Populationsebene zu einer weiteren Verlangsamung der Ausbreitung beitragen.“ Doch handelt es sich dabei, wie bereits oben erwähnt, um bekannte Tatsachen, die nichts mit den angeblich neuen wissenschaftlichen Belegen für die Wirksamkeit von Masken im öffentlichen Raum zu tun haben. (…)
Trotz all dieser offensichtlichen Einschränkungen in der Aussagefähigkeit der angeführten angeblichen Belege endet der Beitrag des RKI mit der Aussage:
„In dem System verschiedener Maßnahmen ist ein situationsbedingtes generelles Tragen von MNB (oder MNS, wenn die Produktionskapazität dies erlaubt) in der Bevölkerung ein weiterer Baustein, um Übertragungen zu reduzieren.“ (1)
Das RKI wechselt also von „kann“ und „könnte“ zu „ist“ oder: vom Möglichen zum Tatsächlichen – mit erheblicher Auswirkung. Nachdem sich nämlich das RKI auf den ersten beiden Seiten nur eher vorsichtig zu den möglichen positiven Auswirkungen geäußert hat („könnte“, „kann“), spricht es in diesem letzten Satz mit „ist“ aber so, als ob das Tragen von Masken tatsächlich, also durch die Ergebnisse wissenschaftlicher Untersuchungen bestätigt, ein solcher Baustein wäre, dies allerdings, ohne dass dafür eine wissenschaftliche Grundlage angeführt würde (und auch könnte).
Diese Formulierung am Ende des Beitrags ist eine ‘politische’ Aussage und mag für all die Leser (zum Beispiel Politiker, Journalisten) gewählt worden sein, die nur den letzten Satz (oder Absatz) eines Artikels lesen, weil dort oft ein (leicht lesbares) kurz gefasstes Resümee gegeben wird. Bei den Lesern hängen bleibt damit der Eindruck, dass eine positive Wirkung der Maskenempfehlung für den öffentlichen Raum eine ‘Tatsache’ darstellt – was jedoch gerade nicht der Fall ist (…).
Für die Politik war diese Aussage jedoch essentiell, um die Maskenpflicht verhängen zu können, weil damit das RKI als die entscheidende wissenschaftliche Behörde Deutschlands für die Prävention von Infektionen, der die Gerichte in aller Regel eine hohe Bedeutung zumessen, die entscheidende Begründung der Maskenpflicht geliefert hat.
Fazit: Zum Zeitpunkt des RKI-Beitrags wurden weder vom RKI noch von der WHO (2019) noch von ECDC oder CDC wissenschaftliche Daten für eine positive Wirkung von Masken in der Öffentlichkeit (im Sinne einer reduzierten „Ausbreitungsgeschwindigkeit von COVID-19 in der Bevölkerung“) vorgelegt, weil es – und dies gilt auch noch jetzt vier Jahre später – solche Daten nicht gibt. (1,9,10,11) (…)
Es gibt zahlreiche Beispiele aus anderen Ländern, wo, wie zum Beispiel in Spanien, trotz strengster Maskenpflicht zwischen Juli und Ende Oktober 2020 die Fallzahlen der positiv getesteten Personen extrem anstiegen, während sie in Schweden ohne Maskenpflicht im selben Zeitraum deutlich niedriger waren. (12) Dafür gibt es weitere Beispiele aus anderen Ländern: trotz Maskenpflicht stiegen die Zahlen der positiven Testergebnisse stark an. (13,14) Man kann aber ähnliches auch für Deutschland aus den Daten des RKI sehen (Einführung der Maskenpflicht am 27. April 2020) (zum Beispiel in den täglichen Situationsberichten). Ebenso sagte der inzwischen pensionierte Leiter der österreichischen AGES (Agentur für Gesundheit), dass weder die Einführung der Maskenpflicht noch ihre Aufhebung messbare Auswirkungen auf das Infektionsgeschehen in Österreich gehabt haben. (15) In den letzten zwei Monaten des Jahres 2020 hatte auch in Schweden die Zahl der positiv getesteten Personen deutlich zugenommen, allerdings nicht in dem Maße wie in Österreich, wo die Maskenpflicht fast durchgängig seit dem Frühjahr 2020 galt. Auch bei all diesen öffentlich zugänglichen Daten aus zahlreichen Ländern können nicht be- beziehungsweise erkannte Einflussfaktoren eine Rolle gespielt haben, aber auffällig ist, dass sich in keinem der Länder ein Effekt der Maskenpflicht auf die ‘Fallzahlen’ zeigte. (…)
Wegen fehlender wissenschaftlicher Grundlage und damit fehlender Belege für eine Wirksamkeit im beabsichtigten Sinne hätte gemäß Paragraf 1 Satz 2 des Infektionsschutzgesetzes, wo ausdrücklich wissenschaftliche Belege gefordert werden, aber kein Raum für politische Entscheidungen gelassen wird, eine Maskenpflicht nicht ausgesprochen werden dürfen. Insbesondere längeres oder gar stundenlanges Tragen von Masken, wie es insbesondere bei Schulkindern sowie bei medizinischem Personal der Fall war, ist sehr belastend und ist ganz offensichtlich keine ‘milde’ Maßnahme. Eine Maskenpflicht war aufgrund der wissenschaftlichen Datenlage nicht gerechtfertigt – ganz entgegen den zahlreichen Behauptungen. Nutzen und Risiken wurden nie verantwortungsvoll und umfassend gegeneinander abgewogen, ein Nutzen wurde behauptet, aber Risiken wurden negiert. Die Maskenpflicht wurde also entgegen den damals schon verfügbaren wissenschaftlichen Erkenntnissen erlassen und war damit eine politische Maßnahme.
Der Beitrag Maskenpflicht: Wie das Robert Koch-Institut die Öffentlichkeit täuschte ist zuerst erschienen auf anonymousnews.org – Nachrichten unzensiert und wurde geschrieben von Redaktion.