Kategorie: Nachrichten
Wann beginnt der Westen mit der Zahlung von Reparationen?
Schweizer Lemminge
Es hat sich herausgestellt, dass Lemminge den Menschen in nichts nachstehen, wenn es darum geht, dem Nächsten über die Klippe zu folgen. Als ich ein Kind war und etwas tun wollte, sagte ich zu meiner Mutter: „Aber Mama, die anderen Kinder machen das doch auch!“ Und ihre Antwort war immer: „Wenn deine Freunde von einer Klippe springen würden, meinst du, du solltest auch springen?“
Leider scheint die Antwort heutzutage immer öfter zu lauten: „Auf jeden Fall, nur so kann man den Planeten retten!“ … hier ist das Neueste:
Schweizer Wähler unterstützen Klimagesetz, während Wissenschaftler vor schmelzenden Gletschern warnen
19. Juni 2023, 3:22 AM ET
Von The Associated Press
Matthias Schrader/AP
BERLIN – Die Schweizer haben am Sonntag mehrheitlich für eine Gesetzesvorlage gestimmt, mit der neue Klimamaßnahmen eingeführt werden sollen, um die Treibhausgas-Emissionen des reichen Alpenlandes drastisch zu senken.
Hier ist eine Übersetzung:
BERLIN – Eine Mehrheit der Schweizer Bürger stimmte am Sonntag für ein Gesetz, das sie verpflichtet, den Deutschen zu folgen, die von einer Alpenklippe springen …
(Am Rande sei bemerkt, wie beeindruckt ich von der Komposition und der subtilen Botschaft des Fotos des Schweizer Glaziologen bin, der sein Kreuz auf dem Weg nach Golgatha trägt … aber ich schweife ab …)
Schauen wir uns also an, welche Auswirkungen dieses Schweizer Klimagesetz tatsächlich haben könnte. Anstatt über das künftige Klima zu spekulieren, sollten wir die Vergangenheit betrachten. Nehmen wir für diese Diskussion an, die Schweiz hätte nie ein einziges Molekül CO₂ emittiert. Welchen Unterschied hätte das für die Temperatur im Jahr 2023 gemacht?
Um eine Vorstellung von der Tragweite dieser Frage zu bekommen, hier die Aufzeichnung der Schweizer CO₂-Emissionen seit 1850 aus der CO₂-Datenbank von Our World In Data:
Sieht ziemlich beeindruckend aus, oder? Die Emissionen erreichten 1973 ihren Höhepunkt, stagnierten bis etwa 2010 und sind seither rückläufig. Den Schweizern ist es gelungen, ihre Emissionen seit dem Höchststand zu reduzieren. Was gibt es da nicht zu mögen?
Um diese Frage zu beantworten, sollten wir die CO₂-Emissionen der Schweiz und der Welt in ein Diagramm einbetten. Abbildung 2 zeigt das Ergebnis:
Abbildung 2. CO₂-Emissionen, Schweiz und Rest der Welt, seit 1858. Man beachte, dass dies genau die gleichen Schweizer Daten sind, die in Abbildung 1 gezeigt werden.
Oooh … die großartige Leistung der Schweiz scheint hier draußen in der realen Welt nicht allzu beeindruckend zu sein.
Beantworten wir nun meine oben gestellte Frage: Wenn die Schweiz nie ein einziges Molekül CO₂ ausgestoßen hätte, welchen Unterschied hätte das für die Temperatur im Jahr 2023 gemacht?
Dazu müssen wir berechnen, um wie viel die atmosphärische CO₂-Konzentration pro Gigatonne (109 Tonnen) CO₂-Emissionen steigt. Dazu müssen wir die kumulative Summe der CO₂-Emissionen gegen die atmosphärische Konzentration aufrechnen:
Anhand dieses Verhältnisses können wir auf die Schweizer Emissionsdaten zurückgreifen und berechnen, wie viel sie zum atmosphärischen CO₂ beigetragen haben. Wenn wir das wissen, führt eine Verdoppelung des atmosphärischen CO₂ nach den Zahlen des IPCC zu einer Temperaturveränderung von 3°C. Anhand dieser Beziehungen lässt sich die Temperaturveränderung durch die Schweizer Emissionen seit 1858 berechnen:
Hmmm … ich denke, dass 0,0037°C keinen großen Unterschied für die Schweizer Gletscher bedeuten…
Die Schweizer wissen sehr gut, dass die Temperatur mit zunehmender Höhe sinkt. Dort oben ist es kalt, weil die [trockene] Luft pro 100 Meter zusätzlicher Höhe um 1°C abkühlt.
Die gesamte von den Schweizer Emissionen verursachte Erwärmung seit 1858 entspricht also in etwa dem Temperaturunterschied zwischen Ihrem Fuß und Ihrer Wade …
Ich frage mich, wie viele Schweizer Wähler dafür gestimmt hätten, mehr als 3 Milliarden Schweizer Franken (3,357 Milliarden US-Dollar) für einen so erbärmlich geringen Effekt auszugeben, wenn sie diese Informationen vor der Wahl erhalten hätten?
Link: https://wattsupwiththat.com/2023/06/21/swiss-lemmings/
Übersetzt von Christian Freuer für das EIKE
Solarenergie erzeugt Abfall und Verschmutzung

H. Sterling Burnett
Die Mainstream-Medien wachen vielleicht endlich auf und erkennen, dass Solarenergie nicht so umweltfreundlich ist, wie ihre Befürworter behauptet und wie sie weitgehend unkritisch berichtet haben.
Meine Kollegen vom Heartland Institute und ich haben bereits früher die Umweltauswirkungen der Solarenergie-Erzeugung beschrieben, angefangen bei der Produktion von Solarmodulen in Bezug auf Abfall und Umweltverschmutzung bis hin zu den Auswirkungen auf Vögel und andere Spezies sowie den Fußabdruck auf dem Land.
Ein weiteres Problem, das Heartland-Wissenschaftler bereits mehrfach erörtert haben, sind die zunehmenden Abfälle von Solarmodulen, der durch kaputte Module und solche anfällt, die das Ende ihrer Lebensdauer erreicht haben.
Das letztgenannte Problem erhält allmählich die Aufmerksamkeit, die es verdient. Ein kürzlich erschienener Untersuchungsbericht der BBC hat ergeben, dass die Milliarden von Solarmodulen, die derzeit weltweit auf Dächern und in industriellen Solaranlagen installiert sind, und die weiteren Milliarden, die nach den Plänen der Regierungen rund um den Globus installiert werden sollen, Berge von Abfällen erzeugen oder in Kürze erzeugen werden, für die es in der Branche keine gute Lösung gibt.
Es ist schwierig, ausgemusterte Solarmodule zu entsorgen oder zu recyceln. Gegenwärtig werden die meisten gebrauchten Solarmodule entweder auf Mülldeponien entsorgt oder zur Verwendung im Ausland verschifft. Weniger als 1 von 10 Solarmodulen wird recycelt.
Solarmodule werden in der Regel entfernt, wenn die von ihnen erzeugte Energie deutlich nachlässt, was in der Regel nach 20 bis 30 Jahren der Fall ist, wenn sie nicht zuvor beschädigt oder funktionsunfähig geworden sind. Solche Paneele produzieren zwar immer noch Energie, aber deutlich weniger als für Hausbesitzer, Unternehmen und Energieversorger erforderlich ist, um davon zu profitieren. Einige Unternehmen haben einen wachsenden Markt für gebrauchte, minderwertige Solarmodule in Entwicklungsländern entdeckt. Die Lebensdauer der Paneele geht jedoch irgendwann zu Ende, so dass sich das Entsorgungsproblem nur von den Industrieländern auf die ärmeren Länder verlagert.
Darüber hinaus rückt das Abfallproblem durch verbesserte Solartechnologien zeitlich immer näher. Wie bei Fernsehern, Computern, Autos und anderen Technologien ersetzen viele Menschen bestehende Solarmodule durch neuere, effizientere, wenn sich die Technologie verbessert, und zwar nach nur 10 oder 15 Jahren der Nutzung, also lange vor dem Ende der Lebensdauer der Module, wie die BBC berichtet. Dadurch entsteht schon früher mehr Abfall.
Solarmodule enthalten eine Mischung aus wertvollen und giftigen Materialien, von denen einige recycelbar sind, andere nicht oder zumindest nicht leicht. Natürlich werden große Mengen an Glas verwendet, aber auch kleine Mengen an Kupfer, Silber und verschiedenen kritischen Materialien. Wie die BBC berichtet, ist das Recycling der Paneele aufgrund ihrer Beschaffenheit sehr teuer. Selbst wenn sie recycelt werden, ist der größte Teil des Abfalls damit noch nicht abgedeckt. Nicolas Defrenne von Soren, einem französischen Unternehmen, das mit anderen an der Wiederverwertung von Solarmodulen in Frankreich arbeitet, erklärte gegenüber der BBC: „Über 60 % des Wertes sind in 3 % des Gewichts der Solarmodule enthalten.“
Darüber hinaus enthalten Solarmodule giftige Metalle wie Blei, Kadmium und Selen. Die Vermischung von wiederverwertbaren und giftigen Elementen macht es unerschwinglich, die geringe Menge an wertvollen Materialien in jedem Panel von den giftigen zu trennen.
„Der Grund dafür, dass sich nicht mehr Unternehmen mit dem Recycling von Solarmodulen befassen ist, dass es wirtschaftlich keinen Sinn macht“, sagte A. J. Orben, Vizepräsident von We Recycle Solar, gegenüber GreenBiz. „Es kostet mehr, ein Panel zu zerlegen und die Rohstoffe zurückzugewinnen, als die Rohstoffe selbst wert sind“.
Wie groß ist die Herausforderung? Ein von der BBC befragter Analyst schätzt, dass derzeit weltweit 2,5 Milliarden Solarmodule auf Dächern und in industriellen Solaranlagen installiert sein könnten. Bei einer jährlichen Wachstumsrate im zweistelligen Bereich und der Tatsache, dass die Regierungen immer mehr Solarenergie subventionieren und vorschreiben, können wir davon ausgehen, dass in den nächsten Jahrzehnten Hunderte von Milliarden Solarpaneele installiert werden – vorausgesetzt, es können genügend Rohstoffe abgebaut und in Paneele umgewandelt werden, was derzeit noch sehr unwahrscheinlich ist.
Ute Collier, stellvertretende Direktorin der Internationalen Agentur für erneuerbare Energien, beschrieb die Herausforderung gegenüber der BBC:
„Bis zum Jahr 2050 werden wir einen Müllberg haben, wenn wir nicht jetzt Recyclingketten in Gang setzen. …“
Bis 2030 werden wir wohl vier Millionen Tonnen Schrott haben – was immer noch überschaubar ist – aber bis 2050 könnten es weltweit mehr als 200 Millionen Tonnen sein.
Das ist nur das Entsorgungsproblem bei der Solarenergie. Weitere kostspielige Schwierigkeiten entstehen, wenn Unternehmen, die große industrielle Solaranlagen entwickeln, die indirekten Umweltauswirkungen der Entwicklung nicht berücksichtigen, wie Solarentwickler kürzlich in einem Gerichtsverfahren feststellen mussten.
Ein US-Bundesgericht hat kürzlich einem Ehepaar im Südwesten Georgias 135,5 Millionen Dollar Schadensersatz und Strafschadensersatz zugesprochen, nachdem die Abwässer der 400 Hektar großen Lumpkin-Solaranlage Gewässer und Böden auf ihrem ländlichen Grundstück verschmutzt und einen Angelsee zerstört hatten.
Meta, die Muttergesellschaft von Facebook, lobte noch vor Kurzem die Lumpkin-Anlage für die Bereitstellung von grüner Energie für ihr Rechenzentrum in Georgia. „Wir danken der Silicon Ranch … für ihr Engagement für eine erfolgreiche Umsetzung und dafür, dass sie unsere Verpflichtung teilt, einen positiven Einfluss auf die Gemeinden zu haben, in denen wir uns niederlassen“, sagte Metas Direktor für erneuerbare Energien bei der Unterzeichnung des Stromvertrags.
Angesichts der von ihr verursachten Umweltverschmutzung kann die von ihr erzeugte Energie kaum als umweltfreundlich bezeichnet werden oder zumindest für einige Menschen in der Gemeinde eine positive Wirkung haben.
Als IEA für den Bau der 100-Megawatt-Solaranlage von Silicon Ranch in Lumpkin rund 400 Hektar Wald-, Farm- und Jagdland rodete, versäumte das Unternehmen offenbar, angemessene Maßnahmen zur Bekämpfung der Umweltverschmutzung zu ergreifen. Diese Maßnahme mag zwar kostensparend gewesen sein, aber sie kam das Unternehmen teuer zu stehen. Schwere Regenfälle schwemmten Schlamm und Sedimente auf das Grundstück von Shaun und Amie Harris.
„Das Ergebnis ist das, was man erwarten würde – bei Regen ergoss sich die Verschmutzung bergab und flussabwärts auf das Grundstück der Nachbarn, überschwemmte Feuchtgebiete mit Schlamm und Sedimenten und verwandelte einen 8 Hektar großen Angelsee in ein Schlammloch“, so James E. Butler, der Anwalt des Paares, in einer Erklärung.
Anstatt die gebührende Umsicht und die übliche Sorgfaltspflicht walten zu lassen, haben die Unternehmen „ein Ärgernis geschaffen, betrieben und aufrechterhalten …, das zu einer Verschmutzung der Feuchtgebiete, Bäche und des Sees der Kläger durch Sedimente führte“, urteilte Bundesbezirksrichter Clay D. Land. „Das Gericht stellt ferner fest, dass diese Belästigung seit etwa zwei Jahren unvermindert anhält“.
Dies ist nur ein Fall, aber es ist etwas, auf das man achten sollte, wenn mehr große Solaranlagen entwickelt werden. Umweltprobleme, die von diesen Anlagen ausgehen, können in vielerlei Hinsicht auftreten.
Sources: Climate-Science Press; CFACT; BBC
Übersetzt von Christian Freuer für das EIKE
Kommentar des Übersetzers: Das hier angesprochene Müllproblem von Solarpaneelen ist ja nur eines von vielen weiteren Umwelt-Zerstörungen. Über das Problem der teils hoch giftigen Rohstoffe für diese Dinger wurde schon in anderen Beiträgen berichtet. Etwas, das bei der ganzen Diskussion aber kaum eine Rolle spielt: Solarfelder sind eine gigantische Heizanlage für die freie Atmosphäre! Die Dinger werden heiß in voller Sonne – man schaue mal ein Infrarotbild eines solchen Feldes an. Gleichzeitig ist damit eine erhebliche Austrocknung der Luft verbunden – Feuchtigkeit kann nur aus dem Boden kommen, aber der ist ja abgeschattet – also keine Verdunstung möglich. Solarfeld = heiß und extrem trocken – das ist der Klimawandel á la EU!
Robert-Koch-Institut präsentiert Hitzeopfer-Dashboard

Akteure der Pandemie-Industrie arbeiten entschlossen an der Pathologisierung des Sommers. Das RKI veröffentlicht für Deutschland jetzt einen wöchentlichen Hitzeopfer-Bericht. Merken Sie es? Wir sind mit in einer Gesundheitskrise! Das behaupten zumindest die Akteure der Pandemie-Industrie. Karl Lauterbach hat bereits erklärt, dass „zu viele Menschen an den zunehmenden Hitzewellen sterben.“ Das RKI liefert nun einen Wochenbericht […]
Der Beitrag Robert-Koch-Institut präsentiert Hitzeopfer-Dashboard erschien zuerst unter tkp.at.
UNO, Soros und Digitalkonzerne intensivieren Kampf gegen Meinungs- und Pressefreiheit

Die zentralistischen und globalistischen Organisationen von EU über WHO bis zur UNO intensivieren Zensur und die Unterdrückung von freier Meinungsäußerung. Damit werden gravierende politische Veränderungen unterstützt, an denen die Pharmaindustrie, die Digitalkonzerne und das Finanzkapital großes Interesse haben. Gefördert werden die verschiedenen Impfkampagnen, die Ernährungswende weg von landwirtschaftlichen hin zu industriell in der Retorte gezüchtetem […]
Der Beitrag UNO, Soros und Digitalkonzerne intensivieren Kampf gegen Meinungs- und Pressefreiheit erschien zuerst unter tkp.at.
SIE HABEN SCHNAPPATMUNG ?
#TEAMHEIMAT
Es wird immer spannender im besten Deutschland aller Zeiten.
In Essen und Stuttgart zeigt sich wie sich unsere Heimat verändert.
Die Politik & Medien werden zunehmend Antidemokratischer.
Dumm nur, das immer mehr Menschen Ihnen nicht mehr glauben.
Unbekannte und ungewisse Ozean-Wassertemperatur
Tony Brown
Vorbemerkung des Übersetzers: Dieser Beitrag ist schon älter, genauer gesagt stammt er aus dem Jahr 2011. Auch die hinterlegten Links sind natürlich die aus jener Zeit. Aber angesichts jüngster Meldungen über „extrem hohe Temperaturen im Nordatlantik“ und vor dem Hintergrund eines wahrscheinlichen neuen El Nino ist er heute noch hoch aktuell, weshalb er hier übersetzt wird. – Ende Vorbemerkung
Im Laufe der Jahre hat mich die Art und Weise fasziniert, in der historische Aufzeichnungen der Temperatur – die nie dazu gedacht waren, mehr als ein grobes Abbild des Mikroklimas um sie herum zu sein – verwendet wurden, als ob es sich um hochgenaue wissenschaftliche Daten handelte, und in der Folge zur Information der Politik genutzt wurden. Ich habe zwei Artikel über ihre historische Genauigkeit geschrieben, die beide über diesen Link abgerufen werden können.
Das ozeanische Äquivalent – die Meerestemperaturen (SST) – haben sogar noch zweifelhaftere Ursprünge als die Landtemperaturen, werden aber auch als wissenschaftliche Aufzeichnung wahrgenommen, die unser globales Verständnis der SST bis in die mittleren Jahrzehnte des 19. Jahrhunderts ebenfalls geprägt haben. In gewisser Weise sind sie sogar noch wichtiger als die Landtemperaturen, da der Ozean 70 % unseres Globus‘ ausmacht.
In diesem Artikel befassen wir uns mit den Verfahren zur Berechnung der SST – am bekanntesten ist das Hadley/Met Office, das die hier gezeigte Grafik der SST-Anomalien ab 1850 erstellt hat. Die Methodik wird vom Met Office Hadley Centre hier beschrieben:
„Die SST-Daten stammen aus dem International Comprehensive Ocean-Atmosphere Data Set, ICOADS, von 1850 bis 1997 und aus dem NCEP-GTS von 1998 bis heute. HadSST2 wird durch In-situ-Messungen der SST von Schiffen und Bojen erstellt, wobei Messungen, welche die Qualitätskontrollen nicht bestehen, zurückgewiesen werden, die Messungen in Anomalien umgewandelt werden, indem klimatologische Werte von den Messungen abgezogen werden, und ein robuster Mittelwert der resultierenden Anomalien auf einem monatlichen Gitter von 5° mal 5° Grad berechnet wird. Nach der Rasterung der Anomalien werden Verzerrungskorrekturen vorgenommen, um falsche Trends zu beseitigen, die durch Änderungen der SST-Messverfahren vor 1942 verursacht wurden. Für die gerasterten Monatsdaten wurden die Unsicherheiten aufgrund einer zu geringen Stichprobengröße berechnet, ebenso wie die Unsicherheiten bei den Verzerrungskorrekturen gemäß den in der Arbeit beschriebenen Verfahren.“
Wikipedia definiert die Meerestemperatur wie folgt:
„Die Meerestemperatur (SST) ist die Wassertemperatur in der Nähe der Oberfläche des Ozeans. Die genaue Bedeutung der Oberfläche variiert je nach verwendetem Messverfahren, liegt aber zwischen 1 Millimeter und 20 Metern unter der Meeresoberfläche.“
Die Komplexität der Definition der Meerestemperatur wird hier jedoch näher erläutert:
Die SST ist ein schwer genau zu definierender Parameter, da der obere Ozean (~10 m) eine komplexe und variable vertikale Temperaturstruktur aufweist, die mit den Turbulenzen im Ozean und den Wärme-, Feuchtigkeits- und Impulsflüssen zwischen Luft und Meer zusammenhängt. Definitionen der SST bieten einen notwendigen theoretischen Rahmen, der zum Verständnis des Informationsgehalts und der Beziehungen zwischen SST-Messungen durch verschiedene Satelliten- und In-situ-Instrumente verwendet werden kann.
Um herauszufinden, wie die grundlegenden SST-Daten physikalisch erfasst, verfeinert und anschließend als Grundlage für Informationen verwendet werden, die von Regierungen auf der ganzen Welt und in Verbindung mit der CRU als endgültige Aufzeichnung der globalen Land-/Meerestemperaturen genutzt werden, lohnt es sich, unsere Entdeckungsreise zu beginnen, indem wir den oben genannten Wikipedia-Artikel vollständig lesen;
„Es gibt eine Vielzahl von Verfahren zur Messung dieses Parameters, die zu unterschiedlichen Ergebnissen führen können, weil unterschiedliche Dinge gemessen werden. Außerhalb der unmittelbaren Meeresoberfläche werden allgemeine Temperaturmessungen mit einem Hinweis auf die spezifische Messtiefe versehen. Der Grund dafür sind die erheblichen Unterschiede zwischen Messungen in verschiedenen Tiefen, insbesondere tagsüber, wenn geringe Windgeschwindigkeiten und starke Sonneneinstrahlung zur Bildung einer warmen Schicht an der Meeresoberfläche und zu starken vertikalen Temperaturgradienten führen können (tageszeitliche Thermokline). Die Messungen der Meerestemperatur beschränken sich auf den oberen Teil des Ozeans, die so genannte oberflächennahe Schicht.“
[Es ist unklar, ob das heute noch genauso bei Wikipedia steht. Vielleicht hat einer der Kommentatoren etwas dazu. Mir fehlt die Zeit zur Recherche. A. d. Übers.]
Die Methoden zur Erfassung der Meerestemperaturen umfassen Messungen von Schiffen (Eimer und Motoreinlässe), auf der Meeresoberfläche schwimmende Bojen, Wetterschiffe und in den letzten Jahren den Einsatz einer Reihe von Tauchbojen („Argo“). Satellitenmessungen, die in den 1970er Jahren begannen, werden in diesem Artikel nicht behandelt. Alle Verfahren messen in unterschiedlichen Tiefen, von der obersten „Haut“ des Ozeans bei 0,01 mm bis zu Hunderten von Metern unter der Oberfläche, und daher kann ein Verfahren nicht ohne weiteres mit einem anderen verglichen werden, da die Temperatur je nach Tiefe wahrscheinlich erheblich variiert.
„Die Temperatur des Weltozeans ist an der Oberfläche sehr unterschiedlich und reicht von weniger als 0 °C in der Nähe der Pole bis zu mehr als 29 °C in den Tropen. Er wird durch das Sonnenlicht von der Oberfläche nach unten erwärmt, aber in der Tiefe ist der größte Teil des Ozeans sehr kalt. Fünfundsiebzig Prozent des Ozeanwassers fallen in den Temperaturbereich von -1 bis +6°C und in den Salzgehalt von 34 bis 35.“ (Referenz)
Die frühesten Messungen der Weltmeere und nicht der Küstengewässer wurden von Schiffen aus vorgenommen. Ein frühes Beispiel dafür war Benjamin Franklin, der auf seiner Reise zwischen den USA und Europa ein Quecksilberthermometer an ein Schiff hängte, als er im späten 18. Jahrhundert seine Beobachtungen bzgl. des Golfstromes durchführte. Die Temperaturen können jedoch relativ konstant sein, wenn es eine Strömung – wie den Golfstrom – gibt, die sich durch die verschiedenen Ebenen zieht, wie die folgenden Beispiele zeigen. Dies sind die ersten zuverlässigen Hinweise auf systematische und detaillierte Messungen der Meerestemperatur zu wissenschaftlichen Zwecken, die dem Autor bekannt sind. Sie stammen aus den 1820er Jahren, als die Royal Society Expeditionen unternahm, um das „beispiellose“ Abschmelzen der Arktis zu untersuchen.
„Eine Beobachtung, die an dieser Stelle interessant ist und die einen Beweis für den sehr geringen Unterschied zwischen der Oberflächentemperatur und der Temperatur in einer gewissen Tiefe liefert, wird in der Reise von Kapitän Graah, S. 21, erwähnt. Er sagt: „Am 5. Mai 1828 wurde in 57° 35′ nördlicher Breite und 36° 36′ westlicher Länge die Oberflächentemperatur auf 6°-3 und in einer Tiefe von 660 Fuß auf 5°5 + K. gemessen.“ Dies beweist, dass es an dem erwähnten Ort südöstlich von Cape Farewell keine kalte Unterwasserströmung gibt. Ein noch schlüssigeres Experiment wurde von Sir Edward Parry in seinem Bericht über seine erste Reise am 13. Juni 1819 aufgezeichnet: in 57° 51′ nördlicher Breite, 41° 5′ Länge. 41° 5′, mit einer sehr leichten südlichen Strömung, war die Oberflächentemperatur 4,4°C. und in 235 Faden 3,9°C, ein Unterschied von nur 0,5 K.“ (Referenz).
Jegliche Messung der Meeresoberfläche oder des tieferen Untergrunds vor der Mitte des 19. Jahrhunderts wird im Allgemeinen als von relativ begrenztem wissenschaftlichem Wert angesehen, da die Datenerfassung wenig einheitlich war.
1853 half Leutnant MF Maury bei der Organisation der internationalen Schifffahrtskonferenz in Brüssel, auf der sich alle teilnehmenden Länder darauf einigten, gemeinsame Verfahren zur Überwachung meteorologischer und mariner Informationen einzuführen, von denen die SST nur einen kleinen Teil ausmachte. Sein 1855 erschienenes Buch „The Physical Geography of the Sea“ wurde zur Pflichtlektüre.
Doch erst nach dem Zweiten Weltkrieg gewann die Wissenschaft der SST-Messung an Schwung, als neue und zuverlässigere Verfahren zu ihrer Messung entwickelt wurden, die während des Internationalen Geophysikalischen Jahres 1957/8 einen weiteren Auftrieb erhielten. Doch auch in den letzten Jahren hat der Ozean immer wieder für Überraschungen gesorgt. So wurde beispielsweise Mitte der 1990er Jahre entdeckt, dass die Strömungen in der Tiefsee sowohl viel stärker als auch viel variabler sind als bisher angenommen. In diesem Zusammenhang kann man sagen, dass die Entwicklung immer genauerer SST-Werte (wenn sie aus wissenschaftlichen Quellen stammen), auch wenn sie räumlich noch unvollständig sind, erst im letzten halben Jahrhundert stattgefunden hat. Davor gesammelte Daten sind mit einem großen Fragezeichen versehen, wie wir noch feststellen werden.
Kapitel 5 des Buches „Descriptive Physical Oceanography“ von M. P. M. Reddy beschreibt einige der verwendeten Methoden, ist aber vielleicht noch interessanter wegen der allgemeinen Vorgeschichte.
Angemessene wissenschaftliche Expeditionen, wie die der Royal Society in den 1820er Jahren, waren wahrscheinlich in der Lage, während eines kurzen Zeitfensters, bevor das Schiff weiterfuhr, die Meerestemperaturen für einen winzigen Abschnitt des Ozeans weitgehend genau (auf wenige Grad genau) zu bestimmen (vorbehaltlich aller relevanten Vorbehalte, die in dem Artikel über Landtemperaturen erwähnt wurden). Dann würde der Beobachter ein Stück Ozean abtasten, das möglicherweise völlig andere Temperatureigenschaften aufweist, denn wie jeder Schwimmer bestätigen wird, vermischt sich das Wasser nicht immer sehr gut, und wie bereits festgestellt, spielt die Tiefe eine entscheidende Rolle für die Temperatur.
Die meisten früheren Aufzeichnungen erfolgten jedoch nicht unter strengen wissenschaftlichen Bedingungen, sondern auf einer viel zwangloseren Ad-hoc-Basis durch Mitglieder der internationalen Seestreitkräfte und Fischer. Das Verfahren der Probenentnahme war recht einfach: Ein Holz- oder Segeltucheimer wurde an einem in Fadenlänge markierten Seil befestigt, das Ensemble über Bord geworfen, der Eimer anschließend angehoben und ein Thermometer hineingesteckt, um die Temperatur dieses kleinen Teils des Ozeans zu messen. (siehe Abbildung). Ein Verfahren, das, mit kleinen Abweichungen, 140 Jahre lang beibehalten wurde.
Zu den Unstimmigkeiten in den Daten wird in dieser Studie angemerkt:
„…Ein neuer Artikel von David Thompson und anderen NOAA-Atmosphärenforschern in Nature liefert eine andere Erklärung (für die Genauigkeit). Die meisten Kriegsmessungen der Meerestemperaturen, die in den globalen Durchschnitt einflossen, stammten von US-Kriegsschiffen, die im Gegensatz zur britischen Marine dazu neigten, die Messwerte des Wassereinlass-Thermometers im Maschinenraum als repräsentativ für die Temperatur des Meeres zu erfassen. Die hartgesottenen Matrosen, die gegen Ende des Krieges in den meteorologischen Dienst zurückkehrten, verließen sich stattdessen wie immer auf das altehrwürdige Verfahren, einen Eimer über die Bordwand zu werfen, ihn einzuholen und an Deck zu stellen, damit ein mit einem Thermometer bewaffneter Chief oder Offizier ihn messen konnte. Der spätviktorianische Wechsel von Eichenholzkübeln zu verzinktem Stahl wurde vor dem Zweiten Weltkrieg noch verschärft, als nicht nur britische, sondern auch holländische und japanische Hydrographen mit porösen und daher kühlungsanfälligen Segeltuchschaufeln ausgestattet wurden – eine schlechte Idee, da der Wind auf einem fahrenden Schiff in der Regel lebhaft ist. Das entnommene Seewasser kühlte zwangsläufig ab, und zwar in der Zeit, die es brauchte, um es zur Messung an Deck zu bringen.“
Man kann sich vorstellen, wie schwierig es ist, ein so empfindliches Instrument wie ein Thermometer in einem Stück zu halten, geschweige denn zu kalibrieren. Auf ernsthaften wissenschaftlichen Expeditionen wurde es vielleicht in der Kabine des Kapitäns verschlossen aufbewahrt, aber unter vielen anderen Umständen konnte es bei jedem Wetter draußen an einem Haken hängen bleiben.
Dieser Link zeigt ein Schiffsbarometer und -thermometer aus der Zeit um 1855. Das im Eimer verwendete Thermometer war oft eine robuste, eigenständige Version des Instruments links im Hauptbild.
Um die Probleme zu verdeutlichen, die mit der Aufzeichnung von „Eimer“-Temperaturen auf diese Weise verbunden sind, kann ich nichts Besseres tun als ein Gespräch wiederzugeben, das ich vor einigen Jahren mit jemandem geführt habe, der in den 40er und 50er Jahren in der britischen Marine gedient hat, als die Eimer-Messungen noch üblich waren (sie wurden schließlich in den frühen 60er Jahren eingestellt).
Er wies sachlich darauf hin, dass das Wasser aus allen möglichen Tiefen entnommen wurde (was stark von der Kraft und der Veranlagung des Betreffenden abhing) und das Wasser in dem Behälter (nicht immer ein zugelassener Eimer) für unbestimmte Zeiträume stehen gelassen wurde, was Zeiten mit heißem Sonnenschein und die Kühle der Nacht einschloss. Auch die Qualität der Thermometer war nicht immer die beste, die Kalibrierung erfolgte nur selten, und die Thermometer wurden in der Umgebungstemperatur an Deck belassen, bevor die Wasserprobe oft nur flüchtig abgelesen wurde, was die Unsicherheit noch erhöhte.
Sein ungläubiges Lachen, als ich ihm von der großen Bedeutung erzählte, die Wissenschaftler Messwerten wie dem seinen beimaßen, ist mir noch in Erinnerung. Damit soll natürlich nicht gesagt werden, dass alle SST-Werte auf diese Weise erhoben wurden, aber es waren viel zu viele, als dass die allgemeine Aufzeichnung als wissenschaftlich solide und aussagekräftig gelten könnte.
Das Folgende stammt aus einer Veröffentlichung aus dem Jahr 1947 mit dem Titel „A new bucket for measurement of sea surface temperatures“:
„Es ist seit vielen Jahren bekannt, dass das Standardverfahren zur Messung der Meerestemperaturen durch Entnahme einer Probe mit einem Leineneimer mit erheblichen Fehlern behaftet ist.“
Ganz genau.
In diesem Buch aus dem Jahr 1963 bemerkt H. F. Herdman, dass „die Probe zu oft in einem Leineneimer entnommen und die Temperatur nach einer beträchtlichen Zeit abgelesen wird“.
Dieses interne Memorandum des hoch angesehenen D. E. Parker aus dem Jahr 1985 mit dem Titel „A comparison of bucket and non-bucket measurements of sea surface temperatures“ (Vergleich von Messungen der Meerestemperatur mit und ohne Eimer) betrifft die Temperaturunterschiede zwischen Wasser, das in isolierten und nicht isolierten Eimern gesammelt wurde. Der Autor scheint der festen Überzeugung zu sein, dass trotz aller gegenteiligen Beweise das aus Eimern entnommene Wasser auf Zehntelgrade genau analysiert werden kann. Er zeigt auch das Gittersystem, das zur Messung von Daten über die 70 % der Erdoberfläche, die aus Ozeanen bestehen, verwendet wird, und veranschaulicht die Präzision, von der Hadley glaubt, dass sie sie haben. Unverzichtbare Lektüre für alle, die sich ernsthaft mit der SST beschäftigen, da sie einen Einblick in die frühe Entwicklung der SST-Datenbank gibt.
Es gab eine Abwandlung des Eimer-Verfahrens, bei dem das Thermometer in den Eimer gesteckt wurde, bevor man es über die Bordwand absenkte, wobei in späteren Jahren ein Gummipolster als Schutz diente. Ein Umkehrthermometer – im Allgemeinen für größere Tiefen als die Oberfläche verwendet – wurde 1874 entwickelt und von 1900 bis 1970 verwendet.
Im Allgemeinen waren die gesammelten SST-Daten von unterschiedlicher Qualität, was auf die Methodik und die Qualität der Instrumente zurückzuführen ist. Hinzu kommt das Fehlen von „räumlichen“ Daten – die Messungen wurden nur sporadisch über einen winzigen Teil der Weltmeere durchgeführt, wie hier beschrieben ist:
„Aus den ICOADS-Daten wurden auch Karten der mittleren Temperatur erstellt. Die Daten sind zeitlich und räumlich schlecht verteilt, außer in einigen Gebieten der nördlichen Hemisphäre. Darüber hinaus stellten Reynolds und Smith (1994) fest, dass die Temperaturdaten von Schiffen doppelt so große Fehler aufweisen wie die Temperaturfehler in den Daten von Bojen und AVHRR. Somit sind die von Reynolds verarbeiteten Weltraumdaten genauer und besser verteilt als ICOADS.“
Ein wenig mehr Einblick in die Erstellung von Aufzeichnungen der Meerestemperatur wurde von Richard Verney (in den Kommentaren) gewährt, der hier über das Verfahren schreibt, das schließlich die Eimer ablöste – die Messungen an den Motoreinlässen:
„Es scheint mir, dass das Met Office und die CRU nicht verstehen, wie die Daten von Schiffen erhoben werden. Die von Schiffen gemeldete Seewassertemperatur wird aus dem Seewasser entnommen, das zur Kühlung des Motors verwendet wird. Woher dieses Wasser entnommen wird, hängt von der Konstruktion und Konfiguration des Schiffes ab und davon, ob das Schiff mit Ballast fährt oder beladen ist. Schiffe versuchen, lange Ballastfahrten zu vermeiden, da diese nicht zu den Einnahmen bringenden Strecken gehören. Bei einem beladenen Schiff wird das zur Kühlung entnommene Seewasser etwa 10 m unter der Wasseroberfläche entnommen (das kann überall zwischen 7 und 13 m liegen, typisch sind jedoch etwa 10 m).
Was bedeutet das? Es bedeutet, dass Schiffe die Meerestemperatur in einer Tiefe von etwa 10 m messen, während Bojen die Meerestemperatur in einer Tiefe von etwa 1 m (bis 3 m) messen. (Anmerkung der Autoren: Bojen messen die Temperatur in verschiedenen Tiefen, je nach Position des Werfers, Satelliten in 0,01 mm Tiefe). Allgemein gilt: je tiefer, desto kühler.
Daraus (d.h. aus dem Tiefenunterschied) folgt, dass man erwarten würde, dass die Daten des Schiffsmotoreneinlasses eine niedrigere (und nicht eine höhere) Temperatur aufzeichnen, wenn man sie mit den ähnlichen Messungen der Bojen (die näher an der Oberfläche messen) vergleicht. Das bedeutet, dass man entweder die Bojentemperatur nach unten oder die Schiffstemperatur nach oben korrigieren muss, um einen vergleichbaren Vergleich anstellen zu können. Es gibt keinen Grund, die Bojentemperatur nach oben zu korrigieren, da dies den Unterschied zwischen den Tiefen, in denen die Daten gemessen wurden, noch vergrößert.
Darüber hinaus neigt eine nicht unerhebliche Anzahl von Schiffen dazu, die Meerestemperatur absichtlich zu niedrig aufzuzeichnen. Viele Schiffe befördern flüssige Ladungen, die erhitzt werden müssen (verschiedene Chemikalien, Palmöl, Pflanzenöl usw.). Vereinfacht gesagt, wird der Schiffseigner für die Erwärmung dieser Ladungen bezahlt…. In sehr warmen tropischen Meeren kühlt die Ladung natürlich langsamer ab, und die natürlich vorherrschende Meerwassertemperatur kann ausreichen, um die Ladung frei fließen zu lassen, so dass eine Erwärmung nicht unbedingt erforderlich ist. Es liegt daher im Interesse des Schiffseigners, Seewassertemperaturen aufzuzeichnen, die etwas niedriger sind als die tatsächlich vorherrschenden Temperaturen, so dass er Heizkosten geltend machen und in Rechnung stellen kann, obwohl in Wirklichkeit keine Heizkosten anfallen. Ich behaupte nicht, dass diese Praxis in der gesamten Schifffahrtsbranche einheitlich ist, aber sie kommt sicherlich vor. So wird auf einer Reihe von Schiffen eine niedrigere Temperatur aufgezeichnet/angegeben, als sie tatsächlich herrscht.
Aus diesen beiden Gründen besteht Grund zu der Annahme, dass die von den Schiffen gelieferten Temperaturaufzeichnungen die Meerestemperatur unterbewerten/unterzeichnen. In diesem Fall könnten die Meerestemperaturen sogar noch stärker gesunken sein, als das ‚Team‘ (oder die ihm nahestehenden Personen und/oder seine Befürworter) zu akzeptieren bereit sind.“
Diese Interpretation wird von der Seafriends-Website von Dr. J. Floor Anthoni bestätigt, von der dieser Auszug über die Meerestemperaturen stammt:
„Die Temperatur der Meeresoberfläche wird schon seit mehreren Jahrhunderten von Schiffen gemessen. Zunächst wurde das Oberflächenwasser während der Fahrt in einem Eimer aufgefangen, später wurde der Kühlwassereinlass des Motors verwendet. Leider machte dies einen Unterschied, da der Wassereinlass in einer gewissen Tiefe unter Wasser liegt. Heute kann dies von Vorteil sein, da Satelliten nur die obersten paar Zentimeter des Meeres messen können, wird doch die Infrarotstrahlung vom Wasser schnell absorbiert. Da das Wasser ständig aus dem Meer verdunstet, ist der Oberflächenfilm etwas kälter als ein paar Meter tiefer.“
Ungeachtet des Verfahrens der Datenerfassung muss auch berücksichtigt werden, dass die wenigen Messwerte von Schifffahrtswegen stammen, die nur einen winzigen Bruchteil der Meeresoberfläche ausmachen, und hier kommt ein weiterer, bereits angesprochener Faktor zum Tragen, denn neben der Qualität der Informationen ist auch die Quantität der Daten von Bedeutung, da nur relativ wenige Messwerte erfasst wurden und die geografische Abdeckung viel geringer ist als selbst bei den unzureichenden Aufzeichnungen der Landtemperatur.
Diese Grafik [die sich leider nicht vergrößern lässt, ohne unscharf zu werden, A. d. Übers.] – Reynolds 2000 – zeigt den Verkehr der Schiffe, die in der Woche vom 1. bis 8. Januar 2000, einer Zeit höchster wirtschaftlicher Aktivität, zur Erhebung von SST-Daten eingesetzt wurden. (Die Breite der Fahrspuren wurde zu Darstellungszwecken stark übertrieben). Schon damals war die Abdeckung sehr dürftig, aber eine Momentaufnahme aus dem Jahr 1850 würde eine weitaus geringere Aktivität erkennen lassen. Beobachtungen und Berechnungen von SST-Anomalien sind in dieser WG2-Analyse des IPCC dargestellt.
Die heutige Hightech-Version dieser älteren Messverfahren sind ARGO-Bojen:
„ARGO ist ein globales System von 3.000 frei treibenden Messbojen, die die Temperatur und den Salzgehalt in den oberen 2000 Metern des Ozeans messen. Dies ermöglicht zum ersten Mal eine kontinuierliche Überwachung der Temperatur, des Salzgehalts und der Strömungsgeschwindigkeit des oberen Ozeans, wobei alle Daten innerhalb von Stunden nach der Erfassung weitergeleitet und öffentlich zugänglich gemacht werden.“
Dieses derzeit kurzlebige Experiment hatte einen umstrittenen Anfang, da die Bojen anfangs einen sinkenden Wärmeinhalt des Ozeans aufzeichneten (wenn auch nicht streng nach denselben Kriterien wie die SST). Dies war eine offensichtliche Anomalie, da die Ozeantemperaturen laut Computermodellen eigentlich steigen sollten. Diese Abweichung wurde in diesem Artikel erläutert, der auch nützliche Informationen darüber liefert, welcher Anteil des Ganzen – wie Wärmeausdehnung und Gletscherschmelze – den einzelnen Aspekten des Meeresspiegelanstiegs zuzuschreiben ist.
„Im Jahr 2004 veröffentlichte Willis eine Zeitreihe zum Wärmeinhalt des Ozeans, aus der hervorging, dass die Temperatur in den oberen Schichten des Ozeans zwischen 1993 und 2003 gestiegen war. Im Jahr 2006 leitete er eine Folgestudie unter der Leitung von John Lyman am Pacific Marine Environmental Laboratory in Seattle, in welcher die Zeitreihe für 2003-2005 aktualisiert wurde. Überraschenderweise schien sich der Ozean abgekühlt zu haben.
Es überrascht nicht, sagt Willis mit einem Augenzwinkern, dass diese Studie viel Aufmerksamkeit erregte, aber nicht immer in dem Maße, wie es ein Wissenschaftler begrüßen würde. In Gesprächen mit Reportern und der Öffentlichkeit bezeichnete Willis die Ergebnisse als „Bremsklotz“ auf dem Weg zur globalen Erwärmung, als Beweis dafür, dass es selbst bei einer Erwärmung des Klimas aufgrund von Treibhausgasen immer noch Schwankungen geben würde. Die Botschaft kam jedoch nicht bei allen an. In Blogs und Radiotalkshows zitierten Leugner der globalen Erwärmung als Beweis dafür, dass die globale Erwärmung nicht real sei und dass die Klimawissenschaftler nicht wüssten, was sie täten.“
Die obige Interpretation wurde jedoch durch diese Studie vom November 2010 mit dem Titel „Recent energy balance of earth“ von Knox und Douglass überholt, die nach einer Untersuchung der Daten der ARGO-Bojen zeigen, dass der Wärmehaushalt der Ozeane im jüngsten Zeitraum 2003-2008 tatsächlich immer noch abkühlt und sich nicht erwärmt.
Abstract: Eine kürzlich veröffentlichte Schätzung des globalen Erwärmungstrends der Erde liegt bei 0,63 ± 0,28 W/m², berechnet aus den Daten der Anomalie des Wärmeinhalts der Ozeane im Zeitraum 1993-2008. Dieser Wert ist nicht repräsentativ für die jüngste Erwärmungs-/Abkühlungsrate (2003-2008), da um 2001-2002 eine „Abflachung“ eingetreten ist. Wenn wir nur die Daten der ARGO-Bojen von 2003-2008 verwenden, stellen wir mit vier verschiedenen Algorithmen fest, dass der jüngste Trend zwischen -0,010 und -0,160 W/m² liegt, mit einer typischen Fehlerbreite von ±0,2 W/m². Diese Ergebnisse stützen nicht die Existenz eines häufig zitierten großen positiven berechneten Strahlungsungleichgewichts.
Die erneute Bestätigung, dass sich die Ozeane generell abzukühlen scheinen, löste eine lebhafte Debatte in diesem Blogbeitrag aus.
Bislang ist dieses Verfahren zur Erfassung der Meerestemperaturen aufgrund der in dem Papier genannten Anpassungen, der Kürze des Projekts und der Schwierigkeit, kontinuierlich Daten zu erhalten, noch nicht bewiesen.
Schlussfolgerungen zu den Temperaturen an der Meeresoberfläche
Bei den Landtemperaturen haben wir festgestellt, dass wir oft Äpfel mit Birnen verglichen haben. Ähnlich verhält es sich mit den SST-Werten, bei denen wir eine Vielzahl inkompatibler Verfahren zur Datenerfassung miteinander vermischen und feststellen müssen, dass die Anzahl der Probenahmen im Ozean gemessen an der physikalischen Zahl sehr gering ist und die Methodik selbst möglicherweise schwerwiegende Mängel aufweist. Hinzu kommt, dass das begrenzte Wissen, das wir über die Meerestemperaturen haben, exponentiell abnimmt, je weiter die Zeit zurückliegt und je abgelegener das Gebiet ist, da die Messpunkte so begrenzt sind. Erschwerend kommt hinzu, dass dort, wo die Daten spärlich sind, sie statistisch aus Gebieten aufgefüllt werden, in denen sie noch spärlicher sein könnten.
Nichts von alledem wird Hadley (und andere) davon abhalten, die globalen SST-Werte bis auf einen Bruchteil zu analysieren und die Robustheit der Antwort zu erläutern, was dann vom IPCC und den nationalen Regierungen als positiver Beweis für den Erlass weiterer Maßnahmen zum Schutz gegen die Erwärmung angesehen wird.
Die von Klimawissenschaftlern, Statistikern und Analysten in gutem Glauben verwendeten historischen Temperaturdaten, ob zu Lande oder an der Oberfläche, scheinen grundlegenden Qualitäts-Kontrollmaßnahmen nicht zu genügen und sind nicht für den Zweck geeignet, Temperaturen auf Zehntelgrade genau zu bestimmen. Insbesondere historische Meerestemperaturen sind höchst unsicher und sollten nicht als verlässliches Maß angesehen werden.
References
220,000 log books of the Royal Navy from 1669 to 1976 are being studied for meteorological information that can give an insight into climate change.
A project to recover worldwide weather observations made by Royal Navy ships around the time of World War I.
Metrology of thermometers is the science of measuring as described here
Fascinating article about various types of historic measurements taken at sea
Bob Tisdale has an excellent web site dealing with all aspects of ocean temperatures
Link: https://judithcurry.com/2011/06/27/unknown-and-uncertain-sea-surface-temperatures/
Übersetzt von Christian Freuer für das EIKE
Wissenschaftler: Behörden unterdrücken Berichte über Impf-Nebenwirkungen

Die Zulassungsbehörden in EU, UK, USA und anderen Ländern haben sehr ähnliche Datenbanken um rasch schwerwiegende Nebenwirkungen von Medikamenten erkennen zu können. Eine Gruppe hochrangiger Wissenschaftler wirft der US-Behörde FDA nun vor, dass ihre Auswertungen so manipuliert sind, dass schwere Nebenwirkungen nicht mehr erkannt werden. Das ist durchaus auch aus Deutschland bekannt. Das für die […]
Der Beitrag Wissenschaftler: Behörden unterdrücken Berichte über Impf-Nebenwirkungen erschien zuerst unter tkp.at.
Ludger K. – „Wir glauben zu oft, etwas zu wissen.“ (Re-Up // New Cut)
——————————————————————————————-
Unterstützen Sie unseren unabhängigen Journalismus mit einem Abonnement unseres Politik-Magazins, das 10mal pro Jahr erscheint:
Mehr Informationen zum Magazin: https://politik-spezial.de
Zum Standard-Abo: https://politik-spezial.de/produkt/pi-politik-spezial-standard-abo/
Zum Förder-Abo: https://politik-spezial.de/produkt/pi-politik-spezial-premium-abo/
——————————————————————————————-
Unser YouTube-Hauptkanal:
https://www.youtube.com/c/PI-PolitikSpezial
Bitte abonnieren Sie auch unsere Backup-Kanäle:
Telegram: https://www.t.me/s/PolitikSpezial
Odysee: https://www.odysee.com/@PolitikSpezial
Rumble: https://rumble.com/user/politikspezial
Facebook: https://www.facebook.com/PIPolitikSpezial
Twitter: https://twitter.com/politikspezial
Twitter: https://twitter.com/maxotte_says
Podcast: https://open.spotify.com/show/2JT4EbNR9PM4coQtlIOKdM
Anchor.FM: https://anchor.fm/politik-spezial/
——————————————————————————————-
PI Politik Spezial – Stimme der Vernunft!
Fühlen Sie sich auch von den Mainstream-Medien veräppelt, Ihre Lebenswirklichkeit nur willkürlich abgebildet? Dann sind Sie hier genau richtig. Gegen gefilterte Hofberichte und Desinformation muss unbedingt etwas getan werden. Mit diesem Anspruch treten wir an: Starke Meinungen, gut recherchiert, mit den nötigen Hintergründen.
Wir berichten über deutsche Politik, internationale Zusammenhänge und nehmen die etablierten Medien unter die Lupe. Wir sprechen mit Zeitgenossen, die wirklich etwas zu sagen haben und keinen Maulkorb tragen. All das bieten wir Ihnen mit unseren Videos mehrfach wöchentlich an.
Österreichischer Ex-Außenministerin droht Aberkennung der Staatsbürgerschaft
Es ist eine Reaktion, die man in den letzten Jahrzehnten auf dem politischen Parkett kaum noch kannte, aber diese Debatte ist real.
In Österreich wird diskutiert, ob man der ehemaligen Außenministerin Karin Kneissl die Staatsbürgerschaft entziehen sollte, weil sie im Dienst eines fremden (Feind)-Staates stehe.
Österreich im „Rache-Modus“
In Österreich läuft derzeit eine Debatte, der ehemaligen Außenministerin dieses Landes ihre Staatsbürgerschaft zu entziehen.
Dr. Karin Kneissl, ausgebildete Diplomatin, die vom Dezember 2017 bis zum Juni 2019 die Alpenrepublik als Außenministerin vertrat, lebt seit einiger Zeit im Libanon und überlegt nun, möglicherweise nach Russland zu übersiedeln und dort einen Thinktank zu leiten.
Kneissl, die unter dem damaligen Vizekanzler, Unterrichts- und Außenminister der Republik Österreich Alois Mock (ÖVP) in seinem Kabinett tätig war hatte sich den Zorn der Regierenden ÖVP unter Kanzler Sebastian Kurz, zugezogen.
Just als sie von Dezember 2017 bis Juni 2019 als wohlgemerkt parteilose Außenministerin in das Kabinett der damaligen ÖVP/FPÖ Regierungsmannschaft berufen wurde, damit hatte offenbar der politische Rachefeldzug ihrer „Ex-Partei“ ÖVP, begonnen.
Putins Hochzeitsgeschenk wurde zur „Staatsaffäre“ hochstilisiert
Als Kneissl dann im August 2018 Präsident Wladimir Putin als Privatmann zu ihrer Hochzeit lud, wohlgemerkt, als Putin in Europa noch als „salonfähig“ galt, erging sich der Mainstream wie auch der Koalitionspartner ÖVP, in wildesten Spekulationen.
Diese gipfelten schlussendlich darin, dass der österreichische Staat, das Hochzeitsgeschenk Putins in Form von Saphirohrringen für die Braut, von Kneissl als Herausgabe an den Staat Österreich verlangte.
Nach Beendigung der Koalition 2019 im Zuge der „sogenannten Ibiza-Affäre“, durch die ÖVP, war Kneissl in ihrem Heimatland massivem Mobbing von allen Seiten ausgesetzt und verließ daraufhin ihre Heimat.
Libanesisches Exil
Nach einem kurzen Zwischenstopp in Frankreich, lies sie sich schlussendlich im Libanon nieder, bezeichnete dies aber als Exil.
Vor dem Hintergrund ihres libanesischen Exils waren bereits massive Vorwürfe wegen ihrer Nähe zu Russland gegen sie erhoben worden. Ein Beispiel dafür lieferte noch die Berichterstattung der Gratiszeitung Heute.at über ihre Pläne.
„Ihre Verbindungen zu Russland, sie war unter anderem Aufsichtsrat beim Mineralölunternehmen Rosneft, pflegt sie auch mit Gastkommentaren in RT (Russia Today) und kremlnahen Medien weiter so penibel wie Hisbollah und Opiumbauer die Mohnfelder im libanesischen Bekaa-Tal, wo Kneissl seither auftanzt.“
Nachfolger als Leiter der diplomatischen Akademie mit „Hetzkampagne“
Danach tauchte nun ein ehemaliger österreichischer Botschafter in Moskau auf, Emil Brix, der rein zufällig auch Leiter der diplomatischen Akademie Wien ist, an der auch Kneissl viele Jahre unterrichtet hatte.
Er warf nun öffentlich die Frage auf, ob man ihr nicht die Staatsbürgerschaft entziehen müsse. Das sei laut § 33 des österreichischen Staatsbürgerschaftsgesetzes möglich, wenn der Staatsbürger „durch sein Verhalten die Interessen oder das Ansehen der Republik erheblich schädigt“.
Mittlerweile meldete sich jedoch der derzeitige österreichische Außenminister Alexander Schallenberg (ÖVP) zu Wort und erklärte, ein Entzug der Staatsbürgerschaft sei nicht möglich, da man nach Völkerrecht keine Staatenlosen schaffen dürfe.
Eine „Nachschulung“ des Leiters der diplomatischen Akademie in staatsjuristischen Belangen wäre in diesem Falle wohl mehr als angebracht, zumal man sich dabei zwangsläufig fragen muss, was auf ebendieser Akademie sonst noch an „Halbwahrheiten“ transportiert wird.
Kaderschmiede in Unterstützung von „Farbrevolutionären“
Klar ist jedenfalls, dass an ebendieser Kaderschmiede diverse „Oppositionelle Politdarsteller im Schatten fragwürdiger Farbrevolutionen“ gratis und auf Kosten der österreichischen Steuerzahler, ausgebildet werden UME hatte berichtet.
Die Debatte dieses geforderten Staatsbürgerschaftsentzuges ist für Österreich aus mehreren Gründen heikel.
Zum einen war auch Österreich nach dem Zweiten Weltkrieg von den vier alliierten Siegermächten besetzt und in Zonen aufgeteilt und wurde erst 1955 aufgrund eines Staatsvertrags, der das Land gleichzeitig zur „immerwährenden Neutralität“ verpflichtet, dank des Zugeständnisses durch Moskau, wieder zu einem souveränen Staat geworden.
Russland ist also Rechtsnachfolger einer der damaligen Besatzungsmächte, der Sowjetunion. Gute Beziehungen zu wahren, war jahrzehntelang ein Gebot für die österreichische Politik.
Des Weiteren war die letzte historische Phase, während der (auch) in diesem Land massiv Staatsbürgerschaften entzogen wurden, die Zeit unter der Herrschaft der Nazis gewesen.
Im deutschen Recht ist heute das Verbot verankert, jemandem die Staatsbürgerschaft zu entziehen, sofern keine andere vorhanden ist. Dies sollte als Folge aus den vielfach erfolgten Ausbürgerungen nach 1933, gehandhabt werden.
In Österreich scheint dies niemals erfolgt zu sein, sofern sich Außenminister Schallenberg „nur“ auf das Völkerrecht beruft.
Unter anderem wird diese Debatte wegen der beabsichtigten Gründung einer Denkfabrik in Russland nun höchst fragwürdig geführt.
Interessant und bezeichnend ist dabei allerdings, dass äquivalente Tätigkeiten bei einer der anderen ehemaligen Besatzungsmächte keinerlei entsprechende Reaktion auslösen.
Dies muss also als ein weiteres Zeichen dafür gewertet werden, dass die nach wie vor in der Verfassung verankerte „immerwährende Neutralität“ Österreichs wohl endgültig verschwinden soll.
Lawrow nach Treffen der CSTO: «NATO möchte kämpfen… Wir sind bereit!»
Von REDAKTION | Die obige Abbildung zeigt die Wappen der Verteidigungsministerien der sechs OVKS-Mitgliedstaaten und das Emblem des gemeinsamen Stabes der Organisation des Vertrages über kollektive Sicherheit (OVKS) oder der Collective Security Treaty Organisation (CSTO).
Das CSTO-Militärbündnis wurde am 7. Oktober 2002 in der moldauischen Hauptstadt Chișinău geschlossen, ist seit 18. September 2003 in Kraft und umfasst die Mitgliedstaaten: Armenien; Belarus, Kasachstan, Kirgistan, Russland und Tadschikistan.
Das OVKS-Militärbündnis – Mitgliedstaaten in grün
Quelle: en.wikipedia.org/wiki/Collective_Security_Treaty_Organization; Attribute : Firdavs Kulolov, CC BY-SA 4.0 <creativecommons.org/licenses/by-sa/4.0>, via Wikimedia Commons
Nach dem letzten Treffen des Rates der Außenminister des CSTO-Militärbündnisses in Minsk am 20. Juni 2023 trat der Außenminister der Russischen Föderation, Sergei Lawrow vor die Presse und beantwortete Fragen, die angesichts der laufenden Eskalation durch den Westen für alle Betroffenen von höchstem Interesse sind.
Nach dem Treffen der CSTO-Minister: Sergei Lawrow vor der Presse
Die Erklärung des russischen Außenministers
Werte Kollegen,
wir haben die Sitzung des OVKS-Außenministerrats unter dem Vorsitz des Außenministers der Republik Belarus, Sergei Aleinik beendet. Die Liste der vom Generalsekretär der OVKS verlesenen Dokumente enthält eine Reihe von Vereinbarungen und Protokollen über die Verbesserung der Leistung des Sekretariats und der OVKS-Charterorgane sowie die Verstärkung ihrer Koordinierung bei der Lösung einer Reihe von aktuellen Verwaltungs- und Haushaltsfragen.
Von den Dokumenten zu den verschiedenen politischen Aspekten der aktuellen Situation möchte ich die Erklärung zur Verbesserung der Sicherheit in der OVKS-Region im Zusammenhang mit der Lage in Afghanistan erwähnen. Sie spiegelt die gemeinsamen Ansätze unserer Länder und aller unserer Verbündeten zur Wahrung unserer Interessen in einer Situation wider, in der Afghanistan nach dem Abzug der NATO-Koalition in einem beklagenswerten Zustand zurückgelassen wurde. Der Terrorismus und der Drogenhandel blühen in diesem Land, und die Ursachen dafür sind noch nicht beseitigt. All dies beeinträchtigt unmittelbar die rechtmäßigen Interessen unserer Staaten. In unserer Erklärung werden die Ziele festgelegt, die Arbeitsgruppe der OVKS zu nutzen und die Koordinierung mit anderen Vereinigungen, einschließlich der SOZ (Shanghaier Organisation für Zusammenarbeit oder Shanghai Cooperation Organisation/SCO), zu entwickeln, die ebenfalls über einen speziellen Mechanismus zur Berücksichtigung der vom afghanischen Hoheitsgebiet ausgehenden Bedrohungen und Risiken verfügt.
Zweitens unterstreicht die Erklärung die gemeinsamen Ansätze unserer Länder bei den Bemühungen der Vereinten Nationen, spezifische Vorschläge zur Verhinderung eines Wettrüstens im Weltraum zu prüfen. Dies ist eine seit langem bestehende russische Initiative. Wir unterstützen dies auch auf der Abrüstungskonferenz in Genf. Gemeinsam mit unseren chinesischen Partnern haben wir einen entsprechenden Vertragsentwurf vorgelegt. Parallel zur Abrüstungskonferenz beginnen die Vereinten Nationen in diesem Jahr mit Diskussionen darüber, wie der Weltraum sicher gemacht und verhindert werden kann, dass Bedrohungen aus dem Weltraum die Sicherheit eines Landes beeinträchtigen.
Ich denke, das Treffen war nützlich. Wir haben die Entwicklung der geopolitischen Lage in unserer Region und in Eurasien insgesamt eingehend erörtert. Auf globaler Ebene sind unsere Ansichten ähnlich. Wir alle wollen, dass die OVKS eine tragende Säule in der multipolaren Weltordnung, die jetzt Gestalt annimmt, spielt. Wir wollen, dass die OVKS stärker und erfolgreicher wird und wir haben eine Reihe von praktischen Schritten zu diesem Zweck festgelegt.
Frage: Wie sehen Sie die Zukunft der OVKS im Zusammenhang mit den heutigen Gesprächen? Verfügt die Organisation über Gliederungen, die sich bei der militärisch-politischen Zusammenarbeit mit anderen regionalen Organisationen, einschließlich der SCO und der BRICS, als nützlich erweisen könnten? Ist es an der Zeit, die Möglichkeit der Schaffung eines militärisch-politischen Blocks zu prüfen, der ein Gegengewicht zur NATO bilden könnte?
Sergej Lawrow: Die SCO und die BRICS sind keine militärischen Organisationen. Die SCO wurde in erster Linie gegründet, um die Sicherheitsziele ihrer Mitgliedsländer zu verwirklichen. Später wurde die Agenda um wirtschaftliche, kulturelle, humanitäre und investitionsbezogene Fragen der Zusammenarbeit sowie um politische Fragen im Zusammenhang mit den Sicherheitszielen erweitert.
BRICS hat keine militärische Dimension; die OVKS und andere brüderliche und andere Organisationen bauen jedoch ihre Zusammenarbeit weiter aus. Wir pflegen Kontakte mit der GUS (Gemeinschaft Unabhängiger Staaten bzw. Commonwealth of Independent States/CIS; Organisation von UdSSR Nachfolgestaaten) und der SCO. Dies fördert die Arbeitsteilung zur Erhaltung der Stabilität auf unserem gemeinsamen eurasischen Kontinent.

Was die NATO betrifft, so haben wir heute daran erinnert, dass die OVKS vor vielen Jahren vorgeschlagen hat, Arbeitskontakte zwischen dem Sekretariat und NATO zu knüpfen, um Vertrauen aufzubauen, das gegenseitige Verständnis zu stärken und Lösungen für komplizierte Probleme zu finden, bevor sie sich verschärfen und zu einer Gefahr für die OVKS- und NATO-Mitglieder würden. Die NATO lehnte dies arrogant ab, nachdem sie mehrere Vorschläge, einschließlich offizieller Schreiben, zu diesem Thema erhalten hatte. Dies beweist einmal mehr, dass das Bündnis darauf versessen ist zu dominieren, um im Alleingang seine eigenen Regeln durchzusetzen, die dem Völkerrecht zuwiderlaufen.
Ich denke, wir sollten die OVKS nicht zu einem konfrontativen Block gegen irgendjemanden machen. Die Organisation entwickelt sich im Einklang mit den legitimen Sicherheitsinteressen ihrer Mitgliedsstaaten. Die OVKS beansprucht nicht das Recht, eine führende Rolle auf dem eurasischen Kontinent zu spielen. Dies macht jedoch NATO. Ein chinesischer Journalist fragte kürzlich NATO-Generalsekretär Jens Stoltenberg, warum NATO große Vorstellungen in der asiatischen Region verfolge. Letzterer versuchte, seine Zuhörer davon zu überzeugen, dass das Bündnis sich weiterhin der euro-atlantischen Region verpflichtet fühle und keinen anderen Absichten nachginge. Gleichzeitig wies er darauf hin, dass die NATO nicht tatenlos zusehen könne, wie China kontinuierlich auf Tuchfühlung zum nordatlantischen Bündnis ginge. Dies erinnert an einen Witz aus der Sowjetzeit, in dem es hieß, die Sowjetunion befinde sich zu nahe an US-Militärbasen.
Jens Stoltenberg beteuerte weiterhin, dass NATO Sicherheitsinteressen nachgehen werde, einschließlich solcher mit Risiken und Bedrohungen, die von der indopazifischen Region ausgingen. Jeder weiß bereits, dass das Bündnis mit solchen Äußerungen seine globalen Ambitionen bekräftigt und das Recht beansprucht, die Regeln für alle Regionen zu bestimmen. Das betrifft den europäischen Teil unseres Kontinents und den Osten Eurasiens, vor allem die Provokationen der NATO gegenüber China, die Förderung der Bildung von Militärblöcken wie AUKUS und die Ausweitung der Infrastruktur und der Präsenz der NATO in dieser Region. Dies ist ein gefährliches Spiel.

Früher oder später wird die NATO erkennen müssen, dass dieser Ansatz keine Zukunft hat und in eine Sackgasse mündet. Sie wird die Realität akzeptieren müssen, insbesondere das Entstehen einer multipolaren Weltordnung, in der es keine „Befehlshaber“ oder „Lehensherren“ mehr geben wird, die einseitig über das Schicksal anderer entscheiden.
Frage: Armenien und Aserbaidschan gelingt es nicht, eine Friedenslösung für Berg-Karabach zu finden. Gleichzeitig sehen wir, dass westliche Länder parallel zu Russland an der Vermittlung beteiligt sind. Die Außenminister beider Länder trafen sich in Washington, und unter der Ägide der EU sind Gespräche geplant. Wie bewertet Moskau die Ambitionen des Westens, den Konflikt beizulegen, wenn man bedenkt, dass Armenien ein Verbündeter Russlands im Rahmen der OVKS ist?
Sergej Lawrow: Wir haben den Grundstein für die Normalisierung der Beziehungen zwischen Armenien und Aserbaidschan im November 2020 gelegt, als die persönliche Intervention des russischen Präsidenten Wladimir Putin zur Unterzeichnung der ersten trilateralen Erklärung über die Grundsätze einer endgültigen Lösung führte. Später wurden mehrere weitere Erklärungen auf höchster Ebene (1, 2, 3) mit den erforderlichen Bemühungen zu verschiedenen Aspekten angenommen, um eine vollständige Normalisierung der Lage zu erreichen. Dazu gehört unter anderem die Freigabe der Verkehrs- und Wirtschaftsverbindungen zwischen Armenien und Aserbaidschan sowie im gesamten Südkaukasus.
Wir sind nicht dagegen, dass sich andere internationale Parteien an der Vermittlung beteiligen. Das Wichtigste ist, dass solche Vermittlungen das Ziel verfolgen, Vereinbarungen zu ermöglichen, die einen Interessenausgleich zwischen den Völkern und Staaten Armeniens und Aserbaidschans abbilden.
Wir sehen in dem, was die Vereinigten Staaten und die Europäische Union betreiben, deren Wunsch, sich in die Region einzumengen, die legitimen Interessen der Russischen Föderation zurückzudrängen und sich als Kräfte, die eine nahezu entscheidende Rolle ausüben, geltend zu machen. Darin spiegelt sich das Bestreben des Westens wider [wie ich in meiner vorherigen Antwort erläutert habe], in Regionen zu expandieren, die weit von den Grenzen der NATO und der EU entfernt liegen. Dies hat wenig mit dem aufrichtigen Wunsch zu tun, bei der Stabilisierung der Lage zu helfen. Ich hoffe, dass unsere Partner in Eriwan und Aserbaidschan dies verstehen. Jedenfalls diskutieren wir mit ihnen offen über die aktuellen Entwicklungen.
Eine Gesamteinigung ist nur über die vollständige Umsetzung der trilateralen Vereinbarungen möglich, die von den Präsidenten Russlands und Aserbaidschans sowie dem armenischen Premierminister unterzeichnet worden sind.
Frage: Jens Stoltenberg hat auf einem NATO-Treffen gesagt, dass die Allianz gegen ein Einfrieren des Ukraine-Konflikts und gegen den russischen Friedensplan sei. Auf dem kommenden NATO-Gipfel wird darüber gesprochen, Kiew noch mehr Waffen zu liefern. Bedeutet dies, dass der Konflikt künstlich in die Länge gezogen würde? Was werden wir als Nächstes tun, wenn am Rande des Gipfels sogar über die mögliche Entsendung von Atomwaffen gesprochen wird?

Sergej Lawrow: Falls Herr Stoltenberg im Namen der NATO erneut sagt, dass sie gegen ein Einfrieren des Konflikts in der Ukraine wären, bedeutet das, dass sie kämpfen wollen. So sollen sie kämpfen: Wir sind dazu bereit! Wir haben die wahren Ziele der NATO in der Ukraine schon vor einiger Zeit erkannt, als ihre Pläne in den Jahren nach dem Putsch Gestalt annahmen. Heute versucht die NATO, sie umzusetzen.
Wir können feststellen, dass zumindest einige Politiker, Politikwissenschaftler und Experten im Westen allmählich zur „Ernüchterung“ kommen und die wahren Gründe für die derzeitige Lage und die tatsächlichen Vorgänge vor Ort erkennen.
Es ist ihre Entscheidung. Sie behaupten zwar, dass sie keinen Krieg gegen Russland führen, aber in Wirklichkeit tun sie genau das, wenn sie eingestehen, dass die Ukraine-Krise schon lange entschärft worden wäre, wenn sie dem ukrainischen Regime nicht Waffen, Geheimdienstinformationen und Satellitendaten mit Zielkoordinaten geliefert hätten. Das ist defacto das Eingeständnis, dass sie direkt in den hybriden und heißen Krieg gegen Russland verwickelt sind.
Frage: Welche Bedeutung haben der Besuch von Antony Blinken in der Volksrepublik China und die Änderung der US-Rhetorik gegenüber China?
Sergej Lawrow: Diese Frage betrifft die bilateralen Beziehungen zwischen den Vereinigten Staaten und der Volksrepublik China. Unsere chinesischen Freunde haben ihre Beurteilungen wiederholt geäußert und sie während des Besuchs von Außenminister Blinken bestätigt.
Wir betrachten dies als Realität, die zum einen die China-Politik Washingtons widerspiegelt. Auf der anderen Seite gibt es die prinzipielle Politik Chinas, die sich Versuchen widersetzt, seine legitimen Interessen zu untergraben, auch in der Region, die direkt an China angrenzt.
Frage: Die Russische Föderation hilft den Volksrepubliken Donezk und Lugansk und demonstriert ihre Stärke mit Selbstbewusstsein und dem Wissen vom Recht. Alle Bürger Russlands wollen wissen, wann die spezielle Militäroperation beendet sein wird?
Sergej Lawrow: Ich kann nicht zustimmen, dass die Russische Föderation den Donezker und Lugansker Volksrepubliken helfe. Sie sind Teil unseres Staates, ebenso wie die Regionen Saporischschja und Cherson. Als unveräußerliches Territorium Russlands, dessen Bewohner in ihren jeweiligen Referenden für den Beitritt zu diesem Land gestimmt haben (was sich in der Verfassung der Russischen Föderation widerspiegelt), genießen sie alle Rechte als Gebietskörperschaften Russlands. Der russische Präsident Wladimir Putin, Ministerpräsident Michail Mischustin und die Regierung erörtern praktisch in Echtzeit und täglich die Pläne zur Wiederherstellung ihrer Wirtschaft und Infrastruktur. Diese Pläne werden umgesetzt.
Was die Aussichten für die spezielle Militäroperation betrifft, so werden alle ihre Ziele erreicht werden. Ich darf Sie auf die ausführlichen Ausführungen von Präsident Wladimir Putin zu diesem Thema bei seinem Treffen mit Kriegsberichterstattern und auf der SPIEF-Plenartagung hinweisen.
***
Übersetzung aus dem Russischen: Unser-Mitteleuropa












