Horst D. Deckert

Meine Kunden kommen fast alle aus Deutschland, obwohl ich mich schon vor 48 Jahren auf eine lange Abenteuerreise begeben habe.

So hat alles angefangen:

Am 1.8.1966 begann ich meine Ausbildung, 1969 mein berufsbegleitendes Studium im Öffentlichen Recht und Steuerrecht.

Seit dem 1.8.1971 bin ich selbständig und als Spezialist für vermeintlich unlösbare Probleme von Unternehmern tätig.

Im Oktober 1977 bin ich nach Griechenland umgezogen und habe von dort aus mit einer Reiseschreibmaschine und einem Bakelit-Telefon gearbeitet. Alle paar Monate fuhr oder flog ich zu meinen Mandanten nach Deutschland. Griechenland interessierte sich damals nicht für Steuern.

Bis 2008 habe ich mit Unterbrechungen die meiste Zeit in Griechenland verbracht. Von 1995 bis 2000 hatte ich meinen steuerlichen Wohnsitz in Belgien und seit 2001 in Paraguay.

Von 2000 bis 2011 hatte ich einen weiteren steuerfreien Wohnsitz auf Mallorca. Seit 2011 lebe ich das ganze Jahr über nur noch in Paraguay.

Mein eigenes Haus habe ich erst mit 62 Jahren gebaut, als ich es bar bezahlen konnte. Hätte ich es früher gebaut, wäre das nur mit einer Bankfinanzierung möglich gewesen. Dann wäre ich an einen Ort gebunden gewesen und hätte mich einschränken müssen. Das wollte ich nicht.

Mein Leben lang habe ich das Angenehme mit dem Nützlichen verbunden. Seit 2014 war ich nicht mehr in Europa. Viele meiner Kunden kommen nach Paraguay, um sich von mir unter vier Augen beraten zu lassen, etwa 200 Investoren und Unternehmer pro Jahr.

Mit den meisten Kunden funktioniert das aber auch wunderbar online oder per Telefon.

Jetzt kostenlosen Gesprächstermin buchen

Kategorie: Nachrichten

Kategorie: Nachrichten

Neue Videos am Mittwoch

Prof. Dr. Rainer Mausfeld meldet sich zu Wort (2024)

Wir können dem Gesundheitssystem nicht vertrauen. Gesundheitsbehörden arbeiten für Big Pharma

Link zum Video

Transhumanismus, Klima, Gender-Identität… die gleiche Agenda: Auslöschung der aktuellen Menschheit

Link zum Video

Mehr führende Politiker in verschiedenen Ländern lehnen WHO-Pandemievertrag und Zwangsimpfung ab

Link zum Video

Corona 2.0 Neuer Terrorangriff mit Bakterien?

UFOs: „Sie sind hier! Was jetzt?“ – Punkt.PRERADOVIC mit Robert Fleischer

Impulsreferat Christan Oesch Globales Geschehen Modelhof 1. Teil

Dieses Video entlarvt die wahre Absicht im Hintergrund!!!

Medienmonopole verbreiten Einheitsmeinungen | Medienpsychologe Mark Galliker im Interview | NDS

Retract – die Reformpläne der WHO

Elon Musk offiziell im Visier der EU aufgrund israelischer „Hassrede“

Medienmanipulation des SRF aufgedeckt

Edward Snowden & Julian Assange: Helden, die von den Medien vergessen wurden

Wie Rockefeller die Medizin monopolisierte und BIG PHARMA schuf

Lebensversicherungen vor dem Kollaps?

Was will Wladimir Putin? Chrupalla, Wagenknecht und Krone-Schmalz über den russischen Präsidenten

Ethnische Säuberung wird jetzt als „freiwillige Migration“ bezeichnet

Von Caitlin Johnstone

Jemanden gewaltsam dazu zu zwingen, etwas zu tun und dafür zu sorgen, dass er stirbt, wenn er es nicht tut, ist das genaue Gegenteil dessen, was das Wort „freiwillig“ bedeutet.

Israelische Beamte geben nun offen zu, dass sie daran arbeiten, die Abwanderung von Palästinensern aus dem Gazastreifen zu „fördern“, und behaupten lächerlicher weise, dass diese Abwanderung „freiwillig“ wäre, obwohl sie die Enklave in den vergangenen drei Monaten absichtlich unbewohnbar gemacht haben.

Die Times of Israel berichtet:

„Die beiden ranghöchsten rechtsextremen Partner von Premierminister Benjamin Netanjahu befürworteten am Montag den Wiederaufbau von Siedlungen im Gazastreifen und die Förderung der „freiwilligen Auswanderung“ von Palästinensern, während der Falken-Oppositionsminister Avigdor Liberman forderte, Israel solle den Südlibanon wieder besetzen.

„Während der Fraktionssitzungen ihrer Parteien in der Knesset präsentierten der Minister für nationale Sicherheit, Itamar Ben Gvir, und der Finanzminister, Bezalel Smotrich, die Auswanderung palästinensischer Zivilisten als Lösung für den lang andauernden Konflikt und als Voraussetzung für die Sicherung der notwendigen Stabilität damit die Bewohner des südlichen Israels in ihre Häuser zurückkehren können.

„Der Krieg bietet eine ‚Gelegenheit, sich auf die Förderung der Migration der Bewohner des Gazastreifens zu konzentrieren‘, sagte Ben Gvir vor Reportern und Mitgliedern seiner rechtsextremen Partei Otzma Yehudit und nannte eine solche Politik ‚eine korrekte, gerechte, moralische und humane Lösung‘.

„Wir können uns aus keinem Gebiet im Gazastreifen zurückziehen. Ich schließe eine jüdische Ansiedlung dort nicht nur nicht aus, ich halte sie auch für wichtig“, sagte er.

„Die ‚richtige Lösung‘ für den andauernden israelisch-palästinensischen Konflikt besteht darin, ‚die freiwillige Migration der Bewohner des Gazastreifens in Länder zu fördern, die sich bereit erklären, die Flüchtlinge aufzunehmen‘, sagte Smotrich vor Mitgliedern seiner Partei des religiösen Zionismus und sagte voraus, dass ‚Israel das Gebiet des Gazastreifens dauerhaft kontrollieren wird‘, auch durch die Errichtung von Siedlungen.“

Two Israeli Ministers Say ‘Resettle’ Palestinians from Gaza and Build Settlements in the Strip
An Arab member of the Israeli Knesset said the two extremist ministers were inciting genocide
by Dave DeCamp@DecampDave #Gaza #Israel #Palestine #Palestinians https://t.co/SI3EjCnVx0 pic.twitter.com/RnGrC4fMDR

— Antiwar.com (@Antiwarcom) January 1, 2024

Die wiederholte Verwendung des Wortes „ermutigen“ fällt in diesen Äußerungen auf, denn die Bewohner des Gazastreifens zur Flucht aus ihrer Heimat zu ermutigen, ist genau das, was Israels Aktionen seit Oktober bewirkt haben. Wenn man 90 Prozent der Bewohner des Gazastreifens durch interne Vertreibung obdachlos gemacht hat, die Hälfte der Bevölkerung durch den Belagerungskrieg in den Hungertod gezwungen hat, das gesamte Gesundheitssystem der Enklave zerstört hat, sodass jetzt Krankheiten grassieren, und das alles, während man Tod und Zerstörung von oben in einer wild unberechenbaren Weise mit Luftangriffen regnen lässt, die routinemäßig ausgewiesene Sicherheitszonen treffen, dann bietet man der Bevölkerung in der Tat eine sehr starke „Ermutigung“, die Region so schnell wie möglich zu verlassen.

Das macht das Argument der „freiwilligen Migration“ der Bewohner des Gazastreifens natürlich völlig unsinnig, denn jemanden gewaltsam dazu zu zwingen, etwas zu tun, und ihm zu garantieren, dass er stirbt, wenn er es nicht tut, ist das genaue Gegenteil dessen, was das Wort „freiwillig“ bedeutet.

Aber das ist der Slogan, der immer wieder auftaucht, wenn Israel sich seiner endgültigen Lösung des palästinensischen Problems in Gaza nähert. Netanjahu und seine Gefolgsleute haben wiederholt Ausdrücke wie „freiwillige Umsiedlung“ und „freiwillige Migration“ verwendet, um den Plan zu beschreiben, dass die palästinensischen Bewohner des Gazastreifens entweder in Flüchtlingslager auf der angrenzenden ägyptischen Sinai-Halbinsel umziehen oder von anderen Nationen auf der ganzen Welt aufgenommen werden sollen.

Netanjahu sagte, es müsse ein Team gebildet werden, das „sicherstellt, dass diejenigen, die den Gazastreifen in ein Drittland verlassen wollen, dies tun können“. Berichten zufolge wurde Tony Blair, der in den Irak einmarschiert war, von israelischen Beamten als möglicher Leiter eines solchen Teams ins Auge gefasst, obwohl Blair dies dementiert hat.

Benjamin Netanyahu announced his endgame in Gaza: the “voluntary migration” of Palestinians forced to choose between leaving or dying by bombardment and starvation. His goal is to end the Palestinians as a people and as a national movement.https://t.co/RDrm36aE0O

— Mondoweiss (@Mondoweiss) December 28, 2023

Mitchell Plitnick schrieb letzten Monat in einem Artikel für Mondoweiss über die Absurdität des Themas „freiwillige Migration“ Folgendes:

„Der Begriff ‚freiwillige Auswanderung‘ wird in den kommenden Wochen und Monaten wahrscheinlich vielfach zu hören sein, und er ist einer der zynischsten und unehrlichsten Begriffe, die man sich vorstellen kann. Die Menschen verlassen den Gazastreifen natürlich nicht freiwillig. Israel hat den Ort unbewohnbar gemacht, und das war vor dem aktuellen Bombardement.

„Jetzt werden sie im Wesentlichen unter Androhung des Todes zum Verlassen gezwungen. Die Menschen in Gaza haben nicht plötzlich ihre Verbundenheit mit Palästina verloren. Sie werden sterben, wenn sie bleiben, ebenso wie ihre Kinder. Wenn man Wasser, Strom, Nahrung und medizinische Versorgung abstellt, alle Unterkünfte zerstört und dann die Menschen fragt: ‚Möchten Sie trotzdem bleiben?‘, dann ist ihre Entscheidung zu gehen offensichtlich nicht freiwillig.“

Aber das ist anscheinend das Narrativ, mit dem sie arbeiten.

Und das ist nichts Neues. Israel behauptet seit Generationen fälschlicherweise, dass die gewaltsame Vertreibung der Palästinenser, die als Nakba bekannt ist, ebenfalls freiwillig war. Im Jahr 2000 schrieb die palästinensische Akademikerin Ghada Karmi: „Die israelische Version der Geschichte – dass die Palästinenser freiwillig oder auf Anweisung ihrer Führer gegangen sind und dass die Israelis weder materiell noch moralisch für ihre Notlage verantwortlich sind – wird seit Jahrzehnten erfolgreich an die Weltgemeinschaft vermarktet.“

Der Plan, die Palästinenser aus den von Israel gewünschten Gebieten umzusiedeln, ist ebenfalls nicht neu. In einem 2002 erschienenen Artikel für The Guardian mit dem Titel „A new exodus for the Middle East?“ (Ein neuer Exodus für den Nahen Osten?) schreibt der israelische Historiker Benny Morris, dass die Absicht, Palästinenser in andere Länder zu „transferieren“, schon so lange besteht wie der moderne Zionismus:

„Die Idee des Transfers ist so alt wie der moderne Zionismus und hat seine Entwicklung und Praxis während des letzten Jahrhunderts begleitet. Und sie wurde von einer eisernen Logik angetrieben: Es konnte keinen lebensfähigen jüdischen Staat in ganz oder in Teilen Palästinas geben, wenn nicht die arabischen Einwohner, die sich seiner Entstehung widersetzten und eine aktive oder potenzielle fünfte Kolonne in seiner Mitte darstellen würden, massenhaft vertrieben wurden. Diese Logik wurde vor und während des Jahres 1948 von zionistischen, arabischen und britischen Führern und Beamten verstanden und geäußert.

„Bereits 1895 schrieb Theodor Herzl, der Prophet und Gründer des Zionismus, in Erwartung der Gründung des jüdischen Staates in sein Tagebuch: ‚Wir werden versuchen, die mittellose [arabische] Bevölkerung über die Grenze zu bringen, indem wir ihr in den Transitländern Arbeit verschaffen, während wir ihr in unserem Land jede Beschäftigung verweigern … Die Umsiedlung der Armen muss diskret und umsichtig durchgeführt werden.’“

Es handelt sich um eine sehr, sehr alte Agenda, die als etwas ganz Neues dargestellt wird, das den israelischen Beamten gerade erst in den Sinn kommt. Sie haben sich das nicht einfach ausgedacht. Davon wurde schon geträumt, als Israel noch in den Augen seiner Gründerväter funkelte.

Dies ist das wahre Ziel in Gaza. Nicht die „Eliminierung der Hamas“ (wie auch immer man sich das in der Praxis vorstellen mag), sondern die ethnische Säuberung der Palästinenser im Gazastreifen.

Die Hamas ist nicht das Ziel in Gaza. Die Hamas ist nur der Vorwand.

Der Klimawandel: Die ungeklärte Wissenschaft, Teil 2

Der Klimawandel: Die ungeklärte Wissenschaft, Teil 2

In Teil 1 haben wir die grundlegenden Prinzipien hinterfragt, die angeblich der „KlimawissenschaftDer Klimawandel: Die ungeklärte Wissenschaft, Teil 2“ zugrunde liegen. Insbesondere haben wir uns mit der wissenschaftlichen Gültigkeit des behaupteten „Konsenses“ befasst und einige der zahlreichen wissenschaftlichen Zweifel an der Theorie der anthropogenen globalen Erwärmung (AGW) und dem so genannten „Treibhauseffekt“ untersucht.

Wir haben die widersprüchlichen Laienerklärungen einiger Klimawissenschaftler zur AGW-Theorie zur Kenntnis genommen. Dieser offensichtliche Mangel an Grundwissen sollte nicht einfach abgetan werden. „Die“ Klimawissenschaft wird von einer globalen öffentlich-privaten Partnerschaft als angebliche Rechtfertigung für die Umgestaltung der Welt missbraucht. Das Mindeste, was wir erwarten können, ist, dass die ausgewählten Klimawissenschaftler ihre eigene Theorie verstehen.

Mit der Veröffentlichung einer Reihe von Strategiepapieren mit dem Titel „Unsere gemeinsame Agenda“ im Jahr 2023 haben die Vereinten Nationen (UN) verkündet, dass das Infragestellen „der KlimawissenschaftDer Klimawandel: Die ungeklärte Wissenschaft, Teil 2“ einer Hassrede gleichkommt. Wie wir in Teil 1 erörtert haben, haben die etablierten Medien bereits eine redaktionelle Politik angenommen, die jede mögliche Infragestellung der Klimawissenschafts-Orthodoxie ausschließt. Daher ist das Internet ein wichtiger öffentlicher Raum, in dem die Menschen noch Fragen stellen können.

Deshalb, so die UNO, müssen Anstrengungen unternommen werden, um jede online geäußerte Skepsis zu zensieren:

Die Auswirkungen von Fehlinformationen, Desinformation und Hassreden im Internet sind überall auf der Welt zu beobachten, auch in den Bereichen Gesundheit [und] Klimaschutz. [. . .] Eine kleine, aber lautstarke Minderheit von Klimawissenschaftsleugnern lehnt die Konsensposition weiterhin ab. [. . .] Die Stärkung der Informationsintegrität auf digitalen Plattformen ist eine dringende Priorität für die internationale Gemeinschaft. [. . .] Maßnahmen, die die Auswirkungen von Fehlinformationen, Desinformation und Hassreden begrenzen, werden die Bemühungen um eine nachhaltige Zukunft unterstützen.

Die UNO hat mit keinem Wort erwähnt, dass viele der Personen, die sie als „Klimawissenschaftsleugner“ bezeichnet, Wissenschaftler sind – auch Klimawissenschaftler. Durch die Unterlassung und die falsche Darstellung von antiwissenschaftlichen Aussagen über den „Konsens“ als wissenschaftliche Argumente verbreitet die UNO weltweit Desinformationen.

Der Zweck dieser Artikel – Teil 1 bis 3 – ist es, eine offene und ehrliche Debatte über den Klimawandel und die Klimawissenschaft anzuregen. Sie werden nicht als schlüssige Widerlegung der vorherrschenden Klimawissenschaft angeboten. Sie basieren auf der inspirierenden Dissertation von Rob Jeffrey und bieten lediglich eine begrenzte Auflistung einiger Gründe, die vorherrschende Klimawissenschaft und die Erzählungen über den Klimawandel, die wir alle von der UNO und anderen unhinterfragt akzeptieren sollen, in Frage zu stellen.

Diese Artikel bilden eine Serie. Bitte lesen Sie zuerst Teil 1, um die hier vorgebrachten Argumente vollständig zu verstehen.

Infragestellung der experimentellen Beweise der AWG-Theorie

Halpern et al. (2010) stellten in ihrem Papier zur AGW-Theorie klar, dass die Bezeichnung „Treibhauseffekt“ irreführend ist, da der vorgeschlagene Mechanismus, der mit dem AGW zusammenhängt, nichts mit dem Prozess zu tun hat, der die Atmosphäre in einem Treibhaus warm hält:

Kurz gesagt, Gewächshäuser funktionieren, indem sie den Abfluss von Wärmeenergie in die umgebende Atmosphäre durch Konvektion einschränken, während der atmosphärische Treibhauseffekt durch die Einschränkung des Abflusses von Wärmeenergie in den Weltraum durch Strahlung funktioniert.

Wo immer es möglich ist, beweist die Wissenschaft Theorien durch wiederholbare Experimente, die konsistent Ergebnisse liefern, die die Theorie belegen. Auf der Grundlage der 1856 veröffentlichten Theorien von Eunice Foote führte John Tyndall 1859 sein berühmtes Experiment durch, um zu zeigen, wie CO2 Strahlungswärme absorbiert und weiterleitet. Dies wird oft als experimenteller Beweis für den „Treibhauseffekt“ angeführt. Tyndalls Experiment hat den behaupteten Treibhauseffekt nicht bewiesen.

Dazu hätte Tyndall einen Temperaturanstieg bei den emittierenden und absorbierenden Objekten nachweisen müssen. Etwas, das Tyndall nicht einmal gemessen hat. Tyndall wies nach, dass Wärmeenergie von einem warmen Körper auf einen kälteren abstrahlt, und zeigte die vergleichbaren Absorptionseigenschaften verschiedener Gase für elektromagnetische Strahlung.

Andere Experimente werden als angeblicher Beweis für den Treibhauseffekt angeführt. Im Jahr 2020 führte die Royal Society ein Experiment durch, das ihrer Meinung nach die Mechanismen des Klimawandels qualitativ veranschaulicht. Sie platzierten ein auf 50°C eingestelltes Heizelement im Inneren von Ballons, die auf verschiedene feste Drücke aufgeblasen und entweder mit Luft oder reinem CO2 gefüllt waren. Dann schalteten sie das Element aus und beobachteten, wie lange es zum Abkühlen brauchte. Die Forscher stellten fest, dass die Abkühlungsgeschwindigkeit in den mit CO2 gefüllten Ballons viel geringer war.

Erstens war dies kein Beweis für den von den Befürwortern der AGW-Theorie behaupteten „verstärkten Treibhauseffekt“. Die AGW-Theorie behauptet, dass ohne zusätzliche Energiezufuhr zum System die so genannte „Rückstrahlung“ des CO2 die Temperatur des Heizelements erhöhen würde, wenn eine konstante Energiezufuhr aufrechterhalten würde. Das Experiment der Royal Society hat die AGW-Theorie oder den angeblichen physikalischen Mechanismus der „globalen Erwärmung“ sicherlich nicht bewiesen.

In Ballons eingeschlossene Gase mit festem oder eingeschränktem Druck verhalten sich nicht wie die tatsächlich frei expandierenden und kontrahierenden Gase in der Erdatmosphäre. Auch reines CO2 ist nicht mit dem atmosphärischen CO2-Gehalt vergleichbar. In der Atmosphäre würde sich das CO2 durch Ausdehnung und adiabatischen Sturz abkühlen. In dem unter Druck stehenden Ballon könnte es das nicht tun. Auch dieses Experiment hat den angeblichen Treibhauseffekt nicht bewiesen.

Andere Beweise für die so genannte Treibhausgastheorie sind ebenfalls nicht schlüssig. In „Nature“ wurde ein Artikel veröffentlicht, in dem angeblich der atmosphärische Treibhauseffekt anhand von Satellitenmessungen quantifiziert wurde, um die von atmosphärischen Gasen und Wolken eingeschlossene Infrarotstrahlungsenergie zu messen. Die Klimawissenschaftler behaupteten daraufhin, dies sei ein zwingender Beweis für eine „positive Rückkopplung“ in der Atmosphäre, in diesem Fall für die angebliche Strahlungsverstärkung durch den verstärkten Treibhauseffekt. Sie haben den „verstärkten Treibhauseffekt“ nicht bewiesen, sie haben ihn einfach angenommen und dieselben Gaseigenschaften beobachtet, die Tyndall mehr als 165 Jahre zuvor nachgewiesen hatte.

Ein weiterer wissenschaftlicher Grundsatz zum Nachweis der Richtigkeit einer Theorie ist das Fehlen einer anderen plausiblen Erklärung. Dies scheint bei dem „verstärkten Treibhauseffekt“, der im Mittelpunkt der AGW-Theorie steht, nicht der Fall zu sein.

Viele Physiker, Astrophysiker, wie Joseph Postma, und andere Wissenschaftler haben andere plausible Erklärungen angeboten. So schlug Holmes 2018 vor, dass die Oberflächentemperatur auch durch nichts anderes als die Auswirkungen des atmosphärischen Drucks und der thermischen Konvektion in der Troposphäre aufrechterhalten werden könnte:

[. . .] es wird vorgeschlagen, dass die verbleibende Temperaturdifferenz zwischen der effektiven Temperatur und der gemessenen oberflächennahen Temperatur eine thermische Verstärkung ist, die durch die gravitationsbedingte adiabatische Autokompression, angetrieben durch Konvektion, verursacht wird. Es wird daher eine neue Nullhypothese der globalen Erwärmung oder des Klimawandels vorgeschlagen und begründet, die keine anomale oder Nettoerwärmung durch Treibhausgase in der troposphärischen Atmosphäre irgendeines Planetenkörpers beinhaltet.

Zwei Klimawissenschaftler, Ned Nikolov und Karl Zeller, erlangten Berühmtheit, weil sie Arbeiten unter Pseudonymen veröffentlichten. Sie wurden als „Klimaleugner“ bezeichnet und konnten ihre Arbeiten nicht einmal zur Begutachtung einreichen, geschweige denn in „angesehenen“ Fachzeitschriften veröffentlichen. Im Jahr 2014 beschlossen sie, unter Pseudonymen zu veröffentlichen, und ihre Arbeiten wurden daraufhin begutachtet und veröffentlicht. Die Papiere wurden anschließend zurückgezogen – nicht aus wissenschaftlichen Gründen, sondern weil ihre offensichtlich notwendige Verwendung von Pseudonymen entdeckt wurde. Karl Zeller stellte fest: „Eine Abweichung von der aktuellen Treibhauseffekt-Theorie stellt keinen Fehler dar.“

Im Jahr 2017 veröffentlichten die Klimaforscher Nikolov, Zeller (2017) ein Modell zur Berechnung der mittleren globalen Temperatur für die Oberfläche eines festen Planeten mit oder ohne Atmosphäre. Sie wendeten ihr Modell auf Mars, Venus, Triton (ein Mond des Neptun) und Titan (ein Mond des Saturn) an und behaupteten, ihr Modell sei genau.

Entscheidend ist, dass sich ihr Modell auf den berechneten Oberflächenluftdruck und die Sonneneinstrahlung stützt, um die mittlere globale Temperatur zu schätzen. Ihr Modell impliziert, dass die chemische Zusammensetzung einer Atmosphäre die Oberflächentemperaturen eines Planeten nicht beeinflusst. In der Zusammenfassung ihres Papiers von 2017 schrieben die Wissenschaftler:

[. . .] der atmosphärische „Treibhauseffekt“, der derzeit als Strahlungsphänomen angesehen wird, ist in Wirklichkeit eine adiabatische (druckbedingte) thermische Verstärkung, die der Kompressionserwärmung entspricht und unabhängig von der atmosphärischen Zusammensetzung ist. Folglich scheint der globale abwärts gerichtete Langwellenfluss, von dem derzeit angenommen wird, dass er die Erwärmung der Erdoberfläche verursacht, ein Produkt der durch die Sonnenerwärmung und den atmosphärischen Druck festgelegten Lufttemperatur zu sein. Mit anderen Worten, die so genannte „Treibhausrückstrahlung“ ist global gesehen eher ein Ergebnis des atmosphärischen thermischen Effekts als eine Ursache dafür.

Infragestellung der Erwärmung in der AGW-Theorie

Ein Kernelement der AGW-Theorie ist die Vorstellung, dass die CO2-Emissionen der Menschheit eine „zusätzliche“ und „noch nie dagewesene“ globale Erwärmung verursachen. Daher muss es einen empirischen Beweis dafür geben, dass der Anstieg des atmosphärischen CO2 einer messbaren Erwärmung vorausgeht. Es scheint keine zu geben.

Es ist allgemein anerkannt, dass es nirgendwo in der Wissenschaft eine Arbeit gibt, die die Existenz des AGW-Mechanismus allein mit empirischen Daten belegt. Der Zusammenhang zwischen den Treibhausgasemissionen der Menschheit und dem Klimawandel beruht auf einem komplexen Netz von voneinander abhängigen Theorien, Computermodellen und Prognosen. In der Tat sind empirische Messungen von Dingen wie der durchschnittlichen „Oberflächenlufttemperatur“ (SAT) höchst problematisch.

Rob Jeffrey beobachtet:

Fast alle Wissenschaftler sind der Meinung, dass natürliche Kräfte in der Vergangenheit langfristige Klimaveränderungen bewirkt haben. Die Erdgeschichte zeigt, dass der Klimawandel ein Prozess ist, der seit über vier Milliarden Jahren stattfindet. Es scheint weitgehend Einigkeit darüber zu bestehen, dass die langfristigen Zyklen des Klimawandels von den Milankovitch-Zyklen angetrieben werden, deren Geschichte gut aufgezeichnet ist.

Die Milankovitch-Zyklen beschreiben die großen Umlaufzyklen der Erde, da sowohl die Form der Sonnenbahn als auch die „Achsenneigung“ der Erde relativ zur Sonne schwanken. Dies führt dazu, dass die Erde unterschiedliche Intensitäten der TSI (Total Solar Irradiance) erhält. Im Laufe der Zeit ist dies Teil der natürlichen Schwankungen, die sich auf das Klima auswirken.

Die „offizielle“ Klimawissenschaft des Zwischenstaatlichen Ausschusses für Klimaänderungen (IPCC) räumt ein, dass historische Temperaturproxy-Aufzeichnungen, wie z. B. Eisbohrkerne, zeigen, dass es eine Verzögerung von möglicherweise bis zu 800 Jahren zwischen dem Beginn der globalen Erwärmung und dem Anstieg des atmosphärischen CO2 gibt. Caillon et al. (2003) stellten fest, dass die interglaziale Erwärmung in der südlichen Hemisphäre zu beginnen scheint:

Die Abfolge der Ereignisse [. . .] deutet darauf hin, dass der CO2-Anstieg der antarktischen deglazialen Erwärmung um 800 (+ oder – ) 200 Jahre hinterher und der Deglazialisierung der nördlichen Hemisphäre vorausging. CO2 ist nicht der Antrieb, der das Klimasystem während der Deglazialisierung [Erwärmung] antreibt.

Shakun et al. (2012) entwickelten ein „Computermodell“, das nach Ansicht der Autoren erklärt, was aus Sicht der AGW-Theorie als Nächstes passiert. Dies wurde u. a. von „Skeptical Science“ berichtet:

Kurz gesagt, die anfängliche Erwärmung wurde tatsächlich durch die Milankovitch-Zyklen ausgelöst, und diese geringe, durch den Orbitalzyklus verursachte Erwärmung löste schließlich die CO2-Freisetzung aus, die den größten Teil der Erwärmung zwischen den Eiszeiten verursachte. Während das CO2 also einer kleinen anfänglichen Temperaturänderung hinterherhinkte (die hauptsächlich in der südlichen Hemisphäre auftrat), war es die Hauptursache und der Hauptantrieb für den größten Teil der Erwärmung während der Zwischeneiszeit.

Um das klarzustellen: Die AGW-Theorie geht davon aus, dass die Sonne, die nur scheinbar in der Lage ist, die Erdoberfläche auf -18 °C zu erwärmen, den Prozess der globalen Erwärmung zwischen den Eiszeiten in Gang setzt, dass aber dann, wenn man von einer Art natürlichem verstärktem Treibhauseffekt ausgeht, „zusätzliche“ freigesetzte Treibhausgase – vor allem CO2 aus den Ozeanen – die Wärme einfangen und eine „positive Rückkopplung“ verursachen.

Angeblich verstärkt dies wiederum die globale Erwärmung. Dies soll erklären, warum historische CO2– und Temperaturaufzeichnungen zu zeigen scheinen, dass der Anstieg des atmosphärischen CO2 die globale Erwärmung nicht verursacht, und gleichzeitig beweisen, warum CO2 die globale Erwärmung verursacht.

Wie „Skeptical Science“ es ausdrückt:

Während die anfängliche Erwärmung also nicht durch CO2 verursacht wurde, hat CO2 die Erwärmung über Tausende von Jahren hinweg verstärkt und ist somit immer noch der wichtigste Regler für die Temperatur der Erde.

Die AGW-Theorie legt angeblich nahe, dass CO2 der „Hauptsteuerknopf“ ist, und die Sonne ist zwar der Leistungsschalter, aber nicht die Energiequelle. Wenn man der AGW-Theorie Glauben schenkt, scheint der Strahlungsantrieb erhebliche Mengen an zusätzlicher atmosphärischer Wärmeenergie zu erzeugen.

Das Problem bei dieser Vorstellung ist, dass die globalen Temperaturen in der Vergangenheit anscheinend genauso hoch, wenn nicht sogar höher waren als heute, während der CO2-Gehalt während dieser warmen Perioden niedriger war. Martinez-Cortizas et al. (1999) haben beispielsweise durch die Entnahme von Quecksilberproben in Torfmooren als Klimavariable gezeigt, dass das Klima im Nordwesten Spaniens während der mittelalterlichen Warmzeit (ca. 950 bis ca. 1250) im Durchschnitt 1,5°C wärmer war und während der römischen Warmzeit (ca. 250 v. Chr. bis ca. 400 n. Chr.) möglicherweise bis zu 2°C wärmer war als der angegebene moderne Durchschnitt (1968 – 1998) zum Zeitpunkt der Veröffentlichung.

Diese Ergebnisse stehen im Einklang mit zahlreichen anderen Studien, die diese wärmeren, relativ CO2-armen Perioden belegen. Desprat et al. (2003) z. B. verwendeten Pollenwerte aus Bohrkernen von der iberischen Halbinsel, die ebenfalls sowohl die römische als auch die mittelalterliche Warmzeit belegen. Dies ist ein Beweis, der sowohl der Vorstellung einer beispiellosen modernen globalen Erwärmung als auch der AGW-Theorie zu widersprechen scheint.

Ljungqvist (2010) nahm mehrere Proxies aus der gesamten nördlichen Hemisphäre, um historische Temperaturen zu rekonstruieren. Auch diese zeigen sowohl die römische als auch die mittelalterliche Warmzeit. Während dieser Zeiträume überstieg der CO2-Gehalt der Atmosphäre laut Befürwortern der AGW-Theorie wie der NASA nicht die Marke von 280 Teilen pro Million (ppm).

Abb. 4: Ljungqvist (2010), Rekonstruktion der Temperaturvariabilität

Diese Art empirischer Beweise hat viele Wissenschaftler, darunter Rob Jeffrey, dazu veranlasst, die AGW-Theorie in ihrer Gesamtheit in Frage zu stellen:

Es gibt eindeutige Beweise dafür, dass nicht-atmosphärische Verursacher, z. B. die Sonne, in erster Linie für die globale Erwärmung und jegliche Klimaveränderung verantwortlich sind.

Soon et al. (2015) zum Beispiel fanden heraus:

Anhand von thermometergestützten Lufttemperaturaufzeichnungen für den Zeitraum von 1850 bis 2010 präsentieren wir empirische Belege für eine direkte Beziehung zwischen der Gesamtsonneneinstrahlung (TSI) und dem Oberflächentemperaturgradienten zwischen Äquator und Pol (Arktis) (EPTG). […] Insgesamt deutet alles darauf hin, dass ein Nettoanstieg der TSI oder des projizierten Sonneneinstrahlungsgradienten, der einen Nettoanstieg der Sonneneinstrahlung widerspiegelt, einen Anstieg des ozeanischen und atmosphärischen Wärmetransports in die Arktis in der Warmzeit seit den 1970er Jahren verursacht hat […].

Im Jahr 2018 stellte der Atmosphärenforscher Rex J. Flemming Ph.D. fest:

Viele glauben und/oder unterstützen die Vorstellung, dass die Erdatmosphäre ein „Treibhaus“ ist, wobei CO2 das wichtigste „Treibhausgas“ ist, das die Erde erwärmt. [. . .] Es gibt jetzt ein viel klareres Bild eines alternativen Grundes dafür, warum die Oberflächentemperatur der Erde seit 1850 angestiegen ist. Es gibt eine Wärmedecke oder einen Puffer für die atmosphärischen Oberflächenbedingungen, der seit einer Milliarde Jahren existiert [. . .]. Seine genaue Form hängt von der effektiven Sonnenenergie ab, die die Erdoberfläche erreicht. Die Quellen der Wärmedecke und die anschließende Übertragung von Wärme nach oben sind auf drei Kräfte zurückzuführen: das Schwerefeld der Erde mit seinem Einfluss auf die Konvektion, die Kondensation von Wasserdampf (H2O) und die Strahlungseffekte der beiden primären atmosphärischen Spurengase H2O und CO2. Es wird gezeigt, dass die Strahlungseffekte von H2O und CO2 relativ gering sind.

Jeffrey hebt die Arbeit der Astrophysikerin Professorin Valentina Zharkova hervor, die als Hauptautorin zahlreicher Arbeiten herausgestellt hat, wie sich die variable Sonnenaktivität auf die bekannten TSI-Auswirkungen der Orbitalzyklen auswirkt. Zharkova hat viele Sonnenzyklen identifiziert, von denen einige nur 11 Jahre dauern. Sie hat gezeigt, wie diese Sonnenaktivitätszyklen den TSI-Effekt der großen Orbitalzyklen entweder verstärken oder ihm entgegenwirken:

Dieser Ansatz ergab, dass es nicht nur 11-jährige Sonnenzyklen gibt, sondern auch große Sonnenzyklen mit einer Dauer von 350 bis 400 Jahren. […] Diese großen Zyklen werden stets durch große Sonnenminima vom Typ des Maunder-Minimums unterbrochen, die in der Vergangenheit regelmäßig auftraten und die bekannten Maunder-, Wolf-, Oort-, Homer’schen und andere große Minima bildeten. Während dieser großen Sonnenminima kommt es zu einer erheblichen Verringerung des solaren Magnetfelds und der solaren Bestrahlungsstärke, wodurch die Temperaturen auf der Erde sinken.

Weltweit befindet sich der Planet nach der kleinen Eiszeit, die Mitte des 19. Jahrhunderts endete, in einer wärmenden interglazialen Phase. Was die jüngste Erwärmung anbelangt, so waren die 1930er Jahre das wärmste Jahrzehnt in den USA, wenn man sich die Daten der „National Oceanic and Atmospheric Administration“ (NOAA) ansieht, die seit 1890 für alle US-Bundesstaaten Temperaturaufzeichnungen erstellt hat.

Die AGW-Theorie besagt, dass es die vom Menschen verursachten CO2-Emissionen aus der Verbrennung fossiler Brennstoffe sind, die die globale Erwärmung stark verschärft haben. Der größte Teil dieser Emissionen soll in der Zeit nach dem Zweiten Weltkrieg entstanden sein. Das wirft die Frage auf: Warum waren die 1930er Jahre das wärmste Jahrzehnt des 20. Jahrhunderts in den USA, wenn die CO2-Werte nach dem Zweiten Weltkrieg deutlich angestiegen sind?

Abb. 5: Weltwirtschaftsforum – anthropogene CO2-Emissionen seit 1900

Während der Kleinen Eiszeit fror die Themse zeitweise zu. Vielleicht am regelmäßigsten während des solaren Maunder-Minimums [ca. 1645-c.1715]. Selbst die relativ neue globale Erwärmung begann vor dem bemerkenswerten Anstieg der vom Menschen verursachten CO2-Emissionen nach dem Zweiten Weltkrieg. Wäre dies nicht der Fall gewesen, hätten die Londoner in den 1920er Jahren noch immer Frostmessen auf der zugefrorenen Themse abgehalten.

Es scheint wahrscheinlich, dass der globale Temperaturanstieg in den letzten Jahrhunderten darauf zurückzuführen ist, dass die Erde aufgrund der geringeren Albedo der Wolken mehr kurzwellige Sonnenstrahlung absorbiert. Die Erwärmung des Planeten in den letzten 20 Jahren ist offenbar auf die höhere Ultraviolett-Durchlässigkeit der Wolken zurückzuführen. Das Ausmaß der Infrarotstrahlung, die angeblich durch den so genannten Treibhauseffekt verursacht wird, scheint vernachlässigbar zu sein.

Dübal und Vahrenholt. (2021) stellten fest:

Wir fanden heraus, dass die abnehmende ausgehende [reflektierte] kurzwellige Strahlung der wichtigste Faktor für einen positiven TOA-Nettostrom (oberste Schicht der Atmosphäre) von 0,8 W/m2 in diesem Zeitraum ist. [. . .] Wir vergleichen den klaren Himmel mit bewölkten Gebieten und stellen fest, dass Veränderungen in der Wolkenstruktur die Hauptursache für den Kurzwellentrend sein dürften. [. . .] Der Rückgang der Bewölkung um die Jahrtausendwende um etwa 1,5% hat sicherlich den positiven Nettostrahlungsfluss begünstigt. [. . .] Dies führt zusammen mit einer verringerten Sonneneinstrahlung von -0,17 W/m2 zu einem kleinen Wachstum des Ungleichgewichts von 0,15 W/m2. Wir präsentieren außerdem Daten zu den Oberflächenflüssen, die den starken Einfluss der Wolkenbedeckung auf den Strahlungshaushalt belegen.

Diese Ergebnisse wurden von einem NASA-Forschungsteam bestätigt, das in einer Veröffentlichung von Loeb et al. (2021) feststellte, dass die Erwärmung im 21. Jahrhundert „in erster Linie auf eine Zunahme der absorbierten Sonnenstrahlung in Verbindung mit einer geringeren Reflexion durch Wolken und Meereis“ zurückzuführen ist. Dies bezieht sich auf die beobachtete Verringerung der planetarischen Albedo.

In ähnlicher Weise stellte Professor Antero Ollila fest, dass die SW-Anomalie der Hauptgrund für diesen Temperaturanstieg ist. SW-Anomalien hatten ihre größten Auswirkungen auf die globale Temperatur während sehr starker (Super-)El Niño-Ereignisse in den Jahren 1997-98 und 2015-16.

Folglich stellte Rob Jeffrey fest:

Die Erdumlaufbahn verursacht diese Zyklen um die Sonne, die verschiedenen Perioden des Exzentrizitätszyklus der Erde, den Obliquitätszyklus und die Präzession der Äquinoktien. Bis zu den letzten 200 Jahren waren alle signifikanten Klimaveränderungen natürlich bedingt [. . .], viele Experten glauben, dass diese kurzfristigeren Zyklen durch Sonnenzyklen bedingt sind. [. . .] Diese werden durch Schwankungen des Sonnenflusses verursacht, die das Eindringen der kosmischen Strahlung und die Wolkenbildung in der Erdatmosphäre beeinflussen und zu Erwärmungs- und Abkühlungsperioden führen. [. . .] Die verbleibende Frage ist, wie viel der Mensch derzeit zur kurzfristigen globalen Erwärmung beiträgt. Die Erde hat in den letzten 11.000 Jahren achtmal ähnliche kurzfristige natürliche Erwärmungsphasen durchlaufen.

Infragestellung der Wirkungen der menschlichen CO2-Emissionen

Vielleicht sind die Argumente, die wir hier und in Teil 1 untersucht haben, kaum mehr als eine wissenschaftliche Debatte. Aber selbst wenn wir akzeptieren, wie der „verstärkte Treibhauseffekt“ funktionieren soll, gibt es noch weitere Gründe, die AGW-Theorie in Frage zu stellen.

Wie Rob Jeffrey feststellte:

Selbst wenn wissenschaftlich erwiesen ist, dass CO2 eine gewisse globale Erwärmung verursacht, gibt es deutliche Hinweise darauf, dass das vom Menschen verursachte CO2 nur einen winzigen Teil des gesamten globalen CO2-Ausstoßes ausmacht.

Die Atmosphäre enthält etwa 78% Stickstoff, 21% Sauerstoff und etwa 0,9% Argon. Die restlichen 0,1% bestehen aus Kohlendioxid, Stickstoffoxiden, Methan und Ozon. Darüber hinaus ist Wasserdampf (H2O) eine bemerkenswerte Variable. Einige AGW-Theoretiker behaupten, dass die Treibhausgase 1% der Atmosphäre ausmachen, aber Argon ist kein Treibhausgas, so dass dies nicht zuzutreffen scheint.

Erschwerend kommt hinzu, dass Wasserdampf in der Atmosphäre leicht zu einer Flüssigkeit kondensiert und wieder zu einem Gas verdampft. Aufgrund seines flüchtigen Charakters kann er bis zu 3% der gesamten atmosphärischen Gase ausmachen.

Wie oft berichtet wird, macht das atmosphärische CO2 derzeit mehr als 400 ppm der Atmosphäre aus. Das entspricht 0,04% der gesamten atmosphärischen Gase.

Daraus lässt sich schließen, dass CO2 etwa 40% der Treibhausgase ausmacht, wenn man den Wasserdampf vorübergehend außer Acht lässt. Nach Angaben der amerikanischen „Energy Information Administration“ (EIA) waren in den 1990er Jahren von den geschätzten 793 Milliarden Tonnen (bmt) atmosphärischen CO2s etwa 23 bmt auf die jährlichen menschlichen Emissionen zurückzuführen.

Dies lässt darauf schließen, dass die menschlichen CO2-Emissionen Ende des letzten Jahrhunderts etwa 3% des gesamten atmosphärischen CO2 ausmachten. Die menschlichen CO2-Emissionen haben in den ersten beiden Jahrzehnten des 21. Jahrhunderts weiter zugenommen. Ein derzeitiger Durchschnittswert von etwa 35 Mrd. Tonnen, d. h. etwa 4,5% der gesamten CO2-Emissionen, ist nicht unrealistisch. Folglich dürften die menschlichen CO2-Emissionen etwa 1,8% aller Treibhausgase ausmachen – der H2O-Gehalt ist eine Variable, die sich auf diese Zahl auswirkt.

Die Klimawissenschaftler von „Skeptical Science“ stellen fest, dass der vom Menschen verursachte verstärkte Treibhauseffekt der „wichtigste Regler für die Temperatur der Erde“ ist. Wenn wir alle Aspekte unseres Lebens radikal ändern und es irgendwie schaffen, die menschlichen CO2-Emissionen auf Null zu reduzieren (was nicht möglich ist, es sei denn, wir sterben aus), würden leider zumindest die 98,2% der jährlichen globalen Treibhausgasemissionen übrig bleiben.

Diese Situation wird durch den Wasserdampf noch komplizierter, der 80% der Treibhausgase nach Masse und 90% nach Volumen ausmachen kann. Dadurch erhöht sich die Gesamtzahl der angeblichen Treibhausgase in der Atmosphäre. Die NASA gibt an, dass Wasserdampf mit großem Abstand der dominierende Treibhausgaseffekt ist:

Wasserdampf ist bekanntlich das am häufigsten vorkommende Treibhausgas der Erde. […] Die Forscher nutzten neuartige Daten des Atmospheric Infrared Sounder (AIRS) auf dem Aqua-Satelliten der NASA, um die Feuchtigkeit in den untersten 10 Meilen der Atmosphäre genau zu messen. Diese Informationen wurden mit globalen Beobachtungen von Temperaturverschiebungen kombiniert. […] Wasserdampf ist der Hauptakteur in der Atmosphäre, wenn es um das Klima geht.

Die Veränderung des atmosphärischen H2O-Gases soll ein Produkt des Treibhauseffekts sein, der zu weiterer Verdunstung führt. Angeblich macht der Wasserdampf zwischen 66% und 85% des gesamten „Treibhauseffekts“ aus. Entscheidend ist, dass in der AGW-Theorie der Wasserdampf „keine globale Erwärmung verursacht„. Er ist zwar das bei weitem einflussreichste Treibhausgas, aber kein Treibhausgas, das die Erderwärmung „antreibt“. Der Begriff „Strahlungsantrieb“ ist für andere Treibhausgase wie CO2 und, in viel geringerem Maße, CH4 (Methan) reserviert.

Wenn wir davon ausgehen, dass bis zu 90% des THG-Volumens aus Wasserdampf bestehen, dann reduziert sich der menschliche CO2-Ausstoß auf etwa 0,3% der gesamten THG. Es verbleiben 99,7% der Treibhausgase, mit denen wir zu kämpfen haben, wenn wir „Netto-Null“-Emissionen erreichen.

Da die AGW-Theorie die Vorstellung ablehnt, dass der Klimawandel durch die Sonne verursacht wird, wird das Ausmaß, in dem Wolken die Absorption des solaren Strahlungsflusses verändern, weitgehend ignoriert. Das bedeutet, dass der angebliche „Strahlungsantrieb“ der Treibhausgase den Wasserdampf als passives Produkt der „treibenden“ Treibhausgase einschließt, aber die Wolkenbedeckung als signifikante Variable für eine entsprechende „Klimaänderung“ ausschließt.

Der IPCC erklärt dies damit, dass vor allem die menschlichen CO2-Emissionen, die etwa 0,3% der Treibhausgase ausmachen (wenn wir den Wasserdampf mit einbeziehen), einen „Nettoerwärmungseffekt“ haben, während der Wasserdampf in seiner Gesamtheit keinen solchen Effekt hat. Dies liegt angeblich daran, dass CO2 eine viel längere „Verweilzeit“ in der Atmosphäre hat.

Wie die EIA feststellt, wurden von den insgesamt 793 Mrd. Tonnen CO2, die aus natürlichen und menschlichen Quellen emittiert wurden, im gleichen Zeitraum 781 Mrd. Tonnen wieder vom Planeten aufgenommen – durch Bäume, Ozeane, Verwitterung usw.

Diese Emissions- und Absorptionsrate zwischen Kohlenstoff-„Reservoiren“ wie Wäldern, Bergen und Ozeanen wird als Kohlenstoffkreislauf bezeichnet. Die Kohlenstoff-„Senke“ ist die gemessene Menge an CO2, die pro Zeiteinheit vom Reservoir aufgenommen oder abgegeben wird. Sie wird zum Beispiel in Kilogramm CO2 pro Tag (kg C/Tag) gemessen.

Harde (2016) stellte fest:

Wir haben diesen [Kohlenstoff-]Kreislauf kritisch hinterfragt und stellen ein alternatives Konzept vor, bei dem die Aufnahme von CO2 durch natürliche Senken proportional zur CO2-Konzentration skaliert. Darüber hinaus berücksichtigen wir temperaturabhängige natürliche Emissions- und Absorptionsraten, mit denen sich die paläoklimatischen CO2-Schwankungen und die aktuelle CO2-Wachstumsrate gut erklären lassen. Der anthropogene Beitrag zur aktuellen CO2-Konzentration beträgt 4,3%, sein Anteil am CO2-Anstieg während des Industriezeitalters 15% und die durchschnittliche Verweilzeit 4 Jahre.

Rob Jeffrey fügte dem hinzu:

Die Verweildauer von CO2 in der Atmosphäre ist von entscheidender Bedeutung, denn je länger es in der Atmosphäre verbleibt, desto länger wird ein vermeintlich künstliches Ungleichgewicht bestehen. Der IPCC vertritt den (unbewiesenen) Standpunkt, dass die Verweildauer von CO2 in der Atmosphäre über 100 Jahre beträgt. Weitere Beweise deuten darauf hin, dass die Verweildauer von CO2 in der Atmosphäre eher bei zehn Jahren (oder weniger) liegt – ein außerordentlich signifikanter Unterschied mit großen Auswirkungen.

Diese Beobachtung steht ganz im Gegensatz zu den Behauptungen des IPCC und anderer Verfechter der AGW-Theorie. Was den IPCC anbelangt, so könnte die Tatsache, dass solche Erkenntnisse scheinbar ignoriert werden, auf politische Voreingenommenheit zurückzuführen sein, wie wir in Teil 3 erörtern werden.

Hinterfragung der AGW-Computermodelle

Der Grund, warum die Klimawissenschaftler darauf bestehen, dass der Klimawandel eine anerkannte Wissenschaft sei – abgesehen von der Tatsache, dass ihre Finanzierung weitgehend davon abhängt, dass sie dies sagen – ist, dass alle auf der AGW-Theorie basierenden „Klimamodelle“ so angeboten werden, als ob sie Beweise für die Theorie wären. Modelle sind von der Theorie abhängig.

Selbst wenn spätere Messungen mit dem Modell übereinstimmen, „beweist“ das Modell die Theorie nicht, es sei denn, andere Erklärungen wurden ausgeschlossen. Wie Jeffrey, Clauser, Postma, Soon, Flemming, Lindzen, Giaever, Dyson, Curry, Spencer, Coombs und viele andere skeptische Wissenschaftler und andere Skeptiker zu betonen versucht haben, ist es nicht nur unlogisch zu behaupten, ein Modell „beweise“ eine Theorie, sondern die Computermodelle der AGW-Theorie scheinen häufig entweder verzerrt oder schlichtweg falsch zu sein.

In Anbetracht der Tatsache, dass laut Dr. Hossenfelder und anderen Klimawissenschaftlern eine Abkühlung der Stratosphäre beobachtet wurde, „beweist“ die Übereinstimmung mit dem Modell von Manabe und Wetherall aus dem Jahr 1967 – siehe Teil 1 – die AGW-Theorie und widerlegt angeblich die Vorstellung, dass eine Veränderung der Sonneneinstrahlung irgendetwas mit der jüngsten globalen Erwärmung zu tun hat. Sie wird stattdessen durch einen „verstärkten Treibhauseffekt“ verursacht, heißt es.

Wie in Teil 1 erwähnt, behaupten Santer et al. (2023), den angeblich unbestreitbaren „Fingerabdruck“ der AGW-Theorie entdeckt zu haben.

Bei der Betrachtung der Signale in der mittleren bis oberen Stratosphäre stellten Santer et al. (2023) fest, dass der Ausbruch des Mount Pinatubo im Jahr 1991 eine Erwärmung der Stratosphäre verursachte, dass aber nach der anfänglichen Erwärmungsphase der Vulkanausbruch „die allmähliche anthropogen bedingte Abkühlung der Stratosphäre verstärkt“. Es sei darauf hingewiesen, dass es sich hier um die beobachtete Verstärkung eines unbewiesenen theoretischen Effekts handelt.

Die Satellitendaten der Universität von Alabama zeigen die Erwärmung der Stratosphäre durch Vulkane und die anschließende Abkühlung nach den Ausbrüchen von El Chichon (1982) und Pinatubo (1991). Nach jedem Ausbruch sanken die Stratosphärentemperaturen unter das Niveau, das sie vor dem Ausbruch hatten. Die Daten zeigten, dass die vulkanische Aktivität nicht zu einem monotonen linearen Temperaturrückgang, sondern zu einer deutlichen Abwärtsbewegung der Stratosphärentemperaturen führte. Im Jahr 2009 schrieb das amerikanische „National Center for Atmospheric Research„: „Die stratosphärischen Veränderungen sind nicht monoton [nicht durchgängig linear in einer einzigen Abwärtskurve], sondern eher stufenförmig.“

Abb. 6: Nicht monotoner „Sprung nach unten“ der Stratosphärentemperaturen nach Vulkanausbrüchen

m Januar 2022 brach der Unterwasservulkan Hunga Tonga-Hunga Ha-apai aus. Sellito et al. (2022) erklärten:

Wir stellen fest, dass der Hunga Tonga-Hunga Ha-apai-Ausbruch die größte globale Störung der stratosphärischen Aerosole seit dem Pinatubo-Ausbruch 1991 und die größte Störung des stratosphärischen Wasserdampfs, die in der Satellitenära beobachtet wurde, verursacht hat. […] Der wahrscheinliche stratosphärische Ozonabbau aufgrund der Aerosol- und Wasserdampfeinträge könnte zu einer starken zusätzlichen Abkühlung der Stratosphäre führen.

Ozon (O3) hat in der Stratosphäre eine erwärmende Wirkung, wie die NASA im Jahr 2004 feststellte:

Ozon erzeugt Wärme in der Stratosphäre, indem es sowohl die ultraviolette Strahlung der Sonne als auch die aufsteigende Infrarotstrahlung aus der unteren Atmosphäre (Troposphäre) absorbiert. Folglich führt ein Rückgang des Ozons in der Stratosphäre zu niedrigeren Temperaturen. Beobachtungen zeigen, dass sich die mittlere bis obere Stratosphäre (30 bis 50 km über der Erdoberfläche) in den letzten Jahrzehnten um 1° bis 6° C abgekühlt hat (2° bis 11° F).

Die Abkühlung der Stratosphäre, die möglicherweise durch den Hunga-Tonga-Ausbruch verursacht wurde, wurde von Schoeberl et al. (2023) eindeutig beobachtet. Diese und frühere Erkenntnisse nach den Ereignissen von El Chichon und dem Pinatubo deuten darauf hin, dass die Abkühlung der Stratosphäre durch vulkanische Aktivitäten mehr als nur „verstärkt“ wird. Es ist nicht auszuschließen, dass Vulkanausbrüche tatsächlich eine wesentliche Ursache für den Ozonabbau und damit für die Abkühlung der Stratosphäre sind.

Der andere Aspekt des angeblichen „Fingerabdrucks“ der AGW-Theorie besteht darin, dass die Abkühlung der Stratosphäre gleichzeitig mit der Erwärmung der Troposphäre auftritt, was angeblich auf den „verstärkten Treibhauseffekt“ zurückzuführen ist. Eine geringere Albedo des Planeten führt jedoch dazu, dass mehr kurzwellige „ultraviolette“ Strahlung die Erde erwärmt. Die Daten der CERES EBAF-Messungen der NASA deuten darauf hin, dass der Albedo der Erde, insbesondere auf der Nordhalbkugel, die eine weitaus größere „Schwarzkörper“-Landmasse aufweist, in den letzten 20 Jahren erheblich zurückgegangen ist.

Darüber hinaus erhöht der Ozonabbau, der die Stratosphäre abkühlt, die Menge der ultravioletten Strahlung (UV), die die Erdoberfläche erreicht. In Verbindung mit der verringerten Albedo deutet dies darauf hin, dass die Erde mehr kurzwellige „ultraviolette“ Sonnenstrahlung absorbiert und sich der Planet dadurch erwärmt. Der vulkanische Ozonabbau hat offensichtlich zu diesem Prozess beigetragen.

Santer et al. (2023) stellten fest, dass die vom Menschen erzeugten Treibhausgase von 1986 bis 2022 eine Erwärmung der Erdoberfläche verursachten. Daten von CERES EBAF und Belege u. a. von Schoeberl et al. (2023) deuten auf eine Erwärmung durch erhöhten solaren Strahlungsfluss hin. Die Oberfläche könnte durch die Sonne erwärmt werden und die Stratosphäre könnte sich infolge natürlicher Schwankungen abkühlen.

Aus dieser Perspektive gibt es keinen schlüssigen „Fingerabdruck“ der AGW-Theorie, wie einige „Klimawissenschaftler“ behaupten. Das Modell von Manabe und Wetherall aus dem Jahr 1967 bietet lediglich eine weitere mögliche Erklärung.

Wir könnten auch sowohl das Ausmaß als auch das Muster der Erwärmung der Troposphäre in Frage stellen, die in den AGW-Klimamodellen behauptet wird. Mitchel et al. (2020) fanden zum Beispiel Beweise für eine konsistente Verzerrung in den AGW-Klimamodellen, die dazu neigten, sowohl die Erwärmung der Troposphäre als auch die Abkühlung der Stratosphäre zu übertreiben:

[…] wir finden erhebliche Erwärmungsfehler in den vom CMIP6 [Coupled Model Intercomparison Project] modellierten Trends, und wir zeigen, dass diese Fehler mit Fehlern in der Oberflächentemperatur verbunden sind. Wir decken auch bisher nicht dokumentierte Verzerrungen in der unteren und mittleren Stratosphäre auf: Die CMIP6-Modelle scheinen nicht in der Lage zu sein, die zeitliche Entwicklung der stratosphärischen Abkühlung zu erfassen, die nicht monoton ist.

Jain et al. (2023) vermuten, dass der Grund, warum die AGW-Modelle häufig nicht mit den empirischen Daten übereinstimmen, in der schlecht verstandenen „internen Variabilität“ liegt:

In der wissenschaftlichen Literatur finden sich zahlreiche Beispiele für die Nichtübereinstimmung von Modellen und beobachteten Klimamerkmalen, z. B. Trends bei regionalen Niederschlagsmengen und Temperaturen, multidekadische Veränderungen der atmosphärischen Zirkulation und Klimatologie, die Häufigkeit oder das Ausmaß von Extremereignissen [. . .] oder externe Antriebseffekte. Es kann viele Gründe geben, warum die Modelle nicht mit den Beobachtungen übereinstimmen. Eine mangelnde Übereinstimmung zwischen dem modellierten und dem beobachteten Klima kann jedoch auch einfach aufgrund chaotischer interner Variabilität entstehen [. . .]

Ayer et al. (2021) definieren interne Variabilität als „die natürliche Variabilität des Klimas aufgrund seiner chaotischen und nichtlinearen Natur“. Der IPCC räumt ein, dass das Klima ein chaotisches System ist, das sich einer genauen Vorhersage entzieht:

Das Klimasystem ist ein gekoppeltes, nichtlineares, chaotisches System, so dass eine langfristige Vorhersage künftiger Klimazustände nicht möglich ist. Vielmehr muss der Schwerpunkt auf der Vorhersage der Wahrscheinlichkeitsverteilung der zukünftigen möglichen Zustände des Systems durch die Erzeugung von Ensembles von Modelllösungen liegen.

Die Tatsache, dass eine „langfristige Vorhersage künftiger Klimazustände“ laut IPCC unmöglich ist, untergräbt alle derzeitigen „Klima-Alarme“ darüber, wie das Klima in hundert oder zweihundert Jahren aussehen wird. Vielleicht kann „die Erstellung von Ensembles von Modelllösungen“ die „Wahrscheinlichkeitsverteilung“ wahrscheinlicher zukünftiger Klimazustände vorhersagen, aber fast alle Modelle, auf die sich der IPCC bezieht, sind ausschließlich auf der Grundlage einer AGW-Theorie konstruiert. Sie könnten alle grundlegend fehlerhaft sein.

Die „Gleichgewichts-Klimasensitivität“ (ECS) wird in Übereinstimmung mit der AGW-Theorie in Sherwood et al. (2020) als „der stationäre globale Temperaturanstieg bei einer Verdoppelung des CO2“ definiert. Das Sherwood-Papier bot ein auf der AGW-Theorie basierendes ECS-Modell. Es war äußerst einflussreich für den 6. wissenschaftlichen Bewertungsbericht (AR6) des IPCC, der 2021 veröffentlicht wurde.

Bisher wurde in den ARs des IPCC behauptet, dass eine Verdopplung des CO2 eine „globale Erwärmung“ zwischen 1,5°C und 4,5°C verursachen würde. Dies änderte sich im AR6, vor allem dank des Sherwood-Modells, zu der Behauptung, dass die ECS angeblich zu einer Erwärmung von 2,5°C oder vielleicht bis zu 4,5°C oder sogar 5°C führen würde.

Als der unabhängige Forscher und Mathematiker Nic Lewis die Methodik des Sherwood-Papiers überprüfte, das vom IPCC mehr als zwanzig Mal zitiert wurde, behauptete er, erhebliche Fehler, Ungereimtheiten und andere mathematische Unzulänglichkeiten gefunden zu haben. Unter Verwendung desselben Datensatzes, aber anderer Analysetechniken, stellte Lewis fest, dass ECS zu einer Erwärmung von „zwischen 1,5 °C und 2 °C“ führt. Das ist deutlich weniger, als der von Sherwood beeinflusste IPCC behauptet.

Dr. Roy Spencer ist ein ehemaliger leitender Wissenschaftler an der Universität von Alabama in Huntsville und leitender Wissenschaftler für Klimastudien am „Marshall Space Flight Center“ der NASA. Derzeit ist er Teamleiter für das „Advanced Microwave Scanning Radiometer“ auf dem Aqua-Satelliten der NASA. Dr. Spencer behauptet, dass die Klimasensitivität, die darauf hindeutet, dass die vom Menschen verursachten CO2-Emissionen einen „verstärkten Treibhauseffekt“ verursachen, die interne Variabilität in einem solchen Ausmaß übersieht – dass die „Verstärkung“ praktisch nicht nachweisbar ist.

Daher wird er von den etablierten Medien als Klimaleugner bezeichnet. Nichtsdestotrotz stellt Dr. Spencer fest:

Der Begriff „globale Erwärmung“ bezieht sich auf den Anstieg der globalen Durchschnittstemperatur, der in den letzten hundert Jahren oder mehr beobachtet wurde. Für viele Politiker und die Öffentlichkeit impliziert der Begriff jedoch, dass der Mensch für diese Erwärmung verantwortlich sei. [. . .] Um herauszufinden, wie viel der vergangenen Erwärmung auf den Menschen zurückzuführen ist und wie viel mehr wir in der Zukunft erwarten können, ist die so genannte „Klimasensitivität“ [ECS] entscheidend. [. . .] Man sollte meinen, dass wir die „Klimasensitivität“ der Erde inzwischen kennen, aber es war überraschend schwierig, sie zu bestimmen.

Wikipedia sagt uns:

Technisch ausgedrückt ist die Klimasensitivität die durchschnittliche Änderung der globalen mittleren Oberflächentemperatur [GMST oder einfach GST] als Reaktion auf einen Strahlungsantrieb.

Die GST wird derzeit durch Mittelwertbildung der Temperaturanomalien der Ozeane (Meeresoberflächentemperatur – SST) und der Oberflächentemperaturanomalien der Kontinente (Oberflächenlufttemperatur – SAT) berechnet. Dies sind absolut wesentliche Inputs für die auf der AGW-Theorie basierenden Modelle der „Klimasensitivität“.

Das „Goddard Institute for Space Studies“ (GISS) der NASA liefert dem IPCC „Schätzungen“ für die SAT, d.h. die Lufttemperatur innerhalb von etwa 2 m über der Erdoberfläche. Die so genannte „GISTEMP-Analyse“ ist einer der vier Schlüsseldatensätze, die in die vom IPCC favorisierten Modelle der AGW-Theorie einfließen. Bei der Betrachtung, was die SAT ist und wie man sie misst, erklärte das GISS bis 2018, dass sie:

[. . .] bezweifelt, dass es ein allgemeines Einvernehmen darüber gibt, wie diese Frage zu beantworten ist. [. . .] Um SAT zu messen, müssen wir uns darauf einigen, was es ist, und soweit [GISS] weiß, ist kein solcher Standard vorgeschlagen oder allgemein angenommen worden.

In Bezug auf die Berechnung der SAT-Komponente der GST fügte GISS hinzu:

Auch hier gibt es keine allgemeingültige richtige Antwort. Sollen wir die Temperatur alle 6 Stunden aufzeichnen und den Mittelwert angeben, sollen wir dies alle 2 Stunden oder stündlich tun, sollen wir sie sekündlich von einer Maschine aufzeichnen lassen, oder sollen wir einfach den Durchschnitt der höchsten und niedrigsten Temperatur des Tages nehmen? An manchen Tagen können die verschiedenen Methoden zu drastisch unterschiedlichen Ergebnissen führen.

Das GISS hat seine Überlegungen zu diesem Thema vor kurzem aktualisiert. Es stellt nun fest:

Da die SAT-Werte sehr unterschiedlich sind, spiegelt diese Zahl nicht unbedingt den Durchschnitt eines größeren Gebiets wider. SAT-Karten können nur mit einer Art Modell erstellt werden. [. . .] Im globalen Durchschnitt beträgt diese Schwankung etwa 0,5°C.

und:

[. . .] verschiedene Ansätze können systematisch unterschiedliche Antworten geben, je nach den Besonderheiten des Wetters an diesem Tag. [. . .] Die verschiedenen Modelle werden zu leicht unterschiedlichen Schätzungen der SAT führen. [. . .] Statistische Ansätze (wie die von Jones et al. (1999) verwendeten) weisen eine ähnliche Unsicherheit auf.

Um es klar zu sagen: Es gibt keine allgemein anerkannte, systematische Methode, um den aktuellen durchschnittlichen SAT-Wert der Erde zu berechnen. Dennoch stützen sich fast alle auf der AGW-Theorie basierenden Modelle auf die berechnete SAT als Input für die „Klimasensitivität“.

Santer et al. (2021) (nicht 2023) zeigten, dass zwischen 1988 und 2019 die beobachtete Meeresoberflächentemperatur [SST], die troposphärische Temperatur und der gesamte troposphärische Wasserdampf eine geringere tropische Erwärmung zeigten als von den Klimamodellen der AGW-Theorie vorhergesagt. Die Schlussfolgerung lautete nicht, dass die Computermodelle der AGW-Theorie möglicherweise falsch sein könnten, sondern dass die „großen Unsicherheiten in den Beobachtungen“ berücksichtigt werden müssten.

Die etablierten Medien nutzten das Papier, um den Klima-Alarm zu verstärken, indem sie berichteten, dass die Satellitenmessungen die globale Erwärmung 40 Jahre lang unterschätzt hätten. Das stand zwar nicht in dem Papier, aber man konnte es daraus ableiten, und so wurde es dann auch erzählt.

Bei der Prüfung der Arbeit von Santer et al. (2021) stellte Dr. Roy Spencer fest:

Ich komme zu dem Schluss, dass die Studie nichts Neues enthält, was Zweifel an der Bescheidenheit der von Satelliten ermittelten Erwärmungstrends in der Troposphäre aufkommen ließe – es sei denn, man glaubt den Klimamodellen als Beweis, in diesem Fall brauchen wir ohnehin keine Beobachtungen. […] Die Studie von Santer et al. stimmt weitgehend mit der Ansicht überein, dass die globale Erwärmung deutlich langsamer voranschreitet als von den neuesten Klimamodellen vorhergesagt, und dass ein Großteil der Unstimmigkeiten zwischen Modellen und Beobachtungen auf falsche Annahmen in diesen Modellen [der AGW-Theorie] zurückgeführt werden kann.

Kürzlich haben mehr als 1.800 Wissenschaftler, akademische Forscher und andere Skeptiker der AGW-Theorie, darunter auch Nobelpreisträger, eine gemeinsame Erklärung unterzeichnet:

Wer den Ergebnissen eines Klimamodells Glauben schenkt, glaubt das, was die Modellmacher hineingegeben haben. Genau das ist das Problem der heutigen Klimadiskussion, in der Klimamodelle eine zentrale Rolle spielen. Die Klimawissenschaft ist zu einer Diskussion verkommen, die auf Überzeugungen und nicht auf solider, selbstkritischer Wissenschaft beruht. Sollten wir uns nicht von dem naiven Glauben an unausgereifte Klimamodelle befreien?

Wir sollen glauben, dass die Wissenschaft feststünde und dass es eine Art Ketzerei sei, „die KlimawissenschaftDer Klimawandel: Die ungeklärte Wissenschaft, Teil 2“ in Frage zu stellen. Die UN und ihr IPCC gehören zu den „zwischenstaatlichen“ Gremien, die nicht nur verlangen, dass wir vorbehaltlos allem zustimmen, was sie uns sagen, sondern uns, wenn wir es nicht tun, beschuldigen, eine Form von Hassrede zu betreiben.

Wie wir in Teil 3 erörtern werden, haben der IPCC und andere Befürworter der AGW-Theorie gigantische finanzielle Interessenkonflikte. Öffentliche und private Institutionen und Organisationen, die die AGW-Theorie vorantreiben, haben eine klare politische Agenda, die wenig mit der Lösung von Umweltproblemen zu tun hat. Auch scheint es keine offensichtliche Grundlage für den „Klima-Alarm“ zu geben.

In Teil 3 gehen wir den Beweisen nach, die darauf hindeuten, dass die Erzählungen, die uns über den angeblichen „Klimanotstand“ vermittelt werden, nichts weiter als Propaganda sind.

Generalarzt von Florida fordert FDA und CDC auf, die Anwendung des mRNA-COVID-Impfstoffs beim Menschen zu stoppen

Der Generalarzt des US-Bundesstaates Florida, Joseph Ladapo, forderte heute am Mittwoch die FDA und die CDC auf, die Anwendung des mRNA-COVID-19-Impfstoffs beim Menschen aus Sicherheitsgründen zu stoppen.

Ladapo verwies insbesondere auf „Nukleinsäure-Kontaminanten“ in den mRNA-Impfstoffen von Pfizer und Moderna.

Das Gesundheitsministerium von Florida erklärte in einer Pressemitteilung, dass „das Vorhandensein von Simian-Virus-40-Promotor/Enhancer-DNA und Lipid-Nanopartikel-Komplexen“ ein „erhöhtes Risiko der DNA-Integration in menschliche Zellen“ darstellen könnte.

Dieser Mechanismus, so warnte die Behörde, könne zur Entwicklung von Krebszellen und zu negativen Auswirkungen auf lebenswichtige Organe wie Herz, Lunge, Gehirn, Leber und Nieren führen.

Ladapo sagte, die FDA habe keine ausreichende Bewertung dieses Risikos vorgelegt.

„Die DNA-Integration stellt ein einzigartiges und erhöhtes Risiko für die menschliche Gesundheit und die Integrität des menschlichen Genoms dar, einschließlich des Risikos, dass die in Spermien oder Eizellen integrierte DNA an die Nachkommen von Empfängern des mRNA-Impfstoffs COVID-19 weitergegeben werden könnte“, sagte Ladapo. „Wenn die Risiken der DNA-Integration für mRNA-COVID-19-Impfstoffe nicht bewertet werden, sind diese Impfstoffe nicht für den Einsatz beim Menschen geeignet“, so Ladapo.

Ladapo fuhr fort, dass Gesundheitsdienstleister und Behörden „nicht-mRNA-COVID-19-Impfstoffen und -Behandlungen Vorrang einräumen sollten“.

„Ich hoffe, dass die FDA eines Tages ihre regulatorische Verantwortung für den Schutz der menschlichen Gesundheit, einschließlich der Integrität des menschlichen Genoms, in Bezug auf COVID-19 ernst nimmt“, sagte er.

Die Behörde teilte mit, Ladapo habe im Dezember einen Brief geschrieben, in dem er seine Besorgnis über die Entdeckung zum Ausdruck gebracht habe, dass die Impfstoffe „Milliarden von DNA-Fragmenten pro Dosis“ enthielten.

Am 14. Dezember antwortete die FDA, es gebe „keine Beweise“ für eine Risikobewertung der in den mRNA-Impfstoffen gefundenen Verunreinigungen.

In einer Erklärung sagte der Chirurgische Generalarzt, dass die FDA Genotoxizitätsstudien zitiert habe, die seiner Meinung nach nicht ausreichend seien, um die von ihm geäußerten Bedenken zu berücksichtigen.

„Sie haben den Unterschied zwischen dem SV40 [Simian Virus 40] Promotor/Enhancer und den SV40 Proteinen, zwei verschiedenen Elementen, verschleiert“, sagte Ladapo.

Die CDC behauptete, die Impfstoffe seien „sicher und wirksam“.

Ladapo wurde Ende 2021 von Gouverneur Ron DeSantis ernannt.

Im August hatte Ladapo die Idee, Kindern Impfungen aufzuzwingen, als „verrückt“ bezeichnet.

Und im März, vor fast einem Jahr, sagte Ladapo, er glaube nicht, dass jemand die mRNA-Impfstoffe wegen ihres „schrecklichen Sicherheitsprofils“ nehmen sollte.

„Diese Impfstoffe haben in diesem Stadium der Pandemie ein schreckliches Sicherheitsprofil“, sagte er. „Ich bin mir nicht sicher, ob jemand sie nehmen sollte, und das ist die ehrliche Wahrheit“.

Auch die Gesundheitsbehörde von Florida sprach sich gegen den Impfstoff aus. Im September riet sie allen Personen unter 65 Jahren von der COVID-19-Auffrischungsimpfung ab.

Im Oktober 2022 empfahl Florida Männern im Alter von 18 bis 39 Jahren, sich nicht mit dem mRNA-Impfstoff COVID-19 impfen zu lassen, da Bedenken hinsichtlich des Herzrisikos bestehen.

„Die Untersuchung der Sicherheit und Wirksamkeit von Arzneimitteln, einschließlich Impfstoffen, ist ein wichtiger Bestandteil der öffentlichen Gesundheit“, sagte Ladapo. „Der Sicherheit wurde viel weniger Aufmerksamkeit geschenkt und die Bedenken vieler Menschen wurden abgetan – dies sind wichtige Erkenntnisse, die den Bürgern Floridas mitgeteilt werden sollten.

Österreich zeigt, wie Aufarbeitung nicht geht: Bis heute keine echte Kritik am gesetzlichen Impfzwang

Österreich zeigt, wie Aufarbeitung nicht geht: Bis heute keine echte Kritik am gesetzlichen Impfzwang

Österreich zeigt, wie Aufarbeitung nicht geht: Bis heute keine echte Kritik am gesetzlichen Impfzwang

Der Impfzwang ist der wohl bedeutendste Aspekt einer jeden Corona-Aufarbeitung. Österreich hat hier zuletzt gezeigt, wie es nicht geht: Soziologische Fallstudien, die als Aufarbeitung verkauft wurden, klammerten die wichtigsten Faktoren kurzerhand aus. So stellt man in der Fallstudie zur Impfpflicht eingangs konkret fest, dass Wirksamkeit und Verhältnismäßigkeit dieser Maßnahme nicht bewertet werden. Dass die Impfungen wirkungslos und der Zwang zur Injektion somit gerade in Anbetracht angerichteter Schäden in keiner Weise verhältnismäßig waren, wird bis heute nicht zugegeben.

Corona-Aufarbeitung: oberflächlich und verfehlt

Presseaussendung der GGI-Initiative am 02.01.2024

Am 21.12.2023 präsentierte eine Delegation unter Bundeskanzler Nehammer die Ergebnisse einer soziologischen Studie, die als Aufarbeitung der Corona-Krise verkauft wurde. Die GGI-Initiative thematisiert in dieser Aussendung eine von fünf Fallstudien – konkret jene zur Impfpflicht. Wir argumentieren die unvollständige Betrachtung, die Verharmlosung von Kriegspropaganda bzw. totalitären Anwandlungen sowie geheuchelte Versöhnlichkeit. Wir fordern eine echte Aufarbeitung unter Einbezug aller relevanten Aspekte und Anhörung der kritischen Stimmen.

Aufarbeitung unerwünscht

Am 21.12.2023 hat eine Delegation aus Regierung und Experten inkl. Bundeskanzler Nehammer die Ergebnisse einer Studie präsentiert, welche von offizieller Seite als Aufarbeitung der Corona-Krise erachtet wird. [1] Die GGI-Initiative sieht wesentliche Mängel und Versäumnisse in diesem “Aufarbeitungs- und Versöhnungsprozess”, der mit oberflächlich wohlklingenden Empfehlungen diese Krise abschließen und vorgeblich besser gerüstet in die nächste gehen will.

Anhand fünf soziologischer Fallstudien werden ausgewählte Aspekte analysiert. Darüber hinaus enthält die Studie Erkenntnisse aus einem Bürgerbeteiligungsprozess. Wir betrachten nachfolgend die Fallstudie 2 zur Impfpflicht (Bogner, Albiez) und erklären, warum die dahingehende Aufarbeitung nicht einmal begonnen hat.

Isolierte Betrachtung

Im Folgenden geht es nicht um eine Bewertung der in Österreich beschlossenen allgemeinen Impfpflicht im Hinblick auf die Wirksamkeit oder Verhältnismäßigkeit dieser politischen Maßnahme. Ob eine allgemeine Impfpflicht unter bestimmten Bedingungen ethisch zulässig (oder geboten) und verfassungskonform ist, ist eine Frage für Ethik, Rechtswissenschaften und Medizin.

Diese Passage zeigt eingangs direkt auf, dass die Aufarbeitung nicht vollständig ist. Eine vollständige Aufarbeitung kommt keinesfalls ohne die Erkenntnis aus, dass die Injektionen weder wirksam noch verhältnismäßig waren. Zudem werden die Schäden durch die Injektionen abermals unter den Teppich gekehrt.

In der kurzen Beschreibung der fachlichen Grundlagen wird dementsprechend die Injektion als unfehlbar erachtet, wenn dies auch nicht offen ausgesprochen wird. Gleiches gilt für Wissenschaft und Politik. Obwohl das Thema “Interessenskonflikte seitens sogenannter Experten” durchaus ein soziologisches Betätigungsfeld eröffnen würde, stellt die Fallstudie allein auf fehlendes Vertrauen ab. So werden “Neigung zu Verschwörungstheorien” sowie “Kontroverse über wissenschaftliche Tatsachen” als Vertrauenskrise hingestellt. Kern des Problems bei der Impfpflicht sei demnach ein Mangel an Debatte. Man bekommt den Eindruck, als wären die Autoren der Ansicht, so eine Debatte hätte im Rahmen eines Overton-Fensters bzw. eingeschränkten Meinungsspektrums stattfinden müssen. Dann hätte ein ohnehin vorab feststehendes Ergebnis Polarisierung vermieden.

Verharmlosung von Propaganda

In der politischen Legitimationsrhetorik wurde der politische Charakter dieser Entscheidung (zur Impfpflicht, Anm.) allerdings durch Hinweis auf deren Alternativlosigkeit verschleiert.

Die politische Debatte zur Impfpflicht ist darüber hinaus in auffälliger Weise von einer Rhetorik des Bedauerns geprägt.

Diese Moralisierung, also die Einteilung politischer Positionen in das Schema von Gut und Böse, erschwert das Zusammenleben. Aus dem Impfstatus wird die Zugehörigkeit zu einer Gruppe mit einem feststehenden Set an Eigenschaften und Überzeugungen abgeleitet.

Ganz richtig identifizieren die Autoren den Appell an die Alternativlosigkeit sowie der Moralisierung als unzweckmäßige Mittel. Zur Alternativlosigkeit erwähnen sie begleitend die Rhetorik des Bedauerns.

Unerwähnt lassen die Autoren, dass es sich dabei um Methoden der Propaganda handelt. Besonders in der Kriegspropaganda spielt jene Triade aus Dringlichkeit/Alternativlosigkeit (Der Feind wird uns zerstören, wir können gar nicht anders als zuschlagen), geheucheltem Bedauern (Leider war der Feind unseren zuvorkommenden Bemühungen um Verhandlungen nicht zugänglich) und Moralisierung (Wer nicht für uns ist, ist für den Feind) eine bedeutende Rolle.

Ebenso ignorieren die Autoren eines der Markenzeichen totalitärer Regime. In selbstgefälliger Manier wird die eigene Methodik für unfehlbar gehalten. Ist das unvermeidbare Scheitern nicht mehr zu verdecken, schließen sie in ihrer Verblendung auf Sabotage. Folglich muss ein Sündenbock erschaffen werden. Aus der Geschichte des Totalitarismus sind genug Beispiele bekannt, wohin das letztlich führt. In einer Demokratie darf das nicht vorkommen.

Es handelt sich also keineswegs allein um unzweckmäßige Mittel, wie die Autoren das sehen mögen. Aus dem Mangel an Erkenntnis bzw. Zugeständnis, dass hier totalitäre Anwandlungen und schwarze Propaganda offenkundig sind, erschließt sich abermals die Notwendigkeit einer echten Aufarbeitung.

Verfehlter Abschluss

Die Schlussfolgerung hält zunächst etwas Entspannung bereit. Die drei Empfehlungen lauten:

  • Debatte fördern, trotz allem!
  • Begründen, nicht verkünden!
  • Vorsicht vor heroischen Maßnahmen!

Doch bevor die geneigten Leserinnen und Leser eine Chance haben, ihren Frieden mit der Fallstudie zu machen, stellen die Autoren in den letzten Sätzen noch abschließend klar:

Schließlich entwarf dieses Gesetz eine flexible Anwendung der Impfpflicht und war von der Überlegung geprägt, dass man heikle normative Entscheidungen auf Basis aktueller Informationen nachjustieren können sollte. Im Gegensatz zur „Jetzt-oder-nie“-Logik des Impfpflichtbeschlusses war das Impfpflichtgesetz nicht von dem Glauben getragen, dass es zum aktuellen Zeitpunkt die eine beste Lösung für alle Zeiten gibt.

Das Problem war also nie die Impfpflicht selbst, sondern nur die Art ihres Zustandekommens. Verfassung, Grund- und Freiheitsrechte, medizinische Sinnhaftigkeit hin oder her – das Impfpflichtgesetz selbst erlaubt eine gewisse Flexibilität. An die Frage, wer unter welchen Umständen entscheidet, ob die Pflicht “scharfgestellt” wird, wagen sich die Autoren freilich nicht heran.

Schlussfolgerung

Wir haben gezeigt, dass die Einleitung der Fallstudie zur Impfpflicht auf eine sehr eingeengte, rein soziologische Betrachtung aufbaut; dass die angewandten Mittel zum Durchsetzen der Impfpflicht zurecht kritisiert, aber völlig verharmlost werden; dass die abschließenden Empfehlungen wegen dem voreingenommenen Lob der Autoren auf die Gestaltung der Impfpflicht wie Heuchelei erscheinen.

Die GGI-Initiative fordert folglich, dass eine ernstgemeinte und vollständige Aufarbeitung endlich gestartet wird. Diese muss kritische Stimmen zu Wort kommen lassen und alle relevanten Aspekte berücksichtigen. Wir leisten dazu auch weiterhin unseren Beitrag mit dieser Serie.

Quellenangaben

[1] Bogner A (Hrsg). Nach Corona – Reflexionen für zukünftige Krisen. Österreichische Akademie der Wissenschaften, 2023. online: https://www.bundeskanzleramt.gv.at/dam/jcr:0668fa51-0122-4efe-a49e-6270a3a05840/82a_1_bei_NB.pdf

Die Klimapolitik von New York City dürfte das Leben für die Mittelschicht noch unerschwinglicher machen

Die Klimapolitik von New York City dürfte das Leben für die Mittelschicht noch unerschwinglicher machen

Die Klimapolitik von New York City dürfte das Leben für die Mittelschicht noch unerschwinglicher machen

NICK POPE, Daily Caller

New York City treibt mehrere klimapolitische Maßnahmen voran, die den Alltag in einer der teuersten Städte des Landes für die Mittelschicht wahrscheinlich noch teurer machen werden.

Die Stadt will ihre Treibhausgasemissionen bis 2050 um 80 % senken, ein umfassendes Gesetz zur Elektrifizierung von Gebäuden, bekannt als Local Law 97, durchsetzen und eine Gebühr für den Autoverkehr erheben. Jede dieser Maßnahmen wird die Kosten für das Leben und Arbeiten in der größten Stadt des Landes erhöhen, insbesondere für die Mittelschicht, so Energie- und New Yorker Politikexperten gegenüber der Daily Caller News Foundation. Queens, Brooklyn und Manhattan gehören laut einer von CNBC durchgeführten Analyse bereits zu den 15 teuersten Orten zum Leben in den Vereinigten Staaten.

„Die Stadt ist wohlhabend, weil irgendwo da draußen Menschen Energie, Lebensmittel, Kleidung und so weiter produzieren, und die Menschen handeln all das in New York“, sagte Dan Kish, ein leitender Mitarbeiter des Institute for Energy Research, dem DCNF. Das Emissionsziel der Stadt „wird die Dinge teurer machen und die Menschen an Orte wie Florida vertreiben“, fügte er hinzu.

Diese Kapitalflucht würde die Steuerbasis schrumpfen lassen und damit die Finanzen der Stadt weiter belasten, sagte Kish dem DCNF. „Menschen, die nicht über die nötigen Mittel verfügen, also arbeitende Menschen, haben nicht die Möglichkeit, einfach ihre Sachen zu packen und wegzugehen“, sagte Kish dem DCNF. „Aber es ist einfach, wenn man Mike Bloomberg heißt [Bürgermeister von New York City, A. d. Übers.].“

Das Local Law 97 sieht Emissionsstandards vor, die etwa 50.000 Gebäude in New York City ab 2024 erfüllen müssen, wobei der New York Times zufolge ab 2030 zusätzliche Beschränkungen eingeführt werden.

Einige Gebäude lassen sich leichter mit der entsprechenden Verkabelung und Ausrüstung nachrüsten als andere, und ein großer Teil der hohen Kosten, die Vermietern und Gebäudeeigentümern für die Einhaltung der Vorschriften entstehen, wird mit ziemlicher Sicherheit auf die Bewohner abgewälzt werden, erklärte Jane Menton gegenüber dem DCNF. Sie ist eine Mutter, die in einer Genossenschaft in Queens lebt und eine Basisinitiative gegen das Local Law 97 geleitet hat.

„Die Progressiven in Queens, Manhattan und Brooklyn haben so viel Angst davor, sich gegen das Narrativ zu stellen, dass diese Vorschrift eine Klimalösung ist… aber es ist unerschwinglich, Gebäude auf Strom umzurüsten, also werden sie nicht umrüsten, um die Vorschrift zu erfüllen, sondern nur Geldstrafen zahlen, die es der Stadt dann ermöglichen, das Geld zum Stopfen von Haushaltslöchern zu verwenden,“ sagte Menton dem DCNF. „Die gleichen Politiker und Befürworter, die behaupten, sich um die Arbeiterklasse der Stadt zu kümmern, haben ein Gesetz geschrieben, das eben diese aus ihren Häusern verdrängen wird… funktionell gesehen ist dieses Gesetz einfach eine Kohlenstoffsteuer für die Mittelklasse.“

Andere Städte wie Boston haben sich für ähnliche Maßnahmen zur Elektrifizierung von Gebäuden eingesetzt, um den Klimawandel zu bekämpfen, und die Regierung Biden hat Hunderte von Millionen Dollar ausgegeben, um staatliche und kommunale Regierungen bei der Umsetzung von Maßnahmen zur „Dekarbonisierung“ von Gebäuden zu unterstützen.

Die Gebühren für New York City werden von der Metropolitan Transportation Authority (MTA) erhoben, die technisch gesehen keine Behörde ist, die unter der Schirmherrschaft der Stadtverwaltung steht.

Die Gebühren sollen die Emissionen und die Luftverschmutzung verringern, indem von den Autofahrern Gebühren für die Einfahrt in bestimmte Teile der Stadt erhoben werden. Konkret hat die MTA vorgeschlagen, für die Einfahrt in einen großen Teil Manhattans 15 Dollar für Pkw und 36 Dollar für Lkw zu verlangen, wie der lokale Sender NBC 4 berichtet.

Der Vorschlag könnte jedoch das Verkehrsaufkommen auf den Straßen der Stadt nicht wesentlich verringern und möglicherweise sogar die Staus in Gebieten wie der Bronx vergrößern, wie die New York Post berichtet. Qualifizierte Fahrer mit niedrigem Einkommen, die sich bei den zuständigen Behörden registrieren lassen, könnten außerdem nach den ersten zehn Fahrten in das betreffende Gebiet von Manhattan einen Rabatt von 50 % auf die Gebühren erhalten, so die lokale digitale Nachrichtenagentur northjersey.com

„Staugebühren sollten in erster Linie als Einnahmequelle betrachtet werden, um die unvertretbar hohen Kapitalkosten der MTA zu decken“, erklärte Ken Girardin, Forschungsdirektor der auf New York fokussierten Denkfabrik Empire Center gegenüber der DCNF. „Was die Verkehrsüberlastung selbst betrifft, so haben es die politischen Entscheidungsträger abgelehnt, grundlegende Dinge wie die Durchsetzung von Parkregeln oder die Reduzierung der Parkerlaubnisse für Angestellte des öffentlichen Dienstes oder andere politische Veränderungen vorzunehmen, welchedie Autos von den Straßen Lower Manhattans wegbringen würden, weil dies keine Dinge sind, für die man Geld leihen kann.“

Auch für Menschen, die nicht in der Stadt wohnen, aber jeden Tag zur Arbeit fahren, würde diese Politik das Leben teurer machen, so Politico. In London, der größten Metropole Großbritanniens, haben Politiker ein ähnliches System ausprobiert, das der republikanische New Yorker Stadtrat Joseph Borelli aus Staten Island im Januar bei der Erörterung der bevorstehenden New Yorker Version des Systems als „komplettes Desaster“ und „klägliches Scheitern“ bezeichnete.

Wenn der gesamte Bundesstaat New York heute auf „Netto-Null“ umstellen würde, würden laut Klimamodellierung der Vereinten Nationen bis 2050 lediglich 0,0023° F der globalen Erwärmung vermieden. „Das ist bei weitem nicht messbar und schon gar nicht signifikant. Es würde also nichts erreicht werden“, sagte Steve Milloy dem DCNF, ein leitender Jurist des Energy and Environment Legal Institute. „Die Unternehmen werden in New York bleiben und die Klimaagenda mittragen, einschließlich hoher Steuern, solange die Kosten auf die Anwohner abgewälzt werden können. Wenn die Rentabilität aufhört, werden die Unternehmen abwandern… Die Kosten der Klima-Agenda sind regressiv. Die ärmeren Menschen werden sie zuerst zu spüren bekommen.“

Die Büros des demokratischen New Yorker Bürgermeisters Eric Adams und der MTA reagierten nicht sofort auf die Bitte der DCNF um Stellungnahme.

All content created by the Daily Caller News Foundation, an independent and nonpartisan newswire service, is available without charge to any legitimate news publisher that can provide a large audience. All republished articles must include our logo, our reporter’s byline and their DCNF affiliation. For any questions about our guidelines or partnering with us, please contact licensing@dailycallernewsfoundation.org.

Link: https://wattsupwiththat.com/2023/12/28/new-york-citys-climate-policies-could-make-life-even-more-unaffordable-for-the-middle-class/

Übersetzt von Christian Freuer für das EIKE

 

Abriss-Ampel vernichtet Jobs: Fast 200.000 mehr Arbeitslose im Dezember!

Abriss-Ampel vernichtet Jobs: Fast 200.000 mehr Arbeitslose im Dezember!

Abriss-Ampel vernichtet Jobs: Fast 200.000 mehr Arbeitslose im Dezember!

Zum Jahresende registrierte die Bundesagentur für Arbeit (BA) erneut mehr Menschen ohne Job. Immer deutlicher wird: Die zerstörerische Politik der Abriss-Ampel hat den Arbeitsmarkt erreicht!

Die Zahl der Arbeitslosen in Deutschland hat im Dezember 2023 im Vergleich zum November um 31.000 auf mehr als 2,63 Millionen zugenommen. Die Arbeitslosenquote stieg auf 5,7 Prozent, wie die Bundesagentur für Arbeit mitteilte. Damit gibt es in Ampel-Deutschland bereits 183.000 mehr Erwerbslose als im Dezember 2022.

The post Abriss-Ampel vernichtet Jobs: Fast 200.000 mehr Arbeitslose im Dezember! appeared first on Deutschland-Kurier.

Zivilcourage in Deutschland: Bauer stoppt Schleuser – nun ermittelt Staatsanwaltschaft gegen ihn

Zivilcourage in Deutschland: Bauer stoppt Schleuser – nun ermittelt Staatsanwaltschaft gegen ihn

Zivilcourage in Deutschland: Bauer stoppt Schleuser – nun ermittelt Staatsanwaltschaft gegen ihn

In Bayern haben mutige Einheimische einen Schleuser überwältigt und ihn der Polizei übergeben: Ein Landwirt, sein Sohn und ein Nachbar stoppten den Mann, der 18 syrische Migranten in einem Lieferwagen transportierte. Der Schleuser sitzt nun in Untersuchungshaft. Jedoch: Auch den drei Männern droht für ihren tapferen Einsatz ein juristisches Nachspiel. Zivilcourage ist in Deutschland offenbar unerwünscht.

Am 27. Dezember hatte ein Landwirt in Oberau (Berchtesgaden) den mutmaßlichen Schleuser zunächst auf seinem Gelände gesehen und später beobachtet, wie er mehrere Personen absetzte, die dann wegliefen. Zusammen mit seinem Sohn und einem Nachbarn hinderte er daraufhin den Transporter mit serbischem Kennzeichen am Wegfahren, indem er die Zufahrt mit einem Traktor versperrte und zudem einen Bauzaun als weitere Sperre aufstellte. Der Schleuser versuchte zu fliehen, fuhr dabei über den Bauzaun und blieb schließlich in einem Feld stecken. Die Einheimischen holten ihn aus dem Fahrzeug, überwältigten ihn und hielten ihn bis zum Eintreffen der Polizei fest – Nachbarn hatten den Notruf gewählt. Es wurde auch ein Krankenwagen angefordert, da der Serbe eine Verletzung im Gesicht hatte.

Die unerlaubt Eingereisten konnten mit einem Großaufgebot an Einsatzkräften mithilfe eines Polizeihubschraubers und einer Drohne aufgegriffen und festgenommen werden, es handelte sich um 18 Migranten aus Syrien. Fast zeitgleich hatte ein weiterer Schleuser ganz in der Nähe, in Unterau, eine Gruppe von rund 20 ausländischen Personen – lauter junge Männer, vermutlich ebenfalls aus Syrien – abgesetzt. Auch diese illegal Eingereisten konnten aufgegriffen werden.

Gegen den serbischen Schleuser wurde Haftbefehl erlassen, er sitzt in Untersuchungshaft. Aber auch das mutige Trio muss ein juristisches Nachspiel fürchten. Die Staatsanwaltschaft Traunstein prüfe nun, ob die Festnahme durch Privatpersonen verhältnismäßig abgelaufen sei, wie die “Bild” berichtet. Die drei mutigen Anwohner seien von der Polizei erneut zu dem Vorfall vernommen worden, denn der Schleuser habe angegeben, die Männer hätten ihn geschlagen.

Der Landwirt ist bestürzt, er bekräftigt: “Wir haben doch nur unsere Pflicht als Bürger getan. Der Mann hätte sein kriminelles Handeln bestimmt weitergeführt, wenn wir ihn nicht gestoppt hätten“. Und er stellt klar: „Wir haben den Mann nicht geschlagen. Vielleicht hat er seine Verletzungen ja erlitten, als er über den Bauzaun gebrettert ist“.

Täter-Opfer-Umkehr ist in diesem Land heutzutage nichts Neues. Im besten Deutschland aller Zeiten lebt es sich am besten völlig passiv, meinungslos und desinteressiert, eben wie die bekannten drei Affen: Nichts sehen, nichts hören und nichts sagen. Bleibt zu hoffen, dass ihre Zivilcourage für die drei Männer keine negativen Auswirkungen haben wird.

Warum gereifter Käse und Pilze so gut für Ihr Herz sind (und Sie auch länger leben lassen)

Die Geschichte auf einen Blick

  • Polyamine wie Spermidin, Spermin und Putrescin sind Derivate von Aminosäuren, die sowohl in der Nahrung als auch in der Darmmikrobiota vorkommen und für das Wachstum und Überleben der Zellen entscheidend sind
  • Polyamine haben eine starke entzündungshemmende Wirkung, schützen Ihre DNA vor Schäden durch freie Radikale und werden mit Langlebigkeit in Verbindung gebracht
  • In einer Studie hatten diejenigen, die die höchsten Spermidinwerte aufwiesen, ein um 40 % geringeres Risiko für Herzversagen

Käse kann eine hervorragende Nahrungsquelle sein, vor allem wenn er aus unpasteurisierter, grasgefütterter Milch hergestellt und nach alter Tradition gereift ist. Zu den vielen wertvollen Nährstoffen in echtem Käse gehört Vitamin K2, das wichtig für die Gesundheit von Herz, Gehirn und Knochen ist. Die höchsten Mengen an Vitamin K2 finden sich in Gouda, Brie und Edamer. Andere Käsesorten mit einem geringeren, aber immer noch hohen K2-Gehalt sind Cheddar, Colby, Ziegenhartkäse, Schweizer und Gruyere.

Käse liefert auch eine Fülle anderer Vitamine (u. a. Vitamin A, D, B2 und B12), Mineralstoffe (u. a. Kalzium, Zink und Phosphor), Aminosäuren und Eiweiß sowie hochwertige gesättigte und Omega-3-Fette. In den vergangenen Jahren hat eine Reihe von Studien Käse (insbesondere Vollfettkäse) entlastet und gezeigt, dass ein höherer Käsekonsum zu einer besseren Gesundheit führt und das Gewichtsmanagement unterstützt. Zum Beispiel:

  • Käse mit hohem Fettgehalt erhöht nachweislich das HDL-Cholesterin (High-Density-Lipoprotein), das als Schutz vor Stoffwechsel- und Herzkrankheiten gilt.
  • Der Verzehr von Käse beugt außerdem einer Fettleber vor und verbessert die Triglycerid- und Cholesterinwerte – Parameter, die zur Beurteilung des Risikos für Herz-Kreislauf-Erkrankungen herangezogen werden.
  • Vollfettkäse kann bei der Gewichtskontrolle hilfreich sein, da er den Stoffwechsel ankurbelt.
  • Vornehmlich Roquefort-Käse wird aufgrund seiner entzündungshemmenden Eigenschaften mit der Gesundheit des Herz-Kreislauf-Systems und einer längeren Lebenserwartung in Verbindung gebracht.

Jetzt haben Forscher einen weiteren wichtigen Inhaltsstoff in vielen Käsesorten entdeckt, der seine positiven Auswirkungen auf die Gesundheit erklären kann.

Polyamine in Käse stehen in Verbindung mit Langlebigkeit und geringerem Krankheitsrisiko

Polyamine sind Derivate von Aminosäuren, die sowohl in der Nahrung als auch in der Darmmikrobiota vorkommen und für das Wachstum und Überleben der Zellen entscheidend sind. Polyamine wiederum enthalten Chemikalien wie Spermidin und Spermin (so benannt, weil sie ursprünglich in menschlichem Sperma entdeckt wurden) und Putrescin. Wie die Royal Society of Chemistry feststellt:

„Sperma leitet sich von Spermidin ab. Und Spermidin entsteht mit Hilfe der Spermidin-Synthase aus einem anderen Polyamin, das ursprünglich nach seiner Rolle in verrottendem Fleisch benannt wurde und Putrescin heißt … [D]iese Polyamine sind der Grund, warum Sperma und im Frühjahr einige Baumarten einen würzigen [Geruch] verströmen …“

Spermidin, Spermin und Putrescin haben alle eine starke entzündungshemmende Wirkung, schützen die DNA vor Schäden durch freie Radikale und wurden in Tierversuchen mit Langlebigkeit in Verbindung gebracht – selbst dann, wenn die Tiere die Polyamine bereits im mittleren Alter erhielten.

Bei den Polyaminen handelt es sich um positiv geladene Moleküle, die stark mit negativ geladenen Molekülen wie DNA, RNA und Proteinen interagieren. Deshalb sind sie so wichtig für zelluläre Prozesse wie Wachstum, Teilung, Differenzierung und Überleben.

Spermin schützen vor Herzerkrankungen

Studien haben wiederholt gezeigt, dass die Erhöhung des Polyamingehalts in einem Organismus (einschließlich des Menschen) die Zellaktivität steigert und die Sterblichkeitsrate senkt, und zwar teilweise durch Verbesserung der Herz-Kreislauf-Funktion und Senkung des Blutdrucks. In einer Studie, an der 800 käseliebende Italiener teilnahmen, wiesen diejenigen mit den höchsten Spermidinwerten ein um 40 % geringeres Risiko für Herzversagen auf.

In einer anderen Studie wurde nicht nur festgestellt, dass Spermin sowohl bei Tieren als auch bei Menschen einen wirksamen Schutz vor Herzkrankheiten bietet, sondern es wurde sogar festgestellt, dass es bei salzempfindlichen Mäusen den negativen Auswirkungen einer salzreichen Ernährung entgegenwirkt:

„Eine Supplementierung mit dem natürlichen Polyamin Spermidin verlängert die Lebensspanne von Mäusen und hat kardioprotektive Wirkungen, indem es die Herzhypertrophie verringert und die diastolische Funktion bei alten Mäusen erhält. Die Fütterung mit Spermidin verbesserte die kardiale Autophagie, Mitophagie und mitochondriale Atmung, und sie verbesserte auch die mechanisch-elastischen Eigenschaften der Kardiomyozyten in vivo, was mit … unterdrückten subklinischen Entzündungen einherging …

Bei salzempfindlichen Dahl-Ratten, die mit einer salzreichen Diät gefüttert wurden, einem Modell für bluthochdruckbedingte Herzinsuffizienz, senkte die Fütterung mit Spermidin den systemischen Blutdruck, erhöhte die Titin-Phosphorylierung und verhinderte eine Herzhypertrophie und eine Verschlechterung der diastolischen Funktion, wodurch das Fortschreiten der Herzinsuffizienz verzögert wurde.

Beim Menschen korrelierte eine hohe Spermidinzufuhr, die anhand von Fragebögen zur Ernährung ermittelt wurde, mit einer Senkung des Blutdrucks und einem geringeren Auftreten von Herz-Kreislauf-Erkrankungen. Unsere Ergebnisse deuten auf eine neue und praktikable Strategie zum Schutz vor Herz-Kreislauf-Erkrankungen hin“.

Polyamine helfen bei der Bekämpfung sichtbarer Alterserscheinungen und erhöhen die Lebenserwartung

Frühere Forschungsarbeiten haben gezeigt, dass transgene Mäuse, die so gezüchtet wurden, dass sie kein Spermin und Spermidin produzieren, unter Haarausfall litten, mehr Hautfalten entwickelten und früher starben als normale Mäuse, was darauf hindeutet, dass Polyamine eine wichtige Rolle bei der Bekämpfung sowohl der sichtbaren Zeichen des Alterns als auch des frühen Todes spielen.

Wichtig ist, dass Polyamine die zelluläre Autophagie fördern, was schwerwiegende Auswirkungen auf die Langlebigkeit hat. Autophagie bedeutet „Selbstverzehr“ und bezieht sich auf die Prozesse, durch die der Körper Abfälle, einschließlich Giftstoffe, beseitigt und beschädigte Zellbestandteile recycelt – Prozesse, die mit zunehmendem Alter abnehmen.

Lebenslange Fütterungsstudien mit Nagetieren haben gezeigt, dass eine spermidinreiche Ernährung die Lebenserwartung um bis zu 25 % erhöht. Umgerechnet auf den Menschen entspricht dies einer durchschnittlichen Lebenserwartung von 100 Jahren statt 81 Jahren.

Bei Tieren, denen Spermidin in einem späteren Alter verabreicht wurde, erhöhte sich die Lebenserwartung um etwa 10 %, was für einen Menschen immer noch mehrere Lebensjahre ausmachen kann. Wie Dr. Leyuan Liu, Assistenzprofessorin am Zentrum für translationale Krebsforschung des Texas A&M Institute of Biosciences and Technology, feststellte:

„Es gibt nur drei Maßnahmen, die nachweislich die Lebensdauer von Wirbeltieren verlängern: eine starke Reduzierung der Kalorienzufuhr, eine Einschränkung der Methioninmenge (eine Aminosäure, die in Fleisch und anderen Proteinen vorkommt) in der Ernährung und der Einsatz des Medikaments Rapamycin. Aber weniger zu essen und auf Fleisch zu verzichten, wird von der Bevölkerung nicht gern gesehen, und Rapamycin unterdrückt nachweislich das menschliche Immunsystem. Daher könnte Spermidin ein besserer Ansatz sein.“

Neben ihrer allgemeinen Anti-Aging-Wirkung ist die Autophagie auch einer der Mechanismen, mit denen Polyamine vor Krebs (insbesondere Leberkrebs) und der Alzheimer-Krankheit schützen.

Polyamine korrigieren die innere Uhr des Körpers

Interessanterweise hat die Forschung auch gezeigt, dass Polyamine die Fähigkeit haben, die innere Uhr des Körpers zu korrigieren, was darauf hindeutet, dass sie als natürliche Schlafhilfe dienen könnten. Ein besserer Schlaf trägt auch dazu bei, das Risiko für chronische Krankheiten – einschließlich Krebs und Alzheimer – zu senken, und ist wichtig für ein langes Leben. So die Autoren:

„Polyamine sind … in allen lebenden Zellen vorhanden. Der Polyamingehalt wird durch die Ernährung und die De-novo-Synthese aufrechterhalten, und sein Rückgang mit dem Alter wird mit verschiedenen Krankheiten in Verbindung gebracht. Hier zeigen wir, dass der Polyamingehalt täglich schwankt.

Sowohl uhrzeit- als auch ernährungsabhängige Mechanismen regulieren die tägliche Akkumulation von Schlüsselenzymen der Polyaminbiosynthese … Polyamine wiederum steuern die zirkadiane Periode in kultivierten Zellen und Tieren, indem sie die Interaktion zwischen den zentralen Uhrenrepressoren PER2 und CRY1 regulieren.

Wichtig ist, dass wir festgestellt haben, dass der Rückgang des Polyaminspiegels mit zunehmendem Alter bei Mäusen mit einer längeren zirkadianen Periode einhergeht, die durch eine Polyamin-Supplementierung in der Ernährung umgekehrt werden kann. Unsere Ergebnisse deuten auf eine Wechselwirkung zwischen der zirkadianen Uhr und der Polyaminbiosynthese hin und eröffnen neue Möglichkeiten für ernährungsbedingte Interventionen gegen den altersbedingten Funktionsverlust der Uhr.“

Fermentation erhöht den Polyamingehalt

Polyamine kommen in vielen verschiedenen Lebensmitteln vor, darunter auch in den folgenden (siehe Liste unten). Generell gilt, dass Obst und Käse den höchsten Gehalt an Putrescin, Gemüse den höchsten Gehalt an Spermidin und Fleischprodukte den höchsten Gehalt an Spermin aufweisen. Die Forschung zeigt auch, dass der Polyamingehalt durch Fermentation weiter erhöht wird.

Die mediterrane Ernährung mit ihrem hohen Anteil an frischem Gemüse und Meeresfrüchten enthält in der Regel doppelt so viele Polyamine wie die durchschnittliche Ernährung (die in der Regel einen hohen Anteil an verarbeiteten Lebensmitteln aufweist), und einige Wissenschaftler vermuten, dass der hohe Polyamingehalt der Grund für den positiven Einfluss der mediterranen Ernährung auf Gesundheit und Langlebigkeit sein könnte.

  • Gereifter (fermentierter) Käse wie Blauschimmelkäse, Cheddar, Schweizer, Brie, Gruyere, Manchego, Gouda und Parmesan
  • Schalentiere, einschließlich Tintenfisch, Austern, Krabben und Jakobsmuscheln
  • Fermentierte Lebensmittel wie Sauerkraut und Miso
  • Kreuzblütiges Gemüse wie Brokkoli, Blumenkohl
  • Grünes Blattgemüse
  • Birnen
  • Pilze
  • Grüne Erbsen
  • Weizenkeime
  • Grüner Matcha-Tee
  • Nüsse und Samen, einschließlich Haselnüsse, Mandeln, Pistazien und Erdnüsse
  • Hühnerleber

Mögliche Kontraindikationen

Einige Wissenschaftler und Onkologen warnen davor, dass eine polyaminreiche Ernährung für Menschen mit Schuppenflechte kontraindiziert sein könnte, da die schnelle Regeneration der Hautzellen die Krankheit und bestimmte polyaminempfindliche Krebsarten wie Prostatakrebs verschlimmern kann. Wie in einer Studie festgestellt:

„…Die Unterschiede im biologischen [Verhalten] von Prostata(krebs)zellen stehen in Zusammenhang mit Veränderungen des Polyamingehalts und/oder der Aktivität ihrer Stoffwechselenzyme. Eine fehlerhafte antienzymatische Regulation der Polyamin-Homöostase könnte eine wichtige Rolle beim Wachstum und Fortschreiten des Prostatakarzinoms spielen.

Die Behandlung menschlicher Prostatakarzinomzellen mit Inhibitoren von Polyamin-Stoffwechselenzymen oder Polyamin-Analoga führt zu einem Stillstand des Zellwachstums oder zum (apoptotischen) Zelltod.“

Essen Sie echte Lebensmittel für eine optimale Gesundheit

Wenn Sie Käse lieben, gibt es viele Hinweise darauf, dass echter Käse ein Segen für Ihre Gesundheit ist, und es gibt keinen Grund, ihn aus Angst vor seinem Fettgehalt zu meiden. Die gesunden Fette, die in echtem Käse enthalten sind, machen weder dick noch tragen sie zu Herzkrankheiten bei. Ganz im Gegenteil: Diese Fette unterstützen Ihren Erfolg beim Abnehmen und senken Ihr kardiovaskuläres Gesundheitsrisiko.

Allerdings sollten Sie darauf achten, dass Sie echten Käse essen. Echter Käse ist ein einfaches fermentiertes Milchprodukt, das mit nur wenigen Grundzutaten hergestellt wird: Milch, Starterkulturen, Salz und ein Enzym namens Lab. Salz ist eine wichtige Zutat für Geschmack, Reifung und Konservierung.

Einen natürlichen Käse erkennen Sie an seinem Etikett, auf dem der Name der Käsesorte angegeben ist, z. B. „Cheddar“, „Blauschimmelkäse“ oder „Brie“. Echter Käse muss außerdem gekühlt werden. Schmelzkäse wird in der Regel pasteurisiert und mit einer Vielzahl von Zusatzstoffen verfälscht, die seinen Nährwert mindern. Der Hinweis auf dem Etikett ist das Wort „pasteurisiert“.

Eine längere Zutatenliste ist eine weitere Möglichkeit, Schmelzkäse von echtem Käse zu unterscheiden. Velveeta ist ein Beispiel dafür, mit Zusatzstoffen wie Natriumphosphat, Natriumzitronat und verschiedenen Farbstoffen. Ein letztes Indiz ist, dass die meisten Schmelzkäse nicht gekühlt werden müssen. Ob Velveeta, Cheese Whiz, Quetschkäse, Sprühkäse oder ein anderes Imitat – dies sind keine echten Käsesorten und haben keinen Wert.

Auch wenn Sie keinen Käse mögen, gibt es viele andere Lebensmittel, die reich an Polyaminen sind, wie Sie aus der obigen Liste ersehen können, wobei fermentierte Lebensmittel und Getränke einige der höchsten Gehalte aufweisen. Mit einer mediterranen Ernährung können Sie sicherstellen, dass Sie reichlich von diesen entzündungshemmenden, alterungshemmenden Stoffen zu sich nehmen.

Artikel als PDF

Quellen:

Gehirnwäsche: Mit dieser kranken Micky Maus-Kopie schürten die Hamas Judenhass bei Kindern

Gehirnwäsche: Mit dieser kranken Micky Maus-Kopie schürten die Hamas Judenhass bei Kindern

Gehirnwäsche: Mit dieser kranken Micky Maus-Kopie schürten die Hamas Judenhass bei Kindern

Micky Maus ist am 1. Januar zum Allgemeingut geworden: Das Urheberrecht an der Disney-Figur ist erloschen. Während Filmemacher das zum Anlass nehmen, den Charakter für einen Horrorfilm zu nutzen, existierte im Gazastreifen schon lange zuvor eine schockierende Kopie der eigentlich so harmlosen Maus: Unter dem Namen “Farfour” ließ die Terrororganisation Hamas das Micky-Imitat Judenhass im Fernsehen verbreiten und betrieb so effektive Gehirnwäsche bei Kleinkindern.

“Farfour” war zwischen April und Juni 2007 im Kinderprogramm des Hamas-Senders Al-Aqsa zu sehen und bläute den jungen Zuschauern im Gazastreifen ein, dass Juden für alle Probleme der Welt verantwortlich wären. Mit offenem Antisemitismus sollten die Kinder radikalisiert werden. Ein Clip, der in den sozialen Netzen kursiert, zeigt etwa, wie die Maus von einem anderen Schüler abschreibt und erwischt wird. Farfour erklärt daraufhin, er habe das gar nicht tun wollen – Schuld seien die Juden, denn die hätten sein Haus zerstört und er habe deswegen seine Notizbücher nicht finden können.

In einem anderen Video soll Farfour laut Medienberichten die islamische Herrschaft mit folgenden Worten propagiert haben: „Wir, die Pioniere von morgen, werden dieser Nation ihren Ruhm zurückgeben, und wir werden Al-Aqsa und den Irak mit Allahs Willen befreien, und wir werden die muslimischen Länder befreien, die von Mördern überfallen wurden.“

Im Juni 2007 wurde die Figur dann in einem Clip ermordet. Gezeigt wurde dort ein Israeli, der der Maus sagt, man wolle für viel Geld ihr Land kaufen. Farfour antwortet: “Nein, wir verkaufen unser Land nicht an Terroristen.“ Schließlich wird das Micky Maus-Imitat brutal erstochen. Ein Kind sagt dann zu den Zuschauern: „Farfour wurde zum Märtyrer, während er sein Land beschützte.“

Die Micky Maus-Kopie bekam aber alsbald einen Nachfolger: Nach ihm setzte eine optisch ähnlich harmlos wirkende Biene die Gehirnwäsche bei den jungen Fernsehzuschauern fort. Gegenüber Al Jazeera gab man damals an, man plane noch weitere Charaktere, um den Kindern die “Botschaft” zu vermitteln.

Die Daily Mail berichtet in einem aktuellen Artikel von weiteren Maßnahmen der Hamas, um Kinder zu radikalisieren: So sei im Sommer das “Shields of Jerusalem”-Sommercamp wiedereröffnet worden, in dem Kinder jeden Alters im Umgang mit Waffen wie beispielsweise AK-47, Scharfschützengewehren und Raketenwerfern geschult werden. Die Terroristen, die Angriffe gegen Israel durchführten, werden dort als Helden und Vorbilder präsentiert; Portraits von ihnen seien überall im Camp zu sehen. Israelische Flaggen würden derweil auf dem Boden drapiert werden, damit die Kinder über sie hinweglaufen.

Tagesthemen: Israel „zündelt“ durch Tötung eines Hamas-Funktionärs

Tagesthemen: Israel „zündelt“ durch Tötung eines Hamas-Funktionärs

Tagesthemen: Israel „zündelt“ durch Tötung eines Hamas-Funktionärs

Von SARAH GOLDMANN | Das schwache Verb „zündeln“ wird in dem negativen Sinne gebraucht, dass jemand „leichtsinnig mit Feuer spielt.“ Leichtsinnig, also ohne über die Folgen nachzudenken, mit Feuer spielen, also riskieren, dass ein Brand ausbricht, bei dem Menschen oder Sachen zu Schaden kommen können. ARD-Moderatorin Jessy Wellmer vertrat diese ihre Sicht am Dienstagabend in […]