Kategorie: Nachrichten
Der Klimawandel: Die ungeklärte Wissenschaft, Teil 2
In Teil 1 haben wir die grundlegenden Prinzipien hinterfragt, die angeblich der „Klimawissenschaft
“ zugrunde liegen. Insbesondere haben wir uns mit der wissenschaftlichen Gültigkeit des behaupteten „Konsenses“ befasst und einige der zahlreichen wissenschaftlichen Zweifel an der Theorie der anthropogenen globalen Erwärmung (AGW) und dem so genannten „Treibhauseffekt“ untersucht.
Wir haben die widersprüchlichen Laienerklärungen einiger Klimawissenschaftler zur AGW-Theorie zur Kenntnis genommen. Dieser offensichtliche Mangel an Grundwissen sollte nicht einfach abgetan werden. „Die“ Klimawissenschaft wird von einer globalen öffentlich-privaten Partnerschaft als angebliche Rechtfertigung für die Umgestaltung der Welt missbraucht. Das Mindeste, was wir erwarten können, ist, dass die ausgewählten Klimawissenschaftler ihre eigene Theorie verstehen.
Mit der Veröffentlichung einer Reihe von Strategiepapieren mit dem Titel „Unsere gemeinsame Agenda“ im Jahr 2023 haben die Vereinten Nationen (UN) verkündet, dass das Infragestellen „der Klimawissenschaft
“ einer Hassrede gleichkommt. Wie wir in Teil 1 erörtert haben, haben die etablierten Medien bereits eine redaktionelle Politik angenommen, die jede mögliche Infragestellung der Klimawissenschafts-Orthodoxie ausschließt. Daher ist das Internet ein wichtiger öffentlicher Raum, in dem die Menschen noch Fragen stellen können.
Deshalb, so die UNO, müssen Anstrengungen unternommen werden, um jede online geäußerte Skepsis zu zensieren:
Die Auswirkungen von Fehlinformationen, Desinformation und Hassreden im Internet sind überall auf der Welt zu beobachten, auch in den Bereichen Gesundheit [und] Klimaschutz. [. . .] Eine kleine, aber lautstarke Minderheit von Klimawissenschaftsleugnern lehnt die Konsensposition weiterhin ab. [. . .] Die Stärkung der Informationsintegrität auf digitalen Plattformen ist eine dringende Priorität für die internationale Gemeinschaft. [. . .] Maßnahmen, die die Auswirkungen von Fehlinformationen, Desinformation und Hassreden begrenzen, werden die Bemühungen um eine nachhaltige Zukunft unterstützen.
Die UNO hat mit keinem Wort erwähnt, dass viele der Personen, die sie als „Klimawissenschaftsleugner“ bezeichnet, Wissenschaftler sind – auch Klimawissenschaftler. Durch die Unterlassung und die falsche Darstellung von antiwissenschaftlichen Aussagen über den „Konsens“ als wissenschaftliche Argumente verbreitet die UNO weltweit Desinformationen.
Der Zweck dieser Artikel – Teil 1 bis 3 – ist es, eine offene und ehrliche Debatte über den Klimawandel und die Klimawissenschaft anzuregen. Sie werden nicht als schlüssige Widerlegung der vorherrschenden Klimawissenschaft angeboten. Sie basieren auf der inspirierenden Dissertation von Rob Jeffrey und bieten lediglich eine begrenzte Auflistung einiger Gründe, die vorherrschende Klimawissenschaft und die Erzählungen über den Klimawandel, die wir alle von der UNO und anderen unhinterfragt akzeptieren sollen, in Frage zu stellen.
Diese Artikel bilden eine Serie. Bitte lesen Sie zuerst Teil 1, um die hier vorgebrachten Argumente vollständig zu verstehen.
Infragestellung der experimentellen Beweise der AWG-Theorie
Halpern et al. (2010) stellten in ihrem Papier zur AGW-Theorie klar, dass die Bezeichnung „Treibhauseffekt“ irreführend ist, da der vorgeschlagene Mechanismus, der mit dem AGW zusammenhängt, nichts mit dem Prozess zu tun hat, der die Atmosphäre in einem Treibhaus warm hält:
Kurz gesagt, Gewächshäuser funktionieren, indem sie den Abfluss von Wärmeenergie in die umgebende Atmosphäre durch Konvektion einschränken, während der atmosphärische Treibhauseffekt durch die Einschränkung des Abflusses von Wärmeenergie in den Weltraum durch Strahlung funktioniert.
Wo immer es möglich ist, beweist die Wissenschaft Theorien durch wiederholbare Experimente, die konsistent Ergebnisse liefern, die die Theorie belegen. Auf der Grundlage der 1856 veröffentlichten Theorien von Eunice Foote führte John Tyndall 1859 sein berühmtes Experiment durch, um zu zeigen, wie CO2 Strahlungswärme absorbiert und weiterleitet. Dies wird oft als experimenteller Beweis für den „Treibhauseffekt“ angeführt. Tyndalls Experiment hat den behaupteten Treibhauseffekt nicht bewiesen.
Dazu hätte Tyndall einen Temperaturanstieg bei den emittierenden und absorbierenden Objekten nachweisen müssen. Etwas, das Tyndall nicht einmal gemessen hat. Tyndall wies nach, dass Wärmeenergie von einem warmen Körper auf einen kälteren abstrahlt, und zeigte die vergleichbaren Absorptionseigenschaften verschiedener Gase für elektromagnetische Strahlung.
Andere Experimente werden als angeblicher Beweis für den Treibhauseffekt angeführt. Im Jahr 2020 führte die Royal Society ein Experiment durch, das ihrer Meinung nach die Mechanismen des Klimawandels qualitativ veranschaulicht. Sie platzierten ein auf 50°C eingestelltes Heizelement im Inneren von Ballons, die auf verschiedene feste Drücke aufgeblasen und entweder mit Luft oder reinem CO2 gefüllt waren. Dann schalteten sie das Element aus und beobachteten, wie lange es zum Abkühlen brauchte. Die Forscher stellten fest, dass die Abkühlungsgeschwindigkeit in den mit CO2 gefüllten Ballons viel geringer war.
Erstens war dies kein Beweis für den von den Befürwortern der AGW-Theorie behaupteten „verstärkten Treibhauseffekt“. Die AGW-Theorie behauptet, dass ohne zusätzliche Energiezufuhr zum System die so genannte „Rückstrahlung“ des CO2 die Temperatur des Heizelements erhöhen würde, wenn eine konstante Energiezufuhr aufrechterhalten würde. Das Experiment der Royal Society hat die AGW-Theorie oder den angeblichen physikalischen Mechanismus der „globalen Erwärmung“ sicherlich nicht bewiesen.
In Ballons eingeschlossene Gase mit festem oder eingeschränktem Druck verhalten sich nicht wie die tatsächlich frei expandierenden und kontrahierenden Gase in der Erdatmosphäre. Auch reines CO2 ist nicht mit dem atmosphärischen CO2-Gehalt vergleichbar. In der Atmosphäre würde sich das CO2 durch Ausdehnung und adiabatischen Sturz abkühlen. In dem unter Druck stehenden Ballon könnte es das nicht tun. Auch dieses Experiment hat den angeblichen Treibhauseffekt nicht bewiesen.
Andere Beweise für die so genannte Treibhausgastheorie sind ebenfalls nicht schlüssig. In „Nature“ wurde ein Artikel veröffentlicht, in dem angeblich der atmosphärische Treibhauseffekt anhand von Satellitenmessungen quantifiziert wurde, um die von atmosphärischen Gasen und Wolken eingeschlossene Infrarotstrahlungsenergie zu messen. Die Klimawissenschaftler behaupteten daraufhin, dies sei ein zwingender Beweis für eine „positive Rückkopplung“ in der Atmosphäre, in diesem Fall für die angebliche Strahlungsverstärkung durch den verstärkten Treibhauseffekt. Sie haben den „verstärkten Treibhauseffekt“ nicht bewiesen, sie haben ihn einfach angenommen und dieselben Gaseigenschaften beobachtet, die Tyndall mehr als 165 Jahre zuvor nachgewiesen hatte.
Ein weiterer wissenschaftlicher Grundsatz zum Nachweis der Richtigkeit einer Theorie ist das Fehlen einer anderen plausiblen Erklärung. Dies scheint bei dem „verstärkten Treibhauseffekt“, der im Mittelpunkt der AGW-Theorie steht, nicht der Fall zu sein.
Viele Physiker, Astrophysiker, wie Joseph Postma, und andere Wissenschaftler haben andere plausible Erklärungen angeboten. So schlug Holmes 2018 vor, dass die Oberflächentemperatur auch durch nichts anderes als die Auswirkungen des atmosphärischen Drucks und der thermischen Konvektion in der Troposphäre aufrechterhalten werden könnte:
[. . .] es wird vorgeschlagen, dass die verbleibende Temperaturdifferenz zwischen der effektiven Temperatur und der gemessenen oberflächennahen Temperatur eine thermische Verstärkung ist, die durch die gravitationsbedingte adiabatische Autokompression, angetrieben durch Konvektion, verursacht wird. Es wird daher eine neue Nullhypothese der globalen Erwärmung oder des Klimawandels vorgeschlagen und begründet, die keine anomale oder Nettoerwärmung durch Treibhausgase in der troposphärischen Atmosphäre irgendeines Planetenkörpers beinhaltet.
Zwei Klimawissenschaftler, Ned Nikolov und Karl Zeller, erlangten Berühmtheit, weil sie Arbeiten unter Pseudonymen veröffentlichten. Sie wurden als „Klimaleugner“ bezeichnet und konnten ihre Arbeiten nicht einmal zur Begutachtung einreichen, geschweige denn in „angesehenen“ Fachzeitschriften veröffentlichen. Im Jahr 2014 beschlossen sie, unter Pseudonymen zu veröffentlichen, und ihre Arbeiten wurden daraufhin begutachtet und veröffentlicht. Die Papiere wurden anschließend zurückgezogen – nicht aus wissenschaftlichen Gründen, sondern weil ihre offensichtlich notwendige Verwendung von Pseudonymen entdeckt wurde. Karl Zeller stellte fest: „Eine Abweichung von der aktuellen Treibhauseffekt-Theorie stellt keinen Fehler dar.“
Im Jahr 2017 veröffentlichten die Klimaforscher Nikolov, Zeller (2017) ein Modell zur Berechnung der mittleren globalen Temperatur für die Oberfläche eines festen Planeten mit oder ohne Atmosphäre. Sie wendeten ihr Modell auf Mars, Venus, Triton (ein Mond des Neptun) und Titan (ein Mond des Saturn) an und behaupteten, ihr Modell sei genau.
Entscheidend ist, dass sich ihr Modell auf den berechneten Oberflächenluftdruck und die Sonneneinstrahlung stützt, um die mittlere globale Temperatur zu schätzen. Ihr Modell impliziert, dass die chemische Zusammensetzung einer Atmosphäre die Oberflächentemperaturen eines Planeten nicht beeinflusst. In der Zusammenfassung ihres Papiers von 2017 schrieben die Wissenschaftler:
[. . .] der atmosphärische „Treibhauseffekt“, der derzeit als Strahlungsphänomen angesehen wird, ist in Wirklichkeit eine adiabatische (druckbedingte) thermische Verstärkung, die der Kompressionserwärmung entspricht und unabhängig von der atmosphärischen Zusammensetzung ist. Folglich scheint der globale abwärts gerichtete Langwellenfluss, von dem derzeit angenommen wird, dass er die Erwärmung der Erdoberfläche verursacht, ein Produkt der durch die Sonnenerwärmung und den atmosphärischen Druck festgelegten Lufttemperatur zu sein. Mit anderen Worten, die so genannte „Treibhausrückstrahlung“ ist global gesehen eher ein Ergebnis des atmosphärischen thermischen Effekts als eine Ursache dafür.
Infragestellung der Erwärmung in der AGW-Theorie
Ein Kernelement der AGW-Theorie ist die Vorstellung, dass die CO2-Emissionen der Menschheit eine „zusätzliche“ und „noch nie dagewesene“ globale Erwärmung verursachen. Daher muss es einen empirischen Beweis dafür geben, dass der Anstieg des atmosphärischen CO2 einer messbaren Erwärmung vorausgeht. Es scheint keine zu geben.
Es ist allgemein anerkannt, dass es nirgendwo in der Wissenschaft eine Arbeit gibt, die die Existenz des AGW-Mechanismus allein mit empirischen Daten belegt. Der Zusammenhang zwischen den Treibhausgasemissionen der Menschheit und dem Klimawandel beruht auf einem komplexen Netz von voneinander abhängigen Theorien, Computermodellen und Prognosen. In der Tat sind empirische Messungen von Dingen wie der durchschnittlichen „Oberflächenlufttemperatur“ (SAT) höchst problematisch.
Rob Jeffrey beobachtet:
Fast alle Wissenschaftler sind der Meinung, dass natürliche Kräfte in der Vergangenheit langfristige Klimaveränderungen bewirkt haben. Die Erdgeschichte zeigt, dass der Klimawandel ein Prozess ist, der seit über vier Milliarden Jahren stattfindet. Es scheint weitgehend Einigkeit darüber zu bestehen, dass die langfristigen Zyklen des Klimawandels von den Milankovitch-Zyklen angetrieben werden, deren Geschichte gut aufgezeichnet ist.
Die Milankovitch-Zyklen beschreiben die großen Umlaufzyklen der Erde, da sowohl die Form der Sonnenbahn als auch die „Achsenneigung“ der Erde relativ zur Sonne schwanken. Dies führt dazu, dass die Erde unterschiedliche Intensitäten der TSI (Total Solar Irradiance) erhält. Im Laufe der Zeit ist dies Teil der natürlichen Schwankungen, die sich auf das Klima auswirken.
Die „offizielle“ Klimawissenschaft des Zwischenstaatlichen Ausschusses für Klimaänderungen (IPCC) räumt ein, dass historische Temperaturproxy-Aufzeichnungen, wie z. B. Eisbohrkerne, zeigen, dass es eine Verzögerung von möglicherweise bis zu 800 Jahren zwischen dem Beginn der globalen Erwärmung und dem Anstieg des atmosphärischen CO2 gibt. Caillon et al. (2003) stellten fest, dass die interglaziale Erwärmung in der südlichen Hemisphäre zu beginnen scheint:
Die Abfolge der Ereignisse [. . .] deutet darauf hin, dass der CO2-Anstieg der antarktischen deglazialen Erwärmung um 800 (+ oder – ) 200 Jahre hinterher und der Deglazialisierung der nördlichen Hemisphäre vorausging. CO2 ist nicht der Antrieb, der das Klimasystem während der Deglazialisierung [Erwärmung] antreibt.
Shakun et al. (2012) entwickelten ein „Computermodell“, das nach Ansicht der Autoren erklärt, was aus Sicht der AGW-Theorie als Nächstes passiert. Dies wurde u. a. von „Skeptical Science“ berichtet:
Kurz gesagt, die anfängliche Erwärmung wurde tatsächlich durch die Milankovitch-Zyklen ausgelöst, und diese geringe, durch den Orbitalzyklus verursachte Erwärmung löste schließlich die CO2-Freisetzung aus, die den größten Teil der Erwärmung zwischen den Eiszeiten verursachte. Während das CO2 also einer kleinen anfänglichen Temperaturänderung hinterherhinkte (die hauptsächlich in der südlichen Hemisphäre auftrat), war es die Hauptursache und der Hauptantrieb für den größten Teil der Erwärmung während der Zwischeneiszeit.
Um das klarzustellen: Die AGW-Theorie geht davon aus, dass die Sonne, die nur scheinbar in der Lage ist, die Erdoberfläche auf -18 °C zu erwärmen, den Prozess der globalen Erwärmung zwischen den Eiszeiten in Gang setzt, dass aber dann, wenn man von einer Art natürlichem verstärktem Treibhauseffekt ausgeht, „zusätzliche“ freigesetzte Treibhausgase – vor allem CO2 aus den Ozeanen – die Wärme einfangen und eine „positive Rückkopplung“ verursachen.
Angeblich verstärkt dies wiederum die globale Erwärmung. Dies soll erklären, warum historische CO2– und Temperaturaufzeichnungen zu zeigen scheinen, dass der Anstieg des atmosphärischen CO2 die globale Erwärmung nicht verursacht, und gleichzeitig beweisen, warum CO2 die globale Erwärmung verursacht.
Wie „Skeptical Science“ es ausdrückt:
Während die anfängliche Erwärmung also nicht durch CO2 verursacht wurde, hat CO2 die Erwärmung über Tausende von Jahren hinweg verstärkt und ist somit immer noch der wichtigste Regler für die Temperatur der Erde.
Die AGW-Theorie legt angeblich nahe, dass CO2 der „Hauptsteuerknopf“ ist, und die Sonne ist zwar der Leistungsschalter, aber nicht die Energiequelle. Wenn man der AGW-Theorie Glauben schenkt, scheint der Strahlungsantrieb erhebliche Mengen an zusätzlicher atmosphärischer Wärmeenergie zu erzeugen.
Das Problem bei dieser Vorstellung ist, dass die globalen Temperaturen in der Vergangenheit anscheinend genauso hoch, wenn nicht sogar höher waren als heute, während der CO2-Gehalt während dieser warmen Perioden niedriger war. Martinez-Cortizas et al. (1999) haben beispielsweise durch die Entnahme von Quecksilberproben in Torfmooren als Klimavariable gezeigt, dass das Klima im Nordwesten Spaniens während der mittelalterlichen Warmzeit (ca. 950 bis ca. 1250) im Durchschnitt 1,5°C wärmer war und während der römischen Warmzeit (ca. 250 v. Chr. bis ca. 400 n. Chr.) möglicherweise bis zu 2°C wärmer war als der angegebene moderne Durchschnitt (1968 – 1998) zum Zeitpunkt der Veröffentlichung.
Diese Ergebnisse stehen im Einklang mit zahlreichen anderen Studien, die diese wärmeren, relativ CO2-armen Perioden belegen. Desprat et al. (2003) z. B. verwendeten Pollenwerte aus Bohrkernen von der iberischen Halbinsel, die ebenfalls sowohl die römische als auch die mittelalterliche Warmzeit belegen. Dies ist ein Beweis, der sowohl der Vorstellung einer beispiellosen modernen globalen Erwärmung als auch der AGW-Theorie zu widersprechen scheint.
Ljungqvist (2010) nahm mehrere Proxies aus der gesamten nördlichen Hemisphäre, um historische Temperaturen zu rekonstruieren. Auch diese zeigen sowohl die römische als auch die mittelalterliche Warmzeit. Während dieser Zeiträume überstieg der CO2-Gehalt der Atmosphäre laut Befürwortern der AGW-Theorie wie der NASA nicht die Marke von 280 Teilen pro Million (ppm).
Abb. 4: Ljungqvist (2010), Rekonstruktion der TemperaturvariabilitätDiese Art empirischer Beweise hat viele Wissenschaftler, darunter Rob Jeffrey, dazu veranlasst, die AGW-Theorie in ihrer Gesamtheit in Frage zu stellen:
Es gibt eindeutige Beweise dafür, dass nicht-atmosphärische Verursacher, z. B. die Sonne, in erster Linie für die globale Erwärmung und jegliche Klimaveränderung verantwortlich sind.
Soon et al. (2015) zum Beispiel fanden heraus:
Anhand von thermometergestützten Lufttemperaturaufzeichnungen für den Zeitraum von 1850 bis 2010 präsentieren wir empirische Belege für eine direkte Beziehung zwischen der Gesamtsonneneinstrahlung (TSI) und dem Oberflächentemperaturgradienten zwischen Äquator und Pol (Arktis) (EPTG). […] Insgesamt deutet alles darauf hin, dass ein Nettoanstieg der TSI oder des projizierten Sonneneinstrahlungsgradienten, der einen Nettoanstieg der Sonneneinstrahlung widerspiegelt, einen Anstieg des ozeanischen und atmosphärischen Wärmetransports in die Arktis in der Warmzeit seit den 1970er Jahren verursacht hat […].
Im Jahr 2018 stellte der Atmosphärenforscher Rex J. Flemming Ph.D. fest:
Viele glauben und/oder unterstützen die Vorstellung, dass die Erdatmosphäre ein „Treibhaus“ ist, wobei CO2 das wichtigste „Treibhausgas“ ist, das die Erde erwärmt. [. . .] Es gibt jetzt ein viel klareres Bild eines alternativen Grundes dafür, warum die Oberflächentemperatur der Erde seit 1850 angestiegen ist. Es gibt eine Wärmedecke oder einen Puffer für die atmosphärischen Oberflächenbedingungen, der seit einer Milliarde Jahren existiert [. . .]. Seine genaue Form hängt von der effektiven Sonnenenergie ab, die die Erdoberfläche erreicht. Die Quellen der Wärmedecke und die anschließende Übertragung von Wärme nach oben sind auf drei Kräfte zurückzuführen: das Schwerefeld der Erde mit seinem Einfluss auf die Konvektion, die Kondensation von Wasserdampf (H2O) und die Strahlungseffekte der beiden primären atmosphärischen Spurengase H2O und CO2. Es wird gezeigt, dass die Strahlungseffekte von H2O und CO2 relativ gering sind.
Jeffrey hebt die Arbeit der Astrophysikerin Professorin Valentina Zharkova hervor, die als Hauptautorin zahlreicher Arbeiten herausgestellt hat, wie sich die variable Sonnenaktivität auf die bekannten TSI-Auswirkungen der Orbitalzyklen auswirkt. Zharkova hat viele Sonnenzyklen identifiziert, von denen einige nur 11 Jahre dauern. Sie hat gezeigt, wie diese Sonnenaktivitätszyklen den TSI-Effekt der großen Orbitalzyklen entweder verstärken oder ihm entgegenwirken:
Dieser Ansatz ergab, dass es nicht nur 11-jährige Sonnenzyklen gibt, sondern auch große Sonnenzyklen mit einer Dauer von 350 bis 400 Jahren. […] Diese großen Zyklen werden stets durch große Sonnenminima vom Typ des Maunder-Minimums unterbrochen, die in der Vergangenheit regelmäßig auftraten und die bekannten Maunder-, Wolf-, Oort-, Homer’schen und andere große Minima bildeten. Während dieser großen Sonnenminima kommt es zu einer erheblichen Verringerung des solaren Magnetfelds und der solaren Bestrahlungsstärke, wodurch die Temperaturen auf der Erde sinken.
Weltweit befindet sich der Planet nach der kleinen Eiszeit, die Mitte des 19. Jahrhunderts endete, in einer wärmenden interglazialen Phase. Was die jüngste Erwärmung anbelangt, so waren die 1930er Jahre das wärmste Jahrzehnt in den USA, wenn man sich die Daten der „National Oceanic and Atmospheric Administration“ (NOAA) ansieht, die seit 1890 für alle US-Bundesstaaten Temperaturaufzeichnungen erstellt hat.
Die AGW-Theorie besagt, dass es die vom Menschen verursachten CO2-Emissionen aus der Verbrennung fossiler Brennstoffe sind, die die globale Erwärmung stark verschärft haben. Der größte Teil dieser Emissionen soll in der Zeit nach dem Zweiten Weltkrieg entstanden sein. Das wirft die Frage auf: Warum waren die 1930er Jahre das wärmste Jahrzehnt des 20. Jahrhunderts in den USA, wenn die CO2-Werte nach dem Zweiten Weltkrieg deutlich angestiegen sind?
Abb. 5: Weltwirtschaftsforum – anthropogene CO2-Emissionen seit 1900Während der Kleinen Eiszeit fror die Themse zeitweise zu. Vielleicht am regelmäßigsten während des solaren Maunder-Minimums [ca. 1645-c.1715]. Selbst die relativ neue globale Erwärmung begann vor dem bemerkenswerten Anstieg der vom Menschen verursachten CO2-Emissionen nach dem Zweiten Weltkrieg. Wäre dies nicht der Fall gewesen, hätten die Londoner in den 1920er Jahren noch immer Frostmessen auf der zugefrorenen Themse abgehalten.
Es scheint wahrscheinlich, dass der globale Temperaturanstieg in den letzten Jahrhunderten darauf zurückzuführen ist, dass die Erde aufgrund der geringeren Albedo der Wolken mehr kurzwellige Sonnenstrahlung absorbiert. Die Erwärmung des Planeten in den letzten 20 Jahren ist offenbar auf die höhere Ultraviolett-Durchlässigkeit der Wolken zurückzuführen. Das Ausmaß der Infrarotstrahlung, die angeblich durch den so genannten Treibhauseffekt verursacht wird, scheint vernachlässigbar zu sein.
Dübal und Vahrenholt. (2021) stellten fest:
Wir fanden heraus, dass die abnehmende ausgehende [reflektierte] kurzwellige Strahlung der wichtigste Faktor für einen positiven TOA-Nettostrom (oberste Schicht der Atmosphäre) von 0,8 W/m2 in diesem Zeitraum ist. [. . .] Wir vergleichen den klaren Himmel mit bewölkten Gebieten und stellen fest, dass Veränderungen in der Wolkenstruktur die Hauptursache für den Kurzwellentrend sein dürften. [. . .] Der Rückgang der Bewölkung um die Jahrtausendwende um etwa 1,5% hat sicherlich den positiven Nettostrahlungsfluss begünstigt. [. . .] Dies führt zusammen mit einer verringerten Sonneneinstrahlung von -0,17 W/m2 zu einem kleinen Wachstum des Ungleichgewichts von 0,15 W/m2. Wir präsentieren außerdem Daten zu den Oberflächenflüssen, die den starken Einfluss der Wolkenbedeckung auf den Strahlungshaushalt belegen.
Diese Ergebnisse wurden von einem NASA-Forschungsteam bestätigt, das in einer Veröffentlichung von Loeb et al. (2021) feststellte, dass die Erwärmung im 21. Jahrhundert „in erster Linie auf eine Zunahme der absorbierten Sonnenstrahlung in Verbindung mit einer geringeren Reflexion durch Wolken und Meereis“ zurückzuführen ist. Dies bezieht sich auf die beobachtete Verringerung der planetarischen Albedo.
In ähnlicher Weise stellte Professor Antero Ollila fest, dass die SW-Anomalie der Hauptgrund für diesen Temperaturanstieg ist. SW-Anomalien hatten ihre größten Auswirkungen auf die globale Temperatur während sehr starker (Super-)El Niño-Ereignisse in den Jahren 1997-98 und 2015-16.
Folglich stellte Rob Jeffrey fest:
Die Erdumlaufbahn verursacht diese Zyklen um die Sonne, die verschiedenen Perioden des Exzentrizitätszyklus der Erde, den Obliquitätszyklus und die Präzession der Äquinoktien. Bis zu den letzten 200 Jahren waren alle signifikanten Klimaveränderungen natürlich bedingt [. . .], viele Experten glauben, dass diese kurzfristigeren Zyklen durch Sonnenzyklen bedingt sind. [. . .] Diese werden durch Schwankungen des Sonnenflusses verursacht, die das Eindringen der kosmischen Strahlung und die Wolkenbildung in der Erdatmosphäre beeinflussen und zu Erwärmungs- und Abkühlungsperioden führen. [. . .] Die verbleibende Frage ist, wie viel der Mensch derzeit zur kurzfristigen globalen Erwärmung beiträgt. Die Erde hat in den letzten 11.000 Jahren achtmal ähnliche kurzfristige natürliche Erwärmungsphasen durchlaufen.
Infragestellung der Wirkungen der menschlichen CO2-Emissionen
Vielleicht sind die Argumente, die wir hier und in Teil 1 untersucht haben, kaum mehr als eine wissenschaftliche Debatte. Aber selbst wenn wir akzeptieren, wie der „verstärkte Treibhauseffekt“ funktionieren soll, gibt es noch weitere Gründe, die AGW-Theorie in Frage zu stellen.
Wie Rob Jeffrey feststellte:
Selbst wenn wissenschaftlich erwiesen ist, dass CO2 eine gewisse globale Erwärmung verursacht, gibt es deutliche Hinweise darauf, dass das vom Menschen verursachte CO2 nur einen winzigen Teil des gesamten globalen CO2-Ausstoßes ausmacht.
Die Atmosphäre enthält etwa 78% Stickstoff, 21% Sauerstoff und etwa 0,9% Argon. Die restlichen 0,1% bestehen aus Kohlendioxid, Stickstoffoxiden, Methan und Ozon. Darüber hinaus ist Wasserdampf (H2O) eine bemerkenswerte Variable. Einige AGW-Theoretiker behaupten, dass die Treibhausgase 1% der Atmosphäre ausmachen, aber Argon ist kein Treibhausgas, so dass dies nicht zuzutreffen scheint.
Erschwerend kommt hinzu, dass Wasserdampf in der Atmosphäre leicht zu einer Flüssigkeit kondensiert und wieder zu einem Gas verdampft. Aufgrund seines flüchtigen Charakters kann er bis zu 3% der gesamten atmosphärischen Gase ausmachen.
Wie oft berichtet wird, macht das atmosphärische CO2 derzeit mehr als 400 ppm der Atmosphäre aus. Das entspricht 0,04% der gesamten atmosphärischen Gase.
Daraus lässt sich schließen, dass CO2 etwa 40% der Treibhausgase ausmacht, wenn man den Wasserdampf vorübergehend außer Acht lässt. Nach Angaben der amerikanischen „Energy Information Administration“ (EIA) waren in den 1990er Jahren von den geschätzten 793 Milliarden Tonnen (bmt) atmosphärischen CO2s etwa 23 bmt auf die jährlichen menschlichen Emissionen zurückzuführen.
Dies lässt darauf schließen, dass die menschlichen CO2-Emissionen Ende des letzten Jahrhunderts etwa 3% des gesamten atmosphärischen CO2 ausmachten. Die menschlichen CO2-Emissionen haben in den ersten beiden Jahrzehnten des 21. Jahrhunderts weiter zugenommen. Ein derzeitiger Durchschnittswert von etwa 35 Mrd. Tonnen, d. h. etwa 4,5% der gesamten CO2-Emissionen, ist nicht unrealistisch. Folglich dürften die menschlichen CO2-Emissionen etwa 1,8% aller Treibhausgase ausmachen – der H2O-Gehalt ist eine Variable, die sich auf diese Zahl auswirkt.
Die Klimawissenschaftler von „Skeptical Science“ stellen fest, dass der vom Menschen verursachte verstärkte Treibhauseffekt der „wichtigste Regler für die Temperatur der Erde“ ist. Wenn wir alle Aspekte unseres Lebens radikal ändern und es irgendwie schaffen, die menschlichen CO2-Emissionen auf Null zu reduzieren (was nicht möglich ist, es sei denn, wir sterben aus), würden leider zumindest die 98,2% der jährlichen globalen Treibhausgasemissionen übrig bleiben.
Diese Situation wird durch den Wasserdampf noch komplizierter, der 80% der Treibhausgase nach Masse und 90% nach Volumen ausmachen kann. Dadurch erhöht sich die Gesamtzahl der angeblichen Treibhausgase in der Atmosphäre. Die NASA gibt an, dass Wasserdampf mit großem Abstand der dominierende Treibhausgaseffekt ist:
Wasserdampf ist bekanntlich das am häufigsten vorkommende Treibhausgas der Erde. […] Die Forscher nutzten neuartige Daten des Atmospheric Infrared Sounder (AIRS) auf dem Aqua-Satelliten der NASA, um die Feuchtigkeit in den untersten 10 Meilen der Atmosphäre genau zu messen. Diese Informationen wurden mit globalen Beobachtungen von Temperaturverschiebungen kombiniert. […] Wasserdampf ist der Hauptakteur in der Atmosphäre, wenn es um das Klima geht.
Die Veränderung des atmosphärischen H2O-Gases soll ein Produkt des Treibhauseffekts sein, der zu weiterer Verdunstung führt. Angeblich macht der Wasserdampf zwischen 66% und 85% des gesamten „Treibhauseffekts“ aus. Entscheidend ist, dass in der AGW-Theorie der Wasserdampf „keine globale Erwärmung verursacht„. Er ist zwar das bei weitem einflussreichste Treibhausgas, aber kein Treibhausgas, das die Erderwärmung „antreibt“. Der Begriff „Strahlungsantrieb“ ist für andere Treibhausgase wie CO2 und, in viel geringerem Maße, CH4 (Methan) reserviert.
Wenn wir davon ausgehen, dass bis zu 90% des THG-Volumens aus Wasserdampf bestehen, dann reduziert sich der menschliche CO2-Ausstoß auf etwa 0,3% der gesamten THG. Es verbleiben 99,7% der Treibhausgase, mit denen wir zu kämpfen haben, wenn wir „Netto-Null“-Emissionen erreichen.
Da die AGW-Theorie die Vorstellung ablehnt, dass der Klimawandel durch die Sonne verursacht wird, wird das Ausmaß, in dem Wolken die Absorption des solaren Strahlungsflusses verändern, weitgehend ignoriert. Das bedeutet, dass der angebliche „Strahlungsantrieb“ der Treibhausgase den Wasserdampf als passives Produkt der „treibenden“ Treibhausgase einschließt, aber die Wolkenbedeckung als signifikante Variable für eine entsprechende „Klimaänderung“ ausschließt.
Der IPCC erklärt dies damit, dass vor allem die menschlichen CO2-Emissionen, die etwa 0,3% der Treibhausgase ausmachen (wenn wir den Wasserdampf mit einbeziehen), einen „Nettoerwärmungseffekt“ haben, während der Wasserdampf in seiner Gesamtheit keinen solchen Effekt hat. Dies liegt angeblich daran, dass CO2 eine viel längere „Verweilzeit“ in der Atmosphäre hat.
Wie die EIA feststellt, wurden von den insgesamt 793 Mrd. Tonnen CO2, die aus natürlichen und menschlichen Quellen emittiert wurden, im gleichen Zeitraum 781 Mrd. Tonnen wieder vom Planeten aufgenommen – durch Bäume, Ozeane, Verwitterung usw.
Diese Emissions- und Absorptionsrate zwischen Kohlenstoff-„Reservoiren“ wie Wäldern, Bergen und Ozeanen wird als Kohlenstoffkreislauf bezeichnet. Die Kohlenstoff-„Senke“ ist die gemessene Menge an CO2, die pro Zeiteinheit vom Reservoir aufgenommen oder abgegeben wird. Sie wird zum Beispiel in Kilogramm CO2 pro Tag (kg C/Tag) gemessen.
Wir haben diesen [Kohlenstoff-]Kreislauf kritisch hinterfragt und stellen ein alternatives Konzept vor, bei dem die Aufnahme von CO2 durch natürliche Senken proportional zur CO2-Konzentration skaliert. Darüber hinaus berücksichtigen wir temperaturabhängige natürliche Emissions- und Absorptionsraten, mit denen sich die paläoklimatischen CO2-Schwankungen und die aktuelle CO2-Wachstumsrate gut erklären lassen. Der anthropogene Beitrag zur aktuellen CO2-Konzentration beträgt 4,3%, sein Anteil am CO2-Anstieg während des Industriezeitalters 15% und die durchschnittliche Verweilzeit 4 Jahre.
Rob Jeffrey fügte dem hinzu:
Die Verweildauer von CO2 in der Atmosphäre ist von entscheidender Bedeutung, denn je länger es in der Atmosphäre verbleibt, desto länger wird ein vermeintlich künstliches Ungleichgewicht bestehen. Der IPCC vertritt den (unbewiesenen) Standpunkt, dass die Verweildauer von CO2 in der Atmosphäre über 100 Jahre beträgt. Weitere Beweise deuten darauf hin, dass die Verweildauer von CO2 in der Atmosphäre eher bei zehn Jahren (oder weniger) liegt – ein außerordentlich signifikanter Unterschied mit großen Auswirkungen.
Diese Beobachtung steht ganz im Gegensatz zu den Behauptungen des IPCC und anderer Verfechter der AGW-Theorie. Was den IPCC anbelangt, so könnte die Tatsache, dass solche Erkenntnisse scheinbar ignoriert werden, auf politische Voreingenommenheit zurückzuführen sein, wie wir in Teil 3 erörtern werden.
Hinterfragung der AGW-Computermodelle
Der Grund, warum die Klimawissenschaftler darauf bestehen, dass der Klimawandel eine anerkannte Wissenschaft sei – abgesehen von der Tatsache, dass ihre Finanzierung weitgehend davon abhängt, dass sie dies sagen – ist, dass alle auf der AGW-Theorie basierenden „Klimamodelle“ so angeboten werden, als ob sie Beweise für die Theorie wären. Modelle sind von der Theorie abhängig.
Selbst wenn spätere Messungen mit dem Modell übereinstimmen, „beweist“ das Modell die Theorie nicht, es sei denn, andere Erklärungen wurden ausgeschlossen. Wie Jeffrey, Clauser, Postma, Soon, Flemming, Lindzen, Giaever, Dyson, Curry, Spencer, Coombs und viele andere skeptische Wissenschaftler und andere Skeptiker zu betonen versucht haben, ist es nicht nur unlogisch zu behaupten, ein Modell „beweise“ eine Theorie, sondern die Computermodelle der AGW-Theorie scheinen häufig entweder verzerrt oder schlichtweg falsch zu sein.
In Anbetracht der Tatsache, dass laut Dr. Hossenfelder und anderen Klimawissenschaftlern eine Abkühlung der Stratosphäre beobachtet wurde, „beweist“ die Übereinstimmung mit dem Modell von Manabe und Wetherall aus dem Jahr 1967 – siehe Teil 1 – die AGW-Theorie und widerlegt angeblich die Vorstellung, dass eine Veränderung der Sonneneinstrahlung irgendetwas mit der jüngsten globalen Erwärmung zu tun hat. Sie wird stattdessen durch einen „verstärkten Treibhauseffekt“ verursacht, heißt es.
Wie in Teil 1 erwähnt, behaupten Santer et al. (2023), den angeblich unbestreitbaren „Fingerabdruck“ der AGW-Theorie entdeckt zu haben.
Bei der Betrachtung der Signale in der mittleren bis oberen Stratosphäre stellten Santer et al. (2023) fest, dass der Ausbruch des Mount Pinatubo im Jahr 1991 eine Erwärmung der Stratosphäre verursachte, dass aber nach der anfänglichen Erwärmungsphase der Vulkanausbruch „die allmähliche anthropogen bedingte Abkühlung der Stratosphäre verstärkt“. Es sei darauf hingewiesen, dass es sich hier um die beobachtete Verstärkung eines unbewiesenen theoretischen Effekts handelt.
Die Satellitendaten der Universität von Alabama zeigen die Erwärmung der Stratosphäre durch Vulkane und die anschließende Abkühlung nach den Ausbrüchen von El Chichon (1982) und Pinatubo (1991). Nach jedem Ausbruch sanken die Stratosphärentemperaturen unter das Niveau, das sie vor dem Ausbruch hatten. Die Daten zeigten, dass die vulkanische Aktivität nicht zu einem monotonen linearen Temperaturrückgang, sondern zu einer deutlichen Abwärtsbewegung der Stratosphärentemperaturen führte. Im Jahr 2009 schrieb das amerikanische „National Center for Atmospheric Research„: „Die stratosphärischen Veränderungen sind nicht monoton [nicht durchgängig linear in einer einzigen Abwärtskurve], sondern eher stufenförmig.“
Abb. 6: Nicht monotoner „Sprung nach unten“ der Stratosphärentemperaturen nach Vulkanausbrüchenm Januar 2022 brach der Unterwasservulkan Hunga Tonga-Hunga Ha-apai aus. Sellito et al. (2022) erklärten:
Wir stellen fest, dass der Hunga Tonga-Hunga Ha-apai-Ausbruch die größte globale Störung der stratosphärischen Aerosole seit dem Pinatubo-Ausbruch 1991 und die größte Störung des stratosphärischen Wasserdampfs, die in der Satellitenära beobachtet wurde, verursacht hat. […] Der wahrscheinliche stratosphärische Ozonabbau aufgrund der Aerosol- und Wasserdampfeinträge könnte zu einer starken zusätzlichen Abkühlung der Stratosphäre führen.
Ozon (O3) hat in der Stratosphäre eine erwärmende Wirkung, wie die NASA im Jahr 2004 feststellte:
Ozon erzeugt Wärme in der Stratosphäre, indem es sowohl die ultraviolette Strahlung der Sonne als auch die aufsteigende Infrarotstrahlung aus der unteren Atmosphäre (Troposphäre) absorbiert. Folglich führt ein Rückgang des Ozons in der Stratosphäre zu niedrigeren Temperaturen. Beobachtungen zeigen, dass sich die mittlere bis obere Stratosphäre (30 bis 50 km über der Erdoberfläche) in den letzten Jahrzehnten um 1° bis 6° C abgekühlt hat (2° bis 11° F).
Die Abkühlung der Stratosphäre, die möglicherweise durch den Hunga-Tonga-Ausbruch verursacht wurde, wurde von Schoeberl et al. (2023) eindeutig beobachtet. Diese und frühere Erkenntnisse nach den Ereignissen von El Chichon und dem Pinatubo deuten darauf hin, dass die Abkühlung der Stratosphäre durch vulkanische Aktivitäten mehr als nur „verstärkt“ wird. Es ist nicht auszuschließen, dass Vulkanausbrüche tatsächlich eine wesentliche Ursache für den Ozonabbau und damit für die Abkühlung der Stratosphäre sind.
Der andere Aspekt des angeblichen „Fingerabdrucks“ der AGW-Theorie besteht darin, dass die Abkühlung der Stratosphäre gleichzeitig mit der Erwärmung der Troposphäre auftritt, was angeblich auf den „verstärkten Treibhauseffekt“ zurückzuführen ist. Eine geringere Albedo des Planeten führt jedoch dazu, dass mehr kurzwellige „ultraviolette“ Strahlung die Erde erwärmt. Die Daten der CERES EBAF-Messungen der NASA deuten darauf hin, dass der Albedo der Erde, insbesondere auf der Nordhalbkugel, die eine weitaus größere „Schwarzkörper“-Landmasse aufweist, in den letzten 20 Jahren erheblich zurückgegangen ist.
Darüber hinaus erhöht der Ozonabbau, der die Stratosphäre abkühlt, die Menge der ultravioletten Strahlung (UV), die die Erdoberfläche erreicht. In Verbindung mit der verringerten Albedo deutet dies darauf hin, dass die Erde mehr kurzwellige „ultraviolette“ Sonnenstrahlung absorbiert und sich der Planet dadurch erwärmt. Der vulkanische Ozonabbau hat offensichtlich zu diesem Prozess beigetragen.
Santer et al. (2023) stellten fest, dass die vom Menschen erzeugten Treibhausgase von 1986 bis 2022 eine Erwärmung der Erdoberfläche verursachten. Daten von CERES EBAF und Belege u. a. von Schoeberl et al. (2023) deuten auf eine Erwärmung durch erhöhten solaren Strahlungsfluss hin. Die Oberfläche könnte durch die Sonne erwärmt werden und die Stratosphäre könnte sich infolge natürlicher Schwankungen abkühlen.
Aus dieser Perspektive gibt es keinen schlüssigen „Fingerabdruck“ der AGW-Theorie, wie einige „Klimawissenschaftler“ behaupten. Das Modell von Manabe und Wetherall aus dem Jahr 1967 bietet lediglich eine weitere mögliche Erklärung.
Wir könnten auch sowohl das Ausmaß als auch das Muster der Erwärmung der Troposphäre in Frage stellen, die in den AGW-Klimamodellen behauptet wird. Mitchel et al. (2020) fanden zum Beispiel Beweise für eine konsistente Verzerrung in den AGW-Klimamodellen, die dazu neigten, sowohl die Erwärmung der Troposphäre als auch die Abkühlung der Stratosphäre zu übertreiben:
[…] wir finden erhebliche Erwärmungsfehler in den vom CMIP6 [Coupled Model Intercomparison Project] modellierten Trends, und wir zeigen, dass diese Fehler mit Fehlern in der Oberflächentemperatur verbunden sind. Wir decken auch bisher nicht dokumentierte Verzerrungen in der unteren und mittleren Stratosphäre auf: Die CMIP6-Modelle scheinen nicht in der Lage zu sein, die zeitliche Entwicklung der stratosphärischen Abkühlung zu erfassen, die nicht monoton ist.
Jain et al. (2023) vermuten, dass der Grund, warum die AGW-Modelle häufig nicht mit den empirischen Daten übereinstimmen, in der schlecht verstandenen „internen Variabilität“ liegt:
In der wissenschaftlichen Literatur finden sich zahlreiche Beispiele für die Nichtübereinstimmung von Modellen und beobachteten Klimamerkmalen, z. B. Trends bei regionalen Niederschlagsmengen und Temperaturen, multidekadische Veränderungen der atmosphärischen Zirkulation und Klimatologie, die Häufigkeit oder das Ausmaß von Extremereignissen [. . .] oder externe Antriebseffekte. Es kann viele Gründe geben, warum die Modelle nicht mit den Beobachtungen übereinstimmen. Eine mangelnde Übereinstimmung zwischen dem modellierten und dem beobachteten Klima kann jedoch auch einfach aufgrund chaotischer interner Variabilität entstehen [. . .]
Ayer et al. (2021) definieren interne Variabilität als „die natürliche Variabilität des Klimas aufgrund seiner chaotischen und nichtlinearen Natur“. Der IPCC räumt ein, dass das Klima ein chaotisches System ist, das sich einer genauen Vorhersage entzieht:
Das Klimasystem ist ein gekoppeltes, nichtlineares, chaotisches System, so dass eine langfristige Vorhersage künftiger Klimazustände nicht möglich ist. Vielmehr muss der Schwerpunkt auf der Vorhersage der Wahrscheinlichkeitsverteilung der zukünftigen möglichen Zustände des Systems durch die Erzeugung von Ensembles von Modelllösungen liegen.
Die Tatsache, dass eine „langfristige Vorhersage künftiger Klimazustände“ laut IPCC unmöglich ist, untergräbt alle derzeitigen „Klima-Alarme“ darüber, wie das Klima in hundert oder zweihundert Jahren aussehen wird. Vielleicht kann „die Erstellung von Ensembles von Modelllösungen“ die „Wahrscheinlichkeitsverteilung“ wahrscheinlicher zukünftiger Klimazustände vorhersagen, aber fast alle Modelle, auf die sich der IPCC bezieht, sind ausschließlich auf der Grundlage einer AGW-Theorie konstruiert. Sie könnten alle grundlegend fehlerhaft sein.
Die „Gleichgewichts-Klimasensitivität“ (ECS) wird in Übereinstimmung mit der AGW-Theorie in Sherwood et al. (2020) als „der stationäre globale Temperaturanstieg bei einer Verdoppelung des CO2“ definiert. Das Sherwood-Papier bot ein auf der AGW-Theorie basierendes ECS-Modell. Es war äußerst einflussreich für den 6. wissenschaftlichen Bewertungsbericht (AR6) des IPCC, der 2021 veröffentlicht wurde.
Bisher wurde in den ARs des IPCC behauptet, dass eine Verdopplung des CO2 eine „globale Erwärmung“ zwischen 1,5°C und 4,5°C verursachen würde. Dies änderte sich im AR6, vor allem dank des Sherwood-Modells, zu der Behauptung, dass die ECS angeblich zu einer Erwärmung von 2,5°C oder vielleicht bis zu 4,5°C oder sogar 5°C führen würde.
Als der unabhängige Forscher und Mathematiker Nic Lewis die Methodik des Sherwood-Papiers überprüfte, das vom IPCC mehr als zwanzig Mal zitiert wurde, behauptete er, erhebliche Fehler, Ungereimtheiten und andere mathematische Unzulänglichkeiten gefunden zu haben. Unter Verwendung desselben Datensatzes, aber anderer Analysetechniken, stellte Lewis fest, dass ECS zu einer Erwärmung von „zwischen 1,5 °C und 2 °C“ führt. Das ist deutlich weniger, als der von Sherwood beeinflusste IPCC behauptet.
Dr. Roy Spencer ist ein ehemaliger leitender Wissenschaftler an der Universität von Alabama in Huntsville und leitender Wissenschaftler für Klimastudien am „Marshall Space Flight Center“ der NASA. Derzeit ist er Teamleiter für das „Advanced Microwave Scanning Radiometer“ auf dem Aqua-Satelliten der NASA. Dr. Spencer behauptet, dass die Klimasensitivität, die darauf hindeutet, dass die vom Menschen verursachten CO2-Emissionen einen „verstärkten Treibhauseffekt“ verursachen, die interne Variabilität in einem solchen Ausmaß übersieht – dass die „Verstärkung“ praktisch nicht nachweisbar ist.
Daher wird er von den etablierten Medien als Klimaleugner bezeichnet. Nichtsdestotrotz stellt Dr. Spencer fest:
Der Begriff „globale Erwärmung“ bezieht sich auf den Anstieg der globalen Durchschnittstemperatur, der in den letzten hundert Jahren oder mehr beobachtet wurde. Für viele Politiker und die Öffentlichkeit impliziert der Begriff jedoch, dass der Mensch für diese Erwärmung verantwortlich sei. [. . .] Um herauszufinden, wie viel der vergangenen Erwärmung auf den Menschen zurückzuführen ist und wie viel mehr wir in der Zukunft erwarten können, ist die so genannte „Klimasensitivität“ [ECS] entscheidend. [. . .] Man sollte meinen, dass wir die „Klimasensitivität“ der Erde inzwischen kennen, aber es war überraschend schwierig, sie zu bestimmen.
Wikipedia sagt uns:
Technisch ausgedrückt ist die Klimasensitivität die durchschnittliche Änderung der globalen mittleren Oberflächentemperatur [GMST oder einfach GST] als Reaktion auf einen Strahlungsantrieb.
Die GST wird derzeit durch Mittelwertbildung der Temperaturanomalien der Ozeane (Meeresoberflächentemperatur – SST) und der Oberflächentemperaturanomalien der Kontinente (Oberflächenlufttemperatur – SAT) berechnet. Dies sind absolut wesentliche Inputs für die auf der AGW-Theorie basierenden Modelle der „Klimasensitivität“.
Das „Goddard Institute for Space Studies“ (GISS) der NASA liefert dem IPCC „Schätzungen“ für die SAT, d.h. die Lufttemperatur innerhalb von etwa 2 m über der Erdoberfläche. Die so genannte „GISTEMP-Analyse“ ist einer der vier Schlüsseldatensätze, die in die vom IPCC favorisierten Modelle der AGW-Theorie einfließen. Bei der Betrachtung, was die SAT ist und wie man sie misst, erklärte das GISS bis 2018, dass sie:
[. . .] bezweifelt, dass es ein allgemeines Einvernehmen darüber gibt, wie diese Frage zu beantworten ist. [. . .] Um SAT zu messen, müssen wir uns darauf einigen, was es ist, und soweit [GISS] weiß, ist kein solcher Standard vorgeschlagen oder allgemein angenommen worden.
In Bezug auf die Berechnung der SAT-Komponente der GST fügte GISS hinzu:
Auch hier gibt es keine allgemeingültige richtige Antwort. Sollen wir die Temperatur alle 6 Stunden aufzeichnen und den Mittelwert angeben, sollen wir dies alle 2 Stunden oder stündlich tun, sollen wir sie sekündlich von einer Maschine aufzeichnen lassen, oder sollen wir einfach den Durchschnitt der höchsten und niedrigsten Temperatur des Tages nehmen? An manchen Tagen können die verschiedenen Methoden zu drastisch unterschiedlichen Ergebnissen führen.
Das GISS hat seine Überlegungen zu diesem Thema vor kurzem aktualisiert. Es stellt nun fest:
Da die SAT-Werte sehr unterschiedlich sind, spiegelt diese Zahl nicht unbedingt den Durchschnitt eines größeren Gebiets wider. SAT-Karten können nur mit einer Art Modell erstellt werden. [. . .] Im globalen Durchschnitt beträgt diese Schwankung etwa 0,5°C.
und:
[. . .] verschiedene Ansätze können systematisch unterschiedliche Antworten geben, je nach den Besonderheiten des Wetters an diesem Tag. [. . .] Die verschiedenen Modelle werden zu leicht unterschiedlichen Schätzungen der SAT führen. [. . .] Statistische Ansätze (wie die von Jones et al. (1999) verwendeten) weisen eine ähnliche Unsicherheit auf.
Um es klar zu sagen: Es gibt keine allgemein anerkannte, systematische Methode, um den aktuellen durchschnittlichen SAT-Wert der Erde zu berechnen. Dennoch stützen sich fast alle auf der AGW-Theorie basierenden Modelle auf die berechnete SAT als Input für die „Klimasensitivität“.
Santer et al. (2021) (nicht 2023) zeigten, dass zwischen 1988 und 2019 die beobachtete Meeresoberflächentemperatur [SST], die troposphärische Temperatur und der gesamte troposphärische Wasserdampf eine geringere tropische Erwärmung zeigten als von den Klimamodellen der AGW-Theorie vorhergesagt. Die Schlussfolgerung lautete nicht, dass die Computermodelle der AGW-Theorie möglicherweise falsch sein könnten, sondern dass die „großen Unsicherheiten in den Beobachtungen“ berücksichtigt werden müssten.
Die etablierten Medien nutzten das Papier, um den Klima-Alarm zu verstärken, indem sie berichteten, dass die Satellitenmessungen die globale Erwärmung 40 Jahre lang unterschätzt hätten. Das stand zwar nicht in dem Papier, aber man konnte es daraus ableiten, und so wurde es dann auch erzählt.
Bei der Prüfung der Arbeit von Santer et al. (2021) stellte Dr. Roy Spencer fest:
Ich komme zu dem Schluss, dass die Studie nichts Neues enthält, was Zweifel an der Bescheidenheit der von Satelliten ermittelten Erwärmungstrends in der Troposphäre aufkommen ließe – es sei denn, man glaubt den Klimamodellen als Beweis, in diesem Fall brauchen wir ohnehin keine Beobachtungen. […] Die Studie von Santer et al. stimmt weitgehend mit der Ansicht überein, dass die globale Erwärmung deutlich langsamer voranschreitet als von den neuesten Klimamodellen vorhergesagt, und dass ein Großteil der Unstimmigkeiten zwischen Modellen und Beobachtungen auf falsche Annahmen in diesen Modellen [der AGW-Theorie] zurückgeführt werden kann.
Kürzlich haben mehr als 1.800 Wissenschaftler, akademische Forscher und andere Skeptiker der AGW-Theorie, darunter auch Nobelpreisträger, eine gemeinsame Erklärung unterzeichnet:
Wer den Ergebnissen eines Klimamodells Glauben schenkt, glaubt das, was die Modellmacher hineingegeben haben. Genau das ist das Problem der heutigen Klimadiskussion, in der Klimamodelle eine zentrale Rolle spielen. Die Klimawissenschaft ist zu einer Diskussion verkommen, die auf Überzeugungen und nicht auf solider, selbstkritischer Wissenschaft beruht. Sollten wir uns nicht von dem naiven Glauben an unausgereifte Klimamodelle befreien?
Wir sollen glauben, dass die Wissenschaft feststünde und dass es eine Art Ketzerei sei, „die Klimawissenschaft
“ in Frage zu stellen. Die UN und ihr IPCC gehören zu den „zwischenstaatlichen“ Gremien, die nicht nur verlangen, dass wir vorbehaltlos allem zustimmen, was sie uns sagen, sondern uns, wenn wir es nicht tun, beschuldigen, eine Form von Hassrede zu betreiben.
Wie wir in Teil 3 erörtern werden, haben der IPCC und andere Befürworter der AGW-Theorie gigantische finanzielle Interessenkonflikte. Öffentliche und private Institutionen und Organisationen, die die AGW-Theorie vorantreiben, haben eine klare politische Agenda, die wenig mit der Lösung von Umweltproblemen zu tun hat. Auch scheint es keine offensichtliche Grundlage für den „Klima-Alarm“ zu geben.
In Teil 3 gehen wir den Beweisen nach, die darauf hindeuten, dass die Erzählungen, die uns über den angeblichen „Klimanotstand“ vermittelt werden, nichts weiter als Propaganda sind.
Generalarzt von Florida fordert FDA und CDC auf, die Anwendung des mRNA-COVID-Impfstoffs beim Menschen zu stoppen
Der Generalarzt des US-Bundesstaates Florida, Joseph Ladapo, forderte heute am Mittwoch die FDA und die CDC auf, die Anwendung des mRNA-COVID-19-Impfstoffs beim Menschen aus Sicherheitsgründen zu stoppen.
Ladapo verwies insbesondere auf „Nukleinsäure-Kontaminanten“ in den mRNA-Impfstoffen von Pfizer und Moderna.
Das Gesundheitsministerium von Florida erklärte in einer Pressemitteilung, dass „das Vorhandensein von Simian-Virus-40-Promotor/Enhancer-DNA und Lipid-Nanopartikel-Komplexen“ ein „erhöhtes Risiko der DNA-Integration in menschliche Zellen“ darstellen könnte.
Dieser Mechanismus, so warnte die Behörde, könne zur Entwicklung von Krebszellen und zu negativen Auswirkungen auf lebenswichtige Organe wie Herz, Lunge, Gehirn, Leber und Nieren führen.
Ladapo sagte, die FDA habe keine ausreichende Bewertung dieses Risikos vorgelegt.
„Die DNA-Integration stellt ein einzigartiges und erhöhtes Risiko für die menschliche Gesundheit und die Integrität des menschlichen Genoms dar, einschließlich des Risikos, dass die in Spermien oder Eizellen integrierte DNA an die Nachkommen von Empfängern des mRNA-Impfstoffs COVID-19 weitergegeben werden könnte“, sagte Ladapo. „Wenn die Risiken der DNA-Integration für mRNA-COVID-19-Impfstoffe nicht bewertet werden, sind diese Impfstoffe nicht für den Einsatz beim Menschen geeignet“, so Ladapo.
Ladapo fuhr fort, dass Gesundheitsdienstleister und Behörden „nicht-mRNA-COVID-19-Impfstoffen und -Behandlungen Vorrang einräumen sollten“.
„Ich hoffe, dass die FDA eines Tages ihre regulatorische Verantwortung für den Schutz der menschlichen Gesundheit, einschließlich der Integrität des menschlichen Genoms, in Bezug auf COVID-19 ernst nimmt“, sagte er.
Die Behörde teilte mit, Ladapo habe im Dezember einen Brief geschrieben, in dem er seine Besorgnis über die Entdeckung zum Ausdruck gebracht habe, dass die Impfstoffe „Milliarden von DNA-Fragmenten pro Dosis“ enthielten.
Am 14. Dezember antwortete die FDA, es gebe „keine Beweise“ für eine Risikobewertung der in den mRNA-Impfstoffen gefundenen Verunreinigungen.
In einer Erklärung sagte der Chirurgische Generalarzt, dass die FDA Genotoxizitätsstudien zitiert habe, die seiner Meinung nach nicht ausreichend seien, um die von ihm geäußerten Bedenken zu berücksichtigen.
„Sie haben den Unterschied zwischen dem SV40 [Simian Virus 40] Promotor/Enhancer und den SV40 Proteinen, zwei verschiedenen Elementen, verschleiert“, sagte Ladapo.
Die CDC behauptete, die Impfstoffe seien „sicher und wirksam“.
Ladapo wurde Ende 2021 von Gouverneur Ron DeSantis ernannt.
Im August hatte Ladapo die Idee, Kindern Impfungen aufzuzwingen, als „verrückt“ bezeichnet.
Und im März, vor fast einem Jahr, sagte Ladapo, er glaube nicht, dass jemand die mRNA-Impfstoffe wegen ihres „schrecklichen Sicherheitsprofils“ nehmen sollte.
„Diese Impfstoffe haben in diesem Stadium der Pandemie ein schreckliches Sicherheitsprofil“, sagte er. „Ich bin mir nicht sicher, ob jemand sie nehmen sollte, und das ist die ehrliche Wahrheit“.
Auch die Gesundheitsbehörde von Florida sprach sich gegen den Impfstoff aus. Im September riet sie allen Personen unter 65 Jahren von der COVID-19-Auffrischungsimpfung ab.
Im Oktober 2022 empfahl Florida Männern im Alter von 18 bis 39 Jahren, sich nicht mit dem mRNA-Impfstoff COVID-19 impfen zu lassen, da Bedenken hinsichtlich des Herzrisikos bestehen.
„Die Untersuchung der Sicherheit und Wirksamkeit von Arzneimitteln, einschließlich Impfstoffen, ist ein wichtiger Bestandteil der öffentlichen Gesundheit“, sagte Ladapo. „Der Sicherheit wurde viel weniger Aufmerksamkeit geschenkt und die Bedenken vieler Menschen wurden abgetan – dies sind wichtige Erkenntnisse, die den Bürgern Floridas mitgeteilt werden sollten.
Österreich zeigt, wie Aufarbeitung nicht geht: Bis heute keine echte Kritik am gesetzlichen Impfzwang
Der Impfzwang ist der wohl bedeutendste Aspekt einer jeden Corona-Aufarbeitung. Österreich hat hier zuletzt gezeigt, wie es nicht geht: Soziologische Fallstudien, die als Aufarbeitung verkauft wurden, klammerten die wichtigsten Faktoren kurzerhand aus. So stellt man in der Fallstudie zur Impfpflicht eingangs konkret fest, dass Wirksamkeit und Verhältnismäßigkeit dieser Maßnahme nicht bewertet werden. Dass die Impfungen wirkungslos und der Zwang zur Injektion somit gerade in Anbetracht angerichteter Schäden in keiner Weise verhältnismäßig waren, wird bis heute nicht zugegeben.
Corona-Aufarbeitung: oberflächlich und verfehlt
Presseaussendung der GGI-Initiative am 02.01.2024
Am 21.12.2023 präsentierte eine Delegation unter Bundeskanzler Nehammer die Ergebnisse einer soziologischen Studie, die als Aufarbeitung der Corona-Krise verkauft wurde. Die GGI-Initiative thematisiert in dieser Aussendung eine von fünf Fallstudien – konkret jene zur Impfpflicht. Wir argumentieren die unvollständige Betrachtung, die Verharmlosung von Kriegspropaganda bzw. totalitären Anwandlungen sowie geheuchelte Versöhnlichkeit. Wir fordern eine echte Aufarbeitung unter Einbezug aller relevanten Aspekte und Anhörung der kritischen Stimmen.
Aufarbeitung unerwünscht
Am 21.12.2023 hat eine Delegation aus Regierung und Experten inkl. Bundeskanzler Nehammer die Ergebnisse einer Studie präsentiert, welche von offizieller Seite als Aufarbeitung der Corona-Krise erachtet wird. [1] Die GGI-Initiative sieht wesentliche Mängel und Versäumnisse in diesem “Aufarbeitungs- und Versöhnungsprozess”, der mit oberflächlich wohlklingenden Empfehlungen diese Krise abschließen und vorgeblich besser gerüstet in die nächste gehen will.
Anhand fünf soziologischer Fallstudien werden ausgewählte Aspekte analysiert. Darüber hinaus enthält die Studie Erkenntnisse aus einem Bürgerbeteiligungsprozess. Wir betrachten nachfolgend die Fallstudie 2 zur Impfpflicht (Bogner, Albiez) und erklären, warum die dahingehende Aufarbeitung nicht einmal begonnen hat.
Isolierte Betrachtung
Im Folgenden geht es nicht um eine Bewertung der in Österreich beschlossenen allgemeinen Impfpflicht im Hinblick auf die Wirksamkeit oder Verhältnismäßigkeit dieser politischen Maßnahme. Ob eine allgemeine Impfpflicht unter bestimmten Bedingungen ethisch zulässig (oder geboten) und verfassungskonform ist, ist eine Frage für Ethik, Rechtswissenschaften und Medizin.
Diese Passage zeigt eingangs direkt auf, dass die Aufarbeitung nicht vollständig ist. Eine vollständige Aufarbeitung kommt keinesfalls ohne die Erkenntnis aus, dass die Injektionen weder wirksam noch verhältnismäßig waren. Zudem werden die Schäden durch die Injektionen abermals unter den Teppich gekehrt.
In der kurzen Beschreibung der fachlichen Grundlagen wird dementsprechend die Injektion als unfehlbar erachtet, wenn dies auch nicht offen ausgesprochen wird. Gleiches gilt für Wissenschaft und Politik. Obwohl das Thema “Interessenskonflikte seitens sogenannter Experten” durchaus ein soziologisches Betätigungsfeld eröffnen würde, stellt die Fallstudie allein auf fehlendes Vertrauen ab. So werden “Neigung zu Verschwörungstheorien” sowie “Kontroverse über wissenschaftliche Tatsachen” als Vertrauenskrise hingestellt. Kern des Problems bei der Impfpflicht sei demnach ein Mangel an Debatte. Man bekommt den Eindruck, als wären die Autoren der Ansicht, so eine Debatte hätte im Rahmen eines Overton-Fensters bzw. eingeschränkten Meinungsspektrums stattfinden müssen. Dann hätte ein ohnehin vorab feststehendes Ergebnis Polarisierung vermieden.
Verharmlosung von Propaganda
In der politischen Legitimationsrhetorik wurde der politische Charakter dieser Entscheidung (zur Impfpflicht, Anm.) allerdings durch Hinweis auf deren Alternativlosigkeit verschleiert.
Die politische Debatte zur Impfpflicht ist darüber hinaus in auffälliger Weise von einer Rhetorik des Bedauerns geprägt.
Diese Moralisierung, also die Einteilung politischer Positionen in das Schema von Gut und Böse, erschwert das Zusammenleben. Aus dem Impfstatus wird die Zugehörigkeit zu einer Gruppe mit einem feststehenden Set an Eigenschaften und Überzeugungen abgeleitet.
Ganz richtig identifizieren die Autoren den Appell an die Alternativlosigkeit sowie der Moralisierung als unzweckmäßige Mittel. Zur Alternativlosigkeit erwähnen sie begleitend die Rhetorik des Bedauerns.
Unerwähnt lassen die Autoren, dass es sich dabei um Methoden der Propaganda handelt. Besonders in der Kriegspropaganda spielt jene Triade aus Dringlichkeit/Alternativlosigkeit (Der Feind wird uns zerstören, wir können gar nicht anders als zuschlagen), geheucheltem Bedauern (Leider war der Feind unseren zuvorkommenden Bemühungen um Verhandlungen nicht zugänglich) und Moralisierung (Wer nicht für uns ist, ist für den Feind) eine bedeutende Rolle.
Ebenso ignorieren die Autoren eines der Markenzeichen totalitärer Regime. In selbstgefälliger Manier wird die eigene Methodik für unfehlbar gehalten. Ist das unvermeidbare Scheitern nicht mehr zu verdecken, schließen sie in ihrer Verblendung auf Sabotage. Folglich muss ein Sündenbock erschaffen werden. Aus der Geschichte des Totalitarismus sind genug Beispiele bekannt, wohin das letztlich führt. In einer Demokratie darf das nicht vorkommen.
Es handelt sich also keineswegs allein um unzweckmäßige Mittel, wie die Autoren das sehen mögen. Aus dem Mangel an Erkenntnis bzw. Zugeständnis, dass hier totalitäre Anwandlungen und schwarze Propaganda offenkundig sind, erschließt sich abermals die Notwendigkeit einer echten Aufarbeitung.
Verfehlter Abschluss
Die Schlussfolgerung hält zunächst etwas Entspannung bereit. Die drei Empfehlungen lauten:
- Debatte fördern, trotz allem!
- Begründen, nicht verkünden!
- Vorsicht vor heroischen Maßnahmen!
Doch bevor die geneigten Leserinnen und Leser eine Chance haben, ihren Frieden mit der Fallstudie zu machen, stellen die Autoren in den letzten Sätzen noch abschließend klar:
Schließlich entwarf dieses Gesetz eine flexible Anwendung der Impfpflicht und war von der Überlegung geprägt, dass man heikle normative Entscheidungen auf Basis aktueller Informationen nachjustieren können sollte. Im Gegensatz zur „Jetzt-oder-nie“-Logik des Impfpflichtbeschlusses war das Impfpflichtgesetz nicht von dem Glauben getragen, dass es zum aktuellen Zeitpunkt die eine beste Lösung für alle Zeiten gibt.
Das Problem war also nie die Impfpflicht selbst, sondern nur die Art ihres Zustandekommens. Verfassung, Grund- und Freiheitsrechte, medizinische Sinnhaftigkeit hin oder her – das Impfpflichtgesetz selbst erlaubt eine gewisse Flexibilität. An die Frage, wer unter welchen Umständen entscheidet, ob die Pflicht “scharfgestellt” wird, wagen sich die Autoren freilich nicht heran.
Schlussfolgerung
Wir haben gezeigt, dass die Einleitung der Fallstudie zur Impfpflicht auf eine sehr eingeengte, rein soziologische Betrachtung aufbaut; dass die angewandten Mittel zum Durchsetzen der Impfpflicht zurecht kritisiert, aber völlig verharmlost werden; dass die abschließenden Empfehlungen wegen dem voreingenommenen Lob der Autoren auf die Gestaltung der Impfpflicht wie Heuchelei erscheinen.
Die GGI-Initiative fordert folglich, dass eine ernstgemeinte und vollständige Aufarbeitung endlich gestartet wird. Diese muss kritische Stimmen zu Wort kommen lassen und alle relevanten Aspekte berücksichtigen. Wir leisten dazu auch weiterhin unseren Beitrag mit dieser Serie.
Quellenangaben
[1] Bogner A (Hrsg). Nach Corona – Reflexionen für zukünftige Krisen. Österreichische Akademie der Wissenschaften, 2023. online: https://www.bundeskanzleramt.gv.at/dam/jcr:0668fa51-0122-4efe-a49e-6270a3a05840/82a_1_bei_NB.pdf
Die Klimapolitik von New York City dürfte das Leben für die Mittelschicht noch unerschwinglicher machen

New York City treibt mehrere klimapolitische Maßnahmen voran, die den Alltag in einer der teuersten Städte des Landes für die Mittelschicht wahrscheinlich noch teurer machen werden.
Die Stadt will ihre Treibhausgasemissionen bis 2050 um 80 % senken, ein umfassendes Gesetz zur Elektrifizierung von Gebäuden, bekannt als Local Law 97, durchsetzen und eine Gebühr für den Autoverkehr erheben. Jede dieser Maßnahmen wird die Kosten für das Leben und Arbeiten in der größten Stadt des Landes erhöhen, insbesondere für die Mittelschicht, so Energie- und New Yorker Politikexperten gegenüber der Daily Caller News Foundation. Queens, Brooklyn und Manhattan gehören laut einer von CNBC durchgeführten Analyse bereits zu den 15 teuersten Orten zum Leben in den Vereinigten Staaten.
„Die Stadt ist wohlhabend, weil irgendwo da draußen Menschen Energie, Lebensmittel, Kleidung und so weiter produzieren, und die Menschen handeln all das in New York“, sagte Dan Kish, ein leitender Mitarbeiter des Institute for Energy Research, dem DCNF. Das Emissionsziel der Stadt „wird die Dinge teurer machen und die Menschen an Orte wie Florida vertreiben“, fügte er hinzu.
Diese Kapitalflucht würde die Steuerbasis schrumpfen lassen und damit die Finanzen der Stadt weiter belasten, sagte Kish dem DCNF. „Menschen, die nicht über die nötigen Mittel verfügen, also arbeitende Menschen, haben nicht die Möglichkeit, einfach ihre Sachen zu packen und wegzugehen“, sagte Kish dem DCNF. „Aber es ist einfach, wenn man Mike Bloomberg heißt [Bürgermeister von New York City, A. d. Übers.].“
Das Local Law 97 sieht Emissionsstandards vor, die etwa 50.000 Gebäude in New York City ab 2024 erfüllen müssen, wobei der New York Times zufolge ab 2030 zusätzliche Beschränkungen eingeführt werden.
Einige Gebäude lassen sich leichter mit der entsprechenden Verkabelung und Ausrüstung nachrüsten als andere, und ein großer Teil der hohen Kosten, die Vermietern und Gebäudeeigentümern für die Einhaltung der Vorschriften entstehen, wird mit ziemlicher Sicherheit auf die Bewohner abgewälzt werden, erklärte Jane Menton gegenüber dem DCNF. Sie ist eine Mutter, die in einer Genossenschaft in Queens lebt und eine Basisinitiative gegen das Local Law 97 geleitet hat.
„Die Progressiven in Queens, Manhattan und Brooklyn haben so viel Angst davor, sich gegen das Narrativ zu stellen, dass diese Vorschrift eine Klimalösung ist… aber es ist unerschwinglich, Gebäude auf Strom umzurüsten, also werden sie nicht umrüsten, um die Vorschrift zu erfüllen, sondern nur Geldstrafen zahlen, die es der Stadt dann ermöglichen, das Geld zum Stopfen von Haushaltslöchern zu verwenden,“ sagte Menton dem DCNF. „Die gleichen Politiker und Befürworter, die behaupten, sich um die Arbeiterklasse der Stadt zu kümmern, haben ein Gesetz geschrieben, das eben diese aus ihren Häusern verdrängen wird… funktionell gesehen ist dieses Gesetz einfach eine Kohlenstoffsteuer für die Mittelklasse.“
Andere Städte wie Boston haben sich für ähnliche Maßnahmen zur Elektrifizierung von Gebäuden eingesetzt, um den Klimawandel zu bekämpfen, und die Regierung Biden hat Hunderte von Millionen Dollar ausgegeben, um staatliche und kommunale Regierungen bei der Umsetzung von Maßnahmen zur „Dekarbonisierung“ von Gebäuden zu unterstützen.
Die Gebühren für New York City werden von der Metropolitan Transportation Authority (MTA) erhoben, die technisch gesehen keine Behörde ist, die unter der Schirmherrschaft der Stadtverwaltung steht.
Die Gebühren sollen die Emissionen und die Luftverschmutzung verringern, indem von den Autofahrern Gebühren für die Einfahrt in bestimmte Teile der Stadt erhoben werden. Konkret hat die MTA vorgeschlagen, für die Einfahrt in einen großen Teil Manhattans 15 Dollar für Pkw und 36 Dollar für Lkw zu verlangen, wie der lokale Sender NBC 4 berichtet.
Der Vorschlag könnte jedoch das Verkehrsaufkommen auf den Straßen der Stadt nicht wesentlich verringern und möglicherweise sogar die Staus in Gebieten wie der Bronx vergrößern, wie die New York Post berichtet. Qualifizierte Fahrer mit niedrigem Einkommen, die sich bei den zuständigen Behörden registrieren lassen, könnten außerdem nach den ersten zehn Fahrten in das betreffende Gebiet von Manhattan einen Rabatt von 50 % auf die Gebühren erhalten, so die lokale digitale Nachrichtenagentur northjersey.com
„Staugebühren sollten in erster Linie als Einnahmequelle betrachtet werden, um die unvertretbar hohen Kapitalkosten der MTA zu decken“, erklärte Ken Girardin, Forschungsdirektor der auf New York fokussierten Denkfabrik Empire Center gegenüber der DCNF. „Was die Verkehrsüberlastung selbst betrifft, so haben es die politischen Entscheidungsträger abgelehnt, grundlegende Dinge wie die Durchsetzung von Parkregeln oder die Reduzierung der Parkerlaubnisse für Angestellte des öffentlichen Dienstes oder andere politische Veränderungen vorzunehmen, welchedie Autos von den Straßen Lower Manhattans wegbringen würden, weil dies keine Dinge sind, für die man Geld leihen kann.“
Auch für Menschen, die nicht in der Stadt wohnen, aber jeden Tag zur Arbeit fahren, würde diese Politik das Leben teurer machen, so Politico. In London, der größten Metropole Großbritanniens, haben Politiker ein ähnliches System ausprobiert, das der republikanische New Yorker Stadtrat Joseph Borelli aus Staten Island im Januar bei der Erörterung der bevorstehenden New Yorker Version des Systems als „komplettes Desaster“ und „klägliches Scheitern“ bezeichnete.
Wenn der gesamte Bundesstaat New York heute auf „Netto-Null“ umstellen würde, würden laut Klimamodellierung der Vereinten Nationen bis 2050 lediglich 0,0023° F der globalen Erwärmung vermieden. „Das ist bei weitem nicht messbar und schon gar nicht signifikant. Es würde also nichts erreicht werden“, sagte Steve Milloy dem DCNF, ein leitender Jurist des Energy and Environment Legal Institute. „Die Unternehmen werden in New York bleiben und die Klimaagenda mittragen, einschließlich hoher Steuern, solange die Kosten auf die Anwohner abgewälzt werden können. Wenn die Rentabilität aufhört, werden die Unternehmen abwandern… Die Kosten der Klima-Agenda sind regressiv. Die ärmeren Menschen werden sie zuerst zu spüren bekommen.“
Die Büros des demokratischen New Yorker Bürgermeisters Eric Adams und der MTA reagierten nicht sofort auf die Bitte der DCNF um Stellungnahme.
All content created by the Daily Caller News Foundation, an independent and nonpartisan newswire service, is available without charge to any legitimate news publisher that can provide a large audience. All republished articles must include our logo, our reporter’s byline and their DCNF affiliation. For any questions about our guidelines or partnering with us, please contact licensing@dailycallernewsfoundation.org.
Übersetzt von Christian Freuer für das EIKE
Abriss-Ampel vernichtet Jobs: Fast 200.000 mehr Arbeitslose im Dezember!

Zum Jahresende registrierte die Bundesagentur für Arbeit (BA) erneut mehr Menschen ohne Job. Immer deutlicher wird: Die zerstörerische Politik der Abriss-Ampel hat den Arbeitsmarkt erreicht!
Die Zahl der Arbeitslosen in Deutschland hat im Dezember 2023 im Vergleich zum November um 31.000 auf mehr als 2,63 Millionen zugenommen. Die Arbeitslosenquote stieg auf 5,7 Prozent, wie die Bundesagentur für Arbeit mitteilte. Damit gibt es in Ampel-Deutschland bereits 183.000 mehr Erwerbslose als im Dezember 2022.
The post Abriss-Ampel vernichtet Jobs: Fast 200.000 mehr Arbeitslose im Dezember! appeared first on Deutschland-Kurier.
Zivilcourage in Deutschland: Bauer stoppt Schleuser – nun ermittelt Staatsanwaltschaft gegen ihn
In Bayern haben mutige Einheimische einen Schleuser überwältigt und ihn der Polizei übergeben: Ein Landwirt, sein Sohn und ein Nachbar stoppten den Mann, der 18 syrische Migranten in einem Lieferwagen transportierte. Der Schleuser sitzt nun in Untersuchungshaft. Jedoch: Auch den drei Männern droht für ihren tapferen Einsatz ein juristisches Nachspiel. Zivilcourage ist in Deutschland offenbar unerwünscht.
Am 27. Dezember hatte ein Landwirt in Oberau (Berchtesgaden) den mutmaßlichen Schleuser zunächst auf seinem Gelände gesehen und später beobachtet, wie er mehrere Personen absetzte, die dann wegliefen. Zusammen mit seinem Sohn und einem Nachbarn hinderte er daraufhin den Transporter mit serbischem Kennzeichen am Wegfahren, indem er die Zufahrt mit einem Traktor versperrte und zudem einen Bauzaun als weitere Sperre aufstellte. Der Schleuser versuchte zu fliehen, fuhr dabei über den Bauzaun und blieb schließlich in einem Feld stecken. Die Einheimischen holten ihn aus dem Fahrzeug, überwältigten ihn und hielten ihn bis zum Eintreffen der Polizei fest – Nachbarn hatten den Notruf gewählt. Es wurde auch ein Krankenwagen angefordert, da der Serbe eine Verletzung im Gesicht hatte.
Die unerlaubt Eingereisten konnten mit einem Großaufgebot an Einsatzkräften mithilfe eines Polizeihubschraubers und einer Drohne aufgegriffen und festgenommen werden, es handelte sich um 18 Migranten aus Syrien. Fast zeitgleich hatte ein weiterer Schleuser ganz in der Nähe, in Unterau, eine Gruppe von rund 20 ausländischen Personen – lauter junge Männer, vermutlich ebenfalls aus Syrien – abgesetzt. Auch diese illegal Eingereisten konnten aufgegriffen werden.
Gegen den serbischen Schleuser wurde Haftbefehl erlassen, er sitzt in Untersuchungshaft. Aber auch das mutige Trio muss ein juristisches Nachspiel fürchten. Die Staatsanwaltschaft Traunstein prüfe nun, ob die Festnahme durch Privatpersonen verhältnismäßig abgelaufen sei, wie die “Bild” berichtet. Die drei mutigen Anwohner seien von der Polizei erneut zu dem Vorfall vernommen worden, denn der Schleuser habe angegeben, die Männer hätten ihn geschlagen.
Der Landwirt ist bestürzt, er bekräftigt: “Wir haben doch nur unsere Pflicht als Bürger getan. Der Mann hätte sein kriminelles Handeln bestimmt weitergeführt, wenn wir ihn nicht gestoppt hätten“. Und er stellt klar: „Wir haben den Mann nicht geschlagen. Vielleicht hat er seine Verletzungen ja erlitten, als er über den Bauzaun gebrettert ist“.
Täter-Opfer-Umkehr ist in diesem Land heutzutage nichts Neues. Im besten Deutschland aller Zeiten lebt es sich am besten völlig passiv, meinungslos und desinteressiert, eben wie die bekannten drei Affen: Nichts sehen, nichts hören und nichts sagen. Bleibt zu hoffen, dass ihre Zivilcourage für die drei Männer keine negativen Auswirkungen haben wird.
Warum gereifter Käse und Pilze so gut für Ihr Herz sind (und Sie auch länger leben lassen)
Die Geschichte auf einen Blick
- Polyamine wie Spermidin, Spermin und Putrescin sind Derivate von Aminosäuren, die sowohl in der Nahrung als auch in der Darmmikrobiota vorkommen und für das Wachstum und Überleben der Zellen entscheidend sind
- Polyamine haben eine starke entzündungshemmende Wirkung, schützen Ihre DNA vor Schäden durch freie Radikale und werden mit Langlebigkeit in Verbindung gebracht
- In einer Studie hatten diejenigen, die die höchsten Spermidinwerte aufwiesen, ein um 40 % geringeres Risiko für Herzversagen
Käse kann eine hervorragende Nahrungsquelle sein, vor allem wenn er aus unpasteurisierter, grasgefütterter Milch hergestellt und nach alter Tradition gereift ist. Zu den vielen wertvollen Nährstoffen in echtem Käse gehört Vitamin K2, das wichtig für die Gesundheit von Herz, Gehirn und Knochen ist. Die höchsten Mengen an Vitamin K2 finden sich in Gouda, Brie und Edamer. Andere Käsesorten mit einem geringeren, aber immer noch hohen K2-Gehalt sind Cheddar, Colby, Ziegenhartkäse, Schweizer und Gruyere.
Käse liefert auch eine Fülle anderer Vitamine (u. a. Vitamin A, D, B2 und B12), Mineralstoffe (u. a. Kalzium, Zink und Phosphor), Aminosäuren und Eiweiß sowie hochwertige gesättigte und Omega-3-Fette. In den vergangenen Jahren hat eine Reihe von Studien Käse (insbesondere Vollfettkäse) entlastet und gezeigt, dass ein höherer Käsekonsum zu einer besseren Gesundheit führt und das Gewichtsmanagement unterstützt. Zum Beispiel:
- Käse mit hohem Fettgehalt erhöht nachweislich das HDL-Cholesterin (High-Density-Lipoprotein), das als Schutz vor Stoffwechsel- und Herzkrankheiten gilt.
- Der Verzehr von Käse beugt außerdem einer Fettleber vor und verbessert die Triglycerid- und Cholesterinwerte – Parameter, die zur Beurteilung des Risikos für Herz-Kreislauf-Erkrankungen herangezogen werden.
- Vollfettkäse kann bei der Gewichtskontrolle hilfreich sein, da er den Stoffwechsel ankurbelt.
- Vornehmlich Roquefort-Käse wird aufgrund seiner entzündungshemmenden Eigenschaften mit der Gesundheit des Herz-Kreislauf-Systems und einer längeren Lebenserwartung in Verbindung gebracht.
Jetzt haben Forscher einen weiteren wichtigen Inhaltsstoff in vielen Käsesorten entdeckt, der seine positiven Auswirkungen auf die Gesundheit erklären kann.
Polyamine in Käse stehen in Verbindung mit Langlebigkeit und geringerem Krankheitsrisiko
Polyamine sind Derivate von Aminosäuren, die sowohl in der Nahrung als auch in der Darmmikrobiota vorkommen und für das Wachstum und Überleben der Zellen entscheidend sind. Polyamine wiederum enthalten Chemikalien wie Spermidin und Spermin (so benannt, weil sie ursprünglich in menschlichem Sperma entdeckt wurden) und Putrescin. Wie die Royal Society of Chemistry feststellt:
„Sperma leitet sich von Spermidin ab. Und Spermidin entsteht mit Hilfe der Spermidin-Synthase aus einem anderen Polyamin, das ursprünglich nach seiner Rolle in verrottendem Fleisch benannt wurde und Putrescin heißt … [D]iese Polyamine sind der Grund, warum Sperma und im Frühjahr einige Baumarten einen würzigen [Geruch] verströmen …“
Spermidin, Spermin und Putrescin haben alle eine starke entzündungshemmende Wirkung, schützen die DNA vor Schäden durch freie Radikale und wurden in Tierversuchen mit Langlebigkeit in Verbindung gebracht – selbst dann, wenn die Tiere die Polyamine bereits im mittleren Alter erhielten.
Bei den Polyaminen handelt es sich um positiv geladene Moleküle, die stark mit negativ geladenen Molekülen wie DNA, RNA und Proteinen interagieren. Deshalb sind sie so wichtig für zelluläre Prozesse wie Wachstum, Teilung, Differenzierung und Überleben.
Spermin schützen vor Herzerkrankungen
Studien haben wiederholt gezeigt, dass die Erhöhung des Polyamingehalts in einem Organismus (einschließlich des Menschen) die Zellaktivität steigert und die Sterblichkeitsrate senkt, und zwar teilweise durch Verbesserung der Herz-Kreislauf-Funktion und Senkung des Blutdrucks. In einer Studie, an der 800 käseliebende Italiener teilnahmen, wiesen diejenigen mit den höchsten Spermidinwerten ein um 40 % geringeres Risiko für Herzversagen auf.
In einer anderen Studie wurde nicht nur festgestellt, dass Spermin sowohl bei Tieren als auch bei Menschen einen wirksamen Schutz vor Herzkrankheiten bietet, sondern es wurde sogar festgestellt, dass es bei salzempfindlichen Mäusen den negativen Auswirkungen einer salzreichen Ernährung entgegenwirkt:
„Eine Supplementierung mit dem natürlichen Polyamin Spermidin verlängert die Lebensspanne von Mäusen und hat kardioprotektive Wirkungen, indem es die Herzhypertrophie verringert und die diastolische Funktion bei alten Mäusen erhält. Die Fütterung mit Spermidin verbesserte die kardiale Autophagie, Mitophagie und mitochondriale Atmung, und sie verbesserte auch die mechanisch-elastischen Eigenschaften der Kardiomyozyten in vivo, was mit … unterdrückten subklinischen Entzündungen einherging …
Bei salzempfindlichen Dahl-Ratten, die mit einer salzreichen Diät gefüttert wurden, einem Modell für bluthochdruckbedingte Herzinsuffizienz, senkte die Fütterung mit Spermidin den systemischen Blutdruck, erhöhte die Titin-Phosphorylierung und verhinderte eine Herzhypertrophie und eine Verschlechterung der diastolischen Funktion, wodurch das Fortschreiten der Herzinsuffizienz verzögert wurde.
Beim Menschen korrelierte eine hohe Spermidinzufuhr, die anhand von Fragebögen zur Ernährung ermittelt wurde, mit einer Senkung des Blutdrucks und einem geringeren Auftreten von Herz-Kreislauf-Erkrankungen. Unsere Ergebnisse deuten auf eine neue und praktikable Strategie zum Schutz vor Herz-Kreislauf-Erkrankungen hin“.
Polyamine helfen bei der Bekämpfung sichtbarer Alterserscheinungen und erhöhen die Lebenserwartung
Frühere Forschungsarbeiten haben gezeigt, dass transgene Mäuse, die so gezüchtet wurden, dass sie kein Spermin und Spermidin produzieren, unter Haarausfall litten, mehr Hautfalten entwickelten und früher starben als normale Mäuse, was darauf hindeutet, dass Polyamine eine wichtige Rolle bei der Bekämpfung sowohl der sichtbaren Zeichen des Alterns als auch des frühen Todes spielen.
Wichtig ist, dass Polyamine die zelluläre Autophagie fördern, was schwerwiegende Auswirkungen auf die Langlebigkeit hat. Autophagie bedeutet „Selbstverzehr“ und bezieht sich auf die Prozesse, durch die der Körper Abfälle, einschließlich Giftstoffe, beseitigt und beschädigte Zellbestandteile recycelt – Prozesse, die mit zunehmendem Alter abnehmen.
Lebenslange Fütterungsstudien mit Nagetieren haben gezeigt, dass eine spermidinreiche Ernährung die Lebenserwartung um bis zu 25 % erhöht. Umgerechnet auf den Menschen entspricht dies einer durchschnittlichen Lebenserwartung von 100 Jahren statt 81 Jahren.
Bei Tieren, denen Spermidin in einem späteren Alter verabreicht wurde, erhöhte sich die Lebenserwartung um etwa 10 %, was für einen Menschen immer noch mehrere Lebensjahre ausmachen kann. Wie Dr. Leyuan Liu, Assistenzprofessorin am Zentrum für translationale Krebsforschung des Texas A&M Institute of Biosciences and Technology, feststellte:
„Es gibt nur drei Maßnahmen, die nachweislich die Lebensdauer von Wirbeltieren verlängern: eine starke Reduzierung der Kalorienzufuhr, eine Einschränkung der Methioninmenge (eine Aminosäure, die in Fleisch und anderen Proteinen vorkommt) in der Ernährung und der Einsatz des Medikaments Rapamycin. Aber weniger zu essen und auf Fleisch zu verzichten, wird von der Bevölkerung nicht gern gesehen, und Rapamycin unterdrückt nachweislich das menschliche Immunsystem. Daher könnte Spermidin ein besserer Ansatz sein.“
Neben ihrer allgemeinen Anti-Aging-Wirkung ist die Autophagie auch einer der Mechanismen, mit denen Polyamine vor Krebs (insbesondere Leberkrebs) und der Alzheimer-Krankheit schützen.
Polyamine korrigieren die innere Uhr des Körpers
Interessanterweise hat die Forschung auch gezeigt, dass Polyamine die Fähigkeit haben, die innere Uhr des Körpers zu korrigieren, was darauf hindeutet, dass sie als natürliche Schlafhilfe dienen könnten. Ein besserer Schlaf trägt auch dazu bei, das Risiko für chronische Krankheiten – einschließlich Krebs und Alzheimer – zu senken, und ist wichtig für ein langes Leben. So die Autoren:
„Polyamine sind … in allen lebenden Zellen vorhanden. Der Polyamingehalt wird durch die Ernährung und die De-novo-Synthese aufrechterhalten, und sein Rückgang mit dem Alter wird mit verschiedenen Krankheiten in Verbindung gebracht. Hier zeigen wir, dass der Polyamingehalt täglich schwankt.
Sowohl uhrzeit- als auch ernährungsabhängige Mechanismen regulieren die tägliche Akkumulation von Schlüsselenzymen der Polyaminbiosynthese … Polyamine wiederum steuern die zirkadiane Periode in kultivierten Zellen und Tieren, indem sie die Interaktion zwischen den zentralen Uhrenrepressoren PER2 und CRY1 regulieren.
Wichtig ist, dass wir festgestellt haben, dass der Rückgang des Polyaminspiegels mit zunehmendem Alter bei Mäusen mit einer längeren zirkadianen Periode einhergeht, die durch eine Polyamin-Supplementierung in der Ernährung umgekehrt werden kann. Unsere Ergebnisse deuten auf eine Wechselwirkung zwischen der zirkadianen Uhr und der Polyaminbiosynthese hin und eröffnen neue Möglichkeiten für ernährungsbedingte Interventionen gegen den altersbedingten Funktionsverlust der Uhr.“
Fermentation erhöht den Polyamingehalt
Polyamine kommen in vielen verschiedenen Lebensmitteln vor, darunter auch in den folgenden (siehe Liste unten). Generell gilt, dass Obst und Käse den höchsten Gehalt an Putrescin, Gemüse den höchsten Gehalt an Spermidin und Fleischprodukte den höchsten Gehalt an Spermin aufweisen. Die Forschung zeigt auch, dass der Polyamingehalt durch Fermentation weiter erhöht wird.
Die mediterrane Ernährung mit ihrem hohen Anteil an frischem Gemüse und Meeresfrüchten enthält in der Regel doppelt so viele Polyamine wie die durchschnittliche Ernährung (die in der Regel einen hohen Anteil an verarbeiteten Lebensmitteln aufweist), und einige Wissenschaftler vermuten, dass der hohe Polyamingehalt der Grund für den positiven Einfluss der mediterranen Ernährung auf Gesundheit und Langlebigkeit sein könnte.
- Gereifter (fermentierter) Käse wie Blauschimmelkäse, Cheddar, Schweizer, Brie, Gruyere, Manchego, Gouda und Parmesan
- Schalentiere, einschließlich Tintenfisch, Austern, Krabben und Jakobsmuscheln
- Fermentierte Lebensmittel wie Sauerkraut und Miso
- Kreuzblütiges Gemüse wie Brokkoli, Blumenkohl
- Grünes Blattgemüse
- Birnen
- Pilze
- Grüne Erbsen
- Weizenkeime
- Grüner Matcha-Tee
- Nüsse und Samen, einschließlich Haselnüsse, Mandeln, Pistazien und Erdnüsse
- Hühnerleber
Mögliche Kontraindikationen
Einige Wissenschaftler und Onkologen warnen davor, dass eine polyaminreiche Ernährung für Menschen mit Schuppenflechte kontraindiziert sein könnte, da die schnelle Regeneration der Hautzellen die Krankheit und bestimmte polyaminempfindliche Krebsarten wie Prostatakrebs verschlimmern kann. Wie in einer Studie festgestellt:
„…Die Unterschiede im biologischen [Verhalten] von Prostata(krebs)zellen stehen in Zusammenhang mit Veränderungen des Polyamingehalts und/oder der Aktivität ihrer Stoffwechselenzyme. Eine fehlerhafte antienzymatische Regulation der Polyamin-Homöostase könnte eine wichtige Rolle beim Wachstum und Fortschreiten des Prostatakarzinoms spielen.
Die Behandlung menschlicher Prostatakarzinomzellen mit Inhibitoren von Polyamin-Stoffwechselenzymen oder Polyamin-Analoga führt zu einem Stillstand des Zellwachstums oder zum (apoptotischen) Zelltod.“
Essen Sie echte Lebensmittel für eine optimale Gesundheit
Wenn Sie Käse lieben, gibt es viele Hinweise darauf, dass echter Käse ein Segen für Ihre Gesundheit ist, und es gibt keinen Grund, ihn aus Angst vor seinem Fettgehalt zu meiden. Die gesunden Fette, die in echtem Käse enthalten sind, machen weder dick noch tragen sie zu Herzkrankheiten bei. Ganz im Gegenteil: Diese Fette unterstützen Ihren Erfolg beim Abnehmen und senken Ihr kardiovaskuläres Gesundheitsrisiko.
Allerdings sollten Sie darauf achten, dass Sie echten Käse essen. Echter Käse ist ein einfaches fermentiertes Milchprodukt, das mit nur wenigen Grundzutaten hergestellt wird: Milch, Starterkulturen, Salz und ein Enzym namens Lab. Salz ist eine wichtige Zutat für Geschmack, Reifung und Konservierung.
Einen natürlichen Käse erkennen Sie an seinem Etikett, auf dem der Name der Käsesorte angegeben ist, z. B. „Cheddar“, „Blauschimmelkäse“ oder „Brie“. Echter Käse muss außerdem gekühlt werden. Schmelzkäse wird in der Regel pasteurisiert und mit einer Vielzahl von Zusatzstoffen verfälscht, die seinen Nährwert mindern. Der Hinweis auf dem Etikett ist das Wort „pasteurisiert“.
Eine längere Zutatenliste ist eine weitere Möglichkeit, Schmelzkäse von echtem Käse zu unterscheiden. Velveeta ist ein Beispiel dafür, mit Zusatzstoffen wie Natriumphosphat, Natriumzitronat und verschiedenen Farbstoffen. Ein letztes Indiz ist, dass die meisten Schmelzkäse nicht gekühlt werden müssen. Ob Velveeta, Cheese Whiz, Quetschkäse, Sprühkäse oder ein anderes Imitat – dies sind keine echten Käsesorten und haben keinen Wert.
Auch wenn Sie keinen Käse mögen, gibt es viele andere Lebensmittel, die reich an Polyaminen sind, wie Sie aus der obigen Liste ersehen können, wobei fermentierte Lebensmittel und Getränke einige der höchsten Gehalte aufweisen. Mit einer mediterranen Ernährung können Sie sicherstellen, dass Sie reichlich von diesen entzündungshemmenden, alterungshemmenden Stoffen zu sich nehmen.
Quellen:
- 1 American Journal of Clinical Nutrition August 24, 2016 [Epub ahead of print]
- 2 Telegraph September 20, 2016
- 3 Dairy Science and Technology July 2016; 96(4): 539-549
- 4 Telegraph October 22, 2009
- 5 Journal of Agricultural and Food Chemistry 2015; 63(10): 2830-2839
- 6 Medical Hypotheses December 2012; 79(6):746-9
- 7 Telegraph December 17, 2012
- 8, 10, 13 Royal Society of Chemistry, Spermine and Spermidine
- 9, 15 Medical Daily November 16, 2016
- 11, 28 Boston CBS November 16, 2016
- 12 Nature Medicine 2016; 22: 1428-1438
- 14 Microbial Cell 1(4): 110-114
- 16, 20 Cancer Research January 2017, DOI: 10.1158/0008-5472.CAN-16-3462
- 17, 21 Medical News Today April 24, 2017
- 18, 19 Science Daily April 21, 2017
- 22 Cell November 2015; 22(5): 874-885
- 23 Easy Health Options, These 14 Foods Turn Back Time
- 24, 27 Front Nutr. 2019; 6: 108. July 11, 2019. Polyamines in Food
- 25, 30 Healing Psoriasis, Polyamines
- 26 Food and Nutrition Research 2011; 55: 10.3402/fnr.v55i0.5572
- 29 Express.co.uk April 27, 2017
- 31 Biochemical Societal Transactions 2003 Apr;31(2):375-80
Gehirnwäsche: Mit dieser kranken Micky Maus-Kopie schürten die Hamas Judenhass bei Kindern
Micky Maus ist am 1. Januar zum Allgemeingut geworden: Das Urheberrecht an der Disney-Figur ist erloschen. Während Filmemacher das zum Anlass nehmen, den Charakter für einen Horrorfilm zu nutzen, existierte im Gazastreifen schon lange zuvor eine schockierende Kopie der eigentlich so harmlosen Maus: Unter dem Namen “Farfour” ließ die Terrororganisation Hamas das Micky-Imitat Judenhass im Fernsehen verbreiten und betrieb so effektive Gehirnwäsche bei Kleinkindern.
“Farfour” war zwischen April und Juni 2007 im Kinderprogramm des Hamas-Senders Al-Aqsa zu sehen und bläute den jungen Zuschauern im Gazastreifen ein, dass Juden für alle Probleme der Welt verantwortlich wären. Mit offenem Antisemitismus sollten die Kinder radikalisiert werden. Ein Clip, der in den sozialen Netzen kursiert, zeigt etwa, wie die Maus von einem anderen Schüler abschreibt und erwischt wird. Farfour erklärt daraufhin, er habe das gar nicht tun wollen – Schuld seien die Juden, denn die hätten sein Haus zerstört und er habe deswegen seine Notizbücher nicht finden können.
In einem anderen Video soll Farfour laut Medienberichten die islamische Herrschaft mit folgenden Worten propagiert haben: „Wir, die Pioniere von morgen, werden dieser Nation ihren Ruhm zurückgeben, und wir werden Al-Aqsa und den Irak mit Allahs Willen befreien, und wir werden die muslimischen Länder befreien, die von Mördern überfallen wurden.“
Im Juni 2007 wurde die Figur dann in einem Clip ermordet. Gezeigt wurde dort ein Israeli, der der Maus sagt, man wolle für viel Geld ihr Land kaufen. Farfour antwortet: “Nein, wir verkaufen unser Land nicht an Terroristen.“ Schließlich wird das Micky Maus-Imitat brutal erstochen. Ein Kind sagt dann zu den Zuschauern: „Farfour wurde zum Märtyrer, während er sein Land beschützte.“
Die Micky Maus-Kopie bekam aber alsbald einen Nachfolger: Nach ihm setzte eine optisch ähnlich harmlos wirkende Biene die Gehirnwäsche bei den jungen Fernsehzuschauern fort. Gegenüber Al Jazeera gab man damals an, man plane noch weitere Charaktere, um den Kindern die “Botschaft” zu vermitteln.
Die Daily Mail berichtet in einem aktuellen Artikel von weiteren Maßnahmen der Hamas, um Kinder zu radikalisieren: So sei im Sommer das “Shields of Jerusalem”-Sommercamp wiedereröffnet worden, in dem Kinder jeden Alters im Umgang mit Waffen wie beispielsweise AK-47, Scharfschützengewehren und Raketenwerfern geschult werden. Die Terroristen, die Angriffe gegen Israel durchführten, werden dort als Helden und Vorbilder präsentiert; Portraits von ihnen seien überall im Camp zu sehen. Israelische Flaggen würden derweil auf dem Boden drapiert werden, damit die Kinder über sie hinweglaufen.
Tagesthemen: Israel „zündelt“ durch Tötung eines Hamas-Funktionärs

Von SARAH GOLDMANN | Das schwache Verb „zündeln“ wird in dem negativen Sinne gebraucht, dass jemand „leichtsinnig mit Feuer spielt.“ Leichtsinnig, also ohne über die Folgen nachzudenken, mit Feuer spielen, also riskieren, dass ein Brand ausbricht, bei dem Menschen oder Sachen zu Schaden kommen können. ARD-Moderatorin Jessy Wellmer vertrat diese ihre Sicht am Dienstagabend in […]
Wissenschaftliche Meta-Analysen sind kaputt
Von Toby Rogers
Alle Menschen, die guten Willens sind, sollten von den Informationen, die ich im Folgenden darlege, beunruhigt sein.
Ich habe acht Jahre gebraucht, um herauszufinden, wie man dieses Problem beschreiben kann, und es ist gewaltig – es bedroht die Existenz der Menschheit.
I. Wie systematische Überprüfungen und Meta-Analysen funktionieren sollen
Stellen Sie sich eine Welt vor, in der Wissenschaftler, Ärzte, Behörden und die breite Öffentlichkeit tatsächlich Wert auf qualitativ hochwertige Daten legen würden. Wir alle wissen, dass es eine solche Welt nicht gibt. Aber stellen wir uns als Gedankenexperiment vor, dass jeder, der mit Wissenschaft und Medizin zu tun hat, wirklich an qualitativ hochwertigen Daten interessiert wäre, um angemessene medizinische Entscheidungen zur Verbesserung der Gesundheit zu treffen.
Selbst mit den besten Absichten ist es ziemlich schwierig, genaue Schlussfolgerungen über medizinische Eingriffe zu ziehen. Da jeder Mensch anders ist, gibt es bei jeder untersuchten Personengruppe enorme Schwankungen. Jeder chemische oder biologische Eingriff hat eine Reihe von Auswirkungen. Andere Faktoren – das Wetter, das Frühstück, vorhandene Chemikalien im Körper, hormonelle Zyklen usw. – können die Forschungsergebnisse beeinflussen. Und bei jeder klinischen Studie gibt es immer wieder Fehler bei der Verabreichung, der Protokollierung, der Berichterstattung usw.
Um einige dieser Probleme zu überwinden, werden große Datensätze gesucht. Je größer der Datensatz, desto besser, denn so können sich die verschiedenen kleinen natürlichen Schwankungen gegenseitig ausgleichen, sodass man nach den größeren Signalen für Sicherheit und Wirksamkeit suchen kann.
Da Menschen immer voreingenommen sind, werden doppelblinde, randomisierte, kontrollierte Studien durchgeführt, sodass die Prüfer selbst nicht wissen, wer die medizinische Intervention erhalten hat.
Große, gut durchgeführte, doppelblinde, randomisierte, kontrollierte Studien sind jedoch kostspielig. Eine Möglichkeit, das Problem der geringen Stichprobengröße zu lösen, besteht darin, viele verschiedene klinische Studien in einer systematischen Überprüfung oder Metaanalyse zusammenzufassen.
Bei einer systematischen Überprüfung formuliert man eine Forschungsfrage, identifiziert die Schlüsselwörter oder Phrasen, die mit dieser Frage verbunden sind, und führt dann eine Suche in hochwertigen medizinischen Datenbanken (Google Scholar, PubMed usw.) durch, um alle Studien zu dieser Frage über einen bestimmten Zeitraum (z. B. die letzten zehn oder zwanzig Jahre) zu ermitteln. Dann liest man die Studien durch, um festzustellen, ob sie durch Verzerrungen oder minderwertige Methoden verunreinigt sind, und verwirft sie. Dann fasst man die verbleibenden qualitativ hochwertigen Studien zusammen, um zu sehen, ob die Ergebnisse übereinstimmen, und um Bereiche zu ermitteln, in denen es Unstimmigkeiten gibt.
Bei einer Meta-Analyse folgt man denselben anfänglichen Schritten wie bei einer systematischen Überprüfung (Formulierung einer Forschungsfrage, Identifizierung von Schlüsselwörtern, Auffinden aller relevanten Studien, Lesen dieser Studien und Verwerfen von Studien mit geringer Qualität). Dann beschafft man die Daten all dieser Studien (sie sind oft online verfügbar oder man kann die Forscher schriftlich darum bitten) und fasst diese Daten zusammen, um einen riesigen Datensatz zu erstellen. Schließlich führt man die Analyse (zur Sicherheit oder Wirksamkeit) an dieser neuen, größeren Stichprobe durch.
Das Problem, wie man zu verlässlichen, reproduzierbaren medizinischen Ergebnissen kommt, ist so groß, dass sich ein ganzer Bereich entwickelt hat, der als evidenzbasierte Medizin bezeichnet wird und Klinikern helfen soll, die verfügbaren Daten zu sichten. Es werden „Evidenzhierarchien“ erstellt, die den Ärzten helfen sollen, die Zuverlässigkeit der verschiedenen Formen von Evidenz zu bewerten. An der Spitze der meisten Evidenzhierarchien stehen zwangsläufig systematische Überprüfungen und Meta-Analysen – weil sie über die größten Datensätze verfügen.

So soll das System funktionieren.
II. Die Realität
Wie entscheidet man, welche Studien man einbezieht und welche ausschließt?
Es ist gängige Praxis, alle Studien, bei denen es sich nicht um doppelblinde, randomisierte, kontrollierte Studien handelt, von einer systematischen Überprüfung oder Metaanalyse auszuschließen.
Wir wissen jedoch, dass Pharmaunternehmen mithilfe von Auftragsforschungsinstituten herausgefunden haben, wie sie RCTs manipulieren können, um ihre bevorzugten Ergebnisse zu erzielen. (Kapitel 5 meiner Dissertation geht hervorragend auf diesen Punkt ein.) Auftragsforschungsinstitute wählen gesunde junge Menschen ohne Vorerkrankungen aus, um die Wahrscheinlichkeit von Nebenwirkungen zu verringern, verwenden eine lange Anlaufzeit und werfen Menschen aus der Studie, die erste Nebenwirkungen zeigen, werfen Menschen aus der Studie, weil sie die Notaufnahme aufsuchen (weil sie gegen das Studienprotokoll verstoßen), und andere Tricks, um den Pharmaunternehmen jedes Mal günstige Ergebnisse zu liefern.
Der gesunde Menschenverstand würde nahe legen, jede Studie auszuschließen, die durch einen Interessenkonflikt belastet ist. In der Tat gibt es ein ganzes Forschungsgebiet, das sich mit dem „Finanzierungseffekt“ befasst. Wie der Name schon sagt, konzentrieren sich diese Studien darauf, wie finanzielle Interessenkonflikte die Forschungsergebnisse beeinflussen. Diese Studien stellen allgemein fest, dass JEDER finanzielle Interessenkonflikt, egal wie klein er ist – buchstäblich ein einziges Stück Pizza – die Forschungsergebnisse in Richtung des Geldgebers verändert. Das Vorhandensein eines finanziellen Interessenkonflikts bedeutet also, dass die Ergebnisse die zugrunde liegende Realität nicht genau widerspiegeln werden. Von allen Erkenntnissen der modernen Wissenschaft ist der Finanzierungseffekt der größte, zuverlässigste und am besten reproduzierbare.
Übrigens gibt es weder so etwas wie eine geringe noch eine überschaubare Verzerrung. Sobald ein finanzieller Interessenkonflikt auftritt, verschieben sich die Ergebnisse in Richtung des Geldgebers – aber das Ausmaß des Effekts ist unvorhersehbar.
Bei einer ordnungsgemäßen systematischen Überprüfung oder Meta-Analyse werden also nur RCTs verwendet, aber selbst RCTs werden häufig von der Pharmaindustrie manipuliert, und Studien mit finanziellen Interessenkonflikten, egal wie gering, sollten ausgeschlossen werden.
III. Es ist unmöglich, eine angemessene systematische Überprüfung oder Meta-Analyse der gängigen Impfstoffliteratur durchzuführen
A. Die Zensur ist extrem.
Die Professoren an den Universitäten zensieren sich selbst, damit sie ihre Stelle nicht verlieren. Sie führen buchstäblich keine Studie durch, die möglicherweise Schäden durch Impfstoffe aufzeigen könnte, weil sie nicht auf eine schwarze Liste gesetzt werden wollen.
Wissenschaftliche Fachzeitschriften blockieren die Veröffentlichung jeder Studie, die Schäden durch Impfstoffe aufzeigt. Sie schaffen es nicht einmal bis zum Peer Review. Sie wird schlichtweg abgelehnt.
Datenbanken wie Google und Google Scholar blockieren den Zugang zu kritischen Studien. Es ist also so, als hätte es diese Studien nie gegeben.
B. Es gibt keine allgemein anerkannten RCTs.
Die Impfstoffindustrie behauptet, dass es unethisch wäre, eine ungeimpfte Kontrollgruppe zu haben, weil Impfstoffe „sicher und Effective
“ sind. Dies ist ein Beispiel für den „Zirkelschluss“ – ein Argument, das davon ausgeht, dass genau das, was es zu beweisen versucht, wahr ist. Aber bisher sind sie damit durchgekommen, und sie führen einfach keine RCTs von Impfstoffen durch (wie von ICAN bewiesen).
C. Alle gängigen Studien zur Sicherheit und Wirksamkeit von Impfstoffen sind durch finanzielle Interessenkonflikte kontaminiert.
Die Studien werden entweder direkt von Pharmaunternehmen (über Auftragsforschungsinstitute) oder von Wissenschaftlern durchgeführt, die Geld von Pharmaunternehmen erhalten.
Nach den Standardregeln der evidenzbasierten Medizin muss man also alle Studien, auf die sich NIH, FDA, CDC und die Mainstream-Medien im Allgemeinen stützen, um zu behaupten, dass Impfstoffe sicher und wirksam sind, aus jeder systematischen Überprüfung oder Metaanalyse ausschließen. Wenn man eine echte evidenzbasierte Medizin betreiben will, muss man zugeben, dass die derzeitigen Beweise, auf die man sich bei Impfentscheidungen im Allgemeinen stützt, wissenschaftlich bedeutungslos sind.
IV. Wie würde eine ordnungsgemäße systematische Überprüfung oder Meta-Analyse der Sicherheit und Wirksamkeit von Impfstoffen eigentlich aussehen?
Denken Sie daran, dass wir uns in unserem Gedankenexperiment eine Welt vorstellen, in der „jeder, der mit Wissenschaft und Medizin zu tun hat, wirklich qualitativ hochwertige Daten wünscht, um angemessene medizinische Entscheidungen zur Verbesserung der Gesundheit zu treffen“. Okay, wie würde das aussehen?
Ich habe bereits gezeigt, dass man alle Mainstream-Impfstoffstudien ausschließen muss, weil keine von ihnen RCTs sind und alle durch finanzielle Interessenkonflikte verunreinigt sind. Das ist nicht meine Meinung, das sind einfach die Regeln der evidenzbasierten Medizin.
Um die Wahrheit – die besten und zuverlässigsten Beweise – zu finden, müsste man also den Mainstream verlassen und eine neue Art von systematischer Überprüfung oder Meta-Analyse durchführen.
Man müsste eine Forschungsfrage formulieren (z. B. „Stehen Impfstoffe im Zusammenhang mit Diabetes?“), die entsprechenden Schlüsselwörter ermitteln und dann eine vollständige Suche in alternativen Quellen und der so genannten „grauen Literatur“ (die in der Regel zensiert und unterdrückt wird) durchführen:
- The Defender/Children’s Health Defense,
- The Highwire/ICAN,
- The Vaccine Reaction/NVIC,
- Mercola,
- Trial Site Nachrichten,
- Substack (wo z. B. A Midwestern Doctor bessere Arbeit leistet als die NIH, FDA und CDC zusammen),
- Brownstone-Institut,
- Internationale Forschungsarbeiten (die beste Impfstoffforschung findet außerhalb der USA statt),
- Arbeitspapiere auf SSRN,
- Zurückgezogene Papiere (die Pharmaindustrie verlangt den Rückzug jedes Papiers, das über das Ziel hinausschießt, so dass man die Rückzugsmitteilung und das zugrunde liegende Papier selbst bewerten muss),
- Bücher (die die Zensur umgehen),
- Erfahrungsberichte in Blogs und Zeugenaussagen von Kriegsmüttern und -vätern (unter Verwendung anderer Suchmaschinen als Google),
- Gerichtsverhandlungen, einschließlich Zeugenaussagen und eidesstattliche Erklärungen,
- Zeugenaussagen von Gesetzgebern und
- Dokumente, die über FOIA-Anfragen zur Verfügung gestellt wurden,
- zusätzlich zu Google Scholar, PubMed und anderen gängigen Datenbanken.
Dies ist ein sehr viel schwierigerer Prozess (er erfordert mehr Aufwand und setzt einen der Zensur und der Aufnahme in schwarze Listen aus). Deshalb tun es die Leute nicht. Aber wenn man wirklich eine ordentliche systematische Überprüfung oder Meta-Analyse der Impfstoff-Beweise durchführen will, dann würde man das so machen.
Und ja, es gibt über 100 Studien, in denen Geimpfte mit Ungeimpften verglichen wurden, die durch natürliche Experimente und andere clevere Studiendesigns zustande kamen. In Anbetracht der in Abschnitt II dieses Aufsatzes aufgezeigten Probleme mit RCTs bin ich jedoch der Meinung, dass eine angemessene systematische Überprüfung oder Metaanalyse von Impfstoffen auch andere Erkenntnismöglichkeiten als RCTs umfassen sollte.
Systematische Überprüfungen und Meta-Analysen sollten nicht nur ein Spiegelbild der Macht sein – wer kann die meisten RCTs finanzieren, wer kann die meisten statistischen Zaubereien durchführen. Es sollte darum gehen, die qualitativ hochwertigsten Informationen zu sammeln, wo immer wir sie finden können, um ein möglichst umfassendes Bild eines Problems und einer vorgeschlagenen Lösung zu erhalten.
V. Was ist mit dem „Finanzierungseffekt“ bei skeptischen Studien?
Lassen Sie uns einen Moment über mögliche Interessenkonflikte unter den Forschern im Exil sprechen.
Das Team Vaccine (z. B. Offit, Hotez und Reiss, die alle Millionen von Dollar mit dem Iatrogenozid verdienen) weist oft darauf hin, dass man mit dem Kampf für die Aufdeckung von Impfschäden Geld verdienen kann. Es ist nicht annähernd so viel wie die Hunderte von Milliarden Dollar, die die Pharmaindustrie jährlich mit Impfstoffen und dem Verkauf von Behandlungen für Impfschäden einnimmt – aber es ist auch nicht null. CHD, ICAN, Mercola usw. nehmen jedes Jahr einige Millionen Dollar ein, die sie dazu verwenden, eine Bewegung aufzubauen, um den Iatrogenozid zu stoppen. Unabhängige Wissenschaftler wie Jeremy Hammond, Jennifer Margulis und ich können etwas mehr als nur den Lebensunterhalt damit verdienen, die Wahrheit zu berichten.
(Ich sollte auch darauf hinweisen, dass das Team Vaccine sich der Tatsache nicht bewusst zu sein scheint, dass sie sich selbst und ihre Studien in diesem Prozess angeklagt haben).
Ich möchte jedoch dafür plädieren, dass jede vernünftige Definition eines finanziellen Interessenkonflikts aus den folgenden Gründen nicht auf die alternative und graue Literatur (und Impfstoffskeptiker im Allgemeinen) zutrifft:
- Wir würden uns liebend gerne irren. Um nur meine eigene Erfahrung als Beispiel zu nehmen – ich bin acht Jahre lang jeden Abend zu Bett gegangen und jeden Tag aufgewacht, in der Hoffnung und im Gebet, dass ich mich in Bezug auf die Schädlichkeit von Impfstoffen irre. Ich habe einmal drei Tage damit verbracht, alle möglichen Arten von logischen Fehlschlüssen zu lesen und sie einen nach dem anderen auf meine Arbeit anzuwenden, um zu sehen, ob ich falsch lag. (Hatte ich nicht. Allerdings passen die verschiedenen Listen der logischen Irrtümer eigentlich ganz gut zu den Handlungen der Mainstream-Impfstoffverfechter). Wenn sich herausstellt, dass ich falsch liege, werde ich einer der glücklichsten Menschen der Welt sein. Und das gilt für die gesamte Bewegung – wir würden uns alle gerne irren. Doch die Beweise dafür, dass Impfstoffe enormen Schaden anrichten, werden jeden Tag zahlreicher.
- Wenn wir einen methodischen Fehler machen, werden wir von der Pharmaindustrie und ihren gut bezahlten Funktionären in Stücke gerissen. Die Pharmaindustrie beobachtet und liest alles, was wir tun, auf der Suche nach dem kleinsten Fehltritt, damit sie sich darauf stürzen und dann behaupten können, dass alle gegenteiligen Beweise falsch sind. Anders ausgedrückt: Impfskeptiker unterziehen sich der strengsten Peer-Review aller Wissenschaftler auf der Welt, und wenn Fehler gemacht werden, werden sie schnell aufgedeckt, öffentlich bekannt gegeben und weitverbreitet.
Natürlich missfällt der Pharmaindustrie jede Studie, die Schäden aufzeigt. Aber im Laufe des Prozesses entsteht eine umfangreiche Sekundär- und Tertiärliteratur, wenn die Pharmaindustrie angreift und die Wissenschaftler ihre Arbeit verteidigen. Man muss sie alle lesen, aber mit der Zeit wird ziemlich klar, welche Wissenschaftler sich bewährt und welche Studien einer strengen Prüfung standgehalten haben und in eine systematische Überprüfung oder Meta-Analyse aufgenommen werden sollten. Skeptische Wissenschaftler sind in der Regel schlauer und schneller als das Team Vaccine, weil wir Kritik und Infragestellung willkommen heißen und dadurch unsere Fähigkeiten Jahr für Jahr verbessern.
- Ja, man kann mit der Arbeit im Widerstand Geld verdienen, aber jeder, der daran arbeitet, die Schäden von Impfstoffen zu verstehen, verdient weit weniger Geld, als er verdienen würde, wenn er die Standarddarstellung akzeptieren würde. Es scheint weit hergeholt zu behaupten, dass jemand, der Hunderttausende von Dollar oder sogar Millionen von Dollar an Lebenseinkommen verliert, um die Wahrheit zu sagen, irgendwie einen finanziellen Interessenkonflikt hat. In der Tat könnte man argumentieren, dass unsere Arbeit das Gegenteil eines finanziellen Interessenkonflikts ist.
- Der Mißbrauch des Gesetzgebungsverfahrens durch die Pharmaindustrie und die Vereinnahmung der Regierung und der akademischen Welt haben die Notwendigkeit einer Freiheitsbewegung zur Finanzierung alternativer Forschung überhaupt erst geschaffen. Gäbe es keinen Haftungsschutz, hätten die Anwälte der Kläger Hunderte von Millionen Dollar für Studien zur Sicherheit von Impfstoffen finanziert (genau wie bei anderen toxischen Produkten), der Impfplan würde nicht existieren, und es gäbe keine Epidemie von Impfschäden in diesem Land.
Wäre die Regierung nicht von der Pharmaindustrie beherrscht, hätte sie unabhängige Studien zur Impfstoffsicherheit finanziert. Die Vereinnahmung des politischen Systems, der Aufsichtsbehörden und des Prozesses der Wissensproduktion in Wissenschaft und Medizin durch die Pharmaindustrie – und die damit einhergehende Korrumpierung – hat eine Freiheitsbewegung erforderlich gemacht, da es andernfalls überhaupt keine ehrliche Forschung geben würde. Das Auftreten unabhängiger Bürger, die die Lücke füllen, die durch die Korruption der Industrie, die Feigheit der Wissenschaft und das völlige Versagen der Regierung entstanden ist, ist kein Interessenkonflikt, sondern Patriotismus, Demokratie, Überleben, echte Wissenschaft und einfach nur Anstand.
VI. Schlussfolgerung
Richtige Wissenschaft ist schwierig. Es gibt einfach eine große Variabilität beim Menschen, und die überwiegende Mehrheit der vorgeschlagenen medizinischen Eingriffe bringt keinen Nutzen. Eine Möglichkeit, die wissenschaftliche Forschung zu verbessern, besteht darin, wirklich große Stichproben zu nehmen. Aber solche Studien sind teuer. Wissenschaftliche Ergebnisse lassen sich durch systematische Überprüfungen und Meta-Analysen verbessern, bei denen die Ergebnisse aller bisherigen hochwertigen Studien zu einem Thema zusammengefasst werden. Die evidenzbasierte Medizin verlangt, dass Studien, bei denen es sich nicht um RCTs handelt und die durch finanzielle Interessenkonflikte gekennzeichnet sind, von systematischen Übersichten und Meta-Analysen ausgeschlossen werden sollten.
Im Zusammenhang mit Impfstoffen gibt es keine gängigen RCTs, und alle gängigen Impfstoffstudien sind durch finanzielle Interessenkonflikte kontaminiert. Daher ist es unmöglich, eine ordnungsgemäße systematische Überprüfung oder Meta-Analyse von Impfstoffen anhand von Mainstream-Studien durchzuführen. Darüber hinaus legt die Fähigkeit der Pharmaindustrie, RCTs zu manipulieren, nahe, dass man zusätzliche Arten von qualitativ hochwertigen Daten einbeziehen sollte, um die Forschungsergebnisse zu verbessern.
Der beste Weg, eine systematische Überprüfung oder Meta-Analyse des Nutzens und Schadens von Impfstoffen durchzuführen, besteht darin, sich alternativen Quellen und der „grauen Literatur“ zuzuwenden, indem man die Ergebnisse der führenden skeptischen Gruppen (CHD, ICAN, Mercola und andere) durchsucht. Es gibt mehr als 100 Studien, in denen Impfungen im Vergleich zu ungeimpften Personen untersucht wurden und die Schäden durch Impfstoffe belegen. Wir sollten aber auch ein breiteres Spektrum von Studien einbeziehen, um ein möglichst umfassendes Verständnis der Risiken von Impfstoffen zu erhalten.
Einige Beteiligte, die in einen Konflikt geraten sind, befürchten, dass auch die aufständischen Forscher in einen Konflikt geraten sind. Aber eine skeptische Haltung gegenüber den eigenen Ergebnissen („wir würden uns gerne irren“), eine genaue Prüfung durch feindselige Außenstehende und die enormen finanziellen Verluste, die mit der Wahrheit verbunden sind, sind Gründe dafür, dass diese Ergebnisse zu Recht als die zuverlässigsten Beweise angesehen werden, die wir haben. Außerdem sollte man verstehen, dass es kein Interessenkonflikt ist, angesichts der weit verbreiteten Lügen von Industrie, Regierung und Wissenschaft die Wahrheit zu sagen; es ist mutig, ehrenhaft und repräsentiert das Beste des menschlichen Geistes.
Orbáns Europa-Vision: Mehr de Gaulle, weniger Churchill
Der ungarische Ministerpräsident Viktor Orbán plädierte in seiner Zürcher Rede für die Emanzipation Europas von Washington und gegen die Zentralisierung in der EU.
Anlässlich des 90. Geburtstags der Wochenzeitung «Die Weltwoche» wurde der ungarische Ministerpräsident Viktor Orbán am 22. November nach Zürich eingeladen, um eine Rede zu halten. Die Veranstaltung mit dem Titel «Zürcher Rede» sollte an Winston Churchills historische Rede an der Universität Zürich vom Jahr 1946 erinnern. Diesmal fand das Referat jedoch nicht in der Aula der Universität, sondern in der «Gallery» des Luxushotels «The Dolder Grand» statt.
Orbán nutzte die Gelegenheit und traf sich einen Tag zuvor mit dem Schweizer Bundespräsidenten Alain Berset und dem Schweizer Aussenminister Ignazio Cassis. Thema der Gespräche waren unter anderem die Beziehungen zur Europäischen Union.
Erwerbstätigkeit gestiegen, BIP geschrumpft
Das Statistische Bundesamt hat im November 2023 einen Rückgang des BIP 0,3 Prozent prognostiziert. Das entspricht etwa 11 Milliarden Euro. Eine Zahl, die uns inzwischen viel zu klein vorkommt, um sich noch darüber aufzuregen. Dennoch muss festgehalten werden: Es hat kein Wachstum gegeben. Das ist fatal. Ich komme gleich noch darauf zurück.
Zum Schrumpfen der Wirtschaft passt allerdings überhaupt nicht, dass die Zahl der Erwerbstätigen gegenüber dem Vorjahr um 0,7 Prozent auf 45,9 Millionen zugenommen hat. Dafür gibt es allerlei Erklärungsmöglichkeiten, doch eines lässt sich nicht wegerklären: Die Produktivität der Beschäftigten ist gesunken.
Deutschland hat mehr Erwerbstätige benötigt,
um weniger BIP zu erzeugen.
Irreführend wäre es

