Kategorie: Nachrichten
Während Bürger jeden Cent umdrehen: Queer-Beauftragte streicht 15.000 € im Monat ein
Neues Jahr, steigende Kosten: Die abermals hochgedrehte CO2-Bepreisung verteuert das Leben in Deutschland aktuell in allen Bereichen, und das, wo seit der politisch herbeigeführten Energiepreisexplosion ohnehin keine Entspannung in Sicht war. Wie soll man das auffangen? Wir hätten da einen Berufsvorschlag für Sie, für den keine Qualifikation notwendig ist, der aber großzügigst bezahlt wird: Politiker. Genauer: Queer-Beauftragter!
Ein Kommentar von Vanessa Renner
Für sinnvolle Errungenschaften oder gar hilfreiche Reformen für den Bürger ist Sophie Koch nicht bekannt. Bekannt ist sie den meisten Bürgern wohl in Wahrheit gar nicht – ihre gehaltvollen Redebeiträge und Bildkacheln aus alten Juso-Zeiten bestanden etwa darin, AfD-Politiker als “Scheißnazis” zu bezeichnen oder den Leitspruch gewaltbereiter Linksextremisten, “Antifaschismus ist Handarbeit”, in den sozialen Netzen zu verbreiten, wie die NZZ zusammenfasste.
Dennoch verbrennt diese Personalie monatlich knapp 15.000 Euro Steuergelder – für das Schwenken von Regenbogenflaggen oder sonstiges “queeres” Gedöns. Sie ist nämlich “Queer-Beauftragte” – sprich: “Beauftragte der Bundesregierung für die Akzeptanz sexueller und geschlechtlicher Vielfalt”.
Dieser Betrag setzt sich aus folgenden Posten zusammen:
- Diät als sächsische Landtagsabgeordnete: 7.315,70 Euro im Monat
- Zusätzliche steuerfreie Kostenpauschale: mind. 4054,93 Euro im Monat (abhängig vom Wohnort / Entfernung zu Dresden)
- Aufwandsentschädigung als Queer-Beauftragte: 43.000 Euro im Jahr, also rund 3.580 Euro im Monat
Na, würden Sie für so viel Geld auch ein paar bunte Fähnchen schwenken und von 50, 500, 5.000 Geschlechtern fabulieren? Zur satten Aufwandsentschädigung als Queer-Beauftragte kommen laut Haushaltsplanungen für 2026 noch “Verwaltungsausgaben” von 700.000 Euro – etwa “für Broschüren-Veröffentlichungen”. Den Nutzen für den Steuerzahler dieser “Broschüren” können wir uns ausmalen.
Solche Sinnlos-Posten stehen sinnbildlich für eine Republik, die sich nicht dem Bürger verpflichtet fühlt, sondern längst zum Selbstbedienungsladen verkommen ist. Figuren wie Koch streichen für dubiose Ämter Tausende Euro im Monat ein, auf Kosten des Steuerzahlers, der unter horrenden Abgaben ächzt und für diesen ideologischen Firlefanz blutet, während reale Probleme links liegen gelassen werden. Das ist sie, die sozialistische “Gerechtigkeit”!
Hier zeigt sich (wieder einmal) der beispiellose Verlust von Bodenkontakt einer politischen Kaste, die sich in ihren Regenbogen-Blasen abschottet, Haushalte und Steuergelder im Allgemeinen als Buffet betrachtet und die arbeitende Bevölkerung als Melkkuh missbraucht, ohne je Rechenschaft abzulegen oder Sinn und Nutzen solcher Ämter rechtfertigen zu können.
„Beflügelt von Venezuela, richten die USA ihren Blick auf Kuba, Kolumbien und andere Länder“
Meinungsfreiheit: CDU-Genosse Daniel Günther gerät zunehmend unter Druck

Die demokratiefeindlichen Aussagen des schleswig-holsteinischen Ministerpräsidenten Daniel Günther (CDU) zur Presse- und Meinungsfreiheit sorgen weiterhin für Empörung. Selbst die linksgrün-woke „Bild“-Chefredakteurin Marion Horn bezieht klar Position: Entweder Günther entschuldigt sich oder er muss zurücktreten!
Der renommierte Hamburger Medienanwalt Joachim Steinhöfel hat inzwischen rechtliche Schritte gegen den CDU-Politiker angekündigt. Der schleswig-holsteinische Ministerpräsident, der in der Union wegen seiner linken Positionen und seiner Nähe zu Ex-Kanzlerin Angela Merkel mit Spottnamen „Genosse Günther“ heißt, habe mit seinen Äußerungen in der ZDF-Sendung „Markus Lanz“ einen frontalen Angriff auf die Pressefreiheit gestartet und dabei falsche Tatsachenbehauptungen verbreitet.
Brandstifter im Biedermann-Kostüm
In einem Interview mit „Welt TV“ bezeichnete Steinhöfel den Ministerpräsidenten als einen „Brandstifter im Kostüm eines Biedermanns“. Günther habe der Pressefreiheit regelrecht den Krieg erklärt. Steinhöfel, einer der leidenschaftlichsten Vorkämpfer für die Presse- und Meinungsfreiheit in Deutschland, sieht in den Aussagen des CDU-Politikers eine fundamentale Bedrohung für die demokratische Grundordnung. Günther betrachte die Presse offenbar als sicherheitspolitisches Risiko, das vom Staat gemanagt werden müsse. Eine solche Terminologie, so Steinhöfel, sollte einem Demokraten fremd sein – es sei denn, er beschreibe autoritäre Systeme wie den Iran oder China.
Worum geht es konkret?
Bei „Markus Lanz“ hatte Günther eine stärkere Regulierung sozialer Medien gefordert und sich offen für weitreichende Einschränkungen gezeigt. Auf die direkte Frage, ob soziale Medien notfalls zensiert und im Extremfall sogar verboten werden müssten, antwortete Günther mit einem klaren „Ja“.
Der Ministerpräsident sprach in diesem Zusammenhang von einer angeblichen Kampagne gegen die linksextremistische Juraprofessorin Frauke Brosius-Gersdorf, die seiner Meinung nach von bestimmten Onlineportalen getragen werde. Er kritisierte sogar Abgeordnete seiner eigenen Partei, die solche Portale lesen und Inhalte weiterleiten würden. Seine Schlussfolgerung: Diese Medien seien „Gegner und auch die Feinde von Demokratie“. Wer sich ihnen nicht entgegenstelle, mache sich an der „Zerstörung der Demokratie“ mitschuldig.
Steinhöfel kündigte an, Günther wegen dessen Aussagen namentlich über das Onlineportal „NiUS“ rechtlich zur Verantwortung zu ziehen. Der Ministerpräsident habe behauptet, sämtliche Berichte dieses Mediums über ihn seien falsch. Dies sei eine falsche Tatsachenbehauptung, die er in seiner Funktion als Ministerpräsident getätigt habe. Auch in Bezug auf die pauschale Einordnung kritischer Plattformen als „Feinde der Demokratie“ will Medienanwalt Steinhöfel vorgehen. Die freie Presse, eine der elementaren Säulen unserer freien Gesellschaft, werde hier als Feind, den es zu vernichten gelte, diffamiert. Dies sei mit der Verfassung nicht vereinbar. Günthers Demokratieverständnis stelle vielmehr selbst einen Angriff auf die freiheitlich-demokratische Grundordnung dar.
The post Meinungsfreiheit: CDU-Genosse Daniel Günther gerät zunehmend unter Druck appeared first on Deutschland-Kurier.
Nichts passt mehr zusammen in der EU

Das gilt besonders für die Stromnetze
von Edgar L. Gärtner
Um Europa steht es nicht gut. Das gilt insbesondere für das Gebilde „Europäische Union“ (EU). Will man den Hauptakteuren der EU, die heute offenbar alle aneinander vorbeireden, keine bösen Absichten unterstellen, bleibt als Erklärung nur diese Vermutung: Jeder Einzelne von ihnen weiß im Grunde nicht, was er will. Aber einig sind sie sich alle über das, was sie nicht wollen: die Wahrheit über den geistigen Zustand und die wirtschaftlichen Perspektiven Westeuropas. Diese Wahrheit vernimmt man heute eher jenseits des Atlantiks als aus dem Mund europäischer Spitzenpolitiker.
Konstruktiver europäischer Aufbruch
Dabei hat die westeuropäische Einigung nach dem Zweiten Weltkrieg durchaus faktenbasiert und konstruktiv begonnen. Den Gründervätern des nach Westen orientierten Nachkriegs-Europa wie vor allem den Franzosen Jean Monnet und Robert Schumann war bewusst, dass die enormen Kriegsschäden, unter denen fast alle europäischen Länder litten, nur mithilfe eines starken Wirtschaftswachstums überwunden werden konnten. Um diesem den Weg freizumachen, bedurfte es billiger Energie im Überfluss. Aus diesem Grunde setzten sich die beiden Franzosen mit Spitzen-Beamten der ersten Bonner Bundesregierung unter Konrad Adenauer zusammen, um jenseits der Feindbilder des Krieges die Gründung der „Europäischen Gemeinschaft für Kohle und Stahl (EGKS)“, bekannt als Montanunion auszuhandeln. Diese wurde im Jahre 1952 gegründet.
EWG und EURATOM
Die offizielle deutsch-französische Aussöhnung in Gestalt des zwischen dem französischen Staatspräsidenten General Charles de Gaulle und des deutschen Bundeskanzlers Konrad Adenauer am 22. Januar 1963 feierlich abgeschlossenen Élysée-Vertrages kam zwar erst später, aber in der Zwischenzeit kam es zwischen den Regierungen von sechs westeuropäischen Ländern zu wachsender Annäherung in der Wirtschafts- und Energiepolitik. 1957 unterzeichneten die Regierungen von Deutschland, Frankreich, Italien und den Benelux-Staaten in Rom den Vertrag über die Gründung der Europäischen Wirtschaftsgemeinschaft (EWG). Deren Hauptziel war die Förderung des Handels zwischen den Mitgliedsländern. Dabei lag wegen des damals noch großen Anteils der Landwirtschaft an der Wertschöpfung der Volkswirtschaften zunächst der Schwerpunkt auf Agrarprodukten.
Aber die Frage einer zuverlässigen und bezahlbaren Energieversorgung wurde dabei nicht vergessen. Parallel zur Vorbereitung der EWG-Gründung verständigten sich die Regierungen darüber, die Kohle-Verstromung nur als Übergangslösung zu betrachten. Sie setzten (vor allem auf Druck Frankreichs, wo die Entwicklung der Kernenergie zunächst vom bekannten Pazifisten Frederick Joliot-Curie vorangetrieben wurde) auf die Atomenergie. 1957 kam es zum Abschluss des EURATOM-Vertrages. Aber auch in Deutschland gab es nach dem Abbruch der Entwicklung von Kernreaktoren unter der Naziherrschaft (die wahrscheinlich weiter gediehen war, als die offiziellen historischen Darstellungen ahnen lassen) eine Lobby für die Erschließung der Atomenergie, die damals tatsächlich so hieß. (Ich wohne in Bad Nauheim in Mittelhessen selbst in einem Haus, das nach dem Krieg vom Kernphysiker Prof. Robert Jäger und dessen Bruder, dem Komponisten Willy Jäger erbaut wurde, wie eine Bronzetafel an der Fassade ausweist. Jäger gilt als einer der „Väter“ des bundesdeutschen Atomprogramms unter Franz Josef Strauß.) Leider wurde der parallele Weg zwischen dem Aufbau der EWG und dem Ausbau von EURATOM später verlassen. Einer der wichtigsten Gründe für die Anstrengungen Westeuropas, eine preisgünstige Energieversorgung aufzubauen, war selbstverständlich der Kalte Krieg (Systemwettbewerb) mit dem kommunistisch beherrschten Osten. Nach dem Zusammenbruch der sozialistischen Volkswirtschaften im Osten ließen diese Anstrengungen sichtbar nach und der von enttäuschtem Narzissmus genährte Selbsthass der Grünen begann sich in Form der Kohlenstoff-Phobie durchzusetzen.
2001: Die EU beginnt, Grün zu werden
Davon zeugt der Ausgang des Europäischen Rates von Barcelona im Jahre 2001. Auf einmal ging es im Grunde nicht mehr um die Sicherstellung einer preiswerten Energieversorgung als Basis für rasches Wirtschaftswachstum, sondern um die Verknappung und Verteuerung der Energie durch den Ausbau der unzuverlässigen, weil wetterabhängigen „dekarbonisierten“ Energiequellen Wind und Sonne. Das hätte die Stunde der Kernenergie sein können, da bei den bislang üblichen Atomkraftwerken über den gesamten Lebenszyklus nur 6 Gramm Kohlenstoffdioxid (CO2) je Kilowattstunde anfallen (Quelle), während Photovoltaik-Paneele zehnmal mehr CO2 produzieren. Doch die Kernenergie wurde von den Grünen aus uneinsichtigen Gründen verteufelt. Dabei decken alle zufallsabhängigen „Erneuerbaren“ zusammengenommen bis jetzt nicht mehr als 2,5 Prozent des europäischen Strombedarfs. (Tatsächlich hat die Klimaentwicklung wenig bis nichts mit dem CO2-Gehalt der Atmosphäre zu tun.)
Ich erinnere daran, dass ich wie der geniale Geo- und Astrophysiker Thomas Gold keinen grundsätzlichen Unterschied zwischen „fossilen“ und biotischen Ressourcen sehe. Die Entscheidung der EU für die (vorgeblichen) „Erneuerbaren“ und die Abkehr von den „Fossilen“ impliziert aber die Abkehr von der historisch im Einklang mit dem Grad der Industrialisierung und Urbanisierung gewachsenen Elektrizitätserzeugung in zentralen Kraftwerken und die Rückkehr zu einer dezentralen Elektrizitätserzeugung, wie sie vor über 100 Jahren überwog. Diese bedarf aber einer Vervielfältigung der Übertragungsleitungen sowohl national als auch international. Während zwischenstaatliche Koppelstellen zwischen den Leitungsnetzen früher eher für seltene Notfälle ausgelegt waren, soll der zwischenstaatliche Elektrizitätstransport nun zur Dauereinrichtung werden. Um einen europäischen Binnenmarkt für Elektrizität für die inzwischen auf 27 Mitglieder angewachsene Europäische Union zu schaffen, legte der Europäische Rat zu Beginn des 21. Jahrhunderts eine Kopplungskapazität zwischen den Stromnetzen der EU-Mitgliedsstaaten von mindestens 10 Prozent der installierten Produktionsleistung fest. Doch dieses Ziel wurde bis Ende 2025 von acht EU-Mitgliedsstaaten nicht erreicht. Währenddessen hat die EU-Kommission bereits beschlossen, bis 2030 das Ziel von 15 Prozent zwischenstaatliche Transportkapazität anzusteuern.
Zentrale und dezentrale Energiequellen passen nicht zusammen
Um das Ziel einer optimalen Vernetzung dezentraler Energiequellen zu erreichen, bedarf es nach Schätzungen des Europäischen Rechnungshofes bis 2030 Investitionen von fast 600 und bis 2050 fast 2.000 Billionen Euro. Denn viele schon fest geplante „Erneuerbaren“-Projekte warten wegen Leitungs-Engpässen noch auf ihre Genehmigung. Aber diese Investitionen finden nicht statt, weil sie wirtschaftlich unsinnig sind. Wer würde schon freiwillig Milliarden investieren, um überschüssigen Solarstrom von Spanien über Frankreich nach Deutschland zu leiten? (Das war übrigens eine der Ursachen für den Beinahe-Blackout, der im vergangenen Jahr Spanien heimsuchte.) Die EU-Kommission versucht, diesen Problemen mithilfe des im Dezember 2025 vorgestellten Programms „Grids Package“ zu begegnen. Doch Samuel Furfari, ehemaliger für Energie zuständiger hoher EU-Beamter, weist darauf hin, dass die Politik den Aufbau eines internationalen Stromnetzes nicht einfach dekretieren kann. Es braucht dafür Jahrzehnte.
Unter der Dysfunktionalität der gegenwärtigen unzureichenden Vernetzung zwischen „erneuerbaren“, d.h. zufälligen mit den zuverlässig steuerbaren Energiequellen Wasser- und Kernkraft leidet insbesondere Frankreich. Im vergangenen Jahr gab es wegen der wetterbedingten zeitweiligen Überproduktion von Solar- und Windenergie nicht weniger als 432 Stunden mit negativen Strompreisen. Dadurch drohen die Milliarden-Investitionen in den Bau von Kernreaktoren des Typs EPR2 unrentabel zu werden, denn diese sind auf eine hohe Zahl jährlicher Betriebsstunden ausgelegt. Die Investitionskosten der sechs in Frankreich geplanten EPR2-Reaktoren werden auf etwa 83 Milliarden Euro veranschlagt. Die Kernkraftwerke können, um die Überproduktion abzufangen, höchstens um 20 Prozent gedrosselt werden. Die Zahl der Stunden mit negativen Strompreisen wird also in den kommenden Jahren weiter steigen, wenn nichts geschieht.
Deshalb erscheint es umso unverständlicher, dass der Entwurf für den nächsten französischen Zehn-Jahresplan der Energieversorgung (PPE3), der wegen der französischen Regierungskrise noch immer nicht verabschiedet ist, von einer Komplementarität zwischen planbaren und wetterabhängigen Energiequellen ausgeht. Aktuell zeigt es sich jedoch, dass beide schlicht inkompatibel sind. Sie ergänzen sich nur in seltenen Ausnahmefällen. Solange die EU-kommission unter Ursula von der Leyen das Dogma der Dekarbonisierung nicht aufgibt, kann wohl keine Ordnung in das europäische Zusammenspiel der europäischen Elektrizitätsnetze einziehen. Das erscheint umso dringender, als die EU mit ihrer Politik der Dekarbonisierung inzwischen weltweit allein dasteht.
Der Beitrag Nichts passt mehr zusammen in der EU erschien zuerst auf EIKE – Europäisches Institut für Klima & Energie.
Von den Propaganda-hörigen MSM ignoriert: der dramatische Rückgang der globalen Temperaturen
Chris Morrison, THE DAILY SCEPTIC
Die globalen Temperaturen sowohl an Land als auch auf See sinken rapide. Die von Netto-Null-Zielen besessenen Mainstream-Medien sowie Wissenschaft und Politik beschäftigen sich nicht mit der Abkühlung. Die Voreingenommenheit, die den Menschen für die Eishockeyschläger-artige globale Erwärmung mit all ihren lächerlichen „feststehenden” Vorstellungen verantwortlich macht, hat der echten Klimawissenschaft schweren Schaden zugefügt. Aber die Welt kühlt sich rapide ab, und das Schweigen der Mainstream-Medien ist sowohl lächerlich als auch beschämend.
Abbildung 1: Die genauen UAH-Satellitenaufzeichnungen zeigen den Einbruch deutlich, wobei die Differenz oder Anomalie gegenüber dem Durchschnitt von 1991 bis 2020 im Jahr 2025 sinkt und das Jahr nur noch mit einer Anomalie von 0,3 °C endet.
Es versteht sich von selbst, dass die Mainstream-Medien die Temperaturdaten von Satelliten ignorieren. Im Januar 2022, auf dem Höhepunkt der Greta-Klimahysterie, verbannte Google AdSense eine Seite, die für das monatliche Update warb, mit der Begründung, dass sie „unzuverlässige und schädliche Behauptungen” veröffentliche. In Großbritannien wurde die weltweite Unannehmlichkeit kürzlich zugunsten der Hervorhebung der neuesten Unsinnigkeiten des Met Office übergangen, das auf der Grundlage seiner unbrauchbaren, unnatürlich von Hitze heimgesuchten Wetterstationen ein weiteres lokales „heißestes Jahr aller Zeiten” behauptete. Anstatt eine ausgewogene globale Sichtweise zu vertreten (oder auch nur zu erwähnen), verkündeten die Aktivisten des Met Office, dass ihr „Rekord” von sechs Hundertstel Grad Celsius aufgrund der Beeinflussung des Wetters durch den Menschen 260-mal wahrscheinlicher geworden sei. Eine solch fantasievolle Präzision aus solch wertlosen Daten ist ein Wunder. Wissenschaft ist das nicht.
Die Wissenschaftler der UAH Dr. Roy Spencer und Professor John Christy legten ebenfalls Ergebnisse vor, aus denen hervorgeht, wie die positive Temperatur-Anomalie in den letzten zwei Jahren zurückgegangen ist. Die nachstehende Tabelle zeigt sowohl globale Zahlen als auch Messungen, die nach verschiedenen Regionen aufgeschlüsselt sind:
Links war die rote globale Anomalie im April 2024 ein Zweijahreshoch, ebenso wie die Zahl daneben für die nördliche Hemisphäre. Die anderen Spalten von links sind die südliche Hemisphäre, die Tropen, das US-Festland, die Arktis und Australien. In allen Regionen ist ein deutlicher Abwärtstrend zu erkennen.
Abbildung 2: Entlang des äquatorialen Pazifiks sinken die Meerestemperaturen (SSTs) seit Monaten. In seinem aktuellen Bericht über die Entstehung der El-Niño- (Erwärmung) und La-Niña- (Abkühlung) Schwankungen liefert der US-Wetterdienst NOAA die neuesten dreimonatigen Anomalien. Seit September letzten Jahres stellt die NOAA fest, dass „die SSTs in den meisten Teilen des äquatorialen Pazifiks unter dem Durchschnitt liegen”.
Beachten Sie die Erwärmung der Ozeane um 2015-16, die durch einen besonders starken El Niño verursacht worden war. Der jüngste El Niño hat ebenfalls zu einer Erwärmung der Ozeane geführt, oder zu einem „Sieden”, um die lautstark von der Guterres/Gore/Kerry-Clique verkündeten Ansichten korrekt wiederzugeben.
Dies ist die neueste Grafik, welche die SSTs von 60°S bis 60°N zeigt:
Es scheint, als würden die Temperaturen weiter sinken, denn 2026 beginnt kühler als 2025, das wiederum kühler war als 2024.
In den letzten Jahren gab es außergewöhnliche klimatische Ereignisse, verbunden mit einem erstaunlichen Desinteresse der Wissenschaft an deren Ursachen. Die „einvernehmliche” Antwort lag natürlich immer auf der Hand – es waren die Menschen, die das verursacht haben, wir haben die Computermodelle, die das beweisen. Und wenn Sie uns nicht zustimmen, dann schlagen Sie bitte nicht die Tür hinter sich zu. Javier Vinos schrieb kürzlich in Judith Currys Blog, dass das von ihm so bezeichnete Ereignis von 2023 den „größten Misserfolg der Klimawissenschaft” offenbart habe [diesen Beitrag gibt es in deutscher Übersetzung hier]. Vinos ist ein führender Befürworter der These, dass der massive Unterwasserausbruch des Vulkans Hunga Tonga im Jahr 2022, der den Wasserdampfgehalt in der oberen Atmosphäre um bis zu 13 % erhöhte, die Hauptursache für alle Wetteranomalien war. Wasserdampf ist ein starkes Treibhausgas mit relativ kurzer Lebensdauer.
Das Ausmaß des massiven Anstiegs des Wasserdampfs in der Stratosphäre ist in der unten abgebildeten aktuellen Messkarte der NASA zu sehen. Im Vergleich zu den Jahren vor 2022 gibt es immer noch viel zusätzliches Wasser, aber es nimmt allmählich ab:
Aktivisten nutzten alle ungewöhnlichen Wetterereignisse, um eine politisch akzeptable, vordefinierte Erzählung zu verbreiten. Die großen Ausschläge seit 2023 lassen sich jedoch nicht durch anthropogene Ursachen erklären, da solche Veränderungen, wenn sie auftreten, geringfügig und regelmäßig und nur über einen langen Zeitraum hinweg wahrnehmbar sind.
Der Grund dafür, dass die Klimawissenschaft im Allgemeinen in den letzten Jahren der Herausforderung dieser Entdeckung nicht gewachsen war, liegt laut Vinos in einer starken Voreingenommenheit. „Der erste Schritt, um aus dem Ereignis von 2023 zu lernen besteht darin, seine Außergewöhnlichkeit zu akzeptieren, was vielen nicht gelingt“, argumentiert er. Anstatt zu versuchen, die Ursachen des Ereignisses zu ermitteln, hätten Wissenschaftler versucht, es mit Hilfe von Modellen in die vorherrschende Erzählung einzufügen, kritisierte er. Vinos‘ Beitrag ist eine interessante Lektüre und liefert überzeugende Argumente dafür, einen Großteil der Schuld für die jüngsten dramatischen, aber vorübergehenden Klimaveränderungen einem Ereignis zuzuschreiben, das in den Aufzeichnungen einzigartig ist. Im Gegensatz zu Hunga Tonga stoßen die meisten Vulkanausbrüche an Land große Mengen an Partikeln in die Atmosphäre aus, was zu einer vorübergehenden, aber spürbaren globalen Abkühlung führen kann. Unterdessen stellt Vinos fest, dass „die Klimawissenschaft den Test eines extern verursachten natürlichen Klimaereignisses nicht bestanden hat“.
Die große Tragödie der Ära der etablierten Klimawissenschaft, die nun einer verstärkten Kontrolle unterliegt, ist der Verlust des öffentlichen Vertrauens in einst verehrte wissenschaftliche Institutionen. Covid war kaum ein Höhepunkt der Medizinwissenschaft, während die Panikmache in Bezug auf das Klima Gefahr läuft, zu einem gesellschaftlichen Witz zu werden. „Kochende“ Ozeane und ständig neue lächerliche Rekorde vermischen sich mit offensichtlicher Pseudowissenschaft wie Behauptungen über die „Verantwortung“ des Menschen. Die Explosion von Hunga Tonga könnte durchaus dazu beitragen, einen Großteil dieser Fake News endgültig zu beseitigen.
Chris Morrison is the Daily Sceptic’s Environment Editor. Follow him on X.
Übersetzt von Christian Freuer für das EIKE
Der Beitrag Von den Propaganda-hörigen MSM ignoriert: der dramatische Rückgang der globalen Temperaturen erschien zuerst auf EIKE – Europäisches Institut für Klima & Energie.
Nur 14 % der positiven PCR-Tests erfüllen die Infektionsdefinition der Studie: Fachjournal „Frontiers in Epidemiology“
„Ein alleiniger PCR-positiver Test kann eine Infektion keinesfalls bestätigen“, bestätigen die Studienautoren – dennoch wird der Test derzeit zur Rechtfertigung staatlicher Maßnahmen gegen die Vogelgrippe eingesetzt.
Jon Fleetwood
Nur ein kleiner Bruchteil der Menschen, die in Deutschland per PCR positiv auf COVID-19 getestet wurden, erfüllte die Kriterien der Forscher für eine Infektion, wie eine im Oktober veröffentlichte, begutachtete Studie in Frontiers in Epidemiology zeigt.
Die Ergebnisse kommen zu einem Zeitpunkt, an dem PCR-Tests zur Rechtfertigung staatlicher Reaktionen auf die aviäre Influenza („Vogelgrippe“) genutzt werden, darunter Tierkeulungen, die Entwicklung von Gegenmaßnahmen (Impfstoffe) sowie Gain-of-Function-Experimente.
Nach der Analyse landesweiter Labordaten von März 2020 bis Mitte 2021 kamen die Autoren der neuen Studie zu dem Schluss, dass nur 14 % der PCR-positiven Personen Hinweise auf eine tatsächliche Infektion zeigten, gemessen an der späteren Entwicklung von Antikörpern.
Die verbleibende Mehrheit tat dies nicht.
„Nur etwa 14 % derjenigen, die PCR-positiv getestet wurden, waren tatsächlich infiziert.“
Das bedeutet, dass 86 % der PCR-positiven Tests die Definition der Autoren von Infektion nicht erfüllten, was den Einsatz der PCR-Positivität zur Zählung von Krankheitsfällen infrage stellt.
Die Studie wurde von Forschern mehrerer europäischer Universitäten und Forschungsinstitute durchgeführt und untersuchte Daten der Akkreditierten Labore in der Medizin (ALM), eines Laborkonsortiums, das im analysierten Zeitraum rund 90 % aller PCR-Tests in Deutschland durchführte.
Anstatt individuelle Infektionen durch Kultur zu bestätigen (also den Nachweis physischer, wachsender lebender Viren in Laborkulturen), verglichen die Forscher wöchentliche PCR-positive Anteile mit der nachfolgenden IgG-Antikörper-Positivität, die sie als anerkannten biologischen Marker einer zurückliegenden Infektion beschreiben.
„Seit 1942 gilt der Nachweis virusspezifischer Antikörper als methodologischer Goldstandard zur Bestätigung einer Infektion.“
Die Logik der Analyse war einfach.
Wenn PCR-positive Ergebnisse zuverlässig infizierte Personen identifizieren würden, dann müsste die PCR-Positivität im Zeitverlauf eng mit dem Anstieg der IgG-Antikörper übereinstimmen – gemäß dem gängigen virologischen und immunologischen Modell.
Stattdessen stellten die Forscher fest, dass das PCR-Signal drastisch nach unten skaliert werden musste, um mit den beobachteten Antikörperspiegeln übereinzustimmen.
„Die Anpassung des skalierten kumulativen PCR-positiven Anteils … ergibt PPCR ≈ 0,14 … Dies impliziert, dass nur etwa einer von sieben deutschen Individuen mit einem PCR-positiven Test später nachweisbare IgG-Antikörper hatte, also tatsächlich mit SARS-CoV-2 infiziert war.“
Die Autoren weisen ferner darauf hin, dass diese 14-%-Zahl möglicherweise immer noch eine Überschätzung darstellt.
Unter Berücksichtigung möglicher Testverzerrungen erklären sie, dass der Anteil der PCR-Positiven, die echte Infektionen repräsentieren, sogar noch niedriger sein könnte.
„Eine konservativere Interpretation unserer Ergebnisse legt nahe, dass nur etwa einer von acht oder sogar von neun PCR-positiven Individuen … tatsächlich infiziert gewesen sein könnte.“
Mit anderen Worten: Zwischen 86 % und 90 % der PCR-positiven Ergebnisse entsprachen keiner bestätigten Infektion.
Die Arbeit betont, dass PCR-Tests für sich genommen keine Infektion diagnostizieren.
„PCR-Tests weisen lediglich das Vorhandensein von Fragmenten viralen genetischen Materials nach, nicht notwendigerweise eine aktive Infektion.“
Die Studie identifiziert zudem bekannte Quellen falsch-positiver PCR-Ergebnisse, darunter Laborartefakte und statistische Effekte, die bei Massentests besonders ausgeprägt sind.
„Es ist daher wichtig, zwei bekannte Quellen falsch-positiver PCR-Ergebnisse hervorzuheben.“
Ein genanntes Beispiel betrifft PCR-positive Signale in reinen Wasserproben ohne jegliches Virus.
„Der PCR-Test der Charité erzeugte positive Ergebnisse bei Wasserkontrollen mit Cycle-Threshold-(CT-)Werten zwischen 36 und 38.“
Über Laborartefakte hinaus erklären die Autoren, dass selbst Tests, die darauf ausgelegt sind, Nicht-Infizierte sehr zuverlässig auszuschließen, bei niedriger tatsächlicher Infektionsrate dennoch eine große Zahl falsch-positiver Ergebnisse erzeugen können.
In diesem Zusammenhang bezeichnet „Spezifität“, wie häufig ein Test bei einer nicht infizierten Person korrekt ein negatives Ergebnis liefert.
Liegt die Spezifität unter 100 %, werden zwangsläufig einige Nicht-Infizierte positiv getestet.
„Gemäß dem Satz von Bayes steigt die Rate falsch-positiver Ergebnisse, wenn die Krankheitsprävalenz sinkt, aufgrund einer Testspezifität unter 100 %.“
Unter Verwendung beobachteter Positivitätsraten und ihrer angepassten Infektionsschätzung berechnen die Autoren, dass allein die PCR-Spezifität die Diskrepanz zwischen PCR-Positiven und bestätigten Infektionen erklären kann.
„Unter der Annahme, dass 1 % der getesteten Personen echte Positive waren, erklärt eine Spezifität von 94 % die verbleibenden 6 % der PCR-positiven Ergebnisse als falsch-positive Befunde unter den 99 %, die nicht infiziert waren.“
Die Ergebnisse der Studie haben direkte Implikationen dafür, wie COVID-19-„Fälle“ gezählt und in der öffentlichen Politik verwendet wurden.
Während der gesamten Pandemie wurden PCR-positive Testergebnisse als Stellvertreter für Infektionen behandelt und zur Rechtfertigung von Einschränkungen und Notfallmaßnahmen herangezogen.
PCR-positive Testergebnisse werden nun weltweit zur Rechtfertigung von Maßnahmen zur Eindämmung der Vogelgrippe eingesetzt.
Die Autoren argumentieren, dass dieser Ansatz keine biologische Grundlage hat.
„Ein alleiniger PCR-positiver Test kann eine Infektion auf individueller Ebene keinesfalls bestätigen.“
Die Arbeit kommt zu dem Schluss, dass Deutschlands Abhängigkeit von der bloßen PCR-Positivität die Infektionszahlen erheblich überhöht und das Verständnis des tatsächlichen Pandemieverlaufs verzerrt hat.
„Der zentrale Befund unserer Analyse … ist folgender: Nur 14 % – und möglicherweise sogar weniger, bis hinunter zu 10 % – der Personen, die mittels PCR-Test als SARS-CoV-2-positiv identifiziert wurden, waren tatsächlich infiziert, wie durch nachweisbare IgG-Antikörper belegt.“
Die Autoren argumentieren, dass PCR-Positivität als Infektion behandelt wurde, obwohl die Daten zeigen, dass dies überwiegend nicht zutraf.
Nach der eigenen Analyse der Autoren weist PCR-Positivität nicht zuverlässig auf eine Infektion hin, was Fragen zu ihrer weiteren Verwendung als fallbestimmendes Instrument in aktuellen und zukünftigen … (Text endet hier).
Niederländischer Ex-Soldat berichtet von Nazi-Symbolik in ukrainischer Einheit: «Jeden Morgen der Hitlergruss»
Ein ehemaliger niederländischer Luftwaffensoldat namens Hendrik, der in der Ukraine kämpfte und dort durch Mörserbeschuss verwundet wurde, erhebt schwere Vorwürfe gegen ukrainische Militäreinheiten und das System dahinter. In einem Interview mit De Telegraaf schildert er, dass er seine medizinische Versorgung selbst organisieren und bezahlen musste und Hinterbliebene gefallener ausländischer Kämpfer häufig leer ausgingen. „Das ist eine einzige korrupte Bande“, so Hendrik.
Nach seiner Genesung kehrte er dennoch in die Ukraine zurück, wo er von der Third Separate Assault Brigade, die mit dem Azov Regiment in Verbindung steht, angesprochen wurde. In deren Büros habe er Flaggen des NS-Kollaborateurs Stepan Bandera, umgekehrte Hakenkreuze und weitere Nazi-Symbolik gesehen. Andere ausländische Kämpfer hätten berichtet, dass in manchen Einheiten „jeden Morgen der Nazi-Gruß“ gezeigt werde.
Schockiert von diesen Eindrücken entschied sich Hendrik schließlich zur Rückkehr in die Niederlande. Der frühere Europaabgeordnete Rob Roos reagierte auf die Enthüllungen mit den Worten: „Jeden Morgen ein Nazi-Gruß – das ist unvorstellbar.“
Der Bericht erscheint vor dem Hintergrund neuer Abkommen: Frankreich, Großbritannien und die Ukraine haben inzwischen Vereinbarungen über den künftigen Einsatz internationaler Truppen nach Kriegsende getroffen; auch die Niederlande gehören zur sogenannten „Koalition der Willigen“, die Sicherheitsgarantien für Kiew zugesagt hat.
Huawei führt die 5.5G-Technologie ein: Erweiterte Realität, Automatisierung und fortschrittliche KI ebnen den Weg für 6G
Von The WinePress
„5.5G soll die Konnektivität von bis zu 100 Milliarden Geräten unterstützen und damit den Weg für Smart Cities, automatisierte Industrien und fortschrittliche Anwendungen des Internets der Dinge (IoT) ebnen.“
Der folgende Bericht wurde erstmals am 4. Juli 2024 auf winepressnews.com veröffentlicht.
Das chinesische Technologie- und Telekommunikationsunternehmen Huawei hat still und leise seine sogenannte „5.5G“-Technologie vorgestellt, eine Untergruppe einer generationsübergreifenden Technologieeinführung, bevor die Welt schließlich 6G erreicht.
Im Wesentlichen läutet 5.5G Augmented-Reality- und Metaverse-Technologien ein, die mit komplexen KI-Systemen gekoppelt sind und von diesen angetrieben werden. Dies ermöglicht Echtzeitanalysen über Smart Grids und die Automatisierung von Fabriken und Arbeitsabläufen. Dadurch werden schnellere Streaming- und Download-Geschwindigkeiten ermöglicht, beispielsweise das nahtlose Streamen von Inhalten in 4K-Qualität.
Tamas Boday, 5G-Lösungsexperte bei Huawei, merkte außerdem an, dass das Unternehmen einen „digitalen Zwilling“ von allem erstellt. IBM definiert einen digitalen Zwilling als „eine virtuelle Darstellung eines Objekts oder Systems, die ein physisches Objekt genau widerspiegeln soll. Er umfasst den gesamten Lebenszyklus eines Objekts, wird anhand von Echtzeitdaten aktualisiert und nutzt Simulationen, maschinelles Lernen und Schlussfolgerungen, um Entscheidungen zu unterstützen.“
Ronald van Loon, CEO und Principal Analyst bei Intelligent World und Partner von Huawei, fasste den Übergang zu 5.5G in einem LinkedIn-Artikel zusammen. Er schrieb:
Nachdem wir den transformativen Einfluss der 5G-Technologie auf die Gestaltung unserer globalen Landschaft miterlebt haben, stehen wir nun an der Schwelle zu ihrem nächsten evolutionären Meilenstein: 5.5G. Vor kurzem hatte ich die Ehre, eine Podiumsdiskussion auf dem Mobile World Congress in Barcelona mit dem Titel „5.5G Is Now, Building an Intelligent World Together” zu moderieren, bei der ich einen Dialog mit Pionieren der Branche über die bevorstehende Revolution in der Telekommunikation moderierte. Dieser bahnbrechende Fortschritt wird unser Verständnis von Konnektivität, Geschwindigkeit, Latenz und Effizienz verändern und beispiellose Standards für digitale Innovationen in verschiedenen Branchen setzen.
Aus meiner einzigartigen Perspektive als Partner von Huawei konnte ich die Diskussion auf Bereiche lenken, die sich auf die überzeugendsten Funktionen von 5.5G, Anwendungsfälle für Verbraucher und B2B, die das Potenzial von 5.5G hervorheben, sowie potenzielle Herausforderungen konzentrierten, die noch bewältigt werden müssen.
Die Leistungsfähigkeit von 5.5G
Die 5.5G-Technologie befindet sich zwar noch in der Entwicklungsphase, baut jedoch auf dem soliden Fundament von 5G auf. Sie zielt darauf ab, alle Aspekte der Netzwerkleistung zu verbessern, darunter Download-Geschwindigkeiten von bis zu 10 Gbit/s vom Internet zu Geräten sowie Upload-Geschwindigkeiten von 1 Gbit/s von Geräten zum Internet. Am beeindruckendsten ist vielleicht, dass 5.5G voraussichtlich die Konnektivität von bis zu 100 Milliarden Geräten unterstützen wird und damit den Weg für Smart Cities, automatisierte Industrien und fortschrittliche Anwendungen des Internets der Dinge (IoT) ebnet.
Während unserer Diskussion haben wir uns mit den erwarteten Hauptmerkmalen von 5.5G befasst, wie z. B. Massive Machine Type Communications (mMTC), Ultra-Reliable Low-Latency Communications (URLLC) und integrierte Sensorfunktionen, die eine zehnfache Verbesserung der Latenz, Positionsgenauigkeit und Zuverlässigkeit versprechen. Diese Verbesserungen sind entscheidend für die Unterstützung einer Vielzahl von Anwendungsfällen für Verbraucher und B2B.
Auswirkungen auf Verbraucher
Für Verbraucher eröffnet 5.5G eine Welt voller Möglichkeiten, darunter Ultra-HD-Video-Streaming, immersive Augmented-, Virtual- und Extended-Reality-Erlebnisse, fortschrittliche IoT-Geräte für Smart Homes, hochwertige Videoanrufe und Wearables für die Gesundheitsüberwachung. Die integrierten Sensorfunktionen der Technologie könnten Smart-City-Anwendungen revolutionieren, beispielsweise durch die Verbesserung des Straßenverkehrs und die Ermöglichung von autonomem Fahren mit minimalem menschlichem Eingriff.
Auswirkungen auf den B2B-Bereich
Im B2B-Bereich wird 5.5G durch verbesserte industrielle Automatisierung und die Möglichkeit smarterer, effizienterer Netzwerke, die durch KI-Integration ermöglicht werden, ganze Branchen verändern. Dies bedeutet auch die Möglichkeit, hochpräzise und flexible Fertigungsprozesse, Fernversorgung im Gesundheitswesen, Smart Grids für das Energiemanagement, immersive Schulungen und verbesserte Lieferketten- und Logistiklösungen zu ermöglichen. Die Schaffung anpassbarer virtueller Netzwerke durch verbesserte Network-Slicing-Fähigkeiten wird maßgeschneiderte Dienste ermöglichen, die spezifischen Geschäftsanforderungen gerecht werden.
Das 5.5G-Ökosystem
Die Diskussion hob auch die Entwicklung eines 5.5G-Ökosystems hervor und betonte die Rolle des 3rd Generation Partnership Project (3GPP) bei der Festlegung zukünftiger Spezifikationen und dem Übergang zu 6G. Diese Zusammenarbeit unterstreicht die Bedeutung eines einheitlichen Ansatzes für die Entwicklung und Implementierung dieser fortschrittlichen Technologien.
Herausforderungen und Zukunftsaussichten
Der Weg zur vollständigen Ausschöpfung des Potenzials von 5.5G ist jedoch nicht ohne Herausforderungen. Die Aufrüstung bestehender Netzwerke auf 5.5G-Standards erfordert erhebliche Investitionen in neue Infrastruktur. Die Verfügbarkeit und Verwaltung von Frequenzen, Energieeffizienz, Sicherheit und Datenschutz, Interoperabilität und Standards sowie der Bedarf an qualifizierten Arbeitskräften gehören zu den wichtigsten Hürden, die es zu überwinden gilt. Darüber hinaus besteht die Gefahr, dass sich die digitale Kluft vergrößert und es zu Ungleichheiten beim Zugang zu fortschrittlichen Diensten zwischen städtischen und ländlichen Gebieten kommt.
Trotz dieser Herausforderungen sind die Aussichten für 5.5G äußerst vielversprechend. Die Podiumsdiskussion endete mit einer optimistischen Note und dem Konsens, dass die Vorteile von 5.5G – wie verbesserte Konnektivität, Geschwindigkeit und Effizienz – die Hindernisse bei weitem überwiegen. Das Potenzial dieser Technologie, Innovationen und Transformationen in verschiedenen Branchen voranzutreiben und die Lebensqualität der Menschen weltweit zu verbessern, ist immens. Die Grundlage für eine erfolgreiche Einführung ist der Aufbau von Vertrauen in die 5.5G-Technologie, indem alle Beteiligten über die Möglichkeiten, Risiken, erforderlichen Kenntnisse, Fähigkeiten und Fachkenntnisse informiert werden, die für eine erfolgreiche Einführung erforderlich sind.
Je mehr wir die Möglichkeiten von 5.5G verstehen, desto klarer wird, dass es eine entscheidende Rolle beim gemeinsamen Aufbau einer intelligenten Welt spielen wird. Die Zusammenarbeit von Branchenführern, Organisationen und Regierungen wird entscheidend sein, um die bevorstehenden Herausforderungen zu meistern und das volle Potenzial dieser transformativen Technologie auszuschöpfen.
Trump zeigt uns, wer wir sind
Robert C. Koehler
In der Ära Donald Trump – Gott sei Dank! – ist so vieles möglich, was sich vorher niemand auch nur vorstellen konnte. Zum Beispiel ist nicht nur der „große Hannibal Lecter“ wieder zum Leben erwacht, er könnte sogar Trumps Kabinett beitreten.
Nun ja, das ist nur eine Vermutung, aber warum nicht? Ich denke, er würde perfekt hineinpassen. Was ich damit sagen will: „Hier ist etwas im Gange. Was genau, ist noch unklar …“ Es ist nicht einfach nur so, dass Trump einzigartig (sprich: einzigartig verrückt) ist. Das ist er definitiv, aber er ist auch durch und durch Amerikaner. Unter seiner Führung liegt unsere politische Struktur nackt und bloßgestellt da, ihrer politischen Korrektheit beraubt. Der Kaiser ist nackt! Plötzlich können wir das nicht mehr ignorieren.
Tatsächlich können wir uns selbst nicht mehr ignorieren. Wie der Psychologe John Gartner betont hat, ist Trump nicht nur ein bösartiger Narzisst, sondern – wie seine zweite Amtszeit deutlich gezeigt hat – gleitet er immer tiefer in die Demenz ab. Dennoch unterstützen ihn weiterhin Menschen – genug, um ihm Wahlsiege zu ermöglichen. Warum?
Weil, so Gartner, „er ihre gemeinsamen Feinde angreift. Eine Figur wie Hitler übt eine psychologische Anziehungskraft aus. Wer sich machtlos fühlt, fühlt sich durch jemanden, der seine vermeintlichen Feinde auf strafende Weise attackiert und ihnen das Gefühl gibt, mächtig zu sein und das Recht zu haben, zu dominieren, wieder ermächtigt.“
Ich möchte hinzufügen, dass diese „Feinde“ möglicherweise einfach aus dem Nichts heraufbeschworen wurden … eine Gruppe, von der seine Anhänger gar nichts wussten. Doch der Machthaber hat sie zu Feinden erklärt und sie damit faktisch erschaffen. Entscheidend ist nicht, dass eine lange verachtete Gruppe bekommt, was sie „verdient“, sondern dass ihre machtlosen Anhänger nun jemanden haben, den sie zu dominieren glauben.
Und ja, Trump dreht sozusagen völlig durch und greift diverse Feinde an. Wie Brett Wilkins auf Common Dreams schreibt:
„Präsident Donald Trump – der sich selbst als ‚kriegsfeindlichsten Präsidenten der Geschichte‘ bezeichnet – hat nun die Bombardierung von mehr Ländern angeordnet als jeder andere Präsident zuvor. US-Streitkräfte führten am Weihnachtstag Angriffe auf mutmaßliche IS-Kämpfer durch, die laut Weißem Haus Christen in Nigeria töteten. …
Neben Nigeria hat Trump – der behauptet, einen Friedensnobelpreis zu verdienen – seit 2017 auch die Bombardierung von Afghanistan, Iran, Irak, Libyen, Pakistan, Somalia, Syrien und Jemen sowie von Booten angeordnet, die angeblich Drogen in der Karibik und im Pazifik transportierten.“ Trump hat außerdem Kriegsschiffe und Tausende US-Soldaten in der Nähe von Venezuela stationiert, das das nächste Land werden könnte, das von einem Präsidenten angegriffen wird, der mit dem Versprechen „Frieden durch Stärke“ Wahlkampf geführt hat.
Doch diese „Führung“ ist alles andere als beispiellos. Wie der palästinensisch-amerikanische Komiker Sammy Obeid in einem Comedy-Programm fragt, das deutlich sachlicher ist als die Berichterstattung in den offiziellen Medien: Was ist Terrorismus eigentlich, dieses Ding, das wir seit Jahrzehnten so hartnäckig zu bekämpfen versuchen? Um das herauszufinden, schlug er die Definition nach: Terrorismus ist „die Anwendung von Gewalt zur Erreichung eines politischen Ziels“.
Ähm … Amerika selbst ist anscheinend der größte Terrorist aller Zeiten! Oder zumindest ganz weit oben auf der Liste. Neben dem Vietnamkrieg – mit Millionen Toten – gibt es den angeblichen Krieg gegen den Terror, der von George W. Bush begonnen, von Barack Obama fortgeführt und schließlich von Joe Biden beendet wurde.
Laut dem „Costs of War Project“ der Brown University: „Schätzungsweise über 940.000 Menschen wurden zwischen 2001 und 2023 durch direkte Kriegsgewalt nach dem 11. September im Irak, in Afghanistan, Syrien, Jemen und Pakistan getötet. Davon waren mehr als 412.000 Zivilisten. Die Zahl der Verwundeten und Erkrankten infolge der Konflikte ist weitaus höher, ebenso wie die Zahl der Zivilisten, die ‚indirekt‘ durch die Zerstörung von Wirtschaft, Gesundheitssystemen, Infrastruktur und Umwelt durch die Kriege ums Leben kamen.“ Schätzungsweise 3,6 bis 3,8 Millionen Menschen starben indirekt in den Kriegsgebieten nach dem 11. September, wodurch die Gesamtzahl der Todesopfer auf mindestens 4,5 bis 4,7 Millionen anstieg – Tendenz steigend.
Man könnte sagen, Trump bringt die Dunkelheit all dessen ans Licht. Gehört Krieg nicht genau dorthin – in die schonungslose öffentliche Debatte? Der größte Feind des Friedens ist vielleicht die kollektive Rechtfertigung und Abstraktion des Krieges durch den politischen und medialen Komplex, zusammen mit den Finanzströmen, die ihn ermöglichen. Das ist unsere nationale Infrastruktur. Trump entlarvt sie, nicht absichtlich, sondern mit einer bissigen, kindlichen Ehrlichkeit, gepaart mit einer gewissen Demenz.
„Terrorismus ist die Anwendung von Gewalt zur Erreichung eines politischen Ziels.“ Der „Krieg“ gegen den Terror, die Überwindung des Terrors – die Transformation der Menschheit, des Planeten Erde – beginnt damit, dass wir uns selbstkritisch betrachten und uns für Weiterentwicklung entscheiden. Wenn wir uns weigern, bekommen wir Donald Trump.
Sensationelle neue Erkenntnisse: Höherer Erwärmungstrend zu Beginn des 20. Jahrhunderts stellt die Rolle von menschengemachtem CO₂ ernsthaft infrage
Chris Morrison
Kürzlich veröffentlichte bemerkenswerte Forschungsergebnisse, die über 42 Millionen globale Temperaturaufzeichnungen von nahezu 1.000 Messstationen analysierten, haben erhebliche Zweifel an dem behaupteten Zusammenhang zwischen Kohlendioxidemissionen und steigenden Temperaturen aufgeworfen. Die umfangreiche statistische Arbeit sammelte Daten aus der Zeit vor 1900 bis 2024 und stellte nach Bereinigung um wachsende unnatürliche städtische Wärmeeffekte einen jährlichen Erwärmungstrend von 0,0054 °C fest. Was an dieser wichtigen Analyse besonders aufschlussreich ist, ist die klare Entkopplung zwischen dem Anstieg anthropogenen CO₂ und der stärksten Erwärmung zu Beginn des 20. Jahrhunderts, als die Industrialisierung auf relativ wenige Länder beschränkt war.
Die jährlichen 0,0054 °C entsprechen einer Erwärmung von etwas mehr als 0,8 °C während der industriellen Ära und liegen unter den Behauptungen von deutlich über 1 °C aus anderen, oft politisierten Quellen. Die Entkopplung vom CO₂ zeigt sich in langsamerer Erwärmung und sogar Abkühlungsphasen in den letzten 125 Jahren, während die Emissionen dieses Spurengases in der Atmosphäre weiter anstiegen. Die Ergebnisse der Arbeit sind unten tabellarisch dargestellt:
Die größte Erwärmung über einen Zeitraum von 42 Jahren trat zwischen 1899 und 1940 auf, als die kumulativen CO₂-Emissionen lediglich 139,6 Milliarden Tonnen betrugen. Die folgende Periode von 1941 bis 1982 verzeichnete eine durchschnittliche jährliche Abkühlung von –0,013 °C, was damals weitverbreitete Befürchtungen einer neuen Eiszeit auslöste – trotz eines 3,3-fachen Anstiegs der kumulativen CO₂-Emissionen. Von 1983 bis 2024 lag die durchschnittliche jährliche Erwärmung bei 0,017 °C und damit unter der Erwärmung bis 1940, als die CO₂-Konzentrationen 8,7-mal niedriger waren. Bei der Betrachtung dieser Zahlen ist festzuhalten, dass die Annahme, der Mensch verursache den Großteil des Klimawandels, eine Hypothese ist – mit anderen Worten eine Meinung, eine Vermutung, der durch Computermodelle auf Basis des aktuellen oder selektiven Wissensstandes eine unbegründete Glaubwürdigkeit verliehen wird. Politische Eingriffe zur Förderung der Netto-Null-Fantasie tragen wenig zur Erweiterung des tatsächlichen Wissensstands bei.
Diese Muster passen selbstverständlich schlecht zur „feststehenden“ politischen Ansicht, dass steigendes CO₂ aus der Nutzung von Kohlenwasserstoffen der Haupttreiber der jüngsten globalen Erwärmung sei. Tatsächlich passen sie überhaupt nicht zur jüngsten, lächerlichen pseudowissenschaftlichen Behauptung des britischen Met Office, wonach seine „schnelle Attributionsstudie“ gezeigt habe, dass menschengemachter Klimawandel die rekordhohe Jahresmitteltemperatur des Vereinigten Königreichs im Jahr 2025 etwa 260-mal wahrscheinlicher gemacht habe. Ein Rekord, wohlgemerkt, von sechs Hundertstel Grad Celsius, gewonnen aus einem weitgehend „müllhaften“ Messnetz, das durch massive, unnatürliche und unkorrigierte Wärmeeinflüsse im Wesentlichen unbrauchbar ist.
Nicht nur werden kaum – wenn überhaupt – Anpassungen für urbane Wärmeverfälschungen vorgenommen, sondern globale Temperaturdatensätze, die eine Erwärmung von bis zu 1,3 °C über das Industriezeitalter hinweg propagieren, werden häufig rückwirkend nach oben korrigiert. GISS, Teil der NASA, erhöhte die vergangene Erwärmung von Januar 1915 bis Januar 2000 von 0,45 °C auf 0,67 °C, ein massiver Anstieg um 49 %. HADCRUT wird vom britischen Met Office betrieben, das einst ein Papier über die unbequeme Temperatur-„Pause“ von 1998 bis 2013 veröffentlichte. Leider überlebte diese Pause die erheblichen rückwirkenden Erwärmungskorrekturen nicht – ist jedoch im präzisen Satellitendatensatz weiterhin sichtbar.
Zyniker haben schon beobachtet, dass es in globalen Temperaturdatensätzen mehr Tricksereien gibt als Geigen im Notenschrank der Royal Philharmonic.
In der realen wissenschaftlichen Welt stammt diese neue Analyse historischer Temperaturdaten vom Dr. Bibek Bhatta. Er arbeitet an der Queen’s University in Belfast, seine Forschungsschwerpunkte liegen in Energiepolitik, Finanzen und Klima, mit Fokus auf der Nutzung von Big Data, um verborgene Muster und systemische Fehlanpassungen aufzudecken. In seiner jüngsten Arbeit argumentiert Dr. Bhatta, dass akademische Forscher dem Konzept der anthropogenen globalen Erwärmung (AGW) mit einer gewissen Vorsicht begegnen sollten.
„Anstatt AGW als feststehende Tatsache zu behandeln, sollten Wissenschaftler aller Fachrichtungen ermutigt werden, die bestehenden Unsicherheiten anzuerkennen“, sagte er. Beim Aufbau von Modellen oder Theorien, die CO₂ als primären Treiber des Wetterwandels annehmen, sollten sie beachten, dass „empirische Belege für diesen direkten Zusammenhang weiterhin Gegenstand von Debatten sind“.
In einem früheren Abschnitt seiner Arbeit geht Bhatta auf die weitgehend widerlegte Behauptung eines 97-prozentigen Konsenses unter Wissenschaftlern zur AGW ein. Diese Behauptung entstand aus einer angeblichen Untersuchung von fast 4.000 Veröffentlichungen über einen Zeitraum von 21 Jahren, was im Durchschnitt eine neue Arbeit alle zwei Tage bedeuten würde. Dies deute eher auf eine Herdenmentalität als auf eine Vielzahl unabhängiger Beweise hin, kommentiert Bhatta.
„Wenn ein starkes empirisches Beweisstück für AGW existierte, wäre eine derart repetitive Bestätigung unnötig“, argumentiert er. Vielleicht ist Dr. Bhatta zu höflich, um hinzuzufügen, dass die 97-Prozent-Zahl – ebenso wie die spätere 99-Prozent-Behauptung – größtenteils ohnehin fabriziert war.
Dr. Bhattas Arbeit mit großen meteorologischen Datensätzen ist faszinierend. Er präsentiert seine Ergebnisse über mehrere Zeiträume hinweg; vollständige Details und Methodik finden sich im oben verlinkten Originalpapier. Sein Ziel ist einfach: zu untersuchen, ob die von tatsächlichen Wetterstationen aufgezeichneten globalen Erwärmungstrends „hauptsächlich“ menschlichen CO₂-Emissionen zugeschrieben werden können. Seine Arbeit reiht sich in eine lange Linie von Forschungen ein, die ein realistischeres Bild des sich ständig wandelnden Klimas der Vergangenheit zeichnen wollen – zu Zeiten, in denen die CO₂-Konzentrationen deutlich höher waren und kein offensichtlicher Zusammenhang mit lokalen oder globalen Temperaturveränderungen bestand. Solche Arbeiten, die in den meisten wissenschaftsfeindlichen Mainstream-Medien faktisch verbannt sind, untersuchen die Rolle natürlicher Wettervariabilität und die mögliche „Sättigung“ von Gasen mit erwärmenden atmosphärischen Eigenschaften.
Insgesamt wurden 105 Millionen globale Temperaturaufzeichnungen aus dem Global Historical Climatology Network heruntergeladen. Nach umfangreicher Bereinigung umfasste die endgültige Stichprobe rund 42 Millionen Messungen mit kontinuierlichen Daten ab mindestens 1900. Alle Datensätze enthielten tägliche Maximal- und Minimaltemperaturen und stammten von 992 Stationen in 29 Ländern. Die Daten zu jährlichen menschlichen CO₂-Emissionen wurden von Our World in Data übernommen. Zur Anpassung an urbane Wärmeeffekte wurden Satellitendaten genutzt, die den Urbanisierungsgrad innerhalb eines 10-km-Radius abbilden. Vergleichbare Arbeiten wurden von anderen Forschern durchgeführt, die den Einfluss urbaner Wärme auf Lufttemperaturmessungen schätzen wollten. Wie die Tabelle zeigt, betrug die jährliche Erwärmung für 1983–2024 0,0167 °C, verglichen mit 0,0209 °C, wenn urbane Wärmeverfälschungen nicht berücksichtigt werden. Liebhaber der „heißestes Jahr aller Zeiten“-Behauptungen des Met Office sollten diese Zahlen zur Kenntnis nehmen.
Abschließend stellt Dr. Bhatta fest, dass seine Ergebnisse ernsthafte Fragen zu den etablierten Annahmen über die Auswirkungen von CO₂-Emissionen auf die globale Erwärmung aufwerfen. Während der Weltklimarat (IPCC) „zweifelsfrei“ behauptet, der Mensch habe die globale Erwärmung verursacht, so führt er aus, „liefert die hier präsentierte empirische Evidenz keine Unterstützung für eine derart einfache Beziehung“.
Milliardäre folgen Trumps Grönland-Fantasie: Gates, Thiel und Bezos sichern sich Zugriff auf strategische Rohstoffe
Milliardäre, Rohstoffe, Machtprojektion: Warum Grönland ins Zentrum eines geopolitischen Spiels rückt
Seit der ersten Amtszeit von Donald Trump investieren US-Milliardäre wie Bill Gates und Peter Thiel in KI-gestützten Bergbau und ambitionierte Zukunftsprojekte in Grönland. Trumps erneute Äußerung in dieser Woche, die USA sollten die zum Königreich Dänemark gehörende Insel erwerben – militärische Mittel schloss er dabei ausdrücklich nicht aus –, verleiht diesen Aktivitäten neue Brisanz.
Das wiederauflebende Interesse Washingtons an Grönland hat nicht nur diplomatische Spannungen verschärft, sondern auch einen bemerkenswerten Kapitalzufluss ausgelöst. Was 2019 als scheinbar exzentrische Idee eines US-Präsidenten begann, entwickelt sich zunehmend zu einem strategischen Wettlauf um Rohstoffe, Einfluss und sicherheitspolitische Vorherrschaft im arktischen Raum.
Eine Schlüsselrolle spielt dabei Ronald Lauder, Erbe des Estée-Lauder-Imperiums. Nach Angaben des ehemaligen US-Sicherheitsberaters John Bolton war es Lauder, der Trump Ende 2018 erstmals auf die Idee brachte, Grönland „zu kaufen“. Die langjährigen persönlichen und politischen Verbindungen zwischen beiden sind eng; Lauder zählt zudem zu den bedeutenden Geldgebern konservativer und trumpnaher Initiativen. Öffentlich plädiert er seitdem für einen stärkeren amerikanischen Einfluss auf der Insel.
Seine Aktivitäten blieben nicht auf politische Rhetorik beschränkt. Wie die dänische Zeitung Politiken berichtete, investierte Lauder in ein defizitäres grönländisches Mineralwasserunternehmen, das sich teilweise im Besitz eines einflussreichen Politikers der Regierungspartei Siumut befindet – zugleich Ehemann der grönländischen Außenministerin. Diese personellen und finanziellen Verflechtungen haben in Dänemark und Grönland Fragen nach möglicher politischer Einflussnahme aufgeworfen. Zudem ist Lauder über ein US-Konsortium an Plänen für ein Wasserkraftprojekt beteiligt, an dem auch ehemalige Spitzen-Diplomaten beteiligt sind.
Parallel dazu rückten Grönlands Vorkommen an seltenen Erden ins Visier globaler Investoren. Jeff Bezos, Gates und Michael Bloomberg beteiligten sich ab 2019 an KoBold Metals, einem Unternehmen, das mithilfe künstlicher Intelligenz nach strategisch wichtigen Mineralien sucht. Die Investitionen erfolgten über Breakthrough Energy, einen von Gates initiierten Fonds. KoBold wuchs rasch zu einem Milliardenunternehmen heran und wurde Ende 2024 mit knapp drei Milliarden US-Dollar bewertet.
Im selben Jahr stieg auch Sam Altman über seinen Investmentfonds ein. Interne Unterlagen deuten darauf hin, dass KoBold erneut Kapital aufnehmen will – zu einem Zeitpunkt, an dem Grönland zunehmend als strategischer Schlüsselraum für Versorgungssicherheit und geopolitische Machtprojektion gilt. Keiner der beteiligten Investoren wollte sich gegenüber Forbes inhaltlich äußern.
Neben rohstoffgetriebenen Engagements existieren auch ideologisch geprägte Projekte. Thiel finanzierte 2021 das Start-up Praxis, das den Bau einer technologisch hochgerüsteten „Freiheitsstadt“ in Grönland plant – ein Konzept, das staatliche Regulierung bewusst minimieren will.
Diese Investitionsdynamik fällt zeitlich mit einer neuen Eskalation in Trumps Rhetorik zusammen. Er erklärte jüngst, die Kontrolle über Grönland sei für die nationale Sicherheit der USA notwendig. Aussagen aus seinem Umfeld nährten sogar Spekulationen über militärische Optionen, was europäische Regierungen zu einer gemeinsamen Bekräftigung der grönländischen Souveränität veranlasste. Später versuchten US-Vertreter, die Lage zu beruhigen und militärische Szenarien als unrealistisch darzustellen.
Dennoch bleibt das Thema politisch hochsensibel. Elon Musk äußerte offen, eine Annexion könne legitim sein – sofern die grönländische Bevölkerung zustimme.
Was einst als provokante Randbemerkung begann, ist heute Teil eines komplexen Geflechts aus geopolitischen Interessen, Kapitalströmen und strategischen Rohstoffen. Grönland steht damit zunehmend im Brennpunkt globaler Machtkonkurrenz – und die Trennlinie zwischen wirtschaftlichem Engagement und politischem Einfluss wird immer schwerer zu ziehen.
Catherine Herridge enthüllt, wie CBS die Hunter-Biden-Laptop-Story blockierte und ihre Dateien beschlagnahmte
Die erfahrene investigative Journalistin Catherine Herridge hat offen über die Umstände ihres Ausscheidens bei CBS im Jahr 2024 gesprochen – einschließlich der Kontroverse um den Hunter-Biden-Laptop-Skandal, bei dem sie nach eigenen Angaben bereits im Oktober 2020 mehrere Dokumente authentifiziert hatte, dann jedoch auf internen Widerstand stieß, der verhinderte, dass die Geschichte vollständig verfolgt oder ausgestrahlt wurde, als sie sendefertig war.
Transkript:
Diese Woche bei „Straight to the Point“ eine persönliche Botschaft. Im Jahr 2025 hat unser Team groß auf unabhängigen Journalismus gesetzt. Wir glaubten, dass Sie der Talking-Points-Fernsehsendungen müde waren, dass Sie der vorhersehbaren, abgestandenen Formate am Sonntag überdrüssig waren und dass Sie offen für etwas Neues sind.
Eine aktuelle Gallup-Umfrage bestätigte unsere Berichterstattung. Sie ergab, dass weniger als 30 Prozent der Amerikaner Vertrauen haben, dass die Medien Nachrichten vollständig, korrekt und fair berichten. Ich habe das selbst erlebt, als leitende investigative Korrespondentin von CBS News, die mit der Untersuchung der Hunter-Biden-Affäre betraut war.
Nachdem ich gegangen war, wollte ich transparent über die Blockaden sprechen, mit denen ich bei CBS News konfrontiert war. Zu dieser Zeit stand CBS News unter einer anderen Leitung und äußerte sich nicht dazu. Eine der offensichtlichen Fragen ist: Warum sitze ich hier und spreche über meine Zeit bei CBS News?
Ich hatte immer großen Respekt vor meinen früheren Arbeitgebern, aber in diesem Fall hatte ich so viele Fragen zu meiner Zeit bei CBS. Ich halte hier inne, um zu versuchen, diese Fragen zu beantworten. Ich denke, es ist besser, es von mir zu hören als von jemand anderem.
Ich wollte so lange ich mich erinnern kann bei CBS News arbeiten. Das erste Mal dachte ich an CBS News, als ich Praktikantin bei ABC News in London war, umgeben von vielen erfahrenen Auslandskorrespondenten. Einige von ihnen waren in Vietnam gewesen. Einige hatten bei CBS News gearbeitet. CBS schien ein Ort für unabhängigen investigativen Journalismus zu sein. Ich hätte mir nie vorgestellt, dass ich bei „60 Minutes“ arbeiten würde.
Mit 55 einen Job bei CBS zu bekommen, war für mich ein Zeichen dafür, dass sich die Branche verändert und Frauen anerkennt, die gut vernetzt und erfahren im Bereich der nationalen Sicherheit sind. Ich wurde im Februar 2024 entlassen. Wir wussten, dass Entlassungen bevorstanden.
Ich hatte nicht erwartet, entlassen zu werden. Ich glaube nicht, dass es an meiner Leistung lag. Ich war Teil eines Emmy-prämierten Teams, hatte mehrere Emmy-Nominierungen, wir hatten einen renommierten Umweltpreis gewonnen. Darauf bin ich bis heute stolz.
Unsere Berichterstattung betraf eine Million Veteranen und führte zu einer Ausweitung ihrer Leistungen. An diesem Morgen kam eine unternehmensweite E-Mail, dass es Entlassungen geben werde. Innerhalb von sechs oder sieben Minuten erhielt ich eine Nachricht von meinem Büroleiter Mark Lima mit der Aufforderung, an einem Zoom-Call teilzunehmen.
Mein Mann fragte mich, was ich heute mache. Ich sagte: „Ich glaube, ich werde entlassen.“ Im Zoom-Call war eine Person aus der Personalabteilung, die mir sagte, mein Arbeitsverhältnis werde beendet, ich sei aus dem Büro und aus meinen E-Mails ausgesperrt, und meine persönlichen Gegenstände würden mir irgendwann zugeschickt.
Ich war zunächst wie betäubt. Was mich mehr überraschte, war, dass CBS News meine Recherchedaten beschlagnahmte.
Im Oktober 2020 bat mich eine leitende CBS-Führungskraft, Ingrid Cyprian-Matthews, bestätigte Berichte zur Hunter-Biden-Geschichte zu liefern. Ich brachte ihr mehrere Unterlagen, bei denen ich gründliche Prüfungen vorgenommen hatte. Ich war sehr sicher, dass es sich um bestätigte Laptop-Dokumente handelte.
Was ich sagen kann: Es wäre Standard gewesen, dass die investigative Abteilung tiefer gräbt, um eigene Berichte zu entwickeln. Das geschah nicht. Das enttäuschte mich, denn ich sah darin eine Chance für CBS News, voranzugehen und sich von anderen Netzwerken abzuheben.
Diese Chance wurde verpasst. Das war nicht meine Entscheidung. Es war frustrierend.
Ich tat meinen Teil. Ich lieferte die Unterlagen, wie verlangt. Aber irgendwo weiter oben bei CBS wurde entschieden, die Sache zu diesem Zeitpunkt nicht weiterzuverfolgen.
Als ich dann den „60 Minutes“-Beitrag sah, in dem Lesley Stahl zu Präsident Trump sagte, man könne das nicht verifizieren, wurde mir übel – denn ich wusste, dass ich mehrere Dokumente authentifiziert hatte.
Das zeigte mir, dass da noch viel mehr war. Mit genügend journalistischer Schlagkraft hätte man vieles verifizieren können. Ich weiß nicht, ob die linke Hand der Nachrichtenabteilung nicht wusste, was die rechte Hand bei „60 Minutes“ tat.
Ich weiß nicht, was dort geschah. Als Nora O’Donnell den damaligen Kandidaten Biden fragte, ob es sich um eine russische Desinformationskampagne handle, schrieb mir Ingrid Cyprian-Matthews, ich solle alle bestätigten Berichte schicken. Ich tat das.
Ich weiß nicht, ob diese Informationen Nora jemals erreichten. Ich wurde gebeten, bestätigte Berichte zu liefern. Ich weiß nicht, was dann geschah.
Ich habe im Oktober 2020 keinerlei Hinweise gefunden, dass es sich um eine russische Informationsoperation handelte. Die Aussagen ehemaliger Geheimdienstler, die von „klassischen Merkmalen“ sprachen, waren vage. Ich sah keine Belege dafür.
Alle Dokumente, die ich überprüfte, passten zusammen. Der Brief der über 50 ehemaligen Geheimdienstler störte mich zutiefst – es war eine gefährliche Vermischung von Geheimdiensten und Politik.
Ich wurde von der obersten CBS-Führung mit der Hunter-Biden-Geschichte beauftragt. George Cheeks sagte mir mehrfach, es sei höchste Priorität für das Netzwerk und für seine Chefin Shari Redstone.
Es gab Unterstützung im Unternehmen, aber auch massiven Widerstand. Fakten spielten für einige keine Rolle. Das hat mich als Journalistin sehr belastet.
Warum ich nicht kündigte? Ich fühlte mich verpflichtet, den Auftrag auszuführen – trotz interner Blockaden.
Wir strahlten schließlich 2022 nach den Zwischenwahlen einen Beitrag aus. Ich argumentierte dagegen, weil die Geschichte vorher fertig war. Journalismus sollte nicht vom politischen Kalender diktiert werden.
Es gab weitere Themen – rassistische Textnachrichten, mögliche E-Mails von Joe Biden – alles wurde abgelehnt.
Ich verstand nicht, wie eine Anweisung von ganz oben so offen ignoriert werden konnte.
Als ich schließlich entlassen wurde, überprüfte ich die Metadaten meines Kündigungsschreibens: Es wurde einen Tag nach meiner Berichterstattung über den Sonderermittler Robert Hur erstellt. Das war bemerkenswert.
Am Tag meiner Entlassung bat ich darum, weiterarbeiten zu dürfen – insbesondere an einer Veteranen-Geschichte. CBS lehnte ab. Jon Stewart half später, diese Geschichte abzuschließen.
Dass CBS meine Recherchedaten beschlagnahmte, überschritt eine rote Linie. Quellen riefen mich an und fragten, ob ihre Identität gefährdet sei. Ich konnte das nicht mehr verneinen.
Quellenschutz und freie Presse sind mein Nordstern.
Heute arbeite ich unabhängig. Es ist befreiend. Fakten haben ihre eigene Kraft.
Und das ist jetzt mein Fokus.





