Kategorie: Nachrichten
Sprechen wir noch mal über die terrestrische IR-Abstrahlung
ZUSAMMENFASSUNG: Im Faktor4-THE-Paradigma wird der nicht existente Durchschnitt von Tag und Nacht gebildet, aber die Gravitation vergessen. Die terrestrische Temperaturgenese wird dort nämlich aus dem historisch überkommenen globalen 24h-Leistungsdurchschnitt (@4PiR^2) der solaren Einstrahlung mittels einer Inversion des S-B-Gesetzes abgeleitet und nicht aus der tatsächlichen örtlichen Sonneneinstrahlung auf der Tagseite der Erde (vereinfacht @2PiR^2). Und wenn man am Ende von der terrestrischen IR-Abstrahlung auf „Abstrahlungshöhe“ einfach nur noch einmal barometrisch zur NN-Bodentemperatur zurückgerechnet hätte, dann wäre dieser Widerspruch aufgefallen und uns allen ein „natürlicher atmosphärischer Treibhauseffekt“ erspart geblieben.
von Uli Weber
Der Glaubenssatz des Faktor4-THE-Paradigmas lautet [-18°C + 33K = 15°C] und muss natürlich auch irgendwie die IR-Abstrahlung unserer Erde erklären:
Abbildung 1: Die Grundlagen des CO2-Klimaglaubens bestehen aus 3 eindimensionalen Zahlenwerten
Denn was ‘reingeht, muss ja auch wieder ‘rausgehen. Und so ist das auch mit der solaren Energie, die nach Abzug der Albedo ständig die terrestrische Temperaturgenese antreibt. Immerhin handelt es sich um 10,5 Zetajoule in 24 Stunden (oder 86.400 Sekunden) die im Mittel von der Erde als IR-Strahlung auch wieder abgestrahlt werden. Denn es kommt sekündlich neue Sonnenenergie nach, und da muss die „verbrauchte“ als IR-Abstrahlung ganz schnell wieder verschwinden. Sonst würde das zu einer Schellnhuber’schen Selbstverbrennung unserer Erde führen, und das wollen wir ja nicht.
Nun kann unsere Erde aber Energie nur durch Abstrahlung in den Weltraum abgeben. Und da haben sich viele schlaue Leute Gedanken gemacht, wie sie das bewerkstelligen und auch gleichzeitig noch die Differenz aus ihrer fehlerhaften Faktor4-Stefan-Boltzmann-Inversion und der sogenannten „gemessenen globalen Durchschnittstemperatur“ erklären können. Daraus entstand der Aberglaube an einen sogenannten „natürlichen atmosphärischen Treibhauseffekt“, wie er sich in der nachstehenden Abbildung aus einer ominösen „Gegenstrahlung“ herleiten lassen soll:
Abbildung 2: „Die Bedeutung der Treibhausgase im Strahlungshaushalt der Erde“ (Abb. gestaucht)
von Klimawandel Graubünden – Original DWD
Wir sehen also, dass die Realität doch etwas komplizierter ist als die reine Glaubensformel. Zunächst einmal fällt auf, dass die Erde bei einer Solarkonstanten von So=1.367W/m² durch den Faktor4 nur 341W/m² von der Sonne erhält, und davon wiederum erhält die Erdoberfläche nur 161W/m². Daraus ergibt sich nach dem Stefan-Boltzmann-Gesetz schon mal eine „natürliche“ Temperatur von [-42,3°C] für unsere Erdoberfläche anstelle der ominösen [-18°C] aus dem THE-Glaubensbekenntnis – und darin sind die Abzüge für Konvektion (17W/m²) und „Evapotranspiration“ (80W/m²) noch nicht einmal berücksichtigt. So, und jetzt kommt die künstliche Intelligenz der terrestrischen Infrarotstrahlung ins Spiel. Denn die macht durch die sogenannte „Gegenstrahlung“ aus den 161W/m² eben mal 396W/m². Insgesamt gehen dann 239W/m² ‘rein und 239W/m² gehen auch wieder ‘raus, und dazwischen herrschen 15°C mit 396W/m², während 332W/m² als „Gegenstrahlung“ im System entgegen den Hauptsätzen der Thermodynamik ständig herumkreiseln, um die fehlerhafte Faktor4-Stefan-Boltzmann-Inversion im THE-Paradigma zu kompensieren – welche individuellen IR-W/m² das dann genau sind, regelt die IR-Gruppen-KI. Wir haben hier also den Konstruktionsplan für ein Perpetuum Mobile vor uns, zu dem wir auf Wikipedia folgende Aussage finden, Zitat:
„Das Deutsche Patent- und Markenamt weist Patentanmeldungen, die ein Perpetuum mobile zum Gegenstand haben, unter Verweis auf die mangelnde Ausführbarkeit der Erfindung (gewerbliche Anwendbarkeit) nach § 1 Abs. 1 PatG zurück. Der potenzielle Erfinder könnte einen Schutz seiner Erfindung nur dadurch erreichen, dass er dem Deutschen Patent- und Markenamt einen funktionstüchtigen Prototyp präsentiert.“
Und die CO2-Klimareligion behauptet jetzt natürlich, dass die sogenannte „gemessene globale Durchschnittstemperatur“ den experimentellen Beweis für dieses Perpetuum Mobile liefert, aber in einem technischen Maßstab nicht nachgebaut werden kann. Genau darauf ist das Geschäftsmodell der globalen „Dekarbonisierung“ aufgebaut, das von Subventionen, der CO2-Steuer und der Zerstörung unserer technischen Zivilisation lebt.
Und das alles beruht auf dem MINT-fernen Glauben an rein mathematische Durchschnittswerte, die unsere real existierende Physik außer Kraft zu setzen vermögen.
Der Autor hatte an anderer Stelle betont, dass auch Durchschnittswerte durchaus ihre Berechtigung haben können. Durchschnittswerte sind aber eine reine Einbahnstraße für die tiefere Erkenntnis, weil von dort aus nun einmal kein Weg mehr zu irgendeiner physikalischen Originalverteilung zurückführt. Und genau so führt von dem Tag&Nacht-Durchschnitt des Faktor4-THE-Paradigmas mit einer durchschnittlichen temperaturwirksamen Einstrahlungsleistung unserer Sonne von 239W/m² kein Weg mehr zurück in die physikalische Realität von Tag- und Nachthemisphäre. Während also beim Faktor4-THE-Paradigma die terrestrische Temperaturgenese durch den Eingriff des Klimagottes CO2 in eine durchschnittliche Tag=Nacht-Halbdunkelwelt erfolgt, leitet mein hemisphärisches Konvektionsmodell die terrestrische Temperatur direkt aus der solaren Einstrahlung auf der Tagseite der Erde her. Ausgerechnet bei der terrestrischen IR-Abstrahlung hatte ich mich allerdings sehr frühzeitig dem Faktor4-THE-Paradigma angeschlossen. Und das hatte drei gute Gründe:
[1] Ich hatte also nachgewiesen, dass die sogenannte „gemessene globale Durchschnittstemperatur“ von 15°C auf der Tagseite der Erde (@2PiR²) ohne den sogenannten „natürlichen atmosphärischen Treibhauseffekt“ aus dem maximalen Stefan-Boltzmann-Temperaturäquivalent einer S-B-Inversion der zenitabhängigen Solareinstrahlung abgeleitet werden kann.
[2] Anders als die solare Einstrahlung erfolgt die terrestrische Abstrahlung selbstverständlich über die gesamte Erdoberfläche (@4PiR²). Und da die sogenannte „Globaltemperatur“ ausreichend stabil ist (hier im Anhang), sodass eine „Resonanzkatastrophe“ hin zu einer Schneeball-Erde oder einem Schellnhuber’schen Fegefeuer mit hinreichender Sicherheit ausgeschlossen werden kann, hatte ich mich bei der terrestrischen Abstrahlung dem Faktor4-THE-Paradigma angeschlossen.
[3] Schließlich ist es ein Leichtes, aus der sogenannten „gemessenen globalen Durchschnittstemperatur“ von 15°C und der bodennahen Abstrahlung von 390W/m² mittels der barometrischen Höhenformel die erforderlichen 235W/m² (meist wird mit 239W/m² gerechnet) bei einer Abstrahlungstemperatur von (-18°C) für die sogenannte „Abstrahlungshöhe“ von etwa 5.000 Metern herzuleiten. Und damit ist dann der erforderliche Gleichstand zwischen Einstrahlung@2PiR² und Abstrahlung@4PiR² für unsere Erde nachgewiesen.
Die Erde ist ein eingeschwungenes System, was meine Kritiker immer zu vergessen belieben. Denn die Tagestemperatur baut eben nicht auf 0 Kelvin auf, wie das in meiner Berechnung für die maximal mögliche Durchschnittstemperatur von 15°C auf der Tageshemisphäre erfolgt war, sondern im Wesentlichen auf der morgendlichen Temperatur der Ozeane. Und deren Strahlungsdifferenz zum absoluten Nullpunkt von 0Kelvin steht dem Temperatursystem unserer Erde jederzeit zur freien Verfügung.
Herr Arno Kuck hatte mit zwingender Logik dieses eingeschwungene Temperatursystem unserer Erde in ganz leichter Sprache sehr schön begreifbar gemacht, Zitat:
“Arno Kuck Reply to Peter Dietze 15. Juli 2025 19:15
Herr Dietze,
nur wenn
„die Differenz der Oberflächenabstrahlung zwischen der solar beschienenden Tag-Halbkugel und
der Nacht-Halbkugel der nächtlichen Wärmeabstrahlung entspricht“
kühlt sich die Erde weder ab und noch erwärmt sie sich.
Kleinere Abweichungen sind in beide Richtungen möglich, aber nicht entscheidend.“
Ich vermute aber, dass trotzdem noch immer nicht alle THE-Gläubigen diesen zwingenden Gleichstand zwischen der Einstrahlung@2PiR² und der Abstrahlung@4PiR² verstanden haben und stelle daher die Ableitung der terrestrischen Abstrahlungsleistung nachfolgend noch einmal ausführlich dar:
Bei physikalischen Prozessen müssen die Randbedingungen üblicherweise korrekt eingehalten werden, wenn es um die Herleitung quantitativer Ergebnisse geht. Quantitative Ergebnisse spielen aber eine untergeordnete Rolle, wenn es lediglich um die prinzipiellen physikalischen Prozesse selbst geht. Und da dieser prinzipielle Prozess die terrestrische IR-Abstrahlung ins All beschreiben soll, erlaube ich mir, nachfolgend ausnahmsweise mit Durchschnittswerten zu argumentieren.
Unsere Erde und ihre Atmosphäre schweben voll isoliert durch den Weltraum und befolgen dabei die Gesetze der Gravitation. Der Verlust von Energie an den uns umgebenden masselosen Raum kann dabei also nur durch Strahlung erfolgen. Das Wetter auf unserer Erde spielt sich in der Troposphäre ab, die ebenfalls den Gesetzen der Gravitation gehorcht. Der Energietransport in den terrestrischen Strömungssystemen, und hier betrachten wir jetzt nur die Atmosphäre, ist im Wesentlichen geprägt durch die Gegensätze von Konvektion und Advektion sowie Verdunstung und Kondensation; Strahlungstransport spielt hier, außer direkt an der Erdoberfläche, keine nennenswerte Rolle. Und bevor sich jetzt die üblichen Verdächtigen aufregen, nachfolgend ein paar verständnisfördernde Beispiele:
[*] Strahlungstransport erfolgt mit Lichtgeschwindigkeit, Hitzewellen werden aber durch die Advektion von vorhersagbaren Warmluftmassen verursacht.
[**] Bei Omega-Wetterlagen „saugt“ sich warme Luft über dem Mittelmeer mit Wasserdampf als überwiegendes „Klimagas“ bis zum Gehtnichtmehr voll und hält dann ihr Wasser bis in die Quellgebiete von Elbe und Oder.
[***] Bei Föhn hat noch niemand durch die erwärmte Luft einen IR-Sonnenbrand bekommen, sondern durch die starke UV-Sonneneinstrahlung bei wolkenlosem Himmel.
So, und jetzt rechnen wir einfach mal von der sogenannten Abstrahlhöhe auf 5.070 Metern und der „natürlichen Temperatur“ von -18°C mit der barometrischen Höhenformel und dem Durchschnittswert von +6,5°/1.000m auf NN-Meeresniveau herunter:
Rückrechnung von -18°C @5,070km mit 6,5°/km auf NN. ≙ 15°C entsprechend 390W/m²
Tja, da hat man beim Faktor4-THE-Paradigma also von Anfang an das Pferd von hinten aufgezäumt. Denn bei einem nicht vorhandenen Wärmetransport durch Strahlung in der Troposphäre hätte man einfach nur die 239W/m² (bei mir sind’s 235W/m²) von irgendeiner sinnvollen „Abstrahlungshöhe“ herunterrechnen müssen und wäre ganz zwanglos auf die „gemessene globale Durchschnittstemperatur“ von 15°C gekommen. Von daher ist das Faktor4-THE-Paradigma also doppelt gemoppelt, denn die barometrische Rückrechnung von der Abstrahlhöhe auf die Erdoberfläche und die Faktor4-THE-Gegenstrahlung ergeben beide für sich allein schon die erforderlichen 155W/m² zwischen 239W/m² (235W/m²) und 390W/m² für die „globale Durchschnittstemperatur“ von 15°C.
„Einstrahlungsebene“ ist im Faktor4-THE-Paradigma also nicht gleich „Abstrahlungshöhe“, denn dazwischen herrscht nun mal die Gravitation über die barometrische Höhenformel. Man unterlässt es aber trotzdem, Einstrahlung und Abstrahlung auf gleicher atmosphärischer Höhe zu vergleichen, indem man diese beiden unterschiedlichen Niveaus eben nicht über die barometrische Höhenformel zusammenführt. Denn allein aus der Rückrechnung von der „Abstrahlungshöhe“ auf Meereshöhe wird aus der „natürlichen Temperatur der Erde“ von (-18°C) ganz zwanglos die „gemessene globale Durchschnittstemperatur“, was meine hemisphärische Ableitung der maximal möglichen Durchschnittstemperatur auf der Tagseite unserer Erde mit 15°C voll bestätigt. Die terrestrische Temperaturgenese wird also durch eine Art „gavitativen atmosphärischen Wärmestau“ zwischen „Einstrahlungsebene“ und „Abstrahlungshöhe“ bestimmt, wo auf der „Einstrahlungsebene“ eben höhere Temperaturen herrschen als auf der „Abstrahlungshöhe“.
Dieser Vorgang ist eigentlich ganz leicht zu verstehen, denn die Atmosphäre unserer Erde ist eben ein gravitativ bestimmter Körper und der Energieinhalt von einem Kubikmeter Luft unterscheidet sich zwischen Meeresniveau und 5 Kilometern Höhe nun mal aufgrund der unterschiedlichen (Teilchen-)Dichte ganz erheblich, und damit natürlich auch die Temperatur. Von der (in dieser Betrachtung) hemisphärisch auf durchschnittlich 15°C erwärmten Erdoberfläche wird durch Wärmeleitung und bodennaher Abstrahlung Energie auf die umgebenden Luftmoleküle übertragen. Diese dadurch höher aktiven Luftmoleküle machen sich nun unter ständigen Zusammenstößen untereinander konvektiv auf den Weg in Richtung auf die sogenannte „Abstrahlungshöhe“ mit geringerer Luftdichte und einer Temperatur von -18°C, um dort schließlich ihre Energie auf ein IR-aktives Molekül zu übertragen, das von dort aus dann endlich einen IR-Quant ins Weltall abschießen kann.
In beiden Modellen (hemisphärisch und Faktor4) wird nun aber mit 40W/m² zu viel gerechnet, denn die Abstrahlung 390W/m² von der Erdoberfläche gliedert sich auf in 350W/m² Strahlung, die IR-aktive Moleküle anzuregen vermag und 40W/m², mit denen diese Moleküle nichts anfangen können und die daher einfach durch das sogenannte „atmosphärische Fenster entweichen. Damit stimmt dann aber die sogenannte „Abstrahlungshöhe“ im Faktor4-THE-Paradigma nicht mehr, der ich mich ja über die barometrische Höhenformel angeschlossen hatte. Also noch mal zurück und das Ganze nochmal neu gerechnet. Dabei wird’s insofern problematisch, weil die Frage geklärt werden muss, womit wir jetzt denn eigentlich rechnen sollen, mit 350W/m² oder mit den vorherigen 390W/m², von denen inzwischen ja 40W/m² fehlen. Nachfolgend habe ich mich für die 350W/m² entschieden, denn die direkt abgestrahlten 40W/m² haben die „Abstrahlungshöhe“ ja längst durchbrochen, während der Energietransport über die Luftmoleküle noch in vollem Gange ist:
Hochrechnung von NN.: 350W/m² und 7,15°C mit -6,5°/km auf -18°C ≙ 3,870 km mit 239W/m²
Damit sinkt die sogenannte „Abstrahlungshöhe“ um mehr als 1000 Meter unter die 4000-er Marke und damit in den erlebbaren Föhnbereich[***] der Alpenzone. Und vom Föhn wissen wir wiederum, dass dessen Energietransport durch Advektion stattfindet. Damit ist die Existenz einer „Abstrahlungshöhe“ unter 4.000 Metern höchst zweifelhaft, und es stellt sich die Frage nach Alternativen. Ich hatte in diesem Artikel das Pirani-Meßgerät aus einem EIKE-Artikel (Original bei WUWT) vorgestellt und daraus eine deutlich größere Abstrahlungshöhe abgeleitet. In der Grundversion besteht dieses Gerät aus einer Glasröhre und einem Glühdraht. Die Glasröhre kann evakuiert werden, wodurch ein definiertes Vakuum erzeugt wird. Gemessen wird die Leistung, die zur Aufrechterhaltung der Glühdrahttemperatur bei unterschiedlichen Drücken erforderlich ist:
Abbildung 3: Die Ansprechkurve für ein typisches Pirani-Messgerät aus „A Novel Perspective on the Greenhouse Effect” von Thomas E. Shula. Diese Abbildung wurde im WUWT-Original mit Genehmigung von MKS Instruments, Inc. (Andover, MA) veröffentlicht.
Roter Kreis (eingefügt): Erforderliche Leistung bei atmosphärischem Normaldruck
Anmerkung: Die blaue Kurve im linken Teil der Grafik mag möglicherweise irritieren, weil der logarithmische Maßstab die zunehmend geringer werdende Differenz zwischen der grünen und der roten Kurve stark überzeichnet.
Der gerätespezifische konstante Leistungsverlust durch Abstrahlung und Wärmeableitung über die Glühdrahtbefestigung des Pirani-Messgeräts aus dem WUWT-Artikel liegt bei 0,4 Milliwatt. Bei atmosphärischem Normaldruck, 760 Torr, beträgt die zur Aufrechterhaltung der Temperatur des Glühfadens erforderliche Leistung aber 100 mW (roter Kreis). Da die Strahlungs- und Endverluste 0,4 mW betragen, bedeutet dies, dass der Wärmetransport durch das Gas 99,6 % betragen muss. Daran ändert sich rein optisch auch bei 10 Torr noch nichts, was nach dem WUWT-Autor Shula einer Höhe von etwa 33 Kilometern entsprechen soll. Erst bei einem Luftdruck unterhalb von 1 Torr spalten sich die Kurven für Gesamtverlust (grün) und Gastransport (blau) langsam auf und bei etwa 0,02 Torr herrscht schließlich Gleichstand zwischen Abstrahlung und Gastransport, was einer Höhe von 76 Kilometern entsprechen soll.
Nach diesen Pirani-Meßergebnissen ist eine IR-Abstrahlung aus der Troposphäre praktisch unmöglich, und wir müssen uns einmal umschauen, wo es in der Erdatmosphäre noch Möglichkeiten für eine Abstrahlung von IR-Quanten aus einer Umgebung mit niederen negativen Celsiusgraden und entsprechendem Luftdruck geben kann. Beim Bildungsserver bin ich schließlich mit einem anschaulichen Atmosphärenprofil fündig geworden:
Abbildung 4: Der Stockwerkaufbau der Atmosphäre (Abb. gestaucht)
Download vom Bildungsserver – Primärquelle: Norbert Noreiks, Max-Planck-Institut für Meteorologie
Wie unschwer zu erkennen ist, bietet sich in der unteren bis mittleren Mesosphäre oberhalb der Stratopause ab 50 Kilometern Höhe und einem Luftdruck unterhalb von 1 hPa ein Bereich mit niederen negativen Celsiustemperaturen für die Abstrahlung von 239W/m² bei -18°C an. Mit etwa 65 Kilometern Höhe liegen wir hier halbwegs beim Gleichstand zwischen Strahlung und Gastransport in der Pirani-Kurve und haben damit die tatsächliche Abstrahlungshöhe aus der Erdatmosphäre gefunden. Folglich ist dann die „Abstrahlungshöhe“ von etwa 5.000 Metern aus dem Faktor4-THE-Paradigma genauso Geschichte wie der sogenannte „natürliche atmosphärische Treibhauseffekt“ und die ominöse „atmosphärische Gegenstrahlung“.
CONCLUSIO: It‘s Gravity, Stupid! Schade eigentlich, liebe Leut‘, der nicht existente CO2-Treibhauseffekt wird nun also zum Sargnagel unserer technischen Zivilisation – dümmer geht’s nümmer.
Der Beitrag Sprechen wir noch mal über die terrestrische IR-Abstrahlung erschien zuerst auf EIKE – Europäisches Institut für Klima & Energie.
DEFCON 1: Die Technokratie wird gerade von der Trump-Administration ins Leben gerufen
Ich warne seit fast 20 Jahren vor der Technokratie, unter anderem in drei Büchern, Tausenden von Artikeln auf Technocracy.news und unzähligen Medieninterviews. Jetzt ist es zu spät, sie aufzuhalten. Wir haben gerade den Wendepunkt überschritten, an dem die Technokraten die Kontrolle über die Trump-Regierung übernommen haben.
Trumps Vermächtnis wird als „Trump der Technokrat“ in die Geschichte eingehen. Ja, er war mehr als nur mitschuldig. Er wählte JD Vance zum Vizepräsidenten, einen Gefolgsmann und eine Schöpfung des Erz-Technokraten Peter Thiel. Er hat diese Technokraten, die sich in Washington, DC tummeln, überhaupt erst ernannt. Er hat die Ermächtigungsverordnungen und Gesetze wie das BBB und den Genius Act unterzeichnet. Er treibt die Einführung von Kryptowährungen voran, die die CBDCs ersetzen sollen, sowie die Kampagne zur Ausstattung aller Bürger mit tragbarer Technologie zur Erfassung biometrischer Daten. Er hat KI eingeführt, um die Regierung durch DOGE zu leiten, und einen Vertrag mit Palantir unterzeichnet, um alle Regierungsdaten in ein Sauron-ähnliches Panoptikum zu verwandeln.
Ich weiß, dass ich von Trump-Anhängern massiven Widerstand bekommen werde, weil ich ihn „Trump den Technokraten“ nenne, aber es ist, was es ist. Stellen Sie sich der Musik, solange sie noch spielt. Amerikaner aller Couleur müssen sich zusammentun, um die Technokratie zu zerstören, bevor sie uns zerstört.
Nehmt diese Videos (andere von Technocracy.news) und setzt euch mit euren Freunden und Bekannten zusammen und führt sie an der Hand. ⁃ Patrick Wood Editor.
Die Tokenisierung von allem: Ein Weg zur Technokratie oder zur Freiheit?
In einer aktuellen Folge des Courtney Turner Podcasts diskutieren die Gastgeberin Courtney Turner und ihre Gäste Aaron Day und Craig Winklewix ein Thema von brennender Aktualität: die Tokenisierung von Vermögenswerten und die damit verbundenen Gefahren einer technokratischen Kontrolle. Die Diskussion dreht sich um die jüngsten Entwicklungen in der digitalen Währungslandschaft, die Einführung neuer Gesetze in den USA und die potenziellen Bedrohungen für die individuelle Freiheit und kognitive Souveränität. Dieser Artikel beleuchtet die zentralen Punkte der Diskussion und analysiert die weitreichenden Implikationen dieser Entwicklungen.
Der Aufstieg der digitalen Währungen und die Tokenisierung
Die Welt der Finanzen steht an einem Scheideweg. Während digitale Währungen wie Bitcoin und Stablecoins wie Tether und USDC an Popularität gewinnen, sehen Turner, Day und Winklewix eine besorgniserregende Entwicklung: die Tokenisierung von Vermögenswerten. Tokenisierung bezeichnet den Prozess, bei dem physische oder finanzielle Vermögenswerte – wie Aktien, Anleihen, Immobilien oder sogar Kunstwerke – in digitale Token auf einer Blockchain umgewandelt werden. Diese Token können dann gehandelt, geteilt oder überwacht werden. Während die Technologie an sich Potenzial für mehr Effizienz und Transparenz bietet, warnen die Gäste des Podcasts, dass die derzeitige Umsetzung in Richtung einer zentralisierten Kontrolle geht, die die Freiheit der Bürger bedroht.
Die jüngsten Gesetzesinitiativen in den USA – der Clarity Act, der Stable Act und der Genius Act – sind laut Aaron Day ein Versuch, Stablecoins und tokenisierte Vermögenswerte unter die Aufsicht der US-Regierung und der Federal Reserve zu stellen. Diese Gesetze, die derzeit im Kongress diskutiert werden, könnten eine Hintertür für eine zentralisierte digitale Währung (CBDC) öffnen, trotz des von Präsident Trump ausgesprochenen Verbots von CBDCs. „Das ist eine Überwachung auf CBDC-Niveau, verpackt in patriotische Rhetorik“, sagt Day. Er betont, dass die Tokenisierung, wie sie derzeit geplant ist, nicht die dezentrale Freiheit bietet, die viele Krypto-Enthusiasten erhoffen, sondern ein System, das von Regierungen und Großkonzernen kontrolliert wird.
Die Technokratie als Bedrohung der freien Willens
Ein zentrales Thema des Podcasts ist die Gefahr einer technokratischen Herrschaft. Technokratie, wie sie im Gespräch definiert wird, ist eine Regierungsform, in der Wissenschaftler und Ingenieure durch soziale Kreditsysteme und digitale Währungen Entscheidungen für die Bürger treffen. „Die Tokenisierung ist das Schlachtfeld“, sagt Day. „Es geht um die Frage, ob wir unsere freie Willensausübung bewahren oder in eine Welt steuern, in der jede unserer Bewegungen, jeder Kauf und jede Interaktion überwacht und programmiert werden kann.“
Courtney Turner verweist auf die historischen Wurzeln der Technokratie, die bis in die 1930er Jahre zurückreichen, als die Organisation Technocracy Inc. ein System vorschlug, das auf Energie-Credits basiert. Heute sieht sie Parallelen in den Plänen für eine „globale Währung“, die auf Energie-Credits basieren könnte, wie sie von multinationalen Konzernen und Organisationen wie der UN vorangetrieben werden. Die Verbindung zur Agenda 2030 und die Kontrolle über Land, Luft und Meer durch tokenisierte Vermögenswerte sind laut Turner ein Schritt in Richtung einer totalitären Kontrolle.
Die Täuschung durch Marketing: Freiheit oder Überwachung?
Ein wiederkehrendes Thema im Gespräch ist die manipulative Sprache, die verwendet wird, um diese Entwicklungen zu vermarkten. Begriffe wie „Dezentralisierung“, „digitale Souveränität“ und „Freiheitsstädte“ werden genutzt, um die Bürger zu täuschen. Turner vergleicht dies mit der Rhetorik rund um die „15-Minuten-Städte“, die als „Freiheitsstädte“ umbenannt werden, aber letztlich dasselbe Überwachungssystem darstellen. „Wer würde gegen eine Freiheitsstadt argumentieren?“, fragt sie rhetorisch, bevor sie darauf hinweist, dass diese Städte Teil eines größeren Überwachungsnetzwerks sind.
Ähnlich kritisch sieht sie die Kampagne „Make America Healthy Again“ (MAHA), die von Robert F. Kennedy Jr. unterstützt wird. Während MAHA auf den ersten Blick unumstritten klingt, warnt Turner, dass es in Wahrheit um „Make America Biotech Accelerate“ (MABA) geht, ein Slogan, der die Beschleunigung biotechnologischer Innovationen, einschließlich tragbarer Geräte und implantierbarer Technologien, fördert. Diese Technologien sind Teil des „Internet der Dinge“ und des „Internet der Nanobio-Dinge“, die eine totale Überwachung ermöglichen könnten. „Das ist eine Tyrannei, die sich die meisten Menschen nicht einmal vorstellen können“, sagt Turner.
Die Rolle der Medien und sozialen Netzwerke
Ein weiterer Schwerpunkt des Podcasts ist die Rolle der Medien und sozialer Plattformen wie X bei der Manipulation der öffentlichen Meinung. Aaron Day beschreibt, wie Algorithmen gezielt eingesetzt werden, um Emotionen wie Wut oder Angst zu verstärken und die Nutzer auf den Plattformen zu halten. „Elon Musk versteht, wie man das limbische System der Menschen manipuliert“, sagt er und verweist auf die ausgeklügelten Techniken, die soziale Medien nutzen, um die Aufmerksamkeit der Nutzer zu lenken und politische Narrative zu verstärken.
Craig Winklewix ergänzt, dass diese Ablenkungsmanöver – wie öffentliche Auseinandersetzungen zwischen prominenten Persönlichkeiten wie Trump und Jerome Powell – dazu dienen, die Aufmerksamkeit von Gesetzesvorhaben wie dem Clarity Act abzulenken. „Die Menschen lieben einen guten Kampf“, sagt er. „Während alle nach oben schauen, werden unter der Oberfläche die Stablecoin-Gesetze durchgedrückt.“
Bitcoin und die Technokratie: Eine entführte Vision
Ein besonders aufschlussreicher Teil der Diskussion dreht sich um Bitcoin und seine Entwicklung. Aaron Day verweist auf das Buch Hijacking Bitcoin von Roger Ver, das beschreibt, wie Bitcoin von einer Vision der finanziellen Freiheit zu einem „digitalen Gold“ umfunktioniert wurde, das langsam, teuer und nachverfolgbar ist. Er deutet an, dass Jeffrey Epstein, durch seine Finanzierung von Projekten wie dem MIT Media Lab und der Venture-Capital-Firma Garage Ventures, eine Rolle bei dieser Umformung gespielt haben könnte. „Niemand spricht darüber, dass Epstein die US-amerikanischen CBDC-Pilotprojekte finanziert hat“, sagt Day. Diese Enthüllung wirft ein neues Licht auf die Verflechtungen zwischen Finanztechnologie, Technokratie und einflussreichen Akteuren.
Der politische Wandel: Die Technokratie-Partei
Die Diskussion wendet sich auch der politischen Landschaft zu, insbesondere der Gründung der „America’s Party“ durch Elon Musk, die von Figuren wie Andrew Yang unterstützt wird. Turner und Day sehen darin einen Versuch, die Unzufriedenheit mit dem Zweiparteiensystem auszunutzen, um eine „radikale Mitte“ zu schaffen, die in Wahrheit eine technokratische Agenda verfolgt. „Die Technokraten haben die Wahl 2028 bereits gewonnen“, sagt Day und verweist auf JD Vance, einen von Peter Thiel unterstützten Politiker, der als potenzieller Präsidentschaftskandidat gilt.
Die Gäste spekulieren auch über die Möglichkeit, dass Donald Trump durch Skandale wie die Epstein-Affäre geschwächt werden könnte, um Platz für Vance zu machen. „Das ist alles Teil eines langfristigen Plans“, sagt Day. „Die Politiker sind nur Marionetten, während die Technokraten die Fäden ziehen.“
Der Weg nach vorn: Kognitive Freiheit bewahren
Trotz der düsteren Aussichten betonen Turner, Day und Winklewix, dass es noch Hoffnung gibt. „Wir haben immer noch unseren freien Willen“, sagt Turner. „Die Kontrollmatrix ist noch nicht vollständig installiert.“ Sie fordert die Menschen auf, ihre kognitive Souveränität zu nutzen, sich über die Pläne der Technokraten zu informieren und Widerstand zu leisten. Aaron Day arbeitet an dezentralisierten, datenschutzfreundlichen Tokenisierungslösungen, die Einzelpersonen die Kontrolle über ihre Finanztransaktionen geben, ohne dass zentrale Behörden eingreifen können.
Craig Winklewix betont die Bedeutung des Verständnisses der Finanzmärkte und der Machtverschiebung hin zu Technokraten wie Larry Ellison und Jensen Huang. „Das ist ein Reichtums- und Machttransfer, wie ihn die Welt noch nie gesehen hat“, sagt er. Die Herausforderung besteht darin, diese Entwicklungen zu erkennen und alternative Wege zu finden, die die individuelle Freiheit bewahren.
Fazit
Die Diskussion im Courtney Turner Podcast zeichnet ein alarmierendes Bild einer Welt, in der Tokenisierung, digitale Währungen und biotechnologische Innovationen genutzt werden, um eine technokratische Kontrolle zu etablieren. Die Täuschung durch Marketing, die Manipulation durch soziale Medien und die Verflechtung von Politik, Finanzen und Technologie bilden ein Netz, das die freie Willensausübung bedroht. Doch die Gäste betonen, dass es noch möglich ist, Widerstand zu leisten – durch Bewusstsein, Bildung und die Entwicklung alternativer Technologien.
Die kommenden Jahre werden entscheidend sein. Wird die Tokenisierung zu einem Werkzeug der Freiheit oder zu einem digitalen Gefängnis? Die Antwort liegt in den Händen der Bürger, die ihre kognitive Souveränität nutzen, um die Pläne der Technokraten zu durchkreuzen.
Die Macrons klagen: Brigitte möchte nicht als Transfrau betrachtet werden
Man sollte meinen, im Wertewesten wäre die Annahme, man wäre trans, ein Kompliment. Brigitte Macron sieht das aber völlig anders: Die geht wacker juristisch gegen Influencer vor, die online behaupten, sie hätte eine Geschlechtsumwandlung über sich ergehen lassen und wäre eigentlich ein Mann.
Im Wertewesten ist “trans” eigentlich en vogue. Also, offiziell. In der Bevölkerung eher weniger. Ausgerechnet Brigitte Macron gibt sich nun gerade fast “bürgernah”: Frankreichs Première Dame will sich nämlich quasi juristisch bescheinigen lassen, dass sie ganz sicher keine Transfrau ist (und auch nicht als solche bezeichnet werden darf). Vraiment pas! Wirklich nicht!
Nachdem zwei französische YouTuberinnen 2021 in einem Video behauptet hatten, Brigitte Macron sei in Wirklichkeit ihr eigener Bruder Jean-Michel und habe sich einer Geschlechtsumwandlung unterzogen, wurden die beiden kürzlich von einem französischen Gericht freigesprochen. Doch statt die unrühmliche Debatte damit in der Versenkung verschwinden zu lassen, ruft Madame Macron jetzt den Kassationsgerichtshof an. Und verklagt parallel auch noch die konservative US-Influencerin Candace Owens in Delaware wegen Verleumdung: Auch die hatte behauptet, Brigitte Macron sei eigentlich als Mann geboren worden.
Diese Theorie verbreitete Owens 2024 über ihren Podcast – laut Gerichtsdokumenten, weil sie angeblich “gewusst habe, dass der Schockwert ihre Sichtbarkeit erhöhen werde“. Sie habe also demnach wissentlich Falschbehauptungen über die Macrons genutzt, um Geld zu verdienen, so der Vorwurf. Auf Gesuche der Macrons, die Inhalte zurückzuziehen, habe sie dann mit weiteren Unwahrheiten reagiert (und etwa behauptet, Brigitte und Emmanuel Macron seien miteinander verwandt und Emmanuel Macron sei nur mithilfe eines CIA-Programms Präsident Frankreichs geworden).
Owens gibt sich allerdings kämpferisch: In einem aktuellen Video sagte sie wörtlich in Richtung Brigitte Macron “Sie wurden als Mann geboren und Sie werden als Mann sterben … Das ist der Punkt, den ich mache”. Man sehe sich dann vor Gericht, so Owens, die anscheinend auf einen Geschlechtsbeweis abzielt. Die Macrons sind als Paar wegen ihres enormen Altersunterschieds und des Lehrerin-Schüler-Verhältnisses, unter dem sie sich kennenlernten, ohnehin umstritten.
Wenn eine First Lady des Wertewestens mit solcher Energie gegen ein solches Gerücht kämpft, fragt man sich in den sozialen Netzen natürlich: Warum eigentlich so empfindlich? Ist Macrons Widerstand jetzt eigentlich schon transfeindlich? Wilde Online-Theorien zum angeblich wahren Geschlecht von First Ladys sind keineswegs neu: Michelle Obama kann ein Lied davon singen. Unvorteilhafte Bilder werden in den sozialen Netzen immer wieder geteilt und sorgen dort für Belustigung. Außerhalb dessen spielten derartige Annahmen aber kaum je eine Rolle.
Brigitte Macron erreicht mit ihrem Vorgehen natürlich gerade vor allem eines: Dass bald auch der letzte Mensch auf diesem Planeten irgendwann mal gehört hat, dass manche Leute mutmaßen, sie sei eigentlich ein Mann. Wie diese Menschen das beurteilen und was sie denken, wenn sie sich Bilder von Brigitte Macron ansehen, kann die Première Dame allerdings nicht juristisch beeinflussen…
US-Medien entsetzt über Deutschlands „Gestapo-Methoden“
Empörung in den USA über den Zustand der Demokratie in Europa. US-Medien berichten ungewöhnlich scharf über die skandalösen Hausdurchsuchungen beim AfD-Europaabgeordneten Petr Bystron. Die konservative Plattform Gateway Pundit spricht offen von „Gestapo-Methoden“ deutscher Behörden. The Daily Signal schreibt bereits in der Überschrift von einem „Schlag ins Gesicht von JD Vance“. Der US-Vizepräsident hatte bereits im Februar in München mit […]
Der Beitrag US-Medien entsetzt über Deutschlands „Gestapo-Methoden“ erschien zuerst auf Philosophia Perennis.
US-Medien entsetzt über Deutschlands „Gestapo-Methoden“
Empörung in den USA über den Zustand der Demokratie in Europa. US-Medien berichten ungewöhnlich scharf über die skandalösen Hausdurchsuchungen beim AfD-Europaabgeordneten Petr Bystron. Die konservative Plattform Gateway Pundit spricht offen von „Gestapo-Methoden“ deutscher Behörden. The Daily Signal schreibt bereits in der Überschrift von einem „Schlag ins Gesicht von JD Vance“. Der US-Vizepräsident hatte bereits im Februar in München mit […]
Der Beitrag US-Medien entsetzt über Deutschlands „Gestapo-Methoden“ erschien zuerst auf Philosophia Perennis.
Jetzt kommt der „Kurswechsel“
Von PETER WÜRDIG | Jetzt kommt der „Kurswechsel“ bei der Energiewende – das sagt zumindest Katherine Reiche, Ministerin für Wirtschaft und Energie, der Deutschen Presse-Agentur in Berlin. Mit dem Wechsel ist das so eine Sache. Da hatte man uns doch den Politikwechsel versprochen, ist auch nichts draus geworden. Nun also heißt es, „die Kosten müssen runter!“, also beim Ökostrom, und dass der eigentlich viel zu teuer ist. Dem wird kaum jemand widersprechen.
Es soll einen „Realitätscheck“ zur Energiewende geben, und den will Reiche bis Ende des Sommers vorlegen. Die Energiewende gibt es seit 2000, da wurde das EEG beschlossen, also der Übergang zur Planwirtschaft. Dass man nun „schon“ nach 25 Jahren die Realität checkt, das ist ja immerhin ein Fortschritt.
Angemahnt wurde das schon lange, erinnert sei an die Worte von Prof. Hans-Werner Sinn in seinen Vorträgen: „Haben die denn keinen Taschenrechner?“. Und nun muss man hoffen, dass Reiche einen Taschenrechner hat und den in die Hand nimmt. Einen Realitätscheck im Kleinen hatten wir übrigens auch schon, erinnert sei an das Projekt „Smart region Pellworm“ (PI-NEWS berichtete).
Die Realität ergab, dass die Energiewende nicht in der Lage war, auch nur eine kleine Insel zu versorgen. Man hat dann klammheimlich alles wieder abgebaut und auf der Fläche einen Hundespielplatz eingerichtet. Die Frage also ist: müssen wir nach dem Realitätscheck nicht nur Pellworm, sondern auch ganz Deutschland zum Hundespielplatz umbauen?
Eine der neuen Ideen ist: „Betreiber von Ökostrom-Anlagen sollten sich aus Reiches Sicht künftig an der Finanzierung des Stromnetzausbaus beteiligen.“ Was heißt da „beteiligen“? Ist das auch nur so ein Placebo-Effekt wie bei der „Akzeptanz-Abgabe“? Da bezahlen die Betreiber 0,2 Cent pro kWh für die Gemeindekasse, und die Bürger der Gemeinde „dürfen“ dann acht Cent, zehn Cent oder 12 Cent für eine kWh bezahlen, die im freien Markt niemand auch nur für einen Cent freiwillig abnehmen würde. Da bleiben also Fragen, denn den weiteren Netzausbau brauchen wir ja nur wegen der Energiewende. Und dass die vom System verhätschelten Betreiber von EE-Anlagen merkliche Teile ihrer Profite ohne massiven Druck abgeben, ist mehr als fraglich.
Mehr „Steuerbarkeit“?
Zum „Realitätscheck“ heißt es: „Wir brauchen zwingend mehr Steuerbarkeit, um die Volatilität der Stromerzeugung durch erneuerbare Energien ausgleichen zu können. Auch Speicher spielen zum Ausgleich eine Rolle. Sie sind Teil der Lösung, aber reichen allein nicht aus.“ Wie will man denn die Volatilität ausgleichen? Da fehlt jeder sinnvolle und bezahlbare Ansatz.
Den Ausgleich haben bisher die Kernkraftwerke geleistet, da wurden die letzten drei schon unter der Regierung Scholz abgeschaltet und zerstört. Jetzt gibt es noch einen Ausgleich durch die noch bestehenden Kohle-Kraftwerke, aber die sollen ja auch abgeschaltet und zerstört werden. In manchen Situationen kann nur das Ausland helfen, da die die deutsche Energiewende nicht mitmachen; dann hofft man auf „Atomstrom“ aus Frankreich.
Nach den bisherigen Vorstellungen der Ministerin sollen Gaskraftwerke in der Größenordnung von 20 Gigawatt errichtet werden. Aber nicht nur, dass niemand diese Werke ohne massive Subventionen bauen wird – wo das Gas dafür herkommen soll und was das dann kostet, das weiß heute niemand. Von daher kommen also Kosten ohne Ende auf uns zu.
Bitte „kosteneffizienter“!
Reiche weiter: „Die Energiewende müsse kosteneffizienter werden. Und das geht auch.“ Wie das aber wirklich gehen soll, dafür fehlt auch der geringste Ansatz. Das ist also alles nur Wunschdenken. Dann heißt es auch noch: „wegen fehlender Netze müssen erneuerbare Anlagen immer wieder gedrosselt werden“ – es sind aber nicht fehlende Netze, es fehlen die Speicher.
Zu manchen Zeiten, vor allem im Sommer, produzieren die EE-Anlagen zeitweilig mehr als überhaupt gebraucht werden kann. Das wird nicht anders, wenn man noch mehr Netze hat. Mit dem weiteren Zubau von Windmühlen und PV-Anlagen wird die Schieflage im System immer größer. Wenn Anlagen gedrosselt werden müssen, dann erhalten sie trotzdem die gesetzlich vorgeschriebenen Vergütungen. Wie dabei die Energiewende „kosteneffizieter“ werden soll, erschließt sich einem nicht.
Dann zeigt sich bei Reiche noch ein seltsames Verständnis von Technik. Wörtlich: „Wir brauchen sie (die „Erneuerbaren“) auch, weil es innovative Technologien sind.“ Also, Windmühlen sind die Technik des Mittelalters. Damals hatte man nichts anderes – die wirklich innovative Technologie ist die Dampfmaschine (und der Kernreaktor). Davon findet sich aber nichts bei den Äußerungen unserer Wirtschaftsministerin.
Grüner Widerstand
Nun kommt, wie zu erwarten, auch noch Widerstand von der grünen Seite. Karsten Smid, Greenpeace-Experte, sagt dazu: „Was Katherina Reiche als ‚Realitätscheck‘ verkauft, ist in Wahrheit ein Rückfall in die fossile Vergangenheit“. Als Experte weiß er, was „green“ ist und was nicht, und so fordert er auch noch, durch mehr Windmühlen „mehr Flexibilität im Netz zu ermöglichen“.
Das erinnert an den bekannten Hinweis einer ehemaligen Außenministerin: „Das Netz ist der Speicher“. Nun, da können wir spannende neue Entwicklungen erwarten!
Peter Würdig.
PI-NEWS-Autor Peter Würdig, Jahrgang 1937, ist Abgeordneter im Samtgemeinderat Land Hadeln (bei Cuxhaven). Er hat das Studium der Physik an der TU Berlin mit Abschluss Diplom-Ingenieur beendet und engagiert sich in der AfD in Landes- und Bundesfachausschuss für die Gestaltung des Parteiprogramms im Bereich Energie- und Klimapolitik. Würdig leitet ein Unternehmen, das sich mit Programmen für die medizinische Statistik und die krankenhausversorgende Apotheke beschäftigt. Aktuelles dazu erfährt man auf seiner Facebook-Seite.
The post Jetzt kommt der „Kurswechsel“ appeared first on PI-NEWS.
Von der Straßenlaterne zur Drohne: Wie IBM & WEF ein globales Kontrollnetz errichten wollen
Von The Sociable
Die massive stadtweite Überwachung, die für kollaborative Sensorik erforderlich ist, stellt für Tyrannen eine enorme Versuchung dar: Perspektive
Kollaborative Sensorik ist „enorm in die Privatsphäre eingreifend“, aber die ständige Überwachung dessen, was jeder tut und wohin er geht, ist laut einem IBM-Manager im Podcast „Radio Davos“ des Weltwirtschaftsforums (WEF) ein „enormer Gewinn für die Gesellschaft“.
Kollaborative Sensorik „ist enorm invasiv, da man jederzeit weiß, wo sich jeder befindet. Was er tut. Wohin er geht. Und das ist ein ethisches Dilemma.“
Bernie Meyerson, Chief Innovation Officer Emeritus bei IBM, WEF Radio Davos, Juni 2025
Collaborative Sensing is “enormously intrusive… You know where everybody is at all times. What they’re doing. Where they’re going.. An ethical dilemma, but it’s coming” pic.twitter.com/fOpqPX0IKY
— Tim Hinchliffe (@TimHinchliffe) July 8, 2025
Übersetzungen von „X“: WEF Collaborative Sensing = Smart City Panopticon / Totale Überwachung: Kameras sind in jeder Stadt allgegenwärtig. Jede Straßenlaterne wird gesteuert. Jedes Fahrzeug kommuniziert mit einer zentralen Stelle. Vehicle 2 Everything (V2X)-Technologie: IBM-CIO Bernie Meyerson https://youtube.com/watch?v=QVTprD
Kollaborative Sensorik ist „enorm intrusiv … Man weiß jederzeit, wo sich jeder befindet. Was er tut. Wohin er geht … Ein ethisches Dilemma, aber es kommt auf uns zu.“
Stellen Sie sich eine intelligente Stadt vor, in der es in jedem Block Dutzende von Sensoren, Kameras und Radargeräten gibt, die jeden Fußgänger und jedes Fahrzeug verfolgen und aufzeichnen.
Die Fahrzeuge sind mit Sensoren ausgestattet, die mit den Ampeln kommunizieren, und beide senden Daten mithilfe von Vehicle-to-Everything (V2X)-Technologien an einen einzigen zentralen Standort.
Und bei den Fahrzeugen handelt es sich nicht nur um Personenkraftwagen oder Busse, sondern auch um unbemannte Drohnen, die mit LiDAR- und Infrarotsensoren ausgestattet sind, die Dinge erkennen und erfassen können, die kein Mensch jemals wahrnehmen könnte.
Alle Daten werden automatisch von KI-Systemen gesammelt und verarbeitet, die in Echtzeit autonome Entscheidungen treffen.
Das ist kollaborative Sensorik.
Nach der Veröffentlichung des Berichts „Top 10 Emerging Technologies of 2025” des WEF im Juni letzten Jahres fand eine vertiefte Diskussion über die darin aufgeführten Technologien statt, darunter auch „kollaborative Sensorik”.
Im Podcast „Radio Davos” erläuterte Bernie Meyerson, Chief Innovation Officer Emeritus bei IBM, was „kollaborative Sensorik” für Menschen, die in Smart Cities leben, konkret bedeuten würde.
„Collaborative Sensing bedeutet: Was wäre, wenn wir in einer Stadt praktisch überall Kameras hätten?
Was wäre, wenn alle Straßenlaternen in einer Stadt flächendeckend gesteuert würden?
Was wäre, wenn alle Fahrzeuge mit einer zentralen Stelle in der Stadt kommunizieren würden?“
Bernie Meyerson, Chief Innovation Officer Emeritus bei IBM, WEF Radio Davos, Juni 2025
„Was kollaborative Sensorik sagt, ist: ‚Was wäre, wenn wir in einer Stadt praktisch überall Kameras hätten?‘“, so Meyerson.
„Was wäre, wenn alle Straßenlaternen in einer Stadt flächendeckend gesteuert würden?
„Was wäre, wenn alle Fahrzeuge mit einer zentralen Stelle in der Stadt kommunizieren würden?“
Meyerson nannte auch Beispiele dafür, wie kollaborative Sensorik Leben retten könnte, indem sie Unfälle verhindert, und wie sie die Mobilität in Städten verbessern könnte, indem sie den Verkehrsfluss effizienter umleitet.
Allerdings ist die für kollaborative Sensorik erforderliche Massenüberwachung für Tyrannen eine enorme Versuchung.
Wenn man ein stadtweites virtuelles Panoptikum schaffen wollte, wäre kollaborative Sensorik ein guter Ausgangspunkt.
Meyerson räumt dies ein und erklärt:
„Das [kollaborative Sensing] ist enorm intrusiv, da man jederzeit weiß, wo sich jeder befindet. Was er tut. Wohin er geht. Und das ist ein ethisches Dilemma.“
„Die Regulierungsbehörden, die tatsächlich vorschreiben, was man mit diesen Daten tun darf und was nicht, müssen rigoros geschaffen und durchgesetzt werden“, fügte er hinzu.
Totale Überwachung und digitales Kontrollnetz? Ja, das ist durchaus machbar, aber wir dürfen der Innovation nicht im Weg stehen!
Wie Meyerson es ausdrückte: „Ich schlage nicht vor, und keiner von uns schlägt vor, dass wir dies nicht tun sollten. Es gibt enorme Vorteile für die Gesellschaft, wenn man allein schon die Umweltverschmutzung reduziert und die schreckliche Zahl der Todesfälle auf den Autobahnen drastisch senkt.“
„Das ist etwas, was auf uns zukommt, aber wir müssen äußerst vorsichtig sein, wie wir es nutzen“, fügte er hinzu.
Für Meyerson von IBM überwiegen die Vorteile der kollaborativen Sensorik bei Weitem die Nachteile.
Sicherlich hat seine Sichtweise keinerlei finanzielle Motive.
Es ist ja nicht so, als wäre IBM seit einem Jahrzehnt im Bereich der vernetzten Fahrzeuge tätig.
Oh, Moment mal.
„Autos sind fahrende Miniatur-Rechenzentren und verfügen über eine Vielzahl von Sensoren, die Daten in Echtzeit erfassen und senden können. IBM IoT Connected Vehicle Insights kann Millionen von Autos miteinander verbinden und Big Data aus anderen Quellen integrieren, darunter Wettersysteme, geografische Kartendienste, Verkehrssysteme und vieles mehr.“
IBM, IoT Connected Vehicle Insights, 2023
„Die Datenanalysefunktionen von IBM IoT Connected Vehicle Insights sind umfangreich und liefern aussagekräftige Erkenntnisse über Fahrzeuge und deren Bewegungen, Fahrer und Ereignisse in der Umgebung. Es stehen historische und Echtzeit-Datenanalysen zur Verfügung. IBM IoT Connected Vehicle Insights kann anhand von Daten aus Fahrzeugsensoren, geografischen, Wetter-, Verkehrs- und anderen Systemen relevante Ereignisse erkennen und darauf reagieren.“
IBM, IoT Connected Vehicle Insights, 2023
Die Dokumentation „IoT Connected Vehicle Insights“ von IBM enthält alle Informationen, die Meyerson erwähnt hat, und noch vieles mehr.
Mit den vernetzten Fahrzeugen von IBM können Sie erstaunliche Dinge tun! Zum Beispiel:
- Sie können Daten zum Fahrverhalten in Echtzeit analysieren, sobald diese erfasst werden.
- Sie können die Situationserkennung für Fahrzeuge, Fahrer und Umgebungsobjekte sofort nach dem Auftreten von Ereignissen nutzen, um Vehicle-to-Everything (V2X)-Lösungen zu ermöglichen, einschließlich Vehicle-to-Vehicle (V2V)-Kommunikation über die Cloud.
- Sie können Millionen von Fahrzeugen und Sensoren in Fahrzeugen mit IBM IoT Connected Vehicle Insights verbinden und Daten zwischen diesen übertragen.
- Außerdem können Sie Car Probe Data abrufen, die Fahrer-ID, Mandanten-ID und Fahrzeug-ID enthält.
Denken Sie nur an all die Wunder, die diese Technologie in den Händen von Strafverfolgungsbehörden, Geheimdiensten und Verteidigungsministerien bewirken kann!
„Autonome Agenten wie Roboter, Drohnen, intelligente Fahrzeuge und IT-Systeme mit semantischen Denk- und dynamischen Planungsfähigkeiten werden in der Lage sein, sich in unbekannten Umgebungen zurechtzufinden und gemeinsame Entscheidungen zu treffen.“
WEF, Top 10 Emerging Technologies of 2025, Juni 2025
Collaborative Sensing [Smart Cities]: “We’re likely to have a whole lot of different autonomous IoT systems interrelated with what’s on our physical person” Katherine Daniell, WEF Summer Davos #AMNC25 session on “Top 10 Emerging Technologies of 2025” https://t.co/Kp3sZIxUKF pic.twitter.com/2w23EZRl9w
— Tim Hinchliffe (@TimHinchliffe) June 24, 2025
Übersetzung von „X“: Kollaborative Sensorik [Smart Cities]: „Wir werden wahrscheinlich eine Vielzahl unterschiedlicher autonomer IoT-Systeme haben, die mit dem, was wir physisch an uns tragen, miteinander verbunden sind.“ Katherine Daniell, WEF Summer Davos #AMNC25-Sitzung zum Thema „Top 10 Emerging Technologies of 2025“ https://youtube.com/watch?v=51h5CW
„Der Schlüssel zur Erschließung der Vorteile der kollaborativen Sensorik in großem Maßstab und zur Erreichung einer echten kollaborativen Autonomie werden multimodale Algorithmen sein, die zahlreiche Arten von Sensordaten verarbeiten können, von LiDAR (Light Detection and Ranging) über EO/IR (elektrooptische/Infrarot-) Kameras bis hin zu Radar und darüber hinaus.“
WEF, Top 10 Emerging Technologies of 2025, Juni 2025
Kollaborative Sensorik belegte Platz neun im Bericht „Top 10 Emerging Technologies for 2025” des Weltwirtschaftsforums (WEF).
Den Autoren zufolge „wird kollaborative Sensorik die Funktionsweise von Städten und die Art und Weise, wie Organisationen Informationen für Entscheidungen nutzen, grundlegend verändern”.
„Kollaborative Sensorik könnte städtische Systeme, Mobilität und gesellschaftliche Infrastruktur erheblich verändern. Angetrieben durch Vehicle-to-Everything (V2X)-Technologien, 5G, KI und Edge-Computing könnte dieser Ansatz intelligente städtische Umgebungen schaffen, die komplexe Umweltdynamiken präziser als aktuelle Systeme wahrnehmen, darauf reagieren und sich daran anpassen”, fügen sie hinzu.
Der Bericht wurde im Juni letzten Jahres auf dem WEF Annual Meeting of the New Champions (AMNC), auch bekannt als „Sommer-Davos”, in Tianjin, China, vorgestellt.
Friedrich Merz: Der Pseudokanzler | Gerald Grosz

Ein Kommentar des österreichischen DeutschlandKURIER
-Kolumnisten Gerald Grosz.
The post Friedrich Merz: Der Pseudokanzler | Gerald Grosz appeared first on Deutschland-Kurier.
Richterwahlen: Kanzleramtsminister Frei (CDU) lobt Brosius-Gersdorf als „hoch versierte Juristin“

Im Koalitionsstreit um die Richterwahlen zum Bundesverfassungsgericht hat Kanzleramtsminister Thorsten Frei (CDU) für die hochumstrittene SPD-Kandidatin Frauke Brosius-Gersdorf geworben. Frei sagte im ZDF, Brosius-Gersdorf sei ohne Zweifel eine fachlich „hoch versierte Juristin“. Zudem müssten die Abgeordneten nicht bei jedem einzelnen Thema mit ihr einer Meinung sein. Man arbeite an einer Lösung für eine erforderliche Zwei-Drittel-Mehrheit im Parlament.
Im Deutschen Bundestag war die Wahl von Brosius-Gersdorf am Widerstand der Union gescheitert. CDU und CSU hatten unter anderem die Haltung der Staatsrechtlerin zum Thema Abtreibung kritisiert. In der Folge wurde die gesamte Abstimmung über drei neue Kandidaten für das Bundesverfassungsgericht von der Tagesordnung genommen.
Universität Hamburg untersucht Doktorarbeit
Die Universität Hamburg untersucht nun doch Hinweise auf ein mögliches wissenschaftliches Fehlverhalten der Verfassungsrichter-Kandidatin Frauke Brosius-Gersdorf, berichtet die Deutsche Presse-Agentur (dpa). Zunächst hatte die Universität keine Notwendigkeit gesehen, die Dissertation der Juristin Frauke Brosius-Gersdorf zu überprüfen. Nun seien aber begründete Hinweise auf ein mögliches Fehlverhalten eingegangen, bestätigte ein Sprecher.
The post Richterwahlen: Kanzleramtsminister Frei (CDU) lobt Brosius-Gersdorf als „hoch versierte Juristin“ appeared first on Deutschland-Kurier.
IGH-Klimaurteil leugnet Rolle der Sonne und fördert Ersetzung der Demokratie durch Globale Governance

Der Internationale Gerichtshof (IGH) hat gerade ein „Gutachten” abgegeben: Länder, die – haltet euch fest – nicht „das Klima schützen“, was auch immer das bedeuten mag, machen sich internationaler Rechtsverletzung schuldig. Was kommt als Nächstes? Dass sich doch die Sonne bewegt und nicht umgekehrt? Das „Gutachten“ ist so ehrgeizig, scheinheilig und wissenschaftlich oberflächlich, dass es […]
Der Beitrag IGH-Klimaurteil leugnet Rolle der Sonne und fördert Ersetzung der Demokratie durch Globale Governance erschien zuerst unter tkp.at.
Russische Drohnen und Raketen zerstören drei Patriot-Raketenwerfer und Radar: Luftabwehrdefizite verschärfen sich

Trump will Pariot-Luftabwehrsysteme aus Europa in die Ukraine transferieren. Dort werden sie regelmäßig von russischen Luftangriffen zerstört. Die Wirksamkeit der US-Waffensysteme wird immer geringer. Zwei neue Waffensystem machen herkömmliche Methoden der Kriegführung immer mehr obsolet: Hyperschallwaffen und Drohnen. Das zeigen die Kriege der USA in der Ukraine und in Westasien. Die extrem teuren Patriot Luftabwehr-Batterien […]
Der Beitrag Russische Drohnen und Raketen zerstören drei Patriot-Raketenwerfer und Radar: Luftabwehrdefizite verschärfen sich erschien zuerst unter tkp.at.
Kampf gegen rechts führt zu Verspannungen: Innenministerium sucht Masseure
Die armen Beamten des deutschen Bundesinnenministeriums kämpfen offenbar mit muskulären Problemen: Der anstrengende Krieg gegen rechts fordert seinen Tribut. Diesen Eindruck erweckt jedenfalls die aktuelle Ausschreibung des Beschaffungsamts des BMI für “Massagedienstleistungen”.
Das Portal “Nius” berichtete zuerst über diese absurde Ausschreibung – und tatsächlich: Über das e-Vergabeportal ist sie rasch zu finden.
Screenshot via www.evergabe-online.de
In der Leistungsbeschreibung, die den Ausschreibungsunterlagen zu entnehmen ist, heißt es:
Im Rahmen des Gesundheitsmanagements bietet die Bedarfsträgerin ihren Beschäftigten einen Massageservice mit verschiedenen Massageformen an. Der Bedarf kann aktuell geschätzt werden mit zwei bis drei Tagen in der Woche sowie mit einem monatlichen Umfang von zurzeit etwa 50 Massagen von jeweils 20 Minuten (inklusive der Zeit zum Aus- und Anziehen) in den Räumlichkeiten des Dienstgebäudes im: [Adresse des Bundesministerium des Inneren]
Diese wichtige (wenn nicht gar staatstragende) Aufgabe darf selbstverständlich nicht jeder übernehmen:
Die Anwendungen sind von staatlich geprüften Masseurinnen und Masseuren bzw. Physiotherapeutinnen und Therapeuten mit mindestens 3 Jahren Berufserfahrung durchzuführen. Das Beherrschen der deutschen Sprache in Wort und Schrift wird vorausgesetzt.
Nanu? Deutsch in Wort und Schrift? Manch einer könnte hier fast unterschwelligen Rassismus wittern! Gerade vom Bundesinnenministerium sollte man doch erwarten können, dass auch ausländischen Fachkräften, denen die deutsche Sprache noch Schwierigkeiten bereitet, eine Chance gegeben wird?
Wie auch immer: Wer den Zuschlag erhält, kann ab Oktober 2025 für die Dauer von fünf Jahren die Beamtenschaft des Innenministeriums durchkneten. Das lohnt sich. Nius berichtet:
“Laut der Vergabeordnung erhält der Dienstleister mindestens 143.000 Euro. Bis zu dieser Summe können Aufträge ohne Ausschreibung stattfinden. Wie hoch die Summe genau ist, beantwortete das Innenministerium bisher nicht.”
Die Bevölkerung finanziert seinen Beamten in den Ministerien sicher mit großer Freude jedweden Luxus bis hin zur Wellness-Therapie. Bevor es im Innenministerium noch zu Haltungsschäden wegen der anstrengenden Schreibtischtätigkeit kommt…

