Horst D. Deckert

Meine Kunden kommen fast alle aus Deutschland, obwohl ich mich schon vor 48 Jahren auf eine lange Abenteuerreise begeben habe.

So hat alles angefangen:

Am 1.8.1966 begann ich meine Ausbildung, 1969 mein berufsbegleitendes Studium im Öffentlichen Recht und Steuerrecht.

Seit dem 1.8.1971 bin ich selbständig und als Spezialist für vermeintlich unlösbare Probleme von Unternehmern tätig.

Im Oktober 1977 bin ich nach Griechenland umgezogen und habe von dort aus mit einer Reiseschreibmaschine und einem Bakelit-Telefon gearbeitet. Alle paar Monate fuhr oder flog ich zu meinen Mandanten nach Deutschland. Griechenland interessierte sich damals nicht für Steuern.

Bis 2008 habe ich mit Unterbrechungen die meiste Zeit in Griechenland verbracht. Von 1995 bis 2000 hatte ich meinen steuerlichen Wohnsitz in Belgien und seit 2001 in Paraguay.

Von 2000 bis 2011 hatte ich einen weiteren steuerfreien Wohnsitz auf Mallorca. Seit 2011 lebe ich das ganze Jahr über nur noch in Paraguay.

Mein eigenes Haus habe ich erst mit 62 Jahren gebaut, als ich es bar bezahlen konnte. Hätte ich es früher gebaut, wäre das nur mit einer Bankfinanzierung möglich gewesen. Dann wäre ich an einen Ort gebunden gewesen und hätte mich einschränken müssen. Das wollte ich nicht.

Mein Leben lang habe ich das Angenehme mit dem Nützlichen verbunden. Seit 2014 war ich nicht mehr in Europa. Viele meiner Kunden kommen nach Paraguay, um sich von mir unter vier Augen beraten zu lassen, etwa 200 Investoren und Unternehmer pro Jahr.

Mit den meisten Kunden funktioniert das aber auch wunderbar online oder per Telefon.

Jetzt kostenlosen Gesprächstermin buchen

Kategorie: Nachrichten

Kategorie: Nachrichten

Westliche Megabanken setzen jetzt voll auf Bitcoin, Stablecoins und Tokenisierung

Westliche Megabanken setzen jetzt voll auf Bitcoin, Stablecoins und Tokenisierung

Großbanken diskutieren Krypto nicht mehr – sie bauen es. Von tokenisiertem Bargeld bis hin zu ETFs geht die Wall Street still und leise „onchain“.

The WinePress

Der folgende Bericht stammt von CoinTelegraph (Auszüge):

JPM Coin geht ins Canton Network

JPMorgan kündigte Pläne an, seinen auf US-Dollar lautenden Einlagen-Token JPM Coin (JPMD) nativ auf dem Canton Network auszugeben. Dies markiert einen weiteren Schritt der Wall Street hin zu produktionsreifer Blockchain-Infrastruktur.

Laut einer mit Cointelegraph geteilten Mitteilung stellt JPM Coin – beschrieben als der erste von einer Bank ausgegebene, auf US-Dollar lautende Einlagen-Token für institutionelle Kunden – einen digitalen Anspruch auf Dollar-Einlagen bei JPMorgan dar und ist darauf ausgelegt, eine schnellere und sicherere Bewegung regulierten Geldes auf öffentlichen Blockchains zu ermöglichen.

„Diese Zusammenarbeit erweckt die Vision von reguliertem digitalem Geld zum Leben, das sich mit der Geschwindigkeit der Märkte bewegen kann“, sagte Yuval Rooz, Mitgründer und CEO von Digital Asset.

Morgan Stanley steigt in das Krypto-ETF-Rennen ein

Die US-Investmentbank Morgan Stanley steigt in den Markt für börsengehandelte Krypto-Fonds ein und plant Produkte, die ein Engagement in Bitcoin und Solana bieten. Dies folgt auf den starken Start von Spot-Krypto-ETFs in den Vereinigten Staaten.

Sollten die Fonds genehmigt werden, könnten sie mehr als 19 Millionen Kunden innerhalb der Vermögensverwaltungssparte von Morgan Stanley zur Verfügung gestellt werden und damit den Zugang zu krypto-gebundenen Anlageprodukten erheblich ausweiten.

Die 12 US-Spot-Bitcoin-ETFs haben mehr als 1,3 Millionen BTC angesammelt, im Wert von nahezu 120 Milliarden US-Dollar. Quelle: Bitbo

Barclays investiert in Stablecoin-Infrastruktur

Der in London ansässige Bankriese Barclays hat seine erste Investition in ein auf Stablecoins spezialisiertes Unternehmen getätigt und signalisiert damit das wachsende Interesse der traditionellen Finanzwelt an digitaler Dollar-Infrastruktur.

Die Bank gab eine nicht näher bezifferte Investition in Ubyx bekannt, eine in den USA ansässige Stablecoin-Clearing-Plattform, die regulierte Emittenten mit Finanzinstituten verbindet, um Abwicklung und Interoperabilität zu erleichtern. Der Schritt markiert zugleich einen bemerkenswerten Kurswechsel für Barclays, das in den vergangenen Jahren öffentlich die Risiken digitaler Vermögenswerte betont hatte.

„Diese Investition steht im Einklang mit dem Ansatz von Barclays, Chancen zu erkunden, die sich aus neuen Formen digitalen Geldes wie Stablecoins ergeben“, erklärte die Bank in einer Stellungnahme.

Vermögensberater der Bank of America dürfen Bitcoin-ETFs empfehlen

US-Investoren könnten bald Empfehlungen zum Kauf von Bitcoin-ETFs über die Private-Bank- und Merrill-Edge-Plattformen der Bank of America erhalten – ein weiteres Indiz für die zunehmende Integration von Bitcoin in die traditionelle Finanzwelt.

Das Chief Investment Office der Bank hat die Abdeckung von vier US-Spot-Bitcoin-ETFs genehmigt, darunter Produkte von Bitwise, Fidelity, BlackRock und Grayscale. Zusammen verwalten diese Fonds Bitcoin-Vermögenswerte im Wert von mehr als 100 Milliarden US-Dollar.

Der Schritt erfolgt rund einen Monat nachdem die Bank of America Berichten zufolge Vermögensverwaltungskunden empfohlen hatte, 1 % bis 4 % ihrer Portfolios in digitale Vermögenswerte zu investieren.

„Für Investoren mit starkem Interesse an thematischer Innovation und einer hohen Toleranz gegenüber erhöhter Volatilität könnte eine moderate Allokation von 1 % bis 4 % in digitale Vermögenswerte angemessen sein“, sagte Chris Hyzy, Chief Investment Officer der Bank of America Private Bank, gegenüber Yahoo.

Autorenkommentar

Die Tokenisierung wird in diesem Jahr zunehmend zum Mainstream werden. Insbesondere für Banken wird dies von Vorteil sein, da es sich – wie zuvor erläutert – um einen letzten verzweifelten Versuch handelt, den sterbenden Dollar noch ein wenig länger am Leben zu erhalten und gleichzeitig die Schulden abzusichern. Diese Banken sind überschwemmt mit faulen Krediten, die meisten von ihnen sind de facto insolvent. Ein schneller Umstieg auf Stablecoins und andere Kryptowährungen wird dazu beitragen, ihre übermäßige Exposition gegenüber faulen Krediten und toxischen Darlehen zu verringern.

Letztendlich zielt man langfristig auf die Tokenisierung von allem ab, was mit finanzieller Freiheit zu tun hat, und wir stehen kurz vor dem Durchbruch. Der Genius Act tritt diesen Monat offiziell in Kraft – das Rennen hat begonnen.

Rückblick und Ausblick: Hat Trump gerade den „Great Reset“ des WEF ausgelöst?

Patrick Wood

Das World Economic Forum ist – und war schon immer – die Heimat des „Great Reset“. Klaus Schwab schrieb 2019 ein Buch darüber. Danach folgte eine ganze Reihe von Büchern mit demselben Thema, von Autoren wie Glenn Beck, Mark Morano, Michael Rectenwald, Clay Clark und Jacob Nordangård, unter anderem. Der Great Reset wurde unzählige Male analysiert, zerlegt und diskutiert. Manche werden sich als richtig erweisen, andere als falsch.

Doch nach Donald Trumps atemberaubender, wuchtiger Rede beim Weltwirtschaftsforum heute Morgen ist klar: Trump ist der Katalysator, der den Great Reset auslöst.
Mit anderen Worten: Dies bedeutet das Ende der „neuen alten Weltordnung“. Nur wenige haben das in dieser Form kommen sehen – doch Trump hat sie alle vor den Bus geworfen:

  • die United Nations, Agenda 21 und den Betrug der „nachhaltigen Entwicklung“
  • Windräder und Solarfarmen
  • den Krieg gegen Kohlenstoff und fossile Brennstoffe
  • den Stakeholder-Kapitalismus
  • die „dummen“ Einwanderungspolitiken, die Europa zerstören
  • die NATO
  • usw., usw.

Meine derzeitige Einschätzung ist, dass all diese Dinge ursprünglich entscheidend dafür waren, die Technokratie überhaupt auf den Fahrersitz zu bringen. Doch jetzt, da die Technokratie angekommen ist, hat man diese Dinge nicht mehr nötig. Raus mit dem Alten, rein mit dem Neuen.

Da die Weltordnung in Trümmern liegt, sollte man nicht zurückblicken. Man sollte nach vorn schauen – auf das, was die nächste Weltordnung sein wird.

Die einzige Möglichkeit ist die Technokratie – und wir sehen sie überall um uns herum.

Der Plan der Polizei, KI in der „prädiktiven Analyse“ einzusetzen, sollte uns alle beunruhigen

Paul Birch

Angesichts der jüngsten Enthüllungen über den Einsatz künstlicher Intelligenz (KI) durch die West Midlands Police zur Fabrikation von Informationen über israelische Fußballfans könnte man meinen, dass die Polizei beim breiteren Einsatz solcher Technologien etwas zurückhaltender wäre. Doch das ist ein Irrtum.

In einem kürzlich geführten Interview mit dem Telegraph erklärte Sir Andy Marsh, Leiter des College of Policing, dass die Polizei derzeit bis zu 100 Projekte prüfe, bei denen Beamtinnen und Beamte KI zur Kriminalitätsbekämpfung einsetzen könnten. Dazu gehöre auch der Einsatz sogenannter „prädiktiver Analysen“, um Straftäter ins Visier zu nehmen, bevor sie zuschlagen – eine deutliche Erinnerung an den Film Minority Report aus dem Jahr 2002. Ziel sei es laut Innenministerin Shabana Mahmood, die „Augen des Staates“ „zu jeder Zeit“ auf Kriminelle zu richten. Dies soll in einem kommenden Weißbuch zur Polizeireform weiter ausgeführt werden.

Die Ausweitung des KI-Einsatzes in der britischen Polizeiarbeit wird fortlaufend als Innovation, Effizienz und Schutz verkauft. In Wirklichkeit markiert sie jedoch einen entscheidenden Schritt hin zu einer Gesellschaft, in der Freiheit als ein zu managendes Risiko betrachtet wird. Verpackt in die Sprache von Sicherheit und Reform steht KI für eine stille, aber tiefgreifende Veränderung der Beziehung des Staates zu seinen Bürgern: vom Hüter des Rechts zum dauerhaften Überwacher von Verhalten.

Jeder Polizeibereich verfügt bereits über eine Intelligence-Einheit, die für „prädiktive Analysen“ zuständig ist. Straftaten, die in polizeiliche Datenbanken eingehen, werden von Analysten ausgewertet, die anschließend Berichte und Briefings zu Kriminalitätsschwerpunkten und Ähnlichem erstellen. Entsprechend können Polizeires­sourcen gezielt zu einem bestimmten Ort und zu einer bestimmten Zeit entsandt werden, um Straftaten zu bekämpfen oder zu verhindern. KI kann ein Team ausgebildeter Fachleute, die Daten sorgfältig prüfen, niemals angemessen ersetzen. Sie kann dies jedoch vermutlich zu einem Bruchteil der Kosten tun – was für die meisten Führungskräfte wichtiger ist als Bürgerrechte. Weniger Minority Report als vielmehr Heath-Robinson.

Das grundlegende Unrecht liegt auf der Hand. Polizeiarbeit in einer angeblich freien Gesellschaft reagiert auf bereits begangene Straftaten oder setzt auf Prävention durch gut sichtbare, uniformierte Streifen. Sogenannte prädiktive Polizeiarbeit kehrt diese Logik um, indem sie die Macht des Staates auf alle richtet – fast alle davon haben nichts Illegales getan. Grundlage sind statistische IT-Vermutungen darüber, was sie möglicherweise tun könnten. Dies ist keine bloße technische Anpassung der Polizeiarbeit, wie manche glauben machen wollen; es ist eine vollständige Schwerpunktverlagerung hin zu einer Situation, in der jeder potenziell schuldig ist, bis seine Unschuld bewiesen ist. Massenüberwachung (denn genau das ist es) wird ohne Anklage, ohne Prozess und ohne Urteil auferlegt, da es keine formale Beschuldigung gibt.

Verteidiger dieses Ansatzes behaupten, es gebe keine Bedrohung für die individuelle Freiheit. Das ist offenkundig falsch. Freiheit wird überall dort ausgehöhlt, wo sich der Staat dauerhaft in das Leben eines Menschen einschreibt. Ständige Beobachtung ist eine Form sanften Zwangs. Zu wissen, dass die eigenen Bewegungen, Kontakte und Verhaltensweisen vom Staat erfasst und bewertet werden, kommt Zwang gleich. Eine Gesellschaft, in der Bürger sich so verhalten müssen, als würden sie ständig beobachtet, ist nicht frei; sie ist lediglich geordnet.

Noch schlimmer ist, dass dieses System jede echte Form von Verantwortlichkeit zerstört. Entscheidungen, die früher identifizierbaren Beamten zugeordnet werden konnten, werden dem System oder dem Programm zugeschrieben. Wenn Fehler auftreten – was unvermeidlich ist –, wird es kein unterscheidendes menschliches Urteil geben, um das System zu hinterfragen, da die Anwender sich zunächst mit großer Wahrscheinlichkeit der Maschine unterordnen werden. Macht diffundiert nach oben in Institutionen und nach außen zu Softwareentwicklern im privaten Sektor, während der Bürger in einer Art rechtlichem Niemandsland zurückbleibt und einem nicht anfechtbaren Prozess gegenübersteht. Ein Algorithmus kann nicht ins Kreuzverhör genommen oder beschämt werden.

Auch die Behauptung, diese Systeme seien objektiv, ist gefährlich. KI wird keine Wahrheit entdecken; sie wird frühere Polizeidaten durchforsten, vergangene Fehler verfestigen und sie mit mathematischer Gewissheit durchsetzen. Historische Fehlentscheidungen werden zu zukünftigen Risikokennzahlen.

Niemand in der Regierung bezeichnet die Einführung von KI als Experiment. Überwachungsinfrastruktur zieht sich niemals zurück. Jede Datenbank, jede Kamera und jeder Algorithmus, die für die schlimmsten Straftäter geschaffen werden, werden im Laufe der Zeit unweigerlich auch für eine breitere Nutzung verfügbar. Heute richtet sich der Fokus auf gewalttätige oder notorische Kriminelle; morgen könnten es Demonstrationsorganisatoren oder jene sein, die von der politischen Klasse als Problem angesehen werden. Wir haben dies bereits bei der Überwachung sozialer Medien und dem Einsatz sogenannter Non-Crime Hate Incidents gesehen. Wie kann man der Polizei bei einer derart transformativen Technologie vertrauen?

Effizienz ist die letzte Lüge. Jede angenommene Verringerung von Papierarbeit, bessere Zielgenauigkeit und reibungslosere Abläufe rechtfertigen keine Ausweitung staatlicher Überwachung. Und ohnehin hat die Einführung neuer Technologien während meiner Zeit bei der Polizei niemals die Bürokratie reduziert – sie hat sie lediglich vom Papier auf den Bildschirm verlagert und oft sogar vergrößert. Schnelles Unrecht ist kein Fortschritt.

Die Verankerung des Einsatzes künstlicher Intelligenz in der gesamten britischen Strafverfolgung wird jede Anonymität im öffentlichen Raum abschaffen und durch permanente Identifizierbarkeit ersetzen. Jede Reise wird nachvollziehbar, jedes Treffen aufzeichnungsfähig, jede Abweichung von der Norm potenziell verdächtig. Ja, dies geschieht bereits im Rahmen polizeilicher Ermittlungen – jedoch, um die Bewegungen und Verhaltensweisen identifizierbarer Verdächtiger festzustellen, nicht um die gesamte Bevölkerung allgemein zu überwachen.

Dies ist keine Polizeiarbeit mit Zustimmung im Sinne der ursprünglichen Peelian Principles; es ist Polizeiarbeit durch Omnipräsenz – und anders als beim Ansehen eines Hollywoodfilms werden wir nicht einfach aufstehen und gehen können, wenn es uns nicht gefällt.

RFK Jr.: Drahtlose Strahlung ist ein „großes Gesundheitsproblem“

US-Gesundheitsminister Robert F. Kennedy Jr. sprach am 16. Januar mit USA Today, einen Tag nachdem das US-Gesundheitsministerium (HHS) eine neue Studie zu den gesundheitlichen Auswirkungen drahtloser Strahlung gestartet hatte – ein Schritt, von dem Befürworter sagen, dass er einen bedeutenden Kurswechsel in der Bundespolitik widerspiegeln könnte.
von Suzanne Burdick, Ph.D.

Kennedy sprach am 16. Januar mit USA Today, einen Tag nachdem das US-Gesundheitsministerium (HHS) eine neue Studie zu den gesundheitlichen Auswirkungen von Mobilfunkstrahlung gestartet hatte – ein Schritt, der nach Ansicht von Befürwortern einen bedeutenden Wandel in der Bundespolitik widerspiegeln könnte.

Am selben Tag, an dem HHS die Studie startete, entfernte die US-amerikanische Arzneimittelbehörde (FDA) unter Kennedys Leitung alte Webseiten, auf denen behauptet worden war, Mobiltelefone seien nicht gefährlich.

Kennedy sagte, er sei „sehr besorgt“ über die negativen gesundheitlichen Auswirkungen elektromagnetischer Strahlung (EMR), ein Begriff, der sowohl Radiofrequenz-(RF)-Strahlung als auch elektromagnetische Felder (EMF) umfasst.

Nach Kennedys Angaben gibt es „buchstäblich über 10.000 Studien“ zu EMR, die „schädliche Auswirkungen, einschließlich Krebs und Tumorwachstum“, dokumentieren.

Miriam Eckenfels, Leiterin des EMR- & Wireless-Programms von Children’s Health Defense (CHD), sagte, sie sei „begeistert“, Kennedy öffentlich über die gesundheitlichen Auswirkungen von EMR sprechen zu hören.

„Die Zeit ist reif“, sagte sie. „Obwohl sich die wissenschaftlichen Belege weiter häufen, treibt die Federal Communications Commission aggressiv ihre vorgeschlagene Regelsetzung voran, um lokalen Gemeinden die Kontrolle darüber zu entziehen, wo Mobilfunkmasten aufgestellt werden.“

Der Kongress habe Gesetzentwürfe vorgeschlagen, die dasselbe bewirken würden, sagte Eckenfels. „Viele Gemeinden sehen sich mit geplanten Mobilfunkmasten an Orten konfrontiert, an denen sie diese am wenigsten haben wollen.“

Tausende Studien dokumentieren Schäden durch drahtlose Strahlung

Kennedy, dem zuvor vorgeworfen wurde, zu übertreiben, nannte keine Quelle für seine Behauptung, dass mehr als 10.000 Studien schädliche Wirkungen drahtloser Strahlung belegen.

Online-Zusammenstellungen zeigen jedoch, dass es mindestens Tausende begutachteter Studien gibt, die die Schäden durch drahtlose Strahlung belegen.

So zeigt beispielsweise eine aktuelle Zusammenstellung von Henry Lai, Ph.D., dass seit 1990 über 2.500 begutachtete Studien veröffentlicht wurden, die signifikante negative Auswirkungen durch EMF-Exposition festgestellt haben.

Lai, emeritierter Professor für Bioingenieurwesen an der University of Washington, untersucht und sammelt seit über zwei Jahrzehnten Forschung zu EMR. Jahrelang erschienen Lais aktualisierte Zusammenstellungen auf der Website der BioInitiative. Heute sind sie auf SaferEMR.com zu finden, die von Joel Moskowitz, Ph.D., einem Professor für öffentliche Gesundheit an der University of California, Berkeley, betrieben wird.

Das EMF-Portal, betrieben von der RWTH Aachen in Deutschland, listet rund 48.850 Veröffentlichungen zu EMF auf und fasst etwa 7.000 dieser Studien zusammen.

Einige davon befassen sich mit möglichen therapeutischen Anwendungen bestimmter Arten drahtloser Strahlung. So diskutiert beispielsweise eine Arbeit, wie Elektrokrampftherapie zur Behandlung von Depressionen eingesetzt werden kann.

Viele zeigen jedoch negative gesundheitliche Auswirkungen, so W. Scott McCollough, leitender Prozessanwalt für die EMR- & Wireless-Fälle von CHD.

„Mehr als die Hälfte berichtet über signifikante Effekte, obwohl es – wie üblich – unterschiedliche Meinungen über die Qualität der Forschungsergebnisse gibt.“

Das US-Militär hat eine lange Geschichte der Erforschung drahtloser Strahlung. 1971 veröffentlichte das U.S. Naval Medical Research Institute einen Bericht, der 2.311 wissenschaftliche Studien zu den biologischen und gesundheitlichen Auswirkungen von EMR überprüfte.

Der Bericht brachte EMR mit 23 chronischen Krankheiten in Verbindung, doch die Bundesregulierungsbehörden unternahmen nichts, um die Öffentlichkeit zu schützen. „Ich freue mich sehr, dass HHS die biologischen und gesundheitlichen Auswirkungen drahtloser Strahlung untersuchen wird“, sagte Camilla Rees, die kürzlich einen Bericht über die Erkenntnisse der US-Marine mitverfasst hat.

In seinem Bericht über das Interview mit Kennedy zitierte USA Today eine systematische Übersichtsarbeit aus dem Jahr 2024, die von der Weltgesundheitsorganisation (WHO) in Auftrag gegeben worden war. Die Übersichtsarbeit, die 63 Studien zu Mobiltelefonen und Krebs analysierte, behauptete, keinen Zusammenhang zwischen Handynutzung und Krebs gefunden zu haben.

Die Studie war eine von zwölf von der WHO unterstützten systematischen Übersichtsarbeiten zu möglichen gesundheitlichen Auswirkungen von RF-Strahlung.

USA Today erwähnte jedoch nicht, dass im Oktober 2025 unabhängige Wissenschaftler der International Commission on the Biological Effects of Electromagnetic Fields (ICBE-EMF) den WHO-Übersichten widersprachen.

Die Wissenschaftler veröffentlichten einen begutachteten Bericht, in dem sie argumentierten, dass die WHO-Übersichten „keine Sicherheitsgarantie“ lieferten.

ICBE-EMF ist ein „Zusammenschluss von Wissenschaftlern, Ärzten und verwandten Fachleuten“, die drahtlose Strahlung untersuchen und Expositionsrichtlinien für drahtlose Strahlung empfehlen, „basierend auf den besten begutachteten wissenschaftlichen Veröffentlichungen“.

„Die von der WHO in Auftrag gegebenen systematischen Übersichtsarbeiten sind schlicht unzureichend, um zu dem Schluss zu kommen, dass drahtlose Strahlung sicher ist“, sagte der ICBE-EMF-Vorsitzende John Frank, Arzt und Epidemiologe an der University of Edinburgh und emeritierter Professor für öffentliche Gesundheit an der University of Toronto, in einer Pressemitteilung.

Es würde „die Öffentlichkeit in die Irre führen“, die WHO-Übersichten als Beleg dafür darzustellen, dass die aktuellen Richtlinien zur Exposition gegenüber drahtloser Strahlung sicher seien, sagte Frank.

Die meisten der WHO-Übersichten wiesen „erhebliche Mängel“ auf – darunter methodische Probleme und Befangenheitsbedenken –, die ihre Schlussfolgerungen zur Sicherheit von RF-Strahlung untergruben, so ICBE-EMF.

Die Gruppe erklärte, dass trotz dieser Mängel eine der WHO-Übersichten gezeigt habe, dass RF-Strahlenexposition die männliche Fruchtbarkeit verringere, während eine andere einen Zusammenhang zwischen Mobilfunkstrahlung und zwei Krebsarten bei Tieren festgestellt habe.

ICBE-EMF veröffentlichte zusammen mit seinem Bericht ein ergänzendes Dokument, in dem Beispiele für Verbindungen der Autoren der WHO-Übersichten zur Drahtlosindustrie detailliert aufgeführt wurden.

Wird die neue HHS-Studie zu regulatorischen Änderungen führen?

Es ist noch unklar, ob Kennedys Bereitschaft, sich öffentlich zur drahtlosen Strahlung zu äußern, und die neue HHS-Studie zu den Risiken von Mobilfunkstrahlung zu bedeutenden regulatorischen Änderungen führen werden.

„Mehr Forschung ist nicht die Antwort“, schrieb Theodora Scarato, Leiterin des Wireless- und EMF-Programms bei Environmental Health Sciences, in einer Stellungnahme. „Die vorhandenen wissenschaftlichen Belege und Gerichtsurteile erfordern bereits sofortiges politisches Handeln. Die Sicherheitsrichtlinien müssen aktualisiert werden, um die heutigen kontinuierlichen Expositionen in der realen Welt widerzuspiegeln, und durchsetzbare Schutzmaßnahmen müssen jetzt eingeführt werden, um Kinder zu schützen.“

HHS könne und solle verlangen, dass Mobiltelefone mit Kennzeichnungen versehen werden, die klar offenlegen, welcher drahtlosen Strahlung Nutzer ausgesetzt sind, sagte sie.

Mobiltelefone sollten „auffällige Black-Box-Warnhinweise“ für besonders gefährdete Bevölkerungsgruppen tragen, darunter Kinder, Schwangere und Menschen mit medizinischen Implantaten oder elektronischen Medizinprodukten wie Herzschrittmachern.

McCollough stimmte zu, dass regulatorische Änderungen notwendig seien. Er sagte jedoch, die neue Studie der Regierung könne ein Schritt in diese Richtung sein. „Wir wissen, dass drahtlose Exposition zu Schäden führt, aber es gibt noch Wissenslücken.“

Die wissenschaftliche und medizinische Gemeinschaft habe seit Langem Bereiche benannt, in denen mehr Forschung nötig sei. So identifizierten die National Academies of Sciences, Engineering, and Medicine in einem Bericht aus dem Jahr 2008 eine Reihe von Themen im Zusammenhang mit drahtloser Strahlung, die untersucht werden müssten. Dazu gehöre auch, wie drahtlose Strahlung junge Kinder, Föten und Schwangere beeinflusst.

„HHS ist sich sehr wohl bewusst, was wissenschaftlich getan werden muss“, sagte McCollough. „Aber die Veränderung muss bei der FCC beginnen, und sie muss jetzt beginnen.“

Nach McCollough:

„Die FCC muss anerkennen, dass ihre aktuellen RF-Expositionsrichtlinien nicht biologisch fundiert sind, und sich verpflichten, solide, wissenschaftlich fundierte maximale Expositionswerte festzulegen.

Sie muss außerdem endlich anerkennen, dass es viele Menschen gibt, die bereits durch expositionsbedingte Erkrankungen krank geworden sind oder sogar gestorben sind, und ihnen Möglichkeiten geben, der Art unfreiwilliger Exposition zu entgehen, die durch Mobilfunkmasten und andere Quellen im öffentlichen Raum entsteht.“

Mona Nilsson, Mitbegründerin und Leiterin der Swedish Radiation Protection Foundation – die den Einfluss der Telekommunikationsbranche auf die EMR-Forschung untersucht hat – sagte gegenüber The Defender, sie hoffe, dass die HHS-Studie „das Wohlergehen und den Schutz von Kindern und der allgemeinen Öffentlichkeit“ stärker priorisieren werde als die Drahtlosindustrie.

Lennart Hardell, M.D., Ph.D., stimmte zu. „Industrienahe Personen, einschließlich Forscher, haben seit Langem wissenschaftliche Belege für Gesundheitsgefahren durch RF-Strahlung untergraben und ignoriert.“

Blair Levin, Politikberater bei New Street Research und ehemaliger Stabschef der FCC, sagte laut Broadband Breakfast, es sei unwahrscheinlich, dass die Bemühungen von HHS in Änderungen der Bundespolitik münden würden.

Levin schrieb in einer Stellungnahme: „Angesichts der bisherigen wissenschaftlichen Erkenntnisse halten wir es für unwahrscheinlich, dass Gerichte eine HHS-Regulierung aufrechterhalten würden, falls HHS versuchen sollte, der Drahtlosindustrie kostspielige Änderungen ihrer derzeitigen Betriebsabläufe aufzuerlegen.“

Die American Academy of Pediatrics hat ihre Empfehlungen zur Mobilfunkstrahlung seit fast einem Jahrzehnt nicht aktualisiert – und ein Link auf der Elternratgeber-Webseite der Organisation führt AT&T als einen ihrer Unternehmenssponsoren auf.

Das Interview in Englisch. Deutsche untertitel können in den YouTube-Einstellungen aktiviert werden.

Deutschlands Zensur-Frontlinie und der Aufstieg digitaler Kontrolle

von Thomas Kolbe

Der schleswig-holsteinische Ministerpräsident Daniel Günther hat – in einer Atmosphäre, die an einen gediegenen Salon erinnerte – den Vorhang über die wahren Zensurambitionen der Politik gelüftet. Im sicheren Biotop des öffentlich-rechtlichen Rundfunks plapperte er unbefangen drauflos und rückte dabei die repressiven Tendenzen innerhalb des Parteiensystems ins Rampenlicht. Wir befinden uns nun in einem kritischen Abwehrkampf gegen die Feinde der Freiheit.

Manche gelangen zufällig zu Bekanntheit und Ruhm. Dem einen fällt das Glück in den Schoß, ein anderer erlebt seine zehn Minuten öffentlicher Aufmerksamkeit durch einen zufälligen rhetorischen Funken. Im Fall des Ministerpräsidenten von Schleswig-Holstein in Deutschland jedoch ist dies eine zweifelhafte Ehre.

Bei seinem Auftritt in der Sendung von Markus Lanz im staatlichen deutschen Fernsehen „ZDF“ verfiel der CDU-Politiker Daniel Günther in jenen entlarvenden Plauderton, zu dem Menschen gerade dann neigen, wenn sie sich in einer vermeintlich sicheren sozialen Umgebung wähnen – einem Ort, an dem keine Kritik erwartet wird, egal was ihnen über die Lippen kommt.

Was bei seinem Gastauftritt bei Lanz zutage trat, war eine verwerfliche Haltung gegenüber dem Prinzip der Meinungsfreiheit und gegenüber kritischen Medien: Die Drohung mit Zensur bis hin zur Sperrung einzelner Plattformen, einschließlich des Portals Nius, offenbart einen tiefgreifenden ethischen Zusammenbruch. Ein wachsender, subtil operierender Repressionsapparat erreicht uns nun – eine Warnung, die wir ernst nehmen sollten.

Fast schon komisch war es, wie Lanz, von den Eliten des öffentlich-rechtlichen Rundfunks als Star-Moderator stilisiert, im Verbund mit dem staatsnahen Mediensektor im Nachgang wiederholt versuchte, Günthers klar artikulierten Wunsch nach Zensur rhetorisch herunterzuspielen. Aus dem Zusammenhang reißen, verwässern und den eigentlichen Skandal mit neuen Empörungswellen wie der Grönland-Debatte zudecken – so funktioniert die mediale Reparaturmaßnahme.

Ordnung schaffen im digitalen Raum

Was sich vor unseren Augen formiert, ist unverkennbar. Ein von der EU-Kommission in Brüssel koordinierter Überwachungsapparat entsteht, aufgebaut auf dem Digital Services Act und sich wie ein Kraken über nationale Geheimdienste wie den Bundesnachrichtendienst (BND) ausstreckend.

In einer Echokammer agiert Daniel Günther nun im Modus eines Zensors in Wartestellung, im Vertrauen darauf, durch den Parteiapparat abgesichert zu sein. Bereits im Juni des vergangenen Jahres stellte die CDU Schleswig-Holstein ein Grundsatzpapier mit dem Titel „Demokratie schützen – Desinformation sowie Hass und Hetze im Netz wirksam bekämpfen“ vor. Auf fünfzehn Seiten skizzierten die Autoren eine konkrete Strategie zur Regulierung von Inhalten auf Plattformen wie Telegram, Meta und X. Totalitäres Denken und die Aussicht, ein heimlich gehegtes Kontrollfetisch auszuleben, scheinen selbst auf der zweiten Ebene der Parteifunktionäre eine eigentümliche Faszination auszuüben.

Verfolgt man die Entwicklungen der vergangenen Monate – gipfelnd in einem echten Streit mit der US-Regierung –, wird eines klar: Europas politische Führung scheint nichts mehr zu fürchten, als ihre Dominanz über den öffentlichen Diskurs zu verlieren.

Doch genau darin liegt das Wesen sozialer Medien: Sie erlauben es einzelnen Meinungen, frei zu treiben, sich zu Clustern zu formieren und laut in den öffentlichen Raum hinausgerufen zu werden. Das ist ihre explosive Kraft – und offenbar das eigentliche Problem aus der Perspektive jener, die Diskurse lieber ordnen, kanalisieren und kontrollieren möchten. Günther ist in seinem Kreuzzug gegen eine widerständige Opposition nicht allein, die sich mal gegen Corona-Lockdowns, mal gegen überhitzte Klima-Apokalyptik wendet und sich ansonsten grundsätzlich staatskritisch positioniert.

Deutsche Wurzeln

Strategisch folgte die Politik der zunächst sanften Zensur einem scheinbar intelligenten medienpolitischen Pfad. Zwei Stränge prägen die rhetorische Front:

Zum einen wird stets der sogenannte Jugendschutz bemüht, wenn Politiker Instrumente der Überwachung privater Kommunikation rechtfertigen wollen. Zum anderen dient der diffuse Begriff der Bekämpfung von „Hass und Hetze“ im Netz als Hebel gegen unsere Privatsphäre. Der Staat stilisiert sich zum moralischen Kämpfer gegen das Böse, lässt die Definition dessen, was im politischen Diskurs gesagt werden darf, weitgehend offen und agiert Seite an Seite mit einem Netzwerk sogenannter Trusted Flaggers – digitaler Informanten, die fleißig rhetorische Grenzfälle an staatliche Stellen melden. Dann kann es heikel werden: Hausbesuche des Staates oder Kontosperrungen haben sich als wirksame Instrumente im Kampf gegen Dissens etabliert. Staat und Banken – auch hier ziehen sie am selben Strang.

Ein solcher Apparat schafft einen Raum stiller Bedrohung, in dem unausgesprochene Vorverurteilungen lauern. Teilnehmer öffentlicher Debatten – Kommentatoren, Podcaster und Medienmacher – setzen die mentale Zensurschere bereits im Vorfeld an und dämpfen den kritischen Ton gegenüber staatlichen Institutionen, Parteien und politischen Persönlichkeiten.

Da sich die Politik der sanften Zensur zunehmend als wirkungslos erweist, werden schärfere Schwerter gezogen. Das Klima auf digitalen Plattformen wird rauer. Selbst Memes, bissige Kommentare oder rechtlich unproblematische Beleidigungen werden zum Casus Belli für den Überwachungsapparat – ein feines, aber zunehmend offenes Netz, das den freien Meinungsraum spürbar einengt.

Die Geschichte wird unserem Land nicht wohlgesonnen sein. Deutschland war gewissermaßen der Ausgangspunkt – die kranke Wurzel – dieses Systems. Mit dem Netzwerkdurchsetzungsgesetz (NetzDG) erfolgte 2017 der erste institutionalisierte Angriff auf die Meinungsfreiheit, und Deutschland war dessen Antreiber. Diese Zensurmaschinerie wurde vom SPD-Politiker und damaligen Justizminister Heiko Maas vorangetrieben. Er nutzte die Gelegenheit, um seinem Ressentiment gegenüber der bürgerlichen Freiheitssphäre freien Lauf zu lassen. Rückendeckung erhielt er von seinem Koalitionspartner, dem CDU-Innenminister Thomas de Maizière, der dem Geist der Unfreiheit offenbar ebenso verpflichtet ist. Ein verhängnisvolles Duo, das dieses düstere Werk in einer ethisch sklerotischen Koalition vorantrieb.

Auffällig ist, wie dieser aus deutschem Antrieb entstandene Vorstoß zunächst im Digital Services Act in Brüssel greifbare Gestalt annahm, wie begierig der Brüsseler Apparat diese Initiative aufgriff und wie sie später Eingang in die politischen Programme deutscher Parteien fand. Alles folgt nun einer hierarchischen Befehlskaskade. Die digitalen Kontrollleitlinien der CDU Schleswig-Holstein fügen sich nahtlos in die vorgegebene Strategie ein.

Im Parteiapparat herrscht Einigkeit; Widerspruch kommt allein von der vielgeschmähten AfD, die sich vehement gegen die Überwachung der Bürger im digitalen Raum stellt. Vor der Brandmauer wird es ungemütlich.

Die Fortschritte beim Aufbau des EU-Zensurapparates und die hektischen nationalen Bemühungen, ihn in die praktische Anwendung zu überführen, zeigen unmissverständlich, wie schlecht es um unsere Freiheit steht. Ebenso düster ist die Zukunft zivilisatorischer Grundwerte – der persönlichen Freiheit gegenüber dem Repressionsapparat ebenso wie der Meinungsfreiheit selbst.

Was wir derzeit erleben, ist ein antizivilisatorischer Schlag, eine Form kultureller Degeneration, präsentiert im Gewand eines klima-sozialistischen Umbaus unserer Gesellschaft. Die Rhetorik ist moralisch aufgeladen, der Anspruch umfassend, die Konsequenzen zutiefst autoritär. Wo sind die Stimmen der Eliten dieses Landes, die sich gegen den wachsenden Repressionsapparat erheben würden? Sie sind verstummt – und haben sich damit selbst diskreditiert.

Der Preis der Krise

Es ist absehbar, was uns erwartet. Je gravierender die wirtschaftliche Krise wird und je stärker sie den Wohlstand der breiten Massen trifft, desto rücksichtsloser wird der konstruierte Apparat Dissidenten und freie Medien verfolgen. Repression folgt der Krise wie der Schatten dem Körper – immer tiefer hinein in die Wüste des Totalitarismus.

Und wer weiß – vielleicht werden wir Daniel Günther eines Tages dankbar sein für seine naive, kurzsichtige Ehrlichkeit. Vielleicht war er es, der unbeabsichtigt das Immunsystem unserer Gesellschaft stimulierte und bei vielen das Bewusstsein für das eigentliche Grundproblem unserer Zeit schärfte.

Wenn dem so ist, wäre Günther gelungen – wenn auch als Antagonist und unbeabsichtigt, letztlich aber im Dienst der Freiheit –, seinen Moment des Ruhms zu nutzen. Er hätte dann eine gute Tat vollbracht, indem er half, unsere Gesellschaft davor zu bewahren, in den Sumpf der sozialistischen Planwirtschaft abzurutschen – ein System, das stets einen repressiven, anmaßenden und verdummenden Kontrollapparat hervorbringt.

*

Über den Autor:
Thomas Kolbe ist Diplom-Volkswirt. Seit über 25 Jahren arbeitet er als Journalist und Medienproduzent für Kunden aus unterschiedlichen Branchen und Wirtschaftsverbänden. Als Publizist konzentriert er sich auf wirtschaftliche Prozesse und beobachtet geopolitische Ereignisse aus der Perspektive der Kapitalmärkte. Seine Veröffentlichungen folgen einer Philosophie, die den Einzelnen und dessen Recht auf Selbstbestimmung in den Mittelpunkt stellt.

Trump in Davos: Zwischen Rhetorik und Realität – Eine Analyse von Colonel Douglas Macgregor

Der Auftritt von US-Präsident Donald Trump beim Weltwirtschaftsforum in Davos hat weltweit Aufsehen erregt. In einem ausführlichen Interview beleuchtet Colonel Douglas Macgregor, ein erfahrener Verteidigungs- und Außenpolitikexperte sowie ehemaliger Berater des Verteidigungsministers, Trumps Aussagen kritisch.

Macgregor analysiert Themen wie den Erwerb Grönlands, die Zukunft der NATO, wirtschaftliche Abhängigkeiten und drohende Konflikte und warnt vor den Risiken einer übertriebenen US-Dominanz.

Trumps Forderung nach dem Erwerb Grönlands: Eine fragwürdige Strategie

Ein zentraler Punkt in Trumps Rede war seine erneute Forderung, Grönland von Dänemark zu erwerben. Trump betonte, dass die USA allein in der Lage seien, diese „riesige Landmasse“ zu schützen, zu entwickeln und zu verbessern – zum Vorteil Europas und der NATO.

Er sprach von sofortigen Verhandlungen und verwies auf historische US-Territorialerwerbungen, ohne dass dies eine Bedrohung für die Allianz darstelle. Stattdessen, so Trump, würde es die Sicherheit des Bündnisses erheblich stärken.

Colonel Macgregor kritisiert diese Haltung scharf. Er argumentiert, dass Trump nie überzeugend dargelegt habe, warum die USA Grönland unbedingt kontrollieren müssten. Behauptungen über Bedrohungen durch Russland oder China seien unsubstantiiert und fehlten jeglicher Beweise.

Zunächst habe Trump wirtschaftliche Motive wie Öl, Gas und seltene Erden angeführt, später jedoch auf nationale Sicherheit umgeschwenkt – ohne konkrete Imperative zu nennen.

Macgregor vergleicht Trumps Haltung mit historischen Fehlern großer Mächte, wie Hitlers Unfähigkeit, unnötige Territorien aufzugeben, oder der Überdehnung des japanischen oder britischen Imperiums.

Er betont, dass die USA bereits durch bestehende Verträge mit Dänemark und Grönland militärisch expandieren könnten, ohne einen Erwerb. Stattdessen plädiert er für einen internationalen Vertrag über die Arktis als globales Gemeingut, ähnlich wie Abkommen über den Weltraum oder die Meere.

Besonders kontrovers war Trumps Aussage zur möglichen Nutzung von Gewalt. Er räumte ein, dass Verhandlungen ohne „übermäßige Stärke und Gewalt“ scheitern könnten, betonte jedoch, er wolle und werde keine Gewalt anwenden.

Macgregor sieht hier einen Widerspruch und warnt, dass Trumps Aussagen unvorhersehbar seien – er ändere oft seine Meinung. Interne Umfragen in den USA zeigten wenig Begeisterung für militärische Aktionen in Grönland, einem „sehr kalten Ort“. Dennoch schließt Macgregor nicht aus, dass Trump seine Position ändern könnte, was zu Spannungen innerhalb der NATO führen würde.

Er spekuliert, dass dies sogar ein kalkulierter Schritt sein könnte, um die NATO aufzulösen und Europa zu zwingen, für seine eigene Verteidigung aufzukommen.

Die wirtschaftliche Dominanz der USA: Illusion oder Bedrohung?

Trump stellte die USA als „unverzichtbare Nation“ dar, die die Welt am Laufen halte. Er nannte Beispiele wie die Schweiz und andere Länder, die ohne US-Unterstützung „zerstört“ wären, und prahlte mit Tarifen, die er fair halte, obwohl er höhere Sätze hätte verhängen können.

Macgregor warnt, dass Trump diese Rhetorik ernst meine, sie aber falsch sei. Solche öffentlichen Beleidigungen würden andere Nationen eher abschrecken und zu einer Abkehr vom US-dominierten Finanzsystem führen.

Er verweist auf den Verkauf US-amerikanischer Staatsanleihen durch Länder wie Schweden, Japan und China – letzteres hat im vergangenen Jahr 10 Prozent seiner Bestände abgestoßen. Dies sei der Anfang einer Welle, die das US-Finanzsystem erschüttern könnte.

Nationen suchten Alternativen wie BRICS, um Sanktionen und Tarife zu umgehen. Macgregor kritisiert die Weaponisierung des Dollars: Mit einem Tastendruck in New York könnten Vermögen eingefroren werden, wie bei Russland geschehen.

Dies treibe Länder wie Australien oder Brasilien in Chinas Arme, wo keine politischen Bedingungen an Geschäfte geknüpft würden.

Kanadas Mark Carney: Ein Signal für den Wandel?

Kanadas Premierminister Mark Carney, den Trump in seiner Rede direkt ansprach, symbolisiert diesen Wandel. Trump warf Carney Undankbarkeit vor und behauptete, Kanada existiere nur dank der USA, die es unter einem „goldenen Dom“ schütze.

Carney konterte in Davos mit einer Rede über den „Bruch“ der globalen Integration. Krisen in Finanzen, Gesundheit, Energie und Geopolitik hätten Risiken offengelegt, und große Mächte nutzten Integration als Waffe – Tarife als Hebel, Finanzinfrastruktur als Zwang.

Macgregor lobt Carneys Analyse: Globale Integration sei keine gegenseitige Wohltat, sondern führe zu Unterordnung. Er vergleicht Kanadas Abhängigkeit vom US-Dollar mit einem „Abonnementdienst“, das Washington jederzeit kündigen könne.

Carney kündigte neue Partnerschaften an, darunter mit China und Katar, sowie Verhandlungen mit Indien, ASEAN und Mercosur. Macgregor sieht dies als Vorlage für andere: Ehemals loyale Verbündete wie Kanada diversifizierten, um Risiken zu mindern.

Gold werde zur Absicherung gegen den Dollar, da es unabhängig von US-Gunst sei. Er warnt, dass Asien die USA bereits als „Patient Zero“ sehe – isoliert wegen wirtschaftlicher Instabilität.

Die Zukunft der NATO: Auf dem Weg zum Zerfall?

Macgregor prognostiziert den Untergang der NATO, beschleunigt durch den Ukraine-Krieg und Trumps Grönland-Politik. Russlands Außenminister Lawrow hatte kürzlich spekuliert, die NATO diskutiere ihre Auflösung, da ein Mitglied (USA) ein anderes (Dänemark) bedrohe.

Macgregor stimmt zu: Der gescheiterte Proxy-Krieg gegen Russland habe die Allianz enttarnt. Die NATO sei missbraucht worden – für Interventionen in Bosnien, Kosovo, Afghanistan, Irak und Syrien, fernab ihres ursprünglichen Zwecks, Kriege in Europa zu verhindern.

Viele Mitglieder hätten nur aus Loyalität mitgemacht, um US-Gunst zu erhalten. Nun, mit Trumps Rhetorik, suchten sie Alternativen.

Macgregor plädiert für eine Anpassung an die neue Welt: Russland sei nicht die Sowjetunion, China kein kommunistischer Riese. Statt militärischer Dominanz brauche es wirtschaftliche Stärke.

Ohne NATO könnten regionale Sicherheitszonen entstehen, basierend auf Kultur und Geografie – etwa in Skandinavien oder Südeuropa. Er kritisiert Trump: Statt die NATO aufzulösen und Beziehungen zu Russland zu normalisieren, halte er an alten Illusionen fest.

Drohender Krieg mit Iran: Ein gefährliches Spiel

Schließlich warnt Macgregor vor einem Krieg mit Iran. General Jack Keane hatte auf Fox News militärische Aktionen angekündigt: Erweiterte Ziele, darunter Basen, Raketen, Führer und IRGC-Mitglieder.

Macgregor bestätigt dies als realistisch, sieht aber keine Kongressgenehmigung – ein Verstoß gegen die Verfassung. Der Konflikt entzünde sich an gescheiterten Versuchen, den Iran durch Demonstrationen und Provokateure zu destabilisieren, unterstützt von Mossad, CIA und MI6.

Iran sei vorbereitet und sehe sich im Krieg. Macgregor befürchtet massive Zerstörung, möglicherweise mit US-Beteiligung, um Israel zu schützen. Iran könnte Israel schwer treffen, was zu nuklearen Eskalationen führen könnte.

Russland und China könnten intervenieren, um ihren Einfluss zu wahren; die Straße von Hormuz könnte schließen, was Chinas Ölimporte bedrohe. Arabische Regime wie Saudi-Arabien oder die UAE würden protestieren, aber nichts tun – zu schwach intern. Der Irak, als iranischer Verbündeter, könnte opponieren.

Macgregor rät Trump, einen massiven Angriff zu verweigern, doch er sei Geisel Netanyahus und finanzieller Unterstützer. Innenpolitisch könnte dies mit einer Finanzkrise zusammenfallen und zu Widerstand führen, da Amerikaner Krieg nicht verstehen, bis er sie trifft.

Fazit

Insgesamt malt Macgregor ein düsteres Bild: Trumps Davos-Auftritt könnte den Niedergang der US-amerikanischen Hegemonie beschleunigen. Statt Konfrontation brauche es Kooperation, doch alte Denkmuster hinderten daran.

Die Welt warte auf Klarheit – oder Chaos.

Gates hält trotz seiner Kritik an der Ölindustrie wegen des „Klimawandels” Ölaktien im Wert von 254 Millionen Dollar

Von Jon Fleetwood

Der Gates Foundation Trust hält Anteile in Höhe von mehreren hundert Millionen Dollar an Unternehmen wie Chevron, BP und Shell und investiert gleichzeitig in Initiativen zum Klimaschutz – und profitiert so von beiden Seiten.

Der Gates Foundation Trust hat Hunderte Millionen Dollar in Ölförderer investiert, obwohl Bill Gates behauptet, dass die Industrie für den längst widerlegten „Klimawandel” verantwortlich ist, wie aus einem Bericht der Zeitung The Guardian vom Montag hervorgeht.

Der neue Bericht bestätigt:

„Aus den Jahresabschlussberichten geht hervor, dass der Trust im Jahr 2024 254 Millionen Dollar in Unternehmen investiert hat, die fossile Brennstoffe fördern, darunter Chevron, BP und Shell. Dies war ein Neunjahresrekord und ein Anstieg von 21 % gegenüber 2016, wie eine Analyse des Guardian ergab. Inflationsbereinigt war dies der höchste Betrag seit 2019.“

Gates hat behauptet, dass die Produkte der großen Ölkonzerne die Zukunft für die Menschheit „verschlechtern”.

Auf seiner Website GatesNotes.com schreibt der Milliardär:

„Die Verbrennung fossiler Brennstoffe hilft den Menschen heute, verschlechtert jedoch das Klima für die Menschen in der Zukunft.“

Dies wirft logische Fragen auf:

  • Wenn die Gewinnung fossiler Brennstoffe nach Ansicht von Gates die Zukunft der Menschheit verschlechtert, warum investiert der Gates Foundation Trust dann über eine Viertelmilliarde Dollar in genau die Branche, die Gates öffentlich verurteilt?
  • Warum drängt Gates die Welt dazu, sich von fossilen Brennstoffen zu trennen, während sein eigener Trust still und leise davon profitiert?
  • Warum wird Öl als moralische Bedrohung für die Menschheit dargestellt – und dennoch als lukrative Investition behandelt, wenn es um Gates‘ Geld geht?
  • Warum wird der Öffentlichkeit gesagt, sie solle fossile Brennstoffe aufgeben, während der Gates Foundation Trust seine finanziellen Beteiligungen daran ausbaut?
  • Warum wird von normalen Menschen erwartet, dass sie ihre Lebensgrundlage und Energiesicherheit opfern, während die Stiftung von Gates weiterhin von derselben Industrie profitiert?

Seine Anlagestrategie zeigt, dass er finanziell genau dem Marktversagen ausgesetzt ist, das er öffentlich als existenzielle Bedrohung definiert – während er gleichzeitig Positionen in den Politik- und Technologiesektoren hält, die geschaffen wurden, um dieses Problem zu „beheben”.

Im Dezember kündigte die Gates Foundation eine vierjährige Investition in Höhe von 1,4 Milliarden Dollar in „Klimaresilienz“ an.

Die gleiche Krise, vor der Gates warnt und die die Zukunft destabilisieren wird, ist in den Einnahmequellen seines Trusts verankert, dessen Gewinne sowohl an die Gewinnung fossiler Brennstoffe als auch an die Branchen gebunden sind, die als Ersatz dafür positioniert sind.

Das Portfolio des Trusts spiegelt ein System wider, von dem Gates unabhängig vom Ergebnis profitiert: anhaltende Ölabhängigkeit oder erzwungene Energiewende.

Die Finanzdaten zeigen, dass das „Problem“ und die „Lösung“ für Gates keine getrennten Märkte sind – sie sind Teil desselben Umsatzzyklus.

Anstatt sich von der von ihm verurteilten Industrie zu distanzieren, bleibt Gates‘ Stiftung strukturell von ihr abhängig und finanziert gleichzeitig die Mechanismen, die zu ihrer Abschaffung dienen sollen.

Gates finanziert derzeit auch neue mRNA-Vogelgrippe-Impfstoffe und unterstützt finanziell Biolabore, die angeblich Funktionsgewinn-Experimente mit Vogelgrippe-Erregern durchführen.

Der Kongress, das Weiße Haus, das Energieministerium, das FBI, die CIA und der Bundesnachrichtendienst (BND) haben bestätigt, dass die COVID-19-Pandemie wahrscheinlich das Ergebnis einer im Labor entwickelten Manipulation von Krankheitserregern war.

Die Unterlagen zeigen einen geschlossenen Finanzkreislauf, in dem derselbe Akteur, der die weltweite Bedrohung definiert, in der Lage ist, sowohl von der Fortsetzung dieser Bedrohung als auch von den Systemen, die zu ihrer Bewältigung, Regulierung und Ersetzung geschaffen wurden, Gewinne zu erzielen.

Ex-Abgeordneter erhebt schwere Vorwürfe: Staatliches Wegsehen bei organisiertem Kindesmissbrauch

In einem ausführlichen Interview hat der ehemalige britische Parlamentsabgeordnete Andrew Bridgen schwerwiegende Vorwürfe zu organisiertem Kindesmissbrauch, Kinderhandel und staatlichem Versagen erhoben. Im Gespräch mit dem Journalisten Flavio Pasquino von LightHouseTV sprach Bridgen über aus seiner Sicht systematische Missstände, die von Politik, Justiz und Sicherheitsbehörden ignoriert oder aktiv verschwiegen würden.

Bridgen kritisierte, dass es im Vereinigten Königreich keine eigenständige strafrechtliche Erfassung von sogenanntem „satanischem Kindesmissbrauch“ gebe. Dies liege nicht an fehlenden Hinweisen, sondern daran, dass das Thema gesellschaftlich und politisch tabuisiert werde. Vergleichbare Mechanismen der Verdrängung sieht er nach eigenen Angaben auch in anderen europäischen Ländern, unter anderem in den Niederlanden.

Vorwürfe zu internationalem Kinderhandel

Zentraler Bestandteil des Gesprächs waren Bridgens Behauptungen über einen international organisierten Kinderhandel. Demnach würden Kinder aus osteuropäischen Ländern wie der Ukraine und Moldau nach Großbritannien gebracht – zum Zweck sexueller Ausbeutung und illegaler Organentnahmen. Bridgen erklärte, er habe entsprechende Beweise gesehen und diese an Polizei, Geheimdienste sowie die nationale Kriminalpolizei weitergeleitet. Reaktionen oder Ermittlungen seien jedoch ausgeblieben, selbst dann, wenn die Informationen von ukrainischen Geheimdienstquellen gestammt hätten.

Besonders brisant: Whistleblower, die versucht hätten, diese Strukturen offenzulegen, seien nach Bridgens Darstellung Ziel von Mordanschlägen geworden. Die Vorwürfe legen nahe, dass staatliche Stellen zumindest durch Untätigkeit zur Fortsetzung der Verbrechen beitrügen.

In diesem Zusammenhang nannte Bridgen auch das Unternehmen Chemonics, das er mit Geldwäsche im Umfeld von Kinderhandel in Verbindung brachte. Beweise dafür wurden im Interview nicht öffentlich vorgelegt. Bridgen erklärte jedoch, dass er nach seinen Aussagen massiven persönlichen Druck erfahren habe, darunter falsche Anschuldigungen und politische Isolation innerhalb des Parlaments.

Missbrauchsskandale im Inland

Neben internationalen Aspekten sprach Bridgen auch über Fälle organisierter sexualisierter Gewalt im Vereinigten Königreich. Er verwies auf Gruppenvergewaltigungen minderjähriger Mädchen aus sozial schwachen Verhältnissen durch kriminelle Netzwerke. Auch hier warf er Polizei und Justiz systematisches Wegsehen und in einzelnen Fällen aktive Beteiligung vor. Nach seiner Darstellung seien Opfer teilweise selbst von Polizeibeamten erpresst oder missbraucht worden.

Bridgen deutete diese Vorgänge als Ausdruck einer tiefgreifenden institutionellen Korruption, die Polizei, Politik, Justiz und wirtschaftliche Akteure umfasse. In einem solchen System, so seine Einschätzung, könnten nur jene aufsteigen, die bereit seien, bestehende Strukturen zu schützen.

„Ein verrottetes System“

Der frühere Abgeordnete beschreibt das Problem als globales Phänomen, das in etablierten Medien kaum thematisiert werde, obwohl es Millionen von Kindern betreffe. Seine Motivation, trotz persönlicher Konsequenzen an die Öffentlichkeit zu gehen, begründet Bridgen mit dem Schutz von Kindern vor schwersten Verbrechen.

Er verwies zudem auf das Ende seiner politischen Karriere und erklärte, diese habe eingesetzt, nachdem er sich gegen die Zulassung experimenteller Covid-Impfstoffe für Kleinkinder ausgesprochen habe.

Das Interview zeichnet das Bild eines hochgradig umstrittenen, aber weitreichenden Vorwurfs: dass organisierter Kindesmissbrauch nicht nur existiere, sondern durch staatliches Versagen – oder staatliche Beteiligung – ermöglicht werde. Belege für viele der Aussagen liegen bislang nicht öffentlich überprüfbar vor. Gleichwohl wirft das Gespräch Fragen nach Transparenz, Ermittlungsbereitschaft und institutioneller Verantwortung auf.

Prozess gegen „Sächsische Separatisten“: Sieht Justitia auf dem rechten Auge wieder einmal mehr als auf dem linken Auge?

Prozess gegen „Sächsische Separatisten“: Sieht Justitia auf dem rechten Auge wieder einmal mehr als auf dem linken Auge?

Prozess gegen „Sächsische Separatisten“: Sieht Justitia auf dem rechten Auge wieder einmal mehr als auf dem linken Auge?

Am Freitag (23. Januar) beginnt vor dem sächsischen Oberlandesgericht (OLG) in Dresden der Prozess gegen die „Sächsischen Separatisten“. Die Meinungen darüber, ob und wie gefährlich diese laut Anklage der Bundesanwaltschaft „terroristische Vereinigung“ ist, gehen in Ermittlerkreisen auseinander. Der Prozess ist aber wieder einmal ein Beispiel dafür, dass Justitia, die eigentlich „blind“ sein sollte, auf dem rechten Auge wohl mehr zu sehen scheint als auf dem linken Auge. Wird in Dresden mit zweierlei Maß gemessen?

Parallel zum Prozess gegen die „Sachsen“ läuft vor dem OLG ein Prozess gegen Mitglieder der linksextremistischen „Hammerbande“ – konkret geht es dabei u.a. um zweifachen Mordversuch! Doch schon die Anklageschrift unterscheidet sich vom Verfahren gegen die angeklagten acht „Sächsischen Separatisten“ dadurch, dass bei der „Hammerbande“ lediglich von einer „kriminellen Vereinigung“ die Rede ist, nicht aber von einer „terroristischen Vereinigung“. Weshalb in Sachen der „Sachsen“ die Anklagebehörde die Bundesanwaltschaft ist – was per se füreine erhöhte mediale Aufmerksamkeit sorgen dürfte.

Unterschiedliche „sitzungspolizeiliche Anordnungen“

Interessant ist auch etwas Anderes: Für beide Verfahren gelten sogenannte „sitzungspolizeiliche Anordnungen“ – und diese richterlichen Anordnungen unterscheiden sich ganz erheblich, wie aus den dem Deutschland-Kurier vorliegenden Dokumenten hervorgeht. So heißt es in der Anordnung vom 5. Januar 2026 bezüglich der Verhandlung gegen die „Sächsischen Separatisten“ unter Punkt 4: „Verteidiger, Rechts- und Zeugenbeistände, Dolmetscher, Sachverständige sowie Vertreter der Jugendgerichtshilfe werden, nachdem sie sich ausgewiesen haben, ebenfalls durchsucht. Bei der Durchsuchung ist die Kleidung mit Hilfe eines Metalldetektors bzw. einer Metalldetektorschleuse abzutasten (…) Verteidiger und Vertreter der Bundesanwaltschaft, Rechts- und Zeugenbeistände, Vertreter der Jugendgerichtshilfe sowie Dolmetscher und Sachverständige dürfen Taschen, Mobiltelefone und Laptops in den Sitzungssaal mitbringen. Die Nutzung der Mobiltelefone im Sitzungssaal ist ihnen untersagt…“

In der am 30. Oktober 2025 nachträglich entschärften „sitzungspolizeilichen Anordnung“ für den „Hammerbande“-Prozess liest sich Punkt 4 dagegen ganz anders: „Eine Durchsuchung der Verteidiger und Nebenklägervertreter findet, sofern sie sich als solche mittels Bundespersonalausweis oder Reisepass bzw. Ausweis der Rechtsanwaltskammer ausweisen, nicht statt. Auch Angeklagte und Nebenkläger dürfen einen mobilen Computer mit in den Sitzungssaal nehmen, um so Zugriff auf die Verfahrensakte zu haben, diesen allerdings nur im Offline-Betrieb nutzen. Vertreter der Bundesanwaltschaft, Verteidiger, Nebenklägervertreter und Vertreter der Jugendgerichtshilfe dürfen im Sitzungssaal ihre mobilen Computer auch im Online-Betrieb nutzen…“

Hatte es in der ursprünglichen richterlichen Verfügung vom 6. Oktober 2025 in Bezug auf das „Hammerbande“-Verfahren noch geheißen, die Nutzung der Mobiltelefone sei den Anwälten der Linksextremisten „untersagt“, so ist in der aktuell gültigen Fassung vom 30. Oktober davon plötzlich nicht mehr die Rede!

Das ist insofern bemerkenswert, als es im „Hammerbande“-Prozess u.a. um zweifachen Mordversuch geht. Zwar ist auch im Verfahren gegen die „Sachsen“ von einem Mordversuch die Rede, aber die Umstände sind unklar. Einer der Angeklagten, Kurt. H., ein passionierter Jäger, soll bei seiner Festnahme mit seinem Gewehr auf einen Polizeibeamten gezielt haben. H. selbst bestreitet nicht, ein Gewehr bei sich geführt zu haben, behauptet aber, dies sei eine reine Vorsichtsmaßnahme gewesen, da sich „Antifa“-Gewalttäter schon häufiger als angebliche Polizisten ausgegeben hätten. H. erlitt bei seiner Festnahme eine lebensgefährliche Schussverletzung im Gesicht aus der Dienstpistole des angeblich bedrohten Beamten. Wobei auch hier unklar ist, wie es genau dazu kam.

Was wird den „Sachsen“ konkret vorgeworfen?

Die mutmaßliche Terrorgruppe, bei der es sich um 20- bis 25-Jährige aus der Region Leipzig handelt, soll laut Anklage geplant haben, nach „einem Tag X“ mit Waffengewalt einen NS-Staat in Ostdeutschland zu errichten. DieAngeklagten sollen versucht haben, „Gebiete in Ostdeutschland“ mit Waffengewalt zu erobern. Unter andermKurt H. soll an „Wehrsportübungen“ teilgenommen haben. Dafür soll er sein Waldgrundstück zur Verfügung gestellt haben. H.‘s Anwalt spricht von einem „harmlosen Hobby, Orientierungsübungen und Erste-Hilfe-Trainings“.

Die Gruppe soll gar „den Häuserkampf geübt“ haben, behaupten zwei „Aussteiger“. Unstrittig scheint zu sein, dass die Gruppe „Paintball“ gespielt hat. Dabei handelt es sich um einen taktischen Gesellschaftssport, bei dem sich Spielerinnen und Spieler mittels Markierern mit Farbkugeln per Schussausübung markieren. Der Anwalt von H. sagt: „Also, wenn man sich anschaut, Pfadfinder oder Gruppen, die Paintball machen, die sind militärischer organisiert.“

Der guten Vollständigkeit halber: Der Deutschland-Kurier hatte die Pressestelle des OLG Dresden innerhalb einer angemessenen Frist per Email um Aufklärung bezüglich der sehr unterschiedlichen „sitzungspolizeilichen“ Anordnungen im Prozess gegen die „Hammerbande“ einerseits und gegen die „Sächsischen Separatisten“ andererseitsersucht.

Die Antwort fiel nichtssagend aus: „Die sitzungspolizeiliche Anordnung wird durch den Senat erlassen und kann von der Pressestelle nur bekanntgegeben, nicht aber begründet werden.“

The post Prozess gegen „Sächsische Separatisten“: Sieht Justitia auf dem rechten Auge wieder einmal mehr als auf dem linken Auge? appeared first on Deutschland-Kurier.

Hamburg: Wegen nonexistenter Waffe – Hausdurchsuchung bei kritischem Journalisten

Hamburg: Wegen nonexistenter Waffe – Hausdurchsuchung bei kritischem Journalisten

Hamburg: Wegen nonexistenter Waffe – Hausdurchsuchung bei kritischem Journalisten

Die Hamburger Staatsanwaltschaft hat Anfang Januar die Wohnung eines Journalisten, der mehrfach Missstände in der Hamburger Waffenbehörde angeprangert hatte, wegen Verdachts auf illegalen Waffenbesitz durchsuchen lassen. Absurderweise wurde nach einer Waffe gesucht, die nie hergestellt wurde. Der nächste Einschüchterungsversuch gegen einen unliebsamen Journalisten?

Am 13. Januar 2026 drangen kurz nach 6:30 Uhr rund ein Dutzend Polizeibeamte in das Haus des Investigativjournalisten und Waffenexperten Lars Winkelsdorf in Hamburg ein: Hausdurchsuchung!

Der Journalist gab an, dass er für mehrere Stunden festgesetzt worden wäre und er sich zunächst weder anziehen noch die Toilette benutzen durfte. Das gesamte Haus sei durchsucht worden – auf dem Dachboden wurde sogar die Abdeckung einer Dämmung abgeschraubt. Die Durchsuchung dauerte rund vier Stunden, gefunden wurden letztlich drei Waffenteile, etwa eine Schulterstütze und ein Magazin. Diese sind laut Winkelsdorf nicht illegal.

Der offizielle Grund für die Hausdurchsuchung: Verdacht auf illegalen Waffenbesitz, gestützt auf einen taz-Artikel vom Juli 2024, der über Lars Winkelsdorf berichtete und ihn mit der Aussage zitierte, er besitze mehrere Schusswaffen. Da Winkelsdorf zu dem Zeitpunkt keinen Waffenschein mehr hatte, rief dies die Behörden auf den Plan. Die taz korrigierte den Artikel nachträglich.

Die Behörden suchten konkret nach einer Waffe, laut Durchsuchungsbeschluss nach einer „Sempert & Krieghoff, Modell 41“. Eine Waffe mit dieser Bezeichnung wurde nie hergestellt. Winkelsdorf vermutet, dass die Behörden eigentlich nach einer anderen Waffe suchten – einem Selbstlade-Pistolenkarabiner vom Typ SLK 41 – ,die er bereits 2008 ordnungsgemäß an die Waffenbehörde übergeben hatte. Diese Waffe wurde später als Beweisstück in einem Prozess gegen einen Waffenhändler verwendet und verblieb danach beim BKA.

Winkelsdorf hatte Missstände aufgedeckt

Winkelsdorf hat in der Vergangenheit wiederholt Missstände bei der Hamburger Waffenbehörde öffentlich gemacht. So deckte er mit anderen Medien zu der Amoktat in Hamburg-Alsterdorf im März auf, dass die Behörde Hinweisen und Alarmzeichen nicht ausreichend nachgegangen war. Nach der Tat bestätigte eine Fachaufsichtsprüfung desaströse Aktenführung und nicht nachvollziehbares Verwaltungshandeln in der Waffenbehörde – der Bericht dazu wurde als Verschlusssache eingestuft.

In der Vergangenheit hatte Winkelsdorf wiederholt die Hamburger Justiz, die Waffenbehörde und Innensenator Andy Grote (SPD) öffentlich kritisiert. Jetzt steht er selbst im Fokus eines fragwürdigen Ermittlungsverfahrens – er sieht darin einen klaren Zusammenhang.

Dem Journalisten hat die Hausdurchsuchung gesundheitlich schwer zugesetzt – er ist seit dem 13. Januar krankgeschrieben. Winkeldorfs Anwalt hat Beschwerde gegen die Hausdurchsuchung eingereicht. “Wir kennen das unter Andy Grote, ohne Grundlage mit einer Kompanie Polizisten einzumarschieren.” Als Beispiel für eine rechtswidrige Durchsuchung führt er die“Pimmelgate”-Affäre an. Dabei hatte ein Mann mit dem Satz „Du bist so 1 Pimmel“ auf einen Tweet von Andy Grote reagiert. Der Innensenator fühlte sich durch die Wortwahl beleidigt und stellte einen Strafantrag, woraufhin die Wohnung des mutmaßlichen Urhebers durchsucht wurde. Ein Gericht entschied später, dass die Durchsuchung rechtswidrig war.

Winkelsdorf hat in einem Video auf der Plattform X seinen Fall geschildert:

Es drängt sich nun bei vielen Beobachtern der Gedanke auf, dass Kritiker des Innensenators oder seiner Behörden eingeschüchtert und so mundtot gemacht werden sollen. Der Vorfall zeigt klar und deutlich, dass es im besten linken Deutschland nicht gut um die Meinungs- und Pressefreiheit bestellt ist. Gefährdet sind dabei keineswegs nur Journalisten der gefürchteten Alternativmedien: Jeden, der bei den Herrschenden zu genau hinsieht, kann es treffen.

Das Jahr des Linux-Desktops

Das Jahr des Linux-Desktops

Linux verlangt nicht länger, dass sich Nutzer anpassen; es passt sich ihnen an und liefert ein Desktop-Erlebnis, das vertraut wirkt, ohne die Kontrolle aufzugeben.

Rick Findlay


Jahrelang wurde den treuen Anhängern von Open Source gesagt, ihr Lieblingssystem sei eine Kuriosität: hervorragend geeignet, um das Rückgrat des Internets zu betreiben, aber angeblich ungeeignet, um E-Mails zu lesen. Linux trieb die digitale Welt an, stand aber selten auf dem Schreibtisch vor einem.

Die Kritik war berechtigt. Frühes Linux war zerstreut und inkonsistent, ein Experiment, zusammengehalten von Freiwilligen, die unter „Benutzerfreundlichkeit“ verstanden, eine Kernel-Kompilierung zu überleben. Einen Drucker einzurichten konnte einen ganzen Nachmittag und ein kleines Gebet erfordern. Selbst Enthusiasten hielten oft eine Windows-Installation bereit – für die Momente, in denen Dinge einfach funktionieren mussten.

Zeit und Beharrlichkeit haben diese Geschichte verändert. Das heutige Linux ist eine zuverlässige, stabile Plattform, die sich im Hintergrund hält. Die Kommandozeile existiert noch, ist aber kein Türsteher mehr. Grafische Oberflächen sind zu etwas Praktischem und Schnellem gereift, entwickelt, um Arbeit zu erledigen – nicht um technische Fähigkeiten zu beweisen.

Windows hat sich dagegen in etwas verwandelt, das eher einem Abonnement-Portal als einem klassischen Betriebssystem ähnelt. Es beginnt mit Kontoanmeldungen, Online-Validierung und ständigen Hinweisen darauf, dass der eigene Speicher in der Cloud besser aufgehoben wäre. Eine wachsende Liste von Hintergrundprozessen hält das System beschäftigt und lässt den Nutzer fragen, für wen der Rechner eigentlich arbeitet.

Jede neue Version kommt mit Verbesserungsversprechen, gefolgt von neuen Anforderungen und noch mehr erzwungenen Neustarts. Hardware, die früher reibungslos lief, gerät unter der Last von Telemetrie- und Werbemodulen ins Stocken. Das Produkt fühlt sich inzwischen eher verwaltet als besessen an.

Die Linux-Option

Das Jahr des Linux-Desktops

Moderne Linux-Distributionen kommen einsatzbereit. Sie enthalten Browser, Office-Werkzeuge, Treiber und Software-Zentren, die Installationen einfach machen. Updates laufen unauffällig ab und lassen sich bei Bedarf rückgängig machen. Systemstabilität ist zur Normalität geworden statt zur Überraschung.

Ältere Hardware läuft gut, oft deutlich besser als unter aktuellen Windows-Versionen. Rechner, die bereits für das Recycling vorgesehen waren, arbeiten weiter – manchmal jahrelang. Die Software verlangt keine neue Hardware; sie nutzt das, was bereits vorhanden ist.

Die Kluft zwischen Bastlern und normalen Nutzern ist weitgehend verschwunden. Eigenschaften, die Linux einst zu einem Werkzeug für Spezialisten machten, sprechen heute jeden an, der Kontrolle und Beständigkeit will. Kommerzielle Betriebssysteme sind restriktiver geworden, während Linux offen und vorhersehbar geblieben ist.

Die Verbreitung des Linux-Desktops folgte nie dem schnellen Zyklus der Konsumtechnologie. Sie wächst langsam, durch stetigen Fortschritt statt durch kurze Aufmerksamkeitsschübe.

Dieser Aufstieg erfolgte ohne große Marketingkampagnen oder massive Konzernunterstützung. Anerkennung entstand über die Zeit hinweg durch Beständigkeit und Mundpropaganda.

In den 2010er-Jahren war Linux in Marktberichten kaum sichtbar, in Desktop-Statistiken fast unsichtbar. Das hat sich geändert. Bis 2025 erreichte Linux nahezu fünf Prozent der weltweiten Desktop-Nutzung, in mehreren Regionen sogar darüber hinaus.

In den Vereinigten Staaten wurde diese Schwelle erstmals überschritten. Die Zahl mag bescheiden wirken, doch sie spiegelt eine Verdopplung der Linux-Nutzung innerhalb weniger Jahre wider – ein klares Zeichen für Dynamik.

Das jüngste Wachstum stammt aus einer anderen Quelle als früher. Die Expansion wird nun von Alltagsnutzern getragen, nicht mehr primär von technischen Gruppen. Viele entschieden sich für Linux aufgrund konkreter Veränderungen der Software, die sie zuvor nutzten. Windows 10 nähert sich dem Ende seines Support-Zeitraums, Windows 11 verlangt neue Hardware, und das System ist komplexer geworden. Nutzer testen Linux, weil es eine praktische Antwort auf diese Herausforderungen bietet.

Linux liefert heute ein vollständigeres und zugänglicheres Erlebnis. Energieverwaltung ist zuverlässig. Hardware-Kompatibilität ist stark. Software-Verteilung ist durch organisierte grafische Werkzeuge und moderne Paketformate ausgereift. Updates sind schnell, sicher und unterbrechen die Arbeit nicht. Das Erlebnis erfüllt inzwischen die Erwartungen von Menschen, die wollen, dass ihre Computer einfach und vorhersehbar funktionieren.

Bindung ist zu einem prägenden Merkmal dieses Wandels geworden. Wer zu Linux wechselt, bleibt meist dabei. Das System liefert Stabilität und konstante Leistung und verlängert die Nutzungsdauer bestehender Hardware.

Das Betriebssystem, einst als Nische betrachtet, nimmt heute eine feste Position im Mainstream ein. Linux gewinnt weiter Aufmerksamkeit bei Nutzern, die Kontrolle, Zuverlässigkeit und langfristige Performance schätzen.

Warum 2025 ein großes Jahr für Linux auf dem Desktop war

Jahrelang war Linux auf dem Desktop die Geistergeschichte der Softwarewelt: angeblich immer „kurz vor dem Durchbruch“, aber dauerhaft unterhalb der Wahrnehmungsschwelle.

Im Jahr 2025 verlor dieses Narrativ endgültig an Glaubwürdigkeit. Der Fortschritt, der langsam, leise und kumulativ gewesen war, wurde sichtbar genug, dass selbst Menschen außerhalb der Open-Source-Welt aufmerksam wurden.

Der Wandel kam nicht durch Hype oder Marketing, sondern durch ein stetiges Zusammenlaufen technischer Reife, veränderter Nutzergewohnheiten und unterlassener Pflege anderswo.

Marktanteile wurden schwer zu ignorieren

Über den Großteil seiner Geschichte lag die Desktop-Verbreitung von Linux im Schatten der Messbarkeit. Der Anteil war zu klein für Quartalsberichte, zu marginal für Herstellerplanungen. Das änderte sich 2025. Die globale Nutzung stieg auf nahezu fünf Prozent, und in den USA überschritt Linux diese Marke deutlich. Diese Zahl bedeutet keine Massenmarkt-Dominanz, doch sie verschob Linux endgültig in eine Kategorie, die nicht mehr als experimentell bezeichnet werden konnte. In dieser Größenordnung nutzen Millionen Menschen Linux als ihr tägliches Betriebssystem.

Die psychologische Wirkung war unmittelbar. Jahrelang behandelten Hardware-Hersteller und Software-Unternehmen Linux-Nutzer als Randerscheinung. Mit dem Erreichen sichtbarer Schwellen wirkte Ignoranz plötzlich nachlässig. Gerätehersteller begannen, Firmware mit expliziter Linux-Unterstützung auszuliefern.

Software-Entwickler fügten Linux-Versionen ihren Vertriebslisten hinzu, ohne auf Community-Ports zu warten. Der Markt verwandelte sich nicht über Nacht, begann aber, Linux als legitime Umgebung zu behandeln.

Auch die öffentliche Wahrnehmung änderte sich. Medien, die früher kurze Blogbeiträge über „das Jahr des Linux-Desktops“ als Witz veröffentlichten, brachten nun echte Distribution-Reviews und Leistungstests. Linux’ Präsenz hörte auf, theoretisch zu sein, und wurde Teil der alltäglichen Computer-Diskussion.

Gaming erreichte ein neues Plateau

Gaming war lange die Mauer, die Nutzer an Windows band. Für viele blieb es der entscheidende Grund, trotz Frustration bei Microsoft zu bleiben.

2025 begann diese Mauer messbar zu bröckeln. Der Linux-Anteil in der Steam-Hardware-Umfrage überschritt drei Prozent – isoliert betrachtet unspektakulär, im Kontext jedoch bedeutsam. Er spiegelte jahrelangen stetigen Fortschritt wider, keinen einzelnen technologischen Durchbruch.

Kompatibilitätsschichten wie Proton erreichten ein Niveau, auf dem Spiele ohne manuelle Eingriffe flüssig liefen. Grafiktreiber reiften durch kontinuierliche Updates von Open-Source-Beiträgen und GPU-Herstellern. Das Steam Deck, Valves Linux-basierte Handheld-Konsole, fungierte als inoffizieller Botschafter und machte eine neue Spielergeneration mit einer Linux-Umgebung vertraut, die keinerlei Konfiguration erforderte.

Dieser Wandel hatte symbolische Bedeutung. Gaming unter Linux wirkte nicht länger wie eine sture Übung in Workarounds. Es funktionierte gut genug, um als normale Option betrachtet zu werden. Diese Erwartungsänderung veränderte die Diskussion über den Desktop insgesamt. Wenn Spiele zuverlässig laufen, wirkt andere Software plötzlich weniger einschüchternd beim Portieren.

Das Ende des Windows-10-Supports erzwang neue Entscheidungen

Das Auslaufen des offiziellen Windows-10-Supports Ende 2025 führte zu einem Moment praktischer Abwägung. Millionen von Rechnern waren noch darauf angewiesen – besonders in Schulen, kleinen Unternehmen und Privathaushalten. Der Nachfolger Windows 11 verlangte Hardware, die viele dieser Systeme nicht erfüllten. Für Nutzer zuverlässiger, aber älterer Geräte war die Wahl klar: neue Hardware kaufen, ein nicht unterstütztes System weiterverwenden oder etwas anderes wählen.

Dieses „etwas andere“ war oft Linux. Distributionen wie Mint, Fedora und Zorin positionierten sich als stabile Ersatzlösungen, die auf derselben Hardware ohne Leistungsverlust liefen. Überall tauchten Anleitungen, Leitfäden und Community-Projekte auf, die Migrationsschritte in einfacher Sprache erklärten. Support-Foren wurden aktiver, Installations-Images verzeichneten Rekord-Downloads.

Für viele hatte diese Migration nichts mit Ideologie oder Open-Source-Treue zu tun. Sie war eine Kostenersparnis, die zufällig eine überraschend kompetente Alternative offenbarte. Linux’ Kompatibilität mit älteren Geräten wurde zur Schlagzeile statt zur Fußnote und bot einen unmittelbaren Vorteil für Nutzer mit begrenztem Budget oder institutionellen Zwängen.

Zugänglichkeit und Bedienbarkeit holten auf

Bis 2025 war Linux selbst leichter zugänglich geworden. Installationsoberflächen, einst berüchtigt für verwirrende Partitionstabellen und kryptische Optionen, hatten sich zu polierten, geführten Prozessen entwickelt, denen normale Nutzer ohne Dokumentation folgen konnten. Die Hardware-Erkennung verbesserte sich so weit, dass WLAN, Bluetooth und Drucker oft automatisch funktionierten.

Auch die Softwareverwaltung entwickelte sich weiter. App-Stores wie GNOME Software, Discover und Flathub machten Installation und Updates distributionsübergreifend konsistent. Nutzer konnten beliebte Anwendungen mit einem Klick installieren, statt Repositories zu durchsuchen oder aus dem Quellcode zu kompilieren. Neue Paketformate wie Flatpak, Snap und AppImage reduzierten den Bedarf an manueller Konfiguration.

Das Ergebnis war eine Benutzererfahrung, die kein tiefes technisches Wissen mehr verlangte. Menschen konnten Linux wie jedes andere Betriebssystem nutzen. Aufgaben wie Systemupdates oder das Anschließen eines Monitors funktionierten vorhersehbar, was half, den alten Ruf von Linux als wartungsintensiv abzubauen. Die Verringerung von Reibung wurde zu einem der stärksten Wachstumstreiber, da sie die Einstiegshürde für Experimente senkte.

Ein kultureller Wandel veränderte die Diskussion

Die gesellschaftliche Wahrnehmung von Linux änderte sich fast ebenso stark wie die Technik selbst. Jahrzehntelang galt es als System für Spezialisten, die Komplexität über Komfort stellten. 2025 wurde dieses Bild weicher. Große Technik-Publikationen beschrieben Linux-Distributionen zunehmend als praktische Lösungen für langfristige Computernutzung statt als ideologische Statements.

Auch Community-Diskussionen spiegelten diese Reife wider. Online-Räume, die früher auf Missionierung ausgerichtet waren, betonten nun Bedienbarkeit, Konsistenz und Dokumentation. Die Kultur wurde pragmatischer. Der Fokus verlagerte sich vom Überzeugen anderer hin zur Unterstützung derjenigen, die bereits gewechselt hatten. Linux fühlte sich weniger wie ein Untergrund-Club an und mehr wie eine offene Plattform, an der jeder ohne Attitüde teilnehmen konnte.

Diese kulturelle Neuverortung erleichterte die Adoption sozial. Menschen konnten sagen, dass sie Linux nutzen, ohne Augenrollen oder Skepsis zu erwarten. Für viele war es zu einer vernünftigen Entscheidung geworden: eine Möglichkeit, ihre Systeme zu kontrollieren, erzwungene Upgrades zu vermeiden und Hardware weiter zu nutzen, die noch funktionierte.

Ein Jahr der Konvergenz

All diese Entwicklungen – Marktsichtbarkeit, Gaming-Fortschritte, das Ende von Windows 10, Verbesserungen bei der Zugänglichkeit und kulturelle Normalisierung – trafen 2025 zusammen. Jede für sich wäre eine kleine Geschichte gewesen. Zusammen ergaben sie ein Jahr, in dem Linux’ Stellung auf dem Desktop etabliert statt hypothetisch wirkte.

Linux dominierte den Markt nicht plötzlich, erreichte aber etwas Dauerhafteres: Glaubwürdigkeit. Die Wahrnehmung von Linux als „echtem“ Desktop-System wurde Teil des öffentlichen Protokolls. Zum ersten Mal wirkte das Wachstum nachhaltig, getragen von konsistenter Leistung und stetiger Akzeptanz.

Trends hinter dem Wachstum

Die aktuelle Ausdehnung von Linux auf dem Desktop entstand nicht durch ein einzelnes Ereignis oder eine neue Technologie. Sie resultierte aus mehreren überlappenden Mustern, die sich über die Zeit hinweg entwickelt haben – sowohl innerhalb als auch außerhalb der Open-Source-Welt. Diese Veränderungen spiegeln ebenso Frustration über bestehende kommerzielle Plattformen wider wie echte Fortschritte innerhalb von Linux selbst.

Nutzerermüdung mit Windows

Viele Menschen wechseln aus schlichter Ermüdung zu Linux. In den letzten zehn Jahren hat sich Windows von einem geradlinigen Betriebssystem zu etwas entwickelt, das sich eher wie ein verwalteter Dienst verhält. Erzwungene Updates, Kontoanmeldungen und Hintergrundprozesse, die oft unnötig wirken, prägen die Erfahrung. Für Nutzer, die sich erinnern, als der Computer vollständig ihnen gehörte, ist dieser Wandel eine dauerhafte Irritation.

Ungeplante Neustarts bleiben ein regelmäßiger Kritikpunkt. Updates unterbrechen Arbeit, bringen visuelle Neugestaltungen, um die niemand gebeten hat, und verlangsamen gelegentlich die Leistung. Das Gefühl, dass sich ein System über Nacht ohne Zustimmung ändern kann, hat Vertrauen untergraben. Gleichzeitig lassen sich Telemetrie-Einstellungen und Cloud-Integration immer schwerer deaktivieren, was den Eindruck verstärkt, dass Privatsphäre nicht mehr optional ist.

Hardware-Anforderungen fügen eine weitere Reibungsebene hinzu. Windows 11 erzwingt Sicherheitsmodule und Spezifikationen, die ältere, aber funktionsfähige Rechner ausschließen. Viele Nutzer sehen sich mit Neuanschaffungen ohne praktischen Grund konfrontiert.

In diesem Klima gewinnt Linux an Stärke. Es bietet manuelle Kontrolle über Updates, Transparenz bei der Datenerfassung und langfristige Unterstützung für Hardware, die kommerzielle Systeme verwerfen. Menschen, die Stabilität über Neuheit stellen, finden in Linux eine Plattform, die sich morgen genauso verhält wie heute. Dieses Gefühl von Verlässlichkeit ist zu einem entscheidenden Wachstumsfaktor geworden.

Bessere Unterstützung für Alltagssoftware

Jahrelang war die Software-Verfügbarkeit Linux’ größtes Hindernis. Anwendungen, auf die Menschen angewiesen waren, fehlten entweder oder erforderten umständliche Kompatibilitätslösungen. Diese Lücke hat sich geschlossen. Kompatibilitätsschichten wie Proton und Wine ermöglichen es inzwischen, viele Windows-Anwendungen und Spiele mit stabiler, akzeptabler Leistung unter Linux auszuführen.

Auch native Anwendungen sind gereift. Browser, Office-Pakete, Kreativ-Werkzeuge und Kommunikations-Apps sind heute stabil, vertraut und leicht zu installieren. Entwickler veröffentlichen zunehmend standardmäßig Linux-Versionen, was die wachsende Sichtbarkeit der Plattform widerspiegelt.

Auch die Software-Verteilung hat sich verbessert. Moderne Linux-Systeme nutzen zentrale Paketmanager und sandboxed App-Formate, die Installationen vereinfachen. Ein Nutzer kann einen grafischen Store öffnen, nach einem Programm suchen und es innerhalb von Minuten installieren. Abhängigkeitsprobleme, die einst das Linux-Erlebnis prägten, sind weitgehend verschwunden.

Diese Veränderung ist entscheidend, weil sie den Aufwand senkt, Linux zu nutzen. Menschen, die von Windows oder macOS kommen, treffen auf eine Umgebung, die vorhersehbar statt experimentell wirkt. Das Ergebnis ist eine Benutzererfahrung, die aussieht und sich verhält wie das, was sie bereits kennen – nur konsistenter.

Kosten und Philosophie

Der Kostenvorteil von Linux bleibt einer seiner stärksten Punkte. Das System ist kostenlos installier- und nutzbar, ohne Aktivierungsschlüssel, Abonnements oder Upgrade-Gebühren. Für Schulen, kleine Unternehmen und Haushalte mit älteren Rechnern bedeutet diese Einfachheit direkte Einsparungen. Die Möglichkeit, die Lebensdauer von Hardware zu verlängern, verschafft Linux einen praktischen finanziellen Vorteil, den kaum eine kommerzielle Alternative erreicht.

Über die Kosten hinaus zieht Linux Menschen an, die Transparenz und Kontrolle schätzen. Das System legt offen, wie es funktioniert, und erlaubt Änderungen auf nahezu jeder Ebene. Nutzer können anpassen, automatisieren oder alles unverändert lassen. Es gibt keine einzelne Instanz, die entscheidet, wann Support endet oder wie sich Funktionen entwickeln.

Diese Struktur fördert Vertrauen. Neue Nutzer beschreiben Linux oft nicht im ideologischen Sinne als Open Source, sondern als Software, die ihre Entscheidungen respektiert. Sie folgt dem Prinzip, dass der Nutzer das Verhalten des Computers bestimmt. Diese einfache, aber seltene Idee erklärt einen Großteil der neuen Anziehungskraft von Linux.

Ein breiteres Ökosystem

Das Linux-Ökosystem hat einen Reifegrad erreicht, der den Einstieg weniger einschüchternd macht. Hilfe ist leicht zu finden. Foren, Video-Anleitungen, Dokumentationsprojekte und Community-Support-Kanäle liefern klare Antworten für nahezu jede Situation. Die meisten Distributionen pflegen einsteigerfreundliche Hilfebereiche, die den Bedarf an technischer Erfahrung reduzieren.

Die Vielfalt der Optionen innerhalb von Linux ist ein weiterer Faktor. Nutzer können zwischen Distributionen wählen, die auf Stabilität, Anpassbarkeit, Leistung oder Einfachheit ausgelegt sind. Sie können entscheiden, welche Desktop-Umgebung ihnen am besten gefällt, und diese dann beibehalten. Diese Wahl erfordert keine ständige Anpassung. Einmal eingerichtet, laufen die meisten Systeme unbegrenzt mit minimalem Wartungsaufwand.

Das weitere Ökosystem umfasst inzwischen kommerzielle und gemeinschaftliche Akteure, die zusammenarbeiten. Hardware-Hersteller testen Treiber für Linux, Cloud-Dienste bieten native Unterstützung, und Anwendungsentwickler zielen direkt auf Linux. Diese Zusammenarbeit senkt Risiken für neue Nutzer und stärkt die Wahrnehmung, dass Linux eine verlässliche Plattform für alltägliches Arbeiten ist.

Eine nachhaltige Bewegung

Diese Entwicklungen haben das langsame Wachstum von Linux in etwas Dauerhaftes verwandelt. Der Nutzerzuwachs ist nicht länger das Ergebnis von Enthusiasten, die andere zum Wechsel überreden. Er entsteht, weil normale Computeranwender feststellen, dass Linux ihre Bedürfnisse inzwischen besser erfüllt als die Betriebssysteme, die sie verlassen haben.

Linux ist zu einer ausgewogenen Umgebung gereift – stabil, flexibel und zugänglich. Es überzeugt nicht, weil es anders ist, sondern weil es das liefert, was Menschen zunehmend wollen: Kontrolle über ihre Geräte, Freiheit von erzwungenen Änderungen und Software, die ohne Bedingungen funktioniert.

Warum 2026 noch größer werden könnte

Wenn 2025 das Jahr war, in dem Linux als glaubwürdige Desktop-Plattform anerkannt wurde, könnte 2026 das Jahr sein, in dem diese Glaubwürdigkeit in messbares Wachstum übergeht. Die Kräfte, die Linux vorangebracht haben, sind weiterhin in Bewegung – viele werden sogar stärker. Linux ist nicht länger auf große technische Durchbrüche oder spektakuläre Ankündigungen angewiesen. Sein Momentum entsteht aus stetiger Verbesserung, größerer Sichtbarkeit und wachsender Nutzerfrustration mit den Alternativen.

Anhaltende Unzufriedenheit mit Windows

Das Auslaufen des Windows-10-Supports wird auch 2026 Einfluss auf Computernutzer haben. Für viele geschieht der Abschied von Windows nicht aus Ideologie, sondern weil der Verbleib im Microsoft-Ökosystem schwieriger wird als der Ausstieg.

Windows 11 hat die Ursachen früherer Unzufriedenheit nicht beseitigt. Die Hardware-Anforderungen bleiben streng. Das System ist weniger transparent geworden, mit immer mehr Funktionen, die an Online-Dienste und KI-Integration gebunden sind. Jedes Update fügt Komplexität hinzu und verringert das Gefühl von Kontrolle. Für Menschen, die Beständigkeit schätzen, wirkt die Entwicklungsrichtung von Windows zunehmend losgelöst von ihren Bedürfnissen.

Linux profitiert weiterhin von diesem Muster. Es bietet eine unmittelbare Alternative: ein modernes, sicheres Betriebssystem, das auf bestehender Hardware läuft und sich nicht unvorhersehbar verändert. Die Möglichkeit, dieselbe Desktop-Umgebung jahrelang beizubehalten, spricht Nutzer an, die ihren Computer als Werkzeug und nicht als Dienst betrachten. Wenn 2026 mehr Menschen vor Upgrade-Fristen stehen, wird Linux Teil ihres Entscheidungsprozesses sein statt vollständig ignoriert zu werden.

Noch bessere Gaming-Unterstützung

Gaming, einst eine klare Trennlinie zwischen Windows und Linux, entwickelt sich schnell weiter. Bis Ende 2025 waren die beliebtesten Titel bereits über Kompatibilitätswerkzeuge wie Proton unter Linux spielbar. Diese Fortschritte setzen sich fort, da sowohl Leistung als auch Vorhersehbarkeit zunehmen.

Entscheidend ist inzwischen Zuverlässigkeit. Spieler wissen zunehmend im Voraus, welche Titel unter Linux gut funktionieren, bevor sie wechseln. Für eine wachsende Zahl von Nutzern – insbesondere solche mit Fokus auf Einzelspieler- oder Gelegenheitsspiele – läuft Gaming unter Linux mit minimalem Anpassungsaufwand. Es mag Windows nicht in jedem Detail gleichziehen, erfordert aber keine permanente Fehlersuche mehr.

Je mehr Menschen unter Linux spielen, desto besser wird das Ökosystem. Entwickler sehen reale Nutzungsdaten, Treiber verbessern sich schneller, und Community-Feedback führt zu Korrekturen. Anti-Cheat-Systeme sind noch uneinheitlich, doch Fortschritte gehen weiter. 2026 muss Linux das Gaming nicht dominieren, um erfolgreich zu sein. Es muss lediglich brauchbar bleiben – und das tut es inzwischen regelmäßig.

Aufmerksamkeit von Hardware-Herstellern

Hardware-Hersteller reagieren zunehmend auf Linux. Eine wachsende Zahl von Laptops, Desktops und Handheld-Systemen wird mit vorinstalliertem Linux oder offizieller Unterstützung angeboten. Das reduziert eines der größten Hindernisse für neue Nutzer: Unsicherheit über Kompatibilität.

Jahrelang verbesserte sich die Hardware-Unterstützung von Linux schneller als ihr Ruf. 2026 hilft die Validierung durch Hersteller, diese Lücke zu schließen. Wenn Käufer Geräte wählen können, die ausdrücklich für Linux zertifiziert sind, wird der Wechsel zu einer normalen Entscheidung statt zu einem Experiment. Der Adoptionsprozess beginnt, jeder anderen Konsumentscheidung zu ähneln.

Auch die Linux-Distributionen selbst sind gereift. Installationswerkzeuge sind leichter zu navigieren, Standardeinstellungen stabiler. Testverfahren vor Updates sind bewusster, was das Risiko systemzerstörender Änderungen senkt. Für Erstnutzer reduzieren diese Verfeinerungen frühe Reibung und erhöhen das Vertrauen, dass das System wie erwartet funktioniert.

Ein Schub an Community-Wissen und Werkzeugen

Linux hatte schon immer eine große Community, ist aber heute strukturierter und zugänglicher. Anleitungen und Tutorials orientieren sich an realen Aufgaben statt an abstrakten Konzepten. Schritt-für-Schritt-Dokumentation ersetzt die verstreuten Ratschläge, die früher die Linux-Problemlösung prägten. Das Ergebnis ist eine flachere Lernkurve und ein kürzerer Weg von der Installation zur Produktivität.

Die meisten Nutzer interessieren sich heute nicht für die inneren Funktionsweisen von Linux. Sie wollen klare Anweisungen für alltägliche Dinge wie Software installieren, Geräte verbinden oder Fehler beheben.

Das Ökosystem unterstützt dieses Bedürfnis inzwischen durch besser geschriebene Hilfsressourcen und automatisierte Werkzeuge.

Diese kollektive Verbesserung schafft Vertrauen. Nutzer probieren Linux eher aus, weil sie sich darauf verlassen können, Fehler mithilfe verfügbarer Informationen zu beheben, ohne neu anfangen zu müssen. Was früher Forenrecherche und Kommandozeilen-Troubleshooting erforderte, lässt sich heute mit Standardwerkzeugen lösen.

Die Form der nächsten Phase

All diese Elemente deuten auf stetiges, nachhaltiges Wachstum hin. Linux ist nicht länger auf Hype oder Optimismus über zukünftige Innovation angewiesen. Es schreitet voran durch Zuverlässigkeit, Zugänglichkeit und den wachsenden Wunsch nach Systemen, die unter Nutzerkontrolle bleiben.

Der Druck durch Windows-Upgrades, kombiniert mit stärkerer Gaming-Leistung, verbesserten Hardware-Partnerschaften und zugänglicher Community-Unterstützung, schafft die Voraussetzungen für ein weiteres Jahr der Expansion. Die entscheidende Veränderung ist nicht, wie schnell Linux wächst, sondern wie normal es wird, es in Betracht zu ziehen.

Wenn 2025 Linux’ Ankunft als glaubwürdige Alternative markierte, könnte 2026 als der Zeitpunkt in Erinnerung bleiben, an dem die Wahl ganz gewöhnlich wirkte – nicht ambitioniert. Das Betriebssystem existiert nicht länger außerhalb der Mainstream-Diskussion über Personal Computing. Es ist Teil davon geworden.