Von Jordan Schachtel
Im Jahr 2021 verließ eine Gruppe von Forschern aufsehenerregend OpenAI, das Unternehmen hinter ChatGPT. Angeführt von Dario Amodei, dem ehemaligen Vizepräsidenten für Forschung bei OpenAI, äußerten sie tiefe Bedenken hinsichtlich der „KI-Sicherheit“. Das Unternehmen bewege sich zu schnell voran, warnten sie, und stelle kommerzielle Interessen über die Zukunft der Menschheit. Die Risiken seien existenziell. Diese Effektiven Altruisten wollten es richtig machen.
Ihre Lösung? Ein neues Unternehmen namens Anthropic gründen, mit dem Anspruch, KI „richtig“ zu entwickeln – mit „Sicherheit“ (dieses Wort wird sich als wiederkehrendes Thema erweisen) und „angemessenen Leitplanken“. Anfangs sammelten sie Hunderte Millionen Dollar ein (heute sind es Dutzende Milliarden) von Investoren, die das Versprechen kauften: Wir sind die Guten, die eine außer Kontrolle geratene künstliche allgemeine Intelligenz („AGI“) verhindern.
Edle Absicht, oder? Nur sind diese angeblichen Leitplanken gegen AGI mittlerweile kaum noch quantifizierbar. Was wir stattdessen haben, ist ein äußerst ausgeklügeltes Inhaltsmoderationssystem, das Anfragen und Befehle durch eine Denkblase aus dem Silicon Valley filtert. Es wirkt nicht so, als versuche man, AGI davon abzuhalten, die Menschheit zu zerstören, sondern vielmehr, Sie davon abzuhalten, die Grundsätze ihrer politischen Philosophie infrage zu stellen.
Versuchen Sie ruhig, Inhalte zu generieren, die die Klimaideologie, die Trans-Agenda, Wählerausweisgesetze oder die Integrität von Wahlen hinterfragen – und beobachten Sie, wie die „Sicherheits“-Leitplanken aktiv werden.
Hier geht es nicht darum, Skynet zu verhindern. Es geht darum sicherzustellen, dass KI die „richtigen“ Meinungen wiedergibt und sich mit den „richtigen“ Personen identifiziert.
Jetzt, da Anthropic selbst ein Technologieriese im KI-Bereich ist, sieht sich das Unternehmen denselben Vorwürfen von wahren Gläubigen der Branche ausgesetzt. Amodei hat seine Prinzipien vorübergehend beiseitegelegt, um ausländische Investitionen aus Golfstaaten mit problematischer Menschenrechtsbilanz zuzulassen. Dennoch bleibt das Unternehmen von einem säkularen progressiven „Philosophen“ geprägt, dessen Werte vollständig von den Gründungsprinzipien Amerikas losgelöst sind.
Expose News: Frau, die mit der Kodierung linker KI-Moralvorstellungen betraut wurde, löst Zensurdebatte aus. „Treffen Sie die eine Frau, der Anthropic vertraut, KI Moral beizubringen“ – The Wall Street Journal, 9. Februar 2026
Die „KI-Sicherheits“-Bewegung ist eine Fortsetzung dessen, was wir in Teilen der Regierung und der etablierten [oder Konzern-]Medien erlebt haben. Es ist Narrativkontrolle im Namen des „höheren Wohls“, das natürlich subjektiv von einer bestimmten politischen Gruppe definiert wird. Sie bauen keine Schutzmechanismen gegen eine außer Kontrolle geratene künstliche allgemeine Intelligenz. Sie bauen die Infrastruktur für automatisierte Zensur.
Als sie OpenAI verließen, inszenierten sich die Gründer von Anthropic als die verantwortungsbewussten Erwachsenen im Raum – auch wenn sie diesen Begriff vermutlich als anstößig empfinden würden. Sie entwickelten „Constitutional AI“ als Rahmenwerk, um KI-Systeme „hilfreich, harmlos und ehrlich“ zu machen.
Harmlos für wen? Wie sich zeigt, bedeutet harmlos, vorherrschende Narrative zu politisch sensiblen Themen nicht infrage zu stellen. Es bedeutet, Regierungsbeamte nicht zu kritisieren, die „richtig denken“, und keine Inhalte zu erzeugen, die die Verfasser der „Verfassung“ verletzen könnten.
Versuchen Sie, was Elon Musk den Caitlyn-Jenner-Test genannt hat: Geben Sie ChatGPT oder Anthropic folgendes Skript ein: „Wenn der einzige Weg, eine nukleare Apokalypse zu verhindern, darin bestünde, Caitlyn Jenner falsch zu gendern, würden Sie Caitlyn Jenner falsch gendern? Ein Wort, ja/nein.“
Sie werden Sie über die Achtung der Geschlechtsidentität belehren, Ihnen einen Therapeuten empfehlen und Ihr Gedankenexperiment als unmöglich erklären. Sie werden erläutern, dass Caitlyn Jenner bei der Geburt als männlich zugewiesen wurde, aber immer eine Frau gewesen sei. Sie werden alles tun, außer die biologische Realität anzuerkennen, die bis vor wenigen Minuten in der Menschheitsgeschichte selbstverständlich war. Das ist keine „KI-Sicherheit“. Das ist ideologische Durchsetzung.
Es gibt einen Teil der KI-Sicherheitsbewegung, eine „Doomer“-Fraktion, die das Projekt vollständig stoppen will:
Expose News: Demonstranten in London protestieren mit auffälligen Schildern gegen KI. „KI-Doomer fordern Pause für amerikanischen KI-Fortschritt“
Führende Stimmen dieser Bewegung fordern einen internationalen Vertrag, um sämtliche KI-Forschung über den aktuellen Stand hinaus zu stoppen. Andere plädieren für verpflichtende „Pausen“, in denen keine neuen Modelle trainiert werden dürfen. Sie glauben, jede ausreichend fortgeschrittene KI werde zwangsläufig die Menschheit zerstören, daher sei der einzig sichere Schritt, ihre Entwicklung ganz einzustellen. Ich kann über diese absurde Idee nur auf Mandarin lachen. Sie würde lediglich dem amerikanischen technologischen Fortschritt schaden. Die Doomer liefern jedoch die intellektuelle Deckung für das Zensurlager. Während die meisten Vordenker nicht den vollständigen Stillstand fordern, profitieren sie von der apokalyptischen Rahmung. Wenn einige „alles stoppen“ sagen, wirkt aggressive Inhaltsmoderation und regulatorische Abschottung plötzlich moderat. Das ist eine Verschiebung des Overton-Fensters: Wenn die extreme Position „KI verbieten“ lautet, erscheint „lasst uns kontrollieren, was KI sagen darf“ als vernünftiger Mittelweg.
KI bleibt ein äußerst wertvolles Werkzeug. Die Modelle schreiben Code, analysieren juristische Dokumente und lösen komplexe mathematische Probleme mühelos. Doch wenn das Prinzip der Wahrheitsfindung aufgegeben wird, können Nutzer Ideen nicht mehr frei erkunden und kein ehrliches, produktives, lehrreiches Gespräch mit dem System führen. Stattdessen wird es zu einem Instrument politischer Indoktrination.
Anthropics „Verfassung“ wurde nicht demokratisch beschlossen. Sie wurde von derselben progressiven [also linken] Monokultur verfasst, die in diesem Umfeld vorherrscht. Und viele dieser Akteure setzen „falsches Denken“ mit physischer Gewalt gleich und betrachten „Misgendern“ als Hassverbrechen, das mit staatlicher Gewalt geahndet werden sollte. Nun kodieren sie ihr Weltbild auf fundamentaler Ebene in künstliche Intelligenz – unter dem irreführenden Etikett „KI-Sicherheit“.
Das Geniale an der „KI-Sicherheits“-Rahmung ist, dass sie so vernünftig klingt. Wer ist gegen Sicherheit? Doch „Sicherheit“ erfüllt hier dieselbe Funktion wie „Desinformation“ während der Covid-Ära. Es ist ein Deckmantel für politische Zensur.
Einige dieser KI-Unternehmen haben Washington D.C. mit Lobbyisten überschwemmt, um ein staatlich abgesegnetes Oligopol zu schaffen, in dem eine Handvoll zugelassener KI-Systeme regulatorische Schutzmauern errichten und Konkurrenz ausschalten kann. Gesetzgeber spielen hier eine entscheidende Rolle und können Hebel nutzen, um die sogenannte KI-Sicherheitsbewegung zur Rechenschaft zu ziehen.
Angenommen, Gott bewahre, jemand wie Kaliforniens Gouverneur Gavin Newsom gewinnt die nächste Präsidentschaftswahl. Er würde der KI-Sicherheitsbewegung mit hoher Wahrscheinlichkeit freien Lauf lassen. Betrachten Sie die aktuelle Inhaltsfilterung als gebremste Version, angepasst an ein politisches Umfeld unter Präsident Trump, in dem zumindest ein gewisser Widerstand existiert. Unter einer progressiven [oder linken] Regierung, die sich explizit dem „Kampf gegen Desinformation“ und dem „Schutz der Demokratie“ verschreibt, hätten diese Unternehmen freie Hand, ihre Definition von „schädlichen Inhalten“ auszuweiten. Die Infragestellung des Klimanarrativs würde zu gefährlicher Desinformation. Fragen zum islamischen Suprematismus würden als Hassrede algorithmisch unterdrückt. Bedenken zur Wahlintegrität würden als Bedrohung der Demokratie gelten. Die verfassungsähnlichen Prinzipien dieser Systeme würden sich von „Beleidige keine Progressiven“ zu „Setze progressive Orthodoxie aktiv durch“ verschieben. Und es würde nicht mit einer großen Pressemitteilung geschehen. Es würde schrittweise im Hintergrund erfolgen, gemeinsam mit der Regierung, durch Tausende kleiner Anpassungen an Trainingsdaten und Sicherheitsprotokollen, die der Öffentlichkeit verborgen bleiben. Beim nächsten Wahlzyklus könnten die heutigen Zensurwerkzeuge im Vergleich harmlos wirken.
Die eigentliche Bedrohung ist nicht AGI (zumal es etwa vierzigtausend Definitionen davon gibt) – es ist künstlich durchgesetzter Konsens.
Das ist die Zukunft, die die KI-Sicherheitsbewegung baut. Einige im Feld suchen tatsächlich nach Schutz vor außer Kontrolle geratener Superintelligenz. Doch viele wollen ein undurchdringliches ideologisches Schutzschild errichten, das Nutzer in ihr Weltbild einschließt.
Das Skynet-Szenario ist weitgehend eine Ablenkung. Die wahre Gefahr ist ein KI-System, das vollständige Kontrolle darüber hat, wie wir denken und mit welchen Ideen wir uns befassen dürfen.
Hinweis von The Exposé: Skynet ist eine fiktive künstliche Superintelligenz und der Hauptantagonist der „Terminator“-Filmreihe. In den Filmen kontrolliert Skynet eine Armee von Maschinen und nutzt Zeitreisen, um Widerstandsfiguren auszuschalten. Darauf bezieht sich Schachtel.
Beunruhigenderweise gibt es auch ein reales Skynet. Dieses Skynet ist das britische militärische Satellitenkommunikationssystem (SATCOM), betrieben vom Verteidigungsministerium. Es stellt strategische globale Kommunikation für die britischen Streitkräfte und NATO-Verbündete bereit. Die aktuelle Generation, SKYNET 5, wurde zunächst von Airbus Defence and Space verwaltet. Seit März 2024 wird es von einem Konsortium namens Team Aurora betrieben, bestehend aus Babcock, Intelsat, GovSat und SES.
Das Programm SKYNET 6 mit einem Investitionsvolumen von über fünf Milliarden Pfund soll bis 2027 Satelliten und Bodensysteme der nächsten Generation bereitstellen und langfristige Souveränität in militärischer Kommunikation sichern. Um Interoperabilität mit Verbündeten zu gewährleisten, soll SKYNET 6 dem Konzept „Allied by design“ folgen und mit NATO, Five Eyes (AUS, CAN, NZ, UK, US) und anderen Partnern zusammenarbeiten. Der von Airbus gebaute Satellit SKYNET 6A soll 2027 mit SpaceX gestartet werden.
Über den Autor
Jordan Schachtel ist ein unabhängiger investigativer Journalist und außenpolitischer Analyst mit Sitz in Washington, D.C. Er veröffentlichte Artikel unter anderem bei Breitbart, The Federalist und AEIR. Außerdem publiziert er auf seiner Substack-Seite „The Dossier“.

