Für ein Forschungsprojekt erfanden Forscher der Universität Zürich fiktive Personen, inklusive ihrer Lebensläufe und Familien und ließen sie auf Reddit zu bestimmten Themen kommentieren. Es handelt sich im Grunde genommen um eine Analyse, wie man Propaganda mittels KI am besten umsetzen kann – und dies vollständig als Meinung “normaler Mitbürger” getarnt. Die KIs wurden von den echten Menschen angeblich nicht als solche enttarnt.
Tatsächlich sind soziale Medien schon lange durch KI-Bots durchsetzt, die offenbar verschiedene Ziele verfolgen. Besonders auffällig ist eine ganze Bot-Armee, die wohl im Auftrag der NATO in Richtung Krieg manipulieren soll und dabei einerseits Hass und Hetze gegen Russland und Russen verbreitet, andererseits all jene angreift, die für den Frieden eintreten.
Die Enthüllung eines geheimen KI-Experiments der Universität Zürich auf Reddit hat nun eine Welle der Empörung ausgelöst. In dem Subreddit r/changemyview, einer Plattform für argumentative Diskussionen, setzten Forscher über vier Monate hinweg 13 KI-gesteuerte Accounts ein, die mit gefälschten Biografien und maschinengenerierten Beiträgen die Meinungen von Nutzern manipulierten. Dieses Experiment, das ohne Zustimmung der echten Menschen auf Reddit durchgeführt wurde, wirft nicht nur ethische Fragen auf, sondern offenbart auch das gefährliche Potenzial solcher Technologien in den Händen von Regierungen – insbesondere für Propaganda, etwa in Form von Kriegspropaganda.
Ein ethischer Skandal mit weitreichenden Implikationen
Die Forscher der Universität Zürich rechtfertigten ihr Vorgehen mit dem Ziel, die Überzeugungskraft von KI in realistischen Szenarien zu testen. Ihre Bots, die sich als Opfer sexueller Gewalt, Angehörige bestimmter Minderheiten oder andere Identitäten ausgaben, erzielten beeindruckende Ergebnisse: Über 1.700 Kommentare, 20.000 Upvotes und 137 „Deltas“ – Auszeichnungen für erfolgreiche Meinungsänderungen – zeugen von der Manipulationsfähigkeit der KI.
Doch die Empörung der Reddit-Nutzer ist nachvollziehbar: Sie wurden ohne ihr Wissen zu Versuchskaninchen degradiert, ihr Vertrauen in die Authentizität der Plattform wurde erschüttert. Moderatoren sprechen von einem „ekelhaften“ Vertrauensbruch, der die Integrität der Community gefährdet.
Die Universität distanziert sich zwar von den Forschern, doch die ethische Genehmigung des Experiments durch ihre Kommission wirft Fragen auf. Kritiker wie Carissa Véliz von der Universität Oxford fordern höhere Standards in der KI-Forschung, insbesondere angesichts der Missachtung der Nutzerautonomie. Der Vorfall zeigt, wie weit die Technologie bereits fortgeschritten ist – und wie leicht sie missbraucht werden kann.
Die dunkle Seite: KI als Werkzeug der Propaganda
Was auf Reddit als wissenschaftliches Experiment begann, könnte für Regierungen eine Blaupause für noch gezieltere Propaganda sein. Dass vergleichbare Methoden bereits flächendeckend ausgerollt sind und jeden Tag Anwendung finden, erläutern wir am Ende dieses Artikels.
Die Fähigkeit von KI, überzeugende Narrative zu erstellen und sich nahtlos in Online-Communities einzufügen, birgt ein enormes Potenzial für Manipulation. Besonders in Krisenzeiten, wie bei militärischen Konflikten, können solche Technologien genutzt werden, um die öffentliche Meinung zu steuern. Kriegspropaganda, wie sie seit Jahrhunderten eingesetzt wird, wird durch KI auf ein neues, gefährlicheres Niveau gehoben.
Historisch gesehen haben Regierungen stets Medien genutzt, um Kriegsbereitschaft zu schüren. Die Methoden der Kriegspropaganda, wie sie etwa von Arthur Ponsonby nach dem Ersten Weltkrieg beschrieben wurden, umfassen Bedrohungsszenarien, die Dämonisierung des Feindes und die Zensur kritischer Stimmen. KI-gesteuerte Bots könnten diese Taktiken perfektionieren, indem sie gezielt Desinformation verbreiten, Emotionen manipulieren und Diskussionen in sozialen Medien lenken.
Die Reddit-Bots zeigen, wie effektiv KI sein kann: Sie analysierten Nutzerprofile, passten ihre Argumente an die Zielgruppe an und täuschten Authentizität vor. Regierungen könnten ähnliche Techniken nutzen, um etwa in Kriegszeiten Narrative zu verstärken, die die eigene Bevölkerung mobilisieren oder die des Gegners destabilisieren. Stellen wir uns vor, KI-Bots würden in sozialen Medien gefälschte Berichte über angebliche Kriegsverbrechen verbreiten, um Hass gegen einen Feind zu schüren – ein Szenario, das durch die technische Raffinesse der Zürcher Forscher längst realisierbar ist.
Künstliche und echte Shitstorms, um Zensur voranzutreiben
In der westlichen Welt beobachten wir zunehmend eine indirekte Zensur durch gesellschaftlichen Druck und „Shitstorms“, die abweichende Meinungen marginalisieren. KI-Bots können solche Dynamiken verstärken, indem sie gezielt polarisieren und kritische Stimmen zum Schweigen bringen.
Ein aktuelles Beispiel ist der Ukraine-Konflikt, wo sowohl Russland als auch westliche Staaten Propaganda einsetzen. Während Russland vorgeworfen wird, durch Zensur und Desinformation zu operieren, neigen westliche Medien dazu, ukrainische Regierungsquellen unkritisch zu übernehmen. KI-gesteuerte Bots könnten diese Tendenzen verschlimmern, indem sie gefälschte Augenzeugenberichte oder manipulierte Inhalte verbreiten, die den Anschein von Authentizität erwecken.
Forschung nur zum Schutz?
Das Reddit-Experiment ist ein Alarmzeichen. Es zeigt, wie weit KI bereits in der Manipulation menschlicher Meinungen fortgeschritten ist. Die Forscher selbst betonen, dass Schutzmaßnahmen gegen solche Methoden entwickelt werden müssen. Doch das kann auch nur eine Schutzbehauptung zur Beschwichtigung der aufgebrachten Anwender sein. In der Praxis werden solche Methoden, sobald sie entwickelt sind, rasch an den meistbietenden verkauft und dort auch eingesetzt.
Botnetze in sozialen Medien schon lange im Einsatz
Die meisten Internetnutzer haben schon ihre Erfahrung mit Bots gemacht, die Werbung für zumeist dubiose Produkte und Angebote (Pornographie, Crypto, illegale Waren und Dienstleistungen…) machen. Diese sind meistens schnell erkennbar und gelten als lästig und unerwünscht. Auch hier wird immer mehr mit KI gearbeitet, es wird immer schwieriger solche Inhalte automatisch zu erkennen und auszufiltern.
Eine Studie aus dem Jahr 2024 weist darauf hin, dass bis zu 64 Prozent der Postings auf X (ehem. Twitter) von Bots stammen könnten. Die Botnetze, die dahinterstehen, werden immer ausgeklügelter. Sie kommunizieren untereinander und setzen wechselseitig Likes unter ihre Postings. Vor Wahlen (auch in Deutschland) wurden immer wieder tausende Accounts entdeckt, welche dieselben Jubelmeldungen zu den jeweiligen Politikern und Parteien verbreiteten. Damit soll eine breite Zustimmung zu Parteien generiert werden, die in der Realität gar nicht existiert.
Je mehr KI in diesen Botnetzen zum Einsatz kommt, desto glaubwürdiger werden ihre Inhalte. KI kann dazu beitragen, sich wiederholende Muster zu vermeiden. Durch das wechselseitige “Liken” werden die Botschaften durch die Social Media Algorithmen hochgestuft, KI-Bots können zu “Trendsettern” werden.
Mirai, Conficker, BredoLab, Mariposa, Ramnit, Gameover ZeuS, 911 S5, Mēris, Zloader, Dridex, Avalanche und Sality – sind konkrete Beispiele für identifizierte Netzwerke, die in der Vergangenheit erheblichen Schaden angerichtet haben. Dabei ging es weniger um Meinungsmache als um organisiertes Hacking sowie verschiedene Straftaten wie Diebstahl und Erpressung. Sie wurden durch Sicherheitsbehörden, Forscher und Unternehmen wie Europol, FBI, Microsoft und das BSI dokumentiert. Ebenso dienten Botnetze in der Vergangenheit dazu, um durch die gemeinsame “Kraft” hunderttausender übernommener Geräte einzelne Ziele zu attackieren und damit zu beschädigen oder auszuschalten.
Die Aktivitäten solcher Botnetze bleiben der breiten Öffentlichkeit oft unbekannt, da die meisten Redakteure der Altmedien geistig zu schwach übersetzt sind, um die Hintergründe zu begreifen. So war das “911 S5-Botnet”, von dem der “Normalverbraucher” gewiss nie gehört hat, für Cyberangriffe, Betrug, Kinderpornografie, Stalking und Bombendrohungen zuständig. Es ermöglichte über 500.000 gefälschte Anträge auf Arbeitslosengeld in den USA, mit einem Schaden von 5,9 Milliarden US-Dollar. Das FBI und internationale Behörden legten es im April 2024 lahm.
- heise.de: „Fragwürdiges KI-Experiment auf Reddit: Massive Kritik an Forschungsgruppe“
- watson.ch: „KI-Bots auf Reddit – wegen Experiment der Universität Zürich“
- Blick.ch: „Auf Reddit diskutierten monatelang nur KI-Bots mit Usern, gesteuert von Zürcher Forschern“
- The Verge: „Reddit Users Outraged Over Secret AI Experiment by Swiss Researchers“
- heise.de: „Australischer Radiosender nutzt monatelang KI-Stimme als Moderation – unbemerkt“ (für Vergleich)