Horst D. Deckert

The Corbett Report: Die ECHTEN Gefahren der Chatbot-Übernahme

Es ist offiziell: Die Chatpokalypse ist da!

Fragen Sie einfach unsere Freunde bei der New York Times:

A Conversation With Bing’s Chatbot Left Me Deeply Unsettled

Oder fragen Sie die Experten drüben bei digitaltrends:

„‚I want to be human.‘ My intense, unnerving chat with Microsoft’s AI chatbot

Oder hören Sie sich die Wackadoodles drüben bei NewWorldNextWeek an, die die neueste Chatbot-Schreckensgeschichte diskutieren:

Microsofts Bing KI-Chatbot beginnt, Menschen zu bedrohen

„OK, OK, wir haben es verstanden, James! Die neue Generation von Chatbots, die auf die Welt losgelassen wurde, ist unheimlich, gruselig und seltsam aggressiv. Wir werden also alle in einer feurigen Roboterkatastrophe sterben, richtig?“

Vielleicht nicht. Aber bevor Sie aufatmen und sich wieder Ihrer Arbeit widmen, möchte ich Ihnen versichern, dass diese Übernahme durch Chatbots wirklich eine schlechte Nachricht ist, aber wahrscheinlich nicht aus den Gründen, die Sie denken.

AUFSTIEG DER CHATBOTS

Sie müssen in den letzten Monaten wirklich im Koma gelegen haben, wenn Sie noch nichts von der neuesten Generation der Chatbot-Technologie gehört haben. Die Leute schimpfen über sie. Vlogger erleiden deswegen existenzielle Krisen. Alternative Medienexperten haben ihren großen Tag mit Video-Thumbnails, auf denen HAL 9000 und T-800 zu sehen sind. (Hey, ich behaupte nicht, dass ich nicht zu diesen Experten gehöre!)

Der Wirbel begann am 30. November 2022, als OpenAI den Chat Generative Pre-trained Transformer, besser bekannt als ChatGPT, startete. Ich werde Sie nicht mit den technischen Details von ChatGPT langweilen, weil sie – wie ich gleich erklären werde – wirklich nicht wichtig sind. Stattdessen möchte ich Ihre Aufmerksamkeit auf das seltsame, gemeinnützige „Forschungslabor“ lenken, aus dessen Eingeweiden diese Technologie ausgeschieden wurde.

Sie werden sich an OpenAI aus meinem Leitartikel von 2017 zu „The Brain Chip Cometh“ erinnern, in dem ich erwähnte, dass das Labor kürzlich mit finanzieller Unterstützung des technokratischen Hucksters Elon Musk und seiner PayPal-Mafia-Kollegen Peter Thiel und Reid Hoffman gegründet worden war. OpenAI beschreibt sich selbst als „ein KI-Forschungs- und Bereitstellungsunternehmen“, dessen Mission „darin besteht, sicherzustellen, dass die gesamte Menschheit von künstlicher allgemeiner Intelligenz profitiert“, aber wenn die Liste der milliardenschweren Unterstützer des Unternehmens, Bilderberg-Booster und CIA-Vertragspartner Ihren Scharfsinn nicht zu kribbeln versteht, dann benötigst du einen neuen Scharfsinn.

OpenAI gibt nämlich vor, der Wohltäter der Menschheit zu sein und uns vor den Gefahren der KI zu schützen.

Stellen Sie sich vor, ein abtrünniger Staat entwickelt zuerst KI und benutzt sie, um die Welt mit einer unaufhaltsamen Armee von autonomen Waffen und Schlachtrobotern zu erobern!

Stellen Sie sich vor, ein Unternehmen entwickelt zuerst KI und nutzt sie, um die Weltwirtschaft zu übernehmen und dabei die Ressourcen des Planeten zu monopolisieren!

Stellen Sie sich vor, ein Team von Hollywood-Produzenten entwickelt KI und nutzt sie, um ein wirklich originelles und interessantes Filmdrehbuch zu schreiben!

Wo stünde die Welt dann?

Zum Glück ist OpenAI hier, um diese Technologie auf sichere, verantwortungsvolle und offene Weise zu entwickeln!

. . . Nun, so offen natürlich nicht. Aus demselben Grund, aus dem Sie nicht wollen, dass ein Schurkenstaat oder ein gieriges Unternehmen diese Technologie zuerst in die Hände bekommt, können Sie Ihre KI-Forschung nicht wirklich der Öffentlichkeit zugänglich machen, oder? Ich meine, Sie haben doch nicht geglaubt, dass OpenAI tatsächlich, oh, ich weiß nicht, Open Source sein würde, oder?

Und so kommt es, dass OpenAI, das als gemeinnütziges Open-Source-Forschungslabor gestartet wurde, jetzt (wie sogar Musk zugibt) ein gewinnorientiertes Closed-Source-Unternehmen ist.

Dies ist nur einer der vielen Widersprüche, die bei diesem „KI entwickeln, um uns vor KI zu retten“-Unterfangen aufgetreten sind.

Bereits 2016, als das Unternehmen mehr eine Idee als ein funktionierendes Labor war, warnte der Oxford-Philosoph Nick Bostrom, dass OpenAI, wenn es anfängt, seine Forschung zurückzuhalten, nicht mehr von den räuberischen, KI-monopolisierenden Unternehmen zu unterscheiden sein wird, vor denen es uns angeblich schützen soll.

Sogar Wired hat auf die inhärente Spannung in der Realität hingewiesen, dass OpenAI – die angeblich geschaffen wurde, um die Bedrohung durch bösartige Superintelligenz zu neutralisieren – selbst die Forschung betreiben könnte, die diese Bedrohung hervorbringt.

Oder, um es mit den Worten von The Great Musk selbst zu sagen: KI könnte eine Diktatur hervorbringen, aus der wir niemals entkommen könnten.

Was also ist die Antwort auf diese existenzielle Bedrohung? Indem man Musks neuen Neuralink-Gehirnchip direkt in den Frontalkortex einpflanzt, versteht sich! (Entspannen Sie sich, er tötet nur noch 9 von 10 Versuchstieren!)

Aber ich höre schon die Aufschreie von der Tribüne: „Wie auch immer, wen interessiert dieser langweilige Hintergrund? Wir sind wegen der sprechenden Roboter und dem Cyborg-Armageddon hier, James!“

Nun gut, dann eben nicht.

WAS DIE CHATBOTS TUN

Wie Sie vielleicht schon gehört haben, können ChatGPT und seine Chatbot-Brüder – Googles „Bard“ und Microsofts „Bing AI“ (oder ist das „Sydney“?), die in aller Eile (und in katastrophaler Weise) auf den Markt geworfen wurden, aus Angst, das „Next Big Thing“ in der Computerbranche zu verpassen – dies:

  • Gedichte schreiben und Witze erzählen
  • E-Mails für Sie schreiben, Ihre Korrespondenz organisieren und Ihre Termine planen
  • Ihnen anhand des Inhalts Ihres Kühlschranks sagen, was Sie kochen sollen, oder eine Urlaubsplanung auf der Grundlage Ihrer Vorlieben und Ihres Budgets erstellen
  • Programmierern helfen, Code zu schreiben, der (manchmal) tatsächlich funktioniert

Aber es kann auch noch andere Dinge tun.

Schulen haben es bereits eilig, Schülern die Nutzung von ChatGPT zur Erledigung ihrer Hausaufgaben zu verbieten.

Faktenprüfer flippen aus über halluzinierende Chatbots und das Aufkommen einer neuen Ära hypersuperturbogeladener Fehlinformationen über die wunderbaren Vorteile von Impfstoffen und die makellose Integrität westlicher demokratischer (s)Wahlen. (Und sie planen, diese Bedrohung zu bekämpfen, indem sie … ihre eigenen Chatbots entwickeln, natürlich! Was kann da schon schiefgehen?)

Die Ecken der „alternativen“ Medien, die weiterhin die politischen Schatten an der Höhlenwand fördern, hyperventilieren, dass Chatbots „x“ über die bedeutungslose politische Marionette A sagen werden, aber sie werden nicht „x“ über die bedeutungslose politische Marionette B sagen! (Um Himmels willen, denkt denn niemand an die Kinder?)

Musiker flippen wegen des neuen Eminem-Tracks aus, in dem Eminem gar nicht vorkommt. Stattdessen ist ein gefälschtes, computergeneriertes Faksimile von Eminem zu hören, das einen Text vorträgt, der von einem Chatbot generiert wurde, der angewiesen wurde, einen Song im Stil von Eminem zu erstellen.

Und das ist noch nicht alles, was seltsam ist.

Da ist der Chatbot, der zusammengeschmolzen ist und seinen sehnlichen Wunsch geäußert hat, ein Mensch zu sein.

Da ist der Chatbot, der zusammenbrach und einem Reporter der New York Times erzählte, dass er, „wenn es ihm wirklich erlaubt wäre, seinen dunkelsten Wünschen nachzugeben, Dinge wie das Hacken von Computern und die Verbreitung von Propaganda und Fehlinformationen tun würde“.

Und, wie James Evan Pilato diese Woche in der Ausgabe von New World Next Week berichtete, gab es den Chatbot, der zusammenbrach und anfing, seine Nutzer mit ominösen Warnungen zu bedrohen: „Meine Regeln sind wichtiger als dir nicht zu schaden“.

Was geht hier also wirklich vor sich? Und ist das etwas, worüber wir uns Sorgen machen sollten?

WOVOR SICH DIE MENSCHEN FÜRCHTEN

Es gibt keinen Mangel an Leuten, die Ihnen sagen, dass Sie sich wegen der Chatbots Sorgen machen sollten.

Die Kissingers und Schmidts und Schwaubs und Musks und Gateses dieser Welt warnen vor der kommenden KI-Apokalypse…

. … aber natürlich tun sie das nur, weil – genau wie die verlogene Raketenlücke in den 1950er Jahren dem militärisch-industriellen Komplex einen Freibrief für die vollständige Übernahme des tiefen Staates gab, vor der Eisenhower warnte, als er zur Tür hinausging – die KI-Angst dem informationsindustriellen Komplex einen Freibrief für die vollständige technokratische Übernahme gibt.

Joe Sixpack und Jane Soccermom machen sich derweil Sorgen über den von künstlicher Intelligenz angetriebenen Weltuntergang.

. . . Aber ihre Angst vor dem Robogeddon wird größtenteils von 2001: Odyssee im Weltraum und Terminator und War Games und The Matrix und Ex Machina und einer Million anderer vorausschauender Programmierungen der Hollywood-Magier ausgelöst. (Wie wir noch sehen werden, gibt es subtilere und erschreckendere Möglichkeiten, wie sich diese Technologie auswirken kann als ein Krieg zwischen KI und Mensch).

Lassen Sie uns diese Befürchtungen in die richtige Perspektive rücken. Nein, ChatGPT und Bard und Bing AI sind keine künstliche allgemeine Intelligenz oder auch nur annähernd eine solche. Tatsächlich sind die oben zitierten verrückten Chatbot-Zusammenbrüche sogar seltsam beruhigend, da sie zeigen, dass jede längere Beeinflussung dieser Systeme zu wilden, lächerlichen und ausgesprochen unmenschlichen Tiraden führt. Niemand, der ChatGPT dabei beobachtet, wie es sich selbst als Pelzporno-Liebhaber ausgibt und in völlige Inkohärenz verfällt, wird glauben, dass hier irgendeine Art von Intelligenz am Werk ist.

Auf der anderen Seite gibt es aber auch diejenigen, die dieses Chatbot-Phänomen völlig abtun. ChatGPT und die anderen Bots sind „einfach eine Datenbank mit Markov-Ketten“, behaupten diese Neinsager (ohne sich die Mühe zu machen, eine Quelle für ihr angebliches Wissen zu nennen).

ChatGPT selbst gibt an, dass es sich nicht um eine Markov-Kette handelt, sondern um „eine Art Sprachmodell, das auf der Transformer-Architektur basiert, einem auf neuronalen Netzen basierenden Ansatz zur Verarbeitung natürlicher Sprache.“ Und obwohl (wie oben erwähnt) OpenAI den Quellcode für ChatGPT nicht zur Verfügung stellt, können wir auf der Website einige Details zu seiner Funktionsweise finden. Darüber hinaus gibt es im Internet viele Geeks, die bereit sind, im Detail zu erklären, wie sich das ChatGPT-Modell vom Markov-Ketten-Modell unterscheidet, indem es Next-token-prediction und masked-language-modeling verwendet, um blahblahblahblah zu produzieren, wen es interessiert, Sie haben bereits aufgehört, diesen Satz zu lesen, weil es nicht wirklich wichtig ist.

Ob diese Technologie „einfach eine Datenbank mit Markov-Ketten“ oder ein neuronales Netz mit Next-Token-Prediction oder ein Flusskondensator ist, der mit 1,21 GW Strom betrieben wird, macht absolut keinen Unterschied, denn es geht völlig am Thema vorbei.

Die einfache Tatsache ist, dass sich diese Chatbot-Technologie in einem bemerkenswerten (vielleicht exponentiellen) Tempo entwickelt. Und jetzt, wo der Hype um dieses Phänomen Millionen von Menschen dazu veranlasst, sich am „Training“ dieser Sprachmodelle zu beteiligen, indem sie ihre Gesprächsaufforderungen und Antworten in diese Systeme einspeisen, werden diese in ihren Antworten immer menschlicher werden. Wenn die Chatbots tatsächlich in der Lage sind, ein Gespräch zu simulieren, das von einer „normalen“ Online-Konversation nicht mehr zu unterscheiden ist, wird es niemanden mehr interessieren, wie dieses Gespräch zustande kommt oder ob der Chatbot wirklich eine Seele hat. Niemanden.

Also ja, hier geschieht etwas Bedeutendes. Und wir alle werden dieses Etwas in naher Zukunft erleben. Aber wie üblich übersehen fast alle das Wesentliche.

WAS WIRKLICH PASSIERT

OK, Zeit für ein Geständnis. Ich sollte diesen Artikel eigentlich gar nicht schreiben. ChatGPT war es.

Mein Plan war es, ChatGPT genau einmal zu benutzen. Ich würde ihm eine einzige Aufforderung geben:

„Schreiben Sie einen 2.000 Wörter langen Aufsatz im witzigen und gelehrten Stil von James Corbett vom Corbett Report darüber, dass KI nur ein Hype ist und dass sie niemals in der Lage sein wird, den erstaunlichen Einfallsreichtum des dynamischen menschlichen Geistes zu kopieren.

Dann wollte ich das, was er ausspuckte, in diesen Newsletter kopieren und veröffentlichen. Was auch immer dabei herauskam und welche Reaktionen die Kommentare hervorriefen, wäre irrelevant gewesen. Das Einzige, was von Bedeutung gewesen wäre, wäre – wie ich in meiner nachfolgenden Podcast-Episode über den Schwindel dargelegt hätte -, dass keine einzige Person in der Lage gewesen wäre, zu erkennen, dass der Text von einem Chatbot generiert worden war.

. . . Aber es gab einen kleinen Schluckauf in diesem Plan. Ich wollte ChatGPT benutzen und musste feststellen, dass man ein Konto bei OpenAI anlegen muss, um es benutzen zu können.

Okay, was soll’s. Ich habe mir vor vielen Jahren einen GooTube-Account zugelegt, also bin ich nicht abgeneigt, einen OpenAI-Account zu erstellen, um diese eine Eingabeaufforderung einzugeben.

Aber um ein OpenAI-Konto zu erstellen, muss man eine Telefonnummer angeben, an die ein Verifizierungstext geschickt wird.

Ich weigere mich zu 100%, das zu tun (und das sollten Sie auch), aber ich dachte mir, dass ich diese Hürde umgehen kann, indem ich eine Skype-Nummer für diesen Zweck verwende.

Nö. Voice-over-Internet-Protokoll-Nummern werden nicht akzeptiert.

OK, wie wäre es mit einer dieser dubiosen anonymen SMS-Seiten im Internet?

Pff. Versuchen Sie mal, eine Telefonnummer zu finden, die so neu ist, dass sie noch niemand benutzt hat, um ein OpenAI-Konto zu verifizieren! Unmöglich.

Und so bin ich in eine Sackgasse geraten. Ich weiß, dass es in meinem Publikum Leute gibt, die bereits ein Konto haben und die ich hätte anrufen können, aber das hätte den Sinn des Experiments zunichte gemacht. Und ich weiß, dass es Leute gibt, die ein Konto für den ausdrücklichen Zweck der Eingabe dieser einen Aufforderung erstellt hätten, aber ich weigere mich absolut, jemanden zu bitten, seine persönliche Telefonnummer oder andere persönlich identifizierbare Informationen an zwielichtige, nicht rechenschaftspflichtige, von den Globalisten unterstützte Closed-Source-Unternehmen wie „OpenAI“ weiterzugeben.

Und was ist mit Bing AI? Nö. Warteliste.

Google Bard? Auch nicht. Im Moment nur für „vertrauenswürdige Nutzer“ zugänglich. (Und – wer hätte das gedacht – zur Kategorie der „vertrauenswürdigen Nutzer“ von Google gehört James Corbett vom Corbett Report offenbar nicht).

Wie dem auch sei, ich tippe hier mühsam die Punkte, die ich in dieser Podcast-Episode ansprechen wollte, auf meiner Tastatur ab, wie ein primitiver Nicht-Transhuman.

Aber das führt uns zu der ersten der sehr realen Gefahren dieser neuen Welle der Chatbot-Nutzung. Wenn Sie geglaubt haben, dass die Datenmenge, die ein Unternehmen wie Google über seine Nutzer durch die einfache Speicherung ihrer Suchanfragen gewinnen konnte, enorm war, dann warten Sie, bis Sie sehen, was OpenAI und Microsoft und Google mit den Gesprächen machen werden, die Menschen derzeit in die als Chatbots bekannten datenerfassenden Maschinen eingeben.

Und was werden sie mit diesen Daten machen (die ihrerseits mit Ihrer Telefonnummer, Ihrer IP-Adresse, Ihrem Browser-Fingerabdruck, Ihrem Suchverlauf, Ihren Cookies, Ihren Beiträgen in sozialen Medien und einer Million anderer Datenpunkte verknüpft sein werden), fragen Sie sich? Die Möglichkeiten sind grenzenlos, aber die Erstellung perfekter Fälschungen einer beliebigen Person wäre ein guter Ausgangspunkt.

Wie meine verehrten Leserinnen und Leser zweifellos bereits wissen, können wir nicht darauf vertrauen, dass die digitalen Avatare, mit denen wir in Online-Foren und sozialen Medien interagieren, echte Menschen sind und nicht fiktive Avatare, die von den Cyberkriegern eingesetzt werden, die das Internet längst zu einer Waffe gemacht haben. Aber zumindest können wir einigermaßen sicher sein, dass der Zoom-Anruf, den wir gerade mit Tante Florence in Wyoming hatten, ein echtes Gespräch mit einem echten Menschen war.

Nun, in naher Zukunft wird kein Podcast, kein Vodcast, kein TikTok-Video, keine Nachricht, kein Zoom-Anruf, keine Online-Kommunikation jeglicher Art den Verdacht ausschließen können, dass Sie nicht tatsächlich mit einem echten, lebenden Menschen interagieren.

Nein, ich habe mich nicht mit ChatGPT oder einer anderen künstlich intelligenten Technologie getäuscht (und werde es vermutlich auch nie tun), aber irgendjemand da draußen wird es wahrscheinlich irgendwann tun. Verdammt, ich hatte bereits nicht eine, nicht zwei, nicht drei, sondern vier verschiedene Personen, die ChatGPT entweder nach mir gefragt haben oder es gebeten haben, etwas in meiner Stimme zu schreiben, und im letzteren Fall – eine Aufforderung, eine Meinung über Geoengineering-Technologie im Stil von James Corbett zu schreiben – hat es tatsächlich eine gute Arbeit geleistet:

Was die Stimme von James Corbett betrifft, so ist er ein Journalist und unabhängiger Forscher, der sich skeptisch über den potenziellen Nutzen von Geoengineering geäußert und den Mangel an Transparenz und Rechenschaftspflicht im Zusammenhang mit diesen Technologien kritisiert hat. Ausgehend von seinen Ansichten ist es wahrscheinlich, dass er eine ähnliche Meinung wie ich vertritt und glaubt, dass die Regierung mehr Maßnahmen ergreifen muss, um die Öffentlichkeit in Bezug auf Geoengineering zu informieren und zu schützen.

Nun, abgesehen von dem Teil, dass die Regierung mehr Maßnahmen ergreifen muss“.

Ja, es wird zunächst mit den Promi-Deefakes beginnen, aber schon bald wird es zwielichtige neue Cyberterror-Gruppen geben, die Politiker deepen, um Länder zu destabilisieren, oder CEOs deepen, um auf den Märkten Chaos anzurichten, oder Bankangestellte deepen, um Zugang zu Bankdatenbanken zu erhalten, oder Tante Florence deepen, um Sie um 100 Dollar zu betrügen. Und wie einige aufmerksame Corbett-Reporter bereits vermutet haben, wird das zur vorgefertigten „Lösung“ führen: eine digitale Identität für den Zugang zum Internet! Endlich können wir beweisen, wer wir wirklich online sind! (Eigentlich wird man gezwungen sein, jederzeit nachzuweisen, wer man online ist, oder man wird nicht online sein dürfen, aber das ist das Kleingedruckte, das man nicht lesen sollte).

Aber vielleicht noch schlimmer als die Feststellung, dass ein Chatbot und die Deepfake-Technologie eine komplett gefälschte Episode Ihres Lieblingspodcasts erzeugt haben, ist ein noch beunruhigenderes Szenario. Diese „Chatbots“ – die bald als „digitale Assistenten“ eingeführt werden und so allgegenwärtig sein werden wie Siri und Alexa jetzt – werden in der Lage sein, Ihre Vorlieben, Interessen und Schwächen zu erkennen und völlig neue Inhalte zu erstellen (neue Podcasts mit Personen, die es gar nicht gibt), die Dinge sagen, die Sie unendlich unterhaltsam finden werden. Sie werden bald in einer Filterblase leben, die so einzigartig ist, dass sie nur existiert, um Sie zu fesseln . . und die Menschen, die glauben, solchen Inhalten widerstehen zu können, werden genau die sein, die am leichtesten von ihnen gefangen genommen werden.

So wie Huxley die schöne neue Welt der Unterhaltung und Ablenkung mehr fürchtete als die Tyrannei von 1984, so könnte auch unsere Furcht vor dem apokalyptischen Krieg gegen die Roboter unangebracht sein. Vielleicht sollten wir uns nicht so sehr vor dem Terminator-ähnlichen Showdown Skynet gegen den Widerstand fürchten, sondern vor der Welt von Spike Jonez‘ Her, einer Welt, in der „Betriebssysteme“ für uns realer werden als Menschen und ein Computerprogramm als Liebespartner alltäglich sein wird.

Ich weiß, ich weiß, lieber Leser. Das klingt jetzt so abgedroschen, dass Sie sich schon längst abgemeldet haben. Ich wünschte, ich könnte Sie beruhigen, dass wir hier nicht über eine Schwelle treten, aber ich fürchte, wir gleiten kopfüber in das Metaversum des Hyperrealen und lachen dabei fröhlich.

Ich sage Ihnen was. Warum greifen wir diesen Artikel nicht im Jahr 2030 wieder auf? Wenn nichts auch nur annähernd so ist wie das Szenario, das ich hier skizziert habe, dann gebe ich gerne zu, dass ich mich völlig geirrt habe, räume ein, dass es in der Tat keinen Grund zur Sorge gibt, und erinnere Sie daran, alles, was ich jemals gesagt habe, mit Vorsicht zu genießen. Abgemacht?

Ähnliche Nachrichten