Technische Themen, gleich welcher Art, werden in der Regel stark verzerrt, wenn sie in der Öffentlichkeit diskutiert werden. Dafür gibt es viele Gründe – Ideologie, Klicklust und die schiere Unfähigkeit des durchschnittlichen Journalisten, das jeweilige Konzept angemessen zu verstehen.
Beispiele gibt es ohne Ende: Man denke nur an den Müll, der über die globale Erwärmung oder COVID geschrieben wird.
Das jüngste dieser Themen ist die Künstliche Intelligenz (KI). Seit der Veröffentlichung von ChatGPT, einer KI-App, die angeblich in der Lage ist, auf Anfrage zu lernen, wie man Erzählungen in jedem beliebigen Stil verfasst, sind die Kommentare zum Thema KI in den Medien geradezu explodiert. Der Konsens, um einen Stil zu zitieren, den ChatGPT noch nicht beherrscht, ist fast einheitlich „eine Geschichte, die von einem Idioten erzählt wird, voller Lärm und Wut, die nichts bedeutet“.
Die Aufregung in den Medien ist durch zwei Ansätze gekennzeichnet – der erste (und häufigste) ist das völlige Fehlen von Verständnis für die Technologie. Die zweite ist ein Bild des Themas, das aus Filmen stammt, hauptsächlich HAL 9000 und Skynet (eine ältere Generation würde Colossus hinzufügen). Diese KI-Entitäten sind durchweg wahnsinnig, bösartig oder beides (wenn auch nicht auf dem Niveau der KI in Harlan Ellisons „Ich habe keinen Mund und muss schreien“, die so sehr von existenzieller Abscheu überwältigt ist, dass sie die gesamte Menschheit bis auf fünf Individuen vernichtet, die sie dann bis in alle Ewigkeit foltern will). Aus einem Grund schlägt niemand die KI Samantha in dem großartigen Film Her vor, die fröhlich, hilfreich und sogar liebevoll ist. Das sagt mehr über die menschliche Natur aus als über die künstliche Intelligenz.
Künstliche Intelligenz wurde von Alan Turing in seinem 1950 erschienenen Aufsatz „Computing Machinery and Intelligence“ eingeführt. Turing hatte in den 1930er-Jahren erstmals Computer vorgeschlagen und dann eine Rolle beim Bau der ersten funktionierenden Modelle für die britischen Codebrecher in Bletchley Park gespielt. In diesem Papier schlug er etwas vor, das später als Turing-Test bezeichnet wurde und mit dem die Frage beantwortet werden sollte, ob eine künstliche Intelligenz als selbstbewusstes Wesen – als eine andere Person – behandelt werden sollte. Turing argumentiert, dass, wenn man sich mit einer KI unterhält – ihr Fragen stellt und Antworten erhält – und nicht entscheiden kann, ob man es mit einem Menschen oder einer Maschine zu tun hat, man sie als intelligentes, selbstbewusstes Wesen betrachten muss. (Der Turing-Test wird seither philosophisch angefochten, während er gleichzeitig von einigen KI-Forschern mit Tricks wie der Personifizierung der KI als Zwölfjährige oder als Ausländer, der Englisch als Zweitsprache spricht, betrogen wird).
Turings Spekulationen fielen auf fruchtbaren Boden. Während die ursprünglichen „Bomben“ von Bletchley Park (so genannt wegen des tickenden Geräuschs, das sie beim Rechnen machten) nach dem Krieg stillgelegt worden waren, wurden in den frühen 50er-Jahren fortschrittlichere Computer wie der UNIVAC entwickelt und gebaut. Sie wurden mit wilden Spekulationen und Überlegungen darüber begrüßt, was das alles für das Schicksal der Menschheit bedeutete. Die Schlussfolgerungen waren weitgehend einhellig: „Denkende Maschinen“ würden bald den Menschen übertreffen, der dann entweder vernichtet oder beiseite geschoben werden würde, um still und leise auszusterben.
Achtzig Jahre später hat sich wenig geändert. Die Debatte wird auf demselben oberflächlichen, uninformierten Niveau weitergeführt, während wir sehnsüchtig darauf warten, dass AM oder HAL auftauchen und anfangen, uns zu foltern oder zu ermorden.
Wo liegt also das Problem? Erstens und vor allem, wenn wir im 21. Jahrhundert von KI sprechen, diskutieren wir über zwei unterschiedliche und getrennte Arten, als ob sie ein und dieselbe Sache wären. Dabei handelt es sich um das, was ich als „App-KI“ bezeichne, zu der ChatGPT und die zahlreichen KI-Kunst-Apps gehören, die gerade die Runde machen, und um die „allgemeine Intelligenz-KI“, also die HALs und Skynets aus den Filmen, die in der Lage sind, alles zu übernehmen und zu tun, was ihnen verdammt noch mal gefällt.
Bis jetzt haben wir nur App-KIs gesehen. Dabei handelt es sich um Software, die in der Regel mit neuronalen Netzen arbeitet und sich einer bestimmten Aufgabe widmet – der Erstellung von Texten oder Kunstwerken – und über Algorithmen verfügt, die die Reaktionen des Programms ändern können, wenn es mehr über die Aufgabe „lernt“. KI-Lernen wird durch „überwachtes Lernen“ erreicht, bei dem lediglich Menschen die Parameter und Ziele festlegen, den Prozess überwachen und die Ergebnisse prüfen und beurteilen. Bislang hat sich diese menschliche Interaktion als unbedingt notwendig erwiesen – „unüberwachtes Lernen“, wenn es denn versucht wurde, geht in der Regel ziemlich schnell schief. Die einzige Aufgabe der App-KI umfasst ihr gesamtes Universum, und sie kann das Gelernte nicht einfach auf andere Bereiche übertragen. Wie Erik J. Larson in The Myth of Artificial Intelligence (ein Buch, das jeder lesen sollte, der sich für dieses Thema interessiert) schreibt: „…Schach spielende Systeme spielen nicht das komplexere Spiel Go. Go-Systeme spielen nicht einmal Schach.“ Also wird keine solche KI jemals aufhören, Internetbilder zu sammeln und versuchen, das Pentagon zu übernehmen. (Das gilt auch für den Mann, der vor ein paar Wochen behauptete, dass ChatGPT bereits „das Finanzsystem steuert“).
In letzter Zeit wurde viel darüber spekuliert, ob diese Systeme den Menschen in bestimmten Bereichen verdrängen werden. Die Antwort ist nein – noch nicht, und wahrscheinlich auch nie. Vor ein paar Wochen führte die von allen AT-Lesern geschätzte Monica Showalter auf ChatGPT eine Art Turing-Test durch. Sie gab die Aufforderung „Schreiben Sie einen Artikel über die Zukunft der Luftfahrtindustrie im Stil von Thomas Lifson“ ein. Was sie bekam, war ein fader, schwülstiger, schlecht geschriebener Artikel voller Klischees, Non-Sequiturs und offener Fehler, von denen ich mit Bestimmtheit sagen kann, dass nichts davon jemals charakteristisch für Thomas‘ Schreiben gewesen ist. Es wird noch lange dauern, bis ChatGPT die Zügel hier bei AT in die Hand nimmt.
Aber könnte eine App-KI nicht auch genug lernen, genug Erfahrung sammeln und sich genug entwickeln, um ihre elektronischen Tentakel in Bereiche auszustrecken, für die sie nie gedacht war?
Das bringt uns zu allgemeiner KI, dem Reich von HAL und Samantha, dem Heiligen Gral der KI-Forschung und dem, wovor uns sowohl Stephan Hawking als auch Elon Musk gewarnt haben.
Ursprünglich hatte Turing die Vorstellung von maschineller Intelligenz mit der Begründung verworfen, dass es Maschinen an Intuition fehle – jener menschlichen Fähigkeit, die es uns ermöglicht, Schritt-für-Schritt-Verfahren zu überspringen und sofort zum Kern eines Problems vorzudringen. Es gibt keine Möglichkeit, Intuition zu quantifizieren – ebenso wenig wie andere verwandte menschliche Fähigkeiten wie die Vorstellungskraft. Obwohl Turing diesen Faktor in seiner Arbeit von 1950 ignorierte, gilt er auch heute noch. Es gibt keine Möglichkeit, Intuition, Vorstellungskraft oder den gesunden Menschenverstand aufzuschlüsseln, um sie programmierbar zu machen.
Eine der schockierenden Entwicklungen in der KI-Forschung Ende des letzten Jahrhunderts war die Erkenntnis, dass Maschinen nicht mit dem Alltäglichen umgehen können. Ein Programm kann mit Leichtigkeit Schach spielen, das Innere eines Sterns der Klasse M modellieren oder die Flugbahn einer Rakete berechnen, aber wenn man es bittet, einen Roboter durch einen Flur zu steuern, wird er sofort gegen eine Wand rennen und einen kompletten Zusammenbruch erleiden. Das ist etwas, das Elon selbst bei seinen „selbstfahrenden“ Autos erlebt hat.
Die statistischen Verfahren, die KI-Programme einsetzen – sie durchforsten Tausende, Millionen oder möglicherweise Milliarden möglicher Lösungen, bevor sie die wahrscheinlichste auswählen – können die menschlichen Eigenschaften, die wir alle als selbstverständlich ansehen, einfach nicht ersetzen.
Wir wissen nicht wirklich, was „Intuition“ oder „gesunder Menschenverstand“ sind, was bedeutet, dass wir nicht wissen, was Denken ist. Und wenn das der Fall ist, wie können wir dann hoffen, es zu kopieren? Es hat etwa dreieinhalb Millionen Jahre gedauert, bis sich die Intelligenz des Menschen entwickelt hat. Niemand, und sei er noch so begabt, wird das in einer Handvoll Jahren nachmachen können.
Wahrscheinlich werden wir feststellen, dass bewusste Intelligenz eine neu entstandene Eigenschaft ist, die sich aus Elementen ergibt, die wir heute kaum in Begriffe fassen, geschweige denn verstehen können. Und wenn wir sie nicht verstehen können, ist es unwahrscheinlich, dass wir in der Lage sind, sie auf Siliziumchips zu übertragen.
Skynet wird also noch nicht auf unseren Schädeln herumtrampeln. Das heißt aber nicht, dass die Menschen aufhören werden, an allgemeiner KI zu arbeiten. Das ist keine schlechte Sache – diese Forschung wird uns eine Menge über uns selbst lehren, möglicherweise auch Dinge, die wir lieber nicht wissen wollen. Und sollte ein solcher Versuch zufällig erfolgreich sein, hätten wir trotzdem wenig Grund zur Sorge. Wie Elon betont hat, wäre eine solche Einheit in einer Forschungseinrichtung isoliert und von außerordentlich komplexer und empfindlicher Hardware abhängig. Jede Veränderung im System, wie z. B. eine Fehlfunktion oder ein Stromausfall, würde wahrscheinlich das gesamte System lahm legen. (Was weitere Fragen aufwirft: Ist es moralisch gerechtfertigt, ein intelligentes Wesen zu erschaffen, das unweigerlich Fehlfunktionen erleiden wird? Ich würde sagen, „Nein“.)
Was die App AI betrifft, so ist sie einfach eine neue Art von Werkzeug, und der Sapiens kann gut mit Werkzeugen umgehen. Sie wird sich weiter verbessern und uns mehr Fähigkeiten und Möglichkeiten bieten. Gegenwärtig befindet sich die App-KI ungefähr auf dem gleichen Stand wie die Heimcomputer in den frühen 80er-Jahren, als sie auf Kleinigkeiten wie primitive Spiele beschränkt war. Die Aussichten sind enorm.
Aber ChatGPT wird nicht die Herrschaft übernehmen und jeden zwingen, achtzehn Stunden am Tag sein Zeug zu lesen. Auch wird die KI nicht jeden erwerbslos machen, was seit Kurt Vonneguts Veröffentlichung von Player Piano im Jahr 1952 vorhergesagt wurde. Seit den 1970er-Jahren ist klar, dass die Infotechnologie tatsächlich Arbeitsplätze schafft, indem sie bestehende Industrien erweitert und neue schafft. Wir haben keinen Grund zu der Annahme, dass dies bei der KI anders sein wird.
KI wird uns auch ein neues Arsenal an digitalen Verteidigungsmitteln gegen die derzeitigen Bemühungen des WEF, der Tech-Giganten und der Eliten bieten, uns den Technofeudalismus aufzuzwingen. Und das, liebe Spielkameraden, wird etwas sein, das sich lohnt.