Der Geist von Edward Teller muss unter den Mitgliedern der „National Commission on Artificial Intelligence“ die Runde gemacht haben.
Der Vater der Wasserstoffbombe war nie einer, der sich um die ethischen Probleme kümmerte, die mit der Erfindung einer mörderischen Technologie einhergingen. Zum Beispiel:
[Es ist nicht] Aufgabe des Wissenschaftlers, zu bestimmen, ob eine Wasserstoffbombe gebaut werden, ob sie eingesetzt oder wie sie eingesetzt werden soll.
Die Verantwortung, wie auch immer ausgeübt, lag beim amerikanischen Volk und seinen gewählten Vertretern.
Die Anwendung von KI in militärischen Systemen hat den Ethiker geplagt, aber bestimmte Führer und Erfinder erregt. Der russische Präsident Wladimir Putin hat großspurig behauptet, dass „es unmöglich wäre, die Zukunft unserer Zivilisation zu sichern“, ohne die Beherrschung von künstlicher Intelligenz, Genetik, unbemannten Waffensystemen und Hyperschallwaffen.
Die Kampagnen gegen den Einsatz autonomer Waffensysteme im Krieg werden immer zahlreicher. Der UN-Generalsekretär António Guterres ist einer von ihnen.
„Autonome Maschinen mit der Macht und dem Ermessen, Ziele auszuwählen und ohne menschliches Zutun Leben zu nehmen“, schrieb er im März 2019 auf Twitter, „sind politisch inakzeptabel, moralisch verwerflich und sollten durch internationales Recht verboten werden.“
Auch das „International Committee for Robot Arms Control“, die „Campaign to Stop Killer Robots“ und „Human Rights Watch“ setzen sich für ein Verbot tödlicher autonomer Waffensysteme ein. Waffenanalysten wie Zachary Kallenborn sehen diese absolute Position als unhaltbar an und bevorzugen ein bescheideneres Verbot:
… die Waffen mit dem höchsten Risiko: Drohnenschwärme und autonome chemische, biologische, radiologische und nukleare Waffen.
Die Kritiker solcher Waffensysteme waren in dem Berichtsentwurf der Kommission für den Kongress nicht zu sehen. Das Dokument verströmt mehr als nur einen Hauch des verrückten Wissenschaftlers im blutigen Dienst eines Meisters. Das lag auf der Hand, denn der Vorsitzende der Kommission war Eric Schmidt, technischer Berater von Alphabet Inc., der Muttergesellschaft von Google, deren CEO er früher war.
Mit Schmidt an der Spitze ist eine Show garantiert, die keine moralische Zurückhaltung kennt.
„Das KI-Versprechen – dass eine Maschine schneller, in einer komplexeren Umgebung und mit größerer Genauigkeit als ein Mensch wahrnehmen, entscheiden und handeln kann – stellt in jedem Bereich einen Wettbewerbsvorteil dar. Sie wird für militärische Zwecke eingesetzt werden, von Regierungen und nichtstaatlichen Gruppen.“
In seiner Aussage vor dem Senatsausschuss für Streitkräfte am 23. Februar ging es Schmidt um die „Grundlagen“, um die USA im Aufwind zu halten. Dies beinhaltete den Erhalt der nationalen Wettbewerbsfähigkeit und die Gestaltung des Militärs mit diesen Grundlagen im Hinterkopf. Aber um dies zu tun, müsse man die Augen des Sicherheits-Establishments für jeden gefährlichen Konkurrenten weit offen halten. (Schmidt kennt den Kongress gut genug, um zu wissen, dass Spitzen in der Finanzierung und bei den Ausgaben dazu neigen, an die Förderung von Bedrohungen gekoppelt zu sein.) Er sieht „die Bedrohung durch die chinesische Führung in Schlüsseltechnologiebereichen“ als „eine nationale Krise“.
In Bezug auf KI verfügten „nur die USA und China“ über die notwendigen „Ressourcen, die wirtschaftliche Macht, den Talentpool und das Innovationsökosystem, um die Welt anzuführen“. Innerhalb des nächsten Jahrzehnts könnte Peking sogar „die Vereinigten Staaten als KI-Supermacht der Welt übertreffen.“
Die Aussage ist großzügig mit der China-Bedrohungs-These gespickt.
„Noch nie in meinem Leben war ich besorgter, dass wir bald von einem Konkurrenten verdrängt werden, oder mir bewusster, was der zweite Platz für unsere Wirtschaft, unsere Sicherheit und die Zukunft unserer Nation bedeutet.“
Er befürchtete, dass solche Sorgen von den Beamten nicht geteilt werden, da das DoD „Software als niedrige Priorität“ behandelt. Hier könnte er Ratschläge zu den Lektionen geben, die in den aufstrebenden Unternehmen des Silicon Valley gelernt wurden, wo die Prinzipientreuen ein kurzes Leben führen. Diejenigen, die sich der Verteidigung widmen, könnten „intelligente Teams bilden, harte Ergebnisse vorantreiben und schnell handeln.“ Raketen, so argumentierte er, sollten so gebaut werden, „wie wir heute Autos bauen: mit einem Designstudio, das in Software entwickelt und simuliert.“
Das alles bedeutete notwendigerweise, eine weniger repressive Form der KI in den Himmel zu loben, vor allem in ihren militärischen Anwendungen.
In einer zweitägigen öffentlichen Diskussion pries der stellvertretende Vorsitzende des Gremiums, Robert Work, die Vorzüge von KI im Kampf. „Es ist ein moralischer Imperativ, diese Hypothese zumindest zu verfolgen“ und behauptete, dass „autonome Waffen nicht wahllos sein werden, wenn wir sie nicht so entwerfen.“ Der Teufel steckt im Menschen, so wie es schon immer der Fall war.
In einer Art und Weise, die an die Debatten über die gemeinsame Nutzung von Atomtechnologie nach dem Zweiten Weltkrieg erinnert, drängt das Komitee darauf, dass die USA „in enger Abstimmung mit unseren Verbündeten und Partnern eine umfassende Strategie für die Innovation und den Einsatz künstlicher Intelligenz (KI) verfolgen, die Werte fördert, die für freie und offene Gesellschaften entscheidend sind.“
Eine vorgeschlagene „Emerging Technology Coalition“ gleichgesinnter Mächte und Partner würde sich auf die Rolle „aufstrebender Technologien im Einklang mit demokratischen Normen und Werten“ konzentrieren und „Strategien koordinieren, um dem bösartigen Einsatz dieser Technologien durch autoritäre Regime entgegenzuwirken“. Dabei wird schnell vergessen, dass Unterscheidungen wie Autoritarismus und Demokratie am Ende des Laufes einer Waffe wenig Bedeutung haben.
Auch interne Änderungen werden vorgeschlagen, um ein paar Federn zu rupfen. Besonders das US-Außenministerium wird als reformbedürftig erwähnt.
„Es gibt derzeit keine klare Führung für die Politik oder Diplomatie im Bereich der neuen Technologien innerhalb des Außenministeriums, was die Fähigkeit des Ministeriums, strategische Technologie-Entscheidungen zu treffen, behindert.“
Verbündete und Partner waren verwirrt, als sie sich an das Außenministerium wandten, um zu erfahren, „welcher hochrangige Beamte ihr primärer Ansprechpartner“ für eine Reihe von Themen sei, sei es KI, Quantencomputing, 5G, Biotechnologie oder neu aufkommende Technologien.
Insgesamt wird der US-Regierung vorgeworfen, „mit menschlicher Geschwindigkeit und nicht mit Maschinengeschwindigkeit“ zu arbeiten. Sie hinke im Vergleich zur kommerziellen Entwicklung von KI hinterher. Sie leide unter „technischen Defiziten, die von einem Mangel an digitalen Arbeitskräften bis hin zu unzureichenden Beschaffungsrichtlinien, einer unzureichenden Netzwerkarchitektur und schwachen Datenpraktiken reichen.“
Die offizielle Politik des Pentagons besagt, dass autonome und halbautonome Waffensysteme „so konzipiert sein sollten, dass Befehlshaber und Bediener ein angemessenes Maß an menschlichem Urteilsvermögen über den Einsatz von Gewalt ausüben können.“
Im Oktober 2019 hat das Verteidigungsministerium verschiedene ethische Grundsätze für die militärische Nutzung von KI verabschiedet und das „DoD Artificial Intelligence Centre“ in den Mittelpunkt gestellt.
Diese beinhalten die Bestimmung, dass:
„Das DoD-Personal wird ein angemessenes Maß an Urteilsvermögen und Sorgfalt walten lassen, während es für die Entwicklung, den Einsatz und die Nutzung von KI-Fähigkeiten verantwortlich bleibt.“
Das Prinzip der „Nachvollziehbarkeit“ wird auch vom Prinzip der menschlichen Kontrolle durchwirkt, wobei das Personal „ein angemessenes Verständnis der Technologie, der Entwicklungsprozesse und der operativen Methoden, die für KI-Fähigkeiten anwendbar sind, besitzen“ muss.
Die Nationale Kommission legt ein Lippenbekenntnis zu solchen Protokollen ab und räumt ein, dass Betreiber, Organisationen und „das amerikanische Volk“ keine KI-Maschinen unterstützen würden, die nicht „mit Blick auf Vorhersehbarkeit“ und „klare Prinzipien“ entwickelt wurden. Aber der warnende Ton, sich nicht zu sehr moralisch zu fesseln, wird zum Kreischen. Das Risiko sei „unausweichlich“ und wenn man KI nicht nutze, „um echte nationale Sicherheitsherausforderungen zu lösen, riskiere man, dass die Vereinigten Staaten einen Nachteil erleiden“.
Vor allem, wenn es um China geht.
Der Beitrag Kriegstreiberei für künstliche Intelligenz erschien zuerst auf uncut-news.ch.