Je schneller ein Angriff, desto schwieriger ist es für einen menschlichen Kommandanten, schnell genug zu reagieren, um ihn zu kontern.
Sollte sich beispielsweise ein Schwarm von Minidrohnen für einen Angriff nähern oder eine Salve von Hyperschallraketen mit fünffacher Schallgeschwindigkeit auf uns zukommen, könnten menschliche Entscheidungsträger einfach nicht schnell genug reagieren. Die militärischen Befehlshaber haben unter Umständen nicht die Möglichkeit, einen Gegenangriff zu starten oder die beste Verteidigungsstrategie zu bestimmen.
Nicht nur, dass einem menschlichen Entscheidungsträger keine Zeit bliebe, die Bedrohungsvariablen abzuwägen, sondern auch die Waffenbediener selbst könnten schlichtweg überfordert sein, simultane Hochgeschwindigkeitsangriffe zu erkennen, zu verfolgen, zu bekämpfen oder abzufeuern, sollten sie den Befehl erhalten. Es fehlt einfach die Zeit.
Es gibt noch eine weitere Einschränkung, denn obwohl automatisierte Systeme und mit künstlicher Intelligenz ausgestattete Sensoren und Waffen heute technisch in der Lage sind, sich nähernde feindliche Bedrohungen autonom zu finden, zu verfolgen und ab zu schiessen, ohne dass ein Mensch eingreifen muss, gibt es doktrinäre und ethische Einschränkungen des Pentagons, die verlangen, dass ein Mensch bei Entscheidungen über den Einsatz tödlicher Gewalt „in the loop“ sein muss. Was ist mit nicht-tödlicher Gewalt? Was ist mit automatisierten, vernetzten Sensoren und Waffen, die autonom zu rein defensiven Zwecken arbeiten? Könnten automatisierte Verteidigungssysteme als Abfangjäger, Flächenwaffen oder Gegenmaßnahmen fungieren, um herannahende feindliche Bedrohungen zu zerstören, außer Gefecht zu setzen oder einfach nur auszuschalten, ohne dass ein Mensch eingreifen muss?
„Im Moment haben wir nicht die Befugnis, einen Menschen aus der Schleife zu lassen“, sagte Oberst Marc E. Pelini, der Abteilungsleiter für Fähigkeiten und Anforderungen innerhalb des Joint Counter-Unmanned Aircraft Systems Office, während einer Telefonkonferenz, laut einem Pentagon-Bericht. „Basierend auf der bestehenden Politik des Verteidigungsministeriums, müssen Sie einen Menschen innerhalb des Entscheidungszyklus an einem bestimmten Punkt haben, um den Einsatz zu autorisieren.“
Aber hat die Kombination aus Hochgeschwindigkeits-Computern mit KI und Sensor-zu-Shooter-Konnektivität, gepaart mit der Geschwindigkeit und dem Wirkungskreis der neuen Bedrohungen, Auswirkungen auf diese Gleichung? Vielleicht gibt es tatsächlich einige taktische Umstände, in denen es sowohl ethisch als auch extrem vorteilhaft ist, autonome Systeme einzusetzen, die in der Lage sind, herannahende Bedrohungen in Sekunden, wenn nicht Millisekunden, zu verfolgen und abzufangen.
Im Pentagon-Bericht erklärte Pelini, dass es nun einen neuen Diskussionsbereich gibt, der sich mit der Frage befasst, inwieweit KI die menschliche Entscheidungsfindung „in-the-loop“ oder „out-of-the-loop“ ermöglichen könnte, insbesondere im Hinblick auf Bedrohungen wie Drohnenschwärme.
„Wenn Sie in Zukunft Schwarmaktivitäten von Hunderten oder möglicherweise Tausenden [UAS] sehen, wollen Sie natürlich, dass Ihr System so schnell wie möglich arbeitet, um dem Bediener diese waffentechnischen Lösungen anzubieten oder innerhalb einer Reihe von Parametern zu arbeiten“, sagte Pelini. „Aber das ist im Moment wirklich nur in der Politik definiert.“
In einem anderen Zusammenhang: Sollte eine kleine Gruppe von Hyperschallraketen auf ein Überwasser-Kriegsschiff der U.S. Navy zusteuern, könnte es sein, dass dem Schiffskommandanten einfach keine Zeit bleibt, um zu entscheiden, welche Ebene einer geschichteten Verteidigung am besten geeignet wäre, um den Angriff abzuwehren oder abzufangen. Schließlich gibt es eine Vielzahl von Verteidigungsmöglichkeiten: Abfangraketen wie eine SM-3, Laser und Störsender für die elektronische Kriegsführung? Was wäre, wenn eine KI-gestützte Sammlung von vernetzten Sensoren, die auf Luft- und Bodenknoten zurückgreifen, in der Lage wäre, die sich nähernden Raketen zu finden und zu verfolgen? Ein solches Netzwerk könnte dann sofort Bedrohungsdaten wie Flugbahn, Geschwindigkeit und Auftreffwahrscheinlichkeit mit einer Datenbank von zuvor analysierten Szenarien vergleichen, um die optimale Verteidigungsstrategie zu ermitteln.
Ein KI-fähiges System könnte nicht nur eine solche Entscheidung innerhalb von Millisekunden treffen, sondern auch ein Waffensystem, einen Effektor oder einen Abfangjäger zum Angriff anweisen, ohne dass eine menschliche Genehmigung erforderlich wäre. Könnten menschliche Entscheidungsträger immer sicher sein, dass die Gewaltanwendung nicht tödlich und defensiver Natur ist? Darin liegt der Kern der Debatte, die angesichts der atemberaubenden Geschwindigkeit und des Umfangs neuer feindlicher Waffen schnell an Dringlichkeit gewinnt. Es könnte einfach sein, dass KI-gestützte Autonomie, die von menschlichen Entscheidungsträgern sorgfältig verwaltet und vorprogrammiert wird, sich als der einzige Weg erweisen könnte, Leben und wertvolle Güter vor der vollständigen Zerstörung in der Kriegsführung zu bewahren. Angriffe sind einfach zu schnell.
Kris Osborn ist der Verteidigungsredakteur für das National Interest. Osborn war zuvor im Pentagon als hochqualifizierter Experte im Office of the Assistant Secretary of the Army-Acquisition, Logistics & Technology tätig. Osborn hat auch als Moderator und On-Air-Militärspezialist bei nationalen TV-Netzwerken gearbeitet. Er ist als militärischer Experte bei Fox News, MSNBC, The Military Channel und The History Channel zu Gast gewesen. Er hat außerdem einen Master-Abschluss in vergleichender Literatur von der Columbia University.
Der Beitrag Lässt das US-Militär KI die Verteidigungswaffen automatisieren? erschien zuerst auf uncut-news.ch.