Horst D. Deckert

Meine Kunden kommen fast alle aus Deutschland, obwohl ich mich schon vor 48 Jahren auf eine lange Abenteuerreise begeben habe.

So hat alles angefangen:

Am 1.8.1966 begann ich meine Ausbildung, 1969 mein berufsbegleitendes Studium im Öffentlichen Recht und Steuerrecht.

Seit dem 1.8.1971 bin ich selbständig und als Spezialist für vermeintlich unlösbare Probleme von Unternehmern tätig.

Im Oktober 1977 bin ich nach Griechenland umgezogen und habe von dort aus mit einer Reiseschreibmaschine und einem Bakelit-Telefon gearbeitet. Alle paar Monate fuhr oder flog ich zu meinen Mandanten nach Deutschland. Griechenland interessierte sich damals nicht für Steuern.

Bis 2008 habe ich mit Unterbrechungen die meiste Zeit in Griechenland verbracht. Von 1995 bis 2000 hatte ich meinen steuerlichen Wohnsitz in Belgien und seit 2001 in Paraguay.

Von 2000 bis 2011 hatte ich einen weiteren steuerfreien Wohnsitz auf Mallorca. Seit 2011 lebe ich das ganze Jahr über nur noch in Paraguay.

Mein eigenes Haus habe ich erst mit 62 Jahren gebaut, als ich es bar bezahlen konnte. Hätte ich es früher gebaut, wäre das nur mit einer Bankfinanzierung möglich gewesen. Dann wäre ich an einen Ort gebunden gewesen und hätte mich einschränken müssen. Das wollte ich nicht.

Mein Leben lang habe ich das Angenehme mit dem Nützlichen verbunden. Seit 2014 war ich nicht mehr in Europa. Viele meiner Kunden kommen nach Paraguay, um sich von mir unter vier Augen beraten zu lassen, etwa 200 Investoren und Unternehmer pro Jahr.

Mit den meisten Kunden funktioniert das aber auch wunderbar online oder per Telefon.

Jetzt kostenlosen Gesprächstermin buchen

Israel entfesselt seine in Gaza erprobte

KI-Tötungsmaschine gegen den IranIsrael wird beschuldigt, KI zu verwenden, um Bombenziele im Iran auszuwählen – „ohne jede menschliche Aufsicht“ – genau wie zuvor in Gaza

von Brett Wilkins

Israel nutzt KI-Systeme, um Ziele zu bombardieren, zuerst in Gaza und nun im Iran. Bild: YouTube-Screenshot

Nach Israels beispiellosem Einsatz künstlicher Intelligenz zur Auswahl von Bombenzielen in Gaza schlagen Experten nun Alarm wegen dessen, was ein Analyst am Donnerstag als mangelnde menschliche Aufsicht über die israelische KI-Zielauswahl im Iran bezeichnete.

„Die Ähnlichkeiten zwischen Israels Bombardierung von Gaza und Teheran werden immer stärker“, sagte der Vizepräsident des Quincy Institute for Responsible Statecraft, Trita Parsi, am Donnerstag auf X. „In beiden Fällen scheint Israel KI ohne jegliche menschliche Aufsicht zu verwenden.“

„Zum Beispiel hat Israel einen Park in Teheran bombardiert, der ‚Police Park‘ heißt“, fügte Parsi hinzu. „Er hat nichts mit der Polizei zu tun. Aber es scheint, dass die KI ihn als Ziel identifiziert hat, weil Israel alle Gebäude bombardiert, die mit der Regierung in Verbindung stehen. Niemand in Israel hat sich die Mühe gemacht, zu überprüfen und herauszufinden, dass es einfach nur ein Park ist.“

In Anlehnung an die Sprache von Start-ups bezeichnet der Technologiejournalist Jacob Ward Israels Einsatz und Export von KI-Technologie in der Zeit nach Gaza als „lethal beta“. „Gaza war der Prototyp“, erklärte Ward in einem Video, das diese Woche auf Bluesky veröffentlicht wurde. „Iran ist der Start.“

„Es ist ein Live-Feuer-, Live-Munition-Laborexperiment an Menschen, bei dem Menschen getötet werden, das eine Pipeline exportierbarer Produkte für den Rest der Welt schafft. Und es ist zu einer großen Industrie in Israel geworden – und etwas, mit dem wir in den Vereinigten Staaten ebenfalls schon seit einiger Zeit zu tun haben und Geschäfte machen.“

Frühere Untersuchungen haben detailliert beschrieben, wie die IDF Habsora nutzt, ein israelisches KI-System, das automatisch Ziele für Luftangriffe mit einer exponentiell höheren Geschwindigkeit auswählen kann als jemals zuvor. Eine israelische Geheimdienstquelle erklärte, dass diese Technologie die IDF in eine „Massen-Attentatsfabrik“ verwandelt habe, in der der „Schwerpunkt auf der Quantität und nicht auf der Qualität“ der Tötungen liege.

Fehler waren nahezu unvermeidlich, doch Expertenkritiker argumentieren, dass die israelische Politik die Situation noch verschlimmert habe. In den angespannten Stunden nach dem von der Hamas angeführten Angriff vom 7. Oktober 2023 wurden mittelrangige IDF-Offiziere ermächtigt, Angriffe nicht nur auf hochrangige Hamas-Kommandeure, sondern auf jeden Kämpfer der Widerstandsgruppe anzuordnen – egal wie niedrig sein Rang war.

Laut einer Untersuchung der New York Times durften IDF-Offiziere bei jedem Luftangriff auch das Risiko von bis zu 20 zivilen Todesopfern eingehen, und bis zu 500 nicht kämpfende Todesopfer pro Tag. Selbst diese Grenze wurde bereits nach wenigen Tagen aufgehoben. Offiziere konnten beliebig viele Angriffe anordnen, sofern sie glaubten, dass sie rechtmäßig seien – ohne Begrenzung der zivilen Opfer.

Hochrangige IDF-Kommandeure genehmigten manchmal Angriffe, von denen sie wussten, dass sie mehr als 100 Zivilisten töten könnten, wenn das Ziel als besonders wertvoll angesehen wurde. Bei einem KI-gestützten Luftangriff auf einen hochrangigen Hamas-Kommandeur warf die IDF mehrere von den USA gelieferte 2.000-Pfund-Bomben ab, die einen ganzen Häuserblock zerstören können, auf das Flüchtlingslager Jabalia im Oktober 2023.

Bei diesem Bombardement wurden mindestens 126 Menschen getötet, darunter 68 Kinder, und 280 weitere verletzt. Die Hamas erklärte, dass bei dem Angriff auch vier israelische und drei internationale Geiseln getötet wurden.

Die Washington Post berichtete am Mittwoch, dass das US-Militär im Iran „die fortschrittlichste künstliche Intelligenz eingesetzt hat, die es jemals in einem Krieg verwendet hat – ein Werkzeug, auf das das Pentagon möglicherweise nur schwer verzichten kann, selbst wenn es die Beziehungen zu dem Unternehmen beendet, das es entwickelt hat.“

Laut der Post soll Palantirs Maven Smart System – das das Claude-KI-Sprachmodell von Anthropic enthält – US-Kommandeuren geholfen haben, allein in den ersten 24 Stunden des Krieges 1.000 iranische Ziele auszuwählen.

Experten fordern einen vorsichtigeren Umgang mit militärischer KI. Paul Scharre, Vizepräsident des Center for a New American Security, sagte der Post: „KI liegt falsch … Wir brauchen Menschen, die die Ergebnisse generativer KI überprüfen, wenn es um Leben und Tod geht.“

Es ist öffentlich nicht bekannt, ob KI bei einigen der tödlichsten Massaker des aktuellen Krieges gegen den Iran eingesetzt wurde, bei dem mehr als 1.000 Iraner getötet wurden, darunter etwa 175 Kinder und andere, die laut Ersthelfern und Angehörigen der Opfer durch einen sogenannten Doppel-Schlag auf eine Mädchenschule am vergangenen Samstag in der südlichen Stadt Minab ums Leben kamen.

Letzte Woche ordnete Trump an, dass alle Bundesbehörden, einschließlich des Verteidigungsministeriums, die Nutzung aller Anthropic-Produkte einstellen sollen – offenbar als Vergeltung dafür, dass das in San Francisco ansässige Unternehmen sich geweigert hatte, der Regierung und dem Militär uneingeschränkten Zugang zu seiner Technologie zu gewähren, aus Sorge, sie könnte zur Massenüberwachung von Amerikanern und in automatisierten Waffensystemen, auch bekannt als „Killer-Roboter“, eingesetzt werden.

Trump gab dem Pentagon sechs Monate Zeit, die Anthropic-Produkte schrittweise auszumustern, erlaubte jedoch ihre weitere Nutzung im Iran-Krieg, bis Ersatz gefunden wird.

Project Nimbus – ein 1,2-Milliarden-Dollar-Vertrag über Cloud-Computing und KI, der 2021 zwischen der israelischen Regierung und Amazon Web Services sowie Google Cloud unterzeichnet wurde – stellt Cloud-Infrastruktur, KI-Werkzeuge und Datenspeicherung für die IDF und andere Behörden bereit. Die Vereinbarung verbietet Google oder Amazon, Dienstleistungen für israelische Regierungs-, Militär- oder Geheimdienstbehörden zu verweigern.

Wissenschaftler und Juristen treffen sich diese Woche in Genf in der Schweiz – eine zweite viertägige Gesprächsrunde beginnt am 31. August – zu einer von den Vereinten Nationen unterstützten Konferenz über tödliche autonome Waffensysteme.

Die Teilnehmer untersuchen die Risiken von Killer-Robotern, die Ziele ohne bedeutende menschliche Kontrolle auswählen und angreifen können. Sie untersuchen außerdem die rechtlichen, militärischen und technologischen Auswirkungen autonomer Waffensysteme und arbeiten daran, einen internationalen Konsens über ihre Regulierung zu schaffen.

„Das derzeitige Versagen, KI-Kriegsführung zu regulieren oder ihren Einsatz auszusetzen, bis es eine Einigung über rechtmäßige Nutzung gibt, deutet darauf hin, dass eine potenzielle Verbreitung von KI-Kriegsführung unmittelbar bevorsteht“, sagte Craig Jones, ein politischer Geograf an der Newcastle University in England, der militärische Zielauswahl erforscht, am Donnerstag gegenüber Nicola Jones von Nature.

Während einige Befürworter von KI-Waffensystemen behaupten, ihr Einsatz werde zivile Opfer reduzieren, betonte Jones, dass „es keine Beweise dafür gibt, dass KI zivile Todesfälle oder falsche Zielentscheidungen reduziert – und es könnte sogar das Gegenteil der Fall sein.“

Ähnliche Nachrichten