Horst D. Deckert

Meine Kunden kommen fast alle aus Deutschland, obwohl ich mich schon vor 48 Jahren auf eine lange Abenteuerreise begeben habe.

So hat alles angefangen:

Am 1.8.1966 begann ich meine Ausbildung, 1969 mein berufsbegleitendes Studium im Öffentlichen Recht und Steuerrecht.

Seit dem 1.8.1971 bin ich selbständig und als Spezialist für vermeintlich unlösbare Probleme von Unternehmern tätig.

Im Oktober 1977 bin ich nach Griechenland umgezogen und habe von dort aus mit einer Reiseschreibmaschine und einem Bakelit-Telefon gearbeitet. Alle paar Monate fuhr oder flog ich zu meinen Mandanten nach Deutschland. Griechenland interessierte sich damals nicht für Steuern.

Bis 2008 habe ich mit Unterbrechungen die meiste Zeit in Griechenland verbracht. Von 1995 bis 2000 hatte ich meinen steuerlichen Wohnsitz in Belgien und seit 2001 in Paraguay.

Von 2000 bis 2011 hatte ich einen weiteren steuerfreien Wohnsitz auf Mallorca. Seit 2011 lebe ich das ganze Jahr über nur noch in Paraguay.

Mein eigenes Haus habe ich erst mit 62 Jahren gebaut, als ich es bar bezahlen konnte. Hätte ich es früher gebaut, wäre das nur mit einer Bankfinanzierung möglich gewesen. Dann wäre ich an einen Ort gebunden gewesen und hätte mich einschränken müssen. Das wollte ich nicht.

Mein Leben lang habe ich das Angenehme mit dem Nützlichen verbunden. Seit 2014 war ich nicht mehr in Europa. Viele meiner Kunden kommen nach Paraguay, um sich von mir unter vier Augen beraten zu lassen, etwa 200 Investoren und Unternehmer pro Jahr.

Mit den meisten Kunden funktioniert das aber auch wunderbar online oder per Telefon.

Jetzt kostenlosen Gesprächstermin buchen

Bericht: Israel nutzt KI „Lavender“ zur Bomben-Zielerfassung im Gazastreifen

Üblicherweise verlässt sich das Militär bei der Zielerfassung auf menschliche Quellen und Beobachtungen. Doch das israelische Militär hat sich einem Bericht zufolge (auch) auf die Zielerfassung durch eine Künstliche Intelligenz (KI) verlassen. Die Tötung von Zivilisten wurde dabei billigend in Kauf genommen. Ist das die Zukunft der Kriegsführung?

Wer selbst im Militärdienst war, kennt die Übungen zu „beobachten und melden“, die auch bei der Aufklärung von potentiellen Zielen für Artillerie- und Luftangriffe helfen. Solche Aufgaben sind im Kriegsfall jedoch unter Umständen höchst gefährlich, so dass man mittlerweile zunehmend auf Drohnen und die Satellitenüberwachung setzt.

Aber auch hier sind es üblicherweise menschliche Augen, die über Angriffe entscheiden. Dies ist jedoch im Gaza-Feldzug Israels nicht immer der Fall, wie ein regionaler Bericht erklärt. So heißt es dort:

Eine neue Untersuchung von +972 Magazine und Local Call enthüllt, dass das israelische Militär ein auf künstlicher Intelligenz basierendes Programm namens „Lavender“ entwickelt hat, das hier zum ersten Mal vorgestellt wird. Nach Aussage von sechs israelischen Geheimdienstoffizieren, die alle während des aktuellen Kriegs gegen den Gazastreifen gedient haben und direkt an der Verwendung von KI zur Generierung von Zielen für Attentate beteiligt waren, spielte Lavender eine zentrale Rolle bei den beispiellosen Bombardierungen von Palästinensern, insbesondere in den frühen Phasen des Krieges. Tatsächlich behandelte das Militär laut den Quellen die Ergebnisse der KI-Maschine „im Wesentlichen so, als wäre es eine menschliche Entscheidung“.

Quelle: +972 Magazine, 972mag.com

In dem Bericht wird erklärt, dass das Lavender-KI-System in den ersten Wochen der Militäroperation im Gazastreifen dazu genutzt wurde, um „alle verdächtigen Operateure in den militärischen Flügeln der Hamas und des Palästinensischen Islamischen Dschihad (PIJ), einschließlich niederrangiger, als potenzielle Bombenziele zu markieren.“ Die israelischen Militärs waren demnach zu Beginn fast ausschließlich auf die KI angewiesen, welche ganze 37.000 Palästinenser und deren Häuser als verdächtige Militante erfasste.

Die Tötungslisten von Lavender wurden den Quellen zufolge ohne ausreichende menschliche Überprüfung übernommen. Demnach hatte das Militärpersonal pro Ziel gerade einmal 20 Sekunden Zeit, um einen Luftangriff zu autorisieren oder abzulehnen. Und das bei einer Fehlerquote von etwa zehn Prozent. Zudem wurden die Zielpersonen demnach zumeist nachts in ihren Häusern angegriffen, wo sie mit ihren Familien zusammen waren. Dies trieb auch die zivile Opferquote deutlich in die Höhe. Der Grund dafür: Es sei leichter, die anvisierten Personen in ihren privaten Häusern zu lokalisieren als sonst irgendwo.

Weiters heißt es in dem Bericht: „Weitere automatisierte Systeme, darunter eines namens „Where’s Daddy?“, ebenfalls hier zum ersten Mal enthüllt, wurden speziell verwendet, um die gezielten Personen zu verfolgen und Luftangriffe durchzuführen, wenn sie sich in die Häuser ihrer Familien begeben hatten.“

Beim Zielen auf angeblich niederrangige Militante, die von Lavender markiert wurden, bevorzugte das Militär nach Angaben der Quellen den Einsatz von ungelenkten Raketen, sogenannten „dummen“ Bomben, die ganze Gebäude und ihre Bewohner zerstören können und zu erheblichen Opfern führen. Während des Militäreinsatzes im Gazastreifen habe das Militär demnach beschlossen, für jeden von Lavender markierten niederrangigen Hamas-Operateur bis zu 15 oder 20 zivile Todesopfer zu akzeptieren.

In der Vergangenheit hatte das Militär bei der Tötung von niederrangigen Militanten keine „Kollateralschäden“ autorisiert. Bei gezielten Tötungen von hochrangigen Hamas-Offiziellen mit dem Rang eines Bataillons- oder Brigadekommandanten habe das Militär auf mehreren Gelegenheiten die Tötung von mehr als 100 Zivilisten autorisiert.

Dieser Bericht wirft ein neues Licht auf die israelische Militäroperation im Gazastreifen und verdeutlicht, dass die israelische Führung die Tötung von Zivilisten geflissentlich in Kauf genommen hat. Ganz nach dem Motto, wonach jeder der sich in der Nähe von Militanten und Extremisten aufhält ebenfalls ein legitimes Ziel ist. Auch zeigt es sich, dass solche KI-Systeme sehr fehleranfällig sind und eine umfassende menschliche Übersicht und Kontrolle benötigen.

Doch es ist anzunehmen, dass in Zukunft wohl noch mehr solcher Programme auf Basis von Künstlicher Intelligenz bei Militäreinsätzen weltweit eingesetzt werden, was jedoch die Zahl der zivilen Todesopfer deutlich in die Höhe treiben würde. Insbesondere dann, wenn solche KI-Programme autonom und völlig automatisiert zum Einsatz kommen.

Ähnliche Nachrichten