Horst D. Deckert

Meine Kunden kommen fast alle aus Deutschland, obwohl ich mich schon vor 48 Jahren auf eine lange Abenteuerreise begeben habe.

So hat alles angefangen:

Am 1.8.1966 begann ich meine Ausbildung, 1969 mein berufsbegleitendes Studium im Öffentlichen Recht und Steuerrecht.

Seit dem 1.8.1971 bin ich selbständig und als Spezialist für vermeintlich unlösbare Probleme von Unternehmern tätig.

Im Oktober 1977 bin ich nach Griechenland umgezogen und habe von dort aus mit einer Reiseschreibmaschine und einem Bakelit-Telefon gearbeitet. Alle paar Monate fuhr oder flog ich zu meinen Mandanten nach Deutschland. Griechenland interessierte sich damals nicht für Steuern.

Bis 2008 habe ich mit Unterbrechungen die meiste Zeit in Griechenland verbracht. Von 1995 bis 2000 hatte ich meinen steuerlichen Wohnsitz in Belgien und seit 2001 in Paraguay.

Von 2000 bis 2011 hatte ich einen weiteren steuerfreien Wohnsitz auf Mallorca. Seit 2011 lebe ich das ganze Jahr über nur noch in Paraguay.

Mein eigenes Haus habe ich erst mit 62 Jahren gebaut, als ich es bar bezahlen konnte. Hätte ich es früher gebaut, wäre das nur mit einer Bankfinanzierung möglich gewesen. Dann wäre ich an einen Ort gebunden gewesen und hätte mich einschränken müssen. Das wollte ich nicht.

Mein Leben lang habe ich das Angenehme mit dem Nützlichen verbunden. Seit 2014 war ich nicht mehr in Europa. Viele meiner Kunden kommen nach Paraguay, um sich von mir unter vier Augen beraten zu lassen, etwa 200 Investoren und Unternehmer pro Jahr.

Mit den meisten Kunden funktioniert das aber auch wunderbar online oder per Telefon.

Jetzt kostenlosen Gesprächstermin buchen

Bilder von sexuellem Kindesmissbrauch in einer Datenbank gefunden, die zum Training von KI-Bildgeneratoren verwendet wird

  • Eine Studie hat ergeben, dass ein Datensatz, der zum Trainieren von KI-Bildgeneratoren verwendet wird, Bilder von sexuellem Kindesmissbrauch enthält.
  • Die Ergebnisse verstärken die Befürchtung, dass KI-Tools eine Welle von KI-generierten Inhalten über sexuellen Kindesmissbrauch auslösen könnten.
  • Die LAION-Datenbank wurde inzwischen vom Netz genommen, während ihre Ersteller die Bilder entfernen.

Einem neuen Bericht zufolge enthält ein Datensatz, mit dem KI-Bildgeneratoren trainiert wurden, Tausende Bilder, die mutmaßlich den sexuellen Missbrauch von Kindern zeigen.

Eine Untersuchung des Stanford University Cyber Policy Center ergab, dass die LAION-5B-Datenbank, die zum Training mehrerer KI-Bildgeneratoren verwendet wurde, darunter Stable Diffusion 1.5, eine frühere Version eines KI-Modells von Stability AI, mehr als 3.200 Bilder von mutmaßlichem Kindesmissbrauch enthielt.

Bei etwas mehr als 1.000 dieser Bilder wurde bestätigt, dass es sich um Material über sexuellen Kindesmissbrauch handelte. In dem Bericht wird davor gewarnt, dass diese Bilder in dem Datensatz es generativen KI-Tools ermöglichen könnten, auf der Grundlage dieser Daten neue Inhalte über Kindesmissbrauch zu erstellen.

LAION-5B ist ein umfangreiches öffentliches Archiv mit etwa fünf Milliarden Bildern aus dem offenen Internet.

Es wird von einer Reihe von KI-Unternehmen genutzt, die riesige Datenmengen benötigen, um generative KI-Modelle zu trainieren, die in Sekundenschnelle neue Bilder erzeugen können.

Experten warnen seit Langem davor, dass KI-Bildgeneratoren einen Tsunami ultrarealistischer KI-generierter Bilder von sexuellem Kindesmissbrauch auslösen könnten. Die Internet Watch Foundation (IWF) warnt, dass solche Bilder im Dark Web bereits weitverbreitet sind.

Unterdessen haben britische Organisationen für Online-Sicherheit zu „dringendem Handeln“ aufgerufen, weil Kinder in der Schule KI-Bildgeneratoren nutzen, um anstößige Inhalte von ihren Mitschülern zu erstellen.

KI-Anwendungen, die eine ähnliche Technologie verwenden, um Frauen auf Fotos zu „entkleiden“, indem gefälschte Nacktbilder von ihnen erstellt werden, erfreuen sich laut Daten von Grafika ebenfalls wachsender Beliebtheit.

Stable Diffusion ist das bekannteste Modell, das in der LAION-Datenbank verwendet wird. Das von der britischen Firma Stability AI entwickelte Tool hat sich seit seiner Einführung im Jahr 2022 zu einem der am weitesten verbreiteten und beliebtesten Bildgeneratoren entwickelt.

Ein Sprecher der deutschen Non-Profit-Organisation LAION, die hinter dem Datensatz steht, erklärte gegenüber Bloomberg, dass die Gruppe ihre Datensätze vorübergehend aus dem Internet entferne, um sie von illegalen Inhalten zu säubern.

Ein Sprecher von Stability AI erklärte gegenüber Business Insider, dass das Unternehmen Filter eingeführt habe, um zu verhindern, dass Nutzer illegale Inhalte mit Stable Diffusion erstellen, und die Modelle von Stability AI nur auf einer gefilterten Teilmenge von LAION-5B trainiert worden seien.

Im vergangenen Jahr veröffentlichte das Unternehmen Stable Diffusion 2.0, das ebenfalls auf einer Untermenge der LAION-5B-Daten trainiert wurde, aber strengere Kontrollen für sexuell explizite Inhalte enthält. Die Version 1.5, die ebenfalls explizite Inhalte generiert, ist jedoch weiterhin im Internet verfügbar.

Der Sprecher sagte, dass Stable Diffusion 1.5 von dem KI-Video-Startup RunwayML und nicht von Stability AI veröffentlicht wurde. Runway erklärte jedoch gegenüber Bloomberg, dass es sich um eine Zusammenarbeit zwischen den beiden Unternehmen handele.

LAION-400M, eine frühere Version der 5B-Datenbank, die den Stanford-Forschern zufolge „pornografische Bilder, rassistische Beleidigungen und schädliche soziale Stereotypen“ enthielt, wurde von Google verwendet, um eine frühe Version seines Text-Bild-Generators Imagen zu trainieren. Google hat die Verwendung von LAION-Datensätzen inzwischen eingestellt.

BI hat LAION um weitere Kommentare gebeten, aber keine unmittelbare Antwort erhalten.

Ähnliche Nachrichten