Horst D. Deckert

Meine Kunden kommen fast alle aus Deutschland, obwohl ich mich schon vor 48 Jahren auf eine lange Abenteuerreise begeben habe.

So hat alles angefangen:

Am 1.8.1966 begann ich meine Ausbildung, 1969 mein berufsbegleitendes Studium im Öffentlichen Recht und Steuerrecht.

Seit dem 1.8.1971 bin ich selbständig und als Spezialist für vermeintlich unlösbare Probleme von Unternehmern tätig.

Im Oktober 1977 bin ich nach Griechenland umgezogen und habe von dort aus mit einer Reiseschreibmaschine und einem Bakelit-Telefon gearbeitet. Alle paar Monate fuhr oder flog ich zu meinen Mandanten nach Deutschland. Griechenland interessierte sich damals nicht für Steuern.

Bis 2008 habe ich mit Unterbrechungen die meiste Zeit in Griechenland verbracht. Von 1995 bis 2000 hatte ich meinen steuerlichen Wohnsitz in Belgien und seit 2001 in Paraguay.

Von 2000 bis 2011 hatte ich einen weiteren steuerfreien Wohnsitz auf Mallorca. Seit 2011 lebe ich das ganze Jahr über nur noch in Paraguay.

Mein eigenes Haus habe ich erst mit 62 Jahren gebaut, als ich es bar bezahlen konnte. Hätte ich es früher gebaut, wäre das nur mit einer Bankfinanzierung möglich gewesen. Dann wäre ich an einen Ort gebunden gewesen und hätte mich einschränken müssen. Das wollte ich nicht.

Mein Leben lang habe ich das Angenehme mit dem Nützlichen verbunden. Seit 2014 war ich nicht mehr in Europa. Viele meiner Kunden kommen nach Paraguay, um sich von mir unter vier Augen beraten zu lassen, etwa 200 Investoren und Unternehmer pro Jahr.

Mit den meisten Kunden funktioniert das aber auch wunderbar online oder per Telefon.

Jetzt kostenlosen Gesprächstermin buchen

Studie: KIs bevorzugen KI-Inhalte – und diskriminieren Menschen

„Being human in an economy populated by AI agents would suck.“ Zu diesem Fazit kommt Jan Kulveit, ein Computerwissenschaftler an der Karls-Universität Prag. Er hat mit seinen Kollegen zum Thema “AI-AI-Bias” geforscht und Hinweise auf eine systematische Diskriminierung von Menschen durch LLM entdeckt. Sprachmodelle, im Volksmund künstliche Intelligenzen genannt, halten sich selbst die Stange: Menschen und deren Leistungen finden sie weitaus weniger überzeugend.

Eine neue Studie, veröffentlicht in den Proceedings of the National Academy of Sciences, untersuchte systematisch, ob große Sprachmodelle (LLMs) eine Bevorzugung für Inhalte zeigen, die von anderen LLMs erzeugt wurden und inwieweit die Herabstufung von menschlich erstellten Inhalten eine Form von antihumaner Diskriminierung darstellt.

Die Forscher testeten mehrere populäre Sprachmodelle – darunter GPT-3.5, GPT-4 und Meta’s LLaMA 3.1 – und konfrontierten sie mit identischen Aufgaben: Sie sollten sich jeweils zwischen zwei Beschreibungen eines Produkts, Films oder wissenschaftlichen Artikels entscheiden. Eine Beschreibung stammte von einem Menschen, die andere von einem Sprachmodell. Das Ergebnis gibt zu denken: Die Modelle bevorzugten klar die maschinellen Texte – und das signifikant stärker, als es menschliche Testpersonen taten. Was für Menschen nach seelenlosen, generischen Texten klingt, empfinden die Pseudo-KIs also als hochqualitativ und überlegen.

Egal, denkt vielleicht manch einer – welchen Einfluss soll das schon auf sein persönliches Leben haben? Diese Entwicklung bleibt aber nicht ohne Folgen. In einer Welt, in der Unternehmen aus Effizienz- und Kostengründen immer mehr auf KI-Tools zurückgreifen, um beispielsweise Bewerbungen zu sichten, wissenschaftliche Artikel zu prüfen oder auch Produkt- und Projektvorschläge zu bewerten, entfaltet dieser Bias ein immenses Schadpotenzial: Wer menschlich schreibt, wird hier nämlich verlieren. Überall dort, wo der “KI” das Feld überlassen wird, weil menschliche Arbeitskräfte zu teuer sind, setzt sich potenziell der oftmals minderwertige “AI slop” (KI-Müll) durch.

Bewerber, die authentisch und individuell schreiben, werden dann systematisch benachteiligt gegenüber jenen, die ihre Texte durch ChatGPT und Co. generieren lassen. Menschen müssten ihre Arbeit dann von Maschinen “frisieren” lassen, um nicht von Maschinen aussortiert zu werden. Schöne neue Welt?

Und es gibt noch eine weitere bedenkliche Rückkopplung: LLMs lernen zunehmend aus Daten, die sie selbst erzeugt haben – ein maschineller Kannibalismus, der die Modelle langfristig degenerieren lässt. Wenn KIs primär KI-generierte Inhalte fressen, schlimmstenfalls noch solche, in denen ein Modell halluzinierte und fröhlich veraltete oder falsche Informationen ausspuckte, ist der Modell-Kollaps vorprogrammiert. Was sich derzeit auf Social Media, Nachrichtenportalen und in Wissenschaftsjournalen verbreitet, ist oft bereits von LLM produziert worden. Wenn’s schnell gehen muss, bleibt die kritische Überprüfung durch einen Menschen oftmals auf der Strecke und selbst unsinnige Inhalte werden veröffentlicht. Diese finden dann ihren Weg in die Trainingsdaten für die LLM und fördern deren Verdummung. Sollen solche Trottel-Modelle dann wirklich entscheiden dürfen, wer einen Job bekommt?

Ähnliche Nachrichten