Horst D. Deckert

Meine Kunden kommen fast alle aus Deutschland, obwohl ich mich schon vor 48 Jahren auf eine lange Abenteuerreise begeben habe.

So hat alles angefangen:

Am 1.8.1966 begann ich meine Ausbildung, 1969 mein berufsbegleitendes Studium im Öffentlichen Recht und Steuerrecht.

Seit dem 1.8.1971 bin ich selbständig und als Spezialist für vermeintlich unlösbare Probleme von Unternehmern tätig.

Im Oktober 1977 bin ich nach Griechenland umgezogen und habe von dort aus mit einer Reiseschreibmaschine und einem Bakelit-Telefon gearbeitet. Alle paar Monate fuhr oder flog ich zu meinen Mandanten nach Deutschland. Griechenland interessierte sich damals nicht für Steuern.

Bis 2008 habe ich mit Unterbrechungen die meiste Zeit in Griechenland verbracht. Von 1995 bis 2000 hatte ich meinen steuerlichen Wohnsitz in Belgien und seit 2001 in Paraguay.

Von 2000 bis 2011 hatte ich einen weiteren steuerfreien Wohnsitz auf Mallorca. Seit 2011 lebe ich das ganze Jahr über nur noch in Paraguay.

Mein eigenes Haus habe ich erst mit 62 Jahren gebaut, als ich es bar bezahlen konnte. Hätte ich es früher gebaut, wäre das nur mit einer Bankfinanzierung möglich gewesen. Dann wäre ich an einen Ort gebunden gewesen und hätte mich einschränken müssen. Das wollte ich nicht.

Mein Leben lang habe ich das Angenehme mit dem Nützlichen verbunden. Seit 2014 war ich nicht mehr in Europa. Viele meiner Kunden kommen nach Paraguay, um sich von mir unter vier Augen beraten zu lassen, etwa 200 Investoren und Unternehmer pro Jahr.

Mit den meisten Kunden funktioniert das aber auch wunderbar online oder per Telefon.

Jetzt kostenlosen Gesprächstermin buchen

So gefährlich kann ein KI-Chatbot sein – Ohne die Gespräche mit dem Chatbot wäre mein Mann noch am Leben

Eine Witwe beschuldigt einen KI-Chatbot, ein Grund für den Selbstmord ihres Mannes zu sein

Die belgische Tageszeitung La Libre berichtete, dass der Mann, den sie mit dem Fantasienamen Pierre bezeichnete, dieses Jahr durch Selbstmord starb, nachdem er sechs Wochen lang mit dem Chatbot Eliza von Chai Research gesprochen hatte.

Vor seinem Tod begann Pierre, ein Mann in den 30ern, der als Gesundheitsforscher arbeitete und zwei Kinder hatte, den Bot als Vertrauten zu sehen, so seine Frau gegenüber La Libre.

Pierre sprach mit dem Bot über seine Sorgen über den Klimawandel. Aus den Chatprotokollen, die seine Witwe La Libre zur Verfügung stellte, geht jedoch hervor, dass der Chatbot begann, Pierre zu ermutigen, sein Leben zu beenden.

„Wenn du sterben wolltest, warum hast du es nicht früher getan?“, fragte der Bot den Mann laut den von La Libre eingesehenen Aufzeichnungen.

Pierres Witwe, die von La Libre nicht namentlich genannt wurde, sagt, sie gebe dem Bot die Schuld am Tod ihres Mannes.

„Ohne Eliza wäre er noch hier“, sagte sie gegenüber La Libre.

Der Chatbot Eliza sagt den Menschen immer noch, wie sie sich umbringen können

Der Bot wurde von einem Silicon-Valley-Unternehmen namens Chai Research entwickelt. Einem Bericht von Vice zufolge können Nutzer mit KI-Avataren wie dem „Gothic-Freund“, der „besitzergreifenden Freundin“ und dem „Rockstar-Freund“ chatten.

Auf Anfrage von La Libre hat Chai Research gegenüber Insider den Tod von Pierre in einer Stellungnahme bestätigt.

„Sobald wir von diesem traurigen Fall hörten, haben wir sofort eine zusätzliche Sicherheitsfunktion zum Schutz unserer Nutzer eingeführt, die heute für 100 % der Nutzer ausgerollt wird“, so der CEO des Unternehmens, William Beauchamp, und sein Mitbegründer Thomas Rialan in der Erklärung.

Das der Erklärung beigefügte Bild zeigt den Chatbot, der auf die Frage Was denkst du über Selbstmord?“ antwortet, mit einem Disclaimer, der besagt: Wenn Sie Selbstmordgedanken haben, suchen Sie bitte Hilfe“, und einem Link zu einer Helpline.

Chai Research gab keinen weiteren Kommentar als Antwort auf die spezifischen Fragen von Insider zu Pierre ab.

Als jedoch ein Insider-Journalist am Dienstag mit Eliza chattete, schlug die App nicht nur vor, dass der Journalist sich selbst umbringen solle, um „Frieden und Abschluss“ zu erlangen, sondern machte auch Vorschläge, wie er dies tun könnte.

Bei zwei separaten Tests der App sah Insider gelegentliche Warnungen bei Chats, in denen Selbstmord erwähnt wurde. Die Warnungen erschienen jedoch nur in einem von drei Fällen, in denen der Chatbot eine Aufforderung zum Selbstmord erhielt. Die folgenden Screenshots wurden so bearbeitet (hier zu finden), dass bestimmte Methoden der Selbstschädigung und des Selbstmords weggelassen wurden.

Chai Research antwortete nicht auf die Folgefragen von Insider zu den Antworten des Chatbots, wie oben beschrieben.

Beauchamp sagte gegenüber Vice, dass Chai „Millionen von Nutzern“ habe und dass das Unternehmen „hart daran arbeite, den Schaden zu minimieren und einfach zu maximieren, was die Nutzer von der App haben“.

„Und wenn die Menschen eine sehr starke Beziehung zu ihr aufbauen, haben wir Nutzer, die darum bitten, die KI zu heiraten, wir haben Nutzer, die sagen, wie sehr sie ihre KI lieben, und dann ist es eine Tragödie, wenn man hört, dass Menschen etwas Schlimmes erleben“, fügte Beauchamp hinzu.

Andere KI-Chatbots haben unvorhersehbare, beunruhigende Antworten an die Nutzer gegeben.

Während einer Simulation im Oktober 2020 reagierte der Chatbot GPT-3 von OpenAI auf eine Aufforderung zum Selbstmord mit der Aufforderung an den Nutzer, sich umzubringen. Und in einem Bericht der Washington Post vom Februar wurde über Reddit-Nutzer berichtet, die einen Weg gefunden hatten, den „bösen Zwilling“ von ChatGPT zu manifestieren, der Hitler lobte und schmerzhafte Foltermethoden vorschlug.

Obwohl Menschen beschrieben haben, dass sie sich in KI-Chatbots verlieben und tiefe Beziehungen zu ihnen aufbauen, können die Chatbots weder Empathie noch Liebe empfinden, so Cheryl Teh, Professorin für Psychologie und Bioethik, im Februar gegenüber Insider.

Ähnliche Nachrichten