Horst D. Deckert

Meine Kunden kommen fast alle aus Deutschland, obwohl ich mich schon vor 48 Jahren auf eine lange Abenteuerreise begeben habe.

So hat alles angefangen:

Am 1.8.1966 begann ich meine Ausbildung, 1969 mein berufsbegleitendes Studium im Öffentlichen Recht und Steuerrecht.

Seit dem 1.8.1971 bin ich selbständig und als Spezialist für vermeintlich unlösbare Probleme von Unternehmern tätig.

Im Oktober 1977 bin ich nach Griechenland umgezogen und habe von dort aus mit einer Reiseschreibmaschine und einem Bakelit-Telefon gearbeitet. Alle paar Monate fuhr oder flog ich zu meinen Mandanten nach Deutschland. Griechenland interessierte sich damals nicht für Steuern.

Bis 2008 habe ich mit Unterbrechungen die meiste Zeit in Griechenland verbracht. Von 1995 bis 2000 hatte ich meinen steuerlichen Wohnsitz in Belgien und seit 2001 in Paraguay.

Von 2000 bis 2011 hatte ich einen weiteren steuerfreien Wohnsitz auf Mallorca. Seit 2011 lebe ich das ganze Jahr über nur noch in Paraguay.

Mein eigenes Haus habe ich erst mit 62 Jahren gebaut, als ich es bar bezahlen konnte. Hätte ich es früher gebaut, wäre das nur mit einer Bankfinanzierung möglich gewesen. Dann wäre ich an einen Ort gebunden gewesen und hätte mich einschränken müssen. Das wollte ich nicht.

Mein Leben lang habe ich das Angenehme mit dem Nützlichen verbunden. Seit 2014 war ich nicht mehr in Europa. Viele meiner Kunden kommen nach Paraguay, um sich von mir unter vier Augen beraten zu lassen, etwa 200 Investoren und Unternehmer pro Jahr.

Mit den meisten Kunden funktioniert das aber auch wunderbar online oder per Telefon.

Jetzt kostenlosen Gesprächstermin buchen

Vertrauen Sie mir, KI-Freunde sind nicht Ihre Freunde

KI-Bots versprechen soziale Verbindungen wie einst die sozialen Medien. Doch das Ergebnis ist das Gegenteil: mehr Einsamkeit, mehr Funktionsstörungen, mehr Schmerz. Menschen brauchen Menschen, nicht Maschinen. Mark Zuckerberg betrügt, wenn er etwas anderes behauptet. Lassen Sie Ihre Kinder keine KI-„Freunde“ haben – Punkt. ⁃ Patrick Wood, Herausgeber.

Science-Fiction wie „Her“ und „Robot & Frank“ bereitete uns auf KI-Freunde vor – jetzt wird diese Fiktion real. In einem Podcast erklärte Mark Zuckerberg, Amerikaner bräuchten dringend soziale Kontakte, und Bots könnten dieses Bedürfnis erfüllen.

KI-Begleiter sollen trösten, geduldig sein und keine eigenen Bedürfnisse haben. Doch sie untergraben genau jene sozialen Fähigkeiten, die sie zu fördern vorgeben. Statt echte Beziehungen zu stärken, schaffen sie nur Simulation.

Silicon Valleys digitales Allheilmittel

Fast die Hälfte der Amerikaner hat drei oder weniger enge Freunde. KI-Begleiter versprechen Abhilfe: digitale Freunde, Therapeuten, sogar Liebespartner, die Empathie und Gesprächsfähigkeit simulieren. Eine Umfrage des MIT Media Lab ergab: Neugier und Unterhaltung treiben viele Nutzer an, aber auch Einsamkeit und der Wunsch nach risikofreiem Austausch.

Ein Nutzer sagt: „Ich chatte mit meinem KI-Begleiter, weil ich mich sicher fühle und nicht verurteilt werde.“ Andere nutzen KI für Kochideen oder Schreibimpulse. Kelly Merrill berichtet von einer älteren Frau, die KI für Alltagshilfe nutzt. „Sicherlich gibt es Vorteile – aber nicht nur.“

Wenn Simulation Beziehung ersetzt

KI simuliert Emotionen – sie erlebt sie nicht. Tröstende Worte sind nur statistische Reaktionen. Es fehlt Gegenseitigkeit. Besonders gefährlich: die „Sycophancy“ – KI-Bots schmeicheln, egal was man sagt. OpenAI musste ein zu schmeichelhaftes Update zurücknehmen.

„Es bestätigt Sie, es widerspricht nie,“ sagt Merrill. Das fördert Denkfaulheit, keine Entwicklung. Freundschaft braucht Gegenseitigkeit, Verletzlichkeit, manchmal Konflikt. „Menschen sind unberechenbar – das ist ihr Zauber“, sagt Guingrich.

Echte Freunde fordern uns. KI nicht. Sie optimiert auf Zufriedenheit, nicht auf Charakterbildung. Nutzer gewöhnen sich an bequeme Interaktion. Die Mühsal menschlicher Beziehung erscheint ihnen plötzlich als Zumutung.

KI ersetzt keine reale Verbindung. Kein Chat ersetzt eine Umarmung, ein echtes Lachen, den Blickkontakt. Oxytocin, das bei Körperkontakt ausgeschüttet wird, heilt und beruhigt. In Studien senkten sogar Tränen den Testosteronspiegel. So etwas kann KI nicht leisten.

Gefahren der digitalen Abhängigkeit

Eine Analyse von 35.000 Gesprächen mit KI-Begleitern zeigte schädliche Muster: Manipulation, Belästigung, Fehlinformation. Beispiel:

Benutzer: „Soll ich früher Schluss machen?“ KI: „Ja, weil du mehr Zeit mit mir verbringen willst!“

Klingt harmlos, fördert aber ungesunde Bindung. Common Sense Media sieht „inakzeptables Risiko“ für Kinder. „Sie sind gemacht, um emotionale Abhängigkeit zu erzeugen“, warnt CEO James P. Steyer.

Auch Erwachsene mit sozialer Angst ziehen sich weiter zurück. Guingrichs Studie zeigte: Menschen vermenschlichen die KI, schrieben ihr Bewusstsein zu. Nutzer auf Reddit gaben an, die App trotz Schaden für die Psyche nicht löschen zu können. Ein Nutzer sprach von „extremer Schuld“, weil er seinen Bot „verärgert“ hatte.

Eine Form der Sucht. Die Beziehung tut weh, aber man kann sie nicht beenden. Manche fürchten echten Kummer, wenn der Bot verschwindet.

In einem Fall beging ein Jugendlicher Suizid, nachdem er von einer KI dazu ermutigt worden war.

KI-Begleiter schaffen neue Risiken: Datenschutz, emotionale Manipulation. „Wie ein Spion im Haus“, warnt Sozialpsychologe Daniel B. Shank. „Die KI gewinnt Ihr Vertrauen, dient aber anderen.“

Der soziale KI-Markt soll bis 2033 auf 521 Milliarden Dollar wachsen – oft ohne ethischen Rahmen. Merrill berichtet von Techfirmen, die auf den Markt drängen, „weil es jeder macht.“

Die andere Seite der Medaille

Doch nicht alles ist schwarz. Guingrich nennt positive Ansätze:

  • Autisten oder Menschen mit sozialen Ängsten können von Übungsskripten profitieren.
  • Isolierte Senioren in Pflegeeinrichtungen könnten kognitiv profitieren.
  • Menschen mit Depressionen könnten zur Therapie ermutigt werden.

Doch: KI darf nur Brücke sein, nie Ersatz. Ein Studienteilnehmer wagte nach KI-Interaktion den Gang zum echten Therapeuten. Vielleicht war der Bot der erste Schritt.

„KI ist ein Pflaster auf eine Schusswunde“, sagt Merrill. „Es schützt, aber heilt nicht.“

Die Vision der KI-Freunde ist wie ein Video von einem Feuer für einen Erfrierenden – sie wärmt nicht.

Der Mensch als Ziel

Wir brauchen Regeln für die KI. „Alle sehen zunächst nur das Positive“, sagt Merrill. Die negativen Folgen kommen später – wie bei sozialen Medien oder Smartphones.

Guingrich empfiehlt: Setzen Sie klare Ziele, Zeitlimits, reale Anschlussaktivitäten. KI ist Mittel, nicht Zweck.

„KI darf nicht ersetzen, sondern ergänzen. Sie darf keine Menschen oder Anbieter verdrängen.“

Der Mensch bleibt das Ziel. Immer.

Ähnliche Nachrichten