Horst D. Deckert

Meine Kunden kommen fast alle aus Deutschland, obwohl ich mich schon vor 48 Jahren auf eine lange Abenteuerreise begeben habe.

So hat alles angefangen:

Am 1.8.1966 begann ich meine Ausbildung, 1969 mein berufsbegleitendes Studium im Öffentlichen Recht und Steuerrecht.

Seit dem 1.8.1971 bin ich selbständig und als Spezialist für vermeintlich unlösbare Probleme von Unternehmern tätig.

Im Oktober 1977 bin ich nach Griechenland umgezogen und habe von dort aus mit einer Reiseschreibmaschine und einem Bakelit-Telefon gearbeitet. Alle paar Monate fuhr oder flog ich zu meinen Mandanten nach Deutschland. Griechenland interessierte sich damals nicht für Steuern.

Bis 2008 habe ich mit Unterbrechungen die meiste Zeit in Griechenland verbracht. Von 1995 bis 2000 hatte ich meinen steuerlichen Wohnsitz in Belgien und seit 2001 in Paraguay.

Von 2000 bis 2011 hatte ich einen weiteren steuerfreien Wohnsitz auf Mallorca. Seit 2011 lebe ich das ganze Jahr über nur noch in Paraguay.

Mein eigenes Haus habe ich erst mit 62 Jahren gebaut, als ich es bar bezahlen konnte. Hätte ich es früher gebaut, wäre das nur mit einer Bankfinanzierung möglich gewesen. Dann wäre ich an einen Ort gebunden gewesen und hätte mich einschränken müssen. Das wollte ich nicht.

Mein Leben lang habe ich das Angenehme mit dem Nützlichen verbunden. Seit 2014 war ich nicht mehr in Europa. Viele meiner Kunden kommen nach Paraguay, um sich von mir unter vier Augen beraten zu lassen, etwa 200 Investoren und Unternehmer pro Jahr.

Mit den meisten Kunden funktioniert das aber auch wunderbar online oder per Telefon.

Jetzt kostenlosen Gesprächstermin buchen

Menschen, die mit Robotern aufwachsen, könnten Gefühle für sie entwickeln und ihre Sozialkompetenz verlieren: WEF „Sommer-Davos“

The Sociable

Werden wir uns so eng mit der Technologie verbinden, dass sie zu einem Teil von uns wird und wir uns selbst verlieren und vergessen, was es überhaupt bedeutet, Mensch zu sein? Perspektive

Je früher Menschen mit Robotern interagieren, desto eher entwickeln sie Gefühle für sie und verlieren die Fähigkeit, mit anderen Menschen zu sozialisieren, so eine Diskussion auf dem Weltwirtschaftsforum (WEF) Annual Meeting of the New Champions (AMNC), auch bekannt als „Sommer-Davos“, in Tianjin, China.

In seinem Vortrag während der Sitzung „Social Robots and I” erklärte Chang Dong-Seon, Gründer der Future Explorer Society, dass Kinder, die mit Robotern aufwachsen, möglicherweise nicht in der Lage sind, Maschinen von anderen Menschen zu unterscheiden, da ihnen die sozialen Hinweise dafür fehlen.

„Wenn man Studien über junge Menschen betrachtet, dann unterscheiden sie nicht zwischen nicht-menschlichen Robotern und Menschen […] Sie glauben möglicherweise, dass diese wirklich Gefühle haben, Mitgefühl zeigen, und betrachten die anderen nicht-menschlichen Wesen wie Menschen.“

Chang Dong-Seon, WEF-Jahrestagung der New Champions, Juni 2025

Children who grow up around robots won’t be able to distinguish between humans & non-humans & might grow to have feelings & show sympathy for robots as if they were human. Chang Dong-Seon. WEF Summer Davos #AMNC25 https://t.co/2U3dFg54Zs pic.twitter.com/DO3fB1voFO

— Tim Hinchliffe (@TimHinchliffe) June 24, 2025

Übersetzung von „X“: Kinder, die mit Robotern aufwachsen, werden nicht zwischen Menschen und Nicht-Menschen unterscheiden können und könnten Gefühle entwickeln und Mitgefühl für Roboter zeigen, als wären sie Menschen. Chang Dong-Seon. WEF Summer Davos

In diesem Szenario der ständigen Interaktion mit Maschinen könnte eine ganze Generation mit Gefühlen für Roboter aufwachsen, weil sie diese umarmen, mit ihnen sprechen und sich in ihnen wiedererkennen können.

Wir können das bei Kindern beobachten, oder bereits bei der jüngeren Generation, wenn man Studien über junge Menschen betrachtet, dann unterscheiden sie nicht so sehr zwischen nicht-menschlichen Robotern und Menschen wie wir [Erwachsene], weil wir nicht mit ihnen aufgewachsen sind“, sagte Dong-Seon.

Aber die jüngere Generation könnte denken, dass sie wirklich Gefühle haben, Mitgefühl zeigen und andere nicht-menschliche Wesen wie Menschen betrachten.“

Aber nicht nur jüngere Menschen werden davon betroffen sein, mit Robotern zusammenzuleben.

In seinem zweiten Szenario sagt Dong-Seon, dass wir umso mehr unsere Fähigkeit verlieren könnten, normal mit anderen Menschen zu interagieren, je mehr wir im Laufe unseres Lebens mit Robotern interagieren, weil unser Gehirn umprogrammiert würde, andere Menschen wie Maschinen zu behandeln.

„Wenn man isoliert ist und keinen Kontakt zu anderen Menschen hat, verliert das Gehirn mit der Zeit die Fähigkeit, soziale Signale von anderen Menschen zu lesen […] Wenn man mit Robotern interagiert, beobachten viele Menschen, dass man tatsächlich sehr aggressiv und beleidigend werden kann […] und dass sich das nicht-menschliche Verhalten auch auf Menschen übertragen kann, mit denen man interagiert.“

Chang Dong-Seon, WEF-Jahrestagung „Meeting of the New Champions“, Juni 2025

People who interact primarily with robots will lose the ability to socialize. They see themselves reflected in AI. They’ll act more abusive towards robots & that aggression may spillover to human interactions. Chang Dong-Seon. WEF Summer Davos #AMNC25 https://t.co/pmlQXOqPYxpic.twitter.com/QvmVDm5AWd

— Tim Hinchliffe (@TimHinchliffe) June 24, 2025

Übersetzung von „X“: Menschen, die hauptsächlich mit Robotern interagieren, werden ihre sozialen Fähigkeiten verlieren. Sie sehen sich selbst in der KI widergespiegelt. Sie werden sich gegenüber Robotern aggressiver verhalten, und diese Aggression könnte sich auch auf zwischenmenschliche Beziehungen übertragen. Chang Dong-Seon. WEF Summer Davos

Wenn wir uns in unseren kleinen Kammern, in unseren kleinen Zimmern mit KI beschäftigen und nur mit KI sprechen und nicht mit anderen Menschen interagieren, was passiert dann in unserem Gehirn?“, überlegte Dong-Seon.

Es gibt eine interessante Studie in Trends in Cognitive Science. Darin heißt es, dass der Bereich des PSTS – ein soziales Netzwerk in unserem Gehirn – schrumpft und weniger Verbindungen bestehen, was bedeutet, dass man, wenn man isoliert ist und nicht mit anderen Menschen interagiert, mit der Zeit die Fähigkeit verliert, soziale Signale anderer Menschen zu lesen. Das heißt, wenn man das nächste Mal einen Menschen trifft, könnte man die Größe seiner Augen, sein Aussehen, seine Worte und und denken vielleicht: „Oh! Ich weiß nicht, wie ich mit Menschen umgehen soll; ich bevorzuge Roboter; ich bevorzuge KI. Das ist so viel besser; das entspricht mir vollkommen“, und Sie werden eine andere Art der Interaktion entwickeln, die zwar eingeschränkter ist, aber mit der Zeit möglicherweise zu einer neuen Art der Interaktion wird, die die Menschen bevorzugen.

Aber hier liegt auch eine Gefahr, denn wenn man mit Robotern interagiert, sehen viele Menschen, dass man tatsächlich sehr aggressiv und beleidigend werden kann, und wenn man weiß, dass das andere Wesen kein Mensch ist, ändert sich die Art und Weise, wie man interagiert.

Das Problem ist jedoch, dass das Gehirn manchmal mit Menschen und mit nicht-menschlichen Wesen interagieren muss und man dabei möglicherweise das Unterscheidungsvermögen zwischen beiden verliert – was bedeutet, dass sich die nicht-menschlichen Handlungen auch auf Menschen übertragen können, wenn man mit ihnen interagiert.“

„Beziehungsorientierte KI konkurrieren als Freunde, Kollegen und Mentoren, während romantisch orientierte KI um Liebe konkurrieren. Der Wettbewerb um Liebe hat potenziell ethische Konsequenzen, da er unsere engsten menschlichen Beziehungen zerstören könnte.“

Trends in Cognitive Science, „Künstliche Intimität: Ethische Fragen der KI-Romantik“, Juni 2025

In der Juni-Ausgabe 2025 der Zeitschrift „Trends in Cognitive Science“ gibt es einen Artikel mit dem Titel „Künstliche Intimität: Ethische Fragen der KI-Romantik“, der mit Dong-Seons Aussagen übereinstimmt und Folgendes feststellt:

Da KI immer besser in der Lage ist, als denkende Wesen und ideale Beziehungspartner wahrgenommen zu werden, ziehen manche Menschen KI-Beziehungen menschlichen Beziehungen vor.“

Die Studie warnt außerdem: „KIs können auch von Menschen dazu benutzt werden, andere Menschen zu manipulieren. Relationale KIs können von privaten Unternehmen, Schurkenstaaten oder Cyberhackern genutzt werden, um zunächst Gesellschaft anzubieten und Menschen in intime Beziehungen zu locken, um ihnen dann Fehlinformationen zu vermitteln, sie zu Fehlverhalten zu verleiten oder sie auf andere Weise auszubeuten.”

Dong-Seons Vortrag folgte auf den Vortrag von Vanessa Evers, Professorin an der Universität Twente.

Die Berichterstattung von The Sociable über Evers‘ Vortrag finden Sie hier.

Zusammenfassend erklärte Evers, dass es für echte Roboterintelligenz ein großes Verhaltensmodell oder einen digitalen Zwilling der gesamten Welt geben müsse.

Nachdem der Roboter anhand dieser Modelle und Zwillinge trainiert wurde, wäre er theoretisch in der Lage, in der realen Welt scheinbar intelligent zu interagieren.

„Für echte Roboterintelligenz muss man ein Modell der Welt erstellen, so etwas wie einen digitalen Zwilling der gesamten Welt.“

Vanessa Evers, WEF-Jahrestagung „Meeting of the New Champions“, Juni 2025

“For true ROBOT INTELLIGENCE, you need to build a model of the world, like a DIGITAL TWIN OF THE ENTIRE WORLD.. We can add SUPERHUMAN CAPABILITIES [listen to your heart, watch your breath to detect stress & pain]” Vanessa Evers, WEF Summer Davos #AMNC25 https://t.co/2U3dFg5CP0 pic.twitter.com/0jPjGG6HpD

— Tim Hinchliffe (@TimHinchliffe) June 24, 2025

Übersetzung von „X“: „Für echte ROBOTERINTELLIGENZ muss man ein Modell der Welt erstellen, so etwas wie einen DIGITALEN ZWILLING DER GESAMTEN WELT. Wir können ÜBERMENSCHLICHE FÄHIGKEITEN hinzufügen [auf das Herz hören, den Atem beobachten, um Stress und Schmerzen zu erkennen].” Vanessa Evers, WEF Summer Davos

„Wir könnten übermenschliche Fähigkeiten hinzufügen, den Herzschlag hören oder die Atmung einer Person beobachten, um Stress oder Schmerzen zu erkennen. Wir können Dominanz, Aggression und kreative Phasen erkennen – all das lässt sich automatisiert erfassen.“

Vanessa Evers, WEF-Jahrestagung „Meeting of the New Champions“, Juni 2025

Sobald Roboter mit einem Modell der Welt ausgestattet sind, würden sie scheinbar „intelligent” und „sozial” werden, und damit tauchen eine ganze Reihe philosophischer und ethischer Fragen auf, wie wir mit Robotern interagieren werden und wie dies die Dynamik unserer Interaktion mit unseren Mitmenschen verändern könnte.

Evers sprach beispielsweise darüber, wie ihr Labor ein intelligentes Kissen entwickelt hat, das anhand der Geräusche, die ein Baby macht, erkennen kann, wenn es Schmerzen hat.

In Zukunft könnte diese Technologie für andere Geräte und Roboter für verschiedene Zwecke eingesetzt werden, beispielsweise zur Entschlüsselung und Erkennung der mentalen oder emotionalen Zustände einer Person.

Als Chang Dong-Seon von Evers‘ Kissen-Schmerzmelder hörte, kam ihm sofort die Idee, einen Lügendetektortest mit intelligenten Brillen und Sensoren zu entwickeln – woraufhin Evers entgegnete, dass dies einen Missbrauch ihrer Technologie darstellen würde, was Dong-Seon jedoch ablehnte.

Wir wissen nicht, wie die Menschen es nutzen werden. Es ist öffentlich zugänglich. Natürlich kann es jeder nutzen. Wir veröffentlichen es frei. Dann haben wir keinen Einfluss darauf, wie es genutzt wird.“

Vanessa Evers, WEF-Jahrestagung „Meeting of the New Champions“, Juni 2025

Chang Dong-Seon:
In the future we will be wearing smart glasses & sensors that can detect pain in others, so we will know if they’re faking it.

Vanessa Evers: You would be abusing my technology

Chang: Nah

WEF Summer Davos #AMNC25 https://t.co/pmlQXOqPYx pic.twitter.com/XK57n7u5yW

— Tim Hinchliffe (@TimHinchliffe) June 24, 2025

Übersetzung von „X“: Chang Dong-Seon: In Zukunft werden wir intelligente Brillen und Sensoren tragen, die Schmerzen bei anderen erkennen können, sodass wir wissen, ob sie nur schauspielern. Vanessa Evers: Dann würden Sie meine Technologie missbrauchen. Chang: Nein. WEF Sommer-Davos

Ich stelle mir vor, dass wir in Zukunft alle Smart-Brillen und Smart-Sensoren tragen und unsere Körpersignale Informationen direkt an einen Roboter oder an andere Menschen weitergeben können“, sagte Dong-Seon.

Vielleicht verändert das auch die menschliche Reaktion, sodass man sagt: ‚Hmm. Ich sehe kein Schmerzsignal bei dir, also täuschst du vielleicht etwas vor.

Obwohl wir in einer sehr menschlichen Situation vielleicht reagieren würden mit: ‚Oh! Du musst Schmerzen haben‘, aber vielleicht ändert sich der Standard, nach dem Roboter – oder damit auch Menschen – lernen, Schmerzen wahrzunehmen.“

Evers warf sofort ein: „Ich finde, Sie würden meine Technologie für etwas Schlechtes missbrauchen, oder? Dafür habe ich sie nicht entwickelt. Ich habe sie für etwas Gutes entwickelt.“

Aber genau hier liegt die Herausforderung für die Zukunft.

Es gibt Menschen, die Technologien entwickeln, die die gesamte Gesellschaft verändern werden, und es spielt keine Rolle, ob sie diese mit den besten Absichten entwickeln, denn es wird immer jemanden geben, der sie als Waffe einsetzen will.

Wie Evers erklärte: „Wir wissen nicht, wie die Menschen sie nutzen werden. Sie ist öffentlich zugänglich. Natürlich kann sie jeder nutzen. Wir veröffentlichen sie frei. Dann haben wir keinen Einfluss darauf, wie sie genutzt wird.“

Und genau das ist der Kern dessen, was The Sociable der Welt vermitteln möchte – wie Regierungen, Unternehmen und nicht gewählte Globalisten Technologien auf schändliche Weise einsetzen könnten, auch wenn dies nicht die Absicht der ursprünglichen Entwickler war.

Ja, die Forscher, Entwickler und Wissenschaftler wissen alle, dass sie etwas Gefährliches entwickeln, und viele haben vielleicht die besten Absichten, aber Überheblichkeit hat die seltsame Eigenschaft, sich irgendwann zu rächen.

Im Falle mächtiger Technologien steht jedoch die Zukunft der Menschheit auf dem Spiel.

Werden wir unsere Fähigkeit verlieren, mit anderen Menschen zu sozialisieren, und die Gesellschaft von sozialen Robotern bevorzugen?

Werden wir zulassen, dass Technologie unser Leben in einem totalen Überwachungsstaat regiert?

Werden wir alle Wearables verwenden, um alles zu tracken, was in unserem Körper vor sich geht, während all diese Daten in Echtzeit an Regierungen und Unternehmen gesendet werden?

Werden wir so eng mit der Technologie verschmelzen, dass sie zu einem Teil von uns wird und wir dabei unsere Menschlichkeit verlieren und vergessen, was es überhaupt bedeutet, Mensch zu sein?

Die Technologie ist da, jetzt. Es ist Zeit, sich zu entscheiden.

Ähnliche Nachrichten