Horst D. Deckert

Meine Kunden kommen fast alle aus Deutschland, obwohl ich mich schon vor 48 Jahren auf eine lange Abenteuerreise begeben habe.

So hat alles angefangen:

Am 1.8.1966 begann ich meine Ausbildung, 1969 mein berufsbegleitendes Studium im Öffentlichen Recht und Steuerrecht.

Seit dem 1.8.1971 bin ich selbständig und als Spezialist für vermeintlich unlösbare Probleme von Unternehmern tätig.

Im Oktober 1977 bin ich nach Griechenland umgezogen und habe von dort aus mit einer Reiseschreibmaschine und einem Bakelit-Telefon gearbeitet. Alle paar Monate fuhr oder flog ich zu meinen Mandanten nach Deutschland. Griechenland interessierte sich damals nicht für Steuern.

Bis 2008 habe ich mit Unterbrechungen die meiste Zeit in Griechenland verbracht. Von 1995 bis 2000 hatte ich meinen steuerlichen Wohnsitz in Belgien und seit 2001 in Paraguay.

Von 2000 bis 2011 hatte ich einen weiteren steuerfreien Wohnsitz auf Mallorca. Seit 2011 lebe ich das ganze Jahr über nur noch in Paraguay.

Mein eigenes Haus habe ich erst mit 62 Jahren gebaut, als ich es bar bezahlen konnte. Hätte ich es früher gebaut, wäre das nur mit einer Bankfinanzierung möglich gewesen. Dann wäre ich an einen Ort gebunden gewesen und hätte mich einschränken müssen. Das wollte ich nicht.

Mein Leben lang habe ich das Angenehme mit dem Nützlichen verbunden. Seit 2014 war ich nicht mehr in Europa. Viele meiner Kunden kommen nach Paraguay, um sich von mir unter vier Augen beraten zu lassen, etwa 200 Investoren und Unternehmer pro Jahr.

Mit den meisten Kunden funktioniert das aber auch wunderbar online oder per Telefon.

Jetzt kostenlosen Gesprächstermin buchen

Sprachlos war gestern: KI macht Gedanken hörbar

anonymousnews.org – Nachrichten unzensiert

0043b79674f3725261aca28ec94e5fdc.jpg

Sprachlos war gestern: KI macht Gedanken hörbar

Gehirnimplantate werden immer besser. Nun verspricht eine neue KI-Technologie, Gedanken in gesprochene Sprache zu übersetzen; und das in Echtzeit

von Uwe Kerkow

Fast zwei Jahrzehnte, nachdem sie im Alter von 30 Jahren einen Schlaganfall erlitten hatte, der ihren Hirnstamm schwer schädigte und sie stumm machte, erlangte eine Frau in den USA nun die Fähigkeit zurück, ihre Gedanken dank eines neuen Gehirn-Computer-Schnittstellen-Verfahrens (brain-computer interface, BCI) in Worte zu verwandeln – und das in Echtzeit.

Die Technologie ähnelt damit im Ansatz dem, was die Firma Neuralink von Elon Musk anstrebt, wenn sie versucht, die Gehirne von Menschen mit ihren Smartphones zu verbinden.

Wie Science Alert berichtet, haben die Forscher von der University of California, Berkeley, unter der Leitung des Informatikingenieurs Kaylo Littlejohn dazu die Gehirnaktivität der Frau in Schritten von je 80-Millisekunden Länge analysiert und übersetzt. So überwanden die Wissenschaftler mit ihrer innovativen Methode die frustrierenden Verzögerungen, die frühere Versionen der Technologie geplagt hatten.

Klänge formen, noch während wir sie denken

Die Fähigkeit unseres Körpers, Klänge zu formen, noch während wir sie denken, betrachten wir als selbstverständlich. Nur in seltenen Momenten, wenn wir gezwungen sind, auf einen Übersetzer zu warten, oder wenn wir unsere Sprache verzögert durch einen Lautsprecher hören, lernen wir das ungemeine Tempo wertzuschätzen, in dem unser Körper Reize verarbeitet.

Doch diese Artikulationsfähigkeit kann aufgrund verschiedener Ursachen von den Sprachzentren ihres Gehirns getrennt werden, sei es etwa durch Beschädigungen von kritischen Teilen des Nervensystems oder Erkrankungen wie amyotrophe Lateralsklerose bei der das motorische Nervensystem seine Funktionsfähigkeit verliert.

In Verbindung mit spezialisierter Software verspricht der Einsatz derartiger Gehirnimplantate den Betroffenen nun neue Lebensperspektiven. In letzter Zeit haben verschiedene BCI-Sprachumsetzungsprojekte Erfolge erzielt. Dabei zielten alle darauf ab, den Zeitraum zu verkürzen, der benötigt wird, um Sprache aus Gedanken zu erzeugen.

KI wird direkt auf Signale des Gehirns trainiert

Bei den meisten Methoden werden vollständige Textblöcke analysiert, damit die Software deren Bedeutung entschlüsseln kann. Das kann Sekunden dauern und den Zeitraum zwischen dem Gedanken und der Vokalisierung quälend verlängern. Das wirkt nicht nur unnatürlich, es kann auch frustrierend und unangenehm für diejenigen sein, die das System verwenden. Dieser Effekt wird noch dadurch verstärkt, dass die Sprachsynthese zusätzliche Zeit zum Abspielen benötigt und der Zuhörer, um das synthetisierte Audio zu verstehen.

Ferner basieren die meisten bestehenden Methoden darauf, dass der “Sprecher” die Schnittstelle trainiert, indem er die Bewegungen des Sprechens durchführt. Für Personen, die aus der Übung sind, immer schon Schwierigkeiten beim Sprechen hatten oder deren Motorik unter einer Erkrankung leidet, kann es daher sehr schwierig werden, ihrer Dekodierungssoftware genügend Daten zu liefern.

Um solche Hürden zu überwinden, trainierten die Forscher ein flexibles, tief lernendes neuronales Netzwerk auf die sensomotorische-Kortex-Aktivität der 47-jährigen Teilnehmerin, während sie 100 ausgewählte Sätze mit einem Wortschatz von etwas mehr als tausend Wörtern still für sich sprach – also letztlich dachte. Die Frau brauchte also gar nicht erst zu versuchen, Worte hervorzubringen – sie musste sich die Sätze lediglich vorstellen.

Natürlich wirkender Sprachfluss

Durch diesen neuartigen Ansatz konnte die durchschnittliche Anzahl der pro Minute übersetzten Wörter gegenüber früheren Methoden nahezu verdoppelt werden. Zudem kann die Technik die neuronalen Befehle kontinuierlich und in Echtzeit interpretieren. Dadurch floss die Sprache der Teilnehmerin auf eine weitaus natürlichere Weise – und zwar etwa achtmal schneller als bei anderen Methoden.

Dank eines Sprachsynthese-Programms, das auf vorherigen Aufnahmen von der Patientin basierte klang das Ergebnis sogar wie ihre eigene Stimme. Um zu zeigen, dass ihr Verfahren sogar neuronale Signale korrekt interpretieren kann, die Wörter repräsentierten, auf die es nicht vorab trainiert worden war führten sie auch Versuche offline und ohne Zeitbeschränkungen durch.

Wörter gebildet, auf die die KI nicht trainiert worden war

Die Autoren merken an, dass es noch viel Raum für Verbesserungen gibt, bevor die Methode klinisch eingesetzt werden kann. Obwohl die Sprache verständlich war, blieb sie bislang noch weit hinter den Ergebnissen zurück, die Methoden erzielen, die Text dekodieren.

In Anbetracht dessen, wie weit die Technologie in nur wenigen Jahren gediehen ist, gibt es jedoch Grund zum Optimismus, dass Menschen, die bisher ohne Stimme waren, die Forscher und ihre gedankenlesenden Geräte bald lauthals loben könnten.

Der Beitrag Sprachlos war gestern: KI macht Gedanken hörbar ist zuerst erschienen auf anonymousnews.org – Nachrichten unzensiert und wurde geschrieben von Redaktion.

Ähnliche Nachrichten