Horst D. Deckert

Meine Kunden kommen fast alle aus Deutschland, obwohl ich mich schon vor 48 Jahren auf eine lange Abenteuerreise begeben habe.

So hat alles angefangen:

Am 1.8.1966 begann ich meine Ausbildung, 1969 mein berufsbegleitendes Studium im Öffentlichen Recht und Steuerrecht.

Seit dem 1.8.1971 bin ich selbständig und als Spezialist für vermeintlich unlösbare Probleme von Unternehmern tätig.

Im Oktober 1977 bin ich nach Griechenland umgezogen und habe von dort aus mit einer Reiseschreibmaschine und einem Bakelit-Telefon gearbeitet. Alle paar Monate fuhr oder flog ich zu meinen Mandanten nach Deutschland. Griechenland interessierte sich damals nicht für Steuern.

Bis 2008 habe ich mit Unterbrechungen die meiste Zeit in Griechenland verbracht. Von 1995 bis 2000 hatte ich meinen steuerlichen Wohnsitz in Belgien und seit 2001 in Paraguay.

Von 2000 bis 2011 hatte ich einen weiteren steuerfreien Wohnsitz auf Mallorca. Seit 2011 lebe ich das ganze Jahr über nur noch in Paraguay.

Mein eigenes Haus habe ich erst mit 62 Jahren gebaut, als ich es bar bezahlen konnte. Hätte ich es früher gebaut, wäre das nur mit einer Bankfinanzierung möglich gewesen. Dann wäre ich an einen Ort gebunden gewesen und hätte mich einschränken müssen. Das wollte ich nicht.

Mein Leben lang habe ich das Angenehme mit dem Nützlichen verbunden. Seit 2014 war ich nicht mehr in Europa. Viele meiner Kunden kommen nach Paraguay, um sich von mir unter vier Augen beraten zu lassen, etwa 200 Investoren und Unternehmer pro Jahr.

Mit den meisten Kunden funktioniert das aber auch wunderbar online oder per Telefon.

Jetzt kostenlosen Gesprächstermin buchen

Googles neues Patent: Maschinelles Lernen zur Erkennung von „Falschinformationen“ in sozialen Medien

Neue Techniken zur Überwachung sozialer Medien.

Google hat beim US-Patent- und Markenamt einen Antrag für ein Tool eingereicht, das maschinelles Lernen (ML, eine Untergruppe der KI) nutzt, um zu erkennen, was Google als „Fehlinformationen“ in sozialen Medien ansieht.

Google verwendet bereits KI-Elemente in seinen Algorithmen, die zur Automatisierung der Zensur auf seinen riesigen Plattformen programmiert sind, und dieses Dokument zeigt einen konkreten Weg auf, den das Unternehmen in Zukunft einschlagen will.

Der allgemeine Zweck des Patents besteht darin, Informationsoperationen (IO) zu identifizieren und dann „vorherzusagen“, ob es sich dabei um „Falschinformationen“ handelt.

Nach der Erklärung zu urteilen, die Google der Anmeldung beigefügt hat, sieht es zunächst so aus, als würde das Unternehmen seine eigene Existenz für die Verbreitung von „Fehlinformationen“ verantwortlich machen – im Text heißt es, dass Kampagnen für Informationsoperationen billig und weitverbreitet sind, weil ihre Botschaften dank der „Verstärkung durch Social-Media-Plattformen“ leicht zu verbreiten sind.

Es scheint jedoch, dass Google das Tool mit Blick auf andere Plattformen entwickelt.

Der Technologiegigant weist ausdrücklich darauf hin, dass andere Plattformen (im Antrag werden X, Facebook und LinkedIn namentlich erwähnt) das System nutzen könnten, um ihre eigenen „unterschiedlichen Vorhersagemodelle“ zu trainieren.

Das maschinelle Lernen selbst hängt davon ab, dass die Algorithmen mit großen Datenmengen gefüttert werden, und es gibt zwei Arten von maschinellem Lernen – „überwachtes“ und „unbeaufsichtigtes“ Lernen, bei dem ein Algorithmus mit großen Datenmengen (wie Bildern oder in diesem Fall Sprache) gefüttert wird und „lernt“, zu erkennen, was er „sieht“.

(Reinforcement Learning ist ein Teil dieses Prozesses – im Wesentlichen wird der Algorithmus darauf trainiert, immer besser zu erkennen, wonach die Menschen, die das System entwickeln, suchen.)

Das ultimative Ziel in diesem Fall wäre höchstwahrscheinlich, dass Google seine „Fehlinformationserkennung“, d.h. die Zensur, effizienter gestaltet, indem es sich auf eine bestimmte Art von Daten konzentriert.

Das Patent besagt, dass es neuronale Netze als Sprachmodelle verwendet (wobei neuronale Netze die „Infrastruktur“ von ML darstellen).

Das Google-Tool klassifiziert die Daten als IO oder gutartig und zielt auch darauf ab, sie als von einer Person, einer Organisation oder einem Land stammend zu kennzeichnen.

Anschließend prognostiziert das Modell die Wahrscheinlichkeit, dass es sich bei dem Inhalt um eine „Desinformationskampagne“ handelt, indem es ihm eine Punktzahl zuweist.

Ähnliche Nachrichten