Horst D. Deckert

Wer will eine Gehirn-Maschine-Schnittstelle?

Ein Essay über den Tech-Hype und die Ethik des Gedankenlesens

V.N. Alexander, PhD, ist Dozentin am IPAK-EDU, und sie denkt darüber nach, ihren Kurs über Transhumanismus-Themen im Herbst 2023 erneut zu unterrichten. Sie können mehr von ihrer Arbeit auf ihrem SubStack lesen.

Ich wollte noch nie in der Lage sein, eines meiner Geräte mit meinen Gedanken zu steuern. Ich bin vollkommen zufrieden mit einer physischen Schnittstelle, die ich abschalten, loslassen oder verlassen kann. Was ist mit Ihnen? Hält Sie Ihre Tastatur zurück? Bremst Ihre Maus Sie aus? Möchten Sie einen Beitrag einfach nur denken, ohne ihn mit dem Daumen eingeben zu müssen? Warum wird uns die Cyborg-Technologie so sehr aufgezwungen?

Hat jemand darum gebeten? Braucht sie jemand?

In diesem Aufsatz werde ich mich mit den Ethikern befassen, die Bedenken gegen die Brain Machine Interface (BMI)-Technologie äußern, deren voraussichtlicher Nutzen darin besteht, dass man mit seinen Gedanken wischen und mit seinen Gehirnwellen klicken kann. Ehrlich gesagt, sehe ich dafür keinen Bedarf, nicht einmal für Gelähmte, denn es gibt hirnchirurgiefreie Schnittstellen, wie die von Stephen Hawking. Außerdem: Wollen wir wirklich, dass unsere impulsiven Wut-Tweets sofort gesendet werden?

Nein, nein, nein. Das ist nicht die Richtung, in die diese Technologie geht. Niemand will, dass das BMI gewöhnliche Aufgaben auf eine neue Art und Weise erledigt, vor allem nicht, wenn das bedeutet, dass man den ganzen Tag einen komischen Helm tragen oder sich einer Gehirnoperation unterziehen muss. Das Zuckerbrot und Peitsche ist hier das Versprechen verbesserter geistiger Fähigkeiten.

Es scheint eine koordinierte Angstmacherkampagne zu geben, die uns davon überzeugen soll, dass jeden Moment transhumane KI-Cyborg-Legionen uns geistig überflügeln werden. Also wird jeder einen BMI bekommen müssen, nur um mithalten zu können. Leider werden unsere Gehirne dann für jeden lesbar sein, der über die richtige Software verfügt, und wir werden nicht mehr in der Lage sein, zwischen unseren eigenen Entscheidungen und denen zu unterscheiden, die uns über drahtlose Geräte eingepflanzt wurden.

Neuroethiker schlagen vor, dass wir schnell handeln und vielleicht sogar unsere Verfassungen neu schreiben müssen!

Ich finde, dass ihre neuen Vorschläge zu den Neurorechten nicht so sehr darauf abzielen, uns zu schützen, sondern vielmehr die Möglichkeiten einzuschränken, wie wir zum Wohle der Allgemeinheit verletzt werden können. Neuroethiker sind Wölfe im Schafspelz. Mal sehen, ob Sie mit meiner Einschätzung übereinstimmen.

Für den größeren Zusammenhang betrachten wir zunächst das sogenannte „Trolley-Problem“ auf dem Gebiet der Ethik. Nehmen wir an, ein Mann bedient die Weichenstation in einem Rangierbahnhof. Ist er moralisch verpflichtet, den Hebel zu betätigen, um die Lokomotive so umzuleiten, dass sie nur einen einzigen Arbeiter auf einem anderen Gleis tötet, wenn ein führerloser Zug fünf Arbeiter auf einem Gleis überrollt?

Vielleicht fällt Ihnen auf, dass ich das Standardbild, das dieses Dilemma darstellt und aus Wikipedia entnommen wurde, erheblich verändert habe. Mein Weichensteller handelt nicht im Rahmen seiner eigenen Befugnisse. Er ist ein Vertreter der Regierung, der nach einer bestimmten Politik oder einem Standardverfahren handelt. Deshalb ist er mit einem Regierungsgebäude im Hintergrund abgebildet. Diese Änderung ändert alles. Nach dem Protokoll muss er einen Menschen töten, um fünf zu retten.

Aber wenn Handlungen automatisiert sind, gibt es keine Handlungsfreiheit, und deshalb kann das, was der Mann tut, nicht als ethische Entscheidung bezeichnet werden. Die alten Ethiker, z. B. Aquin oder Kant, vertraten die Ansicht, dass die Moral vom Handelnden ausgeht, der sich frei für eine Handlung entscheidet, aber heute ist die Vorstellung, dass ein Individuum die Verantwortung hat (nicht die Freiheit, nicht das Recht, sondern die Verantwortung), zwischen richtig und falsch zu wählen, aus der Diskussion über Ethik fast verschwunden.

Jose Munoz gehört der Mind-Brain-Gruppe in Spanien an und ist auch an der Harvard Medical University und einigen anderen wirklich wichtigen Einrichtungen tätig. In seinem Bericht über die Arbeit einer Kollegin, Nita Farahany, fasst er den Ansatz der heutigen Neuroethiker treffend zusammen. Er argumentiert, dass wir „Richtlinien für neurale Rechte“ aufstellen müssen. (Richtlinien, das klingt sanft, aber ich frage mich, ob sie die gleiche Kraft haben werden wie die CDC-Richtlinien, die mit aller Kraft des Gesetzes umgesetzt wurden).

Munoz sagt, dass es eine Diskussion zwischen Wissenschaftlern, Regierungen, Unternehmen und der Öffentlichkeit geben muss. (Ich frage mich, wer in der Diskussion das Wort ergreifen wird?) Er sagt, dass den „Bürgern“ der Zugang zu ihren Daten garantiert werden muss. (Okay, ich muss ein paar Hürden überwinden, um herauszufinden, welche Daten über mich ohne mein Wissen oder meine Zustimmung gesammelt wurden, und was dann?)

Ich bemerke die Verwendung des Wortes „Bürger“ anstelle von „Menschen“ oder „Personen“.

Er möchte nicht, dass wir vergessen, dass wir als Bürger Subjekte eines Staates sind. Er ist auch der Meinung, dass „eine Lese- und Schreibfähigkeit in Bezug auf solche Daten kultiviert werden muss“, was eine schwammige Umschreibung dafür ist, dass den Menschen gesagt werden muss, was sie über die Datenerfassung denken sollen. Wann wurden die Menschen gefragt, ob sie der Datenerhebung zustimmen? Die Möglichkeit, die Erhebung von Daten überhaupt zu verweigern, steht nicht auf der Liste der ethischen Maßnahmen.

Heutzutage scheinen die Ethiker einfach davon auszugehen, dass letztlich der Staat diese ethischen Entscheidungen treffen muss – natürlich im Konsens. Das ist also in Ordnung, denn es ist ein demokratischer Verlust an Handlungsfähigkeit. Bald wird die KI diese Entscheidungen für uns optimieren, sagt man uns. Der einzelne Mensch ist zu einem bloßen Instrument geworden, durch das die „ethischen“ Entscheidungen eines anderen ausgeführt werden. Das ist nicht ethisch. Es ist gefährlich.

Wir können das Trolley-Problem auf die Frage übertragen, ob der Einzelne persönliche Opfer zum Wohle der Gesellschaft bringen sollte oder nicht. Die nachstehende Abbildung zeigt die Art von Logik, die besagt, dass Menschen ihr Leben im Krieg zum Wohle ihres Landes riskieren oder einen Impfstoff nehmen sollten, der ein gewisses Risiko birgt, weil er für die Herdenimmunität notwendig ist.

In diesem Aufsatz werde ich nicht argumentieren, dass der Einzelne das Recht hat, egoistisch zu sein und sich zu entscheiden, keine persönlichen Opfer für das vermeintliche Wohl anderer zu bringen. Das ist nicht der Grund, warum wir die individuelle Verantwortung über das Gemeinwohl stellen sollten. Wir schätzen die individuelle Verantwortung, denn wenn der Einzelne gezwungen, genötigt oder bestochen wird, Opfer für das Gemeinwohl zu bringen, besteht die große Gefahr, dass die Instanz, die die Macht hat, die Politik zu bestimmen, diese Macht zum Schaden einsetzen könnte, unabsichtlich oder absichtlich.

Wenn man dem Einzelnen Verantwortung zugesteht, wird zumindest mehr Verstand auf die Probleme verwendet und es gibt mehr Möglichkeiten, gute Lösungen zu finden. Wollen wir wirklich einen Krieg führen? Sind Impfstoffe wirklich sicher und wirksam? Außerdem bleiben die Fehler, die ein Einzelner machen kann, meist auf einen kleinen Kreis beschränkt. Die Fehler, die ein politischer Entscheidungsträger macht, betreffen die gesamte Bevölkerung.

Nach einem dreijährigen Alptraum, in dem Fehler nicht gemacht wurden – um auf Margaret Anna Alices Gedicht mit diesem Titel zu verweisen, in dem sie die „Philanthropen“ und andere führende Persönlichkeiten der vorsätzlichen Demokratie beschuldigt – sollten wir skeptisch gegenüber allen „Ethikern“ sein, die von uns weitere Opfer verlangen, um die Vorstellungen der politischen Entscheidungsträger von einem höheren Gut zu fördern. Was C0vlD betrifft, so zeichnet sich ein Konsens darüber ab, dass sie alles falsch gemacht haben: die Abriegelungen, die Maskierung und Isolierung, die Vorenthaltung einer frühzeitigen Behandlung und wiederverwendeter Medikamente sowie die Förderung eines experimentellen Impfstoffs.

In letzter Zeit hören wir viel über die Notwendigkeit, die Menschenrechte neu zu definieren, da sich die gesellschaftliche Landschaft an neue Technologien anpasst, die das Menschsein verändern. Es wird behauptet, dass eine neue „Transhumanismus-Ethik“ erforderlich ist, um uns vor den Gefahren von Hackern oder Regierungen und Unternehmen zu schützen, die möglicherweise KI einsetzen wollen, um unsere Gedanken zu lesen und unseren Verstand zu kontrollieren.

Ienca und Andorno, die Autoren des Buches „Towards a New Human Rights in the Age of Neuroscience and Neurotechnology“, weisen darauf hin, wie viele Informationen über Internetnutzer bereits jetzt gesammelt werden, und sie gehen davon aus, dass die neue Technologie auch Daten über das Gehirn sammeln wird. Dies sind die Arten von ethischen Überlegungen, die sie anstellen:

„Zu welchen Zwecken und unter welchen Bedingungen dürfen Informationen über das Gehirn gesammelt und verwendet werden? Welche Bestandteile von Hirndaten dürfen rechtmäßig weitergegeben und anderen zugänglich gemacht werden? Wer ist berechtigt, auf diese Daten zuzugreifen (Arbeitgeber, Versicherungen, Staat)? Wo sollten die Grenzen der Einwilligung in diesem Bereich liegen?“

Sie erwähnen nicht einmal das offensichtlichere Argument, dass jede Online-Datenerfassung als Verletzung der Privatsphäre angesehen werden könnte. Seltsamerweise ist das erste Recht, das sie in diesem Papier erörtern, das Recht des Einzelnen, sich für die Nutzung neuer Neurotechnologien zu entscheiden. In ihren Diskussionen wird auch davon ausgegangen, dass die neuen Technologien das tun, wofür sie angepriesen werden. Es gibt keine Diskussionen über die Notwendigkeit von Langzeitstudien oder Tests für mögliche Fehler der Technologie. Wir sollten uns daran erinnern, dass die Notfallgenehmigung für den C0vld-Impfstoff damit begründet wurde, dass die Menschen das Recht haben sollten, ungetestete Technologien zu verwenden, wenn sie wollen.

In ihrer Diskussion über die Neurorechte, die in Chile vorangetrieben werden, stellt Whitney Webb fest, dass die Armen und Entrechteten in der Schlange der Freiwilligen für die BMI-Studie nach vorne gedrängt werden.

Ich bin der Meinung, dass Erwachsene die Möglichkeit haben sollten, sich für neue, möglicherweise gefährliche Therapien zu entscheiden, sich Doppel-D-Brustimplantate einsetzen zu lassen, Selbstmord zu begehen, Heroin zu nehmen, als Prostituierte zu arbeiten oder sich zu kastrieren, wenn sie sich freiwillig dafür entscheiden. Aber ich glaube nicht, dass es ethisch vertretbar ist, jemanden zu ermutigen oder zu befähigen, sich selbst zu verletzen. Eine ethische Gesellschaft versucht im Allgemeinen, den Menschen zu zeigen, dass sie auch andere Möglichkeiten haben. Wir wollen die Menschen nicht dazu ermutigen, Risiken einzugehen, schon gar nicht unnötige Risiken.

Ienca und Andorno informieren uns auch, dass…

„Die meisten Menschenrechte, darunter auch das Recht auf Privatsphäre, sind relativ in dem Sinne, dass sie unter bestimmten Umständen eingeschränkt werden können, vorausgesetzt, einige Einschränkungen sind notwendig und stehen in einem angemessenen Verhältnis zur Erreichung eines legitimen Zwecks. In der Europäischen Menschenrechtskonvention, die sich speziell mit dem Recht auf Privatsphäre befasst, heißt es, dass dieses Recht einige Einschränkungen „zur Verhütung von Unruhen oder Verbrechen, zum Schutz der Gesundheit oder der Moral oder zum Schutz der Rechte und Freiheiten anderer“ zulässt (Art. 8, Abs. 2).“

Das hört sich so an, als hätten die Europäer keine Rechte auf Privatsphäre, sondern Privilegien, die ihnen jederzeit entzogen werden können, wenn der Staat es für nötig hält.

Es ist bekannt, dass der Milliardär Elon Musk, der seine Ansprüche auf Libertarismus aufgegeben hat, staatliche Regulierungen für KI fordert, während er seine invasive Neuralink-KI-Technologie anpreist, die irreversibel in menschliche Gehirne implantiert werden soll, um sie zu lesen. Bislang haben sich die Testprimaten nicht so gut geschlagen, und die Show & Tell im Herbst 2022 war äußerst enttäuschend. Ein Problem von vielen war, dass sich die Gehirnwellenmuster der Primaten für einen bestimmten Buchstaben, den die KI an einem Tag gelernt hatte, fünf oder sechs Tage später in ein anderes Muster verwandelten.

Schon Heraklit wusste, dass wir nie zweimal in denselben Fluss steigen. Alle biologischen Prozesse sind dynamisch und ständig im Fluss, insbesondere emergente Gehirnströme; sie müssen es sein, weil die Welt es auch ist. Lebewesen müssen sich ständig verändern, nur um mehr oder weniger gleich zu bleiben. Computeralgorithmen, nicht einmal Deep Learning, sind nicht so plastisch wie Hirnströme.

Seit der Zeit dieser schaurigen Show & Tell wurde Neuralink die Erlaubnis verweigert, sich an menschlichen Probanden zu vergreifen – vorerst. Aber ich bezweifle, dass dies verhindern wird, dass das schlechte Geld, das in diese Technologie geflossen ist, mehr gutes Geld anzieht. Die Investoren müssen erst einmal ihr Geld zurückbekommen, bevor sie das Unternehmen abstoßen. Die FDA wird schon noch auftauchen.

Ich habe nichts gegen technologischen Fortschritt, der Menschen hilft, Schwierigkeiten zu überwinden. Bionische Arme sind großartig, und selbst die Regeneration von Gliedmaßen klingt nach einer großartigen Idee, die man vorsichtig verfolgen sollte. Aber irgendetwas stimmt nicht mit dieser Diskussion über BMI-Technologien und Neurorechte.

In diesem Jahr hat Nita Farahany, Professorin für Recht und Philosophie und selbsternannte Neuroethikerin an der Duke University, für ihr neues Buch „The Battle for Your Brain: Defending the Right to Think Freely in the Age of Neurotechnology“ (Der Kampf um Ihr Gehirn: Die Verteidigung des Rechts auf freies Denken im Zeitalter der Neurotechnologie), das nichts dergleichen verteidigt. In diesem Buch gibt sie den Menschen keine Anleitung, wie sie die besten ethischen Entscheidungen für sich und ihre Familien treffen können. Sie versucht, ethische Normen zu verkaufen, die uns allen aufgezwungen werden sollen.

In ihrem Buch und in einem Vortrag auf einem Treffen des Weltwirtschaftsforums in Davos äußert sich Farahany mit gespaltener Zunge. Während sie beispielsweise anfangs die Idee der geistigen Privatsphäre und der „kognitiven Freiheit“ verteidigt (Oh, Mann, müssen denn immer so umständliche neue Begriffe erfunden werden?), räumt sie schnell ein, dass es sich dabei nicht um ein absolutes Recht handelt – denn schließlich gehört es zu den grundlegendsten Dingen, die wir als Menschen tun, zu versuchen zu verstehen, was unsere Mitmenschen denken. Wir müssen, so Farahany, ein Gleichgewicht zwischen den Interessen des Einzelnen und der Gesellschaft finden. Das bedeutet, dass die Entscheidung darüber, welche Rechte man aufgeben muss, bei den politischen Entscheidungsträgern liegt.

So hält sie es beispielsweise für eine gute Idee, Lkw-Fahrer dazu zu verpflichten, EEG-Geräte zur Überwachung der Müdigkeit zu tragen – zum Wohle der Allgemeinheit. Wenn sie am Steuer einschlafen, könnten sie möglicherweise fünf oder sechs Menschen töten. Darf ich stattdessen vorschlagen, dass Lkw-Fahrer für ihre Arbeit angemessen bezahlt werden, damit sie nicht länger als acht Stunden pro Tag fahren wollen? Oder können wir unseren politischen Vertretern vorschreiben, dass sie sich einer ständigen Überwachung all ihrer E-Mails, Telefonate und sogar persönlichen Gespräche unterziehen? Denn ihre Entscheidungen könnten möglicherweise Millionen von Menschen das Leben kosten.

Farahany lobt persönliche Geräte, die biologische Daten überwachen, für ihr Potenzial, Arbeitnehmern quantitative Daten über ihre Leistung zu liefern, so dass sie „informierte Selbstverbesserungen“ vornehmen können. Die Tatsache, dass FitBits so beliebt sind, deutet ihrer Meinung nach darauf hin, dass die Menschen begeistert sind, überwacht und bewertet zu werden. Aber ich bin mir ziemlich sicher, dass die Lagerarbeiter von Amazon nicht nach Neurofeedback-Geräten verlangen, die ihnen helfen, für die Aktionäre profitabler zu sein.

Eine erzwungene Überwachung und eine gefälschte quantitative Bewertung sind meiner Meinung nach unethisch.

Farahany räumt ein, dass eine solche Überwachung freiwillig sein sollte, und glaubt, dass die Mitarbeiter diese Geräte zur Selbstverbesserung annehmen werden. Ähnlich verhält es sich heute mit der Autoversicherung: Die Leute bekommen niedrigere Tarife, wenn sie sich bereit erklären, beim Fahren überwacht zu werden. Aber wann immer eine Belohnung für die Preisgabe der Privatsphäre angeboten wird, ist das nicht ethisch. Es ist ein Zwang. Die Armen werden sich eher fügen als die Wohlhabenden.

Ist die Überwachung der Leistung von Mitarbeitern überhaupt hilfreich?

Wie Yagmur Denizhan in „Simulierte Bildung und illusorische Technologien“ argumentiert, konzentrieren sich die Gerissenen schnell darauf, das System so zu manipulieren, dass sie mit weniger Aufwand und geringerer Arbeitsqualität mehr Punkte sammeln können, wenn sie in Situationen geraten, in denen sie nach den erreichten Punkten und nicht nach einer allgemeineren und ganzheitlichen qualitativen Bewertung beurteilt werden. Farahany stellt jedoch nie die Annahme in Frage, dass es sich positiv auf die Produktivität auswirkt, wenn Mitarbeiter negatives und positives Feedback erhalten.

In der Zwischenzeit wird die Propaganda, die Angst macht, immer stärker und schneller.

Ich habe die in diesem Vox-Artikel erwähnte Forschung nachgeschlagen. Das Facebook-Projekt findet an der Universität von Kalifornien in San Francisco statt. An der Studie nahmen drei Teilnehmer teil, denen im Rahmen der Vorbereitung auf neurochirurgische Eingriffe zur Behandlung von Krampfanfällen bereits Elektroden ins Gehirn implantiert worden waren.

Um ihren Algorithmus zum Gedankenlesen zu entwickeln, mussten die Wissenschaftler die KI trainieren, was sie dank des Implantats, das ihnen ein Bild der Gehirnmuster lieferte, tun konnten. Sie stellten den Patienten Fragen und modellierten deren Antwortmuster mithilfe der KI. In diesem Experiment war der Kontext der Gedanken genau definiert. So wurden die Probanden beispielsweise gefragt: „Wie ist Ihr Zimmer?“, und sie hatten nur begrenzte Antwortmöglichkeiten wie „kalt“, „heiß“ oder „gut“.

Nachdem ich über diese angeblichen technischen Wunder gelesen habe, scheint mir die Behauptung, dass diese neue Schnittstelle „Gedanken direkt von Ihren Neuronen ablesen und in Worte übersetzen“ kann, etwas übertrieben. Die Versuchspersonen hatten Elektroden im Kopf, und die Genauigkeit der KI lag bei intensivem, gezieltem Training bestenfalls bei 60 %.

Das halbe Dutzend Neuroethiker, das ich zur Vorbereitung dieses Aufsatzes gelesen habe, darunter auch Farahany, beharren darauf, dass es bereits Technologien gibt, die in der Lage sind, unsere Gedanken zu entschlüsseln und zu steuern. Als Beispiele nennen sie EEG, fMRI und Tiefenhirnstimulation. Ich bin ihren Links zu Dutzenden von Studien gefolgt und habe dann die zitierten Studien gelesen, als wäre ich auf einer Schnitzeljagd, und ich war immer wieder von den tatsächlichen Ergebnissen enttäuscht.

Mit einem EEG-Gerät kann man Muster aufzeichnen, die, wenn sie entschlüsselt werden, Aufschluss über den emotionalen Zustand der Testperson geben können. Erfassen Sie Gamma- oder Alphawellen? Ist die Testperson konzentriert oder in einem Traumzustand, ängstlich oder entspannt?

In ihrem oben erwähnten WEF-Vortrag zeigt Farahany diese Grafik mit verschiedenen Gesichtern, um die verschiedenen emotionalen Zustände zu veranschaulichen, die ein EEG-Gerät erkennen könnte. Warum sollte man nicht einfach in das Gesicht der Person schauen, um ihre Emotionen zu erkennen? Weil Menschen, wie Winston Smith, versuchen könnten, ihre Gefühle zu verbergen, und unsere Oligarchen das nicht wollen?

EEGs können keine Gedanken lesen. Das ist ein Hype, vielleicht um Investitionen anzulocken. Das ist meine am wenigsten zynische Vermutung über ihre Beweggründe. Ich glaube, die Forschungs- und Entwicklungsabteilungen hoffen, dass sie – wenn sie die Leute dazu bringen können, EEG-Geräte zu tragen, während sie online sind, und auch aufzeichnen können, welche Art von Aufgaben sie ausführen – mit Hilfe von KI beginnen können, Aufgaben mit EEG-Mustern abzugleichen. Viel Glück dabei. Als nicht-invasives Gerät zur Erfassung von Gehirnmustern liefert das EEG keine guten Daten. Man kann einfach nicht viel daraus ableiten.

Werfen wir einen Blick auf die fMRI. Das ist ein sehr spezielles Gerät, das nur in Krankenhäusern zu finden ist, und eine Überbeanspruchung birgt einige Risiken in sich. Im Moment ist es das einzige Instrument, mit dem man die Gehirnaktivität in 3D betrachten kann (ein Mikroschnitt nach dem anderen), um ein Gefühl für die Muster zu bekommen, die Ihr Gehirn erzeugt, wenn Sie über bestimmte Dinge nachdenken oder bestimmte Aufgaben erledigen.

In einer Studie von Haynes et al. aus dem Jahr 2007 mit dem Titel „Reading Hidden Intentions in the Human Brain“, die von Neuroethikern immer noch häufig zitiert wird, setzten die Forscher acht Probanden in fMRT-Geräte und zeichneten die Veränderungen in den Gehirnmustern auf, als ihnen zwei Zahlen vorgelegt wurden und sie entscheiden sollten, ob sie sie addieren oder subtrahieren sollten. Als sie sich für eine der beiden Operationen entschieden, wurden die Gehirnmuster von der KI analysiert, bis sie einen Unterschied zwischen den Entscheidungen feststellte. Nach dieser Trainingszeit testeten die Forscher ihr KI-Modell. Sie waren in der Lage zu erkennen, welche Entscheidung die Versuchspersonen getroffen hatten, nämlich ob sie addieren oder subtrahieren wollten, und zwar mit einer Genauigkeit, die etwa 20 % besser war als eine zufällige Schätzung.

Wohlgemerkt in einer Situation, in der alle anderen möglichen Gedanken und Entscheidungen absichtlich unterdrückt wurden und die Versuchspersonen sich nur auf eine einfache Entscheidung konzentrierten. 20 % besser als der Zufall beeindruckt mich nicht, vor allem angesichts der hochgradig künstlichen Umstände. Da wir keine sichere Möglichkeit haben, die Gedanken von Menschen den ganzen Tag zu überwachen, um KI zu trainieren, und die meisten von uns nicht viel Zeit in fMRI-Geräten verbringen, würde ich sagen, dass wir vor der Gefahr des Gedankenlesens ziemlich sicher sind, zumindest im Moment.

Werfen wir einen Blick auf die Tiefe Hirnstimulation.

Die DBS wird vor allem zur Behandlung von motorischen Krankheiten wie der Parkinson-Krankheit eingesetzt. Dabei werden elektrische Impulse tief in das Gehirn gesendet, und die Forscher versuchen, es so zu gestalten, dass der Patient die Menge und den Zeitpunkt der Impulse verändern kann. Es gibt einige Anzeichen dafür, dass dies etwas bewirken könnte. Die DBS wird auch zur Behandlung von Zwangsstörungen, Depressionen, Sucht und Schmerzen untersucht. Wie die Michael J. Fox Foundation for Parkinson’s Research warnt, kann die DBS zwar einige Krankheiten teilweise lindern, doch zu den Nebenwirkungen gehören Denk- und Gedächtnisprobleme.

Mit diesem Gerät wird eine alte Herzschrittmachertechnologie wiederverwendet. Der Monitor in der Abbildung oben wird tatsächlich in den Körper der Person implantiert. Das Kabel verläuft im Nacken, und die Elektrode ist wie ein mit Polyurethan beschichteter Nagel, der zu Entzündungen neigt. Bei der Lektüre dieses Berichts aus dem Jahr 2020 in Nature Neurology wurde mir klar, dass die Wirksamkeit der DBS schwer zu beurteilen ist. Die genaue Platzierung der Elektrode ist von entscheidender Bedeutung, aber schwer zu bestimmen, und der Wirkungsmechanismus, falls es einen Nutzen gibt, ist nicht gut verstanden. Ich habe nicht den Eindruck, dass dieses invasive Gerät einen bioethischen Prüfungsausschuss hätte passieren müssen.

Ich habe den Eindruck, dass es sich bei dieser Technologie in erster Linie um ein Untersuchungs- und Versuchsgerät handelt. Eine Ausweitung ihrer Anwendungen über den Einsatz bei älteren Menschen mit schwerer Parkinson-Krankheit hinaus scheint nicht gerechtfertigt. In dieser Übersichtsarbeit wurden keine dieser ethischen Bedenken geäußert. Es wird jedoch erwähnt, dass BDS-Geräte der nächsten Generation so konzipiert sind, dass sie über WiFi gesteuert werden können, so dass die Patienten nicht mehr auf dieses schreckliche Monitorimplantat angewiesen sind. Dies macht die Patienten jedoch anfällig für „Brainjacking“, und Hacker könnten emotionale Zustände manipulieren.

Bleibt zu hoffen, dass die neue drahtlose Form der DBS nicht nur zur Behandlung von Depressionen oder Zwangsstörungen eingesetzt wird.

Es scheint also nicht wahr zu sein, dass wir kurz davor stehen, eine Technologie zu entwickeln, die es Menschen ermöglicht, unsere Gedanken zu lesen, oder die es KI erlaubt, unsere Gedanken zu kontrollieren. So weit sind wir noch nicht. Nicht einmal annähernd. Es stellt sich also die Frage: Warum setzen sich diese Ethiker für neue Richtlinien für nicht existierende Bedrohungen ein? Warum sprechen sie nicht über den Schutz des Einzelnen vor der bereits bestehenden Gefahr des Verlusts der Privatsphäre im Internet?

Ich befürchte, dass die BMI aus ähnlichen Gründen vorangetrieben wird wie die Einführung des experimentellen Impfstoffs. Die Forscher wollten Gentherapietechniken an einer großen Bevölkerungsgruppe testen, um diesen Bereich voranzubringen.

Ich denke, dass die Öffentlichkeit ebenfalls darauf vorbereitet wird, BMI zu testen, um diesen Bereich voranzubringen. Wie könnte man einen solchen Plan gutheißen? Selbst wenn es zum Wohle der Menschheit wäre, in die transhumane Zukunft vorzustoßen, wollen wir dann viele Menschen ohne vollständige, informierte Zustimmung opfern, um dorthin zu gelangen?

Leider wird die „Ethik“ heute von den Mächtigen bestimmt und den Menschen aufgezwungen. Was wäre, wenn stattdessen der Einzelne das Recht und die Verantwortung hätte, alle ethischen Entscheidungen zu treffen und die Konsequenzen zu tragen oder den Nutzen zu ernten? Ich habe nicht so viele Meinungen darüber geäußert, ob diese oder jene Handlung ethisch ist oder nicht. Ich habe mich vor allem auf die Idee konzentriert, dass ethische Entscheidungen, bei denen es darum geht, was der Einzelne zu riskieren bereit ist, niemals von anderen, wichtigeren Menschen aufgezwungen werden sollten.

In der Tat beginne ich, alle so genannten „Regulierungen“ durch staatliche Stellen in Frage zu stellen. Es hat den Anschein, dass alle ethischen Richtlinien und Sicherheitsvorschriften „zum Wohle der Allgemeinheit“ nur dazu dienen, potenziellen Schaden für den Einzelnen zum Nutzen einiger weniger zu legalisieren.

Ähnliche Nachrichten