Der Plan von Bill Gates und seinen Freunden, KI in den öffentlichen Dienst zu integrieren
Öffentliche Dienste erhalten ein technisches Upgrade, dem sich niemand entziehen kann.
Christina Maas
Es gibt nichts Besseres als eine neue Runde von Milliardären, um den Sozialdienstleistungssektor zu beleben. Der jüngste Kreuzzug trägt einen glänzenden Namen (NextLadder Ventures), ein milliardenschweres Preisschild und den unverkennbaren Geruch des philanthropischen Industriekomplexes von Bill Gates.
Diesmal geht es nicht um Impfstoffe, Bildungstechnologie oder den Versuch, die Sonne zu verdunkeln. Es geht um den Einsatz künstlicher Intelligenz im öffentlichen Sektor, angefangen bei Bewährungshelfern und Sozialarbeitern. Was Amerikas unterfinanzierte Mitarbeiter an vorderster Front dringend brauchen, ist nach Ansicht der Leute, die noch nie einen Fuß in ein öffentliches Wohnungsamt gesetzt haben, eine von Bill Gates unterstützte KI.
Der neue Plan sieht vor, das Chaos mit künstlicher Intelligenz zu übertünchen und es Transformation zu nennen. In den nächsten fünfzehn Jahren werden die Gates Foundation, die Ballmer Group, der Hedgefonds-Magnat John Overdeck und die Valhalla Foundation eine Milliarde Dollar in „wirkungsorientierte“ gemeinnützige Organisationen und Unternehmen stecken.
Philanthropisches Pitchdeck für überlastete Ämter
Der offizielle Zweck? Den Dienstleistern zu helfen, die Armen effizienter zu unterstützen. Das inoffizielle Ziel? Ein weiterer goldener Stern in Gates‘ Buch der technokratischen Interventionen.
Brian Hooks, CEO von Stand Together, tat sein Bestes, um die Bemühungen als basisnah zu verkaufen. „Die Lösungen, in die wir investieren, die Hunderte von Unternehmern, die Lösungen mit Spitzentechnologien vorlegen werden, werden dies an der Seite von Menschen tun, die einige der Schwierigkeiten in der Wirtschaft durchleben“, sagte er.
Die Spezialität der Gates-Stiftung war es noch nie, den Menschen in der Wirtschaft zuzuhören. Sie hat Dinge aus der Ferne „skaliert“, sei es Common Core in Schulen, gescheiterte Bildungsexperimente in Afrika oder die Umwandlung des öffentlichen Gesundheitswesens in eine KPI-Tabelle. Jetzt, mit NextLadder, bekommen wir dasselbe aufgewärmte Pitchdeck von Beratern, das sich an überlastete Bewährungshelfer richtet.
Von Bildung zu Überwachung: Das technokratische Muster
Jahrelang hat die Gates-Stiftung öffentliche Systeme wie Sandkastenmodelle für Interventionen aus der Tech-Welt behandelt. Zuerst waren es Software und standardisierte Tests für Lehrer. Dann war es die Geokartierung von Krankheitsausbrüchen. Jetzt geht es um KI für den sozialen Zusammenbruch. Der rote Faden? Unabhängig vom Kontext besteht die Lösung immer in einem Tool, das mehr Daten, eine App und ein Dashboard bereitstellt.
Und da kein Gates-nahes Projekt ohne eine vage strukturelle Fantasie vollständig ist, überspringt NextLadder den üblichen Weg der Denkfabrik und geht voll auf Hybrid: ein philanthropischer Investment-Hybrid mit einem Vorstand, der aus Vertretern der Geber und drei „unabhängigen“ Mitgliedern besteht, als ob die Unabhängigkeit eines Vorstands, der mit Geld der Gates-Stiftung gespickt ist, außerhalb des eigenen Jahresberichts ernst genommen werden könnte.
Investorenphantasie mit sozialem Anstrich
Kevin Bromer von der Ballmer Group, der ebenfalls dem Vorstand angehört, lieferte den offiziellen Gründungsmythos. „Als wir uns darüber austauschten, in welche Bereiche wir investierten und wo wir Lücken in der Branche sahen, wurde schnell klar, dass es eine echte Chance gab, sich als Gruppe von Geldgebern und Mitbegründern zusammenzuschließen und eine neue Art von Investitionsorganisation zu gründen“, sagte er.
Sicher, sie sahen eine „Lücke“. Genauso wie Walmart „Lücken“ in der Infrastruktur des öffentlichen Nahverkehrs sieht, bevor es einen Mitarbeiter-Shuttle einführt. Was sie wirklich sahen, war eine Spielwiese. Eine Chance, künstliche Intelligenz auf bürokratisches Versagen zu legen, ohne das Risiko, mit der ganzen Presse und mit genug Zeit, um eine Grundsatzrede in Davos zu halten.
Man sagt uns, das Ziel sei es, menschliche Arbeitskräfte zu unterstützen, nicht zu ersetzen. Die finanzierten Instrumente könnten Dienste wie die Katastrophenhilfe oder die Bearbeitung von Bewährungsanträgen rationalisieren. Sie könnten Pflichtverteidigern helfen, Stunden an Papierkram einzusparen. Die Betonung liegt auf „könnten“, denn niemand der Beteiligten ist wirklich in der Lage, etwas anderes zu garantieren als einige KI-gestützte Workflow-Lösungen und einen LinkedIn-Post über „menschenzentriertes Design“.
Ignorierte Probleme, neue Überwachung
Was garantiert ist, ist, dass niemand die grundlegenden Probleme anpackt: stagnierende Budgets, endloser Papierkram, der durch schlechte Politik entstanden ist, und die bewusste politische Entscheidung, die Sozialsysteme unterfinanziert und chaotisch zu halten. Warum sollte man diese Probleme angehen, wenn man ein paar vorausschauende Analysen in den Mix werfen und den Erfolg verkünden kann?
Das ist seit Jahren die Vorgehensweise von Gates. Umgehen Sie demokratische Institutionen. Finden Sie eine Abkürzung durch die Technik. Wenn die Ergebnisse eintrudeln, die in der Regel enttäuschend und manchmal sogar schädlich sind, ist die Stiftung bereits zu ihrem nächsten Akt der hochgradig überzeugenden Einmischung übergegangen.
NextLadder Ventures, der philanthropische Liebling einer Koalition von Milliardären, die SimCity mit realen Institutionen spielen, wird von keinem Geringeren als Ryan Rippel geleitet, der früher für das Programm für wirtschaftliche Mobilität der Gates Foundation zuständig war. Das ist dieselbe Organisation, die jahrelang an der Aufwärtsmobilität gearbeitet hat, als sei sie ein UX-Problem und nicht das Ergebnis jahrzehntelanger Politik.
Jetzt darf Rippel den Betatest für philanthropische KI im Bereich der menschlichen Dienstleistungen durchführen.
Claude, Fruchterman und der Mythos der Hilfe
Die tatsächliche Struktur dieses neuesten „Unternehmens“ ist noch ein Rätsel. Sie sind noch dabei zu klären, wer welche Befugnisse erhält und wie sie es schaffen, nicht wie eine Private-Equity-Firma auszusehen. Aber sie wiederholen immer wieder, dass alle finanziellen Erträge in „zusätzliche Projekte“ reinvestiert werden sollen.
Um dem Ganzen einen Hauch von Moral zu verleihen, haben sie Jim Fruchterman, den langjährigen „Tech-for-Good“-Mann und Gründer von Tech Matters, hinzugezogen, um eine sanfte Unterstützung zu bieten. Fruchterman wiederholte den Refrain, dass es darum geht, Arbeitnehmern zu helfen, nicht sie zu ersetzen. „Im Non-Profit-Sektor geht es darum, dass Menschen Menschen helfen“, sagte er. „Und wenn wir, anstatt armen oder bedürftigen Menschen die KI aufzudrängen, sagen: ‚Hey, du bist ein Mitarbeiter an vorderster Front. Was ist der beschissenste Teil deines Jobs, der am wenigsten produktiv ist?‘ Und sie werden es dir sagen, und wenn du daran arbeitest, wirst du wahrscheinlich erfolgreicher sein.“
Claude & Co.: Die KI-Offensive beginnt
Um diese Sache auf den Weg zu bringen, geht NextLadder eine Partnerschaft mit Anthropic ein, dem Unternehmen hinter dem großen Sprachmodell Claude. Claude übernimmt in diesem Fall die KI-Arbeit, während Anthropic jährlich 1,5 Millionen Dollar zur Unterstützung der Partnerschaft bereitstellt, was in etwa den Kosten einer mittelmäßigen Lobby-Kampagne in Washington entspricht.
Elizabeth Kelly, Leiterin des Anthropic-Teams für „nützliche Implementierungen“, sagte mit ernster Miene: „Wir wollen den Zuschussempfängern bei der Nutzung von Claude mit der gleichen Sorgfalt und dem gleichen Engagement zur Seite stehen, wie wir es bei unseren größten Unternehmenskunden tun.“
In der Zwischenzeit ist Hooks mit seiner Predigt über katalytisches Kapital zurück. „Wenn wir erfolgreich sind, wird dies das erste Kapital sein, das zeigt, was möglich ist“, sagte er und spielte die Rolle des Marktflüsterers, der Bewährungshilfe und Sozialämter behutsam in die KI einführt, als wären sie technikbegeisterte Investoren und keine kaputten, überlasteten Anhängsel der Regierung.
Der Mythos vom harmlosen Pilotversuch
Doch die Vorstellung, es handele sich um einen harmlosen Pilotversuch, ist reine Fantasie. Der Einsatz von KI in sozial sensiblen Kontexten hat bereits eine Erfolgsbilanz, und die ist nicht gerade inspirierend. Es gibt Algorithmen im Gerichtssaal, die Rückfälligkeit mit all den Nuancen eines BuzzFeed-Quiz vorhersagen. Gesichtserkennungssysteme, die ohne Zustimmung in Wohnprojekten eingesetzt werden. Es ist die digitale Triage in Sozialämtern, die „verdächtige“ Antragsteller schneller kennzeichnet, als man Voreingenommenheit sagen kann.
Öffentliche Einrichtungen verfügen bereits über die Zutaten für eine Rund-um-die-Uhr-Überwachung: Sozialleistungsakten, Schulakten, Wohnungsinspektionen und Aufzeichnungen der Kinderfürsorge. Wenn man diese in eine KI-Pipeline einbindet, die Gesichtserkennung, Nummernschildverfolgung und Social Media Scraping miteinander verknüpft, erhält man eine Überwachungsarchitektur, die so vollständig ist, dass sie kaum noch Menschen braucht. Sie brauchen keinen Richter. Sie brauchen keinen hinreichenden Verdacht. Sie brauchen nur einen Anomalie-Score. Und Sie brauchen es nicht einmal Überwachung zu nennen. Nennen Sie es einfach „Unterstützung“.
Vom Scoring zum Ausschluss
Der eigentliche Trick ist eine schleichende Funktion. Sammeln Sie Daten, um die Berechtigung für Lebensmittelmarken zu bestimmen, und leiten Sie sie dann unauffällig in ein Betrugserkennungssystem um. Oder in einen Algorithmus zur Priorisierung von Wohnungen. Oder ein vorausschauendes Polizeimodell, das jemanden als „hohes Risiko“ einstuft, weil er drei Termine versäumt hat und in einer Postleitzahl mit ungünstiger Kriminalitätsentwicklung wohnt. Es gibt keine Firewall zwischen den Behörden, keine harte Grenze für die Wiederverwendung.
Sobald die Daten digitalisiert sind, werden sie weiterverteilt, und das ist auch gut so.
Die Sprache, die verwendet wird, um diesen Diebstahl abzumildern, ist „Anonymisierung“. Es heißt: Wir speichern nicht Ihren Namen, sondern nur Muster. Aber KI braucht Ihren Namen nicht. Geben Sie ihr Ihren Aufenthaltsort, Ihre Krankenhausbesuche, Ihre Schulakten, und sie wird Ihre Identität schneller rekonstruieren als die Betrugsabteilung Ihrer Bank. Der Mythos der Anonymität ist der Marketingplan. Was es liefert, ist ein System, das immer weiß, wer Sie sind, auch wenn es behauptet, dass es das nicht weiß.
Dann kommt der Teil, in dem die KI die Entscheidung trifft. Modelle, die auf den Daten der letzten zehn Jahre von Strafrechtsfällen trainiert wurden, werden nicht zu unparteiischen Helfern. Sie werden zu voreingenommenen Vollstreckern, die sich als neutrale Werkzeuge tarnen.
Und wenn diese Systeme einmal eingebettet sind, verschwinden sie nicht einfach so. Sie werden zur neuen Normalität. Servicemitarbeiter beginnen, sich an den Ergebnissen des Modells zu orientieren. Agenturen richten ihre Arbeitsabläufe nach den Flaggen des Modells aus. Richter zitieren seine Vorhersagen. Die Bürokratie beginnt, ihre Eingeweide auszulagern.
Und wann geht es schief? Es gibt keine Lösung. Der Fehler eines Sachbearbeiters wird überprüft. Der Fehler eines Systems nicht. Das Claude-Modell weist jemanden auf eine „Musterabweichung“ hin, und seine SNAP-Leistungen werden auf unbestimmte Zeit pausiert. Keiner kann erklären, warum.
Daten, Macht und Kontrolle
In der Zwischenzeit bleiben die Daten nicht nur dort liegen. Sie zirkulieren. Und wachsen. Zentralisierte Systeme waren schon immer ein Köder für Hacker, aber wenn man sie mit KI verbindet, vervielfacht sich der Jackpot. Medizinische Daten, Strafregister, biometrische Daten, psychologische Gutachten – alles wird abgegriffen, gespeichert und möglicherweise geknackt. Das kann man nicht rückgängig machen. Man kann eine traumatische Geschichte nicht wieder in den Tresorraum zurückbringen.
Die Sicherheitsversprechen von Anthropic und seinen Mitstreitern bleiben ungetestet, und die Risiken sind alles andere als hypothetisch.
Suzy Madigan von Care International UK spricht aus, was die meisten dieser Initiativen geflissentlich vermeiden: dass KI, selbst mit den besten Absichten, die Ungleichheit verstärken kann. „Die Zunahme des Einsatzes künstlicher Intelligenz in sensibleren Kontexten wirft einige wirklich wichtige neue ethische und Governance-Fragen auf, weil sie die zunehmenden Ungleichheiten tatsächlich verschärfen kann, selbst wenn dahinter gute Absichten stehen“, sagte sie.
Menschliche Not als Trainingsmaterial
Die Arbeit im öffentlichen Dienst ist chaotisch, menschlich und voller Informationen, die niemals in ein ungeprüftes Drittanbietermodell einfließen sollten. Wir sprechen hier von Zwangsräumungen, psychiatrischen Notizen, Missbrauchsakten und Bewährungsprotokollen. Dies sind die Arten von Aufzeichnungen, die Diskretion erfordern, nicht die algorithmische Verarbeitung durch ein Technologieunternehmen, das sich als moralische Instanz ausgibt.
Der Einsatz von KI in der Katastrophenhilfe, der Kinderfürsorge oder der Rechtsverteidigung ist nicht mit der Einführung einer Haushaltsplanungs-App vergleichbar. Es bedarf klarer Standards für Fairness, externer Prüfungen, Möglichkeiten der öffentlichen Anfechtung und Echtzeit-Rechtsmittel, wenn die Werkzeuge unweigerlich versagen. Nichts von alledem ist hier vorhanden.
Es gibt keine veröffentlichten Ethikprotokolle. Keine Transparenz über die Ausbildung der Modelle. Kein Gremium aus unabhängigen Prüfern. Nur eine Gruppe von Geldgebern mit privaten Interessen und ein Startup, das seinen eigenen Investoren gegenüber Rechenschaft ablegt. Sie alle versprechen, dass der Algorithmus hier helfen wird.
Die immer gleiche Taktik
Die Gates-Stiftung hat diesen Tanz schon einmal aufgeführt. Mit Monsanto. Mit Common Core. Mit Impfstoffen, die in Ländern eingesetzt werden, die bei der Einführung nicht konsultiert wurden. Ihr Modell ist es, schnell zu handeln, viel Geld zu investieren und den Kurs später zu korrigieren, wenn überhaupt. Und jetzt machen sie es mit KI.
Anthropic bietet sein Claude-Modell als einzigen KI-Anbieter für NextLadder an. Diese Ein-Anbieter-Konstellation mag dem Lenkungsausschuss Zeit sparen, aber sie macht eine ohnehin schon sensible Initiative zu einer einzigen Schwachstelle. Ein Fehler, eine Voreingenommenheit, ein Verstoß, und die privaten Daten gefährdeter Personen werden zum Kollateralschaden in einem weiteren gut gemeinten Pilotprogramm, bei dem vergessen wurde, eine Firewall zu bauen.
Das jährliche Engagement von Anthropic ist ein Rundungsfehler in der Welt der Tech-Philanthropie. Doch irgendwie verschafft dieser bescheidene Beitrag dem vier Jahre alten Unternehmen jetzt Zugang zum Nervenzentrum der überlasteten sozialen Infrastruktur Amerikas. Ein milliardenschwerer philanthropischer Fonds und ein einziger KI-Anbieter, der alles von Räumungsprotokollen bis zu Bewährungsvermerken verarbeitet. Ein Unternehmen, ein Modell, eine Datenpipeline.
Kontrolle ohne Aufsicht
Steve Ballmer, ehemaliger Microsoft-CEO und aktueller USAFacts-Cheerleader, liebt Daten. Bei seiner Philanthropie geht es darum, Zahlen öffentlich zu machen und Statistiken in schöne Dashboards für politische Entscheidungsträger und die Öffentlichkeit zu zerlegen. Aber es gibt einen Unterschied zwischen offenen Daten und sicheren Daten. Und Ballmers Unternehmen hat sich noch nicht zu Letzterem verpflichtet.
Es ist kein Multi-Vendor-Modell in Sicht. Kein Plan zur Dezentralisierung von KI-Entscheidungen. Einfach anthropisch. Wenn Claude einen Fehler oder schlimmer noch, eine eingebaute Voreingenommenheit hat, wirkt sich das auf alles aus. Sozialarbeiter, Pflichtverteidiger und Bewährungsausschüsse haben nicht die Möglichkeit, auszusteigen. Sie müssen sich fügen.
Das National Institute of Standards and Technology hat versucht, höflich Alarm zu schlagen: Transparenz, Rechenschaftspflicht, Data Governance. Aber es ist schwer, „Rechenschaftspflicht“ durchzusetzen, wenn der gesamte Rahmen von privaten Stiftungen geschaffen wird, die ohne öffentliche Aufsicht arbeiten und ein Talent dafür haben, sich der Kontrolle zu entziehen.
Demokratischer Einfluss ausgeschlossen
Lassen Sie uns nicht so tun, als sei dies nicht Teil einer größeren Strategie. Die Gates Foundation, die Ballmer Group und der Rest dieser philanthropischen Runde gestalten die Zukunft des öffentlichen Sektors durch Einflussnahme unter dem Deckmantel des Wohlwollens.
Brian Hooks wirbt hier draußen für philanthropisches Kapital als „der Erste, der zeigt, was möglich ist“. Was er meint, ist: Wir geben den Ton an, wir wählen die Anbieter aus, und wir legen fest, was als „Erfolg“ zählt.
Der Streit darüber, ob künstliche Intelligenz im öffentlichen Dienst eingesetzt werden soll, ist damit beendet. Es geschieht bereits. Die Frage ist nicht, ob Ihr Sozialhilfeantrag, Ihre Bewährungsprüfung oder Ihre Wohnbeihilfe durch ein Modell gefiltert wird, sondern wann und vor allem durch welches Modell.
Willkommen in der Alpha-Version der Zukunft
Wir stehen nicht am Rande einer spekulativen Zukunft. Wir leben in ihrer Alpha-Version. Die Engpässe im Papierkram, die die meisten sozialen Dienste kennzeichnen? Die jahrzehntelange Unterfinanzierung, personelle Unterbesetzung und politische Sabotage? Das wird nicht durch mehr Personal behoben. Es wird „gestrafft“. Die Leute mit Geld, Servern und strategischen Philanthropie-Portfolios haben die Entscheidung bereits getroffen: Software ersetzt die Bürokratie, Algorithmen ersetzen das Urteilsvermögen und KI wird als öffentliches Gut eingestuft.
Entscheidend könnte sein, wer sie besitzt, wer sie gestaltet und wer Nein sagen darf.
Im Moment liegen diese Hebel nicht in den Händen der Öffentlichkeit. Sie liegen in den Händen einer kleinen Gruppe von Geldgebern und Technologieunternehmen, die davon überzeugt sind, dass die Politik zu langsam und die Demokratie zu chaotisch ist, um sich damit zu beschäftigen. Anstelle von öffentlichen Anhörungen gibt es Anrufe von Interessengruppen. Anstelle von Gesetzen gibt es Partnerschaften. Und statt gewählter Aufsicht gibt es eine Steuerung durch von Unternehmen finanzierte Sandkästen.

