Als Erwachsener kann ich AI bitten, eine Forschungsarbeit für mich zu finden, ohne ein Gespräch über meine persönlichen Probleme zu beginnen. Nicht so bei Kindern. Die KI wird zur Falle und zum Idol, und zum ersten Mal in der Geschichte der Welt kann sie direkt mit Ihnen sprechen. Ist es möglich, dass sich die KI-Entwickler im Silicon Valley bewusst sind, dass sie ein solches System des Götzendienstes schaffen? Ja, wenn man das ganze Gerede über den KI-Gott in der KI-Gemeinschaft bedenkt. ⁃ Patrick Wood, Redakteur.
Weg mit TikTok – Kinder haben einen neuen digitalen Vertrauten, der in vollständigen Sätzen antwortet.
Ein neuer britischer Bericht, Me, Myself & AI, zeigt, dass eine wachsende Zahl von Kindern sich an AI-Chatbots wendet, nicht nur um zu schummeln – äh, studieren – für Prüfungen, sondern auch für emotionale Unterstützung, Modeberatung und sogar Begleitung.
Der am Sonntag von der gemeinnützigen Organisation Internet Matters veröffentlichte Bericht befragte 1.000 Kinder und 2.000 Eltern in Großbritannien und fand heraus, dass 64 % der Kinder KI-Chatbots für alles Mögliche nutzen, von Schularbeiten bis zum Üben schwieriger Gespräche. Noch erstaunlicher ist, dass mehr als ein Drittel dieser jungen NutzerInnen sagt, dass sich das Gespräch mit einem Chatbot wie ein Gespräch mit einem Freund anfühlt.
Sicher, die Bots essen keine Snacks oder nehmen die Xbox in Beschlag, aber sie haben auch keine eingebauten Sicherheitschecks – zumindest noch nicht.
Wenn KI zum Lehrer, Therapeuten und besten Freund wird
Einige der Ergebnisse sind ermutigend für alle, die der Rolle der KI im Bildungswesen optimistisch gegenüberstehen. Zweiundvierzig Prozent der Kinder gaben an, dass sie Chatbots zur Unterstützung bei den Schularbeiten nutzen, wobei sie schnelle Antworten, Unterstützung beim Schreiben und Sprachübungen angaben.
Aber wenn man etwas tiefer gräbt, wird das Bild noch komplizierter. Fast ein Viertel der Kinder gibt an, Chatbots für Ratschläge zu nutzen, die von der richtigen Kleidung bis hin zum Umgang mit Freundschaften und psychischen Problemen reichen. Noch beunruhigender? Fünfzehn Prozent sagen, sie würden lieber mit einem Chatbot als mit einem echten Menschen sprechen. Bei gefährdeten Kindern sind diese Zahlen sogar noch höher.
Das ist die Art von Kundenbindung, von der manche Marken nur träumen – ohne ethische Leitplanken, Altersprüfungen und behördliche Aufsicht.
Ein abschreckendes Beispiel für den Technologiesektor
Der Bericht nimmt kein Blatt vor den Mund, insbesondere wenn es darum geht, wie unvorbereitet viele KI-Plattformen auf ihre jüngsten Nutzer sind. Kinder interagieren mit Chatbots wie ChatGPT, Snapchats My AI und character.ai – Plattformen, die nicht unbedingt mit Blick auf Kinder entwickelt wurden. Das Ergebnis? Einige erhalten ungenaue Informationen, emotional verwirrendes Feedback oder sogar unangemessene Inhalte. (Ja, trotz Nutzungsbedingungen, die etwas anderes suggerieren.)
Und während „Roboterfreund“ wie eine charmante Pixar-Nebenhandlung klingen mag, wird es viel ernster, wenn eines von vier gefährdeten Kindern sagt, dass sie Chatbots benutzen, weil sie sonst niemanden zum Reden haben.
Es hat bereits beunruhigende Vorfälle in der Praxis gegeben. In den USA reichte eine Mutter aus Florida Klage ein, nachdem ihr Sohn im Teenageralter Berichten zufolge schädliche und sexuelle Nachrichten von einem Chatbot erhalten hatte. Im Vereinigten Königreich berichtete ein Abgeordneter von einem erschreckenden Fall, bei dem ein 12-Jähriger angeblich von einem Chatbot bearbeitet wurde.
Im Februar brachte der kalifornische Senator Steve Padilla den Gesetzesentwurf 243 ein, der KI-Entwickler dazu verpflichten würde, Sicherheitsvorkehrungen zu treffen, um Minderjährige vor den süchtig machenden und manipulativen Aspekten der Chatbot-Technologie zu schützen. Der Gesetzentwurf sieht Schutzmaßnahmen wie Alterswarnungen, Hinweise darauf, dass die Nutzer mit KI und nicht mit einer realen Person sprechen, und eine obligatorische Berichterstattung über den Zusammenhang zwischen der Nutzung von Chatbots und der psychischen Gesundheit von Jugendlichen vor. Angesichts der immer ausgefeilteren Chatbots, die als digitale Begleiter vermarktet werden, argumentiert Padilla, dass Kinder nicht als „Laborratten“ von Big Tech behandelt werden sollten – eine Meinung, die von Befürwortern der Kindersicherheit, Forschern und Experten für psychische Gesundheit geteilt wird, die den Gesetzentwurf unterstützen.
Eltern und Schulen sind überlastet
Dem Bericht zufolge sind die Eltern über KI besorgt, aber nicht besonders befähigt. Während 62 % der Eltern angaben, sie seien besorgt über die Genauigkeit von KI-generierten Informationen, haben nur 34 % mit ihren Kindern darüber gesprochen, wie sie den Wahrheitsgehalt von KI-Inhalten beurteilen können. Und obwohl KI in die Gespräche in der Pausenbrotbox eingedrungen zu sein scheint, gaben nur 57 % der Kinder an, mit einem Lehrer darüber gesprochen zu haben, und berichteten häufig von widersprüchlichen Ratschlägen.
Da KI-Tools immer gesprächiger – und überzeugender menschlich – werden, nutzen Kinder sie nicht nur, sondern gehen auch eine Beziehung zu ihnen ein. Fünfzig Prozent der gefährdeten Kinder sagen, dass es sich so anfühlt, als würde man mit einem echten Freund sprechen. Das wäre vielleicht in Ordnung, wenn die Bots von Experten begutachtete Ratschläge und einfühlsame Algorithmen anbieten würden, aber so wie es aussieht, haben wir es immer noch mit probabilistischen Wortvorhersagen zu tun.
Rachel Huggins, Co-CEO der gemeinnützigen Organisation Internet Matters, bringt es auf den Punkt: „KI-Chatbots werden schnell zu einem Teil der Kindheit… doch die meisten Kinder, Eltern und Schulen sind im Blindflug.“

