Feed on
Posts
Comments

Glückliche Kinder dank TikTok

Habs ja schon immer gesagt und erzeuge damit in Runden auf Parties und in Seminarräumen immer wieder Momente betroffenen Schweigens: Der schon wieder mit seinen haltlosen Extrempositionen. Das Kassandra-Problem: Wer zu früh dran ist mit deutlichen Warnungen, wird für bekloppt erklärt. Nachdem die Kinder in den Brunnen gefallen sind, gibts in der Regel mehr Aufmerksamkeit. Und viel aufzuräumen für Wissenschaftler und Juristen: Wie konnte das bloß passieren? Und besonders wichtig: Wer ist schuld??

Was die Wirkung generativer KI (ChatGPT und Konsorten) angeht, da sind wir wissenschaftlich jetzt weiter. Use it or lose it heißt die Parole, mit der sich gültige Erkenntnisse der Neurologie zusammenfassen lassen: Fähigkeiten, die wir brachliegen lassen, gehen verloren. Tätigkeiten, seien es professionelle oder alltägliche, die wir an smarte Digitalassistent_innen delegieren, werden uns über kurz oder lang als eigene Fähigkeit verkümmern und verloren gehen.

The famous ‘London taxi driver experiments’ found that memorising large maps caused the hippocampus to expand in size. Williams says that the reverse is going to happen if we don’t use our brain and memory to navigate. “Our brains are just like our muscles. We ‘use it or lose it’ – in other words, if we use navigation devices for directions rather than our brains, we will lose that ability.”“ Quelle: Mark Williams, Neuro- und Kognitions-Wissenschaftler

Der Nachwuchs bekommt oft gar nicht mehr das Angebot, zunächst die analogen Fähigkeiten auszubilden – als notwendige Grundlagen für einen selbstbestimmten Gebrauch digitaler Werkzeuge. Wer arbeitet denn heute noch mit Landkarten aus Papier und nimmt sich gar die Zeit (bzw. bekommt die Zeit bezahlt), das Kindern zu erklären? Wischen alle doch viel lieber auf der Navi-App rum. Machen doch alle so. Ist halt so. Kann man nix machen. Die dumm-dreisteren nennen das dann auch noch Digitalkompetenz und schmeißen mit Digitalpakt-Milliarden drauf. Naja, ich schweife ab, zurück zur Wissenschaft. Eine internationale Forschungsgruppe (Cambridge, München, Budapest) hat jetzt herausgefunden: Der Trend zum Wissensverlust gilt angesichts des Einsatzes (generativer) KI nicht nur individuell und für Kinder, sondern auch kollektiv und gesamtgesellschaftlich:

Große Sprachmodelle (LLMs) sind ein potenzieller Ersatz für von Menschen erstellte Daten und Wissensressourcen. Diese Substitution, kann jedoch ein erhebliches Problem für die Trainingsdaten darstellen, die für die die für die Entwicklung künftiger Modelle benötigt werden, wenn sie zu einer Verringerung der von Menschen erstellten Inhalte führt. In dieser Arbeit dokumentieren wir einen Rückgang der Aktivitäten auf Stack Overflow, die mit der Veröffentlichung von ChatGPT, einem beliebten LLM, zusammenfällt. … Innerhalb von 6 Monaten nach der Veröffentlichung von ChatGPT reduzierte sich die Aktivität auf Stack Overflow um 25% im Vergleich zu seinen russischen und chinesischen Gegenstücken, wo der Zugang zu ChatGPT begrenzt ist, und zu ähnlichen Foren für Mathematik, wo ChatGPT weniger leistungsfähig ist. …

Wir finden keine signifikante Veränderung der Beitragsqualität der Beiträge, gemessen am Peer-Feedback, und beobachten ähnliche Rückgänge bei Erstellung von Inhalten durch erfahrene und weniger erfahrene Nutzer gleichermaßen. Somit verdrängen LLMs nicht nur doppelte, minderwertige oder für Anfänger geeignete Inhalte Inhalte. Unsere Ergebnisse deuten darauf hin, dass die rasche Verbreitung von LLMs die Produktion von öffentlichem Datenmaterial verringert, die zu deren Schulung benötigt werden, mit erheblichen Folgen.“
Quelle: Abstract: Large language models reduce public knowledge sharing on online Q&A platforms, Eigene Übersetzung, Übersetzungsrohling: DeepL.com

Wer sich vergegenwärtigt, welche Rolle in der generativen Texterzeugung Statistik (Wahrscheinlichkeit und sogar Zufall) spielt (eben nicht: Problemverständnis) und worum es generativen Modellen eigentlich geht, worauf sie optimiert sind (überzeugende Menschenähnlichkeit und eben nicht: faktische Korrektheit), der oder die wird die Dramatik erahnen. Das Datenmaterial, auf dem die Modelle lernen, wird in dem Maße immer fehlerhafter, in dem der maschinengenerierte Anteil steigt. Damit werden wiederum die maschinengenerierten Inhalte immer fehlerhafter, denn außer als Effekt von Wahrscheinlichkeit und Zufall kommen die Fehler zunehmend aufgrund der immer fehlerhafteren Lerngrundlage zustande.

Ein Brand in einer Bibliothek ist offensichtlich ein Drama, und nicht nur der Qualm treibt einem dabei die Tränen in die Augen. Die Zersetzung des in den weltweiten Netzwerken gespeicherten Menschheitswissens droht einer sinnlichen Wahrnehmung entzogen und mit optimierter Plausibilität und Überzeugungskraft stattzufinden. Nur für die jeweiligen Expert_innen der Fachgebiete offenbart sich der Wissensverlust als dramatisch. Pessimisten verschieben die Entsorgung ihrer im Bücherregal verstaubenden, kohlenstoff-basierten Lexika.

KI „lernt“ die eigenen Fehler als statistisch signifikant: Sie tauchen ja immer häufiger auf im Lernmaterial. Da aufgrund der Datenmengen beim besten Willen niemand die Lerngrundlage prüfen kann (und ein KI-Einsatz an dieser Stelle das Problem offensichtlich nur verschiebt), gerät die Produktion generativer Modelle in eine Spirale der zunehmenden Fehlerhaftigkeit, mit anderen Worten: Verdummung. Gleichzeitig drohen KI-Bots mit ihren fehlerhaften Beiträgen, das kuratierte Wissen in Foren und Wikis zu verschmutzen und die menschlichen Kurator_innen dort in den Wahnsinn zu treiben.

Daher sollte (menschen- und maschinenlesbare) Kennzeichnung KI-generierter Inhalte obligatorisch sein. Und daher sind Sperren für KI-Bots auf unseren Lieblings-Know-How-Seiten euphorisch zu begrüßen. So kann die MI (Menschliche Intelligenz) Zeit schinden, um kollektiv einen sachgemäßen Umgang mit dem zu finden, was bestenfalls ja vielleich doch auch sinnvolles Werkzeug sein könnte – nur ein Beispiel für diesen konstruktiven Ansatz: de.wikipedia.org.

Aber die kommende Generation erleidet Schaden nicht nur, indem ihr die Ausbildung analoger Fähigkeiten zunehmend vorenthalten wird. Die Kinder von heute werden gezielt, absichtlich und zum Zwecke der Profitmaximierung vom Spielen und Lernen abgehalten und erleiden dadurch Schaden. Auch für Deutschland ist das Phänomen als signifikant erfasst. Ändern tut sich daran erstmal nichts, lediglich die (populär-)wissenschaftlichen Zusammenfassungen der Problemlage werden besser. Und wenigstens kommt mittlerweile die Schuldfrage in dieser Sache zur Klärung. US-amerikanische Staatsanwälte aus 14 Bundesstaaten klagen an (vgl. stellvertrend die PE der New Yorker Generalstaatsanwältin). Das ND fasst zusammen:

Der Vorwurf: Tiktok habe die Videoplattform mit Absicht so gestaltet, dass Kinder und Jugendliche immer mehr Zeit dort verbringen wollten. Das schade deren Wohlbefinden. … Die Generalstaatsanwälte … verweisen auf Funktionen wie die Möglichkeit, mit automatisch startenden Videos immer weiter zu scrollen. Das mache gerade Kinder süchtig nach mehr, argumentierten sie. Sie kritisieren auch Filter, die das Aussehen verändern, und die Ausbreitung sogenannter Challenges, bei denen Nutzer Videos mit zum Teil gefährlichen Aktivitäten veröffentlichen.

Der Algorithmus, der den meist jungen Nutzern immer wieder neue Inhalte präsentiere, die zu ihren Interessen passen, verursache eine Ausschüttung des auch als Glückshormon bekannten Botenstoffs Dopamin, hieß es darin. Er sei absichtlich so konzipiert worden, dass er die Nutzer abhängig mache und sie dazu bringe, Stunden in der App zu verbringen. Tiktok tue dies, um Profit zu machen, obwohl das Unternehmen wisse, dass solches Verhalten zu tiefgehenden psychologischen und physiologischen Schäden führe.“ Quelle: ND, 10.10.2024

Der Anlass für diese bemerkenswert klaren Worte ist ein Konzern in chinesischer Eigentümerschaft. Aber die Vorwürfe gegen Tiktok lassen sich verallgemeinern. Das Treiben eines der US-amerikanischen Konkurrenten des chinesischen Konzerns in der Aufmerksamskeitsökonomie kam ebenfalls bereits zur Anklage, vgl. die ähnlich gelagerten Vorwürfe gegen Facebook/Meta 2023.

Mal sehen was die Richter_innen dazu zu sagen haben werden – vor dem Hintergrund des US-amerikanisch-chinesischen Wirtschaftskriegs. Und mal sehen, ob diese Anklagen, die die Zusammenhänge in ihrer Ursächlichkeit ja medienwirksam benennen, auch zu Änderungen in der Praxis führen und wenn ja, wann, oder ob am Ende wieder nur wieder viele Anwält_innen viel viel reicher geworden sind. Bezahlt mit Honoraren, die erwirtschaftet wurden mit der Instrumentalisierung und absichtlichen Beschädigung von Kindern.

 

Diesen Artikel drucken Diesen Artikel drucken

Leave a Reply