KI bleibt Thema, ich habe hier auf dem Blog die Freisetzung von KI-Algorithmen beobachtet, eine polit-ökonomische Monographie annotiert und die Richtung einer grundsätzlichen Herrschaftskritik skizziert. Dennoch habe ich auch anhand eigener Spielereien mit Open-Source-Varianten den Möglichkeitsraum dieser Werkzeuge angetestet und dabei viel gelernt.
Ein Lernerlebnis möchte ich besonders hervorheben, weil es nicht nur zentral ist, sondern notwendig, um zu begreifen, was Große Sprachmodelle überhaupt tun und können, aber eben auch nicht können. Große Sprachmodelle (large language models, LLMs) bilden die Klasse von „KI“, um die es gerade hauptsächlich geht, mit ChatGPT (OpenAI/Microsoft) als ihrem prominentesten Vertreter. Aber auch die anderen Großkonzerne sind alle mit ihren je eigenen Modellen dabei.
Mein Lernerlebnis in einem Satz: Ich habe gelernt, dass LLMs den Aufbau ihrer Aussagen u.a. mit Hilfe von Zufallsentscheidungen betreiben. Und dieses Funktionsmerkmal sollte doch in den gesellschaftlichen Debatten um den Einsatz von LLMs nicht nur eine größere, sondern überhaupt mal eine Rolle spielen.
Gelernt hab ich das bei der vergnüglichen Lektüre eines Erklärbär-Artikels des Mathematikers Stephen Wolfram:
Tags: Algorithmen, Big Data, KI