Fürs Protokoll: OpenAI, der KI-Kooperationspartner von Microsoft, hat vor einigen Tagen einen Passus aus seinen Nutzungsrichtlinien gestrichen, der die Verwendung seiner Technologie für Militär und Krieg ausdrücklich verbietet. (Sehr schönen Kontext lieferte der letzte Chaos Computer Congress: Zapfenstreich. Über Algorithmen im Krieg, aber was hat die Kunst damit zutun?) In aller Stille geschah das nicht: Weltweit wurde es wahrgenommen und kommentiert als ein „Verrat“ an den möglicherweise menschheitsdienlichen Potenzialen sog. Künstlicher Intelligenz.
The Intercept berichtete ausführlich: Bis zum 10. Januar enthielt die Seite „Nutzungsrichtlinien“ von OpenAI ein Verbot von „Aktivitäten, die ein hohes Risiko für körperliche Schäden bergen, einschließlich“ insbesondere „Waffenentwicklung“ und „Militär und Kriegsführung“. Dieses klar formulierte Verbot militärischer Anwendungen schließt offenbar jede offizielle und äußerst lukrative Nutzung durch das Verteidigungsministerium oder andere staatliche Militärs aus. Die neue Richtlinie behält die Aufforderung bei, „unseren Dienst nicht zu nutzen, um sich selbst oder anderen zu schaden“ und nennt als Beispiel die „Entwicklung oder Verwendung von Waffen“, aber das pauschale Verbot der „militärischen und kriegerischen“ Nutzung ist verschwunden. Die Strategen dieser Firmen verwischen hier gezielt und bewußt Grenzen. Wozu das führt, zeigt die Geschichte der KI-basierten Zielauswahl im Krieg der israelischen Regierung gegen die Bevölkerung in Gaza.