Feed on
Posts
Comments

Zum Thema Krieg in Palästina: Zwei Phänomene verdienen es, über den Tag hinaus festgehalten zu werden, da sie paradigmatisch erscheinen.

1. Der Finanzhandelsalgorithmus hat alles vorher gewußt: Finanzmarktforscher dokumentieren in einem wissenschaftlichen Artikel einen signifikanten Anstieg der Leerverkäufe im wichtigsten ETF für israelische Unternehmen wenige Tage vor dem Angriff der Hamas am 7. Oktober. Der Forschungsansatz korreliert den Handel mit Wertpapieren wie börsengehandelten Fonds (ETFs) mit der langjährigen Literatur über Reaktionen der Finanzmärkte auf militärische Konflikte. Dabei ist aufgefallen, dass die Leerverkäufe am Tag vor dem Hamas-Überfall bei weitem höher waren als in zahlreichen anderen Krisenzeiten zuvor, darunter die Rezession nach der Finanzkrise, der Israel-Gaza-Krieg 2014 und die COVID-19-Pandemie. Die Ergebnisse deuten darauf hin, dass Händler über die bevorstehenden Anschläge informiert waren und von den Angriffen profitieren konnten. Das Papier betont, dass diese Art von Handel vor dem Hintergrund von Vollzugslücken angesicht US-amerikanischer und internationaler Verbote stattfindet.

2. Die englische Zeitung „The Guardian“ beschreibt, wie das israelische Militär sogenannte Künstliche Intelligenz einsetzt, um seine Bombardierungsziele festzulegen. Die Rede ist von einer „Fabrik“, die die „tödliche Produktion signifikant steigere“.

In deutscher Sprache berichtet die Junge Welt ausführlich:

Die israelischen Onlinemagazine +972 und Sikha Mekomit haben sich in einer am 30. November veröffentlichten ausführlichen Analyse mit der Kriegführung der IDF beschäftigt, die sie als »Massenmordfabrik« bezeichnen. Grundlage ihrer Darstellung sind nach ihren Angaben hauptsächlich Gespräche mit nicht namentlich genannten gegenwärtigen und früheren Angehörigen der IDF und der israelischen »Intelligence Community«. Im Zentrum des Textes steht der zunehmende Einsatz von Programmen künstlicher Intelligenz (KI) bei der Datensammlung über potentielle Ziele und bei der Entscheidung über deren Freigabe für Angriffe. Die »Operation Guardian of the Walls« (6.5. bis 21.5.2021) sei nach Aussagen von Quellen aus dem Militär- und Geheimdienstapparat »Israels erster KI-Krieg« gewesen. Inzwischen sei ein fortgeschrittenes KI-System mit dem hebräischen Namen »Habsora« (Botschaft) im Einsatz, was in englischsprachigen Texten mit »The Gospel« (Evangelium, frohe Botschaft) wiedergegeben wird. Zur Arbeit mit diesem System wurde eine spezielle Abteilung geschaffen.

Nach Aussagen von Aviv Kochavi, der bis zum Jahresende 2022 Generalstabschef der IDF war, konnten Israels Streitkräfte und »Intelligence Community« früher 50 Ziele im Jahr identifizieren. Aber schon während der »Operation Guardian of the Walls« im Mai 2021 seien mit Hilfe künstlicher Intelligenz 100 neue Ziele an einem einzigen Tag »entdeckt« worden, und die Hälfte von ihnen sei angegriffen worden. Zusammen mit anderen Umstellungen kann die israelische Luftwaffe sehr viel mehr Ziele zur gleichen Zeit ins Visier nehmen als zu irgendeinem früheren Zeitpunkt. Im November teilten die IDF mit, dass während der ersten 35 Kriegstage 15.000 Ziele angegriffen worden seien. Zum Vergleich: Während der »Operation Protective Edge« im Sommer 2014, die 51 Tage dauerte, wurden zwischen 5.000 und 6.000 Ziele angegriffen.

Nach Darstellung der Onlinemagazine +972 und Sikha Mekomit, deren Name in englischsprachigen Publikationen meist mit Local Call übersetzt wird, ermöglichen es Israels KI-gestützte Systeme unter anderem, aufgrund von Luftaufnahmen und anderen Überwachungsmaßnahmen in Echtzeit zu erkennen, wie viele mutmaßliche Zivilpersonen sich in einem potentiellen Zielgebiet aufhalten und bei einem Angriff getötet würden. Diese Zahl werde mit der Wertigkeit des Ziels – beispielsweise bestimmte Hamas-Kommandeure, die dort vermutet werden – verglichen, und es würden Ergebnisse und Richtlinien in Art einer Ampelsystem – »rot«, »gelb«, »grün« – ausgeworfen.“ Quelle

AI driven settler colonialism – diese Assoziation provoziert die Junge Welt mit einer Serie von Übersetzungen aus einem sein Forschungsfeld pointiert zusammenfassenden Artikel von Patrick Wolfe.

Die Auseinandersetzung mit dem Siedlerkolonialismus bildet einen Arbeits- und Forschungsschwerpunkt an der Universität Trier:

Settler colonizers come to stay” – mit diesen knappen Worten hat Patrick Wolfe 2006 das zentrale Charakteristikum einer besonderen Form des Kolonialismus zusammengefasst. Das Ziel von Siedlergesellschaften ist die Transformation des kolonialen Raumes in eine (häufig idealisierte) Version ihrer jeweiligen Mutterländer. Mit der Landnahme geht die Enteignung, Vertreibung, Ermordung und Zwangsassimilation der indigenen Bevölkerung einher.“

Neben Fallbeispielen aus den anglophonen Siedlungskolonien Kanadas, der USA, Australiens und Neuseelands suche ich Palästina vergeblich.

Einen ganz anderen Auslassungsfehlerr arbeitet die Informationsstelle Militarisierung (IMI) heraus. So verbinden sich für Christoph Marischka der KI-basierte Masseneinsatz von Raketen und die vermeintlich zukunft-erahnenden Finanzmarktaktivitäten auf andere Art:

Anstatt Verschwörungsnarrativen Vorschub zu leisten, sollen hier abschließend zwei Konzepte ins Spiel gebracht werden, die einen abstrakteren Zusammenhang zwischen den genannten Ereignissen andeuten. Das eine besteht in einem Auslassungsfehler (‚omission failure‘). Streng genommen ist er Teil des bereits angesprochenen Automation Bias: Wenn man sich zu sehr auf KI-Systeme verlässt, übersieht man auch das, was diese nicht erkennen oder designbedingt gar nicht erkennen können. Damit lässt sich womöglich erklären, warum die Warnungen einer Beobachtungseinheit (die angeblich nur aus Frauen* besteht) vor groß angelegten Anschlagsplanungen untergehen und (offenbar) nicht in die Planung einflossen, die sich womöglich zu sehr an technischen bzw. KI-gestützten Analysen und Prognosen orientiert. Die israelische Debatte um das Versagen der Sicherheitskräfte im Vorfeld des 7. Oktobers ist diesbezüglich durchaus interessant: An vielen Stellen wird nun diskutiert oder festgestellt, man habe sich bei der Grenzüberwachung zu sehr auf High-Tech verlassen und in falscher Sicherheit gewähnt.“

Den ganzen Text gibt es als IMI-Standpunkt 2023/049. UPDATE: Thematisch legt Marischka Mitte Januar ’24 nochmal nach und fragt: KI-Revolution Gaza?

 

Diesen Artikel drucken Diesen Artikel drucken

Leave a Reply