Die Strategie der Hamas

Ronen Steinke war beim Podcast Piratensender Powerplay, um über den Nahostkonflikt zu sprechen und obwohl ich beide sonst sehr schätze – also den Podcast mit Samira und Friedemann genau so wie die Texte von Steinke – muss ich sagen, dass ich etwas erstaunt war, wie unterkomplex die abgelieferte Analyse war.

Steinke übernimmt weitgehend das Framing der Israelischen Regierung, das ungefähr so lautet:

Israel wurde angegriffen und verteidigt sich nun gegen die Hamas, die zumindest auch als eine ordentliche Armee gelten kann. Die Hamasarmee aber ist feige und versteckt sich aus taktischen Gründen unter der Zivilbevölkerung, was die IDF vor ein Dilemma stellt, bei dem es nur schlechte Lösungen gibt. Da es für Israel aber um einen Existenzkampf geht, ist die bevorzugte schlechte Lösung eben das kollaterale Töten von tausenden unschuldigen Palästinensern. Aber sobald die Hamastruppen endlich besiegt sind … dann … naja, ab hier bricht das Framing ja meistens ab.

Zuerst: Es ist absolut verständlich, warum das die israelische Regierung so kommunizieren will, aber es ist eine offensichtliche Fehlanalyse der strategischen Situation und niemand tut sich einen Gefallen, es zu übernehmen. Auch Israel nicht.

Um sich zu vergegenwärtigen, wie schnell dieses Framing auseinanderfällt, muss man nur mal zwei Sekunden in die Hamas hineinversetzen und fragen:

Glaubt die Hamas, die IDF militärisch besiegen zu können? Sieht sich die Hamas als Armee überhaupt mit der IDF im Krieg? Noch allgemeiner: Ist der Feind der Hamas die IDF?

Wer hier eine der Fragen mit ja beantwortet, ist – sorry – nicht ganz bei Trost. Natürlich weiß die Hamas um ihre eigene militärische Unterlegenheit. Natürlich sieht sie sich nicht im Kampf mit der IDF in einem Sinne, wie sich zum Beispiel die ukrainischen mit den russischen Truppen sehen. Natürlich geht es der Hamas nicht darum, die IDF militärisch zu schlagen.

Das Ziel des Kampfes der Hamas ist nicht ein Sieg über die IDF. Das Ziel der Hamas ist ein Sieg über den Staat Israel. Und die IDF ist dabei ihr wichtigstes Werkzeug.

Und hier kommen wie zum Kern des Denkfehlers. Ronen Steinke bezeichnet Hamas’ Untertauchen in der Zivilbevölkerung als „Taktik“. Das ist schlicht falsch. Es nicht ihre Taktik, sondern ihre Strategie. Die Verwechselung von Taktik und Strategie wirkt wie eine Kleinigkeit, aber die Folgen dieses Missverständnisses sind immens.

Als Taktik funktionieren Zivilist*innen als Schutzschild eher leidlich und – um ehrlich zu sein, glaube ich schon lange nicht mehr, dass das bei der IDF noch irgendwelche Beißhemmungen auslöst.

Aber als Strategie funktioniert es wunderbar. Tausende, Zehntausende von Menschen sterben. Unschuldige, Frauen und Kinder. Und die Hamas weiß, dass jedes dieser Opfer Israel massiv schadet, seine Legitimität in der Welt angreift und seine Sicherheitslage gegenüber seinen Nachbarn drastisch reduziert. Bishin zu den allgemeinen Befürchtungen, dass der Krieg sich ausweitet, so dass Israel einen Mehrfrontenkrieg führen muss, was ein ganz anderer Schnack ist, als sich durch das überfüllte Flüchtlingslager zu manschen, das einmal der Gazastreifen war.

Die toten Zivilist*innen sind nicht etwas, was die Hamas in ihrem Kampf gegen die IDF hinnimmt, um sich selbst zu schützen (Taktik). Die Toten sind das Ziel (Strategie). Die Toten sind der Hebel, mit dem die Hamas glaubt, den eigentlichen Feind, nämlich den Staat Israel, endgültig von der Landkarte tilgen zu können. Und diese Strategie ist alles mögliche: zynisch, brutal, fanatisch, verbrecherisch, aber sie ist eines nicht: dumm.

Ich weiß nicht, ob die Hamas ihr strategisches Ziel erreichen wird. Aber derzeit sieht alles danach aus, als ob ihrer Strategie zumindest nichts im Wege steht. Netanyahu und die IDF spielen ihre Rollen makellos und die öffentliche Meinung im Rest der Welt scheint sich wie vorhergesehen mit jedem Toten in Gaza immer stärker gegen Israel zu wenden. Überall rumort es und die Spannungen und die Gewalt in der Region steigen kontinuierlich. Jeder taktische Gewinn Israels ist ein strategischer Gewinn der Hamas.

Nochmal: Wir wissen nicht, wie dieser Konflikt ausgeht. Aber derzeit könnte es nicht besser laufen für die Hamas.

Von all dem erfährt man in dem Interview im Piratensender leider gar nichts.

Im Gespräch mit … Michael Seemann (Audio)

Der Podcast, den ich mit Martin Burckhardt aufgenommen habe, ist nun auch als … naja, richtiger Podcast verfügbar. Dort gibt es auch viele andere nette Gespräche.

Und seinen Blick auf den sich abzeichnenden Krypto-Hype geschärft. Und so ist (neben einer Videopremiere bei ex nihilo) ein höchst anregendes Gespräch über die Bitcoin-Blase, den Netzwerkeffekt und den Kontrollverlust der klassischen Institutionen entstanden.

Quelle: Im Gespräch mit … Michael Seemann (Audio)

Social Scoring – werden wir ständig bewertet? #langerklärt | Science Fiction trifft auf Realität | bpb.de

Ich war zu Gast im Podcast der Bundeszentrale für politische Bildung zum Thema Social Scoring. Es war etwas anstregend, weil ich mich konstant dazu zwingen musste möglichst zugängliche Erklärungen zu finden und jedes Wort und Konzept zu erklären. Aber inhaltlich finde ich es sehr gelungen.

Wie beeinflusst Social Scoring unsere Gesellschaft? Kulturwissenschaftler Michael Seemann diskutiert, wie soziales Verhalten in Zahlen übersetzt wird, um Menschen zu bewerten und zu klassifizieren.

Quelle: Social Scoring – werden wir ständig bewertet? #langerklärt | Science Fiction trifft auf Realität | bpb.de

Twitter, der Rechtsruck und die paralysierte Linke

Wenn es euch so geht wie mir, dann kann ich euch versichern: ihr seid die alten geblieben. Ihr habt euch nicht bewegt. Ja. Das gesamte deutsche Politikestablishment – quer durch alle Parteien – ist innerhalb weniger Wochen erdrutschartig nach rechts gerumst. Deutschlands größte Probleme sind demnach derzeit: zu viele Ausländer und Gendern, während Klimaschutz plötzlich nicht mehr vorkommt. Aussagen werden von Spitzenpolitiker*innen der Mittelinks-Parteien getätigt, die vor kurzem selbst für AFD-Politiker*innen harter Toback gewesen wären. Und niemand ist da, der öffentlich dagegenhält.

Es gibt viele Erklärungen dafür. Klimakleber, Krisenüberforderung, AFD-Erfolge, etc. Und sicher, diese Dinge spielen mit rein. Ich bin aber zunehmend der Überzeugung, dass der Untergang von Twitter ein unterschätzter Faktor im Rechtsrutsch ist.

Immer, wenn ich mal wieder in X reinschaue, sehe ich nicht nur eine Menge rechtsradikalen Schund, der mir routiniert in die „For You“-Timeline gespült wird, ich sehe auch Leute, denen ich bislang gerne gefolgt bin, die Fake News und polarisierenden Kulturkampfbullshit von rechtsradikalen Accounts wie LibsOfTiktok teilen. Als ich noch auf Twitter war, waren das nicht mal Konservative, sondern eher so middle of the road Linksliberale. X (Twitter gibt es nicht mehr) hat ihre Wahrnehmung auf die Welt verändert.

Dasselbe – und ich finde noch deutlicher – ist derzeit bei den auf X verbliebenen politischen und publizistischen Eliten zu beobachten. Das viral gegangene Douglas Murray Video war nur die Spitze des Eisbergs. Dabei geht es gar nicht so sehr um die einzelne Person und den einzelnen Inhalt, sondern mehr um eine bestimmte Stimmung, die auf der Plattform herrscht, einen Vibe, den man unbewusst aufnimmt und mitschwingt. Das Murray Video schien als legitimer Inhalt, den man halt so auf X teilt.

Wir haben die Eliten mit einem riesigen Haufen Nazis allein im Raum gelassen. Was haben wir gedacht, was passiert?

Der Rechtsrutsch durch Twitter hat noch einen zweiten Treiber: Die linksliberale bis linksradikale Szene hat sich aufgespalten und diskutiert nun auf verstreuten Alternativplattformen nur noch mit sich selbst. Es gibt keinen einheitlichen Vernetzungsraum mehr und die Räume, die es gibt, erreichen keine Multiplikator*innen mehr. Wir haben mit unserem Twitterauszug sicher ein Zeichen gegen Musk und seine Politik gesetzt, aber wir haben uns nebenbei auch unserer eigenen diskursiven Relevanz beraubt.

Wir haben gehofft, die Eliten würden schon nachziehen. Aber die Eliten begründen keine diskursiven Räume, sie kommen, wenn diese bereits angerichtet und relevant sind. (Auch deshalb gehen mir die Leute auf Mastodon so auf die Nerven, die sich mit aller Macht gegen jede Relevanz sträuben).

Ich glaube immer noch, dass es richtig war und ist, X zu verlassen. Ich glaube aber, wir müssen so schnell wie möglich daran arbeiten, die Leute von X rauszubekommen.

Aber das geht mit der aktuell zersplitterten Plattformlandschaft nicht. Das ginge nur, wenn entweder eine der Twitter-Alternativen entsprechend groß und relevant wird (was ich für unwahrscheinlich halte), oder dass die Twitter-Alternativen endlich aus dem föderalen Versprechen eine Realität machen und einen gemeinsamen Diskursraum schaffen. Bluesky und Threads müssen endlich mit dem Fediverse föderieren und Threads in Europa verfügbar sein. Und selbst dann sehe ich eher nur eine 50/50 Chance, dass X dann wirklich in die Irrelevanz verdammt wird.

Aber selbst, wenn das gelänge: der Diskurs der jüngeren Generation hat sich längst von Text verabschiedet und findet in Videos auf Tiktok, Instagram und Youtube statt. Ich selbst fühl mich nicht mehr bereit, dort einzusteigen, aber meine Befürchtung ist, dass auch dort die reflektiert linken Stimmen eher die Ausnahme sind.

Ich bin – zumindest mittelfristig – extrem pessimistisch. Meine Befürchtung ist: die Linke hat sich diskursstrategisch selbst ausmanövriert und ist jetzt nur noch Zuschauer, der seinen Mastodonclient anschreit.

Im Doppelpack durch die Stadt – Weddingweiser

Was ganz andres: ich bin Mentor beim Verein Kein Abseits e.V. In der Weddinger Lokalpresse ist ein Artikel über meinen Mentee Mostafa und mich erschienen. Ich teile das hier vor allem deshalb, weil der Verein ständig neue Mentor*innen sucht. Ich kanns nur empfehlen, also bewerbt euch!

Micha­el ist 45 Jah­re alt und woll­te sich neben sei­ner Tätig­keit als Autor und Wis­sen­schaft­ler sozi­al enga­gie­ren. Durch eine Freun­din ist er auf die Arbeit von “kein Abseits!” auf­merk­sam gewor­den und hat sich als Men­tor bewor­ben, um gemein­sam mit einem Kind Ber­lin zu ent­de­cken, eine sinn­stif­ten­de Zeit mit­ein­an­der zu ver­brin­gen und sich in die­sem Rah­men für mehr Bil­dungs­ge­rech­tig­keit und akti­ve Teil­ha­be ein­zu­set­zen.

Quelle: Im Doppelpack durch die Stadt – Weddingweiser

Von Papageien und Macht: Open AI und die sozial-ökologische Transformation – LABOR.A® 2023

Ich war im September zu Gast bei Labor.A der Konferenz der Hans-Böckler-Stiftung zur Zukunft der Arbeit und habe mit Matthias Hornschuh über KI und die Zukunft der Arbeit diskutiert. Das Video ist jetzt abrufbar.

Längst verändern Anwendungen auf Basis „künstlicher Intelligenz“ Arbeits- und Produktionsprozesse in vielen Branchen. Andererseits wird seit Monaten ein disruptiver Quantensprung durch ChatGPT und Co. diskutiert. Wir blicken auf realistische technische Spielräume und zukünftige Szenarien und fragen: Was sind die Bedingungen, unter denen das Potential von KI in der Transformation genutzt werden kann ohne bestehende Machtstrukturen zu stärken und menschliche Arbeit zu entwerten?

Quelle: Von Papageien und Macht: Open AI und die sozial-ökologische Transformation – LABOR.A® 2023

Künstliche Intelligenz, Large Language Models, ChatGPT und die Arbeitswelt der Zukunft | Zenodo

Der User @ankrjoe@social.tchncs.de hat sich die Mühe gemacht ein ePub meiner LLM-Studie zu basteln und sie auf einem Open Access Server zu stellen. Danke!

Die rasante Entwicklung von Systemen Künstlicher Intelligenz wie ChatGPT, die inhaltlich und sprachlich überzeugende Texte generieren können, hat eine intensive Debatte ausgelöst. Es stellt sich die Frage, welche Auswirkungen solche Systeme auf die Prozesse und Arbeitsweisen z. B. in Wissens- und Kreativberufen haben werden. Diese Literaturstudie wertet den aktuellen Stand der Debatte aus. Sie führt in die technische Grundlage, die sogenannten „Large Language Models“, ein und untersucht abschließend, welche

Quelle: Künstliche Intelligenz, Large Language Models, ChatGPT und die Arbeitswelt der Zukunft | Zenodo

SR.de: X Alternativen zu Twitter – ohne Erfolg?

Wurde vom SWR Podcast Cross & Quer eingeladen, um über Mastodon und Bluesky zu quatschen.

Wie geht es weiter mit „X“? Wird es überhaupt wieder Angebote geben, die eine gesellschaftliche Funktion erfüllen, wie Twitter sie mal hatte? Hat das in jüngster Zeit oft genannte „Bluesky“ möglicherweise mehr Erfolg? Wie könnten ganz neue Ansätze einer Debattenkultur im Netz aussehen? Darüber sprechen Florian Mayer und Kai Schmieding mit dem Plattform-Experten und Publizisten Michael Seemann.

Quelle: SR.de: X Alternativen zu Twitter – ohne Erfolg?

Keine Angst vor der KI im Job | Sächsische.de

Interessante Interpretation meines LLM-Papers hat die Sächsische.

Angst vor Veränderungen – sie ist in einer krisengeplagten Zeit nur menschlich, aber nach derzeitigem Erkenntnisstand vielfach unbegründet. Das sagt zum Beispiel der Kultur- und Medienwissenschaftler Michael Seemann. Er hat im Auftrag der Hans-Böckler-Stiftung untersucht, wie die Künstliche Intelligenz die Arbeitswelt tatsächlich verändern könnte.

Quelle: Keine Angst vor der KI im Job | Sächsische.de

„Das eigene Bauchgefühl hat noch nie gereicht“ | choices – Kultur. Kino. Köln.

In choices ist ein Interview von mir erschienen, aber leider ist es so schlecht redigiert, dass ich zögere, es hier zu verlinken. jetzt habe mir gedacht, scheiß drauf: ich redigiere das schlimmste einfach selbst und verblogge das Interview in einer besser lesbaren Form:

choices: Glaubt man Elon Musk, dann sollen Künstliche Intelligenz (KI) bzw. Chat-Roboter bald Wahrheit sprechen können. Heißt der nächste Prophet also TruthGPT?

Michael Seemann: Das ist jedenfalls der Name, den er für sein Projekt ausgegeben hat. Ich denke dabei immer an TruthSocial: Das soziale Netzwerk, das Donald Trump gegründet hat. Und ich glaube: Das wird ähnlich viel Wahrheit beinhalten. Mit den Large Language Models, mit denen wir heute hantieren, kann man alles Mögliche machen. Aber in Sachen Wahrheit sind sie eigentlich ziemlich schlecht, zumindest in den aktuellen Varianten und versagen regelmäßig. Wenn man Wissensfragen hat, kann man bei Google oder in Wikipedia schauen, bei den Large Language Models wird man aber häufig auf die Nase fallen.

Kein Konzept von Wahrheit“

Woran liegt das?

Dabei gibt es zwei Probleme:

Zum einen Halluzinationen, also ausgedachte Antworten, die meist falsch sind. Large Language Models haben kein Konzept von Wahrheit. Wenn man sie nach etwas fragt, dann versuchen sie nicht, eine nach aktuellen Erkenntnissen beste Antwort zu geben – also sozusagen Wahrheit zu sprechen – sondern sie versuchen etwas zu reproduzieren, das sich wie Wahrheit anfühlt. Diese Antwort kann wahr sein, muss es aber nicht. Die KI ist darauf optimiert, plausibel klingenden Text zu formulieren. Und das ist nicht das gleiche wie wahrer Text. Plausibler Text orientiert sich an unserer Erwartungshaltung. Meist wissen wir die Antwort auf die Frage, die wir gestellt haben, selbst aber gar nicht. So erscheint uns die Antwort der Large Language Models plausibel.

Zum anderen hat die KI Biases. Man muss wissen, dass in den Trainingsdaten die ganzen Biases, als auch Wunsch- und Wahnvorstellungen von uns Menschen drin codiert sind. Es gibt Experimente, die bestätigen, dass KI einen sexistischen und einen rassistischen Bias hat. Im Endeffekt drücken sich die ganzen Biases, die wir Menschen mit uns herumtragen und, die wir durch unsere Texte ins Internet hineingegeben haben, auch durch die KI aus.

 

Das heißt: Selbst wenn KIs sich keine Dinge mehr ausdenken – im Fachjargon halluzinieren – und ihre Antworten nur noch aus ihren Trainingsdaten synthetisieren, dann heißt es noch lange nicht, dass die Antwort wahr ist.

Über das Fine-Tuning, im Anschluss an das Training, wird versucht dagegen zu steuern. Es dient auch dazu, der KI krasse Biases abzutrainieren und entsprechende politische Aussagen abzumildern. Mit Freud gesprochen: Es wird eine Art Über-Ich geschaffen. Wenn Elon Musk also glaubt, eine Truth-KI zu schaffen – er, der selbst in der rechten Ecke und mit rechten Ressentiments hantiert – dann müsste er dabei nur im Fine-Tuning auf solche Dinge keine Rücksicht nehmen. Die KI in ihrem rohen Zustand, aus dem Internet trainiert, wäre schon sexistisch, rassistisch genug, damit sie für Musk wahrheitssprechend wirkt.

Eine KI gibt das aus, worauf ich sie trainiere. Wozu führt das, wenn wir mit KI umgehen, die beispielsweise in China oder in den USA entwickelt wurde?

Die Grundlage dessen, was die KI kann, ist ein aufwendiger mehrmonatiger Trainingsprozess mit allen möglichen Daten – das sogenannte Training des Foundational Models. Bisher ist die Trainingsstrategie der Large Language Models, die KIs mit allem an Text zu füttern, was sich so finden lässt. Die Inhalte werden ein bisschen gefiltert und gereinigt, doch eigentlich geht es momentan darum, möglichst viele Daten da reinzudrücken. Deswegen würde ich mal behaupten, dass eine chinesische KI nicht groß anders sein wird als eine amerikanische. Sie wird auch mit den englischen Texten gefüttert sein, einfach, weil es wahnsinnig viele davon gibt. Ein etwas größerer Schwerpunkt wird natürlich auf dem Chinesischen liegen, aber es wird doch eine große Überschneidung der Datenmenge geben. Aber wichtiger noch als das Grundlagentraining ist in diesem Zusammenhang eigentlich der Finetuning-Prozess, weil dieser wirklich das Verhalten der KI verändert. Hier wird mit sehr viel ausgewählteren Daten und durch menschliches Feedback das Verhalten der KI noch einmal extra trainiert, d.h. welche Arten von Antworten die KI wie strukturiert herausgibt. Zwischen einzelnen Ländern wird dieser Prozess natürlich sehr unterschiedlich sein und dementsprechend werden diese KIs sich auch verhalten. Ich kann mir sehr gut vorstellen, dass die chinesische KI viel strenger gefinetunt wird als z.B. westliche Modelle.

Lehrer fragen ChatGPT danach, ob es diesen Text geschrieben hat“

KI in Form von Sprache oder Bildern befördert den schönen Schein. Brauchen wir dafür bald eine neue Art Medienkompetenz? Oder reicht weiterhin unser Bauchgefühl?

Ich glaube: Das eigene Bauchgefühl hat noch nie gereicht. Mit einer neuen Technik muss man sich befassen. Man muss sich kritisch damit auseinandersetzen. Welche Möglichkeiten und welche Grenzen damit existieren. Was sie können und was nicht. Wie bei jeder Technologie ist das eine Aufgabe, vor der wir gerade stehen. Es gibt jetzt ein grundsätzliches Misstrauen an Bildungseinrichtungen: Dass Lehrer und Professoren Schülern und Studenten nicht mehr glauben, irgendwelche Aufsätze selbst geschrieben oder Hausaufgaben selbst gelöst zu haben. Es gibt wiederum andere Lehrer und Professoren, die dann ChatGPT danach fragen, ob es einen bestimmten Text geschrieben hat. Was genauso bescheuert ist, denn das Programm kann das auch nicht beantworten und denkt sich irgendwas aus. Das, was es darauf antwortet, hat nichts mit der Wahrheit zu tun.

Da sind noch ganz viele Lücken, wo Menschen Erwartungen an das Programm haben, die nicht erfüllt werden können. Ein Lernprozess, durch den man einfach durch muss. In diesem Fall ist es besonders tricky, weil ChatGPT besonders gut formulierte Antworten ausgibt. Sie hören sich so richtig an, dass man erst mal keinen Zweifel daran hat – wenn man es nicht besser weiß. Das ist das Gefährliche daran. Setzt man es in der Software-Entwicklung ein, gibt es teilweise Code mit plausibel klingenden Funktionen zurück, die es aber gar nicht gibt. Was in der Reaktion darauf andere dazu bewogen hat zu sagen: Diese Funktionen müsste es aber eigentlich auch geben. Das ist ein Lernprozess, der auch für intelligente Leute gar nicht so leicht zu verstehen ist.

Noch enthalten Bilder bzw. Videos Fehler. Das lässt sich noch ganz gut einordnen, aber wie lange wird das so bleiben?

Einige Studien behaupten GPT4, also der Nachfolger des aktuellen ChatGPT, produziere bereits sehr viel weniger Halluzinationen als 3.5. Es gibt Strategien, diese Fehler zu minimieren, z.B. indem ChatGPT die eigenen Antworten evaluiert oder mit einer Wissensdatenbank verknüpft. Ich würde daher schon davon ausgehen, dass in den nächsten Jahren diese Wahrhaftigkeitsproblematik bei den KIs besser wird. Ob sie gelöst wird, das wage ich mal zu bezweifeln.

Dann ließen sich Videos und Bilder kaum noch von der Wirklichkeit unterscheiden. Wie im Fall des sogenannten „Fake-Klitschko“, als angeblich Vitali Klitschko ein Telefongespräch mit Franziska Giffey führte. Braucht es im Digitalen auch einen Wertekompass: Was ich analog nicht tue, mache ich digital erst recht nicht?

Ich weiß nicht, ob sich Kriminelle von einem Wertekompass abschrecken lassen (lacht). Es wird gemacht, wodurch sich irgendwelche Gewinne erzielen lassen. In einem Wertekompass sehe ich ehrlich gesagt keinen Sinn.

Menschen werden das ausnutzen“

Sie meinen, eine Ethik des Digitalen würde uns nichts nutzen?

Sie würde uns auf jeden Fall nicht schützen. Leute tun böse Dinge. Das haben sie immer getan. Das werden sie immer tun. Und mit KIs gibt es neue Möglichkeiten, böse Dinge zu tun und solche Menschen werden das ausnutzen. Mit einem Wertekompass kann man Google oder Facebook beeindrucken, aber nicht irgendwelche Kriminellen.

Was halten Sie von einem Deepfake-Filter?

Wenn es so was geben könnte, woran ich nicht glaube, dann könnte man einen Filter vorschreiben, der zumindest auch anzeigt, was hier der Deepfake ist und was nicht. Es gibt auch die Idee einer Auszeichungspflicht. Das kann man alles machen, nur die tatsächlichen Kriminellen wird es nicht davon abhalten, damit Schindluder zu treiben.

Quelle: „Das eigene Bauchgefühl hat noch nie gereicht“ | choices – Kultur. Kino. Köln.