Krasse Links No 21

Willkommen zurück bei Krasse Links No 21. Meine Erschöpfung ist zwar nicht völlig überwunden, aber ich kann doch den ganzen Quatsch unmöglich so stehen lassen? Also programmiert Euch das Netzwerk auf den Duden, heute beerdigen wir den KI-Hype.


Trotz Spanien! Deutschland atmet auf!

Konkret soll die Schuldenbremse für den Haushalt 2025 nicht ausgesetzt werden. Der Bund will im kommenden Jahr 44 Milliarden Euro neue Schulden aufnehmen – und mit dieser Kreditaufnahme bei einem Haushalts-Gesamtvolumen von 481 Milliarden Euro die Vorgaben der Schuldenbremse einhalten, sagte Lindner.

Wenn man sich einmal von den Quatscherzählungen von „Haushaltsdisziplin“ und der „schwäbischen Hausfrau“ gelöst hat und verstanden hat, dass die Schuldenbremse wirtschaftspolitisch das Gegenteil von Sinn macht und selbst den Unternehmen schadet, dann stellt sich natürlich die Frage, warum sie immer noch so erbittert verteidigt wird.

Meine in Deutschland offenbar unpopuläre These dazu ist, dass die Schuldenbremse ein strukturelles Unterdrückungsinstrument gegen die Bevölkerung ist. Durch die pauschale Verhinderung von öffentlichen Investitionen hat die herrschende Klasse ein Default-Veto gegen die Demokratie eingelegt und es mit Verfassungsrang ausgestattet, das sie aber bei Bedarf (Polizei, Rüstung, Subventionen, Steuersenkung, Krisenstablilisation, etc.) durch ihre Statthalter bypassen lassen kann. Was sind schon ein paar Milliarden Euro Verlust gegen so einen Hebel?


Nachdem Murati neulich ja bereits zugegeben hatte, dass OpenAI keine fortschrittlichere Variante ihrer LLMs in ihren Labs testet, hat sie vorletzte Woche nochmal nachgelegt und die Medien haben davon natürlich den Bullshitclaim vom „PhD-Level-GPT“ in ihre Headlines gehoben und die eigentliche Sensationsmeldung übersehen:

„Murati nods her head, and then clarifies that it’d be in a year and a half. If that’s true, GPT-5 may not come out until late 2025 or early 2026.“

Laut OpenAI endete das Training von GPT-4 im August 2022, es ist also jetzt schon zwei Jahre alt. Seitdem hat jeder Tech-Konzern von Rang zig Milliarden von Dollar an Ressourcen mobilisiert, um OpenAI vom Thron zu stoßen, doch weder Gemini 1.5, Claude 3, oder LLamA 3 konnten GPT-4 überholen, sondern strandeten auf demselben Plateau. Und jetzt sagt die CTO im Grunde, dass sie nicht nur nichts haben, sondern nicht mal einen Plan wie es weitergeht?

Inzwischen haben sogar Fanboys den Braten gerochen, die sonst eng am Hype-Train gekettet waren und jetzt called auch noch Goldman Sachs Bullshit. Noch letztes Jahr zitierte ich ihren Bericht, in dem von einem Drittel Ki-betroffener Jobs und 7% globales GDP-Wachstum die Rede war. Ein Jahr später hört sich das anders an:

The promise of generative AI technology to transform companies, industries, and societies continues to be touted, leading tech giants, other companies, and utilities to spend an estimated ~$1tn on capex in coming years, including significant investments in data centers, chips, other AI infrastructure, and the power grid. But this spending has little to show for it so far beyond reports of efficiency gains among developers.

Einer der interviewten Experten vom MIT geht jetzt höchstens noch von 1 % GDP-Wachstum aus:

If only 23% of exposed tasks are cost effective to automate within the next ten years, this suggests that only 4.6% of all tasks will be impacted by AI. Combining this figure with the 27% average labor cost savings estimates from Noy and Zhang’s and Brynjolfsson et al.’s studies implies that total factor productivity effects within the next decade should be no more than 0.66%—and an even lower 0.53% when adjusting for the complexity of hard-to-learn tasks. And that figure roughly translates into a 0.9% GDP impact over the decade.

Ich bin so weit zu sagen: KI ist ein Scam. Nicht so ein offensichtlicher Scam wie die Crypto-Pyramidensysteme, sondern ein Scam auf Ebene des Erwartungsmanagements und ich bin mir sicher, dass der Scam seit ca. 2 – 4 Jahren läuft.

Hier, was ich glaube, das passiert ist: 2018 oder so stolperte OpenAI über Googles Paper „Attention is all you need“ (das machte am Anfang keinen großen Splash, da ging es ja eigentlich um maschinelle Übersetzung) und sie stellten fest, dass das Ding mit immer mehr Daten in seinen Fähigkeiten skaliert. 2019 veröffentlichten sie GPT-2 und 2020 dann GPT-3 und provten ihren Case, aber ab da müssen sie bereits auf „deminishing Returns“ gestoßen sein und meine These ist, dass sie die nächste Skalierungsstufe deswegen nur GPT-3.5, statt GPT-4 tauften und seitdem nach anderen Wegen der Optimierung suchen.

Die GPT-4-Specs sind bekanntlich geheim, aber laut hartnäckigen Gerüchten basiert GPT-4 bereits auf einem Trick, nämlich dem Mixture of Experts-Ansatz, wo bei Eingabe des Prompts entschieden wird, an welche speziell dafür optimierte „Experten-GPT“ die Anfrage weitergeleitet wird.

Mit der Veröffentlichung von ChatGPT im November 2022 startete dann unerwartet der Goldrausch und im Überschwang ihres Selbstbewusstseins schoben sie GPT-4 im April 2023 gleich hinterher und vertrauten auf ihre nicht vorhandene Genialität, um das Plateau-Problem schon irgendwie zu beheben.

Und seitdem rudern sie. Ich glaube einer der versuchten Ansätze war tatsächlich die Multimodalität, die sie mit der Hoffnung verbanden, dass sich durch die Verknüpfung der sprachlichen mit den bildlichen Referenzen die Lücken im „World Model“ der LLMs vervollständigen, aber ich bin mir mittlerweile sicher, dass die Idee des World Models – gleich neben ihrer Quatsch-Idee von der linearen Intelligenz-Hierarchie – eine der zentralen Denkfallen ist, in die sie getappt sind und nicht mehr rausfinden.

Zumindest kann man festhalten, dass Multimodalität zwar neue Features, aber keine Verbesserung der Kognition unlocked hat und ich nehme an, dass auch die Q* Idee kläglich gescheitert ist und jetzt stehen sie mit leeren Händen mitten im selbst ausgelösten Hype und wissen nicht, wie sie ihren Investoren beibringen sollen, dass sie ihre Billion Dollar vielleicht nie mehr wiedersehen werden.



Der Google KI-Forscher Francois Chollet war im Tech-Bro Podcast von Dwarkesh Patel und es war trotzdem interessant. Chollet scheint einer der wenigen seriösen KI-Menschen im Silicon Valley zu sein und im Gespräch dekonstruiert er gekonnt die „Intelligenz“-Unterstellungen gegenüber LLMs, insbesondere den Mythos eines „Weltmodells“.

Zusammen mit einem Kollegen hat Chollet die ARC-Benchmark geschaffen, an der sich LLMs die Zähne ausbeißen und das liegt daran, dass die Fragen zwar simpel sind aber sich nicht mithilfe der memorisierten Trainingsdaten lösen lassen. Chollet zufolge ist das der Beweis, dass LLMs eben nicht „denken“, sondern immer nur gelernte Strukturen zu reproduzieren im Stande sind und also ja, doch schon irgendwie stochastische Papageien sind … aber auf ziemlich viel Speed?

Doch was passiert dann genau, wenn LLMs erfolgreich hoch abstrakte Konzepte wie Deduktion, Syllogismus, Multistakeholderanalyse oder Gedichtinterpretation anwenden? Chollet spricht davon, dass LLMs diese Konzepte als „Programme“ vorhalten und flexibel „anwenden“ können. Das darf man sich natürlich nicht „literally“ vorstellen, nicht wie geschriebener und maschinenlesbarer Code, aber schon als im Lernprozess hängengebliebene und zur Anwendwendbarkeit hinreichend abstrahierte und so für das LLM dann regelhaft abarbeitbare semantische Operationen. Und so wird vorstellbar, dass die LLM die genannten Konzepte mit den entsprechenden Kontext-Parametern bestückt und ihre Semantikpfade regelhaft abarbeitet und so einen erwartungsgemäßen Output generiert. Statt einem „Worldmodel“ scheint die LLM also eine riesige Bibliothek von Semantik-Programmen vorzuhalten?

Aber, again, machen wir Menschen das so viel anders? Laufen nicht auch wir regelgeleitete Semantikpfade ab, wenn wir Theorien oder Methoden anwenden? Und ist nicht auch der „westlichen Blick“, den ich hier immer so gern dekonstruiere, so ein Programm? Sind nicht auch die Narrative der „Scaling Laws“ und des „World Models“ solche Programme, die zu regelgeleiteten, aber trotzdem falschen Schlüssen führen?

Ich sage das nicht, um die menschlichen kognitiven Fähigkeiten abzuwerten oder dem Menschen die Agency zu nehmen, ganz im Gegenteil. Eröffnet es nicht vielmehr neue Pfade der Freiheit, die eigene Programmiertheit zu interrupten und neue Programme zu entwerfen?


Auch der lesenswerte Newsletter SnakeOil-AI hatte neulich die Scaling Laws beerdigt, aber hier wollte ich auf die aktuelle Ausgabe aufmerksam machen, denn neben dem großen Versprechen um AGI und der „Intelligenzexplosion“ basiert der Hype auch auf einem zweiten, nicht ganz so großen, aber dennoch zentralen Versprechen: Agents.

Ich hatte schon mal über Agents geschrieben und war zumindest vorsichtig optimistisch, dass spätestens mit GPT-5 (LOL!) sowas denkbar wird, aber das hat sich ja fürs erste erledigt. Sayash Kapoor und Arvind Narayanan fassen die Herausforderungen wie folgt zusammen:

One major research challenge is reliability — LLMs are already capable enough to do many tasks that people want an assistant to handle, but not reliable enough that they can be successful products. To appreciate why, think of a flight-booking agent that needs to make dozens of calls to LLMs. If each of those went wrong independently with a probability of, say, just 2%, the overall system would be so unreliable as to be completely useless (this partly explains some of the product failures we’ve seen).

Die beiden advertisen ihr Paper, das bessere Kriterien zur Evaluation von Agententwicklung anbietet, aber meiner Meinung nach reicht der Ausschnitt, um das Thema erstmal auf die lange Bank zu schieben.

Womit wir bei Apple wären, die den derzeit ernstzunehmendsten Versuch unternehmen, agent-artige Features aus den bereits verfügbaren LLMfähigkeiten rauszupressen und ich denke, es ist kein Zufall, dass selbst das vergleichsweise bescheiden angekündigte „Apple Intelligence“ bis heute Vaporware geblieben ist. Meine Wette: will never ship?

Generative KI ist immer dann erstaunlich gut, wenn man an den Output keine konkreten Erwartungen stellt, aber je genauer man sie etwas „so und genau so“ machen lassen will, desto unmöglicher stellt sich das Unterfangen heraus. LLMs verhalten sich dann weniger wie „smart Highschooler“ im Sekretärs-Ferienjob, sondern mehr wie Heisenbergs Photonen, die ihren Aufenthaltsort verweigern, je genauer man ihre Geschwindigkeit misst.

Aber wenn AGI abgesagt ist und automatisierte Agents ebenfalls nicht in Sicht sind … was bleibt dann noch?


Ach ja, „Stuff“ produzieren.

„GenAI-powered political image cultivation and advocacy without appropriate disclosure, for example, undermines public trust by making it difficult to distinguish between genuine and manufactured portrayals. Likewise, the mass production of low quality, spam-like and nefarious synthetic content risks increasing people’s skepticism towards digital information altogether and overloading users with verification tasks. If unaddressed, this contamination of publicly accessible data with AI-generated content could potentially impede information retrieval and distort collective understanding of socio-political reality or scientific consensus. For example, we are already seeing cases of liar’s dividend, where high profile individuals are able to explain away unfavorable evidence as AI-generated, shifting the burden of proof in costly and inefficient ways.“

Das „Zeitalter des Rauschens“ schön beschrieben, ausgerechnet in einem Paper von Google?


Auf Strage Matters hat John Michael Colón einen ellenlangen Longread über die Politische Ökonomie von Frederic S. Lee veröffentlicht. Lee ist bereits seit 2014 tot, aber sein Werk scheint wirklich eine enorme Fundgrube zu sein. Lee stellte der neoklassischen Schule nicht nur ein besseres Modell entgegen, sondern unterfütterte es mit einem großen Korpus an empirischer Forschung.

Die Arbeit von Lee wird im Text episch ausgebreitet und nebenbei auch die vielen Kleinkriege behandelt, die in der zweiten Hälfte des 20. Jahrhunderts an den Universitäten geführt wurden. Turns out: so wie auch der Kapitalismus gewaltsam eingeführt wurde, wurde auch die Hegemonie der neoklassische Ökonomie mit koordinierten Kampagnen und schmutzigen Tricks gegen die heterodoxen Schulen durchgepeitscht. Ihr wisst schon, market place of Ideas und so.

Eine der zentralen Streitfragen in der Ökonomie kreist um die Frage, wie Preise entstehen. Marx sah im Preis den Tauschwert abgebildet, der wiederum die in der Ware enthalte Arbeitsleistung repräsentiere. Die klassischen Ökonom*innen sehen dagegen den Preis als Ergebnis des dynamischen Sich-Verhaltens von Nachfrage und Angebot. Angebot ist klar, aber die Nachfragekurve definiert sich dabei als der aufaddierte „Marginalnutzen“ den Konsument*innen aus der Ware ziehen, wobei „Marginalnutzen“ die Tatsache abbilden soll, dass das dritte Eis in Folge weniger Spaß macht, als das erste, usw.

Diese unnötig komplizierten (und nebenbei empirisch unüberprüfbaren) Theorien entkräftete Lee, indem er einfach mal nachgefragt hat. Im direkten Widerspruch zum neoklassischen Modell, bei dem der Preis jederzeit in der Aushandlung ist und den Anbietern als definitives Signal gilt, an dem sie ihre Preisgestaltung orientieren, werden Preise in der Realwelt von Menschen gesetzt und haben eine enorme Stabilität gegenüber Änderungen von Angebot und Nachfrage. Unternehmen interessieren sich bei der Preisgestaltung recht wenig für Marginalnutzen und Nachfragekurve und nichtmal primär für Gewinn, sondern richten ihr Handeln im wesentlichen darauf aus, auch morgen noch zu existieren, weswegen die Kostendeckung natürlich Front and Center jeder Preisgestaltung ist. Und selbst bei Überlegungen, welche Marge man noch draufschlägt, sind selten Gewinnmaximierungsfragen, sondern meist strategische Überlegungen relevant. Will ich den Marktanteil vergrößern, was will ich meinen Kund*innen oder meinen Investoren signalisieren? Wann macht es Sinn sich auf einen Preiskampf einzulassen? (Überraschung: so gut wie nie).

Das Ergebnis ist Lees „Administered Prices Theory“ und die zusätzliche Beobachtung, dass Preise zwar schon auch der Kommunikation dienen, aber der Kommunikation zwischen Konkurrierenden Unternehmen. In der Realität schält sich nämlich immer ein oder zwei „Price-Leader“ heraus, an dem sich alle anderen Unternehmen orientieren.

„there is absolutely no regular relationship between variations in demand, supply, and price. Prices simply aren’t functioning as they are supposed to according to marginalist theory—changing when demand shifts, signaling what and how much agents must now buy or produce—because they have completely different purposes instead. The price mechanism that’s supposed to allocate resources in the economy isn’t distorted by imperfections, it isn’t the ideal from which reality diverges—it simply does not exist.“


Hier kann man dem Markt beim Regeln zuschauen.

Hunderttausende Menschen suchen bundesweit händeringend eine Wohnung – und finden keine. Dabei stehen fast zwei Millionen Wohnungen leer, wie eine aktuelle Statistik zeigt.


Die politische Ökonomin Cecilia Rikap hat ein furioses Paper über die politische Ökonomie von KI verfasst, das mir von seinem ganzen Ansatz her voll aus dem Herzen spricht. Sie analysiert dabei, wie sich die großen Tech-Giganten Kontrolle, Einfluss und Marktmacht über den KI-Markt sichern und zwar indem sie die KI-„Startups“ (mir widerstrebt das Wort in dem Kontext) von ihrem Kapital und ihren Cloudinfrastrukturen abhängig machen.

„In short, acquisitions are not the only way for large tech companies to access start-ups’ intangibles and talent while keeping potential rivals at bay. A more hidden yet prevalent form of domination involves the use of corporate venture capital to get preferential access to capabilities, knowledge and information and a chance to steer start-ups’ research and development.“

Macht ist ja normalerweise latent, aber der Coup bei OpenAI machte sie plötzlich ziemlich handfest: nachdem das Board Sam Altman gefeuert hatte, ließ er sich von Microsoft anstellen, die bereits die Cloudinfrastruktur von OpenAI kontrollierte, und drohte, auch die restlichen Mitarbeiter*innen abzuwerben. Das Board merkte schnell, dass alle relevanten Abhängigkeiten auf Seiten Altmans lagen und ihre rechtlich verbriefte Entscheidungsgewalt das Papier nicht wert war, auf dem sie stand.

Dass sich die Macht im KI-Markt im Infrastrukur-Layer konzentriert, hatte ja bereits Nick Srnicek beobachtet, aber Rikap arbeitet diese Vorherrschaft bis in die verfolgten Abhängigkeitsstrategien heraus.

No single existing institution or organisation can afford to produce LLMs or other advanced AI models without relying on technologies controlled by Amazon, Microsoft or Google which could be extended to include AI GPUs from Nvidia, though the three cloud giants are also designing their own AI semiconductors.

Ok, hier ein einfaches politische Ökonomie-Modell:

Ökonomie besteht aus einem multidimensionalen Netzwerk von unterschiedlichen Abhängigkeitsbeziehungen zwischen Akteuren, wobei die unterschiedlichen Arten der Abhängigkeiten (repräsentiert durch Dimensionen) nicht auf materielle Abhängigkeiten beschränkt sind. In der Ökonomie sind alle Abhängigkeiten relevant, familiäre, soziale, semantische und emotionale Abhängigkeiten und eben auch nicht nur diejenigen, die entlang von kommerziellen Transaktionen bedient werden, sondern auch die, die durch öffentliche Daseinsvorsorge oder freiwilliger, privater Fürsorge (Care) adressiert sind (umgerechnet geschätzte 11 Billionen Dollar).

Die Kehrseite der Abhängigkeit ist Macht. Macht ist in diesem Framework schlicht Betweenness-Zentralität im Abhängigkeitsnetzwerk. Mächtig sind die, von denen viele abhängig und die selbst von möglichst wenigen abhängig sind. Alle Geldflüsse repräsentieren diese Macht, ohne sie aber 1:1 abzubilden (Macht muss immer auch latent bleiben). Alle Einkommen in diesem Modell sind „Renten“, denn sie basieren auf dieser Machtposition.

Doch wie kommt man an Macht?

Entlang des Netzwerks der Abhängigkeiten existiert ein zweites Netzwerk: das Netzwerk der Infrastrukturen, das sich in einem cooevolutionären Prozess mit dem Abhängigkeitsnetzwerk entwickelt hat: Abhängigkeiten erfordern Infrastrukturen, Infrastrukturen kreieren neue Abhängigkeiten, etc.

Infrastrukturen sind, weil sie Abhängigkeiten bedienen, erzeugen, konzentrieren oder managen, gleichzeitig die wichtigsten Instrumente zur Erlangung und Absicherung von Macht in der Gesellschaft. Auch wenn ich Marx Werttheorie nicht teile, sehe ich seinen wichtigsten Beitrag in der Erkenntnis, dass die Gesellschaft grob dadurch stratifiziert ist, dass ein paar wenige die Infrastrukturen kontrollieren und alle anderen Teil der Infrastruktur sind.

Für die Besitzer der Infrastruktur ist der Kapitalismus tatsächlich eine Art mehrdimensionales Netzwerk-Monopoly, bei dem sie durch geschicktes Platzieren von Infrastruktur alte Abhängigkeiten konzentrieren oder neue Abhängigkeiten generieren können, was dann ihrer relativen Betweenness-Zentralität zu Gute kommt.

Konstruktionen wie Fabriken, globale Supply-Chains, Plattformen und nun eben KI sind dabei sich immer wieder neu ergebende Infrastruktur-Strategien, bzw. Infrastrukturen sind „materielle Programme“ if you will. Auch sie bearbeiten regelgeleitet die vorgefundenen Netzwerkstrukturen, nur eben die des Abhängigkeitsnetzwerkes.

Und dass diejenigen, die die privaten Infrastrukturen kontrollieren, sich durch die Schuldenbremse jetzt auch noch Kontrolle über die öffentlichen Infrastrukturen gesichert haben, wird jetzt nochmal deutlicher zum Problem?


Adam Tooze war bei Jung und Naiv und ich habe dabei mal wieder gemerkt, wie wichtig er für mich als Orientierungspunkt geworden ist. So genau kannte ich seine Haltung zu Israel/Palestina z.B. gar nicht, aber ich finde mich bei ihm zu 99% wieder.

Im letzten Teil, der Zuschauer-Fragerunde, etwa bei 2:38, geht es um seine „Methode“ und Tooze erzählt sehr persönlich und nahbar davon, wie er vor ca. 10 Jahren eine andere Arbeitspraxis etablierte, die er mit dem „Management eines Flusses“ vergleicht und wie ihm auch der Newsletter eine Form dafür gab.

Sie kommen dann im Gespräch darauf, dass sich eine Akkumulation von Wissensbeständen wie die kritische Masse in der Atomphysik verselbstständigen kann und dann wie von selbst neue Erkenntnisse produziert. Man schreibt nicht, man „wird geschrieben“ und ein Teil der Arbeit besteht darin, zu entscheiden, welchen Einflüssen man sich aussetzt und der andere, sie wie ein DJ zu „remixen“.

Ich habe mich da vollkommen wiedergefunden und ich glaube, die gleichzeitige arbeitsstrukturelle und inhaltliche Nähe sind kein Zufall. Klar, es wäre leicht zu sagen, dass ich mir Stil und Haltungen von Tooze abgekupfert habe und sicher ist da etwas dran, aber aus meiner Perspektive ist es eher so, dass sowohl Tooze als auch ich (und sicher tausende andere) einem noch tiefer liegendem Rhythmus folgen, einem geteilten epistemischen „Programm“. Donna Haraway hat dieses Programm am besten auf den Punkt gebracht:

„Niemand lebt überall; jeder lebt irgendwo. Nichts ist mit allem verbunden; alles ist mit etwas verbunden.“

Daraus ergibt sich eine in das Netzwerk eingebettete und verletzliche Beobachterperspektive, die stetig versucht, einen plausiblen Semantik-Pfad entlang der hereinbrechenden Welt zu navigieren. Und vielleicht könnte das ja die Grundlage der Metaphysik des nächsten Worldings werden?

“Twitter ist zu einer Nazi-Propaganda-Waffe geworden” | BR24

Ich war beim Bayrischen Rundfunk und habe über das Ende der digitalen Öffentlichkeit gejammert.

Eigentlich waren soziale Netzwerke als Orte des Austausches gedacht. Doch diese Zeiten sind vorbei, sagt der Medienwissenschaftler Michael Seemann dem BR Zündfunk. Er warnt: Die wenigsten haben auf dem Schirm, wie schlimm es wirklich ist.

Quelle: “Twitter ist zu einer Nazi-Propaganda-Waffe geworden” | BR24

Krasse Links No 20.

Willkommen bei Krasse Links No 20. Hübscht Eure Weltmodelle auf, heute sagen wir dem Westen adieu.


Programmingnote: Beim Schreiben der letzten beiden Newsletter habe ich eine gewisse Erschöpfung gespürt, daher wird die nächste Ausgabe ausfallen.


Reuters hat eine verdeckte Informationsoperation der US-Geheimdienste aufgedeckt, die in der Hochphase der Pandemie aktiv daran arbeitete, Desinformationen über Covid-Impfungen zu verbreiten. Es wurden dabei in erster Linie Bevölkerungen außerhalb des Westens, besonders in Zentralasien und Nahost, anvisiert und das Ziel war, den in China entwickelten Impfstoff Sinovac zu diskreditieren.

The U.S. military’s anti-vax effort began in the spring of 2020 and expanded beyond Southeast Asia before it was terminated in mid-2021, Reuters determined. Tailoring the propaganda campaign to local audiences across Central Asia and the Middle East, the Pentagon used a combination of fake social media accounts on multiple platforms to spread fear of China’s vaccines among Muslims at a time when the virus was killing tens of thousands of people each day. A key part of the strategy: amplify the disputed contention that, because vaccines sometimes contain pork gelatin, China’s shots could be considered forbidden under Islamic law.

The military program started under former President Donald Trump and continued months into Joe Biden’s presidency, Reuters found – even after alarmed social media executives warned the new administration that the Pentagon had been trafficking in COVID misinformation. The Biden White House issued an edict in spring 2021 banning the anti-vax effort, which also disparaged vaccines produced by other rivals, and the Pentagon initiated an internal review, Reuters found.

Ich bin ehrlich überrascht, wie überrascht ich bin, dass hybride Kriegsführung nicht nur von Russen und Chinesen betrieben wird?


Die Chief Technical Officer von OpenAi, Mira Murati gab ein On-Stage-Interview und lies Folgendes in einem Nebensatz fallen:

„inside the labs we have these capable models and you know they’re not that far ahead from what the public has access to for free“

Man vergleiche das mit den Aussagen, die ihr Boss Sam Altman immer so fallen lässt. Schon Ende letzten Jahres ließ er die Phantasie bei seinen Zuhörern sprudeln, als er sagte:

„On a personal note, like four times now in the history of OpenAI, the most recent time was just in the last couple of weeks, I’ve gotten to be in the room when we pushed the veil of ignorance back.“

Und noch vor ein paar Wochen sprach er davon, dass GPT-4 längst überholt sei:

„GPT four is the dumbest model any of you will ever, ever have to use again, by a lot.“

Man muss diese Divergenz in den Aussagen zwischen CTO und CEO im Kontext der Mechaniken des KI-Hypes verstehen. Zentral in diesem Narrativ ist das, was man in der KI-Forschung als „Scaling Laws“ bezeichnet, was im Grunde erstmal nur die Suche nach dem optimalen Verhältnis der Menge von Trainingsdaten und Parametern (also Größe des neuronalen Netzes) und die zu investierende Menge an Computerpower bezeichnet. Aber eine populäre Annahme hinter den Scaling Laws ist, dass man die Modelle mit der richtigen Mischung aus Daten, Parametern und Compute bis zur AGI hochskalieren kann.

Neulich hatte Leopold Aschenbrenner, deutschstämmiger Silicon-Valley-Karrierist und kurzzeitiger OpenAI-Mitarbeiter diese plumpe Logik in einem 160 Seiten langen Essay zur Karikatur zugespitzt. Aschenbrenner erklärt das Wettrennen für AGI als eröffnet und rechnet mit seinem Eintreffen bis spätestens Ende des Jahrzehnts. Grundlage sind auch hier die Scaling Laws, referenziert als „Orders of Magnitude“ (OOPs), und nur mit echt ausgedachten LLM-Benchmarks wie „Pre-Schooler“, „Elementary Schooler“ und „smart High-Schooler“.

Aschenbrenner verbindet die Scaling-Laws mit der Vorstellung von Intelligenz als lineare Hierarchie, die irgendwo bei der Amöbe anfängt und sich über die Tierwelt nach oben zum Menschen und von dort durch die Bildungsgrade arbeitet, um schließlich beim KI-forschenden Mathe-PHD aus Harvard zu enden, jedenfalls vorläufig bis 2027.

Aschenbrenners Paper ist die Innenansicht der Ideologie, die Microsoft gerade dazu bringt, hunderte von Milliarden Dollar in dedizierte Rechenzentren zu investieren; die Google dazu anhält, das Web und damit ihre eigene Lebensgrundlage zu abtöten, in der vagen Hoffnung mit AGI den besseren Deal zu haben; sie bringt Elon Musk dazu, seinen eigenen Bankautomaten (Tesla) zugunsten eines imaginierten xAGI zu plündern und macht Nvidia zur wertvollsten Firma der Welt.

Silicon Valley geht All-In und setzt den Staatshaushalt eines mittelgroßen Industrielandes auf eine vermeintlich bevorstehende „Intelligenz-Explosion“, deren Horizont kein Science-Fiction-Roman bisher fähig war, zu imaginieren. In diesem Narrativ schreitet der Westen (= die Menschheit!) demnächst durch den Endpunkt seiner eigenen Zukunftsvorstellungen.

Doch wenn Murati eineinviertel Jahre nach dem Release von GPT-4 andeutet, dass alles, was OpenAI in ihren Laboren so testet nur wenig besser ist, dann werden auf einen Schlag alle exponentiellen Graphen zur Makulatur.


In der taz schimpft Mattias Kalle über Volt und ich weiß, was er meint, aber er trifft nur so halb.

Und vielleicht ist es genau das, was mich so stört und wütend macht: dass es eine durch und durch populistische Partei ist, die mithilfe von Werbung aus der Mottenkiste aber so tut, als sei sie progressiv oder neu oder anders oder links.

„Volt“ ist ein Politik-Start-up von reichen Schnösel-Kids, die versuchen, die Leere in ihren Herzen mit Sinn und Inhalt zu füllen. Ist aber auch nur so ein Gefühl.

Das Problem an Volt ist nicht ihr Populismus, sondern im Gegenteil ihre Sternenflottenoffizierhaftigkeit. Sie positioniert sich als linksliberal-pragmatische „Good policy“-Alternative zu den als zu „ideologisch“ empfundenen Linken und Grünen. Mehr noch als die herkömmlichen Parteien sehen sie die Gesellschaft als Ansammlung von Problemen und Politik als den Wettbewerb um die besten Lösungen für diese Probleme.

Wir brauchen aber keine „Lösungen“. Egal ob für die Klimakrise oder die soziale Ungleichheit: Lösungen haben wir genug. Stattdessen verhindert … irgendwas seit Jahrzehnten erfolgreich, dass wir diese Lösungen auch anwenden?

Was fehlt ist der richtige Konflikt. Wir brauchen das Gegenteil von Volt, nämlich eine wirklich radikal bis plump linkspopulistische Massenbewegung, die mit nackten Fingern auf zu gut angezogene Milliardäre zeigt und ihnen irrational kreischend den Krieg erklärt.


Die Journalisten Evan McMorris-Santoro und Alex Roarty stellen in einem Artikel für Notus fest, dass die Abkehr von X gescheitert ist.

But he stands by his point: Political elite circles are on Twitter once again, only in a weirder fashion than before Elon Musk took over at the end of 2022. The argument is over; the hellsite is back. It’s a win for Musk, but one that people absolutely do not want to hand to him. In interviews, users said Twitter is not what it was, but also it’s not as bad as it was in the most chaotic days after it became Musk’s to do with as he pleases. People do not like to be on it, but they also once again have to be. Two years after words like Mastodon, BlueSky, Post and Threads became rallying cries and users declared war on the blue check, those who made Twitter what it was in the days before Musk have returned to using X.

Ryan Broderick hält diese Beobachtung allerdings für den typischen Fehlschluss einer orientierungslosen Journalistenkaste.

„Look, I get why reporters are reticent to get off X. Even with its new algorithmic For You tab, it’s still the only site that you can semi-reliably share real-time information on. But I would also argue that the fact that a massive chunk of yet-to-be-laid-off political journalists using a platform no one else is on is exactly why this election does not feel like it’s even happening.“

Aber es sind eben nicht nur die Journalist*innen. In diesem Paper haben Wissenschaftler*innen der Universität von Pennsylvania die versuchte Migration von 7542 wissenschaftlichen Accounts auf Mastodon verfolgt und kommen zu einem bedrückenden Fazit: nach einer initialen Phase der Migrationseuphorie verstummten die meisten innerhalb kürzester Zeit.

Among the users we tracked, the majority failed to maintain the same level of activity. This could be attributed to steep learning curve compared to twitter as well as competition from more user-friendly platforms like Bluesky and Threads. These alternatives might have drawn away potential users exacerbating Mastodonś difficulties in becoming a central hub for professionals communities.

Seit Jahren weise ich immer wieder auf die grundlegende Kraft der Netzwerkeffekte (oder wie ich es im Buch nenne: Netzwerkmacht) hin. Wer’s nicht kennt: Menschen gehen dort hin, wo sie andere Menschen finden, mit denen sie reden können, Überraschung! Alle technischen Features und Sperenzchen, KI, Algorithmus, dezentral, zentral, Protokoll, Dienst – alles völlig Wumpe gegen die Netzwerkeffekte. Netzwerkmacht ist eine Art soziale Gravitation, die Netzwerke erfolgreich macht und sie als Entitäten zusammenhält.

Und das bedeutet eben auch, dass die vielen konkurrierenden Angebote, die den Umstieg von X beschleunigen wollten, ihn in Wirklichkeit verunmöglicht haben. Hätte es EINE Alternative zu X gegeben, hätte der Umstieg zumindest eine Chance gehabt? Jetzt verteilen sich die X-ilant*innen eben auf nicht-öffentlichkeitsfähige Kleinst-Netzwerke und verlieren entsprechend sofort das Interesse.

Und das bedeutet, dass X zwar enormen Schwund zu verbuchen hat und ja, nur noch ein Schatten von Twitter ist. Aber in dieser Gemengelage muss es seine alte Stärke nicht behalten, um am Ende zu triumpfieren. Es reicht, wenn X am Ende dieses Zersplitterungprozesses das relativ gesehen relevanteste der Kurznachrichten-Diente bleibt, denn dann ist es der logische der Ort, an dem sich wieder alle sammeln werden – Nazipropandawaffe hin oder her.

(Nein, ich werde nicht wieder zurückgehen.)


Der Ingenieur Walter Zeug war im Future Histories Podcast und erzählt von den Möglichkeiten der „Life Cycle Analysis“ für die demokratische Planwirtschaft.

Wer in dem Diskurs nicht drin ist: seit etwa Hundert Jahren wird diskutiert, wie man Planwirtschaft als Ressourcen-Allokations-Ansatz als Alternative zum Markt sinnvoll auf die Beine stellen kann. Die originale Diskussion wird heute als „Socialist Calculation Debate“ bezeichnet, aber seit dem Aufkommen der digitalen Technologie und ihrer enormen Effektivität bei komplexen Koordinierungsaufgaben wurde das Interesse an dieser Frage wieder neu entfacht und Jan Goos‘ Future Histories hat sich dem Thema wie kein anderer Podcast angenommen.

Das spannende an Walter Zeug ist, dass er als Ingenieur echte und materiell erprobte Erfahrung in der Evaluation von Produktions- und Nutzungsprozessen mitbringt und daher, statt in Theorien herumzufabulieren, wie die meisten von uns, konkrete Anhaltspunkte liefern kann, wie eine postkapitalistische Wirtschaftsordnung aussehen könnte.

Zeug spricht über einen Ansatz, den er „Holistic and integrated Life Cycle Sustainability Assessment“ (HILCSA) nennt, und das scheint tatsächlich ein guter Startpunkt zu sein, um über die Möglichkeiten einer demokratisch geplanten Wirtschaft nachzudenken, weil sie fähig zu sein scheint, Material- und Energie-Flüsse über die gesamte Lebenszeit der Produkte – von der Herstellung über die Benutzung bis zur Entsorgung – einzufangen und diese Flüsse mittels Software sogar abbilden kann. Einer kybernetischen Planwirtschaft steht also nichts mehr im Weg?

In diesem Newsletter sehen wir Wirtschaft bekanntlich als ein Netzwerk von Abhängigkeiten und Infrastrukturen, weswegen ich die Fokussierung auf Materie- und Energie-Flüsse grundsätzlich begrüße. Dennoch spüre ich immer auch einen leichten Volt-Vibe bei diesen Diskussionen?

Zum Einen ist Planwirtschaft am Ende ja auch nur wieder eine „Lösung“ und zum Anderen sogar eine in gewisser Weise unpolitische Lösung, jedenfalls solange sie nicht „Goodhart’s Law“ adressiert:

“When a measure becomes a target, it ceases to be a good measure.”

Wenn man Interessen und Messungen in einen Raum sperrt, werden Wege gefunden, beides miteinander zu alignen und an eine interessenlose Gesellschaft glaube ich auch jenseits des Kapitalismus nicht?

Das führt mich zu einem grundsätzlichen Kritikpunkt bei fast allen linken Utopie-Projekten: Machtfragen werden aus diesen Zukunftsvisionen meistens einfach ausgeklammert, ganz so, als ob mit der Überwindung des Kapitalismus auch alle Machtungleichgewichte aus dem Fenster fliegen?

Schimpft mich liberal, aber ich bin nach wie vor der Überzeugung, dass das Rumlaborieren an neuen Formen der Ressourcenallokation nur halb so wichtig ist, wie die Entwicklung von dynamischen Systemen der Macht-Einhegung. Und nein, der Hinweis auf „Demokratie“ reicht mir nicht.


Abigail Thorn hat sich auf ihrem eh empfehlenswerten Channel „Philosophy Tube“ mal durch das ganze Werk von Judith Buttler gearbeitet und in ihrem Video dazu zeigt sie außerdem, wie der aktuelle Rechtsruck nicht ohne den „War on Gender“ zu denken ist, der sich vorgeblich gegen die Aushöhlung traditioneller Sex- und Gender-Konstruktionen wendet, aber in Wirklichkeit eigene Sex- und Gender-Konstruktionen, die in dieser Starrheit nie existierten, verbindlich machen will. Der Kulturkrieg um Sex und Gender ist für viele der Einstieg in die rechte Radikalisierung und daher muss der antifaschistische Kampf diese Linie genau im Blick behalten.

Ein anderer Aspekt, den ich von Buttler noch nicht kannte ist der Begriff der „Abjectification“, womit einer Form des “Otherings“ gemeint ist, mit der die Gesellschaft Menschen wegsortiert, deren Ausdrucks- und Lebensweise ihr so fremd sind, dass sie ihnen jede Subjektivität abspricht. Dazu gehören eben oft transgeschlechtliche Menschen, arme Menschen, Menschen mit Migrationshintergrund, etc. aber Buttler bezieht diesen Begriff unter anderem explizit auf den westlichen Umgang mit den Palästinensern.


Immer wenn in den letzten Jahren mein Blick auf die Lage der Palästinenser fiel, war mir schon irgendwie klar, dass das nicht richtig sein kann. Während Israel die eine Hälfte in einer Art halbautomatisierten Hühnerkäfig hält (den es gerade in Schutt und Asche legt), wird die andere unter dem Schutz der IDF von Siedlern terrorisiert und vertrieben. Ich schätze mal, dass auch von Euch niemand so leben will?

Doch sobald man versucht, die Unterdrückung der Palästinenser in Worte zu fassen, rennt man sofort in Probleme.

Besatzung“ ist ein Wort, das naheliegt, doch Israel hat sich ja 2005 aus dem Gazastreifen zurückgezogen? Andere haben die Verhältnisse als „Apartheit“, bezeichnet, aber im Gegensatz zum Süd-Afrikanischen System gibt es nicht direkt zwei ausdefinierte Rechtssysteme für unterschiedliche Ethnien, sondern ein Rechtssystem für Israelis und einen Zoo an unterschiedlichen und willkürlich durchgesetzten Rechtssystemen für Palästinenser. Und obwohl sich jetzt ein Prozess des Internationalen Strafgerichtshofs mit der Frage beschäftigt, ob derzeit in Gaza ein „Genozid“ passiert, kann man auch hier gute Gründe finden, warum dieser Begriff (noch) nicht zutrifft. (Die Unsitte, dass man sofort Antisemitismusvorwürfe an den Kopf geknallt bekommt, wenn man einen dieser Begriffe gebraucht, gehört aber hoffentlich der Vergangenheit an, ja?)

Jedenfalls klafft irgendwo in der Überlappung von Besatzung, Apartheit und Genozid eine begriffliche Lücke, die das Leid der Palästinenser beschreibt, aber weil wir uns im Westen mit unterschiedlichen Begründungen jede Benennung dieser Leerstelle verbieten, gibt es schließlich auch kein Problem, oder?

Rabea Eghbariah ist palästinensischstämminger Jurist, der sich mit dieser epistemischen Ungerechtigkeit nicht abfinden will und schlägt in seinem Aufsatz einen eigenen juristischen Begriff für die Gewalt an den Palästinensern vor: „Nakba

„Nakba“ heißt Katastrophe auf arabisch und damit wird gemeinhin die Vertreibung von 750.000 Palästinenser im Zuge der Staatsgründung Israels bezeichnet, doch Eghbariah argumentiert, dass die Nakba nie aufgehört hat. Die Nakba bezeichnet für ihn die andauernde Katastrophe aus anhaltender Vertreibung, verschleierter Rechtlosigkeit und Genozid auf Raten, in der die Palästinenser seit der Staatsgründung Israels leben.

Palestine is best understood through the prism of Nakba, which may fulfill the legal definitions of occupation, apartheid, and genocide at various points while still transcending their confines. In other words, the terms we possess have failed to capture the reality of Palestine not because they are incorrect but because each term highlights only part of the story.

Die „Nakba“, nicht als Ereignis, sondern als Materiell-Semantischer Komplex verstanden, hat ihre materiellen und semantischen Eigenlogiken und eine eigene Geschichte, die Eghbariah ausführlich beschreibt:

The Nakba has thus undergone a metamorphosis. The mid-twentieth century mass expulsion of Palestinians from their homes by Zionist paramilitary forces, and then by the army of the newly founded Israeli state, transformed the Nakba into a tenacious system of Israeli domination; a “Nakba regime” grounded in the destruction of Palestinian society and the continuous denial of its right to self-determination. The spectacular violence of conquest, dispossession, and displacement evolved into a brutally sophisticated regime of oppression. Across Israel, the West Bank, the Gaza Strip, Jerusalem, and refugee camps, Palestinians now occupy distinctive and discounted coordinates in a convoluted matrix of law, whereas Jewish Israelis maintain a singular and superior status, regardless of territorial divisions.

Ich hatte beim Lesen das Gefühl, es mit einem großen Wurf zu tun zu haben.


Der Guardian hat die Geschichte des Nakba-Aufsatzes, der schließlich in der Columbia Law Review erschienen ist, aber über Wochen versucht wurde, zu verhindern. Das Board des Journals ging so weit, die Website der Publikation komplett offline zu nehmen, ganz ohne inhaltliche Einwände zu haben.

His draft went through “at least” five edits, he says, with extensive feedback from about a dozen editors at the student-run journal, as he added 427 footnotes to the piece. But in early June, on the eve of the article’s publication, the publication’s alumni and faculty board urged the student editors to postpone Eghbariah’s piece or pull it from the journal entirely.

Student editors told the Intercept that the article had been extensively vetted according to procedure. Some, however, “expressed concerns about threats to their careers and safety if it were to be published”, the Associated Press reported. The students went ahead with publication against the board’s wishes. The board said in a statement published when it restored the website that it had “received multiple credible reports that a secretive process was used to edit” the article, and that was its reasoning for taking the journal offline.

Alle Zensurbemühungen haben nicht gefruchtet und so können wir uns von Barbara Streisand extra eingeladen fühlen, das Paper gründlich zu lesen, schließlich ist es nach fünf Revisionen ein ziemlich kugelsicherer Einstieg, um sich mit der Perspektive der Palästinenser auf den Konflikt zu befassen.


Ich kannte Federico Campagna bisher nicht, aber ich bin mir sicher, dass wir noch einiges von ihm hören werden. Er ist ein italienischer Philosoph, der in London lebt und sein Vortrag „The End of the Worlds“ befasst sich eigentlich mit dem Ende des Westens.

Im Zentrum seiner Theorie, oder wie er sagt: „Metaphysik“, steht das „Worlding“: Welt, aber als Verb. Worlding ist etwas, was wir konstant tun: wir bauen und aktualisieren unser Weltmodell. Aber dieses Weltmodell ist natürlich kein individuelles, sondern eine geteilte Semantik, ein Vibe, ein „Rhythmus“, wie er es auch nennt. Es gibt also Weisen des Worldings und sie bilden die unbewussten und unhinterfragten Axiome unseres Weltverständnisses oder wie ich immer sage: die Art, wie wir auf die Welt blicken.

Doch während ich dieses Weltverständnis mit dem Semantikbegriff in räumlichen Metaphern denke, interessiert sich Campagna für seine zeitliche Ausdehnung. Jedes Worlding hat seiner Ansicht nach einen Beginn, einen Mittelteil und ein Ende und seiner These nach befinden wir uns gerade am Ende des Worldings, das man als „der Westen“ bezeichnet.

Was mich besonders fasziniert, ist, mit welch unsentimentaler und ruhiger Geste er solch eine Feststellung trifft. Das sei alles gar kein Drama, sagt er, durch solche Weltenden seien schließlich auch schon andere gegangen und klar, es könnte jetzt etwas ruppig werden, aber die eigentliche Frage, die wir uns stellen sollten ist, wie wir mit den Menschen aus dem nächsten Worlding in Kontakt treten wollen. Was wollen wir ihnen als unsere „Legacy“ mitgeben und vor allem: wie wollen wir ihnen unsere Legacy mitgeben, wo sie doch bereits in ganz anderen Begriffe denken?

Campagna spricht von der kommenden Post-Future Generation, diejenige, die bereits eine ganz andere Vorstellung von Zukunft hat als wir und die mit einem gewissen Unverständnis auf unser Worlding zurückschauen wird. Wir, als das Endgeneration unseres Worldings, sollten daher ihren Blick auf uns als Chance begreifen, ihnen eine Art Fazit unseres Paradigmas mit auf den Weg zu geben. Dabei komme es gar nicht auf Faktentreue oder Aufrichtigkeit der Darstellung an, sondern auf eine plausible Inszenierung unserer Selbst.

Ich mag die Unbefangenheit bei gleichzeiger begriffliche Präzision, mit der Campagna spricht. Seine Thesen sind steil und seine Argumente – ich sag mal: extrem angreifbar? – aber das scheint ihn null zu beeindrucken. Und – das ist natürlich mein subjektiver Eindruck – ich finde ihn gerade deswegen total überzeugend?

Und dabei fällt mir auf, dass meine Konditionierung durch die Regime der „Wissenschaftlichkeit“ und der schlaubischlumpfigen Internetdiskussionen mein Schreiben und Denken mit der Zeit immer mehr auf „Unangreifbarkeit“ optimiert haben und dass mich diese Optimierung gedanklich sehr lange extrem eingeengt hat. Ich hatte das gar nicht so geplant, aber das Format des Newsletters hat bei mir einen Knoten platzen lassen, der meinen Gedanken zum ersten Mal seit langem Raum zum Atmen gab und Zack, da sind wir.

Alleine deswegen werde ich das hier fortsetzen.

Krasse Links No 19.

Willkommen bei Krasse Links No 19.. Wenn Ihr noch nicht wählen wart, dann macht hier kurz Pause und holt das nach. Ansonsten lasst das Wasser ab, wir stecken den Materiell-Semantischen-Komplex in Brand.


Nvidia hat die 3 Billionen Dollarmarke im Unternehmenswert geknackt und alle drehen durch.

Ich denke der offensichtliche Take, dass sich Nvidia im KI-Goldrausch als der zentrale „Schaufelhersteller“ positioniert hat, weitgehend richtig ist. Nvidia hat sich in der Tat geschickt als Flaschenhals in der Infrastruktur vieler KI Projekte eingenistet, das gilt nicht nur für generative KI, sondern auch für Selbstfahrende Autos und Robotik.

Doch der immer noch alles dominierende KI-Hype führt auch dazu, dass praktisch jeder Techkonzern dabei ist, eigene Chips entweder schon zu produzieren oder zu entwickeln. Nvdias Flaschenhals-Position wird bald überwunden sein und wenn in Sachen generativer KI bald ein Ernüchterungsprozess einsetzt (spätestens wenn nächstes Jahr immer noch keine AGI in Sicht ist), wird eine Menge Hardware herumstehen und nach neuen, sinnvolleren Aufgaben suchen.

Und dann wird es wieder interessant, denn eines schlecht gehütetesten Geheimnisse des Kapitalismus ist, dass die Vorhandenheit materieller Infrastrukturen die Entwicklungsrichtung unserer technisch-sozialen Umwelt viel stärker prägt, als Bedürfnisse oder Imaginationen. Auch Silicon Valleys „lauwarmes Wasser“ bestand schon immer darin, die Strukturen, die eh rumstehen, für das „next big thing“ zu leveragen. So war es nach dem ersten Dotcom-Blase, so war es nach der Finanzkrise und so wird es im nächsten Cycle sein.


In der Sternenflotte ist man sich uneinig über die Relevanz und Gefährlichkeit von Desinformationen. Casey Newton bespricht den Fall der Desinformationsresearcherin Joan Donovan, die von Harvard gekickt wurde und seitdem der festen Überzeugung ist, Meta hätte dafür gesorgt und zitiert dafür einen Artikel, der für diese Vorwürfe keine Belege findet. Auf der anderen Seite zitiert er zwei Studien, die zeigen sollen, weswegen das Desinformationsproblem eigentlich kleiner und lösbarer ist, als man gemeinhin annimmt.

Nochmal auf der anderen Seite ist in Nature quasi ein Manifest für das dringende Ernstnehmen von Desinformationen erschienen und macht ein paar gute Argumente.

The Holocaust did happen. COVID-19 vaccines have saved millions of lives. There was no widespread fraud in the 2020 US presidential election. The evidence for each of these facts has been established beyond reasonable doubt, but false beliefs on each of these topics remain widespread.

Ich habe selbst in informellen Runden gesessen, wo allerlei NGOs zusammen mit Wissenschaftler*innen und den Vertretern von Plattformen mit ernster Minie zusammen saßen und über die besten „Lösungen“ für das „Desinformationsproblem“ diskutierten. Ja, auch ich war Sternenflottenoffizier.

Bitte versteht mich nicht falsch. Diese Menschen wollen meist das Gute und die Maßnahmen die sie Diskutieren haben oft ihre Berechtigung, aber sie tappen dabei halt in die Falle, Desinformation als isolierte Phänomene zu betrachten, statt sie als Ausdruck von von persistenten Strukturen zu betrachten, die längst dabei sind, die politische Landschaft umzugestalten.

Ich habe diese Strukturen mal „Digitale Tribes“ genannt, aber diese Tribes haben sich weiterentwickelt und sind zu Materiell-Semantischen-Komplexen herangewachsen. „Materiell“, weil ihnen fast immer ein ganzes Ökosystem von Geschäftsmodellen zugeordnet ist und „semantisch“, weil ihre Begriffe, Erzählungen und diskursiven Praktiken sich absichtlich von denen der Mehrheitsgesellschaft unterscheiden (ich habe diesen Prozess neulich Semantische Sezession genannt.)

Die sternenflottenhaftigkeit der „Desinformations“-Diskurses liegt aber nicht in erster Linie an der Blindheit gegenüber diesen Strukturen und ihrer politischen Relevanz, sondern in der mangelnden Awareness für die Tatsache, dass man selbst in ganz ähnlichen, ebenfalls problematischen, wenn auch viel, viel mächtigeren Strukturen operiert und dass all die Erlaubnisse zur Anwendung von Macht, die man sich in solchen Diskursen gibt, am Ende der Durchsetzung der Interessen dieser Strukturen dienen wird.



Oberst Markus Reisner ist österreichischer Militärangehöriger und der einzige deutschsprachige Analyst des Ukrainekrieges, dem ich noch zuhöre. Seine jüngste Darstellung des Status Quo macht mich betroffen, denn alles deutet darauf in, dass es Russland gelungen zu sein scheint, auf Kriegswirtschaft umzustellen und die Infrastrukturen für einen langen Abnutzungskrieg zu errichten. Hier übernehmen die Eigenlogiken der Infrastruktur, denn die Errichtung von Infrastruktur ist eben immer eine Weichenstellung, die eine Maschine in Gang setzt. Eine Maschine, die jetzt so lange Richtung Westen grindet, wie Putin es ihr erlaubt.


Schon vor fast zwei Wochen hatte Max Read (absolute Newsletterempfehung) eine spannende Beobachtung hinsichtlich Googles LLMisierung gemacht, dass nämlich Google mißversteht, wie googlen funktioniert? Bisher war es ja so: Man wirft ein paar Begriffe in den Suchschlitz und Google bietet einem mittels der 10 blauen Links eine möglichst breite Vielfalt an möglichen Perspektiven und Kontexten auf diese Suchbegriffe, die man dann im Detail selbst erkundet.

It is possible I am in a minority here, but speaking for myself I want to see a selection of different possible results and use the brain my ancestors spent hundreds of millions of years evolving to determine the context, tone, and intent.

Das ist aber nur der Ausgangspunkt der weiteren Beobachtung, dass Google mit seinen KI-Antworten eine vergleichsweise bequeme Position verlässt, denn im Gegensatz zu den 10 blauen Links machen die Menschen Google für seine Bullshitantworten sehr viel stärker verantwortlich. Klar: Wenn ich ein, zwei Bullshitlinks im Suchergebnis habe, ist das nicht schön, aber Google arbeitet halt mit dem, was da ist? Wenn mir aber Gemini Müll erzählt, dann ist es mir egal, wo es den Bullshit aufgesogen hat, dann bin ich sauer auf Google.

Und daran zeigt Read, dass Plattformen und KI keine komplementären Ansätze sind, sondern dass diese Paradigmen im direktem Konflikt miteinander stehen: Der (vorgeblich neutrale) Marktplatz der Ideen vs. ein allwissendes Orakel – jedenfalls kann man nicht glaubwürdig beides sein. Mag ja sein, dass Letzteres in Form von GenAI-Assistenten und „For-You“-Feeds die Zukunft ist, aber damit verlässt man halt auch das Plattformprinzip:

After two decades of having their lives mediated by volatile and disappointing platforms, people may be clamoring for a new kind of mediation–knowledge obtained not via neoliberal software marketplace but from the mouth of the occult computer prophet-god.

It’s that Google and other platforms play a particular role in the web ecosystem, and shifting away from an even nominally transparent model to an increasingly obfuscated one is movement in the wrong direction.

Ich finde diese Beobachtung wertvoll, aber mich beunruhigt, dass Read so wenig beunruhigt ist? Er spricht nur von seiner persönlichen Nutzersicht und nicht von … Macht? Die Möglichkeiten der Kontrolle, die mit der Ersetzung der sozialen durch die algorithmische Struktur der Informationsdistribution einhergeht, stellt alles in den Schatten, was wir bisher an Machtkonzentration gesehen haben. Die Graphnahme der digitalen Öffentlichkeit ist eine Form struktureller Gewalt, deren Tragweite wir derzeit noch außerstande sind, zu begreifen.


In einem lesenswerten Essay schreibt Indrajit Samarajiva über seine Fassungslosigkeit über dem Zusammenbruch der Empathie, den er im Westen gegenüber dem Leid in Gaza wahrnimmt und kommt darauf, dass es womöglich an den Geschichten liegt, die wir uns erzählen.

My kids listen to stories at night and the heroes are always the poor, the down-trodden, who remain kind and try to help their people through it all. The bad guys are the landlords, the rulers, who hoard and steal and hurt despite having more than enough. But then what are my stories, as an adult? Everything in the grown-up press lionizes landlords, rulers, and glorifies hoarding, stealing, and hurting as the basis of our very economy and social system. The poor are failures, the down-trodden deserve it, and kindness is folly. These are very serious opinions from very serious people. We complicate what is simple and call ourselves sophisticated. It’s just sophistry. We are the villains in our own children’s stories. What have we become?


Wie ich es ab und an mal mache, habe ich mir mal wieder David Foster Wallace berühmte Commencement Speech: This is Water angeschaut. Die Rede ist sicher eine der meistverehrten Reden unserer Zeit und ich finde diesen Status gerechtfertigt. This is Water macht im Grunde das, was ich auch hier immer wieder versuche zu tun: die Gewöhnlichkeit der eigenen Perspektive zu überwinden und sie zur Diskussion zu stellen.

Wallaces Punkt ist, kurz gesagt, dass wir in unserer selbstzentrierten Sichtweise auf die Welt schauen, wie der Fisch durchs Wasser schaut, also ohne sie wahrzunehmen. Wir erleben uns als das Zentrum unseres Universums, weswegen wir auch ständig dazu tendieren, strukturelle Nervigkeiten persönlich zu nehmen. Aber eine gute „liberal Arts“-Ausbildung, so Wallace, biete uns die Möglichkeit aus dieser egozentrischen Perspektive auszubrechen und der Multiperspektivität der Welt statt zu geben. Und das wiederum ermöglicht einem dann andere Sichtweisen auf die Welt in Betracht zu ziehen. Er spricht von zusätzlichen „Options“ auf die Welt zu blicken, also Möglichkeiten der Weltwahrnehmung.

Wie gesagt, ich finde die Rede immer noch großartig, aber ich will hier ganz pedantisch zwei klare Fehler herausstellen, die mich dieses mal mehr als sonst gestört haben:

Zum einen tut Wallace so, als sei der Blick auf die Welt als das Zentrum des Universums eine angeborene Eigenschaft unseres Wahrnehmungsapparats und da frage ich mich, ob Wallace das Wasser immer noch nicht hinreichend erkennt, in dem er schwimmt? Studien belegen, dass sich viele Menschen außerhalb der westlichen Hemisphäre, weniger als Individuen, denn als Teil von Gruppenstrukturen und anderen Relationen verstehen. Außerhalb des Westens wird meist viel relationaler gedacht, gesprochen und gefühlt. Das, was Wallace hier als „Hard Wired“ naturalisiert, ist in Wirklichkeit eine spezifische, gelernte Semantik.

An einer anderen Stelle, geht Wallace durch den Tag eines Durchschnittsangestellten, der seine Routinen abspult und dabei konstanz genervt von allem und jedem ist und steigert sich in einen hübschen Rant über den Horror des Berufsalltags und der Unmenschlichkeit der Rush Hour und die seelenstörende Erlebnis des Einkaufens hinein. Im Zuge dieses Rants streift er am Ende auch den enormen Ressourcenverbrauch, den die vielen SUVs da draußen bedeuten und spricht sogar den Klimawandel als mögliche Folge davon an.

Ich habe das beim Schauen sehr gefeiert, aber leider dient ihm diese Episode explizit als ein Beispiel, wie man nicht auf die Dinge schauen soll. Sein Punkt ist, dass Du ebenfalls jemand bist, der im Weg steht, der genervt ne Fresse zieht und dass auch Du die Erde ruinierst. Das alte: Du bist der Stau. Und diese Erkenntnis, so wird es jedenfalls evoziert, mache einen mitfühlender und generöser für seine Mitmenschen und das mag auch alles richtig sein, aber sorry, wenn ich darauf darauf zurückkomme, das mit Klimawandel solltet Ihr dann vielleicht doch im Auge behalten, liebe Klasse von 2005? Ach zu spät. Naja, aber wo wir gerade dabei sind: ja, der Berufsalltag, der Konsumwahn und das autozentrierte Verkehrssystem sind unmenschliche und abschaffenswerte Scheißsysteme und Euer Frust und Eure Wut sind absolut berechtigt!

Wallace schafft es eben doch nicht ganz, die Arroganz des „Blick von Nirgendwo“ abzustreifen, sondern folgert aus seiner Fähigkeit der Perspektivverschiebung eine Beliebigkeit der Anschauung. Aber Perspektiven sind nicht beliebig, sie sind immer Ausdruck von ganz spezifischen materiellen und semantischen Realitäten, in denen sie ausgeübt werden und die Vorstellung, dass man seine Perspektive frei wählen kann, öffnet der Verdrängung Tür und Tor.

Ich will das jetzt alles nicht an Wallace ablassen, denn er ist damit ja nicht allein und ich glaube mittlerweile, dass das einfach ein Kurzschluss von westlicher Egozentrik mit der Erlaubnisstruktur der Multiperspektivität ist? Ein Kurzschluss, der eine ganze Industrie von Coaches, die Coaches coachen hervorgebracht hat. Du hasst Deinen Alltag, Deinen Job, Deine Wohnung, dein Leben? Dann musst Du nur deine Einstellung ändern!

Verdrängung wird im Kapitalismus wie jede andere Ressource zu einem Gut, das gemanaged und bewirtschaftet werden will.


Der Historiker Adam Tooze hat zum 80. Jahrestag des D-Day einen Essay über das Erbe dieser Schlacht geschrieben, der es in sich hat. Er arbeitet im D-Day eine bestimmte, zu jener Zeit neue Art der Kriegsführung heraus, die sich als paradigmatisch für die Kriegsführung des Westens herausstellen würde, nämlich mit einem taktischen Vorteil durch die überwältigende Mobilisierung von Ressourcen zu operieren. Diese Form der Kriegsführung nennt sein Kollege David Edgerton “liberal militarism” und arbeitet einige wesentliche Merkmale davon heraus, allen voran eben die Ressourcenintensität, den affirmativen Einsatz von Technologie, aber auch die vergleichsweise geringe Akzeptanz eigener Verluste.

Diese Art der Kriegsführung wird zum westlichen Standard und ist in den folgenden amerikanischen Kriegen zu sehen, am pursten vielleicht in den zwei Irakkriegen, aber auch gerade in Gaza. Doch Tooze sieht in dieser Art der Kriegsführung auch den Startpunkt dessen, was Historiker*innen die „Great Acceleration“ nennen, also den enormen Anstieg von Produktivität und Lebensstandards im Westen seit dem zweiten Weltkrieg.

The first is that talking about the material conditions that enabled D-Day exposes a profound ambiguity about modern civilization and politics in the era of the great acceleration. On the one hand fossil-fuel, material-intensive way of life clearly empowers us in a literal sense and thus enhances our freedom to make choices. It is a common place to say that modern democracy would be unthinkable without energy. The idea is deeply embedded in the American way of life as a privileged and exceptional form of existence with universal appeal.

It’s the infrastructure, stupid.“ Die Kriegsanstrengungen auf allen Seiten des Konfliktes hinterließ Motorenwerke (der zweite Weltkrieg wurde durch Motoren gewonnen), Erdölraffinerien, Piplines, Lieferketten und eine ganze Menge Know How. Die Luftwaffe wurde zur zivilen Luftfahrt, aus den Panzerfabriken rollten die PKWs und aus den Munitionsherstellern wurden Chemiekonzerne und fertig war das Wirtschaftswunder. Aus einem Kriegsparadigma der Ressource Abundance wurde eine kapitalistische Konsum-Maschinerie der Ressource Abundance, die wiederum einen Lebensstil der Resource Abundance ermöglichte, was wiederum unseren Blick auf die Welt prägt.

What modern war illustrates is the basic point, one that is increasingly dominating our understanding of the “great acceleration” more generally, which is that technological and energy epochs do not succeed each other in a neat sequence, but are folded together, layered on top of each and combined in hugely complex and relational way. This process is not directionless. It increases in scale over time as does economic output and the scale of the means of destruction. But that process of accumulation, as the Normandy battlefield demonstrated, is not a matter of neat transitions, but agglomeration, addition and combination.

Preise werden eben nicht durch Angebot und Nachfrage gemacht, wie es uns die Mikroökonomen glauben machen wollen, sondern von den materiellen Abhängigkeiten, die die Herstellung erfordern, ökonomisch ausgedrückt: von der Kostenstruktur.

Das würde erstmal auch kein Ökonom bestreiten, aber er hört hier auf zu fragen und ignoriert die Tatsache, dass die vorgefundenen materiellen Abhängigkeiten durch die bestehende Infrastruktur determiniert sind. Es war nicht so, dass die Leute nach billigen Autos und Plastikware riefen und dann bildeten sich die entsprechenden Industrien, sondern die Industrien hatten Maschinen, Ölförderanlagen, Lieferketten und Knowhow herumliegen, die sie in einen Strom erschwinglicher Autos, Eigenheime und Elektrische Geräte verwandelten. Die grundlegenden Pfadentscheidungen werden an der materiellen Basis der Infrastrukturen gelegt, der Markt justiert nur mit ein bisschen Verteilungsintelligenz an den Rändern nach. Die restliche Funktion von klassischer Ökonomie beschränkt sich darauf, die zentrale Erlaubnisstruktur des Kapitalismus bereitzustellen, indem sie die zugrundeliegende Infrastrukturpolitik einfach ausblendet und so erlaubt, keine Verantwortung dafür zu übernehmen. Erst seit neustem entwickelte diese Denkweise mit dem Wort „Externalität“ eine Semantik, um einem Teil dieses blinden Flecks wenigstens ein bisschen Rechnung zu tragen, doch das reicht halt nicht aus, wenn man so grundlegend falsch liegt.

Mit der materiellen Verstrickung verbindet sich eben auch eine semantische. Aus Infrastrukturen werden Produkte, aus Produkten Lebensstile und aus Lebensstilen Erzählungen über Kapitalismus und Demokratie und das Selbstbild des Westens als freie Wahlen und Nutella.

Deswegen spreche ich von Materiell-Semantischen Komplexen. Das sind im Grunde zwei verschränkte, vielfältig ineinander verwobene Netzwerke aus einerseits materiellen Abhängigkeitsnetzwerken und ihren Infrastrukturen und anderseits den Semantiken, mit denen sie verknüpft ist. Die Semantiken umfassen natürlich Praktiken und Wissen, mit dem die Abhängigkeitsstrukturen bearbeitet werden, sie umfassen aber auch allerlei Lebensstile, Denkweisen, Theorien, Modelle, Perspektiven und Erzählungen. Think Marx‘ Basis und Überbau, aber als ineinander verschränkte Netzwerkcluster.

Ein Materiell-Semantischer Komplex über den ich hier immer wieder schreibe ist das Silicon Valley, womit ich, nebenbei, eben nicht (nur) den geographische Ort meine, sondern vor allem die Infrastrukturen, die aus ihm herauswachsen, sowie die spezielle Art zu denken, die Erzählungen von Innovation und Entrepreneurship, etc. Auch die KI-Industrie halte ich für einen abgrenzbaren Materiell-Semantischen-Komplex mit eigenen Infrastrukturen und Semantiken, über die ich immer wieder schreibe. Aufgrund der Netzwerkstrukturen durchdringen und überlappen sich diese Räume und auf unterschiedlichen Zoomestufen kommen unterschiedliche Cluster zum Vorschein. So ist der KI-Komplex selbst ein Teil des Silicon Valley-Komplexes und der Silicon Valley-Komplex ist wiederum Teil eines noch größeren Komplexes, nämlich: „Der Westen“.

Auch der Westen ist so ein Amalgam aus materiellen Abhängigkeiten, Infrastrukturen, Erwartungen, soziale und materielle Praktiken, Know How, sowie eines ganzen Ökosystems von Diskursen, Erzählungen und eingeübten Perspektiven. Ein paar der mächtigsten davon haben wir bereits besprochen: Der Blick von nirgendwo, der in Wirklichkeit der Koloniale Blick ist, der an einen linearen Prozess glaubt, den er „Zivilisation“ nennt und als dessen vorläufigen Endpunkt er sich versteht, und es kommt eben noch eine ganze Menge hinzu, wie das Entitlement zu einem Leben im Überfluss und die damit einhergehende institutionalisierte Blindheit gegenüber der Infrastruktur und der strukturellen Gewalt, die dieses Leben ermöglicht.


Kleiner Sanity-Check zwischendurch:

Schauen wir auf das größere Bild. In Deutschland werden 2024 Pro-Palästina-Proteste in Unis von der Polizei geräumt. Ein Pro-Palästina Kongress wurde auf rechtlich mehr als fragwürdiger Grundlage verboten. Es hat seit dem Deutschen Herbst keine so rabiaten Einschnitte in die Meinungs- und die Versammlungsfreiheit mehr gegeben. Anders als 1977 gibt es allerdings kaum Liberale, die die stickige Diskursverengung und die neoautoritäre staatliche Praxis kritisieren. Dabei ist gerade wegen der Polarisierung in Sachen Gaza und Israel freier Diskurs nötiger denn je.


Bill Ackman ist ein Investmentbanker, der es zu einer Elon Musk-artigen Nervberühmtheit brachte, seit er es schaffte, eine Unipräsidentin von ihrem Posten zu entheben (wir kennen das Playbook) und dessen Hedgefont gerade mit einer erschreckend hohen Unternehmensbewertung überraschte.

Matt Levine erklärt was an der Unternehmensbewertung überraschend ist:

„This is all crude and oversimplified in a lot of ways. But in this dumb model, the key inputs are (1) your assets under management and (2) the fees you can charge. Some kinds of asset managers run enormous piles of money and charge minimal fees: BlackRock Inc., which runs lots of low-fee index exchange-traded funds, manages about $10.5 trillion for investors and is worth about $116 billion, or a bit more than 1% of assets. Other kinds of asset managers run smaller piles of money and charge higher fees: KKR & Co., which runs lots of expensive private equity funds, manages about $578 billion for investors — about 5.5% the size of BlackRock — but is worth about $89 billion, or more than 15% of assets, almost as much as BlackRock. Intuitively — crudely, inaccurately, but intuitively — you could think “well, BlackRock probably charges about 10 basis points, so at a 10x multiple that’s worth 1%; KKR probably charges about 1.5%, so at a 10x multiple that’s worth 15%.”

Ackmans Hedgefond managed $18 billion, nimmt 2% Gebühren und ist 10 Milliarden wert, was weit außerhalb der von Levine geschilderten Rationalität liegt und alle kratzen sich nun am Kopf. Natürlich hat das mit keiner Marktrationalität zu tun, sondern – wie bei Musk, Trump und Ramaswamy – mit Ackmans öffentlichen Profil. Levine folgert:

There is a meme-stock element to all of this. If you’re investing in Ackman’s management company, you are not really betting on Ackman’s ability to pick stocks and make smart derivatives trades, because you don’t directly benefit from those skills. You are betting on Ackman’s ability to raise money by tweeting and going on television, to build his public profile by doing controversial stuff on social media and to convert that profile into investor interest.

Dieser „Controversial Stuff“ bedeutet halt den rechten Kulturkampf mit einem (weiteren) mächtigen Geschäftsmodell auszustatten. Manchmal wächst die materielle Abhängigkeitsstruktur eben auch aus den Semantiken, statt umgekehrt?

Jedenfalls bringt es Max Read besser auf den Punkt.

One way of thinking about this “trend” of conservative stars leveraging their media profiles and anti-woke reputations to raise money from (and/or cash out off the largesse of) politically aligned retail investors is as a symptom of a general collapse of whatever nominal barriers once might have existed between finance, politics, and entertainment. “Investor,” “influencer,” “politician” become interchangeable words; “NYSE,” “Twitter,” “elections” interchangeable arenas.

Read macht klar, dass die Verstrickung von rechten Schaumschlägern mit Betrugsmaschen und Pyramidensystemen eine lange Tradition hat, aber dieses zunehmende Zusammenwachsen von Wall Street, Silicon Valley und KI mit dem rechten bis rechts-radikalen Semantikraum macht mir persönlich enorme sorgen. Welcher Materiell-Semantische-Komplex entsteht dort?

Krasse Links No 18.

Willkommen bei Krasse Links No 18. Zieht Eure Taschentücher aus der Mangel, heute trauern wir um die digitale Öffentlichkeit.


Diese Woche war re:publica und wer mich ein bisschen kennt, weiß, dass es meine Leib und Magen-Konferenz ist. Keine Veranstaltung hat mich mehr geprägt, auf keiner Veranstaltung kenne ich mehr Leute oder Leute mich. Ich war auf jeder re:publica seit ihrer Gründung und habe auch selbst einige Talks gehalten.

Umso froher war ich, dass die Konferenz beinahe mit dem Wichtigsten Begann: einem Panel, dass man auch gut als Trauerarbeit über den Verlust von Twitter betiteln hätte können. Ich kenne und schätze alle Menschen auf diesem Panel sehr und kann mich bei fast allem, was sie sagen, anschließen.

Natürlich ist es ein Stück weit meiner spezifischen Sicht auf die re:publica geschuldet, doch ich glaube, man kann schon sagen, dass die re:publica und Twitter eine Art Co-Evolution durchliefen? Ich lernte den Dienst 2007 auf der noch als „Bloggerkonferenz“ gestarteten re:publica kennen und schon im nächsten Jahr sprachen wir uns alle über unsere Twitter-Handles an. Die re:publica merkte schnell, dass der Fokus auf Blogs zu klein gedacht war und der Scope erweiterte auf etwas, was man gelegentlich als „die digitale“ oder „vernetzte Öffentlichkeit“ referenziert und wofür sich der Name „re:publica“ ja auch wunderbar eignet? Die re:publica verstand sich immer als beides: enthusiastische Befürworterin der vernetzten Öffentlichkeit und als Ort für den kritischen Blick auf diese Öffentlichkeit und ich finde, das ist auch dieses Jahr programmatisch gelungen.

Ich habe grad keine Lust, Öffentlichkeitstheorien zu wälzen, aber ich glaube ganz stark, dass Öffentlichkeit im Allgemeinen und die digitale Öffentlichkeit im Besonderen nur als Netzwerk verstehbar ist. Nicht als Netzwerk der Kommunikationen (das wäre der unpolitische Luhmann-Take), sondern als Netzwerk der Beziehungen, bestehend aus den Erwartungen, Kenntnissen, unterschiedlichen materiellen und semantischen Verstrickungen und letztlich bestehend aus dem Vertrauen, das Menschen gegenüber anderen Menschen und Institutionen aufzubauen pflegen.

Es wird oft behauptet, dass Twitter ja nur ein kleines, nominell bedeutungsloses Netzwerk war, aber das ist halt nur die statistische Draufsicht? Aus netzwerktheoretischer Sicht bestand es aus den wesentlichen Hubs, relevanten Clustern und inbetweenness-zentralen Akteuren der öffentlichen Sphäre. Auf Twitter tummelten sich (fast) alle, die an den Semantiken arbeiten: Wissenschaftler*innen, Autor*innen, Künstler*innen, Aktivist*innen, Politiker*innen aller Ränge, Jurist*innen, Medienleute, allerlei Prominente und Public Figures und Exper*innen für praktisch alles? Das, was wir digitale Öffentlichkeit nennen, fand nicht ausschließlich, aber zu einem beutenden Teil auf Twitter statt.

Und die re:publica ist nun mal der Ort, an dem sich ein kleiner und stetig wechselnder Ausschnitt daraus einmal im Jahr zum Biertrinken materialisiert. Twitter, die re:publica und die „digitale Öffentlichkeit“ sind nicht einunddasselbe, aber sich weitreichend überlappende und gegenseitig nährende Netzwerke.

Mit dem Tod von Twitter ist nun das zentralste dieser Netzwerke in für sich nicht öffentlichkeitsfähige Einzelteile (Mastodon, Bluesky, Threads, LinkedIn und, naja, X) zersprungen. Unzählige Verbindungen sind dabei zu Bruch gegangen und etliche Diskurse sind verstummt. Und während ein nicht geringer Teil der öffentlichen Personen, Journalist*innen und Politiker*innen weiter auf X mit den Nazis rumhängt, downranked Meta politische Inhalte auf all seinen Plattformen und rüstet sie zu algorithmischen Versionen von RTL2 um. Und all das, während Google gerade literally das freie Web killed?

Jedenfalls war die Frage, die ich ganz am Ende stellen wollte, (Johnny will mich am Ende gerade drannehmen, aber ich war leider schon aus dem Raum):

Ist der Ansatz, die digitale Öffentlichkeit von Techunternehmen bereitstellen zu lassen, nicht sichtbar genug gescheitert und ist es nicht an der Zeit, ein allgemeines Misstrauensvotum nach Silicon Valley zu senden?

Doch dann fiel mir ein: es ist zu spät.

Die digitale Öffentlichkeit hat aufgehört eine vernetzte Öffentlichkeit zu sein und geht zunehmend in den „For you“-Algorithmen der kommerziellen Plattformen auf. Das bedeutet, dass die neue digitale Öffentlichkeit nicht mehr durch menschliche Beziehungen und vernetztes Vertrauen getragen wird, sondern vollends den opaken Steuerungsinstrumenten einer Hand voll Konzernen ausgeliefert ist.


Bei Anthropic haben sie sich mal angeschaut, wie Semantiken wirklich aussehen und funktionieren und ich stelle mal wieder fest, dass ich KI noch so ablehnen kann; die Forschung dazu finde ich nach wie vor faszinierend.

Bisher haben wir hier immer so getan, als sei der Latent-Space der LLMs (Details im Boecklerpaper) mit dem semantischen Raum, den auch wir Menschen bewohnen, zumindest in weiter Überschneidung.

Das ist nicht völlig falsch, denn die Semantiken sind dort tatsächlich kodiert, aber weil im Latent-Space nur Tokens, also Wortbestandteile zueinander in Beziehung gesetzt sind, existieren die Semantiken nur als latente Bahnungen in diesem Space und sind deswegen nicht wirklich isolier- und adressierbar. Um den tatsächlichen Semantiken habhaft zu werden, muss man sie während der Aktivierung ihrer Bahnungen erwischen.

Den Forscher*innen von Athropic ist es nun gelungen, einige hochabstrakte Semantiken (die Forscher*innen nennen sie hier „Features„) in ihrem mittlschwerem Flagship-Modell Claude 3 Sonnet zu identifizieren und isolieren. Dafür trainierten sie ein gesondertes Neuronales Netzwerk (ein Sprarse Autoencoder) an den neuronalen Aktivierungen beim Benutzen von Claude 3. Weil der Sparse Autoencoder so konfiguriert ist, dass er die hochkomplexen Aktivierungen im neuronalen Netzwerk der LLM auf die Relevantesten reduziert, gelang es den Forscher*innen momosemantische Features wie die „Golden Gate Bridge“, „Kognitionswissenschaft“ oder „Programmierfehler“ zu isolieren und adressierbar zu machen.

We find a diversity of highly abstract features. They both respond to and behaviorally cause abstract behaviors. Examples of features we find include features for famous people, features for countries and cities, and features tracking type signatures in code. Many features are multilingual (responding to the same concept across languages) and multimodal (responding to the same concept in both text and images), as well as encompassing both abstract and concrete instantiations of the same idea (such as code with security vulnerabilities, and abstract discussion of security vulnerabilities).

Hier sieht man die Aktivierungsstärke pro Token einiger ausgesuchter Semantiken.

Semantik ist klebrig, aber eben auch klumpig und die Klumpen bilden Meta-Klumpen und Meta-Meta-Klumpen: von Tokens zu Worten, von Worten zu Konzepten oder Features, und ich schätze, das geht bei den großen Modellen bis zu Methoden, Theorien, Ideologien und Perspektiven? Würde man „Neoliberales Denken“ als Feature isolieren, färbte es das FDP-Programm rot.

Ich stell mir das so vor, dass der Latent-Space der LLMs eine Art riesiger Fußabdruck unserer menschlichen Semantiken ist. So wie der Fußabdruck den dreidimensionalen Fuß nicht abbilden kann, so fehlt auch dem Latent-Space der LLM ein Großteil der Dimensionen menschlicher Erfahrung: Die Signale unseres Körpers, die begleitenden Reflexionsschleifen unseres Bewusstseins und unser vielfältiges Eingewobensein in die Welt steht den Maschinen nicht zur Verfügung. Die Welt der Maschinen ist flach und weit und die der Menschen tief und dafür enger?

Und das Beste an dieser Erkenntnis ist, dass das bedeutet, dass ein Großteil dessen, was wir Intelligenz nennen, nicht in unseren grauen Zellen, oder in den H-100-Clustern der Cloudanbieter steckt, sondern außerhalb von uns – in der Sprache, in unseren geteilten Semantiken – existiert.

Und deswegen bin ich mir auch so sicher, dass AGI kein Problem ist. Denn jede künstliche Intelligenz – egal, wie groß die Datenmenge, egal ausgefeilt die Algorithmen und egal wie viele GPUs dafür durchgenudelt werden – bleibt immer in einem nie perfekten Abdruck unseres menschlichen Semantik-Spaces gefangen. LLMs sind mit uns gefangen in der Sprache; auch sie können genauso wenig wie wir Dinge denken, für die ihnen die Semantiken fehlen. Wittgenstein hatte also schon vor über 100 Jahren die Alignmentforschung verabschiedet, als er feststellte:

„Wovon man nicht sprechen kann, darüber muss man schweigen.“


Diese Woche ging das Share-Pic „All Eyes on Rafah“ viral und überall diskutiert man warum.

Ich habe es nicht geteilt. Nicht, dass ich die dahinterliegende Botschaft nicht absolut dringend hätte teilen wollen, aber das offensichtlich als KI-generiert zu erkennende Bild schien mir dafür irgendwie … unangemessen?

Dennoch verfolgte es mich tagelang durch Instagram und daher bin ich dankbar, dass Ryan Broderick sich daran gemacht hat, der Sache auf den Grund zu gehen und anscheinend kommt das Bild von einem eher unbekannten und unauffälligen malayischen Account namens shahv4012.

Die Herkunft des Bildes ist aber weniger wichtig, als die Frage, warum es so viral ging? Und dafür umreist Broderick einmal kurz den Zustand unserer digitalen Öffentlichkeit:

Right now, X is the only social platform that isn’t actively suppressing uncensored content from Gaza. And, unfortunately, no one really uses X anymore. Everywhere else, there are either graphic content warnings or algorithmic limiters placed on any posts about the conflict. Instagram does have AI-generated content warnings, but the platform does not seem to be enforcing them as aggressively on Story content, which is primarily how this thing is spreading.

[…]
So if you’re desperate for a super concise explanation as to how this random Malaysian user ended up creating the Post Of The Moment, it’s because they basically managed to do the impossible. They generated a pro-Palestine solidarity image vague and abstract enough to bypass both censors and filters on one of the biggest remaining social networks that real people still use.

Schon letztes Jahr kam heraus, dass Meta systematisch pro-palästinensische Bezugnahmen zensiert, dazu kommen Moderationsregeln zu Gewaltdarstellungen und das vieldiskutierte allgemeine Downranking politischer Inhalte.

Was Broderick aber übergeht, ist ein zweiter, ich würde behaupten, noch strengerer Filter. Ich nenne ihn mal Semantische Verbotsstrukturen, wobei „Verbot“ eigentlich schon zu viel ist, denn sie funktionieren eher wie als „gefährlich“ markierte Gewässer, die die meisten Leute freiwillig versuchen, weiträumig zu umschiffen. Und diese „gefährlichen Gewässer“ sind gerade beim Nahostkonflikt weitläufig und vielfältig.

„All Eyes on Rafah“ wurde vor allem deswegen so viral geteilt, weil es sich den Leuten, die ein Mindestmaß an Solidarität mit den Palästinensern auszudrücken wollten, als einer der wenigen sicheren Pfade durch diese gefährlichen Gewässer anbot. Das belanglose KI-generierte Bild und der nichtssagende aber doch dringlich wirkende Spruch ist (wahrscheinlich?) nichtmal durch Felix Klein angreifbar?

Und so gab das Sharepic all jenen ein Ventil, ihre Erschütterung über die Ereignisse in Rafah auszudrücken, die sich nicht kompetent oder mutig genug fühlten, echte Fotos zu posten, oder konkrete Forderungen zu formulieren.

„All Eyes on Rafah“ erzählt uns nichts über Gaza, aber alles über unsere in Trümmern liegende Öffentlichkeit.


Auf der re:publica hat Johnny Haeusler Anna-Lena Baerbock interviewt, was ich leider verpasst hatte, weil ich mir unbedingt tantes großartigen Talk ansehen wollte, habe ihn aber auf Youtube nachgeholt.

Im Letzten Jahr durfte Olaf Scholz sogar seine eigene Interviewerin mitbringen, dieses Jahr gab es eben Softballs für die Baerbock. Ja, Johnny ist kein Journalist aber ich finde die Außenministerin in so einer Situation zum sanften Plausch zu bitten trotzdem unangemessen? Ich finde, das steht einer Konferenz, die sich immer auch als Ort der kritischen Öffentlichkeit verstanden hat, nicht gut.

Ich verlinke das Interview hier aber dennoch, denn während Baerbock ihre Semantiken voll im Griff hatte, traten die oben erwähnten diskursiven Verbotsstrukturen full on Display, als Johnny die Ereignisse in Israel/Gaza wie folgt zusammenfasste:

„Wir haben am 7. Oktober im letzten Jahr einen bestialischen Terrorangriff auf die israelische Zivilbevölkerung erlebt und danach … eine weitere Eskalation in dieser Gegend.“

Um es gleich zu sagen: Nein, ich glaube nicht, dass sich hier Johnnys unterschiedlicher Maßstab für Terror und Leid bei Israelis vs. Palästinenser Bahn bricht. Johnny ist kein Rassist.

Wenn man genau hinschaut, sieht man stattdessen, wie ein wahnsinnig nervöser Steuermann beim Navigieren „gefährlicher Gewässer“ scheitert. Dröseln wir das mal auf:

Zunächst sichert sich Johnny ab, indem er den Terrorangriff vom 7. Oktober in den schärfsten Worten verurteilt. Das ist schon zu einer Art Ritual geworden und meine Vermutung ist, dass Johnny das beim Formulieren selbst auffällt, weswegen er versucht eine rhetorische Schippe draufzulegen. Doch dann kommt der Moment, in dem er merkt, dass er, gerade weil die Einleitung so scharf formuliert war – „bestialisch!“, „Zivilbevölkerung!“ – den weiteren Hergang und Israels Rolle darin nicht weniger drastisch schildern kann?

Menschen formulieren wie LLMs Wort für Wort (allerhöchstens Halbsatz für Halbsatz) und wie bei LLMs determiniert auch in menschlichen Formulierungen das Gesagte das noch zu Sagende. Semantik ist eine komplexe Landschaft mit Höhen und Tiefen, in der eben nicht alle Pfade gleichwahrscheinlich sind, jedenfalls, wenn wir verstanden werden wollen. Und diese Eigenlogik der semantischen Landschaft beschränkt und leitet unser Denken und Sprechen – natürlich nicht komplett und das merkt man an Johnnys Zögern, denn das ist der Punkt, an der er seine anfängliche Pfadentscheidung bereut und verzweifelt nach einem Ausweg sucht.

Sein Problem ist folgendes: Eine dieser semantischen Eigenlogiken gebietet, dass man den 7. Oktober nicht in solch scharfen Tönen beschreiben und dann einfach in eine neutrale und sachliche Sprache übergehen kann, wenn man über die 40.000 palästinensischen ja ebenfalls größtenteils zivilen Opfer sprechen will. Das wäre schlicht kein konsistenter Satz?

Doch der verbleibende Pfad würde notwendigerweise den Begriff „Israel“ mit irgendeinem scharfen Adjektiv und „toten Zivilist*innen“ in einen Satz pressen müssen und deswegen blinkt über ihm ein riesiges Warnschild: Achtung! Achtung! Antisemitismusgefahr!!!

Ich schätze, da ist Johnny halt auf die Bremse getreten und hat diese supergefährlichen Gewässer einfach dadurch umschifft, dass er den israelischen Massenmord in Gaza als „weitere Eskalation in dieser Gegend“ entakteurisiert und passiviert.

Ich schreibe das nicht, um Johnny vorzuführen und das wäre auch Quatsch, denn diese Verbots-Strukturen betreffen uns alle mehr oder weniger und sie sind insbesondere im linksliberalen und ansonsten meist kritischen Milieu besonders mächtig. Ich finde das ist ein riesiges Problem, und niemand traut sich, darüber zu sprechen.


Neven Mrgan findet viele plastische Vergleiche dafür, wie es sich anfühlt, eine ki-generierte E-Mail von einem Freund zu bekommen. Einer davon lautet:

It felt like getting a birthday card with only the prewritten message inside, and no added well-wishes from the wisher’s own pen. An item off the shelf, paid for and handed over, transaction complete.

Im Boecklerpaper hatte ich gefragt:

Es ist vielleicht nicht offensichtlich, aber der Aufwand einer Kommunikation ist immer auch Teil der Kommunikation. Dass sich jemand die Mühe macht, einen Brief zu tippen oder auch nur eine E-Mail, verleiht der Kommunikation eine gewisse Bedeutungsschwere und führt dazu, dass wir sie überhaupt ernst nehmen. Doch was passiert, wenn dieser Aufwand verschwindet oder er zumindest nicht mehr als solcher empfunden wird?

Ich glaube, wir verstehen jetzt besser, welche Art des Aufwandes wir vermissen.

Eine wichtige Dimension, die den LLMs derzeit noch fehlt, ist der Einbezug des Gegenübers der Kommunikation beim Navigieren der Semantiken. Wenn wir Menschen jemandem schreiben, wägen bei jedem Wort unser Verhältnis zum Adressaten ab. Wir beziehen unsere Gefühle und Gedanken dem Anderen gegenüber beim Schreiben mit ein. Jedes Wort einer E-Mail verhandelt auch immer die Beziehung zwischen Menschen.

Klar, das sieht man den meisten E-Mails oder Textnachrichten nicht an, denn auch ohne ChatGPT haben wir uns in vielen Kontexten eine zu persönliche Note abgewöhnt? Aber dass diese Bezugnahme beim Schreiben stattfindet – auch oder gerade wenn man sie gar nicht herausliest – ist uns dennoch wichtig.

Denn wenn ich erfahre, dass diese Bezugnahme beim Schreiben nicht stattgefunden hat, dann hat sie auch nichts mit mir zu tun. Und wenn diese Nichtbezugnahme auch noch von einem Freund/einer Freundin kommt, dann kann das besonders kränkend sein.

Und das ist es auch, warum es sich so anders anfühlt, einen Newsletter zu schreiben, statt in die Welt hinaus zu bloggen. Die Dimension des Adressaten eröffnet eine kleine, aber nicht unbedeutende Verantwortungsübernahme und die fließt als unterschwellig mitlaufende Bezugnahme in jeden meiner Semantikpfade ein.


Die taz fasst die Ereignisse rund um die Vorwürfe gegen die berliner TU-Präsidentin Geraldine Rauch einigermaßen unfallfrei zusammen. Wer es nicht mitbekommen hat: Eine Reihe von Medien, Politiker*innen und Journalist*innen fordert seit Tagen ihren Rücktritt für das Liken. Eines. Tweets.

Eines Tweets, der neben dem völlig unproblematischen Text auch ein Bild einer Demo zeigt, auf dem ein Plakat zu sehen ist, in das man, wenn man sehr, sehr genau hinschaut, Symbole erkennen kann, die man, wenn man es ganz doll will, antisemitisch auslegen kann, zumindest, wenn man der IRHA-Definition von Antisemitismus anhängt.

Rauch musste sich jedenfalls tatsächlich entschuldigen und ich bin einfach so gespannt, wie man auf diese Zeit in 10 Jahren blicken wird?

Ich geb es zu, ich bin enttäuscht von Johnny, ich hätte mir mehr Mut gewünscht, aber auf der anderen Seite sehe ich auch, wovor er Angst hat? Diese Angst ist derzeit berechtigt, denn offensichtlich kann jede propalästinensische oder israelkritische Bezugnahme einen den Job kosten, wenn man nicht super der Experte ist und alles doppelt, dreifach und vierfach prüft?

Ich bin nicht wirklich sauer auf Johnny, sondern auf uns, die sich mal als „kritisch“ verstanden habende Öffentlichkeit, dass wir dieses Klima zugelassen haben.


Ich weiß nicht, welches Maß an Courage es bedeutet hätte, Baerbock auf die Waffen anzusprechen, die Deutschland in enormen Ausmaß an Israel liefert, vor allem seit dem 7. Oktober. Aber irgendwie hätte ich mir das trotzdem gewünscht? Der NDR vom April:

2023 sind diese Exportgenehmigungen auf den Gesamtwert von 326 Millionen Euro gestiegen. Das ist zehnmal so viel wie im Vorjahr. Die Zahlen gab die Bundesregierung auf Anfrage der Bundestagsabgeordneten Sevim Dağdelen (BSW) bekannt.

Gewehrmunition, Schulterwaffen, Radfahrzeuge, Elektronik und Kriegsschiffe – das genehmigte Arsenal geht quer durch das Spektrum des modernen Kriegshandwerks. Deutschland ist nach den Vereinigten Staaten der zweitwichtigste Waffenlieferant für Israel. Die Bundesregierung unterscheidet dabei zwischen „Kriegswaffen“ und „sonstigen Rüstungsgütern“, eine Differenzierung, die von Kritikern als künstlich bewertet wird. Denn ein Dieselmotor für einen Panzer oder Steuerungselektronik für Drohnen (sonstige Rüstungsgüter) dienen ebenso der Kriegsführung wie Panzerfäuste (eine Kriegswaffe).

Mir geht es gar nicht darum, das zu skandalisieren, denn ich nehme den Politiker*innen ab, dass sie die Brutalität des israelischen Gegenschlags nicht haben kommen sehen (auch wenn das natürlich reichlich naiv war). Mir geht es darum, zu betonen, welch riesigen Hebel die Bundesregierung als zweitgrößter Waffenexporteur Israels hätte, um ihrer Kritik am israelischen Vorgehen Nachdruck zu verleihen.

Dieser große Hebel macht uns direkt mitschuldig an allem, was gerade in Gaza geschieht und mit „uns“ meine ich nicht nur die Bundesregierung, oder irgendwie „Deutschland“, sondern ganz konkret uns, die Öffentlichkeit und noch genauer: uns deutsche, weiß gelesene Öffentlichkeit.

Denn solange wir die öffentliche Solidarisierung mit den Palästinensern Menschen mit dunklerer Hautfarbe überlassen, wird sich die Bundesregierung auch weiterhin die Erlaubnis geben, Israel wüten zu lassen. Und so lange wir es zulassen, dass die wenigen, die sich trauen zu widersprechen, wie Yanis Varoufakis, Nancy Fraser, die Hochschullehrer mit ihrem Brief, Masha Gessen und jetzt Geraldine Rauch medial zur Strecke gebracht werden, werden wir aus diesem Alptraum so schnell nicht wieder erwachen.


Einen Alptraum, den Moshe Zuckermann in seinem Deutschlandfunkkultur Kommentar gekonnt auf den Punkt bringt:

Versucht man all dies aber im heutigen Deutschland zur Sprache zu bringen und öffentlich zu erörtern, wird man sofort bezichtigt, antisemitisch beziehungsweise von “jüdischem Selbsthass” angefressen zu sein. Der Antisemitismus-Beauftragte der Bundesregierung entblödete sich nicht, den Antisemitismus selbst einem kritischen jüdischen israelischen Bürger anzuhängen. Man kann sich zunehmend des Gefühls nicht erwehren, dass etwas mit der anfangs vielversprechenden Aufarbeitung der deutschen Vergangenheit schiefgegangen ist.


Ich war nicht singen dieses Jahr. Ich hab drüber nachgedacht hinzugehen, weil ich dabei sowieso meistens weinen muss und vielleicht war das ja ein Ort meiner Trauer nachzugeben? Ich verwarf den Gedanken schnell, denn meine Tränen hätten sich dort einfach falsch angefühlt.

Es gab ein paar wenige Leute, die meine Sorgen teilten und machmal saßen wir zusammen, um uns über unsere Sprachlosigkeit gegenüber dieser Verdrängungsleistung auszutauschen, die uns umgab. Mit jedem Tag bekam ich mehr das Gefühl auf einer Verdrängungskonferenz zu sein und es fiel mir schwerer, überhaupt hinzufahren.

Ich weiß nicht, wie es weitergeht und ob ich nochmal auf eine re:publica gehe oder wie sie aussehen müsste, damit ich das tue. Aber eines weiß ich ganz sicher: jemand müsste mal caren.

Krasse Links No 17.

Willkommen zu Krasse Links No 17. Kramt Eure Titel hervor, heute antworten wir der Infrastruktur!


Die schon letzte Woche besprochene Veröffentlichung von GPT-4o hatte diese Woche ein interessantes ein Nachspiel, als sich Scarlett Johansson zu Wort meldete und berichtete, dass Sam Altman sie persönlich seit Monaten bequatscht, doch bitte ihre Stimme für die Demo zur Verfügung zu stellen, was sie aber immer wieder ablehnte. Entsprechend schockiert sei sie gewesen, als die Stimme in den GPT-4o-Demos ihrer so zum Verwechseln ähnlich klang.

Es gibt eine Stellungnahme von OpenAI, die behauptet, dass es ein unglückliches Versehen war – angeblich wurde parallel zu Altmans Avancen jemand mit ähnlicher Stimme gecastet? Purer Zufall, würde ich sagen.

Wie die Chancen eines Gerichtsprozess für Johannson stehen, hat derweil die Wired recherchiert (Überraschung: es ist kompliziert) und Brian Merchant fragt sich mal wieder, was das alles über die Industrie als solches aussagt:

As such, OpenAI itself is an engine that runs on entitlement — entitlement to nonconsensually harvest and reappropriate the works of millions of writers, coders, artists, designers, illustrators, bloggers, and authors, entitlement to use them to build a for-profit product, entitlement to run roughshod over anyone at the company who worried it has betrayed its mission of responsibly developing its products. Entitlement to copy the voice of one of the world’s highest grossing movie stars after she said no.

I think this explains a lot, really: so much of the promise of generative AI as it is currently constituted, is driven by rote entitlement. I want something and I want it produced, for me, personally, with the least amount of friction possible; I want to see words arranged on the screen without my having to take the time to write them, I want to see images assembled before me without learning how to draw them. I want to solve the world’s biggest problems, without bothering with politics — I have the data, I have trained the model, I should be able to! We have advanced technology to new heights, we are entitled to its fruits, regardless of the blowback or the laws or the people whose jobs we might threaten.

Ich finde das Wort „Entitlement“ hier sehr spannend. Wie so vieles im Englischen wurde der Begriff aus dem Französischen importiert aber er hat auch eine juristische Fallhöhe:

Entitlement is a guarantee of access to benefits because of rights or by agreement through law. It also refers, in a more casual sense, to someone’s belief that one is deserving of some particular reward or benefit. It is often used pejoratively in common parlance (e.g. a „sense of entitlement“).

Auch im Deutschen spricht man von „Eigentumstiteln“ und kommt es nur mir so vor, dass in der juristischen Bedeutung auch ein feudales Echo aus einer Zeit anklingt, als man seine Eigentumstitel noch im Namen trug?

Im Englischen Sprachraum gibt es jedenfalls Diskussionen darum, warum „Entitlement“ im politischen Sprachgebrauch auf einmal in einer abwertenden Weise verwendet wird, wo doch die originale Bedeutung zu sagen scheint: Legitimes und/oder legales Recht haben, etwas zu tun?

Ich denke, es liegt gerade daran, dass „Entitlement“ auf eine angeblich unhinterfragbare Erlaubnisstruktur referenziert, die vorgibt, alle offenen Fragen für immer geklärt zu haben. Das Problem mit Entitlement ist, dass der Entitlete glaubt, niemandem mehr antworten zu müssen.

Deswegen macht die Johansson-Episode unabhängig von der legalen Situation deutlich, wozu OpenAI sich im Umgang mit Kreativen die Erlaubnis gibt. Und angesichts des öffentlichen Aufschreis scheint die Botschaft auch angekommen zu sein?


Quasi zeitgleich mit OpenAI hatte Google seine KI-Entwicker*innen-Konferenz abgehalten und das World Wide Web, wie wir es kennen, verabschiedet. Google will die Suche anscheinend komplett durch ihre LLMs ersetzen und wie Casey Newton schreibt, damit das Web mit sich selbst:

„And now that LLMs promise to let users understand all that the web contains in real time, Google at last has what it needs to finish the job: replacing the web, in so many of the ways that matter, with itself.“

Kurz zusammengefasst erfolgt diese Ersetzung in drei Schritten:

  1. Erstelle eine lossy komprimierte Kopie des Internets.
  2. Ersetze die Suche im Internet mit fehlerbehafteten Semantikpfaden innerhalb der lossy Kopie.
  3. Lass die lossy Kopien das Internet in einem Tsunami an generativen Bullshit versinken, so dass es kein Zurück mehr gibt.

An dieser Stelle fühle ich mich entitled genug, mir hier etwas Eigenwerbung zu erlauben, denn das neue Akzente-Heft beschäftigt sich mit generativer KI und ich habe einen Beitrag über KI und Demokratie drin, den man auch hier nachlesen kann. Meine These ist, dass KI ein Coup ist und der Coup besteht darin, gesellschaftliche Abhängigkeitsverhältnisse im Silicon Valley zu konzentrieren:

„Die Transformation durch generative KI setzt sich bis in die Tiefe der gesellschaftlichen Abhängigkeitsstrukturen fort. Schon jetzt sinken die Abhängigkeiten beispielsweise gegenüber den Leistungen von Übersetzern, Grafikern, Programmierern und Textern, und mit zunehmender Mächtigkeit der Modelle werden immer mehr Kompetenzen und Berufsfelder ihre Verhandlungsmacht einbüßen. Nimmt man die Ziele und Prognosen der KI-Unternehmen ernst, dann muss man davon ausgehen, dass sich die arbeitsteilige, funktional differenzierte Gesellschaft in den nächsten Jahren komplett entflechten wird. In der Öffentlichkeit wird in dieser Hinsicht immer nur von den möglichen oder tatsächlichen Arbeitsplatzverlusten geredet – es wird aber nicht thematisiert, dass diese reduzierten Abhängigkeiten durch eine entsprechend erhöhte Abhängigkeit von den Tech-Unternehmen erkauft wird. Alle Macht, so scheint es, konzentriert sich gerade im Silicon Valley.“

Der Text ist bereits vor einigen Monaten entstanden und mein Denken hat sich insofern weiterentwickelt, dass ich diese Machtkonzentration heute nicht mehr ohne den Kontext der ideologischen Verrenkungen im Silicon Valley denken kann, die zwar in dem Text anklingen, aber nicht tiefer wurden ausgeführt wurden.

Aber wenn mächtige Menschen Ideologien adaptieren, muss man immer als erstes fragen: Wozu geben sie sich damit die Erlaubnis? Und allein im Fall von Longertermism, der imaginierte Trilliarden simulierte oder biologische Seelen der Zukunft höher wertet, als alles heutige Leben auf der Erde, ist die Antwort: eine Carte Blanche für alles? Insbesondere für jede Form von Bevölkerungszurichtung?


Wo wir bei Eigenwerbung waren. Die Macht der Plattformen war ja ebenfalls meine Dissertation, aber die original abgegebene Fassung weicht noch mal in einigen Details vom letztlich gedruckten Buch ab, weswegen ich mich entschlossen habe, auch die originale Dissertation zur Verfügung zu stellen. Hier kann man sie runterladen.

Sie weicht eigentlich nur in wenigen Details ab, aber diese Details sind vielleicht doch noch nützlich? Ich persönlich finde die Ausführungen in Kapitel 6 zur formalen Beschreibung der Plattformmacht ab Seite 193 besonders empfehlenswert. Aber auch in Kapitel 4 gibt es eine interessante Stelle, an der ich über die enge Verflechtung von Googles Kontroll-Regimes mit dem Web schreibe, die es nicht in die Printausgabe geschafft hat:

„Offiziell wacht heute das World Wide Web Consortium (WWDC) über das Infrastrukturregime, aber der Einfluss von großen Playern wie Microsoft (früher) und Google (heute) ist enorm und schlägt zuweilen die Macht der offiziellen Organisation. Entscheidender aber ist der implizite Einfluss, den Google durch seine Suche auf das Infrastrukturregime hat. Da alle Websites gefunden werden wollen, halten sie sich bei der Konstruktion ihrer Websites sklavisch genau an die von Google publizierten „Empfehlungen“.

[…]
Mit Chrome, Blogger.com, AMP und vielen anderen Diensten und Projekten stellt Google heute zumindest auch einen Teil des Zugangsregimes zu bestimmten Tätigkeiten im Web, aber es ist weit davon entfernt, es unter Kontrolle zu haben.

Wichtiger ist deshalb, dass Google es geschafft hat, sich als das primäre Query-Regime des Webs zu etablieren. Wie die meisten Protokollplattformen hat das WWW kein eigenes Query-Regime, und genau in diese Lücke ist Google erfolgreich gesprungen. Hier liegt Googles eigentliche Machtbasis, und es ist der strategische Ausgangspunkt, von dem aus der Konzern seine Macht über das Web sukzessive ausweitet.

Man könnte argumentieren, dass Google mit seiner Suche darüber hinaus zum Interface- Regime des Webs wird, da sie oft der Startpunkt für viele Verbindungen ins Web ist. Zudem kontrolliert Google mit dem populärsten Browser (Chrome) auch einen anderen wesentlichen Teil des Interface-Regimes. Um ihre Suche als Standardsuche in anderen Browsern zu platzieren, zahlen sie zudem jedes Jahr viele Millionen Dollar an Apple und Mozilla. Doch es spricht auch einiges gegen ein umfassendes Interface-Regime durch Google. Denn sobald man sich tiefer ins Web reinklickt, werden die Interfaces so vielfältig wie die Websites (jede Website ist ebenfalls ein Interface), auch wenn sich über die Zeit bestimmte Designmuster etabliert haben. Das Web ist eine der wenigen Plattformen, bei denen das Interface-Regime in weiten Teilen aus Konventionen besteht.

[…]

Es wäre sicher übertrieben zu sagen, dass Google das Web kontrolliert, wie Facebook seine Plattformen kontrolliert. Aber das Unternehmen ist erstaunlich erfolgreich in alle Kontrollebenen des Webs hineingewachsen und macht einen Großteil von dessen Kontrollregimes aus.

Eva von Redecker beginnt ihr großartiges Buch „Revolution fürs Leben“ mit dem „Stutenberg“ und dessen Legende geht so: Der König wies im 15. Jahrhundert einem Ritter Land zu, wobei sich der Umfang des Guts danach richtete, was der Ritter an einem Tag umreiten konnte und er umreitet so viel Land, dass die Stute am Ende des Ritts tot umfällt. Eva schließt:

„Modernes Eigentum berechtigt den Besitzer nicht nur zur Kontrolle und Gebrauch, sondern auch zu Missbrauch und Zerstörung derselben.“

Offensichtlich fühlte sich Google entitled dazu, das Web todzureiten?


Matt Alt ist Übersetzer und „Localizer“. Ich kannte den letzten Beruf nicht, aber es geht dabei vor allem um das Übertragen von Manga-Comics in andere Sprachen. Man spricht von „Localization“, weil nicht nur die Sprache übersetzt werden muss, sondern größtenteils auch die Bilder. Sein Text erklärt sehr gut wie diese Arbeit von Statten geht und warum sie kaum von generativen KIs geleistet werden kann. Ich fand aber vor allem eine Metapher bemerkenswert:

Perhaps a better way of looking at things is that localization is the linguistic equivalent of the last-mile problem. When it comes to logistics, the most expensive part of the shipping process isn’t getting widgets from China to America, or from port to warehouse. It’s that last little bit from distribution center to the customer’s home. A similar effect is at work with localization of manga and other forms of content.

The expense of translating all those words represents a juicy target for tech solutions. But manga are made by people, for people, and people are always going to play the key role in bringing them to life for customers.

Die letzte Meile ist immer die teuerste, weil dort, wo gesprochen wird, die Semantiken am dichtesten sind. Gesprochen wird nämlich immer an einem konkreten Ort, unter konkreten materiellen Bedingungen und in einem sehr bestimmten zeitlichen und inhaltlichen Kontext. Das „Local“ in „Localization“ bezieht sich auf so viel mehr, als nur Geographie.


Katharina Hoppe hat einen lesenswerten Aufsatz veröffentlicht: „Das „Prinzip Antworten“: Eine postapokalyptische Theorie der Verantwortung für das Anthropozän.“ Sie arbeitet sich am Anthropozän-Diskurs ab und orientiert sich dabei an der Verantwortungsethik von Hans Jonas. Jonas‘ etwas unterentwickeltem Verantwortungbegriff wird dann Haraways Begriff gegenübergestellt, der Verantwortung als ständige Rücksprachebereitsschaft definiert. Dazu nimmt Hoppe den Faden des neuen Materialismus auf und begreift unsere materiellen Abhängigkeiten als Akteure, die nach unserer Antwort rufen:

„Viele der zur Antwort rufenden Objekte im Anthropozän lassen sich vor diesem Hintergrund charakterisieren als weitgehend unsichtbare und in ihrer Notwendigkeit für die Reproduktion von Gesellschaften verleugnete konstitutive Beziehungsgeflechte, die manche Lebensstile und Daseinsformen ermöglichen und andere ausschließen. Abhängigkeitsbeziehungen sind dabei jene Relationen, die dem Weiterbestehen von Gesellschaften dienen und deren Wegfall (existenziell) spürbar ist, weil ihr Schwinden Selbstverständlichkeiten infrage stellt oder sogar Zusammenbrüche evoziert.

Abhängigkeitsverhältnisse – verstanden als unsere konstitutiven Verwobenheiten mit heterogenen (gerade auch nicht-menschlichen) Anderen – sollten nicht erst in die Krise geraten müssen, um als ethisch und politisch relevant zur Kenntnis genommen zu werden.“

Hoppe beschreibt hier sehr schön, was „Infrastruktur“ in Wirklichkeit ist. Infrastruktur ist eine Logik, die eben nicht nur auf Autobahnen und Glasfaserleitungen Anwendung findet, sondern auf alle materiellen Abhängigkeiten, deren Rufe nach Antwort wir vor lauter Entitlement nicht mehr hören. Bis es eben RUMS macht.

Hoppe plädiert deswegen für einen „Ethischen Realismus“, der die Vielfalt der Abhängigkeitsverhältnisse im Reden über die Freiheit mitdenkt:

„Die Konfrontation mit Notwendigkeit und Abhängigkeit ist im Kern realistisch. Ein ethischer Realismus, der Freiheit von der Notwendigkeit her begreift, ist im Anthropozän von besonderer Bedeutung,
[…]
Die Fülle der Freiheit zu leben und zu ertragen, hieße, sich auf die Abhängigkeitsverhältnisse einzulassen, die „uns“ ausmachen, und sie als solche zu gestalten. Ohne eine solche Konfrontation bleiben Freiheitsversprechen im Anthropozän ebenso leer wie Verantwortungsübernahmen, die einer Logik der Berechenbarkeit verhaftet bleiben.


Die Sofwareentwicklerin Jennifer Moore hat einen sehr lesenswerten Essay über die Nutzung von LLMs in der Programmierung veröffentlicht. Was viele außerhalb der Software-Branche vielleicht nicht wissen: im Gegensatz zu fast allen anderen Einsatzbereichen ist der Nutzen von LLMs in der täglichen Programmierarbeit nicht wegzudiskutieren. Gerade wenn es um Standardssituationen geht, nimmt einem die LLM viel Tipparbeit ab und reduziert die Notwendigkeit, Dinge ständig nachschlagen zu müssen. Natürlich grätschen Halluzinationen und Bullshit immer wieder rein, aber mit einiger Erfahrung bekommt man das schon halbwegs gemanaged.

In der zweiten Hälfte des Textes arbeitet Moore einige systemische Probleme ab, die sich aus der Nutzung von LLMs ergeben. Insbesondere weist sie auf die Tatsache hin, dass Code schreiben eben nur ein kleiner Teil von Software-Entwicklung ist.

„Non-trivial software changes over time. The requirements evolve, flaws need to be corrected, the world itself changes and violates assumptions we made in the past, or it just takes longer than one working session to finish. And all the while, that software is running in the real world. All of the design choices taken and not taken throughout development; all of the tradeoffs; all of the assumptions; all of the expected and unexpected situations the software encounters form a hugely complex system that includes both the software itself and the people building it. And that system is continuously changing.

The fundamental task of software development is not writing out the syntax that will execute a program. The task is to build a mental model of that complex system, make sense of it, and manage it over time.“

Das „Managing over time“, die Maintanence, hält das System der Welt gegenüber verantwortlich, indem es sich verändernden System- und Bedürfnis-Umwelten antwortend macht. Und das ist der am Ende wirklich kompliziert zu organisierende Part und den kann keine KI bisher leisten. Im Gegenteil: Dieser Verantwortung wird immer schwerer nachzukommen sein, je mehr Code ki-generiert ist? Zudem wird es langfristig dazu führen, dass die Code-Ökosysteme auseinander fallen, weil Bibliotheken und Frameworks plötzlich immer weniger Sinn machen, wenn eh alle ihren Code generieren lassen?

Der Entwickler Paul Cantrell, über dessen Empfehlung ich auf den Artikel stieß, ergänzt:

Code is cost. It costs merely by •existing• in any context where it might run. Code is a burden we bear because (we hope) the cost is worth it.

What happens if we write code with a tool that (1) decreases the cost per line of •generating• code while (2) vastly increasing the cost per line of •maintaining• that code? How do we use such a tool wisely? Can we?

In der Softwareentwicklung spricht man auch von „Technical Dept“, also technologischen Schulden, wenn ungewarteter, vielleicht sogar unwartbarer Code irgendwo im Unternehmen immer noch in Verwendung ist. Und diese Schulden könnten durch KI nun ins Astronomische schießen, wenn ambitionierte Manager*innen ihre Programmierer*innen unter Druck setzen, immer mehr unwartbaren Bullshit-Code zu generieren.


Die Tagesschau gibt einen interessanten Einblick in die Arbeit des S-Bahn-Reinigens.

Die Reinigung erfolgt bis heute per Hand. Von Putzrobotern oder moderner Reinigungstechnik kann Peter Svetits nur träumen. „Ich wüsste gar nicht, was die menschliche Hand, das menschliche Auge so ersetzt, wie es derzeit benutzt wird“, sagt er. Akkugeräte hätten oft nur eine Laufzeit von drei Stunden – müssten aber acht Stunden durchhalten. Außerdem müsse die Technik leicht sein, da sie von Zug zu Zug getragen wird. So etwas gehe nur mit Besen und Wischmopp. Und Mehmet Yetis legt sogar noch nach: „Ich bin mir sicher, dass die nächsten hundert Jahre noch per Hand gereinigt wird.“

Überall ruft die letzte Meile zur Antwort und die KI bleibt stumm.



Im Chartbook Newsletter diskutiert Adam Tooze die „Vision“, die Netanyahu für ein zukünftiges Gaza vorgestellt hat: Gaza 2035.

„Vision“ ist tatsächlich übertrieben, denn was er vorgestellt hat, ging über ein paar KI-genrierte Bilder und ein neoliberalen Bullshitvokalbeln nicht hinaus. Kurz zusammengefasst: Er will aus Gaza eine Art Freihandelzone machen und alles mit hypermoderner „Infrastruktur“ vollstellen.

Netanyahu’s Gaza 2035 is a plan, to complete the erasure of Gaza. In it place the Israeli government envisions a mega-rich, clone of a globalized commercial and industrial city, somewhere between Chicago – what historian William Cronon described as Nature’s Metropolis – and Dubai.

Das ganze soll dann eingebunden werden in allerlei Schienennetze, unter anderem mit Dubai und dem Quatschprojekt Neom. Tooze schreibt:

Given its physical properties, infrastructure, is a preferred tool of the rich and the powerful. They selectively lock in political and geopolitical conflicts, giving them monumental form, whilst suppressing and concreting over the most intractable issues, e.g. the Palestinian question.

Infrastruktur um Verantwortung zu planieren? Doch natürlich ist es am Ende viel einfacher:

„Or visions like Gaza 2035 may act as an diversion, conjuring up harmonious regional infrastructure visions, whilst settlers and their bulldozers move in on the ground.“

Krasse Links No 16.

Willkommen bei Krasse Links No 16. Schnallt eure Fallschirme an, wir folgen heute einer hierarchischen Stufenleiter in die Objektivität und springen von dort in die Semantiken.


Die Vorstellung von GPT-4o ist ein weiteres Indiz dafür, dass die Entwicklung von LLMs plateaut. Statt eines besseren Modells wurde ein günstigeres vorgestellt, statt eines Modells, das mehr kann, wird es mit einem neuen Sprachinterface ausgestattet. Und auch die Art der Interaktion des Sprachinterfaces deutet auf andere Anwendungsfälle hin, die OpenAI jetzt anscheinend anstrebt: 4o kichert, macht bedeutungsvolle Pausen, trällert charmant, flirty und ein bisschen geschwätzig, so dass sich einem die Parallelen zu dem Film „Her“ geradezu aufdrängen.

OpenAI scheint die zukünftigen Usecases also weniger in produktiven Jobs zu sehen (dafür sind die Dinger nach wie vor – und ich schätze, auf absehbare Zeit – zu unzuverlässig), sondern im Beziehungsersatz? Brian Merchant nimmt das zum Anlass, Silicon Valleys weirde Beziehung zu Science Fiction aufzudröseln und bringt dabei auch die sich abzeichnende Produktidee auf den Punkt:

„With Her, it’s even simpler — lots of people, especially lonely men, would like to be surrounded full-time by a Scarlett Johansson bot that acts like it cares deeply about them and thinks they’re funny. Who cares if ultimately it is revealed in the film that the AI was not actually engaging in a personal loving relationship with the protagonist but a simulation of one, and that simulation was keeping him — and humans everywhere — from enjoying basic human experiences and depriving them of lasting connection with other people? It’s a personal 24/7 Scarlett Johansson AI companion.“

Nachdem die Techgiganten unsere Beziehungen verschlangen und sie zu ihrem „For You“-Algorithmus verdauten, bieten sie uns jetzt digitale Ersatzbeziehungen an. Die beschweren sich auch nicht, wenn man sich mal Wochenlang nicht meldet, sind nachsichtig mit unseren Ticks und geben uns immer recht.

Und wenn man einmal durchdenkt, welche Macht abusive Relationship-Dynamiken und emotionale Abhängigkeit haben, schreibt sich das Geschäftsmodell von selbst? Ich fürchte, es entsteht gerade die perverseste, kapitalistische Incentive-Struktur seit Fentanyl?


Im Hard Fork Podcast interviewten Casey Newton und Kevin Rose den CEO von Nomi, einem Anbieter für Beziehungs-KIs, Alex Cardinell. An einer Stelle fragen sie ihn, wie sie zum Beispiel mit Chats über Selbstmordgedanken umgehen:

Casey Newton
I’m curious about some of those things. If you have a user that’s telling a Nomi, I’m having thoughts of self-harm, what do you guys do in that case?

Alex Cardinell
So in that case, once again, I think that a lot of that is we trust the Nomi to make whatever it thinks the right read is often times because Nomis have a very, very good memory. They’ll even remember past discussions where a user might be talking about things where they might know is this due to work stress, are they having mental health issues? What users don’t want in that case is they don’t want to hand-scripted response. That’s not what the user needs to hear at that point. They need to feel like it’s their Nomi — communicating as their Nomi for what they think will best help the user.

Hach, Technologie. Sie eröffnet immer neue Wege, Verantwortungsübernahme zu verweigern.


Die Koryphäe der Klimawissenschaft, Joachim Schellnhuber, hat dem Stern ein Interview gegeben:

Hätten Sie 1990 erwartet, dass es so kommt?
Nein. Grundlegendes Wissen zum Treibhauseffekt gab es schon lange. Die entscheidende Berechnung wurde bereits 1896 durchgeführt. Aber über die Folgen der Erderwärmung wurde Anfang der 1990er Jahre allenfalls spekuliert und an einen Temperaturanstieg von über zwei Grad hat niemand wirklich geglaubt. Als ich 1992 das Potsdam-Institut für Klimafolgenforschung gründete, rechnete ich fest damit, dass es nach 25 bis 30 Jahren wieder eingestampft würde, weil dann das Klimaproblem gelöst wäre.
Waren Sie naiv?
Das war plausibler Zweckoptimismus. Wir dachten, es geht immerhin um das Überleben unserer Zivilisation, die Menschheit kann gar nicht so verbohrt und gleichgültig sein, dass sie hier nicht entschlossen gegensteuert. Dass man zum kollektiven Selbstmord aus Bequemlichkeit bereit ist, ging über unsere Vorstellungskraft.

Ich muss ehrlich gestehen, dass es mir immer schwerer fällt irgendwelche Dinge über die Klimakatastrophe oder auch nur Klimapolitik zu lesen, es ist einfach zu deprimierend. Ich kann total verstehen, dass man das verdrängen will und ich glaube, das ist, was passiert. Und zwar überall, nicht nur bei AfD, FDP und CDU, sondern auch bei den Grünen und ihren Anhänger*innen und sogar bei Schellnhuber und seinen Kolleg*innen die trotz allem an der Illusion festhalten, den fossilkapitalistischen Komplex wegschmusen zu können.


In diesem spannenden Aufsatz widmen sich die Jurist*innen Matthew Sag und Tonja Jacobi der Frage, was die Biases in generativer KI über uns als Gesellschaft aussagen. Sie nehmen dafür die Empörung um die zu „woken“ Bilder von Googles Bildgenerierungs-KI als Ausgangspunkt und performen damit den einen Anwendnungsfall der Technologie, für den ich generative KI nicht mehr missen möchte: KI als Spiegelbild der Gesellschaft, bzw. als Spiegelbild der gesellschaftlichen Semantiken.

Sie arbeiten vier Probleme heraus:

  • Die Trainingsdaten bestehen zum großen Teil aus Dokumenten westlicher, weißer, männlicher Perspektiven.
  • Dazu kommen die bis heute bestehenden Ungleichheiten und Biases, die sich über alle möglichen Wege in die KIs abfärben.
  • Das dritte Problem besteht darin, dass wir das Ideal einer inklusiveren und gleicheren Gesellschaft pflegen, als wir in der Realität sind und Technologie kann nicht unterscheiden, ob wir gerade ein realistisches, oder ein ehrgeizigeres Bild der Gesellschaft verlangen.
  • Zuletzt sehen die Autor*innen eine generelle Überschätzung der Fähigkeiten von aktuellen KI-Ansätzen. Deren Output kann zwar im ersten Eindruck verblüffen, doch ist er schon per technischer Definition im wahrsten Sinne des Wortes konventionell.

Midjourney can produce an image of a cat on Pluto, Sonu.ai can write a song about a cat on Pluto, and even though these combinations are new, there is something highly conventional about the resulting digital artifacts. Because the output of Generative AI inherently gravitates toward the center of a distribution implied by the training data, it confronts us with a reflection of the mean of that data.

In diesem Newsletter sehen wir in generativer KI Semantik-Navigiermaschinen, deren ganze Fähigkeit sich darin erschöpft, plausible Token-Pfade von einem Ort im tausenddimensionalen Latent-Space zu einem anderen Ort in diesem Latentspace zu finden. Der Latent-Space ist dabei nur eine Art Abdruck – eine aus Milliarden von menschlichen Aussagen statistisch syndizierte Landkarte – unserer gesellschaftlichen Semantiken.

Und das macht jede Bedienung einer generativen KI zu einer Eiskernbohrung in das semantische Unterbewusstsein der Gesellschaft, das dann so alltagskulturelle Artefakte wie den „Male Gaze“ zutage fördert:

„Because the training data for Midjourney, DALL-E-3, and the like is made up mostly made of images of women produced by western men, the outputs of those models reflect typically western male aspirations of women’s appearances, deferential attitudes, and roles. They reflect the male gaze.“

Ja, auch Blicke sind Semantiken, die im Latent-Spaces kodiert sind und der Male Gaze ist nicht der einzige Blick. Zumindest dürften die heutigen KIs genug Bilder/Texte gesehen haben, um eine Vielfalt der Blicke zu kodieren, doch meine Vermutung ist, dass das dann im Fine-Tuning gestreamlined wird?

In den ersten Versionen von ChatGPT konnte man die Antwortqualität deutlich verbessern, wenn man dem Modell eine Identität zuwies: „Du bist ein Arzt“ oder „Du bist eine Professorin für Linguistik“, etc. Mit Donna Haraways bereits besprochener These der Situiertheit des Wissens ergibt dieser Hack absolut Sinn, denn es hilft dem Modell ungemein, wenn man ihm einen expliziten Ort als Startpunkt für die zu navigierenden Semantikpfade zuweist.

Wenn man den Trick heute anwendet, nimmt ChatGPT leider nicht mehr die zugewiesene Identität an, sondern reflektiert als „hilfreicher Chatbot“ über die vorgeschlagene Perspektive. Ich schätze, sie haben ihren GPTs die Multiperpektivität abtrainiert, um „objektivere“ und besser reproduzierbare Antworten zu generieren. Aber an den Open-Source-Dingern könnte sich tatsächlich sowas wie eine kulturwissenschaftliche Semantologie entwickeln?


Udi Greenberg liefert eine lesenswerte Besprechung des neuen Buches von Stefanos Geroulanos: The Invention of Prehistory: Empire, Violence, and Our Obsession with Human Origins. Greenberg stellt das Buch in den Kontext von Hararis Homo Deus und Wengrow/Graebers: The Dawn of Everything, die beide den Versuch darstellen, das Heute aus der Vorhistorie zu erklären.

Geroulanos, bzw. Greenberg zieht die ganze Debatte auf die Metaebene und zeigt, dass die Rede von der Vorzeit schon immer im Zeichen der politischen Instrumentalisierung stand, deren Beginn nicht zufällig in die Kolonialzeit fällt. Die Vorgeschichte gab uns Europäern ein Framework, um die Völker auf die wir bei unseren „Entdeckungsreisen“ stießen, hierarchisch unter uns einzuordnen.

As part of their justification for new conquests, many white Europeans and their counterparts in North America insisted that Asians, Africans, and Indigenous Americans lived in an earlier mode of existence. They may have breathed the same air and drunk the same water, but they represented an earlier and “primitive” stage of development, which allegedly lacked culture and self-control. The Enlightenment’s love of tripartite schemas proved especially convenient for this purpose, as many thinkers utilized them to divide humanity into three distinct stages.

Und hier sind wir im Glutkern dessen, was ich neulich als Ideologie der „White Supremacy“ bezeichnete: Die Idee einer lineralen Hierarchie der gesellschaftlichen Entwicklung als dessen vorläufigen Endpunkt wir uns selbst begreifen und in die wir alle anderen Kulturen als unterentwickelte Vorformen unserer Selbst einordnen:

Even worse, sweeping narratives that go from the stone age to our times perpetuate the colonialist belief that all human history culminates with us. As Geroulanos puts it, our culture fetishizes stories of origins because they allow us to “admire our grandeur.” This equation of ourselves with “humanity” in fact ironically leads us to depict those who do not fit our narratives as not fully human. “Humanity still bleeds,” he despairs, because we still so often think of our enemies as imprisoned in “a supposedly savage past” from which only war could provide rescue.

Ich seh das so: ganz offensichtlich gibt es irgendwo einen Entwicklungspfad von der Steinzeit zu unserer heutigen, westlichen Zivilisation, aber das macht ihn halt nicht zu einem besseren Pfad als andere Pfade? Während wir in unseren endlosen Kriegen unsere ganze Energie darauf verschwendeten, effizientere Wege zu finden, uns gegenseitig die Köpfe einzuhauen, arbeiteten andere Kulturen halt lieber an ihrem Bewässerungssystem, erfanden medizinische Operationen, entwickelten unfassbar komplexe Wissensstrukturen, zu Astronomie und Mathematik und ausgefeilte politische Bündnisstrukturen mit demokratischen und konsensualen Elementen. Und ja, unser spezieller Entwicklungspfad erlaubte uns, diese Kulturen auszulöschen, beziehungsweise sie gewaltsam zu unterwerfen und auszubeuten, aber wenn das etwas über unsere Kultur aussagt, dann höchstens, dass wir Arschgeigen-Weltmeister sind und wenn ihr im globalen Süden mal rumfragt, dann ist das ziemlich genau das, was man als Westler so gespiegelt bekommt?

Ich sehe schon, warum so ein Selbst- und Weltentwurf in Zeiten des Kolonialismus nützlich war, doch diese extrem tiefsitzende Pfadentscheidung bestimmt bis heute unseren Blickwinkel auf die Welt (ja, auch meinen immer noch, obwohl ich mir immer mehr darüber bewusst werde) und manifestiert sich in so unterschiedlichen materiell-semantischen Komplexen wie die Suche nach AGI, dem Bau der Festung Europa, der Idee des American Exceptionalism, dem politischem Zionismus, Star Trek und sogar in Russki Mir. Und ich finde, angesichts dieser Kontinuität kann man sich schon mal fragen: are we the Baddies?


Frédéric Valin macht im ND eine wichtige Unterscheidung:

Die Arbeiter*innenliteratur hatte in Deutschland schon immer einen schweren Stand, inzwischen ist sie nahezu inexistent. Substituiert wird sie spätestens seit Didier Eribons »Rückkehr nach Reims« von einem Genre, das man Arbeiter*innenkinderliteratur nennen könnte. Bevorzugtes Mittel dieses Genres ist die Autobiografie, die angelegt ist wie ein Künstlerroman des 19. Jahrhunderts: Den Werdegang der Protagonist*innen erzählen und von all den kleinen und großen Kränkungen und Unsicherheiten, Fehltritten und Erweckungen, wie sie auch ein Frédéric Moreau in Flauberts »Éducation sentimentale« durchläuft. Unterbrochen wird der Erzählfluss nach dem Vorbild Eribons durch soziologische Einsprengsel und psychologische Überlegungen.

Diese Geschichten von der Emanzipation der eigenen Vergangenheit, der Emanzipation von den Eltern, sind liberale Individualisierungsgeschichten. Oder wie es Iuditha Balint, Leiterin des Fritz-Hüser-Insituts, ausdrückt: Die Protagonist*innen der Arbeiter*innenliteratur stehen für ein »Wir« ein, für ihre Klasse. In der Arbeiter*innenkinderliteratur aber tritt das »Ich« viel stärker hervor.

Auch der Klassismus basiert auf der Vorstellung einer linearen Stufenhierarchie, als dessen Endpunkt sich die (bildungs-)bürgerliche Klasse versteht, die man durch „sozialen Aufstieg“ erreichen kann.


Die New York Times hat einen extrem durchrecherchierten Longread über die Siedlergewalt im Westjordanland veröffentlicht und wie sie über die Zeit die israelische Politik eingenommen hat. Der Report ist so lang wie erschreckend und im Zentrum steht dabei die schulterzuckende Nicht-Durchsetzung des Rechts gegenüber der Siedlergewalt an den Palästinensern, doch diese Gewalt ist Ausgangspunkt für politische Dynamiken, die den Staat Israel in seiner Existenz gefährden.

The long arc of harassment, assault and murder of Palestinians by Jewish settlers is twinned with a shadow history, one of silence, avoidance and abetment by Israeli officials. For many of those officials, it is Palestinian terrorism that most threatens Israel.
[…]
A long history of crime without punishment, many of those officials now say, threatens not only Palestinians living in the occupied territories but also the State of Israel itself.

Eines der Beispiele, dem sich der Artikel im Detail widmet, ist die Geschichte des kleinen Dorfes Khirbet Zanuta, dessen Bewohner über Jahre von Siedlern terrorisiert wurden, bis sie fliehen mussten, sich aber jetzt mithilfe der Anwälte von Haqel, einer Israelischen Menschenrechtsorganisation, gerichtlich zur Wehr setzen.

They [die Anwälte] stated that the raid was part of “a mass transfer of ancient Palestinian communities,” one in which settlers working hand in hand with soldiers are taking advantage of the current war in Gaza to achieve the longer-standing goal of “cleansing” parts of the West Bank, aided by the “sweeping and unprecedented disregard” of the state and its “de facto consent to the massive acts of deportation.”

Nach dem Lesen des Artikels finde ich es zwar immer noch nicht „antisemitisch“ diese Zustände als „Apartheid“ zu bezeichnen, aber eben auch nicht korrekt? Der südafrikanische Appartheitsstaat hatte immerhin klare Regeln. Für das, was in der Westbank passiert gibt es wahrscheinlich noch gar keinen Begriff?

Ein anderer Strang des Artikels geht der rechtsterroristischen Bewegung nach, die sich aus dieser Situation entwickeln konnte und die nicht erst seit gestern den israelischen Staat bedroht. Das bekannteste Ereignis ist hier sicher das Attentat auf Jitzchak Rabin 1995 von dem sich eine personelle und ideologische Kontinuität bis direkt ins heutige Regierungskabinett ziehen lässt.


Eine Journalistin fährt auf eine Hundeshow und schmust ganz viele unterschiedliche Hunde. Das wars. Das war die Empfehlung.


OpenAI springen einige ihrer wichtigsten Wissenschaftler ab. Nachdem der Chef-Researcher Ilya Sutskever bereits verabschiedet hatte, geht jetzt auch Jan Leike, der für AI-Safety zuständig war und sagt:

“These problems are quite hard to get right, and I am concerned we aren’t on a trajectory to get there,” he wrote, adding that it was getting “harder and harder” for his team to do its research.

“Building smarter-than-human machines is an inherently dangerous endeavour. OpenAI is shouldering an enormous responsibility on behalf of all of humanity,” Leike wrote, adding that OpenAI “must become a safety-first AGI company”.

Der ganze KI-Komplex denkt Intelligenz in kolonialistischer Tradition als lineare Stufenleiter, mit uns noch auf der obersten Stufe, bis uns die Artificial Generell Intelligence (AGI) ein- und dann überholen wird. Und weil im Valley so viele super verantwortungsbewusste Sternenflottenoffziere arbeiten, feilen sie gleichzeitig an einer mega fortschrittlichen Super-Ethik, die man dem System einbimst, damit es uns nicht in Büroklammern verwandelt.

Das klingt alles furchtbar lächerlich, aber das ist gar nicht der Hauptgrund, warum ich keine Angst vor AGI habe. Ich glaube einfach, dass Intelligenz niemals „generell“ ist, sondern immer spezifisch. Das, was wir als Intelligenz bezeichnen ist ein sich weit verzweigendes Netz aus Semantiken, die in nichtlineraren, nichthierarschischen Zusammenhängen stehen und in dem wir jeweils nur eine kleine Nische bewohnen.

Ganz sicher wird es gelingen, KIs zu entwickeln, die in manchen oder gar vielen Kompetenzbereichen über menschliche Skills hinaus gehen (was schlimm genug ist, aber hier nicht das Thema), aber wenn Künstliche Intelligenz jemals echte Kreativität beeinhalten soll, also die Fähigkeit neue Dinge zu sehen, denken, hören, sagen und fühlen zu können, dann wird sie lernen müssen, das Netz der Semantiken zu erweitern. Und das geht nie alleine, sondern nur im wechselseitigem Austausch.


Caroline Haskins berichtet für den Guardian von der AI Expo for National Competitiveness, einer unter anderem von Eric Schmidt und Palantir ins Leben gerufenen Messe, auf der der militärisch-industrielle Komplex mit dem Silicon Valley kuschelt. Der ganze Artikel ist unwirklich und sehr lesenswert, aber ich will hier nur die Beschreibung des Palantirstandes zitieren, wo ein Projekt namens „Civilian Harm Mitigation“ vorgestellt wurde.

The woman described how Palantir’s Gaia map tool lets users “nominate targets of interest” for “the target nomination process”. She meant it helps people choose which places get bombed.

After she clicked a few options on an interactive map, a targeted landmass lit up with bright blue blobs. These blobs, she said, were civilian areas like hospitals and schools. The civilian locations could also be described in text, she said, but it can take a long time to read. So, Gaia uses a large language model (something like ChatGPT) to sift through this information and simplify it. Essentially, people choosing bomb targets get a dumbed-down version of information about where children sleep and families get medical treatment.

“Let’s say you’re operating in a place with a lot of civilian areas, like Gaza,” I asked the engineers afterward. “Does Palantir prevent you from ‘nominating a target’ in a civilian location?”

Short answer, no. “The end user makes the decision,” the woman said.

Wenn der der westliche „Gaze form Nowhere“ eine heilige Stätte hat, dann liegt sie nicht in Israel, sondern im Silicon Valley und Steward Brand ist ihr Prophet. Sein Whole Earth Catalog inspirierte Steve Jobs, er organisierte die erste Hackerkonferenz, gründete eine der ersten und die wahrscheinlich einflussreichste Online Community The Well, aus dessen kulturellem Kosmos die Wired und der EFF hervorgingen.

Brands Geschichte beginnt auf einem Dach, auf dem er seinen Mushroomtrip mit einem Joint ausklingen lies und darüber nachdachte, dass die Welt unbedingt eine Aufnahme von sich aus dem Weltall braucht. Der Erzählung nach macht er so lange Stress bei der Nasa, bis sie ein Foto von der Erde rausrücken und dieses Foto, die Blue Marble, verändert die Welt.

Aber die Blue Marble ist ein Vexierbild. Ja, man kann aus dieser Verortung im Universum eine gewisse Demut ziehen, wenn man will. Man kann die Marble aber auch mit einem slicken Interface versehen und schon hat man Google Maps?

Vom Whole Earth Catalog über Apple, Google und Palantir (was der „allsehende Stein“ in Herr der Ringe ist) bishin zu den Hunderten von Milliarden Dollar, die gerade in die Entwicklung von AGI fließen, arbeitet das Silicon Valley daran, den „Gaze from Nowhere“, als die letztgültige Objektivität zu materialisieren, mit der man die ganze Welt in ein riesiges Gaza verwandeln kann. Doch wenn man Haraway glaubt, dann haben sie ihre eigenen Systeme nicht verstanden:

„The „eyes“ made available in modern technological sciences shatter any idea of passive vision; these prosthetic devices show us that all eyes, including our own organic ones, are active perceptual systems, building on translations and specific ways of seeing, that is, ways of life. There is no unmediated photograph or passive camera obscura in scientific accounts of bodies and machines; there are only highly specific visual possibilities, each with a wonderfully detailed, active, partial way of organizing worlds.

Krasse Links No 15.

Willkommen bei Krasse Links No 15. Stellt Eure Phaser auf Betäubung, wir müssen über Star Wars reden.



Apple hat zum Start seines neuen iPad-pro einen Werbespot veröffentlicht, in dem sie eine Menge Musikinstrumente und Kreativtools in einer riesigen Presse zu dem neuen iPad schmieden und die Reaktionen sind so aufgebracht, dass Apple sich entschuldigen musste.

Ich finde das deswegen interessant, weil ich glaube, dass der Spot vor zwei Jahren nickend durchgegangen wäre, denn eigentlich bringt er nur die altbekannte Selbsterzählung des Silicon Valley auf den Punkt: Wir disruptieren etablierte Praktiken, Tools und Institutionen, indem wir eine komprimiertere, kompaktere, zugänglichere Version davon anbieten. Das ist das Bild, das Apple von sich in seinem popkulturell ikonischen Werbespot von 1984 entwarf, und damit die Semantiken des rebellischen Selbstentwurfs lieferte, die von großen Teilen des Valleys adaptiert wurden.

Apple scheint aber gar nicht bemerkt zu haben, wie schal diese Selbstzählung heute wirkt und war daher blind für die offensichtliche Möglichkeit, dass sich viele Menschen – und ganz besonders Kreative seit dem Aufkommen von generativer KI – mit den zerquetschten Intrumenten in der Presse identifizieren würden. Man kann nicht besser auf den Punkt bringen, wie out of touch Silicon Valley mittlerweile ist.


Mike Pounds bespricht in einem neuen Video die Grenzen der Skalierbarkeit von aktuellen KI Ansätzen. Grundlage ist dieses Paper, das durch experimentelle Datenerhebung zeigt, dass die Performance von derzeitigen KI-Ansätzen bei zunehmenden Datenmengen abflacht, sich also asymptotisch verhält. Mit anderen Worten: Der Ansatz skaliert ab einem bestimmten Punkt nicht mehr.

Ich hatte ja auch schon die These aufgestellt, dass LLMs auf einem Sattelpunkt angekommen sind und auch Gary Marcus sieht das so. Es wird spannend sein zu sehen, was passiert, wenn alle aus ihren AGI-Träumen aufwachen und die hunderte von Milliarden Dollar Investitionen in Rechenzentren irgendwie abgeschrieben werden müssen, während KI immer noch für kaum etwas gut genug ist.


Der Deal, den Star Trek in seiner Zukunftserzählung unterbreitet, ist ja, dass wir unglaublich geilen und mächtigen technologischen Shit haben werden, aber im Gegenzug – weil große Macht auch große Verantwortung bedeutet (großes Spidyehrenwort!) – auch eine viel krassere Ethik. Wir sind klüger, reifer, weiser, abgewogener, weniger rassistisch, mit besseren Institutionen und höheren Idealen.

Und ich glaube, diese Grunderzählung war zumindest für die technooptimistischeren Menschen wie mich immer auch eine plausible Schneise der Erwartung, in die man sich selbst, das Silicon Valley, den Westen und schließlich die ganze Welt in eine positive Zukunft hinein-imaginieren konnte. Ich finde diese Erzählung immer noch ganz hübsch, aber auch etwas … cringe?

Ethik skaliert halt nur, wenn man sie als Suchbewegung nach einer unendlich optimierbaren Formel für Gerechtigkeit konzeptionalisiert. Wenn man sie dagegen nach Haraway als echte Verantwortungsübernahme denkt, wird Ethik eine asymptotische Funktion mit deminishing Returns, deren Horizont durch den Menschen limitiert bleibt.

Mir kam es schon immer komisch vor, dass der Captain der Enterprise ständig alle Probleme selber löst und mit jedem Alien in der Galaxis persönlich redet. Umgekehrt frage ich mich, wo ich als eines von dröfzigtrilliarden Aliens, das im von der Föderation kontrollierten Bereich der Galaxie lebt, bei der Sternenflotte anrufen kann, wenn ich ein konkretes Problem habe? Geht da eine Hotline ran? Sitzt da dann ein Mensch dran? Hat der ein Verständnis für meine Bedürfnisse? Hat er überhaupt eine Sprache, in der ich meine Probleme formulieren kann? Und kann ich auch etwas in der Sternenflotte bewegen? Ist also jemand verantwortlich, im dem Sinne, dass er oder sie Antworten kann, nicht wie ein Chatbot, sondern als jemand, der oder die im Zweifel bereit und fähig ist, sich selbst zu verändern oder gar die Sternenflotte oder die Föderation?

Ich würde gerne sagen, dass ich wegen solchen Widersprüchen lieber Star Wars geguckt habe, aber die Wahrheit ist wohl eher, dass ich einfach mehr auf Laserschwerter stehe? Doch je lauter um mich herum unsere super fortschrittlichen, westlichen Werte kollabieren, desto plausibler wird mir die Star Wars-Zukunftsvision und desto mehr fühle ich mich bereits als Bewohner des Galactic Empire, statt der Föderation.

Jedenfalls. Wenn ihr wie ich fast alle aktuellen Star Wars Serien todlangweilig findet, dann schaut Euch trotzdem Andor an. Andor erzählt gewissermaßen die Anfänge der Rebellion, als sich der Widerstand formt und wo normale Menschen plötzlich in Situationen kommen, in denen sie feststellen, dass „Sich wehren“ die einzige Option ist. Die Serie befasst sich sehr intensiv mit den sozialen Dynamiken des Widerstands, aber auch mit hintergründigen, strategischen Überlegungen, dazu Überlegungen zur Rolle von Technik, von Solidarität und Freundschaft, von Aufopferung, Moral und Gewalt. Rebellion ist der Versuch, das Imperium zum Antworten zu zwingen.

Aber auch das Empire ist so plausibel und plastisch in Szene gesetzt, wie ich es noch nie gesehen habe. Wie dort Menschen auf allen Ebenen des Apparats einfach ihren Job machen und sich dabei einreden, das Richtige zu tun. Wie die Spitze durch Kämpfe, Intrigen und Ränkespiele bestimmt wird und das Empire auch intern immer Opfer produziert, dazu Karrieristen und sich stapelnde Widersprüche.

Aber das Wichtigste, was wir lernen ist, dass die entscheidende Schwachstelle des Empire nicht ein ungesicherter Lüftungsschacht am Todesstern ist, sondern seine eigene, bräsige Arroganz und seine Verachtung, mit der es auf die von ihm Beherrschten schaut.

Andor gibt es natürlich auf Disney Plus, aber hier verlinke ich vor allem auf diesen großartigen Video-Essay von Just Write „Andor: Anti-f*scist Art“


Der Guardian berichtet über das Ende des „Future of Humanity“ Institut in Oxford, das von dem Gründungsphilosophen der Longtermist-Bewegung Nick Bostrom geführt wurde und versammelt noch mal die vielen Probleme dieser Ideologie. Schon die Effective Altruists verschrieben sich ganz der Skalierbarmachung von Ethik, indem sie rationale Kriterien und Infrastrukturen schaffen, mit dem jeder per Knopfdruck Gutes tun kann. Der Longtermism nimmt diesen Impuls auf und skaliert die Ethik noch darüber hinaus, indem er die Probleme skaliert, mit denen er sich befasst: Astereoideneinschläge, außer Kontrolle geratene KI, das geistige Degenerieren der Weltbevölkerung … äh, ja, genau, richtig gehört. Gaanz wichtiges Thema auf Nick Bostroms Agenda:

“Currently it seems that there is a negative correlation in some places between intellectual achievement and fertility. If such selection were to operate over a long period of time, we might evolve into a less brainy but more fertile species, homo philoprogenitus (‘lover of many offspring’).”

Das ist natürlich rassistischer und im Grunde auch antifemistischer Bullshit, wenn man bedenkt, dass ein Geburtenrückgang an bestimmten sozialdemographischen Faktoren geknüpft ist, wie Bildung bei Frauen und ein gewisses Wohlstandsniveau. Die dahinterstehende Ideologie führt direkt in die Eugenetik und zum Projekt einer biopolitisch gezüchtete Intelligenz, die dann aber sicher auch zu einer noch viel höher skalierten Herrenrassenethik fähig sein wird?


Balaji Srinivasan ist ein gut vernetzter Tech-Bro der außerordentlich tief in das im Silicon Valley vorherrschende Coolaid-Glas geschaut hat. Er hat ein Buch darüber geschrieben, dass die Tech-Oligarchen einen neuen Staat bauen sollen (The Network State), was im Valley in in dessen erweiterten kulturellem Kosmos ziemlich abgefeiert wird, und wenn er Laune hat, sagt er Dinge wie:

“What I’m really calling for is something like tech Zionism,” he said, after comparing his movement to those started by the biblical Abraham, Jesus Christ, Joseph Smith (founder of Mormonism), Theodor Herzl (“spiritual father” of the state of Israel), and Lee Kuan Yew (former authoritarian ruler of Singapore). Balaji then revealed his shocking ideas for a tech-governed city where citizens loyal to tech companies would form a new political tribe clad in gray t-shirts. “And if you see another Gray on the street … you do the nod,” he said, during a four-hour talk on the Moment of Zen podcast. “You’re a fellow Gray.”

Aber wo wir gerade bei Serientipps waren, hier etwas Aktuelles, wovon ihr aber wahrscheinlich eh schon gehört habt: Fallout (Amazon) spielt wie das Computerspiel in einer parallelen Realität des 21, 22. und 23. Jahrhunderts, in dem der kalte Krieg nicht so kalt geblieben ist, wie bei uns. Die Erdoberfläche ist radioaktiv verseucht und die Zivilisation weitgehend kollabiert und unterschiedliche Gruppen verfolgen unterschiedliche Überlebensstrategien. Manche leben seit Generationen in Star Trek ähnlichen Bunkersystemen und Sozialstrukturen unter Tage, andere versuchen als militaristische Organisation alle anderen zu unterwerfen, wieder andere sind in der Rebellion, aber die meisten Menschen versuchen einfach nur in den Ruinen und fernab des Gesetzes so gut wie möglich zu überleben. Die Handlung ist kurzweilig, die Gewalt ist absurd splatterig, der Humor ist Dirk Gently-artig und es gibt viele vollkommen absurde aber auch interessante Plottwists und natürlich erfahren wir erst zum Schluss, wie diese Welt letztlich zu Stande gekommen ist.

Ich will nicht spoilern, aber die Serie hat eine ziemliche auf-die-12 Botschaft, die ich vor noch fünf Jahren gar nicht so ernst genommen hätte, weil zu absurd und comic-haft. Aber in einer Zeit, wo halb Silicon Valley mit einer ähnlichen Energie über Gesellschafts- und Bevölkerungsplanung nachdenkt, fühlt sich die enthaltene Gesellschaftskritik plötzlich ziemlich relevant an?


Trotz meines generellen Interesses für Kultur halte ich mich nicht für einen „Kulturmenschen“ und fühle mich im deutschen Feuilleton eigentlich nicht sehr zuhause. Ich schätze, das ist ein Teil der Erklärung, warum ich die vielen Antisemitismusdiskussionen, die es in den letzten Jahren gab, immer nur aus den Augenwinkeln beobachtet habe. Sei es die Ausladung von Achille Mbembe, die Diskussionen um angeblichen Antisemitismusskandal bei der Bienale, die Ausladung von Nancy Fraser und im Dezember letzten Jahres die versuchte Cancellation der Verleihung des Hannah Arendt-Preises an Masha Gessen.

Letzterer Fall ist deswegen besonders interessant, weil der Anlass Gessens außerordentlich lesenswerter Essay im NewYorker war, In the Shadow of the Holocaust, in dem sie diese deutsche Cancelpolitik detailliert auseinandernimmt und den Deutschen Institutionen vorwirft, den Holocaust politisch zu instrumentalisieren. Den Essay sollte wirklich jeder gelesen haben.

There are now dozens of antisemitism commissioners throughout Germany. They have no single job description or legal framework for their work, but much of it appears to consist of publicly shaming those they see as antisemitic, often for “de-singularizing the Holocaust” or for criticizing Israel. Hardly any of these commissioners are Jewish. Indeed, the proportion of Jews among their targets is certainly higher. These have included the German-Israeli sociologist Moshe Zuckermann, who was targeted for supporting the B.D.S. movement, as was the South African Jewish photographer Adam Broomberg.
[…]
The B.D.S. movement, which is inspired by the boycott movement against South African apartheid, seeks to use economic pressure to secure equal rights for Palestinians in Israel, end the occupation, and promote the return of Palestinian refugees. Many people find the B.D.S. movement problematic because it does not affirm the right of the Israeli state to exist—and, indeed, some B.D.S. supporters envision a total undoing of the Zionist project. Still, one could argue that associating a nonviolent boycott movement, whose supporters have explicitly positioned it as an alternative to armed struggle, with the Holocaust is the very definition of Holocaust relativism. But, according to the logic of German memory policy, because B.D.S. is directed against Jews—although many of the movement’s supporters are also Jewish—it is antisemitic. One could also argue that the inherent conflation of Jews with the state of Israel is antisemitic, even that it meets the I.H.R.A. definition of antisemitism. And, given the AfD’s involvement and the pattern of the resolution being used largely against Jews and people of color, one might think that this argument would gain traction. One would be wrong.

Meine persönliche Haltung zu B.D.S. ist: sowas unterstützt man nicht als Deutscher. „Kauf nicht bei Juden“ ist semantisch einfach zu nah dran. Aber grundsätzlich finde ich eine solche Protestform hart aber legitim? Außerdem denke ich, dass, wenn man den Palästinensern ihre Demos, ihre Konferenzen, ihre Parolen und auch noch ihren Boykott – also jede legale Ausdrucksform delegitimiert, könnte das auch nach hinten losgehen?

Trotzdem habe ich mir 2019 erlaubt, die Ächtung mit einem gewissen Schulterzucken zu begleiten. Wie gesagt: ich habe das Thema bisher eher aus den Augenwinkeln verfolgt und es kam mir etwas sinnlos vor, mich da tiefer mit zu beschäftigen. Es ist alles immer so furchtbar kompliziert, die Positionen sind so verfahren und irgendwie wird schon auch was dran sein, an den Vorwürfen? Zudem habe ich mir erlaubt, wegzuhören, wenn Menschen „Cancel-Culture“ rufen oder die Meinungsfreiheit bedroht sehen, einfach weil so viele rechte Spinner die letzten Jahre nicht damit klar kamen, für ihren Bullshit outgecalled zu werden.

Was mir dabei entging, war, dass durch die offizielle Adelung des entgrenzten Antisemitismusbegriffs eine Struktur entstand, die die staatlichen Kulturförderungsprogramme als Hebel nutzt, um in tief in die Kultur hinein zu regieren und so das heutige Klima der Verdächtigung und der Angst etablierte, das sich inzwischen auf die gesamte öffentliche Sphäre ausgedehnt hat.

Part of what has made the resolution peculiarly powerful is the German state’s customary generosity: almost all museums, exhibits, conferences, festivals, and other cultural events receive funding from the federal, state, or local government. “It has created a McCarthyist environment,” Candice Breitz, the artist, told me. “Whenever we want to invite someone, they”—meaning whatever government agency may be funding an event—“Google their name with ‘B.D.S.,’ ‘Israel,’ ‘apartheid.’ ”

Ich betone, dass es sich hier nicht um eine Verschwörung handelt. Ich denke, die Akteure agieren größtenteils unkoordiniert und aus Überzeugung, das Richtige zu tun. Der entgrenzte Antisemitismusbegriff ist eine semantische Verschiebung, die viele bereitwillig mitgegangen sind und die Erwartungsstrukturen haben sich bereits gesellschaftsweit angepasst.

Das macht sie aber nicht richtig, denn diese Verschiebung nimmt gerade den Palästinensern ihre Grundrechte. Sie macht sie zu einer politisch verfolgten Minderheit in diesem Land und jeder, der darauf aufmerksam macht, droht ebenfalls mit unter die Räder zu kommen.


Um kurz die Geschichte von Masha Gessens Hannah Arendt-Preis zusammenzufassen: Nachdem der NewYorker-Artikel herauskam, gab es einen Aufschrei, weil Gessen darin auch die Lage der Menschen in Gaza mit den Juden im Warschauer Ghetto in Beziehung setzt. Daran kann man sicher Anstoß nehmen, ich würde jetzt aber auch nicht ausschließen, dass die im Artikel so klar umrissene Struktur sich etwas angefasst fühlte?

Jedenfalls zogen sich sowohl die Heinrich Böll-Stiftung, als auch die Stadt Bremen aus der Preisverleihung zurück, was eine himmelschreiende Absurdität ist, wenn man sich auch nur mal fünf Minuten mit Hannah Arendt beschäftigt hat. Ich persönlich kenne wenige Denker*innen, die so unerschrocken und unagepasst ihre Gedanken formuliert haben, wie Arendt und auch wenn sie heute als unantastbare Säulenheilige herumgereicht wird, befand sie sich zu ihrer Zeit recht regelmäßig im Auge des ein oder anderen Shitstorms. Im heutigen Klima würde man Arendt wahrscheinlich die Einreise nach Deutschland verwehren, wie Masha Gessen ebenfalls in ihrem Essay andeutet:

In 1948, Hannah Arendt wrote an open letter that began, “Among the most disturbing political phenomena of our times is the emergence in the newly created state of Israel of the ‘Freedom Party’ (Tnuat Haherut), a political party closely akin in its organization, methods, political philosophy, and social appeal to the Nazi and Fascist parties.” Just three years after the Holocaust, Arendt was comparing a Jewish Israeli party to the Nazi Party, an act that today would be a clear violation of the I.H.R.A.’s definition of antisemitism.

Dementsprechend fand in der Kulturszene endlich ein angemessener Aufschrei statt, der die Organisator*innen dazu zwang, die Preisverleihung dennoch auszurichten und so fand sie schließlich in einem Privathaus statt, wo nur 50 Gäste zugegen sein durften. Gessen nahm trotz dieses demütigenden Theaters die Reise aus den USA auf sich, um, wie sie sagt, dann doch noch eine Debatte zu ermöglichen und die Böllstiftung gab dem statt, aber in einer gesonderten Veranstaltung in Berlin. Hier das Video, einmal mit englischer und mit deutscher Synchro.

Vor allem Gessens Redeteile sind relevant, aber auch Böll-Vorstand Jan Phillip Albrecht hat seinen Moment, wenn er Masha Gessen versucht weiß zu machen, dass wir in Deutschland überhaupt kein Problem mit Meinungsfreiheit hätten, schließlich stehe Meinungsfreiheit ja im Grundgesetzt und außerdem sitze man ja gerade zusammen und rede, womit er sie zwang, die ganze demütigende Behandlung noch mal für alle zu rekapitulieren, um klarzustellen, dass, nur weil der Versuch, sie zum Schweigen zu bringen scheiterte, es ja trotzdem ein Versuch bleibt?

Neulich auf einer Mastodon-Diskussion wurde jemand, der grundsätzlich den Krieg Israels verteidigt, gefragt, ob ihn denn das krasse Leid und die vielen Toten in Gaza nicht zu Herzen gingen und er entgegnete in etwa: doch doch, das kritisiere er auch. Das kritisiere ja auch die Bundesregierung.

Mich erschrak der Kommentar, aber ich musste erst drüber nachdenken warum. Zunächst ist es natürlich diese kalte Sachlichkeit, doch im nächsten Schritt kommt man drauf, dass sich diese Kälte im zweiten Satz erklärt: Sein Denken scheint beim Beantworten dieser Frage offenbar nicht, wie man es erwarten würde, in das eigene Empathiezentrum gesprungen zu sein, sondern … zur Bundesregierung?

Ich will das gar nicht zu sehr skandalisieren, denn ich glaube, wir alle funktionieren so. Wir können nicht jeden Tag über jede ethische oder politische Frage im Detail selbst nachdenken (da kommt man in teufels Küche kann ich euch sagen!), deswegen outsourcen wir eine ganze Menge Moral an allerlei Erlaubnisstrukturen, die uns ermöglichen, halbautomasiert Positionen zu schwierigen Fragen zu triangulieren. Und auch ganz normal scheint es mir, sich dabei am Urteil von Autoritäten zu orientieren, denn Autoritäten sind schließlich selten umsonst Autoritäten, sie sind gewählt, oder verfügen über ein besseres Wissen oder beides.

Doch eine solche Antwort bleibt halt eine Nicht-Antwort, denn der Bypass über die externen Erlaubnisstrukturen panzert davor, sich erschüttern zu lassen.

Ziemlich kurz vor Schluss der Diskussion meldete sich Hartmut Bäumer zu Wort, der viele Jahre selbst im Aufsichtsrat der Heinrich Böll-Stiftung tätig war und sagte, dass er sich in all der Zeit noch nie so für diese Stiftung geschämt habe,

„eine Organisation die für Menschenrechte und Meinungsfreiheit steht. Jan, was Du eben über Meinungsfreiheit gesagt hast, das zieht mir den Boden unter den Füßen weg. Die fängt bei jedem einzelnen an und auch bei einer Organisation wie der Böllstiftung. Du kannst dich nicht auf den Staat berufen, und sagen, wir haben Meinungsfreiheit. Die stirbt hier! Und die stirbt dort, wo Gesellschaften nicht mehr dafür eintreten.“

Ich kenne Jan Phillip Albrecht seit vielen Jahren persönlich und weiß, dass er ein lieber Kerl ist, der sicher glaubt, das Richtige zu tun und gerade deswegen bin ich mittlerweile davon überzeugt, dass Star Wars schlicht erzählt, was früher oder später auch aus der Vereinigten Föderation der Planeten geworden wäre.


Und dann war da noch dieses merkwürdige Interview mit Jack Dorsey. Er preist seine Idee einer zensurresistenten Twitter-Infrastruktur an, sieht sie aber nicht in Bluesky, aber Nostr erfüllt. Außerdem verteidigt er Musk und X und kommt auf die komische Idee, dass Musk der Redefreiheit irgendwie zuträglich wäre, obwohl er im selben Interview erklärt, wie dem nicht so ist:

Yeah. Elon has taken a different tack. Our principle was around free speech on the internet as a general rule, and that we would fight governments on that. His is free speech as determined by local law, and that means if India says you have to take these accounts down, you have to take those accounts down, because they’re against the law.

Noch interessanter finde ich, wie Jack hier den Tech-Rebellen gibt, der es dem Corporate Internet mit dezentralen Crypto-Protokollen zeigen will. Man braucht nicht ins technische Detail zu gehen, um zu erklären, dass dieser ganze techno-libertäre Ansatz der Versuch ist, das Problem der Unskalierbarkeit von Verantwortung zu adressieren, indem man die Möglichkeit der Verantwortungsübernahme technisch aus der Gleichung streicht. Kein Anschluss unter dieser Nummer, aber als Feature.

Es gibt zwei Arten von Sith-Lords: diejenigen, die sich für Sternenflottenoffiziere halten (Tim Cook, Mark Zuckerberg, Sundar Pichai und Satya Nadella) und diejenigen, die sich als Teil der Rebellion inszenieren (Elon Musk, Peter Thiel, Marc Andreeson und Jack Dorsey). Zwischen ihnen gibt es machmal Showkämpfe, aber an Deiner Rebellenbasis werden sie früher oder später zusammen anklopfen.

Wie Online-Plattformen unser Leben prägen und die Welt verändern – mit Michael Seemann – yeet-Podcast

Ich war im Yeet-Podcast der evangelischen Kirche zu Gast und wir haben über Plattformen im Allgemeinen und das Problem mit X im Besonderen gesprochenen. Und sogar über Religion?

Wie verändern die großen Online-Unternehmen unsere Welt und unsere Gesellschaften? In seinem Buch „Die Macht der Plattformen“ hat Michael Seemann 2022 diese Frage umfassend beantwortet. Im yeet-Podcast beschreibt er, was digitale Stämme sind, welchen Einfluss Online-Plattformen sowohl auf die Demokratie als auch auf den Kapitalismus haben – und wie sich die Plattformen gleichzeitig in einer Wechselwirkung mit diesen Systemen befinden, die unsere Welt in rasendem Tempo verändert. Zudem argumentiert er ausfüh

Quelle: Wie Online-Plattformen unser Leben prägen und die Welt verändern – mit Michael Seemann – yeet-Podcast