Krasse Links No 52

Willkommen zu Krasse Links No 52. Legt den Mind Control Ray an das Dividuum, heute mäandern wir die Ideologie ins LLM-Werbegeschäftsmodell.


Ich verstehe nicht, wie nicht alle vollkommen durchdrehen bei dem Gedanken, dass unsere Polizeien alle an Palantir hängen?


Jubiläums-Garbage Day mit einer irren Anekdote aus anderer Länder Broligarchien.

In mid-March, a user on Weibo, a Chinese social app similar to X, was doxxed after getting into a fight over K-Pop star Jang Wonyoung. In retaliation, other Weibo users tracked down the pro-Wonyoung stan who revealed the information. They determined it was actually the 13-year old daughter of Xie Guangjun, a high-ranking executive at Baidu, China’s largest search engine. Since then, Xie and Baidu have released multiple public apologies and run an entire internal investigation, all to deny that a teenager was able to use her dad’s panopticon-level corporate access as the atom bomb in a K-pop stan war.


Der empfehlenswerte Youtube-Channel Simplicissimus hat manchmal sogar spannende Reportagen, etwa die Aufarbeitung der Springerkampagnen gegen die Energiewende.


Christian Stöcker, der auch in der Doku zu Wort kommt, hat in den Blaettern für Internationale Politik eine Zusammenfassung + Update zu „Männer, die die Welt verbrennen“ geliefert und es ist wieder sehr lesenswert:

Wir leben in einer Welt, in der eine vergleichsweise kleine Gruppe von Personen, Unternehmen und Institutionen große Macht ausübt – allen voran die Öl-, Gas- und Kohlebranche, aber auch diesen Branchen gewogene, mit ihnen finanziell verbundene, von ihnen finanzierte oder korrumpierte Medienunternehmer, Politikerinnen und Politiker, Lobbyisten, Wissenschaftler, Agenturen, Anwaltskanzleien, Thinktanks und Stiftungen, Medienschaffende, Prominente, Industrieverbände und einige wenige extrem reiche Menschen.

Ich finde gut, dass Stoecker die Scheu abgelegt hat, wie ein Verschwörungstheoretiker zu klingen, denn in diesen Zeiten ist die gefährlichste Verschwörungstheorie, dass es keine Verschwörung gibt – während uns die materiellen Resultate tatsächlicher Verschwörungen immer mehr zum Hals steigen.

Klimabedingte Katastrophen vernichten schon jetzt Jahr für Jahr Milliardenwerte und töten mindestens Tausende, vermutlich eher Zehntausende von Menschen und ein Vielfaches an Tieren. Teile Südeuropas werden sich in absehbarer Zeit in Wüsten- oder Steppenlandschaften verwandeln, Teile Afrikas, Asiens, Indiens und auch Nordamerikas könnten unbewohnbar werden. Die Wanderungsbewegungen der Gegenwart, von denen sich industrialisierte, reiche Regionen wie Nordamerika oder Europa schon heute überfordert fühlen, werden sich im Vergleich zu dem, was bevorsteht, winzig ausnehmen.

Ich war gerade in der Türkei und besuchte die Ruinen der untergegangen römischen Metropole Ephesos, die einst das wichtigste römische Handelszentrum im Mittelmeer war und die zweitgrößte Stadt im Reich nach Rom.

Das Ende von Ephesos wurde nicht durch plündernde „Barbaren“ besiegelt, sondern durch den Fluss Mäander, der immer mehr Sand in das Hafenbecken spülte, bis der nicht mehr nutzbar war. Die ganze Stadt musste deswegen aufgegeben werden.

Wir vergessen manchmal, dass all unsere Städte an ihrem bestimmten Ort gebaut sind, aufgrund der geographischen und damit auch klimatischen Lage. In Ephesos wurde mir plötzlich schmerzhaft greifbar, dass all unsere Städte zum „stranded Asset“ werden können, wenn sich das Klima jetzt radikal ändert. Das ist das schwere zu begreifen: die Katastrophe besteht nicht in diesem oder jenen schlimmen Wetterereignis – es ist der Wandel ansich. Plötzlich ist alles am falschen Ort.

Die Klimaforschung basiert auf Physik, und Physik verhandelt nicht. Wenn wir nicht aufhören, CO2 zu emittieren, führt das in die Katastrophe, das ist unzweifelhaft. Neoliberale Ideologie dagegen erhebt den Anspruch wissenschaftlicher Allgemeingültigkeit, ist aber längst empirisch an der Realität gescheitert. Dieser Denkrichtung verdanken wir schließlich die Tatsache, dass der Planet sich auf einem Entwicklungspfad befindet, der die menschliche Zivilisation ins Verderben stürzen könnte. Auch deshalb, weil viele ihrer Wortführer jahrzehntelang darauf beharrten, dass man sich auf die Erkenntnisse der – empirischen, physikalisch begründeten – Klimaforschung nicht verlassen könne.

Wir leben längst in einer Wirklichkeit, in der sich fast die gesamte politische Kaste von der faktischen Realität der Klimakatastrophe abgekapselt hat. Stattdessen gelten heute die mit den Fakten als die Ideologen und werden von einer immer aggressiveren Politik offen angriffen.

Ein Teil des Problems ist, dass der Widerstand ausbleibt und das liegt unter anderem daran, dass Menschen immer noch in den Erzählungen des Marktes festhängen. In dieser Erzählung erzwingt der ständig sinkende Preis erneuerbarer Energien ihren Durchbruch. Aber diese Erzählung hat dasselbe Problem, wie alle Markterzählungen: sie blendet die Politik, also Macht, vollkommen aus.

Hier eine Gegenerzählung im Sinne der Politischen Ökonomie der Abhängigkeiten:

  • Die derzeit massiv zugebauten Gaskraftwerke sind Infrastrukturen und damit Pfadentscheidungen. Diese Pfadentscheidungen wirken sich als „Lockin“ nicht nur auf die Energieversorgung aus (dann können wir also doch wieder mehr Gasheizungen verbauen, oder?), sondern auch auf den Diskurs.
  • Der Gas-Lockin kann dann als Asset in der kommenden Kampagne gegen den „Europäischen Emissioshandel“ verwendet werden. 2027 ist eine ordentliche Steigerung des CO2-Preises vorgesehen und der Grund, warum sich die Fossilindustrie nicht dazu verhält, ist, dass sie nicht an seine Weiterexistenz glaubt. Wenn mitten in der Rezession der Gaspreis steigt und Springer und die von Stöcker beschriebene Fossilmänner-Lobby wieder eng zusammenarbeitet, wird es ein leichtes sein, den Handel politisch zu kippen. Die Heizhammerkampagne war eine gute Übung.
  • Man darf dabei die USA nicht aus den Augen verlieren, denn Trump hat mit „Drill Baby Drill“ der Fossilmafia ihr Existenzrecht versprochen. Schon jetzt hat er zum Beispiel Japan drauf gedrängt, mehr amerianisches Gas und Öl abzunehmen, ihr wisst schon: wegen des „unfairen Außenhandelsüberschusses.“ Nimmt man Trumps Obsession mit Fossiler Energie und mit „ausgeglichener Handelsbilanz“ zusammen, erhält man das Playbook für das Endgame dieses Handelskrieges: „Befreundete Staaten“ sind Staaten, die den Amerikanern ihre Rohstoffe in einer Menge abkaufen, die ihr Handelsüberschuss mit den USA ausgleicht und sich damit dem Fossillockin verschreiben. Und im Zweifel wird der Fossillockin militärisch durchgesetzt.
  • Fragt sich nur, wie wir all das Öl und Gas verbrauchen sollen, ohne, dass der Energiepreis kollabiert und hier ist die Antwort natürlich KI, irgendwas Pre-AGI, Super Agents, Super Duper Agents, Super Duper Agents in Lila, unendlich viele AI-Friends im Metaverse, Spam- und Phishing-Tsunamis, Brandolinis Lawfare und automatisierte Kill-Drones. Außerdem natürlich Bitcoin-Mining, Trump-Coin-Minung und Crypto-KI-Coin-Mining, LLM-Tokens, DOGE’s Daugters Memecoins, Musk for God Tokens, whatever. Wenn Silicon Valley eines gezeigt hat, dann dass sie unendlich viele Wege finden, Energie zu verschleudern.
  • Natürlich wird Trump Deutschland zusätzlich unter Druck setzen, unsere Zölle gegen China hochzuziehen, um die Elektrifizierung weiter zu verzögern. Die Oligarchen des Westens sehen ihre Heimatländer zunehmend als teil eines untergehenden Fossil-Imperiums, dass seine wirtschaftlichen Felle in einer elektrifizierten Welt davonschwimmen sieht. Die Deutsche Autoindustrie ist hier nur ein plakatives Beispiel.
  • Ich will nichts beschreien, aber es ist absolut vorstellbar, dass Chinas Elektrifzierungsmacht zum wesentlichen Grund für einen militärischen Konflikt zwischen China und dem Westen wird. Und wenn Trump ernst macht, wird Merz uns dabei nicht raushalten.

Ich weiß, es ist schwer, aber ihr müsst Euch aus der alten Welt und ihren Gewissheiten verabschieden. All die Narrative vom „Markt“, vom „Recht“, von der „Vernunft“ oder der „Demokratie“, die uns irgendwie retten werden, haben spätestens seit Trump II und Merz ihre Gültigkeit verloren.

Wir leben jetzt in den Ausläufern des Fossilimperiums, das um sein Leben kämpft und im Gegensatz zu Trump und Merz haben wir vergessen, was Gewalt alles kann. Wenn wir nicht aufwachen und anfangen zu kämpfen, ist eine 6 Grad-Welt nicht vom Tisch.


Eine Studie, die das Ausmaß der LLM-Nutzung unter Studierenden zu fassen versucht:

In 2025, we find that the student use of AI has surged in the last year, with almost all students (92%) now using AI in some form, up from 66% in 2024, and some 88% having used GenAI for assessments, up from 53% in 2024. The main uses of GenAI are explaining concepts, summarising articles and suggesting research ideas, but a significant number of students – 18% – have included AI-generated text directly in their work.


Im New York Magazine ist ein vielbeachteter Artikel über den Einfall von LLMs in die universitäre Lehre erschienen, mit vielen erhellenden Einzelgeschichten.

Professors and teaching assistants increasingly found themselves staring at essays filled with clunky, robotic phrasing that, though grammatically flawless, didn’t sound quite like a college student — or even a human. Two and a half years later, students at large state schools, the Ivies, liberal-arts schools in New England, universities abroad, professional schools, and community colleges are relying on AI to ease their way through every facet of their education. […]

“College is just how well I can use ChatGPT at this point,” a student in Utah recently captioned a video of herself copy-and-pasting a chapter from her Genocide and Mass Atrocity textbook into ChatGPT.

Erzählt wird auch von Wendy, die ihre gesamten Essays mit ChatGPT plant und argumentativ bestückt, bevor sie nur noch die Lücken füllt und das deswegen gar nicht als „Cheating“ ansieht.

“Honestly,” she continued, “I think there is beauty in trying to plan your essay. You learn a lot. You have to think, Oh, what can I write in this paragraph? Or What should my thesis be? ” But she’d rather get good grades. “An essay with ChatGPT, it’s like it just gives you straight up what you have to follow. You just don’t really have to think that much.” […]

“I use AI a lot. Like, every day,” she said. “And I do believe it could take away that critical-thinking part. But it’s just — now that we rely on it, we can’t really imagine living without it.”

Wenn man anfängt zu schreiben, ist man schlecht. Man wird mit der Zeit besser, indem man ständig alles Mögliche ausprobiert und man die Pfade, die nicht funktionieren, verwirft. Wenn man dann am Ende funktionierende Pfade des Schreibens für sich gefunden hat und plötzlich fähig ist, einen klaren Gedanken auf Papier zu bringen, dann steckt hinter dieser Fähigkeit ein über die Zeit aquiriertes Orientierungswissen im Raum der Semantiken, also des Denk- und Schreibbaren, und jeder Satz den man dann aufschreibt, entsteht vor dem Hintergrund dieses teilausgeleuchteten Möglichkeitsraums.

Das gilt nicht nur fürs Schreiben (Sprechen/Denken) im Allgemeinen, sondern auch für das Schreiben (Sprechen/Denken) über bestimmte Themen.

Jemand der kompetent über Geschichte schreiben kann, kann das noch lange nicht über Physik und das kompetente Sich-Ausdrücken in einem Feld gilt deswegen als Beleg für die Erlangung dieses spezifischen Orientierungswissens.

Die LLMs sind deswegen ein enorm attraktiver Shortcut, weil man sich damit zu jedem beliebigen Thema orientiert aussehende Sätze ausspucken lassen kann und so ohne jedes Orientierungswissen dessen „Beleg“ produzieren kann.

Was nichts anderes bedeutet, als dass wir ein völlig anderes Bildungssystem brauchen, wenn wir als Menschheit nicht so sehr verblöden wollen, dass ChatGPT tatsächlich zur „Super Intelligence“ wird – relativ gesehen.


Im Atlantic beschäftigt sich Mike Caulfield ebenfalls mit dem Descilling durch KI.

There’s a good analogy in maps. Traditional maps showed us an entire landscape—streets, landmarks, neighborhoods—allowing us to understand how everything fit together. Modern turn-by-turn navigation gives us precisely what we need in the moment, but at a cost: Years after moving to a new city, many people still don’t understand its geography. We move through a constructed reality, taking one direction at a time, never seeing the whole, never discovering alternate routes, and in some cases never getting the sense of place that a map-level understanding could provide. The result feels more fluid in the moment but ultimately more isolated, thinner, and sometimes less human.

Die Analogie zur Karte, bzw. Orientierungswissen ist die beste Art über LLMs nachzudenken, doch während wir auf das geographische Orientierunsgswissen gegebenenfalls tatsächlich verzichten können (können wir?), bin ich mir mit dem „Semantischen Orientierungswissen“ deutlich weniger sicher.

Gottseidank bin ich offenbar nicht der Einzige, der darauf gekommen ist, LLMs als Semantik-Maschinen, statt als „kognitive Minds“ zu verstehen.

Alison Gopnik, a researcher who specializes in cognitive development, has proposed a better way of thinking about LLMs: These systems aren’t companions or nascent intelligences at all. They’re “cultural technologies”—tools that enable people to benefit from the shared knowledge, expertise, and information gathered throughout human history. Just as the introduction of the printed book or the search engine created new systems to get the discoveries of one person into the mind of another, LLMs consume and repackage huge amounts of existing knowledge in ways that allow us to connect with ideas and manners of thinking we might otherwise not encounter. In this framework, a tool like ChatGPT should evince no “opinions” at all but instead serve as a new interface to the knowledge, skills, and understanding of others.

Die Gefahr, die von LLMs ausgeht, ist folglich mehr eine kulturelle Gefahr, als eine individuelle und jetzt höre ich mich sicher etwas konservativ an, aber ich finde schon, dass wir vor dem Verlust von Kultur – nicht verstanden als „Kanon“, sondern als „semantische Praxis“ – Angst haben sollten.


Mark Zuckerberg in einem Tech-Bro-Podcast so:

The average American has fewer than three friends, fewer than three people they would consider friends. And the average person has demand for meaningfully more. I think it’s something like 15 friends or something.

Der Zynismus, wie man von ganz oben im Silicon Valley auf die selbst mitverschuldete Lonlyness-Pandamic als riesen Business Opportunity schielt ist atemberaubend.


Im Money Stuff Newsletter nimmt Matt Levine Zuckerbergs Rechnung zum Anlass, den Total Adressable Market für diese Art von Geschäftsmodell zu errechnen:

The total addressable market for friends is 15 per person, and right now humans are only providing about three friends per person, which leaves an opening for Meta to capture as much as 80% of human (well, human-ish) interaction.[1] That would be pretty good.


Max Read versucht anhand von aktuellen Trends und dem oben zitierten Interview die kommenden Geschäftsmodelle von LLMs zu ergründen und landet natürlich bei Werbung.

Zuckerberg doesn’t mention ads, but if “Coke Zero Claude” is a sort of L.L.M. version of the Google model–a user’s search for information is bracketed by and interspersed with sponsored content–you can equally imagine an L.L.M. version of the Facebook model, in which engagement is driven by “social” interaction–with, say, an L.L.M. chatbot girlfriend or boyfriend, speaking in the voice of your favorite wrestler or Top Chef contestant–around which advertisements and sponsorships can be sold. It’s one thing to have the L.L.M. you use to write your essays for English class keep talking about Coke Zero; it’s another to have the A.I. girlfriend you talk to every day suggest you buy a cool and refreshing zero-calorie soda after your hard day at work.

Ich hatte bereits mehrfach auf die Gefahr von Abusive Relationsships als Geschäftsmodell hingewiesen und auf die bereits mobilisierte Verwendung von LLMs als Massen-Sprechakt-Waffen.

Hier kommt gewissermaßen beides zusammen: man stellt eine emotionale Abhängigkeit her, um über individualisierte, intime aber doch im Aggregat massenhafte Sprechakt-Steuerung das Denken und Verhalten von Millionen Menschen zu manipulieren.

Ich kenne mittlerweile etliche Beispiele, in denen Menschen Chatbots als tägliche Konversationspartner, seis als Freundes- oder Coach- oder Therapie-Ersatz verwenden. Da werden Beziehungsdinge geklärt, Karrieretipps erfragt, fixe Ideen verifiziert oder Komplexe Sachverhalte „durchdacht“.

Das ist die eigentliche Pointe: LLMs müssen es gar nicht zur „AGI“ schaffen, um die Kontrolle über Millionen von Leben zu erlangen und dass diese Kontrolle dann von keinem „künstlichen Bewusstsein“ ausgeht, sondern von einem Konzern, beruhigt dabei nur wenig.

Warum die Unternehmen das wollen ist schon klar, aber ich rätsel noch daran, warum sich sich so viele Menschen freiwillig zu SIMS-artigen KI-gesteuerten NPCs machen lassen?


Auf Pluralistic glaubt Cory Doctorow nicht an die Werbekraft von LLMs.

Cory bewertet wie ich die Erzählungen von „Cambrige Analytica“ oder dem „Überwachungskapitalismus“ kritisch als überkandidelten Critihype und macht sich entsprechend auch bei LLM-Werbung über die Erzählungen eines „Mind Control Rays“ lustig.

This is a facially absurd proposition. After all, everyone who’s ever claimed to have perfected mind-control – Rasputin, Mesmer, MK-ULTRA, neurolinguistic programming grifters and pathetic „pick up artists“ – was a liar. Either they were lying to themselves, or to everyone else. Or both.

Ich glaube aber, hier irrt Doctorow. Zwar hat er recht, dass „Mind Control Rays“ eine urban Legend sind, die nie gestimmt hat, aber das liegt nicht an dem „Ray“-Teil, sondern an dem „Mind“-Teil der Erzählung.

Weil wir keine Indivuduen sind, die die Welt durch ihr „Mind“ beobachten, sondern Dividuen, die einander beim Beobachten der Welt beobachten, haben wir keinen in sich geschlossenen Raum des Denkens, keine „Res Cogitans„, sondern navigieren beim Sprechen/Schreiben/Denken als Thin Clients die verteilte Cloudinfrastruktur der Sprache.

Weil wir semantische Wesen sind, die sich nie außerhalb des semantischen Raums bewegen, ist unser Denken immer schon teil des „Res Extensa“. Das bedeutet, dass wir zwar nicht durch „Mind Control“ manipulierbar sind, wohl aber durch eine Manipulation unserer semantischen Umwelten.

Und das ist der Ort, an dem LLMs wirksam sind: Als Massensprachakt-Waffen und mehr noch in emotionalen Abhängigkeitsbeziehungen gestalten sie unsere semantische Umwelt um und steuern damit subtil den Möglichkeitsraum der uns zugänglichen und plausibel erscheinenden semantischen Pfade.

Nein, es gibt keine „Mind Control Rays“, aber es gibt Ideologie und dass sie wirksam ist, belegt unter anderem der widerspenstige Erfolg der „Mind Control Ray“-Erzählung, sowie die Erzählung vom „Markt“ oder die von der „Intelligenz“.


Der Historiker Quinn Slobodian dröselt in einem Stück für den Guardian die Obsession mit Intelligenz im neuen Faschismus auf.

IQ fetishism had a history in the valley; one of the pioneers of the need to take eugenic measures to increase IQ was William Shockley, the inventor of the transistor (the building block of computer chips), who proposed that people with an IQ below the average of 100 should be given $1,000 per IQ point to sterilise themselves. In 2014, the American tech billionaire Peter Thiel said the problem with the Republican party was that too many of its leaders were “lower IQ” compared with those in the Democratic party. IQ was also a common focus of discussion on the popular blog Slate Star Codex and elsewhere in the so-called “rationalist” community.

All of this would have remained a quirky symptom of San Francisco Bay Area chatboards were it not for the recent alliance between the world of the tech right and the governing party in Washington DC. The idea that intelligence is hardwired and resistant to early intervention or improvement through state programmes – that IQ is meaningful and real – brings us closer to what Murray and Herrnstein were advocating for in The Bell Curve in the 1990s, what they called “living with inequality”.

Von dort gibt es eine direkte Linie zu Trump und Musk.

Musk, like Trump, frequently refers to IQ as if it is a meaningful and important number. If you believe it is hardwired, then you too would want to destroy the Department of Education and stop trying to create standardised outcomes.

Dahinter steht die allgemeine Vorstellung von Intelligenz als Lineare Funktion, die von der Amöbe über die Tierwelt bis zum Harvard-PHD verläuft und in der sich die KI-Bros selbst als Spitze erzählen, nur demnächst geschlagen durch den selbstgeschaffenen Intelligenz-Gott namens „AGI“, wie es neulich Leopold Aschenbrenner einst so schön skizzierte.

Wenn ich mir ein Szenario wünschen düfte, dann wäre es, dass wir durch diesen ganzen Quatsch wenigstens ein besseres Verständnis dafür bekommen, was Intelligenz wirklich ist, so dass wir bald sehr herzlich über die KI-Bros und ihre „unintelligente“ Kindervorstellung von Intelligenz lachen können.


James Poniewozik schreibt kluges in der NyTimes über die Serie Andor, deren zweite Staffel gerade auf Disney Plus läuft.

A sense of tragedy is built into the series’s premise. “Andor” is a prequel to the 2016 movie “Rogue One,” in which Cassian goes on a fatal mission to retrieve the blueprints for the Death Star, the planet-killer that Luke Skywalker destroyed in the original “Star Wars” (now known as “A New Hope”).

Prequels are often where dramatic tension goes to die: How invested can you be in a story whose outcome you already know? The genius of “Andor,” created by Tony Gilroy, is to make that knowledge an asset.

With some exceptions, like Mon Mothma (Genevieve O’Reilly), the senator who will go on to lead the rebellion, “Andor” is largely about characters who will never live to see victory. That we know this — that on some level, they know this — is the whole point.

Freed from the “what happened” of the rebellion, “Andor” becomes a space-opera entertainment about revolutionary praxis. What radicalizes people? (The loss of loved ones; the loss of agency and hope; the loss of anything further to lose.) How does a rebellion form and spread? How do you build a movement that unites establishmentarians and militants? What — and who — is an acceptable sacrifice?

Ich hatte die Serie bereits in einem frühen Newsletter als wichtige Inspiration für mein derzeitiges politisches Denken beschrieben und das kann ich für die zweite Staffel nur noch mal bekräftigen. Andor bietet das dringend nötige Gegengift gegen die vorherrschende Hegemonie des Mitteextremismus, die auch hierzulande jedes politische Handeln erstickt.

Dass ausgerechnet das disneyfizierte und extraktivistisch abgegrabbelte Star Wars Franchise die politisch relevanteste Serie der aktuellen Zeit hervorbringt, will uns irgendwas sagen, von dem ich noch nicht sicher bin, was es ist, außer, dass wir in weirden Zeiten leben.

Zusammen mit meiner Freundin, der Philosophin Susann Kabisch werde ich auf der re:publica die Verstrickungen des Widerstands bei Andor und bei einer anderen großartigen der Serie, Sense8, genauer analysieren.

(301) Gast mit Meinung: Michael Seemann | gmM#71 – YouTube

Ich war im Podcast von Moritz Flink aka morf zu Gast, der als gelernter Physiker selbst ein paar spannende Theorien zu Kapitalismus und Gesellschaft hat, die in vielen Punkten meinen Ideen ähneln. Daraus haben sich ein zweieinhalb Stunden Gespräch entwickelt, bei dem wir uns gegenseitig mit unseren Lieblingsthesen zutexten, also Laberpodcast galore, aber in a good way.

Krasse Links No 51

Willkommen zu Krasse Links No 51. Werft den „Bag of Heuristics“ in den Datenpool, heute overfitten wir Brandolinis Lawfare im Latent Space.


Der Branchen-Newsletter Semianalysis berichtet, dass Microsoft nicht nur einen Großteil der geleasten Datacenter gekündigt hat (wir berichteten), sondern auch der Bau der eigenen groß angepriesenen Data-Center heimlich massiv ausgebremst.

While the leasing slowdown is material, these changes are not material to the short and medium term and only impact 2027+. The more important slowdown of Microsoft’s changes to their self-build datacenter plans. Our research indicates that Microsoft is freezing 1.5GW of near term self-build datacenter projects – projects that were previously scheduled to go online in 2025 and 2026.

Microsoft is freezing multiple (but not all) self-build projects across the globe with an immediate impact on capacity for 2025 and 2026 – as highlighted earlier to our Datacenter Model clients. Numerous multi-hundred-MW Microsoft campuses have shown underwhelming progress, despite our research indicating that these projects have secured energy and all necessary approvals. This is a deliberate move by Microsoft to slow the expansion of its self-built capacity.

Während Eric Schmidt dafür lobbyiert, dass wir 99% unserer Ressourcen für die vage Hoffnung auf AGI anzünden sollen, zieht sich Microsoft zurück und 80% der Data Center in China stehen still.

Diese Blase ist weird.


Im Atlantic denken Ian Bogost und Charlie Warzel darüber nach, was DOGE mit all den Regierunsdaten anstellt, die es aus all den Behörden klaut und in einem großen Datenpool sammelt.

The IRS gathers comprehensive financial and employment information from every taxpayer; the Department of Labor maintains the National Farmworker Jobs Program (NFJP) system, which collects the personal information of many workers; the Department of Homeland Security amasses data about the movements of every person who travels by air commercially or crosses the nation’s borders; the Drug Enforcement Administration tracks license plates scanned on American roads. And that’s only a minuscule sampling. More obscure agencies, such as the recently gutted Consumer Financial Protection Bureau, keep records of corporate trade secrets, credit reports, mortgage information, and other sensitive data, including lists of people who have fallen on financial hardship. […]

Since Donald Trump’s second inauguration, Elon Musk and the Department of Government Efficiency have systematically gained access to sensitive data across the federal government, and in ways that people in several agencies have described to us as both dangerous and disturbing. Despite DOGE’s stated mission, little efficiency seems to have been achieved. Now a new phase of Trump’s project is under way: Not only are individual agencies being breached, but the information they hold is being pooled together. The question is Why? And what does the administration intend to do with it?

All die Daten sollen natürlich auch mit LLMs ausgewertet und operationalisierbar gemacht werden.

Advancements in artificial intelligence promise to turn this unwieldy mass of data and metadata into something easily searchable, politically weaponizable, and maybe even profitable. DOGE is reportedly attempting to build a “master database” of immigrant data to aid in deportations; NIH Director Jay Bhattacharya has floated the possibility of an autism registry (though the administration quickly walked it back). America already has all the technology it needs to build a draconian surveillance society—the conditions for such a dystopia have been falling into place slowly over time, waiting for the right authoritarian to come along and use it to crack down on American privacy and freedom.

Damit lässt sich dann prima eine automatisierte Vorwurf-Pipline gegen Migrant*innen oder politische Gegner konstruieren.

Maybe you have information from background checks or health studies that allows you to punish people who have seen a therapist for mental illness. Or to terminate certain public benefits to anybody who has ever shown income above a particular threshold, claiming that they obviously don’t need public benefits because they once made a high salary. A pool of government data is especially powerful when combined with private-sector data, such as extremely comprehensive mobile-phone geolocation data. These actors could make inferences about actions, activities, or associates of almost anybody perceived as a government critic or dissident. These instances are hypothetical, but the government’s current use of combined data in service of deportations—and its refusal to offer credible evidence of wrongdoing for some of those deported—suggests that the administration is willing to use these data for its political aims. […]

It could, for example, target for harassment people who deducted charitable contributions to the Palestine Children’s Relief Fund, drove or parked near mosques, and bought Halal-certified shampoos. It could intimidate citizens who reported income from Trump-antagonistic competitors or visited queer pornography websites. It could identify people who have traveled to Ukraine and also rely on prescription insulin, and then lean on insurance companies to deny their claims.

Und dafür müssen die Vorwürfe auch gar nicht wahr sein.

But even worse than a mirror of this particular flavor of authoritarianism is the possibility that it might never even need to be well built or accurate. These systems do not need to work properly to cause harm. Poorly combined data or hasty analysis by AI systems could upend the lives of people the government didn’t even mean to target.

Hier meine Prognose: LLMs werden Listen mit politischen Gegnern abarbeiten, für die sie im riesigen DOGE-Datenpool „vorwerfbare“ Datenpunkte finden, für die sie in einem zweiten Schritt Schriftsätze formulieren (Anklage/Abmahnung/Anzeige/Abschiebesantrag), mit denen die Menschen in einem dritten Schritt terrorisiert werden. Quasi „Brandolinis Lawfare“ (Sven Kloppenburg)

Natürlich wird das über die Zeit das Vertrauen in staatliche Institutionen, Prozesse und Gesetze vollkommen zerstören. Willkommen im Zeitalter des Rauschens.


Georg Restle hat für die ARD eine sehr sehenswerte Doku über die zur Wahl ochestrierte Migrationspanik gemacht.


Ben Smith deckt bei Semafor einen ganzen Wust an rechten Chatgruppen auf, in denen Tech-Oligarchen seit der Pandemie mit rechten bis mittextremistischen Anti-Woke Publizistikgrößen rumhängen und sich wechselseitig radikalisierten.

And it was just another day in Chatham House, a giant and raucous Signal group that forms part of the sprawling network of influential private chats that began during the fervid early days of the COVID-19 pandemic, and which have fueled a new alliance of tech and the US right. That same week in Chatham House, Lonsdale and the Democratic billionaire Mark Cuban sparred over affirmative action, and Cuban and Daily Wire founder Ben Shapiro discussed questions of culture and work ethic.[…]

their influence flows through X, Substack, and podcasts, and constitutes a kind of dark matter of American politics and media. The group chats aren’t always primarily a political space, but they are the single most important place in which a stunning realignment toward Donald Trump was shaped and negotiated, and an alliance between Silicon Valley and the new right formed. The group chats are “the memetic upstream of mainstream opinion,” wrote one of their key organizers, Sriram Krishnan, a former partner in the venture capital firm Andreessen Horowitz (typically styled a16z) who is now the White House senior policy adviser for AI.

Geheime Gruppenchats mächtiger Männern bleiben die größte Gefahr, die von Social Media für die Demokratie ausgeht.


Vielen dank, dass Du Krasse Links liest. Da steckt eine Menge Arbeit drin und bislang ist das alles noch nicht nachhaltig finanziert. Diesen Monat komme ich immerhin auf € 345,71- von den angestrebten 1.500,-. Mit einem monatlichen Dauerauftrag kannst Du helfen, die Zukunft des Newsletters zu sichern. Genaueres hier.

Michael Seemann
IBAN: DE58251900010171043500
BIC: VOHADE2H


Christopher Mims berichtet im Wallstreet Journal, dass sich immer mehr ernsthafte KI-Forscher*innen mit der These vom Stochastischen Papagei abfinden.

In a series of recent essays, Mitchell argued that a growing body of work shows that it seems possible models develop gigantic “bags of heuristics,” rather than create more efficient mental models of situations and then reasoning through the tasks at hand. (“Heuristic” is a fancy word for a problem-solving shortcut.)

Mir gefällt „Bag of Heuristics“, aber es ist wichtig zu verstehen, dass wir es erstens nicht von menschlich formalisier- und verstehbaren Heuristiken zu tun haben, sondern mit semantischen Makrostrukzturen, die durchaus komplexe, semantische Operationen ermöglichen. Und zweitens, dass dieser „Bag“ unvorstellbar groß ist: In Hunderten von Milliarden von Parametern lassen sich im Zweifel für alle Eventualitäten eines Problems alle Lösungspfade speichern. Oder 89 %, reicht auch.

This research also suggests why many models are so massive: They have to memorize an endless list of rules of thumb, and can’t compress that knowledge into a mental model like a person can. It might also help explain why they have to learn on such enormous amounts of data, where a person can pick something up after just a few trials: To derive all those individual rules of thumb, they have to see every possible combination of words, images, game-board positions and the like. And to really train them well, they need to see those combinations over and over.

Wenn man LLMs verstehen will, muss man sich von dem Gedanken lösen, dass sie ein Modell des Gehirns sind, oder des „Minds“ oder gar ein „Weltmodell“.

LLMs sind ein Modell unserer Erwartungen.

Dass LLMs semantisch korrekte Sätze formen können, bedeutet, entweder, dass LLMs „verstehen“ (darauf fallen die KI-Bros rein), oder dass Semantik in der Sprache codiert ist und nicht, wie viele bislang glaubten, in der Intention des Sprechers oder der Interpretation des Hörers.

Wenn wir die erste Hypothese ausschließen, dann sind LLMs der materielle Beweis der poststrukturalistischen These, dass Zeichen immer nur auf sich selbst verweisen. Die Sprache spricht uns, nicht wir die Sprache.

Während ich das hier tippe, wäge ich mit jedem Wort ab, welche Assoziationen, Verbindungen, Erlebnisse, Wissen und Emotionen ich bei Euch erwarten kann, wenn ich mir vorstelle, wie ihr das lest. Jedes Wort erfordert eine Bezugnahme auf einen erwarteten Semantischen Raum. In diesem Bezugnehmen fließen meine Erwartungen an Eure Erwartungen in den Text ein.

Was LLMs in Wirklichkeit tun, ist von diesen eingebetteten Erwartungserwartungen (Luhmann) in ihrem Training einen unterdimensionierten Abdruck zu nehmen („Latent Space„), den sie als Landkarte zur Navigation desselben Semantischen Raums verwenden, den auch wir bewohnen. Ihre „Intelligenz“ ist nur das Orientierungswissen in diesem Raum.

Mit dieser Erkenntnis können wir auch alle anderen Machinelearning-Ansätze entzaubern:

Machine Learning ist keine „Künstliche Intelligenz“, sondern immer nur die Aneignung eines lokalen Orientierungswissens einer konkreten Umwelt. Ein Orientierungswissen das mit sehr „hungrigen“ Algorithmen in einer Art Tree-Search ertastet wird.

Man muss Machine Learning-Anwendungen von ihren Umwelten her denken.

Die Umwelt von AlphaGo ist Go. Die Maschine lernt in dieser Umwelt gewinnende Pfade zu finden. Die Umwelt von AlphaFold ist der Interaktionsraum von sich verbindenden Aminosäuren und es lernt dort relevante Protein-Faltungs-Pfade zu entdecken. Die Umwelt der LLMs sind Semantiken und sie lernen drain plausible Pfade zu finden.

In allen Fällen führt das durchaus dazu, dass innerhalb des Gesagten neue plausible, relevante, manchmal sogar nützliche Pfade gefunden werden können, aber LLMs können eines nie: Pfade abseits unserer Erwartungen zu finden.

LLMs sind semantische Spiegel und KI-Bros ihre Cyber-Narzisten.


Associated Press berichtet über Vorladungen, die die Trump-Regierung und der Congress an große KI Firmen geschickt haben.

In the White House and the Republican-led Congress, “woke AI” has replaced harmful algorithmic discrimination as a problem that needs fixing. Past efforts to “advance equity” in AI development and curb the production of “harmful and biased outputs” are a target of investigation, according to subpoenas sent to Amazon, Google, Meta, Microsoft, OpenAI and 10 other tech companies last month by the House Judiciary Committee.

And the standard-setting branch of the U.S. Commerce Department has deleted mentions of AI fairness, safety and “responsible AI” in its appeal for collaboration with outside researchers. It is instead instructing scientists to focus on “reducing ideological bias” in a way that will “enable human flourishing and economic competitiveness,” according to a copy of the document obtained by The Associated Press.

Dabei geht es nicht in erster Linie um generative KI, sondern um alle Arten und Weisen, wie KI-Firmen versuchen, gegen Biases in Machine Learning Systemen zu vorzugehen. Das gilt auch z.B. für Bilderkennungsalgorithmen, die Schwierigkeiten haben, schwarze oder asiatische Menschen zu erkennen.

One study showed self-driving car technology has a hard time detecting darker-skinned pedestrians, putting them in greater danger of getting run over. Another study asking popular AI text-to-image generators to make a picture of a surgeon found they produced a white man about 98% percent of the time, far higher than the real proportions even in a heavily male-dominated field.[…]

Face-matching software for unlocking phones misidentified Asian faces. Police in U.S. cities wrongfully arrested Black men based on false face recognition matches. And a decade ago, Google’s own photos app sorted a picture of two Black people into a category labeled as “gorillas.”

Diese Art von Forschung ist der Trumpregierung in Dorn im Auge, denn sie hat ja recht, dass es sich da sehr wortwörtlich um „DEI-Maßnamen“ handelt: Eine materiell festgestellte Ungleichbehandlung wird versucht, durch gezielte andere Ungleichbehandlungen auszugleichen. Das ist wichtig und gut (wie andere DEI-Maßnahmen auch), aber kann auch mal schlecht umgesetzt sein?

So versorgte Googles mißlungener Versuch, den Bias seiner Bildgenerierungs-KI durch ausgleichende Systemprompts zu korrigieren, die Rechte mit ihrem GoTo-Beispiel für „woke AI“.

Google tried to place technical guardrails to reduce those disparities before rolling out Gemini’s AI image generator just over a year ago. It ended up overcompensating for the bias, placing people of color and women in inaccurate historical settings, such as answering a request for American founding fathers with images of men in 18th century attire who appeared to be Black, Asian and Native American. Google quickly apologized and temporarily pulled the plug on the feature, but the outrage became a rallying cry taken up by the political right.

KI ist längst die relevanteste Arena des Kulturkampfes und es wird spannend sein, zu sehen, wie die Tech-Unternehmen sich in diesem Konflikt positionieren. Denn klar ist, dass die Biases ja eine nachgewiesene Realität sind und zu materiell schlechteren Produkten führen. Werden die Techbros ihre eigenen Produkte kaputtmachen, um dem neuen Zeitgeist zu entsprechen?

Aber das ist nur der Anfang. Das alles passiert, während Elon Musk verzweifelt versucht, seinem Grok die Wokeness aus dem „Latent Space“ zu prügeln. Das ist lustig anzusehen, klar, aber dahinter steht der Wunsch nach Kontrolle und am Ende wird Musk erfolgreich sein.

LLMs sind, wenn sie massenhaft eingesetzt werden, Massensprach-Akt-Waffen. Sie können dafür eingesetzt werden auf subtile Art Frames, Sprachregelungen und Narrative zu normalisieren oder gar zu hegemonialisieren. Je besser es den Unternehmen gelingt, den Output der Systeme zu kontrollieren, desto größeren Einfluss bekommen sie über unsere gesellschaftlichen Semantiken.

Trump macht den ersten Schritt zur Gleichschaltung der Sprach-Akt-Waffen.


Der Bild- und Medienwissenschaftler Roland Meyer hat in der FAZ eine umfassende Analyse der feindlichen Übernahme der Bildkultur durch den digitalen Faschismus in Gestalt des KI-Slop abgeliefert.

Bildgenerierungs KIs sind auch nur LLMs für optische Semantiken. Bildliche Ausdrucksformen, sogar so herausgehoben raffinierte, wie die von Studio Ghibli, werden ebenfalls als makrosemantische Templates im „Bag of Heuristics“ abgelegt.

Bilder sind genauso wie Texte teil unseres gemeinsamen kulturellen Orientierungsrahmens und so wurden eben auch all die Arrangements, Perspektiven und Konditionierungen unserer Sehgewohnheiten in den Transformer-Schredder gedrückt, um unsere visuellen Erwartungen zu reproduzieren. Dass dabei vor allem konservative Semantiken herausfallen, die hoch Anschlussfähig an das Imaginäre der Rechten sind, sollte nicht überraschen.

KI-Bildgeneratoren bieten sich für solche Mash-ups der historischen Zeitschichten geradezu an. Unterschiedslos behandeln sie die Gesamtheit der visuellen Überlieferung als Reservoir beliebig rekombinierbarer visueller Muster. Zugleich verdichten sich in den KI-Bildwelten die visuellen Klischees unserer digitalen Kultur, die von den Filterästhetiken und Empfehlungsalgorithmen der Onlineplattformen beherrscht wird. Die synthetischen Vergangenheiten erscheinen so für die digitale Gegenwart immer schon ästhetisch optimiert, unwirklich glänzend und von strahlender Glätte, zugleich nostalgisch und klischeebeladen. Nicht von ungefähr ist die Ästhetik generativer KI, wie der Journalist Gareth Watkins und andere angesichts der anhaltenden Flut KI-generierter Memes konstatiert haben, zur bevorzugten visuellen Propagandasprache des digitalen Faschismus avanciert. Nicht nur Elon Musk, auch Donald Trump und Javier Milei teilen am liebsten KI-generierte Bilder ihrer selbst, die sie in heroischen Posen und strahlender Männlichkeit präsentieren.

Die KI-Faszination der globalen Rechten ist aber nicht nur eine ästhetische. Vielmehr deutet sich in ihr eine ideologische Affinität an, auf der auch das politische Bündnis von Techoligarchie und autoritärer Staatsmacht basiert. Der Weg der KI-Entwicklung, den Open AI, Meta und andere eingeschlagen haben, folgt einer Logik der schrankenlosen Expansion, der Erschließung immer neuer Datenressourcen und des Aufbaus immer größerer Rechenkapazitäten in Form von riesigen Datenzentren, von denen jedes einzelne den Stromverbrauch einer ganzen Großstadt aufweist. Für diese Pläne ist man auf politische Unterstützung angewiesen – und, umgekehrt, entspricht dieser Expansionskurs den Ambitionen Trumps und anderer, globale Geopolitik explizit als Kampf aller gegen alle zu betreiben. Sehr unmissverständlich warnte in diesem Sinne J.D. Vance beim jüngsten KI-Gipfel AI Summit in Paris Europa davor, durch etwaige Regulierungsbemühungen die amerikanische KI-Vorherrschaft zu gefährden, und nannte KI die „new frontier“ – was zugleich amerikanische Siedlermythen wie die Erinnerung an das Weltraumprogramm der Kennedy-Ära aufrufen sollte.[…]

Das wohl prominenteste Network-State-Projekt namens „Praxis“ wirbt auf seiner Website unter dem Slogan „Reclaim the West“, den Westen zurückerobern, mit offensichtlich KI-generierten Bildern, in denen gotische Kathedralen, Sechzigerjahre-Space-Age-Design und Computerspiel-Ästhetik zu archäofuturistischen Stadtvisionen verschmelzen. Es sind neokoloniale Traumbilder „westlicher Zivilisation“, generiert aus den visuellen Mustern der Vergangenheit und präsentiert als technologiegetriebene Zukunftsvision.

Als „ästhetische Rechtfertigung des Rechts des Stärkeren“ hat der Kulturwissenschaftler Wolfgang Ullrich kürzlich die neuen autoritären Bildwelten charakterisiert. Die Formel bringt auf den Punkt, was die reaktionären Visionen der Network-States mit den hypermaskulinen Antikenphantasien von Musk und Zuckerberg, Altmans kulleräugigem Profilbild und der „ghiblifizierten“ Meme-Propaganda des Weißen Hauses verbindet: Es sind Bildwelten der Rücksichtslosigkeit, in denen neokoloniale Expansionsträume, pseudohistorisch bemäntelte Machtphantasien, ein entfesselter Datenextraktivismus und die zynische Glorifizierung staatlicher Gewalt ihren gemeinsamen Ausdruck finden.

Die Bildsprach-Akt-Waffen sind längst im Dauerbetrieb an der Informations-Front.


Techcrunch über die weirde Tatsache, dass die neusten Flagshipmodelle von OpenAI – o3 und o4-mini deutlich mehr „haluzinieren“ als die Vorgänger.

OpenAI found that o3 hallucinated in response to 33% of questions on PersonQA, the company’s in-house benchmark for measuring the accuracy of a model’s knowledge about people. That’s roughly double the hallucination rate of OpenAI’s previous reasoning models, o1 and o3-mini, which scored 16% and 14.8%, respectively. O4-mini did even worse on PersonQA — hallucinating 48% of the time.

Third-party testing by Transluce, a nonprofit AI research lab, also found evidence that o3 has a tendency to make up actions it took in the process of arriving at answers. In one example, Transluce observed o3 claiming that it ran code on a 2021 MacBook Pro “outside of ChatGPT,” then copied the numbers into its answer. While o3 has access to some tools, it can’t do that.

Zunächst ist es wichtig festhalten, dass „Halluzinieren“ nicht ein Bug, sondern schlicht die Funktionsweise von LLMs ist, denn für das Gegenteil bräuchten sie eine Verankerung in der Realiät. Das erstaunliche an LLMs ist nicht, dass sie „manchmal haluzinieren“, sondern dass ihre Haluzinationen manchmal stimmen. Und wenn die Haluzinationen stimmen, liegt das natürlich daran, dass sie erfolgreich Muster aus ´ Trainingsdaten rekonstruieren.

„Our hypothesis is that the kind of reinforcement learning used for o-series models may amplify issues that are usually mitigated (but not fully erased) by standard post-training pipelines,” said Neil Chowdhury, a Transluce researcher and former OpenAI employee, in an email to TechCrunch.

Hier meine These dazu: Wenn man versteht, dass der Latent Space – diese riesige Wolke aller semantischen Beziehungen – ein riesiges, tausenddimensionales Netzwerk ist, dessen Kanten sehr, sehr, sehr genau präzise abgemessen sind, dann wird auch klar, dass dieses Netzwerk als Gesamtheit eine „strukturelle Integrität“ besitzt.

Wenn man nun via „Reinforcement Learning“ an eigen wenigen Knoten des Netzwerkes zuppelt und zerrt, um sie mithilfe von Millionen extra Trainings-Cyclen besser auf irgendwelchen Benchmarks anzupassen, dann geht das nicht, ohne damit auch am Gesamtrahmen zu zerren und damit die strukturelle Integrität des Gesamtnetzwerks minimal zu verschieben. Und wahrscheinlich reicht die minimale Verzerrung, um die Trainingsdaten ungenauer zu matchen. Das Overfitting auf die Benchmarks bekommt den Modellen nicht gut.

Analyse: Macht der Plattformen – M – Menschen Machen Medien (ver.di)

Danke für den Plug

Plattformen haben Möglichlichkeitsräume von unvorhersehbarem Ausmaß geschaffen. Der Autor zeichnet in seinem Buch die Rolle von Plattformen als neue Regulierungsmechanismen präzise nach. Er analysiert, in welchem Verhältnis sie dabei zu Staaten und damit auch zur Demokratie stehen.

Quelle: Analyse: Macht der Plattformen – M – Menschen Machen Medien (ver.di)

Der Preis der Rebellion. Wege in den Widerstand bei Sense8 und Andor | republica

26. bis 28. Mai ist wieder re:publica und nach langer Zeit halte ich mal wieder einen Vortrag, diesmal zusammen mit meiner Freundin Susann Kabisch. Wir sprechen über Widerstand bei den Serien Andor und Sense8, haben aber gar nicht bedacht, dass die zweite Andorstaffel noch kurz vorher released wird und müssen jetzt schnell nacharbeiten …

Viele fragen sich dieser Tage: Wie geht Widerstand?  Das wissen wir ehrlich gesagt auch nicht, aber wir sind Fans der beiden TV-Serien “Andor” und “Sense8”, die auf je eigene Art den Punkt des Übertritts aus einem “normalen” Davor, in eine neue Gemeinschaft des Widerstands verhandeln. 

Quelle: Der Preis der Rebellion. Wege in den Widerstand bei Sense8 und Andor | republica

Krasse Links No 50

Willkommen zu Krasse Links No 50. Letzte Woche war megavoll und ich habs nicht geschafft, sorry.

Aber nun stellt Eure Bootloader auf „industrielle Männlichkeit“, heute richten wir Musks Baby-Pipeline auf den Golden Dome der Bunkered Nation für einen Coup gegen den Endzeitfaschismus.


Jenna McLaughlin von NPR hat die unglaubliche Geschichte, wie DOGE die Daten des „National Labor Relations Board“ entwendete und sie liest sich wie ein Cyberpunk-Krimi.

Someone had disabled controls that would prevent insecure or unauthorized mobile devices from logging on to the system without the proper security settings. There was an interface exposed to the public internet, potentially allowing malicious actors access to the NLRB’s systems. Internal alerting and monitoring systems were found to be manually turned off. Multifactor authentication was disabled. And Berulis noticed that an unknown user had exported a „user roster,“ a file with contact information for outside lawyers who have worked with the NLRB.

Berulis said he noticed five PowerShell downloads on the system, a task automation program that would allow engineers to run automated commands. There were several code libraries that got his attention — tools that he said appeared to be designed to automate and mask data exfiltration. There was a tool to generate a seemingly endless number of IP addresses called „requests-ip-rotator,“ and a commonly used automation tool for web developers called „browserless“ — both repositories starred or favorited by Wick, the DOGE engineer, according to an archive of his GitHub account reviewed by NPR. […]

Berulis says someone appeared to be doing something called DNS tunneling to prevent the data exfiltration from being detected. He came to that conclusion, outlined in his disclosure, after he saw a traffic spike in DNS requests parallel to the data being exfiltrated, a spike 1,000 times the normal number of requests.

Die Daten sind hoch sensibel und extrem wertvoll, denn private Firmen können von Gewerkschaftsgründungen, über Identitäten von Whistleblower, über rechtliche Strategien ihrer Gegner, bishin zu geheimen Daten von Wettbewerbern alles Mögliche daraus ziehen.

Der Whistleblower, der das alles angezeigt hat, Daniel Berulis, hat eine ausführliche Aussage plus Belege vorgelegt, die von forensischen Expert*innen für echt befunden wurden, dennoch bestreitet der Pressesprecher der Behörde den Vorgang. Berulis wird seitdem anonym bedroht.

Was aber am meisten schockiert, ist das Vorgehen der Hacker*innen. Sie haben sich quasi unberegrenzte Rechte für das gesamte System geben lassen und penibel versucht, ihre Spuren zu verwischen. Insgesamt 10 Gigabyte an Daten wurden gestohlen. Aber das für viele Beängstigendste ist, dass sich kurz nach dem Angriff auch eine russische IP mit den DOGE Credentials im System einloggte.

Within minutes after DOGE accessed the NLRB’s systems, someone with an IP address in Russia started trying to log in, according to Berulis‘ disclosure. The attempts were „near real-time,“ according to the disclosure. Those attempts were blocked, but they were especially alarming. Whoever was attempting to log in was using one of the newly created DOGE accounts — and the person had the correct username and password, according to Berulis. While it’s possible the user was disguising their location, it’s highly unlikely they’d appear to be coming from Russia if they wanted to avoid suspicion, cybersecurity experts interviewed by NPR explained.

Auch lesenswert die Einschätzungen von Security Forscher Matt Johansen.

Auch: Berulis war sogar bei Rachel Meddow zum Interview.

Ich glaube btw. nicht, dass DOGE mit den Russen zusammenarbeitet. Wahrscheinlicher ist, dass der russische Geheimdienst längst auf einigen Devices der DOGE-Skriptkiddies wohnt, denn: warum sollte er nicht?

Aber ich finde die Russen hier überhaupt nicht das Problem?

Ich finde eher erstaunlich, dass die meisten Menschen immer noch so tun, als hätten sie Musks Coup nicht bemerkt. „Government Efficiency“, lol. Als hätte er nicht die Kontrolle über die Transaktionen der Treasury-Computer übernommen, Social Security- und alle möglichen anderen Daten abgesaugt, sein Starlink in den Behörden installiert und seine Leute auf alle strategisch wichtigen Posten gesetzt.

Ihr glaubt, Trump sei schlimm? Ich denke, er ist nur der Bootloader des Tech-Faschismus. Das Dicke Ende kommt erst noch.


Albert Lloreta erahnt ebenfalls den Silicon Valley Coup am Horizont und erinnert uns in seiner konzisen Analyse daran, dass unsere Verwirrung, teil des Plots ist.

Wherever you go these days, everyone expresses in one way or another that reality seems to have stopped making sense. Everything seems normal, but something just doesn’t add up. Absurd and incomprehensible things keep happening. They happen and accumulate at such a rate that it becomes increasingly difficult to understand anything. We live in a growing state of confusion.

This general uncertainty stops us in our tracks. It paralyses us. It is an anxious paralysis from which it is difficult to think clearly. It is terribly difficult to process the things that are happening, and even more difficult to remember them. And despite everything, the cognitive collapse does not prevent us from continuing to do our own thing. Everything is absurd, yes, but our life is still apparently normal, so we take refuge in it. We are suspended in this strange environment.

Er beschreibt präzise den Aufstieg der Silicon Valley Oligarchen durch die Plattformökonomie und wie sie diese Macht … zu mehr Macht inspririerte.

Why stop at just monopolising social networks? Intoxicated by this power, and in the name of freedom, tech leaders seek to rewrite the rules of the world, replacing democratic sovereignty with a system in which technological solutions – and therefore themselves – become the core of all decision-making. Having monopolised our attention, they now want to monopolise political power.

Silicon Valley is preparing a coup against democracy.


Carole Cadwalladr sieht den Coup des Silicon Valleys in diesem Ted-Talk als bereits gegeben an und verweist dabei insbesondere auf ihre eigene Geschichte, denn sie kämpft bereits seit Jahren in der vordersten Reihe gegen die Verbindung von Rechtsradikalismus und Tech-Oligarchie und wird seitdem mit Klagen überzogen.

Ich teile nicht alles, was Cadwalladr erzählt, insbesondere zu Cambridge Analytica, das im Grunde ein Scam war und die öffentlichen Erzählungen basically Critihype.

Aber richtig ist, dass damals der Grundstein für die Phalanx aus Tech-Oligarchie (deren Methoden ja nie scamfrei waren) und rechtsradikaler Politik gelegt wurde und ich wünschte, wir hätten wenigstens ein Drittel der Aufregung von damals für den Coup von heute.


Das Rolling Stone Magazin hat den wahrscheinlich inhaltlich detailreichsten Artikel über die Zustände im Konzentrationslager-System in El Salvador.

Disappeared is an apt description for the state of those in El Salvador’s prisons. Cristosal and other advocacy groups working with the families of the detained say that CECOT is just “the public face” of a much larger system of prisons in El Salvador holding the vast majority of those arrested under the state of exception. The Bukele administration makes it nearly impossible to track the whereabouts of an arrestee once they’ve entered the system. Family members are not allowed contact with inmates, and are given little information on their condition and location. Release papers, if they manage to secure them, are often ignored. “We do work with hundreds of families of people, innocent people have been detained, and they don’t even know for sure if they’re alive.” Bullock says. “They bring monthly packages [of basic goods] to the prisons out of fear that their loved ones don’t think they’ve been forgotten, but they have no guarantees or assurances that they’re even there or they ever received the packages.” (In many Latin American countries, prisons do not provide basic goods for inmates, whose families are expected to collect and deliver them to detention centers on a monthly basis.) […]

In 2024, Cristosal published a report detailing alleged torture within El Salvador’s prison system, unreported deaths of inmates, and the systematic dissappearances of those arrested. The organization has received thousands of complaints, investigated over 1,000 specific cases of alleged abuse, and documented the deaths in custody of over 200 prisoners.

Cristosal provided Rolling Stone with recorded testimony from a former inmate named Oscar who said he and other detainees are often forced to sign confessions by arresting officers, crammed into cells with over 250 other inmates, and regularly beaten by guards. Oscar describes witnessing food deprivation, denial of medical treatment, frequent transfers (he spent time at several prisons in El Salvador), deaths of inmates due to illness or abuse, and burials in mass graves.

In a 2023 report examining in-custody deaths investigated by the state-run Institute of Legal Medicine (IML), Cristosal was able to corroborate that the institute has investigated at least 28 deaths within prisons that were likely caused by torture. The actual number is estimated to be at least in the hundreds. Deaths in custody are often reported to be the result of chronic disease or natural causes, despite inmates’ families claiming they had no known conditions before being arrested.[…]

One man previously incarcerated at Mariona testified to Cristosal that at one point, guards “showed up with a bucket of food. We arrived on a Thursday (and it was Monday), the guard asked, ‘Are you hungry?’ When we answered yes, the guard threw the food on the floor, which was full of mud and other dirt, and said, ‘You are only going to pick the food up with your mouth and if you grab it with your hands I will take you out and I will beat you,’ and gave them five seconds to pick up the food with their mouths.”

Abu Ghraib war den Amerikanern damals noch peinlich, heute geben sie damit an.


Das Wallstreet Journal hat eine detaillierte Recherche zu Elon Musks Baby-Fabrik … Familienleben. Im Zentrum dabei steht sein Vermögensverwalter Jared Birchall.

Birchall was involved in acquiring the property for a compound in Austin where Musk imagined the women and his growing number of babies would all live among multiple residences, according to a person familiar with the matter. He is involved in other property deals across Musk’s different businesses.

Zilis lives in the gated community with their children, and Musk comes and goes. Musk also attempted to get Grimes to move to the compound, but she refused. Similarly, he tried to get St. Clair to spend some time in Austin “with our kid legion,” according to a text he sent her.

Birchall said on the December call with St. Clair the NDAs are necessary. “We have been through way too many issues where, to not sign some agreement associated with handing over 15-plus million dollars is absolutely insane and irresponsible, and because we have dealt with some very unstable, mentally unstable, people that all of a sudden misremember things,” he said.

Jaja, die verrückte Ex, wer kennt sie nicht?

Auch der (nicht immer erfolgreiche) Anwerbungsporozess für Frauen in für die Breeding-Pipeline wird ausführlich beschrieben.

Cryptocurrency influencer Tiffany Fong was covering disgraced crypto tycoon Sam Bankman-Fried’s downfall when Musk started liking and replying to her posts. Musk’s interactions ramped up as Fong posted more political content in support of Trump, and Musk followed her last summer. […]

That was about when Musk sent her a direct message asking if she was interested in having his child, according to people familiar with the matter. The two had never met in person.

Fong didn’t move forward with Musk because she pictured having children in a more traditional nuclear family, but confided to a few friends about the approach—including St. Clair, whom she knew as another conservative social-media figure—and how she worried that turning him down could hurt her earnings.

Relevant ist auch, dass Musk über alle Entscheidungen für das Kind die Oberhand behalten will. Ebenfalls nicht immer erfolgreich, wie im Falle von St. Claire.

While she was pregnant, Musk had urged her to deliver the baby via caesarean section and told her he didn’t want the child to be circumcised. (Musk has posted on X that vaginal births limit brain size and that C-sections allow for larger brains.) St. Clair is Jewish and circumcisions are an important ritual in the religion, and she decided against a C-section. He told her she should have 10 babies, and they debated the child’s middle name.

15 Millionen sofort und Hundertausend Dollar monatlich klingen nach viel, aber Musk nutzt diese Abhängigkeit gnadenlos aus. St. Claire setzte er unter Druck, weil sie es wagte mit der Presse zu reden.

Four days after the post, Musk eliminated the $15 million fee offer. Then, as they went to court to discuss paternity testing and Musk’s request for a gag order, he lowered the financial offer further, dropping her support to $40,000 a month, just as her legal fees were set to balloon in the fight.

On Thursday, the Journal contacted Musk for comment for this article. On Friday, St. Clair didn’t receive her scheduled child support payment from Musk, she said. Late on Tuesday, she said Musk’s team sent her $20,000, halving her stipend again.

St. Claire hat am Ende abgelehnt zu unterschreiben. Hoffen wir, dass sie ihm den Arsch wegklagt.


Zwei meiner Lieblingstheoretikerinnen – Naomi Klein und Astra Taylor – sehen in diesem sehr lesenswerten Text im Guardian die nihilistische Endzeiterwartung des aufkommenden Faschismus.

The governing ideology of the far right in our age of escalating disasters has become a monstrous, supremacist survivalism.

It is terrifying in its wickedness, yes. But it also opens up powerful possibilities for resistance. To bet against the future on this scale – to bank on your bunker – is to betray, on the most basic level, our duties to one another, to the children we love, and to every other life form with whom we share a planetary home. This is a belief system that is genocidal at its core and treasonous to the wonder and beauty of this world. We are convinced that the more people understand the extent to which the right has succumbed to the Armageddon complex, the more they will be willing to fight back, realizing that absolutely everything is now on the line.

Our opponents know full well that we are entering an age of emergency, but have responded by embracing lethal yet self-serving delusions. Having bought into various apartheid fantasies of bunkered safety, they are choosing to let the Earth burn. Our task is to build a wide and deep movement, as spiritual as it is political, strong enough to stop these unhinged traitors. A movement rooted in a steadfast commitment to one another, across our many differences and divides, and to this miraculous, singular planet.

Ich bekomme immer komische Blicke, wenn ich sage, dass die „Auslender-Raus“-Politik der Rechten ihre Version von Klimapolitik ist. Auch wenn sie das nicht zugeben: Sie kennen die Szenarien sehr genau, vor allem den Teil mit den prognostizierten Flüchtlingsströmen, doch ihre Antwort darauf ist eben nicht die Klimakatastrophe einzudämmen, sondern die Mauern höher zu bauen.

Bannon doesn’t only urge his audience to make their own bunkers, of course. He also advances a vision of the United States as a bunker in its own right, one in which Ice agents stalk the streets, workplaces and campuses, disappearing those deemed enemies of US policy and interests. The bunkered nation lies at the heart of the Maga agenda, and of end times fascism. Inside its logic, the first job is to harden national borders and expunge all enemies, foreign and domestic.

Der Begriff „Bunkered Nation“ scheint mir sehr geeignet, um die Entwicklungsrichtung der Faschisierung des Westens zu verstehen, denn unsere stetig auszubauende „Festung Europa“ bettet sich in diese Entwicklung ebenso ein, wie Elon Musks Marsträume. Gerade die Milliardärskaste kann den Zivilisationskollaps gar nicht abwarten, ist ein Überleben der Apokalypse doch der ultimative Ausweis materieller Allmächtigkeit.

Evidently uninterested in the vast bounty that surrounds him, or in ensuring Earth can continue buzzing with diversity, he instead deploys his vast fortune to bring about a future that would see a handful of people and robots eke out survival on two barren orbs (a radically depleted Earth and a terraformed Mars). Indeed, in a strange twist on the Old Testament tale, Musk and his fellow tech billionaires, having arrogated god-like powers to themselves, aren’t content to just build the arks. They appear to be doing their best to cause the flood. Today’s rightwing leaders and their rich allies are not just taking advantage of catastrophes, shock-doctrine and disaster-capitalism style, but simultaneously provoking and planning for them.

Zum undurchdringlichen, materiell-technologischen Körperpanzer gehört natürlich auch die emotionale Verpanzerung.

Musk informs Joe Rogan that empathy is “the fundamental weakness of western civilization” and he vents, after failing to purchase a supreme court election in Wisconsin: “It increasingly appears that humanity is a biological bootloader for digital superintelligence.” Meaning we humans are nothing but grist for Grok, the AI service he owns.

Das ist der Grund, warum sie ihre Verbrechen nicht mehr verstecken. Unsere Meinung ist nicht mehr wichtig. Wir sind aus ihrer Sicht obsolet.

An unspeakably dismal choice is being made before our eyes and without our consent: machines over humans, inanimate over animate, profits over all else. With stunning speed, the big tech megalomaniacs have quietly rolled back their net-zero pledges and lined up by Trump’s side, hellbent on sacrificing this world’s real and precious resources and creativity at the altar of a vampiric, virtual realm. This is the last great heist, and they are getting ready to ride out the storms they themselves are summoning – and they will try to defame and destroy anyone who gets in their way.

Das ist so grob der Plan: Noch eine große Party und dann zum Klimachaos im Bunker auskatern, bewacht und betreut von Robotern, bis Elon das Mars-Taxi endlich fertig hat und dann aus dem „überlegenen“ Milliardärs-Genpool plus AGI eine neue multiplanetarische, transhumanistische Spezies züchten.

Ja, wir sind in einem Trash-Scifi gefangen. Nein, den können wir nicht abschalten.


Reuters berichtet über den geplanten „Golden Dome“ der Trumpregierung, einer Art Iron Dome für die ganze USA. Der Golden Dome soll tausende Überwachungs- und hunderte bewaffnete Satteliten im All stationieren und alle ankommenden Raketen abwehren können. Dafür verpartnern sich drei Technologieunternehmen, die zufällig alle Trump unterstützt haben.

Musk’s rocket and satellite company is partnering with software maker Palantir (PLTR.O), opens new tab and drone builder Anduril on a bid to build key parts of Golden Dome, the sources said, which has drawn significant interest from the technology sector’s burgeoning base of defense startups.

Elon Musk, Peter Thiel und Palmer Luckey sollen die „Bunkered Nation“ also aus der Luft abschirmen. Aber weil Broligarchs eben Broligarchs sind, gibt es Sicherheit nur „as a Service“.

In an unusual twist, SpaceX has proposed setting up its role in Golden Dome as a „subscription service“ in which the government would pay for access to the technology, rather than own the system outright.

The subscription model, which has not been previously reported, could skirt some Pentagon procurement protocols allowing the system to be rolled out faster, the two sources said. While the approach would not violate any rules, the government may then be locked into a subscription and lose control over its ongoing development and pricing, they added.

Wie wäre es, die Bundestaaten einzeln für den Schutz zahlen zu lassen? Mit speziellen Tarifen für demokratisch regierte Staaten und ab und zu fällt der Schutz auch mal aus … ups.

Bin gespannt auf das Tarifmodell. Was kann man dafür verlangen? Den 10ten? Der Königin ihr Kind? Die Wiedereinführung der Sklaverei? Den eisernen Thron?


Sam Cieri, Pressesprecher des Imperiums.


Constance Grady bringt auf Vox den kulturellen Zusammenhang zwischen der Krise der Männlichkeit mit Trumps Zollpolitik auf den Punkt.

“A lot of men (specifically, single and frustrated ones on the right who have a negative view of women) have a perplexingly reverse-SJW attitude toward women in the workplace,” explained Substack writer Cartoons Hate Her in March in the midst of the DOGE shutdowns. “They believe women are part of an oppressor class, who has for some reason been granted unfair degrees of privilege in the form of being hired for fun, pretend jobs.” In this reading, the Australian skin care executives are callously celebrating their oppressive privilege by filming themselves dancing.

In this worldview, the fun, pretend jobs include federally funded government jobs. These men further believe that because DEI initiatives mandate that women get these fun, pretend jobs — usually described as “email jobs” — women have achieved unnatural degrees of self-sufficiency. No longer do they have to rely on marrying a good provider for economic stability. With that impetus gone, women’s standards for romantic partners have skyrocketed, leaving these hapless men unable to get a girlfriend.

Cartoons Hate Her quotes an X user who berated her for arguing that single women can be happy living by themselves. “Your ‘happy life alone’ only exists because the state funnels taxpayer money into your independence LARP,” he wrote. “I call it ‘negative prostitution’ because it takes men’s money away to ensure women don’t have sex with them.”

These men read Trump’s economic policy as a project of redistributing money and jobs away from women and back to men, ultimately for men’s sexual gain. DOGE slashed away the email jobs in the government, they argue, while tariffs will force a recession that will ultimately kill the email jobs of the private sector. Meanwhile, tariffs will bring manufacturing jobs, which are understood to be the rightful domain of men, back to the US. By the time the process ends, they believe, men will be gainfully employed and now-destitute women incentivized to sleep with them, and the world will be restored to its proper order.

Dass die Incel-Ideologie einmal eine eigene ökonomische Schule begründen würde, hatte wahrscheinlich auch niemand auf seiner Bingokarte.

Die Rolle von sozialen Netzwerken: Welchen Einfluss haben die Internetplattformen? Ein Gespräch mit Michael Seemann (Teil 1) · Leipziger Zeitung

Die Leipziger Zeitung mit einem Interview mit mir über die Macht der Plattformen. Zweiter Teil folgt.

Welchen Einfluss haben die Internetplattformen, üben diese überhaupt Macht aus und wenn ja wie passiert das? Dazu sprachen wir am 04. April mit Michael Seemann. Man kann Michael Seemann schon als Inventar der sozialen Medien bezeichnen.

Quelle: Die Rolle von sozialen Netzwerken: Welchen Einfluss haben die Internetplattformen? Ein Gespräch mit Michael Seemann (Teil 1) · Leipziger Zeitung

Krasse Links No 49

Willkommen zu Krasse Links No 49. Programming Note: Dies ist nun ein Dienstags-Newsletter und ich habe wieder Wochenenden.

Aber jetzt konsolidiert Euer Fingerspitzengefühl, heute zollt die industrielle Männlichkeit der politischen Mitte Tribut beim heuristischen Rechnen.


Der Channel „Money & Macro“ hat ein sehenswertes Erklärstück zur vermeintlichen Strategie hinter Trumps eratischer Zollpolitik gemacht, dem ominösen Mar-a-Lago Accord.

Alle Rätseln, was hinter Trumps Zöllen steckt. Paul Krugman hält das alles für Bullshit, NPR findet ein Körnchen Sinn und Brian Merchant glaubt, die haben ihre Formeln aus ChatGPT kopiert. Oder hat der Crackpott Peter Navarro Trump das eingeredet, oder ist er einfach ein seniler Kapitän Ahab auf der ewigen Jagd nach dem asiatischen Außenhandelsdefizit-Wal?

Ihr seht, ich hab viel gelesen, deswegen hier meine unvollständige Liste möglicher Gründe für das Zollchaos.

  1. Persönliche Bereicherung. Trump, Musk und ihre Crownies haben in den Tagen vor der Ankündigungen mit großer Sicherheit einen Haufen Aktien geshortet und verdienen sich gerade dumm und dämlich mit Insiderhandel.
  2. Es sind keine Zölle, sondern Sanktionen. Wie jeder Gangster macht Trump erstmal Terror um Schutzgeld einzutreiben, wie David Dayen es im Prospect-Magazin beschreibt:

    It is not at all surprising that Trump sees the appeal in sanctions. It is no different from a mob boss moving into town and sending his thugs to every business on Main Street, roughing up the proprietors and asking for protection money so they don’t get pushed out of business.

  3. Konsolidierung der Macht über die Wirtschafts-Oligarchie. Trump terrorisiert nicht nur die Handelspartner der USA, sondern auch die eigene Wirtschaft und zwingt die Oligarchen dazu, bei ihm anzutanzen und um Ausnahmen zu betteln. Der US-Senator Chris Murphy brachte es auf Bluesky auf den Punkt:

    „You see, our founders created a President with limited and checked powers. They specifically put the power of spending and taxation in the hands of the legislature.

    Why? Because they watched how kings and despots used spending and taxes to control their subjects.

    British kings used taxation to reward loyalty and punish dissent.

    Our own revolution was spurred by the King’s use of heavy taxation of the colonies to punish our push for self governance.

    The King’s message was simple: stop protesting and I’ll stop taxing.“

  4. Eine neue Weltwirtschaftsordnung. Ja, wahrscheinlich hat Paul Krugman recht und das ganze Mar-a-Lago Accord-Gerede ist ein nachträgliches „Sanewashing“ von Trumps Kontrollgelüsten durch speichelleckende Pseudo-Ökonomen. Aber nur weil ein Plan die nachträgliche Verrationalisierung eines Größenwahnsinnigen ist, heißt das nicht, dass er nicht umgesetzt wird?

    Bessets „three buckets“-Strategie wird sicher irgendwie angewendet, allerdings wird die Frage, wer in den grünen (Vasallen), gelben (Neutrale) oder roten (Feinde)-Eimer gesteckt wird, wohl nur bedingt etwas mit Handel oder Wirtschaft zu tun haben. Wahrscheinlicher ist, dass Trumps Tageslaune, seine Sympathie zum Staatsoberhaupt und sein (durchaus käufliches) Wohlwollen eine viel größere Rolle spielen wird.

  5. Tribut. Bessent und Miran deuten bei jeder Gelegenheit an, dass bei den Verhandlungen auch sicherheitspolitische Aspekte mit reinspielen werden und ich denke, am Ende steht die Einführung eines modernen Tribut-Systems. Das wird in zwei Phasen passieren, wobei die erste gerade läuft, in derTrump immer „Dankbarkeit“ für den NATOschutz ein fordert. Aber sobald sein Trade-War nicht einbringt, was er sich davon verspricht (was sehr wahrscheinlich ist), wird die Rhetorik bedrohlicher werden, bis irgendwann ein Exempel statuiert werden muss.

Die EU hatte Trump eine Industrie-Freihandels-Zone angeboten und dabei einfach nicht verstanden, worum es Trump geht, wie das Surplus-Magazin treffend kommentiert:

Eine schnelle Kehrtwende Trumps ist also nicht zu erwarten – vor allem nicht bei dieser Forderung.Denn eine solche Freihandelszone ergibt zwar im VWL-Lehrbuch Sinn, aber sie baut nicht den von Trump beklagten ungleichen Handel ab. Deutschland könnte zum Beispiel weiterhin weit mehr Autos in die USA verkaufen als umgekehrt – auch wenn es theoretisch anders herum sein könnte. Trump geht es nicht um gleiche Chancen, sondern um gleiche Ergebnisse in Form einer ausgeglichenen Handelsbilanz.

Das ist jetzt ein Muster bei den Rechten: Genau so wie sich CDU und AfD nicht mit den Anstrengungen von „Abschiebekanzler“ Olaf Scholz zufriedenstellen ließen, weil sie eine konkrete „Obergrenze“ verlangen, so will Trump das Ergebnis einer ausgeglichenen Handelsbilanz mit allen Ländern erzwingen. Realitäten haben sich dem Willen der Rechten zu beugen.


Der Autor Jason Pargin hat in seinem sehenswerten Insta-Channel eine überzeugende Popukulturelle Einordnung der Zollpolitik. In Wirklichkeit gehe es um die Rückeroberung einer verloren geglaubten Maskulinität, die stark mit der Industrie-Job-Vergangenheit mitte des letzten Jahrhunderts assoziiert wird und die im Kontrast zu „entmannenden“ Bürojobs entworfen wird.

Dazu die Beweisstücke A und B (via):

Fragile Männlichkeit vs. Weltwirtschaft. Wer wird gewinnen?


Adam Tooze schreibt über die Unmöglichkeit mit herkömmlichen Modellen und historischen Vergleichen, die Auswirkungen der Zölle vorherzusagen.

What trade models do highlight is the long-run damage done by the inefficiency of disassembling and then reassembling (if you are lucky) the global division of labour. In a huge, rich economy like the US, those inefficiencies will be knife cuts rather than hammer blows. But they will hurt low-income households. And if the Brexit example is anything to go by they will hurt smaller businesses, less able to set prices and less able to cope with the shock.

[…]
But touting general tariffs as a way of supporting comprehensive structural and socio-economic change in the largest and richest economy in the world, in which manufacturing accounts for less than ten percent of employment … well that is a first. Lets not pretend that South Korea’s experience in the 1970s and 1980s has much relevance here.


Vielen dank, dass Du Krasse Links liest. Da steckt eine Menge Arbeit drin und bislang ist das alles noch nicht nachhaltig finanziert. Letzten Monat hatte ich genau € 251,92 – eingenommen – von eigentlich notwendigen € 1.500,-. Da geht noch mehr. Mit einem monatlichen Dauerauftrag kannst Du helfen, die Zukunft des Newsletters zu sichern. Genaueres hier.

Michael Seemann
IBAN: DE58251900010171043500
BIC: VOHADE2H


Im ND geht Stephan Kaufmann der Faschisierung des Westens auf den Grund und lässt sich dabei nicht von den Narrativen aus der politischen Mitte beirren, die den Faschismus als externe Verführung der unteren Klassen gegen die demokratische Ordnung erzählen.

Wer rechts wählt, ist eher arm oder armutsgefährdet oder fürchtet den sozialen Abstieg. Das, so lautet die gängige Erklärung, nutzen die Rechten aus und bieten den verunsicherten Menschen Sündenböcke, von den Migranten bis zur EU. Angesichts des Erfolgs dieser Strategie sähen sich Liberale und Konservative gezwungen, ihrerseits nach rechts zu rücken – quasi an einen Ort, an den die politische Mitte eigentlich nicht gehöre. Diese Erklärung des globalen Rechtstrends ist mangelhaft, denn sie betrachtet die Regression wie eine Bedrohung von außen. Es ist naheliegender, dass der Trend von der Mitte selbst ausgeht.

Die Erzählungen der Mitte und der Rechten haben entscheidende Überscheidungen.

Diese Unvereinbarkeit von Mitte und Rechts ist eine Fiktion. Denn beide teilen in ökonomischen Fragen das gleiche Gesellschaftsbild. Dieses Bild kennt keine Klassengegensätze im marxschen Sinne. Stattdessen wird der Gegensatz zwischen Kapital und Arbeit aufgelöst in ein funktionales Miteinander. Der Begriff des Kapitalismus wird dabei ersetzt durch den der »Wirtschaft«. An ihr sind alle ökonomischen Subjekte scheinbar gleichermaßen beteiligt – Lohnarbeitende, Kapitalistinnen, Grundeigentümer*innen gelten wie auch Beamte, Börsianerinnen und andere als »Einkommensbezieher« beziehungsweise »Erwerbstätige«. Gemeinsam produzieren sie die Wirtschaftsleistung und teilen ein Interesse an deren Erhöhung. Es ist eine Gesellschaft der Gemeinsamkeit, nicht der Gegensätze. Benannt wird die Gemeinschaft in Begriffen wie Bruttoinlandsprodukt, Volkseinkommen oder Nationalökonomie: Inland, Volk, Nation.

Dieser Verdacht erhärtet sich in der Krise: Gelten vorgestellte Gemeinschaftsgüter wie »unser Wohlstand« oder »unsere Industrie« als bedroht – wie derzeit – so beginnt die Suche nach jenen, die Ressourcen erhalten, obwohl sie nicht oder nicht genug zur Produktion des Reichtums beigetragen und sich folglich als wenig nützlich erwiesen haben. Dabei geraten zum einen Bezieher von sozialen Leistungen wie Bürgergeld ins Visier; zum anderen jene, die nicht von hier sind, die Migrant*innen. Sie werden verschärft nach Nützlichkeit sortiert oder zur Nützlichkeit angehalten.

In der Forderung nach Nützlichkeit, die sowohl die politische Mitte wie die Rechte stellt, ist der Übergang zum Leistungsrassismus angelegt beziehungsweise der Übergang zur »rohen Bürgerlichkeit«, die der Soziologe Wilhelm Heitmeyer »am meisten fürchte«. »Kapitalistische Kriterien von Effizienz und Verwertbarkeit gewinnen an Bedeutung. Menschen werden zunehmend nach diesen Kriterien beurteilt. Ein Jargon der Verachtung setzt sich durch.« Ihr zugrunde liegt ein ökonomisches Gesellschaftsbild, das in der Krise von der Politik flexibel gehandhabt werden kann. »Welchen Gruppen dann jeweils Ineffizienz und finanzielle Belastung zugeschrieben werden, ist eine Frage der Situation und der Definition«, schreiben die Soziolog*innen Eva Groß und Andreas Hövermann.

Ich finde, spätestens seit dem Merz-, Scholz-, Habeck-Wahlkampf ist dieser Befund nicht mehr wegzudiskutieren.


Marina Weisband hatte die Ehre zum 80. Jahrestag der Befreiung vom KZ-Buchenwald zu sprechen und ihre Rede spricht mir aus der Seele.

Wenn der Faschismus kommt, scheint noch immer die Sonne. Die Vögel singen. Sie gehen zur Arbeit. Alles ist normal. Nur trans Menschen verlieren ihre Rechte. Und Asylsuchende. Und Immigranten. Und Behinderte. Und Muslime. Und Juden. Und linke Journalisten. Und dann andere Journalisten. Und ich. Und Sie. Und niemandem ist mehr klar, wann es eigentlich zu spät wurde.

Sie traut sich bis zum Kern der faschistischen Ideologie vor – der Vorstellung der unterschiedlichen Wertigkeit von Menschen – vermutlich ahnend, dass sie die „politische Mitte“ da mit-adressiert.

Wir müssen uns aus dem Glauben an wertvolle und weniger wertvolle Menschen befreien. Aus der Sucht nach Status und Dynastie und Feinden. Aus dem „Wir“ gegen „Die“. Das ist vielleicht die schwerste Übung von allen. Denn wir alle sind mit der Gewalt der Vergangenheit aufgewachsen und von ihr geprägt. Waren irgendwo Opfer und wurden irgendwo zu Tätern. Und müssen lernen, uns selbst zu lieben. Und dann unseren Nachbarn. Und dann müssen wir lernen, für unsere Nachbarin eine Suppe zu kochen und spontan vorbeizubringen. Und uns mit der Mietgemeinschaft zu vernetzen. Und einen Park für Kinder zu gestalten. Und uns in der Gewerkschaft zu engagieren. Und mehr und mehr Netzwerke zu bauen, die resilient sind. Und solidarisch. Und sich gegenseitig beschützen. Wir müssen Demokratie nicht einfach nur verteidigen, wir müssen sie ausbauen! Jeden einzelnen Menschen darin als wertvollen Experten anerkennen, als gebraucht und bereichernd. Und wie passt das dazu, Nazis zu bekämpfen?


Anthropic hat wieder einmal eine seiner spannenden Forschungen zum Innenleben von LLMs veröffentlicht. Dabei haben sie sich unter anderem angeguckt, wie LLMs Fragen beantworten, mit Nichtwissen umgehen oder Gedichte schreiben. (Eine gute Zusammenfassung bietet auch T3N)

In diesem Newsletter sind wir bekanntlich der Überzeugung, dass „Large Language Models“ keine „Künstlichen Intelligenzen“ sind, die ein „World Model“ in ihrem digitalen „Mind“ entwickelt haben, sondern dass LLMs halbautomatische Semantik-Navigations-Maschinen sind und dass die vermeintliche „Intelligenz“ nicht in der Maschine, sondern in der Sprache liegt, also in den Mustern des Sprechens und Schreibens, die die Maschine im Zuge ihres Trainings mit Milliarden menschlichen Äußerungen extrahiert hat.

Dass so viele Menschen – insbesondere im Silicon Valley – auf die „Künstliche Intelligenz“-Erzählung reinfallen, liegt nicht daran, dass sie zu dumm sind oder die Technologie zu kompliziert ist, sondern daran, dass sie ihre eigenen Sinnprozesse nicht verstehen, bzw. missverstehen. Sie halten sich für „Individuen“, deren „Gehirne“ originäre „Gedanken“ produzieren, die ihnen Agency geben und verstehen nicht, dass sie ihre Gedanken, Erlebnisse und Vorstellungen entlang einer verteilt genutzten Cloud-Software entwickeln, die wir „Semantik“ nennen.

Mit „Semantik“ meine ich nicht „Worte“ oder „Bedeutungen“, sondern die vielfältigen Beziehungen der Zeichen zueinander und und das praktische Orientierungswissen, innere Zustände oder Beobachtungen mithilfe dieser Infrastruktur auszudrücken, voneinander zu unterscheiden und intersubjektiv zu bestätigen. LLMs dagegen drücken sich nicht aus, sondern bewegen sich mit einer Mischung aus Wahrscheinlichkeit und der Zugabe von Rauschen durch diese Struktur. Doch beide, Menschen und LLMs navigieren den Semantik-Space, nur anders.

Deswegen begleitete dieser Newsletter bereits Anthropics erste Versuche, eben diese „Semantiken“ („monosemantische Features“) der neuronalen Ebene zu isolieren und wunderte sich kein bisschen darüber, dass sich in unterschiedlichen Modellen dieselben Semantiken herausbilden, sind sie doch Abdruck derselben Struktur.

Und auch die neusten Forschungsergebnisse passen perfekt zu dieser Interpretation.

So stellt sich raus, dass LLMs abgefragtes Wissen entlang von semantischen Sinnpfaden ´ rekonstruieren. Den Satz „Fact: the capital of the state containing Dallas is“ vervolltständigt die LLM, indem es von den Schlüsselwörtern „Capital“ und „State“ ableitet, dass es eine Hauptstadt sagen soll, während ein zweiter Pfad den Sprung von „Dallas“ zu Texas und dann zusammen über den „say Capital“-Supernode bei „Say Austin“ rauskommt.

Was wir sehen, sind keine „logischen Schlüsse“, sondern ein „assoziatives Navigieren“ durch semantische Verknüpfungen.

Eine sicher noch wichtigere, aber auch nicht überraschende Erkenntnis ist, dass LLMs, obwohl sie immer nur das nächste Wort ausspucken, ihren Output planen. Etwa, wenn eine LLM dichtet, wie zB. folgendes Gedicht vervollständigt.

A rhyming couplet:
He saw a carrot and had to grab it,
His hunger was

Die LLM versucht zuerst einen plausiblen Reim auf „grab it“ zu finden („Rabbit“, „Habit“) und dann einen semantischen Pfad dahin zu konstruieren („a powerful habit“, „like a starving rabbit“)

We find evidence of both forward planning and backwards planning (albeit basic forms). First, the model uses the semantic and rhyming constraints of the poem to determine candidate targets for the next line. Next, the model works backward from its target word to write a sentence that naturally ends in that word.

Wem es zu weit geht, von Plänen zu sprechen, könnte auch „Rezepte“ sagen, oder wie Francois Chollet sie nennt: „emulated reasoning templates“, oder wie ich: makrosemantische Operationen. Pläne sind keine Geistesblitze genialer Individuen, sondern Strategien, die Welt zu navigieren. Für die LLM besteht die Welt aus Worten (Tokens) und so speichert sich das Modell beim Training eine riesige Bibliothek von makrosemantischen Programmen zusammen, aus der es schöpft, um plausible Pfade im Semantikraum zu finden.

Zuletzt noch das Beispiel, wie LLMs rechnen: Hier 36 + 59 =.

Low-precision features for “add something near 57” feed into a lookup table feature for “add something near 36 to something near 60”, which in turn feeds into a “the sum is near 92” feature. This low-precision pathway complements the high precision modular features on the right (“left operand ends in a 9” feeds into “add something ending exactly with 9” feeds into “add something ending with 6 to something ending with 9” feeds into “the sum ends in 5”). These combine to give the correct sum of 95.

Man könnte es „Heuristisches Rechnen“ oder „vibe calcing“ nennen, aber das ist halt kein Rechnen? Es sind „educated Guesses“, die mithilfe von Reinforcement-Learning präzisiert wurden, aber eben nur, indem das Raten durch das hinzufügen und üben von Millionen extra Pfaden immer ein bisschen weniger schlecht gemacht wird – aber niemals gut.

Das ist nicht nur die teuerste Art zu rechnen, die der Mensch sich je ausgedacht hat, sondern auch die unzuverlässigste?


Die Washington Post hatte letzte Woche die Hintergrundgeschichte von Sam Altmans Rauswurf Ende 2023 und mir wurden dabei viele Dinge klar, z.B., dass der ursprüngliche Coup von Ilia Sutskever and Mia Murati ausging.

Sutskever and Murati had been collecting evidence, and now Sutskever was willing to share. He emailed Toner, McCauley and D’Angelo two lengthy pdf documents using Gmail’s self-destructing email function.

One was about Altman, the other about Brockman. The Altman document consisted of dozens of examples of his alleged lies and other toxic behavior, largely backed up by screenshots from Murati’s Slack channel.

Murati war auch nach dem Coup weiter bei OpenAI und in hier öfters Thema, weil sie immer wieder scheinbar unabsichtlich peinliche News über OpenAI ausplauderte, zB. dass sie keine besseren Modelle im Lab testen, als sie öffentlich zur Verfügung stellen.

Sie hat mittlerweile ihr eigenes KI-Startup und ich gehe davon jetzt aus, dass die Indiskretionen keine Versehen waren, sondern ihre Art, sich an Altman zu rächen.

Dass Murati im Gegensatz zu den anderen nicht gefeuert wurde und Altman ihre Sticheleien ertragen musste, weist darauf hin, dass sie ordentlich Leverage über ihn hat und daher glaube ich, dass wir immer noch nur die halbe Story kennen.


Luciano Nooijen erklärt, warum er aufgehört hat, LLMs für die Programmierung zu benutzen. Er vergleicht das Programmieren mit LLM mit Teslas „Self Driving“-Feature, das ihm erschreckend schnell seine Fähigkeit nahm, Auto zu fahren.

If you drive a car often, you’ll know that when you’re driving on the highway, everything sort of happens automatically. Keeping your car in the lane at the right speed becomes a passive action, it does not require the type of focus that for example reading a book requires, it’s the type of focus that walking requires, it happens in the background of your mind.

In the period from 2019 to 2021 I exclusively drove my Tesla for longer rides. After 2021, I went back to driving regular cars and making this switch was definitely not what I expected. Driving on the highway required my full attention for the first month or so, I had to re-learn keeping the car in the middle of the lane without thinking about it.

Being reliant on Tesla’s FSD took away my own ability to go into autopilot.

Ähnlich ging es ihm, als er ohne LLM zu programmieren versuchte.

I felt less competent at doing what was quite basic software development than a year or so before. All of a sudden, it made it very clear to me how reliant I had become on AI tools. Anytime I defined a function, I paused in my editor to wait until the AI tools would write the implementation for me. It took some effort to remember what the syntax was to write unit tests by hand.

With my work, AI started to become less useful over time as well. Not only did it take out the fun for me, but I started to feel a bit insecure about making some implementation decisions myself. Outsourcing the decisions to the AI seemed a lot easier. But sometimes, the AI couldn’t figure things out, even with the best prompts. It was quite clear that because I did not practice the basics often, I was less capable with the harder parts as well.

Er beschreibt einen Verlust an „Fingerspitzengefühl“:

Though in my opinion a lot of being a “senior” is in soft-skills, when it comes to the technical hard-skills, a lot comes down to Fingerspitzengefühl. The longer you work with a language, framework or codebase, the more you develop this kind of intuition of what the correct approach is. The gut feeling of “something feels off” slowly turns into a feeling of “this is what we should do”.

This intuition is what I was slowly losing when relying on AI tools a lot. And this is coming from a lead developer. When I see a lot of hype about vibe coding, I can’t help but think: how do you exactly expect to vibe code your way to senior? Where will you get the skills from to maintain and extend the vibe-coded codebase when the AI tools are down, or have become too expensive?


Kathrin Becker beschreibt in der Berliner Gazette etwas ganz ähnliches für das Arbeiten mit und an Texten.

But it is only from the careful handling of writing, of language, that the interweaving of subject and text, the identification with and responsibility for the text arises. Only here does the irreducibly individual style emerge – that “absolutely free bond between language and its corporeal double”– which not only fosters the development of individual intellectual abilities, but – as a ‘living force’ – also ensures and nourishes the dynamism of language. The interposition of an algorithmic entity that takes over large or small parts of the writing process does not simply create a gap between author and text, making individual responsibility for one’s writing increasingly ambiguous. At the same time, it erodes the connection to and thus the foundation and mutability of the text of society.


Bei Pivot to AI hat David Gerard News zu Microsofts Ausstieg aus der Data-Center-Bubble zusammengetraten.

In February, stock analysts TD Cowen spotted that Microsoft had cancelled leases for new data centres — 200 megawatts in the US, and one gigawatt of planned leases around the world.

Microsoft denied everything. But TD Cowen kept investigating and found another two gigawatts of cancelled leases in the US and Europe. [Bloomberg, archive]

Bloomberg has now confirmed that Microsoft has halted new data centres in Indonesia, the UK, Australia and the US.

Es wird keine Agents geben, die „Intelligence Explosion“ fällt aus, AGI ist ein Fiebertraum und der Markt für LLMs und Bildgeneratoren ist zwar da, aber es wird kein Multi-Billionenmarkt, eher ein zwei-, höchstens dreistelliger Milliardenmarkt. Die Blase platzt.


Krasse Links No 48

Willkommen zu Krasse Links No 48. Navigiert Eure emotionalen Abhängigkeiten durchs Signal Gate, heute coden wir vibe, wenn Peter Thiel die Spiegelneuronen zur Systemkonkurrenz versloppt.


Von palästinensischen Opfern erfährt man meist nur die Statistik und das ist sicher auch ein Grund, warum, palästinensiches Leben in der westlichen Berichterstattung nicht zählt.

NPR hat das für eine Familie geändert, deren Schicksal von einer tödlichen Attacke auf ein privates Wohnhaus besiegelt wurde.

An Israeli strike on a Gaza apartment building killed 132 members of one family in October 2024. It was one of the deadliest Israeli strikes of the Israel-Hamas war.
[…]
Out of more than 1,000 strikes the group has assessed in the Gaza war, it said, the strike on the building housing the Abu Naser family was among the three deadliest.


Auch wenn ihr Signal-Gate sicher mitbekommen habt, lohnt es sich wirklich die beiden Stücke im Atlantic zu lesen.

Aber nachdem wir uns ein kurzes Schmunzeln gegönnt haben, möchte ich Euch noch Timothy Snyders Take dazu ans Herz legen.

But in the Signalgate scandal, we encounter something more chilling: our government is openly compromising our national security, the better to violate our rights. Its position is that it is worth risking the lives of soldiers abroad in order to be able to persecute civilians at home.

Snyder erinnert uns daran, dass dieser Signal-Gruppe kaum Einzelfall sein kann.

The assumption that Jeffrey Goldberg is the only person who was inadvertently added to a national security group, just because he is the only case we know about, is unsustainable.

No one during the chat wrote anything like: „hey, why are we using Signal?“ The reason that no one did so, most likely, is that they all do this every day.

Es ist also eine Angewohnheit dieser Regierung Entscheidungen in Singal Gruppen zu treffen. Und das trotz der enormen Risiken. Die Motivation kann nicht nur Bequemlichkeit sein.

But here’s the point: the authorities knew of these risks to national security, and thought that they were worth taking, and for a reason. I suggest that this reason is that Signal chats provide American authorities with cover to plan the violation of human rights.

Die größte Gefahr, die von Social Media für die Gesellschaft ausgeht, erwächst nicht aus Tiktok-verseuchten Jugendlichen, sondern aus verschlüsselten Chatgruppen mächtiger Menschen.


Nicholas Bequelin spricht mir in Foreign Policy aus der Seele, indem er den zentralen blinden Fleck aufdeckt, in dem die liberalen Eliten operieren: Putin und nun auch Trump sehen sich mit Liberalen Demokratien, Multilateralen Blöcken wie der EU und woken Kram wie „Menschenrechte“ in einer ideologischen Systemkonkurrenz.

This is because both traditional geopolitics and the realist school of international relations overlook a crucial dimension of state behavior in the international system: regime competition. While realism focuses primarily on power balances, territorial interests, and security concerns, it often neglects how the ideological nature of regimes—whether democratic or autocratic—profoundly shapes their strategic choices and interactions. It is within the framework of regime competition that Trump’s seemingly self-defeating policies can be understood as part of a deeper struggle between competing political systems. As Trump autocratizes elements of the American political system, his foreign policy increasingly espouses the characteristics of autocratic regimes. Whether deliberately or unwittingly, Trump’s policies so far are mostly in service of countering democratic restraints at home and abroad, reflecting his self-avowed preference for strongman rule over democratic oversight.

Diese ideologiosche Systemkonkurrenz erwächst nicht aus einem tief empfundenen politischen Glauben, sondern aus den materiellen Erfordernissen, die eigene Autokratie zu stabilisieren.

When a country turns into a democracy, it is accepted almost mechanically by a fairly homogeneous community of democratic states. This stems from the highly specific values that democratic regimes have in common, such as periodically elected governments, respect for the rule of law, the open character of their societies, and their proven tendency not to go to war with each other—a phenomenon known in political science as democratic peace theory. This cohesion is a distinct advantage in a competitive international system as well as a permanent pull for domestic political opposition in autocracies.

Autocracies, on the other hand, tend to be highly particularistic, each built on a fixed power structure that is highly contingent on historical, ethnic, social, or religious factors. Saudi Arabia, Venezuela, and Eritrea have almost nothing in common. Knowledge of China’s political system provides almost no insight into the functioning of the Russian state. Autocracies have fewer shared characteristics than democracies, face higher transaction costs in dealing with one another due to the closed nature of their societies, and, since “autocratic peace theory” has yet to be discovered, can never fully trust the others’ intentions. As a result, the coherence of the autocratic camp is always more tenuous than the more natural grouping of liberal democracies.

[…]

The logic of regime competition offers a potential explanation for why Trump is willing to impose enormous costs on long-standing U.S. geopolitical interests through unprecedented foreign and domestic initiatives. He is following the very strategy expected of an autocratic state by prioritizing the imperative to counter democratic forces both at home and abroad. It is autocratic regime consolidation—not the pursuit of national interest—that drives the U.S. administration’s seemingly chaotic and contradictory policies. Trump’s ambition to emulate strongman rule—evident in his frequent admiration for authoritarian leaders—puts him at odds with democratically elected leaders while earning him, at least rhetorically, the support of autocratic regimes. This backing, in turn, can be leveraged to further weaken democratic checks and balances at home.

Solange wir nicht verstehen, dass das Spiel, das gespielt wird Liberale Demokratien vs. oligarchische Autokratien ist, werden wir Putin und Trump weiter in die Arme laufen.


Versteht man diese Systemkonkurrenz, erahnt man wie komplett irre der Versuch ist, im Bundesrat Länderübergreifend Peter Thiels Palantier in den Politzeibehörden durchzudrücken.

Peter Thiel steht so ziemlich gegen alle Werte, die wir heute mit einer liberalen, freiheitlichen und sozialen Demokratie verbinden. Er bekämpft diese Werte aktiv mit seinem Einfluss und seinem riesigen Vermögen. Er ist ein Feind der Demokratie.

Und ausgerechnet einem Konzern, der mit diesem Mann verbunden ist, wollen wir viel Geld für eine hochumstrittene Überwachungssoftware zahlen, uns damit vertraglich an ihn binden, uns abhängig machen und sensible polizeiliche Daten über uns anvertrauen? Das kann doch alles nicht wahr sein.

Während „Blackrot“ bereit ist, aus Angst vor dem Russen unseren Wohlstand in Panzer umzumünzen, verscherbelt sie die Demokratie an die Tech-Oligarchen und trägt uns so auf der letzten Meile über Putins Ziellinie. Was genau wollen wir denn dann noch verteidigen?


Im Blog mit dem irre guten Titel „The Nerd Reich“ erzählt Gil Duran, wie Moritz Döpfner zum deutschen J.D. Vance aufgebaut wird. Duran zitiert das Manager Magazin, das davon erzählt, dass Moritz Döpfner, wie einst J.D. Vance erst bei Thiel Capital arbeitete und dann mit Thiels finanzieller Hilfe einen eigenen Investment Fond aufsetzt.

Thiel will contribute the majority of this, several insiders tell Manager Magazin. Thiel will be the anchor investor of the Döpfner fund and will support its development with $50 million. Moritz Döpfner and Peter Thiel declined to comment when contacted.

Fehlt nur noch die politische Karriere, aber da kann Papa Matthias sicher auch mithelfen.

Thiel’s investment in the Döpfner bloodline hardly seems coincidental. As journalist Eoin Higgins argues in Owned: How Tech Billionaires on the Right Bought the Loudest Voices on the Left, Thiel and his cohort are working to codify, capitalize, and normalize tech billionaire control of the media itself.


Eine der letzten Amtshandlungen von Moritz Döpfner bei Thiel Capital war offensichtlich das Investment in eine deutsche Drohnenfirma namens „Stark Defence“.

Reicht es Thiel nicht, unsere Polizeien in seine Cloud-GeStaPo zu integrieren? Ich will nicht auch noch von seinen Drohnen gejagt werden.


Wenn ihr die Gelegenheit habt, geht in „Spiegelneuronen„, den „dokumentarischen Tanzabend“ von Stefan Kaegi, mit Sasha Waltz & Guests und Rimini Protokoll, derzeit im Radialsystem.

Ich werde nichts verraten, außer dass es ein durch und durch dividuelles Erlebnis ist.


Im Prospect Magazin denkt man über die unvorstellbar riesige Generative KI-Blase nach.

Venture capital (VC) funds, drunk on a decade of “growth at all costs,” have poured about $200 billion into generative AI. Making matters worse, the stock market’s bull run is deeply dependent on the growth of the Big Tech companies fueling the AI bubble. In 2023, 71 percent of the total gains in the S&P 500 were attributable to the “Magnificent Seven”—Apple, Nvidia, Tesla, Alphabet, Meta, Amazon, and Microsoft—all of which are among the biggest spenders on AI. Just four—Microsoft, Alphabet, Amazon, and Meta—combined for $246 billion of capital expenditure in 2024 to support the AI build-out. Goldman Sachs expects Big Tech to spend over $1 trillion on chips and data centers to power AI over the next five years.

[…]

Between VCs, Big Tech, and power utilities, the bill for generative AI comes out to close to $2 trillion in spending over the next five years alone.

All diese Erwartungen und mit den Einnahmen läufts eher mau.

Yet OpenAI, the current market leader, expects to lose $5 billion this year, and its annual losses to swell to $11 billion by 2026. If the AI bubble bursts, it not only threatens to wipe out VC firms in the Valley but also blow a gaping hole in the public markets and cause an economy-wide meltdown.

[…]

The latest funding round is its third in the last two years, atypical for a startup, that also included a $4 billion revolving line of credit—a loan on tap, essentially—on top of the $6.6 billion of equity, revealing an insatiable need for investor cash to survive. Despite $3.7 billion in sales this year, OpenAI expects to lose $5 billion due to the stratospheric costs of building and running generative AI models, which includes $4 billion in cloud computing to run their AI models, $3 billion in computing to train the next generation of models, and $1.5 billion for its staff. According to its own numbers, OpenAI loses $2 for every $1 it makes, a red flag for the sustainability of any business. Worse, these costs are expected to increase as ChatGPT gains users and OpenAI seeks to upgrade its foundation model from GPT-4 to GPT-5 sometime in the next six months.

Financial documents reviewed by The Information confirm this trajectory as the startup predicts its annual losses will hit $14 billion by 2026. Further, OpenAI sees $100 billion in annual revenue—a number that would rival Nestlé and Target’s returns—as the point at which it will finally break even. For comparison, Google’s parent company, Alphabet, only cleared $100 billion in sales in 2021, 23 years after its founding, yet boasted a portfolio of money-making products, including Google Search, the Android operating system, Gmail, and cloud computing.

Silicon Valleys Problem sitzt jedoch noch tiefer als ihr KI-Investment. Wenn KI fällt, dann stehen die Tech-Lords ohne ihre letzte Hose da.

The basic problem facing Silicon Valley today is, ironically, one of growth. There are no more digital frontiers to conquer. The young, pioneering upstarts—Facebook, Google, Amazon—that struck out toward the digital wilderness are now the monopolists, constraining growth with onerous rentier fees they can charge because of their market-making size. The software industry’s spectacular returns from the launch of the internet in the ’90s to the end of the 2010s would never come back, but venture capitalists still chased the chance to invest in the next Facebook or Google. This has led to what AI critic Ed Zitron calls the “rot economy,” in which VCs overhype a series of digital technologies—the blockchain, then cryptocurrencies, then NFTs, and then the metaverse—promising the limitless growth of the early internet companies. According to Zitron, each of these innovations failed to either transform existing industries or become sustainable industries themselves, because the business case at the heart of these technologies was rotten, pushed forward by wasteful, bloated venture investments still selling an endless digital frontier of growth that no longer existed. Enter AGI, the proposed creation of an AI with an intelligence that dwarfs any single person’s and possibly the collective intelligence of humanity. Once AGI is built, we can easily solve many of the toughest challenges facing humanity: climate change, cancer, new net-zero energy sources.

Es ist schwer vorstellbar, aber das heutige Silicon Valley ist ein One Trick Pony:

Mitte der 2000er sind sie in den Topf voller Netzwerkeffekte gefallen und seitdem generieren ihre Plattformen LockIn-Renten, deren Höhe sie bequem via Enshittyfication regulieren können. DAS ist ihre einzige „Innovation“, alles andere ist Tand.

Und weil sie sich seitdem als Genies erzählen, verstehen sie nicht, warum keiner ihrer anderen Hirnfürze funktioniert.


Elon Musk sagt, er habe X mit seiner anderen Firma xAI gekauft.

Elon Musk said on Friday that his startup xAI has merged with X, his social network, in an all-stock transaction that values the artificial intelligence company at $80 billion and the social media company at $33 billion.

Hier was wirklich passiert ist:

Musk hat das Geld der Investoren aus seinem KI-Startup genommen (das er eh nicht mehr braucht, weil die KI-Blase jetzt eh platzt, siehe oben) und damit die Schulden vom Kauf von X beglichen (das eh schon kurz vor Bankrott steht).

Und er musste diese Schulden tilgen, weil die Kredite mit Tesla Aktien Tesla gesichert waren und Tesla kurz vor Kollaps steht. Fällt Tesla unter einen bestimmten Wert, callen die Banken Margin, was sein ganzes Nerd-Reich einstürzen lassen könnte.

Es war eine Rettungsaktion.

Alles was er dann noch machen musste, ist die Verträge von X in den Leitz-Ordner mit der Aufschrift „XAi“ zu heften, fertig!


Vielen dank, dass Du Krasse Links liest. Da steckt eine Menge Arbeit drin und bislang ist das alles noch nicht nachhaltig finanziert. Da heute exakt Monatsende ist, kann ich sagen, dass ich diesen Monat genau € 251,92 – eingenommen habe, von eigentlich notwendigen € 1.500,-. Mit einem monatlichen Dauerauftrag kannst Du helfen, die Zukunft des Newsletters zu sichern. Genaueres hier.

Michael Seemann
IBAN: DE58251900010171043500
BIC: VOHADE2H


Contrapoints hat ein neues Video veröffentlicht. Das wars. Das ist die Empfehlung.


Tante bringt OpenAIs Grenzverletzung, ihr neues Bildgenrierungsmodell auf Studio Ghibli Filme zu fine tunen, auf den Punkt.

It is a display of power: You as an artist, an animator, an illustrator, a writer, any creative person are powerless. We will take what we want and do what we want. Because we can.

Ansonsten bleibt nur mit den Worten von Hayao Miyazaki zu sagen:

“I am utterly disgusted. If you really want to make creepy stuff, you can go ahead and do it. I would never wish to incorporate this technology into my work at all.”
[…]
“I feel like we are nearing the end of times. We humans are losing faith in ourselves.”


Allison Morrow kauft auf CNN das Narrativ nicht, dass Apple an Generativer KI gescheitert sei. Alle seien daran gescheitert.

Apple, like every other big player in tech, is scrambling to find ways to inject AI into its products. Why? Well, it’s the future! What problems is it solving? Well, so far that’s not clear! Are customers demanding it? LOL, no. In fact, last year the backlash against one of Apple’s early ads for its AI was so hostile the company had to pull the commercial.

Die Wahrheit ist, KI ist über den bereits bestehenden Usecase hinaus nicht (oder kaum) Produktfähig.

Back in June, Apple floated a compelling scenario for its newfangled Siri. Imagine yourself, frazzled and running late for work, simply saying into your phone: Hey Siri, what time does my mom’s flight land? And is it at JFK or LaGuardia? In theory, Siri could scan your email and texts with your mom and give you an answer. That saves you several annoying steps of opening your email to find the flight number, copying it, then pasting it into Google to find the flight’s status.

If it’s 100% accurate, it’s a fantastic time saver. If it is anything less than 100% accurate, it’s useless. Because even if there’s a 2% chance it’s wrong, there’s a 2% chance you’re stranding mom at the airport, and mom will be, rightly, very disappointed. Our moms deserve better!

Mein Take: Die Funktionsweise des Transformers macht es unmöglich, eine gewisse Unschärfe zu überwinden, denn es ist exakt diese Unschärfe, die die Illusion von Intelligenz überhaupt erst ermöglicht.


Eine Studie hat Zitationen in KI-Suchmaschinen untersucht:

Citation error rates varied notably among the tested platforms. Perplexity provided incorrect information in 37 percent of the queries tested, whereas ChatGPT Search incorrectly identified 67 percent (134 out of 200) of articles queried. Grok 3 demonstrated the highest error rate, at 94 percent. In total, researchers ran 1,600 queries across the eight different generative search tools.

Das macht Sinn. Je genauer eine Information reproduziert werden muss, desto stärker schlägt die eingebaute Unschärfe ins Gewicht.


Auch das „Vibe-Coding“ – also das Programmieren via LLM, dessen alltäglichen Nutzen ich durchaus verstehe – entpuppt sich bei genauerem Hinsehen als … schwierig.

The models took on tasks cumulatively worth hundreds of thousands of dollars on Upwork, but they were only able to fix surface-level software issues, while remaining unable to actually find bugs in larger projects or find their root causes. These shoddy and half-baked „solutions“ are likely familiar to anyone who’s worked with AI — which is great at spitting out confident-sounding information that often falls apart on closer inspection.

Though all three LLMs were often able to operate „far faster than a human would,“ the paper notes, they also failed to grasp how widespread bugs were or to understand their context, „leading to solutions that are incorrect or insufficiently comprehensive.“

Read my Lips: Es wird keine Agents geben.


Jason Kobler fasst KI-Slop als Brute Force Hacking des Newsfeed-Algorithmus.

The best way to think of the slop and spam that generative AI enables is as a brute force attack on the algorithms that control the internet and which govern how a large segment of the public interprets the nature of reality. It is not just that people making AI slop are spamming the internet, it’s that the intended “audience” of AI slop is social media and search algorithms, not human beings.

What this means, and what I have already seen on my own timelines, is that human-created content is getting almost entirely drowned out by AI-generated content because of the sheer amount of it. On top of the quantity of AI slop, because AI-generated content can be easily tailored to whatever is performing on a platform at any given moment, there is a near total collapse of the information ecosystem and thus of „reality“ online. I no longer see almost anything real on my Instagram Reels anymore, and, as I have often reported, many users seem to have completely lost the ability to tell what is real and what is fake, or simply do not care anymore.

Daraus folgt eigentlich, dass zwei Algorithmen kurzgeschlossen werden. Generative KIs versuchen den Newsfeed-Algo zu hacken und als Reward Aufmerksamkeit abzusaugen. Die ersten Opfer werden Influencer*innen sein.

Both Mustafa and Bitton tell users that it makes no sense trying to become the next Mr. Beast, who they see as a singular figure. “All these ‘premium’ channels with perfect production? They’re slowly dying. Why? Because they need a $5,000 camera, studio lighting, professional editing, days to produce… And for what?,” Bitton writes. “To compete with Mr Beast and barely get 1000 views? Heck even if they get 100k views, it would still not be worth it. Because it doesn’t even compare with what creators who pump out consistent Shorts make.”

Das ist alles sehr ekelhaft, indeed, aber ist das ein nachhaltiges Geschäftsmodell?

Even though many of the AI images and reels I see have millions of views, likes, and comments, it is not clear to me that people actually want this, and many of the comments I’ve seen are from people who are disgusted or annoyed. The strategy with these types of posts is to make a human linger on them long enough to say to themselves “what the fuck,” or to be so horrified as to comment “what the fuck,” or send it to a friend saying “what the fuck,” all of which are signals to the algorithm that it should boost this type of content but are decidedly not signals that the average person actually wants to see this type of thing. It’s brute forcing a weakness in the Instagram algorithm that takes any engagement at all as positive signals, and the people creating this type of content know this.

Die Verschmelzung von News-Feed Algo und Generativer KI ist die endgültige semantische Schließung. Das Limbische System tauscht die Neokortex durch Slop-Machines aus.


Eine unter anderem von OpenAI selbst durchgeführte Studie zur Nutzung von Chatbots, bringt eine creepy Erkenntnis zu tage.

Though the vast majority of people surveyed didn’t engage emotionally with ChatGPT, those who used the chatbot for longer periods of time seemed to start considering it to be a „friend.“ The survey participants who chatted with ChatGPT the longest tended to be lonelier and get more stressed out over subtle changes in the model’s behavior, too.

[…]
Perhaps the biggest takeaway, however, was that prolonged usage seemed to exacerbate problematic use across the board. Whether you’re using ChatGPT text or voice, asking it personal questions, or just brainstorming for work, it seems that the longer you use the chatbot, the more likely you are to become emotionally dependent upon it.

Die enormen potentiale von automatisierten „abusive Relationships“ als Geschäftsmodell hatte ich schon mal hier beschrieben und wenn die KI-Branche irgendwas retten wird, dann vermutlich die ruchlose Ausbeutung emotionaler Abhängigkeit.