Krasse Links No 8.

Willkommen bei Krasse Links No. 8. Macht es euch bequem und holt die Butterstulle raus. In der heutigen Ausgabe machen wir zusammen mit KI eine Vergnügungsfahrt entlang der Abgründe der Silicon Valley Ideologien.



Anfang der Woche wurde endlich das Interview von Don Lemon mit Elon Musk ausgestrahlt und um es ultrakurz zusammenzufassen: Musk is extremely unwell. Es gäbe tausend Dinge zu sagen (bei Hakendran gibt es eine gute Besprechung), aber ich will nur einen Aspekt herausgreifen: Musk glaubt, dass die Sicherheit von Flugzeugen und von ärztlichen Behandlungen (und allem anderen) durch Anstrengungen in Sachen Diversity (DEI) unterminiert wird und er lässt sich von noch so vielen Studien nicht vom Gegenteil überzeugen, unter anderem weil seine Replyguys auf X das Gegenteil behaupten, aber eigentlich, weil die Idee biologisch bedingter Kompetenzunterschiede tief in sein Denken eingelassen ist.

Das Valley hat nicht erst seit dem KI-Hype eine Obsession mit Intelligenz. James Damore berühmt berüchtigtes Memo bei Google, das behauptete, die Hürden für Frauen in der Techbranche seien biologisch bedingte Kompetenzunterschiede, war nur der erste öffentlich wahrnehmbare Rülpser dieses Denkens. Bereits lange davor hatte sich in der sogenannten „Rationalist-Community“ ein Denkkonzept namens „Race-Realism“ entwickelt, was im Kern der alte, normale Rassismus ist, aber mit Fußnoten. Schon die klassische Intelligenzforschung ist aus der Eugenetik entsprungen, hatte als Scientific Racism eine Renaissance 1980ern mit dem Buch The Bell Curve und spukt bis heute in den Gehirnen von Thilo Sarrazin bis Elon Musk bis herum.

Motherjones hat eine gute Zusammenfassung von Musks Historie zur Verbreitung von neo-eugenetischen Rassentheorien auf X – hier zugehörige das Video von Garrison Hayes.

“Musk is amplifying users who will incorporate cherry-picked data and misleading graphs into their argument as to why people of European descent are biologically superior, showing how fringe accounts, like user @eyeslasho, experience a drastic jump in followers after Musk shares their tweets. The @eyeslasho account has even thanked Musk for raising “awareness” in a thread last year. (Neither @eyeslasho nor Musk, via X, responded to Garrison’s request for an interview.)“

Musk hat seit der Übernahme von Twitter hart daran gearbeitet, diese Ideen in die Welt zu tragen und kann jetzt mit einigem Recht als der reichweitenstärkste „White Nationalist“ der Welt gelten. Musk hat immer wieder klar gemacht, dass er bereit ist, viele Milliarden Dollar in X zu versenken, um die Plattform zu einem zentralen Verbreitungsmedium genau dieser Ideologie umzufunktionieren.

Leute auf X sagen oft immer noch „Twitter“ zu dem Dienst und glauben Musk damit irgendwie zu ärgern, dabei ist das eher ein Teil ihrer eigenen Verdrängungsstrategie. Sie können nicht akzeptieren, dass Twitter aufgehört hat zu existieren und sie ihre Witzchen jetzt auf einer Nazipropagandawaffe veröffentlichen.


Die Politikwissenschaftlerin Jennifer D. Sciubba war bei Ezra Klein, um über den globalen Demographischen Wandel zu sprechen. Klein leitet damit ein, dass der „Population Collaps“ eines der Hauptsorgen in Silicon Valley Kreisen ist und in dem Interview mit Sciubba wird deutlich warum: Die demographische Entwicklung verläuft nämlich nicht im Gleichschritt, sondern die Geburtenrate in den Regionen unterscheidet sich enorm. Während europäische und asiatische Länder teils schon lange unterhalb der Reproduktionsgrenze von 2,2 Kindern liegen, gibt es Regionen in Afrika immer noch durchschnittliche Geburtenraten jenseits von 5 Kinder haben. Das bedeutet, dass sich die Weltbevölkerung nicht nur auf ihren Peak zubewegt, sondern sich gleichzeitig in ihrer ethnische Zusammensetzung ändert.

Niemand promotet den „Population Collaps“ lauter als Elon Musk. Schon 2019 hatte er auf eine KI-Konferenz gesagt:

„Assuming there is a benevolent future with AI, I think the biggest problem the world will face in 20 years is population collapse,”

2022 bezeichnete er den Population Collaps als ein größeres Problem als den Klimawandel. Musk steckt außerdem Millionensummen in Forschung zu dem Thema, die ihm aber trotzdem nicht recht geben will. Musk ist außerdem ein Pro-Natalist und hat 11 Kinder mit drei Frauen.

Doch Musks vorgebliche Sorge vor dem „Population Collaps“ ist nur eine ziemlich durchsichtige Front für seine eigentliche Angst, nämlich vor der Veränderung der Zusammensetzung der Weltbevölkerung, denn das bedeutet in der Denkart von Musk gleichzeitig eine Minderung der Weltdurchschnittsintelligenz, was für ihn und vielen anderen im Silicon Valley einer Menschheitskatastrophe gleichkommt.

Um das zu verstehen, muss man den Kern der Ideologie des Effektive Altruism und des daran verkoppelten „Longtermism“ verstehen, dem nicht nur Elon Musk sich zugehörig fühlt, sondern ein Großteil der Silicon Valley Elite. Longtermists glauben, dass der Menschheit eine wunderbare Zukunft bevorsteht, wenn in einigen Hundert Jahren Dröfzigtrilliarden Seelen (simuliert oder biologisch ist egal) das Universum bevölkern, weil das ja klar ist. Ihre Ethik besagt nun, dass jede Handlung, die dieser Zukunft zuträglich ist, milliarden mal viel ethischer ist, als – idk – Menschen im hier und jetzt zu helfen. Mit anderen Worten, das viele Geld das die Techbros verdienen, ist bei ihnen selbst und ihresgleichen viel ethischer angelegt, solange sie zum Beispiel super hart über Dinge wie „AI Safety“ nachdenken.

Longtermism ist durch seine Bevölkerungsprojektion im Kern eugenetisch, denn in dem Weltbild ist Intelligenz gleichzeitig das Ziel, wie auch der Weg zum Ziel. Daher sind tatsächliche Katastrophen wie der Klimawandel, die Millionen, vielleicht sogar Milliarden Menschen das Leben kosten, durchaus hinehmbar (manche würden sie hinter vorgehaltener Hand sogar begrüßen, da „natürliche Auslese“). Aber eine Reduzierung des Welt-IQs durch Verschiebung der ethnischen Zusammensetzung der Weltbevölkerung vermindert die Chance auf das Trilliardenreich in der Zukunft und ist somit eine SÜNDE!!!11

Seit Musk die Maske fallen gelassen hat und auf X offen die „Great Replacement“ Verschwörungstheorie promotet, muss man gar nicht mehr so tief im ideologischen Keller graben, um zu verstehen, dass er ein Nazi ist, aber es hilft, um zu verstehen, welche Art von Nazi er ist.

Um den Schwachsinn aber nicht so ungechallenged stehen zu lassen, sei an dieser Stelle Theresa Bückers neuer Newsletter empfohlen, in dem sie unter anderem aufbereitet, wie der Rückgang der Geburtenraten und das veraltete Rollenbild von Männern zusammenhängen.



Ein spannendes Paper hat sich den Content auf 120 Facebook-Pages angeschaut, die mindestens 50 KI generierte Inhalte verbreitet hatten und von denen nicht wenige viral gingen. Unter anderem der oben gezeigte Shrimp-Jesus. Das, was da passiert wirkt für normale Menschen ziemlich Random aber die Forscher*innen geben auch ein Rational für den Erfolg dieser Bilder:

„You perhaps feel motivated to share it with your friends, so that they can share in your WTF moment.“

Ryan Broderick hatte zudem darauf aufmerksam gemacht, dass christlicher Content auf Facebook auch deswegen häufig viral geht, weil Christen gerne reflexartig „Amen“ unter jede Jesusdarstellungen kommentieren.

„You get people to say “Amen,” underneath a post, the post gets recommended to others, who say “Amen,” as well, etc. This is especially powerful on the platform right now because as news has been deprioritized on the platform, a lot more religious content has bubbled to the surface. This is why one the largest publishers on the site for the last six months has been a website literally just called catholicfundamentalism.com. it’s getting more engagement on Facebook, according to Newswhip, than, literally, every other publisher on Earth.“

Roland Meyer sieht darin sogar die mögliche Geburtsstunde eines neuen Kultes.

Ich für meinen Teil glaube allerdings, dass es sinnvoller ist, ganz anders über dieses und ähnliche Phänomene nachzudenken:

Zunächst stell Dir einen Raum mit allen denkbaren Bildern vor, also praktisch einen unendlichen Space, bei dem 99,99999,etc % aller Bilder aus undifferenziertem Rauschen bestehen (für Kulturmenschen: Think Borges’ Bibliothek von Babel).

Als nächstes stelle Dir alle tatsächlich existierenden Bilder als Subset dieses unendlichen Möglichkeitsraumes vor. Auch dieser Space ist ziemlich groß, immerhin enthält er von der Mona Lisa bis zur Buntstiftzeichnung deines dreijährigen Neffen alle tatsächlich realisierten Bilder der Welt. Und doch ist dieser Space innerhalb des Möglichkeitsraums verschwindend klein, vergleichbar etwa mit der Erde innerhalb der Universums. Als nächstes fällt dir auf, dass die existierenden Bilder sich nicht random über den Möglichkeitsraum verteilen, sondern dass sie alle miteinander auf vielfältige Arten zu einem vieldimensionalen Netzwerk verbunden sind. Alle Bilder haben Dinge mit anderen Bildern gemeinsam (dargestellte Objekte, Stile, Perspektiven, Farbspektren, etc.) und verweisen so aufeinander, sind miteinander verbunden. Gemeinsam bilden sie also eine Art struppiges aber zusammenhängendes „Gewächs“ innerhalb des Möglichkeitsraums.

In der Informatik nennt man dieses Gewächs einen „Search Tree“, denn, wenn alle Bilder über unterschiedliche Features aufeinander verweisen, kann man von einem Bild aus andere Bilder finden, indem man entlang der Vektoren des Netzwerkes Elemente, Stile, Farben, Objekte, etc. variiert. Wann immer dein Neffe den Buntstift in die Hand nimmt, wann immer Du ein Foto schießt, wann immer ein Maler malt oder Midjourney generiert, kann das als Suchbewegungsschritt am Rande des Search-Trees im Möglichkeitsraum aller Bildern verstanden werden.

Die Bilder, die bei diesen Suchoperationen herausfallen sind mal mehr oder mal weniger fähig, auf Social Media viral zu gehen – und das ist die Suchfunktion der Algo-Hustler auf Facebook, die den Shrimp Jesus entdeckt haben.

Algo-Hustler gibt es, seit es algorithmische Timelines gibt, aber mit generativer KI haben sie ein ganz neues Werkzeug, um den Raum der möglichen Bilder automatisiert abzutasten und die Ergebnisse per Trial&Error auf ihr virales Potential zu testen.

Sorry, für die längliche Erklärung, aber ich denke, diese Art über das Phänomen nachzudenken hilft zu verstehen, wo die Reise hingeht. Zunehmend viele, zunehmend mächtige generative KIs werden in immer größerer Geschwindigkeit und Präzision den Möglichkeitsraum der Bildern ausmappen und uns die Resultate an den Kopf werfen, bis irgendwas viral geht und die Hustler Geld mit Werbeeinblendungen machen können. Und wenn das nur bei jedem Millionsten Bild klappt – so what? Ist halt ein Geschäftsmodell.



Kontrastreicher zum Muskinterview könnte das Interview mit Sam Altman bei Lex Fridman gar nicht sein. Da sitzt ein sehr aufgräumter, fast bescheiden wirkender CEO, der seine Vision von AGI teilt und nebenbei über den Streit mit Musk spricht. Lex Fridman und er reden über Musk, wie von einem Toten („Ich vermisse den alten Elon“).

Aber man sollte sich keinen Illusionen hingeben. Altmans Visionen von der Zukunft sind keinen Deut weniger faschistisch als die von Musk.

Ein Thema der Unterhaltung ist natürlich AGI (Artificial General Intelligence), ein ziemlich fuzzy Konzept, das den Meilenstein markieren soll, wenn KI kompetenzmäßig in etwa auf Augenhöhe mit Menschen agiert, was das erklärte Ziel nicht nur von OpenAI, sondern so ziemlich allen relevanten KI-Startups und -Konzernabteilungen ist.

Versucht man sich AGI vorzustellen, dann denkt man an ein Computer der super kluge Antworten auf super schwierige Probleme findet und auch Altman schürt diese Erwartung, wenn er sagt:

„I think when a system can significantly increase the rate of scientific discovery in the world, that’s a huge deal. I believe that most real economic growth comes from scientific and technological progress.“

Das klingt toll. Ein Computer, der uns Lichtjahre an wissenschaftlichem Fortschritt beschert! Aber ich denke, diese Vorstellung sollten wir zunächst beiseite schieben und uns lieber die offzielle Definition von AGI in der OpenAI Charta anschauen, die da lautet:

„highly autonomous systems that outperform humans at most economically valuable work“

Diese Definition erlaubt einen Einblick in das Silicon Valley-Denken, das Einkommen als objektiv messbaren Proxy für Intelligenz hernimmt, was natürlich ein willkommenes Narrativ für die Tech-Milliardäre ist. Aber diese Definition vereist noch auf tiefere ideologische Schichten (neben der Eugenetik) der KI-Forschung.

Seit einiger Zeit hat sich vom Longtermism ein neuer Flavor in der TESCREAL-Melange abgespalten: E/acc, oder Effective Accelerationalism. Einfach erklärt: Während Longtermists größtenteils eine AGI-Zukunft begrüßen, aber zu enormer Vorsicht mahnen, sehen die Accelrationists es als eine Art unterlassene Hilfeleistung an, AGI nicht so schnell wie möglich aufzuwecken, um damit die Weltprobleme zu lösen. Sam Altman wird immer mal wieder der e/acc zugeordnet was einigen Interpretationen zufolge auch der eigentliche Konflikt um seinen CEO-Posten Ende letzten Jahres war.

E/acc erbt einige Anleihen beim ziemlich durchgeknallten britischen Cyberkapsper Nick Land, der schon in den 1990er Jahren eine gewisse Bekanntheit erlangte und dann immer mehr in die rechtsextreme Szene abgedriftet ist (Hier eine gute Einführung). In seiner aktuellen Variante basiert der Accelerationism allerdings mehr auf der physikalischen Beobachtung, dass jede Form von Leben darauf ausgerichtet ist, Energie für eigene Zwecke umzuwandeln und damit einhergehend die Entropie zu erhöhen. Daraus ergibt sich ein Weltbild, in dem die Erhöhung von Entropie durch ein System als Maßstab für dessen Erfolg gilt – ja, auch für den Erfolg von Gesellschaften. Wenn man einem e/acc KI-Heini also an den Kopf wirft, dass sein System unfassbar viel Energie verschleudert um – basically – nutzlose kulturelle Exkremente zu produzieren, wird er sich wahrscheinlich für das Kompliment bedanken.

In diesem Substack-Artikel werden die Glaubenssätze der Ideologie sehr konzise zusammengefasst (man beachte, wie Sam-Altman-Tweets den ganzen Artikel sprenkeln). Nebenei wird auch klar gemacht, dass der Kapitalismus selbst als eine Form von Intelligenz verstanden wird, der Bedingungslos zu gehorchen ist:

Capitalism is hence a form of intelligence; dynamically morphs the meta-meta-organism such that any sort of utility/energy in the environment is captured and utilized towards the maintenance and growth of civilization.

Weiter heißt es:

Effective accelerationism aims to follow the “will of the universe”: leaning into the thermodynamic bias towards futures with greater and smarter civilizations that are more effective at finding/extracting free energy from the universe and converting it to utility at grander and grander scales.

Und ganz im Ernst: wer würde es schon wagen, dem Universum zu widersprechen??

E/acc ist eine totalitäre Ideologie, die in ihrem Fortschrittsverständnis eine radikalisierte, quasireligiöse Form des Kapitalismus anbetet und alle seine negativen Effekte als unvermeidbare „Cost of Doing Business“ betrachtet. Der Planet und seine Bewohner sind im Zweifel die notwendigen Opfergaben an den Weltgeist.


Dass KI eine Bubble ist, geben sogar diejenigen zu, die grundsätzlich an die Nützlichkeit der Technologie glauben. Schon Ende letzten Jahres sinnierte Cory Doctorow darüber, welche Art von Bubble generative KI ist. Ist es eine, die nützliche Infrastruktur hinterlässt (wie die Techworker*innen nach der Dotcom-Bubble oder das Glasfasernetz von Worldcom), oder ist es eine Bubble, die nichts hinterlässt (wie Enron oder der Cryptohype)?

Doctorows wesentliches Argument ist dasselbe, das wir im Newsletter zur politischen Ökonomie von KI ebenfalls in das Zentrum rückten:

„AI decision support is potentially valuable to practitioners. Accountants might value an AI tool’s ability to draft a tax return. Radiologists might value the AI’s guess about whether an X-ray suggests a cancerous mass. But with AIs’ tendency to “hallucinate” and confabulate, there’s an increasing recognition that these AI judgments require a “human in the loop” to carefully review their judgments.“

Mit anderen Worten: Die „Value Proposition“ von KI, nämlich, den Menschen Arbeit abnehmen/wegnehmen, geht wegen Unzuverlässigkeit auf absehbare Zeit nicht auf, weswegen die Blase irgendwann platzen wird. Wie ich aber ebenfalls im Newsletter ausgeführt habe, gilt das aber nicht für alle Usecases und wie man oben an Shrimp Jesus sehen kann, sind die Automatisierungspotentiale für manche Anwendungsbereiche durchaus gegeben.

Kurz nach Veröffentlichung des Altman-Interviews wurde bekannt, dass OpenAI mit der kommenden Modellversion auch „Agents“ veröffentlichen wird. Agents sind Chatbots, die nicht einfach nur Texte kreieren, sondern autonom Ziele verfolgen können (ausführliche Erklärung). Wenn man ihnen zum Beispiel sagt: Buche eine Reise für zwei Personen irgendwo in der Sonne für wenig Geld, würden sie die Aufgabe in zu lösende Schritte einteilen und dann einen Task nach dem anderen abarbeiten, bis am Ende zwei Flugtickets plus Hotelbuchung herausfallen.

Auch das klingt ziemlich toll und einige sehen in solchen Systemen die Zukunft, aber mein Eindruck ist, dass auch hier noch sehr viel Zeit vergehen wird, bis man den immer noch notorisch unzuverlässigen KIs so relevante Entscheidungen anvertraut.

Was dagegen schnell passieren wird, ist, dass man Agents Geld in die Hand gibt, um Geld zu verdienen, denn hier sind die Risiken durchaus kalkulierbar. Die Experimente dazu laufen bereits auf Basis der aktuellen Modelle, aber um wirklich erfolgreich und autonom zu sein, sind sie offenbar noch nicht gut genug, was sich aber mit GPT-5 ändern könnte.

Im Gegensatz zu dem, was viele Menschen (auch außerhalb des Valleys) denken, braucht es zum Geldverdienen nicht sonderlich viel Intelligenz. Ich kenne die Spammer, die die Facebookpages mit Shrimp Jesus und Co betreiben nicht, aber ich habe keinen Grund davon auszugehen, dass es sich dabei um Genies handelt. Trotzdem denke ich, dass sie wahrscheinlich ganz gut an dem Quatsch verdienen? Sie spielen halt so rum, probieren Dinge aus und das klappt dann manchmal und das reicht doch schon. Der Reiz daran, KI-Agents zu haben, ist also nicht, dass man damit super schlauere Dinge machen kann, sondern dass man schneller und mehr dumme Dinge ausprobieren kann.

Stellt man sich den Möglichkeitsraum aller Tätigkeiten und darin den Search-Tree aller existierenden ökonomisch viablen Tätigkeiten vor, dann sind an dessen Rändern noch schier unendlich viele Arbitrage-Gelegenheiten zu finden, die man nun mit solchen Agents automatisiert ausmappen kann. Eine Möglichkeit solche Gelegenheiten zu finden, wäre zum Beispiel Agents ständig monitoren zu lassen, welche Produkte gerade irgendwie Hip oder viral sind (Pokemonkarten, Stanley Cup, Shrimp Jesus-Stauen, whatever) und dann sofort mit einem mediokren Ripoff oder Metoo-Produkt am Start zu sein. Solche Gelegenheiten zu finden, bekommen KIs sicher bald hin und Mockups zu generieren geht wahrscheinlich heute schon automatisiert. Die Produktion ist eine Herausforderung, aber in China gibt es bereits gute Infrastruktur dafür. Ein Dropshipping-Onlineshop aufzusetzen ist ebenfalls einfach und standardisiert und sogar die Werbeclips können demnächst KI-generiert werden.

Und wer jetzt sagt, dass das vielleicht an der einen oder anderen Stelle hakt, ok: dann schaut halt an diesen Stellen kurz ein Mensch drüber. Und wer jetzt sagt, dass solche Agents ja nicht alle ökonomisch erfolgreich sein werden. Ok: dann schicke ich 1000, 10.000 oder 100.000 von denen an die Arbeit und wenn 20 % der Agents erfolgreich sind, habe ich bereits ne Menge Geld verdient. Ist halt ein Numbersgame.

Schau. Ich weiß nicht ob und wann AGI wirklich kommt und was dann passiert. Aber ich bin mir ziemlich sicher, dass in weniger als fünf Jahren für jeden von uns etwa 1000 solche Agents existieren, die alle daran arbeiten uns irgendeinen sinnlosen Schrott anzudrehen. Und sie werden erfolgreicher sein, als wir denken.

Und ja, ich kann mir dann durchaus vorstellen, dass AGI in der Definition von OpenAI dann irgendwann greift: Wenn spammige Dropshipping-Schemes einen Großteil aller ökomomischen Aktivitäten ausmachen, ist sie ja quasi erfüllt. OpenAI wird dabei ein Plattformgeschäftsmodell betreiben und bei der Erhöhung des allgemeinen Rauschens kräftig mitverdienen.


David Karpf hat die interressante Theorie verbloggt, dass einige der hier geschilderten Phänomene durch das Aufpumpen der Vermögen der Superreichen durch das Quantitative Easing der Zentralbanken während der Coronazeit ausgelöst worden sei. Vor Covid war Elon Musk 27 Milliarden Dollar schwer, nach Corona war er auf einmal dreistelliger Milliardär. Wie Musk ging es vielen Milliardären, vor allem Techmilliardären.

Nun kann man sich einen solchen Vermögensanhub nicht wie die eigene Gehahltserhöhung vorstellen, wo man sich plötzlich einen längeren Urlaub und die größere Karre leisten kann, sondern in diesen Dimensionen verändert das zusätzliche Geld quasi die Schwerkraftverhältnisse im Gesamtsystem der Ökonomie. Karpf vergleicht das mit dem Einfluss, den die Gravitation des Mondes auf die Erde hat. Vor dem Anhub der Vermögen war ein Abendteuer wie der Kauf für Twitter schlicht nicht plausibel, danach … naja, ihr kennt die Geschichte.

The primary story of the post-techlash years hasn’t been driven by new technologies or old companies. The primary story has just been the accumulation of astronomical capital in too few hands, and the comical, catastrophic ineptitude that has followed.

Schon vor der Pandemie hatten die Tech-Milliardäre einen Sprung in der Schüssel, aber jetzt haben die Geld- und Ideologieinduzierten Allmachtsphantasien jegliche Vorsicht, jeden Anstand, jegliche Rücksicht und jede Menschlichkeit aus ihrem Streben nach „Fortschritt“ eliminiert und sie sind immer offener bereit, das Internet, den Planeten und uns alle auf einem riesigen Scheiterhaufen der Entropie zu opfern.


Ab und zu höre ich den Geschichtspodcast der Rosaluxenburg-Stiftung „Rosalux History“ mit Anika Taschke und Albert Scharenberg. Die letzte Folge handelte vom Bauernkrieg, der eines der Ereignisse war, die das Ende des Mittelalters und den Beginn der Neuzeit markieren.

Der Bauernkrieg wurde unter anderem von den immer gieriger werdenden Adel und Klerus ausgelöst, die ihre Machtposition in der Gesellschaft immer unverhohlener ausnutzten, um das durch die Pest dezimierte Volk auszubeuten. Die Bauernkriege waren der erste große Aufstand gegenüber einem überflüssigen, wie ungerechtem System und gegen eine moralisch vollkommen verottete Elite. Es dauerte dann noch einige hundert Jahre, bis die Spinner endlich unter die Guillotine kamen und das System tatsächlich abgeschafft wurde und meine Hoffnung wäre, das wir nicht ganz so lange brauchen?

7 Gedanken zu „Krasse Links No 8.

  1. Dazu das tolle Buch „Der Krieg der Armen“, über Thomas Müntzer und den Bauernkrieg, von Eric Vuillard, 2020, 65 S.,

  2. Ich bedanke mich für diesen guten, sehr guten Text. Krasse Links gibt mir immer sehr viele Denkanstöße und neue Perspektiven. Danke für Deine wichtige Arbeit!

  3. Pingback: Leseliste - Buddenbohm & Söhne

  4. Hast du ein Zitat, in dem James Damore „behauptete, die Hürden für Frauen in der Techbranche seien biologisch bedingte Kompetenzunterschiede“?

    Ich hab sein Memo damals mehrfach gelesen, aber diese Unterstellung kam meines Wissens nach immer nur von DEI-Seite.

  5. Im Memo geht Damore über den Proxie „Interessen“, was natürlich am Ende auf dasselbe rauskommt. Ist ein bisschen so, wie die Rassisten, die jetzt behaupten, es gehe ihnen ja nur um „Kulturunterschiede“. Man muss schon ein verstrahlter Nerd sein, um den Kniff nicht mitzubekommen.

  6. Zu „Longtermism“ kann ich nichts sagen, aber Effektive Altruism scheint in Deutschland niemand zu verstehen. Das ist ungefähr das genaue Gegenteil der herzlosen FDP-Soziopathen, als die du sie hier darstellst.

    Ich selbst bin keiner (und hab auch keine Ahnung, ob es funktioniert), aber EAs sind im Gegenteil recht selbstlose Menschen, die einen großen Teil ihrer Zeit- und Geldressourcen dafür verwenden, möglichst vielen Menschen und Tieren möglichst effektiv zu helfen. Daher der Name.

Die Kommentare sind geschlossen.