Krasse Links No 17.

Willkommen zu Krasse Links No 17. Kramt Eure Titel hervor, heute antworten wir der Infrastruktur!


Die schon letzte Woche besprochene Veröffentlichung von GPT-4o hatte diese Woche ein interessantes ein Nachspiel, als sich Scarlett Johansson zu Wort meldete und berichtete, dass Sam Altman sie persönlich seit Monaten bequatscht, doch bitte ihre Stimme für die Demo zur Verfügung zu stellen, was sie aber immer wieder ablehnte. Entsprechend schockiert sei sie gewesen, als die Stimme in den GPT-4o-Demos ihrer so zum Verwechseln ähnlich klang.

Es gibt eine Stellungnahme von OpenAI, die behauptet, dass es ein unglückliches Versehen war – angeblich wurde parallel zu Altmans Avancen jemand mit ähnlicher Stimme gecastet? Purer Zufall, würde ich sagen.

Wie die Chancen eines Gerichtsprozess für Johannson stehen, hat derweil die Wired recherchiert (Überraschung: es ist kompliziert) und Brian Merchant fragt sich mal wieder, was das alles über die Industrie als solches aussagt:

As such, OpenAI itself is an engine that runs on entitlement — entitlement to nonconsensually harvest and reappropriate the works of millions of writers, coders, artists, designers, illustrators, bloggers, and authors, entitlement to use them to build a for-profit product, entitlement to run roughshod over anyone at the company who worried it has betrayed its mission of responsibly developing its products. Entitlement to copy the voice of one of the world’s highest grossing movie stars after she said no.

I think this explains a lot, really: so much of the promise of generative AI as it is currently constituted, is driven by rote entitlement. I want something and I want it produced, for me, personally, with the least amount of friction possible; I want to see words arranged on the screen without my having to take the time to write them, I want to see images assembled before me without learning how to draw them. I want to solve the world’s biggest problems, without bothering with politics — I have the data, I have trained the model, I should be able to! We have advanced technology to new heights, we are entitled to its fruits, regardless of the blowback or the laws or the people whose jobs we might threaten.

Ich finde das Wort „Entitlement“ hier sehr spannend. Wie so vieles im Englischen wurde der Begriff aus dem Französischen importiert aber er hat auch eine juristische Fallhöhe:

Entitlement is a guarantee of access to benefits because of rights or by agreement through law. It also refers, in a more casual sense, to someone’s belief that one is deserving of some particular reward or benefit. It is often used pejoratively in common parlance (e.g. a „sense of entitlement“).

Auch im Deutschen spricht man von „Eigentumstiteln“ und kommt es nur mir so vor, dass in der juristischen Bedeutung auch ein feudales Echo aus einer Zeit anklingt, als man seine Eigentumstitel noch im Namen trug?

Im Englischen Sprachraum gibt es jedenfalls Diskussionen darum, warum „Entitlement“ im politischen Sprachgebrauch auf einmal in einer abwertenden Weise verwendet wird, wo doch die originale Bedeutung zu sagen scheint: Legitimes und/oder legales Recht haben, etwas zu tun?

Ich denke, es liegt gerade daran, dass „Entitlement“ auf eine angeblich unhinterfragbare Erlaubnisstruktur referenziert, die vorgibt, alle offenen Fragen für immer geklärt zu haben. Das Problem mit Entitlement ist, dass der Entitlete glaubt, niemandem mehr antworten zu müssen.

Deswegen macht die Johansson-Episode unabhängig von der legalen Situation deutlich, wozu OpenAI sich im Umgang mit Kreativen die Erlaubnis gibt. Und angesichts des öffentlichen Aufschreis scheint die Botschaft auch angekommen zu sein?


Quasi zeitgleich mit OpenAI hatte Google seine KI-Entwicker*innen-Konferenz abgehalten und das World Wide Web, wie wir es kennen, verabschiedet. Google will die Suche anscheinend komplett durch ihre LLMs ersetzen und wie Casey Newton schreibt, damit das Web mit sich selbst:

„And now that LLMs promise to let users understand all that the web contains in real time, Google at last has what it needs to finish the job: replacing the web, in so many of the ways that matter, with itself.“

Kurz zusammengefasst erfolgt diese Ersetzung in drei Schritten:

  1. Erstelle eine lossy komprimierte Kopie des Internets.
  2. Ersetze die Suche im Internet mit fehlerbehafteten Semantikpfaden innerhalb der lossy Kopie.
  3. Lass die lossy Kopien das Internet in einem Tsunami an generativen Bullshit versinken, so dass es kein Zurück mehr gibt.

An dieser Stelle fühle ich mich entitled genug, mir hier etwas Eigenwerbung zu erlauben, denn das neue Akzente-Heft beschäftigt sich mit generativer KI und ich habe einen Beitrag über KI und Demokratie drin, den man auch hier nachlesen kann. Meine These ist, dass KI ein Coup ist und der Coup besteht darin, gesellschaftliche Abhängigkeitsverhältnisse im Silicon Valley zu konzentrieren:

„Die Transformation durch generative KI setzt sich bis in die Tiefe der gesellschaftlichen Abhängigkeitsstrukturen fort. Schon jetzt sinken die Abhängigkeiten beispielsweise gegenüber den Leistungen von Übersetzern, Grafikern, Programmierern und Textern, und mit zunehmender Mächtigkeit der Modelle werden immer mehr Kompetenzen und Berufsfelder ihre Verhandlungsmacht einbüßen. Nimmt man die Ziele und Prognosen der KI-Unternehmen ernst, dann muss man davon ausgehen, dass sich die arbeitsteilige, funktional differenzierte Gesellschaft in den nächsten Jahren komplett entflechten wird. In der Öffentlichkeit wird in dieser Hinsicht immer nur von den möglichen oder tatsächlichen Arbeitsplatzverlusten geredet – es wird aber nicht thematisiert, dass diese reduzierten Abhängigkeiten durch eine entsprechend erhöhte Abhängigkeit von den Tech-Unternehmen erkauft wird. Alle Macht, so scheint es, konzentriert sich gerade im Silicon Valley.“

Der Text ist bereits vor einigen Monaten entstanden und mein Denken hat sich insofern weiterentwickelt, dass ich diese Machtkonzentration heute nicht mehr ohne den Kontext der ideologischen Verrenkungen im Silicon Valley denken kann, die zwar in dem Text anklingen, aber nicht tiefer wurden ausgeführt wurden.

Aber wenn mächtige Menschen Ideologien adaptieren, muss man immer als erstes fragen: Wozu geben sie sich damit die Erlaubnis? Und allein im Fall von Longertermism, der imaginierte Trilliarden simulierte oder biologische Seelen der Zukunft höher wertet, als alles heutige Leben auf der Erde, ist die Antwort: eine Carte Blanche für alles? Insbesondere für jede Form von Bevölkerungszurichtung?


Wo wir bei Eigenwerbung waren. Die Macht der Plattformen war ja ebenfalls meine Dissertation, aber die original abgegebene Fassung weicht noch mal in einigen Details vom letztlich gedruckten Buch ab, weswegen ich mich entschlossen habe, auch die originale Dissertation zur Verfügung zu stellen. Hier kann man sie runterladen.

Sie weicht eigentlich nur in wenigen Details ab, aber diese Details sind vielleicht doch noch nützlich? Ich persönlich finde die Ausführungen in Kapitel 6 zur formalen Beschreibung der Plattformmacht ab Seite 193 besonders empfehlenswert. Aber auch in Kapitel 4 gibt es eine interessante Stelle, an der ich über die enge Verflechtung von Googles Kontroll-Regimes mit dem Web schreibe, die es nicht in die Printausgabe geschafft hat:

„Offiziell wacht heute das World Wide Web Consortium (WWDC) über das Infrastrukturregime, aber der Einfluss von großen Playern wie Microsoft (früher) und Google (heute) ist enorm und schlägt zuweilen die Macht der offiziellen Organisation. Entscheidender aber ist der implizite Einfluss, den Google durch seine Suche auf das Infrastrukturregime hat. Da alle Websites gefunden werden wollen, halten sie sich bei der Konstruktion ihrer Websites sklavisch genau an die von Google publizierten „Empfehlungen“.

[…]
Mit Chrome, Blogger.com, AMP und vielen anderen Diensten und Projekten stellt Google heute zumindest auch einen Teil des Zugangsregimes zu bestimmten Tätigkeiten im Web, aber es ist weit davon entfernt, es unter Kontrolle zu haben.

Wichtiger ist deshalb, dass Google es geschafft hat, sich als das primäre Query-Regime des Webs zu etablieren. Wie die meisten Protokollplattformen hat das WWW kein eigenes Query-Regime, und genau in diese Lücke ist Google erfolgreich gesprungen. Hier liegt Googles eigentliche Machtbasis, und es ist der strategische Ausgangspunkt, von dem aus der Konzern seine Macht über das Web sukzessive ausweitet.

Man könnte argumentieren, dass Google mit seiner Suche darüber hinaus zum Interface- Regime des Webs wird, da sie oft der Startpunkt für viele Verbindungen ins Web ist. Zudem kontrolliert Google mit dem populärsten Browser (Chrome) auch einen anderen wesentlichen Teil des Interface-Regimes. Um ihre Suche als Standardsuche in anderen Browsern zu platzieren, zahlen sie zudem jedes Jahr viele Millionen Dollar an Apple und Mozilla. Doch es spricht auch einiges gegen ein umfassendes Interface-Regime durch Google. Denn sobald man sich tiefer ins Web reinklickt, werden die Interfaces so vielfältig wie die Websites (jede Website ist ebenfalls ein Interface), auch wenn sich über die Zeit bestimmte Designmuster etabliert haben. Das Web ist eine der wenigen Plattformen, bei denen das Interface-Regime in weiten Teilen aus Konventionen besteht.

[…]

Es wäre sicher übertrieben zu sagen, dass Google das Web kontrolliert, wie Facebook seine Plattformen kontrolliert. Aber das Unternehmen ist erstaunlich erfolgreich in alle Kontrollebenen des Webs hineingewachsen und macht einen Großteil von dessen Kontrollregimes aus.

Eva von Redecker beginnt ihr großartiges Buch „Revolution fürs Leben“ mit dem „Stutenberg“ und dessen Legende geht so: Der König wies im 15. Jahrhundert einem Ritter Land zu, wobei sich der Umfang des Guts danach richtete, was der Ritter an einem Tag umreiten konnte und er umreitet so viel Land, dass die Stute am Ende des Ritts tot umfällt. Eva schließt:

„Modernes Eigentum berechtigt den Besitzer nicht nur zur Kontrolle und Gebrauch, sondern auch zu Missbrauch und Zerstörung derselben.“

Offensichtlich fühlte sich Google entitled dazu, das Web todzureiten?


Matt Alt ist Übersetzer und „Localizer“. Ich kannte den letzten Beruf nicht, aber es geht dabei vor allem um das Übertragen von Manga-Comics in andere Sprachen. Man spricht von „Localization“, weil nicht nur die Sprache übersetzt werden muss, sondern größtenteils auch die Bilder. Sein Text erklärt sehr gut wie diese Arbeit von Statten geht und warum sie kaum von generativen KIs geleistet werden kann. Ich fand aber vor allem eine Metapher bemerkenswert:

Perhaps a better way of looking at things is that localization is the linguistic equivalent of the last-mile problem. When it comes to logistics, the most expensive part of the shipping process isn’t getting widgets from China to America, or from port to warehouse. It’s that last little bit from distribution center to the customer’s home. A similar effect is at work with localization of manga and other forms of content.

The expense of translating all those words represents a juicy target for tech solutions. But manga are made by people, for people, and people are always going to play the key role in bringing them to life for customers.

Die letzte Meile ist immer die teuerste, weil dort, wo gesprochen wird, die Semantiken am dichtesten sind. Gesprochen wird nämlich immer an einem konkreten Ort, unter konkreten materiellen Bedingungen und in einem sehr bestimmten zeitlichen und inhaltlichen Kontext. Das „Local“ in „Localization“ bezieht sich auf so viel mehr, als nur Geographie.


Katharina Hoppe hat einen lesenswerten Aufsatz veröffentlicht: „Das „Prinzip Antworten“: Eine postapokalyptische Theorie der Verantwortung für das Anthropozän.“ Sie arbeitet sich am Anthropozän-Diskurs ab und orientiert sich dabei an der Verantwortungsethik von Hans Jonas. Jonas‘ etwas unterentwickeltem Verantwortungbegriff wird dann Haraways Begriff gegenübergestellt, der Verantwortung als ständige Rücksprachebereitsschaft definiert. Dazu nimmt Hoppe den Faden des neuen Materialismus auf und begreift unsere materiellen Abhängigkeiten als Akteure, die nach unserer Antwort rufen:

„Viele der zur Antwort rufenden Objekte im Anthropozän lassen sich vor diesem Hintergrund charakterisieren als weitgehend unsichtbare und in ihrer Notwendigkeit für die Reproduktion von Gesellschaften verleugnete konstitutive Beziehungsgeflechte, die manche Lebensstile und Daseinsformen ermöglichen und andere ausschließen. Abhängigkeitsbeziehungen sind dabei jene Relationen, die dem Weiterbestehen von Gesellschaften dienen und deren Wegfall (existenziell) spürbar ist, weil ihr Schwinden Selbstverständlichkeiten infrage stellt oder sogar Zusammenbrüche evoziert.

Abhängigkeitsverhältnisse – verstanden als unsere konstitutiven Verwobenheiten mit heterogenen (gerade auch nicht-menschlichen) Anderen – sollten nicht erst in die Krise geraten müssen, um als ethisch und politisch relevant zur Kenntnis genommen zu werden.“

Hoppe beschreibt hier sehr schön, was „Infrastruktur“ in Wirklichkeit ist. Infrastruktur ist eine Logik, die eben nicht nur auf Autobahnen und Glasfaserleitungen Anwendung findet, sondern auf alle materiellen Abhängigkeiten, deren Rufe nach Antwort wir vor lauter Entitlement nicht mehr hören. Bis es eben RUMS macht.

Hoppe plädiert deswegen für einen „Ethischen Realismus“, der die Vielfalt der Abhängigkeitsverhältnisse im Reden über die Freiheit mitdenkt:

„Die Konfrontation mit Notwendigkeit und Abhängigkeit ist im Kern realistisch. Ein ethischer Realismus, der Freiheit von der Notwendigkeit her begreift, ist im Anthropozän von besonderer Bedeutung,
[…]
Die Fülle der Freiheit zu leben und zu ertragen, hieße, sich auf die Abhängigkeitsverhältnisse einzulassen, die „uns“ ausmachen, und sie als solche zu gestalten. Ohne eine solche Konfrontation bleiben Freiheitsversprechen im Anthropozän ebenso leer wie Verantwortungsübernahmen, die einer Logik der Berechenbarkeit verhaftet bleiben.


Die Sofwareentwicklerin Jennifer Moore hat einen sehr lesenswerten Essay über die Nutzung von LLMs in der Programmierung veröffentlicht. Was viele außerhalb der Software-Branche vielleicht nicht wissen: im Gegensatz zu fast allen anderen Einsatzbereichen ist der Nutzen von LLMs in der täglichen Programmierarbeit nicht wegzudiskutieren. Gerade wenn es um Standardssituationen geht, nimmt einem die LLM viel Tipparbeit ab und reduziert die Notwendigkeit, Dinge ständig nachschlagen zu müssen. Natürlich grätschen Halluzinationen und Bullshit immer wieder rein, aber mit einiger Erfahrung bekommt man das schon halbwegs gemanaged.

In der zweiten Hälfte des Textes arbeitet Moore einige systemische Probleme ab, die sich aus der Nutzung von LLMs ergeben. Insbesondere weist sie auf die Tatsache hin, dass Code schreiben eben nur ein kleiner Teil von Software-Entwicklung ist.

„Non-trivial software changes over time. The requirements evolve, flaws need to be corrected, the world itself changes and violates assumptions we made in the past, or it just takes longer than one working session to finish. And all the while, that software is running in the real world. All of the design choices taken and not taken throughout development; all of the tradeoffs; all of the assumptions; all of the expected and unexpected situations the software encounters form a hugely complex system that includes both the software itself and the people building it. And that system is continuously changing.

The fundamental task of software development is not writing out the syntax that will execute a program. The task is to build a mental model of that complex system, make sense of it, and manage it over time.“

Das „Managing over time“, die Maintanence, hält das System der Welt gegenüber verantwortlich, indem es sich verändernden System- und Bedürfnis-Umwelten antwortend macht. Und das ist der am Ende wirklich kompliziert zu organisierende Part und den kann keine KI bisher leisten. Im Gegenteil: Dieser Verantwortung wird immer schwerer nachzukommen sein, je mehr Code ki-generiert ist? Zudem wird es langfristig dazu führen, dass die Code-Ökosysteme auseinander fallen, weil Bibliotheken und Frameworks plötzlich immer weniger Sinn machen, wenn eh alle ihren Code generieren lassen?

Der Entwickler Paul Cantrell, über dessen Empfehlung ich auf den Artikel stieß, ergänzt:

Code is cost. It costs merely by •existing• in any context where it might run. Code is a burden we bear because (we hope) the cost is worth it.

What happens if we write code with a tool that (1) decreases the cost per line of •generating• code while (2) vastly increasing the cost per line of •maintaining• that code? How do we use such a tool wisely? Can we?

In der Softwareentwicklung spricht man auch von „Technical Dept“, also technologischen Schulden, wenn ungewarteter, vielleicht sogar unwartbarer Code irgendwo im Unternehmen immer noch in Verwendung ist. Und diese Schulden könnten durch KI nun ins Astronomische schießen, wenn ambitionierte Manager*innen ihre Programmierer*innen unter Druck setzen, immer mehr unwartbaren Bullshit-Code zu generieren.


Die Tagesschau gibt einen interessanten Einblick in die Arbeit des S-Bahn-Reinigens.

Die Reinigung erfolgt bis heute per Hand. Von Putzrobotern oder moderner Reinigungstechnik kann Peter Svetits nur träumen. „Ich wüsste gar nicht, was die menschliche Hand, das menschliche Auge so ersetzt, wie es derzeit benutzt wird“, sagt er. Akkugeräte hätten oft nur eine Laufzeit von drei Stunden – müssten aber acht Stunden durchhalten. Außerdem müsse die Technik leicht sein, da sie von Zug zu Zug getragen wird. So etwas gehe nur mit Besen und Wischmopp. Und Mehmet Yetis legt sogar noch nach: „Ich bin mir sicher, dass die nächsten hundert Jahre noch per Hand gereinigt wird.“

Überall ruft die letzte Meile zur Antwort und die KI bleibt stumm.



Im Chartbook Newsletter diskutiert Adam Tooze die „Vision“, die Netanyahu für ein zukünftiges Gaza vorgestellt hat: Gaza 2035.

„Vision“ ist tatsächlich übertrieben, denn was er vorgestellt hat, ging über ein paar KI-genrierte Bilder und ein neoliberalen Bullshitvokalbeln nicht hinaus. Kurz zusammengefasst: Er will aus Gaza eine Art Freihandelzone machen und alles mit hypermoderner „Infrastruktur“ vollstellen.

Netanyahu’s Gaza 2035 is a plan, to complete the erasure of Gaza. In it place the Israeli government envisions a mega-rich, clone of a globalized commercial and industrial city, somewhere between Chicago – what historian William Cronon described as Nature’s Metropolis – and Dubai.

Das ganze soll dann eingebunden werden in allerlei Schienennetze, unter anderem mit Dubai und dem Quatschprojekt Neom. Tooze schreibt:

Given its physical properties, infrastructure, is a preferred tool of the rich and the powerful. They selectively lock in political and geopolitical conflicts, giving them monumental form, whilst suppressing and concreting over the most intractable issues, e.g. the Palestinian question.

Infrastruktur um Verantwortung zu planieren? Doch natürlich ist es am Ende viel einfacher:

„Or visions like Gaza 2035 may act as an diversion, conjuring up harmonious regional infrastructure visions, whilst settlers and their bulldozers move in on the ground.“

4 Gedanken zu „Krasse Links No 17.

  1. Pingback: Nexus 208: Hitze in den KI-Debatten, Logistik und TAM: Knuspr vs. Quick Commerce vs. Wolt

  2. Pingback: Krasse Links No 18. | H I E R

  3. Pingback: Krasse Links No 19. | H I E R

Kommentare sind geschlossen.