Willkommen bei Krasse Links No 27. Sorry, dieser Sommer hat es in sich, diesmal hat mich Covid niedergestreckt, aber nun reitet Eure Pfadgelegenheiten gegen die Infrastrukturen der Verdrängung, heute zersplittern wir unsere Reasoningfähigkeiten im Schmerzlabor.
Der Pageranschlag war ein Terrorakt. Terror ist nicht der Gewaltakt ansich, Terror ist die Angst, die er verbreitet. Und auf dieser Skala war dieser Anschlag off the charts. Stellt Euch das für Euch selbst vor, denn ja, auch Libanesen sind von Smartphones, Laptops und sonstigen batteriebetriebenen Devices abhängig, so wie wir. Stellt Euch vor, dass Ihr keinem Euerer Geräte mehr trauen könnt, dass all Eure Infrastruktur potentiell tötlich ist. Aber vielleicht braucht Ihr es Euch auch gar nicht vorstellen, denn wahrscheinlich wird es nicht lange dauern, bis diese Form des Terrors hier ankommt?
Das neue LLM OpenAi o1 hat 0,2 % besser als das nächst beste Modell, Claude 3.5, in der ARC-Bechmark abgeschnitten. Das ist … nicht überragend. Auch:
It took 70 hours on the 400 public tasks compared to only 30 minutes for GPT-4o and Claude 3.5 Sonnet.
Dennoch feiern die KI-Bros o1 als Durchbruch. Hinter o1 steckt das bereits vor Monaten hier besprochene Projekt Q*, und es ist nur auf den ersten Blick beachtlich. o1 kann jetzt die „R“s in „Strawberry“ zählen (meistens), aber wenn man nachschaut was es dafür machen muss, wird klar, dass das nirgendwo hin skaliert.
Die technischen Neuerungen von o1 bestehen aus drei Ebenen:
- Das Modell „reasoned“ erstmal ein paar Sekunden im Hintergrund, ohne das man einsehen kann, welchen Text es da produziert. Der User bekommt dann nur die Zusammenfassung des im Hintergrund erstellten „Reasoning“-Textes zu sehen.
- Dieses „Reasoning“ passiert durch „Chain of Thought„. Das Modell teilt das Problem in einzelne Schritte auf und löst sie dann „Step by Step“, ein Verhalten, das man auch vorher anweisen konnte und oft viel effektiver ist, als einfache Prompts.
- Doch der entscheidende Faktor ist, dass das Modell mit allerlei zusätzlichen „künstlichen“ Trainingsdaten gefinetuned wurde, die mit etlichen (vllt. Millionen) genau solchen automatisch generierten „Step by Step“-Antwort-Beispielen trainiert wurden.
Um das zu erklären, müssen wir uns ein paar Dinge ins Gedächtnis rufen:
LLMs sind automatisierte Semantik-Navigatoren, die durch Majority Vote plausible Pfade im Semantikraum finden. Der Semantikraum ist ein riesiges tausendimensionales Netzwerk, das alle Beziehungsweisen aller Begriffen zueinander gespeichert hat und damit implizit auch, wie man von einem Ort im Netzwerk zum anderen kommt (also sprechen oder denken kann). Die Erkenntnis war: Wenn man die Transformer-Architektur mit unfassbar vielen Texten füttert, kann sie dieses Netzwerk der Bedeutungen teilweise (es fehlen natürlich etliche Dimensionen) synthetisieren und darin einen Chatbot erstaunlich elegante Pfade laufen lassen.
OpenAi hatte damit eine Zeit lang gute Resultate, war aber bereits mit GPT-4 auf einem Plateau gestrandet, auf dem sich inzwischen auch alle anderen Wettbewerber eingefunden haben. Seitdem gibt es immer nur graduelle Verbesserungen und den meisten Fortschritt macht man in Sachen Model-Size (was gut ist, weil weniger Ressourcenintensiv). Und seitdem suchen sie nach Wegen, den Hype hochzuhalten und Q* sollte einer dieser Wege sein. (Der andere ist weiteres Scaling, aber das lass ich hier raus.)
Und hier kommt die Ideologie ins Spiel. Weil Silicon Valley Nerds glauben, dass Intelligenz eine hierarchische Linie von der Amöbe zu ihnen selbst ist und weil LLMs oft erstaunlich konsistent und kompetent mit Inputs umgehen können, schreiben sie ihnen „Reasoningfähigkeiten“ zu und suchen nach Wegen diese Reasoningfähigkeiten an ihren eigenen vorbeizuskalieren, also „AGI“ herzustellen. Ihr wisst schon, dieses Beast, das uns alle in Büroklammern verwandeln soll.
Ihre These ist, dass die LLMs die Welt über die eingespeisten Dokumente (Texte, Bilder, Videos) kennenlernen, so wie sich Fledermäuse über reflektierende Schallwellen im Raum orientieren. Die „Realitätsreflexionen“ der Trainingsdaten erlauben den LLMs dann ein internes „World Model“ zu generalisieren. Diese Kompetenzen entstünden als sogenannte „emergent Abilities“, also als plötzlich, ab einem bestimmten Skalierungsgrad der Modelle auftauchende, neue Fähigkeiten der LLMs.
Enter ARC-Benchmark. Der Google Forscher Francois Chollet hatte der Gegenthese, nämlich LLMs seien nur „stochastische Papageien“ seien, neue Nahrung gegeben, als er mit anderen die ARC-Benchmark konstruierte, die von Menschen zwar einfach, aber von LLMs gar nicht gelöst werden kann, weil ihnen bei den Rätseln die vielen Trainingsdaten einfach nicht weiterhelfen. LLMs, so Chollets resultierende These, merken sich einfach unfassbar viele Lösungspfade und können sie dann bei Bedarf als „emulated reasoning templates“, also semantische „Programme“ reproduzieren.
In Krasse Links 25 verwies ich auf eine Studie, die nachgewiesen hat, dass das sogenannte „In Context Learning„, das oft als Beispiel der „emergent Abilities“ der LLMs herhalten muss, eigentlich antrainiertes Verhalten ist. „In Context Learning“ ist die Fähigkeit von LLMs durch Beispiele im Prompt semantische Operationen nachzuahmen, und es stellte sich heraus, dass die Beispiel-Antworten des „Instruction Tunings“ eine entscheidende Rolle spielen, also genau jene Fine-Tuningphase, in der auch o1 aufgemozt wurde. Statt eines aus den Daten aufsteigenden Weltgeistes, sehen wir also auch hier gebrute-forcte Memorisierung. Und genau diesen Mechanismus haben sie jetzt für o1 mit viel zusätzlicher Rechenzeit geleveraged.
Mit o1 will OpenAi den Pfad gehen, den Deepmind im letzten Jahrzehnt mit AlphaGo vorgelegt hat. AlphaGo wurde in zwei Phasen trainiert: erst lernte es aus etlichen dokumentierten, menschlichen Go-Partien, aber im zweiten Schritt ließ man das System einfach so lange gegen sich selbst spielen, bis seine Fähigkeiten die menschlicher Spieler überstieg. Ein Ansatz, der sich „Reinforment Learning“ nennt und weil sich libertäre Nerds die Welt nun mal wie ein riesiges Go-Spiel vorstellen, glauben sie jetzt, dass man auf demselben Wege den LLMs ihre „Reasoning“-Fähigkeiten auf übermenschliches Niveau leveln kann.
Das „Reinforcement Learning“ besteht in diesem Fall aus GPTs, die für einen großen Haufen Fragen Millionen unterschiedliche Antworten generieren, alles „Chain of Thought“ versteht sich und die Ergebnisse nach Richtigkeit diskrimieren. Weil dann immer nur die richtigen Antworten beim Fine-Tuning an das System zurückgefüttert werden, wird das Modell immer besser darin, richtige Antworten zu reproduzieren.
Der Haken bei dem Ansatz ist halt nur, dass die Welt gar kein Go-Spiel ist und sich der Nutzen entscheidbarer Fragen auf wenige Bereiche beschränkt: Zählen, Rechnen, Logik, Kreuzworträtsel, Tests und andere Benchmarks fallen mir ein. Und in der Tat schneidet o1 in vielen Benchmarks nun deutlich besser ab, aber der daraus gewonnene reallife Nutzen scheint mir vergleichsweise marginal zu sein? Vor allem, da man sich auf den Output ja immer noch nicht verlassen kann und je komplizierter die gestellten Fragen werden, desto schwerer wird es sein, die falschen von den richtigen Antworten zu unterscheiden.
Um einmal zu verdeutlichen, was da genau passiert: es werden für alle möglichen Logik-, Zähl-, Mathe- und Rätsel-Beispielen Millionen, vllt Milliarden Semantikpfade im „tree sort“-Verfahren erkundet, um sich eine nach und nach vollständigere Bibliothek aller „richtigen“ Antwortpfade zu völlig egalen Fragen anzulegen. LLMs haben halt ein genauso großes Gedächtnis, wie Silicon Valley Geld hat, und das scheint auszureichen, einfach alle Lösungspfade durchzuprobieren und sich die richtigen einzuprägen. Und wenn man jetzt bedenkt, dass der dadurch erreichte Nutzen ein erweiterter, aber unzuverlässiger Taschenrechner ist, kommen mir die unfassbaren Ressourcen, die dafür gerade bewegt werden, immer bekloppter vor.
Aaron Ross Powell macht einen lesenswerten Versuch, das aus der KI stammende Konzept des „Model Collapse“ auf die rechte Ideologien anzuwenden. Model Collapse beschreibt die abnehmende Qualität des Outputs von Transformermodellen, wenn sie mit zu viel von ihrem eigenen Output trainiert werden.
Powell glaubt ähnliche Effekte bei ideologischen Gruppen zu sehen, wenn sie zu sehr „high on their own supply“ sind, also ihrem eigenen Bullshit zu sehr vertrauen. Ein Beispiel, das er anführt, ist das rechte Online-Magazin Quillette, das sich so lange abstruse Karrikaturen linker Theorie selbst erzählt hat, bis es nur noch gegen Strohpuppen kämpfte.
In other words, the “Quillette Effect” is an example of an ideological community tricking itself into believing it has learned about ideas outside of its tribe, when in fact it’s just flattering and reinforcing ideas internal to its tribe.
Und dieser Effekt ist derzeit vor allem auf X zu sehen:
Further, because so much of the online right is concentrated on Twitter, people who are active on Twitter come to view the ideas internal to the online right as closer to the mainstream than they in fact are, and so get dragged to the right, often unintentionally. This means that the “training data” of very online ideologues looks increasingly uniform and is just restatements of very online right-wing perspectives, and data outside of that perspective is treated with growing suspicion because it is mistakenly believed to be fringe, and so not worth taking seriously.
Da ist schon was dran, aber ich fürchte, es ist etwas komplizierter:
Unsere Ideologien sind mehrschichtige Bauwerke aus übereinander gestapelten Narrativen. Bei genauerer Betrachtungen ergeben sich auch auf dieser semantischen Markoebene Netzwerkstrukturen, bauen Narrative aufeinander auf, referenzieren sich, beziehen sich, unterscheiden sich untereinander. Jede Astgabelung ist eine semantische Pfadentscheidung, an die sich wieder andere semantische und ja, auch soziale Abhängigkeiten knüpfen. Und jede Pfadentscheidung determiniert die Möglichkeiten, Geschichten weiterzuerzählen. Quillette konnte seine Erzählungen nicht mehr an die Realität angleichen, weil grundlegende Pfadentscheidungen verhinderten (zB. It’s all „cultural Marxism“!), sich auf die tatsächlichen Texte einzulassen.
Auch semantische Infrastrukturen haben Netzwerkeffekte: Jede Sprache wird nützlicher, je mehr Leute sie Sprechen und je weiter verbreitet die eigenen Geschichten sind, desto einfacher kann man sich mit anderen verbinden. Das ist auch das, was Harari in seinem neuen Buch zu erklären versucht.
Die Netzwerkeffekte semantischer Pfadentscheidungen haben wie alle Netzwerkeffekte lokale Maxima, von denen ich manche als „Digitale Tribes“ beschrieben habe. Tribes versammeln sich um eine vom Mainstream abweichende Pfadentscheidung („Häresie“) und schaffen dadurch Kohäsion und einen unabhängigen Erzählstamm, der dann unter dem eigenen Regime weitererzählt werden kann.
Wichtig ist zu verstehen, dass sich der Erfolg narrativer Pfadentscheidungen nicht durch „Realitätsnähe“, sondern letztlich durch soziale Anschlussfähigkeit erklärt. „Realitätsnähe“ kann der Adaption manchmal helfen und manchmal im Weg stehen, wie man daran sehen kann, dass in Deutschland gerade „Klimakatastrophe“ gegen „Ausländer sind das Problem!“ verliert.
Nein, uns wird kein „Modell Collapse“ der Rechten retten.
Deb Chachra ist Ingenieur-Professorin und so denkt sie viel über Infrastrukturen nach und auch wenn ich von TED-Talks nur selten etwas halte, bitte ich Euch, diese 13 Minuten zu investieren.
Chachra kommt aus Kanada, aber ihre Familie stammt aus Indien und sie reflektiert in dem Talk den wesentlichen Unterschied zwischen sich und ihren Großeltern.
The difference between my life and theirs is not so much that I have a bank account, how much I get paid, is a lot more to do with where I am. Because my individual agency, my ability to do things in the world is really underpinned by these shared infrastructural networks.
Infrastrukturen sind das, was Deine „Agency“ überhaupt ermöglicht und damit auch Deine Fähigkeit, Dich als Individuum zu erleben. Doch vertrakter weise sind Infrastrukturen per se kollektivistisch:
So our infrastructural systems connect us to each other, but they also connect us to the land around us. And this is now true really on a global scale, right? So if we think about the internet, we think about mobile phones, we think about particularly sort of shipping and transportation, aviation. These are now planetary networks. And our infrastructural systems also connect us to our past and to our future, because the networks that we live in today are the physical manifestation of the values and choices that were made by people who came before us, right? It’s like, what are those networks going to be? How will we use them? Who would benefit from them? And of course, who would be harmed by them?
Es gilt nicht nur: „Ich denke, also sind wir!“, sondern auch „Ich handle, also sind wir!“
Chachra schlägt ein „Infrastructual Citizenship“ vor, eine bewusste Verantwortungsübernahme für die Netzwerke, die wir bauen, pflegen und in denen wir eingebunden sind.
So I think of this as infrastructural citizenship, the idea that we have a relationship to each other, actually, we have a responsibility to each other that has nothing to do with what it says on our passport, but it has everything to do with the fact that we are like physical, living beings that are located somewhere on the planet.
Ishay Landa (immer diese israelische Historiker!), dessen Buch „Der Lehrling und sein Zauberer“, in dem er die Geburts des Faschismus aus den semantischen Eingeweiden des Liberalismus beschreibt und das ich seit zwei Jahren hier rumliegen habe, aber noch immer nicht geschafft habe zu lesen, hat der WOZ ein lesenswertes Interview gegeben.
Individualismus wird gewöhnlich als Quintessenz des Liberalismus angesehen, während Bewegungen wie der Faschismus als antiindividualistisch gelten. Der Faschismus, so wird gemeinhin angenommen, wolle das Individuum in der uniformen Masse aufgehen lassen. Von dieser falschen Gegenüberstellung muss man sich aber verabschieden, weil sie sowohl den Liberalismus als auch den Faschismus nicht zu fassen kriegt. Ich unterscheide in meinem Buch zwischen zwei Formen des Individualismus: einem horizontalen und einem vertikalen. Bei Ersterem wird das Recht und das Verdienst eines jeden Menschen betont, jeder als Individuum anerkannt. Das hat egalitäre Konsequenzen, die urdemokratisch und mit sozialistischen Vorstellungen verwandt sind. Es entspricht aber nicht der Vorstellung der meisten Liberalen. Bei ihnen gelten eigentlich nicht alle als Individuen. Dieser Status ist nur wenigen vorbehalten, nämlich jenen, die besonders begabt und erfolgreich sind. Das ist ein vertikales Verständnis des Individualismus, der nur für jene gilt, die besonders talentiert sind, sei dies angeboren oder biologisch begründet.
Okay, hier ist mein Deal: Ich habe aufgehört, ans Individuum zu glauben. Ja, es gibt Akteure, die Dinge anstoßen, aber wir alle navigieren nur innerhalb vordefinierter Strukturen. Wir können nur navigieren, weil uns zu jedem Zeitpunkt immer nur so und so viele Optionen zur Verfügung stehen, unsere Geschichte weiterzuerzählen. Wir sind also Opportunisten und alles was wir tun, ist mit den uns zur Verfügung stehenden semantischen Schablonen nach Pfadgelegenheiten Ausschau zu halten, um auf ihnen durchs Leben reiten.
Diese Gelegenheiten werden wiederum von Infrastrukturen bereitgestellt, materielle wie semantische und weil wir uns nun mal im Kapitalismus bewegen, ist eine besonders netzwerkzentrale Infrastruktur das Geld. Zugang zu dieser Ressource ermöglicht Zugang zu vielen anderen Ressourcen und damit Pfadgelegenheiten. Aber Eigentum/Geld/Preise sind nur ein Abstraktionslayer, den wir als Zugangsregime über einen Großteil unserer Infrastrukturen gelegt haben. Im Alltag erleben wir Normalos Geld deswegen als den entscheidenden Flaschenhals, der unsere individuelle Navigationsfähigkeit ermöglicht und begrenzt und damit das absteckt, was Lea Ypi neulich „horizontale Freiheit“ nannte.
Was Landa hier beschreibt, stelle ich mir konkret so vor: Leute, die vergleichsweise viele Pfadgelegenheiten vor sich zu haben gewohnt sind, also wir Mittelstandskids aus dem Westen, haben uns eingeredet, bzw, einreden lassen, dass wir Individuen sind. Das Framework des „Individuums“ erlaubt es uns auszublenden, dass sich unsere Freiheit aus den vielfältigen materiellen und semantischen Infrastrukturen speist, die unsere Vorfahren und andere Menschen um uns herum gebaut haben, bzw. bauen und maintainen. Statt also unsere Eingebundenheit in diese Strukturen anzuerkennen, reden wir uns seitdem ein, wir hätten unseren „Wohlstand“ „erarbeitet“ und wenn wir es materiell zu etwas gebracht haben, schließen wir daraus, dass wir besonders „intelligent“ sein müssen und damit auch individueller als andere Menschen.
Und dann schauen wir auf andere Menschen, deren Infrastrukturen ihnen deutlich weniger Pfadgelegenheiten bieten und unser Individualismus-Framing deutet diese mangelnde Agency dann als verminderte, oder gar abwesende Individualität, also ein Mangel an Intelligenz und/oder Zugehörigkeit zu einer „rückständigen Kultur“. Das ist der materielle Kern dessen, was Judith Buttler mit „Abjectification“ meint und es ist die Rutschbahn vom Liberalismus zum Faschismus, auf der gerade der gesamte Westen gleitet. Huiiii!
Im ND findet sich ein lesenswertes Stück über den derzeitigen Rechtsruck, der hier als gesellschaftsweiter Anti-Links-Ruck gedeutet wird.
Für diesen Modus sei entscheidend, dass der gesellschaftlichen Mitte beziehungsweise den «normalen Leuten» ein Bedrohungsszenario vorgesetzt werde. Der links-grüne Gegner, so das skizzierte Szenario, schlage nicht nur falsche oder gefährliche Politik vor, sondern sei eine «Bedrohung der eigenen Identität», er verachte die «normalen», «hart arbeitenden» Menschen und wolle sie übervorteilen. Man müsse sich also zur Wehr setzen. Ob es um geschlechtersensible Sprache, das Bürgergeld oder Migrationsfragen ginge: «Allen drei genannten Themenfeldern gemeinsam ist das Narrativ, wonach den Menschen aus der vermeintlich normalen Mitte von links-grüner Seite etwas weggenommen werde, sodass sie in ihren Rechten beschnitten würden und nicht mehr sagen dürften, was sie denken. Grüne und Linke werden so kurzerhand als Antidemokrat:innen dargestellt, die die Demokratie mittels Denkverboten und Gesetzen einschränken», so Mullis. Wirtschaftsliberale Parteien argumentieren im Übrigen inzwischen weithin ähnlich.
Das alles stimmt. Aber die Linke hat aber auch geblinzelt?
Man sagt ja immer, die Linke sei gespalten, aber das stimmt einfach nicht mehr. Nach Corona, dann Ukraine und dann noch Gaza ist die gespaltene Linke noch mal zersplittert, geschreddert und dann zu Sand gemalen worden. Die Linke hat sich entlang ihrer orthogonalen Bruchlinien von Klima, Gender, Pazifismus, Marxismus und Postkolonialismus gehackt gelegt und es scheint, als gäbe es kaum eine gemeinsame Erzählung mehr, die sie wieder erwecken könnte.
Das mag jetzt hart klingen, aber ich glaube, dieser Schmerz ist notwendig. Schmerz deutet immer auf Realität, also auf Widersprüche, auf „semantische Dissonanzen“. Die gelernten Erzählungen passen einfach nicht mehr zum Beat der Realität (er spritzt einem z.B. täglich als Kinderblut ins Gesicht). Und im Gegensatz zur Rechten (Quillette), hält man das links nicht so gut aus.
Man muss wissen: Semantische Dissonanzen tun weh, semantische Pfadkorrekturen aber noch viel mehr! Man muss ja nicht nur in der Tiefe der eigenen Vorstellungswelt die Axt an der faulen Pfadentscheidung anlegen, sondern auch einen plausiblen Alternativ-Pfad finden und ihn mühsam erkunden. Dann muss man all die daran hängenden Pfadabhängigkeiten entflechtet und umorganisieren, insbesondere die Abhängigkeiten zur eigenen Identität! Eine Pfadkorrektur ist ein psychologisch wie emotional enorm aufwändiger Prozess. Hence Depressionen, „Phasen der Trauer“ und der riesige Incentive zur Verdrängung.
Meine These zur Linken ist die: sie sind einfach ist nicht so gut im Verdrängen. Natürlich verdrängt auch sie massiv, aber eben etwas weniger, was ausreicht, einen Deut mehr Schmerz zuzulassen. Im Idealfall gelingt es, diesen Surplus-Schmerz in neue, integrative Erzählungen zu übersetzen, die die Kraft haben, alle Leute, die denselben Schmerz spüren, zu versammeln, um sich gegen die jeweilige, herrschende Struktur aufzulehnen, seien es Sklavenhalter, der Adel, das Patriarchat, Kolonialismus oder Kapitalismus.
So funktioniert die Linke seit Jahrhunderten: als Labor des Schmerzes. Jedes Movement nimmt einen Schmerz auf, entwickelt dafür Erzählungen und kämpft neben notwendigen Veränderungen der materiellen und rechtlichen Infrastrukturen, für die Anerkennung dieser neuen Semantik. Und im Erfolgsfall, nach meist vielen, vielen Jahren, perkulieren diese neuen Semantiken, die ja eigentlich Schmerz-Rezeptoren sind, in die Gesellschaft, werden zur Infrastruktur, schaffen veränderte Identitätsgelegenheiten und Perspektiven.
Das ist nicht nichts! Ja klar, die Linken wollten auch immer den Kapitalismus zugunsten eines besseren Gesellschaftssystems überwinden, aber … naja, das kommt bestimmt noch.
Jedenfalls tun all diese Kämpfe entlang all dieser Schmerzen auch etwas anderes: sie supporten einander, sie lernen von einander, sie tauschen Geschichten und Semantiken aus und legitmieren einander. Alle wissen: sie Kämpfen immer auch dafür, weiter Kämpfen zu dürfen.
Weil Linke sich gegen Verdrängung stellen, sind sie meist nicht sonderlich beliebt, ganz besonders nicht bei der jeweils herrschenden Struktur und deswegen ist ihre Freiheit, neben der Freiheit der Unterprivilegierten, der „Canary in the Coal Mine“ für die vertikale Freiheit einer Gesellschaft. Und dieser Korridor zieht sich gerade in atemberaubenden Tempo zu.
Das ist das gefährliche an der Situation. Während die Linke als gesellschaftliches Realitätskorrektiv ausgeknockt ist, dreht der Rest der Gesellschaft komplett frei. Alle Parteien, außer den Linken und einigen Grünen, haben den Pfad der Realität komplett verlassen und perpetuieren gemeinsam und ohne jede gesellschaftliche Gegenwehr die politische Öffentlichkeit in eine ruinöse, populistisch-rassistische Abwärtspirale der Unmenschlichkeit, in der Jahrzehnte an Fortschritt in wenigen Wochen zerstört werden.
Was ich sagen wollte, liebe Linke, bei all der Wichtigkeit des Soul-Searchings, bitte beeilt Euch!
@mspro Die Formulierung von LLMs als „Semantik-Navigatoren“ und der Spin von „plausiblen Pfaden“ statt next word prediction finde ich sehr interessant und hatte das bisher noch nirgendwo so gelesen. Ist das deine Kreation oder hat das einen anderen Ursprung? Der dazu verlinkte Blog-Beitrag benutzt die Begriffe zumindest nicht, soweit ich sehe.
das habe ich alles hier im Newsletter entwickelt (einfach den Links folgen und runstöbern). Ende des Monats kommt dazu ein richtiger Text raus, im Magazin „Human“.
Pingback: alper.nl