Hyperkult

Hyperkult 15. Natürlich hab ich es nicht geschafft. Musste arbeiten. Naja, und heute hab ich’s verpennt. Gott sei Dank kann man sich das alles auch im Internet anschauen. Ich hab so ziemlich alle Vorträge gesehen. Hier ein paar Empfehlungen:

Bernd Mahr versucht ein neuen Modell-Begriff zu definieren, der weder Vor- noch Nachbild sein will, sondern immer beides zugleich. Eine neue Variation der Kritik der Repräsentationslogik? Leider bleibt er bei der illustration seiner These, trotz der vielen Beispiele die er hat, sehr unkonkret, so dass es schwer fällt, seine Gedanken nachzuvollziehen. Aber immerhin, sehr ambitioniert und gibt zu denken.

Peter Bexte sollte jedem, der sich mit Medientheorie beschäftigt, ein Begriff sein. Sein Vortag über das „World Model“ von Jay W. Forrester, das dem berühmten Bericht des Club of Rome „Die Grenzen des Wachstums“ zugrunde liegt, versucht mit mehr oder weniger literaturwissenschaftlicher Methodik dem Simulationsbegriff auf die Schliche zu kommen und entlarft das Denken Jay W. Forresters als viel dogmatischer, als man es gemeinhin annehmen will.

Einen schöner Gegenpol dazu ist der Vortrag von (dem nicht weniger bekannten) Claus Pias, der sich dem negativen Antikörper Forresters widmet. Anhand Herman Kahns kühlem Durchdenken(-rechnen) des Atomkriegs, wird eine Antithese gegenüber Forresters Simuationsscenario entworfen. Während Forrester einfach nur bestehende Parameter und Trends anhand seiner (vermeintlich) universellen Formalistik hochrechnet, generiert Kahn aus gesammelten Fakten und Abschätzungen eine Geschichte und hält sich dabei sehr viel vager und vorsichtiger. Pias schafft es dem Schreckgespenst Kahn (Er war die Vorlage des Dr. Strangelove aus Kubriks Film „Wie ich lernte die Bombe zu lieben“) positive Seiten abzugewinnen und dabei den (vielleicht immer notwendigen) Aspekt Literazität der Simulation, herauszuarbeiten. Simulation scheint immer zwischen Erzählung und Experiment angesiedelt zu sein, so könnte man meinen.

Zwei ganz ähnlich widerstreitende Thesen scheinen auch schon in der Anfangsphase der Computersimulation angelegt zu sein. Jedenfalls stellt Johannes Lenhard dies in seinem Vortrag als den Hauptstreitpunkt der beiden Computerpioniere Norbert Wiener und John von Neumann vor. Während von Neumann mit seinen Simulationen von Naturkonstanten und Naturgesetzten auf ein Aussagefähiges Wettermodell kommen will, plädiert Wiener dafür, allein das Verhalten von Phänomenen nachzuahmen, ohne groß nach ihrem funktionieren zu fragen. Beide Ansätze, die mehr heuristische Wieners und die streng formale von Neumanns, seien heute in der Computersimulation implementiert und die Erkenntnis, dass keine von ihnen für sich genommen zuverlässig ist, hätte die beiden Hitzköpfe sicher versöhnt. Leider war Lenhard ziemlich aufgeregt, was es schwierig macht, seinen teils verworrenen Fäden zu folgen. Aber das ist ja auch nur sympathisch.

Eine ganz feine Sache war der Vortrag von Peter Krieg. Er ist dabei, die Datenspeicherung des Computers zu revolutionieren, indem er versucht, schon auf der untersten Ebene der Bits eine Relationsadressierung zu implementieren, die Daten nicht mehr als linear akkumulierte Entitäten abspeichert und in Containern subsummiert, sondern eben nur die Relation zwischen ihnen. Das hat den Vorteil, dass der Computer auf bereits „erlernte“ Relationen zurückgreifen kann, anstatt sie redundant immer neu aufschreiben zu müssen. Der Computer, so wie wir ihn kennen ist nicht lernfähig, dass heißt, er kann bereits gespeicherte Daten und deren Relation nicht von allein reproduzieren. Er hat die Daten, aber er nutzt sie nicht, um neue Daten zu verarbeiten. Im Gegensatz dazu, ist Kriegs Computer nicht dumm. Er würde also sehr bald eine regressive Datenakkumulationskurve entwickeln, da er, je mehr verschiedenenartige Daten er schon gespeichert hat, nur noch auf bereist vorhandene Relationen verknüpfen. Es fragt sich natürlich, inwiefern dies sich auf die Rechenintensität auswirken wird. Aber bei immer komplexer werdenden Daten und gleichzeitiger (fast) Stagnation der Festplattengeschwindigkeit, während die Prozessoren weiterhin Moores Law frönen, könnte dieser Ansatz durchaus Zukunftsträchtig sein.
Schön, wie er auch erläutert, dass erst diese Form der Speicherung, den Computer in der Postmoderne ankommen lässt, indem es das repräsentationslogische Denken überwindet und sich stattdessen auf die Differenz (hier Relation) stützt. Erst mit solch einem Computer, so Krieg, ist das Ende der Gutenberggalaxis wirklich in Reichweite. Angewandte Dekonstruktion. Wer hätte das gedacht?

Das war auch schon das Beste. Aber es kann ja nicht nur Revolutionen geben.