Hyperkult 17 – call

Der Call des diesjährigen Hyperkult erwischte mich heute kalt. Denn nichts anderes als mein Dissertationsthema wird dort verhandelt: „Ordnungen des Wissens„. Das ist einerseits schön und zeigt, dass ich irgendwie richtig liege mit meiner Themenwahl. Andererseits überkam mich sogleich das schlechte Gewissen, weil ich so lange nichts mehr dafür getan habe. Natürlich geht es gar nicht anders, als dass ich diesmal etwas einreiche. Aber irgendwann musste es ja soweit kommen. Na dann, auf auf!

So gesehen kam der Call genau zur richtigen Zeit.

Sehr schön auch der Begleittext:

Die Ordnung des Wissens wird mit und in Computern verwahrt. Börsennotierte Unternehmen besitzen es, machen es profitabel zugänglich oder enthalten es vor. Dabei geht es nicht um Zensur, wenn festzuhalten ist, dass die Verfügung über das Wissen der Welt nunmehr außerhalb der Verantwortung wohlmeinender Sachwalter wie Bibliothekarinnen oder Archivaren oder professioneller Geheimhalter wie den Sicherheitsdiensten geraten ist. Was Google und andere nicht anzeigen, wird heute nicht wahrgenommen und existiert morgen ganz einfach nicht mehr. Und was sie findbar machen, ist nicht mehr aus der Welt zu schaffen.
Es ist die Ordnung selbst, die sich verändert, ohne dass dies von denen zu verhindern wäre, die noch zu Zeiten des Zettelkastens für das Wissen der Welt oder dessen Verschluss zuständig waren.
Dabei träumten in den 60er Jahren noch so manche von einer aufgeräumten Gesellschaft. Das Militär, Banken, Versicherungsfirmen und Science-Fiction-Autoren erkannten das Potenzial der Computer, und auch der Staat erhoffte sich eine effizientere Verwaltung seiner Bürger in zentralisierten Datenbanken. Gegen diesen Willen zum Wissen wurden Gesetze in Stellung gebracht, um die Menschen vor allzu zudringlichen linearen Listen und binären Bäumen zu schützen. Der Glaube aber, Ordnung bedeute Sicherheit, weht weiterhin durch die Büros der Innenministerien.
Inzwischen werden die Datensammlungen der Behörden übertroffen von denen der Internet-Firmen, deren weltweit verteilte Datenbestände sich einer öffentlich-rechtlichen Kontrolle systematisch entziehen. Das Problem ist heute nicht mehr, Information zu erzeugen, sondern sie zu finden. Das WWW ist der perfekte mathematische Baum, in dem jede Datei eine eindeutige Adresse zugewiesen bekommt. Deshalb ist die Ordnung der Informationen bis heute nur durch brute force aufzulösen, indem der digitale Bibliothekar bei jeder Anfrage jedes Blatt seiner Bibliothek durchsucht,– was jeden Bibliothekar und auch alle zusammen schlicht überfordert und nur noch von Serverfarmen unter erheblichem Kapitaleinsatz leistbar ist, was wiederum die öffentliche Hand überfordert.
Und nicht jede gefundene Information darf behalten, geteilt, zitiert oder genutzt werden. Die Ordnung des Wissens schafft Eigentumsverhältnisse und Äußerungsdelikte, Meinungsfreiheiten und Pressezensur. Den Ordnungskräften stellt sich eine Informationsguerilla entgegen, die Regeln unterwandert oder Strukturen ins Unerträgliche vermehrt und dadurch hofft, durch das Raster zu fallen. Und daneben wächst eine Wissensindustrie, die nach ihren eigenen Regeln agiert.
Wir fragen daher: Welche Ordnungsstrukturen werden durch den Computer als Medium geschaffen, welche in Frage gestellt? Wer kann noch Einfluss nehmen? Was wird mit Computern geordnet und was entzieht sich diesen Bemühungen? Welche Wünsche und Ängste verbinden sich mit Ordnungen? Welche Rolle spielt Ordnung in der Kunst? Welchen Wert bekommt die Unordnung in der digitalen Welt?

Hyperkult 16

Nachdem ich letztes Jahr nicht dort sein konnte und tatsächlich einige wirklich sehenswerte Vorträge verpasst hatte und dieses Jahr ein so außerordentlich spannendes Thema anstand, hab ich es mir diesmal nicht nehmen lassen, vor Ort zu sein.

Ich mein: „Medium Computer. Geschichte(n), Visionen, Phantasmen.“ Das hört sich nach Wünschen, Hoffnungen, Stürzen und Visionen an. Es riecht nach der Euphorie des Neuen, dem Wunsch nach gewagten Anfängen und dem Ankommen von Zukünften. Nun.

Ganz ehrlich? Ich fands‘ mau.

Ich habe den letzten Tag zwar nicht mehr mitbekommen, aber alles bisherige hat mich diesmal nicht überzeugt.

Fangen wir doch einfach mal mit Tag 1 an:
Dieser Tag stand, wie die meisten Vorträge beim Hyperkult die letzten Jahre, unter dem Stern, den man gut und gerne „Medienarchäologie“ nennen könnte. Eine Art Computergeschichtsschreibung bei angeschlossener Diskursausbreitung der damaligen Denkschemata. Kann man machen. Ist auch interessant und hat meist noch eine humoristische Note, weil: die waren ja alle so naiv, damals™

Ich finde das zwar auch sehr unterhaltsam, aber viel mehr als nette Anekdoten nimmt man dann doch nicht mit. Kittler lässt also wie jedes Jahr grüßen, aber so langsam, finde ich, ist es dann auch mal gut.

Denn andererseits ist damit immer wieder der Rekurs zurück auf die elementaren Denk und Bauweisen des Computers gezogen, die wir doch nun wirklich langsam mal drauf haben sollten. Wirklich: So interessant ist das nicht. Der Computer als Turingmaschine und dann als technisches Dings ist bereits genug erfasst, erklärt und gelobt worden.

Damit will ich nicht bestreiten, dass es wichtig ist, die Hintergründe zu kennen. Man kann sich aber auch in den Hintergründen verlieren und damit vielleicht einem Blick auf die wirklich interessanten Entwicklungen im Diesseits des Computerzeitalters nicht mehr folgen. Der Blick auf die neuen Ideen und Nutzungsweisen, die heute doch schon weit, weit, weit über das rein technische hinausgehen. Der Computer ist heute bereits eine allgemeine Kulturmaschine. Man braucht sie nicht mehr als solche deklarieren. Vielmehr muss man sie auch als solche untersuchen. Und zwar hier und jetzt.

Vielleicht ist das aber auch ein Generationenkonflikt. Der Computer ist in meiner Generation schon nicht mehr als das völlig Andere in die Welt gebrochen. Vielleicht fehlt mir deswegen diese ehrfürchtige Betrachtung des Computers als Maschine. Denn ja: Irgendwie sind viele der gelieferten Betrachtungen mehr unter Motto „Computer als Maschine“ versammelt, statt unter dem eigentlich programmatischen „Computer als Medium“.

Der andere, immer wiederkehrende Diskurs ist der der KI und der Kybernetik. Alles wirklich interessant, aber eben bereits genauso detailliert durchgekaut. Klar, es passt natürlich zum diesjährigen Thema und hätte nur schwerlich ignoriert werden können. Aber bitte, bitte, nur noch bringen wenn man hier neue Ansätze vorweisen kann. Spannend wäre z.B. den heutigen Diskurs über KI, den es tatsächlich noch gibt, vergleichend in Stellung zu bringen. Google und KI wäre auch mal so eine Sache.

„Heute“. Das ist überhaupt der Bereich, der meines Erachtens generell zu unterrepräsentiert ist auf dem Hyperkult und es auch dieses Jahr war. Man hat zwar mit Peter Haber jemanden eingeladen, der das Thema Internet und was dort gerade alles so passiert, wenigstens zur Sprache gebracht hat. Aber über das Grundlagenwissen ging auch sein Vortrag nicht hinaus. Und auch in Sachen Theoriebildung hätte man hier einiges mehr machen können.

Dann waren, vor allem am zweiten Tag, einige Vorträge dabei, die, naja, die man getrost als komplett überflüssig bezeichnen darf. Beispielsweise darüber, wie CDRom und Festplattenspeicher funktionieren, weiß ich im Groben genug und wenn ich es genauer wissen will, schau ich in die Wikipedia. Auch hier hätte man das Wissen viel mehr kontextualisieren und reflektieren müssen. Eine bloße Bestandsaufnahme ist noch kein Vortrag.

Ach ja, und noch mal speziell zu Herrn Holtwiesche. Es ist völlig OK, wenn man mit seinem Diss-Thema noch nicht so weit ist. Man kann sich sogar trotzdem auf dem Hyperkult hinstellen und darüber referieren. Und wenn man einigermaßen rhetorisch begabt ist, was er ist, merkt vielleicht auch keiner nicht jeder, wie viel sachliche Fehler und Unausgegorenheiten in dem eigenen, aus großen Namen zusammengestöpselten Post-Dingsda-Theorem eigentlich enthalten sind. Aber wie, um alles in der Welt, kommt man auf die absurde Idee, Derrida’s rhetorischen Pappkameraden – das „transzendentale Signifikat“ – als Theorie-Modell misszuverstehen und an seiner statt den Computer einsetzen zu können? Ich glaub es hupt. Setzen! sechs!

Von derart überzeugt vorgetragenen Unwissen war Gott sei Dank nicht so viel vorhanden. Allerdings – wieso Gott sei Dank? Denn allgemein kann man als Hauptkritikpunkt herausstreichen, dass es viel zu wenig Gewagtes, Visionäres und Neues gab. Und das bei einem Thema, wo es doch um Gewagtes, Visionäres und Neues geht? Wo waren die Web2.0 Apologeten? Wo waren die Schwarmintelligenzjünger. Wo waren die Singularitäts-Esotheriker? Oder wenigstens einer von der Technikfolgenabschätzung, jenem bescheidenen Beamtenkind der Futurologie? Ehrlich: Ein paar mehr Spinner hätte dem Ganzen gut getan.
Es ist ja schließlich nicht so, als ob die Menschen keine Träume mehr mit dem Computer verbänden.

Die heimliche Freunde

…die anwesende Wissenschaft unter meinem Banner versammelt zu sehen.

… und keiner hat auch nur die Spur einer Ahnung. hihihi

oha, was soll das noch werden?


Hängt hier überall an der Uni rum. Ich habe Angst…

(ich bin hier übrigens auf dem Hyperkult (ich habe leztes Mal eine Fernzusammenfassung geschrieben), so wie anscheinend auch Peter Haber)
Ach ja, Live-Stream gibts hier…

UPDATE:
ich fühl mich irgendwie, wie auf der re:publica… oder wie auf der macworld… oder wie ich sie mir vorstellle…

Hyperkult

Hyperkult 15. Natürlich hab ich es nicht geschafft. Musste arbeiten. Naja, und heute hab ich’s verpennt. Gott sei Dank kann man sich das alles auch im Internet anschauen. Ich hab so ziemlich alle Vorträge gesehen. Hier ein paar Empfehlungen:

Bernd Mahr versucht ein neuen Modell-Begriff zu definieren, der weder Vor- noch Nachbild sein will, sondern immer beides zugleich. Eine neue Variation der Kritik der Repräsentationslogik? Leider bleibt er bei der illustration seiner These, trotz der vielen Beispiele die er hat, sehr unkonkret, so dass es schwer fällt, seine Gedanken nachzuvollziehen. Aber immerhin, sehr ambitioniert und gibt zu denken.

Peter Bexte sollte jedem, der sich mit Medientheorie beschäftigt, ein Begriff sein. Sein Vortag über das „World Model“ von Jay W. Forrester, das dem berühmten Bericht des Club of Rome „Die Grenzen des Wachstums“ zugrunde liegt, versucht mit mehr oder weniger literaturwissenschaftlicher Methodik dem Simulationsbegriff auf die Schliche zu kommen und entlarft das Denken Jay W. Forresters als viel dogmatischer, als man es gemeinhin annehmen will.

Einen schöner Gegenpol dazu ist der Vortrag von (dem nicht weniger bekannten) Claus Pias, der sich dem negativen Antikörper Forresters widmet. Anhand Herman Kahns kühlem Durchdenken(-rechnen) des Atomkriegs, wird eine Antithese gegenüber Forresters Simuationsscenario entworfen. Während Forrester einfach nur bestehende Parameter und Trends anhand seiner (vermeintlich) universellen Formalistik hochrechnet, generiert Kahn aus gesammelten Fakten und Abschätzungen eine Geschichte und hält sich dabei sehr viel vager und vorsichtiger. Pias schafft es dem Schreckgespenst Kahn (Er war die Vorlage des Dr. Strangelove aus Kubriks Film „Wie ich lernte die Bombe zu lieben“) positive Seiten abzugewinnen und dabei den (vielleicht immer notwendigen) Aspekt Literazität der Simulation, herauszuarbeiten. Simulation scheint immer zwischen Erzählung und Experiment angesiedelt zu sein, so könnte man meinen.

Zwei ganz ähnlich widerstreitende Thesen scheinen auch schon in der Anfangsphase der Computersimulation angelegt zu sein. Jedenfalls stellt Johannes Lenhard dies in seinem Vortrag als den Hauptstreitpunkt der beiden Computerpioniere Norbert Wiener und John von Neumann vor. Während von Neumann mit seinen Simulationen von Naturkonstanten und Naturgesetzten auf ein Aussagefähiges Wettermodell kommen will, plädiert Wiener dafür, allein das Verhalten von Phänomenen nachzuahmen, ohne groß nach ihrem funktionieren zu fragen. Beide Ansätze, die mehr heuristische Wieners und die streng formale von Neumanns, seien heute in der Computersimulation implementiert und die Erkenntnis, dass keine von ihnen für sich genommen zuverlässig ist, hätte die beiden Hitzköpfe sicher versöhnt. Leider war Lenhard ziemlich aufgeregt, was es schwierig macht, seinen teils verworrenen Fäden zu folgen. Aber das ist ja auch nur sympathisch.

Eine ganz feine Sache war der Vortrag von Peter Krieg. Er ist dabei, die Datenspeicherung des Computers zu revolutionieren, indem er versucht, schon auf der untersten Ebene der Bits eine Relationsadressierung zu implementieren, die Daten nicht mehr als linear akkumulierte Entitäten abspeichert und in Containern subsummiert, sondern eben nur die Relation zwischen ihnen. Das hat den Vorteil, dass der Computer auf bereits „erlernte“ Relationen zurückgreifen kann, anstatt sie redundant immer neu aufschreiben zu müssen. Der Computer, so wie wir ihn kennen ist nicht lernfähig, dass heißt, er kann bereits gespeicherte Daten und deren Relation nicht von allein reproduzieren. Er hat die Daten, aber er nutzt sie nicht, um neue Daten zu verarbeiten. Im Gegensatz dazu, ist Kriegs Computer nicht dumm. Er würde also sehr bald eine regressive Datenakkumulationskurve entwickeln, da er, je mehr verschiedenenartige Daten er schon gespeichert hat, nur noch auf bereist vorhandene Relationen verknüpfen. Es fragt sich natürlich, inwiefern dies sich auf die Rechenintensität auswirken wird. Aber bei immer komplexer werdenden Daten und gleichzeitiger (fast) Stagnation der Festplattengeschwindigkeit, während die Prozessoren weiterhin Moores Law frönen, könnte dieser Ansatz durchaus Zukunftsträchtig sein.
Schön, wie er auch erläutert, dass erst diese Form der Speicherung, den Computer in der Postmoderne ankommen lässt, indem es das repräsentationslogische Denken überwindet und sich stattdessen auf die Differenz (hier Relation) stützt. Erst mit solch einem Computer, so Krieg, ist das Ende der Gutenberggalaxis wirklich in Reichweite. Angewandte Dekonstruktion. Wer hätte das gedacht?

Das war auch schon das Beste. Aber es kann ja nicht nur Revolutionen geben.

Call for Participation (oder rewriting Baudrillard)

Der Hyperlkult 15 an der Uni Lüneburg soll sich um Simulation und Modelling drehen. Interessantes Thema, wie ich finde und ich bin mir ziemlich sicher, dass ich auch diesmal dabei sein werde. Ich frage mich, wie man das Thema jenseits des marktschreierischen Baudrillardismus aufbereiten kann. Ich denke, genau das soll versucht werden, ein nüchterner Blick auf die Simulation, wie sie heute Überall anzufinden ist, ihre erkenntnistheoretischen und erkenntniskritischen Aspekte sowie die allgemeine Computerisierung von Wissenschaft und Forschung.
Mich persönlich interessiert dabei vor allem die erkenntnistheoretische Seite am meisten. Simulation ist sicher ein schwieriges Denkfeld, weil man sich einerseits von dem Konzept der Nachahmung verabschieden muss aber andererseits die Unterscheidung von „Wirklichkeit“ und Simulation zwar brüchig wird, aber dennoch nicht überwunden wird.
Ich denke wir haben es hier mit einer weiteren Frage des Gesetzes zu tun. Genauer: dem Gesetz des Gesetzes.

Und wie das so bei den Gesetzen ist liegt ihre Unmöglichkeit wie ihre Möglichkeit zwischen der Einmaligkeit und der Allgemeingültigkeit. Und hier sind wir schon mitten in der Frage nach dem Begehren des Forschers und des Wissenschaftlers der die Simulation vorantreibt, weil er dem Gesetz auf die Schliche kommen will, dem einzigartigen Gesetz, dass er in seiner Simulation wiederholen will um es sich anzueignen. Die Wissenschaftler wollen ja schließlich keine Wirklichkeit nachbilden sondern „nur“ deren Gesetze erforschen. Die Möglichkeiten des Computers sind dabei allzu evident. Der Computer schafft es absolute Gesetzmäßigkeiten aufzustellen und zu reproduzieren. Genau das ist seine Stärke. Aber auch seine Schwäche. Denn er kann eben keine Nicht-Gesetzmäßigkeiten handhaben. Das ist ihm Verboten.
Hier kommt der Mensch ins Spiel. Seine Stärke ist die Produktion von Einzigartigkeiten. Egal was er tut macht oder sagt, jede Geste etc, ist für sich genommen Einzigartig und dennoch träumt er schon seit immer vom Gesetz und der Gesetzmäßigkeit das Einzigartige und unerschütterliche Gesetz, dass er Wahrheit nennt, dem er auf der Spur ist, immer ganz nahe dran, aber doch nie ganz. Dieser Mensch schafft sich also das, was wir Sprache nennen um alle seine Einzigartigkeiten wiederholbar zu machen, um sie als Gesetzmäßigkeiten dem Anderen aufzudrücken. Nun hat er das ideale Spielzeug dafür. Eine Gesetzmaschine. Und der Computer ist nie etwas anderes gewesen als das. Wenn dieser Mensch also diese Gesetzmaschine in Betrieb nimmt um Gesetzmäßigkeiten (die es vielleicht gar nicht gibt) zu erforschen, dann hat das diverse Auswirkungen, die – und das muss ich wohl an dieser Stelle zugeben – Baudrillard recht gut herausgearbeitet hat: Die Unentscheidbarkeit von Gesetz und Wirklichkeit. (Wobei ich das erstmal noch in Klammern denken würde. Da die „Wirklichkeit“ immer schon mehr ist als Gesetz, egal wie man sie definiert, sollte auch eine absolute Simulation unmöglich sein)

Denn – und das denke ich, hat Baudrillard nicht bedacht, das Gesetz nämlich setzt. Es setzt sich selbst in jeder seiner Anwendungen (heißen Programme vielleicht deshalb „Anwendungen“?) und wenn man dem Computer sagt: Das Gesetz sieht so und so aus, dann wird er dieses Gesetz nicht nur anwenden, sondern auch reproduzieren und der Forscher wir sagen: Ja genau so ist es. Der Computer bestätigt dem Forscher seine Gesetze. Das Gesetz war ja immer schon vor dem Computer da, und vor dem Programm. Nicht in der Realität, aber in ihrer Wahrnehmung.

Was der Computer aber niemals tun wird – und das ist vielleicht genau das Fatale – er wird das Gesetz niemals überschreiten. Er wird das Gesetz nicht brechen, sondern es befolgen, wie kein Mensch es befolgen könnte. Und dann fragt sich was das wiederum für Rückwirkungen auf das Gesetz hat. Ein Gesetz, dass sich nicht dehnen, biegen, transformieren und umgestalten lässt, ist das noch ein Gesetz? Ich denke an diese Frage sollte man sich richten, beim Nachdenken über Simulation.