In dem Artikel über die Impfgegner habe ich – nebenbei – den Hauptunterschied zwischen den sich für „kritisch“ haltenden Verschwörungstheoretikern und den tatsächlich kritisch denkenden Menschen daran festgemacht, dass wirklich kritisches Denken vor der eigenen Urteilsfähigkeit nicht halt macht. Seine eigene Urteilsfähigkeit in Frage zu stellen gehört genau so dazu, wie skeptisch gegenüber den Einschätzungen von anderen zu sein. Dabei muss man aber nicht immer so weit gehen, sich selbst präventiv für verrückt zu erklären, sondern es beginnt schon dabei einmal in Zweifel zu ziehen, dass man über alle notwendigen Informationen verfügt, um einen Sachverhalt zu beurteilen. Das ist nämlich meistens schon nicht der Fall und so werden schnell aus einer Beobachtung oder eine anekdotischen Episode Schlüsse (blitz-)abgeleitet, die sich bei näherem Hinsehen nicht halten lassen. Das passiert übrigens nicht nur Verschwörungstheoretikern, sondern allen, ja, mir natürlich auch; so musste ich aufgrund des richtigen Einwands von Anne Roth eben jenen Artikel nochmal etwas überarbeiten, weil auch ich hier voreilige Schlüsse aus meinen Beobachtungen gezogen habe, die empirisch vielleicht gar nicht haltbar sind. (Danke dafür)
So viel zur Einleitung, aber ich will hier auf eine Form des Fehlschlusses zu sprechen kommen, die – aufgrund ihrer Technologiebezogenheit – relativ neu ist, die ich aber immer wieder beobachte – und zwar auch bei eigentlich intellektuell gefestigten und sogar technikaffinen Menschen. Ich nenne diesen Trend „Algorithmendeutung“ und sehe darin die moderne Form des Kaffeesatzlesens.
Das erste mal ist mir das Phänomen aufgefallen, als sich 2011 die Berichterstattung um Wikileaks dem Höhepunkt näherte. #Wikileaks war lange auf Twitter das „Trending Topic“ – und dann auf einmal nicht mehr. „SKANDAL! ZENSUR! DIE US-REGIERUNG STEHT DAHINTER!“ wurde allenthalben in meine Timeline gebrüllt und das machte mich gleichzeitig stutzig und ein wenig traurig. Man muss fairer Weise dazu sagen, dass das mehr oder weniger parallel zu tatsächlichen Sperrungen von Wikileaks-Accounts bei Mastercard, Paypal und Domainamen-Diensten passierte. Dennoch war ich erschrocken von der Schnellschußaftigkeit meiner Mittwitterer. Zensur ist eine ziemlich krasse Anschuldigung, für einen einfachen Sachverhalt, für den sich Millionen plausiblere Erklärungen finden lassen und der sich auch aus den Interessen der US-Regierung nicht wirklich plausibel herleiten lässt (als ob man damit Berichterstattung unterdrücken könnte – im Gegenteil …).
Algorithmen sind eine komplexe Angelegenheit. Wenn wir mit ihnen in Berührung kommen, glauben wir oft zu wissen, wie sie funktionieren, oder zumindest funktionieren sollten, Wer aber sowas aber schon mal selbst gebaut hat, weiß, dass das alles nicht so einfach ist. 1.) kann man immer in seiner Filterblase gefangen sein und nur weil alle in meiner Timeline von Ereignis X reden, muss das noch nicht Weltweit der Fall sein. 2.) Ist der Trending-Algorithmus von Twitter eben nicht zu verwechseln mit „Worüber alle Leute gerade reden“, sondern will – wie der Name eigentlich schon sagt, eher herausfinden worüber alle demnächst reden werden. Er sucht nach Trends und bildet eben nicht den aktuellen Mainstream ab. Stichwörter, über die seit Tagen heftig diskutiert wird, sind nicht (mehr) Trending. Das heißt 3.), dass der Algo eine zeitliche Komponente implementieren muss, die sonst wie bestimmt sein kann und dass er eher die erste Ableitung der Popularitätskurve scannt. Dazu kommen 4.) Gewichtungen, um bekannte Unereglmäßigkeiten auszuschließen, sowie der Versuch den Spammern das Leben schwer zu machen, die natürlich ständig versuchen das System zu spielen. Am Ende bekommt man einen ziemlich komplexen Algo, der auf einer riesigen Welle von Echtzeitdaten surft und eben nicht mehr durch einfache Beobachtung der eigenen Timeline vorhersehbar ist.
Aber es trifft nicht nur technisch ungebildete. Letztens machte ein Freund – der selbst Programmierer ist – seinem Ärger Luft, wie Google so unverschämt sein könne, bei einer Suche, die er tätigte das googleeigene Youtube so weit vor Vimeo zu platzieren. Klarer Fall von Ausnutzung des Marktmonopols!!! Jetzt kann ich nicht ausschließen, dass Google tatsächlich so doof ist und plump seine eignen Dienste höher rankt. Aber sowas von der Beobachtung einer einzelnen Suche zu schließen, ist schon ziemlich hanebüchen. Googles Rankingalgorithmus gehört locker zu den komplexesten Programmen, die auf dieser Welt existieren und sitzt auf einem Datenberg, der seines Gleichen sucht. Nur weil einem das Ranking seines Suchergebnisses mal nicht in den Kram passt, gleich solche Behauptungen in die Welt zu setzen erinnert an den Klimaleugner, der, weil er gerade in seiner Wohnung friert, die Erderwärmung in Frage stellt. Es gibt einen wesentlichen Unterschied zwischen Wetter und Klima. Klar hängt beides zusammen. Aber um vom Wetter auf das Klima zu schließen, braucht man mehr als nur einen Messpunkt, sondern Hunderttausende und ausgeklügelte Verrechnungsmethoden.
Und so geht das weiter: Eine Freundin beklagt, dass sie irgendwas auf Facebook nicht posten kann, weil darin das Wort „Drogen“ vorkommt („ZENSUR!“), ein anderer hat Probleme einen Link per Instant Messanger zu schicken („Da steckt doch die NSA hinter!“). Ach Kinners. langer Seufzer
Also, hier als Hilfestellung: Wenn ein Algorithmus ein Verhalten an den Tag legt, der Euch überrascht, solltet ihr euch als erste fragen, ob es auch eine andere Erklärung geben könnte, als die, die ihr euch gerade zwischen Butterbrot und Pullerngehen zusammenreimt. Eine Verschwörung ist meist unwahrscheinlich. Ein Fehler in der Internetverbindung, im Algorithmus oder einen, den ich vielleicht selbst gemacht habe, oder – wie meistens – die Unzulänglichkeit meiner Informationen – sind sehr viel wahrscheinlicher. Wenn man einen Verdacht hat, kann man gerne anfangen zu forschen. Aber dann bitte mit einem überzeugenderen Forschungsdesign. Ansonsten muss ich Euch leider in die Spinnerschublade stecken.
(PS: Ich will auf keinen Fall die Möglichkeit kleinreden, dass Algorithmen bösartig manipuliert werden können und dass das eine Gefahr für die Gesellschaft ist. Im Gegenteil. In meinem Buch geht es viel genau darum und wie wir dafür sorgen können, dass das nicht eben geschieht. Ich persönlich glaube bis zu einem Gegenbeweis nicht, dass die populären Algos von Google, Facebook bis Twitter bösartig manipuliert sind, aber wir als Gesellschaft brauchen definitiv Kontrollmechanismen, sowas auch zu überwachen. Was wir aber nicht brauchen, sind Schlauberger, die den ganzen Tag „Wolf!!“ schreien.)