Archiv des Autors: mspro
Social Scoring – werden wir ständig bewertet? #langerklärt | Science Fiction trifft auf Realität | bpb.de
Ich war zu Gast im Podcast der Bundeszentrale für politische Bildung zum Thema Social Scoring. Es war etwas anstregend, weil ich mich konstant dazu zwingen musste möglichst zugängliche Erklärungen zu finden und jedes Wort und Konzept zu erklären. Aber inhaltlich finde ich es sehr gelungen.
Wie beeinflusst Social Scoring unsere Gesellschaft? Kulturwissenschaftler Michael Seemann diskutiert, wie soziales Verhalten in Zahlen übersetzt wird, um Menschen zu bewerten und zu klassifizieren.
Twitter, der Rechtsruck und die paralysierte Linke
Wenn es euch so geht wie mir, dann kann ich euch versichern: ihr seid die alten geblieben. Ihr habt euch nicht bewegt. Ja. Das gesamte deutsche Politikestablishment – quer durch alle Parteien – ist innerhalb weniger Wochen erdrutschartig nach rechts gerumst. Deutschlands größte Probleme sind demnach derzeit: zu viele Ausländer und Gendern, während Klimaschutz plötzlich nicht mehr vorkommt. Aussagen werden von Spitzenpolitiker*innen der Mittelinks-Parteien getätigt, die vor kurzem selbst für AFD-Politiker*innen harter Toback gewesen wären. Und niemand ist da, der öffentlich dagegenhält.
Es gibt viele Erklärungen dafür. Klimakleber, Krisenüberforderung, AFD-Erfolge, etc. Und sicher, diese Dinge spielen mit rein. Ich bin aber zunehmend der Überzeugung, dass der Untergang von Twitter ein unterschätzter Faktor im Rechtsrutsch ist.
Immer, wenn ich mal wieder in X reinschaue, sehe ich nicht nur eine Menge rechtsradikalen Schund, der mir routiniert in die „For You“-Timeline gespült wird, ich sehe auch Leute, denen ich bislang gerne gefolgt bin, die Fake News und polarisierenden Kulturkampfbullshit von rechtsradikalen Accounts wie LibsOfTiktok teilen. Als ich noch auf Twitter war, waren das nicht mal Konservative, sondern eher so middle of the road Linksliberale. X (Twitter gibt es nicht mehr) hat ihre Wahrnehmung auf die Welt verändert.
Dasselbe – und ich finde noch deutlicher – ist derzeit bei den auf X verbliebenen politischen und publizistischen Eliten zu beobachten. Das viral gegangene Douglas Murray Video war nur die Spitze des Eisbergs. Dabei geht es gar nicht so sehr um die einzelne Person und den einzelnen Inhalt, sondern mehr um eine bestimmte Stimmung, die auf der Plattform herrscht, einen Vibe, den man unbewusst aufnimmt und mitschwingt. Das Murray Video schien als legitimer Inhalt, den man halt so auf X teilt.
Wir haben die Eliten mit einem riesigen Haufen Nazis allein im Raum gelassen. Was haben wir gedacht, was passiert?
Der Rechtsrutsch durch Twitter hat noch einen zweiten Treiber: Die linksliberale bis linksradikale Szene hat sich aufgespalten und diskutiert nun auf verstreuten Alternativplattformen nur noch mit sich selbst. Es gibt keinen einheitlichen Vernetzungsraum mehr und die Räume, die es gibt, erreichen keine Multiplikator*innen mehr. Wir haben mit unserem Twitterauszug sicher ein Zeichen gegen Musk und seine Politik gesetzt, aber wir haben uns nebenbei auch unserer eigenen diskursiven Relevanz beraubt.
Wir haben gehofft, die Eliten würden schon nachziehen. Aber die Eliten begründen keine diskursiven Räume, sie kommen, wenn diese bereits angerichtet und relevant sind. (Auch deshalb gehen mir die Leute auf Mastodon so auf die Nerven, die sich mit aller Macht gegen jede Relevanz sträuben).
Ich glaube immer noch, dass es richtig war und ist, X zu verlassen. Ich glaube aber, wir müssen so schnell wie möglich daran arbeiten, die Leute von X rauszubekommen.
Aber das geht mit der aktuell zersplitterten Plattformlandschaft nicht. Das ginge nur, wenn entweder eine der Twitter-Alternativen entsprechend groß und relevant wird (was ich für unwahrscheinlich halte), oder dass die Twitter-Alternativen endlich aus dem föderalen Versprechen eine Realität machen und einen gemeinsamen Diskursraum schaffen. Bluesky und Threads müssen endlich mit dem Fediverse föderieren und Threads in Europa verfügbar sein. Und selbst dann sehe ich eher nur eine 50/50 Chance, dass X dann wirklich in die Irrelevanz verdammt wird.
Aber selbst, wenn das gelänge: der Diskurs der jüngeren Generation hat sich längst von Text verabschiedet und findet in Videos auf Tiktok, Instagram und Youtube statt. Ich selbst fühl mich nicht mehr bereit, dort einzusteigen, aber meine Befürchtung ist, dass auch dort die reflektiert linken Stimmen eher die Ausnahme sind.
Ich bin – zumindest mittelfristig – extrem pessimistisch. Meine Befürchtung ist: die Linke hat sich diskursstrategisch selbst ausmanövriert und ist jetzt nur noch Zuschauer, der seinen Mastodonclient anschreit.
Im Doppelpack durch die Stadt – Weddingweiser
Was ganz andres: ich bin Mentor beim Verein Kein Abseits e.V. In der Weddinger Lokalpresse ist ein Artikel über meinen Mentee Mostafa und mich erschienen. Ich teile das hier vor allem deshalb, weil der Verein ständig neue Mentor*innen sucht. Ich kanns nur empfehlen, also bewerbt euch!
Michael ist 45 Jahre alt und wollte sich neben seiner Tätigkeit als Autor und Wissenschaftler sozial engagieren. Durch eine Freundin ist er auf die Arbeit von “kein Abseits!” aufmerksam geworden und hat sich als Mentor beworben, um gemeinsam mit einem Kind Berlin zu entdecken, eine sinnstiftende Zeit miteinander zu verbringen und sich in diesem Rahmen für mehr Bildungsgerechtigkeit und aktive Teilhabe einzusetzen.
Von Papageien und Macht: Open AI und die sozial-ökologische Transformation – LABOR.A® 2023
Ich war im September zu Gast bei Labor.A der Konferenz der Hans-Böckler-Stiftung zur Zukunft der Arbeit und habe mit Matthias Hornschuh über KI und die Zukunft der Arbeit diskutiert. Das Video ist jetzt abrufbar.
Längst verändern Anwendungen auf Basis „künstlicher Intelligenz“ Arbeits- und Produktionsprozesse in vielen Branchen. Andererseits wird seit Monaten ein disruptiver Quantensprung durch ChatGPT und Co. diskutiert. Wir blicken auf realistische technische Spielräume und zukünftige Szenarien und fragen: Was sind die Bedingungen, unter denen das Potential von KI in der Transformation genutzt werden kann ohne bestehende Machtstrukturen zu stärken und menschliche Arbeit zu entwerten?
Quelle: Von Papageien und Macht: Open AI und die sozial-ökologische Transformation – LABOR.A® 2023
Künstliche Intelligenz, Large Language Models, ChatGPT und die Arbeitswelt der Zukunft | Zenodo
Der User @ankrjoe@social.tchncs.de hat sich die Mühe gemacht ein ePub meiner LLM-Studie zu basteln und sie auf einem Open Access Server zu stellen. Danke!
Die rasante Entwicklung von Systemen Künstlicher Intelligenz wie ChatGPT, die inhaltlich und sprachlich überzeugende Texte generieren können, hat eine intensive Debatte ausgelöst. Es stellt sich die Frage, welche Auswirkungen solche Systeme auf die Prozesse und Arbeitsweisen z. B. in Wissens- und Kreativberufen haben werden. Diese Literaturstudie wertet den aktuellen Stand der Debatte aus. Sie führt in die technische Grundlage, die sogenannten „Large Language Models“, ein und untersucht abschließend, welche
Quelle: Künstliche Intelligenz, Large Language Models, ChatGPT und die Arbeitswelt der Zukunft | Zenodo
SR.de: X Alternativen zu Twitter – ohne Erfolg?
Wurde vom SWR Podcast Cross & Quer eingeladen, um über Mastodon und Bluesky zu quatschen.
Wie geht es weiter mit „X“? Wird es überhaupt wieder Angebote geben, die eine gesellschaftliche Funktion erfüllen, wie Twitter sie mal hatte? Hat das in jüngster Zeit oft genannte „Bluesky“ möglicherweise mehr Erfolg? Wie könnten ganz neue Ansätze einer Debattenkultur im Netz aussehen? Darüber sprechen Florian Mayer und Kai Schmieding mit dem Plattform-Experten und Publizisten Michael Seemann.
Keine Angst vor der KI im Job | Sächsische.de
Interessante Interpretation meines LLM-Papers hat die Sächsische.
Angst vor Veränderungen – sie ist in einer krisengeplagten Zeit nur menschlich, aber nach derzeitigem Erkenntnisstand vielfach unbegründet. Das sagt zum Beispiel der Kultur- und Medienwissenschaftler Michael Seemann. Er hat im Auftrag der Hans-Böckler-Stiftung untersucht, wie die Künstliche Intelligenz die Arbeitswelt tatsächlich verändern könnte.
„Das eigene Bauchgefühl hat noch nie gereicht“ | choices – Kultur. Kino. Köln.
In choices ist ein Interview von mir erschienen, aber leider ist es so schlecht redigiert, dass ich zögere, es hier zu verlinken. jetzt habe mir gedacht, scheiß drauf: ich redigiere das schlimmste einfach selbst und verblogge das Interview in einer besser lesbaren Form:
choices: Glaubt man Elon Musk, dann sollen Künstliche Intelligenz (KI) bzw. Chat-Roboter bald Wahrheit sprechen können. Heißt der nächste Prophet also TruthGPT?
Michael Seemann: Das ist jedenfalls der Name, den er für sein Projekt ausgegeben hat. Ich denke dabei immer an TruthSocial: Das soziale Netzwerk, das Donald Trump gegründet hat. Und ich glaube: Das wird ähnlich viel Wahrheit beinhalten. Mit den Large Language Models, mit denen wir heute hantieren, kann man alles Mögliche machen. Aber in Sachen Wahrheit sind sie eigentlich ziemlich schlecht, zumindest in den aktuellen Varianten und versagen regelmäßig. Wenn man Wissensfragen hat, kann man bei Google oder in Wikipedia schauen, bei den Large Language Models wird man aber häufig auf die Nase fallen.
„Kein Konzept von Wahrheit“
Woran liegt das?
Dabei gibt es zwei Probleme:
Zum einen Halluzinationen, also ausgedachte Antworten, die meist falsch sind. Large Language Models haben kein Konzept von Wahrheit. Wenn man sie nach etwas fragt, dann versuchen sie nicht, eine nach aktuellen Erkenntnissen beste Antwort zu geben – also sozusagen Wahrheit zu sprechen – sondern sie versuchen etwas zu reproduzieren, das sich wie Wahrheit anfühlt. Diese Antwort kann wahr sein, muss es aber nicht. Die KI ist darauf optimiert, plausibel klingenden Text zu formulieren. Und das ist nicht das gleiche wie wahrer Text. Plausibler Text orientiert sich an unserer Erwartungshaltung. Meist wissen wir die Antwort auf die Frage, die wir gestellt haben, selbst aber gar nicht. So erscheint uns die Antwort der Large Language Models plausibel.
Zum anderen hat die KI Biases. Man muss wissen, dass in den Trainingsdaten die ganzen Biases, als auch Wunsch- und Wahnvorstellungen von uns Menschen drin codiert sind. Es gibt Experimente, die bestätigen, dass KI einen sexistischen und einen rassistischen Bias hat. Im Endeffekt drücken sich die ganzen Biases, die wir Menschen mit uns herumtragen und, die wir durch unsere Texte ins Internet hineingegeben haben, auch durch die KI aus.
Das heißt: Selbst wenn KIs sich keine Dinge mehr ausdenken – im Fachjargon halluzinieren – und ihre Antworten nur noch aus ihren Trainingsdaten synthetisieren, dann heißt es noch lange nicht, dass die Antwort wahr ist.
Über das Fine-Tuning, im Anschluss an das Training, wird versucht dagegen zu steuern. Es dient auch dazu, der KI krasse Biases abzutrainieren und entsprechende politische Aussagen abzumildern. Mit Freud gesprochen: Es wird eine Art Über-Ich geschaffen. Wenn Elon Musk also glaubt, eine Truth-KI zu schaffen – er, der selbst in der rechten Ecke und mit rechten Ressentiments hantiert – dann müsste er dabei nur im Fine-Tuning auf solche Dinge keine Rücksicht nehmen. Die KI in ihrem rohen Zustand, aus dem Internet trainiert, wäre schon sexistisch, rassistisch genug, damit sie für Musk wahrheitssprechend wirkt.
Eine KI gibt das aus, worauf ich sie trainiere. Wozu führt das, wenn wir mit KI umgehen, die beispielsweise in China oder in den USA entwickelt wurde?
Die Grundlage dessen, was die KI kann, ist ein aufwendiger mehrmonatiger Trainingsprozess mit allen möglichen Daten – das sogenannte Training des Foundational Models. Bisher ist die Trainingsstrategie der Large Language Models, die KIs mit allem an Text zu füttern, was sich so finden lässt. Die Inhalte werden ein bisschen gefiltert und gereinigt, doch eigentlich geht es momentan darum, möglichst viele Daten da reinzudrücken. Deswegen würde ich mal behaupten, dass eine chinesische KI nicht groß anders sein wird als eine amerikanische. Sie wird auch mit den englischen Texten gefüttert sein, einfach, weil es wahnsinnig viele davon gibt. Ein etwas größerer Schwerpunkt wird natürlich auf dem Chinesischen liegen, aber es wird doch eine große Überschneidung der Datenmenge geben. Aber wichtiger noch als das Grundlagentraining ist in diesem Zusammenhang eigentlich der Finetuning-Prozess, weil dieser wirklich das Verhalten der KI verändert. Hier wird mit sehr viel ausgewählteren Daten und durch menschliches Feedback das Verhalten der KI noch einmal extra trainiert, d.h. welche Arten von Antworten die KI wie strukturiert herausgibt. Zwischen einzelnen Ländern wird dieser Prozess natürlich sehr unterschiedlich sein und dementsprechend werden diese KIs sich auch verhalten. Ich kann mir sehr gut vorstellen, dass die chinesische KI viel strenger gefinetunt wird als z.B. westliche Modelle.
„Lehrer fragen ChatGPT danach, ob es diesen Text geschrieben hat“
KI in Form von Sprache oder Bildern befördert den schönen Schein. Brauchen wir dafür bald eine neue Art Medienkompetenz? Oder reicht weiterhin unser Bauchgefühl?
Ich glaube: Das eigene Bauchgefühl hat noch nie gereicht. Mit einer neuen Technik muss man sich befassen. Man muss sich kritisch damit auseinandersetzen. Welche Möglichkeiten und welche Grenzen damit existieren. Was sie können und was nicht. Wie bei jeder Technologie ist das eine Aufgabe, vor der wir gerade stehen. Es gibt jetzt ein grundsätzliches Misstrauen an Bildungseinrichtungen: Dass Lehrer und Professoren Schülern und Studenten nicht mehr glauben, irgendwelche Aufsätze selbst geschrieben oder Hausaufgaben selbst gelöst zu haben. Es gibt wiederum andere Lehrer und Professoren, die dann ChatGPT danach fragen, ob es einen bestimmten Text geschrieben hat. Was genauso bescheuert ist, denn das Programm kann das auch nicht beantworten und denkt sich irgendwas aus. Das, was es darauf antwortet, hat nichts mit der Wahrheit zu tun.
Da sind noch ganz viele Lücken, wo Menschen Erwartungen an das Programm haben, die nicht erfüllt werden können. Ein Lernprozess, durch den man einfach durch muss. In diesem Fall ist es besonders tricky, weil ChatGPT besonders gut formulierte Antworten ausgibt. Sie hören sich so richtig an, dass man erst mal keinen Zweifel daran hat – wenn man es nicht besser weiß. Das ist das Gefährliche daran. Setzt man es in der Software-Entwicklung ein, gibt es teilweise Code mit plausibel klingenden Funktionen zurück, die es aber gar nicht gibt. Was in der Reaktion darauf andere dazu bewogen hat zu sagen: Diese Funktionen müsste es aber eigentlich auch geben. Das ist ein Lernprozess, der auch für intelligente Leute gar nicht so leicht zu verstehen ist.
Noch enthalten Bilder bzw. Videos Fehler. Das lässt sich noch ganz gut einordnen, aber wie lange wird das so bleiben?
Einige Studien behaupten GPT4, also der Nachfolger des aktuellen ChatGPT, produziere bereits sehr viel weniger Halluzinationen als 3.5. Es gibt Strategien, diese Fehler zu minimieren, z.B. indem ChatGPT die eigenen Antworten evaluiert oder mit einer Wissensdatenbank verknüpft. Ich würde daher schon davon ausgehen, dass in den nächsten Jahren diese Wahrhaftigkeitsproblematik bei den KIs besser wird. Ob sie gelöst wird, das wage ich mal zu bezweifeln.
Dann ließen sich Videos und Bilder kaum noch von der Wirklichkeit unterscheiden. Wie im Fall des sogenannten „Fake-Klitschko“, als angeblich Vitali Klitschko ein Telefongespräch mit Franziska Giffey führte. Braucht es im Digitalen auch einen Wertekompass: Was ich analog nicht tue, mache ich digital erst recht nicht?
Ich weiß nicht, ob sich Kriminelle von einem Wertekompass abschrecken lassen (lacht). Es wird gemacht, wodurch sich irgendwelche Gewinne erzielen lassen. In einem Wertekompass sehe ich ehrlich gesagt keinen Sinn.
„Menschen werden das ausnutzen“
Sie meinen, eine Ethik des Digitalen würde uns nichts nutzen?
Sie würde uns auf jeden Fall nicht schützen. Leute tun böse Dinge. Das haben sie immer getan. Das werden sie immer tun. Und mit KIs gibt es neue Möglichkeiten, böse Dinge zu tun und solche Menschen werden das ausnutzen. Mit einem Wertekompass kann man Google oder Facebook beeindrucken, aber nicht irgendwelche Kriminellen.
Was halten Sie von einem Deepfake-Filter?
Wenn es so was geben könnte, woran ich nicht glaube, dann könnte man einen Filter vorschreiben, der zumindest auch anzeigt, was hier der Deepfake ist und was nicht. Es gibt auch die Idee einer Auszeichungspflicht. Das kann man alles machen, nur die tatsächlichen Kriminellen wird es nicht davon abhalten, damit Schindluder zu treiben.
Quelle: „Das eigene Bauchgefühl hat noch nie gereicht“ | choices – Kultur. Kino. Köln.
Künstliche Intelligenz, Large Language Models, ChatGPT und die Arbeitswelt der Zukunft – Hans-Böckler-Stiftung
Ich habe mich im ersten Halbjahr die meiste Zeit damit befasst, mich in Large Language Models (LLMs) einzulesen. In ihre Technik, in das, was sie können und wie Forscher*innen glauben, dass sie sich auf die Arbeitswelt auswirken werden. Das Resultat ist diese Literaturstudie, die jetzt bei der Hans-Böckler-Stiftung in der Reihe Working Papers erschienen ist.
Die rasante Entwicklung von Systemen Künstlicher Intelligenz wie Chat-GPT, die inhaltlich und sprachlich überzeugende Texte generieren können, hat eine intensive Debatte ausgelöst. Es stellt sich die Frage, welche Auswirkungen solche Systeme auf die Prozesse und Arbeitsweisen zum Beispiel in Wissens- und Kreativberufen haben werden. Diese Literaturstudie wertet den aktuellen Stand der Debatte aus. Sie führt in die technische Grundlage, die so genannten „Large Language Models“, ein und untersucht abschließen
Das erste Kapitel ist eine Art allgemeiner LLM-Explainer und weil ich den Teil nochmal gesondert zugänglich machen wollte, habe ich den Teil auch auf ctrl-verlust verbloggt: