Künstliche Intelligenz, Large Language Models, ChatGPT und die Arbeitswelt der Zukunft | Zenodo

Der User @ankrjoe@social.tchncs.de hat sich die Mühe gemacht ein ePub meiner LLM-Studie zu basteln und sie auf einem Open Access Server zu stellen. Danke!

Die rasante Entwicklung von Systemen Künstlicher Intelligenz wie ChatGPT, die inhaltlich und sprachlich überzeugende Texte generieren können, hat eine intensive Debatte ausgelöst. Es stellt sich die Frage, welche Auswirkungen solche Systeme auf die Prozesse und Arbeitsweisen z. B. in Wissens- und Kreativberufen haben werden. Diese Literaturstudie wertet den aktuellen Stand der Debatte aus. Sie führt in die technische Grundlage, die sogenannten „Large Language Models“, ein und untersucht abschließend, welche

Quelle: Künstliche Intelligenz, Large Language Models, ChatGPT und die Arbeitswelt der Zukunft | Zenodo

SR.de: X Alternativen zu Twitter – ohne Erfolg?

Wurde vom SWR Podcast Cross & Quer eingeladen, um über Mastodon und Bluesky zu quatschen.

Wie geht es weiter mit „X“? Wird es überhaupt wieder Angebote geben, die eine gesellschaftliche Funktion erfüllen, wie Twitter sie mal hatte? Hat das in jüngster Zeit oft genannte „Bluesky“ möglicherweise mehr Erfolg? Wie könnten ganz neue Ansätze einer Debattenkultur im Netz aussehen? Darüber sprechen Florian Mayer und Kai Schmieding mit dem Plattform-Experten und Publizisten Michael Seemann.

Quelle: SR.de: X Alternativen zu Twitter – ohne Erfolg?

Keine Angst vor der KI im Job | Sächsische.de

Interessante Interpretation meines LLM-Papers hat die Sächsische.

Angst vor Veränderungen – sie ist in einer krisengeplagten Zeit nur menschlich, aber nach derzeitigem Erkenntnisstand vielfach unbegründet. Das sagt zum Beispiel der Kultur- und Medienwissenschaftler Michael Seemann. Er hat im Auftrag der Hans-Böckler-Stiftung untersucht, wie die Künstliche Intelligenz die Arbeitswelt tatsächlich verändern könnte.

Quelle: Keine Angst vor der KI im Job | Sächsische.de

„Das eigene Bauchgefühl hat noch nie gereicht“ | choices – Kultur. Kino. Köln.

In choices ist ein Interview von mir erschienen, aber leider ist es so schlecht redigiert, dass ich zögere, es hier zu verlinken. jetzt habe mir gedacht, scheiß drauf: ich redigiere das schlimmste einfach selbst und verblogge das Interview in einer besser lesbaren Form:

choices: Glaubt man Elon Musk, dann sollen Künstliche Intelligenz (KI) bzw. Chat-Roboter bald Wahrheit sprechen können. Heißt der nächste Prophet also TruthGPT?

Michael Seemann: Das ist jedenfalls der Name, den er für sein Projekt ausgegeben hat. Ich denke dabei immer an TruthSocial: Das soziale Netzwerk, das Donald Trump gegründet hat. Und ich glaube: Das wird ähnlich viel Wahrheit beinhalten. Mit den Large Language Models, mit denen wir heute hantieren, kann man alles Mögliche machen. Aber in Sachen Wahrheit sind sie eigentlich ziemlich schlecht, zumindest in den aktuellen Varianten und versagen regelmäßig. Wenn man Wissensfragen hat, kann man bei Google oder in Wikipedia schauen, bei den Large Language Models wird man aber häufig auf die Nase fallen.

Kein Konzept von Wahrheit“

Woran liegt das?

Dabei gibt es zwei Probleme:

Zum einen Halluzinationen, also ausgedachte Antworten, die meist falsch sind. Large Language Models haben kein Konzept von Wahrheit. Wenn man sie nach etwas fragt, dann versuchen sie nicht, eine nach aktuellen Erkenntnissen beste Antwort zu geben – also sozusagen Wahrheit zu sprechen – sondern sie versuchen etwas zu reproduzieren, das sich wie Wahrheit anfühlt. Diese Antwort kann wahr sein, muss es aber nicht. Die KI ist darauf optimiert, plausibel klingenden Text zu formulieren. Und das ist nicht das gleiche wie wahrer Text. Plausibler Text orientiert sich an unserer Erwartungshaltung. Meist wissen wir die Antwort auf die Frage, die wir gestellt haben, selbst aber gar nicht. So erscheint uns die Antwort der Large Language Models plausibel.

Zum anderen hat die KI Biases. Man muss wissen, dass in den Trainingsdaten die ganzen Biases, als auch Wunsch- und Wahnvorstellungen von uns Menschen drin codiert sind. Es gibt Experimente, die bestätigen, dass KI einen sexistischen und einen rassistischen Bias hat. Im Endeffekt drücken sich die ganzen Biases, die wir Menschen mit uns herumtragen und, die wir durch unsere Texte ins Internet hineingegeben haben, auch durch die KI aus.

 

Das heißt: Selbst wenn KIs sich keine Dinge mehr ausdenken – im Fachjargon halluzinieren – und ihre Antworten nur noch aus ihren Trainingsdaten synthetisieren, dann heißt es noch lange nicht, dass die Antwort wahr ist.

Über das Fine-Tuning, im Anschluss an das Training, wird versucht dagegen zu steuern. Es dient auch dazu, der KI krasse Biases abzutrainieren und entsprechende politische Aussagen abzumildern. Mit Freud gesprochen: Es wird eine Art Über-Ich geschaffen. Wenn Elon Musk also glaubt, eine Truth-KI zu schaffen – er, der selbst in der rechten Ecke und mit rechten Ressentiments hantiert – dann müsste er dabei nur im Fine-Tuning auf solche Dinge keine Rücksicht nehmen. Die KI in ihrem rohen Zustand, aus dem Internet trainiert, wäre schon sexistisch, rassistisch genug, damit sie für Musk wahrheitssprechend wirkt.

Eine KI gibt das aus, worauf ich sie trainiere. Wozu führt das, wenn wir mit KI umgehen, die beispielsweise in China oder in den USA entwickelt wurde?

Die Grundlage dessen, was die KI kann, ist ein aufwendiger mehrmonatiger Trainingsprozess mit allen möglichen Daten – das sogenannte Training des Foundational Models. Bisher ist die Trainingsstrategie der Large Language Models, die KIs mit allem an Text zu füttern, was sich so finden lässt. Die Inhalte werden ein bisschen gefiltert und gereinigt, doch eigentlich geht es momentan darum, möglichst viele Daten da reinzudrücken. Deswegen würde ich mal behaupten, dass eine chinesische KI nicht groß anders sein wird als eine amerikanische. Sie wird auch mit den englischen Texten gefüttert sein, einfach, weil es wahnsinnig viele davon gibt. Ein etwas größerer Schwerpunkt wird natürlich auf dem Chinesischen liegen, aber es wird doch eine große Überschneidung der Datenmenge geben. Aber wichtiger noch als das Grundlagentraining ist in diesem Zusammenhang eigentlich der Finetuning-Prozess, weil dieser wirklich das Verhalten der KI verändert. Hier wird mit sehr viel ausgewählteren Daten und durch menschliches Feedback das Verhalten der KI noch einmal extra trainiert, d.h. welche Arten von Antworten die KI wie strukturiert herausgibt. Zwischen einzelnen Ländern wird dieser Prozess natürlich sehr unterschiedlich sein und dementsprechend werden diese KIs sich auch verhalten. Ich kann mir sehr gut vorstellen, dass die chinesische KI viel strenger gefinetunt wird als z.B. westliche Modelle.

Lehrer fragen ChatGPT danach, ob es diesen Text geschrieben hat“

KI in Form von Sprache oder Bildern befördert den schönen Schein. Brauchen wir dafür bald eine neue Art Medienkompetenz? Oder reicht weiterhin unser Bauchgefühl?

Ich glaube: Das eigene Bauchgefühl hat noch nie gereicht. Mit einer neuen Technik muss man sich befassen. Man muss sich kritisch damit auseinandersetzen. Welche Möglichkeiten und welche Grenzen damit existieren. Was sie können und was nicht. Wie bei jeder Technologie ist das eine Aufgabe, vor der wir gerade stehen. Es gibt jetzt ein grundsätzliches Misstrauen an Bildungseinrichtungen: Dass Lehrer und Professoren Schülern und Studenten nicht mehr glauben, irgendwelche Aufsätze selbst geschrieben oder Hausaufgaben selbst gelöst zu haben. Es gibt wiederum andere Lehrer und Professoren, die dann ChatGPT danach fragen, ob es einen bestimmten Text geschrieben hat. Was genauso bescheuert ist, denn das Programm kann das auch nicht beantworten und denkt sich irgendwas aus. Das, was es darauf antwortet, hat nichts mit der Wahrheit zu tun.

Da sind noch ganz viele Lücken, wo Menschen Erwartungen an das Programm haben, die nicht erfüllt werden können. Ein Lernprozess, durch den man einfach durch muss. In diesem Fall ist es besonders tricky, weil ChatGPT besonders gut formulierte Antworten ausgibt. Sie hören sich so richtig an, dass man erst mal keinen Zweifel daran hat – wenn man es nicht besser weiß. Das ist das Gefährliche daran. Setzt man es in der Software-Entwicklung ein, gibt es teilweise Code mit plausibel klingenden Funktionen zurück, die es aber gar nicht gibt. Was in der Reaktion darauf andere dazu bewogen hat zu sagen: Diese Funktionen müsste es aber eigentlich auch geben. Das ist ein Lernprozess, der auch für intelligente Leute gar nicht so leicht zu verstehen ist.

Noch enthalten Bilder bzw. Videos Fehler. Das lässt sich noch ganz gut einordnen, aber wie lange wird das so bleiben?

Einige Studien behaupten GPT4, also der Nachfolger des aktuellen ChatGPT, produziere bereits sehr viel weniger Halluzinationen als 3.5. Es gibt Strategien, diese Fehler zu minimieren, z.B. indem ChatGPT die eigenen Antworten evaluiert oder mit einer Wissensdatenbank verknüpft. Ich würde daher schon davon ausgehen, dass in den nächsten Jahren diese Wahrhaftigkeitsproblematik bei den KIs besser wird. Ob sie gelöst wird, das wage ich mal zu bezweifeln.

Dann ließen sich Videos und Bilder kaum noch von der Wirklichkeit unterscheiden. Wie im Fall des sogenannten „Fake-Klitschko“, als angeblich Vitali Klitschko ein Telefongespräch mit Franziska Giffey führte. Braucht es im Digitalen auch einen Wertekompass: Was ich analog nicht tue, mache ich digital erst recht nicht?

Ich weiß nicht, ob sich Kriminelle von einem Wertekompass abschrecken lassen (lacht). Es wird gemacht, wodurch sich irgendwelche Gewinne erzielen lassen. In einem Wertekompass sehe ich ehrlich gesagt keinen Sinn.

Menschen werden das ausnutzen“

Sie meinen, eine Ethik des Digitalen würde uns nichts nutzen?

Sie würde uns auf jeden Fall nicht schützen. Leute tun böse Dinge. Das haben sie immer getan. Das werden sie immer tun. Und mit KIs gibt es neue Möglichkeiten, böse Dinge zu tun und solche Menschen werden das ausnutzen. Mit einem Wertekompass kann man Google oder Facebook beeindrucken, aber nicht irgendwelche Kriminellen.

Was halten Sie von einem Deepfake-Filter?

Wenn es so was geben könnte, woran ich nicht glaube, dann könnte man einen Filter vorschreiben, der zumindest auch anzeigt, was hier der Deepfake ist und was nicht. Es gibt auch die Idee einer Auszeichungspflicht. Das kann man alles machen, nur die tatsächlichen Kriminellen wird es nicht davon abhalten, damit Schindluder zu treiben.

Quelle: „Das eigene Bauchgefühl hat noch nie gereicht“ | choices – Kultur. Kino. Köln.

Künstliche Intelligenz, Large Language Models, ChatGPT und die Arbeitswelt der Zukunft – Hans-Böckler-Stiftung

Ich habe mich im ersten Halbjahr die meiste Zeit damit befasst, mich in Large Language Models (LLMs) einzulesen. In ihre Technik, in das, was sie können und wie Forscher*innen glauben, dass sie sich auf die Arbeitswelt auswirken werden. Das Resultat ist diese Literaturstudie, die jetzt bei der Hans-Böckler-Stiftung in der Reihe Working Papers erschienen ist.

Die rasante Entwicklung von Systemen Künstlicher Intelligenz wie Chat-GPT, die inhaltlich und sprachlich überzeugende Texte generieren können, hat eine intensive Debatte ausgelöst. Es stellt sich die Frage, welche Auswirkungen solche Systeme auf die Prozesse und Arbeitsweisen zum Beispiel in Wissens- und Kreativberufen haben werden. Diese Literaturstudie wertet den aktuellen Stand der Debatte aus. Sie führt in die technische Grundlage, die so genannten „Large Language Models“, ein und untersucht abschließen

Quelle: Künstliche Intelligenz, Large Language Models, ChatGPT und die Arbeitswelt der Zukunft – Hans-Böckler-Stiftung

Das erste Kapitel ist eine Art allgemeiner LLM-Explainer und weil ich den Teil nochmal gesondert zugänglich machen wollte, habe ich den Teil auch auf ctrl-verlust verbloggt:

Was sind Large Language Models und wie funktionieren sie?

 

Dezentrale Netzwerke: Social Media ohne große Unternehmen » mediakompetent.de

Ich wurde für ein Medienkompetenzprojekt zu dezentralen sozialen Netzwerken Interviewt.

Der Internetforscher Michael Seemann formuliert es so: „Das Problem ist, dass die Vorteile von dezentralen Netzwerken in der Benutzung erst mal nicht offensichtlich sind. Im Gegenteil. Dezentralität bedeutet immer mehr Komplexität, aufwendigeres Onboarding, nerviges Erklären. Es macht keinen Spaß und bringt im Grunde keine anfassbaren Vorteile.” Dennoch gebe es langfristige Vorzüge, so der Forscher: „Der wesentliche Vorteil dezentraler Systeme liegt in der Resilienz. Ein dezentrales Netzwerk kann niemand au

Quelle: Dezentrale Netzwerke: Social Media ohne große Unternehmen » mediakompetent.de

Twitter-Alternative: Warum Threads echtes Potenzial hat – ZDFheute

Wurde neulich zu Threads interviewed. Ist auch ein bisschen Mastodon mit drin.

Und doch dürfte Threads das Potenzial zur echten Twitter-Alternative haben. Schon jetzt entspricht die Anzahl der Registrierungen einem Viertel der Zahl aktiver Twitter-User. Und: Meta hat bereits Verbesserungen und neue Features aller Art angekündigt.

Quelle: Twitter-Alternative: Warum Threads echtes Potenzial hat – ZDFheute

Was schenkt sich Elon Musk zum Geburtstag? (mit Michael Seemann) ~ Haken dran – das Twitter-Update Podcast

Nachreichung: war neulich bei Haken Dran, eine netten Podcastprojekt über den täglichen Niedergang von Twitter.

Dennis ist weiterhin im Urlaub – eine brillante Gelegenheit, maleinen Gast ans Mikrofon zu lassen, der beruflich„Internetforscher“ ist. Und wir haben gemeinsam Gedanken. ZuMastodon, zu den Spamattacken, die gerade reihenweise Tweetsretweeten und ohne Ende Accounts sperren lassen (Zusammenhangunklar) und – na klar – über das Thema des Sommerlochs: Dem CageFight zwischen Musk und Zuckerberg.

Quelle: Was schenkt sich Elon Musk zum Geburtstag? (mit Michael Seemann) ~ Haken dran – das Twitter-Update Podcast

Anklagen gegen Binance und Coinbase: „Bitcoin langfristig unter 1000 US-Dollar“

Wurde von der Berliner Zeitung zur Klage gegen Binance und Coinbase befragt.

Für Michael Seemann stellt sich angesichts der sich häufenden Skandale grundlegend die Frage nach der Sinnhaftigkeit digitaler Währungen: „Es gibt praktisch kaum jemanden, der in dem Kryptobereich unterwegs ist, der etwas anderes macht als zu spekulieren“, sagt Seemann im Gespräch mit der Berliner Zeitung. Deshalb sei es eher angebracht, Kryptoplattformen von Glücksspielbehörden regulieren zu lassen, statt sie der Börsenaufsicht zu unterstellen. Das amerikanische Zockerparadies Nevada wäre vielleicht ein de

Quelle: Anklagen gegen Binance und Coinbase: „Bitcoin langfristig unter 1000 US-Dollar“