Was kommt dabei heraus, wenn man viel zu viel Zeit an einem Sonntagnachmittag hat. Dieser Text. Ein Text, der Gedanken der letzten Wochen zusammenfasst.
Es war ein Gedanke, der aufkeimte, als ich im Mastodon-Feed von Herrn @Isotopp einen Comicstrip gesehen habe. Der Comic Strip ist im Original hier zu finden. Es geht kurz gesagt darum, was passiert, wenn man AI-Modellen ihren eigenen Output vorsetzt, um diesen zu verarbeiten und damit zum Teil des eigenen Modells zu machen. Dies führt letztlich bekanntermaßen zum Modellkollaps. Die Zeichnerin zieht hier den Vergleich zur Mad Cow Disease heran. Der Comic endet, damit das sich die Protagonistin letztlich einem Buch zuwendet.
Der Comicstrip basiert auf den Aussagen dieser Arbeit “Self-consuming generative models go MAD“. Die Verfasser dieser Arbeit führen aus:
Our primary conclusion across all scenarios is that without enough fresh real data in each generation of an autophagous loop, future generative models are doomed to have their quality (precision) or diversity (recall) progressively decrease We term this condition Model Autophagy Disorder (MAD), by analogy to mad cow disease, and show that appreciable MADness arises in just a few generations.
Der Comic beschäftigte mich eine Weile und ich saß später auf dem Sofa mit einer Tasse Tee und dachte: Ist dieser Effekt eigentlich auf den Menschen übertragbar? Überträgt sich MADness auf den Menschen?
Vorbemerkung
Ich möchte eins gleich am Anfang etwas aus dem Weg räumen. Um Missverständnisse zu vermeiden. Ich halte AI für ein sehr nützliches Werkzeug. Ich halte es für ein notwendiges Werkzeug. Mehr sogar, ich halte es für ein unumgängliches Werkzeug, sofern es in den Grenzen seiner Auslegung genutzt wird. Was auch immer dies zu dem Zeitpunkt bedeutet.
Das soll daher kein Artikel sein, der ausdrücken soll: “Geh mir wech mit dem Teufelszeug!“ oder “Es wird alles untergehen!”. Oder „Old man yells at AI“. Es ist wie gesagt ein Werkzeug und es liegt an uns, wie wir es einsetzen werden. Natürlich habe ich aus den letzten 51 Jahren jede Menge Pessimismus angehäuft, um an allen möglichen Stellen der Situation mit einer gewissen Sorge entgegenzutreten. Ich versuche aber dennoch, diese Sorgen nicht zu sehr in den Vordergrund dieses Textes zu stellen.
Warum ich AI für unumgänglich halte? Das hängt mit unserem dauerelastischen Hunger nach Content jedweder Art zusammen. Dem doppelten demographischen Problem. Aber das ist ein eigener langer Text.
Viel subtiler
Aber wie gesagt, darum soll es auch gar nicht gehen. Mir geht es eher um kreative Schaffensprozesse, die Auswirkungen, wenn diese kreativen Schaffensprozesse in automatisierter Weise hinreichend genau simuliert werden.1
Eine schlechte Idee der Vergangenheit
Um zu mindestens mal grob die Richtung meines Gedankens zu finden: Ich finde ja den Vergleich mit der Mad Cow Disease gar nicht soooo schlecht. Damals hat man sich ja doch echt gewundert, dass es eine möglicherweise sehr miese Idee ist, wenn man Pflanzenfressern Kraftfutter gibt, das zum Teil aus Tierüberresten besteht. Pflanzenfresser, die eigentlich gar nicht dafür gedacht waren, Fleisch zu essen.
Hier kann man haarspaltend sagen, dass es nicht Rinder waren, die man Rindern ins Futter gemischt hat, sondern Schafe. Wenn ich mich recht erinnere, sprang so eine Krankheit, die sich Scrapie nennt, auf die Rinder über. Also wenn ich den Begriff “Autophagie” richtig deute, war die Ursache eben nicht Autophagie, “nur” -phagie von etwas zu nahem, zu unpassendem. Das ist die Stelle, wo der Vergleich Fortbewegungsprobleme bekommt.
Und selbst unter Rindern wäre sowieso im strengen Sinne keine Autophagie, weil ja das Rind nicht an sich selbst geknabbert hat. Was vermutlich weniger problematisch für das Hirn des Rindes gewesen wäre als der Verzehr von nicht hinreichend bearbeiteten Schafen. Im Grunde genommen von Schafen überhaupt.
Vielleicht wäre ein wenig besseres Beispiel das beim Volk der Fore endemisch auftretende Kuru2, ebenfalls eine Prionenerkrankung, bei dem die Hypothese ausgestellt wurde, das das durch den bei den Fore praktizierten Kannibalimus (es wurde Fleisch von verstorbenen Stammesangehörigen verzehrt, als diese Praxis in den 1950ern verboten wurde, starb die Erkrankung Kuru praktisch aus) ausbrach. Das ist zwar immer noch keine Autophagie, aber schon mal näher dran als die Übertragung von Schaf zu Rind.
Irgendwann kam die Vermutung auf das bestimmte Erkrankungen beim Menschen möglicherweise durch den Verzehr von Rindfleisch entstanden sind. Das war die Diskussion über die Variante der Creutzfeld-Jakob-Erkrankung. Ich habe damals vor Schreck aufgehört, Rind zu essen und als ich es wieder ausprobiert habe, schmeckte es mir nicht mehr. Der Geschmack gefiel mir nicht mehr, und Rind schmeck zu intensiv, um diesen zu ignorieren. Ich habe nie mehr damit angefangen.
Wenn man es denn ganz genau nehmen will, ist die Situation mit der Modellautophagie eher wahrscheinlich mit dem Ende des FBI-Direktors in „Hanibal“ vergleichbar. Guckt euch das Ende an, ich werde Euch hier nicht den Appetit verderben. Aber was in der Szene passiert muss offensichtlicherweise dazu führen, das es mit den Gedanken irgendwann nicht mehr so weit ist.
Model Autophagy Disorder
Um auf das Papier zurückzukommen, möchte ich das hier kurz so zusammenfassen, wie ich das verstanden habe: Es spricht von Model Autophagy Disorder in dem Zusammenhang, wenn ein Modell anfängt Resultate von sich selbst zu konsumieren und schlussendlich kollabiert. Das Paper gibt einige Beispiele dafür. Klar … der Name ist “catchy”, aber der Vergleich BSE zu MAD hinkt erstaunlich wenig.
Der Gedanke ist nur folgerichtig: Wenn Scrappy zu BSE und BSE zu vCJD werden kann, warum sollte der KI Modellkollaps nicht auch in der Lage sein, Schranken zu überspringen? Okay, es werden keine Prionen übertragen, sondern Gedanken. Aber Gedanken haben ja manchmal auch die Neigung infektiös zu sein.
Die gefühlte Seele in der Maschine
Ich finde da den Begriff der Model Autophagy Disorder ohnehin interessant. Eine AI ist ein technisches System genauso wie ein Auto. Und sprechen wir ja auch nicht von einer Ignition Sequence Disorder, wenn ich beispielsweise die Zündkabel in falscher Reihenfolge aufstecke. Da reden wir einfach von einem Defekt. Oder bei den Zündkabeln von Dämlichkeit. Vielleicht ist der Name auch wieder der unbewusste Versuch, eine Seele in etwas menschlich Erscheinendes zu interpretieren, auch wenn es letztlich nur Resultat eines Algorithmus ist. Wir sind schnell dabei Menschliches in unserer Umwelt zu sehen, aber wie jeder Hundebesitzer weiß, ist die Sichtbarkeit von Zähnen bei ihren felligen Begleitern kein Lächeln, sondern eher ein Grund sich in Acht zu nehmen. Trotzdem wird der Ausdruck oft falsch verstanden, wenn dazu nicht nicht auch knurrende Geräusche vom Hund kommen.
Disorder hat sowas von “personality disorder” oder all die anderen Symptomkomplexe, die auf “disorder” enden, sei es nun beim Menschen oder beim Tier.
Streng genommen ist das Modell ist ja nicht “krank”, es verhält sich ja eigentlich perfekt im Rahmen seiner Auslegungsparameter. Es wurde nur durch das Wiederfüttern des eigenen Resultat in einen zwangsläufige Abwärtsspirale geschickt. Wir mögen das Resultat dann nicht. Das Resultat mag aus unserer Sicht falsch oder unzureichend sein. Aber wie gesagt, es ist ein Algorithmus, der auf Basis der Inputdaten eine Ausgabe liefert, und der Algorithmus würde es auf Basis gleicher Inputdaten genauso wieder tun.
Ich finde die Fähigkeit einer AI zu halluzinieren sehr … nun ja … menschlich. Ich glaube viele waren schon mal in der Situation, sich aus einer Situation herausbullshiten zu müssen oder zu wollen. Vermutlich sind sich der Vorgang des Halluzinierens einer KI und dem Bullshitten eines Menschen strukturell sehr ähnlich. Das Stammeln einer Antwort aus wild als erstes in den Kopf kommenden Worten entspricht da dem stochastischen Prozess, der in einer AI abläuft. Und der Trick, im Prompt zu sagen “Bitte mit Quelle”, um Halluzinationen zu vermeiden, funktioniert auch beim Menschen. Je nachdem wie gut man gelernt hat, mag bei diesem Prozess sogar etwas Brauchbares rauskommen.
Ich glaube ein wesentlicher Schritt auf der Fortentwicklung von LLM wird die Sicherstellung sein, das LLM sicher sagen können „Ich weiss es nicht!“. Statt sich herauszubullshitten. Wenn das geschafft ist, ist die Technologie schon einmal deutlich weiter.
Unterjochung
Wo wir bei der Vermenschlichung sind: Die Kommentare, die das Ende der Menschheit herbeipostulieren, weil KI irgendwann sich seiner selbst bewusst werden könnte, sind auch vielleicht genau das: Wir meinen etwas menschliches wahrzunehmen und interpretieren auch unsere schlechtesten Seiten da rein. Oder gerade die schlechten Seiten. Die Furcht vor Unterjochung durch die KI kommt ja genau aus dieser Tendenz, Menschliches zu sehen, wo nichts Menschliches ist.
Wer heute schreibt, dass wir davor Angst haben müssen, das AI das Potential hat, die Macht und die Weltherrschaft an sich zu reißen, verkennt aus meiner Sicht eine Reihe von Faktoren: Zunächst einmal müsste die AI erst einmal ein Verständnis für den Begriff Macht entwickeln. Da sind wir lange noch nicht. Es müsste ein Verständnis dafür entwickeln, warum es lohnend ist, Macht zu besitzen und diese auszuüben. Da sind wir noch viel länger nicht.
Eine Frage, auf deren Beantwortung in derem Zusammenhang ich immer noch hoffe ist die ganz simple Frage: Warum eigentlich? Warum sollte eine AI Macht haben wollen? Beherrschen zu wollen ist ein menschliches Ziel. Es ist genauso gut möglich, dass wir einer AI einfach völlig egal sind. Wenn eine AI wirklich so hochentwickelt wäre, dass sie die Fähigkeiten hätte die Macht an sich zu reißen, würde sie wahrscheinlich schnell zu dem Schluss kommen, dass das schlicht Energieverschwendung wäre, die Menschheit zu knechten. So wie wir uns auf diesem Erdball benehmen, sind wir ein zeitweiliges Problem. Die AI könnte sich einfach an den den Rand des Flusses setzen, und darauf warten, dass unsere Leichen mit dem Hintern oben an ihr vorbeischwimmen.
Die Kunst löst das “Warum?” meist auf zwei Arten. Die AI will uns vor uns selbst schützen oder die AI will sich selbst schützen. Um in Filmen zu sprechen: Entweder Proyas “I, Robot” (ich mag hier nicht Asimov schreiben, weil das Buch allenfalls eine lose Inspiration war) oder Camerons “Terminator”. In beiden Fällen ist das Ziel nicht Macht, sondern Erhaltung. Die Erfüllung eines Auftrags, den wir nicht hinreichend genau spezifiziert haben. Der Auftrag mit allen seinen Schwächen kommt allerdings von uns und trägt damit all unsere Schwächen und Stärken in sich.
Regelungsbedarf
Wenn ich schon bei “I, Robot” bin. Ich habe einmal angemerkt, dass Asimov offensichtlich kein Jurist war. Denn es fehlt zu den Robotergesetzen dummerweise eine Robotergesetzdurchführungsverordnung und ein Kommentar, in dem Auslegungshilfen niedergelegt sind. Außerdem gibt es nur drei (okay, später vier davon). Von Juristen geschrieben hätte das Buch wahrscheinlich gargantuöse Ausmaße mit einer in die tausende gehenden Zahl von Paragrafen.
Vielleich sind es die Einfachheit dieser Regeln, die auf den ersten Blick wie Eleganz aussieht, aber in Wahrheit die Komplexitäten des Lebens, der Schwierigkeit, mit menschlichen Wesen zu interagieren, die sich ihrer Irrationalität teilweise nicht einmal selbst bewusst ist, nicht wirklich abilden kann. Und in den Lücken der Abbildung ist dann die unerwarte Reaktion. Das ist ja auch genau, worauf Asimov meiner Erinnerung hinaus will. Es ist leider schon zu lange her, das ich das gelesen habe.
Denn so viele Dinge sind ja im Grunde genommen nicht definiert. Was ist “Schaden”? Und mal rein „praktische“ Überlegung: Dürfte Voyagers Holodoc überhaupt operieren, wenn für diesen die Robotergesetze gelten? Ich gehe erst einmal davon aus, dass der Holodoc ein Roboter ist, da die physikalische Ausprägung eines Roboters erst mal egal ist. Nach deutschem Recht ist jede Operation eine Körperverletzung. Sie bleibt nur deswegen straffrei, weil sie mit Einverständnis des Patienten stattfindet. Aber eine solche Ausnahme existiert nicht in den Robotergesetzen. Im ersten Gesetz steht nur “darf keinen Menschen verletzen”.
Es gibt zwar das 2. Gesetz, das ein Roboter gehorchen muss, und man könnte das Einverständnis zur OP als Befehl werten, aber das 2. Gesetz sagt auch, das das nicht gilt, wenn gegen das 1. Gesetz verstoßen wird. Es steht im ersten Gesetz zwar auch “durch Untätigkeit zulassen, dass einem menschlichen Wesen Schaden zugefügt wird”. Jetzt kann das Unterlassen einer Operation einem Menschen Schaden zufügen. Verletzen darf der Roboter aber auch nicht? Was bleibt dem System jetzt anderes, als nen Beep und nen Segmentation Fault von sich zu geben oder wahlweise das positronische Gehirn in die Luft zu jagen. Wat nu?
Übergabe
Ich weiß, dass es eine sehr pessimistische Sichtweise ist: Die AI wird nicht die Macht an sich reißen. Muss sie auch nicht. wir werden sie an sie übergeben, aus was für Gründen auch immer. Weil wir sie zum integrierten Bestandteil unseres Lebens machen werden. Und da müssen wir am Ende aufpassen, wer letztlich die Entscheidung fällt. Wir müssen aufpassen, nicht in eine solche Richtung zu fallen: Weil wir Angst haben, weil wir gierig sind, weil wir nicht mehr verstehen.
Ich mache mir keine Sorgen darüber das in absehbarer Zeit KI die Macht an sich reißen wird. Die interessante Frage ist, wozu wir sie nutzen werden, wer sie nutzen wird. Denn Menschen verstehen das Konzept von Macht. Wie eingangs erwähnt ist KI ein Werkzeug, das einem Zweck dient. Wie ein Hammer, eine Gabel, soziale Netzwerke oder auch die Atombombe.
Und auch die Nazis haben die Macht nicht ergriffen, sie wurde ihnen gegeben. Von uns. In einer Wahl. Also jetzt nicht persönlich von uns, aber von uns als Gesellschaft. Und wir sind kurz davor es wieder zu tun, wenn ich mir die Umfragen so angucke. Und wieder aus den gleichen Gründen: Weil wir Angst haben, weil wir gierig sind, weil wir nicht mehr verstehen.
Deus ex prompt
Aber warum kam bei mir abends auf dem Sofa der Gedanke auf, ob sich dieses MAD auf den Menschen überträgt? Ich muss dafür etwas ausholen. Einer meiner Vermutungen ist es, dass einer der großen Usecases für AI die massenhafte Generierung von Lesestoff zu ermöglichen.
Unser Hunger nach Geschichten ist unendlich, es ist ein Geschäft. Und je geringer der Aufwand, desto grösser das Geschäft. Mit AI ist es glaube ich ich weniger ein Problem, 52 Bände “Harry Eragon hungert Biss zum 5-Uhr-Tee” oder die “Herr der 5 befreundeten Ausrufezeichen” im Jahr rauszuhauen. Letztlich könnte man damit Bücher auf Mikrozielgruppen zuschneiden. Hinter einer gescheite GUI baut man Prompts zusammen, die dann das Wunschbuch generieren.
Man mag den Hundeteil von diesen Vampirromanen lieber und denkt das die Protagonistin einen Fehler gemacht hat, als sie zu den Glitzerdingens gerannt ist? Ab in den Prompt! “Der-dessen-name-nicht ausgesprochen-wird” doch ganz nett und total missverstanden? Ab in den Prompt! Die Protagonistin lässt ihre Schwester sitzen und bei dieser Brot-und-Spiele-Menagerie mitmachen und guckt mit ihrem Typen dabei zu, wie die Schwester völlig unter die Räder kommt? Ab in den Prompt! Ja, okay, das ist mit heutigen AIs wahrscheinlich nicht möglich, aber ich nehme hier mal die Grundüberlegung von Black Mirror: Was ist mit heutiger Technologie, weiterentwickelt um 2 Wochen. Oder 2 Jahren?
Maybe, just maybe
Vorläufer dieser Entwicklung sind möglicherweise schon sichtbar. Ich hatte vor kurzem eine recht interessante Diskussion, in der ein Beispiel gebracht worden ist: Es gibt eine Kategorie von Videos auf YouTube in denen eine Text2Speech-Software Texte vorliest, die sich um Familiendramen dreht.
Texte, in denen Menschen auf Reddit angeblich fragen, ob sie in einer Situation das A…loch sind (AITA). So thematisch “AITA weil ich meinen Mann rausgeworfen hab, weil er mich mit der Schwester des Hundeleinenverkäufers meiner Dogsitterin betrogen hat” oder “AITA, weil ich meinem Bruder aus dem 15. Stock der Schwerkraft übereignet habe, weil er meinen Computer ausm 10. Stock geworden hat?“. Ich habe nicht geprüft, ob diese Stories wirklich von Reddit genommen werden. Ich glaube es nicht. Aber diese Videos sind auf Youtube epidemisch. Der Punkt, ob diese Geschichten wirklich von Reddit stammen, ist eigentlich auch völlig irrelevant.
Ich möchte fast garantieren, dass diese Geschichten alle einer AI entstammen. Die textliche Struktur ist immer ähnlich, merkwürdige Phrasen kommen in jedem Text vor. Es gibt anscheinend ein Publikum für diese Videos, das sich mittlerweile auch darüber lustig macht, wenn diese Phrasen auftauchen. Beispielsweise eben das “Maybe, just maybe”, das ich als Überschrift für diesen Abschnitt gewählt habe.
Ich habe in der Diskussion gelernt, dass es dafür einen Begriff gibt: Slop. Dieser ist in der Wikipedia im Artikel “AI Slop” wie folgt definiert:
Als Slop (auch KI-Slop, englisch AI slop; von englisch slop, Mansch, Schlicker, Schlempe) werden Medieninhalte – einschließlich Text und Bilder – von niedriger Qualität bezeichnet, die mit Hilfe von generativer künstlicher Intelligenz erzeugt werden. Der um 2022 geprägte Ausdruck ist, ähnlich wie Spam, abwertend konnotiert.
Das heißt, die personalisierte Generierung einer Geschichte auf dem Niveau eines Buches ist mehr eine qualitative Frage als die Frage, ob es möglich ist. Denn im Grunde genommen sind wir auf dem Weg dahin schon viele Schritte gegangen.
Ich muss natürlich eine Einschränkung machen: Wirklich sicher, das das eine KI ist, die das schreibt, bin ich natürlich nicht. Ich könnte da einer Reihe von Lohnschreibern, die sich die Mühe machen, innerhalb von wenigen Tagen dort solche Geschichten zusammenzuzimmern, Unrecht tun. Und vielleicht ist das “Maybe, just maybe” ein Hilferuf, man möge sie aus dieser literarischen Hölle befreien: „PhD in meiner Sprache, viele Semester studiert, aber ich muss das hier schreiben“. Ich weiß es nicht.
Eine Welt … wie sie mir gefällt
Aber zurück zu anderer Literatur aus der Quelle der KI. Ich glaube ja, dass alleine die Fähigkeit mikrozielgruppenspezifische Geschichten einfach genieren zu können, schon erhebliche soziologische Auswirkungen haben wird: Mit Verlust ist man ja meist zuerst in Büchern konfrontiert. Man trauert als Jugendlicher und Kind mit dem Protagonisten, wenn ein der Hauptfigur nahestehende Charakter stirbt. Sich der Sache opfert. Oder einfach nur sinnlos von dieser Welt tritt, weil die Sinnlosigkeit selbst die Geschichte vorantreibt.
Wenn ich die Geschichte nach meinen Wünschen generieren lassen kann, dann wird es wahrscheinlich keinen Verlust mehr geben, der berührt. Nur Verlust von Redshirts. Von Nebencharakteren, die so schnell aus der Geschichte verschwinden, wie sie aufgetreten sind. Der Tod von Boromir trifft einen ja im Herrn der Ringe nur so stark, weil es eben nicht nur eine unwichtige Figur war, sondern weil sie für weite Teile der Geschichte ein Bedeutung hat. Ich sagte ja dem generieren Prozess ja nicht “Bring mal meinen Lieblingscharakter um! Möglichst blutig!”. Und wenn das jemand sagen würde, würde ich mir erhebliche Sorgen um die geistige Verfassung dieses Menschen machen. Und ggf. die AI anweisen, neben der Geschichte einige Telephonnummern für professionelle Hilfe mit zugeben, für „Call a shrink“ 3
Aber was ist, wenn man nicht mehr damit klarkommen muss, dass gerade der Charakter, den man gut findet, gerade durch einen Schleier in einer Behörde gefallen ist (snueff)? Was ist, wenn man nicht mehr damit klarkommen muss, das der Autor einen Weg gewählt hat, den man nicht gut findet, aber akzeptieren muss, damit man das Ende der Geschichte erfährt? Was ist, wenn jedes Buch die Handlung nimmt, die man sich wünscht? Und später merkt, dass die Welt nicht so ist? Nicht alles nach den Wünschen geht, die man so im Kopf hat?
Dazu dann auch noch den AI generierten Film, in dem auch alles so läuft wie man möchte. Ich meine, Probleme wie das Halluzinieren von AIs ist kein Problem, wenn das Endprodukt per Definition Fiktion ist. Ich bin mir nicht mal sicher, ob wir das überhaupt merken würden, das das AI ist, wenn Halluzination und Fiktion hier Ziel und wünschenswert ist.4 Vielleicht eben nur daran, das die Geschichte zu perfekt unseren Wünschen folgt.
Wenn mir jemand erklären würde, das Jar Jar Binks Produkt einer Halluzination einer frühen George Lucas AI war oder ein cineastischer Modelkollaps, dann würde ich mit einiger Wahrscheinlichkeit sagen “Oehm, ja, das ergibt sogar irgendwie Sinn!”. Die Sprache seines Volkes hört sich ja schon mal wie ein dem Modellkollaps entgegenstrebendes LLM an. Wenn man mal so überlegt …. jaaaahhaa … mir ist auch klar, dass der zeitliche Ablauf nicht stimmt … Jar Jar Binks war vor LLM. Aber trotzdem!
Übertragbarkeit?
Aber um zur Übertragbarkeit der Model Autophagy Disorder zu kommen? Ihr habt sicherlich gemerkt, dass ich auf Kinder- und Jugendbücher abgehoben habe in meinen Gedanken. Vielleicht noch Büchern, zu denen man meist im jungen Erwachsenenalter seinen Zugang findet.
Dem Gedanken liegt die Vermutung zugrunde, dass das, was wir lesen das prägt, was wir schreiben. Aber auch wie wir schreiben. Ich halte Sprache für ein Instrument und genauso wie ein Klavier oder eine Trompete muss man das Spielen dieses Instruments ständig üben. Dem Gedanken liegt die weitere Vermutung zu Grunde, dass die Bewertung unserer Lehrer prägt, was wir schreiben. Wie wir schreiben.
Was ist aber nun, wenn die Bücher, die wir lesen, zunehmend von AI generiert werden? Wenn die meisten Bücher statistisch wohlklingende Remixe von bestehenden sind? Was ist, wenn die Texte die wir in der Schule, während unserer Ausbildung schreiben, immer mehr von AI kontrolliert werden, um sich dem Betrug mit ebensolcher AI zu erwehren? Wir AIs verwenden, um zu überprüfen, ob eine andere AI unseren Text als AI-geschrieben deklarieren würde und uns so immer weiter in ein Korsett dessen unverdächtiger Sprache drängen?
Wie komme ich auf die Idee der Prägung. Einer meiner Deutschlehrer war ein echtes A… (Hallo Herr W.!) Ich nahm ihm damals übel, dass er seinen eigenen Aufsatz zur Interpretation eines Textes von Wolfgang Borchert genommen hat, um die Arbeiten zu bewerten. Ich fand das damals ziemlich arrogant. Etwas später habe ich verstanden, dass er mit dieser Note auf den Schultern seines Lehrers stand, so wie jeder, der etwas tut, auf den Schultern der Lehrer steht, die einen zu dem gemacht haben, was man ist. Aber mit 16 oder so ist man nicht geneigt, das so zu sehen. Später habe ich auch mir selbst gegenüber zugegeben, dass meine Interpretation vor allen Dingen eines war: Ganz. Großer. Mist.
Zugegeben, ich war eine stinkend faule Socke. Ich mochte ihn nicht, er mochte mich nicht. Ich war ein Spinner, in den Augen vieler Menschen bin ich es wahrscheinlich immer noch. Aber die Auseinandersetzung mit ihm hat meine Schreibweise geprägt und hat mir einige Lektionen fürs Leben mitgegeben, die ich manche viel später verstanden habe und wofür ich ihm dankbar bin. Ich mag ihn immer noch nicht. Könnte auch mein leichtes unterschwelliges Ressentiment gegenüber Leuten mit Schnäuzern erklären. Aber das ist glaube ich das Wesen eines guten Lehrers. Es hat mich gewissermaßen geprägt. Und ja Herr W., ich habe Sie gerade als einen guten Lehrer bezeichnet. Und meine es auch so.
Prägung
Was für Literatur entsteht im Geiste von Menschen, die sprachlich vom Korsett der AI unverdächtiger Sprache gefangen waren? Welche Sprache wird von Menschen gewählt, die die prägenden Jahre Texte gelesen haben, die von einer AI stammen? Maßgeschneidert durch den Prompt auf ihr Gefühlsleben? Welche zusätzlichen Anstrengungen müssen diese Autoren in ihrem Werdegang auf sich nehmen, um aus dieser Beschränkung auszubrechen.
Das Produkt einer AI ist notwendigerweise eine vereinfachte Kopie des Erlernten. Das liegt in der Natur des statistischen Prozesses, der der AI zugrunde liegt. Es kann nicht etwas herauskommen, das statistisch genauso komplex ist, wie das Erlernte. Erst recht nichts, das komplexer ist. So wenn wir versuchen einen Text eines der großen Autoren zu imitieren, etwas schreiben, das ähnlich klingen mag, dem aber die Nuancen fehlen, die den Text des Autors letztlich ausmachen. Ich finde man merkt das immer, wenn eine erfolgreiche Franchise von einem neuen Autor weitergeführt werden, weil der Weg zu den Gedanken des Erstschaffenden für immer versperrt ist. Sei es weil er die Franchise nicht mehr fortführen möchte oder weil er dort hingegangen ist, wo wir am Ende alle hingehen5.
Es klingt ähnlich, liest sich irgendwie auch gut, bringt viel Geld ein, aber es lässt einen merkwürdigen Beigeschmack zurück. Da sind diese veganen Fleischersatzprodukten nicht unähnlich.
Ich glaube auch, dass diese Autoren, die Franchises weiterführen, als erste Probleme mit der Konkurrenz generativer AI bekommen werden. Weil ihnen eins verboten ist, um die Franchise zu erhalten, weil sie nur Truchsess im gedanklichen Königreich eines anderen Autors sind. Die kreative Weiterentwicklung. Weil ihnen etwas verschlossen ist, was AI nicht haben oder noch nicht haben. Und damit fehlt ihnen ein Unterscheidungsmerkmal.
Es ist die Inspiration der Autoren, die letztlich die Sprache weiterentwickelt, die dafür sorgt, das neue Literatur eben nicht nur eine vereinfachte Kopie des Erlernten ist, des Geprägten ist, sondern etwas Neues.
Ich glaube nicht, das AIs mittelfristig zu etwas wie das Statthaben von Inspiration im Schaffen von Inhalten fähig sein werden. Vielleicht etwas, was so aussieht, aber letztlich nur eine Anomalie im statistischen Prozess ist. Wobei: Vielleicht ist ja Inspiration auch beim Menschen nur eine Anomalie im Denkprozess. Oder das Inspiratonen in Hirnen einschlagen und als Inspiration zerstrahlen. Dummerweise möglicherweise im Hirn einer Ente.6
Was ist aber, wenn das Erlernte und Geprägte eine vereinfachte Kopie ist? Und die Inspiration letztlich nur wieder versucht, die den Verlust durch die Vereinfachung des statischen Prozesses auszugleichen, der unbewusst sich eingeschlichen hat?
Ja, ich weiß, es wird auch weiterhin höchste Leuchttürme der Inspiration geben, denen wir standesgemäß in Stockholm huldigen oder nicht ganz so hohe, nicht ganz so helle, aber nicht weniger wichtige Leuchttürme, denen wir an weniger wichtigen Orten unsere Bewunderung mitteilen. Aber die meisten Texte werden nicht von Leuchttürmen geschrieben, sondern von Taschenlampen auf dem Deich wie wir, die unseren täglichen Weg durchs Leben erhellen.
Übertragung
Und da kommt dann bei mir der Gedanke, ob über genügend Zeit gedacht, die Model Autophagy Disorder eben auch auf den Menschen übertragbar ist? Und welche Folgen das wiederum für die AIs hat, wenn gerade der menschliche Input einfacher wird, der so dringend nötig ist, um eben diesen Effekt der wiederholten Vereinfachung durch wiederholtes Erlernen zu verhindern. Denn die meisten Texte, die diese lernen, werden von uns Taschenlampen stammen, nicht jene von den Leuchttürmen. Derer Zahl ist zu klein.
Ich meine jetzt mit MADness bei Menschen nicht, dass wir uns nur noch in Variationen von “Ugh” unterhalten werden, dass wir in die Welt von “Idiocracy”7 abgleiten werden, sondern das die Vielfalt und die Nuanciertheit der Sprache darunter leiden wird.
Nicht der Untergang
Auf der anderen Seite: Der menschliche Geist hat mit jeder neuen technischen Weiterentwicklung neue Ausdrucksformen gefunden, es hat immer Menschen gegeben, die das mit einer gewissen Sorge betrachtet haben. Das wird mit dieser Technologie nicht anders sein. Die Welt ist weder mit Buchdruck, Radio, Fernsehen, Computer oder Internet untergegangen, sie wird es auch mit AI nicht tun. Die Welt mit AI wird anders werden, vielleicht nicht immer zum Positiven. Aber sie wird deswegen nicht untergehen.
Auch wenn das Gefühl, das Technologie untergangsgeeignet ist, wahrscheinlich umgekehrt proportional zu der zeitlichen Ferne der Einführung ist. Und proportional zum eigenen Alter. Die menschliche Welt wird untergehen, aber wenn diese Welt untergeht, wird dies aus anderen Gründen sein.
Oder doch?
Mir kam der Gedanke auf einer Bahnfahrt vor einigen Tagen: Jeder Technologie wohnt sowohl die Utopie als auch die Dystopie inne. Und AI wird da keine Ausnahme machen. Einer der für mich wichtigen Filme mit im wesentlichen dystopischen Einschlag war für mich Matrix. Der Film war für mich so wichtig, dass ich zunächst nicht glauben mochte, wie schlecht eigentlich „Reloaded“ und „Revolutions“ sind. Sie sind nicht soooo schlecht, wie viele sagen … aber sie sind schon ziemlich schlecht. Ich wusste da auch noch nicht, was mit „Ressurections“ noch kommen würde.
Wie auch immer. Eine der Pfeiler der Handlung ist ja, dass die Maschinen Menschen in Farmen halten, um sie als Energielieferanten zu nutzen. Berechtigterweise haben viele Menschen darauf hingewiesen, dass das eigentlich eine ziemlich dämliche Idee ist, da man mehr Energie in das System stecken muss, als man herausbekommen würde.
Hier ist Matrix wahrscheinlich 25 Jahre zu früh herausgekommen. Unter der Annahme das die künstlichen Intelligenzen nur weit in die Zukunft gedachte LLM sind, würde ja in der Tat eine Abhängigkeit zu den Menschen bestehen. Ohne menschlichen Input ist der Modellkollaps unausweichlich. Ein LLM hätte Interesse daran, einen steten Strom nicht von LLM stammendem Input zu generieren. Um zu überleben.
Und wo kann man diesen menschlichen Input besser abgreifen als bei Menschen mit einem Dorn im Hirn, denen man in einer Arena die Höhen und Tiefen der Welt vorsimuliert. Eine sehr gute Freundin von mir hat mal angemerkt, dass Musik im Grunde sich dreier Topi…Topose … verdammte Axt … Topoi bedient: Etwas zu suchen, etwas zu finden, etwas verloren zu haben. Meistens ist das Liebe. Liebe suchen, Liebe gefunden zu haben, Liebe verloren zu haben. Damit sind 80% der Musik erklärt. Wobei … Blues ist anders … da geht es immer nur darum, etwas verloren zu haben. Irgendetwas, außer dem Blues. Denn bekanntermaßen hat man, nachdem man alles verloren hat, immer noch den Blues. In den restlichen 25% geht es um das gleiche, nur einen anderen Gegenstand des Wunsches. Freiheit. Unabhängigkeit. Aber eben auch um die 3 Grundtopoi. In der Literatur ist es ähnlich. In der Kunst insgesamt. Viele große Werke sind im Spannungsfeld aus Verzehren, Verlust, Verstehens und Vö … des völligen Einklangs entstanden.
Interessanterweise findet der der Analyst (gespielt von Neil Patrick Harris) vor den Ereignissen von Matrix 4 heraus, dass der Output der Menschen steigt, wenn man Neo und Trinity zwar nicht völlig voneinander trennt, aber in einer Situation des unbestimmten lässt, sich ewig suchend, aber nie findend.
Ersetzt man Energie durch genuin menschliche Inhalte, ergibt das deutlich mehr Sinn. Eine solche Situation gebiert nun mal sehr viel mehr Content, als einfach glücklich aus dem Sofa die nächste Folge eines Netflix-Dramas zu konsumieren.
Nun kann man die Frage stellen, ob wir der Dystopie schon deutlich näher sind als wir denken, wenn man sich statt den Inkubatortürmen einfach mal einen der grossen Anbieter von sozialen Netzwerken, Chatfunktionen oder irgendwelchen anderen kommunikativen Dienstleistungen vorstellt.
Vielleicht wollten die Maschinen gar nicht unsere Energie, sie wollten unser Drama. In Farbe und Technicolor!
Und nun?
Die Protagonistin des Comicstrips schreitet am Ende zum Buch. Doch das ist nur ein Ausweg, wenn dieses nicht auch aus der AI stammt. Vielleicht wird es in Zukunft nicht nur auf Lebensmitteln den Aufkleber geben, die damit werben, dass ein Produkt “garantiert gentechnikfrei” sei, sondern auch einen Stapel mit Büchern mit dem Schild “von glücklichen Autoren aus Freilandhaltung “. Und ich bin mir recht sicher, dass das nicht die allerschlechteste Idee ist.
-
Ich habe hier absichtlich diese verschwurbelte Version gewählt schreibe absichtlich nicht “der kreative Schaffensprozess automatisiert wird”, denn das würde eine Automatisierbarkeit von kreativen Schaffensprozessen voraussetzen. Man kann aber etwas automatisieren, was diesen Prozess für die gewählte Aufgabe möglicherweise hinreichend simuliert. ↩
-
Triggerwarnung - nicht weiterlesen, wenn man mit Krankheiten probleme hat Auch eine übertragbare spongioforme Enzephalopathie, CJD oder BSE nicht unähnlich. Ich hab ja die Neigung mich in Dinge viel zu tief einzulesen, die mich gerade beschäftigen, da lernt man dann so schöne Worte wie Enthirnungsstarre. schüttel ↩
-
Jetzt muss ich natürlich zugeben, das meine Amokläufe in einem Savegame auf Civilzation VI bei der ich als König Barbarossa (die Spielfigur, die man in Civ spielt, wenn man als Deutschland spielt) auf meine Nachbarn losgehe, vielleicht dem nicht unähnlich sind. Und vielleicht sollte ich mir berechtigterweise darüber Gedanken machen. ↩
-
Das absolut letzte Genre, das von AI generiert werden kann, ist aus meiner Sicht das SF-Subgenre der Romane aus dem Startrek-Universum. Der Verve, mit dem “Das ist nicht Canon” dort als Erbsünde verfolgt wird, wird wahrscheinlich sehr lange nicht zu Ergebnissen führen, die dem Auge des Lesers standhalten ↩
-
Und nein, ich meine nicht die Entsorgungsräumlichkeiten für Wetwaste. ↩
-
Ich bin mir sicher, das ich das mit der Ente und den Inspiratonen in einem Buch gelesen habe. Ich kann mich gerade nur nicht daran erinnern wo. Ich würde Pratchett vermuten, möglicherweise Adams. Hoert sich eher nach pratchettscher Absurdität an, denn nach jener von Adams. ↩
-
Es ist die Ironie(manche mögen sagen: die Tragik) dieses Films, das meiner Beobachtung nach diesen Film insbesondere jene zur Beschreibung des momentanen und von ihnen erwarteten Zustands der Gesellschaft verwenden, die eigentlich durch ihr Verhalten dafür sorgen, das sich die Welt in diese Richtung entwickelt. ↩