Ein Jahr nach seiner Markteinführung am 30.11.2022 wird ChatGPT, die generative Textrobotik aus dem Hause Open AI, immer noch gehypt, als sei der Pankreator, wie der Science-Fiction Autor Stanislaw Lem den maschinellen »vernünftigen Weltkonstrukteur« nannte, aus dem Silicon Valley entsprungen. 180,5 Millionen Menschen stellen monatlich 1,43 Milliarden Anfragen an den Kommunikationssimulator, für Hausaufgaben, Marketing-Slogans, E-Mails, Newsletter, Propaganda-Bausteine, Fake-Bücher – auch Bundesministerien nutzen Chatbots und erwägen, vermehrt generative Informatik in der Verwaltung zu nutzen. Medien konstatieren immer noch das Ende der Autorenschaft oder lassen die Plagiatsmaschine Textbausteine »im Stil von« nachahmen, um zu beweisen – ja, was eigentlich? Dass wir es mit einer denkenden Struktur zu tun hätten? Oder dass Autor*innen sich ja nichts einbilden sollten auf ihr Handwerk oder ihre Bedeutung?
Dabei beruht generative Informatik auf Diebstahl von geistigem Eigentum und privaten Daten, auf Ausbeutung menschlicher Arbeiter in Entwicklungsländern, und wird dem Klima mehr zusetzen als die cleane Oberfläche es suggeriert. Entsprechend stehen wir an einem Moment der Geschichte, in dem digitale Nachhaltigkeit nicht allein von verspielter Begeisterung und utilitaristisch orientierten Wirtschaftshoffnungen gesteuert werden sollte, sondern mit einer menschenzentrierten Haltung.
Textrobotik schreibt nicht. Sie stiehlt, dekonstruiert, rechnet und zensiert.
KI ist im Grunde doof. Seit der Entwicklung von »künstlicher Intelligenz« in den 1950er Jahren handelt es sich ausschließlich um »schwache KI«, die sich nur auf eine einzige Aufgabe fokussieren kann. Auch ChatGPT weiß nicht, was es da tut, denn Wörter sind in algorithmische Formeln und Token, Erkennungsmarken umgewandelt – der Bot rechnet Begriffe, Themenfelder und Rechtschreibung in Mathematik um, aber verbindet mit Bedeutungsuniversen wie »Freiheit«, »Sehnsucht« oder »Kulturpolitik« keinerlei Kontext. Es rechnet in der (Re)Produktion immer nur das nächstwahrscheinliche Wort hoch, und vermeidet durch eine werksseitig eingestellte content control, auch Censorpolicy genannt, eine Reihe von »verbotenen« Begriffen und Sachgebieten, um bloß niemanden zu entrüsten. Oder gar, wie in seinen Anfangszeiten, in simulierten Therapeutengesprächen zu Selbstmord zu raten, und antisemitische Hassreden hervorzustammeln. Bis Open AI zum Beispiel eine Legion von Labellern in Kenia und Venezuela für Stundenlöhne unter zwei Dollar engagierte, die toxische Begriffe in den Abermillionen Vorlagen kennzeichneten, um sie aus dem Output fernzuhalten. Diese Auslagerung an Arbeiter*innen in Drittländer, in denen keine Gewerkschaft für einen Mindestlohn streitet, wird im gleißenden Schimmer der smarten Anwendung übersehen.
Dass die Produktion von reiner Wahrscheinlichkeit des nächsten Wortes übrigens nicht gleich so auffällt, liegt an den zugegeben beeindruckenden 175 Milliarden Parametern, die dem großen Sprachmodell als Rechengrundlage dienen, sowie einem Textfundament (foundation model oder auch: Grundlagenmodell), das aus mindestens 45 Terabyte an Material besteht, das bis Januar 2022 zusammen geplündert wurde. Umgerechnet 293 Millionen Seiten – von privaten Homepages, Presseportalen, Foren, 51 Millionen Amazon-Rezensionen, Social Media, Wikipedia, gemeinfreien Werke, Fan Fiction – und: bis zu zwei Millionen urheberrechtlich geschützte Bücher, die unter anderem über Piraterieseiten und sehr vermutlich auch GoogleBooks abgerufen wurden.
Der Philosoph Noam Chomsky nennt ChatGPT einen »High-Tech-Plagiator«, wenn Nutzer*innen Texte »im Stil von…« (Harari, Rowling, Neruda) bestellen, und die Kopiermaschine aus degustierten Büchern munter memorisiert. Gefragt oder vergütet wurden die Rechteinhaber, deren Werke seit 2012 zum Training dienten, natürlich nicht. Autor*innen nachträglich zu bezahlen, würde laut Microsoft, Open AI, Google oder Meta »Milliarden über Milliarden kosten«, und die »KI-Entwicklung hemmen«, so die Monopole gegenüber des U.S. Copyright Office.
Wirtschaft sticht Ethik?
Wenn es aber Milliarden über Milliarden kostete, alle Beteiligten, deren Arbeitsleistung es überhaupt möglich gemacht hat, dass diese generativen Systeme existieren, angemessen zu vergüten, von den Urheber*innen bis zu den Labellern – wie massiv ist dieser Diebstahl tatsächlich? Wie bewusst ist es Unternehmen, die Textrobotik in eigene Angebote einbauen, den Ministeriumsmitarbeiter*innen oder Endnutzer*innen, dass sie ein Produkt von Rechtsbrüchen und Ausbeutung nutzen? Und wie sehr müsste es politische Entscheidungsträger*innen alarmieren, dass die Verheißung von KI auf ethisch und rechtlich fragwürdigen Handlungen gebaut ist – plus Karbonemissionen, Wasser– und Stromverbrauch, der jetzt schon höher ist als der aller menschlichen Arbeitsplätze zusammen.
Müsste, hätte, könnte. Schaut man dieser Tage auf die neue deutsche Haltung zur im Trilog diskutierten KI-Grundverordnung der EU, dann stellt man mit Bestürzung fest, dass nachhaltige Grundsätze rein konjunktiv bleiben: Weder Digitalminister Volker Wissing noch Wirtschaftsminister Robert Habeck wollen auf die Herstellungsbedingungen von generativer Informatik und seiner foundation models eine gesetzliche Pflicht legen, etwa auf Transparenz zur Provenienz der zum Training genutzten Werke und Privat-Daten, auf Risikoassessment oder ökologische Sicherheitsvorkehrungen. Sondern: Unternehmen sollen sich ungestört Haus-Regeln aufstellen dürfen. Sanktionen für Urheberrechts-, Datenschutz- oder Persönlichkeitsrechtsverletzungen sind nicht vorgesehen. Forscher*innen, Kultur– und Literaturbranche protestierten.
Am Anfang war das freie Wort. Und jetzt?
Regulierung ist nur ein Element dessen, was eine digitale Nachhaltigkeit in der Evolution des Informatikzeitalters benötigt. Es braucht außerdem: Haltung, Aufklärung inklusive Medienpädagogik, und Risikomanagement. Denn generative Informatik – seien es gefakte Bilder aus Kriegszonen, artifiziell generierte Video-Ansprachen des Kanzlers, sei es Textrobotik, die sich zwar gut anhört, aber häufig lügt, und sich Daten, Gerichtsurteile, Biografien »ausdenkt« (könnte der Simulator denken) –, kann nicht nur Desinformation und Diffamierung auslösen. Sondern auch Bias, verzerrte Wahrnehmungen, vertiefen, wenn ein Bildgenerator auf die Bitte hin, einen CEO oder Reinigungspersonal oder Terroristen zu generieren, reihenweise Klischees produziert.
Man kann davon ausgehen, dass die Wenigsten der 180 Millionen Chat-GPT-Nutzer*innen in Frage stellen, was sie bekommen, und sich mit der rhetorischen Ödigkeit als auch mit angeeigneten Stilen bestohlener Autor*innen ganz wohl fühlen. Text-KI nimmt Verantwortung ab, was wie verfasst wird, welche Schwerpunkte gesetzt, es spart Recherche, und erlöst davon, sich mit allen Konsequenzen der eigenen Individualität und Freiheit aktiv zu bedienen.
Mit der zunehmenden Verbreitung der gleitfreudigen Texte, die rechtlich gesehen niemandem und damit Allen gehören, und streng genommen nicht gegen Honorar verkauft werden dürfen, wird sich die nächste Generation womöglich an den kreuzfaden Sound der Botlinguistik gewöhnen. Sich mit komplexeren, meinungsstarken Inhalten immer schwerer tun oder damit ringen, dass die Kulturtechnik des Schreibens nicht mehr gelernt wird. Nachrichten und Bilder verlieren ihre Glaubwürdigkeit. Derweil Unternehmen mit Censorpolicy entscheiden, welche Wörter und Kontexte akzeptabel sind. Eigentlich erstaunlich: Da ringen Menschen um das freie Wort, und in jenen Ländern, in denen freedom of speech etabliert ist: Da überlässt man zensierten Maschinen, für den Menschen zu sprechen.
KI-Rat mit Tempo
Eine nachhaltige Regulation von generativer KI für eine Gesellschaft, die in globalen Polykrisen agieren wird, muss heute viel weiterdenken als nur bis zu wirtschaftlichen Profiten, und sich zudem ein Tempo aneignen, in dem das Recht nicht immer der Technik zwanzig Jahre hinterher trottelt.
Ich rege an, einen ständigen KI-Rat zu etablieren, etwa nach dem Vorbild Irlands, in dem Bürger*innen und vor allem: Schriftsteller*innen sitzen; diese sind es gewohnt in Dystopien und Utopien zu denken. Ebenso muss sich die Bundesregierung, ressortübergreifend, die Mühe einer Evaluation machen, um sich über die bereits entstandenen rechtlichen, wirtschaftlichen, ökologischen und sozialen Schäden gewahr zu werden. Das Geschehene lässt sich damit nicht heilen, aber rückt die bizarre Idee, dass Maschinen Menschen erst bestehlen und dann ersetzen könnten, in ein pragmatischeres Licht.
Letztlich muss sich auch die Europäische Kommission der Entscheidung stellen: Verklagt sie die US-Unternehmen darauf, dass diese sich seit zehn Jahren rechtlich ungedeckt von europäischen Hirnen bedient haben? Dann bekämen wir einen zweiten Cambridge Analytica-Moment, der die größte geistige Plünderung der Gegenwart zumindest als solche anerkennt.
Nina George ist Schriftstellerin und Ehrenpräsidentin des European Writers’ Council (EWC). Für den EWC ist George als Beauftragte für internationale Angelegenheiten zu Urheberrecht, Digitalwirtschaft und Meinungsfreiheit tätig. Ihr New York Times Bestseller »The Little Paris Bookshop« erschien in 36 Sprachen und wurde von Open AI illegitim verwendet. www.ninageorge.de