Spätestens durch den Hype um text- und bildgenerierende KI-Chatbots wie ChatGPT sind Risiken und Gefahren durch sogenannte Machine-Learning-Systeme (landläufig als Künstliche Intelligenz (KI) bezeichnet) in gesellschaftlichen Debatten angekommen. Zwei grundlegend unterscheidende Positionen zeichnen sich dabei in den Diskussionen ab: Auf der einen Seite stehen jene, die für die Menschheit existenzielle, aber bisher hypothetische KI-Risiken als größte Gefahr wahrnehmen (AI safety/alignment). Während auf der anderen Seite sich jene positionieren, die den bereits bestehenden Gefahren wie Bias und Diskriminierung (AI ethics) oberste Priorität einräumen und die Fokussierung auf hypothetische Gefahren als Gleichgültigkeit gegenüber den nachteiligen Auswirkungen von KI auf oftmals bereits marginalisierte Personengruppen kritisieren.
Gefahren durch KI-Systeme sind bekannt
Die bereits bekannten und akuten Gefahren durch KI-Systeme sind derweil gut dokumentiert – auch wenn es weiterhin schwierig bleibt, sie zu umgehen. So lassen sich die diskriminierenden, rassistischen und stereotypen Darstellungen durch bildgenerierende KI, neben den vielen Beispielen aus dem Alltag, durch einen sogenannten Bias Explorer visualisieren. Die weitreichenden Auswirkungen von algorithmenbasierter Diskriminierung durch Systeme des automatisierten Entscheidens auf Betroffene sind ebenfalls durch vielfältige Fälle belegt. Ebenso hat sich bestätigt, dass Automatisierung vielfach zur Überwachung und Kontrolle von Personen in Abhängigkeitsverhältnissen eingesetzt wird – beispielsweise am Arbeitsplatz oder bei der Vergabe von Sozialleistungen.
Einsicht ist auch hier der erste Schritt zur Besserung. Denn es werden bereits vielfältige Ansätze diskutiert, wie sich diese Risiken durch KI reduzieren bzw. ganz vermeiden lassen. Das Schlagwort unter dem nationale sowie europäische Gesetzgeber*innen, Industrie, Wissenschaft und Zivilgesellschaft eine risikoärmere KI diskutieren lautet: Gemeinwohlorientierte KI. Das erklärte Ziel ist, dass KI allen zugutekommen soll, sie niemanden benachteiligen und möglichst Vielen Nutzen bringen. Kurzum, wie die Europäische Union verlauten lässt: KI soll menschenzentriert entwickelt und eingesetzt werden.
Einzelne KI-Systeme sicherer machen
Lösungsansätze für eine gemeinwohlorientierte und menschenzentrierte KI konzentrieren sich insbesondere darauf, Prozesse bzw. regulatorische Rahmenbedingungen zu schaffen, um einzelne KI-Systeme sicherer zu machen. Die Automatisierungen sollen fairer, integrativer, genauer, repräsentativer, nachvollziehbarer etc. sein – und dass vor allem mit Blick auf diejenigen Personen, die direkt mit einem KI-System interagieren bzw. von dessen Entscheidungen betroffen sind. Was eine solche Perspektive auf gemeinwohlorientierte KI nicht berücksichtigt, sind die vielfältigen Auswirkungen von KI, die sich nicht im direkten Umgang mit den KI-Systemen offenbaren. Denn hier zeigen sich über individuelle KI-Systeme hinaus fundamentale Auswirkungen auf Fragen der sozialen Gerechtigkeit.
Generative KI ist nicht nachhaltig
Im Fokus stehen hier insbesondere sehr große KI-Systeme, sogenannte Large Language Models (LLMs) als Grundlage von generativer KI. Ihre Auswirkungen gehen weit über die Folgen individueller Systeme hinaus. Denn sie haben beispielsweise einen teils massiven Ressourcenverbrauch – von der Energie und den Emissionen, die anfallen, wenn LLMs in Rechenzentren entwickelt und trainiert werden, zum Wasserverbrauch für die Kühlung eben jener Rechenzentren, zu den Mineralien und seltenen Erden, die für die Massen an Hardware gebraucht werden, um LLMs zu entwickeln und generative KI zu betreiben, und die unter oft prekärsten Arbeitsbedingungen und mit massiven Schäden für die Umwelt abgebaut werden.
Gleichzeitig handelt es sich bei den Outputs generativer KI in der Regel nicht um Zauberei, sondern um eine Technologie, die nicht ohne menschliche Arbeit vonstattengeht. Arbeiter*innen werden gebraucht, um Daten zu annotieren, mit denen KI-Modelle trainiert werden, oder um in einem Prozess namens Reinforcement Learning from Human Feedback (RLHF) die Outputs generativer KI auf ihre Qualität zu bewerten. Diese oft unterbezahlte Arbeit ist notwendig, damit die Outputs generativer KI keine obszönen und verstörenden Inhalte ausgeben – die jedoch die Arbeiter*innen zu sehen bekommen und die ähnlich wie die Moderator*innen großer Online-Plattformen als Folge unter den psychischen Belastungen massiv leiden. Während also die Ressourcen für die Hardware in den Rechenzentren und die manuelle Arbeitskraft für die Funktionstüchtigkeit von generativer KI im globalen Süden abgeschöpft werden, streichen Unternehmen aus dem globalen Norden die Profite von KI ein. Das ist nicht nur monetär gemeint. Obgleich die Künstlerin, Journalistin und Aktivistin Joana Varon eindrücklich in ihren tech cartographies darstellt, wie groß das Ungleichgewicht zwischen US-amerikanische Profiten auf der einen Seite und der Zulieferung von Ressourcen aus dem globalen Süden auf der anderen Seite sind.
Chancen und Risiken von KI sind ungleich verteilt
Aber die Profite des globalen Nordens gehen über Unternehmensumsätze hinaus. Denn aktuell sind es insbesondere US-amerikanische Unternehmen, die generative KI auf Grundlage anglo-amerikanischer bzw. westlicher Daten für einen Markt im globalen Norden entwickeln. Als Tool, das zunehmend für die gesellschaftliche Wissensproduktion eingesetzt wird, z. B. im Journalismus oder in der Wissenschaft, reproduziert generative KI entsprechend anglo-amerikanische sowie westliche Wissensbestände aus dem Mainstream. Diese kulturelle Dominanz spiegelt sich in den schlechten Outputs von generativer KI für kleinere Sprachen oder in den unrealistischen bildlichen Darstellungen außerhalb der amerikanischen Mainstream-Kultur. Die Zwecke, die generative KI erfüllen soll, sind entsprechend auf westliche Arbeits- und Effizienzvorstellungen ausgerichtet und sie reproduzieren westliche Wissensbestände, während die Zulieferung aus dem globalen Süden auf Rohstoffe und Ressourcen beschränkt wird und sie Mülldeponien für den gesammelten Elektroschrott bereitstellen.
Gleichzeitig ist der globale Süden stärker von den Klimaveränderungen bedroht, die sich im Zuge der Klimakrise immer deutlicher abzeichnen. Während Rechenzentren und Datenübertragungsnetzwerke bereits 2-4% der globalen CO2-Emissionen verursachen, ist angesichts der zunehmenden Bedeutung von KI und ihrem teils immensen Ressourcenverbrauch mit einem weiteren Anstieg zu rechnen. Nicht umsonst betonen bekannte Silicon-Valley-Akteure, dass die Zukunft von KI von einem Durchbruch im Bereich der sauberen Energie abhänge. Gleichzeitig ist nicht anzunehmen, dass die KI-Entwicklung verlangsamt wird, wenn diese Energiequellen nicht zur Verfügung stehen.
Echte Transformation statt Kontinuität von globaler Ausbeutung
Der Vergleich von Risiken und Chancen generativer KI, wie sie Tech-Funktionäre gerne vorbringen, ist angesichts dieser global so ungleichen Verteilung eben jener Chancen und Risiken zynisch. Wer das Mantra einer gemeinwohlorientierten und menschenzentrierten KI ernst nimmt, sollte eine globale Gerechtigkeitsperspektive in den Blick nehmen. Wer KI also gerechter gestalten will, muss auch Fragen danach stellen, wer die Macht hat, die Art und Weise der KI-Entwicklung zu bestimmen und wer dementsprechend gestalten kann, wer von KI profitiert und wer durch sie entlang ihrer gesamten Wertschöpfungskette benachteiligt wird. Aktuell setzen die dominanten KI-Unternehmen auf eine historische Kontinuität der Ausbeutung und des Extraktivismus durch den globalen Norden, während Umweltschäden, Risiken für die Gesundheit und Ausbeutung von Arbeitskraft im globalen Süden aufrechterhalten wird.
Wer sich durch KI eine Transformation, vielleicht sogar hin zu einer nachhaltigeren Gesellschaft, erhofft hat, der wird bitter enttäuscht. Denn echte Transformation kann nur gelingen, wenn eben jene Ausbeutungsstrukturen der Vergangenheit überwunden werden. Aktuell werden sie jedoch in den technischen Systemen generativer KI weiter manifestiert. Angesichts der Sperrigkeit des Themas braucht es künstlerische Auseinandersetzungen und Reflektionsräume, die diese sehr realen und spürbaren Gerechtigkeitsfolgen von KI erfahrbar machen. Hier gilt es kulturpolitisch die Weichen zu stellen. Denn generative KI wird nicht nur zunehmend als Herausforderung für den Kreativ- und Kulturbereich wahrgenommen, sie wird auch zu einem Instrument, dass sich beispielsweise in der Öffentlichkeitsarbeit von Kultureinrichtungen oder in der künstlerischen Arbeit selbst einsetzen lässt. Die Kulturpolitik hat eine Verantwortung, nicht blind dem Hype um die ausbeuterischen Chatbots kommerzieller US-amerikanischer Unternehmen zu folgen, sondern alternativen KI-Infrastrukturen im Kulturbereich den Weg zu ebnen. Darüber hinaus muss Kulturpolitik den Rahmen schaffen, damit wir in künstlerischer Auseinandersetzung Fragen danach stellen können, welche Zukunft wir uns für und mit KI vorstellen und wie sich solche gesellschaftlichen Zielvorstellungen umsetzen lassen. Letztlich geht es also um die Frage, was wir unter Gemeinwohl und Menschenzentrierung angesichts von KI verstehen und welche Potenziale wir haben, diese zu realisieren. Denn wir sollten es vermeiden, dieselben Fehler zu begehen, die wir bereits angesichts von großen Online-Plattformen begangen haben. Es gilt die Dogmen der Entwicklung und des Einsatzes von neuen Technologien zu hinterfragen und selbst zu gestalten. Der Moment dazu, ist jetzt.
Dr. Anne Mollen forscht am Institut für Kommunikationswissenschaft der Universität Münster. Ihre Forschungsschwerpunkte liegen bei der Nachhaltigkeit von KI, Automatisierung und öffentliche Meinungsbildung, algorithmenbasierte Diskriminierung sowie digitaler Selbstbestimmung. Als Expertin für KI und Digitalisierung hat Anne Mollen in der Vergangenheit verschiedene politische Gremien beraten. Auch für Algorithm Watch ist sie beratend tätig und hat dort das Sustain-Projekt geleitet.