Schmutzige Fingerabdrücke auf jedem bisschen Code, oder: Wer hält den Algorithmus am Laufen? VON PIA-ZOE HAHNE

Unsichtbare Arbeit ist schon seit der Industrialisierung Kernbestandteil der Arbeitswelt, allerdings kreiert künstliche Intelligenz eine neue Dimension der Unsichtbarkeit. Durch das Entmenschlichen von Arbeitskräften treten auch Arbeitnehmer*innen in traditionelleren Arbeitsverhältnissen in den Hintergrund. PIA-ZOE HAHNE plädiert für ein humanistisches Verständnis für Arbeitnehmende bei der Entwicklung von künstlicher Intelligenz – nicht nur in Bezug auf das Risiko des Jobverlustes, sondern auch für die Sichtbarkeit von Arbeitnehmenden.

I. Einleitung

Was verstehen wir unter Arbeit? Wir scheinen einen Konsens gebildet zu haben, was als Arbeit definiert werden sollte: Arbeit ist schwer, aber sie muss nun mal sein, um Geld zu verdienen. Allerdings schließt eine solche Definition viel aus, was genauso kräftezehrend wie ein Tag im Büro sein kann. Die klassischen Beispiele sind hier Kinderbetreuung oder Hausarbeit. Genau solche Tätigkeiten – oft unbezahlt, aber essenziell für den Erhalt der Gesellschaft – bezeichnet das Konzept der unsichtbaren Arbeit.

II. Was ist unsichtbare Arbeit?

Das Konzept der (unsichtbaren) Arbeit besitzt eine lange Geschichte. Historisch gesehen konzentrierte sich unsichtbare Arbeit auf die unbezahlte Arbeit von Frauen im Haushalt (Daniels 1987; Molyneux 1979). Dieses Verständnis von unsichtbarer Arbeit inkludiert nicht nur physische, sondern auch mentale und emotionale Aufgaben als Arbeit (De Vault 2014: 776). Im Laufe der letzten Jahrzehnte hat sich das Konzept allerdings weiterentwickelt, um auch die vor der Öffentlichkeit verborgene Arbeit von marginalisierten Gruppen einzuschließen (Gilbert 2023; Hatton 2017; Huws 2020). Unsichtbare Arbeit ist also nicht nur unbezahlte Arbeit, sondern auch bezahlte Arbeit, die nicht gewürdigt wird oder nicht in formale oder rechtliche Arbeitsbeziehungen passt.

Unsichtbare Arbeit wird umso wichtiger in Anbetracht von künstlicher Intelligenz. Obwohl es sich um eine neue Technologie handelt, fügen sich diese Arbeitsbeziehungen in bestehende Strukturen ein. Genauso wie bei der Fließbandarbeit entfremdet sich eine Person vom Produkt der eigenen Arbeit, wenn sie beispielsweise ohne Anerkennung und unter enormem Zeitdruck Bilder kategorisieren muss (Crawford 2021: 87). Der arbeitenden Person fehlt der Überblick und entfremdet sich so von der eigenen Arbeit. Die Person, die Daten kategorisiert, hat ebenso nur eine vage Vorstellung davon, welche Aufgaben der Algorithmus am Ende bewerkstelligen kann, wie die Person am Fließband. Das „digitale Fließband“ (Schmölz/Bauer 2022) schließt menschliche Autonomie aus und verlangt stattdessen maschinelle Effizienz. Die menschliche Arbeitskraft wird nicht länger nur von Maschinen überwacht, sondern muss dieser nacheifern (Moore 2021: 19). Der Mensch wird zu einer Maschine gemacht.

Diese Dimension der Entfremdung ist ein ergänzendes Problem zur generellen Problematik der Digitalisierung für Arbeitnehmer*innen. Zusätzlich zur Sorge, dass der eigene Arbeitsplatz durch künstliche Intelligenz ersetzt wird, besteht selbst beim Erhalt des Arbeitsplatzes die Möglichkeit, als Mensch zugunsten der KI in den Hintergrund gedrängt zu werden. Anstatt Arbeitnehmer*innen ins Zentrum der Debatte zu KI am Arbeitsplatz zu rücken, verschwindet der Mensch ins Unsichtbare. Der momentane Fokus der Digitalisierung auf Effizienzsteigerung wird nur weiter dazu führen, dass Arbeitnehmer*innen sich von ihrer Arbeit entfremden; dabei bleibt die erwünschte Produktionssteigerung aus (Nida-Rümelin/Weidenfeld 2022). Anstatt Digitalisierung so voranzubringen, dass sie den Menschen entlastet und mehr Zeit für Schönes bietet, scheint sie in ihrem momentanen Funktionieren nur Arbeitnehmende weiter zu belasten. Daher benötigt es ein humanistisches Verständnis für Arbeitnehmende in Bezug auf technologische Neuerungen wie KI – nicht nur in Bezug auf das Risiko des Jobverlustes, sondern auch für die Sichtbarkeit von Arbeitnehmenden.

III. Mechanismen der Unsichtbarkeit: Die Hierarchie der Arbeit

Unsichtbare Arbeit in der KI lässt sich in verschiedene Kategorien einteilen, sowohl bezahlt als auch unbezahlt. Durch unsere Internetnutzung liefern wir bereitwillig und ohne Vergütung Milliarden von Datensätzen, die zum Training von KI-Systemen verwendet werden können. Ein vertrautes Beispiel ist hier der CAPTCHA (Crawford 2021): Sie versuchen, sich für eine neue Website anzumelden, und werden aufgefordert, auf alle Bilder zu klicken, die ein Auto darstellen. Auch wenn ein CAPTCHA-Test nicht länger als ein paar Sekunden dauert, werden die Daten, die durch das Klicken auf die richtigen Bilder generiert werden, später zum Trainieren von Algorithmen verwendet. Ohne es zu wissen, trägt man zum Profit große Technologieunternehmen wie Google bei. Die dabei anfallende Arbeit bleibt unbezahlt, nicht anerkannt und somit unsichtbar.

Was die bezahlten Arbeitsformen in der KI betrifft, gibt es eine klare Abgrenzung zwischen sogenannten Micro- und Macrotasks (Duch-Brown et al. 2022; Prug/Bilic 2021). Obwohl Macrotasks spezifische Fähigkeiten wie Programmierkenntnisse oder Erfahrung im Bereich Grafikdesign benötigen, können auch sie unsichtbar werden. Zeitgleich stellt die Nutzung von KI die Möglichkeit dar, die eigene Arbeit unsichtbar werden zu lassen. „Made with AI“ als Verkaufsargument ist längst Mainstream geworden. Beispiele wie KI-generierte Werbespots zeigen, wie der Mensch in den Hintergrund geraten kann: Berichterstattung über den Spot fokussiert sich auf die Qualität der Werbung, den medialen Aufschrei nach der Veröffentlichung, oder die bahnbrechenden KI-Agenturen, die für den Spot verantwortlich waren. Was in diesen Diskussionen allerdings fehlt, ist die menschliche Komponente des Werbespots. Auch wenn die Werbung KI-generiert ist, arbeiten in den Agenturen dennoch Menschen, die durch das Label „KI-Agentur“ verschwinden. Ebenfalls erforderte der Spot das Eingreifen von Menschen, beispielsweise, um das Logo der Firma einzufügen. Menschliches Eingreifen war daher notwendig, um den „KI-generierten“ Spot zu kreieren. Das Label „Made with AI“ lässt so menschliche Arbeit unsichtbar werden.

Weitaus verbreiteter sind Microtasks. Während KI-Entwicklung rasant voranschreitet, gibt es immer noch Aufgaben, in denen Menschen besser sind: zum Beispiel beim Versuch, Bilder zu erkennen, die gegen die Community-Richtlinien auf Social-Media-Plattformen verstoßen. Auch wenn es so scheint, als würde diese Aufgabe von Algorithmen übernommen werden, sind es oft Menschen in prekären Situationen, die die Rolle des Content Managements übernehmen. Diese fragilen Arbeitsverhältnisse, die sich sowohl im globalen Süden als auch Norden finden lassen, sind besonders anfällig für Krisen und benachteiligen die Menschen zusätzlich: Sie erleben psychosoziale Gewalt, müssen immer verfügbar sein und stehen unter extremer Überwachung (Moore 2021). TIME-Magazin enthüllte die Bedingungen kenianischer Arbeiter*innen, die damit beauftragt wurden, traumatisierende Inhalte für Unternehmen wie Facebook und OpenAI für rund 1,32 US-Dollar pro Stunde zu überprüfen, ohne angemessenen Zugang zu psychologischer Unterstützung (Perrigo 2022; Perrigo 2023). Hier sind implizite Machtdynamiken am Werk, besonders durch diese Auslagerung von Arbeit in nicht-westliche Länder. Selbst Unternehmen wie OpenAI können die Anzahl der von ihnen eingesetzten „unsichtbaren“ Arbeiter*innen nicht genau einschätzen, da sie nicht direkt von den Firmen eingestellt werden (Ingram 2023; Prug/Bilic 2021). Wenn nicht einmal die Unternehmen selbst die Anzahl an unsichtbaren Arbeitskräften einschätzen können, findet eine klare Entmenschlichung der Arbeitskräfte statt; eine Perspektive, die sich klar gegen die Grundsätze des digitalen Humanismus richtet.

Der Unterschied zwischen Macro- und Microtasks liegt nicht nur in den Fähigkeiten und Vergütung der Arbeitnehmer*innen, sondern auch in ihrem Ansehen. In dieser hierarchischen Struktur sind Programmierer*innen und Informatiker*innen an der Spitze, da diese Arbeit weder kulturell noch rechtlich unsichtbar wird. Zwar muss ein*e Programmierer*in nicht unbedingt an einem festen, räumlichen Arbeitsplatz arbeiten, allerdings negiert dies nicht den Mangel an struktureller Unsichtbarkeit, mit dem andere Beschäftigte konfrontiert sind. Während die Mystifizierung von KI eine Möglichkeit ist, die Arbeit, insbesondere die datenbezogene, unsichtbar zu machen, sind Machtdynamiken ein weiterer Faktor, der dazu beiträgt. So findet eine zusätzliche Ebene des Entmenschlichens der Arbeitnehmenden statt, für die es einer Alternative bedarf.

IV. Die Veränderung der Arbeitswelt und ein Appell für Digitalen Humanismus

Der kontinuierliche Anstieg an KI-Systemen sowie Nutzenden von KI-basierten Chatbots verstärkt das Risiko von unsichtbarer Arbeit zusätzlich. Um sich dieser Entwicklung entgegenzusetzen, benötigt es ein humanistisches Herantreten an Technikentwicklung. Digitaler Humanismus zielt darauf, den Menschen im Zentrum der Digitalisierung zu platzieren und rein menschliche Eigenschaften in Abgrenzung zur Maschine zu definieren. Ein Digitaler Humanismus für die Arbeitswelt würde bedeuten, Technologie so zu entwickeln, dass nicht Profit, sondern die Lebensqualität der Arbeitnehmenden im Mittelpunkt steht (Katzian/Klocker 2023: 23). Stattdessen wird die Kluft zwischen Gewinner*innen und Verlierer*innen der Digitalisierung ohne gezieltes politisches Eingreifen immer größer (Schmölz/Bauer 2022).

Unsichtbare Arbeit, wie sie momentan in der KI-Branche stattfindet, bildet damit durch die gezielte Entmenschlichung der Arbeitnehmer*innen und das Zusprechen von menschlichen Eigenschaften an die KI ein anti-humanistisches Arbeitsmodell. Digitaler Humanismus in Bezug auf die Arbeitswelt muss sich daher nicht nur mit den Risiken der Digitalisierung für sichtbare Arbeitnehmende beschäftigen, sondern auch mit den Arbeitnehmer*innen im Hintergrund.

Menschliche Arbeitskraft ist an jedem Schritt der Entwicklung von künstlicher Intelligenz beteiligt; die Diskussion über KI beinhaltet immer eine menschliche Komponente. Dabei gilt keine binäre Unterscheidung zwischen sichtbarer und unsichtbarer oder bezahlter und unbezahlter Arbeit; stattdessen würde eine einfache Klassifikation nur die Vielschichtigkeit von Arbeit in Bezug auf KI verstecken. Unsichtbarkeit ist kein Merkmal von nur einer bestimmten Art von Arbeit, sie ist kontextuell. Eine Zentrierung des Arbeitnehmenden—und somit auch des Menschlichen in der KI-Entwicklung—ist daher unerlässlich.  Es ist an der Zeit, sich die Frage zu stellen: „Wer steckt hinter den KI-Systemen?“.

PIA-ZOE HAHNE

ist Researcherin für Digitalen Humanismus an der Fachhochschule des BFI Wien und Doktorandin an der philosophischen Fakultät der Universität Wien. Ihre Arbeit fokussiert sich auf Technikphilosophie, KI-Ethik, und das Verhältnis zwischen gesellschaftlichen Akteur*innen und künstlicher Intelligenz. Sie hält einen MSc in Cultures of Arts, Science and Technology von der Universität Maastricht. Kontakt: pia.hahne@fh-vie.ac.at.

Literatur

Crawford, Kate (2021): Atlas of AI. Power, politics, and the planetary costs of artificial intelligence, New Haven: Yale University Press.

Daniels, Arlene Kaplan (1987): Invisible Work. in: Social Problems 34(5), 403–415.

De Vault, Marjorie L. (2014): Mapping Invisible Work: Conceptual Tools for Social Justice, in: Sociological Forum 29(4), 775–790.

Duch-Brown, Néstor/Gomez-Herrera, Estrella/Mueller-Langer, Frank/Tolan, Songül (2022): Market power and artificial intelligence work on online labour markets, in: Research Policy, 51, Article 104446. https://doi.org/10.1016/j.respol.2021.104446.

Gilbert, Evie (2023): Beyond the usual suspects: Invisible labour(ers) in futures of work. in: Geography Compass 17(2), Article e12675. https://doi.org/10.1111/gec3.12675.

Hatton, Erin (2017): Mechanisms of invisibility: rethinking the concept of invisible work. in: Work, employment and society 31(2), 336–351. https://doi.org/10.1177/0950017016674894.

Huws, Ursula (2020): Social reproduction in twenty-first century capitalism. Socialist register 56, 161–181.

Ingram, David (2023). ChatGPT is powered by these contractors making $15 an hour, online unter: https://www.nbcnews.com/tech/innovation/openai-chatgpt-ai-jobs-contractors-talk-shadow-workforce-powers-rcna81892 (letzter Zugriff: 13.01.2025).

Katzian, Wolfgang/Klocker, Sebastian (2023): Gute Arbeit im digitalen Zeitalter. in: Krause, Georg (Hg.): Die Praxis des Digitalen Humanismus, Wiesbaden: Springer, 19–27.

Molyneux, Maxine (1979): Beyond the domestic labour debate, in: New Left Review 116, 3–27.

Moore, Phoebe V. (2021): AI Trainers: Who is the Smart Worker Today? in: Woodcock, Jamie/Moore, Phoebe V. (Hg.): Augmented exploitation: artificial intelligence, automation and work, London: Pluto Press, 13–29.

Nida-Rümelin, Julian/Weidenfeld, Nathalie (2022): Digital Humanism. For a Humane Transformation of Democracy, Economy and Culture in the Digital Age, München: Springer.

Perrigo, Billy (2022): Inside Facebook’s African Sweatshop, online unter: https://time.com/6147458/facebook-africa-content-moderation-employee-treatment/ (letzter Zugriff: 13.01.2025)

Perrigo, Billy (2023): Exclusive: OpenAI used Kenyan workers on less than $2 per hour to make ChatGPT less toxic, online unter: https://time.com/6247678/openai-chatgpt-kenya-workers/ (letzter Zugriff: 13.01.2025)

Prug, Toni/Bilic, Pasko (2021): Work Now, Profit Later: AI Between Capital, Labour and Regulation. in: Woodcock, Jamie/Moore, Phoebe V. (Hg.): Augmented exploitation: artificial intelligence, automation and work, London: Pluto Press, 30–40.

Schmölz, Alexander/Bauer, Verena (2022): Digitalisierung, Humanismus und die Zukunft von Arbeit und Berufsbildung: Zentrale Prognosen aus der Berufsbildungsforschung. in: Löffler, Roland/Schlögl, Peter/Schmölz, Alexander (Hg.): 50 Jahre Berufsbildungsforschung in Österreich im Spannungsfeld von Wissenschaft, Politik und Praxis, Bielefeld: wbv, 221–236.