Die Technologiebranche hat nicht nur klassisch-kapitalistische Strukturen übernommen, sondern die Ausbeutung von Arbeiter:innen weiter verschärft. Umso verwunderlicher ist das Aufkommen einer Diskussion bezüglich der zukünftigen Position der Künstlichen Intelligenz (KI) wie PIA-ZOE HAHNE nachdrücklich betont.
I. Einleitung
Die Verknüpfung zwischen Arbeitsbedingungen, dem Schutz von Arbeitnehmenden und der KI-Branche sorgen seit Jahren für Schlagzeilen. Beispielsweise gab es seitens der TIMES 2023 eine Investigativrecherche bezüglich der Arbeitsbedingungen von Datenklassifizierer:innen in Kenia, welche von den größten KI-Firmen wie OpenAI beschäftigt wurden (Perrigo 2022, 2023). Neben geringen Löhnen und der Verhinderung von Gewerkschaftsbildung ist auch die psychische Belastung der Arbeitnehmer:innen ein großes Problem.
Dennoch gibt es ein weiteres Thema in Bezug auf Arbeitnehmer:innenschutz, welches vermehrt Einzug in den öffentlichen Diskurs findet, besonders begründet in der Kommunikation von diversen Tech-CEOs: benötigen KI-Systeme ab irgendeinem Punkt ebenfalls Schutz in ihren Tätigkeiten? Begründet sind diese Überlegungen nicht nur in dem rasanten Fortschreiten der KI-Entwicklung, sondern ebenfalls in Berichten, in denen KI-Systeme auch jetzt schon Aufgaben verweigern. Beispielsweise gab es Berichte, in denen geschildert wurde, dass ein KI-System sich geweigert hat, den Befehl zu befolgen, sich selbst abzuschalten (Cuthbertson 2025; Pester 2025). Aus Vorfällen wie diesen leitet der Anthropic CEO ab, dass ebenso die Möglichkeit bestehen könnte, dass sich KI-Systeme in der Zukunft auch gegen andere Aufgaben widersetzen könnten. Somit sollte es, so der Anthropic CEO Dario Amodei, eine Option sein, KI-Systemen einen „I quit this job“-Button bereitzustellen (Edwards 2025; Tangermann 2025). Ein solcher Knopf würde einem ersten Schritt in Richtung Arbeitnehmer:innenschutz für KI-Systeme nahekommen. Natürlich ist dem CEO selbst bewusst, dass seine Aussage bizarr wirkt, scheint er doch damit eine zukunftsgerichtete Diskussion anregen zu wollen. Mit Erfolg.
Ein weiteres mediales Beispiel, das den Drang in Richtung KI und Arbeitnehmer:innenrechte zeigt, ist die Proposition eines Unternehmens, KI-Systeme und „digitale Angestellte“ in die Organisationsstruktur zu übernehmen (Marks 2024; Tangermann 2024). Nach medialem Pushback wurde der Vorschlag wieder zurückgezogen, allerdings bleibt, dass solche Vorschläge offen diskutiert werden. Solche Vorschläge minimieren die Arbeit der menschlichen Arbeitnehmenden und riskieren, dass sie auf ihre effizienten Tätigkeiten anstatt auf ihre menschlichen Qualitäten reduziert werden (Tangermann 2024). Genau diese Bedenken werden auch durch den Digitalen Humanismus geäußert: werden Arbeitnehmer:innen zu Maschinen stilisiert und dadurch austauschbar wie ein System?
Dazu kommt die generelle Tendenz, Technologien wie Künstliche Intelligenz nicht in ihrer jetzigen Form regulieren und beurteilen zu wollen, sondern sich stattdessen auf zukunftsgewandte Probleme zu konzentrieren. Allerdings ist diese Herangehensweise ein Fehler: Auch wenn der Anthropic CEO im Interview selbst zu bedenken gibt, dass die Idee absurd klinge, wird das Thema dennoch in den Medien aufgegriffen und findet Anklang im öffentlichen Diskurs, was zu einer Verschiebung des Diskurses zu Themen wie Consciousness von KI-Systemen oder dem Zusprechen von gewissen Rechten für KI-Systeme führt. Dies reduziert jedoch den Fokus auf die menschlichen Arbeitnehmer:innen, die auch jetzt schon mit den schwerwiegenden Konsequenzen von KI auf ihre Arbeits- und Lebensrealität leben müssen. Zum einen werden Arbeiter:innen innerhalb der KI-Branche – also Arbeitnehmer:innen, die aktiv an der Entwicklung von KI mitwirken – unsichtbar und leiden an ihrer Position innerhalb des Systems. Menschlichen Arbeiter:innen fehlt schon jetzt Schutz durch existierendes Arbeitsrecht und Arbeitsbedingungen. Zum anderen leiden auch jetzt schon Arbeiter:innen außerhalb der KI-Branche, da sie um ihre Jobstabilität bangen müssen und Jobverlust aufgrund von KI-Systemen befürchten.
Gleichzeitig stellt das Beschreiben von Künstlicher Intelligenz durch menschliche Konzepte eine normative Herausforderung dar: In diesem Fall relativiert das Verwenden von Arbeitnehmer:innenschutz für KI die Opfer und Anstrengungen der Arbeiterbewegung während der Industrialisierung und deren Kampf für Schutz vor Missbrauch durch Arbeitgebende (Frege 2007; Munck 2010). Diese normative Dimension beschreibt der Digitale Humanismus, welcher durch die Beibehaltung der Trennung zwischen Mensch und Maschine die klare Abgrenzung zwischen menschlichen und nicht-menschlichen Akteur:innen fordert (Barberi et al. 2021; Nida-Rümelin & Weidenfeld 2022; Schmoelz 2020). Aussagen zu den „Rechten“ einer KI setzt die Maschine in ein Schutzverhältnis, die dann auch ein Recht auf Unversehrtheit hätte, ohne, dass eine KI auf eine moralisch relevante Weise verletzt werden kann. Anhand dieses Diskurses zu den „Rechten“ einer KI lässt sich eine generelle Frage ableiten, die darauf zielt, wie der mediale Diskurs um KI in Bezug auf die Stellung von Arbeitnehmer:innen zugunsten der KI und gegen menschliche Eigenschaften gerichtet wird und in welcher Form normative Bewegungen wie der Digitale Humanismus dagegenhalten können.
Im folgenden Beitrag wird sowohl auf die Geschichte des Arbeitnehmendenschutzes sowie auf das generelle Konzept der Arbeit Bezug genommen, bevor diese in einen Zusammenhang mit der Entwicklung von Künstlicher Intelligenz gestellt werden. Dabei wird explizit auf das Verschieben des Diskussionsfokus sowie auf die moralischen Einwände unter Anbetracht des Digitalen Humanismus Bezug genommen. Abschließend wird ein Ausblick auf potenzielle Alternativen gegeben.
II. Das Konzept der Arbeit und das Entstehen von Arbeitnehmendenschutz
Um zu verstehen, was mit dem Konzept der Arbeit gemeint ist und in welchem Spannungsfeld Arbeit, Arbeitnehmendenschutz und Künstliche Intelligenz stehen, muss der geschichtliche Kontext sowie die konzeptuelle Debatte rund um Arbeit in Betracht gezogen werden.
Auch wenn der Schutz von Arbeitnehmer:innen, beispielsweise das Begrenzen der maximalen Wochenarbeitszeit oder der Schutz vor körperschädigender Arbeit, wie eine Selbstverständlichkeit wirkt, ist Arbeitnehmer:innenschutz ein hart erkämpftes Gut. Doch was verstehen wir unter Arbeit? Wir scheinen einen generellen, gesellschaftlichen Konsens gebildet zu haben, was als Arbeit definiert werden sollte: Arbeit ist schwer, aber sie muss nun mal sein, um Geld zu verdienen (Daniels 1987). Allerdings schließt eine solche Definition viel aus, was genauso kräftezehrend ist wie ein Tag im Büro oder physische Arbeit auf einer Baustelle.
Auch wenn die Arbeit auf einer Baustelle oder hinter dem Schreibtisch für die Bevölkerung sichtbar sind, gibt es neben sichtbarer, produktiver Arbeit auch unsichtbare und reproduktive Arbeit. Unsichtbare sowie reproduktive Arbeit ist kontextabhängig. Schon Marx (1864) hebt hervor, dass es nicht an der Arbeit, die eine Person verrichtet, liegt, ob sie produktiv ist oder nicht, sondern das Arbeit durch ihren Kontext definiert wird: Würde eine Sängerin oder eine Lehrerin ihre Arbeit direkt an die konsumierende Person richten – würde also die Sängerin bloß ihr Lied vortragen oder die Lehrerin nur lehren – ist sie im Rahmen des kapitalistischen Systems unproduktiv. Würde die Sängerin jedoch eingestellt werden oder die Lehrerin an einer Institution unterrichten, sind sie produktive Arbeiterinnen, da sie Kapital erzeugen (Marx 1864). Der Unterschied basiert allein auf dem Kontext der Arbeit, die arbeitende Person und ihre Handlungen bleiben gleich (Hahne 2026).
Das Konzept der unsichtbaren Arbeit geht noch weiter als bloß zwischen produktiv und reproduktiv zu unterscheiden. Basierend auf der feministischen Ökonomie sagt unsichtbare Arbeit aus, dass der Unterschied zwischen Arbeit nicht nur in einem Verhältnis zur Produktion von Kapital steht, sondern auch darin, wer diese Arbeit ausführt (Daniels 1987; DeVault 2014; Molyneux 1979). Genau wie reproduktive Arbeit wird unsichtbare Arbeit nicht durch die inhärenten Qualitäten der Arbeit unsichtbar, sondern wird aktiv unsichtbar gemacht. Ein klassisches Beispiel ist hier Hausarbeit. Diese Arbeit ist traditionell unsichtbar, da sie hauptsächlich von Frauen oder anderen marginalisierten Gruppen durchgeführt wird, beispielsweise durch nicht-weiße Angestellte (Star/Strauss 1999). Da die Arbeit von marginalisierten Gruppen durchgeführt wird, erhält sie weniger gesellschaftliche Aufmerksamkeit und wird so durch die sozialen Gefälle unsichtbar. Gleichzeitig ist Hausarbeit räumlich begrenzt, da sie in den eigenen vier Wänden stattfindet und nicht an den üblichen Schauplätzen der Arbeit wie Büros (Hatton 2017). Letztlich wirken rechtliche Hebel, die Hausarbeit unsichtbar werden lassen, da eine im Haushalt arbeitende Person weder in einem Angestelltenverhältnis steht noch in irgendeiner Form rechtliche Mechanismen den Arbeitsablauf regeln oder schützen (Hatton 2017). Somit wirken im Falle der Hausarbeit alle drei Dimensionen, die Hatton als auschlaggebend für das Unsichtbarwerden von Arbeit deklariert – die soziale, räumliche und rechtliche – zusammen und können auch nur schwer voneinander abgegrenzt werden. Die Unsichtbarkeit von Arbeit trägt dazu bei, dass sich Betroffene nur schwer bis gar nicht Gehör für ihre Anliegen verschaffen können; schließlich ist ihre Arbeit ausgeschlossen von alltäglichen Arbeitsdefinitionen und nicht sichtbar für die meisten Bürger:innen. Für Arbeitgebende entsteht dadurch eine vorteilhafte Position; beispielsweise argumentieren Star und Strauss (1999), dass Arbeit durch die Abstraktion und Manipulation von Charakteristiken der Arbeit oft aktiv unsichtbar gemacht wird (15). Die Arbeitenden selbst sowie ihre Resultate sollen nicht wie Arbeit wirken, sondern werden naturalisiert, wodurch die arbeitende Person vollkommen verschwindet (Hatton 2017). Auch wenn diese Entwicklungen nicht neu sind, verschärfen sich die Entwicklungen im Digitalen Kapitalismus. Das Ausnutzen von Arbeitnehmenden, wie es während der Industrialisierung geschah, hat sich verlagert: Statt lokalen Bestrebungen, beispielsweise durch das Rebellieren von Arbeitnehmer:innen, sind Arbeitnehmende nun global verstreut und werden aktiv daran gehindert, sich zu organisieren (Gray/Suri 2019; Muldoon et al. 2024). Im Gegensatz zu lokalem Handeln ist besonders innerhalb der KI-Branche ein transnationales Organisieren notwendig, um sich gegen das Ausbeuten von Arbeitnehmenden zu wehren (Hahne, 2026).
III. Arbeitnehmer:innenrechte für Künstliche Intelligenz
III.I Fokus der Diskussion
Auch wenn es interessant zu sein scheint, die Diskussion zu führen, was die Zukunft der KI-Entwicklung mit sich bringt und ob KI ein Bewusstsein entwickeln könnte, deutet diese Entwicklung auf eine Fehlleitung der Diskussion. Die Aussage des Anthropic CEOs, dass einer KI ein „I quit this job“-Button zur Verfügung gestellt werden sollte, scheint an sich kein Problem zu sein; schließlich deutet der CEO selbst an, dass sein Vorschlag bizarr klingen mag (Edwards 2025; Tangermann 2025). Ein Gedankenexperiment wie dieses scheint interessant zu sein, allerdings zeigt sich dadurch ein gesteigertes Medieninteresse, wodurch vermehrter Anklang zu Diskussionen zu KI-Bewusstsein und KI-Rechten aufkommt. Der verlagerte Diskus resultiert allerdings zeitgleich in einer Reduktion des Fokus auf menschliche Akteur:innen in KI.
Wie zuvor angeführt, gibt es einen Unterschied zwischen sichtbarer und unsichtbarer Arbeit. Unsichtbare Arbeit beschreibt Arbeit, welche meist aktiv durch ein implizites Machtgefälle nicht sichtbar wird, einhergehend mit kulturellen, juristischen und räumlichen Mechanismen (Hatton 2017; Irani 2015). Auch wenn unsichtbare Arbeit jede:n betreffen kann, zeigt sich eine strukturelle Verteilung von unsichtbarer Arbeit. Minderheiten sind überproportional repräsentiert in unsichtbarer Arbeit, besonders in Bezug auf Geschlecht und Herkunft (Hahne, 2026; Hatton 2017; Star/Strauss 1999). Der „ideale Arbeiter“ ist, trotz Veränderungen in der Arbeitswelt, scheinbar noch immer einhergehend mit dem Bild eines männlichen, weißen Büroangestellten, der völlig frei von haushaltlicher Verantwortung ist (Gaitsch/Schröpf, 2025: 5). Dieselben Strukturen finden sich in der unsichtbaren Arbeit in Künstlicher Intelligenz und reproduzieren die bestehenden sozioökonomischen und institutionellen Strukturen. In Analogie zur klassischen Fließbandarbeit manifestiert sich auch hier eine Entfremdung vom Produkt der eigenen Tätigkeit: Das von Schmoelz und Bauer (2021) als „digitales Fließband“ bezeichnete Paradigma schließt damit nicht nur menschliche Autonomie aus, sondern normiert Effizienz als obersten Wert.
Die reduzierte Sichtbarkeit von menschlichen Arbeitnehmer:innen in der Entwicklung von Künstlicher Intelligenz kreiert zum jetzigen Zeitpunkt bereits negative Auswirkungen für die Arbeitnehmer:innen. Nicht nur sind Arbeitnehmer:innen, die unsichtbare Arbeit in Form von Datenaufbereitung, -verarbeitung, oder Moderation verrichten, unsichtbar für Endnutzer:innen, ihre Unsichtbarkeit schlägt sich auch in ihrem rechtlichen Schutz nieder. Wie zuvor beschrieben, ist die rechtliche Dimension maßgeblich daran beteiligt, Arbeit unsichtbar werden zu lassen, beispielsweise durch fehlende Arbeitsverträge und damit einhergehend beispielsweise fehlende soziale Absicherung (Gray/Suri 2019; Hahne 2026; Hatton 2017; Moore 2021; Prug/Bilic 2021). Besonders beispielhaft für den fehlenden Arbeitnehmer:innenschutz innerhalb der digitalen Welt, besonders in der KI-Entwicklung, sind Formen von Content Moderation und Datenklassifizierung. Auch wenn es für gewöhnlich so scheint, als sei die gesamte Content Moderation – beispielsweise auf Social-Media-Plattformen – automatisiert durch Algorithmen, ist weiterhin ein menschliches Intervenieren notwendig (Crawford 2021). Das bedeutet, dass zur Entfernung von problematischen oder expliziten Inhalten noch immer ein Mensch benötigt wird, um richtig zu entscheiden. Auch wenn dies auf den ersten Blick nicht wie ein Problem wirken mag – es ist vielleicht kein schöner Job, aber dennoch eine Möglichkeit zum Geldverdienen – ist die Realität für Contentmoderator:innen und Datenklassifizierer:innen oft belastend. Wie durch eine Investigativrecherche 2022 festgestellt wurde, gab es eine Konzentration von Datenklassifizierer:innen in Kenia (Perrigo 2022, 2023). Das Zentrum wurde von OpenAI und Meta genutzt; dennoch ließen die Arbeitsbedingungen der Arbeiter:innen zu wünschen übrig. Wie aus Dokumenten und Interviews hervorging, mussten die Arbeiter:innen bei geringer Bezahlung Texte zwischen 100 und 1.000 Worten beurteilen und klassifizieren, die explizite Schilderungen von sexueller und/oder körperlicher Gewalt und Hate Speech beinhalteten (Perrigo 2023). Dabei stand wenig bis gar keine psychologische Unterstützung zur Verfügung: Durch eine enorme Nachfrage kamen „Wellnesssessions“ nur selten zustande; Anfragen auf Therapiesitzungen wurden entweder vollständig ignoriert oder nur in Form von einmaligen Gruppensitzungen bewilligt.
Die Bedingungen für Datenklassifizierer:innen und KI-Arbeiter:innen verbessern sich kaum. Durch die bewusste Ausnutzung von Armut in Ländern des Globalen Südens wie Kenia oder Indien können Tech-Giganten wie OpenAI Kosten sparen, tun dies allerdings auf dem Rücken der Arbeiter:innen und reproduzieren dabei neo-koloniale Strukturen (Hahne 2026). Allerdings lassen sich ebenso Beispiele für die Ausbeutungen von Arbeiter:innen für Datenklassifizierung im Globalen Norden finden: 2025 wurde ein Class Action Lawsuit gegen Surge AI vor dem obersten Gerichtshof in Kalifornien eingereicht, nachdem eine dort arbeitende Person der Firma vorwarf, Datenklassifizierer:innen bewusst nur als Selbstständige zu führen, obwohl sie nur für Surge AI tätig sind, und ihnen somit Arbeitnehmendenschutz und Zusatzleistungen verwehrt wurden (Clarkson 2025; Hussain 2025). Auch wenn dies nur der neueste Vorwurf im Bereich der Datenklassifizierung und KI-Entwicklung ist, ist es nur ein weiterer Vorfall in einer langen Reihe von Begebenheiten, die die Ausbeutung von Arbeiter:innen innerhalb der KI-Branche begünstigt. Durch strategische Vorgehensweisen der Tech-Giganten werden bewusst Strukturen umgangen, die Arbeitnehmer:innen Schutz gewährleisten, beispielsweise durch die Verlagerung von Stellen in den Globalen Süden, um die höheren Mindestlöhne und Arbeitsschutzrichtlinien im Globalen Norden zu umgehen. Andere Taktiken sind das Beschäftigen von Arbeitnehmer:innen als Scheinselbstständige, wie es im oben beschriebenen Fall beschrieben wird, um beispielsweise das Zahlen von Soziallleistungen zu vermeiden, wodurch die meisten KI-Firmen wie OpenAI die Zahl ihrer Arbeitnehmer:innen selbst nicht einschätzen können (Ingram 2023; Prug/Bilic 2021). Gleichzeitig sind die Beschäftigten in diesem Sektor den Machtgefällen und Giganten der Tech-Branche ausgeliefert und können sich durch die Dezentralität der Arbeit von Datenklassifizierer:innen kaum organisieren (Crawford 2021; Irani 2015). Solange die Arbeitenden innerhalb der KI-Branche kaum bis gar nicht geschützt werden und stattdessen nur als Mittel zum Zweck der KI-Entwicklung gelten, kann und darf sich der Diskurs nicht so verschieben, dass über Rechte einer KI diskutiert wird, die den menschlichen Arbeitenden dahinter verwehrt bleiben.
Zusätzlich ist anzuführen, dass die unsichtbare Arbeit in der KI-Branche meist unbezahlt bleibt, nicht aber, weil sie in prekären, unsichtbaren Arbeitsverhältnissen stattfindet, sondern, weil sie verrichtet wird, ohne, dass die arbeitende Person überhaupt versteht, dass sie Arbeit verrichtet. Der Digitale Kapitalismus, in seiner derzeitigen Form, sowie die KI-Entwicklung, sind abhängig von enormen Datenmengen, die durch Nutzer:innen generiert werden (Crawford 2021; Gozalo-Brizuela/Garrido-Merchan 2023). Diese „Nutzer:innen“ werden ihrerseits „genutzt“, um Profit und Kapital zu generieren, ohne, dass sie sich dessen bewusst sind (Crawford 2021; Hahne 2026; Hatton 2017).
Gleichzeitig sollten die Auswirkungen auf Arbeitnehmer:innen außerhalb der KI-Branche nicht vergessen werden. Denn auch wenn es den Anschein hat, dass KI die Arbeitswelt entlastet und beispielsweise lästige, monotone Aufgaben übernehmen kann, zeigt sich die erhoffte Arbeitsersparnis nicht; stattdessen bietet sich mehr Arbeit für Arbeitnehmende gemeinsam mit der immer stärker werdenden Angst um den eigenen Arbeitsplatz. Die gefährdeten Arbeitsplätze sind dabei nicht die historisch körperliche Arbeit des Proletariats, sondern Arbeitsplätze der unteren Mittelschicht: repetitive Schreibtischtätigkeiten wie das Abtippen von Informationen, das Auswerten von Daten oder das Schreiben von Texten (Tomlinson et al. 2025). Das Fürchten dieser Arbeitnehmer:innen um die Stabilität ihrer Arbeit und ihrer Zukunft als bloße Angst vor technologischer Weiterentwicklung abzutun, nimmt die gerechtfertigten Sorgen der Arbeitnehmenden nicht ernst und führt dazu, dass ihre Stimme im Diskurs zu KI und der Entwicklung der Arbeitswelt weiter ungehört bleibt.
III.II Normative Einwände
Neben der Verschleierung der Auswirkungen auf menschliche Arbeitnehmer:innen, sollten wir nun also auch bei Künstlicher Intelligenz von Arbeitnehmer:innenschutz sprechen. Dabei gibt es normative Einwände, die gegen die generelle Verwendung von menschlichen Charakteristiken zur Beschreibung von KI stehen. Der Digitale Humanismus spricht sich deshalb dafür aus, dass der Mensch – etwa durch die Anwendung von Charakteristiken wie Effizienz – nicht als Maschine betrachtet werden darf (Barberi et al. 2021; Nida-Rümelin/Weidenfeld 2022; Schmoelz 2020). Gleichzeitig darf die Maschine nicht wie ein Mensch behandelt werden, indem menschlich-geprägte Konzepte wie Kreativität auf Maschinen angewendet werden (Schmölz 2020). Im Kontrast zur Maschine sollte der Mensch
„der berechenbaren Rationalität der digitalen Maschine durch das Setzen zentraler Werte und Urteile wiederum Grenzen aufweisen und die Gestaltung digitaler Technologie vorantreiben“
(Schmölz 2020: 228).
Es liegt somit in der Verantwortung des Menschen, der Technologie und damit auch der Technologieentwicklung Grenzen aufzuweisen, um die spezifischen und universell-geltenden Charakteristiken des Menschen zu schützen und sie somit als einzig mögliche moralische Akteur:innen zu begreifen.
Selbstverständlich ist es nicht generell ausgeschlossen, nicht-menschlichen Subjekten Rechte zuzusprechen. Das Zusprechen von Rechten für beispielsweise Tiere oder die Umwelt ist möglich, obwohl diese nicht als moralische Akteure klassifizierbar sind (Davidson 2021). Um normativ relevante Entscheidungen treffen zu können, muss ein:e Akteur:in in der Lage sein, die Konsequenzen des eigenen Handelns zu begreifen, abzuwägen und frei zu entscheiden. Der Digitale Humanismus argumentiert nicht, dass nicht-menschliche Subjekte keine normativen Subjekte sein können. Beispielsweise sind Tiere nicht als dem Menschen vollständig unterworfen und die Natur auch nicht als dem Menschen vollständig ausgeliefert zu betrachten (Davidson 2021). Stattdessen bedeutet der Digitale Humanismus keinen normativen Anthropozentrismus, sondern lediglich einen methodologischen Anthropozentrismus, was meint, dass der Mensch zwar als Ausgangspunkt gesetzt wird, allerdings nicht als losgelöst oder über nicht-menschlichen Akteur:innen stehend betrachtet wird. Ein methodologischer Anthropozentrismus ist in diesem Sinne unausweichlich, da wir als Menschen immer eine Sicht beibehalten werden, in welcher wir die zentrale Position einnehmen. Selbst viele der selbsternannten post-humanistisch ausgelegten Perspektiven, beispielsweise in der Tierethik oder in der Umweltphilosophie, nehmen dennoch den Menschen als Ausgangspunkt ihrer Argumentationskette und können sich daher nicht von einem methodologischen Anthropozentrismus lösen.
Auch wenn der Digitale Humanismus, so wie hier beschrieben, Tiere und andere nicht-menschliche Subjekte als normative Subjekte anerkennt, bedeutet dies nicht, dass dasselbe für Maschinen gelten kann. Eine Maschine hat nicht das Anrecht auf moralische Behandlung; sie kann keinen Schmerz empfinden, keine Emotionen fühlen, oder auf eine moralisch relevante Weise verletzt werden (Liberati/Nagataki 2019). Der Digitale Humanismus, beispielsweise in der Form des Wiener Manifests für Digitalen Humanismus, hebt diese klare Abgrenzung zwischen Mensch und Maschine hervor, um die Trennung zwischen Maschine und Mensch beizubehalten (Werthner et al. 2019). So dürfen menschliche Eigenschaften wie Co-Kreativität, Freiheit oder Verletzbarkeit nicht Anwendung bei Maschinen und technologischen Gegenständen finden. Gleichzeitig dürfen maschinelle Qualitäten wie (gesteigerte) Effizienz nicht auf menschliche Akteur:innen übertragen werden, damit sie nicht in Arbeitsverhältnissen entmenschlicht und nur auf Leistung reduziert werden.
Spezifisch der Arbeitnehmer:innenschutz kann keine Maschinen berücksichtigen, da es sich dabei um die Anwendung eines spezifisch menschlichen Konzepts auf ein nicht-menschliches System (KI) handeln würde. Bei Arbeitnehmer:innenschutz handelt sich also um einen Schutz, den sich die Arbeiterklasse selbst erkämpft hat und für den sie sich auch heute noch einsetzen muss. Die Entwicklung von KI-Systemen und KI-unterstützter Robotik scheint momentan davon getrieben, Systeme zu entwickeln, die weiterhin digital-kapitalistische Strukturen aufrechterhalten, die scheinbar eher Arbeitnehmer:innen in Gefahr bringen als sie zu schützen. Dabei ist der Hintergedanke hinter vielen KI-Anwendungen neben Zeitersparnis und Effizienz auch der Schutz menschlicher Arbeitnehmer:innen. Wird nun jedoch über die „Rechte“ von KI-Systemen diskutiert, stellen wir nicht nur den historischen Kampf der Arbeiterbewegung in den Hintergrund, sondern auch die Möglichkeit, KI weiterhin nur als Hilfsmittel anzusehen. Die Trennung zwischen Digitalem und Menschlichem basiert also nicht nur auf einem historischen Kontext oder dem Schutz menschlicher Akteur:innen, sondern ist für das Erhalten des moralischen Status des Menschen notwendig.
IV. Conclusio
Zusammenfassend hat sich dieser Artikel mit der Frage beschäftigt, wie der mediale Diskurs um KI in Bezug auf die Stellung von Arbeitnehmer:innen zugunsten der KI und gegen menschliche Eigenschaften gerichtet wird und in welcher Form normative Bewegungen wie der Digitale Humanismus dagegenhalten können. Generell ist festzustellen, dass der KI-Diskurs bezüglich Arbeit und Arbeitnehmer:innen fehlgeleitet zu sein schein. Anstatt den Fokus auf die menschlichen Akteur:innen hinter den Systemen zu lenken, werden neue Diskussionen eröffnet, welche weiter zur Vermenschlichung und Anthropomorphisierung von KI-Systemen beitragen.
Die Rechte von Arbeiter:innen sind ein Resultat des Kampfes der Arbeiterklasse während der Industrialisierung; sie sind also ein Ergebnis menschlichen Kampfes gegen ein sie unterdrückendes System. Weniger Aufmerksamkeit wird jedoch der unsichtbaren Arbeit, besonders der unsichtbaren Arbeit von Minderheiten, geschenkt, welche in noch stärkerem Ausmaß Einzug in die KI-Entwicklung findet. Einerseits erlaubt das Verschieben des Diskurses noch weniger Aufmerksamkeit für die unsichtbare Arbeit, besonders die Arbeit von Minderheiten aus dem ∙Globalen Süden in der Datenarbeit für KI, gleichzeitig führt es zu einer weiteren Entmenschlichung von Arbeitnehmenden im Generellen. Künstliche Intelligenz kann eine Entlastung für Arbeitnehmer:innen darstellen und bei richtiger Anwendung einen positiven Beitrag zur Gesellschaft leisten, allerdings benötigt es dafür eine tiefere Auseinandersetzung mit den normativen Problemen rund um KI. Der Digitale Humanismus sollte nicht nur als Richtlinie für die Entwicklung von KI-Systemen fungieren, sondern ebenfalls unser aller Interaktion mit KI-Systemen informieren und die gesellschaftliche Konversation rund um KI leiten. –

PIA-ZOE HAHNE
ist Researcherin für Digitalen Humanismus an der Fachhochschule des BFI Wien und Doktorandin an der philosophischen Fakultät der Universität Wien. Ihre Arbeit fokussiert sich auf Technikphilosophie, KI-Ethik, und das Verhältnis zwischen gesellschaftlichen Akteur*innen und künstlicher Intelligenz. Sie hält einen MSc in Cultures of Arts, Science and Technology von der Universität Maastricht. Kontakt: pia.hahne@fh-vie.ac.at.
Literatur
- Barberi, Alessandro/Missomelius, Patricia/Nida-Rümelin, Julian/Schmoelz, Alexander/Werthner, Hannes (2021): Digitaler Humanismus, in: Medienimpulse, 1–20. https://doi.org/10.21243/MI-02-21-27
- Clarkson (2025): Clarkson Represents Surge AI Workers in Labor Law Class Action, online unter: https://clarksonlawfirm.com/clarkson-represents-surge-ai-workers-in-labor-law-class-action/ (letzter Zugriff: 01.12.2025).
- Crawford, Kate (2021): Atlas of AI: Power, Politics, and the Planetary Costs of Artificial Intelligence, New Haven/London: Yale University Press.
- Cuthbertson, Anthony (2025): AI revolt: New ChatGPT model refuses to be shut down when instructed, in: The Independent, online unter: https://www.independent.co.uk/tech/ai-safety-new-chatgpt-o3-openai-b2757814.html (letzter Zugriff: 01.12.2025).
- Daniels, Arlene Kaplan (1987): Invisible Work, in: Social Problems 34(5), 403–415. https://doi.org/10.2307/800538
- Davidson, Marc D. (2021): Humanism and Sustainable Development, in: Worldviews: Global Religions, Culture, and Ecology 25(3), 183–205. https://doi.org/10.1163/15685357-20210903
- DeVault, Marjorie L. (2014): Mapping Invisible Work: Conceptual Tools for Social Justice Projects, in: Sociological Forum 29(4), 775–790. https://doi.org/10.1111/socf.12119
- Edwards, Benj (2025): Anthropic CEO floats idea of giving AI a “quit job” button, sparking skepticism, in: Ars Technica, online unter: https://arstechnica.com/ai/2025/03/anthropics-ceo-wonders-if-future-ai-should-have-option-to-quit-unpleasant-tasks/ (letzter Zugriff: 01.12.2025).
- Frege, Carola (2007): Employment Research and State Traditions, Oxford: Oxford University Press. https://doi.org/10.1093/acprof:oso/9780199208067.001.0001
- Gaitsch, Myriam/Schröpf, Philip (2025): The Ideal Worker Revisited. A Gender Perspective on Technostress at the Office, in: Weizenbaum Journal of the Digital Society 5(3). https://doi.org/10.34669/WI.WJDS/5.3.5
- Gozalo-Brizuela, Roberto/Garrido-Merchan, Eduardo C. (2023): ChatGPT is not all you need. A State of the Art Review of large Generative AI models, in: arXiv. https://doi.org/10.48550/ARXIV.2301.04655
- Gray, Mary L./Suri, Siddharth (2019): Ghost Work: How to Stop Silicon Valley from Building a New Global Underclass, New York: HarperCollins Publishers.
- Hahne, Pia-Zoe (forthcoming): Invisible Labour: Who Keeps the Algorithm Running?, in Müller, Vincent, Dung, Leonard, Löhr, Guido/Rumana, Aliya (Hgs.): Philosophy of Artificial Intelligence: The State of the Art, Springer (im Druck).
- Hatton, Erin (2017): Mechanisms of invisibility: Rethinking the concept of invisible work, in: Work, Employment and Society 31(2), 336–351. https://doi.org/10.1177/0950017016674894
- Hussain, Suhauna (2025): Surge AI is latest San Francisco startup accused of misclassifying its workers, in: Los Angeles Times, online unter: https://www.latimes.com/business/story/2025-05-21/surge-ai-is-latest-san-francisco-start-up-to-face-lawsuit-for-allegedly-misclassifying-data-labeling-workers(letzter Zugriff: 01.12.2025).
- Ingram, David (2023): The AI revolution is powered by these contractors making $15 an hour, in: NBC News, online unter: https://www.nbcnews.com/tech/innovation/openai-chatgpt-ai-jobs-contractors-talk-shadow-workforce-powers-rcna81892 (letzter Zugriff: 01.12.2025).
- Irani, Lilly (2015): Difference and Dependence among Digital Workers: The Case of Amazon Mechanical Turk, in: South Atlantic Quarterly 114(1), 225–234. https://doi.org/10.1215/00382876-2831665
- Liberati, Nicola/Nagataki, Shoko (2019): Vulnerability under the gaze of robots: Relations among humans and robots, in: AI & Society 34(2), 333–342. https://doi.org/10.1007/s00146-018-0849-1
- Marks, Gene (2024): The world is not quite ready for ‘digital workers’, in: The Guardian, online unter: https://www.theguardian.com/technology/article/2024/jul/21/ai-digital-workers-employment (letzter Zugriff: 01.12.2025).
- Marx, Karl (1864): Chapter 2: Results of the Direct Production Process, in: Economic Works of Karl Marx 1861–1864, online unter: https://www.marxists.org/archive/marx/works/1864/economic/ch02a.htm (letzter Zugriff: 01.12.2025).
- Molyneux, Maxine (1979): Beyond the Domestic Labour Debate, in: New Left Review, 3–27. https://doi.org/10.64590/jvq
- Moore, Phoebe V. (2021): AI Trainers: Who is the Smart Worker today?, in: Woodcock, Jamie/Moore, Phoebe V. (Hg.): Augmented Exploitation: Artificial Intelligence, Automation and Work, London: Pluto Press, 13–30. https://doi.org/10.2307/j.ctv1h0nv3d
- Muldoon, James/Graham, Mark/Cant, Callum (2024): Feeding the Machine: The Hidden Human Labour Powering AI, Edinburgh: Canongate.
- Munck, Ronaldo P. (2010): Globalization and the Labour Movement: Challenges and Responses, in: Global Labour Journal 1(2). https://doi.org/10.15173/glj.v1i2.1073
- Nida-Rümelin, Julian/Weidenfeld, Nathalie (2022): Digital Humanism: For a Humane Transformation of Democracy, Economy and Culture in the Digital Age, Cham: Springer International Publishing. https://doi.org/10.1007/978-3-031-12482-2
- Perrigo, Billy (2022): Inside Facebook’s African Sweatshop, in: TIME, online unter: https://time.com/6147458/facebook-africa-content-moderation-employee-treatment/ (letzter Zugriff: 01.12.2025).
- Perrigo, Billy (2023): Exclusive: OpenAI Used Kenyan Workers on Less Than $2 Per Hour to Make ChatGPT Less Toxic, in: TIME, online unter: https://time.com/6247678/openai-chatgpt-kenya-workers/ (letzter Zugriff: 01.12.2025).
- Pester, Patrick (2025): OpenAI’s ‘smartest’ AI model was explicitly told to shut down – and it refused, in: Live Science, online unter: https://www.livescience.com/technology/artificial-intelligence/openais-smartest-ai-model-was-explicitly-told-to-shut-down-and-it-refused (letzter Zugriff: 01.12.2025).
- Prug, Toni/Bilic, Paško (2021): Work Now, Profit Later: AI Between Capital, Labour and Regulation, in: Woodcock, Jamie/Moore, Phoebe V. (Hg.): Augmented Exploitation: Artificial Intelligence, Automation and Work, London: Pluto Press, 30–40. https://doi.org/10.2307/j.ctv1h0nv3d
- Schmoelz, Alexander (2020): Die Conditio Humana im digitalen Zeitalter. Zur Grundlegung des Digitalen Humanismus und des Wiener Manifests, in: MedienPädagogik. Zeitschrift für Theorie und Praxis der Medienbildung 20, 208–234. https://doi.org/10.21240/mpaed/00/2020.11.13.X
- Schmoelz, Alexander/Bauer, Verena (2021): Digitalisierung, Humanismus und die Zukunft von Arbeit und Berufsbildung: Zentrale Prognosen aus der Berufsbildungsforschung, in: Löffler, Roland/Schlögl, Peter/Schmoelz, Alexander (Hg.): 50 Jahre Berufsbildungsforschung in Österreich im Spannungsfeld von Wissenschaft, Politik und Praxis, Bielefeld: wbv, 221–236. http://dx.doi.org/10.3278/6004915w221
- Star, Susan Leigh/Strauss, Anselm (1999): Layers of Silence, Arenas of Voice: The Ecology of Visible and Invisible Work, in: Computer Supported Cooperative Work (CSCW) 8(1–2), 9–30. https://doi.org/10.1023/A:1008651105359
- Tangermann, Victor (2024): Company Abandons Plans to Give AI Workers ‘Rights’ and Add Them to Org Chart After Outcry From Human Employees, in: Futurism, online unter: https://futurism.com/startup-ai-rights-org-chart (letzter Zugriff: 01.12.2025).
- Tangermann, Victor (2025): Anthropic CEO Suggests That AI Deserves Workers’ Rights, in: Futurism, online unter: https://futurism.com/anthropic-ceo-suggests-ai-deserves-workers-rights (letzter Zugriff: 01.12.2025).
- Tomlinson, Kiran/Jaffe, Sonia/Wang, Will/Counts, Scott/Suri, Siddharth (2025): Working with AI: Measuring the Applicability of Generative AI to Occupations (Version 4), in: arXiv. https://doi.org/10.48550/ARXIV.2507.07935
- Werthner, Hannes/Lee, Edward/Akkermans, Hans/Vardi, Moshe et al. (2019): Wiener Manifest für Digitalen Humanismus, online unter: https://www.informatik.tuwien.ac.at/dighum/wp-content/uploads/2019/07/Vienna_Manifesto_on_Digital_Humanism_DE.pdf (letzter Zugriff: 01.12.2025).
