Digitalhumanistische Künstliche Intelligenz: Der AI Act am Prüfstand – VON MARTIN GIESSWEIN

I. Europa als Anwendungsprofi im globalen KI-Wettbewerb

Wir Europäerinnen gleichen Zuschauerinnen bei einem internationalen Tennismatch. Unsere Köpfe schwenken ständig von links nach rechts, während wir das globale KI-Powergame zwischen den USA und China beobachten. Mit jeder neuen Ankündigung leistungsstärkerer Modelle in diesen Ländern fühlen wir uns zunehmend auf die Zuschauer*innenbank verbannt. Es scheint, als ob Europa nicht in der Lage wäre, in diesem Wettbewerb mitzuhalten. Dabei wird jedoch oft übersehen, dass Europa eine völlig andere Strategie verfolgen sollte. Während die USA und China sich einen technologischen Rüstungswettlauf liefern, könnte Europa seine Stärken in der Anwendung und sinnvollen Regulierung der Technologie ausspielen. Der wahre Mehrwert von KI liegt nicht allein in der Rechenleistung oder der Anzahl der Parameter, sondern darin, wie sie genutzt wird, um das Leben der Menschen zu verbessern.

Europa hat also die Chance, sich als KI-Anwendungsprofi zu positionieren, indem es Modelle – unabhängig von ihrem Ursprungsland – in den Dienst der Menschen stellt: sei es in der Medizin, der Bildung, der Mobilität oder im Kampf gegen den Klimawandel. Ein Beispiel ist das EU-Projekt DRAIGON.eu, das durch den Einsatz von Genomanalyse und KI ein neues patientennahes Diagnoseverfahren für Antibiotikaresistenzen entwickelt. Ein anderer Anwendungsfall ist die Landesverwaltung Baden-Württemberg mit dem Projekt F13. Die Heilbronner Firma Aleph Alpha stellt der Verwaltung eine sichere KI-Oberfläche bereit, unterhalb derer sich austauschbare KI-Modelle einsetzen lassen. Ein echter Beitrag zur lokalen KI-Souveränität.

II. Der AI Act als digitalhumanistischer Gamechanger?

Die Spielregeln für eine Chance auf den Titel des KI-Anwendungsprofis haben wir uns mit dem AI Act selbst gegeben. Diese EU KI-Verordnung mindert die Risiken und schafft einen einheitlichen Rahmen für den Einsatz von KI in Europa. Hinter dem AI Act steht der generelle digitalpolitische Ansatz der EU. Einer der tragenden Säulen dieser Politik ist die Europäische Erklärung über digitale Rechte und Grundsätze. Mit dieser Erklärung aus dem Jahr 2022 hat die Europäische Union eine Vision für die digitale Transformation formuliert, die den Menschen in den Mittelpunkt stellt. Die Erklärung fußt auf der EU-Grundrechtecharta und umfasst sechs zentrale Prinzipien:

  1. Den Menschen und seine Rechte in den Mittelpunkt der digitalen Transformation stellen: Technologie soll allen Menschen in der EU dienen.
  2. Solidarität und Inklusion unterstützen: Jede/r soll Zugang zu erschwinglicher und schneller digitaler Konnektivität haben und die notwendigen digitalen Fähigkeiten erwerben können.
  3. Freiheit der Wahl im Internet gewährleisten: Nutzer*innen sollen befähigt werden, informierte Entscheidungen online zu treffen, insbesondere im Umgang mit künstlicher Intelligenz.
  4. Teilnahme am digitalen öffentlichen Raum fördern: Aktive Beteiligung am digitalen Leben und an demokratischen Prozessen soll unterstützt werden.
  5. Sicherheit, Schutz und Befähigung von Individuen erhöhen: Besonderes Augenmerk liegt auf dem Schutz von Kindern und Jugendlichen im digitalen Umfeld.
  6. Nachhaltigkeit der digitalen Zukunft fördern: Digitale Produkte und Dienstleistungen sollen nachhaltig gestaltet, produziert und entsorgt werden, um die Umwelt zu schonen.
TAGEBUCH EINER HUMANISTISCHEN
KÜNSTLICHEN INTELLIGENZ
VON MARTIN GIESSWEIN
Creative Commons
Online unter:
https://www.martingiesswein.com/ai2040

Die Europäische Union hat in den letzten Jahren mehrere wichtige Gesetze neben dem AI Act im Lichte dieser Erklärung verabschiedet, die in engem Zusammenhang stehen und sich gegenseitig ergänzen. Der Digital Services Act (DSA) zielt darauf ab, mehr Wettbewerb und Fairness in digitalen Märkten zu schaffen. Ein Schwerpunkt liegt auf der Verhinderung bewusster Irreführung von Nutzerinnen sowie dem Schutz der freien Meinungsäußerung. Zudem regelt das Gesetz den Zugang zu Daten der Digitalgiganten für Forschende und Behörden. Der Digital Markets Act (DMA) fokussiert sich auch auf die Beschränkung der Marktmacht großer Digitalkonzerne, die hier als Gatekeeper bezeichnet werden. Das Gesetz verpflichtet sie, fairen Zugang zu den auf ihren Plattformen generierten oder erhobenen Daten zu gewähren, um den Wettbewerb zu stärken und kleinen sowie mittleren Unternehmen bessere Marktchancen zu ermöglichen. Zurzeit sind Alphabet (Google), Amazon, Apple, ByteDance (TikTok), Meta (Facebook, Instagram, WhatsApp), Microsoft und Booking als Gatekeeper eingestuft. Der Data Act (DA) soll die Nutzung von Daten in Europa verbessern, um die Wertschöpfung insbesondere für neue Geschäftsmodelle, Start-ups und kleine sowie mittlere Unternehmen zu fördern. Diese Gesetze stehen in engem Zusammenhang mit der bereits bestehenden Datenschutz-Grundverordnung und bilden zentrale Elemente der Digitalpolitik der Europäischen Union. Die europäische Digitalpolitik versucht also eine digitalhumanistische Situation in den Mitgliedstaaten herbeizuführen, mit klarem Bekenntnis zur Digitalsouveränität, Schutz der Nutzerinnen und der Stärkung der europäischen Wirtschaft.

Der AI Act ist eine weitere natürliche Umsetzung der EU Prinzipien. Folgende Regelungen des Acts sind aus Sicht des Digitalen Humanismus besonders relevant:

Breite Definition von KI: Der AI Act legt eine breite Definition von KI zugrunde. Ein KI-System ist demnach „ein maschinengestütztes System, das für einen in wechselndem Maße autonomen Betrieb ausgelegt ist, nach seiner Einführung anpassungsfähig sein kann und aus den erhaltenen Eingaben Ergebnisse wie etwa Vorhersagen, Inhalte, Empfehlungen oder Entscheidungen hervorbringt, die physische oder virtuelle Umgebungen beeinflussen können“. Diese umfassende Definition wird dazu führen, dass viele algorithmische IT-Systeme im Zweifel als KI bezeichnet werden.
Einbeziehung der Betreiber: Alle Unternehmen, Behörden und Vereine haben Pflichten, nicht nur die Anbieter von KI-Systemen. Jede nicht-private Nutzung eines KI-Systems, zum Beispiel der Einsatz von Microsoft Copilot im Büroalltag, führt zum Status als Betreiber für die jeweilige Organisation.
Das AI Act Risikosystem: Es soll mit vier Risikoklassen die größten Gefahren der Verletzung digitalhumanistischer Ziele minimieren:
Unzulässiges Risiko: KI-Anwendungen, die Grundrechte verletzen, sind verboten (z. B. Social Scoring oder manipulative Systeme).
Hohes Risiko: KI in kritischen Bereichen (z. B. Banken, Bildung, Berufszugang) unterliegen strengen Regeln und einer ethischen Prüfung.
Begrenztes Risiko: KI mit Transparenzanforderungen (z. B. Chatbot-Anwendungen). Nutzer*innen müssen wissen, wann sie mit KI interagieren, um informierte Entscheidungen zu treffen.
– Minimales Risiko: KI ohne wesentliche Gefahr (z. B. Spam-Filter, automatische Übersetzungen). Es wird geschätzt, dass bis zu 80 % der eingesetzten KIs zu den beiden letzteren Klassen gehören.
Menschliche Aufsicht: Der AI Act stellt sicher, dass KI-Systeme nicht autonom kritische Entscheidungen treffen, ohne dass Menschen eingreifen können. Dies bedeutet, dass KI-Anwendungen so gestaltet sein müssen, dass Menschen ihre Funktionsweise verstehen, ihre Entscheidungen hinterfragen und bei Bedarf eingreifen können.
Förderung von KI-Kompetenz: Der AI Act fordert seit Februar 2025 gezielte Schulungsmaßnahmen zur Kompetenzbildung der Mitarbeitenden von KI-einsetzenden Unternehmen und Behörden. Neben der technischen und funktionalen Schulung ist eine ethische Sensibilisierung Pflicht.
Somit ist der AI Act ein digitalhumanistischer Rahmen und soll die ethische Nutzung der Technologie garantieren. Bedeutet das aber ein Ausbremsen von Innovationen?

III. Der AI Act als Stoppball für die Innovation?

Es gibt gute Argumente, dass Innovation, Nutzen und Ethik durch den AI Act in ein Gleichgewicht gebracht werden können:

– Einheitliche Regeln für die EU: Klare, verlässliche Rahmenbedingungen erleichtern Unternehmen die Planung und Skalierung neuer KI-Technologien und Anwendungen.
Regulatorischer Druck als Innovationsmotor: Neue Herausforderungen treiben technologische Lösungen voran (z. B. Datenschutz, Ethik-by-Design). Unternehmen und Start-ups werden durch klare Rahmenbedingungen motiviert, ethisch verantwortungsvolle KI-Innovationen voranzutreiben – ein österreichisches Beispiel ist das Unternehmen danube.ai mit einer neuartigen KI.
Vertrauen und Akzeptanz stärken: Klare Vorschriften zu Transparenz, Sicherheit und Ethik fördern das öffentliche Vertrauen und erleichtern die Marktdurchdringung von Innovationen. Frühzeitige Berücksichtigung ethischer und gesellschaftlicher Aspekte verhindert Probleme wie Diskriminierung, Überwachung oder ökologische Schäden sowie potenzielle Reputationsrisiken für KI-einsetzende Behörden und Unternehmen.
– Nachhaltige und resiliente Innovationen: Fokus auf langfristige Lösungen statt kurzfristiger Profite, um gesellschaftliche Herausforderungen (z. B. Klimawandel, digitale Sicherheit) effektiv zu bewältigen.

VI. Conclusio und Aufruf

Die Künstliche Intelligenz und das Ringen um die Macht und Beherrschung dieser Technologie werden weiterhin eine zentrale Rolle in unserer Gesellschaft und weltweit spielen. Die Versprechen der KI, ein besseres Leben und Arbeiten, profitables Wirtschaften sowie die Schaffung einer gesunden und sauberen Welt, sind äußerst verlockend. Die humanistische Ausrichtung Europas und der AI Act bilden eine solide Grundlage für ein spannendes, langfristiges KI-Turnier. Damit Europa im Innovations- und Ethikspiel rund um Künstliche Intelligenz mithalten kann, ist eine professionelle und zügige Klärung der offenen Fragen zum AI Act erforderlich, insbesondere hinsichtlich der fehlenden Durchführungsverordnungen. Zudem müssen die Umsetzungsorgane, nämlich das Europäische AI-Office sowie die KI-Behörden in den einzelnen Mitgliedstaaten, schnell und kompetent ausgestaltet werden.

Und schließlich liegt es an jeder von uns selbst, mit Neugierde und Gestaltungslust an die KI heranzugehen und sie so einzusetzen, dass es unseren Werten entspricht. Die Künstliche Intelligenz und all ihre Optionen und Möglichkeiten sollten im Sinne des Digitalen Humanismus verwendet werden.
Die kommenden Jahre und unsere Aktivitäten werden entscheidend sein. Wer einen Blick weiter in die ZUKUNFT werfen möchte, um Szenarien und Inspirationen zu entdecken, ist herzlich eingeladen, das kostenfreie Büchlein AI 2040 unter https://www.martingiesswein.com/ai2040 herunterzuladen.

Martin Giesswein © Martin Giesswein

MARTIN GIESSWEIN
ist Fakultätsmitglied der WU Executive Academy mit den Fachgebieten KI, Digitalökonomie und digitalhumanistisches Leadership. 2025 wurde er beim Award Digitaler Humanismus in der Praxis mit einem ersten Preis ausgezeichnet. Er arbeitet als AI Ethics Advisor im europäischen DRAIGON Projekt. Martin Giesswein ist einer der Mitinitiatoren von DigitalCity.Wien, eine seit 10 Jahren bestehende Kooperation der Digitalwirtschaft mit der Stadt Wien. Zuvor war er CEO und General Manager in der IT-Branche.