Don’t believe the Hype! Zehn Thesen zu KI und Digitalem Humanismus – VON DAVID KIRSCH

Der Artikel von DAVID KIRSCH untersucht die Rolle der Künstlichen Intelligenz (KI) in der modernen Gesellschaft aus der Perspektive des Digitalen Humanismus. In Form von zehn Thesen wird die grundlegende Bedeutung von Künstlicher Intelligenz (KI) für den Digitalen Humanismus dargelegt. Es wird aufgezeigt, wie technologische Entwicklungen verantwortungsvoll und menschenzentriert gestaltet werden können, um den größtmöglichen Nutzen für die Gesellschaft zu erzielen.

0. Einleitung

Die vergangenen Jahre haben Staat und Gesellschaft durch eine Reihe von Krisen gejagt – von der Covid-19-Pandemie über den Krieg in der Ukraine bis hin zu Energiekrise, Cyberbedrohungen und dem Klimawandel. Diese Herausforderungen haben die Grenzen staatlicher Belastbarkeit und Handlungsfähigkeit aufgezeigt und verdeutlicht, dass ein grundlegender Wandel notwendig ist, um die wachsenden Bedürfnisse einer zunehmend digitalisierten Welt zu erfüllen. Und die Anforderungen steigen täglich: Pensionierungswellen drohen wertvolles Wissen aus der Verwaltung zu spülen, ohne dass geeigneter Ersatz in Sicht ist. Unersetzliche Expertise verschwindet, während der öffentliche Dienst für junge Talente immer unattraktiver wird – sie erwarten moderne Arbeitsbedingungen und neue Perspektiven. Die Kluft zwischen den Bedürfnissen der Generation X, Y und Z und den starren Strukturen des öffentlichen Sektors wird größer, verschärft durch chronischen Personalmangel, der zu massiver Überlastung führt. Prozesse stocken, Burnout wird zum Massenphänomen – ein Risiko, das nicht nur die Gesundheit der Menschen gefährdet, sondern auch die Handlungsfähigkeit des Staates in Krisen bedroht.

Glaubt man den Hochglanzbroschüren großer Beratungsfirmen, ist Künstliche Intelligenz (KI) das Allheilmittel des 21. Jahrhunderts – und zwar für all diese genannten Probleme. Doch die Realität sieht anders aus. Dieser Beitrag soll in Form von Thesen einen Blick auf die zukünftigen Chancen und Risiken von KI im Blick auf den Digitalen Humanismus werfen: Klar ist: KI ist kein Wundermittel, das strukturelle Defizite im Handumdrehen behebt – wie das Beispiel Aleph Alpha zeigt.

I. Don’t believe the Hype – KI ist nicht die Lösung all unserer Probleme

Das einst gefeierte deutsche Start-up Aleph Alpha, das als Antwort auf die US-Tech-Giganten galt, sammelte über 500 Millionen Dollar ein, um europäische Sprachmodelle zu entwickeln. Doch der Markt war hart umkämpft, die Betriebskosten hoch und der Wettbewerb gnadenlos. Während Aktienkurse stiegen und große Versprechen gemacht wurden, rückte der langfristige Nutzen für den Menschen in den Hintergrund. Am Ende zog sich Aleph Alpha aus dem Rennen zurück – ein klarer Beweis dafür, dass hier der Hype wichtiger war als nachhaltige Innovation. Besonders im öffentlichen Sektor darf KI nicht als schnelle Lösung herhalten. Und hier kommt der Digitale Humanismus ins Spiel: KI muss den Menschen unterstützen, nicht verdrängen. Sie sollte die Arbeitslast verringern, die Würde der Arbeit bewahren und den sozialen Zusammenhalt fördern. Der echte Erfolg von KI liegt nicht in kurzfristigen Effizienzgewinnen, sondern in der Schaffung gerechterer, inklusiverer Strukturen, die den Herausforderungen des 21. Jahrhunderts standhalten.

Der öffentliche Sektor ist nicht Silicon Valley. Während einige hiesige Ministerien schon länger mehr kein Windows-Update erfahren haben, reden wir an dieser Stelle von der Einführung von KI-Systemen. Dieser Bruch zwischen Realität und Vision zeigt, wie wichtig es ist, KI nicht als Allheilmittel zu betrachten. KI ist ein mächtiges Werkzeug – aber es ist im ersten Schritt eben nur ein Werkzeug. Ohne eine durchdachte und umfassende Digitalstrategie, die die technologische Infrastruktur, die Qualifizierung der Mitarbeitenden und die ethischen Implikationen berücksichtigt, bleibt KI bloß ein Stück Technik, das keine nachhaltige Wirkung entfalten kann. Statt auf den schnellen „KI-Effekt“ zu setzen, sollte die Verwaltung eine langfristige Vision verfolgen, die den technologischen Fortschritt im Dienst des Menschen sieht. KI ist nicht die Lösung für alle Probleme – aber sie kann Teil einer Lösung sein, wenn sie in ein größeres, menschenzentriertes Konzept eingebettet wird, das den Digitalen Humanismus als Leitbild verfolgt. Das bedeutet, KI so einzusetzen, dass sie die Lebensqualität verbessert, den sozialen Zusammenhalt stärkt und die Gesellschaft insgesamt gerechter macht.

II. KI kann zu einem Sicherheitsrisiko werden

DIGITALER HUMANISMUS
ÜBER DIGITALISIERUNG UND
KÜNSTLICHE INTELLIGENZ
VON HANNES WERTHNER
Wien: PICUS
72 Seiten | € 12,00
(Gebundenes Buch)
ISBN: 978-3-7117-3035-0
Erscheinungstermin: 1. November 2024

Künstliche Intelligenz verspricht, viele Bereiche der Verwaltung zu optimieren und zu automatisieren, bringt aber erhebliche IT-Sicherheitsrisiken mit sich. KI-Systeme sind anfällig für Manipulationen, insbesondere wenn sie nicht richtig gesichert oder mit fehlerhaften Daten gefüttert werden. Dies kann dazu führen, dass KI falsche oder sogar gefährliche Entscheidungen trifft – und genau das widerspricht dem Prinzip des Digitalen Humanismus, der Technologien immer im Dienst des Menschen sieht. Ein besonders bedrohliches Beispiel sind adversarial attacks, bei denen KI durch gezielt manipulierte Daten irregeführt wird. So könnte eine KI, die zur Überwachung von Netzwerksicherheitsprotokollen eingesetzt wird, schädliche Aktivitäten wie Datenlecks oder unautorisierte Zugriffe übersehen. Besonders große Sprachmodelle (Large Language Models – LLMs), die eigentlich zur Bedrohungserkennung genutzt werden, können manipuliert werden, was Angreifern die Möglichkeit gibt, unbemerkt Schwachstellen auszunutzen. Hier muss der Digitale Humanismus sicherstellen, dass solche Technologien dem Gemeinwohl dienen – und nicht zur Gefahr werden.

Je mehr Plattformen auf LLMs basieren, desto größer das Risiko: LLMs könnten zu bevorzugten Zielen für Cyberattacken werden, da Angreifer genau diese Schwachstellen ausnutzen könnten. Ein gezielter Angriff auf LLMs könnte nicht nur Verwaltungsprozesse beeinträchtigen, sondern auch kritische Sicherheitslücken öffnen. Ein realer Fall zeigt das deutlich: Cyberkriminelle nutzten KI, um täuschend echte Phishing-Mails zu erstellen, die sogar erfahrene Sicherheitsexperten nicht erkannten. Diese Beispiele verdeutlichen, dass KI nicht nur ein Verteidigungswerkzeug, sondern auch eine Waffe sein kann, wenn ethische Dimensionen vernachlässigt werden.

III. KI kann die Verwaltung sicherer machen

Künstliche Intelligenz (KI) bietet nicht nur Risiken, sondern auch immense Chancen, um die Verwaltung sicherer und resilienter zu machen. Insbesondere im Bereich der Cybersicherheit kann KI dabei helfen, Bedrohungen frühzeitig zu erkennen und schneller darauf zu reagieren. KI-Systeme können in Security Operations Centers (SOCs) eingesetzt werden, um die Verteidigungsmechanismen gegen Cyberangriffe erheblich zu stärken. Ein zentraler Vorteil von KI ist hierbei die Fähigkeit, riesige Datenmengen in Echtzeit zu analysieren. Im Kontext der Verwaltung bedeutet das, dass KI-Systeme dazu genutzt werden können, Netzwerke und Kommunikationskanäle permanent auf Anomalien zu überwachen. LLMs können Bedrohungen basierend auf Bedrohungsintelligenz, die aus dem Darknet, Foren und anderen Datenquellen stammt, frühzeitig erkennen, bevor sie sich zu tatsächlichen Angriffen entwickeln. Diese proaktive Nutzung von KI kann der Verwaltung helfen, schneller auf Cyberbedrohungen zu reagieren und diese oft schon im Vorfeld zu entschärfen.

Security Operations Centers (SOCs) fungieren in der IT-Security als zentrale Knotenpunkte, an denen sämtliche Sicherheitsereignisse eines Netzwerks überwacht, analysiert und bearbeitet werden. In einem SOC werden Angriffe erkannt, analysiert und abgewehrt, oft in Echtzeit. Durch die Integration von KI können SOCs erheblich effizienter arbeiten, da KI-Modelle automatisiert Vorfälle kategorisieren, priorisieren und erste Handlungsempfehlungen liefern können. Dies dient als Unterstützung, die es den Cybersicherheitsteams ermöglicht, ihre Arbeit sicherer und effektiver zu gestalten und kann ein notwendiges digitales Werkzeug zur Arbeitszeitverkürzung darstellen.

IV. KI als Instrument der Arbeitszeitverkürzung

Künstliche Intelligenz hat das Potenzial, die Art und Weise, wie wir arbeiten, grundlegend zu verändern, indem sie repetitive und zeitaufwendige Aufgaben automatisiert. Doch KI darf nicht nur als Werkzeug der Effizienzsteigerung verstanden werden. Der Digitale Humanismus bietet uns das Rüstzeug, um den digitalen Wandel so zu gestalten, dass technologische Fortschritte den Menschen zugutekommen. Statt KI lediglich zur Prozessoptimierung einzusetzen, ermöglicht sie, Arbeitszeiten zu verkürzen und mehr Raum für sinnvolle, kreative Tätigkeiten zu schaffen. Zum Beispiel:

In den zuvor erwähnten Security Operations Centers (SOCs), wo Analyst*innen oft rund um die Uhr in Bereitschaft sind, um auf potenzielle Bedrohungen zu reagieren. Hier kann KI repetitive Aufgaben wie die kontinuierliche Überwachung und erste Analyse von Sicherheitsvorfällen übernehmen, sodass die Mitarbeitenden nicht ständig auf Abruf sein müssen und ihre Arbeitsbelastung sinkt. Während KI in Echtzeit Bedrohungen erkennt und priorisiert, können die Analyst*innen sich auf strategischere und komplexere Aufgaben konzentrieren, was nicht nur die Effizienz steigert, sondern auch ihre geistige Gesundheit schützt.

Besonders in einem Umfeld, in dem ständige Einsatz- und Rufbereitschaft zur Norm geworden ist, bietet KI die Möglichkeit, die Arbeitslast zu verteilen und damit Burnout und Überlastung zu reduzieren. Der Digitale Humanismus stellt sicher, dass der Einsatz von KI nicht allein der Effizienz dient, sondern auch das Wohl der Mitarbeitenden im Blick behält. KI kann hier eine zentrale Rolle spielen, indem sie Arbeitsprozesse so gestaltet, dass sie nicht nur effektiver, sondern auch menschlicher werden – mit mehr Balance zwischen Arbeit und Leben, weniger Überstunden und einem nachhaltigeren Arbeitsumfeld.

V. KI als Instrument des sozialen Kahlschlags

Künstliche Intelligenz bietet die Möglichkeit, menschliche Arbeitskraft erheblich zu entlasten. Durch Automatisierung können viele Arbeitsprozesse effizienter gestaltet werden. Doch genau hier liegt die Gefahr: Wenn der Einsatz von KI nur unter dem Gesichtspunkt der Effizienzsteigerung betrachtet wird, kann dies dazu führen, dass Arbeitsplätze in Massen verschwinden – eine Entwicklung, die wir bereits in der Automobilindustrie oder der Logistikbranche beobachten konnten. Hier wurden Prozesse durch Automatisierung beschleunigt, während gleichzeitig viele Jobs verloren gingen. Die Reaktion darauf war oft das altbekannte Argument „dann sollen sie halt was anderes lernen“ – ein Ansatz, der die sozialen Konsequenzen dieser Entwicklung völlig außer Acht lässt. Denn ein Blick in die Vergangenheit zeigt uns, wie tiefgreifend technologische Revolutionen auf den Arbeitsmarkt wirken können. Während der industriellen Revolution verschwanden zahlreiche traditionelle Berufsfelder wie das Handweben oder bestimmte landwirtschaftliche Tätigkeiten fast vollständig. Der technologische Fortschritt führte zu Massenarbeitslosigkeit, bevor sich neue Arbeitsmärkte und -strukturen herausbildeten. Im Kontext des Digitalen Humanismus stellt sich die zentrale Frage, wie wir den technologischen Fortschritt so gestalten, dass er den Menschen dient und nicht gegen ihn arbeitet.

WIENER MANIFEST FÜR
DIGITALEN HUMANISMUS
VON HANNES WERTHNER, EDWARD A. LEE
HANS AKKERMANS ET AL:
Online unter: https://tinyurl.com/2tdk87cu

Der öffentliche Sektor, der besonders von den Potenzialen der KI profitieren könnte, muss sich bewusst mit dieser Herausforderung auseinandersetzen. Es geht nicht nur darum, Prozesse zu optimieren, sondern auch um die Arbeitsplatzsicherheit und den gesellschaftlichen Wert von Arbeit. Die Einführung von KI darf nicht zu einem bloßen Werkzeug gewinnorientierter Effizienz werden, sondern muss sich an ethischen Leitlinien orientieren, die den Schutz von Arbeitsplätzen als zentrales Ziel verfolgen.

KI kann und sollte zur Entlastung und Verbesserung der Arbeitsbedingungen eingesetzt werden, aber immer mit dem Ziel, den Arbeitsplatz als soziales Gut zu bewahren – und ihn langfristig in einen Digital Workplace zu transformieren. Die Balance zwischen Entlastung und Arbeitsplatzsicherheit erfordert klare Strategien und eine wertebasierte Herangehensweise, die den Menschen in den Mittelpunkt stellt. Nur so können wir verhindern, dass KI zu einem Werkzeug wird, das Menschen in prekäre Arbeitsverhältnisse drängt. Oder wie es die mittlerweile berühmte Autorin Joanna Maciejewska twitterte: „I want AI to do my laundry and dishes so that I can do art and writing, not for AI to do my art and writing so that I can do my laundry and dishes.“

VI. Jede KI-Strategie ohne Datenstrategie ist ein gesellschaftlicher Rückschritt

Kommen wir zurück zum Beispiel eines Ministeriums, das sich eine KI-Strategie verpassen möchte. Wenn die Softwareupdates seit zehn Jahren nicht gemacht wurden, wird es schwierig, ein neues System darauf aufzubauen. So ist es auch mit der Datenstrategie: Ohne eine solide und ethisch fundierte Grundlage wird jede KI-Strategie zum Scheitern verurteilt sein. Eine KI-Strategie ist nur so gut wie die Daten, auf denen sie basiert. Ohne eine saubere, transparente Datenbasis bleibt jede KI-Strategie unvollständig und risikobehaftet. KI-Systeme lernen von den Daten, die sie erhalten – wenn diese Daten verzerrt, unvollständig oder unausgewogen sind, reproduziert die KI systemische Fehler und verstärkt bestehende Vorurteile. Das kann dazu führen, dass KI bestehende Ungerechtigkeiten nicht nur aufrechterhält, sondern sogar vertieft.

Die Qualität und Zusammensetzung von Daten ist entscheidend dafür, ob KI-Systeme fair und inklusiv agieren können. Verzerrungen in Datensätzen, die hauptsächlich auf männlichen Erfahrungen basieren, führen oft zu Benachteiligungen bestimmter Bevölkerungsgruppen, wie etwa Frauen in der Gesundheitsforschung oder im Verkehrsdesign. Im Sinne des Digitalen Humanismus müssen KI-Systeme so gestaltet werden, dass sie allen Menschen gerecht werden – unabhängig von Geschlecht, Herkunft oder sozialem Status.

Das bedeutet: Eine KI-Strategie kann nur erfolgreich sein, wenn sie auf einer soliden und geprüften Datenstrategie basiert. Wenn Datensätze nicht ausreichend auf Bias untersucht werden, ist die gesamte Strategie fehleranfällig und potenziell diskriminierend. Eine diversifizierte, repräsentative Datenbasis und die Einhaltung ethischer Standards sind unerlässlich, um zu verhindern, dass KI bestehende Ungleichheiten verstärkt, statt dem Gemeinwohl zu dienen. Ohne diese Grundlagen bleibt jede KI-Strategie unausgereift und gefährlich, da sie nicht das Gemeinwohl fördert, sondern die bestehende Kluft in der Gesellschaft verstärken kann.

VII. KI kann eine inklusive Gesellschaft vorantreiben

Während KI also sicherlich die Gefahr birgt, bestehende Ungleichheiten zu verschärfen, schlummert in ihr gleichzeitig ein enormes Potenzial, um unsere Gesellschaft gerechter und inklusiver zu gestalten. Im Rahmen des Digitalen Humanismus kann KI helfen, Barrieren abzubauen und Menschen den Zugang zu Informationen und Dienstleistungen zu erleichtern, die ihnen bislang oft verwehrt blieben.

Stellen wir uns beispielsweise KI-basierte Chatbots vor, die komplizierte behördliche Prozesse in eine leicht verständliche Sprache übersetzen. Für Menschen mit kognitiven oder sprachlichen Einschränkungen wäre das ein gewaltiger Fortschritt. So könnten öffentliche Dienstleistungen endlich für alle Bürger*innen zugänglich werden – egal, ob jemand besonders technikaffin ist oder nicht. Auch Sprachassistenzsysteme bieten hier enormes Potenzial. Sie machen es möglich, komplexe Sachverhalte einfach und klar zu vermitteln – sei es im Gesundheitswesen, in der Verwaltung oder im Bildungssektor. Menschen mit Behinderungen hätten so einen viel besseren Zugang zu Informationen, die bisher oft hinter unüberwindbaren Hürden verborgen waren. KI hat das Zeug dazu, unsere Gesellschaft fairer und offener zu machen. Aber das passiert nicht von selbst. Dafür brauchen wir eine durchdachte Datenstrategie und klare ethische Leitlinien. Nur wenn wir diese Grundlagen schaffen, kann KI tatsächlich Chancengleichheit fördern und nicht ungewollt zur digitalen Ausgrenzung beitragen.

VIII. Digitale Souveränität wird mit KI noch wichtiger denn je

DER ARBEITENDE SOUVERÄN
VON AXEL HONNETH
Berlin: Suhrkamp
400 Seiten | € 30,00
(Gebundenes Buch)
ISBN: 978-3-518-58797-3
Erscheinungstermin: 13. März 2023

Da digitale Technologien wie Künstliche Intelligenz (KI) zunehmend unser Leben prägen, wird die Frage nach digitaler Souveränität immer relevanter. Denn wer die Kontrolle über Daten und die dazugehörige Infrastruktur besitzt, entscheidet maßgeblich darüber, wie der digitale Raum gestaltet wird. Digitale Souveränität bedeutet, dass Staaten, Unternehmen und Bürger die Fähigkeit haben, ihre digitalen Ressourcen unabhängig von großen Technologiekonzernen zu nutzen und selbstständig zu verwalten. Der Großteil der leistungsfähigsten KI-Systeme und -Infrastrukturen wird derzeit von einigen wenigen globalen Tech-Giganten kontrolliert. Diese dominieren den Markt nicht nur technologisch, sondern auch ökonomisch, was die Abhängigkeit von deren Plattformen und Dienstleistungen verstärkt. Hier stellt sich die dringende Frage, wie Länder wie Österreich oder die EU ihre digitale Souveränität bewahren können.

Im Rahmen des Digitalen Humanismus ergibt sich daraus ein klarer Investitionsauftrag: Staaten müssen ihre eigene IT-Infrastruktur aufbauen und pflegen, um die Kontrolle über ihre Daten und die technologische Entwicklung nicht aus den Händen zu geben. Die Sicherstellung digitaler Souveränität erfordert daher eine strategische Investition in eigene KI-Systeme und -Infrastrukturen sowie in Datenplattformen, die unabhängig betrieben werden können. Nur so kann verhindert werden, dass nationale Interessen durch die Dominanz globaler Tech-Unternehmen gefährdet werden. Digitale Souveränität ist somit nicht nur ein technisches Ziel, sondern auch ein politisches und soziales: Sie ermöglicht es, die Digitalisierung im Interesse der Bürger*innen zu gestalten und sicherzustellen, dass die Kontrolle über die eigenen Daten und Technologien nicht verloren geht.

IX. Wo kommen die Daten für unsere KI her?

Künstliche Intelligenz lebt von den Daten, auf denen sie basiert. Die Frage „Woher kommen die Daten?“ ist daher zentral, wenn es darum geht, eine nachhaltige und ethisch vertretbare KI-Strategie zu entwickeln. Die Daten, die für KI-Systeme genutzt werden, stammen aus einer Vielzahl von Quellen, angefangen bei Big Data aus Cloud-Diensten bis hin zu Daten, die durch das Internet of Things (IoT), Wearables oder medizinische Geräte gesammelt werden. Doch wer stellt diese Daten bereit und wie werden sie gesammelt?

Ein Beispiel hierfür ist die immense Menge an Daten, die durch Cloud-Dienste verarbeitet werden. Unternehmen und öffentliche Institutionen speichern riesige Datenmengen in der Cloud, die dann von KI genutzt werden können, um Muster zu erkennen und Entscheidungen zu treffen. Doch wer hat die Kontrolle über diese Daten und wie werden sie verwendet? Ähnliche Fragen stellen sich bei IoT-Geräten, die im Alltag ständig Daten sammeln – von Smart-Home-Anwendungen bis hin zu Wearables, die Gesundheitsdaten überwachen. Auch medizinische Produkte liefern Daten, die von KI-Systemen genutzt werden, um personalisierte Behandlungspläne zu erstellen oder Krankheiten frühzeitig zu erkennen.

Das Problem: Ohne eine klare Regelung, wer die Kontrolle über diese Daten hat und wie sie genutzt werden dürfen, läuft die KI-Strategie Gefahr, in die falsche Richtung zu gehen. Datenschutz und ethische Standards müssen an oberster Stelle stehen, wenn es darum geht, KI in einer Digitalstrategie zu verankern. Es braucht klare Vorgaben, wie Daten gesammelt, verarbeitet und geschützt werden, um sicherzustellen, dass KI-Systeme fair und transparent arbeiten. Die Daten, die von KI verarbeitet werden, sind nicht einfach nur „das neue Öl“ oder ein anderer Rohstoff, sie sind das Herzstück jeder KI-Strategie des Digitalen Humanismus. Eine nachhaltige und faire KI-Nutzung beginnt daher mit einer klaren Regelung der Datenherkunft und -verwendung.

X. Wem gehören die zugrundeliegenden KI-Daten?

DAS ZEITALTER DES
ÜBERWACHUNGSKAPITALISMUS
VON SHOSHANA ZUBOFF
Frankfurt am Main: Campus
727 Seiten | € 34,00
(Gebundenes Buch)
ISBN: 978-3593509303
Erscheinungstermin: 04. Oktober 2018

Eine der grundlegendsten und oft übersehenen Fragen bei Künstlicher Intelligenz (KI) lautet: Wem gehören eigentlich die Daten, die KI-Systeme antreiben? Diese Frage berührt nicht nur technische und rechtliche Aspekte, sondern auch zentrale Prinzipien wie Eigentum, Kontrolle und Verantwortung in der digitalen Welt. Daten sind das Herzstück jeder KI. Doch wem gehören diese Daten? Gehören sie den Unternehmen, die sie sammeln, den Plattformen, die sie speichern, oder den Personen, deren Informationen verarbeitet werden? Die Antwort darauf entscheidet, wer von der Datenverarbeitung profitiert und wie die Daten genutzt werden dürfen.

Ein aktuelles Beispiel ist die Entscheidung der New York Times, OpenAI den Zugang zu ihren Daten zu sperren. Die Zeitung verweigert die Nutzung ihrer Inhalte, da sie nicht möchte, dass OpenAI ihre wertvollen journalistischen Werke ohne Genehmigung verwendet, um Modelle wie ChatGPT zu trainieren. Diese Sperre wirft zentrale Fragen über den Besitz und die Kontrolle von Daten auf: Gehören diese Daten den Plattformen, die KI entwickeln, oder den Produzenten der Inhalte? Dieser Fall verdeutlicht, dass ohne klare Regelungen über das Eigentum und die Verwendung von Daten eine ungerechte Nutzung droht, bei der einzelne Akteure – oft große Tech-Unternehmen – die Vorteile einseitig nutzen. Besonders bei sensiblen Daten wie Gesundheits- oder Finanzdaten wird diese Frage noch dringlicher. Wem gehören die Daten, die von Wearables oder medizinischen Geräten gesammelt werden? Wer hat die Kontrolle über diese wertvollen Informationen? Solche Fragen betreffen die Privatsphäre und Sicherheit der Nutzer*innen, aber auch die wirtschaftlichen Interessen derjenigen, die diese Daten nutzen möchten.

Die Frage nach dem Dateneigentum ist daher zentral für die ethische und rechtliche Gestaltung von KI. Es braucht klare Richtlinien, die festlegen, wer das Recht hat, Daten zu nutzen und wem sie letztendlich gehören. Wenn wir eine faire und nachhaltige KI-Nutzung anstreben, müssen wir sicherstellen, dass Daten nicht nur kommerziellen Interessen dienen, sondern dass ihre Nutzung transparent und im Sinne des Gemeinwohls erfolgt.

XI. Fazit

DIGITALER HUMANISMUS:
EINE ETHIK FÜR DAS ZEITALTER
DER KÜNSTLICHEN INTELLIGENZ
VON JULIAN NIDA-RÜMELIN UND
NATHALIE WEIDENFELD
München: Piper
224 Seiten | € 24,67
(Gebundenes Buch)
ISBN: 978-3492058377
Erscheinungstermin: 0. September 2018

Der Digitale Humanismus bietet den entscheidenden Rahmen, in dem technologische Innovationen wie Künstliche Intelligenz sinnvoll und verantwortungsvoll eingesetzt werden können. Letztendlich wird es dieser Ansatz sein, der darüber entscheidet, ob der digitale Fortschritt tatsächlich dem Wohl der Menschen dient oder ob er nur kurzfristige Gewinne für einige Wenige maximiert. Es geht darum, sicherzustellen, dass KI und andere Technologien nicht allein der Effizienzsteigerung oder der Optimierung wirtschaftlicher Interessen folgen, sondern in den Dienst der Gesellschaft gestellt werden.

Viele Aspekte, die für den Digitalen Humanismus von zentraler Bedeutung sind, blieben in diesem Beitrag unerwähnt: etwa der Einsatz von KI in der Medizin, um Anomalien schneller zu erkennen, die Entlastung von Pflegekräften oder der Klimaschutz, angesichts des hohen Energieverbrauchs von KI-Modellen. Dieser Beitrag möchte lediglich auf zehn Punkte eingehen, die für künftige Diskussionen rund um KI von großer Bedeutung sein werden. Wenn wir es schaffen, KI im Einklang mit den Werten des Digitalen Humanismus zu gestalten, dann wird der technologische Fortschritt zu einer Kraft, die nicht nur Arbeitsprozesse verbessert, sondern auch soziale Gerechtigkeit, Chancengleichheit und menschliche Würde fördert.

DAVID KIRSCH

ist ehemaliger Leiter des Datenkompetenzzentrums der MA15 – Gesundheitsdienst der Stadt Wien. Er veröffentlicht und hält Vorträge zu KI und Cybersicherheitspolitik und ist Koordinator der Initiative demokratische Außenpolitik. Er hält einen MA in War Studies und einen MBA in Digital Transformation Management und absolviert aktuell einen MSc. in IT-Security in Wiener Neustadt.