Im Interview mit NIKO ALM steht ALEXANDER SCHMÖLZ –Stiftungsprofessur für Digitalen Humanismus an der FH des BFI Wien – Rede und Antwort. Dabei lotet er für die Leser*innen der ZUKUNFT auf mehreren Ebenen die Grenze(n) von Mensch(en) und Maschine(n) aus.[1]
Niko Alm: Herr Schmölz, Sie haben eine Professur für Digitalen Humanismus. Bevor wir auf den digitalen Aspekt eingehen, möchten wir mit einer grundsätzlichen Frage beginnen: Was verstehen Sie unter Humanismus?
Alexander Schmölz: Humanismus ist im Kern die Lehre vom Menschen. Er stellt die Frage: Was macht uns als Menschen aus? Was bedeutet es, Mensch zu sein? Dabei kann man einerseits individuelle Antworten finden, andererseits gibt es auch eine politische Dimension. Ein humanistisches Weltbild nimmt den Menschen als Zentrum und stellt seine Freiheit und Würde in den Mittelpunkt. Historisch betrachtet gibt es viele Errungenschaften des Humanismus, beispielsweise die Allgemeine Erklärung der Menschenrechte. Letztlich ist Humanismus kein starres Konzept, sondern ein dynamischer Prozess der ständigen Reflexion und Praxis.
N. A.: Wie verhält sich der Humanismus zur Religion? Gibt es hier Widersprüche?
A. S.: Das Verhältnis ist ambivalent. In vielen Religionen existieren humanistische Grundgedanken, beispielsweise in Bezug auf Ethik und Menschenwürde. Gleichzeitig gibt es Widersprüche, besonders wenn der Mensch als völlig von einer höheren Instanz determiniert betrachtet wird. Humanismus setzt auf Autonomie und Entscheidungsfreiheit, was in manchen religiösen Doktrinen weniger betont wird.
N. A.: Kommen wir zum Digitalen Humanismus. Was bedeutet dieser Begriff für Sie?
A. S.: Digitale Technologien bestimmen heute unser Leben in vielen Bereichen. Der Digitale Humanismus fragt, wie diese Technologien gestaltet sein müssen, um die menschliche Freiheit zu fördern, anstatt sie einzuschränken. Oft sehen wir, dass wirtschaftliche Interessen dazu führen, dass digitale Systeme Zwänge erzeugen – beispielsweise durch soziale Medien, die durch algorithmische Mechanismen darauf optimiert sind, Menschen möglichst lange auf Plattformen zu halten. Wenn Technologie in eine Richtung geht, die unser Handeln unfreier macht, dann ist das problematisch. Ein Digitaler Humanismus setzt sich dafür ein, digitale Systeme so zu gestalten, dass sie den Menschen dienen und nicht umgekehrt.
N. A.: Welche konkreten Herausforderungen gibt es dabei?
A. S.: Ein zentrales Problem ist die Regulierung digitaler Technologien. Wir sehen, dass Plattformen oft nach rein ökonomischen Kriterien gestaltet werden. Dadurch entstehen Abhängigkeiten und Suchtmechanismen. Ein weiteres Problemfeld ist die Militarisierung digitaler Technologien – riesige Summen fließen in KI-gestützte Waffensysteme, während vergleichsweise wenig investiert wird, um Technologie ethisch und menschenfreundlich zu gestalten. Und dann gibt es noch die Black-Box-Problematik: Künstliche Intelligenz ist mittlerweile so komplex, dass selbst ihre Entwickler*innen oft nicht mehr nachvollziehen können, warum eine Maschine bestimmte Ergebnisse erzeugt. Das führt zu Ohnmachtsgefühlen und Fatalismus.
N. A.: Ist die Entwicklung von Künstlicher Intelligenz auf dem Weg zur Artificial General Intelligence(AGI) – einer KI, die ein menschliches Niveau erreicht?
A. S.: Nein! Der grundlegende Unterschied zwischen Menschen und Maschinen ist, dass Menschen aus Sinnzusammenhängen und Gründen heraus handeln, während Maschinen Wahrscheinlichkeiten berechnen. Selbst die komplexesten KI-Modelle funktionieren nach statistischen Mustern. Ein bewusster, von Gründen geleiteter Entscheidungsprozess bleibt dem Menschen vorbehalten. Die eigentliche Gefahr liegt nicht darin, dass Maschinen zu Menschen werden, sondern dass Menschen sich zunehmend an Maschinen orientieren und ihre eigenen menschlichen Qualitäten vernachlässigen.
N. A.: Was kann die Politik tun, um den Digitalen Humanismus zu fördern?
A. S.: Die Politik kann regulieren, muss aber gezielt ansetzen. Statt Technologien an sich zu verbieten, müssen wir die Nutzung und deren Auswirkungen regulieren. In Europa gibt es bereits sinnvolle Ansätze, beispielsweise den AI Act, der vorschreibt, dass eine letzte Entscheidung immer von einem Menschen getroffen werden muss. Gleichzeitig ist es wichtig, in Bildung zu investieren. Menschen müssen verstehen, wie Algorithmen funktionieren, um ihre Autonomie im digitalen Raum zu wahren.
N. A.: In der digitalen Transformation gibt es sowohl Chancen als auch Risiken. Wie können wir sicherstellen, dass Technologien nicht sowohl auf wirtschaftliche Effizienz ausgerichtet sind, als auch unsere Gesellschaft gleichermaßen fördern?
A. S.: Das ist eine der Kernfragen des Digitalen Humanismus. Derzeit dominieren wirtschaftliche Interessen die technologische Entwicklung. Um das Gemeinwohl in den Fokus zu rücken, brauchen wir verbindliche ethische Richtlinien und eine stärkere demokratische Kontrolle über digitale Systeme. Beispielsweise könnten öffentliche Institutionen stärker in die Gestaltung von Algorithmen eingebunden werden, um Transparenz und soziale Verantwortung sicherzustellen. Auch die Förderung gemeinwohlorientierter Technologien, etwa durch staatliche Förderprogramme oder gesetzliche Anreize, ist ein wichtiger Schritt in diese Richtung.
N. A.: Zum Abschluss noch eine visionäre Frage: Wird der Humanismus durch trans- oder posthumanistische Konzepte abgelöst?
A. S.: Manche transhumanistischen Ideen, etwa der Einsatz von Prothesen oder technischen Erweiterungen, können durchaus positive Aspekte haben. Kritisch wird es, wenn Menschen zu reinen Optimierungsobjekten degradiert werden und die Maschine zum Ideal der Menschlichkeit hochstilisiert wird. Zuerst gilt es den Humanismus abzuschließen und in kohärent zu praktizieren – wir haben den Humanismus noch nicht einmal voll verwirklicht. Dies ist unsere zentrale Aufgabe der nahen und fernen ZUKUNFT.
N. A.: Vielen Dank für das Gespräch!
ALEXANDER SCHMÖLZ
hat die Stiftungsprofessur für Digitalen Humanismus an der FH des BFI Wien inne. Als versierter Medienpädagoge und Bildungswissenschaftler ist er geschäftsführender Leiter des Österreichischen Instituts für Berufsbildungsforschung und Researcher-in-Residence bei fit4internet. Darüber hinaus ist er als Editor-in-chief des Journals Digital Culture & Education (DCE) aktiv.

NIKO ALM (alm.net)
leitet seit 2000 Bureaus für Kommunikation, Medien und Politik. Er war Mitgründer und Geschäftsführer der investigativen Rechercheplattform Addendum, Herausgeber von Vice und des 2022 erschienen Bandes Die digitale Transformation der Medien (Springer Gabler). Alm unterrichtet Medientheorie an österreichischen Hochschulen, lebt und arbeitet in Wien.

Niko Alm © Niko Alm
[1] Das Interview ist ein gekürzter Auszug aus dem Materie.AT Podcast von Niko Alm. Der Podcast in voller Länge ist hier zu finden: https://materie.at/podcasts/#pid-20157 (letzter Zugriff: 25.02.2025).