Die Studie von Patrick Schenk, Vanessa Müller und Luca Keiser untersucht mit einem soziologischen Blick, wie künstliche Intelligenz (KI) moralisch akzeptiert wird. Menschen bewerten solche Systeme je nach sozialem Status der KI unterschiedlich.

Dr. Patrick Schenk ist Forschungsmitarbeiter Postdoc SNF und Lehrbeauftragter am Soziologischen Seminar.

Patrick Schenk, Ihre Studie zeigt, dass der soziale Status einer künstlichen Intelligenz einen Einfluss auf ihre moralische Akzeptanz hat. Was ist damit gemeint?

Patrick Schenk: Nehmen wir als Beispiel einen Beitrag in einem Bericht, so wie diesen hier. Für die Beurteilung ist doch primär von Belang, dass dieser seriös recherchiert wurde oder dass die Berichterstattung ausgewogen ist. Ob ein Interview durch eine Frau oder einen Mann geführt wurde oder ob es in einer grossen Tageszeitung oder in einem Lokalblatt erscheint, sollte nicht relevant sein. Die journalistische Qualität zählt.

Aber?

Im echten Leben ist das nicht so einfach. In der Soziologie haben wir schon länger den Verdacht, dass die Leute in ihren Urteilen von sozialen Faktoren beeinflusst werden, die eigentlich nichts mit der Qualität zu tun haben. Unsere Studie zeigt, dass der soziale Status einer KI einen Einfluss auf ihre moralische Akzeptanz hat. So könnte beispielsweise das Ansehen einer Organisation oder das einer KI zugeschriebene Geschlecht ihre Akzeptanz verändern.

Sozialer Status und moralische Akzeptanz: Können Sie diese Schlüsselbegriffe kurz erklären?

Mit sozialem Status meinen wir Prestige. Traditionellerweise ist der soziale Status vor allem bei Menschen und Organisationen untersucht worden, aber weniger bei technischen Artefakten. Jedoch kann auch künstliche Intelligenz einen sozialen Status haben. Unterschiedliche Technologien sind mit unterschiedlichem Prestige ausgestattet. So ist um KI letzthin ein regelrechter Hype entstanden. Moralische Akzeptanz bedeutet, dass etwas richtig oder gut in einem moralischen Sinn ist. Moralische Akzeptanz ist nicht dasselbe wie Akzeptanz per se. Bei der Moral geht es immer auch darum, ob etwas den moralischen Normen entspricht.

Was sind die zentralen Erkenntnisse der Studie?

Wir stellen eine generelle Abneigung gegenüber KI fest. Überraschenderweise schneidet eine KI aber nicht besser oder schlechter ab als eine einfache Software. Zudem beeinflusst das Prestige einer Organisation die moralische Akzeptanz der eingesetzten KI. Hingegen spielt das Geschlecht der KI keine Rolle. Wichtig ist, dass diese Unterschiede zwischen Menschen und KI oder zwischen mehr oder weniger prestigeträchtigen Organisationen unabhängig von der tatsächlichen Leistung eintreten. Sie sind einzig und allein auf den Status zurückzuführen. Dadurch zeitigt sozialer Status einen selbstverstärkenden Effekt: Beispielsweise erhalten Organisationen mit grösserem Prestige mehr moralische Akzeptanz, unabhängig von der effektiven Qualität. Sie erhalten einen moralischen Kredit. Dadurch können sie wiederum mehr Einfluss auf die Implementierung und Regulierung von KI nehmen. Dies wirft neue Fragen zu Moral, Macht und Herrschaft im KI-Bereich auf.

Wir stellen eine generelle Abneigung gegenüber KI fest.
Patrick Schenk

Wie haben Sie das genau untersucht?

In unserem Projekt, das unter der Leitung von Professor Gabriel Abend durchgeführt wird, interessieren wir uns ganz allgemein dafür, wie Leute KI beschreiben und moralisch bewerten. Um dies zu untersuchen, haben wir den Teilnehmenden drei Geschichten, sogenannte Vignetten, vorgelegt. Darin variieren wir systematisch gewisse Aspekte. In drei Kontexten – Krankenhaus, Personalvermittlung und Zeitungsredaktion – erfüllt eine KI oder ein Mensch eine Aufgabe, beispielsweise einen Faktencheck. Für den sozialen Status variieren wir zudem das Geschlecht der KI oder das Prestige der Organisation – nebst weiteren Merkmalen, die sich auf die Leistung beziehen. Dadurch können wir präzise Aussagen zum Einfluss des sozialen Status auf die moralische Akzeptanz machen.

Menschen werden gegenüber der KI immer noch bevorzugt; und dies bei gleicher Leistung. Können Sie noch etwas genauer erklären, warum das so ist?

Wir gehen davon aus, dass die Vorstellung eines Akteurs auf kulturellen Kategorien beruht, die wiederum mit Erwartungen verknüpft sind. In diesem Sinne werden der KI oder dem Menschen gewisse Kompetenzen und Fähigkeiten zugeschrieben, ganz ähnlich wie bei Vorurteilen. Während KI oft als objektiver und effizienter gilt, wird ihr ein Mangel an Empathie und Interaktionsvermögen zugeschrieben – ein zentraler Faktor für die moralische Akzeptanz, wie weitere Experimente belegen. Besonders in Bereichen wie der Medizin, wo Einfühlungsvermögen wichtig ist, wird KI als weniger legitim empfunden.

Zusätzlich zu dieser Studie haben Sie eine Befragung unter den Studierenden der Universität Luzern zum Thema KI durchgeführt. Dort kam heraus, dass 70 Prozent Erfahrungen mit Chatbots haben. Beeinflusst das Ihre Lehre?

Auch aufgrund persönlicher Erfahrungen ist klar: Die Verwendung von KI stellt eine Realität dar. Gleichzeitig haben wir festgestellt, dass die befragten Studierenden sehr interessiert an gesellschaftlichen und moralischen Fragen zu KI sind. In meiner Lehre greife ich dieses Interesse auf, indem ich KI bei der Behandlung sozialwissenschaftlicher Theorien und Methoden als Beispiel nutze, etwa wenn ich zu Diskriminierung oder zu Verantwortlichkeit lehre. Besonders spannend finde ich, wie Prognosen über KI, etwa zur Massenarbeitslosigkeit, selbst wiederum gesellschaftliche Entwicklungen beeinflussen können – ein Thema, das kritisches Denken fördert und zeigt, wie Sozialwissenschaften aktuelle Debatten einordnen können.

Indem wir Studierende darüber aufklären, dass es verzerrende Mechanismen gibt, die oftmals ganz unbewusst ablaufen, ermöglichen wir eine vertieftere Reflexion.

Was sollen die Studierenden im Umgang mit KI lernen?

KI kritisch zu reflektieren und sich den möglichen Verzerrungen bewusst zu sein, die durch sozialen Status, aber auch durch blindes Vertrauen in diese neue Technologie entstehen können. Ich möchte die Studierenden dazu ermutigen und befähigen, genau solche Fragen zu stellen und sie mittels sozialwissenschaftlicher Theorien fundiert beantworten zu können. Indem wir Studierende darüber aufklären, dass es verzerrende Mechanismen gibt, die oftmals ganz unbewusst ablaufen, ermöglichen wir eine vertieftere Reflexion. Das ist gerade für die Studierenden an unserer Fakultät eine unschätzbare Kompetenz, auf die Gesellschaften heute und in Zukunft angewiesen sind.

Was für gesellschaftliche Herausforderungen ergeben sich aus Ihrer Sicht im Umgang mit KI?

Ein zentrales Thema in der Soziologie ist beispielsweise die algorithmische Diskriminierung, die soziale Ungleichheit in ganz neuer Art und Weise reproduzieren kann. Zudem stellt sich die Frage, wie Organisationen mit ethischen Herausforderungen umgehen. Bei diesen Beispielen geht es aber immer darum, welche gesellschaftlichen Auswirkungen der Einsatz von KI hat. Uns interessiert darüber hinaus, inwiefern KI als moralischer Akteur und nicht nur als blosses Werkzeug wahrgenommen wird. Beispielsweise finden wir in unserer Forschung, dass KI für ihr Handeln moralisch verantwortlich gemacht wird, wenn etwas schief geht! Das führt zu einer Verantwortlichkeitslücke: Während KI aus ethischer oder rechtlicher Perspektive nicht verantwortlich gemacht werden kann, schreiben ihr Leute dennoch Verantwortung zu. Das erschwert klare Zuständigkeiten und könnte dazu führen, dass Verantwortung abgewälzt wird. Solche Fragen nach der moralischen Handlungsfähigkeit von KI stellen Gesellschaften vor ganz neue Herausforderungen, als dies bei bisherigen Technologien der Fall war.

Die Studie, die unter dem Titel «Social Status and the Moral Acceptance of Artificial Intelligence» veröffentlicht wurde, ist Teil des Nationalfonds-Projekts «Artificial Intelligence and Moral Decision-Making in Contemporary Societies. An Empirical Sociological Investigation», geleitet von Gabriel Abend und Patrick Schenk.

Mehr Informationen

Newsmeldung vom 2. Dezember 2024

Befragung unter den Studierenden der Universität Luzern zum Thema KI

Das Interview ist im Jahresbericht 2024 der Universität Luzern erschienen.

Irina Wais

Mitarbeiterin in der Universitätskommunikation.