Ethik-Professor Peter G. Kirchschläger verortet in der zunehmenden Digitalisierung und Robotisierung ein grosses Potenzial – aber auch Risiken. Was moralische Aspekte anbelangt, sei es wichtig, jetzt zu handeln und Verantwortung zu übernehmen.

Von Angesicht zu Angesicht: Ethik-Professor Peter G. Kirchschläger mit einem Roboter des Modells Pepper, der in einem Einkaufszentrum in der Region Luzern im Einsatz ist. (Bild: Roberto Conciatori)

Peter G. Kirchschläger, an den Begriff «Digitalisierung» hat man sich inzwischen gewöhnt. Doch «künstliche Intelligenz» und «Robotisierung» tönen noch immer ein wenig nach Zukunftsmusik. Sind das mehr als Schlagworte?

Peter G. Kirchschläger: Auf jeden Fall – sowohl Robotik als auch künstliche Intelligenz sind definitiv im Hier und Heute angekommen. So laufen mittlerweile bspw. zahlreiche chirurgische Eingriffe robotisiert ab. Den Blick nach vorne richtend, gehe ich davon aus, dass diese technologischen Errungenschaften eine zunehmend tiefgreifende Wirkung auf die Menschen entfalten. Dies zum einen wegen der sukzessiven Verbreitung von robotisierten Lösungen, und zum anderen, da künstliche Intelligenz immer fähiger wird und den Menschen noch in weiteren Intelligenzbereichen überragen wird, als sie dies bereits jetzt schafft.

Läuft also alles auf die vielbeschworene und teils gefürchtete «Superintelligenz» hinaus?

Das ist vom heutigen Wissensstand her plausibel. Ebenso wie es durchaus vorstellbar ist, dass eine solche Superintelligenz sich eben auch «super» gewissen Weltproblemen annehmen könnte. Allzu schwarz sollte man diesbezüglich generell nicht malen, denn das grundsätzliche Potenzial – das möchte ich betonen – ist durchaus auch in ethischer Hinsicht fantastisch. So oder so scheint es mir unwahrscheinlich, dass menschliche Intelligenz in sämtlichen Bereichen von Maschinen überragt werden kann. Hinsichtlich Moralfähigkeit wird der Mensch meines Erachtens immer einzigartig sein. Denn diese setzt Selbstbestimmung und eine zusammen mit Verantwortung gedachte Freiheit voraus. Und Maschinen weisen letzten Endes ja immer eine Programmierung oder eine Bestimmung durch Menschenhand auf.

Aber gerade lernfähige bzw. selbstlernende Maschinen sind ja zurzeit in aller Munde …

Es wird sinnvollerweise versucht, Maschinen bereits in einem frühen Stadium der Entwicklung ethische Prinzipien einzuprogrammieren bzw. anzutrainieren – das funktioniert durchaus. Aber nicht möglich, und auch in Zukunft nicht, ist meines Erachtens, dass sich Maschinen selbst ethische Regeln geben. Ein selbstfahrendes Fahrzeug, das die Bestimmung hat, eine Passagierin, einen Passagier, möglichst rasch von A nach B zu bringen, kann zum Schluss kommen, dass es für seine Zweckerfüllung förderlich ist, jeweils die kürzeste Strecke zu wählen. Das ist realistisch. Diesem Entscheid wohnt aber grundsätzlich keine moralische Qualität inne. Neben der Freiheit spreche ich Maschinen auch ein Gewissen ab, ein Faktor, der für die Moralfähigkeit des Menschen sehr entscheidend ist.

Warum?

Aus Sicht der heutigen Forschung spricht dagegen, dass sich etwas derart Komplexes wie das menschliche Gewissen bei Maschinen je künstlich entwickeln lässt. Bereits die an sich simple Frage, was das Gewissen eigentlich ist, stellt uns ja vor grosse Herausforderungen. Dieses Zusammenwirken von verschiedenen Ebenen von Sittlichkeit und von Objektivität und Subjektivität – basierend auf der jeweiligen individuellen Entwicklung, des gesellschaftlichen Kontexts, der konkreten Situation und nicht zuletzt je nachdem auch verbunden mit Vorstellungen des Religiösen, Göttlichen – dürfte unprogrammierbar bleiben.

Breite Bekanntheit erlangt hat das Forschungsprojekt des Massachusetts Institute of Technology (MIT), in dessen Rahmen man aufgrund von menschlichen Urteilen herausfinden will, wie selbstfahrende Autos bei Dilemma-Situationen am besten reagieren sollen. Was sagen Sie dazu?

Leider lenkt es von drängenderen ethischen Fragen in diesem Zusammenhang ab, etwa bezüglich Datenschutz oder Recht auf Privatsphäre. Problematisch ist an der Versuchsanlage zudem, dass der Eindruck vermittelt wird, dass die Menschenwürde aller Menschen zur Disposition stehen würde, und dazu quasi noch auf demokratischem Weg ermittelt werden könnte, welche Menschen schützenswerter seien als andere. Auch besteht die Gefahr, dass man mit dieser Logik beginnt, menschliches Leben nach seinem Wert, und eben auch ökonomisch, zu messen: Ist eine schwangere Frau «wertvoller» als eine nicht schwangere oder betagte? Das ist eine ethisch inakzeptable Zugangsweise, weil so Menschenleben gegeneinander abgewogen werden. Ausserdem liegt es ja gerade in der Natur von moralischen Dilemmata, dass eben keine ethisch akzeptablen Lösungen möglich sind, während die Versuchsanlage das Gegenteil vermittelt.

Was würde mehr Sinn machen?

Mein Ansatz führt dahingehend, sich nicht vorschnell und kostengünstig mit einer vermeintlich ethisch akzeptablen Lösung zufriedenzugeben, sondern nochmals einen Schritt zurückzugehen und Forschungsmittel gezielt dafür einzusetzen, selbstfahrende Fahrzeuge technisch dergestalt auszustatten bzw. zu trainieren, dass sie gar nie in eine solche Situation geraten. Seit dem Frühjahr arbeite ich als Ethik-Experte in einer Arbeitsgruppe des weltweit operierenden Ingenieur-Berufsverbands «Institute of Electrical and Electronics Engineers» (IEEE) mit. Ziel ist die Erarbeitung eines Standards zur Berücksichtigung von ethischen Aspekten bei der Entwicklung und dem Design von IT-Systemen und Software. Zentral ist meines Erachtens, dass man sich jetzt mit der Thematik befasst, neben den enormen Chancen eben auch die möglichen Risiken bearbeitet und normative Rahmenbedingungen für künstliche Intelligenz setzt. Sonst läuft man im allerschlimmsten Fall Gefahr, dass sich Systeme dereinst verselbstständigen, allenfalls ethischen Prinzipien zuwiderhandeln und dass der Mensch womöglich sogar den Zugriff darauf verliert – was gerade angesichts des bereits jetzt hohen Vernetzungsgrads äusserst fatal wäre.

Sie sind ja im Bereich der Theologischen Ethik verortet. Was bedeutet das und was heisst das konkret etwa für die Arbeit in einem global agierenden Gremium wie dem IEEE, wo ja verschiedenste Weltanschauungen und religiöse Vorstellungen aufeinandertreffen?

Einesteils argumentiert Theologische Ethik selbstverständlich spezifisch theologisch, und diesen Sinnhorizont macht sie auch transparent. Andernteils strebt sie danach, immer auch Argumentationslinien zu entfalten, die anschlussfähig sind an die philosophische Ethik oder aber an andere religions- oder  weltanschauungs-basierte Ethiken. Dies, indem sie möglichst viele ihrer Argumente rational begründet respektive plausibilisierbar macht. Es handelt sich bei der Theologischen Ethik erklärtermassen um keine Binnen-Moral, die sich einzig den Mitgliedern ihrer Glaubensrichtung verpflichtet fühlt. Vielmehr möchte sie ethische Antworten entwickeln, die universalisierbar sind, also für alle Menschen auf der Welt ihre Gültigkeit haben – dies, wie gesagt, im Dialog mit anderen Ansätzen. Wie ich an meiner Antrittsvorlesung ausgeführt habe, scheinen mir die Menschenrechte ein geeigneter, über weltanschauliche Grenzen konsensfähiger ethisch-hermeneutischer Schlüssel darzustellen, um aktuelle ethische Chancen und Risiken identifizieren und nützen respektive meistern zu können.

Sie befassen sich im Zusammenhang mit der zunehmenden Robotisierung und Automatisierung ja auch mit der Frage des Effekts auf das Erwerbsleben. Was ist diesbezüglich zu erwarten?

Ich gehe davon aus, dass eine massive Reduktion von bezahlten beruflichen Aufgaben für Menschen auf uns zukommt. Studien rechnen mit einer Reduktion von 20 bis 50 Prozent. Selbst bei 20 Prozent, was ich als sehr defensive Schätzung ansehe, scheint mir der soziale Frieden bedroht.

Aber wird nicht regelmässig ins Feldgeworfen, dass die Digitalisierung eben auch neue, andere Arbeitsplätze schafft?

Es entstehen zwar sicherlich neue berufliche Aufgaben, aber es werden letztlich mehr Arbeitsplätze wegfallen als hinzukommen: Die Automatisierung hat nicht den Zweck, wie noch beim Schritt etwa vom Pflug zum Traktor, den Menschen zu entlasten, sondern diesen zu ersetzen. Nehmen wir zum Beispiel automatisierte Kassen: Diese sind nicht dazu da, damit die Mitarbeitenden einen entspannteren Arbeitstag haben, vielmehr wird deren Job damit hinfällig. Des Weiteren ist es ja gerade das zentrale Charakteristikum von selbstlernenden Maschinen, alles möglichst selbst und im Idealfall eben sogar ohne jedweden menschlichen Input zu machen. Darüber hinaus sind fast alle Berufsgruppen von der digitalen Transformation betroffen. Dies führt zur Kernkonsequenz, dass weniger Menschen an einer effizienteren und effektiveren Wertschöpfungskette direkt teilnehmen und teilhaben.

Was könnte ein Lösungsansatz sein?

Dass Menschen mehr Zeit für anderes haben, muss aus ethischer Sicht nicht unbedingt eine schlechte Nachricht sein. Denn dies kann auch bedeuten, dass Zeit für andere Aufgaben und Tätigkeiten geschaffen wird, vielleicht für die gezielte Beschäftigung mit Klimaschutz oder Armutsbekämpfung. Zentral erweist sich eine gerechte Gestaltung von Gesellschaft und Wirtschaft. Ich schlage ein an das bedingungslose Grundeinkommen angelehntes Modell vor – mit zentralen Unterschieden.

Und diese wären?

Zunächst braucht es vom Finanziellen her mehr als eine reine Existenzsicherung; es muss möglich sein, mit diesem Geld ein menschenwürdiges Leben zu führen. Als Gegenleistung wird von allen Begünstigten erwartet, dass sie sich in einem gewissen Zeitrahmen zugunsten der Gesellschaft einsetzen – und zwar ähnlich wie beim Schweizer Zivildienst im Sinne grösstmöglicher Selbstbestimmung in einem selbst gewählten Aufgabenbereich. Mit diesem Modell, das ich «Society-, Entrepreneurship-, Research-Time» (SERT) nenne, werden Möglichkeiten zur sozialen Inklusion sowie zur Sinnstiftung und zur Strukturierung des Alltags geschaffen und zudem Anreize für Innovation gegeben. Denn für ein Engagement in Bildung, Forschung, Innovation und Unternehmertum wird man von seiner «Society-Time» befreit. SERT nimmt so die Menschen und die bisher von einem bezahlten Arbeitsplatz erfüllten Funktionen ganzheitlich in den Blick.

unilu.ch/peter-kirchschlaeger