Christian Baumgartner, Assistenzprofessor für Health Data Science, beschäftigt sich mit Fragen zur Nutzung von künstlicher Intelligenz in der medizinischen Diagnostik. Im Gespräch erzählt er, wie Mensch und Maschine sicher gemeinsam entscheiden können.

(Symbolbild; ©Adobe Stock/Chanwitt, KI-generiert)

Christian Baumgartner, die Möglichkeiten künstlicher Intelligenz (KI) entwickeln sich rasant – auch in der Medizin. Was ist heute möglich?

Christian Baumgartner: Gerade in der medizinischen Diagnostik bietet KI grosses Potenzial. Diagnosen könnten früher und schneller gestellt werden. Darüber hinaus kann KI dazu beitragen, klinische Fehler zu vermeiden sowie die Effizienz klinischer Prozesse zu steigern. In Fachbereichen wie der Dermatologie wurde beispielsweise bereits gezeigt, dass KI-Tools Hautkrebs gleich gut oder in manchen Fällen sogar besser als Ärztinnen und Ärzte klassifizieren können; zumindest unter kontrollierten Studienbedingungen. Auch für diagnostische Fragestellungen in der Radiologie und Ophthalmologie (Augenheilkunde) halten KI-Algorithmen mit den besten Expertinnen und Experten mit.

Ist KI also kompetenter als Ärztinnen und Ärzte?

So würde ich das nicht sagen. Aber es ist in der Tat so, dass KI Fähigkeiten besitzt, die über diejenigen des Menschen hinausgehen. So kann KI anhand von ophthalmologischen Bildern das Risiko zukünftiger Herzereignisse abschätzen. Dies ist für uns Menschen – zumindest bisher – ohne die Nutzung von KI nicht möglich. Zudem ist KI sehr schnell: Prozesse, die für uns mehrere Tage in Anspruch nehmen würden, kann die KI in wenigen Sekunden oder Minuten umsetzen. So sind klinische Informationen deutlich schneller verfügbar. Das sind revolutionäre Entwicklungen, die aber auch neue Fragen aufwerfen.

Beispielsweise?

Was machen wir, wenn die KI Dinge wahrnehmen kann, die wir nicht sehen können? Wer trifft die finale Entscheidung und wie ist eine Kontrolle möglich?

Assistenzprofessor Christian Baumgartner (l.) bei einem Inputreferat zu dieser Thematik an den Trendtagen Gesundheit Luzern am 26. März 2026 im KKL Luzern. (Bild: ©Forum Gesundheit Luzern / Meier & Kamer)

Und haben Sie Antworten auf diese Fragen?

In meiner Forschung setze ich mich mit genau diesen Themen auseinander. Es gibt eine wachsende Lücke zwischen der Leistungsfähigkeit von KI und der Überprüfbarkeit durch uns. Die Leistung wird fortlaufend besser, während wir gleichzeitig auch immer mehr Vertrauen und in der Folge mehr Aspekte unseres Lebens der KI überlassen. Die Überprüfbarkeit wächst auch – aber deutlich langsamer. 

Wo liegt das Problem?

Diese Lücke macht es schwierig zu erkennen, wenn KI einen Fehler macht. Während Fehler durch Menschen meist isolierte, situative Einzelfälle bleiben, bergen KI-tools das Risiko systematischer Verzerrungen, die im grossen Massstab auftreten können. Ein einzelner systematischer Fehler der KI kann potenziell Tausende von Patientinnen und Patienten betreffen, bevor er bemerkt wird. Zudem können sich medizinische Fachpersonen untereinander gegenseitig kontrollieren und Fehler erkennen, da sie denselben Wahrnehmungsraum besitzen. Bei KI ist dies nicht mehr möglich, da sie Dinge sieht, die wir nicht sehen können.

Woran liegt diese unterschiedliche Fehlersystematik?

KI basiert auf Algorithmen, die mit den Daten lernen, die zur Verfügung stehen. Unsere Daten haben jedoch oftmals bereits Verzerrungen integriert, beispielsweise, wenn in medizinischen Daten ältere Personen oder Männer überrepräsentiert sind. Dies führt dazu, dass die KI diese Verzerrungen reproduziert und Fehler in der medizinischen Diagnostik bei bestimmten Subgruppen, z.B. Frauen oder jungen Personen, häufiger vorkommen.

Es braucht einen Kommunikationskanal zwischen Mensch und Maschine.
Christian Baumgartner
Assistenzprofessor für Health Data Science

Wie kann die Lücke zwischen KI und Mensch geschlossen werden?

Es braucht einen Kommunikationskanal zwischen Mensch und Maschine. In meiner Forschung beschäftige ich mich unter anderem mit dem sogenannten «interpretierbaren Machine Learning». Dabei geben KI-Tools nicht nur ein Ergebnis aus, sondern liefern zugleich eine Erklärung für ihre Vorhersage. In diesem Bereich verfolgen wir verschiedene Ansätze. Zum Beispiel können KI-Tools darauf trainiert werden, ihre Vorhersagen mithilfe verständlicher Konzepte zu treffen und zu erklären. Dies bringt Ärztinnen und Ärzte und KI in einen gemeinsamen Wahrnehmungsraum und ermöglicht es den Anwendern, die KI zu verstehen und mit ihr zu interagieren. 

Ein anderer Ansatz ist die Nutzung von sogenannt kontrafaktischen Erklärungen. Hier wird die KI gefragt zu erläutern, wie zum Beispiel ein Röntgenbild aussehen müsste, damit sie zu einer anderen Einschätzung gelangen würde – also beispielsweise, wenn eine auffällige Stelle auf dem Bild nicht vorhanden wäre. Auf diese Weise können Ärztinnen und Ärzte nachvollziehen, welche Region im Bild zum Entscheid der KI geführt hat.

Wie können wir in Zukunft eine sichere Zusammenarbeit zwischen Mensch und KI gewährleisten?

Wie bereits erläutert, ist es zentral, dass KI die getroffenen Entscheidungen erklären muss, um diese nachvollziehbar zu machen. Ein wichtiger Baustein ist hier, dass KI-Transparenz auch gesetzlich verankert ist. Weiter müssen wir unsere Datenbasis und Modelle so entwickeln, dass Fehler unwahrscheinlicher werden. Und nicht zuletzt müssen bestehende Zertifizierungsstandards von KI-Tools verbessert werden. Unser Ziel muss sein, von einer reinen Performanceorientierung von KI-Tools wegzukommen – hin zu einer kollaborativen Nutzung, bei der KI und Ärztinnen und Ärzte gemeinsam bessere Entscheidungen treffen können.

Früherer Beitrag zu Christian Baumgartners Forschung

Katja Haas

Verantwortliche Wissenstransfer und Kommunikation an der Fakultät für Gesundheitswissenschaften und Medizin