Eine alternde Bevölkerung und der damit einhergehende Anstieg diagnostischer Tests stellen Gesundheitssysteme weltweit vor enorme Herausforderungen. Der sich rasant entwickelnde Bereich der künstlichen Intelligenz weist diesbezüglich enormes Potenzial auf.

Ass.-Prof. Dr. Christian Baumgartner, Assistenzprofessor für Health Data Science

Künstliche Intelligenz (KI) kann Ärztinnen und Ärzte bei diagnostischen Fragestellungen unterstützen, Zeit und Kosten sparen sowie die Genauigkeit medizinischer Vorhersagen verbessern. In einigen Spitälern werden KI-gestützte Diagnosesysteme bereits routinemässig eingesetzt, und in vielen Ländern laufen Pilotprojekte zur Integration dieser Technologien in den klinischen Alltag. Ein bemerkenswertes Beispiel ist eine aktuell laufende Brustkrebs-Screening-Studie in Grossbritannien, welche die Leistungsfähigkeit von KI-Systemen unter realen Bedingungen untersucht.

Darüber hinaus werden auch Systeme erprobt, bei denen Expertinnen und Experten nur noch diejenigen Fälle überprüfen, die von der KI als auffällig eingestuft wurden. Ein Beispiel hierfür ist ein von Google entwickeltes Screening- Tool, das in ländlichen Regionen Thailands eingesetzt wurde, um potenzielle Fälle von diabetesbedingten Netzhauterkrankungen anhand von Fotos der Netzhaut zu identifizieren. Das System wurde von medizinischem Pflegepersonal bedient. Von der KI identifizierte Verdachtsfälle wurden zur weiteren Untersuchung an Ophthalmologen in Bangkok weitergeleitet.

Es zeichnet sich ab, dass KI-gestützte Systeme in wenigen Jahren zum Standard in der klinischen Diagnostik gehören könnten. Doch ihre sichere Integration erfordert ein tiefgehendes Verständnis der Zusammenarbeit zwischen Mensch und KI. Die im Februar 2024 an der Fakultät für Gesundheitswissenschaften und Medizin neu geschaffene Professur für Health Data Science widmet sich in diesem Zusammenhang der zentralen Frage, wie Mensch und KI gemeinsam sichere Entscheidungen treffen können.

Gegenseitige Ergänzung

Sowohl Menschen als auch KI-Systeme haben ihre spezifischen Schwächen: Menschen können ermüden oder bestimmte Aspekte übersehen, während KI-Modelle zwar nicht ermüden, aber in unerwarteten Situationen versagen können – insbesondere, wenn sie mit Daten konfrontiert werden, die ausserhalb ihres Trainingsumfangs liegen. So könnten sich Mensch und KI gut ergänzen. Doch die Mensch-KI-Interaktion birgt auch Herausforderungen, da Menschen oft irrational agieren. Zwei bekannte kognitive Verzerrungen sind die «algorithmische Aversion» – das Misstrauen gegenüber korrekten KI-Vorhersagen – und «blindes Vertrauen», bei dem Fehler ungeprüft übernommen werden.

Beispiel, wie KI bei der Analyse in der medizinischen Diagnostik eingesetzt werden kann. (Quelle: Christian Baumgartner)

Moderne KI-Algorithmen bestehen aus Milliarden von Parametern, die während eines Trainingsvorgangs anhand von grossen Datenmengen automatisch erlernt werden. Dies macht es für Menschen nahezu unmöglich, die Vorhersagen solcher Algorithmen nachzuvollziehen. Dieses «Black Box»-Verhalten führt dazu, dass Menschen der KI nicht vertrauen und sich ihr gegenüber irrational verhalten. Das mangelnde Verständnis verhindert auch, dass Menschen Fehler der KI erkennen und korrigieren können. Die Forschung der von mir geleiteten Gruppe für Health Data Science zielt darauf ab, Kommunikationskanäle zwischen Mensch und KI zu etablieren, die es beiden Parteien erlaubt, Unstimmigkeiten gezielt zu klären. Dazu werden neue, transparente KI-Verfahren entwickelt und in der praktischen Zusammenarbeit mit menschlichen Nutzerinnen und Nutzern erprobt. Zwei zentrale Forschungsbereiche der Gruppe sind die Entwicklung «erklärbarer» KI-Systeme sowie die Abschätzung von Unsicherheiten.

«Erklärbare KI» als Brücke

Die meisten KI-Systeme können ihre Vorhersagen nicht erklären. Um dies zu ändern, bestehen Bemühungen, sogenannte «Explainable AI» (XAI) zu entwickeln. Auch meine Forschungsgruppe beschäftigt sich mit dieser Thematik. In Zusammenarbeit mit der Universität Tübingen und mit Pathologen des Radboud University Medical Center in den Niederlanden erforschen wir erklärbare KI-Ansätze zur automatischen Auswertung von Mikroskopie Bildern von Brust- und Prostatabiopsien. Diese Bilder sind sehr gross und enthalten zahlreiche feingewebliche Strukturen, die genau analysiert werden müssen.

Bestehende KI-gestützte Systeme sind bereits in der Lage, verdächtige Regionen in Bildern zu markieren, können jedoch nicht erklären, weshalb diese Bereiche als auffällig gelten. Das neue System geht einen Schritt weiter: Es liefert Pathologinnen und Pathologen nachvollziehbare Erklärungen in verständlicher Sprache. So kann die KI beispielsweise darauf hinweisen, dass eine Region aufgrund von nekrotischem (abgestorbenem) Gewebe oder vergrösserten Zellkernen verdächtig erscheint.

Diese Technologie ermöglicht es Pathologen nicht nur, die Vorhersage mittels ihnen vertrauten Konzepten zu verstehen, sondern auch mit der KI zu interagieren. Eine Pathologin kann der KI beispielsweise mitteilen, dass sie keine nekrotischen Regionen sieht, woraufhin das System die Vorhersage erneut überprüft. Dies schafft einen Dialog zwischen Mensch und Maschine.

Angabe des Unsicherheitswertes

Einen zentralen Aspekt der Mensch-KI-Kommunikation stellt die Unsicherheitsabschätzung dar. Viele KI-Systeme geben Diagnosen aus, selbst wenn sie unsicher sind – ohne diese Unsicherheit offenzulegen. Nebst erklärbarer KI konzentriert sich meine Forschungsgruppe auch auf Methoden zur Quantifizierung solcher Unsicherheiten. So hat sie zum Beispiel ein KI-System zur Diagnose von grünem Star auf Retina-Scans entwickelt, das nicht nur eine Diagnose stellt, sondern auch die eigene Unsicherheit angibt. Es konnte gezeigt werden, dass das System in genau den Fällen hohe Unsicherheit vorhersagt, in denen auch erfahrene Ophthalmologinnen und Ophthalmologen unsicher sind.

Künftig sollen solche Systeme weiterentwickelt werden, um Unsicherheiten beider Seiten – sowohl der KI als auch des Menschen – systematisch in die Entscheidungsfindung zu integrieren. Menschen haben genau wie KI-Algorithmen diagnostische Stärken und Schwächen: So kann es zum Beispiel für Menschen schwierig sein, versteckte, aber diagnostisch relevante Muster in den Bildern zu erkennen. Wenn wir gezielt erfassen können, in welchen Situationen der Mensch bzw. die KI zuverlässigere Vorhersagen macht, können wir hybride Entscheidungssysteme entwickeln, welche die Fähigkeiten von Mensch und KI optimal kombinieren.

Vertrauen und Sicherheit

Erklärbarkeit und Unsicherheitsabschätzung sind zentral für eine vertrauenswürdige Integration von KI in die medizinische Diagnostik. Systeme, die über transparente Kommunikationskanäle verfügen und Unsicherheiten ausdrücken können, schaffen Vertrauen und ermöglichen eine sichere Zusammenarbeit zwischen Mensch und Maschine.

Die Vision meiner Forschungsgruppe sind intelligente Entscheidungssysteme, die in beide Richtungen kommunizieren können – Systeme, die Ärztinnen und Ärzte nicht nur unterstützen, sondern die auch selbst von menschlichem Wissen profitieren und sich dynamisch anpassen. Dies wird den Weg für eine neue Ära der medizinischen Diagnostik ebnen, in der Mensch und KI gemeinsam die besten und sichersten Entscheidungen treffen.

Christian Baumgartner

Assistenzprofessor für Health Data Science
unilu.ch/christian-baumgartner