Wie Künstliche Intelligenz Radiolog:innen bei der Segmentierung von Hirntumoren unterstützen kann

Ausgezeichnet mit dem Best Paper Award auf der weltweit größten Wirtschaftsinformatik-Konferenz

15.01.2024

Ein Anwendungsgebiet für Künstliche Intelligenz (KI) ist die medizinische Diagnostik. Hierbei werden zum Beispiel Scans mithilfe von Algorithmen maschinell analysiert. Kürzlich hat ein internationales, interdisziplinäres Forschungsteam unter der Leitung von unserem Lehrstuhl den Einfluss von KI-basierter Entscheidungsunterstützung bei der Beurteilung von Hirntumoraufnahmen untersucht. Diese Studie wurde bei der ICIS, der weltweit größten Konferenz für Wirtschaftsinformatik, mit dem Best Paper Award ausgezeichnet, wobei sie sich gegenüber mehr als 1.300 anderen Forschungsarbeiten durchsetzen konnte.

In Zusammenarbeit mit Wissenschaftler:innen und Radiolog:innen der TU, der University of Cambridge, des Wissenschafts- und Technologieunternehmens Merck sowie des Klinikums rechts der Isar der TU München wurde in einem Experiment an verschiedenen Kliniken in Deutschland untersucht, welchen Einfluss maschinell lernende Systeme (ML-Systemen) auf menschliches Lernen haben. Die Studie verdeutlicht die Bedeutung verständlicher und nachvollziehbarer Ergebnisse aus maschinellen Lernverfahren für die Endanwender. Nachvollziehbare Erklärungen für ML-Output sind nicht nur für Diagnosen in der Radiologie von Bedeutung, sondern auch für alle Nutzer:innen, die im Alltag KI-basierte Werkzeuge wie ChatGPT verwenden und somit zu Bewertern der Ergebnisse maschinellen Lernens werden.

Das von Sara Ellenrieder und Professor Peter Buxmann geleitete Forschungsprojekt konzentrierte sich auf die Anwendung von ML-Systemen als Entscheidungshilfe in der Radiologie, insbesondere bei der manuellen Segmentierung von Hirntumoren in MRT-Aufnahmen. Ziel war es zu erforschen, inwiefern Radiolog:innen durch solche Systeme lernen und ihre diagnostische Genauigkeit sowie Entscheidungssicherheit steigern können. Die Studie verglich verschieden leistungsfähige ML-Systeme und untersuchte, wie die Erklärungen der ML-Ergebnisse das Verständnis der Radiolog:innen verbesserten, um langfristig sichere Anwendungsmethoden für Radiolog:innen zu schaffeb. Hierfür führte das Team ein Experiment mit Radiolog:innen aus verschiedenen Kliniken durch. Die Mediziner sollten Hirntumore in MRT-Bildern sowohl vor als auch nach der Nutzung ML-gestützter Entscheidungshilfen segmentieren. Den Teilnehmer:innen wurden dabei unterschiedlich leistungsfähige und erklärbare ML-Systeme zur Verfügung gestellt. Während des Experiments erfasste das Forschungsteam quantitative Leistungsdaten und sammelte zusätzlich qualitative Daten durch Think-Aloud-Protokolle und anschließende Interviews.

Die Radiolog:innen führten insgesamt 690 manuelle Segmentierungen von Hirntumoren durch. Die Ergebnisse verdeutlichen, dass Radiolog:innen durch die Daten, die von hochleistungsfähigen ML-Systemen geliefert werden, lernen und dadurch ihre diagnostischen Fähigkeiten verbessern können. Ein interessanter Aspekt der Studie ist jedoch, dass eine mangelnde Erklärbarkeit des Outputs bei weniger leistungsfähigen Systemen zu einer Verschlechterung der Leistung der Ärzt:innen führen kann. Auffallend war auch, dass das Bereitstellen von Erklärungen zum ML-Output nicht nur die Lernerfolge der Radiolog:innen steigerte, sondern auch half, das Erlernen fehlerhafter Informationen zu vermeiden. Erstaunlicherweise konnten einige Ärzt:innen sogar aus den Fehlern lernen, die von leistungsschwächeren Systemen gemacht wurden, sofern diese Erklärungen für ihre Ergebnisse bereitstellten.

Weitere Informationen zur gemeinsamen Studie und der Veröffentlichung können hier gefunden werden: AIS eLibrary (wird in neuem Tab geöffnet)