Ein Artikel von VAWi-Dozent Prof. Dr Markus Bick, der im Rahmen von VAWi das Modul Wissensmanagement anbietet, mit dem Titel „Explainable AI in Healthcare: Factors Influencing Medical Practitioners’ Trust Calibration in Collaborative Tasks“ wurde in den Proceedings der 57. Hawaii International Conference on System Sciences veröffentlicht. In dem Artikel befassen sich Prof. Bick und seine beiden Koautoren mit dem Einsatz von Künstlicher Intelligenz (KI) im Gesundheitswesen und dem dabei bestehenden Problem eines adäquaten Vertrauensniveaus in von KI-Systemen ausgesprochene Empfehlungen.
KI hat die Interaktion zwischen Mensch und Technik in den letzten Jahren grundlegend verändert. Die Gesundheitsbranche ist ein Paradebeispiel für diese Interaktion und hat ein erhebliches Potenzial für die Nutzung von KI, da elektronische Gesundheitsdaten in KI-Algorithmen genutzt werden können, um Ärzte bei der Erstellung präziser Diagnosen und der Bereitstellung personalisierter Behandlungsempfehlungen zu unterstützen.
Folglich beschleunigt die Digitalisierung von Gesundheitsdaten in Kombination mit raschen Fortschritten bei KI-Techniken die Forschung und Entwicklung von KI-basierten klinischen Entscheidungsunterstützungssystemen (Clinical Decision Support Systems, CDSSs) für Ärzte. Darüber hinaus fördern offensichtliche Erfolge in Bereichen wie der Extraktion und Analyse medizinischer Bilder diesen Prozess, da Studien darauf hindeuten, dass der Einsatz von KI-basierten CDSS zu einer größeren Präzision beispielsweise bei der Brustkrebserkennung führen kann.
KI-Systeme können jedoch wie „Black Boxes“ wirken, wenn die Nutzer nicht ausreichend über das Innenleben des Systems informiert sind und nicht verstehen können, „wie“ und „warum“ eine bestimmte Empfehlung ausgesprochen wird. Dieser Mangel an Transparenz im klinischen Umfeld kann die Nutzer daran hindern, ein angemessenes Vertrauensniveau bei der Zusammenarbeit mit KI-basierten CDSSs zu entwickeln. Dies führt dazu, dass sie dem System entweder zu viel Vertrauen schenken, indem sie blind falschen Empfehlungen folgen, oder zu wenig Vertrauen in das System haben und korrekte Ergebnisse ablehnen. Daher ist es von entscheidender Bedeutung, dass die Entscheidungen und Ergebnisse von KI-gestützten CDSS nachvollziehbar sind.
Ein möglicher Ansatz zur Lösung dieses Problems stellt erklärbare künstliche Intelligenz (Explainable Artificial Intelligence, XAI) dar. XAI soll Nutzer in die Lage zu versetzen, KI-Systeme zu verstehen, ihnen zu vertrauen und sie angemessen zu prüfen, und bietet Techniken zur automatischen Generierung von Erklärungen. Studien deuten jedoch darauf hin, dass Erklärungen alleine nicht ausreichen, um das Problem des übermäßigen Verlassens auf fehlerhafte Algorithmen zu lösen. Trotz der beträchtlichen Fortschritte bei der Entwicklung von XAI-Methoden gibt es also immer noch eine Forschungslücke bezüglich der grundlegenden Faktoren, die das Vertrauen von Ärzten in KI beeinflussen.
Um diese Forschungslücke zu schließen, wenden Prof. Bick und seine beiden Koautoren in der von ihnen durchgeführten Studie einen explorativen Ansatz an, um das komplexe Thema „Vertrauen“ im Kontext der Mensch-KI-Kollaboration zu untersuchen. Dabei nutzen sie das Human-Computer Trust Model (HCTM) und ordnen die von ihnen identifizierten Faktoren den jeweiligen Komponenten dieses Modells zu. Darüber hinaus entwickeln sie ein Modell zur Vertrauenskalibrierung in Bezug auf (X)AI im Gesundheitswesen. Die gewonnenen Erkenntnisse helfen dabei, die aktuellen Vertrauensprobleme von Ärzten in Bezug auf KI besser zu verstehen, Potenziale sowie Herausforderungen zu identifizieren und geeignete Lösungen in diesem Kontext zu erstellen.
Der vollständige Artikel steht unter folgendem Link zur Verfügung: https://scholarspace.manoa.hawaii.edu/server/api/core/bitstreams/673b5517-fb6c-4b99-900d-96e2890e305a/content