KI in der Medizin: Ethische Aspekte
Autor: Roman Wagner
Künstliche Intelligenz (KI) spielt in unserem Alltag eine zunehmend wichtige Rolle. Die Medizin ist einer der für ethische Fragestellungen zentralen Bereiche, in denen KI-Systeme zum Einsatz kommen. In der medizinischen Praxis werden bereits heute verschiedene KI-Programme genutzt. So wird KI etwa verwendet, um radiologisches Bildmaterial automatisiert zu prüfen. Moderne KI-Systeme sind dabei in der Lage, Krankheitsbilder zu erkennen und Diagnosen sowie Prognosen zu erstellen. Wenngleich sich diese technischen Möglichkeiten noch im Anfangsstadium der Entwicklung befinden, lassen sich bereits heute erstaunliche Erfolge verzeichnen. Zugleich birgt aber der Einsatz von KI insbesondere in der Medizin schwer-wiegende Risiken. Selbst in den Einsatzbereichen, in denen KI-Systeme ähnlich gute oder sogar bessere Ergebnisse erzielen als Ärzt:innen, besteht die Gefahr gravierender Fehler. Treten solche Fehler auf, ist die Ursache meist nur sehr schwer oder gar nicht nachvollziehbar. Diese Problematik erwächst aus dem so genannten „black box“ Charakter zeitgenössischer KI. Während klassische KI-Systeme in ihrer Funktionsweise zumindest den Programmierer:innen durchsichtig waren, gilt das für moderne selbstlernende KI nicht mehr. Diese Programme sind in der Lage, auf Basis von Input-Daten selbstständig Problemlösungen für eine Vielzahl von Aufgaben zu erarbeiten, ohne dass die Entwickler:innen solcher KI erklären könnten, wie das Programm zu seinen Lösungen kommt. Gerade angesichts der Tatsache, dass KI-Programme teilweise Fehler produzieren, die menschlichen Akteur:innen in dieser Form nicht unterlaufen, verschärft sich die Frage, wie wir die Vertrauenswürdigkeit von KI verbessern können und wer im Fall von Fehldiagnosen die Verantwortung trägt.
Peter Winter und Annamaria Carusi fokussieren sich in ihrer Arbeit „(De)troubling transparency: artificial intelligence (AI) for clinical applications“ auf die Akzeptanz von KI vonseiten des ärztlichen Fachpersonals. Ihrer Einschätzung zufolge stehen Mediziner:innen aufgrund von mangelnder epistemischer Transparenz dem Einsatz von KI skeptisch gegenüber. Winter und Carusi betonen, dass Ärzt:innen zwar durchaus die Notwendigkeit und den möglichen Nutzen von KI-basierter Diagnosefindung erkennen, jedoch nur vergleichsweise wenige Programme in der alltäglichen medizinischen Arbeit tatsächlich Anwendung finden. Der Hauptgrund hierfür liege darin, dass aus Ärzt:innenperspektive black boxes in der medizinischen Arbeit nicht akzeptabel seien, da sie die Transparenz der ärztlichen Entscheidungsfindung untergraben und damit Patient:innen erschwerten, diese Entscheidungen angemessen zu verstehen. Zwar seien auch menschliche – das heißt in diesem Fall ärztliche – Urteilsbildungen nicht immer transparent und vollumfänglich verständlich, gleichwohl sei die Opazität menschlicher Urteilsbildung geläufig und gewöhnlich. Die Fehler jedoch, die eine KI mache, seien so ungewöhnlich und unvorhersehbar, dass sie die gewöhnlichen Muster von Opazität und Transparenz untergraben und damit zu einem epistemischen Misstrauen führten. Als Reaktion auf diese Problematik schlagen die Autor:innen des Artikels einen „process of de-troubling transparency“ vor. Dieser Prozess, der die Entwicklung und Anwendung eines KI-Systems umfasst, sieht vor, dass das medizinische Fachpersonal bereits in der Entwicklung der KI eingebunden wird. Das Ziel dieses Prozesses ist, dass Ärzt:innen ihre eigenen Entscheidungsfindungsprozesse in der Funktionsweise der KI wiedererkennen und dadurch eine Familiarität mit dem Funktionieren des Systems aufbauen. Dieser Prozess umfasst drei Stufen: Das Aufstellen von Input-Daten, durch die die KI trainiert wird, das Erstellen der Software und schließlich das Training des Modells. Indem Ärzt:innen in allen drei Schritten eingebunden werden, soll ihr Vertrauen und ihre Vertrautheit im Umgang mit KI-Systemen im medizinischen Alltag gefördert werden.
Der Fokus des Beitrags „Ethical funding for trustworthy AI“ von Allison Gardner et al. liegt auf der Fragestellung, wie das Bemühen um eine vertrauenswürdige KI bereits auf der Ebene der Verteilung von Forschungsgeldern befördert werden kann. Gardner et al. betonen, dass insbesondere im Kontext von „high-risk“-Anwendungen von KI, wie sie im Fall der medizinischen Praxis aufgrund der potenziell existenziellen Gefahren für Personen vorliegen, eine besondere Dringlichkeit gegeben sei, die Vertrauenswürdigkeit dieser Programme zu fördern. Mit Blick auf bereits zum Einsatz gekommene KI-Systeme sei darüber hinaus klar geworden, dass das Diskriminierungspotenzial von KI-gestützter medizinischer Praxis erheblich sei. Um diesen Problemen angemessen zu begegnen, sei es von größter Bedeutung, mithilfe von bereits erarbeiteten ethischen Leitlinien – so etwa dem IEEE P7010 Transparency of Autonomous Systems oder dem ISO/IEC JTC 1/SC 42 Artificial Intelligence – hochstufige ethische Prinzipien in der Erarbeitung eines KI-Systems zu berücksichtigen. Indem bereits im Bewerbungsprozess für Forschungsgelder der Fokus auf ethische Maßstäbe gelegt werde, könne sichergestellt werden, dass künftige KI-Entwicklung vertrauenswürdige Systeme hervorbringe.
Christian Herzog bespricht in seinem Text „On the risk of confusing interpretability with explicability“ die semantische Unklarheit zwischen den Begriffen der Interpretierbarkeit auf der einen Seite und der Erklärbarkeit auf der anderen. Unter dem Begriff der Interpretierbarkeit (interpretability/ explainability) fasst Herzog mechanistische Erklärungen, während der Begriff der Erklärbarkeit (explicability) nicht auf bloß mechanistische Erklärungsformen beschränkt ist, sondern auch etwa Erklärungen umfasst, die auf bloß korrelativen Evidenzen beruhen. Herzog warnt davor, im Rahmen des Einsatzes von KI in der Medizin zu strikte Maßstäbe an das Verständnis von KI-Systemen anzulegen, das heißt, Verständlichkeit mit strikter Interpretierbarkeit zu verwechseln. Diese Verwechslung nennt Herzog die „interpretability-explicability confusion“. Der normative Zweck dieser semantischen Analyse richtet sich auf die Frage, wie die beiden genannten Konzepte im Kontext der Anwendung von KI im medizini-schen Alltag mit Fragestellungen der Verantwortlichkeit (accountability) zusammenhängen. Herzog führt in diesem Zusammenhang die Überlegung ein, dass die Frage nach der Verständlichkeit einer KI sowie deren normativen Implikationen nur dann beantwortet werden kann, wenn bestimmte Differenzierungen vorgenommen werden. Diese Differenzierungen betreffen die grundlegenden Fragen, wer verstehen will oder soll, wie die KI funktioniert, unter welchen Umständen die Funktionsweise der KI verstanden werden soll und welchen Zwecken dieses Verständnis dient. Die Beantwortung dieser Fragen legt den jeweiligen Kontext fest, in dem die Verständlichkeit einer KI von Bedeutung ist und ändert, so Herzogs These, die Maßstäbe, die wir an die Idee des Verständnisses einer KI anlegen. So könnte es sein, dass eine vollständige mechanistische Erklärung in bestimmten Kontexten nicht erreichbar, aber auch nicht notwendig sei, um sagen zu können, wir verstünden die Funktion eines KI-Systems in einem hinreichenden Maße. Gerade mit Blick auf eine Reihe von so genannten „white box models“, also KI-Systemen, die grundsätzlich erklärbar sind, sei klar, dass auch diese weder dem medizinische Fachpersonal noch den Patient:innen in einem strikten, das heißt mechanistischen Sinn durchsichtig seien. Unter diesen Bedingungen folgt Herzog einer Reihe von Autor:innen in dem Gedanken, dass die Verständlichkeit von KI neben den üblichen vier Prinzipien des Respekts vor Autonomie, des Wohltuns, des Nichtschadens und der Gerechtigkeit ein fünftes medizinethisches Prinzip sei. Auf der anderen Seite betont Herzog, dass im Rahmen des Einsatzes von KI in der Medizin nicht allein das Verstehen von Expert:innen der Informatik eine Rolle spielt, sondern in besonderem Maße auch das Verständnis der mit der KI interagierenden Ärzt:innen und Patient:innen. Diese stakeholder sind diejenigen, die im medizinischen Alltag Entscheidungen treffen und für die sie die Verantwortung übernehmen müssen. Hierzu sei es aber nicht notwendig, dass die stakeholder die Funktion der KI strikt mechanistisch erklären könnten, wozu sie bereits bei white-box KI-Systemen nicht in der Lage seien.
Georg Starke et al. fokussieren sich in ihrem Beitrag „Intentional machines: A defence of trust in medical artificial intelligence“ auf zwei kritische Einwände gegen die Idee, wir könnten einer KI vertrauen. Der erste Einwand ist ein konzeptioneller, demzufolge der Begriff des Vertrauens nicht auf KI-Systeme anwendbar sei, während der zweite Einwand der Idee, wir sollten KI-Programmen vertrauen, skeptisch gegenübersteht. Der konzeptionelle Einwand, wie er etwa von Thomas Metzinger vorgebracht wurde, interpretiert den Begriff des Vertrauens so, dass er allein auf solche Wesen Anwendung finden könne, die Absichten oder Handlungsmotive besitzen und zu denen wir interpersonale Beziehungen aufbauen könnten. Weil KI-Systemen die Fähigkeit, Absichten zu bilden, abgesprochen wird, sei es eine konzeptionelle Konfusion davon zu sprechen, wir könnten einer KI vertrauen. Starke et al. führen gegen diese Kritik drei Gegenargumente ein. Erstens sei es, ganz im Sinne von Wittgensteins Philosophie der normalen Sprache, üblich, den Begriff des Vertrauens auf Entitäten anzuwenden, zu denen wir nicht in interpersonalen Beziehungen stünden, so etwa im Umgang mit Autos oder Brücken. Zweitens gebe es Möglichkeiten, den Begriff des Vertrauens auf eine Weise zu konzipieren, die nicht auf das Vorliegen von Absichten oder Motive abstellten. Einige dieser Alternativ-konzeptionen seien dabei durchaus auf KI anwendbar. Drittens würde der Begriff des Vertrauens bereits seit Jahrzehnten in der KI-Debatte auf unser Verhältnis zu KI-Systemen angewandt, sodass es zumindest ein prima facie Indiz dafür gebe, dass wir diesen Begriff sinnvoll auch auf KI-Systeme anwenden können. Auf Basis dieser Gegeneinwände konzipieren Starke et al. ein Verständnis von Vertrauen in KI, das sich an den Dimensionen der Verlässlichkeit, der Kompetenz und der Absichten, die in der Funktionsweise von KI-Systemen verwirklicht werden, orientiert. Auf Basis dieser Analyse kommen Starke et al. zu dem Schluss, dass Vertrauen in KI nicht nur möglich, sondern – besonders im medizinischen Kontext – auch notwendig ist, da medizinische KI nur auf Basis eines vertrauensvollen Verhältnisses von Patient:innen und Ärzt:innen zu den KI-Programmen ihren Zweck erfüllen könne. Nur dann, wenn eine KI verlässlich und kompetent funktioniere und wenn die Absichten der an der Entwicklung der KI beteiligten Personen, die durch die KI verwirklicht werden, vertrauenswürdig sind, sei es gerechtfertigt einer KI zu vertrauen und nur, wenn einer KI unter diesen Bedingungen vertraut wird, könne sie ein Gewinn für den medizinischen Alltag sein.
Bibliographie
Gardner, A., Smith, A.L., Steventon, A., Coughlan, E., and Oldfield, M. (2022). Ethical funding for trustworthy AI: proposals toWinter, P.D., and Carusi, A. (2022). (De)troubling transparency: artificial intelligence (AI) for clinical applications. Medical
Weiterführende Literatur
KI und Vertrauen
Alvarado, R. (2022). What kind of trust does AI deserve, if any? AI and Ethics. DOI: 10.1007/s43681-022-00224-x.Hallowell, N., Badger, S., Sauerbrei, A., Nellåker, C., and Kerasidou, A. (2022). “I don’t think people are ready to trust these
Hasani, N., Morris, M.A., Rhamim, A., Summers, R.M., Jones, E., Siegel, E., and Saboury, B. (2022). Trustworthy Artificial
Kerasidou, C., Kerasidou, A., Buscher, M., and Wilkinson, S. (2022). Before and beyond trust. Reliance in medical AI. Journal of
Nickel, P.J. (2022). Trust in medical artificial intelligence. A discretionary account. Ethics and Information Technology 24, 7.
Starke, G., and Ienca, M. (2022). Misplaced trust and distrust. How not to engage with medical artificial intelligence. Cambridge
Winter, P., and Carusi, A. (2022). ‘If you’re going to trust the machine, then that trust has got to be based on something’.
KI und Transparenz
Ott, T., and Dabrock, P. (2022). Transparent human – (non-)transparent technology? The Janus-faced call for transparency in AI-
Salahuddin, Z., Woodruff, H.C., Chatterjee, A., and Lambin, P. (2022). Transparency of deep neural networks for medical image
Schmitz, R., Werner, R., Repici, A., Bisschops, R., Meining, A., Zornow, M., Messmann, H., Hassan, C., Sharma, P., and Rösch, T.
KI und Erklärbarkeit/Verständlichkeit
Arbelaez Ossa, L., Starke, G., Lorenzini, G., Vogt, J.E., Shaw, D.M., and Elger, B.S. (2022). Re-focusing explainability in medicine.
Chen, H., Gomez, C., Huang, C.-M., and Unberath, M. (2022). Explainable medical imaging AI needs human-centered design.
Combi, C., Amico, B., Bellazzi, R., Holzinger, A., Moore, J.H., Zitnik, M., and Holmes, J.H. (2022). A manifesto on explainability for
Funer, F. (2022). Accuracy and Interpretability: Struggling with the Epistemic Foundations of Machine Learning-Generated
Funer, F. (2022). The Deception of Certainty: how Non-Interpretable Machine Learning Outcomes Challenge the Epistemic
Hatherley, J., Sparrow, R., and Howard, M. (2022). The virtues of interpretable medical artificial intelligence. Cambridge
Herzog, C. (2022). On the ethical and epistemological utility of explicable AI in medicine. Philosophy & Technology 35, 50. DOI:
Kawamleh, S. (2022). Against explainability requirements for ethical artificial intelligence in health care. AI and Ethics. DOI:
Kempt, H., Freyer, N., and Nagel, S.K. (2022). Justice and the normative standards of explainability in healthcare. Philosophy &
Kempt, H., Heilinger, J.-C., and Nagel, S.K. (2022). Relative explainability and double standards in medical decision-making.
McCoy, L.G., Brenna, C.T.A., Chen, S.S., Vold, K., and Das, S. (2022). Believing in black boxes. Machine learning for healthcare
Petch, J., Di, S., and Nelson, W. (2022). Opening the black box. The promise and limitations of explainable machine learning in
Pierce, R.L., Van Biesen, W., Van Cauwenberge, D., Decruyenaere, J., and Sterckx, S. (2022). Explainability in medicine in an era
Ratti, E., and Graves, M. (2022). Explainable machine learning practices. Opening another black box for reliable medical AI. AI
Ursin, F., Timmermann, C., and Steger, F. (2022). Explicability of artificial intelligence in radiology. Is a fifth bioethical principle
Yoon, C.H., Torrance, R., and Scheinerman, N. (2022). Machine learning in medicine. Should the pursuit of enhanced
KI und black box
Pierce, R., Sterckx, S., and Van Biesen, W. (2022). A riddle, wrapped in a mystery, inside an enigma. How semantic black boxes
Quinn, T.P., Jacobs, S., Senadeera, M., Le, V., and Coghlan, S. (2022). The three ghosts of medical AI. Can the black-box present
Wadden, J.J. (2022). Defining the undefinable. The black box problem in healthcare artificial intelligence. Journal of Medical
KI und Verantwortlichkeit (accountability)
Bleher, H., and Braun, M. (2022). Diffused responsibility. Attributions of responsibility in the use of AI-driven clinical decision
Sand, M., Durán, J.M., and Jongsma, K.R. (2022). Responsibility beyond design. Physicians’ requirements for ethical medical AI.
Verdicchio, M., and Perin, A. (2022). When doctors and AI interact. On human responsibility for artificial risks. Philosophy &