KI in der Medizin: Ethische Aspekte

Autor: Roman Wagner

Künstliche Intelligenz (KI) spielt in unserem Alltag eine zunehmend wichtige Rolle. Die Medizin ist einer der für ethische Fragestellungen zentralen Bereiche, in denen KI-Systeme zum Einsatz kommen. In der medizinischen Praxis werden bereits heute verschiedene KI-Programme genutzt. So wird KI etwa verwendet, um radiologisches Bildmaterial automatisiert zu prüfen. Moderne KI-Systeme sind dabei in der Lage, Krankheitsbilder zu erkennen und Diagnosen sowie Prognosen zu erstellen. Wenngleich sich diese technischen Möglichkeiten noch im Anfangsstadium der Entwicklung befinden, lassen sich bereits heute erstaunliche Erfolge verzeichnen. Zugleich birgt aber der Einsatz von KI insbesondere in der Medizin schwerwiegende Risiken. Selbst in den Einsatzbereichen, in denen KI-Systeme ähnlich gute oder sogar bessere Ergebnisse erzielen als Ärzt:innen, besteht die Gefahr gravierender Fehler. Treten solche Fehler auf, ist die Ursache meist nur sehr schwer oder gar nicht nachvollziehbar. Diese Problematik erwächst aus dem so genannten „black box“ Charakter zeitgenössischer KI. Während klassische KI-Systeme in ihrer Funktionsweise zumindest den Programmierer:innen durchsichtig waren, gilt das für moderne selbstlernende KI nicht mehr. Diese Programme sind in der Lage, auf Basis von Input-Daten selbstständig Problemlösungen für eine Vielzahl von Aufgaben zu erarbeiten, ohne dass die Entwickler:innen solcher KI erklären könnten, wie das Programm zu seinen Lösungen kommt. Gerade angesichts der Tatsache, dass KI-Programme teilweise Fehler produzieren, die menschlichen Akteur:innen in dieser Form nicht unterlaufen, verschärft sich die Frage, wie wir die Vertrauenswürdigkeit von KI verbessern können und wer im Fall von Fehldiagnosen die Verantwortung trägt.

abstract_50_960_f.png
© Pixabay

Peter Winter und Annamaria Carusi fokussieren sich in ihrer Arbeit „(De)troubling transparency: artificial intelligence (AI) for clinical applications“ auf die Akzeptanz von KI vonseiten des ärztlichen Fachpersonals. Ihrer Einschätzung zufolge stehen Mediziner:innen aufgrund von mangelnder epistemischer Transparenz dem Einsatz von KI skeptisch gegenüber. Winter und Carusi betonen, dass Ärzt:innen zwar durchaus die Notwendigkeit und den möglichen Nutzen von KI-basierter Diagnosefindung erkennen, jedoch nur vergleichsweise wenige Programme in der alltäglichen medizinischen Arbeit tatsächlich Anwendung finden. Der Hauptgrund hierfür liege darin, dass aus Ärzt:innenperspektive black boxes in der medizinischen Arbeit nicht akzeptabel seien, da sie die Transparenz der ärztlichen Entscheidungsfindung untergraben und damit Patient:innen erschwerten, diese Entscheidungen angemessen zu verstehen. Zwar seien auch menschliche – das heißt in diesem Fall ärztliche – Urteilsbildungen nicht immer transparent und vollumfänglich verständlich, gleichwohl sei die Opazität menschlicher Urteilsbildung geläufig und gewöhnlich. Die Fehler jedoch, die eine KI mache, seien so ungewöhnlich und unvorhersehbar, dass sie die gewöhnlichen Muster von Opazität und Transparenz untergraben und damit zu einem epistemischen Misstrauen führten. Als Reaktion auf diese Problematik schlagen die Autor:innen des Artikels einen „process of de-troubling transparency“ vor. Dieser Prozess, der die Entwicklung und Anwendung eines KI-Systems umfasst, sieht vor, dass das medizinische Fachpersonal bereits in der Entwicklung der KI eingebunden wird. Das Ziel dieses Prozesses ist, dass Ärzt:innen ihre eigenen Entscheidungsfindungsprozesse in der Funktionsweise der KI wiedererkennen und dadurch eine Familiarität mit dem Funktionieren des Systems aufbauen. Dieser Prozess umfasst drei Stufen: Das Aufstellen von Input-Daten, durch die die KI trainiert wird, das Erstellen der Software und schließlich das Training des Modells. Indem Ärzt:innen in allen drei Schritten eingebunden werden, soll ihr Vertrauen und ihre Vertrautheit im Umgang mit KI-Systemen im medizinischen Alltag gefördert werden.

abstract_50_960_b.png
© Pixabay

Der Fokus des Beitrags „Ethical funding for trustworthy AI“ von Allison Gardner et al. liegt auf der Fragestellung, wie das Bemühen um eine vertrauenswürdige KI bereits auf der Ebene der Verteilung von Forschungsgeldern befördert werden kann. Gardner et al. betonen, dass insbesondere im Kontext von „high-risk“-Anwendungen von KI, wie sie im Fall der medizinischen Praxis aufgrund der potenziell existenziellen Gefahren für Personen vorliegen, eine besondere Dringlichkeit gegeben sei, die Vertrauenswürdigkeit dieser Programme zu fördern. Mit Blick auf bereits zum Einsatz gekommene KI-Systeme sei darüber hinaus klar geworden, dass das Diskriminierungspotenzial von KI-gestützter medizinischer Praxis erheblich sei. Um diesen Problemen angemessen zu begegnen, sei es von größter Bedeutung, mithilfe von bereits erarbeiteten ethischen Leitlinien – so etwa dem IEEE P7010 Transparency of Autonomous Systems oder dem ISO/IEC JTC 1/SC 42 Artificial Intelligence – hochstufige ethische Prinzipien in der Erarbeitung eines KI-Systems zu berücksichtigen. Indem bereits im Bewerbungsprozess für Forschungsgelder der Fokus auf ethische Maßstäbe gelegt werde, könne sichergestellt werden, dass künftige KI-Entwicklung vertrauenswürdige Systeme hervorbringe.

abstract_50_960_a.png
© Pixabay

Christian Herzog bespricht in seinem Text „On the risk of confusing interpretability with explicability“ die semantische Unklarheit zwischen den Begriffen der Interpretierbarkeit auf der einen Seite und der Erklärbarkeit auf der anderen. Unter dem Begriff der Interpretierbarkeit (interpretability/explainability) fasst Herzog mechanistische Erklärungen, während der Begriff der Erklärbarkeit (explicability) nicht auf bloß mechanistische Erklärungsformen beschränkt ist, sondern auch etwa Erklärungen umfasst, die auf bloß korrelativen Evidenzen beruhen. Herzog warnt davor, im Rahmen des Einsatzes von KI in der Medizin zu strikte Maßstäbe an das Verständnis von KI-Systemen anzulegen, das heißt, Verständlichkeit mit strikter Interpretierbarkeit zu verwechseln. Diese Verwechslung nennt Herzog die „interpretability-explicability confusion“. Der normative Zweck dieser semantischen Analyse richtet sich auf die Frage, wie die beiden genannten Konzepte im Kontext der Anwendung von KI im medizinischen Alltag mit Fragestellungen der Verantwortlichkeit (accountability) zusammenhängen. Herzog führt in diesem Zusammenhang die Überlegung ein, dass die Frage nach der Verständlichkeit einer KI sowie deren normativen Implikationen nur dann beantwortet werden kann, wenn bestimmte Differenzierungen vorgenommen werden. Diese Differenzierungen betreffen die grundlegenden Fragen, wer verstehen will oder soll, wie die KI funktioniert, unter welchen Umständen die Funktionsweise der KI verstanden werden soll und welchen Zwecken dieses Verständnis dient. Die Beantwortung dieser Fragen legt den jeweiligen Kontext fest, in dem die Verständlichkeit einer KI von Bedeutung ist und ändert, so Herzogs These, die Maßstäbe, die wir an die Idee des Verständnisses einer KI anlegen. So könnte es sein, dass eine vollständige mechanistische Erklärung in bestimmten Kontexten nicht erreichbar, aber auch nicht notwendig sei, um sagen zu können, wir verstünden die Funktion eines KI-Systems in einem hinreichenden Maße. Gerade mit Blick auf eine Reihe von so genannten „white box models“, also KI-Systemen, die grundsätzlich erklärbar sind, sei klar, dass auch diese weder dem medizinische Fachpersonal noch den Patient:innen in einem strikten, das heißt mechanistischen Sinn durchsichtig seien. Unter diesen Bedingungen folgt Herzog einer Reihe von Autor:innen in dem Gedanken, dass die Verständlichkeit von KI neben den üblichen vier Prinzipien des Respekts vor Autonomie, des Wohltuns, des Nichtschadens und der Gerechtigkeit ein fünftes medizinethisches Prinzip sei. Auf der anderen Seite betont Herzog, dass im Rahmen des Einsatzes von KI in der Medizin nicht allein das Verstehen von Expert:innen der Informatik eine Rolle spielt, sondern in besonderem Maße auch das Verständnis der mit der KI interagierenden Ärzt:innen und Patient:innen. Diese Stakeholder sind diejenigen, die im medizinischen Alltag Entscheidungen treffen und für die sie die Verantwortung übernehmen müssen. Hierzu sei es aber nicht notwendig, dass die Stakeholder die Funktion der KI strikt mechanistisch erklären könnten, wozu sie bereits bei white-box KI-Systemen nicht in der Lage seien.

abstract_50_960_d.png
© Pixabay

Georg Starke et al. fokussieren sich in ihrem Beitrag „Intentional machines: A defence of trust in medical artificial intelligence“ auf zwei kritische Einwände gegen die Idee, wir könnten einer KI vertrauen. Der erste Einwand ist ein konzeptioneller, demzufolge der Begriff des Vertrauens nicht auf KI-Systeme anwendbar sei, während der zweite Einwand der Idee, wir sollten KI-Programmen vertrauen, skeptisch gegenübersteht. Der konzeptionelle Einwand, wie er etwa von Thomas Metzinger vorgebracht wurde, interpretiert den Begriff des Vertrauens so, dass er allein auf solche Wesen Anwendung finden könne, die Absichten oder Handlungsmotive besitzen und zu denen wir interpersonale Beziehungen aufbauen könnten. Weil KI-Systemen die Fähigkeit, Absichten zu bilden, abgesprochen wird, sei es eine konzeptionelle Konfusion davon zu sprechen, wir könnten einer KI vertrauen. Starke et al. führen gegen diese Kritik drei Gegenargumente ein. Erstens sei es, ganz im Sinne von Wittgensteins Philosophie der normalen Sprache, üblich, den Begriff des Vertrauens auf Entitäten anzuwenden, zu denen wir nicht in interpersonalen Beziehungen stünden, so etwa im Umgang mit Autos oder Brücken. Zweitens gebe es Möglichkeiten, den Begriff des Vertrauens auf eine Weise zu konzipieren, die nicht auf das Vorliegen von Absichten oder Motive abstellten. Einige dieser Alternativkonzeptionen seien dabei durchaus auf KI anwendbar. Drittens würde der Begriff des Vertrauens bereits seit Jahrzehnten in der KI-Debatte auf unser Verhältnis zu KI-Systemen angewandt, sodass es zumindest ein prima facie Indiz dafür gebe, dass wir diesen Begriff sinnvoll auch auf KI-Systeme anwenden können. Auf Basis dieser Gegeneinwände konzipieren Starke et al. ein Verständnis von Vertrauen in KI, das sich an den Dimensionen der Verlässlichkeit, der Kompetenz und der Absichten, die in der Funktionsweise von KI-Systemen verwirklicht werden, orientiert. Auf Basis dieser Analyse kommen Starke et al. zu dem Schluss, dass Vertrauen in KI nicht nur möglich, sondern – besonders im medizinischen Kontext – auch notwendig ist, da medizinische KI nur auf Basis eines vertrauensvollen Verhältnisses von Patient:innen und Ärzt:innen zu den KI-Programmen ihren Zweck erfüllen könne. Nur dann, wenn eine KI verlässlich und kompetent funktioniere und wenn die Absichten der an der Entwicklung der KI beteiligten Personen, die durch die KI verwirklicht werden, vertrauenswürdig sind, sei es gerechtfertigt, einer KI zu vertrauen und nur, wenn einer KI unter diesen Bedingungen vertraut wird, könne sie ein Gewinn für den medizinischen Alltag sein.

Bibliographie

Gardner, A., Smith, A.L., Steventon, A., Coughlan, E., & Oldfield, M. (2022). Ethical funding for trustworthy AI: proposals to
address the responsibility of funders to ensure that projects adhere to trustworthy AI practice. AI and Ethics, 2, 277–291.

Herzog, C. (2022). On the risk of confusing interpretability with explicability. AI and Ethics, 2, 219–225.

Starke, G., van den Brule, R., Elger, B.S., & Haselager, P. (2022). Intentional machines: A defence of trust in medical artificial
intelligence. Bioethics, 36, 154–161.

Winter, P.D., & Carusi, A. (2022). (De)troubling transparency: artificial intelligence (AI) for clinical applications. Medical

 
Weiterführende Literatur

KI und Vertrauen
Alvarado, R. (2022). What kind of trust does AI deserve, if any? AI and Ethics. https://doi.org/10.1007/s43681-022-00224-x

Hallowell, N., Badger, S., Sauerbrei, A., Nellåker, C., & Kerasidou, A. (2022). “I don’t think people are ready to trust these
algorithms at face value”. Trust and the use of machine learning algorithms in the diagnosis of rare disease. BMC Medical Ethics, 23, 112. https://doi.org/10.1186/s12910-022-00842-4 

Hasani, N., Morris, M.A., Rhamim, A., Summers, R.M., Jones, E., Siegel, E., & Saboury, B. (2022). Trustworthy Artificial
Intelligence in Medical Imaging. PET Clinics, 17(1), 1–12. https://doi.org/10.1016/j.cpet.2021.09.007

Kerasidou, C., Kerasidou, A., Buscher, M., & Wilkinson, S. (2022). Before and beyond trust. Reliance in medical AI. Journal of
Medical Ethics, 48(11), 852–856. https://doi.org/10.1136/medethics-2020-107095

Nickel, P.J. (2022). Trust in medical artificial intelligence. A discretionary account. Ethics and Information Technology, 24, 7.

Starke, G., & Ienca, M. (2022). Misplaced trust and distrust. How not to engage with medical artificial intelligence. Cambridge
Quarterly of Healthcare Ethics. https://doi.org/10.1017/S0963180122000445

Winter, P., & Carusi, A. (2022). ‘If you’re going to trust the machine, then that trust has got to be based on something’.
Validation and the co-constitution of trust in developing artificial intelligence (AI) for the early diagnosis of pulmonary hypertension (PH). Science & Technology Studies, 35(4), 58–77. https://doi.org/10.23987/sts.102198

KI und Transparenz
Kiseleva, A., Kotzinos, D., & De Hert, P. (2022). Transparency of AI in healthcare as a multilayered system of accountabilities.
Between legal requirements and technical limitations. Frontiers in Artificial Intelligence, 5, 879603. https://doi.org/10.3389/frai.2022.879603

Ott, T., & Dabrock, P. (2022). Transparent human – (non-)transparent technology? The Janus-faced call for transparency in AI-
based health care technologies. Frontiers in Genetics, 13, 902960. https://doi.org/10.3389/fgene.2022.902960

Salahuddin, Z., Woodruff, H.C., Chatterjee, A., & Lambin, P. (2022). Transparency of deep neural networks for medical image
analysis. A review of interpretability methods. Computers in Biology and Medicine, 140, 105111. https://doi.org/10.1016/j.compbiomed.2021.105111

Schmitz, R., Werner, R., Repici, A., Bisschops, R., Meining, A., Zornow, M., Messmann, H., Hassan, C., Sharma, P., & Rösch, T.
(2022). Artificial intelligence in GI endoscopy. Stumbling blocks, gold standards and the role of endoscopy societies. Gut, 71(3), 451–454. https://doi.org/10.1136/gutjnl-2020-323115


KI und Erklärbarkeit/Verständlichkeit
Amann, J., Vetter, D., Blomberg, S.N., Christensen, H.C., Coffee, M., Gerke, S., Gilbert, T.K., Hagendorff, T., Holm, S., Livne, M.,
Spezzatti, A., Strümke, I., Zicari, R.V., & Madai, V.I. (2022). To explain or not to explain? Artificial intelligence explainability in clinical decision support systems. PLOS Digital Health, 1(2), e0000016. https://doi.org/10.1371/journal.pdig.0000016

Arbelaez Ossa, L., Starke, G., Lorenzini, G., Vogt, J.E., Shaw, D.M., & Elger, B.S. (2022). Re-focusing explainability in medicine.

Chen, H., Gomez, C., Huang, C.-M., & Unberath, M. (2022). Explainable medical imaging AI needs human-centered design.
Guidelines and evidence from a systematic review. npj Digital Medicine, 5, 156. https://doi.org/10.1038/s41746-022-00699-2 

Combi, C., Amico, B., Bellazzi, R., Holzinger, A., Moore, J.H., Zitnik, M., & Holmes, J.H. (2022). A manifesto on explainability for
artificial intelligence in medicine. Artificial Intelligence in Medicine, 133, 102423. https://doi.org/10.1016/j.artmed.2022.102423

Funer, F. (2022). Accuracy and Interpretability: Struggling with the Epistemic Foundations of Machine Learning-Generated
Medical Information and Their Practical Implications for the Doctor-Patient Relationship. Philosophy & Technology, 35(5). https://doi.org/10.1007/s13347-022-00505-7

Funer, F. (2022). The Deception of Certainty: how Non-Interpretable Machine Learning Outcomes Challenge the Epistemic
Authority of Physicians. A deliberative- relational Approach. Medicine, Health Care and Philosophy, 25, 167–178. https://doi.org/10.1007/s11019-022-10076-1

Hatherley, J., Sparrow, R., & Howard, M. (2022). The virtues of interpretable medical artificial intelligence. Cambridge
Quarterly of Healthcare Ethics. https://doi.org/10.1017/S0963180122000305

Herzog, C. (2022). On the ethical and epistemological utility of explicable AI in medicine. Philosophy & Technology, 35, 50.

Kawamleh, S. (2022). Against explainability requirements for ethical artificial intelligence in health care. AI and Ethics.

Kempt, H., Freyer, N., & Nagel, S.K. (2022). Justice and the normative standards of explainability in healthcare. Philosophy &

Kempt, H., Heilinger, J.-C., & Nagel, S.K. (2022). Relative explainability and double standards in medical decision-making.
Should medical AI be subjected to higher standards in medical decision-making than doctors? Ethics and Information Technology, 24, 20. https://doi.org/10.1007/s10676-022-09646-x 

McCoy, L.G., Brenna, C.T.A., Chen, S.S., Vold, K., & Das, S. (2022). Believing in black boxes. Machine learning for healthcare
does not need explainability to be evidence- based. Journal of Clinical Epidemiology, 142, 252–257. https://doi.org/10.1016/j.jclinepi.2021.11.001

Petch, J., Di, S., & Nelson, W. (2022). Opening the black box. The promise and limitations of explainable machine learning in
cardiology. Canadian Journal of Cardiology, 38(2), 204–213. https://doi.org/10.1016/j.cjca.2021.09.004

Pierce, R.L., Van Biesen, W., Van Cauwenberge, D., Decruyenaere, J., & Sterckx, S. (2022). Explainability in medicine in an era
of AI-based clinical decision support systems. Frontiers in Genetics, 13, 903600. https://doi.org/10.3389/fgene.2022.903600

Ratti, E., & Graves, M. (2022). Explainable machine learning practices. Opening another black box for reliable medical AI. AI
and Ethics, 2(4), 801–814. https://doi.org/10.1007/s43681-022-00141-z

Ursin, F., Timmermann, C., & Steger, F. (2022). Explicability of artificial intelligence in radiology. Is a fifth bioethical principle
conceptually necessary? Bioethics, 36(2), 143–153. https://doi.org/10.1111/bioe.12918

Yoon, C.H., Torrance, R., & Scheinerman, N. (2022). Machine learning in medicine. Should the pursuit of enhanced
interpretability be abandoned? Journal of Medical Ethics, 48(9), 581–585. https://doi.org/10.1136/medethics-2020-107102 

KI und black box
Friedrich, A.B., Mason, J., & Malone, J.R. (2022). Rethinking explainability. Toward a postphenomenology of black-box
artificial intelligence in medicine. Ethics and Information Technology, 24, 8. https://doi.org/10.1007/s10676-022-09631-4

Pierce, R., Sterckx, S., & Van Biesen, W. (2022). A riddle, wrapped in a mystery, inside an enigma. How semantic black boxes
and opaque artificial intelligence confuse medical decision-making. Bioethics, 36(2), 113–120. https://doi.org/10.1111/bioe.12924 

Quinn, T.P., Jacobs, S., Senadeera, M., Le, V., & Coghlan, S. (2022). The three ghosts of medical AI. Can the black-box present
deliver? Artificial Intelligence in Medicine, 124, 102158. https://doi.org/10.1016/j.artmed.2021.102158

Wadden, J.J. (2022). Defining the undefinable. The black box problem in healthcare artificial intelligence. Journal of Medical


KI und Verantwortlichkeit (accountability)
Babushkina, D. (2022). Are we justified attributing a mistake in diagnosis to an AI diagnostic system? AI and Ethics.

Bleher, H., & Braun, M. (2022). Diffused responsibility. Attributions of responsibility in the use of AI-driven clinical decision
support systems. AI and Ethics, 2(4), 747–761. https://doi.org/10.1007/s43681-022-00135-x

Sand, M., Durán, J.M., & Jongsma, K.R. (2022). Responsibility beyond design. Physicians’ requirements for ethical medical AI.
Bioethics, 36(2), 162–169. https://doi.org/10.1111/bioe.12887

Verdicchio, M., & Perin, A. (2022). When doctors and AI interact. On human responsibility for artificial risks. Philosophy &
Wird geladen