KI in der Medizin: Ethische Aspekte

Autor: Roman Wagner

Künstliche Intelligenz (KI) spielt in unserem Alltag eine zunehmend wichtige Rolle. Die Medizin ist einer der für ethische Fragestellungen zentralen Bereiche, in denen KI-Systeme zum Einsatz kommen. In der medizinischen Praxis werden bereits heute verschiedene KI-Programme genutzt. So wird KI etwa verwendet, um radiologisches Bildmaterial automatisiert zu prüfen. Moderne KI-Systeme sind dabei in der Lage, Krankheitsbilder zu erkennen und Diagnosen sowie Prognosen zu erstellen. Wenngleich sich diese technischen Möglichkeiten noch im Anfangsstadium der Entwicklung befinden, lassen sich bereits heute erstaunliche Erfolge verzeichnen. Zugleich birgt aber der Einsatz von KI insbesondere in der Medizin schwer-wiegende Risiken. Selbst in den Einsatzbereichen, in denen KI-Systeme ähnlich gute oder sogar bessere Ergebnisse erzielen als Ärzt:innen, besteht die Gefahr gravierender Fehler. Treten solche Fehler auf, ist die Ursache meist nur sehr schwer oder gar nicht nachvollziehbar. Diese Problematik erwächst aus dem so genannten „black box“ Charakter zeitgenössischer KI. Während klassische KI-Systeme in ihrer Funktionsweise zumindest den Programmierer:innen durchsichtig waren, gilt das für moderne selbstlernende KI nicht mehr. Diese Programme sind in der Lage, auf Basis von Input-Daten selbstständig Problemlösungen für eine Vielzahl von Aufgaben zu erarbeiten, ohne dass die Entwickler:innen solcher KI erklären könnten, wie das Programm zu seinen Lösungen kommt. Gerade angesichts der Tatsache, dass KI-Programme teilweise Fehler produzieren, die menschlichen Akteur:innen in dieser Form nicht unterlaufen, verschärft sich die Frage, wie wir die Vertrauenswürdigkeit von KI verbessern können und wer im Fall von Fehldiagnosen die Verantwortung trägt.

abstract_50_960_f.png
© Pixabay

Peter Winter und Annamaria Carusi fokussieren sich in ihrer Arbeit „(De)troubling transparency: artificial intelligence (AI) for clinical applications“ auf die Akzeptanz von KI vonseiten des ärztlichen Fachpersonals. Ihrer Einschätzung zufolge stehen Mediziner:innen aufgrund von mangelnder epistemischer Transparenz dem Einsatz von KI skeptisch gegenüber. Winter und Carusi betonen, dass Ärzt:innen zwar durchaus die Notwendigkeit und den möglichen Nutzen von KI-basierter Diagnosefindung erkennen, jedoch nur vergleichsweise wenige Programme in der alltäglichen medizinischen Arbeit tatsächlich Anwendung finden. Der Hauptgrund hierfür liege darin, dass aus Ärzt:innenperspektive black boxes in der medizinischen Arbeit nicht akzeptabel seien, da sie die Transparenz der ärztlichen Entscheidungsfindung untergraben und damit Patient:innen erschwerten, diese Entscheidungen angemessen zu verstehen. Zwar seien auch menschliche – das heißt in diesem Fall ärztliche – Urteilsbildungen nicht immer transparent und vollumfänglich verständlich, gleichwohl sei die Opazität menschlicher Urteilsbildung geläufig und gewöhnlich. Die Fehler jedoch, die eine KI mache, seien so ungewöhnlich und unvorhersehbar, dass sie die gewöhnlichen Muster von Opazität und Transparenz untergraben und damit zu einem epistemischen Misstrauen führten. Als Reaktion auf diese Problematik schlagen die Autor:innen des Artikels einen „process of de-troubling transparency“ vor. Dieser Prozess, der die Entwicklung und Anwendung eines KI-Systems umfasst, sieht vor, dass das medizinische Fachpersonal bereits in der Entwicklung der KI eingebunden wird. Das Ziel dieses Prozesses ist, dass Ärzt:innen ihre eigenen Entscheidungsfindungsprozesse in der Funktionsweise der KI wiedererkennen und dadurch eine Familiarität mit dem Funktionieren des Systems aufbauen. Dieser Prozess umfasst drei Stufen: Das Aufstellen von Input-Daten, durch die die KI trainiert wird, das Erstellen der Software und schließlich das Training des Modells. Indem Ärzt:innen in allen drei Schritten eingebunden werden, soll ihr Vertrauen und ihre Vertrautheit im Umgang mit KI-Systemen im medizinischen Alltag gefördert werden.

abstract_50_960_b.png
© Pixabay

Der Fokus des Beitrags „Ethical funding for trustworthy AI“ von Allison Gardner et al. liegt auf der Fragestellung, wie das Bemühen um eine vertrauenswürdige KI bereits auf der Ebene der Verteilung von Forschungsgeldern befördert werden kann. Gardner et al. betonen, dass insbesondere im Kontext von „high-risk“-Anwendungen von KI, wie sie im Fall der medizinischen Praxis aufgrund der potenziell existenziellen Gefahren für Personen vorliegen, eine besondere Dringlichkeit gegeben sei, die Vertrauenswürdigkeit dieser Programme zu fördern. Mit Blick auf bereits zum Einsatz gekommene KI-Systeme sei darüber hinaus klar geworden, dass das Diskriminierungspotenzial von KI-gestützter medizinischer Praxis erheblich sei. Um diesen Problemen angemessen zu begegnen, sei es von größter Bedeutung, mithilfe von bereits erarbeiteten ethischen Leitlinien – so etwa dem IEEE P7010 Transparency of Autonomous Systems oder dem ISO/IEC JTC 1/SC 42 Artificial Intelligence – hochstufige ethische Prinzipien in der Erarbeitung eines KI-Systems zu berücksichtigen. Indem bereits im Bewerbungsprozess für Forschungsgelder der Fokus auf ethische Maßstäbe gelegt werde, könne sichergestellt werden, dass künftige KI-Entwicklung vertrauenswürdige Systeme hervorbringe.

abstract_50_960_a.png
© Pixabay

Christian Herzog bespricht in seinem Text „On the risk of confusing interpretability with explicability“ die semantische Unklarheit zwischen den Begriffen der Interpretierbarkeit auf der einen Seite und der Erklärbarkeit auf der anderen. Unter dem Begriff der Interpretierbarkeit (interpretability/ explainability) fasst Herzog mechanistische Erklärungen, während der Begriff der Erklärbarkeit (explicability) nicht auf bloß mechanistische Erklärungsformen beschränkt ist, sondern auch etwa Erklärungen umfasst, die auf bloß korrelativen Evidenzen beruhen. Herzog warnt davor, im Rahmen des Einsatzes von KI in der Medizin zu strikte Maßstäbe an das Verständnis von KI-Systemen anzulegen, das heißt, Verständlichkeit mit strikter Interpretierbarkeit zu verwechseln. Diese Verwechslung nennt Herzog die „interpretability-explicability confusion“. Der normative Zweck dieser semantischen Analyse richtet sich auf die Frage, wie die beiden genannten Konzepte im Kontext der Anwendung von KI im medizini-schen Alltag mit Fragestellungen der Verantwortlichkeit (accountability) zusammenhängen. Herzog führt in diesem Zusammenhang die Überlegung ein, dass die Frage nach der Verständlichkeit einer KI sowie deren normativen Implikationen nur dann beantwortet werden kann, wenn bestimmte Differenzierungen vorgenommen werden. Diese Differenzierungen betreffen die grundlegenden Fragen, wer verstehen will oder soll, wie die KI funktioniert, unter welchen Umständen die Funktionsweise der KI verstanden werden soll und welchen Zwecken dieses Verständnis dient. Die Beantwortung dieser Fragen legt den jeweiligen Kontext fest, in dem die Verständlichkeit einer KI von Bedeutung ist und ändert, so Herzogs These, die Maßstäbe, die wir an die Idee des Verständnisses einer KI anlegen. So könnte es sein, dass eine vollständige mechanistische Erklärung in bestimmten Kontexten nicht erreichbar, aber auch nicht notwendig sei, um sagen zu können, wir verstünden die Funktion eines KI-Systems in einem hinreichenden Maße. Gerade mit Blick auf eine Reihe von so genannten „white box models“, also KI-Systemen, die grundsätzlich erklärbar sind, sei klar, dass auch diese weder dem medizinische Fachpersonal noch den Patient:innen in einem strikten, das heißt mechanistischen Sinn durchsichtig seien. Unter diesen Bedingungen folgt Herzog einer Reihe von Autor:innen in dem Gedanken, dass die Verständlichkeit von KI neben den üblichen vier Prinzipien des Respekts vor Autonomie, des Wohltuns, des Nichtschadens und der Gerechtigkeit ein fünftes medizinethisches Prinzip sei. Auf der anderen Seite betont Herzog, dass im Rahmen des Einsatzes von KI in der Medizin nicht allein das Verstehen von Expert:innen der Informatik eine Rolle spielt, sondern in besonderem Maße auch das Verständnis der mit der KI interagierenden Ärzt:innen und Patient:innen. Diese stakeholder sind diejenigen, die im medizinischen Alltag Entscheidungen treffen und für die sie die Verantwortung übernehmen müssen. Hierzu sei es aber nicht notwendig, dass die stakeholder die Funktion der KI strikt mechanistisch erklären könnten, wozu sie bereits bei white-box KI-Systemen nicht in der Lage seien.

abstract_50_960_d.png
© Pixabay

Georg Starke et al. fokussieren sich in ihrem Beitrag „Intentional machines: A defence of trust in medical artificial intelligence“ auf zwei kritische Einwände gegen die Idee, wir könnten einer KI vertrauen. Der erste Einwand ist ein konzeptioneller, demzufolge der Begriff des Vertrauens nicht auf KI-Systeme anwendbar sei, während der zweite Einwand der Idee, wir sollten KI-Programmen vertrauen, skeptisch gegenübersteht. Der konzeptionelle Einwand, wie er etwa von Thomas Metzinger vorgebracht wurde, interpretiert den Begriff des Vertrauens so, dass er allein auf solche Wesen Anwendung finden könne, die Absichten oder Handlungsmotive besitzen und zu denen wir interpersonale Beziehungen aufbauen könnten. Weil KI-Systemen die Fähigkeit, Absichten zu bilden, abgesprochen wird, sei es eine konzeptionelle Konfusion davon zu sprechen, wir könnten einer KI vertrauen. Starke et al. führen gegen diese Kritik drei Gegenargumente ein. Erstens sei es, ganz im Sinne von Wittgensteins Philosophie der normalen Sprache, üblich, den Begriff des Vertrauens auf Entitäten anzuwenden, zu denen wir nicht in interpersonalen Beziehungen stünden, so etwa im Umgang mit Autos oder Brücken. Zweitens gebe es Möglichkeiten, den Begriff des Vertrauens auf eine Weise zu konzipieren, die nicht auf das Vorliegen von Absichten oder Motive abstellten. Einige dieser Alternativ-konzeptionen seien dabei durchaus auf KI anwendbar. Drittens würde der Begriff des Vertrauens bereits seit Jahrzehnten in der KI-Debatte auf unser Verhältnis zu KI-Systemen angewandt, sodass es zumindest ein prima facie Indiz dafür gebe, dass wir diesen Begriff sinnvoll auch auf KI-Systeme anwenden können. Auf Basis dieser Gegeneinwände konzipieren Starke et al. ein Verständnis von Vertrauen in KI, das sich an den Dimensionen der Verlässlichkeit, der Kompetenz und der Absichten, die in der Funktionsweise von KI-Systemen verwirklicht werden, orientiert. Auf Basis dieser Analyse kommen Starke et al. zu dem Schluss, dass Vertrauen in KI nicht nur möglich, sondern – besonders im medizinischen Kontext – auch notwendig ist, da medizinische KI nur auf Basis eines vertrauensvollen Verhältnisses von Patient:innen und Ärzt:innen zu den KI-Programmen ihren Zweck erfüllen könne. Nur dann, wenn eine KI verlässlich und kompetent funktioniere und wenn die Absichten der an der Entwicklung der KI beteiligten Personen, die durch die KI verwirklicht werden, vertrauenswürdig sind, sei es gerechtfertigt einer KI zu vertrauen und nur, wenn einer KI unter diesen Bedingungen vertraut wird, könne sie ein Gewinn für den medizinischen Alltag sein.

Bibliographie

Gardner, A., Smith, A.L., Steventon, A., Coughlan, E., and Oldfield, M. (2022). Ethical funding for trustworthy AI: proposals to
address the responsibility of funders to ensure that projects adhere to trustworthy AI practice. AI and Ethics 2, 277–291.

Herzog, C. (2022). On the risk of confusing interpretability with explicability. AI and Ethics 2, 219–225.

Starke, G., van den Brule, R., Elger, B.S., and Haselager, P. (2022). Intentional machines: A defence of trust in medical artificial
intelligence. Bioethics 36, 154–161.

Winter, P.D., and Carusi, A. (2022). (De)troubling transparency: artificial intelligence (AI) for clinical applications. Medical
Humanities.  DOI: 10.1136/medhum-2021-012318.

 
Weiterführende Literatur

KI und Vertrauen
Alvarado, R. (2022). What kind of trust does AI deserve, if any? AI and Ethics. DOI: 10.1007/s43681-022-00224-x.

Hallowell, N., Badger, S., Sauerbrei, A., Nellåker, C., and Kerasidou, A. (2022). “I don’t think people are ready to trust these
algorithms at face value”. Trust and the use of machine learning algorithms in the diagnosis of rare disease. BMC Medical Ethics 23, 112. DOI: 10.1186/s12910-022-00842-4 [Open Access].

Hasani, N., Morris, M.A., Rhamim, A., Summers, R.M., Jones, E., Siegel, E., and Saboury, B. (2022). Trustworthy Artificial
Intelligence in Medical Imaging. PET Clin 17 (1), 1–12. DOI: 10.1016/j.cpet.2021.09.007.

Kerasidou, C., Kerasidou, A., Buscher, M., and Wilkinson, S. (2022). Before and beyond trust. Reliance in medical AI. Journal of
Medical Ethics 48 (11), 852–856. DOI: 10.1136/medethics-2020-107095 [Open Access].

Nickel, P.J. (2022). Trust in medical artificial intelligence. A discretionary account. Ethics and Information Technology 24, 7.
DOI: 10.1007/s10676-022-09630-5 [Open Access].

Starke, G., and Ienca, M. (2022). Misplaced trust and distrust. How not to engage with medical artificial intelligence. Cambridge
Quarterly of Healthcare Ethics. DOI: 10.1017/S0963180122000445 [Open Access].

Winter, P., and Carusi, A. (2022). ‘If you’re going to trust the machine, then that trust has got to be based on something’.
Validation and the co-constitution of trust in developing artificial intelligence (AI) for the early diagnosis of pulmonary hypertension (PH). Science & Technology Studies 35 (4), 58–77. DOI: 10.23987/sts.102198 [Open Access].

KI und Transparenz
Kiseleva, A., Kotzinos, D., and De Hert, P. (2022). Transparency of AI in healthcare as a multilayered system of accountabilities.
Between legal requirements and technical limitations. Frontiers in Artificial Intelligence 5, 879603. DOI: 10.3389/frai.2022.879603.

Ott, T., and Dabrock, P. (2022). Transparent human – (non-)transparent technology? The Janus-faced call for transparency in AI-
based health care technologies. Frontiers in Genetics 13, 902960. DOI: 10.3389/fgene.2022.902960 [Open Access].

Salahuddin, Z., Woodruff, H.C., Chatterjee, A., and Lambin, P. (2022). Transparency of deep neural networks for medical image
analysis. A review of interpretability methods. Computers in Biology and Medicine 140, 105111. DOI: 10.1016/j.compbiomed.2021.105111 [Open Access].

Schmitz, R., Werner, R., Repici, A., Bisschops, R., Meining, A., Zornow, M., Messmann, H., Hassan, C., Sharma, P., and Rösch, T.
(2022). Artificial intelligence in GI endoscopy. Stumbling blocks, gold standards and the role of endoscopy societies. Gut 71 (3), 451–454. DOI: 10.1136/gutjnl-2020-323115.


KI und Erklärbarkeit/Verständlichkeit
Amann, J., Vetter, D., Blomberg, S.N., Christensen, H.C., Coffee, M., Gerke, S., Gilbert, T.K., Hagendorff, T., Holm, S., Livne, M.,
Spezzatti, A., Strümke, I., Zicari, R.V., and Madai, V.I. (2022). To explain or not to explain? Artificial intelligence explainability in clinical decision support systems. PLOS Digital Health 1 (2), e0000016. DOI: 10.1371/journal.pdig.0000016 [Open Access].

Arbelaez Ossa, L., Starke, G., Lorenzini, G., Vogt, J.E., Shaw, D.M., and Elger, B.S. (2022). Re-focusing explainability in medicine.
Digital Health 8. DOI: 10.1177/20552076221074488 [Open Access].

Chen, H., Gomez, C., Huang, C.-M., and Unberath, M. (2022). Explainable medical imaging AI needs human-centered design.
Guidelines and evidence from a systematic review. npj Digital Medicine 5, 156. DOI: 10.1038/s41746-022-00699-2 [Open Access].

Combi, C., Amico, B., Bellazzi, R., Holzinger, A., Moore, J.H., Zitnik, M., and Holmes, J.H. (2022). A manifesto on explainability for
artificial intelligence in medicine. Artificial Intelligence in Medicine 133, 102423. DOI: 10.1016/j.artmed.2022.102423 [Open Access].

Funer, F. (2022). Accuracy and Interpretability: Struggling with the Epistemic Foundations of Machine Learning-Generated
Medical Information and Their Practical Implications for the Doctor-Patient Relationship. Philosophy & Technology 35 (5). DOI: 10.1007/s13347-022-00505-7 [Open Access].

Funer, F. (2022). The Deception of Certainty: how Non-Interpretable Machine Learning Outcomes Challenge the Epistemic
Authority of Physicians. A deliberative- relational Approach. Medicine, Health Care and Philosophy 25, 167–178. DOI: 10.1007/s11019-022-10076-1 [Open Access].

Hatherley, J., Sparrow, R., and Howard, M. (2022). The virtues of interpretable medical artificial intelligence. Cambridge
Quarterly of Healthcare Ethics. DOI: 10.1017/S0963180122000305 [Open Access].

Herzog, C. (2022). On the ethical and epistemological utility of explicable AI in medicine. Philosophy & Technology 35, 50. DOI:

Kawamleh, S. (2022). Against explainability requirements for ethical artificial intelligence in health care. AI and Ethics. DOI:

Kempt, H., Freyer, N., and Nagel, S.K. (2022). Justice and the normative standards of explainability in healthcare. Philosophy &
Technology 35, 100. DOI: 10.1007/s13347-022-00598-0 [Open Access].

Kempt, H., Heilinger, J.-C., and Nagel, S.K. (2022). Relative explainability and double standards in medical decision-making.
Should medical AI be subjected to higher standards in medical decision-making than doctors? Ethics and Information Technology 24, 20. DOI: 10.1007/s10676-022-09646-x [Open Access].

McCoy, L.G., Brenna, C.T.A., Chen, S.S., Vold, K., and Das, S. (2022). Believing in black boxes. Machine learning for healthcare
does not need explainability to be evidence- based. Journal of Clinical Epidemiology 142, 252–257. DOI: 10.1016/j.jclinepi.2021.11.001.

Petch, J., Di, S., and Nelson, W. (2022). Opening the black box. The promise and limitations of explainable machine learning in
cardiology. Canadian Journal of Cardiology 38 (2), 204–213. DOI: 10.1016/j.cjca.2021.09.004 [Open Access].

Pierce, R.L., Van Biesen, W., Van Cauwenberge, D., Decruyenaere, J., and Sterckx, S. (2022). Explainability in medicine in an era
of AI-based clinical decision support systems. Frontiers in Genetics 13, 903600. DOI: 10.3389/fgene.2022.903600 [Open Access].

Ratti, E., and Graves, M. (2022). Explainable machine learning practices. Opening another black box for reliable medical AI. AI
and Ethics 2 (4), 801–814. DOI: 10.1007/s43681-022-00141-z [Open Access].

Ursin, F., Timmermann, C., and Steger, F. (2022). Explicability of artificial intelligence in radiology. Is a fifth bioethical principle
conceptually necessary? Bioethics 36 (2), 143–153. DOI: 10.1111/bioe.12918 [Open Access].

Yoon, C.H., Torrance, R., and Scheinerman, N. (2022). Machine learning in medicine. Should the pursuit of enhanced
interpretability be abandoned? Journal of Medical Ethics 48 (9), 581–585. DOI: 10.1136/medethics-2020-107102 [Open Access].

KI und black box
Friedrich, A.B., Mason, J., and Malone, J.R. (2022). Rethinking explainability. Toward a postphenomenology of black-box
artificial intelligence in medicine. Ethics and Information Technology 24, 8. DOI: 10.1007/s10676-022-09631-4.

Pierce, R., Sterckx, S., and Van Biesen, W. (2022). A riddle, wrapped in a mystery, inside an enigma. How semantic black boxes
and opaque artificial intelligence confuse medical decision-making. Bioethics 36 (2), 113–120. DOI: 10.1111/bioe.12924 [Open Access].

Quinn, T.P., Jacobs, S., Senadeera, M., Le, V., and Coghlan, S. (2022). The three ghosts of medical AI. Can the black-box present
deliver? Artificial Intelligence in Medicine 124, 102158. DOI: 10.1016/j.artmed.2021.102158.

Wadden, J.J. (2022). Defining the undefinable. The black box problem in healthcare artificial intelligence. Journal of Medical
Ethics 48 (10), 764–768. DOI: 10.1136/medethics-2021-107529


KI und Verantwortlichkeit (accountability)
Babushkina, D. (2022). Are we justified attributing a mistake in diagnosis to an AI diagnostic system? AI and Ethics. DOI:

Bleher, H., and Braun, M. (2022). Diffused responsibility. Attributions of responsibility in the use of AI-driven clinical decision
support systems. AI and Ethics 2 (4), 747–761. DOI: 10.1007/s43681-022-00135-x [Open Access].

Sand, M., Durán, J.M., and Jongsma, K.R. (2022). Responsibility beyond design. Physicians’ requirements for ethical medical AI.
Bioethics 36 (2), 162–169. DOI: 10.1111/bioe.12887 [Open Access].

Verdicchio, M., and Perin, A. (2022). When doctors and AI interact. On human responsibility for artificial risks. Philosophy &
Technology 35, 11. DOI: 10.1007/s13347-022-00506-6 [Open Access].
Wird geladen