Soziale Roboter in Medizin und Pflege. Ethische Bewertungen im Ausgang von idealen Eigenschaften und Fähigkeiten

Die fortschreitende Entwicklung von Robotern verspricht auch die medizinische Versorgung von Menschen zu verbessern. So wird gegenwärtig der Einsatz von sogenannten sozialen Robotern (social robots), etwa in der Altenpflege, zur Unterstützung psychotherapeutischer Angebote oder auch als Begleitsysteme für ärztliches Fachpersonal erforscht und ergänzend im bioethischen Diskurs kontrovers diskutiert. Der gesellschaftliche Anreiz zum Einsatz von sozialen Robotern liegt in dem hohen Anteil hochbetagter, oft pflegebedürftiger Menschen in westlichen Gesellschaften sowie dem Fachkräftemangel in der Gesundheitspflege begründet. So können Roboter etwa Transportaufgaben, basale verbale Kommunikation und das Sammeln und Auswerten von Informationen über Gefahrenquellen im Umfeld Pflegebedürftiger übernehmen. Ein argumentativer Strang dieser bioethischen Debatte kann dabei rekonstruiert werden als Suche nach idealen Eigenschaften oder Fähigkeiten, die ein sozialer Roboter aufweisen sollte, damit er gesellschaftlich angenommen und sein Einsatz als ethisch vertretbar beurteilt wird. Im Ausgang von kürzlich erschienenen, ausgewählten Beiträgen wird im Folgenden diese Frage aufgegriffen: Inwiefern ist es bei der ethischen Bewertung des Einsatzes sozialer Roboter zielführend zu fragen, ob Roboter gendersensibel sein können, ob sie Moralprinzipien berücksichtigen können oder ob sie vertrauenswürdig oder zu Empathie fähig sein können?

abstract_50_960_f.png
© Pixabay

In dem Beitrag „Gender stereotyping of robotic systems in eldercare: An exploratory analysis of ethical problems and possible solutions“ erörtern Merle Weßel et al., ob bei der ethischen Bewertung der möglichen Nutzung sozialer Roboter für die Altenpflege mitberücksichtigt werden sollte, welche Stereotype im Hinblick auf Geschlechtsidentitäten durch ebendiese Nutzung reproduziert werden könnten. Grundlegend ist hierbei zunächst die in empirischen Studien belegte Neigung der Nutzenden, sozialen Robotern etwa auf der Grundlage ihrer Gestalt, Stimme oder Verhaltensweise eine Geschlechtsidentität zuzuschreiben, die fast ausschließlich nur das binäre Spektrum erfasst. Weßel et al. konstatieren, dass die Problematik von Genderstereotypen in sozialen Robotern für die Altenpflege aus ethischer Perspektive bisher kaum herausgearbeitet wurde und stellen dem eine umfassende ethische Betrachtung entgegen. Die Autor:innen orientieren ihre weiterführende ethische Analyse an den in der biomedizinischen Ethik gut etablierten Prinzipien der Fürsorge (care), Autonomie und Gerechtigkeit. Sie verdeutlichen, dass unreflektierte Genderstereotype in sozialen Robotern beispielsweise mit dem Prinzip der Gerechtigkeit in Konflikt geraten können, indem typisierte Verhaltensweisen der Roboter Diskriminierung verstärken könnten. Das Prinzip der Autonomie könne wiederum etwa dann verletzt werden, wenn Roboter mit stereotypisierten Verhaltensweisen auf Nutzende mit abweichenden Überzeugungen zu Geschlechtsidentitäten treffen. In einem lösungsorientierten Zugriff ergänzen die Autor:innen die in der Literatur diskutierten Ansätze der Erklärung (explanation ; Roboter werden gezielt als Technologien dargestellt und in ihren Annahmen transparent gestaltet) und der Neutralisierung (neutralization ; Roboterdesign vermeidet gezielt Anknüpfungspunkte für Geschlechtszuordnung) mit einem eigenen Vorschlag: Beim sogenannten Queering wird der Roboter „fluid“ gestaltet, sodass er Anhaltspunkte für die Zuschreibung verschiedener Geschlechtsidentitäten aufweist und so über ein binäres Verständnis hinausgeht. Zugleich soll auf diese Weise der Reproduktion von Genderstereotypen und den damit verbundenen Einschränkungen der ethischen Prinzipien entgegengetreten werden. Der ideale soziale Roboter wäre damit „genderfluid“.

abstract_50_960_b.png
© Pixabay

Brian Hutler et al. verschieben in ihrem Beitrag „Designing robots that do no harm: understanding the challenges of Ethics for Robots“ den Fokus von einer Ethik der Roboter, die auf die ethisch informierte Entwicklung und Nutzung ausgerichtet war, hin zu einer Ethik für Roboter. Am Beispiel von Robotern, die in der Gesundheitsversorgung eingesetzt werden sollen, und dem Prinzip des Nichtschadens erörtern sie, wie eine Ethik für Roboter ihren Einsatz als semi-autonome Akteure anleiten könnte. Gerade weil sie je nach Grad ihrer „Autonomie“ ohne engmaschige Kontrolle von Menschen agieren können, sei ein internes Korrektiv durch eine ergänzende Ethik notwendig, die spezifisch auf die Funktionsweise und Entscheidungskompetenz von Robotern ausgerichtet wird. Die Herausforderung einer solcherart ausgerichteten Ethik sowie ihrer Berücksichtigung in der Entwicklung von Robotern machen Hutler et al. an vier Hürden fest: Konzeptionell gelte es zu gewährleisten, dass das Prinzip des Nichtschadens ausreichend klar für die Berücksichtigung durch einen Roboter spezifiziert werden könne. Technisch setze dies eine „Schadensontologie“ voraus, in der zunächst alle möglichen Schäden, die ein Roboter hervorrufen könne, erfasst würden. Verbunden sei hiermit die moralische Herausforderung, die Roboter mit einem Filter für die in Anlehnung an das Konzept der Verantwortung relevanten Schäden auszustatten. Schließlich müsse diese Auswahl und Gewichtung von Schäden gesellschaftlich akzeptabel sein und ggf. in regulative Ansätze überführt werden. Abschließend stellt sich damit die Entwicklung von Robotern für die Gesundheitsversorgung, die die Fähigkeit zur Berücksichtigung von sehr grundlegenden ethischen Prinzipien vorweisen können, als äußert komplex dar.

abstract_50_960_a.png
© Pixabay

Elodie Malbois wirft in ihrem Beitrag „Two Issues with the Empathy-Based Argument Against Robot-Physicians“ einen kritischen Blick auf das vermeintliche Erfordernis an soziale Roboter, ähnlich empathisch wie Ärzt:innen zu sein. Obgleich derzeit Roboter medizinisches Fachpersonal noch nicht ersetzen könnten, sei es zentral, vorab die für einen solchen Einsatz maßgebenden ethischen Standards zu reflektieren. Malbois stellt zunächst die Frage, inwiefern Empathie für eine gute medizinische Behandlung notwendig ist. Nach Malbois werden in den empirischen Studien, die die Notwendigkeit von Empathie für gelingende medizinische Behandlung zeigen sollen, uneinheitliche, oft auch sehr vage Definitionen von Empathie zugrunde gelegt, die anschließend durch eine nicht klar darauf zugeschnittene Methodik nur unzureichend bemessen werde. Tatsächlich sei in vielen Fällen Empathie vermutlich förderlich für gelingende ärztliche Behandlungen, deshalb aber noch nicht zwingend notwendig hierfür. Und selbst wenn Robotern in diesem Sinne keine Empathiefähigkeit zugeschrieben werden könne, folge daraus nicht zwingend, dass sie grundsätzlich keine gute Versorgung bereitstellen können. In Ermangelung der Fähigkeit zur Einfühlung seien Robotern, so die bisherige Debatte, die epistemische Funktion von Empathie (besseres Verständnis der Patient:innen durch Einfühlung), die relationale Funktion (emotional beidseitige Bindung schafft Vertrauen zwischen Fachpersonal und Patient:innen) sowie die motivationale Funktion (Ansporn zu heilen) verschlossen. Malbois hält dem entgegen, dass Roboter diese Funktionen möglicherweise kompensieren könnten, etwa durch eine geringere Fehlerquote in Behandlungen. Auch könne ein Vorteil darin bestehen, dass sie im Hinblick auf gerade nicht einschlägige Emotionen, die medizinische Entscheidungsfindungen beeinträchtigen können, wiederum geschützt seien. Malbois schließt mit dem konstruktiven Hinweis darauf, dass Empathiefähigkeit aufgrund ihrer uneinheitlichen, oftmals unzureichend von anderen Konzepten, wie dem des Respekts, abgegrenzten Definition nicht geeignet sei, um allein die ethische Zulässigkeit der Nutzung sozialer Roboter für die Gesundheitsversorgung zu ermessen. Vielmehr sei zunächst ein grundlegendes Verständnis davon zu gewinnen, was gute Gesundheitsversorgung ausmache. Die bloße Orientierung der ethischen Bewertung an dem Vorliegen oder Fehlen von Empathie bei Robotern sei unzureichend.

abstract_50_960_d.png
© Pixabay

Mit einem ähnlichen Anliegen untersuchen Ines Schröder et al. in ihrem Beitrag „Can robots be trustworthy? Reflections about responsive robots and trust as a human capability“ inwiefern soziale Roboter, die unter anderem in der Altenpflege zum Einsatz kommen sollen, vertrauenswürdig sein müssen. Die Autor:innen entwickeln hierfür ein phänomenologisches Verständnis von Vertrauenswürdigkeit, das über das in der Robotik oftmals rein instrumentell orientierte Verständnis hinausgeht. Vertrauenswürdigkeit fußt demnach auf einer Beziehung des Vertrauens, die maßgeblich auf der wechselseitigen Responsivität für den Anspruch auf Würde des Gegenübers beruht. Für gelingende Altenpflege sei Vertrauenswürdigkeit von Robotern wie auch vom Fachpersonal deshalb so zentral, weil es als ein spezifisch relationales Verhältnis auf der Responsivität für die Bedürfnisse von Menschen fußt, deren Würde sich infolge ihrer Pflegebedürftigkeit als besonders verletzlich darstellen kann. Vertrauenswürdigkeit sei hier erreicht, wenn diesen Bedürfnissen durch ein auf Vertrauen basierendes Verhältnis direkt begegnet werde. Diese Form der Bezugnahme könne dann durch den Einsatz von Robotern gefährdet werden, wenn die „konstruierte“ und „virtuelle“ Responsivität der Roboter von Nutzenden als äquivalent zu der unmittelbaren, „ethischen“ Responsivität (miss)verstanden werde. Trotz Spracherkennung, Mobilität und weiteren Funktionsweisen könne ein Roboter den komplexeren, ethischen Ansprüchen an Responsivität nicht genügen. Die Autor:innen folgern daher, dass der Einsatz von Robotern nur dann als vertrauenswürdig aufgefasst werden könne, wenn diese Begrenztheit der möglicherweise von Nutzenden erfahrenen Responsivität der Roboter transparent kommuniziert und somit Täuschung vorgebeugt werde. Weiterhin sei übergreifend dem Anspruch auf eine würdevolle Pflege zu begegnen.

Bibliographie

Hutler, B., Rieder, T. N., Mathews, D. J., Handelman, D. A., and Greenberg, A. M. (2023). Designing robots that do no harm: understanding the challenges of Ethics for Robots. AI and Ethics, 1–9. DOI: 10.1007/s43681-023-00283-8.

Malbois, E. (2023). Two Issues with the Empathy-Based Argument Against Robot-Physicians. In: R. Hakli, P. Mäkelä and J. Seibt, eds., Social Robots in Social Institutions. Proceedings of Robophilosophy 2022, Amsterdam, 80–89. DOI: 10.3233/FAIA220606.

Schröder, I., Müller, O., Scholl, H., Levy-Tzedek, S., and Kellmeyer, P. (2023). Can robots be trustworthy? Reflections about responsive robots and trust as a human capability. Ethik in der Medizin 35, 221–246. DOI: s00481-023-00760-y.

Weßel, M., Ellerich-Groppe, N., and Schweda, M. (2023).Gender Stereotyping of Robotic Systems in Eldercare: An Exploratory Analysis of Ethical Problems and Possible Solutions. International Journal of Social Robotics 15(11), 1963–1976. DOI: 10.1007/s12369-021-00854-x.


Weiterführende Literatur

Breuer, S., Braun, M., Tigard, D., Buyx, A., and Müller, R. (2023). How Engineers’ Imaginaries of Healthcare Shape Design and User Engagement: A Case Study of a Robotics Initiative for Geriatric Healthcare AI Applications. ACM Transactions on Computer-Human Interaction 30(2), 1–33. DOI: 10.1145/3577010.

Casals, A. (2023). How Robots Can Change the Role of Women in Healthcare? A Way Towards Equality? In: J. Vallverdú, ed., Gender in AI and Robotics. The Gender Challenges from an Interdisciplinary Perspective, Cham, 129–138. DOI: 10.1007/978-3-031-21606-0_8.

Haltaufderheide, J., Lucht, A., Strünck, C., and Vollmann, J. (2023). Socially Assistive Devices in Healthcare – a Systematic Review of Empirical Evidence from an Ethical Perspective. Science and Engineering Ethics 29(1), 5. DOI: 10.1007/s11948-022-00419-9.

Khawaja, Z., and Belisle-Pipon, J. C. (2023). Your robot therapist is not your therapist: understanding the role of AI-powered mental health chatbots. Frontiers in Digital Health 5, 1278186. DOI: 10.3389/fdgth.2023.1278186.

Koh, W. Q., Vandemeulebroucke, T., Gastmans, C., Miranda, R., and Van den Block, L. (2023). The ethics of pet robots in dementia care settings: Care professionals’ and organisational leaders’ ethical intuitions. Frontiers in Psychiatry 14, 1052889. DOI: 10.3389/fpsyt.2023.1052889.

Misselhorn, C. (2024). Machine Ethics in Care: Could a Moral Avatar Enhance the Autonomy of Care-Dependent Persons? Cambridge Quarterly of Healthcare Ethics, 1–14. DOI: 10.1017/S0963180123000555.

Norouzi, Z., Amirkhani, F., and Babaii, S. (2023). Counselor Bots as Mental Healthcare Assistants and Some Ethical Challenges. In: R. Hakli, P. Mäkelä and J. Seibt, eds., Social Robots in Social Institutions. Proceedings of Robophilosophy 2022, Amsterdam, 100. DOI: 10.3233/FAIA220608.

Palmer, A., and Schwan, D. (2024). More Process, Less Principles: The Ethics of Deploying AI and Robotics in Medicine. Cambridge Quarterly of Healthcare Ethics 33(1), 121–134. DOI: 10.1017/S0963180123000087.

Schicktanz, S., Welsch, J., Schweda, M., Hein, A., Rieger, J. W., and Kirste, T. (2023). AI-assisted ethics? Considerations of AI simulation for the ethical assessment and design of assistive technologies. Frontiers in Genetics 14, 1039839. DOI: 10.3389/fgene.2023.1039839.

Soares, A., Piçarra, N., Giger, J.-C., Oliveira, R., and Arriaga, P. (2023). Ethics 4.0: Ethical Dilemmas in Healthcare Mediated by Social Robots. International Journal of Social Robotics 15, 807–823. DOI: 10.1007/s12369-023-00983-5.

Vallès-Peris, N. and Domènech, M. (2023). Caring in the in-between: a proposal to introduce responsible AI and robotics to healthcare. AI & Society 38(4), 1685–1695. DOI: 10.1007/s00146-021-01330-w.

Yuan, S., Coghlan, S., Lederman, R., and Waycott, J.(2023). Ethical Design of Social Robots in Aged Care: A Literature Review Using an Ethics of Care Perspective. International Journal of Social Robotics 15(9/10), 1637–1654. DOI: 10.1007/s12369-023-01053-6.
Wird geladen