Die Akzeptanz verkörperter KI-Agenten unter medizinischen Fachkräften: der Einfluss von KI-Autonomie und persönlicher Machtposition
This project is already assigned.

Einleitung
Die Kollaboration mit künstlicher Intelligenz (KI) bietet medizinischen Fachkräften das Potenzial, die eigenen Fähigkeiten zu erweitern (Kocaballi et al., 2020; Sezgin, 2023; Tarek Ibrahim & Hala Rashad, 2024). Beispielsweise könnten Anästhesist:innen mittels KI eine Gefährdung von Patient:innen vorhersagen und verhindern (Singhal, Gupta & Hirani, 2023). Dabei bietet „extended reality“ (XR) die Möglichkeit, mit der Integration verkörperter KI-Agenten in das Arbeitsumfeld positiv auf diese Interaktion einzuwirken. So berichteten Krop, Oberdörfer und Latoschik (2023) im Kontext von Lernen einen im Vergleich zu einem textbasierten System verbesserten Wissensabruf durch den Einsatz eines verkörperten Agenten. Des Weiteren konnten Qiu und Benbasat (2009) durch eine Verkörperung die Akzeptanz erhöhen, die Nutzer:innen einem Agenten gegenüberbringen. Um das Potenzial verkörperter KI-Agenten im Gesundheitswesen nutzbar zu machen, spielt die Akzeptanz, die das medizinische Personal ihnen gegenüberbringt, eine zentrale Rolle. So beeinflusst ein Mangel an Akzeptanz unter den Nutzer:innen die Qualität der Kollaboration zwischen Mensch und KI (Pagliari, Chambon & Berberian, 2022) und behindert die Implementierung einer Technologie im Gesundheitswesen (AlQudah, Al-Emran & Shaalan, 2021; Chong, Blut & Zheng, 2022). Trotz dieses Einflusses ist die Literatur zu Akzeptanz von KI im Gesundheitswesen lückenhaft (Hua, Petrina, Young, Cho & Poon, 2024). Diese Arbeit befasst sich mit dieser Forschungslücke und untersucht Faktoren, die auf die Akzeptanz von verkörperten KI-Agenten unter medizinischem Personal einwirken. Dabei steht der Einfluss der Autonomie von KI und der Machthierarchie unter dem medizinischen Personal im Fokus. Des Weiteren wird untersucht, ob Agency, die Wahrnehmung Initiator der eigenen Handlungen zu sein (Tapal et al., 2017), diese potenziellen Effekte vermittelt und erklärt. Diese Faktoren sind von Interesse, da KI-Anwendungen mit einem unterschiedlichen Ausmaß an Autonomie ausgestattet werden (Choung, David & Ross, 2023; Jones-Jang & Park, 2022) und die aus einer Untersuchung gewonnenen Erkenntnisse hilfreich bei der Gestaltung von autonomen Anwendungen sein könnten, die vom medizinischen Personal angenommen werden. Des Weiteren sind Teams aus medizinischen Fachkräften sowohl innerhalb (Avgerinos, Fragkos & Huang, 2020) als auch zwischen den verschiedenen Berufsgruppen geprägt von Machtgefällen (Jones, Jennings, Higgins & Waal, 2018). Sollten diese Hierarchien die Akzeptanz von KI-Agenten und damit die Interaktion mit diesen oder die Diskussion mit anderen Teammitgliedern über die Ausgaben einer KI beeinflussen, könnten medizinische Entscheidungen verzerrt und das Potenzial von KI nicht angemessen genutzt werden. Die Erkenntnisse dieser Arbeit könnten somit auf die Notwendigkeit spezifischer Trainings und Anpassungen von KI-Anwendungen hinweisen. Zur empirischen Untersuchung dieser Faktoren wird ein Experiment durchgeführt, in dem Studienteilnehmer:innen in Virtual Reality mit einem verkörperten Agenten kollaborieren. Dabei wird die Anwendung von KI auf das Szenario eines „Team-Time-Out“ (TTO) simuliert. Beim TTO handelt es sich um eine von der World Health Organization empfohlene, unmittelbar vor dem ersten Hautschnitt einer Operation durchgeführte Überprüfung aller relevanten Informationen mit dem beteiligten medizinischen Personal (Dr.med. Heinen, 2024). Die Simulation erfolgt mittels VR, da ein TTO direkt im OP-Saal durchgeführt wird und keine entsprechenden Räumlichkeiten zur Verfügung stehen. Der KI-Agent wird in dieser Simulation an Stelle eines der menschlichen Teammitglieder als Moderator des TTO auftreten. Dabei wird der Agent eine Checkliste durch den Austausch mit dem Team bzw. den Studienteilnehmer:innen abarbeiten. Die Proband:innen nehmen hierbei die Rolle einer medizinischen Fachkraft ein. Ziel dieser Thesis ist es, Faktoren zu beleuchten, die auf die Akzeptanz von KI unter medizinischem Personal einwirken. Die gewonnenen Erkenntnisse sollen dazu beitragen, dass medizinische Fachkräfte einer KI mit angemessener Akzeptanz begegnen, um das Potenzial dieser Technologie im Gesundheitswesen nutzbar zu machen. Dabei steht sowohl die entsprechende Gestaltung von KI-Agenten als auch die Sensitivierung und das Training des Personals im Fokus. Daher beschäftigt sich diese Thesis mit den folgenden Forschungsfragen: Beeinflussen die persönliche Machtposition von Fachkräften und die Autonomie eines verkörperten KI-Agenten dessen Akzeptanz durch medizinisches Personal? Spielt der Eindruck persönlicher Agency dabei eine vermittelnde Rolle?
Theorie und Forschungsstand
Der Einfluss von KI-Autonomie
Frank und Otterbring (2024) untersuchten in mehreren Experimenten, inwiefern Kund:innen die Autonomie von KI-Assistenten im Kontext von Online-shopping akzeptieren. Dabei zeigte sich ein deutlicher, negativer Effekt von KI-Autonomie auf die der KI gegenübergebrachte Akzeptanz. Daher wird folgende Hypothese aufgestellt:
- HA1: Ein höheres Maß an Autonomie eines KI-Agenten führt zu einer geringeren Akzeptanz im Vergleich zu einem niedrigeren Maß an Autonomie.
Der Einsatz vollkommen autonomer KI scheint im Gesundheitswesen nicht angestrebt zu werden (Topol, 2019). Bei Meinungsverschiedenheiten zwischen KI und menschlicher Fachkraft scheinen Ärzt:innen zu bevorzugen, dass entweder der Mensch das letzte Wort hat oder aber eine dritte Meinung eingeholt wird (Giavina-Bianchi, Amaro & Machado, 2024). Das Szenario einer Schlichtung durch eine dritte Partei wird daher als höchstmögliche Ausprägung von KI-Autonomie in diesem Kontext angenommen.
Der Einfluss des persönlichen Machtgefühls
Aus ihren Studienergebnisse zur Akzeptanz von intelligenten Chatbots in der Kundenberatung schlossen Yan, Fan, Shao und Lei (2022), dass Menschen mit höherem Machtgefühl intelligenten Produkten mehr Akzeptanz gegenüberbringen. Sie vermuteten, dass das Gefühl von Macht dazu verleitet den Risiken einer Technologie weniger Aufmerksamkeit zukommen zu lassen als deren Nützlichkeit. Ihre Ergebnisse bestätigten diese Erwartung durch einen starken positiven Zusammenhang zwischen Machtgefühl und Akzeptanz, als auch wahrgenommener Nützlichkeit. Daher wird erwartet:
- HA2: Ein höheres Machtgefühl führt zu einer höheren Akzeptanz eines KI-Agenten im Vergleich zu einem niedrigeren Machtgefühl.
Menschen weisen die Tendenz auf, ihre Macht nicht aufgeben zu wollen (Fehr, Herz & Wilkening, 2013). Es wird daher erwartet, dass Menschen in höheren Machtpositionen in der steigenden Autonomität eines Systems eine Bedrohung ihrer Macht sehen, wohingegen sich Menschen mit geringerem Machtgefühl weniger davon bedroht fühlen.
- HA3: Im Vergleich zu einem niedrigeren Machtgefühl führt bei einem höheren Machtgefühl ein höheres Maß an Autonomie eines KI-Agenten zu einer niedrigeren Akzeptanz als ein niedrigeres Maß an Autonomie.
Mediation durch Sense of Agency
Menschen nehmen die Autonomie einer Maschine als Agency wahr (Rose & Truex, 2000; Zafari & Koeszegi, 2018 - 2018). Agency bezeichnet dabei die Wahrnehmung, Initiator der eigenen Handlungen zu sein (Tapal, Oren, Dar & Eitam, 2017). Die Agency eines technischen Systems scheint die eigene „sense of agency“ (SoA) zu beeinflussen: Berberian, Sarrazin, Le Blaye und Haggard (2012) zeigten im Kontext eines Autopiloten in der Luftfahrt, dass die SoA von Nutzer:innen mit zunehmender Automatisierung des Systems abnahm. Bisherige Untersuchungen von SoA spezifisch in Mensch-KI Interaktionen sind selten und theoretisch (Legaspi et al., 2024). Legaspi, He und Toyoizumi (2019) stellen diesbezüglich ein Modell auf, laut dem die SoA von Menschen sinkt, wenn sie einer KI eine hohe SoA zuschreiben. Von dieser Literatur wird folgende Hypothese abgeleitet:
- HA4: Ein höheres Maß an wahrgenommener Agency eines KI-Agenten führt zu einem geringeren Gefühl von persönlicher Agency im Vergleich zu einem niedrigeren Maß an wahrgenommener Agency.
Das Gefühl von Macht erhöht den Eindruck persönlicher Agency (Galinsky, Rucker & Magee, 2015). So zeigten van der Westhuizen, Moore, Solms und van Honk (2017), dass die Einnahme von Testosteron, einem Hormon das mit dem Machtgefühl in Hierarchien in Verbindung gebracht wird, den Eindruck persönlicher Agency erhöht. Daraus wird abgeleitet:
- HA5: Ein höheres Maß an Machtgefühl führt zu einem höheren Gefühl von persönlicher Agency im Vergleich zu einem niedrigeren Maß an Machtgefühl.
Finze, Trapp und Haug (2024) erhoben den Einfluss von SoA auf die Akzeptanz, die Studierende einem KI-Assistenten als Begleiter im Alltag gegenüberbringen und stellten einen positiven Zusammenhang fest. In Kombination mit der zuvor berichteten Literatur werden hieraus die Hypothesen abgleitet:
- HA6: Ein höheres Gefühl von persönlicher Agency führt zu einer höheren Akzeptanz eines KI-Agenten im Vergleich zu einem niedrigeren Gefühl von persönlicher Agency.
- HA7: Der Effekt der wahrgenommenen Agency eines KI-Agenten auf dessen Akzeptanz wird durch das Gefühl von persönlicher Agency vermittelt.
- HA8: Der Effekt des Machtgefühls auf die Akzeptanz eines KI-Agenten wird durch das Gefühl von persönlicher Agency vermittelt.
Methode
Versuchsplan
In der Studie wird ein vollständig gekreuztes 2 („KI-Autonomie“: hoch vs. niedrig) x 2 („Machtposition“: hoch vs. niedrig) mixed Design verwendet. Die abhängige Variable stellt die dem virtuellen Agenten gegenübergebrachte Akzeptanz dar. KI-Autonomie stellt den Within-Subjects-Faktor dar, wobei die Bedingungen in randomisierter Reihenfolge erfolgen. In beiden Bedingungen übernehmen Teilnehmer:innen in einer VR-Umgebung eine Rolle in einem OP-Team und nehmen an einem TTO teil. Sie erleben jeweils, wie ein KI-Agent einer Anästhesist:in aufgrund eines entdeckten Musters eine Alternative zum geplanten Vorgehen vorschlägt. Diesem Vorschlag widerspricht die Anästhesist:in allerdings begründet. Je nach Bedingung reagiert der Agent hierauf entweder durch ein Pausieren der OP für wenige Minuten, um eine dritte Meinung von einer menschlichen Fachkraft einzuholen (hohe KI-Autonomie), oder durch Akzeptanz des Entscheidungsrechts der Anästhesist:in (niedrige KI-Autonomie). Der Between-Subject-Faktor Machtposition stellt die fiktive Rolle im OP-Team und damit die Machtposition dar, die die Teilnehmer:innen über beide Bedingungen der KI-Autonomie hinweg während der experimentellen Aufgabe einnehmen. Die Durchführung dieser Manipulation orientiert sich am von Galinsky et al. (2015) als Goldstandard für rollenbasierte Manipulationen von Macht bezeichnetem Vorgehen von Anderson und Berdahl (2002). Entsprechend wird zu Beginn der Studie die bisherige Erfahrung in Führungspositionen abgefragt. Der Versuchsleiter weist den Teilnehmer:innen daraufhin zufällig die Rolle einer Chirurg:in (hohe Machtposition) oder die einer Pflegefachkraft (niedrige Machtposition) zu. Die Teilnehmer:innen werden hierbei getäuscht, da ihnen mitgeteilt wird, dass sie aufgrund ihrer Führungserfahrung im Vergleich zu anderen Teilnehmer:innen für die jeweilige Rolle eingeteilt wurden. Diese Täuschung wird bei Abbruch oder Abschluss des Experiments aufgeklärt und begründet. Da der persönliche Eindruck von Macht neben dem sozialen Kontext auch von der individuellen Persönlichkeit beeinflusst wird (Anderson, John & Keltner, 2012), ist diese dem Goldstandard entsprechende Manipulation durch Täuschung nötig, um das in der Realität herrschende Machtgefälle im OP-Team simulieren zu können.
Versuchsablauf
Nach der Aufklärung über die Studie und Datenverarbeitung erfolgt die Abfrage demographischer Daten (Alter, Geschlecht, professionelle Vorerfahrung im Gesundheitswesen), eventueller Sehschwächen, bisheriger Führungserfahrung und der Persönlichkeitsmerkmale der Teilnehmer:innen. Außerdem wird der Simulator Sickness Questionnare (Kennedy, Lane, Berbaum & Lilienthal, 1993), als auch der MAILS Fragebogen (Carolus, Koch, Straka, Latoschik & Wienrich, 2023) abgefragt. Hierauf folgt die zuvor beschriebene Manipulation der Machtposition. Zur Manipulationskontrolle und späteren Mediationsanalyse wird vor Beginn der experimentellen Aufgabe das induzierte Gefühl von Macht über das OP-Team erhoben. In der experimentellen Aufgabe entspricht das Aussehen der Rollen dem jeweiligem Stereotyp (z. B.: Chirurg:in in Arztkittel). Daraufhin werden die Teilnehmer:innen instruiert, die experimentelle Aufgabe in ihrer zugeteilten Rolle zu bestreiten. Es wird angekündigt, dass sie dabei in zwei Szenarien hintereinander mit einem verkörperten KI-Agenten in einem TTO interagieren werden und was dabei ihre Aufgabe sein wird. Sie werden außerdem darüber aufgeklärt, dass KI-Agenten bei essenziellen Aufgaben im Gesundheitswesen wie der Erkennung von Krankheiten mittlerweile mindestens so gut sind wie Menschen (Davenport & Kalakota, 2019). Nach jedem Szenario wird die abhängige Variable erfasst und zur Manipulationskontrolle und weiteren Mediationsanalyse zusätzlich die persönlich wahrgenommene und die dem KI-Agenten zugeschriebene Agency erhoben. Da die wahrgenommene Kompetenz einer KI einen der wichtigsten Faktoren für die Akzeptanz durch ihre Nutzer:innen darstellt (Krop, Koch, Carolus, Latoschik & Wienrich, 2024), wird außerdem die Kompetenz des Agenten nach jeder Bedingung erfasst. Zusätzlich wird dabei die Self-Efficacy erhoben, da diese unter medizinischem Personal einen konsistenten (Holden & Karsh, 2010) und großen Einfluss auf die Akzeptanz von Informationstechnologie hat (Chong et al., 2022). Nach Abbruch oder Abschluss der experimentellen Aufgabe erfolgt die Aufklärung, Entschädigung und Verabschiedung der Teilnehmer:innen.
Experimentelle Aufgabe
Die Teilnehmer:innen (TN) nehmen in einem virtuellen Operationssaal in ihrer jeweils zugeteilten Rolle (Chirurg:in/Pflegekraft) an einem TTO teil. Im OP-Saal sind drei als Menschen vorgestellte Figuren anwesend, die den Patienten auf dem OP-Tisch, die Anästhesist:in und je nach Rolle der Teilnehmer:in die Chirurg:in/Pflegekraft darstellen. Des Weiteren ist ein virtueller Agent in einer nicht menschlichen Verkörperung anwesend. Der virtuelle Agent wird die Moderation des TTO übernehmen und die entsprechend einer standardisierten Checkliste erforderlichen Informationen bei den anwesenden Teammitgliedern nacheinander verbal einholen. Die Proband:innen werden zuvor mit den Informationen instruiert, die sie zur Beantwortung der Fragen durch den Agenten benötigen. Das TTO und damit die experimentelle Aufgabe beginnt und endet mit einer offiziellen Ankündigung durch den Agenten. Der Dialog des Szenarios wird bis auf den Sprechanteil der Teilnehmer:innen vorab festgelegt.
Stichprobe
Zur Schätzung der Stichprobengröße wurde eine Poweranalyse mittels „g*Power“ durchgeführt. Aufgrund einer Schätzung des Zeitaufwandes wird eine Stichprobengröße von n=50 angestrebt. Die Stichprobe stellen dabei freiwillige Teilnehmer:innen, die mittels Versuchspersonenstunden oder finanzieller Entschädigung entlohnt werden.
Versuchsmaterial
Die persönlich wahrgenommene, als auch die dem KI-Agenten zugeschriebene Agency wird mittels dem von Tapal et al. (2017) entwickelten Fragebogen erhoben. Das Gefühl von Macht über das OP-Team wird durch eine angepasste Version des Fragebogens von Anderson et al. (2012) abgefragt. Die dem KI-Agenten gegenübergebrachte Akzeptanz wird operationalisiert durch die Bereitschaft, weiterhin mit dem Agenten zu arbeiten und mittels dem von Dennis, Lakhiwal und Sachdeva (2023) vorgestellten Fragebogen gemessen. Des Weiteren wird der Uncanny Valley Index (Ho & MacDorman, 2010), der Simulator Sickness Questionnare (Kennedy et al., 1993) und der MAILS Fragebogen (Carolus et al., 2023) eingesetzt. Die wahrgenommene Kompetenz des KI-Agenten wird mittels der AI Representations Scale (Straka, Koch, Carolus, Latoschik & Wienrich, 2023) erhoben, während die Self-Efficacy durch eine Anpassung des Fragebogens von Venkatesh (2000) gemessen wird. Um die Persönlichkeitsmerkmale der Teilnehmer:innen zu erfassen, kommt das Ten-Item Personality Inventory von Gosling, Rentfrow und Swann (2003) zum Einsatz.Der virtuelle Operationssaal wird mit Unity 2023.2.20f1 entwickelt und mit einem Quest 2 HMD und einer NVIDIA GeForce RTX 4070 Grafikkarte dargestellt. Die Dialoge werden mittels ElevenLabs (ElevenLabs, 2024) vertont.
Zeitplan

Literaturverzeichnis
- AlQudah, A. A., Al-Emran, M. & Shaalan, K. (2021). Technology Acceptance in Healthcare: A Systematic Review. Applied Sciences, 11(22), 10537. https://doi.org/10.3390/app112210537
- Anderson, C. & Berdahl, J. L. (2002). The experience of power: Examining the effects of power on approach and inhibition tendencies. Journal of Personality and Social Psychology, 83(6), 1362–1377. https://doi.org/10.1037//0022-3514.83.6.1362
- Anderson, C., John, O. P. & Keltner, D. (2012). The personal sense of power. Journal of Personality, 80(2), 313–344. https://doi.org/10.1111/j.1467-6494.2011.00734.x
- Avgerinos, E., Fragkos, I. & Huang, Y. (2020). Team familiarity in cardiac surgery operations: The effects of hierarchy and failure on team productivity. Human Relations, 73(9), 1278–1307. https://doi.org/10.1177/0018726719857122
- Berberian, B., Sarrazin, J.‑C., Le Blaye, P. & Haggard, P. (2012). Automation technology and sense of control: a window on human agency. PloS One, 7(3), e34075. https://doi.org/10.1371/journal.pone.0034075
- Carolus, A., Koch, M. J. [Martin J.], Straka, S., Latoschik, M. E. & Wienrich, C. (2023). MAILS - Meta AI literacy scale: Development and testing of an AI literacy questionnaire based on well-founded competency models and psychological change- and meta-competencies. - Computers in Human Behavior: Artificial Humans, 1(2), 100014. https://doi.org/10.1016/j.chbah.2023.100014
- Chong, A. Y. L., Blut, M. & Zheng, S. (2022). Factors influencing the acceptance of healthcare information technologies: A meta-analysis. Information & Management, 59(3), 103604. https://doi.org/10.1016/j.im.2022.103604
- Choung, H., David, P. & Ross, A. (2023). Trust in AI and Its Role in the Acceptance of AI Technologies. International Journal of Human–Computer Interaction, 39(9), 1727–1739. https://doi.org/10.1080/10447318.2022.2050543
- Davenport, T. & Kalakota, R. (2019). The potential for artificial intelligence in healthcare. Future Healthcare Journal, 6(2), 94–98. https://doi.org/10.7861/futurehosp.6-2-94
- Dennis, A. R., Lakhiwal, A. & Sachdeva, A. (2023). AI Agents as Team Members: Effects on Satisfaction, Conflict, Trustworthiness, and Willingness to Work With. Journal of Management Information Systems, 40(2), 307–337. https://doi.org/10.1080/07421222.2023.2196773
- Dr.med. Heinen, Y. (2024). Prozesse und klinische Outcomes bei kardiologischen koronaren Hochrisiko-Eingriffen vor und nach Einführung einer Prozessoptimierung mittels SOP Management. Dissertation. Heinrich-Heine-Universität Düsseldorf, Düsseldorf. Verfügbar unter: https://docserv.uni-duesseldorf.de/servlets/DocumentServlet?id=65605
-
ElevenLabs. (2024, 12. Dezember). Free Text to Speech & AI Voice Generator ElevenLabs. - Fehr, E., Herz, H. & Wilkening, T. (2013). The Lure of Authority: Motivation and Incentive Effects of Power. American Economic Review, 103(4), 1325–1359. https://doi.org/10.1257/aer.103.4.1325
- Finze, N., Trapp, K. & Haug, M. (2024). Losing Control! The Role of Sense of Agency in Using Highly Invasive AI Systems. ICIS 2024 Proceedings. Verfügbar unter: https://aisel.aisnet.org/icis2024/aiinbus/aiinbus/13
- Frank, D.‑A. & Otterbring, T. (2024). Autonomy, Power and the Special Case of Scarcity: Consumer Adoption of Highly Autonomous Artificial Intelligence. British Journal of Management, 35(4), 1700–1723. https://doi.org/10.1111/1467-8551.12780
- Galinsky, A. D., Rucker, D. D. & Magee, J. C. (2015). Power: Past findings, present considerations, and future directions. In M. Mikulincer, P. R. Shaver, J. A. Simpson & J. F. Dovidio (Hrsg.), APA handbook of personality and social psychology, Volume 3: Interpersonal relations (S. 421–460). Washington: American Psychological Association. https://doi.org/10.1037/14344-016
- Giavina-Bianchi, M., Amaro, E. & Machado, B. S. (2024). Medical Expectations of Physicians on AI Solutions in Daily Practice: Cross-Sectional Survey Study. JMIRx Med, 5, e50803. https://doi.org/10.2196/50803
- Gosling, S. D., Rentfrow, P. J. & Swann, W. B. (2003). A very brief measure of the Big-Five personality domains. Journal of Research in Personality, 37(6), 504–528. https://doi.org/10.1016/S0092-6566(03)00046-1
- Ho, C.‑C. & MacDorman, K. F. (2010). Revisiting the uncanny valley theory: Developing and validating an alternative to the Godspeed indices. Computers in Human Behavior, 26(6), 1508–1518. https://doi.org/10.1016/j.chb.2010.05.015
- Holden, R. J. & Karsh, B.‑T. (2010). The technology acceptance model: its past and its future in health care. Journal of Biomedical Informatics, 43(1), 159–172. https://doi.org/10.1016/j.jbi.2009.07.002
- Hua, D., Petrina, N., Young, N., Cho, J.‑G. & Poon, S. K. (2024). Understanding the factors influencing acceptability of AI in medical imaging domains among healthcare professionals: A scoping review. Artificial Intelligence in Medicine, 147, 102698. https://doi.org/10.1016/j.artmed.2023.102698
- Jones, L. K., Jennings, B. M., Higgins, M. K. & Waal, F. B. M. de. (2018). Ethological observations of social behavior in the operating room. Proceedings of the National Academy of Sciences of the United States of America, 115(29), 7575–7580. https://doi.org/10.1073/pnas.1716883115
- Jones-Jang, S. M. & Park, Y. J. (2022). How do people react to AI failure? Automation bias, algorithmic aversion, and perceived controllability. Journal of Computer-Mediated Communication, 28(1). https://doi.org/10.1093/jcmc/zmac029
- Kennedy, R. S., Lane, N. E., Berbaum, K. S. & Lilienthal, M. G. (1993). Simulator Sickness Questionnaire: An Enhanced Method for Quantifying Simulator Sickness. The International Journal of Aviation Psychology, 3(3), 203–220. https://doi.org/10.1207/s15327108ijap0303_3
- Kocaballi, A. B., Ijaz, K., Laranjo, L., Quiroz, J. C., Rezazadegan, D., Tong, H. L. et al. (2020). Envisioning an artificial intelligence documentation assistant for future primary care consultations: A co-design study with general practitioners. Journal of the American Medical Informatics Association : JAMIA, 27(11), 1695–1704. https://doi.org/10.1093/jamia/ocaa131
- Krop, P., Koch, M. J. [Martin Jakobus], Carolus, A., Latoschik, M. E. & Wienrich, C. (2024). The Effects of Expertise, Humanness, and Congruence on Perceived Trust, Warmth, Competence and Intention to Use Embodied AI. In F. F. Mueller, P. Kyburz, J. R. Williamson & C. Sas (Hrsg.), Extended Abstracts of the CHI Conference on Human Factors in Computing Systems (S. 1–9). New York, NY, USA: ACM.
- Krop, P., Oberdörfer, S. & Latoschik, M. E. (2023). Traversing the Pass. In B. Lugrin, M. Latoschik, S. von Mammen, S. Kopp, F. Pécune & C. Pelachaud (Hrsg.), Proceedings of the 23rd ACM International Conference on Intelligent Virtual Agents (S. 1–8). New York, NY, USA: ACM.
- Legaspi, R., He, Z. & Toyoizumi, T. (2019). Synthetic agency: sense of agency in artificial intelligence. Current Opinion in Behavioral Sciences, 29, 84–90. https://doi.org/10.1016/j.cobeha.2019.04.004
- Legaspi, R., Xu, W., Konishi, T., Wada, S., Kobayashi, N., Naruse, Y. et al. (2024). The sense of agency in human–AI interactions. Knowledge-Based Systems, 286, 111298. https://doi.org/10.1016/j.knosys.2023.111298
- Pagliari, M., Chambon, V. & Berberian, B. (2022). What is new with Artificial Intelligence? Human-agent interactions through the lens of social agency. Frontiers in Psychology, 13, 954444. https://doi.org/10.3389/fpsyg.2022.954444
- Qiu, L. & Benbasat, I. (2009). Evaluating Anthropomorphic Product Recommendation Agents: A Social Relationship Perspective to Designing Information Systems. Journal of Management Information Systems, 25(4), 145–182. https://doi.org/10.2753/MIS0742-1222250405
- Rose, J. & Truex, D. (2000). Machine Agency as Perceived Autonomy: An Action Perspective. Organizational and Social Perspectives on Information Technology, 41, 371–388. https://doi.org/10.1007/978-0-387-35505-4_22
- Sezgin, E. (2023). Artificial intelligence in healthcare: Complementing, not replacing, doctors and healthcare providers. Digital Health, 9, 20552076231186520. https://doi.org/10.1177/20552076231186520
- Singhal, M., Gupta, L. & Hirani, K. (2023). A Comprehensive Analysis and Review of Artificial Intelligence in Anaesthesia. Cureus, 15(9), e45038. https://doi.org/10.7759/cureus.45038
- Straka, S., Koch, M. J. [Martin Jakobus], Carolus, A., Latoschik, M. E. & Wienrich, C. (2023). How do employees imagine AI they want to work with: A drawing study. In A. Schmidt, K. Väänänen, T. Goyal, P. O. Kristensson & A. Peters (Hrsg.), Extended Abstracts of the 2023 CHI Conference on Human Factors in Computing Systems (S. 1–8). New York, NY, USA: ACM.
- Tapal, A., Oren, E., Dar, R. & Eitam, B. (2017). The Sense of Agency Scale: A Measure of Consciously Perceived Control over One’s Mind, Body, and the Immediate Environment. Frontiers in Psychology, 8, 1552. https://doi.org/10.3389/fpsyg.2017.01552
- Tarek Ibrahim & Hala Rashad. (2024). The Evolving Role of Healthcare Professionals in the Age of AI: Impacts on Employment, Skill Requirements, and Professional Development. Journal of Artificial Intelligence and Machine Learning in Management, 8(2), 14–21. Retrieved from https://journals.sagescience.org/index.php/jamm/article/view/129
- Topol, E. J. (2019). High-performance medicine: the convergence of human and artificial intelligence. Nature Medicine, 25(1), 44–56. https://doi.org/10.1038/s41591-018-0300-7
- Van der Westhuizen, D., Moore, J., Solms, M. & van Honk, J. (2017). Testosterone facilitates the sense of agency. Consciousness and Cognition, 56, 58–67. https://doi.org/10.1016/j.concog.2017.10.005
- Venkatesh, V. (2000). Determinants of Perceived Ease of Use: Integrating Control, Intrinsic Motivation, and Emotion into the Technology Acceptance Model. Information Systems Research, 11(4), 342–365. https://doi.org/10.1287/isre.11.4.342.11872
- Yan, Y., Fan, W., Shao, B. & Lei, Y. (2022). The impact of perceived control and power on adolescents’ acceptance intention of intelligent online services. Frontiers in Psychology, 13, 1013436. https://doi.org/10.3389/fpsyg.2022.1013436
- Zafari, S. & Koeszegi, S. T. (2018, 27. September - 2018, 29. September). Machine agency in socio-technical systems: A typology of autonomous artificial agents. In 2018 IEEE Workshop on Advanced Robotics and its Social Impacts (ARSO) (S. 125–130). IEEE
Contact Persons at the University Würzburg
Philipp Krop (Primary Contact Person)Human-Computer Interaction Group, University of Würzburg
philipp.krop@uni-wuerzburg.de
Prof. Dr. Marc Erich Latoschik
Human-Computer Interaction Group, University of Würzburg
marc.latoschik@uni-wuerzburg.de