Mann steht gegenüber Avatar Mann steht gegenüber Avatar
Ein höflicher und respektvoller Umgang mit KI-Systemen steigert die Qualität der KI-Antworten. (Symbolbild)

In Zeiten der Digitalisierung und fortschreitenden Integration von künstlicher Intelligenz (KI) in den Geschäftsbetrieb wird die Interaktion zwischen Mensch und Maschine immer relevanter. Es stellt sich die Frage: Kann die Art und Weise, wie wir mit KI kommunizieren, den Output dieser Technologie beeinflussen und somit auch Geschäftsprozesse optimieren?

Wissenschaftliche Belege für positive Kommunikation

Offenbar ja, denn Erkenntnisse aus aktuellen wissenschaftlichen Studien deuten darauf hin, dass die Antwort ein klares Ja ist. Untersuchungen von namhaften Institutionen wie den Universitäten Maryland, California und Texas haben ergeben, dass ein höflicher und respektvoller Umgang mit KI-Systemen nicht nur die Qualität und Präzision der Antworten erhöht, sondern auch das Engagement und das Vertrauen der Benutzer:innen stärkt (Behavioral Data Science). Dies kann für Unternehmen, die KI in Kundeninteraktionen oder zur internen Datenanalyse nutzen, zu deutlichen Effizienzsteigerungen führen.

Eine vertiefende Untersuchung der Stanford University hat insbesondere die Rolle von Empathie und Höflichkeit gegenüber KI-Assistenten hervorgehoben (Kannan, 2022). Es wurde festgestellt, dass diese Faktoren zu signifikant hilfreicheren und genaueren Antworten beitragen. Dieses Ergebnis wird durch eine Publikation im renommierten "Journal of Artificial Intelligence Research" untermauert, in welcher hervorgehoben wurde, dass positive Interaktionen und konstruktives Feedback essentiell sind, um die Qualität der KI-Antworten zu steigern (Xu, Liu, Cao et al., 2021).

Das Konzept der "Human-Centered AI"

Jenseits dieser direkten Interaktionsergebnisse ist es wichtig zu betonen, dass wir an einem Wendepunkt in der Mensch-KI-Beziehung stehen. Wir bewegen uns von einer funktionalen Beziehung zu einer menschenzentrierten Herangehensweise. Das "Human-Centered AI"-Konzept, wie es von Kelley und Littman (2019) vorgeschlagen wurde, betont die Notwendigkeit, KI-Systeme zu entwickeln, die menschliche Bedürfnisse und Werte berücksichtigen.

So kann man festhalten, dass Large Language Models (LLM), oder allgemeiner gesagt KI, nicht nur reaktive Systeme sind. Sie sind adaptiv und lernfähig. Positive, respektvolle und verständnisvolle Interaktionen beeinflussen nicht nur die direkte Antwortqualität, sondern prägen auch den zukünftigen Lernweg dieser Systeme.

Bedeutung für die Unternehmensstrategie

In Anbetracht dieser Vorteile sollten Unternehmen in Erwägung ziehen, Schulungen und Richtlinien für die Interaktion mit KI-Systemen einzuführen. Dies könnte nicht nur die direkte Interaktion verbessern, sondern auch die langfristige Integration von KI in Geschäftsprozessen optimieren.

Schliesslich sollte die Interaktion mit KI nicht nur als notwendiges Übel oder als rein funktionale Aufgabe betrachtet werden. Sie sollte als strategische Investition gesehen werden, die sowohl den Menschen als auch den Maschinen zugutekommt und letztlich den Geschäftserfolg steigert.

Für Unternehmen bedeutet dies, dass die Art und Weise, wie sie und ihre Mitarbeitenden mit KI interagieren, direkt den Wert und Nutzen beeinflussen kann, den sie aus dieser Technologie ziehen. Ein harmonischer Dialog mit KI wird daher nicht nur ethisch wünschenswert, sondern auch wirtschaftlich sinnvoll.

Quellen und weiterführende Informationen

Behavioral Data Science. Human-AI Collaboration Enables Empathic Conversations in Text-Based Mental Health Support. Abgerufen am 28.11.2023

Kannan, P. (2022). Is It My Turn Yet? Teaching a Voice Assistant When to Speak. Stanford University.

Kelley, S., & Littman, M. (2019). Human-Centered Artificial Intelligence. Communications of the ACM, 62(6), 28–30.

Köbis, N., Rahwan, I: (2021). Die Wissenschaft vom Verhalten künstlicher Intelligenz. Forschungsbericht 2021 - Max-Planck-Institut für Bildungsforschung.

Mantello, P., Ho, MT., Nguyen, MH. et al. Machines that feel: behavioral determinants of attitude towards affect recognition technology—upgrading technology acceptance theory with the mindsponge model. Humanities and Social Sciences Communications, (10), 430.

Picard, R. W. (1995). Affective computing: Computing with feelings. Cambridge, MA: MIT Press.

Sullivan, A. (2023). 'It's not a human. It's a robot': UT researchers conclude AI must develop critical thinking skills to be effective tool. The Daily Texan.

Weizenbaum, J. (1966). ELIZA—A computer program for the study of natural language communication between man and machine. Communications of the ACM, 9(1), 36–45.

Xu, Y., Liu, X. ; Cao, X. et al. (2021). Artificial intelligence: A powerful paradigm for scientific research. The Innovation, 2(4). https://doi.org/10.1016/j.xinn.2021.100179.

Zamfrescu-Pereira, J.D., Hartmann, B., Wong, R. & Yang, Q. (20233). Why Johnny Can’t Prompt: How Non-AI Experts Try (and Fail) to Design LLM Prompts.

Facebook Twitter Xing LinkedIn WhatsApp E-Mail