Werden wir künftig mit menschenähnlichen Robotern eine Art kollegiale Beziehung aufbauen?
Nao, ein humanoider Roboter im "Gespräch" mit einer MItarbeiterin (Bild)

Können Sie gut mit Robotern zusammenarbeiten? Diese Frage werden Sie vielleicht schon bald in einem Bewerbungsgespräch beantworten müssen. In der Tat haben Künstliche Intelligenz (KI) und Roboter schon in vielen Unternehmen Einzug gehalten. Sie übernehmen komplizierte Analyseprozesse grosser Datenmengen, helfen Talentmanagern bei der Suche von geeigneten Kandidaten und ersetzen in Form von virtuellen Assistenten menschliche BeraterInnen. Das Büro mit programmierten Arbeitskollegen und -kolleginnen zu teilen, wird damit zum realistischen Szenario. Heisst das auch, dass wir künftig mit menschenähnlichen Robotern eine Art kollegiale Beziehung aufbauen? 

Die Annäherung Künstlicher Intelligenz und Robotik an die Leistungsfähigkeit des menschlichen Gehirns und Körpers ist eine Entwicklung, die zahlreiche Fragen und Unsicherheiten aufwirft. Wie Forschungsergebnisse zeigen, gibt es wesentliche Fortschritte in der Mensch-Roboter-Interaktion – aber ebenso viele Herausforderungen.

Weil Roboter spüren, können Mensch und Roboter enger zusammenarbeiten

Mit Fokus auf Produktionsbetriebe ist zu beobachten, dass bis vor kurzem Menschen und Roboter mehrheitlich in physisch voneinander abgegrenzten Bereichen arbeiteten. Solche Sicherheitsvorrichtungen waren notwendig, weil Roboter, die plötzliche Bewegungen mit hoher Geschwindigkeit ausführten, eine Verletzungsgefahr für den BedienerInnen darstellten. Heutzutage gibt es Roboter, die mit einer menschlichen Eigenschaft ausgestattet sind, welche Mensch und Roboter gefahrlos zusammenarbeiten lässt. Solche Roboter spüren mit ihrer künstlichen Haut bzw. Sensoren, ob sie ein Objekt bzw. eine Person berührt. Damit rücken Industrie-Roboter und ihre BedienerInnen näher zusammenzusammen. Sie arbeiten sozusagen Hand in Hand.

Liegt darin der Anfang einer kollegialen Beziehung zwischen Mensch und Roboter? Vielleicht. In einem vom Forschungsprojekt „AQUIAS“ (Kremer, 2018) beschriebenen Zukunftsszenario verzieren Mitarbeitende ihre Roboter mit Fotos, Buttons und Kleidungsstücken. Die Roboter begrüssen ihre BedienerInnen morgens jeweils mit individualisierten Lichtsignalen und Tönen, um danach mit einer gelungenen Arbeitsteilung in den Tag zu starten: Die Roboter übernehmen standardisierte, sich wiederholende Vorgänge oder solche, die Präzision und Kraft benötigen. Dagegen beschäftigen sich die Mitarbeitenden mit Werkstücken, die schwierig zu handhaben sind oder mit neuartigen Situationen, die flexibles Verhalten erfordern.

Wenn Roboter Empathie zeigen, werden Menschen hilfsbereiter

Ein Experiment der Hochschule Coburg (Kühnlenz, Busse, Förtsch, Wolf & Kühnlenz, 2018) hat ergeben, dass Roboter bei Menschen Hilfsbereitschaft auslösen. Der für den Versuch verwendete Roboter ist dem Erscheinungsbild des Menschen nachempfunden und heisst Nao (siehe Abbildung). Nao hat Arme, Beine und ein Gesicht. Allerdings kann er keine menschliche Mimik nachahmen. Nao wurde als Aushilfsperson in einen Supermarkt gestellt, um KundInnen um einen Gefallen zu bitten. Diese sollten ihm Namen von verschiedenen Produkten nennen, weil er sie zum Üben brauche. Die Anzahl genannter Produkte bildete die Messgrösse für die Hilfsbereitschaft. Das Ergebnis: Passte sich der Roboter den Menschen emotional an, waren sie eher bereit ihm zu helfen. Emotional anpassen heisst, Nao vermittelte den Versuchspersonen, dass er ihre Gefühle verstehe. So fragte er beispielsweise, wie sich sein Gegenüber gerade fühlt, um darauf zu antworten, dass es ihm genauso gehe.

Die Versuchspersonen waren nicht nur hilfsbereiter, sondern schrieben dem Roboter auch menschliche Eigenschaften zu und empfanden ihm gegenüber Empathie. Dies traf jedoch nur zu, wenn sie vorher schon Erfahrungen mit Robotern machen konnten. Die WissenschaftlerInnen interpretieren die Ergebnisse so, dass fehlende Mimik bei Robotern durch emotionale Anpassung mittels Sprache wettgemacht wird. Sie empfehlen deshalb, eine entsprechende Bindungsphase zwischen Mensch und Maschine einzuplanen, um die Zusammenarbeit zwischen beiden zu verbessern.

Ob sich damit menschenähnliches bzw. kollegiales Verhalten von Produktionsrobotern durchsetzen wird? Fraglich. Möglicherweise ist es für viele Mitarbeitende wichtig, klar zu unterscheiden, ob das Gegenüber ein Mensch oder ein Roboter ist. Dieses Bewusstsein könnte sogar Voraussetzung sein, um die Fähigkeiten und Begrenzungen der Roboter richtig einzuschätzen, sie entsprechend zu steuern und Fehler zu vermeiden.

Wenn Roboter ein „künstliches Bewusstsein“ haben, werden sie zur Bedrohung?

Zur neueren Generation von Robotern gehört ein interaktiver Avatar, den IBM Watson in Kooperation mit der neuseeländischen Firma "Soul Machines" entwickelt hat. Dieser ist in der Lage Mimik, Gestik und Stimme seines Gesprächspartners emotional zu analysieren und zu bewerten. Entsprechend passt er sich in der Kommunikation dem Menschen emotional an. Der Avatar lernt ausserdem durch die Interaktion mit dem Menschen dazu. Indem beim Avatar die neuronale Aktivität des menschlichen Gehirns simuliert wird, entwickelt er ein "künstliches Bewusstsein". Hierdurch wird es ihm möglich „menschlich(er)“ zu kommunizieren.

  

Shantenu Agarwal von IBM Watson kommuniziert mit dem Avatar Roboter "Rachel" an der LendIt Konferenz in New York City, 2017.

Haben wir nun den perfekten Arbeitskollegen bzw. die perfekte -kollegin gefunden, mit dem/der wir uns super verstehen und reibungslos zusammenarbeiten? Der/die wie ein/e Freund/in nur das Beste für mich will? Oder stellt die „Soul Machine“ eine hyperintelligente Bedrohung dar? Gute Frage.

Zu klären gilt, wie perfekt dieser Avatar wirklich ist. Ist er in der Lage, Mikroexpressionen immer richtig zu interpretieren, ja sogar zwischen echten und gespielten Emotionen zu unterscheiden? Und wurden bei der Programmierung auch moralische Aspekte berücksichtigt? Der von Microsoft entwickelte Chatbot Tay, welcher die Sprache von US-Teenagern simulieren sollte, verbreitete beispielsweise beleidigende, rassistische Tweets. Deswegen wurde Tay bereits 16 Stunden nach der Inbetriebnahme abgestellt (Vincent, 2018). Daneben gibt es auch Chatbots, die nach programmierten moralischen Regeln funktionieren. Der an der Fachhochschule Nordwestschweiz (FHNW) entwickelte Bestbot, der zurzeit noch das Labor hütet, macht dem Benutzer beispielsweise immer wieder klar, dass er eine Maschine ist (The Bestbot Project, 2018). Zudem macht er auch transparent, woher er seine Informationen bezieht.

Die Ethik-Diskussion rundum KI und Robotern ist noch nicht abgeschlossen. Ebenso wird der Ruf nach gesetzlichen Regulierungen und Grundsätzen zur Unternehmensführung bei KI-Firmen laut. Bevor Mensch und Roboter effizient und harmonisch zusammenarbeiten, müssen Wissenschaftler und Ethiker sowie Entwickler und Hersteller wohl eine Form der fruchtbaren Zusammenarbeit finden.

###

Quellen und weiterführende Informationen

automatica (2018). Mensch-Roboter-Kollaboration.

Bendel, O. (2016). Die Moral in der Maschine: Beiträge zu Roboter- und Maschinenethik. Zürich: Kindle Edition.

Kremer. D. (2018). Robotik für den Menschen - Zukunftsszenarien der Mensch-Roboter-Kollaboration im Jahr 2030. Forschungsprojekt AQUIAS.

Kühnlenz, B., Busse, F., Förtsch, P., Wolf, M. & Kühnlenz, K. (2018). Effect of Explicit Emotional Adaptation on Prosocial Behavior of Humans towards Robots Depends on Prior Robot Experience.

Laukenmann, J. (2018). Chatbot mit Gespür für Emotionen, Tages-Anzeiger, 12.12.2018.

LENDIT Conference (2017). IBM Watson presents Soul Machines.

Rötzer, F. Herausgeber (2016). Programmierte Ethik. Hannover: Heise Medien.

The Bestbot Project (2019).

Vincent, J. (2018). Twitter taught Microsoft’s AI chatbot to be a racist asshole in less than a day. The Verge, 24.03.2016.

Facebook Twitter Xing LinkedIn Whatsapp E-Mail