Oliver Bendel: Ich sehe nicht die Gefahr, dass die Maschinen die Weltherrschaft übernehmen. Oliver Bendel: Ich sehe nicht die Gefahr, dass die Maschinen die Weltherrschaft übernehmen.
Prof. Dr. Oliver Bendel über die Entwicklung der künstlichen Intelligenz (Bild: Kalaidos FH)

Ein japanisches Hotel hat im grossen Stil auf Roboter gesetzt, um dem Arbeitskräftemangel entgegenzuwirken, und ist dabei in mancher Hinsicht gescheitert. Anstatt bei der Arbeit entlastet zu werden, war das Personal damit beschäftigt, die Probleme der Gäste mit den Robotern zu beheben: z.B. der Concierge-Roboter, der die Fragen der Gäste nicht befriedigend beantworten konnte, oder der persönliche virtuelle Assistent, der sich nachts selbst einschaltete und mit seinen Äusserungen die Schlafenden weckte. Inwiefern ist die Entwicklung in der Robotik und künstlichen Intelligenz (KI) so fortgeschritten, dass die Systeme Mitarbeitende ersetzen bzw. „sinnvoll“ unterstützen können?

Wir haben uns mit Prof. Dr. Oliver Bendel, Experte für Informationsethik und Maschinenethik, über das Verhältnis zwischen Mensch und Maschine unterhalten. Im Interview erläutert er, wie die heutigen Maschinen beschaffen sind und wie sie in Zukunft gestaltet sein werden und sollen.

Unternehmen setzen künstliche Intelligenz heute schon bei der Rekrutierung von neuen Mitarbeitenden ein. Solche Selektionsprozesse sind effizienter und weniger von Wahrnehmungsverzerrungen betroffen. Ist der Roboter der bessere Recruiter als der Mensch?

Zunächst einmal ist die Frage, ob KI-Systeme wirklich weniger von Wahrnehmungsverzerrungen betroffen sind. Es kommt ganz auf den Ansatz und die Umsetzung an. Und dann ist die Frage, ob eine subjektive Wahrnehmung immer der falsche Weg ist. Ich halte persönlich viel vom Bauchgefühl. Gerade der scheinbar objektive Roboter, den man haben will, könnte sich falsch entscheiden. Ich finde übrigens auch Bilder bei Bewerbungen nicht schlecht. Diese liefern wertvolle Informationen.

Wie gehen Unternehmen am besten mit Berührungsängsten und Vorurteilen punkto Roboter-Recruiting um?

Mir sind Bewerbungsverfahren in der Schweiz bekannt, bei denen die Interessenten über eine Kamera erfasst und nicht darüber informiert werden, was mit den persönlichen Daten geschieht. Betriebe sollten Transparenz schaffen, die Bewerber darüber in Kenntnis setzen, ob Menschen oder Maschinen die Auswertungen vornehmen, und vor allem Alternativen einräumen. Ein guter Bewerber könnte gerade der/die sein, der sich der Bewertung durch KI-Systeme verweigert.

Eine Schweizer Versicherung setzt auf Virtual Assistants, welche Mitarbeitende in der Beurteilung der eigenen Fähigkeiten sowie bei der Suche nach den passenden Weiterbildungs- und Stellenangeboten unterstützen. Bieten solche Chatbots neben Vorteilen auch Risiken?

Chatbots auf Websites waren um die Jahrtausendwende ein Hype und sind es wieder. Nun sind sie auch in Instant Messengers zu finden. Obwohl man sie mehr und mehr mit KI ausrüstet, werden sie den Anforderungen kaum gerecht. Es ist in einigen Fällen sogar so, dass Vernetzung und Nutzung von Machine Learning und Deep Learning die Chatbots schwerer einschätzbar und weniger verlässlich machen. Risiken bestehen nicht nur darin, dass Chatbots mich nicht richtig verstehen und mir falsche Vorschläge unterbreiten, sondern auch darin, dass sie mich protokollieren, klassifizieren, ausspionieren. Bei virtuellen Assistenten im engeren Sinne, also bei Sprachassistenten wie Siri, Cortana und Alexa, kommt das Problem hinzu, dass manche von ihnen meine Stimme analysieren. Die Stimme verrät viel über einen Menschen.

Werden Arbeitnehmer schon bald Roboter als Kollegen haben? Wenn ja, in welchen Funktionen?

Schon heute sind Roboter als Kollegen verbreitet, etwa als Kooperations- und Kollaborationsroboter in Produktion und Logistik. In der Therapie sind Roboter ebenfalls im unterstützenden und begleitenden Einsatz. In der Pflege drängen sie mehr und mehr auf den Markt. Es gibt erste Kleinserien in Europa und China. Noch muss die Pflegekraft keine Angst haben, im Gegenteil. Der Roboter kann eine Entlastung bei der Arbeit sein. Neben Hardwarerobotern spielen Softwareroboter wie Chatbots und Sprachassistenten sowie KI-Systeme wie IBM Watson eine Rolle, und zwar in etlichen Branchen und Berufen.

Wie muss man sich den Umgang mit diesen Robotern vorstellen? Braucht es dazu Regeln bzw. eine Art Verhaltenskodex?

Zunächst einmal existieren bei Hardwarerobotern verbindliche Normen. Gerade die Industrie- und Servicerobotik ist stark reguliert. Was den weiteren Umgang anbetrifft, kommen soziale Robotik und Maschinenethik ins Spiel. Die soziale Robotik erforscht, wie Maschinen so gestaltet werden können, dass sie vertrauenswürdig und verlässlich wirken und uns keine Angst einjagen – dass sie sozial im mehrfachen Sinne sind. Die Maschinenethik pflanzt teilautonomen und autonomen Systemen moralische Regeln ein. Es entsteht eine maschinelle Moral, die gerade in geschlossenen und halboffenen Umgebungen nützlich und wichtig sein kann. Sie kann sich auf Menschen, aber ebenso auf Tiere beziehen.

Es gibt bereits den Pflegeroboter, der sich beispielsweise entscheiden muss, ob er seine eigenen Batterien aufladen oder den Patienten weiter betreuen soll. Sind Roboter in der Lage, immer die richtigen Entscheidungen zu treffen?

Das ist eine Arbeit von Michael Anderson, Susan Leigh Anderson und Vincent Berenz. Es handelt sich um einen angepassten und erweiterten Nao in einer simulierten Umgebung der Altenbetreuung. Die beiden amerikanischen Maschinenethiker habe ich nach Berlin eingeladen, wo sie ihr Projekt präsentieren. Wir bauen gerade ebenfalls ein System, das seine Moral anpasst. Natürlich sind Roboter nicht in der Lage, immer die richtigen Entscheidungen zu treffen. Menschen genauso wenig. Es stellt sich die Frage der Verantwortung. Manche Entscheidungen, etwa über Leben und Tod von Menschen, müssen Menschen treffen. Der Roboter kann keine Verantwortung tragen.

Roboter, die auf KI-Basis arbeiten, können sich selbst weiterentwickeln. Müssen wir uns daher vor unmoralischen Robotern fürchten? Oder anders ausgedrückt: Lässt sich Künstliche Intelligenz kontrollieren?

Wir müssen uns vor allem vor unmoralischen Menschen fürchten, die Roboter zu bestimmten Zwecken gebrauchen und missbrauchen. Im Labor entwickeln wir moralische und unmoralische Maschinen, um sie zu verstehen und zu erforschen. Manche lassen wir bewusst nicht in die Welt. Das ist unsere Verantwortung als Wissenschaftler. Künstliche Intelligenz lässt sich auf vielfältige Weise kontrollieren. Man kann etwa – das tun wir in der Maschinenethik – Metaregeln verwenden. Man kann zudem Verbote aussprechen. Ich sehe nicht die Gefahr, dass die Maschinen die Weltherrschaft übernehmen.

###

Prof. Dr. Oliver Bendel studierte an der Universität Konstanz und promovierte an der Universität St. Gallen. Er ist Dozent an der Hochschule für Wirtschaft FHNW für Wirtschaftsinformatik, Wirtschaftsethik und Informationsethik und forscht in Informations-, Roboter- und Maschinenethik.

Lesen Sie auch im Kalaidos Blog:

Innovatives HR: Award für Coop, AXA und UBS
Risiken Künstlicher Intelligenz
Wie KI Firmen unterstützt (1/2)
Wie KI Firmen unterstützt (2/2)
Wenn Roboter zu Arbeitskollegen werden
Wo KI die Schweiz regiert

Quellen und weiterführende Informationen

Anderson, M., Leigh Anderson, S. & Berenz, V. (2017). A Value Driven Agent: Instantiation of a Case-Supported Principle-Based Behavior Paradigm.

Bendel, O. (2016). Die Moral in der Maschine: Beiträge zu Roboter- und Maschinenethik. Zürich: Kindle Edition.

Freigang, C. (2019) Das erste Roboterhotel entlässt Roboter. Tages-Anzeiger.

Facebook Twitter Xing LinkedIn WhatsApp E-Mail