unheimlicher Roboter unheimlicher Roboter
Brauchen wir Angst vor Algorithmen und KI zu haben? (Symbolbild)

Algorithmen und künstliche Intelligenz (KI) erleichtern immer mehr unseren Alltag. Das Navigationssystem im Auto schlägt uns die ideale Route vor. Online Shops und Buchungsplattformen wissen, welche Produkte und Reisedestinationen wir bevorzugen. Chatbots helfen uns sofort und ausserhalb der Öffnungszeiten weiter. Dennoch haben viele Menschen Angst vor selbstlernenden Algorithmen. Ist diese Angst berechtigt? Und wenn ja, welche Auswege gibt es aus der Algorithmus-Aversion?

Grund genug in Abwehrhaltung zu gehen?

Bei KI sind meistens Computerprogramme gemeint, die mittels Algorithmen intelligentes Verhalten des Menschen simulieren und dadurch Probleme relativ eigenständig bearbeiten können. KI mag für viele Lebensbereiche verheissungsvoll tönen und verspricht insbesondere langweilige Routinetätigkeiten zu reduzieren, sodass sich Menschen auf interessantere Aufgaben konzentrieren können. Gleichwohl fürchten sich laut MIT-Professorin Renée Gosline sechs von zehn Menschen vor Algorithmen (2019). Die Gründe zur Besorgnis und Ablehnung sind zahlreich und so verwundert es auch nicht, dass immerhin gut vier von zehn Menschen künstliche Intelligenz verbieten würden (Bitkom, 2020).

Man denke hier beispielsweise an die selbstfahrenden Autos, die sich "verrechnet" haben und tödliche Unfälle mit Passanten verursachten. Auch der Supercomputer Watson birgt tödliches Potenzial.  Statt den Ärzten bei der Krebstherapie zu helfen, indem er wertvolle Erkenntnisse aus den umfangreichen Patienten- und Forschungsdatenbanken liefern sollte, gab er oft falsche Behandlungsempfehlungen ab. Das 2013 gross angekündigte Pilotprojekt liegt unterdessen auf Eis (Krempl, 2018).

Dass Facebook unsere Gefühle beeinflussen kann, stimmt bedenklich. In einem Experiment wurde der Newsfeed von über 600'000 Facebook-Usern manipuliert (Kramer, Guillory & Hancock, 2014): Wem überwiegend positive Nachrichten angezeigt wurden, produzierte mehr positive Beiträge und umgekehrt, wer mehrheitlich Negatives zu lesen bekam, postete mehr Missgelauntes. Solche Phänomene der emotionalen Beeinflussung werden zuweilen in der politischen Kommunikation auf den sozialen Medienplattformen zur gezielten Manipulation genutzt, beispielsweise bei den Präsidentschaftswahlen in den USA oder der Brexit-Abstimmung (Geissler & Tesch).

Last but not least, sei hier der COMPAS-Algorithmus erwähnt. Dieser wird in den Vereinigten Staaten eingesetzt, um das Rückfallrisiko von Straftätern vorherzusagen. Dabei werden Afroamerikaner häufiger zu Unrecht in die hohe Risikogruppe eingestuft, Weisse dagegen häufiger zu Unrecht der niedrigen Risikogruppe zugeteilt. (Science Media Center, 2020). Dies kommt einer rassistischen Voreingenommenheit gleich.

Was hinter der Algorithmus-Aversion steckt

Oft steckt mangelndes Wissen, Angst vor Kontrolle und Jobverlust hinter der Abneigung gegenüber Algorithmen. Auch wenn manche schon einmal von künstlicher Intelligenz gehört oder gelesen haben, ja sogar glauben, erklären zu können, was man unter KI versteht, bleibt sie immer noch für viele eine Blackbox: Man weiss nicht genau, wie Algorithmen funktionieren, wie sie ihre Vorhersagen machen und welche Auswirkungen sie haben. Sie gelten zudem als unecht und unmoralisch. Fast drei von vier Menschen sind überzeugt, dass KI in Zukunft die Arbeitnehmer stärker kontrollieren wird. Sechs von zehn Menschen bestätigen, dass KI zum Abbau von Arbeitsplätzen führen wird (Bitcom, 2020).

Die Frage bleibt: Übernehmen Algorithmen tatsächlich immer mehr die Kontrolle über uns und unsere Einstellungen bzw. Entscheidungen? Und wollen wir wirklich alle Entscheidungen an Maschinen abgeben?

Konstruktiver Umgang mit Algorithmen und künstlicher Intelligenz

Vor Algorithmen brauchen wir keine Angst zu haben, vielmehr vor dem falschen Gebrauch. Der zugrunde liegende Prozess besteht aus einfacher Mathematik bzw. eindeutigen Schritt-für-Schritt-Anleitungen zur Lösung von Problemen. Trotzdem kann ein selbstlernender Algorithmus, der Tausende oder Millionen von Faktoren enthält, es für den Menschen schwierig machen, den Prozess zu verstehen.

Aufklärung und Transparenz sind mögliche Lösungen, Ängste und Abwehrhaltung gegenüber Algorithmen zu mindern. Beispielsweise mit einer KI-Bildungsoffensive, welche das Bewusstsein für die Art und Weise schärft, wie Algorithmen eingesetzt werden und die Chancen und Herausforderungen von KI zur Debatte stellt.

Ebenso gilt es, dem Bedürfnis nach vermehrter Kontrolle über künstliche Intelligenz nachzukommen. So könnte der Einbezug eines erweiterten Personenkreises Vertrauen schaffen, dass die Algorithmen keinem Bias unterliegen und keine falschen Entscheidungen treffen. Als Beispiel seien hier Mitarbeitende genannt, die bei der Entwicklung von KI-basierten Leistungsmanagement-Systemen Ihre Sichtweisen zur Konzeption der dahinterliegenden Entscheidungsstrukturen bzw. Algorithmen einbringen.

Allerdings gibt es insbesondere bei moralischen Entscheidungen nicht immer die richtige Entscheidung. Wer soll beispielsweise überleben, wenn bei einem selbstfahrenden Auto die Bremsen versagen und dieses auf dem Zebrastreifen in einen Menschen prallt? Die ältere Frau oder das Kind? Eine schier unlösbare Aufgabe. (Obschon hier der Ausweg bei der künftigen Minimierung des Crash-Risikos von autonomen Autos liegen könnte.)

Vor diesem Hintergrund wird der Ruf nach klaren und einheitlichen ethischen Richtlinien für künstliche Intelligenz laut. Laut einer im Nature of Machine Intelligence veröffentlichten Studie (2019) ist zwar eine globale Übereinstimmung von fünf ethischen Grundsätzen auszumachen: Transparenz, Gerechtigkeit und Fairness, Nicht-Missbräuchlichkeit, Verantwortung und Datenschutz. Doch werden die genannten ethischen Prinzipien unterschiedlich gedeutet und bringen manchmal sogar widersprüchliche Handlungsempfehlungen hervor.

Seit kurzem hat die Schweiz eine Initiative ins Leben gerufen (Swiss Digital Initiative, SDI) mit dem Ziel, ethische Standards in einer digitalen Welt zu implementieren. Dabei sollen Praktiken und Werkzeuge öffentlich geteilt werden. Ein erster Schritt, der zu einem globalen Dialog über die Ethik der Digitalisierung beiträgt.

Fazit

Sicherlich stehen wir mehr oder weniger bewusst unter dem Einfluss von Algorithmen und künstlicher Intelligenz. Die „menschliche Maschine“ kann neben all den positiven Erleichterungen des Lebens durchaus mit etwas Unheimlichem ja sogar mit Unheil assoziiert werden. Nichtsdestotrotz bietet sie uns auch Chancen – insbesondere im Gesundheitswesen, Personal- und Bildungsbereich oder Transport und Verkehr. Letztendlich bleibt es immer an uns selbst zu entscheiden, ob wir ihr vertrauen und wie wir sie nutzen.

Quellen und weiterführende Informationen

Berg, A., Dehmel, S. (2020). Künstliche Intelligenz. Bitcom Research.

Digital Switzerland. (2019). Swiss Digital Initiative.

Geissler, H., Tensch, H. Wenn Algorithmen Meinung machen. Politik und Kommunikation. 

Jobin A., Ienca M. & Vayena E. (2019). The global landscape of AI ethics guidelines. Nature Machine Intelligence 1, 389–399.

Kramer, A. Guillory, J. & Hancock, J. (2014). Experimental evidence of massive-scale emotional contagion through social networks. PNAS 111 (24)

Krempl, S. (2018). Kampf gegen Krebs: Dr. Watson enttäuscht Erwartungen. Heise online.

MIT Initiative on the Digital Economy (2019). MIT IDE Annual Conference, YouTube. 

Science Media Center Germany (2020). Genauigkeit von Algorithmen bei Vorhersage für Risiko von Rückfallkriminalität.

Autor/in
Irene-Willi

Irene Willi Kägi

Zum Profil
Coaching | Digitalisierung | Human Resource Management | Kommunikation | Leadership | Organisationsentwicklung | Psychologie | Wirtschaftspsychologie
more...

CAS FH in Digitale Transformation von Unternehmen

Certificate of Advanced Studies (CAS)

Mehr laden
Case Management | Digitalisierung | Wirtschaft
more...

CAS FH in KI-Management (Künstliche Intelligenz / Artificial Intelligence)

Certificate of Advanced Studies (CAS)

Mehr laden
Digitalisierung | Innovationsmanagement | Wirtschaft
more...
Facebook Twitter Xing LinkedIn WhatsApp E-Mail