Selbstfahrendes Auto hält vor Fussgänger auf Zebrastreifen Selbstfahrendes Auto hält vor Fussgänger auf Zebrastreifen
Eine scheinbar eindeutige Situation – doch würde das selbstfahrende Auto auch in einer komplexeren Gefahrensituation vor dem Menschen anhalten? (Symbolbild)

Es ist Samstagnachmittag. Ein Auto steuert auf eine Kreuzung zu, plötzlich reisst sich der Hund eines Passanten von der Leine los. Soll das Auto den Hund überfahren oder ausweichen und in eine Schaufensterscheibe fahren? Wahrscheinlich wäre ein Sachschaden weniger schlimm. Aber was, wenn ein Kind sich von der Hand des Vaters losreissen und vor dem Schaufenster eine ältere Dame mit einem Rollator stehen würde?

Trolley-Problem: Opfern, um zu retten

Das Trolley-Problem ist ein Gedankenexperiment, welches bereits 1930 von Karl Engisch entwickelt wurde. Damals handelte es sich noch um einen Zug und die Frage, ob ein Mensch eine Weiche umstellen darf, um eine einzelne Person zu opfern und dadurch andere zu retten.

Mit der technischen Entwicklung wurden auch immer wieder neue Varianten durchgespielt (vgl. SRF Kultur Sternstunden, 2015). Was sich im ersten Moment noch einfach anhört, wird immer schwieriger, je mehr Fragen wir stellen, um eine scheinbar gute Entscheidung zu treffen. Doch wenn man sich in eine Simulation hineinbegeben würde, in der jetzt sofort eine Entscheidung getroffen werden muss, wird das Dilemma besonders deutlich – es gibt keine gute Entscheidung.

Das MIT hat auf der Plattform «Moral Machine» verschiedene Szenarien zur Verfügung gestellt, mit denen Sie testen können, wie Sie zu moralischen Entscheidungen gelangen. Wenn Sie alle Szenarien beurteilen, können Sie am Ende sehen, ob Sie sich z.B. häufiger für Kinder als für alte Menschen entscheiden oder ob sie lieber Tiere retten und dafür Kriminelle opfern.

Anwendungsbeispiel: Selbststeuernde Autos

Die Frage ist, müssen Sie, müssen wir diese Entscheidungen überhaupt treffen? Die Antwort ist: Ja. Wenn ein:e Softwareentwickler:in die Software von selbststeuernden Autos programmieren soll, muss klar sein, wie die Algorithmen entscheiden sollen. In unserem Kulturkreis gilt häufig die Losung: Frauen und Kinder zuerst – folglich wird sich die Mehrheit der Personen sich dafür entscheiden, die Kinder zu retten – und damit verbunden z.B. ältere Personen zu opfern. Das eine geht nicht ohne das andere. In Japan hingegen würden nicht Kinder oder schwangere Frauen gerettet, sondern ältere Menschen. Das kulturelle Wertesystem unterscheidet sich und damit die getroffenen und als moralisch empfundenen Entscheidungen. Es stellt sich die Frage, ob die der KI zugrunde liegenden Algorithmen unterschiedlich programmiert werden müssen. Würde dies bedeuten, dass in ein paar Jahren selbstfahrende Autos beim Überqueren einer Landesgrenze auf einmal anders reagieren?

Was die Programmierung von selbstfahrenden Autos betrifft, gibt es mindestens zwei weitere ungelöste Dilemmata:

  • Erstens: Autos werden immer sicherer gebaut und sollen ihre Insassen und Insassinnen schützen. Dies führt dazu, auch selbstfahrende Assistenten so zu programmieren, dass sie die Mitfahrer:innen unterstützen und ggf. schützen. Das könnte bedeuten, dass der/die Fahrer:in gerettet wird und eine Gruppe von Personen geopfert. Kann man Menschenleben gegeneinander aufwiegen? Die Standardantwort lautet: Nein. Doch glauben Sie das wirklich? Und ist es gerecht, einen Autofahrer oder eine Autofahrerin zu retten, der oder die ggf. einen Fahrfehler gemacht hat, nur weil er oder sie sich ein Auto leisten konnte, das ein solches Unterstützungsprogramm hat?
  • Zweitens: Wir müssen Daten teilen – viele Daten. Wenn die Algorithmen entsprechend der moralischen Mehrheitsmeinung programmiert werden, müssen viele Daten geteilt werden, denn woher soll sonst die KI entscheiden, wer geopfert wird? Ist die Person, die humpelt, tatsächlich alt – oder ein Profisportler, der sich nur den Fuss verstaucht hat? Ist die als kriminell bezeichnete Person wirklich so kriminell, dass es zur Entscheidung beiträgt oder hat sie nur eine Busse erhalten, weil sie wiederholt bei der SBB kein Ticket gelöst hat, um stattdessen Katzenfutter zu kaufen? Oder ist der/die Fahrer:in aufgrund eines Steuerbetrugs zu Geld gekommen und konnte sich nur deshalb das Auto leisten?

Anwendung in der Medizin

Wir kommen hier zu keiner Lösung, zumindest kann ich Ihnen keine nennen. Deshalb die Frage: Wie ist das eigentlich in der Medizin? Eine KI kann radiologische Aufnahmen auswerten oder Behandlungsvorschläge unterbreiten. Doch niemand würde auf die Idee kommen, Mediziner:innen abzuschaffen. Es stellt sich ein ungutes Gefühl ein: Möchte ich, dass KI eine Diagnose stellt und Mediziner:innen mir diese nur noch mitteilen? Vor ein paar Jahren waren die Fehlerraten noch sehr hoch, gehen aber immer weiter zurück. Doch wir schrecken davor zurück, dass in dieser Reihenfolge (KI – Arzt oder Ärztin) die Diagnosestellung erfolgt. Die Angst vor der «Bias», der Verzerrung, ist durchaus verständlich, evtl. verlässt er oder sie sich zu sehr auf die KI, gar nicht unbedingt aus Trägheit, sondern aufgrund des Bestätigungseffekts. KI hilft stattdessen z.B. bei der Triage und sortiert radiologische Aufnahmen vor, die in dieser Reihenfolge ausgewertet werden sollten. Oder nach der Diagnosestellung durch einen Arzt oder eine Ärztin wird noch einmal die KI gefragt, was sie sieht und bei der Diagnosestellung bislang nicht aufgefallen ist. Auf dieses Vorgehen können wir uns scheinbar besser einlassen. Dabei könnte auch hier durch die Triage ein:e Patient:in zu spät begutachtet werden, das Risiko besteht. Trotz allem, KI unterstützt Spitäler immer mehr mit dem Ziel, die Patientensicherheit zu erhöhen und/oder die Arbeitsabläufe im Sinne der behandelnden Person zu verbessern.

Nicht die KI, sondern Menschen entscheiden über die Moral

KI bietet eine Vielzahl von Anwendungsmöglichkeiten. Sie nimmt uns Standardaufgaben ab. Aufgrund der Menge an Daten, mit denen wir tagtäglich konfrontiert werden, kann sie uns helfen zu fokussieren. Aus der Kombination von Daten ziehen wir Informationen, generieren Wissen und leiten Entscheidungen ab. Unsere Prüfinstanz, moralische Dilemmata zu erkennen, ist es, was uns als Menschen ausmacht. Wir haben Gefühle, die uns bestätigen oder verunsichern und die uns sagen, «was richtig ist». Eine KI arbeitet auf der Grundlage von Algorithmen. Wenn wir also möchten, dass KI «richtig» für uns entscheidet, muss offengelegt werden, wie sie programmiert wurde und darauf basierend arbeitet. Doch die Programmierung ist das, was uns fordert, denn wir müssen erst einmal für uns entscheiden, was wir wollen – vor diese Herausforderung stellt uns KI und sie nimmt uns die Entscheidung nicht ab.

Quellen und weiterführende Informationen

Awad, E., Bonnefon, J.-F., Shariff, A. & Rahwan, I. (2019). Die heikle Herausforderung, Maschinen Moral beizubringen: Ethische Dilemmas autonomer Fahrzeuge, NIM Marketing Intelligence Review 11(2), 42-47.

Gantsho, L. (2022). God does not play dice but self‑driving cars should, AI Ethics 2, 177-184. doi: 10.1007/s43681-021-00088-7

Moral Machine. 

Sparrow, R. (2021). Why machines cannot be moral, AI & Society 36,685-693. doi: 10.1007/s00146-020-01132-6

SRF Kultur Sternstunden. (2015). «STRASSENBAHN» – das philosophische Gedankenexperiment. YouTube.

Strickland, E. (2019). IBM Watson, heal thyself: How IBM overpromised and underdelivered on AI health care, in IEEE Spectrum 56(4), 24-31. doi: 10.1109/MSPEC.2019.8678513

Autor/in
Anne-Kathrin Bolender

Anne-Kathrin Bolender

Zum Profil
Projektmanagement | Supply Chain Management | Unternehmensführung
more...

CAS FH in KI-Management (Künstliche Intelligenz / Artificial Intelligence)

Certificate of Advanced Studies (CAS)

Mehr laden
Digitalisierung | Innovationsmanagement | Wirtschaft
more...
Kalaidos Talk: Künstliche Intelligenz und Ethik

Kalaidos Talk: Künstliche Intelligenz und Ethik (Podcast)

Talk mit Dr. Yoshija Walter, Studiengangsleiter und Dozent für Management & Digitalisierung

Beitrag lesen
Artificial Intelligence | Chatbot | Cyber Security | Datenschutz | Digitalisierung | Innovationsmanagement
more...
Facebook Twitter Xing LinkedIn WhatsApp E-Mail