Algorithmen gewinnen immer mehr an Einfluss in unserem Alltag. Sie steuern Verkehrsampeln, reduzieren Stau, schützen uns vor Cybercrime und Spam. Ausgelöst durch den Netflix-Film „The Social Dilemma“ findet zurzeit eine Diskussion zu Algorithmen und Ethik statt. Im Rahmen unserer Projekte haben wir immer häufiger mit Algorithmen zu tun und betrachten deren Vor- und Nachteile unter anderem aus verhaltensökonomischer Sicht. Ein Praxisbericht:
If you really want to improve the quality of decision making use algorithms. Wherever you can. If you can replace judgements by rules and algorithms, they’ll do better. There are big social costs to trusting and allowing algorithms to make decisions, but the decisions are likely to be better.
Von wem stammt dieses Zitat? Von einem Google Manager oder einem bekannten KI-Forscher? Weder noch. Tatsächlich stammen die Aussagen aus einem Interview von Daniel Kahneman, dem Wirtschaftsnobelpreisträger und Verhaltensökonom ( Knowledge Project, Podcast, ab Minute 27:00).
Kontext von Kahnemans Aussage ist, dass Menschen in vielen Situationen stark von Intuition beeinflusst sind. Wo Intuition im Spiel ist, können auch kognitive Verzerrungen (Voreingenommenheit, Bias) auftauchen. Als Verhaltensökonomen kennen wir diese Thematik nur zu gut. Wir beschäftigen uns laufend damit, Entscheidungsumgebungen so zu gestalten, dass Voreingenommenheit abgeschwächt oder eliminiert wird. Algorithmen hingegen folgen Regeln. Auf Algorithmen basierende Entscheidungen[i] sind deshalb besser als diejenigen von Menschen, so zumindest die Theorie.
Als UX Designer und Verhaltensökonominnen sehen wir immer häufiger Beispiele, in denen Menschen in ihren Entscheidungen von Algorithmen unterstützt werden. Eine Art Hybrid-Modell also, in dem die menschliche Entscheidung durch den Algorithmus verbessert werden soll, der Algorithmus die Aufgabe aber nicht komplett übernehmen kann. Im Umgang mit solchen Systemen haben wir bislang zwei entgegengesetzte Problem-Typen gesehen:
Beim Problemtyp I trauen die Menschen den Vorschlägen des Algorithmus nicht. Oft hat das mit Selbstüberschätzung (overconfidence) zu tun. Eine Spezialform dieses Bias ist der Dunning-Kruger-Effekt, der besagt, dass das Mass unserer Selbstüberschätzung in Bezug auf eine Tätigkeit, negativ mit unseren tatsächlichen Fähigkeiten korreliert. Mit anderen Worten, je schlechter wir darin sind etwas Bestimmtes zu tun, desto stärker überschätzen wir unsere Fähigkeiten in Bezug auf diese spezifische Tätigkeit. Ein weiterer Faktor ist mangelnde Transparenz: Wenn wir nicht verstehen, wie ein Algorithmus funktioniert, sind wir in der Regel skeptischer.
Die Herausforderung liegt darin, die Menschen davon zu überzeugen, dass ein Algorithmus für ihre Entscheidungen nützliche Informationen und Hilfestellungen liefern kann.
Beim zweiten Typ hinterfragen die Menschen den Einsatz eines Algorithmus nicht oder nur flüchtig. Sie akzeptieren dessen Handlungsempfehlungen und führen sie aus. Das ist oft dann der Fall, wenn die Betroffenen gut verstehen, welche Informationen der Algorithmus zur Entscheidungsdefinition nutzt.
Die Empfehlungen des Algorithmus wirken dann als starke Anker für den Menschen, der die Entscheidung letztlich verantwortet. Hier müssen wir nach Lösungen suchen, die die Entscheidenden befähigen, ihre eigene Erfahrung stärker zu gewichten und in komplexeren Fällen Mut zur Abweichung von den Handlungsempfehlungen eines Algorithmus zu entwickeln.
Wir Ergonomen haben primär mit Fällen zu tun, in denen Algorithmen lediglich Entscheidungshilfen ausgeben und darauf gestützt ein Mensch die Entscheidung fällt und auch verantwortet. Kahnemans Empfehlung „use algorithms, wherever you can“ steht aber in einem breiteren Kontext und er erwähnt auch soziale Kosten.
Was passiert, wenn Algorithmen zu fehlerhaften Resultaten führen? Was, wenn ein autonomes Fahrzeug einen tödlichen Unfall verursacht? Wie fühlen wir uns, wenn Algorithmen in Arbeitsämtern mitentscheiden, wer bei der Besetzung von Stellen priorisiert wird? Würden wir es befürworten, wenn Algorithmen die Rückfallwahrscheinlichkeit von Straftätern abschätzen und daraus Empfehlungen zum Strafmass abgeben?
Diese Fragen sind nicht einfach zu beantworten. Fakt ist, dass im selben Kontext gefällte Entscheidungen von Menschen auch nicht perfekt sind. Können wir sicher sein, dass eine Richterin ohne die Unterstützung eines Algorithmus besser entscheidet? Ist der Drängler auf der Autobahn ein besserer Autofahrer als ein selbstfahrendes Fahrzeug?
Wenn wir individuelle Anwendungen bewerten, können beide der zuvor erwähnten Problemtypen eine Rolle spielen. Wir überschätzen einerseits die Fähigkeiten der Menschen, die im Status Quo Entscheidungen treffen und stellen diese nicht in Frage (Problemtyp I).
Andererseits befürchten wir, dass in Prozessen, in denen Algorithmen zur Entscheidungsfindung eingesetzt werden, deren Auswirkungen zu wenig kontrolliert werden (Problemtyp II). In vielen Fällen ist die Funktionsweise der Algorithmen auch nicht öffentlich zugänglich dokumentiert, was Unsicherheit schafft und die Angst vor diesem Problemtyp II verschärft.
Wir sehen grosses Potential in der Anwendung von Algorithmen. Sie können helfen, menschliche Voreingenommenheit zu eliminieren und Entscheidungen zu verbessern. Trotzdem ist gesunde Skepsis angebracht: Algorithmen sind keineswegs frei von kognitiven Verzerrungen. Algorithmen sind von Menschen programmiert. Menschen geben die Ziele vor, anhand derer optimiert wird. Hier können systematische Biases entstehen, die Entwickler auf den Algorithmus übertragen.
Selten sind den Entwicklern die gesellschaftlichen Implikationen ihrer Algorithmen bewusst. Transparenz in Bezug auf die Funktionsweisen von Algorithmen ist eine wichtige Bedingung für ein gesundes Mass an Kontrolle und den verantwortungsvollen Einsatz von Algorithmen.
[i] viele Algorithmen sind regelbasiert und treffen im philosophischen Sinne keine echten Entscheidungen. Vielmehr setzen sie eine durch die Regel definierte Entscheidungslogik einfach konsequent um.
Wir freuen uns, von Ihnen zu hören.
Expert Behavioral Customer Experience, Consultant
Remo Bebié Gut is a behavioral economist and communications expert. A high-speed bicycle commuter with a can-do mentality, he applies behavioural economics to product development and acts as a communications advisor.