Tückisches Vertrauen: Unternehmensethiker forscht zu Umgang mit KI
Warum forschen Sie zum Vertrauen in KI?
Philipp Schreck: KI wird in immer mehr gesellschaftlichen Bereichen eingesetzt. Sie sortiert für Arbeitgeber Bewerbungen vor, assistiert bei Kreditvergaben. Und sie unterstützt in den USA mitunter sogar Richter bei der Prognose, ob Angeklagte rückfällig werden könnten - das kann das Strafmaß beeinflussen. KI kann sich aber auch irren – oder diskriminieren. Ein 2018 bekannt gewordener Fall ist eine von Amazon entwickelte KI, die männliche Bewerber grundsätzlich besser bewertet hat als weibliche, weil sie Frauen für inkompetent hielt. Sie tat dies, weil sie auf Daten aus einer Zeit basierte, in der deutlich mehr Männer als Frauen eingestellt wurden, und sie deshalb Männlichkeit mit Kompetenz gleichsetzte. Zwar hat Amazon nach eigenen Angaben diese KI nie eingesetzt, jedoch stellt sich für mich als Unternehmensethiker die Frage: Wie gehen wir mit den Fehlern einer KI, wie diskriminierenden Empfehlungen, um? In Deutschland schreibt die Datenschutzgrundverordnung vor, dass keine Entscheidung, die direkte Auswirkungen auf eine Person hat, von einer KI alleine gefällt werden darf. Die letzte Entscheidung muss immer ein Mensch fällen. Aber: Können Menschen die Fehler einer KI erkennen und gegebenenfalls eingreifen? Aus der Sozialpsychologie wissen wir, dass Menschen oft zu unreflektiert dem Rat von Experten und Autoritäten folgen. Oft sogar dann, wenn sie vermuten, dass der Ratschlag falsch ist. Mich hat interessiert, ob das auch für den Einsatz von KI gilt.
Wie sind Sie vorgegangen?
Wir haben das Vertrauensspiel, ein etabliertes Experiment aus der Verhaltensökonomik, an unsere Frage angepasst. Bei dem Experiment spielen jeweils zwei Menschen, die sich nicht kennen, um Geld. Spieler B entscheidet, ob er mit A kooperieren oder ihn ausnutzen will. Spieler A entscheidet, ob er Spieler B vertraut und kooperiert; oder ihm misstraut und nicht kooperiert. Nur wenn beide sich vertrauen, können sich beide besserstellen. In jeder Runde spielen unterschiedliche Personen miteinander. In der vierten Runde haben wir den Teilnehmern zwei zusätzliche Informationen gegeben, bevor sie ihre Entscheidung trafen: Wir haben ihnen gezeigt, wie sich ihr Mitspieler in den vorherigen drei Runden verhalten hat. Und wir haben die Teilnehmer in Gruppen unterteilt und diesen unterschiedliche Verhaltensempfehlungen gegeben. Die erste erhielt eine Empfehlung, deren Text von einer KI generiert wurde. Bei der zweiten haben die Teilnehmenden denselben Text erhalten und ihnen wurde gesagt, dass er von einem Experten stamme. Eine dritte Gruppe erhielt keine Empfehlung. So konnten wir das Verhalten der Teilnehmer in Abhängigkeit von KI- und Expertenrat betrachten und analysieren.
Was haben Sie herausgefunden?
Unsere Teilnehmer folgen dem Rat der KI mehr als dem von Experten. Sie sind dem Rat der Künstlichen Intelligenz sogar dann gefolgt, wenn sie vermutet haben, dass dies nicht die beste Entscheidung ist. Menschen vertrauten der KI in unserem Experiment also zu sehr. Wir müssen noch mehr über die Faktoren herausfinden, die dazu führen, dass Menschen KI zu sehr vertrauen. Oder über Aspekte, die dieses Übervertrauen beschränken. Dann ließen sich daraus Gestaltungsempfehlungen für KI ableiten.
Wie wollen Sie weiter zu dem Thema forschen?
In einem neuen Setting wollen mein Team und ich überprüfen, ob Menschen einer KI immer noch folgen, wenn diese erkennbar diskriminierende Ratschläge erteilt. Des Weiteren wollen wir untersuchen, ob sich das Vertrauen von Menschen ändert, wenn man darlegt, welche Parameter eine KI bei Entscheidungen berücksichtigt und welche nicht. Aktuell ist es ja oft noch so, dass KI undurchsichtig und intransparent ist.
Studie: Artur Klingbeil, Cassandra Grützner, Philipp Schreck, Trust and reliance on AI — An experimental study on the extent and costs of overreliance on AI, Computers in Human Behavior (2024), doi: 10.1016/j.chb.2024.108352.