Die Delegation an KI kann unehrliches Verhalten verstärken
- Research Alliance Ruhr
- UA Ruhr
- Forschung

Wann verhalten sich Menschen schlecht? Umfangreiche verhaltenswissenschaftliche Untersuchungen haben gezeigt, dass Menschen eher unehrlich handeln, wenn sie sich von den Konsequenzen distanzieren können. Es ist einfacher, Regeln zu beugen oder zu brechen, wenn niemand zusieht – oder wenn jemand anderes die Handlung ausführt. Eine neue Studie eines internationalen Forschungsteams des Max-Planck-Instituts für Bildungsforschung, Nils Köbis vom Research Center Trustworthy Data Science and Security und der Toulouse School of Economics zeigt, dass diese moralischen Hemmschwellen noch weiter schwinden, wenn Menschen Aufgaben an KI delegieren. In 13 Studien mit mehr als 8.000 Teilnehmenden untersuchten die Forschenden die ethischen Risiken der Delegation an Maschinen – sowohl aus der Perspektive derjenigen, die Anweisungen geben, als auch aus der Perspektive derjenigen, die sie ausführen.
In Studien, die sich darauf konzentrierten, wie Menschen Anweisungen gaben, stellten sie fest, dass Menschen deutlich häufiger betrogen, wenn sie das Verhalten an KI-Agenten auslagern konnten, anstatt selbst zu handeln, insbesondere wenn sie Interfaces verwendeten, die eine hochgradige Zielsetzung erforderten, anstatt explizite Anweisungen zu unehrlichem Handeln. Mit diesem Programmieransatz erreichte die Unehrlichkeit ein auffallend hohes Niveau: Nur eine kleine Minderheit (12–16 Prozent) blieb ehrlich, während die überwiegende Mehrheit (95 Prozent) ehrlich war, wenn sie die Aufgabe selbst ausführte. Selbst bei der am wenigsten bedenklichen Form der KI-Delegation, nämlich bei expliziten Anweisungen in Form von Regeln, verhielten sich nur etwa 75 Prozent der Menschen ehrlich, was einen deutlichen Rückgang der Unehrlichkeit gegenüber der Selbstauskunft bedeutet.
„Der Einsatz von KI schafft eine bequeme moralische Distanz zwischen Menschen und ihren Handlungen – er kann sie dazu verleiten, Verhaltensweisen zu fordern, die sie selbst nicht unbedingt an den Tag legen würden und die sie möglicherweise auch nicht von anderen Menschen verlangen würden“, sagt Zoe Rahwan vom Max-Planck-Institut für Bildungsforschung. Die Wissenschaftlerin arbeitet am Forschungsbereich Adaptive Rationalität zur ethischen Entscheidungsfindung.
„Unsere Studie zeigt, dass Menschen eher zu unethischem Verhalten bereit sind, wenn sie es an Maschinen delegieren können – insbesondere, wenn sie es nicht direkt aussprechen müssen“, fügt Nils Köbis hinzu, der den Lehrstuhl für Menschliches Verständnis von Algorithmen und Maschinen an der Universität Duisburg-Essen (Research Center Trustworthy Data Science and Security) innehat und zuvor als Senior Research Scientist am Max-Planck-Institut für Bildungsforschung im Forschungsbereich Mensch und Maschine tätig war. Angesichts der Tatsache, dass die meisten KI-Systeme für jeden mit einer Internetverbindung zugänglich sind, warnen die beiden Erstautor*innen der Studie vor einer Zunahme unethischen Verhaltens.
Weitere Informationen und Kontakt:
- Die komplette Pressemitteilung des Max-Planck-Institut für Bildungsforschung
- Originalpublikation
- Prof. Dr. Nils Köbis, Research Center for Trustworthy Data Science and Security, nils.koebisuni-duede