
Dies beleuchtet ein Artikel im MIT Sloan Management Review, den unser Senior Expert für Digitalisierung, Prozesse und KI Michael Klemen näher angesehen hat.
Wie KI unser Verantwortungsbewusstsein verzerrt
Forschungen zeigen, wie sich die Nutzung eines KI-erweiterten Systems auf die Wahrnehmung der eigenen Handlungsfähigkeit und Verantwortung des Menschen auswirken kann. Dies beleuchtet ein Artikel im MIT Sloan Management Review, den unser Senior Expert für Digitalisierung, Prozesse und KI Michael Klemen näher angesehen hat.
Künstliche Intelligenz spielt eine immer größere Rolle in automatisierten Systemen und Entscheidungsprozessen – ob das menschliche Verantwortungsbewusstsein dadurch ebenfalls beeinflusst wird, da sich Menschen oft automatisierten Entscheidungsempfehlungen unterwerfen, ist die Frage. Es gibt immer mehr Hinweise darauf, dass KI das Verantwortungsbewusstsein der Benutzer für die Folgen dieser Entscheidungen verringert.
Drei Arten von Verantwortung sind relevant, aber die KI-Praxis scheint sich nur mit zweien zu befassen:
- Die erste ist die rechtliche Verantwortung, bei der eine Einzelperson oder ein Unternehmen für die Reparatur von Schäden oder den Ausgleich von Verlusten verantwortlich gemacht wird, typischerweise auf zivilrechtlicher Ebene.
- Die zweite ist die moralische Verantwortung, bei der Einzelpersonen durch Bestrafung zur Rechenschaft gezogen werden, wie im Strafrecht.
- Die dritte wird als Verantwortungsbewusstsein bezeichnet und meint, wenn wir bewundernd von jemandem sprechen, der „verantwortungsvoll handelt“. Es erfordert kritisches Denken und vorausschauende Reflexion über den Zweck und die möglichen Folgen des eigenen Handelns, nicht nur für einen selbst, sondern auch für andere.
Es ist dieses Verantwortungsbewusstsein, das KI und automatisierte Systeme verändern können. Mehrere Studien und Tests wurden durchgeführt, um zu verstehen, wie KI die Wahrnehmung der eigenen Verantwortung und Handlungsfähigkeit der Benutzer beeinflusst:
Z.B. was die Entscheidung eines Fahrers beeinflusst, die Kontrolle über ein selbstfahrendes Fahrzeug wiederzuerlangen, wenn das autonome Fahrsystem aktiviert ist. Es wurde festgestellt, , dass je mehr Personen dem autonomen System vertrauen, desto unwahrscheinlicher ist es, dass sie die Situationswahrnehmung beibehalten, die es ihnen ermöglichen würde, im Falle eines Problems oder Vorfalls die Kontrolle über das Fahrzeug wiederzuerlangen. Obwohl die Befragten insgesamt sagten, sie hätten beim Bedienen eines autonomen Fahrzeugs Verantwortung übernommen, hatte ihr Gefühl der Handlungsfähigkeit keinen signifikanten Einfluss auf ihre Absicht, im Falle eines Problems oder Vorfalls die Kontrolle über das Fahrzeug wiederzuerlangen.
Deshalb könnten wir erwarten, dass sich ein beträchtlicher Teil der Benutzer in Gegenwart eines automatisierten Systems ermutigt fühlt, die Verantwortung für ein Eingreifen zu meiden. Weitere Studien untermauern dies und bemerkenswert ist, dass nur das proaktive, individuelle Verantwortungsgefühl die Befragten zum Handeln motivierte, was darauf hindeutet, dass die Androhung einer Haftung nicht ausreichen wird, um KI-Schäden zu verhindern. Viel deutet auf eine Abkehr von der individuellen Verantwortung zugunsten von Algorithmen hin und dass Menschen in Gegenwart eines intelligenten Systems dazu neigen, ihr Handlungsgefühl zu verlieren. Wenn Menschen weniger Kontrolle haben – oder das Gefühl haben, dass etwas anderes die Kontrolle hat – nimmt auch ihr Verantwortungsgefühl ab.
Die Frage lautet: Wie ermutigen wir Menschen, ihre proaktive Verantwortung zu akzeptieren und diese gegenüber KI auch auszuüben? Menschen neigen dazu, in Gegenwart eines intelligenten Systems ihren Handlungssinn zu verlieren. Der Schwerpunkt muss sich daher von „Vertrauen in die KI“ auf „Verstehen der KI“ zu verlagern, um so ein fundiertes und bedingtes Vertrauen in die Ergebnisse von KI-Systemen und -Prozessen zu schaffen.
Benutzer sind darin zu schulen, die automatisierten Prozesse, Entscheidungspunkte und das Fehler- oder Schadenspotenzial der KI zu verstehen. Es ist auch wichtig, dass Benutzer sich der Nuancen der Randfälle bewusst sind und diese verstehen, in denen KI-Systeme ins Straucheln geraten können und das Risiko einer schlechten automatisierten Entscheidung am größten ist und es wird im Zeitalter der KI noch wichtiger sein, eine solche Kultur zu fördern, indem man klare Freiräume für menschliche Intelligenz lässt.
Ryad Titah May, 2024
https://sloanreview.mit.edu/article/how-ai-skews-our-sense-of-responsibility/