Jun 02, 2023
Wer ist schuld? Wie wir Verantwortung im Menschen wahrnehmen
Fazit: Auch wenn Menschen KI-basierte Assistenten lediglich als Werkzeuge betrachten, weisen sie diesen Systemen dennoch eine Teilverantwortung für getroffene Entscheidungen zu. Die Forschung untersuchte, wie die Teilnehmer es wahrnahmen
Zusammenfassung:Selbst wenn Menschen KI-basierte Assistenten lediglich als Werkzeuge betrachten, weisen sie diesen Systemen dennoch eine Teilverantwortung für getroffene Entscheidungen zu.
Die Studie untersuchte, wie die Teilnehmer Verantwortung wahrnahmen, wenn ein menschlicher Fahrer einen KI-gestützten Assistenten im Vergleich zu einem Navigationsinstrument ohne KI nutzte. Die Teilnehmer gaben an, dass KI-Assistenten sowohl für Erfolge als auch für Misserfolge mitverantwortlich seien, obwohl sie bekräftigten, dass es sich bei diesen Systemen lediglich um Werkzeuge handele.
Die Studie wirft ein neues Licht darauf, wie Menschen unterschiedliche moralische Standards für Lob und Tadel anwenden, wenn KI an der Entscheidungsfindung beteiligt ist.
Wichtige Fakten
Quelle:LMU
Auch wenn Menschen KI-basierte Assistenten als reine Werkzeuge betrachten, schreiben sie ihnen eine Teilverantwortung für Entscheidungen zu, wie eine neue Studie zeigt.
Künftige KI-basierte Systeme könnten autonome Fahrzeuge ohne menschliches Zutun durch den Verkehr navigieren. Untersuchungen haben gezeigt, dass Menschen solche futuristischen KI-Systeme als genauso verantwortungsbewusst einschätzen wie Menschen, wenn sie autonome Verkehrsentscheidungen treffen. Von dieser Autonomie sind reale KI-Assistenten jedoch weit entfernt.
Sie stellen menschlichen Benutzern unterstützende Informationen wie Navigations- und Fahrhilfen zur Verfügung. Wer ist also in diesen realen Fällen verantwortlich, wenn etwas richtig oder schief geht? Der menschliche Benutzer? Oder der KI-Assistent?
Ein Team um Louis Longin vom Lehrstuhl für Philosophie des Geistes hat nun untersucht, wie Menschen in diesen Fällen Verantwortung einschätzen.
„Wir alle haben intelligente Assistenten in der Tasche“, sagt Longin.
„Viele der experimentellen Beweise, die wir über Verantwortungslücken haben, konzentrieren sich jedoch auf Roboter oder autonome Fahrzeuge, bei denen die KI buchstäblich das Steuer übernimmt und für uns entscheidet. Es ist unerlässlich, Fälle zu untersuchen, in denen wir immer noch diejenigen sind, die die endgültige Entscheidung treffen, die KI aber eher wie ein hochentwickeltes Instrument einsetzen.“
Longin, ein auf die Interaktion zwischen Menschen und KI spezialisierter Philosoph, untersuchte in Zusammenarbeit mit seinem Kollegen Dr. Bahador Bahrami und Prof. Ophelia Deroy, Lehrstuhlinhaberin für Philosophie des Geistes, wie 940 Teilnehmer einen menschlichen Fahrer beurteilten, der entweder einen intelligenten, KI-gestützten Fahrer nutzte ein verbaler Assistent, ein intelligenter KI-gestützter taktiler Assistent oder ein Nicht-KI-Navigationsinstrument. Die Teilnehmer gaben außerdem an, ob sie die Navigationshilfe als verantwortlich sahen und inwieweit es sich dabei um ein Werkzeug handelte.
Zwiespältiger Status intelligenter Assistenten
Die Ergebnisse offenbaren eine Ambivalenz: Die Teilnehmer behaupteten nachdrücklich, dass intelligente Assistenten nur Werkzeuge seien, sahen sie jedoch als mitverantwortlich für den Erfolg oder Misserfolg der menschlichen Fahrer, die sie konsultierten. Für das nicht KI-gestützte Instrument gab es keine solche Aufteilung der Verantwortung.
Nicht weniger überraschend war für die Autoren, dass die intelligenten Assistenten auch eher für positive als für negative Ergebnisse verantwortlich gemacht wurden.
„Menschen wenden möglicherweise unterschiedliche moralische Maßstäbe für Lob und Tadel an. Wenn ein Absturz abgewendet wird und kein Schaden entsteht, werden die Standards gelockert, was es für die Menschen einfacher macht, nichtmenschlichen Systemen Anerkennung statt Schuld zuzuschreiben“, schlägt Dr. Bahrami vor, ein Experte für kollektive Verantwortung.
Die Rolle der Sprache ist nicht relevant
In der Studie fanden die Autoren keinen Unterschied zwischen intelligenten Assistenten, die Sprache verwendeten, und solchen, die ihre Benutzer durch eine taktile Vibration des Rades alarmierten.
„Die beiden lieferten in diesem Fall die gleichen Informationen: ‚Hey, Vorsicht, da ist etwas los‘, aber natürlich liefert ChatGPT in der Praxis viel mehr Informationen“, sagt Ophelia Deroy, deren Forschung unsere widersprüchlichen Einstellungen gegenüber künstlicher Intelligenz als einer Form von untersucht animistische Überzeugungen.
In Bezug auf die zusätzlichen Informationen, die neuartige sprachbasierte KI-Systeme wie ChatGPT bereitstellen, fügt Deroy hinzu: „Je reichhaltiger die Interaktion, desto einfacher ist es, sie zu vermenschlichen.“
„Zusammenfassend stützen unsere Ergebnisse die Idee, dass KI-Assistenten mehr als bloße Empfehlungstools sind, aber dennoch weit von menschlichen Standards entfernt sind“, sagt Longin.
Die Autoren glauben, dass die Ergebnisse der neuen Studie weitreichende Auswirkungen auf das Design und den gesellschaftlichen Diskurs rund um KI-Assistenten haben werden: „Organisationen, die intelligente Assistenten entwickeln und auf den Markt bringen, sollten darüber nachdenken, wie soziale und moralische Normen beeinflusst werden“, schließt Longin.
Autor:Constanze DrewloQuelle:LMUKontakt:Constanze Drewlo – LMUBild:Das Bild stammt von Neuroscience News
Ursprüngliche Forschung: Open Access „Intelligenz bringt Verantwortung – Auch intelligente KI-Assistenten werden zur Verantwortung gezogen“ von Louis Longin et al. Zelle
Abstrakt
Intelligenz bringt Verantwortung mit sich – Auch intelligente KI-Assistenten werden zur Verantwortung gezogen
Menschen werden Autos nicht für Verkehrsunfälle verantwortlich machen, aber sie tun es, wenn künstliche Intelligenz (KI) im Spiel ist. KI-Systeme werden verantwortlich gemacht, wenn sie einen menschlichen Agenten agieren oder lediglich beraten.
Bedeutet das, dass die Verantwortung folgt, sobald es um KI geht?
Um das herauszufinden, haben wir untersucht, ob rein instrumentelle KI-Systeme der Verantwortung entzogen bleiben. Wir haben KI-gestützte mit nicht KI-gestützten Autowarnsystemen verglichen und ihre Verantwortungsbewertung zusammen mit ihren menschlichen Benutzern gemessen.
Unsere Ergebnisse zeigen, dass die Verantwortung geteilt wird, wenn das Warnsystem auf KI basiert, nicht aber auf einem rein mechanischen System, auch wenn die Menschen beide Systeme als bloße Werkzeuge betrachten.
Überraschenderweise führt die Frage, ob die Warnung den Unfall verhindert, zu einer Ergebnisverzerrung: Je nachdem, was der Mensch schafft oder unterlässt, erhält die KI mehr Anerkennung als Schuld.
Deine Email-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *
Kommentar *
Name *
Email *
Webseite
Benachrichtigen Sie mich über nachfolgende Kommentare per E-Mail.
Benachrichtigen Sie mich per E-Mail über neue Beiträge.
Zusammenfassung:Wichtige FaktenQuelle:Auch wenn Menschen KI-basierte Assistenten als reine Werkzeuge betrachten, schreiben sie ihnen eine Teilverantwortung für Entscheidungen zu, wie eine neue Studie zeigt.Zwiespältiger Status intelligenter AssistentenDie Rolle der Sprache ist nicht relevantAutor:Quelle:Kontakt:Bild:Ursprüngliche Forschung:AbstraktIntelligenz bringt Verantwortung mit sich – Auch intelligente KI-Assistenten werden zur Verantwortung gezogen