Intelligence Augmentation Systems (IAS) allow for more efficient and effective corporate processes by means of an explicit collaboration between artificial intelligence and human judgment. However, the higher degree of system autonomy, along with the enrichment of human capabilities, amplifies pre-existing issues of the distribution of moral responsibility: If an IAS has caused harm, firms who have operated the system might argue that they lack control over its actions, whereas firms who have developed the system might argue that they lack control over its actual use. Both parties rejecting responsibility and attributing it to the autonomous nature of the system leads to a variety of technologically induced responsibility gaps. Given the wide-ranging capabilities and applications of IAS, such responsibility gaps warrant a theoretical grounding in an ethical theory, also because the clear distribution of moral responsibility is an essential first step to govern explicit morality in a firm using structures such as accountability mechanisms. As part of this paper, first the necessary conditions for the distribution of responsibility for IAS are detailed. Second, the paper develops an ethical theory of Reason-Responsiveness for Intelligence Augmentation Systems (RRIAS) that allows for the distribution of responsibility at the organizational level between operators and providers. RRIAS provides important guidance for firms to understand who should be held responsible for developing suitable corporate practices for the development and usage of IAS.
Was ist zu diesem Thema bereits bekannt? Psychiatrien werden zunehmend digitalisiert. Die COVID-19-Pandemie hat diesen Prozess noch beschleunigt und gleichzeitig Weiterbildungsmöglichkeiten für das Gesundheitspersonal stark beschränkt. Wie wird eine neue Perspektive eingebracht? Ein E-Learning-Angebot bietet eine Lösung für die interne Weiterbildung und fördert Erlernen von nötigen digitalen Kompetenzen mit Hilfe von Augmented und Virtual Reality. Was sind die Auswirkungen für die Praxis? Entscheidungsträger müssen das Gesundheitspersonal in die Digitalisierung wertschätzend einbeziehen und eine Grundlage bieten, die für das Gesundheitspersonal positive Erfahrungen mit neuen Technologien ermöglicht.
ZusammenfassungDurch fortgeschrittenere Algorithmen in Entscheidungsunterstützungssystemen (DSS) bieten sich Unternehmen neue Möglichkeiten, um kognitive Belastungen bei Entscheidungsprozessen zu senken und bessere Ergebnisse zu erreichen. Allerdings mahnen Stimmen aus Forschung und Praxis vor damit einhergehenden Gefahren. Im Raum stehen etwa die systematische Fehlbeurteilung bestimmter Personengruppen, fehlerhafte Einschätzungen von (unternehmerischen) Risiken sowie unklare Verantwortlichkeiten im Falle personeller oder materieller Schäden. Der besseren Berücksichtigung von Werten wird diesbezüglich zunehmend Beachtung geschenkt, denn Algorithmen und die darauf aufbauenden DSS sind keine neutralen Artefakte; sie werden durch aus dem Entstehungsprozess hervorgehenden Wertvorstellungen und Wertannahmen geprägt. Das sogenannte Value Sensitive Design (VSD) wird genutzt, um dieser „Wertgeladenheit“ Rechnung zu tragen, indem Wertetabellen erhoben werden, die Nutzern und Entwicklern in Bezug auf ein DSS als wichtig erscheinen. Fernab konzeptioneller Überlegungen mangelt es aktuell allerdings noch an konkreten praktischen Operationalisierungen solcher Werttabellen. Am Beispiel der algorithmenbasierten Gefahrenerkennung beim Predictive Policing zeigen wir auf, wie sich eine Wertetabelle beim Design eines DSS konkretisieren lässt und welche Schwierigkeiten dabei auftreten können. Das vorgeschlagene dreistufige Operationalisierungsverfahren bietet Praktikern klare Richtlinien, um die Wertgeladenheit und dadurch hervorgehende Problematiken bereits bei der Entwicklung von DSS zu berücksichtigen.
scite is a Brooklyn-based organization that helps researchers better discover and understand research articles through Smart Citations–citations that display the context of the citation and describe whether the article provides supporting or contrasting evidence. scite is used by students and researchers from around the world and is funded in part by the National Science Foundation and the National Institute on Drug Abuse of the National Institutes of Health.
customersupport@researchsolutions.com
10624 S. Eastern Ave., Ste. A-614
Henderson, NV 89052, USA
This site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.
Copyright © 2025 scite LLC. All rights reserved.
Made with 💙 for researchers
Part of the Research Solutions Family.