001048348 001__ 1048348 001048348 005__ 20251125082904.0 001048348 020__ $$a978-3-17-045343-2 001048348 0247_ $$2datacite_doi$$a10.34734/FZJ-2025-04568 001048348 037__ $$aFZJ-2025-04568 001048348 041__ $$aGerman 001048348 1001_ $$0P:(DE-Juel1)138795$$aHeinrichs, Jan-Hendrik$$b0$$eCorresponding author$$ufzj 001048348 245__ $$aDer KI Grenzen setzen? Vom Verhältnis zu moralischen Normen. 001048348 260__ $$aStuttgart$$bW. Kohlhammer GmbH$$c2025 001048348 29510 $$aGrenzen Künstlicher Intelligenz 001048348 300__ $$a121 - 138 001048348 3367_ $$2ORCID$$aBOOK_CHAPTER 001048348 3367_ $$07$$2EndNote$$aBook Section 001048348 3367_ $$2DRIVER$$abookPart 001048348 3367_ $$2BibTeX$$aINBOOK 001048348 3367_ $$2DataCite$$aOutput Types/Book chapter 001048348 3367_ $$0PUB:(DE-HGF)7$$2PUB:(DE-HGF)$$aContribution to a book$$bcontb$$mcontb$$s1764055410_14058 001048348 520__ $$aDieser Artikel expliziert ein verbreitetes Paradigma der Maschinenethik, das Nebenbedingungsparadigma. Gemäß diesem Paradigma werden künstliche moralische Akteure1 geschaffen, um das durch komplexe und selbständige Systeme entstehende Risiko zu begrenzen. Zu diesem Zweck müssen sie so ausgelegt sein, dass ihr Verhalten den Vorgaben moralischer Regeln entspricht. Ein künstlicher moralischer Akteur wäre demnach ein umweltwirksames System, dessen Verhalten moralischen Normen schlicht entspricht. Weil dieses Paradigma für KI-Systeme ausschließlich ein Subordinationsverhältnis zu moralischen Normen erlaubt, schränkt es die Art von künstlichem Akteur, die entwickelt wird, über Gebühr ein. Gemäß dem Sprachgebrauch der Ethik stehen moralische Akteure und Akteurinnen in komplexeren Verhältnissen zu moralischen Normen. Es sind jedoch aktuell Systeme möglich, die moralische Normen nicht nur einhalten, sondern diese explizieren, repräsentieren und zueinander in Beziehung setzen. KIs können sich also in anderer Weise zu moralischen Grenzen verhalten als vom Nebenbedingungsparadigma vorgesehen. Damit würden alternative, wissenschaftlich und gesellschaftlich wertvolle Umgangsweisen von KIs mit moralischen Normen wie etwa deren Überprüfung und Kritik angeregt. 001048348 536__ $$0G:(DE-HGF)POF4-5255$$a5255 - Neuroethics and Ethics of Information (POF4-525)$$cPOF4-525$$fPOF IV$$x0 001048348 588__ $$aDataset connected to CrossRef Book 001048348 8564_ $$uhttps://juser.fz-juelich.de/record/1048348/files/Der%20KI%20Grenzen%20setzen.pdf$$yOpenAccess 001048348 9101_ $$0I:(DE-588b)5008462-8$$6P:(DE-Juel1)138795$$aForschungszentrum Jülich$$b0$$kFZJ 001048348 9131_ $$0G:(DE-HGF)POF4-525$$1G:(DE-HGF)POF4-520$$2G:(DE-HGF)POF4-500$$3G:(DE-HGF)POF4$$4G:(DE-HGF)POF$$9G:(DE-HGF)POF4-5255$$aDE-HGF$$bKey Technologies$$lNatural, Artificial and Cognitive Information Processing$$vDecoding Brain Organization and Dysfunction$$x0 001048348 9141_ $$y2025 001048348 915__ $$0StatID:(DE-HGF)0510$$2StatID$$aOpenAccess 001048348 920__ $$lyes 001048348 9201_ $$0I:(DE-Juel1)INM-7-20090406$$kINM-7$$lGehirn & Verhalten$$x0 001048348 980__ $$acontb 001048348 980__ $$aVDB 001048348 980__ $$aUNRESTRICTED 001048348 980__ $$aI:(DE-Juel1)INM-7-20090406 001048348 9801_ $$aFullTexts