001048348 001__ 1048348
001048348 005__ 20251125082904.0
001048348 020__ $$a978-3-17-045343-2
001048348 0247_ $$2datacite_doi$$a10.34734/FZJ-2025-04568
001048348 037__ $$aFZJ-2025-04568
001048348 041__ $$aGerman
001048348 1001_ $$0P:(DE-Juel1)138795$$aHeinrichs, Jan-Hendrik$$b0$$eCorresponding author$$ufzj
001048348 245__ $$aDer KI Grenzen setzen? Vom Verhältnis zu moralischen Normen.
001048348 260__ $$aStuttgart$$bW. Kohlhammer GmbH$$c2025
001048348 29510 $$aGrenzen Künstlicher Intelligenz
001048348 300__ $$a121 - 138
001048348 3367_ $$2ORCID$$aBOOK_CHAPTER
001048348 3367_ $$07$$2EndNote$$aBook Section
001048348 3367_ $$2DRIVER$$abookPart
001048348 3367_ $$2BibTeX$$aINBOOK
001048348 3367_ $$2DataCite$$aOutput Types/Book chapter
001048348 3367_ $$0PUB:(DE-HGF)7$$2PUB:(DE-HGF)$$aContribution to a book$$bcontb$$mcontb$$s1764055410_14058
001048348 520__ $$aDieser Artikel expliziert ein verbreitetes Paradigma der Maschinenethik, das Nebenbedingungsparadigma. Gemäß diesem Paradigma werden künstliche moralische Akteure1 geschaffen, um das durch komplexe und selbständige Systeme entstehende Risiko zu begrenzen. Zu diesem Zweck müssen sie so ausgelegt sein, dass ihr Verhalten den Vorgaben moralischer Regeln entspricht. Ein künstlicher moralischer Akteur wäre demnach ein umweltwirksames System, dessen Verhalten moralischen Normen schlicht entspricht. Weil dieses Paradigma für KI-Systeme ausschließlich ein Subordinationsverhältnis zu moralischen Normen erlaubt, schränkt es die Art von künstlichem Akteur, die entwickelt wird, über Gebühr ein. Gemäß dem Sprachgebrauch der Ethik stehen moralische Akteure und Akteurinnen in komplexeren Verhältnissen zu moralischen Normen. Es sind jedoch aktuell Systeme möglich, die moralische Normen nicht nur einhalten, sondern diese explizieren, repräsentieren und zueinander in Beziehung setzen. KIs können sich also in anderer Weise zu moralischen Grenzen verhalten als vom Nebenbedingungsparadigma vorgesehen. Damit würden alternative, wissenschaftlich und gesellschaftlich wertvolle Umgangsweisen von KIs mit moralischen Normen wie etwa deren Überprüfung und Kritik angeregt.
001048348 536__ $$0G:(DE-HGF)POF4-5255$$a5255 - Neuroethics and Ethics of Information (POF4-525)$$cPOF4-525$$fPOF IV$$x0
001048348 588__ $$aDataset connected to CrossRef Book
001048348 8564_ $$uhttps://juser.fz-juelich.de/record/1048348/files/Der%20KI%20Grenzen%20setzen.pdf$$yOpenAccess
001048348 9101_ $$0I:(DE-588b)5008462-8$$6P:(DE-Juel1)138795$$aForschungszentrum Jülich$$b0$$kFZJ
001048348 9131_ $$0G:(DE-HGF)POF4-525$$1G:(DE-HGF)POF4-520$$2G:(DE-HGF)POF4-500$$3G:(DE-HGF)POF4$$4G:(DE-HGF)POF$$9G:(DE-HGF)POF4-5255$$aDE-HGF$$bKey Technologies$$lNatural, Artificial and Cognitive Information Processing$$vDecoding Brain Organization and Dysfunction$$x0
001048348 9141_ $$y2025
001048348 915__ $$0StatID:(DE-HGF)0510$$2StatID$$aOpenAccess
001048348 920__ $$lyes
001048348 9201_ $$0I:(DE-Juel1)INM-7-20090406$$kINM-7$$lGehirn & Verhalten$$x0
001048348 980__ $$acontb
001048348 980__ $$aVDB
001048348 980__ $$aUNRESTRICTED
001048348 980__ $$aI:(DE-Juel1)INM-7-20090406
001048348 9801_ $$aFullTexts