Moral borders and philosophical consideration of Artificial Intelligence: exploring responsibility, rights and ethical decision making
Fecha
2024-02-24Autor
Zhang, Qihui
Zhang, Yingyu
Liang, Jianzhong
Edilova, Mariam
Nusupov, Cholponbay
Metadatos
Mostrar el registro completo del ítemResumen
This study examines moral boundaries, rights, and ethical responsibility in Artificial Intelligence (AI), focusing on ethical decision-making. Using a systematic analysis of scientific sources, legal documents, and real-world AI applications in medicine and justice, the research highlights significant issues of accountability. AI algorithms have shown bias, particularly in legal systems, where recidivism risk assessments disproportionately affect ethnic groups, creating legal uncertainty. Similar biases appear in medical diagnoses, affecting conditions like lung cancer and tuberculosis. The study confirms that AI lacks consciousness and free will, meaning responsibility must remain with developers or users. While legal frameworks regulate AI ethics, they do not fully address independent decision-making. The findings emphasize the need for improved transparency and accountability in AI regulation. Este estudio examina los límites morales, los derechos y la responsabilidad ética en la inteligencia artificial (IA), centrándose en la toma de decisiones éticas. Mediante un análisis sistemático de fuentes científicas, documentos legales y aplicaciones de IA en el mundo real en medicina y justicia, la investigación destaca importantes cuestiones de rendición de cuentas. Los algoritmos de IA han mostrado sesgos, en particular en los sistemas legales, donde las evaluaciones del riesgo de reincidencia afectan desproporcionadamente a los grupos étnicos, lo que crea incertidumbre jurídica. Sesgos similares aparecen en los diagnósticos médicos, que afectan a enfermedades como el cáncer de pulmón y la tuberculosis. El estudio confirma que la IA carece de conciencia y libre albedrío, lo que significa que la responsabilidad debe recaer en los desarrolladores o usuarios. Si bien los marcos legales regulan la ética de la IA, no abordan por completo la toma de decisiones independiente. Los hallazgos enfatizan la necesidad de mejorar la transparencia y la rendición de cuentas en la regulación de la IA.