Mostrar el registro sencillo del ítem

dc.contributor.authorZhang, Qihui
dc.contributor.authorZhang, Yingyu
dc.contributor.authorLiang, Jianzhong
dc.contributor.authorEdilova, Mariam
dc.contributor.authorNusupov, Cholponbay
dc.date.accessioned2025-07-28T15:10:44Z
dc.date.available2025-07-28T15:10:44Z
dc.date.issued2024-02-24
dc.identifier.citationZhang, Q., Zhang, Y., Liang, J., Edilova, M., & Nusupov, C. (2025). Fronteras morales y consideración filosófica de la Inteligencia Artificial: exploración de la responsabilidad, los derechos y la toma de decisiones éticas. Clío. Revista De Historia, Ciencias Humanas Y Pensamiento Crítico. , (10), 562-594. https://doi.org/10.5281/zenodo.14983153en_US
dc.identifier.issn2660-9037
dc.identifier.uriDOI: https://doi.org/10.5281/zenodo.14983153
dc.identifier.urihttp://bdigital2.ula.ve:8080/xmlui/654321/19814
dc.description562-594en_US
dc.description.abstractThis study examines moral boundaries, rights, and ethical responsibility in Artificial Intelligence (AI), focusing on ethical decision-making. Using a systematic analysis of scientific sources, legal documents, and real-world AI applications in medicine and justice, the research highlights significant issues of accountability. AI algorithms have shown bias, particularly in legal systems, where recidivism risk assessments disproportionately affect ethnic groups, creating legal uncertainty. Similar biases appear in medical diagnoses, affecting conditions like lung cancer and tuberculosis. The study confirms that AI lacks consciousness and free will, meaning responsibility must remain with developers or users. While legal frameworks regulate AI ethics, they do not fully address independent decision-making. The findings emphasize the need for improved transparency and accountability in AI regulation.en_US
dc.description.abstractEste estudio examina los límites morales, los derechos y la responsabilidad ética en la inteligencia artificial (IA), centrándose en la toma de decisiones éticas. Mediante un análisis sistemático de fuentes científicas, documentos legales y aplicaciones de IA en el mundo real en medicina y justicia, la investigación destaca importantes cuestiones de rendición de cuentas. Los algoritmos de IA han mostrado sesgos, en particular en los sistemas legales, donde las evaluaciones del riesgo de reincidencia afectan desproporcionadamente a los grupos étnicos, lo que crea incertidumbre jurídica. Sesgos similares aparecen en los diagnósticos médicos, que afectan a enfermedades como el cáncer de pulmón y la tuberculosis. El estudio confirma que la IA carece de conciencia y libre albedrío, lo que significa que la responsabilidad debe recaer en los desarrolladores o usuarios. Si bien los marcos legales regulan la ética de la IA, no abordan por completo la toma de decisiones independiente. Los hallazgos enfatizan la necesidad de mejorar la transparencia y la rendición de cuentas en la regulación de la IA.en_US
dc.language.isoenen_US
dc.publisherEdiciones Clío, Academia de la Historia del estado Zulia y Centro Zuliano de Investigaciones Genealógicasen_US
dc.rights.urihttp://creativecommons.org/licenses/by-nc-sa/3.0/ve/en_US
dc.subjectsocial justiceen_US
dc.subjectcontrol mechanismsen_US
dc.subjectautonomyen_US
dc.subjectalgorithmsen_US
dc.subjectjusticia socialen_US
dc.subjectmecanismos de controlen_US
dc.subjectautonomíaen_US
dc.subjectalgoritmosen_US
dc.titleMoral borders and philosophical consideration of Artificial Intelligence: exploring responsibility, rights and ethical decision makingen_US
dc.title.alternativeFronteras morales y consideración filosófica de la Inteligencia Artificial: exploración de la responsabilidad, los derechos y la toma de decisiones éticasen_US
dc.typeArticleen_US


Ficheros en el ítem

Thumbnail

Este ítem aparece en la(s) siguiente(s) colección(ones)

Mostrar el registro sencillo del ítem

http://creativecommons.org/licenses/by-nc-sa/3.0/ve/
Excepto si se señala otra cosa, la licencia del ítem se describe como http://creativecommons.org/licenses/by-nc-sa/3.0/ve/