Ética de la IA generativa en la formación legal universitaria
Fecha
2025-08-29Autor
Rodríguez Salcedo, Eliana del Rocío
Molina Hurtado, Doménica Jasiel
Morocho Sáez, Yennifer Tatiana
Lema Vaca, Kerly Abigail
Morales Alvarado, Mathew Abraham
Espinosa Rodríguez, Martha Carolina
Guangasi Lagua, Alex David
Centeno Chiguano, Marlon Alejandro
Zamora Paredes, Bryan Henry
Metadatos
Mostrar el registro completo del ítemResumen
La incorporación de la inteligencia artificial generativa (IAG) en la formación jurídica universitaria de América Latina abre oportunidades y tensiones éticas, pedagógicas y regulatorias. Objetivo: analizar cómo las instituciones universitarias están abordando la integración de la IAG desde la transparencia, la responsabilidad y la supervisión humana. Método: revisión sistemática de documentos institucionales, marcos normativos y guías universitarias (2019–2025) siguiendo PRISMA. Se consultaron bases académicas y repositorios en español, portugués e inglés; de 142 registros iniciales se incluyeron 38 documentos. Resultados: se identifican brechas entre instituciones públicas y privadas en infraestructura y políticas; carencias de formación docente y guías de uso; riesgos para la integridad académica (plagio, delegación del razonamiento) y limitaciones de detectores de IA con sesgos lingüísticos. A la par, emergen buenas prácticas: alfabetización crítica en IA, rediseño de evaluaciones auténticas, declaración del uso de IAG y comités de gobernanza. Discusión: persisten tensiones entre vigilancia y confianza, y entre innovación y equidad; sin políticas inclusivas la IAG podría ampliar desigualdades. Una gobernanza participativa y sensible al contexto favorece la legitimidad y la adopción ética. Conclusiones: se requiere un marco institucional que articule ética, pedagogía y gobernanza, con formación docente continua, lineamientos claros de autoría y protección de datos, y evaluaciones centradas en pensamiento crítico. La IAG debe operar como apoyo a la agencia humana y no como sustituto, promoviendo una cultura académica responsable e inclusiva The integration of generative artificial intelligence (GAI) into legal higher education in Latin America creates both opportunities and ethical, pedagogical, and regulatory tensions. Objective: to examine how universities are incorporating GAI based on transparency, responsibility, and human oversight. Method: a systematic review of institutional documents, regulatory frameworks, and university guidelines (2019–2025) following PRISMA. Academic databases and repositories were searched in Spanish, Portuguese, and English; out of 142 records, 38 documents were included. Results: we found gaps between public and private institutions in infrastructure and policies; limited faculty training and usage guidelines; threats to academic integrity (plagiarism, outsourced reasoning) and limitations of AI detectors with linguistic bias. Concurrently, good practices are emerging: critical AI literacy, authentic assessment redesign, disclosure of GAI use, and governance committees. Discussion: tensions persist between surveillance and trust, and between innovation and equity; without inclusive policies, GAI may widen educational inequalities. Participatory, context‑sensitive governance fosters legitimacy and ethical adoption. Conclusions: universities need institutional frameworks aligning ethics, pedagogy, and governance, including ongoing faculty development, clear authorship and data‑protection guidelines, and assessments focused on critical thinking. GAI should support rather than replace human agency, advancing a responsible and inclusive academic culture
