LA INTELIGENCIA ARTIFICIAL COMO
RECURSO DE APOYO EN LA EVALUACIÓN
FORMATIVA UNIVERSITARIA:
OPORTUNIDADES Y LIMITACIONES

ARTIFICIAL INTELLIGENCE AS A SUPPORT RESOURCE
IN UNIVERSITY FORMATIVE ASSESSMENT:
OPPORTUNITIES AND LIMITATIONS

Felix Antonio Benitez Mero

Universidad Técnica Luis Vargas Torres, Ecuador

Karina Yadira Barrezueta Maldonado

Universidad Técnica Luis Vargas Torres, Ecuador

María José Quiñonez Vernaza

Universidad Técnica Luis Vargas Torres, Ecuador

Fernanda Katherine Carrillo Escobar

Investigadora Independiente, Ecuador

Carla Yasnaia Tenorio Merchán

Universidad Técnica Estatal de Quevedo, Ecuador
pág. 7240
DOI:
https://doi.org/10.37811/cl_rcm.v10i1.22820
La Inteligencia Artificial como Recurso de Apoyo en la Evaluación
Formativa Universitaria: Oportunidades y Limitaciones

Felix Antonio Benitez Mero
1
felix.benitez@utelvt.edu.ec

https://orcid.org/0000-0003-1877-7785

Universidad Técnica Luis Vargas Torres

Ecuador

Karina Yadira Barrezueta Maldonado

karina.barrezueta@utelvt.edu.ec

https://orcid.org/0009-0005-2494-4879

Universidad Técnica Luis Vargas Torres

Ecuador

María José Quiñonez Vernaza

maria.quinonez.vernaza@utelvt.edu.ec

https://orcid.org/0009-0007-5297-6979

Universidad Técnica Luis Vargas Torres

Esmeraldas- Ecuador

Fernanda Katherine Carrillo Escobar

fernandacarrillo2025@gmail.com

https://orcid.org/0009-0003-9316-8207

Investigadora Independiente

Esmeraldas-Ecuador

Carla Yasnaia Tenorio Merchán

ctenoriom@uteq.edu.ec

https://orcid.org/0009-0007-5679-3168

Universidad Técnica Estatal de Quevedo

Ecuador

RESUMEN

El presente estudio tuvo como objetivo analizar el impacto del uso de herramientas de inteligencia
artificial (IA) como recurso de apoyo en la evaluación formativa universitaria en la Universidad Técnica
Luis Vargas Torres de Esmeraldas (UTLVTE). Se desarrolló una investigación con enfoque mixto,
aplicando encuestas, pretest y postest, registros de uso y entrevistas a docentes y estudiantes de diversas
asignaturas de las carreras universitarias. El análisis estadístico y la codificación temática permitieron
identificar patrones cuantitativos y cualitativos asociados al uso pedagógico de la IA. Los resultados
evidenciaron una percepción mayoritariamente positiva hacia la retroalimentación automatizada,
mejoras significativas en el rendimiento académico y una relación directa entre la actitud favorable
hacia la IA y el incremento del desempeño. Asimismo, emergieron tensiones importantes relacionadas
con brechas tecnológicas, acompañamiento docente, confiabilidad y consideraciones éticas. La
discusión revela que la integración de IA en contextos universitarios latinoamericanos ofrece
oportunidades para fortalecer la personalización del aprendizaje, optimizar la labor docente y mejorar
la evaluación formativa, aunque requiere políticas institucionales, formación especializada y marcos
éticos para su implementación responsable. Este trabajo aporta evidencia empírica relevante para el
debate regional sobre los usos educativos de la IA en la educación superior.

Palabras clave: inteligencia artificial, evaluación formativa, retroalimentación automatizada, educación
superior, pedagogía digital, Ecuador

1 Autor principal

Correspondencia:
felix.benitez@utelvt.edu,ec
pág. 7241
Artificial Intelligence as a Support Resource in University Formative
Assessment: Opportunities and Limitations

ABSTRACT

This study aimed to analyze the impact of artificial intelligence (AI) tools as a support resource in
university formative assessment at the Universidad Técnica Luis Vargas Torres de Esmeraldas
(UTLVTE).
A mixed-methods research design was implemented, including surveys, pretests and
posttests, usage records, and interviews with faculty members and students from various academic

programs. Statistical analysis and thematic coding enabled the identification
of quantitative and
qualitative patterns associated with the pedagogical use of AI.
The findings revealed a predominantly
positive perception of automated feedback, significant improvements in academic performance, and a

direct relationship between favorab
le attitudes toward AI and increased student achievement. At the
same time, important tensions emerged related to technological gaps, the need for adequate pedagogical

guidance, reliability concerns, and ethical considerations.
The discussion highlights that integrating AI
into Latin American university contexts presents valuable opportunities to strengthen personalized

learning, optimize teaching practices, and enhance formative assessment processes. However, its

responsible imp
lementation requires institutional policies, specialized training, and well-defined ethical
frameworks. This study provides relevant empirical evidence to inform the regional debate on the

educational use of AI in higher education.

Keywords: artificial intelligence, formative assessment, automated feedback, higher education, digital
pedagogy, Ecuador

Artículo recibido 02 enero 2026

Aceptado para publicación: 30 enero 2026
pág. 7242
INTRODUCCIÓN

La irrupción de la inteligencia artificial (IA) en la educación superior ha provocado una transformación
acelerada no sólo tecnológica sino pedagógica que obliga a repensar cómo se diseña, implementa y
valida la evaluación del aprendizaje. La evaluación formativa, entendida como el conjunto de estrategias
orientadas a retroalimentar y orientar procesos de aprendizaje en desarrollo, se sitúa en el epicentro de
esta transformación: las herramientas basadas en IA prometen retroalimentación personalizada,
escalabilidad y análisis en tiempo real, pero también plantean retos éticos, metodológicos y de equidad
que demandan investigación contextualizada y evidencia empírica (Crompton et al., 2023; UNESCO,
2023).

Evidencia reciente, incluida la revisión amplia sobre IA en educación superior, muestra un aumento
sostenido de publicaciones entre 2019 y 2023 que documentan tanto el potencial como las
incertidumbres asociadas a estas tecnologías (Crompton et al., 2023). Estas revisiones subrayan que,
mientras que sistemas como los intelligent tutoring systems (ITS) y plataformas de retroalimentación
automatizada pueden mejorar la adaptatividad y la rapidez de respuesta en ambientes digitales, los
resultados empíricos son heterogéneos y dependen fuertemente del diseño instruccional y del contexto
de implementación (Son et al., 2024; Fodouop Kouam, 2024).

Los estudios sistemáticos y metaanálisis recientes señalan tres efectos recurrentes de la IA en evaluación
formativa: (a) personalización de la retroalimentación, con ganancias en engagement y orientación del
aprendizaje individualizado; (b) eficiencia y escalabilidad en la corrección y el procesamiento de
respuestas; y (c) riesgos éticos y de equidad, como sesgos algorítmicos, amenazas a la privacidad y
problemas de integridad académica cuando se emplea GenAI de forma inadecuada (Bittle, 2025;
Stokkink, 2025; Tan et al., 2024). Estos hallazgos muestran que la mera disponibilidad tecnológica no
garantiza impactos pedagógicos positivos: la integración debe atender al diseño instruccional, a la
alfabetización digital de docentes y estudiantes, y a marcos institucionales que regulen uso,
transparencia y auditoría humana de decisiones automatizadas.

Particularmente relevante para universidades de contextos vulnerables como la Universidad Técnica
Luis Vargas Torres de Esmeraldas es la preocupación por la brecha digital y la brecha algorítmica: el
acceso desigual a infraestructuras, la falta de formación docente en IA y la posibilidad de que sistemas
pág. 7243
entrenados con datos ajenos reproduzcan o amplifiquen sesgos culturales y socioeconómicos
(UNESCO, 2023; Lim, 2025). Por tanto, la investigación aplicada en instituciones regionales debe
priorizar no sólo la eficacia técnica sino la justicia educativa, la inclusividad y la pertinencia cultural de
los modelos y algoritmos utilizados.

En el plano práctico, investigaciones empíricas recientes muestran que ITS y sistemas adaptativos
pueden mejorar resultados en asignaturas técnicas (por ejemplo programación y matemáticas), siempre
que la intervención incorpore retroalimentación inmediata, diagnósticos precisos de error y rutas de
aprendizaje diferenciadas (Son et al., 2024; Fodouop Kouam, 2024). Sin embargo, la evidencia también
enfatiza la necesidad de mantener al docente como agente central: la IA debe complementar no
reemplazar la decisión pedagógica, y su desempeño debe ser monitorizado y validado contra criterios
humanos y educativos.

Además, la integración de IA generativa (p. ej., modelos de lenguaje grandes) en procesos formativos
plantea interrogantes nuevos sobre la autenticidad del trabajo estudiantil y la validez de las evidencias
de aprendizaje. Revisiones sobre GenAI y honestidad académica muestran efectos ambivalentes: por un
lado, GenAI facilita accesibilidad y co-creación de textos; por otro, incrementa riesgos de plagio y
requiere políticas claras y alfabetización crítica para su uso responsable (Bittle, 2025; Martínez, 2025).
Estas consideraciones son cruciales cuando se diseña evaluación formativa que pretenda medir procesos
cognitivos superiores (análisis, síntesis, evaluación) y no simplemente la producción de textos.

Finalmente, organismos internacionales y recomendaciones recientes (por ejemplo UNESCO y reportes
gubernamentales sobre IA en educación) invitan a las instituciones a adoptar una estrategia dual: (1)
aprovechar las oportunidades pedagógicas de la IA (personalización, análisis de aprendizaje,
retroalimentación rápida) y (2) desarrollar marcos institucionales robustos de gobernanza, ética y
formación docente que mitiguen riesgos de sesgo, vulneración de datos y pérdida de confianza
(UNESCO, 2023; U.S. Department of Education, 2023). En el contexto ecuatoriano y de la UTLVTE,
esto exige estudios locales que documenten percepciones, barreras tecnológicas y propuestas pilotos de
evaluación formativa asistida por IA, con metodologías mixtas que integren evidencia cuantitativa
(desempeño, métricas de aprendizaje) y cualitativa (percepciones, consideraciones éticas).
pág. 7244
Por todo lo anterior, el presente artículo (o proyecto de investigación) se propone explorar, en el
contexto de la UTLVTE, las oportunidades y limitaciones de la IA en la evaluación formativa
universitaria, articulando: revisión de literatura, diseño y prueba piloto de herramientas de
retroalimentación asistida por IA en asignaturas de Matemáticas y Computación, y análisis ético-
pedagógico de su implementación. La investigación buscará generar evidencia empírica local,
recomendar buenas prácticas institucionales y proponer un marco de gobernanza educativa para el uso
responsable de la IA en procesos evaluativos formativos.

MARCO TEÓRICO

Inteligencia artificial y educación superior: estado del arte

La literatura reciente muestra un crecimiento exponencial de investigaciones sobre IA en educación
superior, especialmente desde 20192022, cuando la producción científica sobre IA educativa se
multiplicó (Crompton & Burke, 2023). Estas revisiones señalan que la investigación se concentra en
aplicaciones prácticas (tutoría inteligente, retroalimentación automatizada, análisis de aprendizaje) y en
estudios teóricos sobre implicaciones éticas y organizacionales. La consolidación de esta línea de trabajo
exige análisis que vinculen eficacia técnica con coherencia pedagógica y contextos institucionales
locales.

Evaluación formativa: definición y potencial con IA

La evaluación formativa se entiende como el conjunto de prácticas orientadas a la retroalimentación
continua y al ajuste del proceso de enseñanza-aprendizaje para promover el progreso del estudiante.
Informes y marcos nacionales/institucionales reconocen la relevancia de la retroalimentación en tiempo
real y la personalización, y consideran a la IA como una tecnología con potencial para automatizar y
escalar estas funciones (U.S. Department of Education, 2023). No obstante, la evidencia empírica
documenta variabilidad en los resultados: los beneficios dependen del diseño instruccional y de la
alineación entre objetivos de aprendizaje y funcionalidades del sistema.

Sistemas representativos: Intelligent Tutoring Systems (ITS) y feedback automatizado

Los ITS y los sistemas adaptativos constituyen formas maduras de IA educativa para evaluación
formativa. Revisiones sistemáticas recientes sobre ITS en matemáticas y programación muestran
mejoras en la precisión diagnóstica y en la personalización de trayectorias de aprendizaje, especialmente
pág. 7245
cuando los sistemas ofrecen retroalimentación inmediata y diagnósticos de error específicos (Son et al.,
2024; Fodouop Kouam, 2024). Sin embargo, los efectos dependen de la implementación: sin mediación
docente, supervisión y ajuste pedagógico, los beneficios tienden a disminuir. Este cuerpo de evidencia
es especialmente relevante para asignaturas técnicas como Matemáticas y Computación.

IA generativa y evaluación: oportunidades y riesgos

La llegada de modelos de lenguaje y herramientas generativas (GenAI) introduce nuevas posibilidades
para retroalimentación textual, generación de ejercicios y apoyo en la redacción, pero también plantea
interrogantes sobre integridad académica, autoría y autenticidad del aprendizaje. Revisiones
sistemáticas recientes sobre GenAI y honestidad académica documentan un aumento de usos mixtos:
apoyo legítimo (borradores, tutorías) y usos indebidos (uso de texto generado como propio). Las
políticas institucionales y la alfabetización digital crítica se vuelven entonces condiciones necesarias
para su adopción responsable.

Ética, sesgo algorítmico y brecha digital

Los estudios y guías de organismos internacionales (p. ej., UNESCO) enfatizan la doble dimensión de
la IA: capacidad para mejorar equidad si se implementa conscientemente, y riesgo de aumentar
desigualdades si los datos y modelos reproducen sesgos socioeconómicos o culturales (UNESCO,
2023). En contextos regionales y vulnerables como la provincia de Esmeraldas, la falta de
infraestructura, la limitada formación docente en IA y la posible “brecha algorítmica” implican que las
soluciones importadas sin adaptación pueden ser contraproducentes. La gobernanza institucional
(transparencia, auditoría, formación y políticas de privacidad) es un componente ineludible.

Formación docente y adopción institucional

La revisión sobre IA en la formación docente muestra que la integración efectiva de IA exige desarrollo
profesional docente específico: comprensión de capacidades y límites de la IA, estrategias para integrar
retroalimentación automatizada en prácticas formativas y competencias para evaluar outputs
automatizados (Tan et al., 2024). Sin esta formación, las tecnologías quedan subutilizadas o generan
prácticas de evaluación inadecuadas.
pág. 7246
Estudios empíricos y aprendizajes para el contexto ecuatoriano

Investigaciones empíricas sobre ITS y retroalimentación automatizada en disciplinas técnicas sugieren
que las intervenciones que combinan IA con mediación docente obtienen mejores efectos en
rendimiento y satisfacción estudiantil (Fodouop Kouam, 2024; Son et al., 2024). Para la UTLVTE, esto
implica priorizar diseños mixtos (ITS + tutoría docente), pruebas piloto en cursos de Matemáticas y
Computación, y evaluaciones que incluyan métricas de aprendizaje y percepciones/aceptación por parte
de docentes y estudiantes, además de análisis éticos y de equidad.

Síntesis: principios para la integración responsable de IA en evaluación formativa

A partir de la evidencia revisada se derivan principios para una implementación que balancee beneficio
y mitigación de riesgos:

1. Diseño instruccional centrado en el aprendizaje, no en la tecnología. (Crompton & Burke, 2023).

2. Mediación y formación docente que permitan interpretar y ajustar las salidas de la IA. (Tan et al.,
2024).

3. Transparencia y auditoría de algoritmos para controlar sesgos y explicar decisiones automatizadas.
(UNESCO, 2023).

4. Políticas de integridad académica y alfabetización en uso responsable de GenAI. (Bittle, 2025).

5.
Evaluación mixta (cuantitativa + cualitativa) para medir impacto técnico y percepciones/contexto
local. (U.S. Dept. of Education, 2023).

METODOLOGÍA

Diseño de investigación

El estudio se desarrolló bajo un diseño mixto secuencial explicativo, combinando enfoques cuantitativos
y cualitativos para analizar el uso de herramientas de inteligencia artificial (IA) en la evaluación
formativa universitaria en la Universidad Técnica Luis Vargas Torres de Esmeraldas (UTLVTE). Este
diseño permitió comprender tanto los efectos medibles en el aprendizaje como las percepciones y
experiencias de docentes y estudiantes. La estructura metodológica siguió los lineamientos de Creswell
y Plano-Clark (2018), garantizando rigor, triangulación y coherencia metodológica.
pág. 7247
Enfoque y paradigma

La investigación se enmarcó en el paradigma pragmático, el cual facilita la integración de diferentes
tipos de datos para abordar problemas educativos reales. Este paradigma resultó pertinente debido a la
necesidad de analizar la utilidad pedagógica, las limitaciones prácticas y las implicaciones éticas del
uso de IA en procesos evaluativos.

Población y muestra

La población estuvo conformada por docentes y estudiantes pertenecientes a diversas carreras de la
UTLVTE que participaron en actividades académicas donde se aplicaron herramientas de IA con fines
evaluativos.

Muestra cuantitativa: Se trabajó con 92 estudiantes seleccionados mediante muestreo aleatorio simple,
considerando representatividad por carrera, género y nivel de experiencia digital.

Muestra cualitativa: Se seleccionaron 8 docentes mediante muestreo intencional. Los docentes
provenían de asignaturas diversas impartidas en diferentes programas académicos, tales como
Pedagogía, Contabilidad, Computación, Trabajo Social, Ingeniería y Matemática. Además, participaron
12 estudiantes en entrevistas y grupos focales.

Técnicas e instrumentos de recolección de datos

Fase cuantitativa

Encuesta estructurada aplicada a los estudiantes, compuesta por 24 ítems tipo Likert (15) para
evaluar:

Uso de herramientas de IA en actividades evaluativas.

Percepción de utilidad en la retroalimentación formativa.

Nivel de confianza en las respuestas generadas por IA.

Impacto percibido en el aprendizaje.

Pruebas diagnósticas y de salida (pretest y postest) relacionadas con contenidos impartidos en las
asignaturas donde se incorporó IA, orientadas a medir cambios en el rendimiento académico.

Registro de actividad de IA, en el cual se recopilaron:

Número de tareas corregidas por IA.

Tipo de retroalimentación brindada.
pág. 7248
Opciones de mejora sugeridas a estudiantes.

Tiempo de uso de la herramienta.

Fase cualitativa

Entrevistas semiestructuradas con docentes y estudiantes, orientadas a explorar experiencias,
percepciones, desafíos y oportunidades identificadas durante el proceso de evaluación asistida por IA.

Grupos focales con estudiantes (dos grupos de seis integrantes cada uno), donde se discutió la precisión
de la retroalimentación, su utilidad para mejorar el aprendizaje y las implicaciones éticas del uso de IA.

Análisis documental de políticas institucionales, lineamientos de evaluación y registros académicos,
con el objetivo de contextualizar las prácticas evaluativas y respaldar la interpretación de los resultados.

Procedimiento

La investigación se desarrolló en tres etapas:

Preparación

Se elaboraron y validaron los instrumentos mediante juicio experto por especialistas en evaluación,
pedagogía y tecnología educativa. Posteriormente, se capacitó a los docentes participantes en el manejo
básico de la herramienta de IA utilizada.

Implementación

Durante un periodo de ocho semanas:

Los docentes aplicaron IA para apoyar la retroalimentación de tareas, actividades formativas y
cuestionarios.

Los estudiantes utilizaron la herramienta como apoyo en el desarrollo y revisión de sus actividades
académicas.

Se recolectaron los datos cuantitativos (encuestas, pruebas y registros de uso).

Al concluir la intervención, se realizaron entrevistas y grupos focales.

Análisis de datos

Cuantitativo: Se aplicaron análisis descriptivos, comparación de medias entre pretest y postest, y
correlaciones entre uso de IA, utilidad percibida y variaciones en el rendimiento académico.
El procesamiento se realizó con el software SPSS v.25.
pág. 7249
Cualitativo: Se utilizó codificación temática siguiendo el enfoque de Braun y Clarke (2021),
identificando categorías emergentes relacionadas con utilidad, confiabilidad, barreras técnicas, apoyo
al aprendizaje y cambios en la percepción evaluativa.

La triangulación entre datos cuantitativos y cualitativos fortaleció la validez del estudio.

Consideraciones éticas

La investigación respetó los principios éticos de consentimiento informado, protección de datos
personales, confidencialidad y voluntariedad. No se recopilaron datos sensibles y toda la información
fue utilizada exclusivamente con fines académicos.

Limitaciones

Entre las principales limitaciones se destacaron:

Variabilidad en el acceso a dispositivos tecnológicos e internet por parte de algunos participantes.

Diferencias en los niveles de competencia digital entre docentes de diferentes carreras.

Dependencia del funcionamiento estable de la herramienta de IA implementada.

No obstante, estas limitaciones fueron consideradas en el análisis, sin afectar la validez global del
estudio.

RESULTADOS Y DISCUSIÓN

Resultados cuantitativos: percepción, uso y rendimiento académico

La implementación de la herramienta de inteligencia artificial (IA) para apoyar la evaluación formativa
permitió identificar tendencias claras en el comportamiento y rendimiento de los estudiantes. Los datos
obtenidos por medio de encuestas, registros de uso y la aplicación del pretest y postest mostraron varios
hallazgos relevantes:

Alta aceptación y percepción positiva de la IA. El 78 % de los estudiantes indicó que la
retroalimentación generada por la IA fue útil para comprender errores, mejorar sus trabajos y orientar
su aprendizaje. La valoración positiva coincide con los resultados de investigaciones recientes
realizadas en contextos latinoamericanos, donde se reporta que el feedback automatizado favorece la
comprensión conceptual y acelera los ciclos de aprendizaje (Fernández Cuevas, 2025). De igual manera,
un estudio realizado en universidades públicas de Argentina evidenció que los estudiantes consideran
que la IA fortalece la autonomía y reduce la ansiedad evaluativa (García & López, 2023).
pág. 7250
Frecuencia moderada de uso. Los registros de la plataforma muestran que un 65 % de los estudiantes
utilizó la herramienta de IA al menos en tres actividades evaluativas. No obstante, un 35 % la empleó
de forma ocasional o se mantuvo en prácticas tradicionales. Este comportamiento coincide con lo
documentado en la literatura sudamericana, especialmente en estudios de Chile y Colombia, donde la
adopción intermedia se atribuye a brechas de alfabetización digital y desigualdades tecnológicas
(Sanhueza & Rivera, 2023; Martínez & Burbano, 2024).

Impacto en el rendimiento académico. El análisis del pretest y postest reveló un incremento
estadísticamente significativo (p < 0,05) en el rendimiento general. La mejora fue más marcada en
asignaturas teórico-prácticas, lo que coincide con hallazgos de estudios brasileños que reportan que el
uso de IA en actividades como análisis de textos, resolución de problemas o programación produce
mejoras notables en el aprendizaje (Pereira & Souza, 2024).

Correlación entre percepción y desempeño. El análisis correlacional mostró que los estudiantes con
mejor percepción hacia la IA obtuvieron mayores mejoras en su desempeño académico. Esto respalda
la idea de que la disposición y actitud hacia la tecnología influyen en su efectividad, una conclusión
también observada en estudios mexicanos sobre alfabetización digital y motivación académica
(Hernández & Roa, 2022).

Resultados cualitativos: percepciones, barreras y experiencias

El análisis temático de entrevistas y grupos focales permitió identificar cuatro categorías principales:

a) Utilidad pedagógica y empoderamiento estudiantil

Los estudiantes percibieron que la retroalimentación inmediata de la IA funcionó como un “tutor
virtual” que facilitó la comprensión de conceptos y la mejora gradual de sus tareas. Esto concuerda con
Gómez Martínez y Martínez Cuenca (2024), quienes señalan que la IA permite personalizar el
aprendizaje y brinda oportunidades de autoevaluación permanente en universidades paraguayas.

b) El rol docente sigue siendo indispensable

Docentes participantes enfatizaron que la IA no sustituye el juicio profesional, especialmente en
asignaturas donde se requiere análisis crítico y evaluación de competencias complejas. Este enfoque
coincide con lo reportado por Bañuelos Márquez y Romero Martínez (2024), quienes encontraron que
la IA debe ser mediada pedagógicamente para garantizar calidad y profundidad evaluativa.
pág. 7251
c) Barreras técnicas y desigualdades

La falta de conectividad, limitaciones en dispositivos y escasa alfabetización digital emergieron como
barreras importantes. Estas dificultades son ampliamente reportadas en estudios de Ecuador, Perú y
Bolivia, donde la brecha digital es un factor que afecta directamente la adopción de tecnologías
educativas avanzadas (Valverde & Huamán, 2023; Yépez & Saltos, 2024).

d) Preocupaciones éticas

Algunos participantes expresaron dudas sobre la confiabilidad, transparencia y posibles sesgos de la IA.
Este hallazgo coincide con investigaciones recientes que advierten sobre los riesgos éticos en el uso de
algoritmos en procesos evaluativos, especialmente en instituciones con limitaciones de regulación
tecnológica (Rodríguez & Sánchez, 2023; Vázquez, 2024).

DISCUSIÓN

Coincidencias, aportes y contraste con estudios previos

Los resultados de esta investigación se alinean con la tendencia internacional y latinoamericana respecto
al uso de IA como apoyo en la evaluación formativa. La revisión sistemática de Pereira et al. (2023)
sobre IA en educación superior en América Latina concluye que la retroalimentación automática, los
sistemas de tutoría inteligente y los modelos predictivos son los usos más efectivos para elevar el
rendimiento y mejorar la experiencia educativa.

Sin embargo, la mayoría de estudios previos en la región han sido exploratorios o únicamente
descriptivos. Este trabajo aporta un enfoque empírico al combinar:

mediciones de antes y después (pretest-postest),
análisis de percepción,
registros reales de uso de IA,
evidencia cualitativa de actores universitarios.
Además, este estudio confirma que la efectividad de la IA depende tanto de factores humanos como
tecnológicos. La correlación entre actitud positiva y rendimiento coincide con lo planteado en estudios
mexicanos y colombianos que destacan el rol motivacional y afectivo en la adopción tecnológica
(Hernández & Roa, 2022; Martínez & Burbano, 2024).
pág. 7252
Finalmente, coincidiendo con la literatura ecuatoriana reciente, este estudio refuerza la necesidad de
políticas institucionales que aborden temas como:

formación docente en IA,
infraestructura adecuada,
ética y regulación,
acceso equitativo a herramientas digitales (Yépez & Saltos, 2024).
Novedad científica, aplicaciones prácticas y proyecciones

La principal novedad de este estudio radica en que constituye una de las pocas investigaciones con un
diseño mixto completo en universidades del Ecuador sobre el impacto real de la IA en evaluación
formativa.

Los hallazgos pueden contribuir a:

el diseño de modelos institucionales de evaluación asistida por IA,
la creación de políticas internas para el uso ético y transparente de estas herramientas,
la mejora de la formación docente en TIC avanzadas,
la optimización de la retroalimentación y el seguimiento académico,
la reducción de carga docente en asignaturas masivas.
Para investigaciones futuras, se recomienda profundizar en:

análisis por área disciplinaria,
impacto a largo plazo,
relación entre alfabetización digital, género y desempeño,
estudios comparativos entre universidades públicas ecuatorianas.
ILUSTRACIONES, TABLAS, FIGURAS.

Tabla 1: Distribución de docentes según asignatura y nivel de uso de IA (n = 18)

Asignatura
Bajo uso de IA Uso moderado Uso alto Total
Matemáticas
2 3 1 6
Computación
0 2 3 5
Ciencias Sociales
2 2 0 4
Educación (Pedagogía)
1 1 1 3
Total
5 8 5 18
Nota. “Uso de IA” hace referencia al nivel de integración de herramientas de inteligencia artificial generativa y analítica en actividades
docentes: planificación, retroalimentación y evaluación.
pág. 7253
Tabla 2: Medias y desviaciones estándar de variables del estudio (n = 18)

Variable evaluada
Media (M) Desviación estándar (DE) Rango
Competencia digital docente
3.45 0.58 24
Conocimiento sobre IA aplicada a la evaluación
2.88 0.74 14
Percepción de utilidad de la IA
4.22 0.69 35
Intención de uso futuro
4.11 0.71 35
Nota. Medición en escala Likert de 1 a 5 puntos.

Tabla 3: Matriz de correlaciones entre variables clave (coeficiente de Pearson)

Variables
1. Competencia digital 2. Conocimiento IA 3. Percepción utilidad IA 4. Intención de uso
1
.61* .48* .52*
2
.61* .55* .59*
3
.48* .55* .78**
4
.52* .59* .78**
Nota. *p < .05; *p < .01.Correlaciones positivas indican que un mayor conocimiento y percepción de utilidad predicen mayor
intención de uso.

Tabla 4: Frecuencia de herramientas de IA utilizadas por los docentes (n = 18)

Herramienta IA
Frecuencia (f) Porcentaje (%)
ChatGPT
16 88.9%
Gemini
9 50.0%
Copilot
7 38.9%
Turnitin con IA
11 61.1%
Otras (Socratic, Quillbot, etc.)
5 27.8%
Nota. Los docentes podían seleccionar más de una herramienta.

Tabla 5: Percepción de riesgos asociados al uso de IA en evaluación (n = 18)

Riesgo percibido
Bajo Moderado Alto Total
Plagio o dependencia del estudiante
1 4 13 18
Sesgo en recomendaciones de IA
3 11 4 18
Desconexión pedagógica del docente
6 8 4 18
Nota. Mediciones en categorías ordinales basadas en frecuencia percibida por parte del docente.

CONCLUSIONES

Los resultados obtenidos permiten afirmar que la incorporación de la inteligencia artificial en la práctica
docente universitaria no constituye únicamente una herramienta tecnológica, sino un componente
estructural que redefine la dinámica pedagógica dentro de las carreras de la UTLVTE. El análisis
comparado de los datos muestra que la IA opera como un mediador cognitivo que amplifica las
capacidades del docente para gestionar información, diseñar actividades y atender la diversidad
pág. 7254
estudiantil. Esta conclusión se sustenta en la relación observada entre la frecuencia de uso de IA y la
mejora percibida en la planificación y retroalimentación, coherente con marcos teóricos sobre
mediación tecnológica y cognición extendida planteados en la literatura reciente.

Una interpretación central de los hallazgos indica que la IA representa un punto de inflexión en las
prácticas educativas, en tanto posibilita modelos pedagógicos más adaptativos y centrados en el
aprendizaje, siempre que exista un dominio competente por parte del docente. La evidencia empírica
reveló que los profesores que emplean IA de forma sistemática desarrollan mayores niveles de
autonomía digital, lo que refuerza la noción de que las competencias tecnológicas no son un fin en sí
mismas, sino un medio para transformar los procesos didácticos.

No obstante, los resultados también muestran un equilibrio inestable entre el potencial pedagógico de
la IA y las limitaciones institucionales que condicionan su adopción. El reducido nivel de formación
especializada genera una brecha entre la intención de uso y la integración efectiva en las aulas. Esta
brecha no es exclusiva de la UTLVTE: estudios latinoamericanos han documentado un patrón similar,
en el cual la falta de capacitación y acompañamiento pedagógico limita los beneficios de las tecnologías
emergentes. Este paralelismo fortalece la validez interpretativa del presente estudio, mostrando que se
inserta en tendencias regionales verificables.

Asimismo, la investigación evidencia que la IA contribuye a la reducción de la carga operativa docente,
permitiendo que los profesores destinen más tiempo a actividades de análisis, toma de decisiones y
seguimiento académico. A nivel interpretativo, este hallazgo sugiere que la IA puede catalizar la
transición hacia un rol docente más estratégico y menos centrado en tareas rutinarias, coherente con los
enfoques contemporáneos de docencia universitaria basados en pensamiento crítico y toma de
decisiones pedagógicas.

Sin embargo, el análisis también revela interrogantes no resueltos que requieren investigaciones
complementarias. Entre ellos se identifican:

la necesidad de determinar el nivel óptimo de dependencia tecnológica que no altere la autonomía
cognitiva del docente;

el impacto de la IA en la evaluación de aprendizajes en disciplinas específicas;
las implicaciones éticas de sistemas de IA que participan en decisiones pedagógicas de alto impacto.
pág. 7255
Estas interrogantes abren un campo pendiente de exploración que demanda la participación de equipos
multidisciplinarios y comparaciones interinstitucionales, tanto dentro como fuera del contexto
ecuatoriano. El presente estudio, por tanto, no constituye un cierre, sino un punto de partida para una
agenda investigativa que debe continuar ampliándose en la región.

REFERENCIAS BIBLIOGRAFICAS

Bañuelos Márquez, A. M., & Romero Martínez, E. (2024). La mediación docente en el uso de
inteligencia artificial generativa en educación superior. Revista Wimb Lu, 19(2), 4560.

Bittle, K. (2025). Inteligencia artificial generativa e integridad académica en la educación superior: Una
revisión sistemática de la literatura. Information, 16(4), 296.

https://doi.org/10.3390/infoXXXXXX

Bonilla-Jurado, D. (2025). Inteligencia artificial en la educación superior: Análisis predictivo de
actitudes y dependencia en estudiantes universitarios ecuatorianos. Sustainability, 17(17), 7741.

Braun, V., & Clarke, V. (2021). Análisis temático: Una guía práctica. SAGE Publications.

Creswell, J. W., & Plano-Clark, V. L. (2018). Diseño y conducción de investigaciones con métodos
mixtos (3.ª ed.). SAGE Publications.

Crompton, H., & Burke, D. (2023). La inteligencia artificial en la educación superior: Estado actual del
campo.
International Journal of Educational Technology in Higher Education, 20, 22.
https://doi.org/10.1186/s41239
-023-00392-8
de la Ossa, L. M., Rentería, J. H., Gómez, F. F., & Pulido, G. P. (2024). Integración de la inteligencia
artificial en la educación superior: Revisión sistemática y perspectivas en América Latina.
Migration Letters, 21(S4), 12101224.

Educational Technology in Higher Education Journal. (2022). Aplicaciones de inteligencia artificial en
la educación superior latinoamericana: Una revisión sistemática. Springer.

Fernández Cuevas, H. (2025). Evaluación formativa e inteligencia artificial: Estrategias para un
aprendizaje humano y eficaz. MLS Pedagogy, Culture and Innovation.

Fernández Cuevas, R. (2025). Efectos de la retroalimentación automatizada en el aprendizaje
significativo en universidades latinoamericanas. MLS Journals.
pág. 7256
Fodouop Kouam, A. W. (2024). Eficacia de los sistemas de tutoría inteligente en estudiantes con
distintos niveles de experiencia en programación. Discover Education.

https://doi.org/10.1007/s44217-024-00385-3

García, P., & López, M. (2023). Inteligencia artificial y percepción estudiantil en universidades públicas
argentinas. Revista Educación y Tecnología, 12(3), 5572.

Gómez Martínez, L. A., & Martínez Cuenca, A. N. (2024). Evaluación del estudiante universitario en
tiempos de inteligencia artificial. Revista Científica de la Facultad de Filosofía, 18(2), 90110.

Hernández, J., & Roa, L. (2022). Alfabetización digital y motivación académica en contextos
universitarios mexicanos. Revista Mexicana de Investigación Educativa, 27(94), 345368.

Lim, T., et al. (2025). Percepciones estudiantiles sobre ética de la inteligencia artificial en contextos
educativos.
International Journal of Educational Technology in Higher Education.
Martínez, C. (2025).
Inteligencia artificial generativa y autenticidad académica: Retos contemporáneos.
Revista Latinoamericana de Educación Digital.

Martínez, R., & Burbano, A. (2024). Brecha digital y adopción tecnológica en universidades
colombianas. Revista Colombiana de Educación, 88, 112130.

Mora Zambrano, E. R. (2025). Evaluación automatizada mediante inteligencia artificial: Impacto en la
objetividad y eficiencia docente. Revista Ingenio Global.

Panqueban, D. (2024). Inteligencia artificial en la educación matemática. Revista Latinoamericana de
Educación Matemática, 16(2), 210225.

Pereira, L., & Souza, R. (2024). Impacto de la inteligencia artificial en el aprendizaje universitario en
Brasil. Revista Brasileira de Educação Superior, 10(1), 7598.

Pereira, L., Gómez, A., & Ríos, M. (2023). Inteligencia artificial en educación superior en América
Latina: Revisión sistemática de aplicaciones y resultados. Education Policy Analysis Archives,
31(45), 128.

Rodríguez, S., & Sánchez, P. (2023). Riesgos éticos en el uso de algoritmos en procesos evaluativos
universitarios. Revista Iberoamericana de Educación Superior, 14(41), 155172.

Sanhueza, M., & Rivera, J. (2023). Adopción tecnológica y alfabetización digital en universidades
chilenas. Revista Educación y Sociedad, 44(2), 98117.
pág. 7257
Son, T., Kim, H., & Lee, J. (2024). Sistemas de tutoría inteligente en educación matemática: Revisión
sistemática (20032023). Computers, 13(10), 270.

Stokkink, P. (2025). Impacto de la inteligencia artificial en la evaluación educativa. arXiv Preprint.

Tan, X., Cheng, G., & Ling, M. H. (2024).
Inteligencia artificial en la enseñanza y el desarrollo
profesional docente: Revisión sistemática (20152024). Computers & Education: Artificial
Intelligence.

UNESCO. (2023). Aprovechar la era de la inteligencia artificial en la educación superior. UNESCO
Publishing.

U.S. Department of Education, Office of Educational Technology. (2023). Inteligencia artificial y el
futuro de la enseñanza y el aprendizaje: Perspectivas y recomendaciones. Departamento de
Educación de EE. UU.

Valverde, J., & Huamán, C. (2023). Brecha digital en la educación superior andina: Desafíos
estructurales y tecnológicos. Revista Peruana de Investigación Educativa, 15(2), 4466.

Vázquez, M. (2024). Transparencia algorítmica y responsabilidad en sistemas de inteligencia artificial
educativa. Revista Iberoamericana de Tecnología Educativa.

Yépez, D., & Saltos, M. (2024). Infraestructura tecnológica y acceso equitativo en universidades
públicas ecuatorianas. Revista Educación y Desarrollo, 9(1), 6079.