VALIDACIÓN DE UNA ESCALA SOBRE LA
PERCEPCIÓN DE LA INTELIGENCIA
ARTIFICIAL EN LA EDUCACIÓN SUPERIOR
VALIDATION OF A SCALE ON THE PERCEPTION OF
ARTIFICIAL INTELLIGENCE IN HIGHER EDUCATION
Carlos Arturo Torres-Gastelú
Universidad Veracruzana
Carlos Torres-Real
Universidad Veracruzana

pág. 5706
DOI: https://doi.org/10.37811/cl_rcm.v9i2.17324
Validación de una escala sobre la percepción de la Inteligencia Artificial en
la educación superior
Carlos Arturo Torres-Gastelú1
torresgastelu@gmail.com
https://orcid.org/0000-0003-2527-9602
Universidad Veracruzana
Veracruz, México
Carlos Torres-Real
ctorresreal@hotmail.com
https://orcid.org/0000-0003-3500-7803
Universidad Veracruzana
Boca del Río, México
RESUMEN
La IA tiene el potencial para personalizar el aprendizaje, automatizar evaluaciones y proporcionar
retroalimentación inmediata. El objetivo del artículo es describir el proceso de diseño y validación de la
escala de percepción titulada PEIIA, creada para medir la percepción de la Inteligencia Artificial en la
educación superior. La escala tipo Likert desarrollada contiene nueve dimensiones: efectividad de uso
de la IA, mejoras de aprendizaje, dependencia cognitiva y tecnológica, facilidad de uso, apoyo hacia el
aprendizaje, reacciones emocionales hacia la IA, precisión de la IA, aversión hacia el uso de la IA y
percepción docente. Se aplicó a 1010 estudiantes inscritos en una universidad pública mexicana (58.9%
de mujeres y 41.1% de hombres). Se realizó un análisis factorial exploratorio (AFE) y análisis factorial
confirmatorio (AFC) para determinar su validez, que derivó en la eliminación de ítems con baja o nula
correlación. Como parte de los resultados, se obtuvo un alfa de Cronbach de 0.945 y un índice Kaiser-
Meyer-Olkin (KMO) de 0.960 global para las siete subescalas. La versión final contiene 35 ítems
agrupados en siete factores. La escala PEIIA cuenta con un nivel aceptable de confiabilidad y validez
para medir la percepción de la Inteligencia Artificial en la educación superior.
Palabras clave: aprendizaje, enseñanza, estudiante universitario, inteligencia artificial, medición
1 Autor principal.
Correspondencia: torresgastelu@gmail.com

pág. 5707
Validation of a scale on the perception of Artificial Intelligence in higher
education
ABSTRACT
AI has the potential to personalize learning, automate assessments, and provide immediate feedback.
The objective of this article is to describe the design and validation process of the perception scale titled
PEIIA, created to measure the perception of Artificial Intelligence in higher education. The Likert-type
scale developed contains nine dimensions: effectiveness of AI use, learning improvements, cognitive
and technological dependence, ease of use, learning support, emotional reactions to AI, AI accuracy,
aversion to AI use, and teacher perception. It was applied to 1,010 students enrolled in a Mexican public
university (58.9% women and 41.1% men). An exploratory factor analysis (EFA) and confirmatory
factor analysis (CFA) were performed to determine its validity, which led to the elimination of items
with low or no correlation. The results showed a Cronbach's alpha of 0.945 and a Kaiser-Meyer-Olkin
(KMO) index of 0.960 overall for the seven subscales. The final version contains 35 items grouped into
seven factors. The PEIIA scale has an acceptable level of reliability and validity for measuring
perceptions of Artificial Intelligence in higher education.
Keywords: learning, teaching, college student, artificial intelligence, measurement
Artículo recibido 08 marzo 2025
Aceptado para publicación: 15 abril 2025

pág. 5708
INTRODUCCIÓN
La inteligencia artificial (IA) se ha consolidado como un campo de investigación y aplicación de
vanguardia, transformando numerosos sectores de la sociedad, incluida la educación superior (Vera et
al., 2023). Su integración, especialmente a través de herramientas de IA generativa como ChatGPT, ha
despertado un interés creciente en la comunidad académica, modificando las dinámicas de enseñanza y
aprendizaje (Larico, 2024). La IA, definida como la disciplina científica que desarrolla programas
informáticos o máquinas capaces de simular tareas cognitivas humanas, como aprender, razonar y tomar
decisiones autónomas (Vera et al., 2023), está revolucionando el panorama educativo (Cruz et al., 2024).
Su potencial para personalizar el aprendizaje, automatizar evaluaciones, proporcionar retroalimentación
inmediata y reducir brechas de habilidades es considerable.
Sin embargo, la rápida adopción de la IA en las universidades no está exenta de desafíos significativos.
Preocupaciones sobre la integridad académica, el plagio, la ética en el uso de datos estudiantiles, los
sesgos algorítmicos, la privacidad y la posible disminución del pensamiento crítico son temas
recurrentes en la literatura (Vera et al., 2023). Existe un debate sobre si la IA reemplazará ciertas
funciones docentes o si actuará principalmente como una herramienta para aumentar las capacidades
humanas (Negrete y Mosquera, 2025). Esta dualidad –el inmenso potencial junto a los riesgos
inherentes– subraya la urgencia de comprender cómo los estudiantes universitarios interactúan
realmente con estas tecnologías.
Ante este escenario, la medición rigurosa del uso de la IA por parte de los estudiantes se convierte en un
imperativo. Ir más allá de las anécdotas y obtener datos sistemáticos es crucial para varios propósitos:
informar el diseño de estrategias pedagógicas efectivas que integren la IA de manera significativa;
desarrollar políticas institucionales claras y fundamentadas que guíen el uso ético y responsable; abordar
proactivamente las preocupaciones éticas sobre equidad, sesgo y privacidad (Gallent et al., 2023);
asegurar un acceso equitativo a las herramientas y al apoyo necesario (Vera et al., 2023); y,
fundamentalmente, preparar a los estudiantes con las competencias necesarias para desenvolverse en un
futuro laboral y social cada vez más mediado por la IA (Slimi, 2023). La creación y validación de
instrumentos psicométricos robustos es esencial para lograr esta comprensión profunda (Narváez y
Medina, 2024).

pág. 5709
Es crucial reconocer que el propósito declarado del uso de la IA está directamente relacionado con las
consideraciones éticas y la integridad académica. Utilizar la IA para generar ideas se percibe de manera
muy diferente a emplearla para redactar trabajos completos y presentarlos como propios (Vera et al.,
2023). Las políticas institucionales a menudo distinguen entre usos permitidos (por ejemplo, con
reconocimiento explícito) y usos prohibidos, y las directrices éticas enfatizan la transparencia y la
distinción entre la contribución humana y la generada por IA.
Además, los propósitos por los cuales los estudiantes utilizan la IA reflejan su comprensión (o falta de
ella) de las capacidades y limitaciones de estas herramientas, así como sus estrategias de aprendizaje y
motivaciones subyacentes (Yurt y Kasarci, 2024). Un estudiante que usa la IA principalmente para tareas
básicas como la corrección gramatical (Swidan et al., 2025) probablemente tenga motivaciones y
percepciones diferentes a uno que la emplea para análisis de investigación complejos. El uso de la IA
para tutoría personalizada (Larico, 2024) puede indicar una orientación hacia el aprendizaje
autodirigido, posiblemente vinculada a una alta motivación intrínseca o de utilidad (Yurt y Kasarci,
2024). Por el contrario, una dependencia excesiva de la IA para completar tareas podría señalar una baja
autoeficacia, alta ansiedad o una fuerte presión por obtener resultados externos. Así, el patrón de
propósitos reportados por un estudiante puede ayudar a perfilar su enfoque general hacia el aprendizaje
y la integración tecnológica (Vera et al., 2023).
Partiendo de lo anterior, la percepción de la Inteligencia Artificial en la educación superior que se
propone en el presente artículo queda conformada por nueve dimensiones: efectividad de uso de la IA,
mejoras de aprendizaje, dependencia cognitiva y tecnológica, facilidad de uso, apoyo hacia el
aprendizaje, reacciones emocionales hacia la IA, precisión de la IA, aversión hacia el uso de la IA y
percepción docente.
Se partió de la pregunta de investigación: ¿Qué nivel de confiabilidad y validez posee la escala PEIIA
para medir las percepciones de los estudiantes a nivel universitario hacia la incorporación de Inteligencia
Artificial en el ámbito educativo? El objetivo de la investigación fue describir el proceso de
confiabilidad y validez de la escala PEIIA. Se parte de la hipótesis de que dicho instrumento reúne los
criterios de confiabilidad y validez necesarios para ser utilizada en estudiantes universitarios.

pág. 5710
Estudios relacionados
Con respecto a la dimensión Efectividad de uso de la IA, de acuerdo con Osman (2025), la utilidad y la
facilidad de uso influyen en la intención de uso a través de su impacto en la actitud general del estudiante
hacia la tecnología. Un estudiante que percibe la IA como útil y fácil de usar desarrollará una actitud
más positiva, lo que a su vez fortalecerá su intención de utilizarla.
Por otro lado, la autoeficacia en IA mide la confianza de los estudiantes en su habilidad para usar
herramientas de IA de manera efectiva para lograr sus objetivos académicos (Yurt y Kasarci, 2024). La
autoeficacia es un predictor bien establecido del uso de la tecnología y del rendimiento (García et al.,
2022).
En relación con la dimensión Dependencia cognitiva y tecnológica, un tema recurrente en la
investigación es la ambivalencia en las actitudes estudiantiles: reconocen los beneficios potenciales de
la IA, pero al mismo tiempo albergan preocupaciones y ansiedades significativas (Katsantonis y
Katsantonis, 2024). Los estudiantes pueden ver el potencial de la IA, pero tener reservas sobre su
impacto laboral (Cao et al., 2023) o sobre la dependencia excesiva y los riesgos para la integridad
(Alshamy et al., 2025).
Sobre la dimensión Facilidad de uso, investigaciones recientes establecen que los estudiantes que se
sienten más competentes en el manejo de la IA tienden a confiar más en ella. Un estudio encontró que
la AISE explicaba una parte significativa (32.9%) de la varianza en la Confianza en la IA (Aliño et al.,
2024). Esto implica que las experiencias positivas y la percepción de competencia fomentan la confianza
en los sistemas de IA.
La falta de confianza, alimentada por preocupaciones sobre la precisión, el sesgo y la privacidad
(Khairuddin et al., 2024), actúa como una barrera significativa para la adopción de la IA. Para algunos
estudiantes, estas preocupaciones pueden superar los beneficios percibidos. La desconfianza y el
escepticismo se asocian a menudo con una falta de comprensión o experiencias negativas previas (Aliño
et al., 2024).
Respecto a la dimensión Reacciones emocionales hacia la IA, los estudiantes sufren miedos y
preocupaciones específicas, como el temor al reemplazo laboral futuro, la creencia de que la IA
aumentará las desigualdades sociales, la preocupación por los peligros potenciales si no se regula

pág. 5711
éticamente, o la percepción de consecuencias negativas en el aprendizaje (Vera et al., 2023). Un estudio
encontró que la dimensión emocional de la actitud hacia la IA era la mejor valorada por los estudiantes
(Katsantonis y Katsantonis, 2024).
Sobre la dimensión Precisión de la IA, la confianza en las capacidades y los resultados de la IA es otro
factor psicológico determinante (Khairuddin et al., 2024). La confianza es crucial para el compromiso
del usuario y la aceptación de las tecnologías de IA (Aliño et al., 2024). También son relevantes las
preocupaciones sobre la fiabilidad y precisión de la IA, incluyendo el riesgo de sesgos incrustados en
los algoritmos o la generación de información incorrecta o "alucinaciones" (Khairuddin et al., 2024).
En relación a la dimensión Aversión hacia el uso de la IA, un estudio encontró que el conocimiento sobre
IA influía positivamente en la percepción de utilidad (Swidan et al., 2025). La desconfianza y el
escepticismo a menudo se vinculan a la falta de comprensión, y existe una falta de conocimiento
generalizada sobre la IA en la población (De Lara, 2022).
La teoría de la autoeficacia postula que la baja confianza lleva a evitar tareas desafiantes (Chávez et al.,
2024). La ansiedad del usuario, influenciada por percepciones de baja facilidad de uso o baja
autoeficacia, puede afectar negativamente la actitud y la adopción (Osman, 2025). La reducción de la
ansiedad, por otro lado, puede mediar la relación entre la IA y la cognición creativa (Wang y Chuang,
2024).
METODOLOGÍA
Se trata de un tipo de estudio cuantitativo, no experimental y transversal que pretende identificar las
percepciones de los estudiantes universitarios hacia el uso de la Inteligencia Artificial.
Participantes
El instrumento fue aplicado de manera presencial en una universidad pública mexicana alcanzando una
muestra de 1010 estudiantes inscritos en el periodo agosto 2024-enero 2025 seleccionados de manera
aleatoria a conveniencia del investigador. Se trata de una muestra no probabilística con la participación
de siete licenciaturas. El instrumento se aplicó a la mayoría de los semestres excluyendo a los de nuevo
ingreso. La composición de la muestra por sexo fue de 58.9% mujeres y 41.1% hombres. La distribución
por edad, ordenada de menor a mayor, reveló que el 23.9% de los estudiantes tenían entre 18 y 19 años,

pág. 5712
el 50.2% entre 20 y 21 años, el 19.8% entre 22 y 23 años, el 3.7% entre 24 y 25 años, y el 2.5% eran
mayores de 26 años.
Instrumento
Se aplicó un instrumento conformado por 66 ítems valorado mediante una escala Likert de cinco
opciones que van desde totalmente de acuerdo, de acuerdo, indiferente, en desacuerdo y totalmente en
desacuerdo.
Procedimiento
La fiabilidad del instrumento se evaluó mediante el alfa de Cronbach, obteniendo un valor inicial de
0.949, lo que indica una alta consistencia interna. En tanto, la validez de contenido se hizo a través del
juicio de expertos y la correspondiente revisión de la literatura. Al principio el instrumento estuvo
conformado por nueve dimensiones, al término de la validación quedaron siete dimensiones con 35
ítems.
La recolección de datos cumplió con las normas éticas solicitando la autorización a las autoridades
mediante la expedición de un oficio solicitando el apoyo para su aplicación. Los jefes de las diferentes
licenciaturas proporcionaron un listado de horarios, días y maestros. También enviaron un correo a los
maestros solicitando su apoyo. Antes de la aplicación, se les explicó el propósito del estudio y se les
pidió que llenaran el consentimiento informado de los participantes, en el cual proporcionaron sus
nombres y firmas. De la misma manera, se les indicó que se trataba de un estudio sin fines de lucro
donde se respetaría la confidencialidad y el anonimato de sus respuestas.
Análisis de datos
Para la validación del instrumento se ejecutó el Análisis Factorial Exploratorio (AFE) mediante la
identificación de los componentes principales y sus correspondientes pruebas de Alpha de Cronbach.
En tanto, para el Análisis Factorial Confirmatorio (AFC) se emplearon índices de ajuste para evaluar el
modelo teórico propuesto y su congruencia con los datos observados. Estas pruebas fueron realizadas
con dos herramientas de Software: SPSS versión 25 y AMOS versión 23.

pág. 5713
RESULTADOS Y DISCUSIÓN
Análisis descriptivos
Se realizaron análisis descriptivos como evidencia de la normalidad univariada en la distribución de los
puntajes de los ítems. En la Tabla 1 se muestran los valores de medias (M), desviaciones estándar (DE),
asimetría y curtosis de todos los ítems que componen el cuestionario PEIIA. Los valores de asimetría y
curtosis sugieren la existencia de normalidad univariada en la distribución de los puntajes de los ítems,
debido a que los valores de asimetría y curtosis se consideran aceptables, al encontrarse en los rangos
de -3 a +3 y de -10 a +10, respectivamente (Griffin y Steinbrecher, 2013; Kline, 2016).
Tabla 1
Medias, desviaciones estándar, asimetría y curtosis de los 66 ítems iniciales de PEIIA
Ítems M DE Asimetría Curtosis Ítems M DE Asimetría Curtosis
EIA1 3.86 0.980 -0.645 0.039 FDU34 4.06 0.949 -0.889 0.443
EIA2 3.46 1.084 -0.349 -0.383 FDU35 3.70 0.954 -0.335 -0.216
EIA3 3.64 1.066 -0.459 -0.372 FDU36 3.67 1.006 -0.420 -0.194
EIA4 3.75 1.074 -0.629 -0.212 AHA37 3.33 1.100 -0.274 -0.578
EIA5 3.59 1.114 -0.480 -0.435 AHA38 3.48 1.080 -0.474 -0.269
EIA6 3.94 1.025 -0.826 0.222 AHA39 3.39 1.064 -0.297 -0.418
EIA7 3.81 1.079 -0.677 -0.230 AHA40 3.37 1.080 -0.303 -0.421
EIA8 3.99 0.976 -0.862 0.406 AHA41 3.53 1.007 -0.458 -0.054
MDA9 3.88 1.050 -0.734 -0.084 AHA42 3.63 1.038 -0.492 -0.195
MDA10 3.50 1.090 -0.383 -0.387 AHA43 3.70 1.010 -0.606 -0.012
MDA11 4.00 0.991 -1.016 0.796 RIA44 3.53 1.102 -0.370 -0.463
MDA12 4.01 1.628 14.453 360.641 RIA45 3.56 1.061 -0.373 -0.337
MDA13 4.04 1.014 -1.162 1.103 RIA46 3.59 1.004 -0.413 -0.101
MDA14 3.85 1.017 -0.730 0.108 RIA47 3.68 1.054 -0.532 -0.230
MDA15 3.35 1.114 -0.283 -0.516 RIA48 3.58 1.020 -0.434 -0.178
MDA16 3.95 1.016 -0.981 0.656 RIA49 3.68 1.090 -0.494 -0.465
MDA17 3.37 1.118 -0.222 -0.573 PIA50 3.22 1.041 -0.073 -0.381
DCT18 2.53 1.214 0.479 -0.649 PIA51 3.43 0.983 -0.213 -0.270
DCT19 2.46 1.122 0.511 -0.359 PIA52 3.48 0.939 -0.294 -0.112
DCT20 2.27 1.094 0.694 -0.126 PIA53 3.21 0.918 -0.003 0.008
DCT21 2.31 1.140 0.626 -0.392 PIA54 3.37 0.965 -0.106 -0.087
DCT22 2.04 1.165 0.984 0.069 PIA55 3.32 0.979 -0.187 -0.164
DCT23 2.42 1.177 0.496 -0.588 PIA56 3.47 0.993 -0.287 -0.239

pág. 5714
DCT24 2.34 1.156 0.581 -0.432 AIA57 2.42 1.178 0.516 -0.456
DCT25 2.11 1.190 0.904 -0.090 AIA58 2.27 1.151 0.704 -0.249
DCT26 2.25 1.217 0.679 -0.505 AIA59 2.57 1.197 0.353 -0.710
DCT27 2.51 1.226 0.425 -0.766 AIA60 2.41 1.188 0.528 -0.547
DCT28 2.56 1.186 0.328 -0.674 PDE61 3.55 1.163 -0.440 -0.588
FDU29 3.32 1.071 -0.118 -0.527 PDE62 3.63 1.086 -0.469 -0.344
FDU30 3.75 1.077 -0.555 -0.456 PDE63 3.33 1.070 -0.173 -0.414
FDU31 3.98 0.979 -0.847 0.391 PDE64 3.34 1.160 -0.151 -0.647
FDU32 3.81 0.983 -0.584 -0.033 PDE65 3.58 1.082 -0.386 -0.362
FDU33 3.80 1.135 -0.748 -0.207 PDE66 3.00 1.249 0.000 -0.872
EIA = Efectividad de uso de la IA; MDA = Mejoras de aprendizaje; DCT = Dependencia cognitiva y
tecnológica; FDU = Facilidad de uso; AHA = Apoyo hacia el aprendizaje; RIA = Reacciones
emocionales hacia la IA; PIA = Precisión de la IA; AIA = Aversión hacia el uso de la IA; PDE =
Percepción docente.
Fuente: Elaboración propia
Por consiguiente, todos los ítems muestran normalidad univariada en sus puntajes, con excepción del
ítem MDA12, el cual presenta valores de asimetría y curtosis por encima de +10.
Por otro lado, el ítem PIA53 fue el que presentó menor variabilidad en sus opciones de respuesta
(alrededor de las opciones tres y cuatro), al tener la menor desviación estándar (0.91), con media de
3.21. Por su parte, el ítem MDA12 fue el de mayor variabilidad (alrededor de las opciones tres y cuatro),
al obtener la desviación estándar más alta (1.62), alrededor de la media de 4.01.
Análisis de fiabilidad
Para la confiabilidad de las subescalas, se realizó la prueba de alfa de Cronbach empleando el software
SPSS® versión 25 (Ver tabla 2). Se aprecia que el valor del alfa de Cronbach global de las nueve escalas
fue alto (0.947).

pág. 5715
Tabla 2
Alfa de Cronbach de las dimensiones y global del instrumento PEIIA
Dimensiones Número de ítems Alfa de Cronbach
Efectividad de uso de la IA 8 0.889
Mejoras de aprendizaje 9 0.878
Dependencia cognitiva y tecnológica 11 0.917
Facilidad de uso 8 0.851
Apoyo hacia el aprendizaje 7 0.897
Reacciones emocionales hacia la IA 6 0.851
Precisión de la IA 7 0.871
Aversión hacia el uso de la IA 4 0.870
Percepción docente 6 0.722
Total 66 0.947
Fuente: Elaboración propia
Análisis factorial exploratorio
Se realizó un AFE deductivo, con un método de extracción de componentes principales con rotación
Varimax, empleando el software estadístico SPSS en su versión 25. El criterio de exclusión fue aquellos
ítems con cargas factoriales menores a 0.30 y aquellos que presentaban cargas mayores a este valor en
dos factores (DeVellis, 2012). Para el caso de la subescala de Efectividad de uso de la IA (EIA), el índice
Kaiser, Meyer y Olkin (KMO) fue muy notable, de 0.92, y la prueba de esfericidad de Bartlett resultó
significativa (X2= 3671.76, p < 0.000). Se obtuvo que una solución de dos factores que explicó 66.2%
de la varianza total de los puntajes.
El KMO de la subescala de Mejoras de aprendizaje (MDA) fue muy notable al alcanzar un valor de
0.91, y la prueba de esfericidad de Bartlett resultó significativa (X2= 3994.31, p < 0.000). Se obtuvo
una solución con dos factores que explican 62.3% de la varianza total de los puntajes. Para la subescala
de Dependencia cognitiva y tecnológica (DCT) el KMO fue muy notable de 0.93, y la prueba de
esfericidad de Bartlett resultó significativa (X2= 6235.23, p < 0.000). Se obtuvo una solución de dos
factores que resulta 63.8% de la varianza total de los puntajes. En el caso de la subescala de Facilidad

pág. 5716
de uso (FDU), el KMO fue notable de 0.84, y la prueba de esfericidad de Bartlett resultó significativa
(X2= 3207.02, p < 0.000). Arrojó una solución con dos factores que refiere 63.4% de la varianza total
de los puntajes.
Para la subescala de Apoyo hacia el aprendizaje (AHA) se calculó nuevamente el KMO, que resultó
notable al llegar a 0.89, y la prueba de esfericidad de Bartlett una vez más resultó significativa (X2=
3731.79, p < 0.000). La reducción de términos se obtuvo con dos factores que logran explicar 71.9% de
la varianza total de los puntajes. El KMO de la subescala Reacciones emocionales hacia la IA (RIA) fue
notable al alcanzar un valor de 0.87, y la prueba de esfericidad de Bartlett resultó significativa (X2=
2443.39, p < 0.000). Se obtuvo una solución con dos factores que explican 71.9% de la varianza total
de los puntajes. Para la subescala de Precisión de la IA (PIA) el KMO fue notable de 0.88, y la prueba
de esfericidad de Bartlett resultó significativa (X2= 3090.24, p < 0.000). Se obtuvo una solución de dos
factores que resulta 69.0% de la varianza total de los puntajes.
Para la subescala de Aversión hacia el uso de la IA (AIA) el KMO fue notable de 0.82, y la prueba de
esfericidad de Bartlett resultó significativa (X2= 1957.42, p < 0.000). Se obtuvo una solución de dos
factores que resulta 83.2% de la varianza total de los puntajes. En el caso de la subescala de Percepción
docente (PDE) se calculó nuevamente el KMO, que resultó normal al llegar a 0.74, y la prueba de
esfericidad de Bartlett una vez más resultó significativa (X2= 1287.33, p < 0.000). La reducción de
términos se obtuvo con dos factores que logran explicar 61.5% de la varianza total de los puntajes (Ver
Tabla 3).

pág. 5717
Tabla 3
Resultados del AFE de las subescalas que componen el cuestionario Percepciones de los estudiantes
hacia la incorporación de IA
Escala KMO X2 gl X2/gl % de var factores ítems
EIA 0.92 3671.76 28 131.13 66.2% 2 8
MDA 0.91 3994.31 36 110.95 62.3% 2 9
DCT 0.93 6235.23 55 113.36 63.8% 2 11
FDU 0.84 3207.02 28 114.53 63.4% 2 8
AHA 0.89 3731.79 21 177.70 71.9% 2 7
RIA 0.87 2443.39 15 162.89 71.9% 2 6
PIA 0.88 3090.24 21 147.15 69.0% 2 7
AIA 0.82 1957.42 6 326.23 83.2% 2 4
PDE 0.74 1287.33 15 85.82 61.5% 2 6
Nota. EIA = Efectividad de uso de la IA; MDA = Mejoras de aprendizaje; DCT = Dependencia cognitiva
y tecnológica; FDU = Facilidad de uso; AHA = Apoyo hacia el aprendizaje; RIA = Reacciones
emocionales hacia la IA; PIA = Precisión de la IA; AIA = Aversión hacia el uso de la IA; PDE =
Percepción docente.
Fuente: Elaboración propia
Análisis factorial confirmatorio (AFC)
A fin de corroborar la asociación de factores obtenida en el AFE, se llevó a cabo el AFC tomando como
criterio base la teoría del instrumento y los análisis factoriales congruentes con el diseño de las
subescalas. Además, se consideró el mínimo de tres ítems por factor. Para tal fin, se empleó el método
de estimación de máxima verosimilitud para determinar la bondad de ajuste empírica del modelo.
Como resultado del AFC, se eliminaron los ítems que no se asociaron con los factores del modelo
(Byrne, 2010; Cea, 2004). De esta forma, se obtuvieron los modelos de medida por cada escala que
cumplieron con los índices de bondad de ajuste, a fin de confirmar la sustentabilidad empírica del
modelo. Los índices considerados fueron: el índice ji al cuadrado sobre grados de libertad o relativa
(X2/gl), la raíz cuadrada de residual estandarizada (SRMR), el índice de bondad de ajuste ajustado

pág. 5718
(AGFI), el índice de ajuste comparativo (CFI) y, finalmente, el error de la raíz cuadrada de la media de
aproximación (RMSEA). Estos índices se consideran aceptables si sus valores superan los criterios de
ajuste establecidos, que son (X2/gl > 1; CFI y AGFI > 0.95; SRMR < 0.08 y RMSEA < 0.06 (Brown,
2015; Hooper, Coughlan y Mullen, 2008; Hu y Bentler, 1999;). A continuación, se presentan los
resultados obtenidos en los índices de bondad de ajuste para cada una de las subescalas (ver Tabla 4).
Tabla 4
Índices de los modelos para medir las subescalas del cuestionario Percepciones de los estudiantes hacia
la incorporación de IA
Modelo
Chi-
cuadrado
X2
gl
X2
relativa
(X2/gl)
CFI SRMR RMSEA AGFI
EIA 104.805 19 5.516 .977 .027 .067* .974
MDA 3.678 2 1.839 .999 .009 .029 .991
DCT 8.883 2 4.441 .994 .014 .058 .979
FDU 15.650 4 3.913 .990 .019 .054 .977
AHA 9.834 4 2.459 .997 .011 .038 .985
RIA 13.346 5 2.669 .996 .013 .041 .985
PIA 19.379 2 9.690 .990 .018 .093* .950
PDE 8.317 4 2.079 .996 .015 .033 .988
Nota. EIA = Efectividad de uso de la IA; MDA = Mejoras de aprendizaje; DCT = Dependencia cognitiva
y tecnológica; FDU = Facilidad de uso; AHA = Apoyo hacia el aprendizaje; RIA = Reacciones
emocionales hacia la IA; PIA = Precisión de la IA; PDE = Percepción docente.
*Marca los índices que no cumplen con los criterios de bondad de ajuste del modelo.
Fuente: Elaboración propia
Igualmente como resultado del AFC, se obtiene que las subescalas MDA, DCT, FDU, AHA, RIA y PDE
son las únicas validadas por la totalidad de sus índices de bondad de ajuste. Mientras tanto, en las escalas
EIA y PIA no se satisfacen los criterios de ajuste en uno de sus índices, el RMSEA, lo cual se desestima,
ya que se pueden considerar validadas por sus cuatros índices restantes.
pág. 5719
Una vez validadas las escalas, se presentan sus respectivos modelos de medida, de los cuales los
correspondientes a las subescalas MDA, DCT, RIA y PIA, contemplan un modelo unidimensional, el
resto de ellos resultaron modelos de dos factores, con al menos dos variables observables por
componente.
Por lo tanto, para la subescala MDA se llegó a un modelo de 4 ítems (MDA15, MDA10, MDA9 y
MDA16). En el caso de la subescala DCT se llegó a un modelo de 4 ítems (DCT24, DCT26, DCT18 Y
DCT19). Por otro lado, en el caso de la subescala RIA, se llegó a un modelo de 5 ítems (RIA48, RIA49,
RIA44, RIA47 y RIA4). Por último, para la subescala PIA se llegó a un modelo de 4 ítems (PIA50,
PIA51, PIA52 y PIA53) (ver Figura 1).
Figura 1
Modelos de medida de la escala Percepciones de los estudiantes hacia la incorporación de IA
(subescalas EIA, MDA, DCT, FDU, AHA, RIA, PIA y PDE)
Modelo de medida para la subescala EIA
Modelo de medida para la subescala MDA
pág. 5720
Modelo de medida para la subescala DCT
Modelo de medida para la subescala FDU
Modelo de medida para la subescala AHA
Modelo de medida para la subescala RIA

pág. 5721
Modelo de medida para la subescala PIA
Modelo de medida para la subescala PDE
Fuente: Elaboración propia
Discusión
El proceso de validez y confiabilidad relatado da cuenta de los hallazgos encontrados acerca de la escala
PEIIA, con un Alfa de Cronbach de 0.947 y un índice KMO de 0.958 en las nueve subescalas que
comprende, lo cual permite afirmar la comprobación de la hipótesis planteada, por lo que se puede
emplear en estudiantes universitarios para conocer las percepciones de los alumnos hacia la
incorporación de Inteligencia Artificial en el ámbito educativo. Destaca como fortaleza la integración
de las subescalas que la conforman.
CONCLUSIONES
Tras el análisis de las propiedades métricas de la escala PEIIA, se excluyó la subescala PDE al tener un
alfa de Cronbach de 0.722, ligeramente por debajo del umbral recomendado (≥0.7). En la subescala
MDA se excluyó el constructo Actividades con las Herramientas (ACS) por carecer de indicadores
adecuados.
Por otra parte, en la subescala DCT se excluyó el constructo Impacto Negativo en el Aprendizaje (INA)
por carecer de indicadores adecuados. En la subescala RIA se excluyó el constructo Reducción del
Esfuerzo Necesario (REN) por carecer de indicadores adecuados. Por otro lado, en la subescala PIA se
excluyó el constructo Proporciona Soluciones Efectivas (PSE) por carecer de indicadores adecuados.
Finalmente, sobre la subescala de AIA, que buscaba identificar dos constructos, se excluyó
primeramente el de Herramienta para distracción en el estudio (HDE) por carecer de indicadores
adecuados. Para el constructo restante, Efectos de la Tecnología de desconfianza y frustración (GDF),

pág. 5722
se realizó un modelo unifactorial en el AFC; sin embargo, se decidió excluir la subescala de la escala
PEIIA al nuevamente carecer de indicadores adecuados.
En cuanto a la confiabilidad, el alfa de Cronbach global de las siete subescalas fue muy alto (0.945), lo
que indica que, en su conjunto, las subescalas miden el constructo para el cual fueron creadas, de modo
que la escala PEIIA permite conocer las percepciones de los estudiantes a nivel universitario hacia la
incorporación de Inteligencia Artificial en el ámbito educativo. Tras los análisis aquí presentados, la
escala queda conformada por siete factores y 35 ítems.
De manera general, en las siete subescalas que conforman el instrumento se encontraron algunas
oportunidades de mejora para obtener la evidencia empírica necesaria para sostener los constructos que
se buscan identificar. Con lo anterior, se comprueba la hipótesis inicial, y se concluye que la escala
PEIIA posee niveles aceptables de confiabilidad para medir las percepciones de los estudiantes a nivel
universitario hacia la incorporación de Inteligencia Artificial en el ámbito educativo. Sería conveniente
realizar una nueva aplicación con estudiantes de otras áreas de formación o de otros estados de México
o países, además probar con estudiantes de nivel bachillerato o de posgrado. Lo que permitirá una mayor
perspectiva y a su vez hacer una segunda validación del instrumento en otra población de estudio.
La inteligencia artificial está reconfigurando la educación superior, presentando tanto oportunidades
transformadoras como desafíos complejos. Para navegar eficazmente este nuevo panorama, es
indispensable comprender en profundidad cómo los estudiantes universitarios interactúan con la IA, qué
piensan y sienten al respecto, qué competencias poseen y cómo el entorno institucional y pedagógico
influye en sus prácticas.
Es necesario que las instituciones de educación superior tomen decisiones informadas sobre políticas,
diseño curricular, formación docente y apoyo estudiantil, con el fin último de aprovechar el potencial de
la IA para mejorar el aprendizaje y preparar a los estudiantes para un futuro cada vez más digitalizado,
garantizando al mismo tiempo un uso ético, equitativo y centrado en el ser humano.
REFERENCIAS BIBLIOGRÁFICAS
Aliño, J., Rebato, A., Abrenica, A, Baguio, J., Villanueva, M., Dianne, O. y Sumatra, K. (2024). The
Relationship Between AI Self-Efficacy and AI Trust of College Students. International Journal
of Multidisciplinary Studies in Higher Education, 1(1), 92–102.

pág. 5723
https://doi.org/10.70847/587961
Alshamy, A., Al-Harthi, A. y Abdullah, S. (2025). Perceptions of Generative AI Tools in Higher
Education: Insights from Students and Academics at Sultan Qaboos University. Education
Sciences, 15(4), 501-516. https://doi.org/10.3390/educsci15040501
Brown, T. (2015). Confirmatory Factor Analysis for Applied Research (2a edición). The Guilford Press.
Byrne, B. (2010). Structural Equation Modeling with AMOS (2a edición). Routledge Taylor & Francis
Group.
Cao, Y., Aziz, A. y Arshard, W. (2023). University students’ perspectives on Artificial Intelligence: A
survey of attitudes and awareness among Interior Architecture students. IJERI: International
Journal of Educational Research and Innovation, (20), 1–21. https://doi.org/10.46661/ijeri.8429
Cea, M. (2004). Análisis multivariable. Teoría y práctica en la investigación social. Síntesis.
Chávez, G., Polo, T., Zegarra, L., Balarezo, O., Calderón, C. y Dominguez, S. (2024). Self-efficacy scale
for university teaching in virtual environments, SSUTVE. Heliyon, 11(1), 1-25.
https://doi.org/10.1016/j.heliyon.2024.e41134
Cruz, J., Villafranca, F. y Taype, O. (2024). Revolucionando el aprendizaje: El papel de la inteligencia
artificial en la educación universitaria. Revista Tribunal, 4(9), 525-540.
https://doi.org/10.59659/revistatribunal.v4i9.81
De Lara, A. (2022). Retos de la divulgación de la inteligencia artificial en los cibermedios españoles.
Contratexto, 38(038), 205-226. https://doi.org/10.26439/contratexto2022.n038.5701
DeVellis, R. (2012). Scale Development. Theory and Applications. SAGE.
Gallent, C., Zapata, A. y Ortego, J. (2023). El impacto de la inteligencia artificial generativa en
educación superior: una mirada desde la ética y la integridad académica. RELIEVE. Revista
Electrónica de Investigación y Evaluación Educativa, 29(2), 1-21.
https://doi.org/10.30827/relieve.v29i2.29134
García, D., Cobo, R. y Hernández, J. (2022). Validez, fiabilidad e invarianza factorial de las escalas de
autoeficacia general y autoeficacia académica en estudiantes universitarios. Retos, 46, 1093–
1104. https://doi.org/10.47197/retos.v46.94281

pág. 5724
Griffin, M. y Steinbrecher, T. (2013). Large-Scale Datasets in Special Education Research. En R. Urbano
(ed.), International Review of Research in Developmental Disabilities (Vol. 45, pp. 155-183).
Elsevier. https://doi.org/10.1016/b978-0-12-407760-7.00004-9
Hooper, D., Coughlan, J. y Mullen, M. (2008). Structural Equation Modelling: Guidelines for
Determining Model Fit. Electronic Journal of Business Research Methods, 6(1), 53-60.
https://www.researchgate.net/publication/254742561_Structural_Equation_Modeling_Guideli
nes_for_Determining_Model_Fit
Hu, L. y Bentler, P. (1999). Cutoff criteria for fit indexes in covariance structure analysis: Conventional
criteria versus new alternatives. Structural Equation Modeling: A Multidisciplinary Journal,
6(1), 1-55. https://doi.org/10.1080/10705519909540118
Katsantonis, A. y Katsantonis, I. (2024). University Students’ Attitudes toward Artificial Intelligence:
An Exploratory Study of the Cognitive, Emotional, and Behavioural Dimensions of AI
Attitudes. Education Sciences, 14(9), 988-1001. https://doi.org/10.3390/educsci14090988
Khairuddin, Z., Shahabani, N., Ahmad, S., Ahmad, A. y Zamri, N. (2024). Students’ Perceptions on The
Artificial Intelligence (AI) Tools As Academic Support. Malaysian Journal of Social Sciences
and Humanities (MJSSH), 9(11), 1-13. https://doi.org/10.47405/mjssh.v9i11.3087
Kline, R. (2016). Principles and Practice of Structural Equation Modeling (4ª edición). The Guilford
Press.
Larico, R. (2024). Impacto de la inteligencia artificial generativa ChatGPT en la enseñanza universitaria.
Chakiñan, Revista De Ciencias Sociales Y Humanidades, (25), 317-341.
https://doi.org/10.37135/chk.002.25.14
Narváez, R. y Medina, L. (2024). Validación de un cuestionario para explorar el uso de la IA en
estudiantes de educación superior. Revista Paraguaya de Educación a Distancia (REPED), 5(4),
29–40. https://doi.org/10.56152/reped2024-dossierIA2-art4
Negrete, M. y Mosquera, D. (2025). Estrategias Didácticas Basadas en Inteligencia Artificial para el
Aprendizaje del Inglés: Una Revisión Sistemática de la Producción Bibliográfica 2019-2023.
Ciencia Latina Revista Científica Multidisciplinar, 9(1), 4538-4560.
https://doi.org/10.37811/cl_rcm.v9i1.16172

pág. 5725
Osman, Z. (2025). Attitude as a Catalyst: The Role of Perceived Ease of Use, Perceived Usefulness, and
Self-Efficacy in Shaping Student Intentions to Use Artificial Intelligence in Higher Education.
International Journal of Academic Research in Accounting, Finance and Management Sciences,
15(1), 201–215. http://dx.doi.org/10.6007/IJARAFMS/v15-i1/24459
Slimi, Z. (2023). The Impact of Artificial Intelligence on Higher Education: An Empirical Study. ERIC.
European Journal of Educational Sciences, 10(1), 17-33.
http://dx.doi.org/10.19044/ejes.v10no1a17
Swidan, A., Lee, S. y Romdhane, S. (2025). College Students’ Use and Perceptions of AI Tools in the
UAE: Motivations, Ethical Concerns and Institutional Guidelines. Education Sciences, 15(4),
461-481. https://doi.org/10.3390/educsci15040461
Vera, P., Bonilla, G., Quishpe, A. y Campos, H. (2023). La inteligencia artificial en la educación
superior: un enfoque transformador. Polo del Conocimiento, 8(11), 67-80.
https://polodelconocimiento.com/ojs/index.php/es/article/view/6193
Wang, Y y Chuang, Y. (2024). Artificial intelligence self-efficacy: Scale development and validation.
Education and Information Technologies, 29, 4785–4808. https://doi.org/10.1007/s10639-023-
12015-w
Yurt, E. y Kasarci, I. (2024). A Questionnaire of Artificial Intelligence Use Motives: A contribution to
investigating the connection between AI and motivation. International Journal of Technology
in Education (IJTE), 7(2), 308-325. https://doi.org/10.46328/ijte.725