PRINCIPIOS EPISTÉMICO-NORMATIVOS
PARA LA IA EN LA EDUCACIÓN SUPERIOR
LATINOAMERICANA: UNA PROPUESTA DE

LA EPISTEMOLOGÍA PSICOSOCIAL GENÉTICA

EPISTEMIC-NORMATIVE PRINCIPLES

FOR AI IN LATAM HIGHER EDUCATION:

A PROPOSAL FROM PSYCHOSOCIAL

GENETIC EPISTEMOLOGY

Guillermo Samuel Tovar-Sánchez

Facultad Latinoamericana de Ciencias Sociales, México

Patricia Ustaran Robinson

Benemérita Universidad Autónoma de Puebla, México
pág. 6989
DOI:
https://doi.org/10.37811/cl_rcm.v9i2.17419
Principios Epistémico-Normativos para la IA en la Educación Superior
Latinoamericana: Una Propuesta de la Epistemología Psicosocial Genética

Guillermo Samuel Tovar Sánchez
1
guillermo.tovar@flacso.edu.mx

guillermo.sts@gmail.com

https://orcid.org/0000-0002-0711-3257

Facultad Latinoamericana de Ciencias Sociales
Sede México

Ayuda en Acción de México

México

Patricia Ustaran Robinson

paty.us.ro@gmail.com

Benemérita Universidad Autónoma de Puebla

México

RESUMEN

La incorporación de inteligencia artificial (IA) en la educación superior latinoamericana ocurre en
contextos marcados por desigualdad estructural, ausencia de marcos normativos integrales y escasa
alfabetización crítica. Este artículo propone una articulación entre la epistemología psicosocial genética
y un marco jurídico-pedagógico situado para orientar el uso ético, inclusivo y contextualizado de la IA
desde una perspectiva de justicia epistémica. Se adoptó un diseño epistémico-normativo crítico-
constructivista, sustentado en una tipología de acciones educativas (materiales, formales y simbólicas)
y cinco principios analíticos: multidimensionalidad, historicidad, acción, cuestionamiento del poder y
construcción de alternativas. Los resultados identificaron cinco principios rectores que articulan
dimensiones jurídicas, pedagógicas y tecnológicas, permitiendo la formulación de políticas
institucionales que promuevan agencia epistémica, gobernanza digital participativa y soberanía
tecnológica. La discusión evidenció tensiones entre la lógica tecnocrática de la IA centrada en
eficiencia, homogeneización y control y los principios de pluralidad epistémica, autonomía crítica y
justicia cognitiva. Se concluye que la propuesta constituye una alternativa normativa situada para
disputar los sentidos y usos de la IA en la educación superior, con potencial para generar políticas
transformadoras y prácticas pedagógicas emancipadoras en América Latina.

Palabras clave: inteligencia artificial educativa, epistemología psicosocial genética, políticas públicas,
educación superior, gobernanza digital

1
Autor principal
Correspondencia:
guillermo.sts@gmail.com
pág. 6990
Epistemic
-Normative Principles for AI in LATAM Higher Education:
A Proposal from Psychosocial Genetic Epistemology

ABSTRACT

The integration of
artificial intelligence (AI) into Latin American higher education is taking place within
contexts marked by structural inequality, the absence of comprehensive regulatory frameworks, and

limited critical literacy. This article proposes an articulation betw
een genetic psychosocial epistemology
and a situated juridical
-pedagogical framework to guide the ethical, inclusive, and context-aware use of
AI from a perspective of epistemic justice. A critical
-constructivist epistemic-normative design was
adopted, bas
ed on a typology of educational actions (material, formal, and symbolic) and five analytical
principles: multidimensionality, historicity, action, power critique, and the construction of alternatives.

The results identified five guiding principles that lin
k juridical, pedagogical, and technological
dimensions, enabling the formulation of institutional policies that foster epistemic agency, participatory

algorithmic governance, and technological sovereignty. The discussion revealed tensions between the

techn
ocratic logic of AIcentered on efficiency, homogenization, and controland the principles of
epistemic plurality, critical autonomy, and cognitive justice. It is concluded that this proposal constitutes

a situated normative alternative for contesting the
meanings and uses of AI in higher education, with
the potential to generate transformative policies and emancipatory pedagogical practices across Latin

America.

Keywords
: educational artificial intelligence, genetic psychosocial epistemology, higher education,
public policy
, digital governance
Artículo recibido 05 abril 2025

Aceptado para publicación: 28 abril 2025
pág. 6991
INTRODUCCIÓN

La integración de tecnologías de inteligencia artificial en la educación superior latinoamericana ocurre
en un contexto marcado por profundas limitaciones estructurales, tanto en capacidades materiales como
en marcos normativos y epistemológicos (Ravšelj et al., 2025;). En primer lugar, existe una brecha
normativa significativa, ya que la mayoría de las universidades carecen de marcos institucionales
específicos que orienten el uso ético, pedagógico y administrativo de la IA. Como señalan An, Yu y
James (2025), incluso en instituciones del Norte Global las políticas son incipientes, asimétricas y
frecuentemente centradas en la integridad académica sin una visión integral de gobernanza algorítmica.

En segundo lugar, se observa una débil formación en alfabetización crítica sobre IA, tanto en el
estudiantado como en el cuerpo docente, lo que limita su uso informado y responsable (Ravšelj et al.,
2025;
Segbenya et al., 2024; Chan & Hu, 2023). Esta carencia impacta en la capacidad de las
comunidades universitarias para cuestionar las implicaciones epistemológicas de la automatización del
conocimiento, como también advierte Kamali et al. (2024) desde la Teoría de la Actividad.

En tercer lugar, la ausencia de un enfoque epistémico situado ha impedido que las propuestas
normativas se articulen con realidades educativas propias del Sur Global. El marco de justicia
algorítmica propuesto por Cabrol et al. (2023), aunque relevante, aún no considera plenamente las
epistemologías subalternas, ni las condiciones materiales e históricas que configuran el acceso desigual
a los beneficios del desarrollo científico-tecnológico (Licona Quiterio, 2024).

Por ello, este problema estructural no es meramente técnico o normativo, sino epistémico. La falta de
una reflexión crítica sobre los modos en que se produce, valida y aplica el conocimiento digital en
nuestras instituciones reproduce lógicas coloniales del saber (Sposato, 2025) y niega la posibilidad de
construir marcos de justicia epistémica que reconozcan la pluralidad cognitiva y los horizontes
históricos de América Latina.

Con base en la revisión sistemática de literatura realizada, pudimos identificar que los marcos jurídico-
normativos y pedagógicos actuales enfrentan al menos cuatro vacíos críticos que limitan la integración
ética, inclusiva y situada de la inteligencia artificial (IA) en las instituciones de educación superior (IES)
latinoamericanas. A continuación, detallamos cada vacío encontrado:
pág. 6992
Ausencia de marcos jurídicos integrales con perspectiva epistémica. Los marcos normativos
actuales suelen enfocarse de manera reactiva en cuestiones de integridad académica como el uso
indebido de ChatGPT sin desarrollar principios jurídicos más amplios que reconozcan la
complejidad epistémica, social y política de la IA en los espacios educativos (Antik, 2021). Como
señala Chan (2023) y Segbenya et al. (2024), la mayoría de las políticas institucionales se limitan a
recomendaciones operativas, sin vinculación con principios normativos robustos que orienten el
desarrollo de capacidades críticas, éticas y epistémicas. Este vacío impide una regulación
democrática y plural del conocimiento automatizado.

Desarticulación entre normatividad y pedagogía. Las políticas existentes carecen de una
integración sustantiva entre marcos jurídicos y enfoques pedagógicos. Se produce una desconexión
entre las normas que regulan el uso de IA y los procesos de enseñanza-aprendizaje que deberían
acompañarlas. An, Yu y James (2025) identifican que las guías institucionales analizadas en
universidades estadounidenses rara vez consideran aspectos curriculares, formativos o
transformativos del uso de IA. Esta fragmentación normativa-pedagógica reproduce una lógica
tecnocrática que excluye el componente formativo y cultural de la tecnología.

Déficit de contextualización y justicia cognitiva. Los marcos vigentes tienden a reproducir
modelos regulatorios importados, sin adecuación a las realidades sociotécnicas, históricas y
culturales del Sur Global. La propuesta del BID sobre gobernanza ética de la IA en América Latina
(Cabrol et al., 2023), aunque valiosa, no incorpora plenamente los principios de justicia epistémica
ni las epistemologías críticas necesarias para enfrentar las brechas cognitivas, simbólicas y
materiales que afectan a comunidades educativas históricamente marginadas (Licona Quiterio,
2024). Este vacío de contextualización impide una integración transformadora y equitativa de la
IA.

Invisibilización de la dimensión simbólica del poder algorítmico. Las regulaciones actuales no
problematizan suficientemente el carácter simbólico y performativo de la IA como dispositivo de
poder que organiza subjetividades, distribuye saberes y redefine las condiciones de posibilidad del
aprendizaje. Desde la epistemología psicosocial genética, esta omisión representa un vacío central:
la IA no sólo produce datos, sino también formas de pensar, percibir y actuar que deben ser
pág. 6993
examinadas desde su impacto material, formal y simbólico. Como señalan Kamali et al (2024),
existe una “disonancia ética” entre los discursos institucionales sobre IA y las prácticas docentes,
lo cual refleja la falta de marcos críticos que permitan cuestionar las lógicas hegemónicas de
validación del conocimiento.

Estos vacíos justifican la necesidad de un marco alternativo que no sólo regule, sino que también
reconfigure la relación entre saber, poder y tecnología desde una perspectiva situada. La epistemología
psicosocial genética, al proponer principios como la multidimensionalidad, la historicidad, la acción
transformadora, el cuestionamiento del poder y la producción de alternativas, ofrece una vía fecunda
para la construcción de marcos normativo-pedagógicos fundados en la justicia epistémica
latinoamericana.

Con base en los vacío encontrados, es posible argumentar que la necesidad de un enfoque epistémico
crítico, como la epistemología psicosocial genética, surge de la incapacidad de los marcos existentes
para articular de manera integral las dimensiones técnicas, políticas, normativas y pedagógicas que
configuran la actual inserción de la inteligencia artificial (IA) en la educación superior latinoamericana.
Esta necesidad responde no sólo a un vacío teórico, sino a una demanda histórica de justicia cognitiva
y transformación institucional. Por tanto, la importancia de este artículo se sitúa en una doble dimensión.

En primer lugar, la epistemología psicosocial genética permite desnaturalizar los supuestos
tecnocráticos que subyacen al despliegue de la IA en los sistemas educativos. Frente a la tendencia
dominante de tratar la IA como una herramienta neutral de optimización, este enfoque destaca su
dimensión simbólica, su performatividad cognitiva y su papel en la reproducción de estructuras de
poder, saber y exclusión. Como plantea Kamali et al. (2024), los educadores enfrentan disonancias
éticas precisamente porque carecen de marcos críticos que les permitan comprender la IA como
fenómeno sociohistórico y no meramente técnico.

En segundo lugar, la propuesta articula una mirada transdisciplinaria, que integra las acciones
materiales (infraestructura, acceso, recursos, prácticas), formales (normas, políticas, protocolos) y
simbólicas (imaginarios, subjetividades, legitimidades). Esta tríada (Tovar-Sánchez, 2020) permite
analizar cómo se configuran las condiciones de posibilidad del aprendizaje, el acceso al conocimiento
y la participación epistémica en escenarios mediados por IA (Licona Quiterio, 2024; Chan & Hu, 2023).
pág. 6994
Sobre esa tesitura, en este documento buscamos formular principios orientadores que guíen la
construcción de políticas institucionales sobre IA en educación superior, basadas en criterios de justicia
epistémica, equidad cognitiva y soberanía tecnológica. Es así que el documento se estructura, después
de esta introducción, en un apartado metodológico de cómo construimos la propuesta, una sección de
resultados dividida en explicitar los principios epistémicos y sus articulaciones con el fenómeno en
comento, para cerrar con las tensiones encontradas. Cerramos con una reflexión a modo de conclusión
y cinco líneas de investigación que permitirán profundizar en este fenómeno.

METODOLOGÍA

El presente trabajo se sustentó en un diseño epistémico-normativo de carácter crítico-constructivista,
orientado a elaborar un marco de principios rectores que integraran dimensiones jurídicas, pedagógicas
y tecnológicas desde una perspectiva latinoamericana de justicia epistémica. Esta metodología no se
limitó a una estrategia empírica o descriptiva, sino que se propuso como un ejercicio de fundamentación
teórico-normativa que recuperó el pensamiento complejo y los aportes de la epistemología psicosocial
genética (Tovar-Sánchez & Rodríguez-Salazar, 2020; Tovar-Sánchez, 2022).

El diseño partió de la articulación entre una tipología de acciones y un conjunto de principios analíticos,
desarrollados en investigaciones previas del primer autor. Las acciones se categorizaron en tres niveles:
materiales (infraestructuras, recursos, tecnologías concretas, prácticas), formales (regulaciones,
normativas, lineamientos institucionales) y simbólicas (representaciones, discursos, formas de
validación y exclusión epistémica). Esas acciones se analizaron como prácticas interdependientes que
configuran las condiciones de producción, circulación y legitimación del conocimiento en contextos
mediados por inteligencia artificial.

A su vez, se operacionalizaron cinco principios epistémico-normativos:

1.
Principio multidimensional: asumió que todo fenómeno educativo, al ser producido por las
personas, implica necesariamente dimensiones biológicas, sociales, psicológicas, técnicas,
cognitivas, económicas, jurídicas y políticas que deben ser abordadas en su conjunto.

2.
Principio histórico: integró la trayectoria estructural de desigualdad y dependencia tecnológica en
América Latina como marco de interpretación de la IA en educación superior.
pág. 6995
3.
Principio de acción: se destacó la acción como transversal en las prácticas institucionales
transformadoras, más allá de diagnósticos descriptivos.

4.
Principio de cuestionamiento del poder: propuso analizar cómo los marcos normativos y
tecnológicos reproducen o desafían relaciones de dominación cognitiva, institucional o algorítmica.

5.
Principio de construcción de alternativas: orientó la formulación de lineamientos normativos y
pedagógicos desde perspectivas situadas, plurales y prospectivas.

Los criterios de análisis se organizaron en una matriz que vinculó cada categoría con dimensiones
jurídicas (derechos, obligaciones, accountability), pedagógicas (alfabetización crítica, agencia docente-
estudiantil), y tecnológicas (transparencia, gobernanza digital, inclusión digital). Esta triangulación
permitió mapear los vacíos normativos y pedagógicos identificados en la literatura (An et al., 2025;
Kamali et al., 2024; Grigore, 2022) y vincularlos con una propuesta alternativa basada en la acción y la
justicia epistémica.

La validez contextual se aseguró mediante tres estrategias:

La incorporación sistemática de literatura académica reciente (2019-2024) centrada en América
Latina y el Sur Global;

El uso de aportes propios derivados de investigaciones previas con base en epistemologías críticas
y estudios CTS;

Y la construcción de un marco abierto, adaptable y deliberativo, que reconoce la diversidad
institucional y cultural de la región.

Este enfoque no sólo buscó fundamentar una normatividad jurídica, sino también una pedagogía política
capaz de disputar el sentido de la IA en educación superior. En ese sentido, la propuesta resultante se
plantea como una contribución situada, crítica y propositiva al debate internacional sobre tecnologías
emergentes, derechos humanos y producción del conocimiento.

RESULTADOS Y DISCUSIÓN

Los resultados del análisis conceptual permitieron identificar cinco principios rectores que emergen de
la articulación entre la epistemología psicosocial genética y las necesidades normativo-pedagógicas
para una integración crítica y situada de la IA en la educación superior latinoamericana.
pág. 6996
Cada principio orienta dimensiones específicas de acción institucional, jurídica y educativa,
proporcionando criterios para el diseño de políticas con base en justicia epistémica.

1. Principio Multidimensional. Este principio sostiene que toda política sobre IA debe reconocer la
complejidad del fenómeno educativo-tecnológico, articulando sus dimensiones a partir de las acciones
materiales (infraestructura, accesibilidad, buenas prácticas), formales (regulación, normativas) y
simbólicas (representaciones del saber, legitimación del conocimiento). La multidimensionalidad
permite superar visiones reduccionistas o tecnocráticas de la IA, favoreciendo una comprensión
integrada que oriente decisiones institucionales con base en criterios éticos, pedagógicos y contextuales
(Tovar-Sánchez & Rodríguez-Salazar, 2020; An et al., 2025). Es así que el principio multidimensional
se vincula directamente con la necesidad de políticas institucionales que articulen reglamentos de uso
de IA con programas de alfabetización digital crítica y estrategias curriculares interdisciplinarias
(Segbenya et al., 2024). Por ejemplo, una universidad puede establecer una política de gobernanza
digital que regule el uso de ChatGPT en actividades docentes, mientras promueve cursos transversales
que integren IA, ética y epistemología crítica (Chan, 2023; Sposato, 2025).

2. Principio Histórico. Este principio reconoce que la inserción de tecnologías como la IA en la
educación no ocurre en un vacío, sino en trayectorias históricas marcadas por desigualdades
estructurales y dependencia tecnológica (Chan, 2023). Este principio exige situar las políticas en el
marco de los procesos sociotécnicos e institucionales que han configurado las universidades
latinoamericanas, permitiendo identificar patrones de exclusión o apropiación subordinada del
conocimiento (Tovar-Sánchez, 2022; Perdomo Reyes, 2024). Por tanto, el principio histórico se traduce
en prácticas de reconocimiento institucional de las desigualdades estructurales que median el acceso,
apropiación y regulación de tecnologías. Las IES podrían implementar mecanismos de evaluación de
impacto sociohistórico antes de adoptar plataformas basadas en IA, reconociendo cómo estas pueden
perpetuar exclusiones previas (Cabrol et al., 2023).

3. Principio de Acción. Este principio orienta a que las políticas sean transformadoras. Exige definir
acciones concretas que promuevan alfabetización crítica en IA, formación docente, evaluación
participativa de herramientas algorítmicas, y diseño curricular inclusivo (Segbenya et al., 2024).
pág. 6997
También implica promover marcos de gobernanza digital participativa donde las comunidades
universitarias tengan voz en la adopción y regulación de IA (Kamali et al., 2024; Defensoría del Pueblo
Argentina, 2024). Para operacionalizar este principio, es necesario hacer funcionar programas de
formación docente continua en ética de IA, rediseño de sistemas de evaluación, y creación de comités
ético-tecnológicos con participación, especialmente, estudiantil y docente. Estas acciones rompen con
la lógica unilateral de adopción tecnológica y promueven una apropiación crítica.

4. Principio de Cuestionamiento del Poder. Este eje obliga a analizar cómo las tecnologías de IA
pueden reproducir o resistir formas de dominación cognitiva, institucional y cultural. Las políticas
deben incorporar mecanismos de auditoría algorítmica, transparencia, y control humano significativo,
así como reconocer los riesgos de delegar decisiones educativas a sistemas opacos (Grigore, 2022;
UNESCO, 2023). También llama a identificar los sesgos que configuran la autoridad epistémica de la
IA y a generar prácticas que restituyan la agencia crítica de docentes y estudiantes. Este principio
encuentra traducción en protocolos institucionales para la auditoría algorítmica de herramientas
educativas, así como en cláusulas de transparencia en contratos con proveedores tecnológicos. Esto
asegura que las IES conserven agencia sobre los modelos epistémicos que suscriben y difunden (Kamali
et al., 2024).

5. Principio de Construcción de Alternativas. Propone que las políticas no se limiten a mitigar
riesgos, sino que habiliten escenarios de innovación con justicia cognitiva. Esto implica fomentar el
desarrollo de IA local, abierta, diversa y socialmente orientada, así como generar condiciones
institucionales para imaginar futuros posibles desde epistemologías del Sur. Se sugiere avanzar hacia
modelos de IA educativa feminista, intercultural y democrática, que revaloricen saberes situados y
promuevan una ecología de conocimientos (Perdomo Reyes, 2024). Es así que seguir este prinicpio
habilita prácticas de innovación curricular con enfoque comunitario, así como el fomento a desarrollos
de IA de código abierto adaptados a lenguas originarias o contextos rurales. Se trata de disputar el
monopolio cognitivo del Norte global y activar una soberanía tecnológica pedagógica.

Los cinco principios derivados de la epistemología psicosocial genética no sólo funcionan como
categorías analíticas, sino que se traducen en orientaciones normativas y pedagógicas que pueden ser
pág. 6998
adoptadas por instituciones de educación superior (IES) en América Latina para regular el uso de la
inteligencia artificial (IA) de forma ética, inclusiva y contextualizada.

La adopción del enfoque que presentamos conlleva profundas implicaciones epistémicas, al desplazar
la idea de la IA como neutralidad cognitiva y situarla como un dispositivo que requiere ser analizado
desde su inserción en matrices de poder y exclusión. Implica también una revalorización de
epistemologías locales, populares y subalternas, que históricamente han sido invisibilizadas por el
modelo tecnocrático dominante (Santos, 2018; Freire, 2005).

Tensiones entre la lógica tecnocrática de la IA y el horizonte de justicia epistémica

Con este análisis buscamos aportar la identificación de diferentes y múltiples tensiones estructurales y
epistemológicas entre la lógica tecnocrática que orienta el desarrollo y aplicación de tecnologías de
inteligencia artificial (IA) en educación superior, y los principios normativos de justicia epistémica que
fundamentan esta propuesta. En primer lugar, se observó una tensión fundamental entre la lógica de
automatización y homogeneización del conocimiento, propia de la IA generativa, y la pluralidad
epistémica y contextualización histórica del saber que caracteriza a las epistemologías críticas
latinoamericanas (de Sousa Santos, 2018; Tovar-Sánchez & Martínez, 2018).

La lógica tecnocrática promueve la estandarización de procesos cognitivos y decisionales,
invisibilizando los procesos sociohistóricos, afectivos y comunitarios que configuran la producción de
conocimiento en contextos específicos. Esta lógica tiende a reducir la agencia educativa a operaciones
instrumentales, fragmentando las dimensiones materiales, formales y simbólicas del acto educativo
(Sposato, 2025; Xia et al., 2024).

Asimismo, se identificó una tensión normativa, es decir, mientras que la IA se despliega a través de
marcos jurídicos inspirados en principios universales de eficiencia, innovación y neutralidad, el enfoque
de justicia epistémica plantea la necesidad de marcos situados, deliberativos y pluralistas, capaces de
reconocer las asimetrías históricas del Sur Global y garantizar condiciones de participación epistémica
igualitaria (Chan & Hu, 2023; Kamali et al., 2024).

Finalmente, emergió una tensión pedagógica entre la delegación de funciones cognitivas a sistemas
algorítmicos y la necesidad de fortalecer capacidades críticas, reflexivas y éticas en estudiantes y
docentes, como lo demuestra el estudio de Ravšelj et al. (2025) donde se aplicó un instrumento en 109
pág. 6999
países sobre el uso de la IA en contextos educativo. En dicho estudio se encontró que los estudiantes
usan ChatGPT principalmente para tareas cognitivas como lluvia de ideas, resumen de textos y
búsqueda de información académica, al mismo tiempo que reconocen los riesgos de dependencia,
pérdida de pensamiento crítico, privacidad y fraude académico. La mayoría de estudiantes demanda
regulación institucional y formación en competencias de IA (Ravšelj et al., 2025; Segbenya et al., 2024).
Esa tensión refleja el riesgo de una sustitución de la pedagogía por la ingeniería cognitiva, contraria a
los principios de autonomía, reflexión situada y acción transformadora que propone la epistemología
psicosocial genética (Tovar-Sánchez, 2022). A partir del marco desarrollado, se delinearon varias líneas
estratégicas para la profundización teórica, normativa y pedagógica de esta propuesta:

1.
Desarrollo de indicadores de justicia epistémica aplicables a políticas de IA educativa, que
permitan evaluar el grado de pluralidad cognitiva, inclusión y agencia crítica en los sistemas
universitarios.

2.
Investigación comparada sobre marcos normativos regionales de IA en educación, con el fin
de generar insumos para la construcción de instrumentos jurídicos regionales con enfoque
latinoamericano.

3.
Estudios de caso sobre prácticas institucionales de apropiación crítica de IA, en universidades
de América Latina, con énfasis en experiencias que integren epistemologías locales, saberes
comunitarios y tecnologías abiertas.

4.
Diseño de modelos pedagógicos alternativos que articulen IA, ética y justicia cognitiva,
orientados a transformar los procesos de enseñanza-aprendizaje desde la agencia estudiantil, la
cocreación de conocimiento y la alfabetización crítica.

5.
Formulación de políticas públicas intersectoriales que articulen los sectores de educación,
ciencia y tecnología para la construcción de una soberanía tecnológica epistémica regional, basada
en principios de equidad, inclusión y autodeterminación cognitiva.

CONCLUSIONES

Este artículo propuso una alternativa epistémico-normativa para orientar el uso de la inteligencia
artificial (IA) en la educación superior latinoamericana desde una perspectiva de justicia epistémica.
pág. 7000
Frente a los vacíos regulatorios, la desarticulación entre pedagogía y normatividad, la falta de
contextualización y la invisibilización del poder algorítmico, se argumentó que la epistemología
psicosocial genética ofrece una vía crítica, situada y transformadora para la construcción de marcos
jurídicos y pedagógicos más justos, inclusivos y democráticos.

La formulación de cinco principios rectores multidimensionalidad, historicidad, acción,
cuestionamiento del poder y construcción de alternativas permitió trazar un horizonte normativo que
articula la complejidad del fenómeno educativo-tecnológico en sus dimensiones materiales, formales y
simbólicas. Estos principios no sólo orientan el diseño de políticas institucionales, sino que también
habilitan prácticas pedagógicas emancipadoras y estrategias de gobernanza digital desde el Sur Global.

Los hallazgos muestran que las tensiones entre la lógica tecnocrática de la IA y el horizonte de justicia
epistémica no son únicamente técnicas o administrativas, sino profundamente epistémicas, políticas y
culturales. Superar estas tensiones requiere disputar los sentidos, los marcos y las formas de validación
del conocimiento que circulan en nuestras universidades, para reconfigurar la relación entre saber, poder
y tecnología.

La propuesta aquí descrita se presenta como una plataforma de acción deliberativa, capaz de adaptarse
a las múltiples realidades del continente y de dialogar con diversas epistemologías críticas. Su valor
radica en que no sólo diagnostica los desafíos actuales, sino que plantea rutas posibles para imaginar
una educación superior más autónoma, equitativa y epistémicamente plural.

Lo que está en juego no es solo la regulación de la IA, sino la posibilidad de que nuestras instituciones
educativas se conviertan en espacios de producción colectiva de conocimiento justo, situado y
transformador. En tiempos de automatización global, apostar por una inteligencia pedagógica crítica y
contextualizada es una forma radical de defender la dignidad del pensamiento y el derecho a aprender
con libertad.

REFERENCIAS BIBLIOGRAFICAS

An, Y., Yu, J. H., & James, S. (2025).
Investigating the higher education institutions’ guidelines and
policies regarding the use of generative AI in
teaching, learning, research, and administration.
International Journal of Educational Technology in Higher Education, 22(10).

https://doi.org/10.1186/s41239
-025-00507-3
pág. 7001
Antik, A. (2021). El rol del Derecho en la era post Internet. Revista de la Facultad de Derecho,
Universidad Nacional de Rosario, (25), 3351.

Boaventura de Sousa Santos. (2018). El fin del imperio cognitivo: La afirmación de las epistemologías
del Sur. CLACSO.

Cabrol, M., Garrido, M., Morales, F., & Pérez, F. (2023). Gobernanza ética de la inteligencia artificial
en América Latina y el Caribe. Banco Interamericano de Desarrollo (BID).

https://publications.iadb.org

Chan, C. K. Y. (2023).
A comprehensive AI policy education framework for university teaching and
learning
. International Journal of Educational Technology in Higher Education, 20(38).
https://doi.org/10.1186/s41239
-023-00408-3
Chan, C. K. Y., & Hu, W. (2023).
Students’ voices on generative AI: Perceptions, benefits, and
challenges in higher education
. International Journal of Educational Technology in Higher
Education, 20(43).
https://doi.org/10.1186/s41239-023-00411-8
De Santos, B. (2018). La cruel pedagogía del virus. CLACSO.

Defensoría del Pueblo Argentina. (2024). Inteligencia artificial y derechos fundamentales: hacia una
regulación humanista y ética en América Latina. Buenos Aires: Observatorio de Derechos
Digitales.

Freire, P. (2005). Pedagogía del oprimido. Siglo XXI Editores. (Obra original publicada en 1970)

Grigore, M. (2022).
Artificial Intelligence, Ethics and Higher Education: A Contextualized Review.
Ethics and Education, 17(2), 125
142. https://doi.org/10.1080/17449642.2022.2042035
Kamali, J., Alpat, M. F., & Bozkurt, A. (2024).
AI ethics as a complex and multifaceted challenge:
Decoding educators’ AI ethics alignment through the lens of activity theory
. International Journal
of Educational Technology in Higher Education, 21(62).
https://doi.org/10.1186/s41239-024-
00496
-9
Licona Quiterio, E. A. (2024). Colonialismo epistémico, tecnologías digitales y políticas de
conocimiento en América Latina. Revista Latinoamericana de Políticas Educativas, 14(1), 51
74.
https://doi.org/10.22395/rlpe.v14n1a3
pág. 7002
Perdomo Reyes, M. (2024). La inteligencia artificial en la universidad latinoamericana: desafíos
éticos, epistemológicos y políticos. Revista Iberoamericana de Educación Superior, 15(29), 1
22.
https://doi.org/10.22201/iisue.20072872e.2024.29.847
Ravšelj, D., Keržič, D., Tomaževič, N., Umek, L., Brezovar, N., Iahad, N. A., ...
& Aristovnik, A.
(2025). Higher education students’ perceptions of ChatGPT: A global study of early reactions.

PLOS ONE, 20(2), e0315011.
https://doi.org/10.1371/journal.pone.0315011
Segbenya, M., Senyametor, F., Aheto, S.
-P. K., Agormedah, E. K., Nkrumah, K., & Kaedebi-Donkor,
R. (2024). Modelling the influence of antecedents of artificial intelligence on academic

productivity in higher education: A mixed method approach. Cogent Educa
tion, 11(1), 2387943.
https://doi.org/10.1080/2331186X.2024.2387943

Sposato, M. (2025).
Artificial intelligence in educational leadership: A comprehensive taxonomy and
future directions
. International Journal of Educational Technology in Higher Education, 22(20).
https://doi.org/10.1186/s41239
-025-00517-1
Tovar
-Sánchez, G.S. (2022) Imagining realities: Study on the trajectory of science, technology, and
innovation policies in Mexico. In Rodríguez
-Salazar & Bravo-Anduaga (coords.) Imagination
and knowledge in science, technology, and innovation: challenges,
possibilities, and realities.
Gedisa.

Tovar
-Sánchez, G. S. (2020). Epistemology of psychosocial imagination in STEAM. Conceptual
alternatives to face the educational challenges of the 21st century. Latin American Journal of

Science Education 7 ISSN: 2007
- 9842
Tovar
-Sánchez, G. S. & Martínez-García, R. D. (2018). Epistemological contributions for a 21st-
century genetic psychosociology. In Rodríguez
-Salazar & Barriga-Arceo (Editors) East of the
Paradigm: Alternative Views in the Teaching of Epistemology. (57
-74) Mexico: Gedisa
UNESCO. (2023).
Guidance for generative AI in education and research.
https://unesdoc.unesco.org/ark:/48223/pf0000386146

Xia, Q., Weng, X., Ouyang, F., Lin, T. J., & Chiu, T. K. F. (2024).
A scoping review on how generative
artificial intelligence transforms assessment in higher education
. International Journal of
Educational Technology in Higher Education, 21(40).
https://doi.org/10.1186/s41239-024-
pág. 7003
00468
-z