LA INTELIGENCIA ARTIFICIAL EN EL MUNDO
LEGAL ¿PROGRESO O RETROCESO

ARTIFICIAL INTELLIGENCE IN THE LEGAL WORLD: PROGRESS OR

REGRESSION?

Modesta Lorena Hernández Sánchez

Universidad Veracruzana

María Alicia Valadez Hernández

Universidad Veracruzana

Vania Cristina Castro Ríos

Universidad Veracruzana

Johan Azcona Ordoñez

Universidad Veracruzana
pág. 790
DOI:
https://doi.org/10.37811/cl_rcm.v10i1.22174
La Inteligencia Artificial en el mundo legal ¿progreso o retroceso?

Modesta Lorena Hernández Sánchez
1
modhernandez@uv.mx

https://orcid.org/0009-0006-8686-6412

Universidad Veracruzana

México

María Alicia Valadez Hernández

zS22016760@estudiantes.uv.mx

https://orcid.org/0009-0002-7166-304X

Universidad Veracruzana

México

Vania Cristina Castro Ríos

zS24016388@estudiantes.uv.mx

https://orcid.org/0009-0009-1739-3342

Universidad Veracruzana

México

Johan Azcona Ordoñez

zS24022176@estudiantes.uv.mx

https://orcid.org/0009-0000-3226-9782

Universidad Veracruzana

México

RESUMEN

El objetivo de la investigación consiste en analizar las implicaciones éticas, sociales y estructurales, que
derivan del uso de programas inteligentes, así como sus principales desafíos relacionados con la falta de
empatía, juicio moral y comprensión del contexto social; elementos primordiales para la interpretación
y aplicación del derecho. Durante el desarrollo, se exponen los alcances prácticos que tienen las
herramientas de Inteligencia Artificial, como, por ejemplo: Harvey, Tirant Prime, Sof-IA, Tirant Prime
Conversa, Lexius y JusticIA, que actualmente se encuentran en circulación en la Unión Europea y
América Latina; esto permite establecer un marco de reflexión en el que, si bien, se estiman las
atribuciones de éstas, queda de manifiesto que, el trabajo que ejecuta el abogado o cualquier operador
jurídico es irremplazable. A partir de una investigación documental de corte cualitativo, sustentada en
teorías doctrinales, criterios jurisprudenciales y marcos regulatorios internacionales, se resalta la
incompatibilidad de la lógica jurídica con las cualidades propias del ser humano. Se concluye que, el
uso de la optimización del trabajo jurídico, a través de herramientas especializadas, debe ser únicamente
para complementar la labor del operador jurídico y no para sustituirla.

Palabras clave: inteligencia artificial, ética jurídica, riesgos jurídicos, empatía

1
Autor principal
Correspondencia:
modhernandez@uv.mx
pág. 791
Artificial Intelligence in the legal world: progress or regression?

ABSTRACT

The objective of this research is to analyze the ethical, social, and structural implications of using

intelligent programs, as well as their main challenges related to a lack of empathy, moral judgment, and

understanding of the social context
essential elements for the interpretation and application of law.
The study explores the practical applications of Artificial Intelligence tools, such as Harvey, Tirant

Prime, Sof
-IA, Tirant Prime Conversa, Lexius, and JusticIA, which are currently in use in the European
Union and Latin America. This establishes a framework for reflection in which, while acknowledging

the capabilities of these tools, it becomes clear that the work performed by lawyers or any legal

professional is irreplaceable. Based on qualitative doc
umentary research, grounded in doctrinal theories,
jurisprudential criteria, and international regulatory frameworks, the study highlights the incompatibility

of legal logic with the inherent qualities of human beings. It is concluded that the use of optim
ization of
legal work, through specialized tools, should only be to complement the work of the legal operator and

not to replace it.

Keywords: artificial intelligence, legal ethics, legal risks, empathy

Artículo recibido 10 diciembre 2025

Aceptado para publicación: 10 enero 2026
pág. 792
INTRODUCCIÓN

En las últimas décadas, la Inteligencia Artificial se ha consolidado como una de las innovaciones
tecnológicas más influyentes en la transformación de las dinámicas sociales, económicas y jurídicas a
nivel global. Su incorporación en múltiples ámbitos de la vida cotidiana, ha generado beneficios
indiscutibles en términos de eficiencia, automatización y acceso a la información. Esta noción también
permite conocer y comprender que, la industria de la Inteligencia Artificial tiene una tendencia para
conformar una entidad denominada Blob- que influye no solo en el desarrollo tecnológico, sino,
además, en la configuración de normas, mercados e incluso, en los sistemas de justicia. Sin embargo,
este avance acelerado también ha dado lugar a profundas interrogantes éticas, jurídicas y filosóficas,
particularmente cuando su uso impacta directamente en el ejercicio del derecho y en la protección de
los derechos humanos. En ese contexto, surge el planteamiento central de la investigación, ¿la máquina
inteligente es capaz de emitir un juicio moral, empático y ético dentro de su proceso algorítmico?; la
respuesta a dicha interrogante permitirá atender la preocupación generalizada que existe hasta el
momento ¿en realidad el trabajo automatizado puede sustituir el trabajo humano? Bajo esa línea de
pensamiento, se desarrolla la investigación y se discuten, por un lado, las teorías filosóficas de Martha
Nussbaum e Immanuel Kant, en las que se resalta la importancia que tiene la emoción moral y la
autonomía racional en la actuación ética del abogado; y por otro, se abordan los límites jurídicos que ha
comenzado a delinear la Suprema Corte de Justicia de la Nación en materia de derechos de autor y en
el uso ético y responsable de los programas inteligentes con perspectiva de derechos humanos; puesto
que, ante la existencia de diversas herramientas de Inteligencia Artificial -como Harvey, Tirant Prime,
Sof-IA, Tirant Prime Conversa, Lexius y JusticIA-, que prometen optimizar la investigación, la
redacción y el análisis legal; es claro que, cada día es más notoria la necesidad de establecer marcos
normativos idóneos frente a los avances tecnológicos.

METODOLOGÍA

A partir de una investigación documental con enfoque cualitativo; sustentada en doctrina, legislación,
criterios jurisprudenciales y textos generales; se analizó y reflexionó sobre el contexto real en el que se
desenvuelve la Inteligencia Artificial en el ámbito jurídico, y las limitantes que enfrenta, en una
profesión que se sustenta en valores humanistas. El artículo tiene un alcance exploratorio básico que
pág. 793
permite el planteamiento de ideas e interrogantes. No se utilizaron datos estadísticos y numéricos, en
virtud de que, la discusión central versó en torno a la consolidación de los programas inteligentes y su
cuestionable eficiencia en la resolución de controversias, así como en la impartición de justicia.

RESULTADOS Y DISCUSIÓN

La Inteligencia Artificial (IA) a la vanguardia en el ámbito jurídico

A través de la historia, el hombre a empleado herramientas de diversos materiales y tamaños, sólo para
un propósito, facilitar las actividades cotidianas; del mismo modo, con las nuevas tecnologías se ha
buscado optimizar otro tipo de tareas virtuales, cómo el litigio previo. Según el planteamiento de Joel
Gómez Treviño
(2018) sobre el funcionamiento de la IA, sostiene que: “siguiendo el modelo del
aprendizaje humano, las máquinas inteligentes procesan datos masivos identificando patrones”.

Analizando el método jurídico, estas herramientas optimizan el desempeño del abogado, porque no solo
mejoran la eficiencia y precisión en el trabajo diario de los abogados, sino que también les permiten
ofrecer un servicio de mayor calidad a sus clientes, adaptándose a las demandas de un entorno legal en
constante evolución. Fruto de los avances recientes en el ámbito de la Inteligencia Artificial Generativa,
surgen Harvey, Tirant Prime, Sof-IA, Tirant Prime Conversa, Lexius y JusticIA; herramientas capaces
de personalizar la experiencia de los asistentes legales al mundo jurídico, como se explica a
continuación:

Harvey
(2025) es una herramienta de Inteligencia Artificial Generativa diseñada en Estados Unidos de
América, para asistir a los abogados en una variedad de tareas legales. Esta herramienta fue desarrollada
con el objetivo de optimizar y agilizar los procesos legales, permitiendo a los profesionales del derecho,
concentrarse en aspectos más estratégicos y menos repetitivos de su trabajo. Para ello, ha sido
alimentada con millones de documentos legales a fin de captar con un mejor nivel de acierto las
peculiaridades jurídicas. Adicionalmente, está en constante evolución para adaptarse a las necesidades
jurídicas, incorporando funcionalidades que permitan mejorar su uso. La compañía fue fundada por un
ex abogado y un ingeniero de IA de DeepMind, sin embargo, una estrecha relación con OpenAI les dio
una ventaja considerable para conseguir clientes importantes. Su principal idea es ayudar con las tareas
que suelen consumir el tiempo de un abogado, como redactar documentos, analizar contratos y realizar
investigaciones. Funciona a través de un asistente en modalidad de chat, en donde se puede hablar con
pág. 794
la IA en un lenguaje sencillo. Tiene capacidad para investigar precedentes legales, resumir documentos
largos o elaborar los primeros borradores de contratos y correos electrónicos. Actualmente, empresas
exitosas como Am Law 100 y Fortune 500, forman parte de su lista de clientes.

Tirant Prime
(2025), es una plataforma de Inteligencia Artificial jurídica, diseñada en España por la
editorial Tirant lo Blanch, para ofrecer herramientas innovadoras a los profesionales del derecho. Parte
de sus extensiones especializadas lo son: Sof-IA y Tirant Prime Conversa.

Sof-IA
(2025) brinda acceso a una base de datos jurídica completa y actualizada, en donde realiza
búsquedas rápidas y precisas de leyes, jurisprudencia y doctrina; tiene capacidad para generar, editar y
corregir textos jurídicos, incluyendo contratos, demandas y recursos; coadyuva en el análisis de casos -
identificando patrones y tendencias relevantes-, realiza la gestión de expedientes y mantiene
actualización constante con las últimas reformas legislativas y cambios jurisprudenciales. Permite
ahorrar tiempo y aumentar la productividad; también mejora la precisión y reducción de errores,
ofreciendo asistencia personalizada y adaptable a las necesidades de las personas.

Tirant Prime Conversa
(2025), es un asistente conversacional jurídico, diseñado para ofrecer respuestas
precisas a preguntas específicas. Ofrece varias funcionalidades, como: análisis preliminar de
documentos legales; adhesión de cláusulas o hechos a documentos; examen de argumentos jurídicos;
creación de borradores de comunicaciones legales y creación de formularios personalizados. Los
servicios con los que cuenta, están disponibles en varias plataformas, incluyendo Tirant Prime, Tirant
Asesores, Tirant Notariado y Tirant Propiedad Horizontal.

En América Latina se cuenta con Lexius
(2026), el cual es un sistema inteligente diseñado en Chile, que
funciona como un abogado virtual con capacidad para responder consultas jurídicas complejas, redactar
documentos legales y realizar búsquedas en tiempo real. Emplea conversaciones de voz fluidas e
interactivas con IA legal avanzada, análisis inteligente de extractos de sentencias y textos legales,
búsqueda avanzada que identifica la intención real de la consulta; también interviene en la redacción de
documentos, por lo que, genera borradores de documentos legales, y; finalmente, transcribe audios y
videos -conversión automática de contenido multimedia en texto-. Lexius se encuentra disponible en
varias plataformas, incluyendo Windows, Mac, Linux, iOS y Android, y ofrece una prueba gratuita para
que los usuarios puedan experimentar sus beneficios.
pág. 795
En México se cuenta con la plataforma JusticIA la cual fue implementada a partir del 27 de mayo de
2025, por la Suprema Corte de Justicia de la Nación
(2025), con el propósito de poner a disposición del
público, un asistente virtual que, con un lenguaje natural, ayude en la búsqueda de información que esté
relacionada con: sentencias, organización e integración de la SCJN, consulta del Semanario Judicial de
la Federación, justicia digital, acceso a la información, transparencia y protección de datos personales.
Cabe puntualizar que, la búsqueda emplea algoritmos de Inteligencia Artificial que están programados
a partir de bases de conocimientos con tendencias de búsqueda que arrojan enlaces de interés. Una de
sus peculiaridades, es que, a través del principio de privacidad por diseño, no utiliza los datos personales
del usuario para su funcionamiento, y tampoco rastrea los datos de navegación.

Lo antes expuesto deja en claro que, la IA sigue revolucionando en el sector jurídico de manera
significativa. Algunos de los impactos más destacados incluyen la automatización de tareas rutinarias,
como la revisión de documentos, la búsqueda de jurisprudencia y la gestión de datos, lo que posibilita
que los abogados liberen tiempo para centrarse en aspectos que requieren mayor atención; del mismo
modo, coadyuva en la toma de decisiones, al analizar grandes cantidades de datos y proporcionar
recomendaciones precisas, como parte de la investigación jurídica eficiente que emprenden. No
obstante, la IA también presenta diversos dilemas que derivan de su uso desmedido, la disposición de
plataformas con capacidades excepcionales que están bajo la operación de algunas empresas que buscan
poder y control en áreas estratégicas, la ausencia de regulación específica en el tema, y la posibilidad de
que la máquina inteligente reemplace a la actividad humana en un futuro cercano; como se puntualiza
en los siguientes apartados de este artículo.

Operación de la Inteligencia Artificial en el “Blob”

El creciente impacto global que ha tenido la Inteligencia Artificial (IA) en sus múltiples facetas, ha
derivado en la necesidad de reflexionar sobre su uso responsable, los riesgos que implica su desarrollo
y aplicación, la posibilidad del reemplazo del trabajo humano, así como, el rol que deben asumir los
profesionistas e instituciones educativas, ante el potencial que tienen los programas inteligentes y sus
dimensiones desconocidas.

Expertos en el tema consideran que la interactividad de los sistemas inteligentes y su acumulación,
abrieron la puerta para que se configurara un “Blob”; dicho término tiene varias interpretaciones, que
pág. 796
van desde un concepto técnico, hasta una metáfora crítica sobre la industria tecnológica. Uno de los
comentarios más destacados, describe el “Blob”, cómo la concentración masiva de poder y recursos en
manos de pocas corporaciones tecnológicas como: Nvidia, Microsof y Google
(Observatorio
Tecnológico de Hidalgo, 2025)
.
Esta denominada “masa” se refiere al entrelazado complejo de asociaciones, fusiones e inversiones
estratégicas que vinculan a los principales actores (grandes empresas tecnológicas, fabricantes de chips,
y a veces gobiernos). También se define como un tipo de datos en información y aprendizaje automático
-siendo un acrónimo de Binary Large Object (objeto binario grande)- que se utiliza para almacenar
grandes cantidades de datos binarios no estructurados en una base de datos o sistema de almacenamiento
en la nube, como imágenes, archivos de audio o modelos de IA entrenados; de ahí que, existan muchos
sistemas inteligentes programados para absorber cualquier tipo de información jurídica o de otra
índole- con una capacidad escalofriante para obtener datos y sin tener ningún tipo de especialización.
De acuerdo con los críticos, dicha concentración representa una amenaza potencial para la diversidad y
seguridad a largo plazo en el campo de la IA, que en suma, pretenden buscar y obtener el control de los
gobiernos y sistemas de justicia.

Asimismo, una de las principales opiniones sobre esta visión, se popularizó con artículos en diversos
medios, como la revista Wired, que sostienen que la industria de la IA se está convirtiendo en una entidad
singular y amorfa que devora todo a su paso, lo cual indica que, pareciese difuminar las líneas entre las
grandes empresas y los gobiernos
(Levy, 2025); por supuesto, lo anterior plantea riesgos sistémicos
provenientes de un monopolio, la posible supresión de la innovación independiente y la falta de
competencia. Por eso, la opinión general sobre éste “Blob” es preocupante.

La Inteligencia Artificial en el campo jurídico: ¿Por qué es importante considerar la ética y la
empatía en los sistemas inteligentes?

Dentro de la sociedad actual, una de las principales inquietudes que persisten, es la falta de información
y el uso irregular de las herramientas digitales; esto se refleja en el desinterés que prevalece en confirmar
la veracidad de la redacción directa que proviene de cualquier producto que proviene de la IA.
Específicamente en el campo jurídico, el contenido de las legislaciones es distinto -en países y estados-
, de tal modo que, el trabajo ordinario de cualquier abogado implica que conozca el contenido de la ley,
pág. 797
la adapte según la interpretación que quiera presentar y emita un razonamiento congruente ante las
instancias correspondientes; por lo que, con el uso asiduo de programas inteligentes existe una tendencia
a perder esta forma de laborar y, por ende, que el desempeño óptimo en el ámbito jurídico ya no sea
prioridad.

El ejercicio del abogado exige tener sentido crítico, empático y ético para comprender las necesidades
de su cliente, que, en suma, representa la responsabilidad social de ayudar a los demás; actitudes que los
sistemas inteligentes aún no son capaces de desarrollar. Lo anterior, nos obliga a conocer, considerar y
reflexionar sobre las limitantes que impone el uso de la IA, así como la desinformación que existe por
la falta de autenticidad en las respuestas que emite, lo cual representa una problemática para la
población, y arroja como resultado malos procesos en la práctica.

Si bien es cierto que la IA es una herramienta valiosa, no menos cierto es que, no puede ni debe
reemplazar la conciencia, la argumentación y los fundamentos que un ser humano aporta al redactar una
demanda, resolver una controversia y/o emitir una sentencia judicial; que, en otras palabras, equivale a
la deontología propia de cualquier operador jurídico; por ello, es importante reconocer el valor que tiene
la intervención y el comportamiento humano en el ámbito del derecho. Martha Nussbaum
(2015) plantea
en su obra titulada La fragilidad del bien: fortuna y ética en la tragedia y la filosofía griega que “la
compasión es una emoción moral fundamental que permite reconocer la vulnerabilidad y la dignidad de
los demás”; entonces, bajo esa línea de pensamiento reflexionamos si ¿es posible que la IA imite una
actuación emocional y ética en el ámbito del derecho que produzca y garantice bienestar?, la respuesta
es no, porque la compasión es un comportamiento humano que está dirigido a que éste último se
conduzca de manera correcta y en favor de la situación de los demás; de modo que, dichas atribuciones
no es posible que la IA las reproduzca.

Por otro lado, también resulta importante tomar en consideración la teoría de la moral de Immanuel Kant

(Pérez Carrillo, 1969, pág. 599)
, que distingue entre el deber y la inclinación; en donde el deber es la
conducta interna y universal que nos permite actuar de manera racional; mientras que, la inclinación es
la motivación personal que nos lleva a actuar de acuerdo a nuestros deseos. Por tanto, si trasladamos el
contenido de dicha teoría al uso de IA, no es posible que un programa inteligente copie el citado código
pág. 798
de conducta que exige un determinado proceder que respete los derechos humanos de las personas, ante
la ausencia de regulación y alcances específicos para el uso de herramientas de esta índole.

Lo hasta aquí precisado nos permite afirmar que, la evolución de este tipo de tecnología genera una
diferencia de ideas realmente compleja, como lo es, el dotar de sentimientos y sentido crítico a la
máquina, para que reconozca la relevancia que tiene una controversia -la cual envuelve un cúmulo de
derechos que atañen a las partes involucradas- y, actúe en consecuencia. Por ello, ante la intervención
progresiva de los programas inteligentes en los procesos judiciales, la Suprema Corte de Justicia de la
Nación (SCJN) de México, a través de resoluciones y debates, ha establecido criterios clave respecto a
la creación de materiales con apoyo de la IA, principalmente enfocados en el ámbito de los derechos de
autor. El criterio donde rechaza cualquier tipo de creación hecha con IA, se materializó en el amparo
directo 6/2025 resuelto en fecha 02 de julio de 2025, por la extinta Segunda Sala de la Suprema Corte
de Justicia de la Nación, en el cual postula como argumento central que, las obras generadas
exclusivamente por IA, no pueden registrarse como propiedad intelectual, porque carecen de la
creatividad y originalidad humana, requisito fundamental para su protección legal
(Gerarld García Báez
Vs. Sala Especializada en Materia de Propiedad Intelectual del Tribunal Federal de Justicia
Administrativa, 2025)
.
Resulta importante destacar que, aunque la SCJN no ha emitido una lista exhaustiva y formal sobre los
riesgos éticos; lo cierto es que, sus decisiones y posturas en el tema sobre derechos de autor y el uso de
IA en procesos judiciales, han sentado un precedente, brindándole a la sociedad la perspectiva real que
caracteriza a los sistemas inteligentes y el vacío legal en su regulación:

1. Falta de autoría y creatividad humana: su principal riesgo es la disolución del concepto de autor,
tal como lo concibe la ley mexicana y Tratados Internacionales como el Convenio de Berna para la
Protección de las Obras Literarias y Artísticas
(1971) y el Tratado México, Estados Unidos y Canadá
(T-MEC)
(Gobierno de los estados parte, 1994). La SCJN ha sostenido que la creatividad y la expresión
personal son rasgos exclusivos del ser humano; si una obra no tiene un autor humano, se pierde el vínculo
ético fundamental entre el creador y su creación. Esto afecta los derechos morales y patrimoniales
tradicionalmente asociados al trabajo creativo. Además, es importante añadir que, en el amparo directo
6/2025
(Gerarld García Báez Vs. Sala Especializada en Materia de Propiedad Intelectual del Tribunal
pág. 799
Federal de Justicia Administrativa, 2025)
también se aclaró que, los alcances legales del derecho de
autor, definidos en los artículos 3 y 12 de la Ley Federal del Derecho de Autor
(2022), establecen que,
los elementos mínimos que exige el registro de una obra, es que el autor sea una persona física, y, que
exista una obra literaria y artística de creación original; de modo que, los entes artificiales como los
sistemas de IA- no entran en dicha descripción, porque únicamente se limitan a ejecutar algoritmos y
tareas automatizadas que previamente le fueron programadas y que indiscutiblemente, están alejadas de
originalidad e individualidad.

2. Riesgo de pérdida de derechos de propiedad intelectual: al no reconocer la autoría de la IA, las
obras generadas al 100%, a través de los programas inteligentes, quedan desprotegidas por la legislación
de derechos de autor. Esto genera incertidumbre sobre quién puede explotar, modificar o beneficiarse
económicamente de dicha creación, y, en consecuencia, propicia el riesgo de que la obra caiga en un
limbo legal, desincentivando la inversión, y, el uso de la IA de manera responsable en la industria
creativa; o permitiendo su uso indiscriminado sin reconocimiento. Por ello, la SCJN ha confirmado hasta
el momento que, las obras creadas únicamente por sistemas de IA carecen de expresión personal,
requisito esencial para su protección legal; no obstante, las obras que combinan aportación humana con
IA también denominadas obras híbridas- sí pueden registrarse, siempre que exista una contribución
creativa humana discernible, de acuerdo a lo que reconoce el artículo 13 de la Ley Federal del Derecho
de Autor
(Congreso de la Unión, 1996)
3. Riesgo de fraude y confusión (deepfakes y suplantación): aunque no se centra únicamente en la
creación, la SCJN también ha alertado sobre el uso de la IA para generar contenido falso -videos,
imágenes, audios- para confundir y engañar a los usuarios, como en el caso de cuentas fraudulentas de
ministros; la erosión de la confianza pública y la afectación a derechos fundamentales, como el honor,
la imagen y la identidad, se ponen en riesgo ético de amplio alcance, que va más allá de la creación
artística, pero se fundamenta en la capacidad de la IA para crear contenido hiperrealista.
(Suprema Corte
de Justicia de la Nación, 2025)

En ese orden de ideas, García Sánchez
(2020) afirma que, una posible solución que acabaría con la
existencia de riesgos, y propiciaría un uso adecuado y responsable de la IA es, la creación de una
personalidad jurídica a los robots autónomos más avanzados y, concretamente a las máquinas capaces
pág. 800
de aprender por sí mismas y actuar autónomamente (machine learning), al reconocerles una personalidad
electrónica, es decir, una e-personality. En virtud de que, las respuestas del derecho frente al progreso
de dicha tecnología, se encuentra en regular la personalidad y la responsabilidad.

Hasta el momento, solo se cuenta con tres instrumentos que representan un esfuerzo de regulación de la
IA a nivel internacional: las Directrices éticas para una Inteligencia Artificial Fiable del Grupo de
expertos de alto nivel sobre Inteligencia Artificial creado por la Comisión Europea; el Reglamento del
Parlamento Europeo del Consejo por el cual se establecen normas armonizadas en materia de
Inteligencia Artificial; y la Recomendación sobre la ética de la Inteligencia Artificial de la UNESCO y
sus principios éticos; los cuales permiten adoptar mejores prácticas en beneficio de la protección de los
derechos humanos.

¿La Inteligencia Artificial puede sustituir el trabajo del abogado?

Dentro del cúmulo de interrogantes que envuelve el trabajo que ejecuta la IA, se encuentra la posibilidad
de reemplazar el criterio humano; no obstante, lo hasta aquí expuesto, evidencia que, la tecnología por
sí sola, no puede discernir los matices morales o contextuales que se requiere interpretar en los procesos
jurisdiccionales. A esto, se añade el criterio de jurisprudencia emitido por el Segundo Tribunal Colegiado
en Materia Civil del Segundo Circuito, publicado el 09 de enero de 2026, en el cual se especifica que,
ante el uso creciente de IA en procesos jurisdiccionales, es necesario observar como elementos mínimos,
los principios de: a) proporcionalidad e inocuidad; b) protección de datos personales; c) transparencia y
explicabilidad; y d) supervisión y decisión humana
(Inteligencia Artificial aplicada en procesos
jurisdiccionales. Elementos mínimos que deben observarse para su uso ético y responsable con
perspectiva de derechos humanos, 2026)
; pues si bien, las herramientas de IA pueden operar como
auxiliares, facilitando cierta información para alcanzar un fin legítimo, no menos cierto es que, bajo
ninguna circunstancia la información que arroja el sistema inteligente, puede y debe sustituir el
razonamiento jurídico en la interpretación o aplicación de las normas, porque carece de los criterios
éticos necesarios para aplicar la justicia de manera adecuada; aunado a que, también existe el riesgo de
que los algoritmos de IA sean programados con datos históricos sesgados, lo que podría provocar la
obtención de resultados discriminatorios e injustos, perpetuando desigualdades existentes si se aplican
en el ejercicio del derecho.
pág. 801
Por ello, en respuesta a la interrogante planteada, es claro que, no es posible que las tareas que realiza
un programa inteligente tengan la posibilidad de equiparse al trabajo que ejecuta el operador jurídico
juez, abogado, ministro, magistrado, fiscal-; dado a que, ante su carencia palpable de actuar bajo criterios
éticos, también se encuentra la inquietud de resolver sobre quién debe recaer la responsabilidad legal en
caso de errores o fallas en el sistema de IA: ¿el proveedor, el programador, el operador o el mismo
sistema? Ante ese tipo de riesgos e incertidumbres, la SCJN ha determinado resaltar la importancia del
elemento humano en los procesos creativos y legales.

Asimismo, también reforzamos nuestro argumento con el contenido de la teoría naturalista del derecho

(Saldaña Serrano, 2011)
, que sostiene que el derecho es una entidad objetiva y universal, que existe
independientemente de la voluntad humana. Según esta teoría, hay principios y valores morales que son
inherentes al ser humano y que deben ser respetados por cualquier sistema jurídico. Entonces, bajo esa
línea de respeto a los derechos de las personas -que robustece los fundamentos humanistas- el
conocimiento, deliberación y decisión de las controversias, que implican un ejercicio más complejo que
teclear y buscar conceptos genéricos, le atañe al operador jurídico.

Según expertos en el tema, el sistema de IA será peor o mejor, según los datos que le sean introducidos;
lo anterior, explica concretamente porque las controversias y decisiones judiciales no deben delegarse a
una máquina inteligente.

CONCLUSIÓN

La investigación permitió reconocer los beneficios reales que aportan los programas inteligentes al
ejercicio del derecho, cuando se utilizan de manera responsable. Herramientas como Harvey, Tirant
Prime y JusticIA, demuestran que la IA puede optimizar tareas repetitivas, mejorar la investigación
jurídica y facilitar el acceso a información especializada, sin sustituir el criterio profesional del abogado.
En ese sentido, la IA debe entenderse como un medio de apoyo y no como un fin en sí mismo.

Por otro lado, el estudio permitió identificar que la Inteligencia Artificial, si bien constituye una de las
herramientas más avanzadas y desarrolladas por la humanidad, no es neutral, debido a que, su
funcionamiento depende de los datos que se le programan, los intereses de quienes la desarrollan y, los
fines para los cuales se utiliza. En el ámbito jurídico, esta realidad se vuelve particularmente sensible,
pág. 802
ya que el derecho no puede entenderse únicamente como un sistema técnico de normas, sino como una
construcción humana basada en valores, principios y derechos humanos.

Asimismo, bajo una perspectiva crítica, se analizó el impacto de la Inteligencia Artificial en el ámbito
jurídico, partiendo desde la noción del llamado “Blob” como una metáfora que representa la
concentración de poder tecnológico, económico y de datos en manos de unas cuantas corporaciones
globales. Esta concentración no solo plantea riesgos estructurales para la competencia y la innovación,
sino que también genera una profunda preocupación ética, al difuminar las fronteras entre los intereses
privados, los gobiernos y los sistemas de justicia.

Uno de los puntos más relevantes que se abordaron, fue la incapacidad de la Inteligencia Artificial para
desarrollar empatía, juicio moral y sentido crítico; elementos indispensables en la práctica del derecho.
Tal como lo expone Martha Nussbaum, el sentimiento de compasión y las emociones que provienen de
la moral, permiten reconocer la dignidad y fragilidad de las personas; aspectos que resultan esenciales
en la labor del abogado. En contraste a esta postura, la IA opera mediante patrones estadísticos y
probabilísticos, que limitan la comprensión del contexto social, humano y emocional que envuelve a
cada caso concreto. En la misma línea de ideas, desde una perspectiva ética, la teoría moral de Immanuel
Kant refuerza este argumento, al establecer que el actuar conforme al deber moral requiere conciencia
y racionalidad práctica, cualidades que no pueden atribuirse a un sistema automatizado. De tal modo
que, al permitir que las decisiones jurídicas relevantes se deleguen exclusivamente a la Inteligencia
Artificial, sin supervisión humana, representa un riesgo significativo para el resguardo de los derechos
humanos y la legitimidad del sistema jurídico.

En el contexto mexicano, la postura de la Suprema Corte de Justicia de la Nación resulta fundamental
para comprender los límites actuales de la IA. A través de sus criterios en materia de derechos de autor
y, sobre los parámetros para la aplicación ética y responsable de la IA, ha reafirmado que la creatividad
y la originalidad son atributos exclusivamente humanos, que excluyen la posibilidad de reconocer como
obras protegidas, aquellas generadas de manera integral a través de un sistema inteligente. Este criterio
no solo protege la noción tradicional de autoría, sino que también evidencia la necesidad de preservar
el vínculo ético entre el creador humano y su creación.
pág. 803
Desde una opinión crítica personal, consideramos que el verdadero peligro no consiste en el avance
tecnológico, sino en la falta de regulación, educación digital y ética profesional en su uso. La adopción
irreflexiva de herramientas de Inteligencia Artificial en el ámbito jurídico, puede derivar en prácticas
deficientes, pérdida de calidad en la argumentación legal, y, en el peor de los casos, la vulneración de
derechos humanos; por ello, el abogado no puede delegar su responsabilidad moral, social y jurídica, a
una máquina, pues esto implicaría renunciar al núcleo humano del derecho.

Finalmente, resulta indispensable que los Estados, las instituciones judiciales y las universidades,
impulsen un marco normativo claro que regule el uso de la Inteligencia Artificial en el derecho,
estableciendo límites, responsabilidades y principios éticos; pues queda claro que, la formación jurídica
del futuro debe integrar el conocimiento tecnológico, sin abandonar los valores humanistas que
históricamente han dado sentido a la justicia. Solo así será posible aprovechar los beneficios de la
Inteligencia Artificial, sin comprometer la dignidad humana, ni la esencia del ejercicio jurídico.

REFERENCIAS BIBLIOGRÁFICAS

Congreso de la Unión. (24 de Diciembre de 1996). Ley Federal del Derecho de Autor.

https://www.diputados.gob.mx/LeyesBiblio/pdf/LFDA.pdf

Derecho de autor. El artículo 12 de la Ley Federal relativa respetael derecho a la igualdad y a la no
discriminación, al limitar que sólo las personas físicas pueden ser autoras, 131/2021 (Primera
Sala de la Suprema Corte de Justicia de la Nación 01 de Abril de 2022).

https://sjf2.scjn.gob.mx/detalle/tesis/2024373

García Sánchez, M. (2020). Inteligencia Artificial y oportunidad de creación de una personalidad
electrónica. Ius Et Scientia, 6(2).

https://revistascientificas.us.es/index.php/ies/article/view/14277

Gerarld García Báez Vs. Sala Especializada en Materia de Propiedad Intelectual del Tribunal Federal de
Justicia Administrativa, 6/2025 (Segunda Sala de la Suprema Corte de Justicia de la Nación 02
de Julio de 2025).
https://transparencia-ciudadana.scjn.gob.mx/sites/default/files/page/2025-
08/scjn-ad-6-2025.pdf

Gobierno de los estados parte. (1994). Tratado entre México, Estados Unidos y Canadá.

https://centrogilbertobosques.senado.gob.mx/docs/T-MEC.pdf
pág. 804
Gómez Treviño, J. (05 de Septiembre de 2018). Legal Tech, Reg Tech e Inteligencia Artificial: la
tecnología al servicio del derecho.
https://anade.org.mx/wp-content/uploads/2018/09/05_La-
digitalizaci%C3%B3n-de-los-abogados...Joel-G%C3%B3mez.pdf

Harvey. (2025). Harvey AI.
https://www.harvey.ai/
Inteligencia Artificial aplicada en procesos jurisdiccionales. Elementos mínimos que deben observarse
para su uso ético y responsable con perspectiva de derechos humanos, 212/2025; 404/2025;
359/2025; 189/2025; 253/2025 (Segundo Tribunal Colegiado en Materia Civil del Segundo
Circuito 9 de Enero de 2026).
https://sjf2.scjn.gob.mx/detalle/tesis/2031640
Levy, S. (21 de Noviembre de 2025). En el fondo, solo hay una empresa de IA: Así funciona el oligopolio
que controla la revolución.
https://es.wired.com/articulos/en-el-fondo-solo-hay-una-empresa-
de-ia-asi-funciona-el-oligopolio-que-controla-la-revolucion

Lexius. (2026). Guía de uso.
https://lexius.io/cl/
Nussbaum, M. (2015). La fragilidad del bien: fortuna y ética en la tragedia y la filosofía griega.
Machado Grupo de Distribución S.L.

Observatorio Tecnológico de Hidalgo. (27 de Noviembre de 2025). "El Blob" mega-monopolio de la IA
¿La gran amenaza para la humanidad?
https://otech.uaeh.edu.mx/noti/articulo-otech/el-blob-
mega-monopolio-de-la-ia-la-gran-amenaza-para-la-humanidad/

Organización de Estados Americanos. (24 de Julio de 1971). Convenio de Berna para la Protección de
las Obras Literarias Artísticas.
https://www.oas.org/juridico/spanish/cyb_uru_Conv_Berna.pdf
Pérez Carrillo, A. (1969). Los conceptos de moral y derecho en Kant. Revista de la Facultad de Derecho
de México(75-76).
https://revistas-colaboracion.juridicas.unam.mx/index.php/rev-facultad-
derecho-mx/article/viewFile/26572/23944

Saldaña Serrano, J. (2011). Normas, razones y deechos. Filosofía jurídica contemporánea en México.
En J. Saldana Serrano, El derecho natural y sus dimensiones actuales. Trotta.

Suprema Corte de Justicia de la Nación. (27 de Mayo de 2025). La Corte impulsa el asistente virtual
"JusticIA" una herramienta que usa Inteligencia Artificial para la consullta de información
relacionada con temas judiciales publicada en su portal web. México.

https://www.internet2.scjn.gob.mx/red2/comunicados/comunicado.asp?id=8279
pág. 805
Suprema Corte de Justicia de la Nación. (20 de Febrero de 2025). Valida la Corte definición de
Inteligencia Artificial establecida en el Código Penal del Estado de Sinaloa.

https://www.internet2.scjn.gob.mx/red2/comunicados/comunicado.asp?id=8175

Tirant Prime. (10 de Diciembre de 2025). Tirant Prime, la plataforma de soluciones LegalTech más
potente.
https://prime.tirant.com/mx/