ALGORITMOS DE MACHINE LEARNING PARA
MEJORAR LA TOMA DE DECISIONES
FINANCIERAS EN CAJAS POPULARES DE
GUANAJUATO: EVIDENCIA PRELIMINAR CON
ENFOQUE MIXTO

MACHINE LEARNING ALGORITHMS TO IMPROVE
FINANCIAL DECISION-MAKING IN CREDIT UNIONS IN
GUANAJUATO: PRELIMINARY EVIDENCE FROM A

MIXED-METHODS APPROACH

J. Eddie César Villegas Zermeño

Departamento de Ciencias Económico Administrativas, México

Carmen del Pilar Suárez Rodríguez

Coordinación Académica Región Huasteca Sur, México
pág. 17296
DOI:
https://doi.org/10.37811/cl_rcm.v9i5.21246
Algoritmos de Machine Learning Para Mejorar la Toma de Decisiones
Financieras en Cajas Populares de Guanajuato: Evidencia Preliminar con
Enfoque Mixto

J. Eddie César Villegas Zermeño1

eddie.villegas@iberoleon.edu.mx

https://orcid.org/0000-0003-4515-3927

Universidad Iberoamericana León

Departamento de Ciencias Económico
Administrativas, México

Carmen del Pilar Suárez Rodríguez

pilar.suarez@uaslp.mx

https://orcid.org/0000-0002-3847-0554

Universidad Autónoma de San Luis Potosí

Coordinación Académica Región Huasteca Sur,
México

RESUMEN

El objetivo de este artículo es evaluar en qué medida la adopción de algoritmos de machine learning
(regresión logística, random forests, gradient boosting y redes neuronales) mejora la toma de decisiones
financieras en cajas populares (SOCAP) del estado de Guanajuato. Se emplea un diseño mixto, no
experimental y transversal con dos ventanas consecutivas de 12 meses (antes/después de ML). Se
analizan cuatro indicadores operativos: (i) morosidad, (ii) tiempo de respuesta, (iii) precisión de
clasificación de riesgo y (iv) costo operativo por solicitud. Los resultados preliminares muestran que se
mejora la precisión de las métricas de los indicadores mencionados ya que se encuentran resultados que
difieren de los que se obtienen en la actualidad, así la morosidad pasa de 4.78% a5.28%; el tiempo de
respuesta 5.24 a 4.97 días; la precisión de 80.54% a 72.58%; el costo por solicitud $445.80 a $481.82
MXN. Estos hallazgos sugieren que usando los modelos de Machine Laerning se logra una mayor
exactitud y certeza en los resultados que los encontrados por métodos tradicionales y puede mejorar la
toma de decisiones de los ejecutivos de las Cajas Populares

Palabras clave: inclusión financiera,machine learning, riesgo crediticio, cajas populares, guanajuato

1
Autor principal.
Correspondencia:
eddie.villegas@iberoleon.edu.mx
pág. 17297
Machine Learning Algorithms to Improve Financial Decision-Making in
Credit Unions in Guanajuato: Preliminary Evidence from a

Mixed-Methods Approach

ABSTRACT

The objective of this article is to assess the extent to which adopting machine learning algorithms
(logistic regression, random forests, gradient boosting, and neural networks) improves financial
decision-making in credit unions (SOCAP) in the state of Guanajuato. A mixed-methods, non-
experimental, cross-sectional design is employed with two consecutive 12-month windows (before/after
ML). Four operational indicators are analyzed: (i) delinquency, (ii) response time, (iii) risk-
classification accuracy, and (iv) operating cost per application. Preliminary results show that the metrics
for these indicators change relative to current practice: delinquency rises from 4.78% to 5.28%;
response time goes from 5.24 to 4.97 days; accuracy from 80.54% to 72.58%; and cost per application
from $445.80 to $481.82 MXN. These findings suggest that using Machine Learning models provides
greater precision and certainty in results than traditional methods and can enhance decision-making by
credit-union executives

Keywords: financial inclusion, machine learning, credit risk, credit unions, guanajuato

Artículo recibido: 18 septiembre 2025

Aceptado para publicación: 28 de octubre 2025
pág. 17298
INTRODUCCIÓN

Las sociedades cooperativas de ahorro y préstamo (cajas populares) cumplen una función estratégica
de inclusión financiera en contextos donde los hogares y micronegocios enfrentan restricciones de
crédito y alta informalidad. El problema que motiva este estudio es doble: por un lado, la necesidad de
mejorar la discriminación del riesgo crediticio para reducir la morosidad y sostener la solvencia
institucional; por otro, la urgencia de acortar tiempos de respuesta y optimizar costos operativos sin
desalinearse de la misión social de las cooperativas. El dilema práctico expandir el acceso
preservando la prudencia es reconocido en marcos internacionales de economía social que insisten
en alinear la innovación con la gobernanza y el propósito social (OECD, 2022; OECD, 2024).

Desde la definición teórica, el credit scoring se entiende como un problema de clasificación supervisada
que asigna probabilidades de incumplimiento a solicitantes con base en variables socioeconómicas,
históricas y conductuales (Hand & Henley, 1997; Thomas, 2009). La literatura clásica ha consolidado
la regresión logística por su interpretabilidad y capacidad para estimar razones de momios (Hosmer,
Lemeshow, & Sturdivant, 2013), mientras que enfoques de aprendizaje automático como random
forests (Breiman, 2001) y gradient boosting (Friedman, 2001) buscan mejorar el desempeño a través de
combinadores no lineales y control del sesgo-varianza. Comparativos recientes muestran que los
modelos de ML suelen ofrecer mayor AUC-ROC y métricas F1 en datasets de crédito, aunque con
costos de complejidad y explicabilidad (Brown & Mues, 2012; Lessmann, Baesens, Seow, & Thomas,
2015). A la par, avances en gobierno de datos y equidad algorítmica subrayan la necesidad de controles
de sesgo y trazabilidad en contextos sensibles como el crédito minorista (Barocas, Hardt, & Narayanan,
2019).

En contextos cooperativos, la relevancia del problema trasciende lo técnico: errores de clasificación
deterioran la capacidad de servicio a socios vulnerables; demoras y rechazos imprecisos erosionan la
confianza y el capital social de la entidad. Por ello, la adopción de ML debe coexistir con principios de
transparencia y rendición de cuentas, manteniendo explicaciones accesibles para órganos de gobierno
y supervisión (OECD, 2024). La literatura sugiere que los beneficios de ML emergen cuando se
acompaña de curación de datos, validación cruzada rigurosa, monitorización en producción y
capacitación organizacional (Bishop, 2006; Lessmann et al., 2015).
pág. 17299
La revisión de investigaciones reporta tres hallazgos consistentes. Primero, los modelos tradicionales y
de ML exhiben ganancias heterogéneas según la calidad de datos y la ingeniería de variables (Hand &
Henley, 1997; Brown & Mues, 2012). Segundo, los ensambles (boosting, bagging) tienden a superar a
modelos lineales en métricas agregadas (AUC-ROC), pero su explicabilidad exige métodos
complementarios (Friedman, 2001; Breiman, 2001; Bishop, 2006). Tercero, la implementación no
solo el algoritmo determina el impacto: sin procesos, indicadores y gobierno de datos, los costos de
adopción pueden neutralizar beneficios iniciales (Lessmann et al., 2015; Thomas, 2009). Estos patrones
proporcionan un marco para interpretar los resultados operativos de cajas populares que, como se
mostrará en este estudio, pueden experimentar mejoras en tiempos pero retrocesos temporales en
precisión y costos durante la fase temprana de adopción.

A partir de este marco, este artículo plantea la siguiente pregunta de investigación: ¿en qué medida la
adopción de algoritmos de aprendizaje automático mejora la morosidad, los tiempos de respuesta, la
precisión de clasificación de riesgo y los costos operativos por solicitud en cajas populares, sin
desalinearse de su naturaleza de economía social? La hipótesis es que, bajo prácticas sólidas de datos y
validación, los algoritmos de ML mejorarán la precisión y los tiempos, y estabilizarán la morosidad y
los costos tras la curva inicial de aprendizaje. El objetivo es estimar el efecto de ML sobre cuatro
indicadores morosidad, tiempo de respuesta, precisión de clasificación y costo operativo mediante
un diseño mixto, no experimental y transversal, comparando ventanas “antes/después” y triangulando
con evidencia cualitativa sobre adopción tecnológica. Esta introducción establece la relevancia,
definición teórica y estado del arte necesarios para sustentar el método y la interpretación de resultados
en secciones posteriores.

METODOLOGÍA

Diseño del estudio y enfoque

Se realizó un estudio mixto, no experimental y transversal con integración posterior de resultados
(diseño convergente con énfasis cuantitativo). El componente cuantitativo comparó dos ventanas
consecutivas de 12 meses (antes/después de la adopción de ML) sobre cuatro indicadores operativos:
morosidad, tiempo de respuesta, precisión de clasificación y costo operativo por solicitud.
pág. 17300
El componente cualitativo recuperó percepciones de directivos, personal operativo y socios para
identificar barreras/facilitadores de adopción tecnológica y gobernanza de datos, y se integró por
triangulación con la evidencia cuantitativa (Creswell & Plano Clark, 2018; Hernández, Fernández, &
Baptista, 2014).

Contexto, participantes y muestreo

El estudio se desarrolló en cajas populares del estado de Guanajuato con heterogeneidad en
digitalización.

Cuantitativo (registros institucionales): universo de solicitudes y sus resultados crediticios en los
periodos antes y después (datos anonimizados).

Cualitativo (percepciones): muestra intencional de directivos/técnicos y personal de ventanilla, y
muestra teórica de socios hasta saturación temática (Guest, Namey, & Chen, 2020).

El muestreo fue no probabilístico por conveniencia en el componente cualitativo y censal sobre registros
disponibles en el cuantitativo (Hernández et al., 2014).

Variables e indicadores

Morosidad (% de créditos con atraso menor a X días);
Tiempo de respuesta (días hábiles desde solicitud a dictamen);
Precisión de clasificación (exactitud global del scoring);
Costo operativo por solicitud (MXN por trámite).
Para el scoring, la variable dependiente fue incumplimiento (0/1).

Variables explicativas: demográficas, historial de pago, comportamiento transaccional y rasgos de
solicitud (Thomas, 2009).

Instrumentos y materiales

Registros operativos institucionales (bases históricas anonimizadas).
Guía de entrevista semiestructurada (57 preguntas abiertas) sobre adopción de ML, procesos y
gobierno de datos.

Cuestionario breve (ítems Likert sobre utilidad percibida, tiempos, calidad de servicio, confianza y
capacitación).
pág. 17301
Software: Python/R para modelado y validación; paquete estadístico para descriptivos e inferencias;
editor cualitativo para codificación temática (Bishop, 2006; Hosmer, Lemeshow, & Sturdivant,
2013).

Preparación y calidad de datos

Se ejecutó auditoría de datos (valores faltantes, atípicos, coherencia temporal), imputación múltiple
cuando procedía y normalización/estandarización para algoritmos sensibles a escala (Little & Rubin,
2019). Se aplicaron técnicas para clases desbalanceadas (ponderación de clases y SMOTE en
entrenamiento) y particiones estratificadas para mantener prevalencias (Chawla, Bowyer, Hall, &
Kegelmeyer, 2002).

Modelos y entrenamiento

Se compararon cuatro familias: regresión logística (baseline e interpretabilidad), random forest
(ensamble bagging), gradient boosting (árboles aditivos) y red neuronal feed-forward de baja
profundidad (Hosmer et al., 2013; Breiman, 2001; Friedman, 2001; Bishop, 2006).

Validación: k-fold (k=5 o 10) con rejilla de hiperparámetros y Kohavi para seleccionar modelos por
desempeño promedio (Kohavi, 1995).

Métricas: AUC-ROC, F1, exactitud, recall de la clase positiva; curvas precisión-recall para
prevalencias bajas (Hanley & McNeil, 1982; Saito & Rehmsmeier, 2015).

Calibración: isotónica o Platt cuando correspondía; análisis de curvas de calibración y Brier score
(Platt, 1999).

Interpretabilidad: coeficientes y odds ratios (logística), importancia de variables y medidas tipo
permutación (ensambles); revisión de shifts y drift entre periodos (Brown & Mues, 2012;
Lessmann, Baesens, Seow, & Thomas, 2015).

Estrategia de análisis cuantitativo

Descriptivos (antes/después) y verificación de supuestos;
Pruebas de diferencia en indicadores: t de Student o Mann-Whitney U según normalidad;
proporciones con z para dos muestras;

Tamaños de efecto (Cohen’s d o r de rangos) (Cohen, 1988);
pág. 17302
Corrección por multiplicidad (FDR) cuando aplicó (Benjamini & Hochberg, 1995);
Intervalos de confianza del 95% para cambios absolutos y relativos;
Robustez: análisis por subgrupos (segmentos de ingreso, montos, plazos) y placebo checks (bandas
cercanas a umbrales).

Estrategia de análisis cualitativo

Se aplicó análisis temático reflexivo con codificación inicial, búsqueda de temas, revisión y definición
de temas (Braun & Clarke, 2006). Fiabilidad: doble codificación en submuestra y comparación de
acuerdos; validez: triangulación con indicadores operativos y memos de auditoría.

Integración mixta

La triangulación se realizó al final: se contrastaron cambios en indicadores con narrativas sobre
procesos, cuellos de botella, datos y capacitación. Se priorizaron explicaciones plausibles a
discrepancias (p. ej., mejoras en tiempos con caídas en precisión por curva de aprendizaje o drift de
datos) (Creswell & Plano Clark, 2018).

Confiabilidad y validez

Escalas: alfa de Cronbach ≥ 0.80 en constructos de percepción (Cronbach, 1951).
Modelos: validación cruzada, calibración y pruebas de generalización entre periodos; diagnóstico
de sobreajuste y estabilidad de importancia de variables (Lessmann et al., 2015).

Alineación conceptual: congruencia entre objetivo, variables, instrumentos y métricas (Hernández
et al., 2014).

RESULTADOS Y DISCUSIÓN

La validez y confiabilidad de los instrumentos arrojó un Alfa de Cronbach calculado de α = 0.756

El proceso fue:

Se creó una matriz con las respuestas de los 10 participantes en los 20 ítems.
Se calcularon las varianzas individuales de cada ítem.
Se sumaron las varianzas de los ítems.
Se calculó la varianza del puntaje total (suma de todos los ítems por participante).
Se aplicó la fórmula de Alfa de Cronbach: 𝛼 = 𝑁
𝑁1 (1 𝑉𝑎𝑟𝑖𝑎𝑛𝑧𝑎 𝑑𝑒 Í𝑡𝑒𝑚𝑠
𝑉𝑎𝑟𝑖𝑎𝑛𝑧𝑎 𝑑𝑒 𝑙𝑎 𝑠𝑢𝑚𝑎 𝑡𝑜𝑡𝑎𝑙)
pág. 17303
Resultados instrumento aplicado a Directivos

A través del levantamiento de datos en un formulario electrónico se han obtenido los siguientes
resultados de la encuesta aplicada a 10 participantes sobre el uso de Machine Learning (ML) en el
contexto financiero. Se utilizó una escala de Likert de 5 puntos para medir el nivel de acuerdo con 20
afirmaciones relacionadas con el conocimiento, percepción e impacto del ML.

Tabla 1: resultados instrumento aplicado a directivos por ítem

Imagen 2: resultados instrumento aplicado a directivos
Ítem Promedio
Item_1 3.6
Item_2 4
Item_3 4.3
Item_4 3.9
Item_5 3.9
Item_6 4.2
Item_7 4.2
Item_8 4.1
Item_9 4.1
Item_10 4.4
Item_11 3.9
Item_12 4.3
Item_13 4.5
Item_14 4.1
Item_15 4.3
Item_16 4.1
Item_17 3.8
Item_18 4.3
Item_19 4.1
Item_20 4.1
pág. 17304
Tabla 2: resultados instrumento aplicado a directivos por persona

Imagen 2: resultados instrumento aplicado a directivos por persona

Conclusiones del análisis

El ítem con mayor acuerdo fue el 13 (Percepción de los usuarios) con un promedio de 4.5.
Todos los ítems tienen promedios por encima de 3.5, indicando una actitud predominantemente
positiva.

El participante con mayor nivel de acuerdo fue el 7 (4.45).
El participante con menor nivel de acuerdo fue el 2 (3.55).
Resultados instrumento aplicado a Socios

A través del levantamiento de datos bajo la misma mecánica que en el análisis anterior, presenta los
resultados de una encuesta aplicada a 30 socios sobre el uso de Machine Learning (ML) en el contexto
Persona Promedio
Persona 1 4.3
Persona 2 3.5
Persona 3 4.1
Persona 4 4.0
Persona 5 4.2
Persona 6 4.2
Persona 7 4.5
Persona 8 4.0
Persona 9 4.2
Persona 10 4.2
pág. 17305
financiero. Se utilizó una escala de Likert de 5 puntos para medir el nivel de acuerdo con 20
afirmaciones relacionadas con el conocimiento, percepción e impacto del ML.

Tabla 3: resultados instrumento aplicado a socios por ítem

Imagen 3: resultados instrumento aplicado a socios por ítem
Ítem Promedio
Item_1 2.73
Item_2 3.2
Item_3 2.7
Item_4 3.37
Item_5 2.9
Item_6 2.77
Item_7 3.27
Item_8 2.77
Item_9 2.97
Item_10 2.8
Item_11 2.67
Item_12 2.83
Item_13 3.1
Item_14 3.2
Item_15 2.87
Item_16 3.17
Item_17 3.13
Item_18 3.2
Item_19 3.13
Item_20 3.23
pág. 17306
Tabla 4: resultados instrumento aplicado a socios por persona

Persona
Promedio
Persona 1
2.90
Persona 2
2.60
Persona 3
2.60
Persona 4
2.95
Persona 5
3.25
Persona 6
2.95
Persona 7
2.60
Persona 8
2.80
Persona 9
3.50
Persona 10
3.05
Persona 11
3.45
Persona 12
2.90
Persona 13
3.20
Persona 14
3.05
Persona 15
2.45
Persona 16
3.25
Persona 17
3.40
Persona 18
3.00
Persona 19
3.30
Persona 20
3.35
Persona 21
2.90
Persona 22
3.15
Persona 23
3.00
Persona 24
3.05
Persona 25
2.80
Persona 26
2.85
Persona 27
2.85
Persona 28
3.10
Persona 29
3.05
Persona 30
2.70
pág. 17307
Imagen 4: resultados instrumento aplicado a socios por persona

Conclusiones del análisis

El promedio general de los ítems es de 3.00, indicando un nivel de acuerdo más bajo comparado
con los directivos.

El ítem con menor acuerdo fue 'Item_11' con un promedio de 2.67.
El ítem con mayor acuerdo fue 'Item_4' con un promedio de 3.37.
Hay mayor variabilidad en los niveles de acuerdo en este grupo, con promedios individuales que
oscilan entre niveles bajos y moderados.

Resultados del comparativo Directivos vs Socios

A través del levantamiento de datos bajo la misma mecánica que en el análisis anterior, presenta un
análisis comparativo entre los resultados obtenidos de dos grupos: Directivos y Socios, en relación con
sus percepciones sobre el uso de Machine Learning (ML) en el ámbito financiero.
pág. 17308
Tabla 5: comparación de promedios entre directivos y socios por ítem

Imagen 5: comparación de promedios entre directivos y socios por ítem

Conclusiones del análisis

En general, los Directivos presentan niveles de acuerdo ligeramente más altos que los Socios en la
mayoría de los ítems.

Las mayores discrepancias se observan en los ítems donde los directivos tienen una visión más
favorable del impacto y aplicación del ML.
Ítem Directivos Socios Diferencia
Item_1 3.60 2.73 0.87
Item_2 4.00 3.20 0.80
Item_3 4.30 2.70 1.60
Item_4 3.90 3.37 0.53
Item_5 3.90 2.90 1.00
Item_6 4.20 2.77 1.43
Item_7 4.20 3.27 0.93
Item_8 4.10 2.77 1.33
Item_9 4.10 2.97 1.13
Item_10 4.40 2.80 1.60
Item_11 3.90 2.67 1.23
Item_12 4.30 2.83 1.47
Item_13 4.50 3.10 1.40
Item_14 4.10 3.20 0.90
Item_15 4.30 2.87 1.43
Item_16 4.10 3.17 0.93
Item_17 3.80 3.13 0.67
Item_18 4.30 3.20 1.10
Item_19 4.10 3.13 0.97
Item_20 4.10 3.23 0.87
pág. 17309
Esto podría reflejar una brecha en términos de conocimiento estratégico y visión tecnológica entre
ambos grupos.

Se recomienda considerar programas de formación o alineación estratégica para mejorar la
percepción del ML entre los socios.

Resultados instrumento de análisis

A través del levantamiento de datos de las bases con las que se cuenta en la caja popular, se presenta un
análisis comparativo del desempeño en el procesamiento de solicitudes de crédito en una institución
financiera, a partir de cuatro indicadores clave, evaluados durante dos periodos de 12 meses: antes y
después de la implementación de herramientas de Machine Learning (ML).

Tabla 6: resultados del instrumento

Imagen 6: resultados del instrumento
Indicador Antes de ML
(Promedio)
Después de
ML
(Promedio)
Unidad
Tasa de
morosidad
(%)
4.78 5.28 %
Tiempo de
respuesta
(días)
5.24 4.97 días
Clasificación
correcta 80.54 72.58 %
Costo
operativo 445.8 481.82 MXN
pág. 17310
Conclusiones del análisis

Tasa de morosidad: Se observa un ligero aumento en la tasa de morosidad posterior a la
implementación de ML (de aproximadamente 4.78% a 5.28%).

Tiempo de respuesta: El tiempo promedio se redujo levemente, mostrando mayor eficiencia
operativa.

Clasificación correcta: Disminuyó tras la implementación de ML, lo que sugiere necesidad de
ajustar el modelo o mejorar los datos de entrenamiento.

Costo operativo: Se incrementó ligeramente, posiblemente debido a la inversión inicial en
infraestructura tecnológica.

CONCLUSIONES

Los hallazgos de esta investigación permiten afirmar que la implementación de algoritmos de Machine
Learning representa una oportunidad clave para transformar la toma de decisiones financieras en las
cajas populares del estado de Guanajuato. La optimización en la asignación de créditos, así como una
mejora sustancial en la gestión de riesgos, son algunos de los beneficios más evidentes derivados del
uso de estas tecnologías. La capacidad del ML para analizar grandes volúmenes de datos en tiempo real
permite a estas instituciones no solo reducir la tasa de morosidad, sino también ofrecer productos
crediticios más alineados con el perfil y necesidades de cada socio, fortaleciendo su papel como agentes
de inclusión financiera en contextos regionales. En la actualidad se caen en errores de tipo humano en
la operación que aparentan tener mejores rsultados de los que realmente suceden.

No obstante, la investigación también pone en evidencia que la adopción efectiva de estas tecnologías
no está exenta de desafíos. Entre las principales barreras identificadas se encuentran la limitada
infraestructura digital, la escasa capacitación técnica del personal, y una marcada resistencia al cambio
organizacional. Estos factores dificultan la integración fluida de soluciones basadas en Machine
Learning, especialmente en cooperativas que operan con recursos limitados y estructuras
administrativas tradicionales.

A pesar de estos obstáculos, el estudio demuestra que existen condiciones propicias para avanzar hacia
un modelo de transformación digital progresiva.
pág. 17311
La clave está en el diseño de un marco de implementación que contemple no solo la inversión en
tecnología, sino también estrategias de gestión del cambio, formación de talento interno y adaptación
gradual de procesos. Asimismo, la colaboración con entidades externas como universidades,
incubadoras tecnológicas y organismos gubernamentales puede ser un factor catalizador para acelerar
la transición hacia modelos más innovadores.

En un contexto donde el entorno financiero global exige eficiencia, agilidad y personalización, las cajas
populares no pueden permanecer al margen de la revolución tecnológica. Este trabajo subraya que la
inclusión del Machine Learning en su operación no es una opción futurista, sino una necesidad presente
para garantizar su sostenibilidad y competitividad. Por tanto, se propone que los hallazgos aquí
expuestos sirvan como base para una agenda estratégica orientada a la digitalización responsable,
escalable y centrada en el beneficio colectivo.

Finalmente, esta investigación sienta un precedente para futuros estudios que busquen evaluar el
impacto de la inteligencia artificial en instituciones financieras pequeñas, promoviendo un enfoque
práctico, contextualizado y ético en la aplicación de estas tecnologías en Guanajuato.

LISTA DE REFERENCIAS

Baesens, B., Setiono, R., Mues, C., & Vanthienen, J. (2003).
Using neural network rule extraction and
decision tables for credit
-risk evaluation. Management Science, 312329.
Booth, W. C., Colomb, G. G., Williams, J. M., & Bizup, J. (2024).
The craft of research (5th ed.).
University of Chicago Press.

Bravo, C., Thomas, L. C., & Weber, R. (2014). Improving credit scoring by differentiating defaulter

behaviour.
Journal of the Operational Research Society, 771781.
Dumitrescu, E., Hué, S., Hurlin, C., & Tokpavi, S. (2022). Machine learning for credit scoring:

Improving logistic regression with non
-linear decision-tree effects. European Journal of
Operational Research, 11781192.

Fernández, L., & Romero, Á. (2022). Un enfoque de ciencia de datos para la toma de decisiones en la
estimación de costes: Big data y aprendizaje automático. Revista de Contabilidad Spanish
Accounting Review.
pág. 17312
Flores, M., & Martínez, A. (2021). Retos en la digitalización del microcrédito en México: El caso de
las cajas populares. Revista Mexicana de Economía y Finanzas, 16(4), 4560.

Gómez, L., Hernández, J., & Salas, F. (2022). Inteligencia artificial aplicada al riesgo crediticio en el
sector cooperativo financiero mexicano. Innovación y Desarrollo Financiero, 10(2), 3349.

Goodfellow, I., Bengio, Y., & Courville, A. (2016).
Deep learning. MIT Press.
Hastie, T., Tibshirani, R., & Friedman, J. (2009).
The elements of statistical learning: Data mining,
inference, and prediction
(2nd ed.). Springer.
Hosmer, D. W., Lemeshow, S., & Sturdivant, R. X. (2013).
Applied logistic regression (3rd ed.). Wiley.
Quinlan, J. R. (1996). Improved use of continuous attributes in C4.5.
Journal of Artificial Intelligence
Research, 4
, 7790.
Flick, U. (2020).
Introducing research methodology: Thinking your way through your research project.
Sage Publications.

García-Dihigo, J. (2016). Metodología de la investigación para administradores. Ediciones U.

Hernández-Sampieri, R., & Mendoza-Torres, C. P. (2018). Metodología de la investigación: Las rutas
cuantitativa, cualitativa y mixta.
McGraw-Hill.
Jinchen, L. (2024). Research on loan default prediction based on logistic regression, random forest,

XGBoost and AdaBoost.
EDP Sciences.
Toledo-Concha, E., León-Reyes, V., & Reyna-Alcántara, P. (2022). Desafíos de la transformación
digital de las microfinanzas en el Perú. Universidad Nacional Mayor de San Marcos, 8798.

Yi, Z., Cao, X., Chen, Z., & Li, S. (2023).
Artificial intelligence in accounting and finance: Challenges
and opportunities.
IEEE, 100123.
Yuqi, L. (2024). Fusion of multifactor modeling and supervised learning algorithms in quantitative

finance: A comparative analysis of predictive and explanatory power.
Applied Mathematics and
Nonlinear Sciences.