- POR Fernanda Suárez 22/01/26
La inteligencia artificial (IA) se ha integrado de forma acelerada en el sector financiero, particularmente en las SOFOM, para fortalecer procesos de análisis de crédito, monitoreo transaccional y prevención de fraudes financieros. Sin embargo, su uso sin controles adecuados puede generar riesgos significativos en materia de Prevención de Lavado de Dinero y Financiamiento al Terrorismo (PLD/FT), así como contingencias regulatorias ante la Comisión Nacional Bancaria y de Valores (CNBV).
El principal riesgo no es la tecnología en sí, sino la falta de gobernanza sobre los modelos de inteligencia artificial y los datos que los alimentan.
A diferencia de los fraudes tradicionales, los esquemas actuales buscan manipular la lógica de decisión de los modelos de IA, alterando gradualmente la información utilizada para entrenarlos. Este fenómeno, conocido como data poisoning, puede provocar que los sistemas normalicen patrones de riesgo elevado como si fueran operaciones habituales.
En el contexto de PLD/FT, este riesgo es especialmente crítico, ya que puede:
1. Detección deficiente de operaciones inusuales
Los modelos de IA pueden dejar de identificar comportamientos atípicos si han sido entrenados con información sesgada o manipulada.
2. Falta de explicabilidad y trazabilidad
La ausencia de documentación clara sobre cómo la IA toma decisiones representa un riesgo directo en auditorías y revisiones de la CNBV.
3. Desalineación con el Enfoque Basado en Riesgos
Cuando los modelos no reflejan la evaluación institucional de riesgos, se genera una brecha entre la política de PLD/FT y la operación real.
4. Dependencia excesiva de sistemas automatizados
Delegar decisiones críticas sin supervisión humana incrementa el riesgo operativo y regulatorio.
5. Riesgo reputacional y sancionatorio
Una falla sistémica en modelos de IA puede derivar en observaciones regulatorias, multas y pérdida de confianza de fondeadores e inversionistas.
Para mitigar los riesgos asociados al uso de inteligencia artificial en fraudes financieros, las SOFOM deben implementar controles alineados a mejores prácticas regulatorias:
La inteligencia artificial debe funcionar como una herramienta de apoyo, no como sustituto del juicio profesional ni de las obligaciones regulatorias.
El uso de IA en sistemas de prevención de lavado de dinero no exime a las SOFOM de su responsabilidad. Por el contrario, incrementa la necesidad de control interno, trazabilidad y supervisión permanente.
La correcta integración de la inteligencia artificial permite fortalecer la prevención de fraudes financieros, siempre que exista un marco sólido de cumplimiento y gestión de riesgos.
En FINANTAH promovemos el uso responsable de la inteligencia artificial aplicada a las finanzas, con un enfoque sólido en gestión de riesgos, cumplimiento regulatorio y financiamiento empresarial.
Para conocer más información financiera, análisis de riesgo y mejores prácticas del sector, visite finantah.com.
Recientes
- POR Fernanda Suárez 02/05/24
La creciente integración de la inteligencia artificial (IA) en el mundo financiero ha traído consigo una serie de beneficios, como la automatización de tareas, la optimización de procesos y la toma de decisiones más informadas. Sin embargo, este avance tecnológico también ha dado lugar a nuevas formas de estafas y fraudes que representan desafíos significativos […]
- POR FINANTAH 15/1/26
Implementación de un SARAS efectivo, prevención de riesgos reputacionales y mejora de la gestión empresarial.
- POR Azaneth Hernández 27/01/23
Al buscar acceder a un crédito lo primero que se pudiera venir a la mente sería el Sector Bancario ya que es lo más conocido en el Sistema Financiero Mexicano, en el blog de hoy hablaremos acerca de las SOFOMES. Para comenzar quiero comentar que FINANTAH® es el nombre comercial de MESO CAPITAL, S.A.P.I. DE […]