- POR Fernanda Suárez 22/01/26
La inteligencia artificial (IA) se ha integrado de forma acelerada en el sector financiero, particularmente en las SOFOM, para fortalecer procesos de análisis de crédito, monitoreo transaccional y prevención de fraudes financieros. Sin embargo, su uso sin controles adecuados puede generar riesgos significativos en materia de Prevención de Lavado de Dinero y Financiamiento al Terrorismo (PLD/FT), así como contingencias regulatorias ante la Comisión Nacional Bancaria y de Valores (CNBV).
El principal riesgo no es la tecnología en sí, sino la falta de gobernanza sobre los modelos de inteligencia artificial y los datos que los alimentan.
A diferencia de los fraudes tradicionales, los esquemas actuales buscan manipular la lógica de decisión de los modelos de IA, alterando gradualmente la información utilizada para entrenarlos. Este fenómeno, conocido como data poisoning, puede provocar que los sistemas normalicen patrones de riesgo elevado como si fueran operaciones habituales.
En el contexto de PLD/FT, este riesgo es especialmente crítico, ya que puede:
1. Detección deficiente de operaciones inusuales
Los modelos de IA pueden dejar de identificar comportamientos atípicos si han sido entrenados con información sesgada o manipulada.
2. Falta de explicabilidad y trazabilidad
La ausencia de documentación clara sobre cómo la IA toma decisiones representa un riesgo directo en auditorías y revisiones de la CNBV.
3. Desalineación con el Enfoque Basado en Riesgos
Cuando los modelos no reflejan la evaluación institucional de riesgos, se genera una brecha entre la política de PLD/FT y la operación real.
4. Dependencia excesiva de sistemas automatizados
Delegar decisiones críticas sin supervisión humana incrementa el riesgo operativo y regulatorio.
5. Riesgo reputacional y sancionatorio
Una falla sistémica en modelos de IA puede derivar en observaciones regulatorias, multas y pérdida de confianza de fondeadores e inversionistas.
Para mitigar los riesgos asociados al uso de inteligencia artificial en fraudes financieros, las SOFOM deben implementar controles alineados a mejores prácticas regulatorias:
La inteligencia artificial debe funcionar como una herramienta de apoyo, no como sustituto del juicio profesional ni de las obligaciones regulatorias.
El uso de IA en sistemas de prevención de lavado de dinero no exime a las SOFOM de su responsabilidad. Por el contrario, incrementa la necesidad de control interno, trazabilidad y supervisión permanente.
La correcta integración de la inteligencia artificial permite fortalecer la prevención de fraudes financieros, siempre que exista un marco sólido de cumplimiento y gestión de riesgos.
En FINANTAH promovemos el uso responsable de la inteligencia artificial aplicada a las finanzas, con un enfoque sólido en gestión de riesgos, cumplimiento regulatorio y financiamiento empresarial.
Para conocer más información financiera, análisis de riesgo y mejores prácticas del sector, visite finantah.com.
Recientes
- POR Federico D’Kuba 25 / 11 / 2021
Para poder comprender si es conveniente o no obtener un crédito para capital de trabajo debemos primero entender de dónde provienen las necesidades de capital de trabajo.
- POR Karen García 30/05/2025
En un entorno financiero cada vez más competitivo y regulado, las Sociedades Financieras de Objeto Múltiple (SOFOMES) deben encontrar formas de operar con mayor agilidad, precisión y enfoque en el cliente. La eficiencia operativa no solo depende del área comercial o de riesgos, sino que tiene un aliado estratégico dentro de la organización: el área […]
- POR Carlos Soto 4/04/24
En el vibrante panorama financiero de México, las Sociedades Financieras de Objeto Múltiple, conocidas como SOFOMES, han emergido como verdaderos agentes del cambio. Su historia es un testimonio de adaptabilidad, innovación y un compromiso inquebrantable con la inclusión financiera. En comparación con la banca tradicional, las SOFOMES no solo han llenado vacíos críticos, sino que […]