- POR Fernanda Suárez 22/01/26
La inteligencia artificial (IA) se ha integrado de forma acelerada en el sector financiero, particularmente en las SOFOM, para fortalecer procesos de análisis de crédito, monitoreo transaccional y prevención de fraudes financieros. Sin embargo, su uso sin controles adecuados puede generar riesgos significativos en materia de Prevención de Lavado de Dinero y Financiamiento al Terrorismo (PLD/FT), así como contingencias regulatorias ante la Comisión Nacional Bancaria y de Valores (CNBV).
El principal riesgo no es la tecnología en sí, sino la falta de gobernanza sobre los modelos de inteligencia artificial y los datos que los alimentan.
A diferencia de los fraudes tradicionales, los esquemas actuales buscan manipular la lógica de decisión de los modelos de IA, alterando gradualmente la información utilizada para entrenarlos. Este fenómeno, conocido como data poisoning, puede provocar que los sistemas normalicen patrones de riesgo elevado como si fueran operaciones habituales.
En el contexto de PLD/FT, este riesgo es especialmente crítico, ya que puede:
1. Detección deficiente de operaciones inusuales
Los modelos de IA pueden dejar de identificar comportamientos atípicos si han sido entrenados con información sesgada o manipulada.
2. Falta de explicabilidad y trazabilidad
La ausencia de documentación clara sobre cómo la IA toma decisiones representa un riesgo directo en auditorías y revisiones de la CNBV.
3. Desalineación con el Enfoque Basado en Riesgos
Cuando los modelos no reflejan la evaluación institucional de riesgos, se genera una brecha entre la política de PLD/FT y la operación real.
4. Dependencia excesiva de sistemas automatizados
Delegar decisiones críticas sin supervisión humana incrementa el riesgo operativo y regulatorio.
5. Riesgo reputacional y sancionatorio
Una falla sistémica en modelos de IA puede derivar en observaciones regulatorias, multas y pérdida de confianza de fondeadores e inversionistas.
Para mitigar los riesgos asociados al uso de inteligencia artificial en fraudes financieros, las SOFOM deben implementar controles alineados a mejores prácticas regulatorias:
La inteligencia artificial debe funcionar como una herramienta de apoyo, no como sustituto del juicio profesional ni de las obligaciones regulatorias.
El uso de IA en sistemas de prevención de lavado de dinero no exime a las SOFOM de su responsabilidad. Por el contrario, incrementa la necesidad de control interno, trazabilidad y supervisión permanente.
La correcta integración de la inteligencia artificial permite fortalecer la prevención de fraudes financieros, siempre que exista un marco sólido de cumplimiento y gestión de riesgos.
En FINANTAH promovemos el uso responsable de la inteligencia artificial aplicada a las finanzas, con un enfoque sólido en gestión de riesgos, cumplimiento regulatorio y financiamiento empresarial.
Para conocer más información financiera, análisis de riesgo y mejores prácticas del sector, visite finantah.com.
Recientes
- POR Esthela Salas 06 / 06 / 22
El 27 de junio se celebró el Día Mundial de las PYMES, y en conmemoración de este importante día…
- POR Jesica Camarillo 1/11/2024
El liderazgo en el sector financiero es fundamental para el éxito y sostenibilidad de las organizaciones en un entorno volátil. Con la regulación estricta y la rápida evolución tecnológica, los líderes deben poseer habilidades específicas para guiar a sus equipos y tomar decisiones estratégicas. A continuación, exploramos las claves del liderazgo efectivo en este ámbito. […]
- POR Perla Rodríguez 07/09/23
El Acta Constitutiva es el documento legal más fundamental en el proceso de creación de una empresa o sociedad mercantil en México y en numerosos países alrededor del mundo. Su trascendencia se manifiesta en múltiples aspectos clave: Creación Legal: El Acta Constitutiva es el instrumento que valida jurídicamente la existencia de una empresa. Constituye un […]