Solicita tu crédito aquí

Inteligencia artificial y fraudes financieros: riesgos regulatorios y prevención en SOFOM

- POR Fernanda Suárez 22/01/26

La inteligencia artificial (IA) se ha integrado de forma acelerada en el sector financiero, particularmente en las SOFOM, para fortalecer procesos de análisis de crédito, monitoreo transaccional y prevención de fraudes financieros. Sin embargo, su uso sin controles adecuados puede generar riesgos significativos en materia de Prevención de Lavado de Dinero y Financiamiento al Terrorismo (PLD/FT), así como contingencias regulatorias ante la Comisión Nacional Bancaria y de Valores (CNBV).

El principal riesgo no es la tecnología en sí, sino la falta de gobernanza sobre los modelos de inteligencia artificial y los datos que los alimentan.

El riesgo emergente de la inteligencia artificial en fraudes financieros

A diferencia de los fraudes tradicionales, los esquemas actuales buscan manipular la lógica de decisión de los modelos de IA, alterando gradualmente la información utilizada para entrenarlos. Este fenómeno, conocido como data poisoning, puede provocar que los sistemas normalicen patrones de riesgo elevado como si fueran operaciones habituales.

En el contexto de PLD/FT, este riesgo es especialmente crítico, ya que puede:

  • Reducir la detección de operaciones inusuales
  • Debilitar los sistemas automatizados de monitoreo
  • Generar incumplimientos regulatorios sin alertas evidentes

Principales riesgos de la inteligencia artificial para las SOFOM

1. Detección deficiente de operaciones inusuales

Los modelos de IA pueden dejar de identificar comportamientos atípicos si han sido entrenados con información sesgada o manipulada.

2. Falta de explicabilidad y trazabilidad

La ausencia de documentación clara sobre cómo la IA toma decisiones representa un riesgo directo en auditorías y revisiones de la CNBV.

3. Desalineación con el Enfoque Basado en Riesgos

Cuando los modelos no reflejan la evaluación institucional de riesgos, se genera una brecha entre la política de PLD/FT y la operación real.

4. Dependencia excesiva de sistemas automatizados

Delegar decisiones críticas sin supervisión humana incrementa el riesgo operativo y regulatorio.

5. Riesgo reputacional y sancionatorio

Una falla sistémica en modelos de IA puede derivar en observaciones regulatorias, multas y pérdida de confianza de fondeadores e inversionistas.

Prevención de fraudes financieros con inteligencia artificial: controles clave

Para mitigar los riesgos asociados al uso de inteligencia artificial en fraudes financieros, las SOFOM deben implementar controles alineados a mejores prácticas regulatorias:

  • Gobernanza formal de modelos de IA
  • Separación entre datos operativos y datos de entrenamiento
  • Validaciones periódicas de desempeño y sesgo
  • Supervisión humana obligatoria en decisiones críticas
  • Documentación y evidencia para inspección CNBV

La inteligencia artificial debe funcionar como una herramienta de apoyo, no como sustituto del juicio profesional ni de las obligaciones regulatorias.

Inteligencia artificial, PLD y responsabilidad institucional

El uso de IA en sistemas de prevención de lavado de dinero no exime a las SOFOM de su responsabilidad. Por el contrario, incrementa la necesidad de control interno, trazabilidad y supervisión permanente.

La correcta integración de la inteligencia artificial permite fortalecer la prevención de fraudes financieros, siempre que exista un marco sólido de cumplimiento y gestión de riesgos.

Conozca más sobre información financiera y gestión responsable del riesgo

En FINANTAH promovemos el uso responsable de la inteligencia artificial aplicada a las finanzas, con un enfoque sólido en gestión de riesgos, cumplimiento regulatorio y financiamiento empresarial.

Para conocer más información financiera, análisis de riesgo y mejores prácticas del sector, visite finantah.com.