Reguladores federales a la industria bancaria: ¿Cómo utilizan la inteligencia artificial para combatir los delitos financieros, entrenar datos, moldear modelos, protegerse cibernéticamente, servir a los clientes?


Los cinco principales reguladores de los sectores de servicios financieros de EE.UU. están preguntando a la industria sobre los pros, los contras, el potencial y el pronóstico vinculados a la inteligencia artificial, incluso en las áreas de cumplimiento de delitos financieros.

La Oficina del Contralor de Moneda (OCC) del Tesoro de EE. UU., el regulador de las instituciones más grandes y complejas del país, y los principales organismos externos para las uniones de crédito y la protección del consumidor han publicado una solicitud de información (RFI) para comprender mejor cómo, por qué –y por qué no— cuando se trata del uso de inteligencia artificial por parte de los bancos de todos los tamaños.

Estas operaciones tienen aproximadamente los próximos dos meses para responder a una serie de preguntas relacionadas con la inteligencia artificial, incluidos sistemas, modelos y funciones automatizadas para calibrar mejor el riesgo de lavado de dinero (ALD), participar en investigaciones más profundas y basadas en datos, descubrir más rápidamente fraudes y contrarrestar las crecientes vulnerabilidades cibernéticas y ataques.



Los cinco principales reguladores de los sectores de servicios financieros de EE.UU. están preguntando a la industria sobre los pros, los contras, el potencial y el pronóstico vinculados a la inteligencia artificial, incluso en las áreas de cumplimiento de delitos financieros.

La Oficina del Contralor de Moneda (OCC) del Tesoro de EE. UU., el regulador de las instituciones más grandes y complejas del país, y los principales organismos externos para las uniones de crédito y la protección del consumidor han publicado una solicitud de información (RFI) para comprender mejor cómo, por qué –y por qué no— cuando se trata del uso de inteligencia artificial por parte de los bancos de todos los tamaños.

Estas operaciones tienen aproximadamente los próximos dos meses para responder a una serie de preguntas relacionadas con la inteligencia artificial, incluidos sistemas, modelos y funciones automatizadas para calibrar mejor el riesgo de lavado de dinero (ALD), participar en investigaciones más profundas y basadas en datos, descubrir más rápidamente fraudes y contrarrestar las crecientes vulnerabilidades cibernéticas y ataques.

Para leer el RFI completo de 23 páginas y comentar, haga clic aquí.

Dependiendo de las respuestas, los reguladores pueden emitir más orientación sobre dónde la IA puede ayudar a las instituciones y los obstáculos a evitar.

La declaración interinstitucional dio una visión poco común de escenarios apocalípticos de IA, incluyendo datos desorganizados que contaminan conclusiones, modelos no validados que se vuelven “locos” o están siendo «envenenados» por piratas informáticos, sistemas no supervisados que se actualizan más allá de la comprensión humana e incluso una falta de explicación cuando se trata de interactuar con los examinadores.

La RFI “busca comentarios para comprender mejor el uso de la IA, incluyendo el aprendizaje automático, por parte de las instituciones financieras; gobernanza, gestión de riesgos y controles adecuados sobre la IA; desafíos en el desarrollo, la adopción y la gestión de la IA; y si alguna aclaración fuese útil”, según el aviso.

Los reguladores también quieren saber si existe alguna barrera de entrada en la prueba de inteligencia artificial para bancos más pequeños y cooperativas / uniones de crédito, que pueden no tener los presupuestos, los sistemas, la experiencia interna o la influencia para cerrar con proveedores.

La RFI busca información sobre la inteligencia artificial para una amplia gama de sistemas bancarios, desde el cumplimiento de la lucha contra el delito hasta el servicio al cliente, el riesgo crediticio y los chatbots automatizados para la banca en línea y el procesamiento del lenguaje natural (natural language processing) para las transacciones telefónicas.

Para muchos de los que siguen la relación que los bancos tienen con sus reguladores, la RFI es algo cómica.

En encuestas, declaraciones públicas y quejas privadas, los equipos de cumplimiento de delitos finitos han declarado que la razón principal por la que no han adoptado más ampliamente la IA y otras tecnologías de regulación, o regtech, es porque temían reacciones adversas por parte de los reguladores.

En cuestión: los examinadores se desangran por las minucias ALD/CFT omitidas aquí, incluso mientras usted está innovando para lograr la eficacia allí.


Cuando se trata de IA, las instituciones deben sopesar los beneficios y los riesgos

Aun así, la RFI detalló una serie de beneficios potenciales para apostar por la IA.

“La IA tiene el potencial de ofrecer una mayor eficiencia, un mejor rendimiento y una reducción de costos para las instituciones financieras, así como beneficios para los consumidores y las empresas”, según los reguladores. «La IA puede identificar relaciones entre variables que no son intuitivas o no reveladas por técnicas más tradicionales».

En ese mismo sentido, en lugar de que un sistema se vea abrumado por los datos, la IA generalmente prospera en ese entorno.

“La IA puede procesar mejor ciertas formas de información, como el texto, que pueden ser poco prácticas o difíciles de procesar con técnicas tradicionales”, según la RFI. «La IA también facilita el procesamiento de conjuntos de datos significativamente grandes y detallados, tanto estructurados como no estructurados, al identificar patrones o correlaciones que serían impracticables para determinar de otra manera».

Es por eso por lo que tantos grandes grupos bancarios internacionales están probando las aguas con IA cuando se trata de programas de cumplimiento de delitos financieros.

La RFI ofrece varios ejemplos de casos de uso de IA en ese ámbito, que incluyen:

  • Marcar transacciones inusuales: esto implica el empleo de inteligencia artificial para identificar transacciones potencialmente sospechosas, anómalas o atípicas (por ejemplo, detección de fraude y monitoreo de delitos financieros). Implica el uso de diferentes formas de datos (por ejemplo, texto de correo electrónico, datos de audio, tanto estructurados como no estructurados), con el objetivo de identificar fraudes o transacciones anómalas con mayor precisión y puntualidad.
  • Identificador de amenazas internas, externas, multiplicador de fuerza: también incluye la identificación de transacciones para las investigaciones ALD, el monitoreo de los empleados para detectar prácticas inadecuadas y la detección de anomalías en los datos.
  • Espada y escudo contra la ciberseguridad: la inteligencia artificial se puede utilizar para detectar amenazas y actividades maliciosas, revelar atacantes, identificar sistemas comprometidos y respaldar la mitigación de amenazas. Los ejemplos incluyen la investigación en tiempo real de posibles ataques, el uso de detección basada en el comportamiento para recopilar metadatos de la red, marcar y bloquear nuevos ransomware y otros ataques maliciosos, identificar cuentas y archivos comprometidos involucrados en la exfiltración y análisis forense profundo de archivos maliciosos.

Lo que los proveedores de tecnología de inteligencia artificial no le dicen puede perjudicarlo

Pero lo que hizo la RFI que muchos informes polinizados y la inteligencia artificial y el blanqueo de capitales no hacen es explicar que también existen riesgos al implementar tecnologías que pueden pensar por sí mismas.

Pero lo que hizo la RFI que muchos informes polinizados y la inteligencia artificial y el ALD/CFT no, es explicar que también existen riesgos al implementar tecnologías que pueden pensar por sí mismas.

El uso de IA “podría resultar en vulnerabilidades operativas, como fallas de procesos o controles internos, amenazas cibernéticas, fallas en la tecnología de la información, riesgos asociados con el uso de terceros y riesgo de modelo, todo lo cual podría afectar la seguridad y solidez de una institución financiera».

Los reguladores también tocaron la espada de doble filo de los datos, y señalaron que podría no ser la panacea que los proveedores de tecnología de terceros pretenden mostrar.

«Los datos juegan un papel particularmente importante en la IA», dijeron. «En muchos casos, los algoritmos de IA identifican patrones y correlaciones en los datos de entrenamiento sin contexto humano o intervención, y luego usan esa información para generar predicciones o categorizaciones».

Pero debido a que el algoritmo de IA «depende de los datos entrenados, un sistema de IA generalmente refleja cualquier limitación de ese conjunto de datos», según la RFI. «Como resultado, al igual que con otros sistemas, la IA puede perpetuar o incluso amplificar el sesgo o las imprecisiones inherentes a los datos entrenados, o hacer predicciones incorrectas si ese conjunto de datos está incompleto o no es representativo».

Estas preocupaciones no pasan desapercibidas para los profesionales de cumplimiento de delitos financieros.

Durante la última década, los equipos ALD han tenido que crear equipos completos de «validación de gestión de riesgos de modelos» para garantizar mejor no solo la precisión y veracidad de los datos, sino también la integridad y el ingenio de los modelos de backend que impulsan la evaluación de riesgos, el monitoreo de transacciones y de sanciones.

La RFI también destacó un riesgo cibernético menos conocido para la IA: no solo el robo o la corrupción de datos, sino el «envenenamiento» de los datos, a través de la selección del lote original de datos históricos utilizados para entrenar y diseñar un sistema de IA, llamado «datos entrenados».

“Al igual que otras tecnologías de uso intensivo de datos, la IA puede estar expuesta al riesgo de una variedad de amenazas de ciberseguridad delictivas”, según RFI. «Por ejemplo, la IA puede ser vulnerable a los ‘ataques de envenenamiento de datos’, que intentan corromper y contaminar los datos entrenados para comprometer el rendimiento del sistema».

Pero no todos los malos hábitos de aprendizaje de la IA provienen de ataques externos.

En algunos casos, los sistemas de IA pueden ser culpables de «sobreajuste», lo que básicamente significa que se encuentran con los mismos problemas que las parejas casadas: sacar algo de contexto y exagerarlo.

El «sobreajuste» puede ocurrir «cuando un algoritmo aprende» de patrones idiosincrásicos en los datos de entrenamiento que no son representativos de la población en su conjunto «, según los reguladores.

“El sobreajuste no es exclusivo de la IA, pero puede ser más pronunciado en la IA que en los modelos tradicionales. Un sobreajuste no detectado podría resultar en predicciones o categorizaciones incorrectas».


Más presión para innovar, jugar con la tecnología en busca de «efectividad»

El momento en que ocurre la investigación regulatoria sobre IA, y el potencial y los peligros para los equipos de cumplimiento, no es un accidente.

Se produce pocos meses después de que EE. UU. revelara la mayor actualización de las defensas de cumplimiento de delitos financieros del país en los últimos 20 años: la Ley contra el lavado de dinero (AMLA), lo que muchos llaman un evento «único en una generación».

La AMLA se basa en equipos de cumplimiento que crean inteligencia más rica y relevante para las agencias de aplicación de la ley, proporcionando más armas y fondos para que FinCEN analice datos y tendencias criminales y cierre el círculo con la industria al forjar asociaciones más sólidas para compartir información público-privada.

La actualización ALD en el Congreso va de la mano con iniciativas de FinCEN, parte de un enfoque múltiple para fortalecer las contramedidas de compliance, cambiar el enfoque hacia la “efectividad” y mejorar la inteligencia enviada a los investigadores federales.

En el caso de los bancos, los esfuerzos ALD se orientarían más hacia la creación de programas “efectivos y razonablemente diseñados” que produzcan presentaciones con un “alto grado de utilidad” para las agencias de aplicación de la ley, según un aviso de septiembre.

En conjunto, la RFI sobre IA de los reguladores y FinCEN que impulsa al sector a analizar y manejar mejor los datos y los profesionales de cumplimiento de delitos financieros deberían estar más preparados en el momento de interrogar a sus proveedores.

Los equipos de ALD deben ser conscientes de los puntos débiles actuales y futuros de la IA para disipar mejor los temores de los examinadores de posibles desastres de datos automatizados, pero aún así no perder de vista los estándares que invaden rápidamente donde los resultados de la investigación superarán los procesos regulatorios.