Curso sobre Tecnologías Financieras y Banca Central

Kingston, Jamaica, del 18 al 20 de febrero de 2020

 

Durante esta edición del Curso sobre Tecnologías Financieras y Banca Central celebrado en Kingston, Jamaica, los participantes profundizaron en sesiones conceptuales y prácticas para mostrar la aplicación de tecnologías innovadoras para la supervisión, regulación y monitoreo del sistema financiero. Estas tecnologías pueden ser útiles para apoyar en las tareas de supervisión y cumplimiento que son dirigidas por las autoridades financieras; todo lo anterior habilitado por el contexto actual de disponibilidad y granularidad de datos establecido por las reformas posteriores a la crisis del 2008. El conocimiento desarrollado tuvo como objetivo identificar las amenazas cibernéticas y mejorar la inteligencia financiera (contra el crimen, como el lavado de dinero) con los desarrollos de Machine Learning (ML) o Inteligencia Artificial (AI por sus siglas en inglés), o la creación de sistemas para monitorear los riesgos financieros mediante la implementación del Análisis de Redes Financieras.

Introducción a la red en Bancos Centrales
(Presentación)

Esta sesión del curso presentó los principales conceptos y aplicaciones de Ciencia de Redes y Análisis con Gráficas, que son herramientas poderosas que ya se han utilizado en aplicaciones para Google (gráfica de conocimiento), Facebook (gráfica social), Amazon (gráfica de producto), PayPal (gráfica de pago), entre otros.

La teoría de redes permite la posibilidad de modelar y medir conexiones, las posibles razones de estas conexiones y cómo estos sistemas complejos evolucionan en el tiempo; Algunos ejemplos de estos sistemas son los mercados financieros, los sistemas de pago, las redes de amistad y casi todos los sistemas socioeconómicos.

A continuación se presentan algunos enfoques para analizar redes:

  • Análisis top-down, donde algunos casos de uso típicos son: análisis de riesgo sistémico, monitoreo del sistema, diseño y pruebas de estrés, agrupamiento / clasificación, alerta temprana y detección de anomalías.
  • Análisis bottom-up, donde algunos casos de uso típicos son: investigación criminal, redes terroristas, lavado de dinero, KYC y KYCC, análisis de inversión fundamental y análisis de la cadena de suministro.
  • Características de los datos, donde algunos casos de uso típicos son: IA / ML, algoritmos de fraude, motores de recomendación y algoritmos para inversión.

Continuando con la sesión, se dieron los principales conceptos y métricas de redes. Los conceptos revisados fueron redes y sus componentes: nodos y enlaces (que pueden ser dirigidos o no dirigidos y ponderados o no ponderados); también se presentaron ejemplos de cada uno. Las métricas revisadas fueron: centralidad, que mide la importancia de los nodos (o enlaces) que forman una red, donde dependiendo del proceso llevado a cabo puede clasificarse en medidas de trayectoria o transmisión; y detección comunitaria, que se utiliza para simplificar, clasificar y etiquetar los nodos de la red en grupos o comunidades significativos.

Finalmente, se resumieron diferentes métodos de visualización de redes, donde se vio que el uso de uno sobre otro dependerá de la tarea realizada.

 

Introducción a RegTech y SupTech
(Presentación)

La segunda parte de la primera sesión del curso comenzó con la evolución de la terminología de RegTech y Suptech:

  • FinTech: tecnología que ayuda a facilitar los servicios financieros minoristas de una manera nueva.
  • InsurTech: tecnología que ayuda a las aseguradoras a impulsar la eficiencia y la innovación en la forma en que atienden a los clientes.
  • RegTech: tecnología que ayuda a los bancos y las FMI a cumplir con los requisitos reglamentarios.
  • SupTech: tecnología que ayuda a las autoridades en su misión de monitorear y supervisar los mercados financieros.
  • TechFin: gigantes de la tecnología que ingresan a los mercados de servicios financieros (Google, Amazon, Apple, Alibaba, Tencent, etc.).

Después de la explicación anterior sobre la terminología, se abordaron los principales motivos que han impulsado desarrollos en SupTech, que son el aumento de la complejidad (interconexión global, digitalización de instituciones financieras, nuevos participantes en el mercado y aumento en la velocidad de las transacciones), mayor expectativa (inclusión de AI / Herramientas de aprendizaje automático y sistemas cada vez más digitalizados) y el aumento de la recopilación de datos después de la crisis de 2008. Se abordaron los desafíos de SupTech, como: recopilación de datos de alta calidad que permite el acceso entre organizaciones, desarrollo de capacidades y habilidades relacionadas con la ciencia y la tecnología de datos, y una reducción en la brecha entre la investigación y la producción.

Luego se realizó una revisión sobre el papel que juega SupTech con respecto a la adopción de tecnologías por parte de los Supervisores, el cual cubre la recopilación de datos y el análisis de datos junto con todas sus ramas, también se revisó la etapa actual de adopción de algunos Supervisores específicos.

Continuando con la sesión, se enumeraron los posibles impactos de SupTech:

  • Mayor participación del sector financiero bajo supervisión.
  • Mejores resultados para el consumidor (mejor protección, mayor confianza en el mercado).
  • Mejor conducta de los proveedores.
  • Mayor valor para recursos gubernamentales limitados.

Finalmente, se mencionó que las áreas de análisis e IA que merecen mayor atención son el análisis de datos, la inteligencia artificial, la automatización de procesos robóticos y la tecnología de registros distribuidos (DLT por sus siglas en inglés); también como observación final, vimos que el RegTech se extiende a través de una variedad de áreas funcionales y que sus soluciones en muchas instituciones financieras son una mezcla de herramientas externas e internas.

 

Mapeo del sistema financiero I
(Presentación)

Para esta sesión, la atención se centró en una amplia introducción a las redes financieras; Este tipo específico de redes son útiles para modelar la complejidad de las interacciones entre los bancos y otros usuarios del sistema bancario y pueden abordarse mediante dos enfoques diferentes:

  • El enfoque de los datos del balance general consiste en el uso de estos obtenidos de las diferentes instituciones para construir una red que pueda usarse para analizar o estudiar el riesgo sistémico y el contagio financiero.

  • El enfoque de precios normalmente recurre a correlaciones para construir la red y después de esto, los métodos de filtrado se pueden aplicar para encontrar información y propiedades útiles.

La sesión continuó con una revisión de las definiciones más importantes como gráficos dirigidos y no dirigidos, redes dirigidas y no dirigidas, matriz de adyacencia, vecinos y matrices de ponderación; y métricas como grado, coeficiente de agrupamiento, reciprocidad, afinidad, índice de integridad (todas las métricas mencionadas anteriormente son de tipo topológicas), resistencia, fuerza interna y externa y flujo. También se mencionó una herramienta importante para identificar las instituciones que son más relevantes para la estabilidad financiera y el monitoreo del sistema. Las métricas de centralidad revisadas fueron centralidad de grado, centralidad de fuerza, centralidad de intermediación, centralidad de proximidad, centralidad de eigen-vector, PageRank y DebtRank, donde una combinación lineal de todos estos permite la clasificación de los nodos según su relevancia para la red.

La siguiente parte de la sesión se dedicó a los principales canales de contagio financiero (donde el contagio financiero se refiere a la propagación de un shock entre los bancos a través de la red financiera) y cómo medir el nivel de contagio. Los canales de contagio revisados fueron:

  • Default en cascada: este tipo de choque se transmite por el lado del activo y puede amplificarse por el costo por bancarrota, la externalidad de las ventas y la incorporación del riesgo de incumplimiento en el valor de los activos. Las metodologías para medirlo son Eisenberg-Noe y DebtRank.

  • Contagio por fondeo de liquidez: este tipo de shock se transmite por el lado del pasivo, y aunque el patrimonio neto no se ve directamente afectado, el shock puede amplificarse por las ventas de activos no líquidos y por el acaparamiento de liquidez. Algunas métricas utilizadas para este canal de contagio son el indicador de liquidez de financiación sistémica, el indicador de vulnerabilidad sistémica, el indicador de importancia sistémica y el indicador de escasez de liquidez sistémica.

  • Externalidad por las ventas de liquidación: este tipo de shock proviene del precio del activo. Las suposiciones son que un Banco A quiere mantener constante su índice de apalancamiento, los activos son ilíquidos y los activos del balance general se valoran según el valor de mercado. Dentro de este tipo de shock, se puede encontrar contagio debido a carteras traslapadas donde, a través de enlaces indirectos representados por inversiones en activos similares entre instituciones financieras, las devaluaciones pueden causar ventas de activos (ventas de liquidación).

En la última parte de la sesión se presentó un estudio del sistema financiero mexicano desde una perspectiva de red de capas múltiples que tuvo en cuenta tanto las exposiciones interbancarias directas (contagio por defecto) como las exposiciones externas indirectas (carteras traslapadas) manera conjunta.

 

Mapeo del sistema financiero II
(Presentación 1, Presentación 2)

La primera parte de la tercera sesión se dedicó a mostrar la importancia del estudio de las redes financieras a través de diferentes casos de uso. En particular, se mostró cómo medir aspectos como la interconexión de los bancos y el riesgo sistémico, para llevar transparencia a algunos mercados específicos (como el mercado de derivados) mediante el uso de datos, monitorear cambios importantes en el sistema financiero a lo largo del tiempo, identificar el riesgo de concentración y el desarrollo de herramientas de visualización que mostraron la dinámica de la red. Finalmente, se realizó un ejercicio práctico utilizando datos de las Estadísticas Consolidadas del BIS sobre exposiciones tanto de los países que informan al BIS y así como de los que no lo hacen, para observar el comportamiento antes, durante y después de la crisis de 2008 de algunos actores clave de la Eurozona.

La segunda parte de la sesión inició con la presentación de una forma de estudiar la interconexión en la red de Contrapartes Centrales (CCPs por sus siglas en inglés). Se presentó cómo las CCPs se conectan entre ellas, aquí se vieron aspectos como la forma en que un PCC determinado se conecta con otros, las distintas conexiones y cuán importantes son, también cómo una falla en un enlace importante podría generar un choque que podría propagarse a través de la red. Luego, se mostró a través de un ejemplo cómo se ve la interconexión dentro de una CCP (miembros de liquidación y compensación de la CCP) y cómo los ejercicios de pruebas de estrés exhiben problemas como la concentración de los flujos de liquidación en unos pocos participantes.

 

Simulación basada en agentes I y II
(Presentación 1, Presentación 2)

Esta sesión comenzó mostrando cómo, a través del análisis de la red, se puede monitorear el sistema bancario, detectar comportamientos anómalos, desarrollar pruebas de estrés e identificar los problemas de liquidez del banco. Luego se realizó una revisión sobre cómo el desarrollo de diferentes metodologías como la clasificación de nodos núcleo-periferia, el simulador de liquidez del sistema de pago (PSLI por sus siglas en inglés) y el SinkRank, podrían ser útiles para la predicción de liquidez.

La segunda parte de la sesión se dedicó a mostrar cómo se pueden usar las simulaciones de red para diseñar infraestructuras de mercado. Se revisó el concepto de simulación y las bases para la modelación basada en agentes. Una simulación es una metodología para comprender el comportamiento de sistemas complejos (que generalmente son grandes con muchos elementos interactuando y donde existen múltiples no-linealidades). Para el modelado basado en agentes, cada agente tiene un conjunto de reglas que definen su comportamiento, lo que puede tener un impacto material en los resultados dependiendo de cómo se defina; las opciones que deben tomarse en cuenta para los agentes son su diseño de reglas, si los agentes serán homogéneos o heterogéneos y si serán agentes estáticos o agentes de aprendizaje.

Las ventajas de usar modelos basados en agentes son su flexibilidad y cercanía a la realidad, su capacidad para modelar comportamientos complejos y que los sistemas reales son sensibles a los detalles de implementación; por otro lado, los inconvenientes que encontramos son la necesidad de muchos parámetros de entrada, el tiempo de configuración y que los resultados son muy sensibles a los supuestos de modelado. Las simulaciones de infraestructuras de mercado basadas en agentes se pueden aplicar para la evaluación de cambios en el entorno, pruebas de estrés y escenarios, diseño de sistemas de pago, validación de modelos, monitoreo, predicción / pronóstico, y acciones de remediación y recuperación. Para finalizar con la sesión, se presentaron casos de uso concretos como el diseño de un sistema de pago interbancario, la optimización de liquidez para un sistema RTGS, FX y de remesas minoristas (Ripple) y la determinación en la reducción de liquidez de una infraestructura de mercado específica.

 

Redes de correlación
(Presentación 1, Presentación 2)

Esta sesión comenzó con una comparación entre redes basadas en transacciones (pagos, exposiciones, flujos, etc.) y basadas en similitudes (correlaciones, correlaciones parciales, causalidad mayor, entropía de transferencia, etc.). Debido al aumento de la interconectividad de los mercados, existe la necesidad de comprender las estructuras de correlaciones a una escala mucho mayor, en este sentido, las redes pueden ayudar a desarrollar la intuición y comprender las pruebas de estrés. Es posible usar diseños de red para detectar mejor los patrones de ruido, por ejemplo, se puede probar una red de tipo Force-Directed para identificar grupos, luego identificar el árbol de expansión mínima y filtrar las correlaciones, para finalmente mediante el uso de una función de distancia encontrar el árbol de expansión máxima y obtener la estructura de correlación de la red troncal. A menudo, las redes son grandes y complejas y queremos filtrar el ruido. Los métodos de filtrado como los mencionados anteriormente brindan soluciones y arrojan luz sobre la estructura de correlación de una red determinada.

La siguiente parte de la sesión se centró en un ejercicio práctico que tuvo como objetivo comprender y atribuir el impacto de los cambios/shocks en distintos factores que influyen sobre una cartera, a través del uso de métodos visuales basados en redes que permitieron:

  • Comprender las estructuras de correlación de gran escala.
  • Desarrollar escenarios de correlación basados ​​en estructuras históricas.
  • Crear nuevas estructuras de correlación.

 

Amenazas cibernéticas y detección de anomalías
(Presentación 1, Presentación 2, Presentación 3)

Esta sesión comenzó con la revisión de los tres componentes de la resiliencia cibernética, que son:

  • Prevención. Se refiere a garantizar que los ciberataques no accedan a los sistemas internos, pruebas red team, etc.
  • Detección. Se relaciona con el monitoreo y alerta sobre posibles intrusiones e investigaciones de incidentes.
  • Recuperación. Métodos y procesos para garantizar la recuperación de ciberataques exitosos y la mejora en la capacidad de recuperación después de que uno de éstos haya ocurrido.

La sesión continuó con la presentación de ciberataques en diferentes jurisdicciones, y también de algunas medidas recomendadas por el CPMI-IOSCO sobre cómo mejorar la resiliencia de las infraestructuras de mercado.

El Dr. Soramäki presentó un estudio sobre cómo, debido a la interconexión del sistema global de CCPs, la falla de un participante relevante (que puede ser producido por un ataque cibernético) puede convertirse en la propagación de un shock en el resto de la red a diferentes niveles (nivel subsidiario y nivel parental); luego se mostró como el desarrollo de bases de datos y métodos específicos puede conducir a la medición de concentraciones de riesgo y la simulación de escenarios de falla y estrés de infraestructuras de mercado y mercados interconectados, para permitir a los reguladores, las infraestructuras y sus miembros desarrollar estrategias de mitigación de riesgos. En este sentido, encontramos que se pueden generar escenarios teniendo en cuenta tres elementos:

  • Fuente de estrés: quiebra, evento de liquidez, ciberataque, falla técnica, cambio en el entorno y cambio incremental del sistema.
  • Cómo se manifiesta el estrés: interrupción de procesos y cambios en los parámetros.
  • Cómo se modela el estrés: histórico, probabilístico, extremo pero plausible y peor de los casos.

La sesión continuó con el estudio de dos casos de uso. El primer caso de uso tuvo como objetivo analizar la solidez del proceso de liquidación a problemas operativos en uno de los bancos participantes utilizando datos de pagos reales de un sistema dado. El segundo caso de uso tenía como objetivo probar la capacidad de medir y monitorear la falla de los dos participantes más grandes de un sistema dado.

La sesión terminó con un ejercicio de entrenamiento utilizando datos de la red SWIFT donde el objetivo era identificar anomalías, primero desde una perspectiva de volumen mediante el uso de series de tiempo y regresión jerárquica de proceso gaussiano (un método de ML); y luego desde una perspectiva de redes donde las métricas de red y los algoritmos de comunidades (agrupamiento) se implementaron para detectar anomalías en la estructura de la red.

Martes, 18 de febrero

- Sesión de apertura y foto grupal
  John Robinson, Subgobernador sénior, Banco de Jamaica
  Kimmo Soramäki, CEMLA
  Serafín Martínez-Jaramillo, CEMLA

- Introducción al uso de las redes en los bancos centrales
  Expositor: Kimmo Soramäki

- Mapeo del Sistema financiero I
  Expositor: Serafín Martínez-Jaramillo, CEMLA

- Mapeo del Sistema financiero II
  Expositor: Kimmo Soramäki

- Simulación basada en agentes I
  Expositor: Kimmo Soramäki

- Discusión sobre el uso de análisis de redes en bancos centrales
  Moderators: Serafín Martínez-Jaramillo y Kimmo Soramäki

 

Miércoles, 19 de febrero

- Simulación basada en agentes II
  Expositor: Kimmo Soramäki

- Correlation Networks
  Expositor: Kimmo Soramäki

- Uso práctico de paneles para estudios de casos de como la burbuja y crisis de la vivienda en E.U.A.
  Expositor: Kimmo Soramäki

 

Jueves, 20 de febrero

- Introducción a Machine Learning y a su aplicación sobre gráficas en bancos centrales
  Expositor: Kimmo Soramäki

- Delincuencia financiera y predicción de enlaces en redes financieras
  Expositor: Kimmo Soramäki

- Amenazas cibernéticas y detección de anomalías
  Expositor: Kimmo Soramäki

- Ejercicios prácticos: Delitos financieros y predicción de enlaces en las redes financieras, y detección de anomalías y amenazas cibernéticas
  Expositor: Kimmo Soramäki

- Conclusiones, próximos pasos y evaluación del Curso
  Expositor: Serafín Martínez-Jaramillo and Kimmo Soramäki

 

AvatarSerafín Martínez Jaramillo, CEMLA
Adviser, CEMLA
Serafin Martinez-Jaramillo is a senior financial researcher at the Financial Stability General Directorate at Banco de México and currently he is an adviser at the CEMLA. His research interests include: financial stability, systemic risk, financial networks, bankruptcy prediction, genetic programming, multiplex networks and machine learning. Serafin has published book chapters, encyclopedia entries and papers in several journals like IEEE Transactions on Evolutionary Computation, Journal of Financial Stability, Neurocomputing, Journal of Economic Dynamics and Control, Computational Management Science, Journal of Network Theory in Finance and some more. Additionally, he has co-edited two books and two special issues at the Journal of Financial Stability. Serafin holds a PhD in Computational Finance from the University of Essex, UK and he is member of the editorial board of the Journal of Financial Stability, the Journal of Network Theory in Finance and the Latin American Journal of Central Banking.

AvatarKimmo Soramäki
Founder and CEO Financial Network Analytics

Kimmo Soramäki is the Founder and CEO of Financial Network Analytics (FNA) and the founding Editor-in-Chief of the Journal of Network Theory in Finance.

Kimmo started his career as an economist at the Bank of Finland where in 1997, he developed the first simulation model for interbank payment systems. In 2004, while at the research department of the Federal Reserve Bank of New York, he was among the first to apply methods from network theory to improve our understanding of financial interconnectedness. During the financial crisis of 2007-2008, Kimmo advised several central banks, including the Bank of England and European Central Bank, in modeling interconnections and systemic risk. This work led him to found FNA in 2013 to solve important issues around financial risk and for exploring the complex financial networks that play a continually larger role in the world around us.

Kimmo holds a Doctor of Science in Operations Research and a Master of Science in Economics (Finance), both from Aalto University in Helsinki.