Curso sobre Tecnologías Financieras y Banca Central

Ciudad de México, del 12 al 14 de noviembre de 2019

 

Introducción
La primera edición del Curso del CEMLA sobre Tecnologías Financieras y Banca Central, se realizó en la Ciudad de México, del 12 al 14 de noviembre de 2019. El curso tenía dos objetivos principales; el primer objetivo fue introducir a los asistentes en las nuevas tecnologías que actualmente se están desarrollando y utilizando para abordar los problemas de la banca central. El curso cubrió tres temas principales: Machine Learning (ML), Complex Networks Science y Distributed Ledger Technology (DLT). Como segundo objetivo, el Curso sirvió como foro para lanzar un Centro de Innovación en el CEMLA, con el apoyo académico de University College London (UCL). En este sentido, el Curso presentó casos de uso desarrollados por bancos centrales regionales, que se basaron en nuevas tecnologías para abordar cuestiones operativas y de política. Estos temas incluyeron la medición de los niveles de exposición al riesgo sistémico, la caracterización del mercado interbancario, la rigidez de los precios, la detección de pagos anómalos, el diseño de un sistema LBTR utilizando DLT, entre otros.
Con lo anterior, las sesiones del Curso ayudaron a mostrar que las nuevas tecnologías podrían ayudar a los bancos centrales a impulsar y ampliar sus capacidades como agentes de supervisión y regulación.

Machine Learning en Finanzas I
Esta sesión ilustra el tipo de problemas que ML puede abordar, como se resume a continuación:
El aprendizaje supervisado tiene como objetivo descubrir una relación entre una variable de salida y una variable de entrada, a partir de un conjunto de datos; y el aprendizaje no supervisado busca encontrar la estructura subyacente de los datos. La sesión se centró en el aprendizaje supervisado, comenzando por definir el escenario típico, cómo entrenar y probar los modelos y algunas técnicas bien establecidas como la regresión logística, los árboles de decisión, los bosques aleatorios, las redes neuronales, entre otros. Durante la sesión, también se discutió el trade-off entre la varianza y el sesgo, donde se necesita un modelo lo suficientemente flexible como para capturar patrones dentro de los datos y reducir tanto como sea posible los errores de entrenamiento y de prueba.

Machine Learning en Finanzas II
Para la segunda sesión, la atención se centró en técnicas no supervisadas con respecto a la reducción de la dimensionalidad y la agrupación. La primera técnica analizada fue el Análisis de Componentes Principales (PCA por sus siglas en inglés), que tiene como objetivo capturar la señal de correlación real en una matriz de datos utilizando los K vectores propios más grandes (componentes principales). Con eso, PCA ayuda a identificar la información más importante (varianza). La segunda técnica analizada fue el agrupamiento por K-Medias que, a través de la medición de la distancia de todas las variables (comúnmente usando la distancia euclidiana), forma K grupos, maximizando la distancia entre las instancias de un grupo con el resto de los grupos y minimizando la distancia entre los miembros de cada grupo.
También en esta sesión, el Banco de la República (Banco Central de Colombia) presentó su caso de uso: Identificando el comportamiento anómalo de los participantes del sistema de pago de alto valor con redes neuronales artificiales, donde utilizando 113 variables de las hojas de balance de las instituciones financieras, se entrenó una red neuronal feed-forward, compuesta por dos capas ocultas, cada una con 60 neuronas y funciones de activación sigmoidal y softmax respectivamente. Después de ser entrenado y probado, este modelo mostró un error de clasificación del comportamiento anómalo de los participantes del 11% de un total de aproximadamente 23 mil muestras.

Machine Learning en Finanzas III
La tercera sesión estuvo dedicada a las Redes Neuronales Artificiales (ANN por sus siglas en inglés), que es una técnica que busca reproducir el proceso de aprendizaje de una neurona real. Las ANN han demostrado tener un poder de predicción alto en comparación con otras técnicas de ML. Esta técnica se ha aplicado en campos como biología, física, neurociencia y finanzas, entre otros.
La sesión comenzó con el Perceptron, que es una red neuronal de una sola capa que aprende una función no lineal utilizada para predecir una variable de salida mediante el uso de diferentes variables de entrada. La sesión siguió con un caso más general, el Perceptron multicapas, cuya arquitectura, como su nombre lo indica, está compuesta por una o más capas ocultas, además de las de entrada y salida, con diferentes funciones de activación (tangente hiperbólica (tanh), sigmoidal, softmax, unidad lineal rectificada (relu), etc. Finalmente se introdujo un tipo más específico de red neuronal; el Autoencoder. Esta red neuronal no supervisada tiene como objetivo aprender las características más importantes de los datos. El Autoencoder tiene aplicaciones en compresión y generación de imágenes, reducción de dimensionalidad, detección de anomalías, etc. Funciona comprimiendo un conjunto de datos en un espacio de dimensionalidad inferior (con la función de codificación) para luego reconstruirlos nuevamente en el espacio original (con la función de decodifición), utilizando como métrica de rendimiento el error de reconstrucción que mide qué tan bien la red neuronal reproduce la capa de entrada.
Continuando con la sesión, el Banco Central del Ecuador presentó su caso de uso: Detección de anomalías en el Sistema de Pagos de Ecuador. Utilizando datos de transacciones del Sistema de Pagos Ecuatoriano, un autoencoder fue entrenado para detectar pagos anómalos, bajo la hipótesis de que la mayoría de las transacciones son normales y, después del entrenamiento, cuando el modelo se alimenta con un pago atípico, su error de reconstrucción será más alto que el promedio. Para este caso, se entrenaron dos autoencoders diferentes, ambos con una capa oculta. El primero usaba una función tanh como codificador y una función relu como decodificador. El segundo utilizaba una función relu tanto para el codificador como para el decodificador. Se encontró que el primer modelo superó en performance al segundo, lo que podría ser debido a la mayor complejidad de la función tangente hiperbólica.
Luego, el Banco Central de Reserva de El Salvador presentó su caso de uso: Supervisión del sistema de pago y liquidación. Para este proyecto se aplicó la detección de anomalías en los datos del sistema RTGS para identificar comportamientos de pago inusuales. En este caso, combinaron dos técnicas no supervisadas: Análisis de componentes principales (PCA) y agrupamiento por K-Medias. Bajo la hipótesis de que las distintas variables contenidas en los datos capturan el comportamiento de las anomalías, primero aplicaron PCA para dos componentes principales para luego entrenar un modelo de K-medias de 2 grupos; resultando en una proporción del 96% de los pagos en un grupo y 4% en el otro. Los resultados indica que posiblemente los pagos en el segundo grupo sean anómalos.

Multivariate Statistics
En la cuarta sesión, se presentó una revisión de estadísticas multivariadas.
La sesión comenzó con el PCA, cuyo objetivo principal es dar sentido a un sistema multivariado mediante el mapeo de las variables originales en nuevas variables "sintéticas", llamadas componentes principales. El PCA funciona a través de una proyección basada en la relación de pares entre variables y donde las nuevas variables no están correlacionadas. Los componentes principales se pueden clasificar por orden de importancia por la fracción de varianza de los datos originales que pueden explicar, lo que lleva a una reducción de la dimensionalidad.
Después de esto, la sesión continuó con la revisión de la teoría de la Matrices Aleatorias, que tiene como objetivo identificar las propiedades informativas de una matriz y puede ayudar a evaluar si un componente principal es ruidoso o informativo.
Para concluir la sesión, el Banco Central del Uruguay presentó su caso de uso: Rigidez de precios utilizando datos microeconómicos. A través de un conjunto de datos de precios minoristas en sectores como bebidas, bebidas alcohólicas, alimentos, tabaco, cuidado personal, etc. y macrodatos (índice de IPC, tasa de empleo y desempleo) estudiaron la flexibilidad de los precios. Después de implementar PCA, encontraron una alta correlación entre el empleo y los cambios de precios, principalmente para los sectores de alimentos y bebidas alcohólicas.
Complex Networks
Esta sesión se centró en uno de los grandes temas del curso, la ciencia de redes complejas. Comenzó con algunos ejemplos reales de redes como la red de tráfico aeroportuario, las redes sociales, la red alimentaria y los sistemas de pago.
Se estudiaron varios conceptos básicos para caracterizar redes, incluidos el tamaño, la densidad, el grado y su distribución, centralidad de agrupamiento, centralidad intermedia y centralidad de vector propio. A continuación, se hizo una profundizó un caso particular de redes, Gráficos aleatorios, que son puntos de referencia para comprender en un entorno controlado la funcionalidad del sistema que se está modelando y aborda cuestiones como información poco detallada, aislamiento de propiedades de interés y cercanía con redes de la vida real.
Para continuar con la sesión, el Banco Central de Reserva del Perú presentó su caso de uso: Prueba y caracterización del mercado interbancario con modelos de redes. Presentaron una visión general del mercado de créditos interbancarios peruano, donde los préstamos no garantizados representan el 70% (generalmente con un plazo de un día), seguidos de préstamos garantizados y swaps de divisas; también mencionaron que una fuente importante de financiamiento para los bancos es la emisión de instrumentos de renta fija en los mercados de capitales locales e internacionales. Después de realizar el análisis de redes, descubrieron que algunas instituciones son mayormente prestamistas, mientras que otras son mayormente prestatarios, teniendo en promedio que los bancos forman triángulos con la mitad de sus enlaces. El Componente Gigante Fuertemente Conectado (GSCC por sus siglas en inglés) consistió en promedio en 3 o 4 nodos (que representaban a los bancos más grandes). Además, el tamaño del core fluctuaba entre 2 y 3, pero en este caso, las instituciones en el core cambiaban constantemente. Finalmente, el estudio encontró una clara correlación entre el tamaño y el contagio, donde si los bancos más grandes fueran eliminados de la red, las interconexiones serían más débiles.

Tecnologías Blockchain I
La sexta sesión tuvo como objetivo principal introducir las Tecnologías Blockchain.
Comenzó con una revisión de Bitcoin, un criptoactivo que nació de la idea de tener una moneda que pudiera intercambiarse libremente sin la necesidad de una institución financiera. Bitcoin, basado en Blockchain, crea un entorno donde todas las transacciones se mantienen en una fuente de contabilidad compartida, única pero altamente replicada llamada ledger y cada participante (nodo) tiene una réplica del ledger, lo que significa que todos los nodos son iguales y sincronizan el ledger periódicamente verificando y validando bloques de transacción. En este proceso se producen nuevas monedas, que son protegidas mediante llaves criptográficas y solo el propietario de la llave privada puede gastar la moneda; con la validez de un bloque establecido por el siguiente bloque adjunto a él con un sellado criptográfico (cadena hash). La cadena de bloques (blockchain) es la lista cronológica de todos los bloques de transacciones del bloque de génesis. Para funcionar correctamente, los sistemas blockchain necesitan consenso, lo que significa que los participantes deben acordar el "contenido verdadero" de la cadena de bloques; de esta manera, Bitcoin propone una solución "sociológica" donde la verdad se establece por mayoría de votos, pero también desde otra perspectiva, la mayoría en Bitcoin se expresa en términos de potencia computacional dado que una computadora representa un voto.
Otro tipo de protocolo son los contratos inteligentes, que tienen el propósito de verificar y hacer cumplir los términos de un contrato entre dos partes, reduciendo así el riesgo de incumplimiento. Desde el punto de vista de la regulación, la tecnología blockchain combinada con contratos y inteligentes puede producir una organización autónoma descentralizada (DAO por sus siglas en inglés) que puede operar de forma autónoma a través de blockchain.

Tecnologías Blockchain II
Esta sesión se dedicó a las tecnologías blockchain y su uso para la regulación. En este sentido, se demostró que blockchain puede proporcionar: acceso a datos auditables, creación de registros inmutables con sello temporal, creación de una fuente única de verdad, constitución de un entorno interoperable transparente que también podría ejecutar contratos automáticamente, regulación automática , predicción inmediata y regulación en tiempo real, entre otros. Desde la perspectiva de policy, se mencionó que blockchain podría ayudar a abordar: el aumento de la eficiencia y la reducción de costos, la reducción del riesgo sistémico, operativo y de contraparte, y la protección de la estabilidad financiera.
La sesión finalizó con la presentación del caso de uso del Banco Central de Chile: Distributed Ledger Technology y un diseño conceptual de un sistema LBTR. Este proyecto fue motivado para aumentar el número de pagos liquidados electrónicamente en dinero del banco central y reducir los riesgos inherentes de los medios de pago alternativos utilizados actualmente. El caso se basó en la deconstrucción de cada componente del sistema LBTR y explorar diferentes alternativas de arquitectura usando blockchain. Se definieron los siguientes parámetros para evaluar las arquitecturas y seleccionar el que mejore la competencia para acceder al LBTR; estos fueron el número de participantes, el índice de concentración, el costo de ingresar al sistema, los costos por transacción, el número de intermediarios, la transparencia, el volumen total de transacciones, el número de transacciones, los nuevos servicios a ofrecer y la resiliencia. Después de la evaluación, encontraron que la privacidad a nivel transaccional es alcanzable y podría ayudar a mejorar los niveles de interconectividad (debido a la experiencia previa del banco central con la emisión de bonos digitales). También descubrieron que una billetera por usuario y por participantes externos (terceros) tendrá más compensaciones cuando cada parte interactúa con el resto. Para concluir, se mencionó que la interoperabilidad es un componente clave para mejorar la innovación en el sistema de pago.

Riesgo sistémico I
El propósito de esta sesión fue analizar el riesgo sistémico y los diferentes canales de contagio desde una perspectiva de redes complejas. Se mencionó que considerando el contagio directo, los modelos en cascada propagan pérdidas solo después de los incumplimientos, pero el estrés puede propagarse antes del incumplimiento del prestatario debido al deterioro de la calidad crediticia. También se presentó un método para rankear a los bancos utilizando métricas de red, y se demostró que los bancos que causan mayor impacto también son los más vulnerables, donde también hay bancos pequeños. Otro tipo de contagio es el que se propaga debido a la superposición de carteras. En este sentido, se mencionó que el estrés puede propagarse de un banco a otros con activos comunes a través de los precios, por ejemplo, si un banco liquida su cartera en una venta forzada, los precios caerán y los inversores con una cartera similar sufrirán pérdidas.
Para continuar con la sesión, el Banco Central del Uruguay presentó su caso de uso: Riesgo de crédito y sus efectos en el mercado interbancario. La motivación del proyecto fue construir una red de deuda comercial y financiera para Uruguay y proporcionar una cuantificación empírica sobre el efecto directo e indirecto que las empresas por defecto tienen en los bancos. Construyeron tres redes diferentes mediante el uso de métodos de reconstrucción: red de empresa-banco (donde los enlaces representan crédito financiero), red de banco-banco (préstamos interbancarios) y red de empresa-empresa (en el primer caso consideraron a los tres deudores y acreedores principales de cada empresa; y en el segundo caso, utilizaron métodos de imputación para completar las conexiones entre empresas). También aplicaron medidas de red para caracterizar sus redes, y DebtRank para medir el valor económico en la red (equidad) que se ve potencialmente afectado por el estrés o el incumplimiento de un nodo determinado.

Riesgo sistémico II
Esta sesión se centró en la reconstrucción de redes; comenzó con una revisión de Maximum Entropy Networks, cuya idea principal es construir un conjunto de redes que retengan algunas propiedades de la red real, pero que sean lo más aleatorias posibles. Esto se puede lograr maximizando la entropía asociada con la distribución de observación de una red dada y sometiendo la maximización a restricciones con el propósito de retener las propiedades de la red real. Con este análisis, es posible tener en cuenta los efectos de la red incluso con información parcial.
Para seguir esta sesión, el Banco Central de Bolivia presentó su caso de uso: ¿Cómo medir la exposición a los niveles de riesgo sistémico dadas las conexiones e interdependencias entre las instituciones financieras? En los últimos años, debido al desarrollo y la modernización de las infraestructuras del sistema financiero, es necesario contar con una herramienta adecuada para monitorear el sistema financiero. Para identificar actores importantes en la red, se realizó un filtro Pólya junto con la implementación de PageRank, SinkRank y DebtRank para medir el impacto sistémico de los distintos actores de la red.

Riesgo sistémico III
En la última sesión del curso, se presentó el tema Network Validation, que es una metodología para filtrar información del ruido, en grandes conjuntos de datos de red mediante la identificación de un conjunto relativamente pequeño de enlaces importantes. La motivación detrás de esto es que las redes del mundo real a menudo son muy grandes (aproximadamente de 103 a 106 nodos / enlaces) y analizarlas o visualizarlas puede ser muy difícil. Esto es importante porque un buen procedimiento de validación debe conservar la naturaleza multiescala de la red. El primer método analizado fue el filtro de disparidad que tiene como hipótesis nula que un nodo distribuyó su fuerza uniformemente a través de sus enlaces salientes y donde cada peso relativo de la red se prueba contra la distribución Dirichlet. El siguiente método fue el filtro hipergeométrico donde la hipótesis nula es que los pares de nodos forman conexiones al azar con fuerzas fijas y se tiene que cada peso se prueba contra la distribución hipergeométrica. Finalmente, se analizó el filtro de Pólya, cuya hipótesis nula es que los pares de nodos forman conexiones al azar con fuerzas y grados fijos (todo esto basado en un proceso de Pólya), y donde cada peso se prueba contra la distribución que resulta de un proceso de Pólya.
El último caso presentado fue del Banco de la República (Colombia): Medición del riesgo potencial a partir del nivel de incumplimiento crediticio. El propósito de este proyecto fue identificar riesgos en el sistema de crédito, en particular para determinar las consecuencias a gran escala de la falta de pago utilizando datos de préstamos en cuatro sectores: comercial, de consumo, vivienda y microcrédito. A través de una red bipartita, describieron el sistema de crédito colombiano, teniendo en un lado a los prestamistas y en el otro a los prestatarios, después de esto, realizaron la validación de la red (implementando el filtro Pólya) para identificar una columna vertebral de enlaces con importancia estadística debido a el tamaño (capital) de los participantes y las características de los prestamistas y prestatarios.

Día 1

Palabras de apertura
Dr. Manuel Ramos Francia, Director General, CEMLA

Presentación, Tomaso Aste, UCL

Aprendizaje automático en finanzas I, Fabio Caccioli, UCL

Aprendizaje automático en finanzas II, Paolo Barucca, UCL

Identificación del comportamiento anómalo de los participantes en el sistema de pago de alto valor mediante un modelo de Redes Neuronales

Artificiales. Caso de uso de Colombia

Aprendizaje automático en finanzas III, Fabio Caccioli, UCL

Modelo de alerta de pagos atípicos. Caso de uso Ecuador

Integración de datos y herramientas para la supervisión del sistema de pagos. Caso de uso de El Salvador

Discusión sobre aprendizaje automático en finanzas, Tomaso Aste, UCL

Día 2

Estadísticas multivariantes, Giacomo Livan, UCL

Determinar la rigidez de los precios a través de variables microeconómicas. Caso de uso de Uruguay

Redes, Fabio Caccioli, UCL

Prueba y caracterización del mercado interbancario con modelos de redes. Caso de uso de Perú

Tecnologías Blockchain I, Tomaso Aste, UCL

Tecnologías Blockchain II, Tomaso Aste, UCL

Diseño conceptual de un RTGS mediante Tecnologías de Registro Distribuido. Caso de uso de Chile

Discusión sobre tecnologías blockchain y sistemas distribuidos para la regulación, Tomaso Aste

Día 3

Riesgo sistémico I, Fabio Caccioli, UCL

Riesgo de crédito y sus efectos en el mercado interbancario. Caso de uso de Uruguay

Riesgo sistémico II, Fabio Caccioli, UCL

Niveles de exposición al riesgo sistémico. Caso de uso de Bolivia

Riesgo sistémico III, Giacomo Livan, UCL

Efecto del impago de créditos sobre la estabilidad financiera. Caso de uso de Colombia

Discusión sobre riesgo sistémico, Tomaso Aste, UCL

Conclusiones

El objetivo principal del Curso fue servir de plataforma para el establecimiento de un Centro de Innovación donde los Bancos Centrales de América Latina y el Caribe estudien y prueben nuevas tecnologías para impulsar y ampliar sus capacidades como agentes de monitoreo y regulación.

Tomaso Aste
Profesor de Ciencias de Complejidad en el Departamento de Informática de la UCL. Un físico capacitado, ha contribuido sustancialmente a la investigación en análisis de estructuras complejas, modelado de sistemas financieros, inteligencia artificial y machine learning. Le apasiona la investigación del efecto de las tecnologías en los sistemas socioeconómicos y actualmente se centra en los sistemas distribuidos y entre pares. El profesor Aste lidera la investigación sobre la ciencia de la complejidad y la teoría de redes aplicada a los sistemas socioeconómicos. Trabaja con los reguladores en la aplicación de FinTech y Blockchain a la regulación financiera. Es cofundador y Director Científico del Centro UCL para Tecnologías Blockchain, fundador y Jefe del Grupo de Análisis e Informática Financiera de UCL, Miembro de la Junta del Centro de Riesgo Sistémico LSE-UCL de ESRC y Miembro de la Junta de Whitechapel Think Thank. Colabora con la Autoridad de Conducta Financiera, el Banco de Inglaterra y HMRC. Contribuye al Grupo Parlamentario de todos los partidos en FinTech. Lidera una iniciativa de capacitación para los bancos centrales y reguladores de FinTech en América del Sur. Es asesor y consultor de varias compañías financieras, bancos, firmas FinTech y nuevas empresas de economía digital.

Paolo Barucca
Profesor en el Departamento de Informática de UCL desde marzo de 2018. Trabajó en el postdoctorado en aplicaciones financieras de ciencia de redes y física estadística en Scuola Normale Superiore y en la Universidad de Zurich. Hizo su doctorado en la Universidad de Roma, Sapienza con el profesor Giorgio Parisi, especializándose en física estadística de sistemas desordenados y complejos. Actualmente está investigando el riesgo sistémico en redes financieras y el aprendizaje estadístico a través de la física estadística y la teoría de matrices aleatorias.

Giacomo Livan
Investigador principal en el Departamento de Informática de UCL. Obtuvo un doctorado en Física Teórica de la Universidad de Pavía (Italia) en 2012, después de lo cual se unió al Centro Internacional Abdus Salam de Física Teórica financiado por la UNESCO en Trieste (Italia). Se unió a UCL en 2014, y en 2015 fue galardonado con una beca de investigación del Consejo de Investigación de Ingeniería y Ciencias Físicas del Reino Unido. La actividad de investigación de Giacomo se centra en la aplicación de métodos e ideas tomadas de Complex Systems Science para el análisis cuantitativo de sistemas socioeconómicos.

Fabio Caccioli
Profesor asociado en el Departamento de Informática del University College London. Antes de unirse a UCL, ha sido investigador asociado en el Centro de Estudios de Riesgo, Universidad de Cambridge, y becario postdoctoral en el Instituto Santa Fe (Santa Fe, EE. UU.). Fabio tiene un doctorado en Física Estadística de la Escuela Internacional de Estudios Avanzados (Trieste, Italia), y obtuvo una Maestría en Física Teórica y una Licenciatura en Física de la Università degli Studi di Parma (Parma, Italia). Su investigación se centra en la aplicación de la mecánica estadística y las redes complejas para el estudio de los sistemas económicos y financieros, en particular sobre el riesgo sistémico y la estabilidad financiera.