Más transparencia y confianza en la gestión de riesgos a través de la simulación financiera


Cuando la crisis financiera empezó a afectar al consumo, restaurar la confianza en la gestión de riesgos se convirtió en una prioridad. Las deficiencias de las metodologías de riesgo singulares utilizadas por los analistas de riesgos de las empresas resultaban evidentes. Los organismos reguladores y los gestores de riesgos colaboraron con políticos y banqueros centrales a fin de hallar soluciones, bajo la atenta mirada de los periodistas y de un público proclive a emitir sus críticas. Finalmente, las soluciones identificadas implicaban un análisis más profundo de los riesgos, tal y como se describe de forma general en las propuestas de Basilea III. Este marco se diseñó para alcanzar los siguientes objetivos:

A) Mejorar la imagen de liquidez, solvencia y riesgo de contrapartida a la hora de evaluar la estabilidad del estado financiero en caso de sucesos económicos extremos.

B) Recurrir a la economía procíclica y anticíclica para realizar una correspondencia entre las alzas y bajas, por un lado, y los ciclos económicos, por otro, a fin de asignar ratios de capital seguros.

C) Exigir ratios de liquidez y de apalancamiento, forzando así a las instituciones financieras a ser prudentes con los préstamos solicitados y a mantener una visión global clara de sus balances.

Estas exigencias técnicas complementan las prioridades cualitativas en relación con la gestión de riesgos proactiva. En esta nueva era del riesgo, los gestores y los directores de riesgos deben poner en práctica una gestión de riesgos ágil y proactiva, estar en contacto con las juntas y el público y mantener y administrar los estándares profesionales de las altas instancias comerciales, los vendedores y la dirección ejecutiva, todos ellos impulsados por el ánimo de lucro. Como afirma Marco Folpmers, asesor principal sobre Cumplimiento de Riesgos de Capgemini en los Países Bajos: “Se espera que los analistas cuantitativos sean la respuesta para todas las necesidades. Los que tienen éxito, por lo general, son los que comunican adecuadamente sus análisis pero que, además, cuentan con la personalidad y la experiencia para ir un paso más allá. Adoptar una visión holística de la organización puede añadir valor en los mercados posteriores al colapso crediticio”.

Una asistencia adecuada por parte de las tecnologías de la información (TI) resulta crucial en el entorno de riesgo actual. Antes del colapso crediticio, muchos sistemas financieros demostraron no ser fiables, debido a que sus análisis confiaban en puntos de datos a corto plazo, hipótesis cuestionables estadísticamente o ambas cosas. Dado que esos mismos sistemas a menudo eran cajas negras no lo bastante transparentes, resultaba difícil y caro cambiarlos a medida que evolucionaban las prácticas relativas a riesgos, el hardware de cálculo y las situaciones económicas. Aunque la capacidad de adaptación resulta vital, un sistema avanzado efectivo debe reunir además muchos otros requisitos. En particular, debe incorporar una metodología basada en pruebas exhaustivas de back-testing, un sólido análisis de escenarios y el análisis de muchas combinaciones de factores (desde el nivel más general al más detallado).

Además de aumentar la precisión de los cálculos de riesgos, unas adecuadas prácticas de desarrollo de infraestructuras mejoran la transparencia. Las plataformas de gestión de riesgos deben ser flexibles, con objeto de permitir a las organizaciones evaluar e incorporar nuevas categorías de riesgos para poder responder con agilidad a las condiciones económicas y los requisitos normativos cambiantes. Estas plataformas también deben permitir a las empresas identificar las oportunidades y actuar en consecuencia, utilizando, por ejemplo, técnicas de gestión de activo/pasivo y asignación de capital económico que tengan en cuenta el riesgo para definir prioridades estratégicas de front-office.

La clave es una arquitectura de software sólida respaldada por una programación orientada a objetos y mecanismos eficientes de compilación, prueba y despliegue. Las firmas financieras se están alejando, cada vez más, del uso de entornos de caja negra, caros e inflexibles, y adoptando herramientas como Matlab (desarrollada por MathWorks), que valoran la transparencia, la personalización y el desarrollo eficiente.

Un área en la que la infraestructura de TI tiene un efecto directo sobre el análisis es el cálculo paralelo, que se puede emplear con objeto de reducir el tiempo necesario para llevar a cabo tareas de procesamiento largas y análisis de cálculo complejos. Las tareas de back-testing, simulación de riesgos y análisis de escenarios se pueden dividir con bastante facilidad en partes más pequeñas (o subtareas), las cuales se pueden solucionar de manera simultánea. Con el software apropiado, configurar el cálculo paralelo en un entorno informático de clúster o grid resulta fácil, y el procesamiento acelerado permite realizar tests más exhaustivos, así como obtener resultados más rápidos y, también, una gama más amplia de análisis de escenarios.

Noticias relacionadas

Lo más leído