CONSTRUCCION DE HERRAMIENTAS PREDICTIVAS DE RIESGOS, EVOLUCION Y RETOS
La Gestión del Riesgo en general ha venido evolucionando a través de las últimas décadas, incorporando técnicas matemáticas que han permitido construir modelos con estimaciones muy próximas a la realidad, haciendo que cada vez más entidades las incorporen en sus modelos de gestión.
Para los que hemos participado directamente en este proceso evolutivo, ha sido una experiencia muy gratificante ver como estas metodologías han ido ganando credibilidad a lo largo del tiempo, basado en el crecimiento de su capacidad predictiva. Claro está, que este incremento de capacidad predictiva está correlacionado con la calidad de datos empleados y su profundidad.
En sus inicios construir una herramienta planteaba algunos retos, como por ejemplo, el no tener las bases de datos suficientes para la construcción de un modelo, en la mayoría de veces, producto de la baja prioridad que las áreas de negocio le daban a la función de acopio y registro de datos de sus clientes, esto desde el punto de vista práctico resulta algo natural, dado que en esos momentos no percibían ningún beneficio de esta función, con el pasar de los años, y viendo su valor estratégico, después de los beneficios recibidos, esta prioridad e importancia ha cambiado a mejor.
Para el diseño, desarrollo e implementación de un modelo predictivo, en mi caso el primero hace ya más de 20 años, el reto más importante fue y creo que aún es, tener un alto nivel de calidad de datos, sobre todo en cuanto a integridad y coherencia, recomendable además, es tener capturados la mayor cantidad de atributos del cliente para su análisis y posterior selección de aquellas variables que tengan mayor poder discriminante.
Por supuesto, que debemos tener acopiados en las bases de datos a clientes buenos y malos, ya que se trata de construir un modelo que permita separar bien a los clientes buenos de los malos, ¿cómo construir un modelo que separe bien a los clientes buenos de los malos?, sin saber cómo son los clientes malos, es sin duda un problema importante que debemos tener en cuenta siempre, porque si se llega a construir una herramienta sin el número suficiente de malos, seguramente tendremos un producto con baja capacidad predictiva, pudiendo perder clientes al rechazar a clientes buenos y malograr la cartera al aceptar a clientes malos.
El no tener el número suficiente de malos se manifiesta con mayor énfasis en las carteras de clientes empresa y clientes corporativos, donde muchas veces el número de malos no es suficiente, en cuyo caso se deberán “agudizar” los criterios para poder tipificar como malo a un cliente.
Logrado el objetivo de tener una herramienta predictiva, esta deberá demostrar su eficacia en el campo, debiendo hacerse respetar inicialmente en la fase de pruebas por nuestros “expertos” que en realidad son aquellos analistas de créditos con la suficiente experiencia en procesos de calificación manual y finalmente, en el análisis de la evolución agregada es decir de la cartera calificada con esa herramienta, por supuesto luego de un periodo de uso de esta, debiendo para ello tener a los clientes debidamente identificados con la herramienta utilizada. El resultado de este análisis permitirá actuar oportunamente si es que los resultados no son los esperados a fin de poder efectuar los ajustes necesarios,
Hoy el alto nivel de especialización y las nuevas tecnologías han dado paso a su vez a nuevos conceptos que han generado nuevas funciones en la organización, como es el de Big Data, que se ocupa de la gestión y almacenamiento de un alto volumen de datos obtenidos de diferentes fuentes, con un alto nivel de variabilidad y una elevada velocidad de crecimiento dado que se generan constantemente. Por otro lado, tenemos también el concepto de Data Science que utilizando de manera combinada disciplinas como la estadística, las matemáticas y la informática estudian los datos para generar modelos más eficaces en la gestión y análisis de diferentes fuentes de datos, traducido este concepto como una función en la organización, también se ocupa de la implantación de estos modelos generados. Tenemos también, el concepto de Data Analytics, que tiene que ver con los procesos dedicados al uso de software para identificar tendencias, patrones correlaciones u otra ideas útiles y conclusiones en el Big Data.
Producto de la evolución del software base, el abaratamiento de la tecnología y el nivel de especialización en el tratamiento de los datos, los tiempos de desarrollo de una herramienta o modelo de riesgos se han reducido, pero el reto se mantiene, y sigue siendo el de tener una alta calidad de datos tanto vertical como horizontalmente.
Quantitative Solutions For Smart Decisions
(c) STRATEGIC RISK MANAGEMENT SAC.
Todos los derechos reservados.