Modelación de la asimetría y la curtosis condicionales en series financieras colombianas


Abstract

Las metodologías tradicionales utilizadas para calcular el valor en riesgo y el valor en riesgo condicional usualmente modelan el primer y segundo momento de las series, suponiendo que el tercer y cuarto momento son constantes. En este artículo se utiliza la metodología de Hansen (1994) para modelar los primeros cuatro momentos de la serie y, en particular, se usan varias formas paramétricas para modelar la asimetría y la curtosis. Las medidas tradicionales de VaR y CVaR y las propuestas se calculan para la tasa representativa del mercado, los TES y el IGBC para el periodo comprendido entre enero de 2008 y febrero de 2014. En general, se encontró que las medidas de riesgo de mercado presentan mejor desempeño cuando se modelan la asimetría y la curtosis condicionales de la serie.


Traditional methodologies used to calculate the value at risk and conditional value at risk usually model the first and second moments of the series, assuming that the third and fourth moments are constant. This paper uses the methodology proposed by Hansen (1994) to model the first four moments of the series, in particular, several parametric shapes are used to model the skewness and kurtosis. The traditional measures of VaR, CVaR and proposals are calculated for the Representative Market Rate, TES, and the IGBC for the period between January 2008 and February 2014. Overall, it was found that measures of market risk have better performance when conditional skewness and kurtosis of the series is modeled.


Introducción

Para las instituciones financieras es importante contar con instrumentos adecuados de gestión del riesgo de mercado, dado que permiten cuantificar el riesgo al cual un activo o un portafolio están expuestos. En el caso colombiano, las instituciones financieras están obligadas a mantener un capital de reserva para cubrir los riesgos percibidos en el mercado. Usualmente se utiliza el valor en riesgo (VaRα) para cuantificar dicho riesgo.

Esta medida corresponde a la mínima pérdida esperada en el (1 – α) × 100% de los peores casos. Así, con una probabilidad α el administrador del riesgo esperaría que la pérdida de su inversión no sea mayor al VaR. En términos estadísticos, el VaRα es el cuantil α-ésimo de la distribución de pérdidas y ganancias del activo.

Algunas metodologías tradicionales usadas para calcular el VaR son: simulación histórica, normalidad, RiskMetrics y ARMA-GARCH. La simulación histórica obtiene directamente el VaR a partir del cuantil empírico de los retornos del activo, sin suponer que estos sigan alguna distribución paramétrica. Sin embargo, supone que todos los momentos de la serie son constantes. Por otra parte, la metodología de normalidad o de varianza-covarianza asume que los retornos siguen una distribución normal, a pesar de que su estimación es sencilla; este método también supone que todos los momentos son constantes. Por el contrario, RiskMetrics© modela la varianza de los retornos a partir de un modelo de suavizamiento exponencial, pero debido a su construcción no permite obtener volatilidad de largo plazo (varianza no condicional). Finalmente, la metodología ARMA-GARCH modela los primeros dos momentos condicionales de los retornos del activo.

Es importante notar que las últimas tres metodologías mencionadas suponen normalidad3, mientras que las series financieras con datos de alta frecuencia, en general, se asocian a distribuciones de colas pesadas y en algunos casos asimétricas.

Jondeau, Poon y Rockinger (2007) resaltan la necesidad de hacer una correcta especificación de la distribución de los retornos. Estos autores proponen que modelar la asimetría y la curtosis permite tener una descripción más adecuada de la distribución de los retornos. Esta información adicional es útil para modelar datos de frecuencia alta o cuando se tienen retornos con distribuciones de colas muy pesadas. Tal enfoque puede ser utilizado, por ejemplo, en las herramientas empleadas por inversionistas para la toma de decisiones, dado que ellos deben tener en cuenta la asimetría y la curtosis de los retornos de los activos. En general, se espera que los inversionistas prefieran asimetrías positivas y presenten un comportamiento adverso a la curtosis; por otra parte, la modelación de los dos momentos adicionales puede mejorar el desempeño de las medidas del riesgo de mercado.

Este documento sigue la metodología propuesta inicialmente por Hansen (1994) y ampliada después por Jondeau y Rockinger (2003). Según este método, los errores estandarizados de un modelo ARMA-GARCH siguen una distribución t de Student asimétrica. Además, los autores proponen modelar los grados de libertad y el parámetro de asimetría de la distribución, de tal forma que los momentos condicionales tres y cuatro puedan ser calculados analíticamente a partir de estos parámetros variantes.

El resto de este artículo se divide en seis secciones. La sección I define formalmente el valor en riesgo (VaR) y el valor en riesgo condicional (CVaR). En la sección II se presentan las metodologías más utilizadas para modelar el VaR y también se muestran las propuestas metodológicas de Hansen (1994) y Jondeau y Rockinger (2003). Luego, en la sección III se exponen algunas de las pruebas de backtesting de mayor uso en la literatura y se incluye la prueba que recientemente propusieron Leccadito, Boffelli y Urga (2014). En la sección IV se presentan los modelos y las series que se utilizarán en este documento. Los resultados de las estimaciones del VaR y CVaR se pueden apreciar en la sección V, junto con las pruebas de backtesting para cada modelo. Por último, en la sección VI se realizan comentarios sobre las metodologías y resultados encontrados.

I. Valor en riesgo y valor en riesgo condicional

A. Valor en riesgo

El VaR es una medida muy aceptada y difundida entre quienes manejan portafolios de activos financieros, lo cual se debe principalmente a que condensa gran cantidad de información en un número. El dys.76.7_276_1.jpg de un portafolio es la máxima pérdida posible en el α × 100% de los mejores escenarios o, en forma equivalente, la mínima pérdida en el (1 – α) × 100% de los peores casos, para el periodo t, con información disponible hasta t – k y con un horizonte de pronósticos k.

Por ejemplo, asumiendo que los retornos de un activo siguen una distribución normal estándar, la máxima pérdida en el 95% de los mejores escenarios será el 1,65% del valor del portafolio.

Para facilitar el manejo y notación de las expresiones utilizadas en este documento se supone que rt corresponde a los retornos negativos de un activo. Por lo tanto, valores positivos altos de rt corresponden a pérdidas grandes.

El dys.76.7_276_1.jpg con horizonte de pronóstico k = 1 e información hasta t se define como:

dys.76.7_277_1.jpg
dys.76.7_277_2.jpg
dys.76.7_277_3.jpg

donde Fr–1(α) es la función inversa de la distribución acumulada de los retornos4.

A pesar de su gran aceptación, el VaR es objeto de numerosas críticas, principalmente la de no cumplir con la condición de subaditividad de Artzner, Delbaen, Eber y Heath (1999). Esta hace referencia al principio de diversificación, en el cual el riesgo de un portafolio debería ser menor o igual a la suma de los riesgos individuales de los activos que lo componen. Puesto que el VaR no siempre cumple con esta propiedad, podría llevar a resultados contradictorios para el administrador del riesgo.

B. Valor en riesgo condicional

Una medida del riesgo de mercado que efectivamente cumple con la condición de subaditividad es el valor en riesgo condicional (CVaR). Esta medida se define como el valor esperado de las pérdidas que exceden el VaR, formalmente:

dys.76.7_277_4.jpg

El CVaR se entiende como el promedio de los retornos en el (1 – α) × 100% de los peores casos y se obtiene a partir de:

dys.76.7_277_5.jpg

donde Fr (.) y fr (.) corresponden a la función de distribución y la de densidad de los retornos, respectivamente, y U es la pérdida máxima que puede sufrir el activo.

II. Metodología

En esta sección se presenta un resumen de los métodos tradicionales empleados para calcular el VaR y el CVaR y se expone la metodología propuesta para modelar la asimetría y la curtosis condicionales5.

A. Metodologías tradicionales

1. Simulación histórica

Este método obtiene el VaR a partir del cuantil empírico de los retornos del activo y se define como:

dys.76.7_278_1.jpg

y el CVaR:

dys.76.7_278_2.jpg

donde PE es el cuantil α-ésimo de la distribución empírica y 1(.) es la función indicadora, que toma el valor de 1 si la condición dentro del paréntesis se cumple.

Esta metodología no paramétrica es sensible al tamaño de la muestra utilizado y a la inclusión de nuevos datos. Además supone que todos los momentos de la distribución de los retornos son constantes.

2. Normalidad

Es el caso más sencillo en el que se hace algún supuesto sobre la distribución de los retornos. En esta metodología se asume que los errores son independiente e idénticamente distribuidos con media y varianza finitas. A partir de la ecuación (1) el VaR se deduce como:

dys.76.7_278_3.jpg
dys.76.7_279_1.jpg

donde Zα ≡ Φ–1(α) y Φ–1(α) es la función inversa de la distribución normal estándar acumulada.

Y el CVaR:

dys.76.7_279_2.jpg

Al igual que en la simulación histórica, el VaR por normalidad es ampliamente usado por su facilidad de estimación. Sin embargo, un hecho estilizado en las series financieras de alta frecuencia, es que presentan distribuciones con colas pesadas y asimetría. Estas series, en general, no siguen una distribución normal. Igualmente, esta metodología asume que todos los momentos de los retornos son constantes en el tiempo.

3. RiskMetrics

Este método propuesto por Morgan (1996) consiste en utilizar la técnica de suavizamiento exponencial, en la cual la varianza se determina como un promedio ponderado de los retornos cuadráticos pasados, es decir:

dys.76.7_279_3.jpg

suponiendo que las ponderaciones decaen exponencialmente de forma constante: αi+1 / αi = λ con λ ∊(0,1), y si n es grande, se puede demostrar que el componente de volatilidad de la serie se obtiene a partir de:

dys.76.7_279_4.jpg

RiskMetrics supone que los errores se distribuyen de forma normal estándar y, por consiguiente, el VaR y el CVaR se obtienen a partir de las ecuaciones (1) y (12) como:

dys.76.7_279_5.jpg

y

dys.76.7_280_1.jpg

donde σ̂ t+1|t es el pronóstico de la volatilidad calculado a través de la ecuación (12). Usualmente el parámetro l toma valores entre 0,94 y 0,99. A medida que λ es mayor, la varianza condicional tendrá un comportamiento más suave. Sin embargo, la varianza no condicional (volatilidad de largo plazo) para este método no está definida.

4. ARMA-GARCH

Esta metodología modela el primer y segundo momento condicional de la serie a partir de un proceso ARMA y uno GARCH, respectivamente. De manera formal:

dys.76.7_280_3.jpg
dys.76.7_280_4.jpg
dys.76.7_280_5.jpg

donde las ecuaciones (15) y (17) modelan la media y la varianza condicional de los retornos. Además, con el fin de garantizar la no negatividad de σ se imponen las siguientes restricciones: α0 > 0; αi ≥ 0 para i = 1,…,p; βj ≥ 0 para j = 1,…,q.

Si se definen dys.76.7_280_6.jpg como el pronóstico de la media y la volatilidad condicional obtenidos por medio de las ecuaciones (15) y (17) y se supone que zt ~ N(0,1), el VaR y el CVaR se calculan como:

dys.76.7_280_7.jpg

y

dys.76.7_280_8.jpg

B. Modelación de la asimetría y la curtosis

En general, para países en vías de desarrollo son escasos los trabajos que modelan momentos de orden superior al de la varianza y entre ellos se encuentra el de Durán, Lorenzo y Ruiz (2012), quienes utilizan un enfoque similar al de Hansen (1994). Los autores proponen un modelo GARCH con asimetría condicional autorregresiva y concluyen que el pronóstico del índice de precios al consumidor (IPC) para México mejora considerablemente al tener en cuenta momentos de orden superior al de la varianza. Lai (2012) analiza la dependencia de la asimetría condicional de los mercados de valores internacionales y encuentra que la asimetría en la volatilidad es notablemente mayor en los mercados desarrollados que en los emergentes.

Para ampliar la literatura enfocada en los países en vías de desarrollo que modelen el tercer y cuarto momento, se parte de un modelo ARMA-GARCH asumiendo que Zt sigue una distribución que incorpora colas pesadas y asimetría, con el fin de tener un mayor acercamiento a la evidencia empírica para datos de alta frecuencia.

En la siguiente sección se define la distribución t de Student asimétrica propuesta por Hansen (1994), la cual se utiliza como función de distribución de Zt, y posteriormente se presenta el concepto de densidad condicional autorregresiva para modelar la asimetría y la curtosis condicionales.

1. Distribución t de Student asimétrica

La función de densidad de una variable aleatoria distribuida t de Student asimétrica con v grados de libertad y con parámetro de asimetría λ es:

dys.76.7_281_1.jpg

donde

dys.76.7_281_2.jpg

y la función de distribución (CDF) es:

dys.76.7_282_1.jpg

donde T (x|v) es la CDF de la distribución estándar t con v grados de libertad y los términos α y b son:

dys.76.7_282_2.jpg

donde

dys.76.7_282_3.jpg

Jondeau et al. (2007) muestran que g(z|v, λ) está definida si el dominio de los parámetros es (v,λ)∊]2, + ∞[X]–1,1[. En la figura 1 se encuentra la comparación de una variable aleatoria distribuida t estándar con una distribuida t asimétrica para distintos grados de libertad y parámetros de asimetría.

El concepto de densidad condicional autorregresiva se aplica cuando los parámetros de grados de libertad y asimetría varían en el tiempo. Básicamente, la idea detrás de este enfoque es especificar una dinámica para los parámetros vt y λt. Siguiendo a Hansen (1994), Lambert y Laurent (2002), Jondeau y Rockinger (2003) y Jondeau et al. (2007), en este documento se consideran las siguientes especificaciones para los dos parámetros:

dys.76.7_282_4.jpg
dys.76.7_283_1.jpg
dys.76.7_283_2.jpg
Figura 1.

Comparación de una variable aleatoria distribuida t estándar y una distribuida t asimétrica

dys.76.7_283_3.jpg

con dys.76.7_284_1.jpg es la transformación logística.

Esto permite asegurar que los parámetros estén en el dominio para el cual la densidad está definida6. A partir de las series λt y vt, la asimetría y la curtosis condicionales de la distribución se obtienen de forma analítica usando las ecuaciones (25) y (26), respectivamente:

dys.76.7_284_2.jpg
dys.76.7_284_3.jpg

donde

dys.76.7_284_4.jpg

Existen varios aspectos por resaltar de la distribución t de Student asimétrica. Por ejemplo, si λ = 0, la función de densidad presentada en (20) toma la forma de una t de Student tradicional y, además, si v → ∞, esta se reduce a una distribución normal estándar.

2. VaR y CVaR

Para capturar la presencia de colas pesadas y asimetría, se asume que zt sigue una distribución t asimétrica, en donde el tercer y cuarto momento son modelados a partir de diferentes especificaciones para los parámetros de grados de libertad y asimetría. Esto permite que la distribución varíe en el tiempo y sea más flexible. Así, según esta metodología, el VaR y el CVaR son:

dys.76.7_285_1.jpg

y

dys.76.7_285_2.jpg

donde dys.76.7_285_3.jpg es la función inversa de la distribución t asimétrica7.

En este documento, además de incorporar la función de distribución t asimétrica para zt, se incluyeron algunas especificaciones adicionales de la volatilidad, con el objetivo de modelar mejor las asimetrías de los retornos sobre la volatilidad de las series.

Es de esperar que el mercado reaccione de forma distinta ante un retorno negativo y uno positivo (leverage effect). En el primer caso puede que la reacción del mercado sea más fuerte, dado que los retornos negativos no son deseados por los inversionistas. Específicamente, las definiciones de volatilidad utilizadas para capturar dichas asimetrías son:

dys.76.7_285_4.jpg
dys.76.7_285_5.jpg
dys.76.7_285_6.jpg

Las especificaciones de volatilidad de las ecuaciones (30), (31) y (32) fueron propuestas por Hansen (1994), Jondeau et al. (2007) y Ding, Granger y Engle (1993), respectivamente.

III. Backtesting

Las pruebas de backtesting permiten verificar si el desempeño del VaR es adecuado. Para esto se construye la serie de excepciones o fallas It+1|t que se define como:

dys.76.7_286_1.jpg

de forma tal que It+1|t se distribuye Bernoulli(p) con p = 1–α = E(It+1|t(α)). Si el VaR está bien especificado, esta serie cumple con dos propiedades:

  • 1) Cubrimiento incondicional: esta propiedad hace referencia a que la probabilidad con la que se generan pérdidas superiores al VaR (excepciones) debe ser exactamente 1–α si esta probabilidad es mayor (menor), el riesgo se está subestimando (sobrestimando).

  • 2) Independencia: es la propiedad de que cualquier par de observaciones dys.76.7_286_2.jpg deben ser independientes.

A continuación se describen las pruebas de backtesting utilizadas en este documento.

A. Kupiec

Esta prueba verifica el cumplimiento de la propiedad de cubrimiento incondicional utilizando la hipótesis nula H0: p = 1–α, la cual se puede contrastar usando una prueba de razón de verosimilitud, definida como:

dys.76.7_286_3.jpg

donde x es el número de excepciones, m el número de observaciones incluidas en el backtesting y dys.76.7_286_4.jpg. Según la hipótesis nula, la distribución asintótica de esta prueba es X2 con un grado de libertad.

B. Pruebas de Christoffersen

Estas pruebas verifican las dos propiedades comentadas anteriormente. Para tal efecto, Christoffersen, Diebold y Santomero (2003) suponen que las realizaciones de la sucesión de variables aleatorias dys.76.7_287_1.jpg siguen una cadena de Markov de orden uno, de modo que la matriz de transición de la serie es:

dys.76.7_287_2.jpg

donde dys.76.7_287_3.jpg son las probabilidades de transmisión de la cadena de Markov, tales que πi0 + πi1 = 1, con lo cual la matriz de transición se puede reescribir como:

dys.76.7_287_4.jpg

y cuya función de verosimilitud es:

dys.76.7_287_5.jpg

mij es el número de observaciones en las cuales It+1|t(α) = j e It|t–1 (α) = i, con m00 + m01 + m10 + m11= m, siendo m el número total de observaciones usadas en el backtesting, donde el estimador de máxima verosimilitud de Π1 es:

dys.76.7_287_6.jpg

Con el supuesto de independencia π01 = π11 = π, la matriz de transición toma la forma:

dys.76.7_287_7.jpg

Christoffersen et al. (2003) prueban la hipótesis nula H0 : π01 = π11 con una prueba de razón de verosimilitud que se distribuye asintóticamente χ2 con un grado de libertad:

dys.76.7_288_1.jpg

donde l(.) = log(L(.)) y dys.76.7_288_6.jpg es la matriz de transición Π0 evaluada en dys.76.7_288_7.jpg, y dys.76.7_288_2.jpg.

La propiedad de cubrimiento incondicional que anteriormente se verificó mediante la prueba de Kupiec, también puede ser calculada en el contexto de Christoffersen. En esta prueba la hipótesis nula es H0: p = 1 – α y su estadístico se basa en una prueba de razón de verosimilitud:

dys.76.7_288_3.jpg

donde Πp corresponde a la matriz de transición Π0 evaluada en π = p = (1 – α). Si se desea probar simultáneamente las propiedades de cubrimiento incondicional e independencia, se debe cumplir que H0: π01 = π11 = p, hipótesis que se puede probar utilizando la siguiente prueba de razón de verosimilitud:

dys.76.7_288_4.jpg

Según la hipótesis nula, el estadístico LRcc se distribuye asintóticamente χ2 con dos grados de libertad. Christoffersen et al. (2003) demuestran que este estadístico también se puede calcular como:

dys.76.7_288_5.jpg

C. Backtesting sobre el CVaR

En Becerra y Melo (2008) se menciona una prueba para evaluar el CVaR, la cual parte del hecho de que la diferencia entre el promedio de las pérdidas mayores al VaR y el CVaR debería ser cero. Para esto se construye la serie de excesos Ht|t–1(pha) definida como:

dys.76.7_289_1.jpg

Si el CVaR está bien especificado, Ht|t–1(α) no debería ser significativamente diferente de cero. La hipótesis nula Ht|t–1(α) = 0 se evalúa como lo advierten McNeil, Frey y Embrechts (2010), a partir de un estadístico t calculado con técnicas bootstrap. Estos autores recomiendan ponderar a dys.76.7_289_2.jpg, dado que en general este proceso tiene una varianza que no es constante en el tiempo.

D. Backtesting multinivel

Las estimaciones VaR usualmente se realizan para diferentes valores α. En este contexto, Leccadito et al. (2014) proponen dos pruebas para realizar backtesting multinivel. Es decir, en lugar de realizar pruebas de backtesting para cada nivel α por separado, ellos prueban de forma conjunta si el VaR está bien especificado para distintos valores α. A continuación se describe la metodología propuesta.

Suponiendo que se tienen K diferentes niveles de confianza para estimar el VaR: α1 > α2 > … αk, tales que dys.76.7_289_3.jpg, se construye la siguiente serie de fallas:

dys.76.7_289_4.jpg

Adicionalmente, es necesario construir la serie Nt, tal que Nt = i cuando Ji,t+1|t = 1 para i = 1,…,K.

La primera prueba que Leccadito et al. (2014) plantean es una generalización del test de Christoffersen (1998). En el caso multinivel se considera la siguiente matriz de transición:

dys.76.7_289_5.jpg

donde πi,j = P(Jj,t+1|t = 1| Ji,t|t–1 = 1. Con la hipótesis de independencia, todas las filas en la matrix Π son iguales: Ho,ind: π0,j = π1,j = … = πk,j para j = 0,…,K – 1. La función log de verosimilitud asociada a esta prueba es:

dys.76.7_290_1.jpg

por lo cual, el estadístico de razón de verosimilitud es:

dys.76.7_290_2.jpg

con dys.76.7_290_3.jpg, donde Ti,j denota el número de observaciones en la muestra de Nt en las cuales las fallas pasan del caso i al caso j, con i,j = 0,…,K, y Ti es el número total de fallas de tipo i. Esta prueba se distribuye asintóticamente χ2 con K2 grados de libertad.

En este contexto, la propiedad de cubrimiento incondicional se evalúa usando la siguiente prueba de razón de verosimilitud:

dys.76.7_290_4.jpg

donde θi = αiαi+1 para i = 0,1,…,K. Si K = 1 se obtiene el test de Kupiec ya descrito. Esta prueba se distribuye asintóticamente χ2 con K grados de libertad.

Por último, en la prueba de cubrimiento condicional donde simultáneamente se prueban las propiedades de independencia y cubrimiento incondicional, la hipótesis nula es: H0,cc : πo,j = π1,j = … = πK,j = θj para j = 0,…,K – 1. En este caso, la prueba de razón de verosimilitud es:

dys.76.7_290_5.jpg

Esta prueba se distribuye asintóticamente χ2 con K2 + K grados de libertad.

La segunda prueba propuesta por Leccadito et al. (2014) es la multinivel de Pearson, en la cual se considera la siguiente distribución bivariada:

dys.76.7_291_1.jpg

Según la hipótesis nula de cubrimiento condicional, se tiene que:

dys.76.7_291_2.jpg

El estadístico para esta prueba es:

dys.76.7_291_3.jpg

con

dys.76.7_291_4.jpg

donde dys.76.7_291_5.jpg es el número de observaciones en la muestra para las cuales Nt = x, Ntj = y.

El estadístico Xm corresponde a la suma de variables aleatorias dependientes χ2. Su distribución no es estándar, incluso para muestras grandes. Leccadito et al. (2014) plantean utilizar un procedimiento de Montecarlo para calcular los valores críticos asociados a esta prueba.

E. Funciones de pérdida

Además de probar el cumplimiento de las propiedades de la serie It+1|t(α) es conveniente tener en cuenta las magnitudes de las pérdidas superiores al VaR. Por ejemplo, cuando se cuente con dos estimaciones del VaR apropiadas para un activo, se preferiría aquella que genere las menores pérdidas. En la literatura se encuentran diversas pruebas que evalúan las pérdidas del VaR, que en general asignan un puntaje a través de una función de pérdida. La idea en este enfoque es generar una función de la forma:

dys.76.7_292_1.jpg

Esta función debe cumplir con la propiedad dys.76.7_292_2.jpg, de tal forma que implique mayores valores cuando existe una pérdida superior al VaR.

Posteriormente, se construye un índice de desempeño definido como:

dys.76.7_292_3.jpg

En este contexto, el mejor modelo es aquel que minimiza el índice C. Algunas de las funciones propuestas para este índice son:

  • 1) La frecuencia de pérdidas en las colas ajustada por el tamaño (López II) es propuesta por López (1998). Según esta medida la función de Ct se define como:

    dys.76.7_292_4.jpg

  • 2) Caporin (2003) argumenta que las funciones propuestas por López (1998) tienden a descartar modelos apropiados para la medición del riesgo, cuando estos presentan excepciones de gran tamaño. Por lo tanto, propone el uso de las siguientes funciones de pérdidas menos sensibles a valores atípicos, siendo g(.)=0 y f (.)=Fi para i =1,2,3, con:

    dys.76.7_292_5.jpg

IV. Ejercicio empírico

En este documento se calculan el VaR y CVaR de las siguientes series: el índice general de la Bolsa de Valores de Colombia (IGBC) desde 02/01/2008 hasta 21/02/2014, la tasa de cambio representativa del mercado (TRM) desde 02/01/2008 hasta 21/02/2014 y los TES a veinte años desde 20/03/2009 hasta 21/02/2014. En total se consideraron doce métodos para modelar las medidas de riesgo, seis de los cuales incluyen la función de distribución t de Student asimétrica y, de estos, cuatro modelan la asimetría y la curtosis. Finalmente, los seis restantes corresponden a métodos tradicionales (simulación histórica, normalidad, RiskMetrics y ARMA-GARCH8) y dos de ellos consideran que los errores estandarizados siguen una función de distribución t de Student (ARMAGARCH y ARMA-APGARCH). Las seis metodologías alternativas son:

  • 1) Jondeau et al. (2007): esta metodología considera un ARMA(p,q) para modelar el primer momento de los retornos, mientras que para el segundo momento se utiliza la siguiente especificación:

    dys.76.7_293_1.jpg; por otra parte, se asume que el error estandarizado Zt sigue una distribución t asimétrica con la dinámica 3 (ecuación 24) para los parámetros vt y λt.

  • 2) Hansen (1994): en este caso se utiliza un ARMA(p,q) para el primer momento de los retornos, la varianza se modela usando:

    dys.76.7_293_2.jpg y los errores Zt se distribuyen t asimétricos con la dinámica 2 (ecuación 23).

  • 3) Jondeau et al. (2007) con v y λ constantes: modela los primeros dos momentos de forma similar a la metodología 1 de Jondeau et al. (2007), aunque se asume que Zt sigue una distribución t asimétrica con v y λ constantes en el tiempo.

  • 4) Jondeau y Rockinger (2003): en este caso se utiliza un método ARMA(p,q) para el primer momento de rt, mientras que la varianza condicional está descrita por: dys.76.7_293_3.jpg se distribuye t asimétrica utilizando la dinámica 1 (ecuación 22) para los parámetros de la distribución.

  • 5) ARMA-APGARCH: dada la posible existencia de un efecto de apalancamiento en las series, en este método se utiliza un APGARCH para la volatilidad: dys.76.7_294_1.jpg. Los demás componentes se modelan igual que la metodología 1 de Jondeau et al. (2007).

  • 6) ARMA-APGARCH constante: modela el primer y segundo momento de forma análoga a la metodología 5 (ARMA-APGARCH), mientras que Zt sigue una distribución t asimétrica, con v y λ constantes.

V. Resultados

En las figuras A4.1 a A4.12 (anexo 4) se encuentran los gráficos de backtesting del VaR para el IGBC, la TRM y los TES para cada metodología empleada con un horizonte de pronóstico de un día y α = 0,95, α = 0,99 y α = 0,9959.

La línea continua corresponde a los retornos, la punteada al VaR y los círculos negros a la serie de excesos. En general, aquellas series que modelan la varianza condicional presentan un mejor comportamiento y las que modelan el tercer y cuarto momento de los retornos incorporan comportamientos asociados a distribuciones de colas más pesadas que las metodologías tradicionales10.

Los cuadros A2.1, A2.2 y A2.3 (anexo 2) muestran las pruebas de backtesting propuestas por Christoffersen et al. (2003) para el VaR del IGBC, la TRM y los TES. En estos cuadros se presentan los valores p para los estadísticos de razón de verosimilitud LRuc, LRind, LRcc. En el cuadro A2.4 se presentan los resultados del test empleado para verificar el desempeño del CVaR de cada serie. Tanto en los cuadros de especificación de Christoffersen como en los del CVaR, se encuentran los resultados para los tres niveles de confianza utilizados en el ejercicio (α1 = 0,95, α2 = 0,99 y α3 = 0,995).

Las pruebas de backtesting del VaR para el IGBC (cuadro A2.1) no muestran indicios de una mala especificación para siete de las doce metodologías, específicamente para Jondeau et al. (2007), Hansen (1994), Jondeau et al. (2007) constante, Jondeau y Rockinger (2003), ARMA-APGARCH, ARMA-APGARCH constante y ARMA-GARCH-t de Student. Este hecho se verifica por el test de Markov multinivel (cuadro A2.5), ya que al evaluar la especificación del valor en riesgo para los tres niveles de confianza en forma conjunta, no muestra evidencia de no cumplimiento del supuesto de cubrimiento incondicional o del de independencia. Contrariamente, este test señala que las metodologías restantes (RiskMetrics, normalidad, ARMA-GARCH, simulación histórica y ARMAAPGARCH-t de Student) no cumplen el supuesto de cubrimiento incondicional, un resultado que se repite con la prueba de Pearson (cuadro A2.6).

Por otra parte, para el VaR de la TRM (cuadro A2.2), únicamente las metodologías de Hansen (1994) y ARMA-GARCH no muestran evidencia de mala especificación según los test presentados. En este caso se encuentra evidencia para rechazar la hipótesis de cubrimiento incondicional para la mayoría de los modelos. En cuanto al VaR de los TES (cuadro A2.3), se encuentra que nueve de las doce metodologías (Jondeau, et al., 2007; Hansen, 1994; Jondeau et al., 2007 constante; Jondeau y Rockinger, 2003; ARMA-APGARCH, ARMA-APGARCH constante, ARMA-GARCH, ARMA-APGARCH-t de Student y ARMA-GARCH-t de Student) no presentan evidencia de mala especificación de acuerdo con las pruebas empleadas, mientras que las metodologías RiskMetrics, de normalidad y de simulación histórica rechazan la hipótesis nula de cubrimiento condicional.

Respecto al desempeño del CVaR, los resultados presentados en los cuadros A2.4 a A2.6 indican que no existe evidencia de una mala especificación para todas las metodologías consideradas.

En los cuadros A2.5 y A2.6 se muestran los p-values asociados a las pruebas de especificación conjunta del VaR (Markov y Pearson multinivel) para los tres niveles de confianza empleados. Para el IGBC se encuentra que en las metodologías de RiskMetrics, normalidad, ARMA-GARCH y simulación histórica se rechaza la hipótesis nula de cubrimiento condicional del test de Pearson y de cubrimiento incondicional de la prueba de Markov, mientras que en el VaR de la TRM y de los TES por RiskMetrics, normalidad y simulación histórica hay evidencia de mala especificación de acuerdo con las dos pruebas multinivel.

En los cuadros A3.1, A3.2 y A3.3 (anexo 3) se presentan las funciones de pérdida de López II y las de Caporin (F1, F2 y F3). En general, se encuentra que las metodologías que utilizan la función de distribución t asimétrica presentan menores puntuaciones en las funciones de pérdida.

Ahora bien, tomando en cuenta únicamente las metodologías que tienen un desempeño adecuado según las pruebas de Christoffersen y las multinivel, se tiene que las metodologías con mejores resultados son: Jondeau et al. (2007) para las series IGBC y TES y Hansen (1994) para la TRM. Cabe señalar que en los casos del VaR de la TRM y de los TES, con α = 0,95, la mejor metodología es ARMA-GARCH; sin embargo, al incrementar el nivel de confianza del VaR (α = 0,99 y α = 0,995) los métodos de Hansen (1994) y de Jondeau et al. (2007), respectivamente, presentan los mejores resultados en cuanto al desempeño de las funciones de pérdida.

Partiendo de las metodologías que presentan el mejor desempeño en el VaR para el IGBC, la TRM y los TES, en las figuras A5.1 a A5.3 (anexo 5) se presentan la curtosis y la asimetría condicionales11, junto a su densidad empírica. En dichas figuras se observa que para las tres series empleadas, los momentos tres y cuatro presentan alta volatilidad a lo largo del tiempo. La curtosis llega a tomar valores muy altos, seguidos de periodos en los cuales tiene caídas repentinas. Este hecho no puede ser modelado con las metodologías tradicionales, dado que suponen que el tercer y cuarto momento son invariantes en el tiempo.

Por último, se realizó la extensión del pronóstico a diez días para las metodologías especificadas y se obtuvieron resultados similares a Melo y Becerra (2006). En general, ninguno de los modelos presenta una buena especificación ni un desempeño adecuado, debido al aumento de incertidumbre a medida que se incrementa el horizonte de pronóstico. Teniendo en cuenta esto, no se incluyeron en el documento tales resultados.

En resumen, es adecuado el desempeño de las medidas del riesgo que utilizan la distribución t de Student asimétrica. Asimismo, estas metodologías presentan mejores desempeños en cuanto a las funciones de pérdida. Específicamente, las técnicas con mejores resultados son las dos de Jondeau et al. (2007) y la de Hansen (1994), las cuales modelan la asimetría y la curtosis condicionales. Por otro lado, la mayoría de los ejercicios relacionados con las metodologías tradicionales para calcular el VaR (RiskMetrics, normalidad, ARMA-GARCH, simulación histórica) presentan evidencia de una mala especificación para niveles altos de confianza (α = 0,99512).

En el análisis del riesgo de mercado es importante realizar evaluaciones para eventos muy extremos (niveles de confianza muy altos). A este respecto, los anteriores resultados indican que cuando se presenta este tipo de eventos, las medidas VaR y CVaR deben considerar metodologías que modelen de forma apropiada las dinámicas de las series y las colas pesadas de las distribuciones en consideración. Los ejercicios realizados muestran que las metodologías que logran modelar estos comportamientos de forma adecuada, son las que utilizan la distribución t asimétrica y que modelan la asimetría y la curtosis condicionales.

VI. Comentarios finales

En este documento se calculó el VaR y el CVaR para tres series financieras colombianas, utilizando metodologías tradicionales y otras que incluyen la modelación de la asimetría y la curtosis condicionales y, además, se consideran las distribuciones asimétricas. Posteriormente se realizaron varias pruebas de especificación para cada medida del riesgo y se calcularon varias funciones de pérdida para evaluar el desempeño de cada método.

En síntesis, la mayoría de las metodologías utilizadas para calcular el VaR y el CVaR no presentaron evidencia de una mala especificación para el IGBC y los TES. En el caso de la TRM se debe tener más cuidado, ya que únicamente dos metodologías (Hansen, 1994, y ARMA-GARCH) logran modelar de forma adecuada las medidas del riesgo. Cabe señalar que para las tres series empleadas el desempeño de las metodologías que incorporan distribuciones asimétricas y que modelan la asimetría y la curtosis condicionales es, en general, superior al de las metodologías tradicionales. Este resultado es de especial utilidad, porque permite obtener una medida del riesgo con mejor desempeño, que tiene el potencial de modelar comportamientos asimétricos y de colas pesadas.

Reconocimientos

Los autores expresan sus profundos agradecimientos al Comité Editorial de la revista Desarrollo y Sociedad por sus oportunas sugerencias a esta investigación, así como a los evaluadores, cuyos comentarios permitieron fortalecer los resultados encontrados. La investigación desarrollada para escribir este artículo no tuvo ninguna financiación institucional.

Anexos

Anexo 1. Pruebas de raíz unitaria y de efectos ARCH

Cuadro A1.1.

Pruebas de raíz unitaria sobre los retornos de las series

Serie ADF KPSS
Estadística Valor crítico al 5% Estadística Valor crítico al 5%
IGBC -24,918 -2,86 0,165 0,463
TRM -24,711 -2,86 0,109 0,463
TES -23,093 -2,86 0,198 0,463
Cuadro A1.2.

Prueba LM de efectos ARCH

Serie Estadística P-value
IGBC 344,67 < 0,0001
TRM 235,02 < 0,0001
TES 76,78 < 0,0001

Anexo 2. Pruebas de backtesting

Cuadro A2.1.

Pruebas de especificación de Christoffersen para el VaR del IGBC entre junio de 2011 y febrero de 2014 con horizonte de pronóstico de un día

LRuc LRind LRcc LRuc LRind LRcc LRuc LRind LRcc
α = 0,95 α = 0,99 α = 0,995
P-Value P-Value P-Value P-Value P-Value P-Value P-Value P-Value P-Value
Jondeau et al. (2007) 0,6234 0,7546 0,8442 0,8296 0,7389 0,9243 0,8793 0,8679 0,975
Hansen (1994) 0,9571 0,5603 0,8428 0,8296 0,7389 0,9243 0,8793 0,8679 0,975
Jondeau et al. (2007) con y constantes 0,8167 0,5352 0,8032 0,8581 0,6971 0,9124 0,8793 0,8679 0,975
Jondeau y Rockinger (2003) 0,8997 0,6401 0,8894 0,8296 0,7389 0,9243 0,8793 0,8679 0,975
ARMA-APGARCH 0,4495 0,0377 0,0868 0,5793 0,6562 0,7767 0,6958 0,8244 0,9039
ARMA-APGARCH constante 0,6831 0,0499 0,1346 0,8296 0,7389 0,9243 0,6958 0,8244 0,9039
RiskMetrics 0,3534 0,3579 0,426 0,0000 0,2613 0,0001 0,0000 0,3703 0,0000
Normalidad 0,8167 0,5352 0,8032 0,0001 0,2862 0,0002 0,0000 0,3128 0,0000
ARMA-GARCH 0,9571 0,5864 0,8612 0,0006 0,3408 0,0018 0,0008 0,5395 0,0029
Simulación histórica 0,205 0,6824 0,4119 0,0044 0,4013 0,0123 0,0008 0,5395 0,0029
ARMA-APGARCH -t de Student 0,5599 0,0435 0,1099 0,0252 0,4677 0,0628 0,0028 0,5773 0,0097
ARMA-GARCH -t de Student 0,5599 0,9557 0,8424 0,2071 0,5773 0,3863 0,8793 0,8679 0,975

[i] Pruebas de cubrimiento incondicional, independencia y cubrimiento condicional para el IGBC.

Cuadro A2.2.

Pruebas de especificación de Christoffersen para el VaR de la TRM entre junio de 2011 y febrero de 2014 con horizonte de pronóstico de un día

LRuc LRind LRcc LRuc LRind LRcc LRuc LRind LRcc
α = 0,95 α = 0,99 α = 0,995
P-Value P-Value P-Value P-Value P-Value P-Value P-Value P-Value P-Value
Jondeau et al. (2007) con y constantes 0,2923 0,1272 0,1795 0,0066 0,9559 0,0250 0,0105 1,0000 0,0377
ARMA-APGARCH constante 0,2132 0,1422 0,1570 0,0066 0,9559 0,0250 0,0105 1,0000 0,0377
RiskMetrics 0,0063 0,8546 0,0235 0,0000 0,6372 0,0001 0,0002 0,2097 0,0004
Normalidad 0,0039 0,5306 0,0126 0,0006 0,4560 0,0021 0,0028 0,1369 0,0037
ARMA-GARCH 0,9571 0,0610 0,1728 0,5793 0,6562 0,7767 0,8793 0,8679 0,9750
Simulación histórica 0,0773 0,2054 0,0942 0,0002 0,5143 0,0008 0,0008 0,1713 0,0014
ARMA-APGARCH -t de Student 0,0041 0,3128 0,0097 0,0365 0,9118 0,1116 0,4479 0,9118 0,7452
ARMA-GARCH -t de Student 0,0041 0,5143 0,0130 0,0365 0,9118 0,1116 0,4479 0,9118 0,7452

[i] Pruebas de cubrimiento incondicional, independencia y cubrimiento condicional para la TRM.

Cuadro A2.3.

Pruebas de especificación de Christoffersen para el VaR del TES entre junio de 2011 y febrero de 2014 con horizonte de pronóstico de un día

LRuc LRind LRcc LRuc LRind LRcc LRuc LRind LRcc
α = 0,95 α = 0,99 α = 0,995
P-Value P-Value P-Value P-Value P-Value P-Value P-Value P-Value P-Value
Jondeau et al. (2007) 0,9571 0,5603 0,8428 0,5278 0,7813 0,7883 0,4479 0,9118 0,7452
Hansen (1994) 0,6831 0,4633 0,7031 0,5278 0,7813 0,7883 0,4479 0,9118 0,7452
Jondeau et al. (2007) con y constantes 0,8167 0,5104 0,7839 0,5278 0,7813 0,7883 0,8793 0,8679 0,975
Jondeau y Rockinger (2003) 0,7584 0,079 0,2038 0,5278 0,7813 0,7883 0,4479 0,9118 0,7452
ARMA-APGARCH 0,4495 0,3775 0,5089 0,5278 0,7813 0,7883 0,8793 0,8679 0,975
ARMA-APGARCH constante 0,9571 0,061 0,1728 0,5278 0,7813 0,7883 0,4479 0,9118 0,7452
RiskMetrics 0,3534 0,3388 0,4114 0,0252 0,4677 0,0628 0,0028 0,5773 0,0097
Simulación histórica 0,4495 0,0351 0,0816 0,0017 0,3703 0,0049 0,0028 0,5773 0,0097
ARMA-APGARCH -t de Student 0,9571 0,061 0,1728 0,5278 0,7813 0,7883 0,4479 0,9118 0,7452
ARMA-GARCH -t de Student 0,9571 0,5603 0,8428 0,5278 0,7813 0,7883 0,4479 0,9118 0,7452

[i] Pruebas de cubrimiento incondicional, independencia y cubrimiento condicional para el TES.

Cuadro A2.4.

Backtesting del CVaR para el IGBC, la TRM y los TES entre junio de 2011 y febrero de 2014 con horizonte de pronóstico de un día

IGBC TRM TES
α = 0,95 α = 0,99 α = 0,995 α = 0,95 α = 0,99 α = 0,995 α = 0,95 α = 0,99 α = 0,995
P-Value P-Value P-Value P-Value P-Value P-Value P-Value P-Value P-Value
Jondeau et al. (2007) 0,483 0,509 0,507 0,512 0,538 - 0,482 0,48 0,441
Hansen (1994) 0,485 0,507 0,523 0,494 0,541 0,488 0,464 0,465 0,502
Jondeau et al. (2007) con y constantes 0,49 0,509 0,493 0,528 0,454 - 0,464 0,455 0,542
Jondeau y Rockinger (2003) 0,484 0,487 0,49 0,511 0,498 - 0,479 0,474 0,473
ARMA-APGARCH 0,448 0,498 0,552 0,529 - - 0,455 0,502 0,545
ARMA-APGARCH constante 0,461 0,453 0,474 0,511 0,54 - 0,472 0,489 0,427
RiskMetrics 0,464 0,476 0,454 0,491 0,479 0,456 0,468 0,475 0,494
Normalidad 0,457 0,474 0,469 0,49 0,466 0,46 0,462 0,458 0,453
ARMA-GARCH 0,433 0,458 0,479 0,481 0,493 0,461 0,45 0,476 0,462
Simulación histórica 0,475 0,489 0,467 0,486 0,497 0,491 0,481 0,489 0,474
ARMA-APGARCH -t de Student 0,47 0,46 0,46 0,509 0,547 0,612 0,482 0,511 0,433
ARMA-GARCH -t de Student 0,474 0,518 0,488 0,497 0,562 0,607 0,452 0,521 0,513

[i] P-Values de la prueba de McNeil et al. (2010) de desempeño del CVaR.

Cuadro A2.5.

Pruebas de Markov multinivel para el IGBC, la TRM y los TES entre junio de 2011 y febrero de 2014 con horizonte de pronóstico de un día

IGBC TRM TES
LRuc LRind LRcc LRuc LRind LRcc LRuc LRind LRcc
P-Value P-Value P-Value P-Value P-Value P-Value P-Value P-Value P-Value
Jondeau et al. (2007) 0,9692 0,9889 0,9851 0,0489 1 0,8481 0,868 1 0,9999
Hansen (1994) 0,995 1 1 0,2594 0,9999 0,941 0,7685 1 0,9994
Jondeau et al. (2007) con y constantes 0,9775 0,9904 0,9877 0,0323 1 0,6863 0,8272 1 0,9996
Jondeau y Rockinger (2003) 0,9971 0,9856 0,9847 0,065 0,9996 0,6971 0,8947 0,9968 0,9918
ARMA-APGARCH 0,8923 0,9983 0,9949 0,0014 10.000 0,2532 0,6087 1 0,9952
ARMA-APGARCH constante 0,7954 0,9994 0,9955 0,0313 10.000 0,695 0,868 0,9936 0,9842
RiskMetrics 0 0,9873 0,0013 0,0002 0,8318 0,0087 0,0293 0,9716 0,331
Normalidad 0 0,9955 0 0,0027 0,6264 0,02 0,0008 0,9836 0,0564
ARMA-GARCH 0,0005 0,9888 0,0461 0,8349 0,9926 0,9795 0,1595 0,9997 0,864
Simulación histórica 0,0093 0,9914 0,244 0,6331 0,0178 0,0018 0,008 0,9735 0,1782
ARMA-APGARCH -t de Student 0,0253 0,999 0,4818 0,0071 1 0,3844 0,868 0,9936 0,9842
ARMA-GARCH -t de Student 0,358 1 0,9833 0,0071 0,9472 0,1354 0,868 1 0,9999

[i] Prueba de especificación multinivel de Markov con α = 0,95, α = 0,99 y α = 0,995.

Cuadro A2.6.

Pruebas de Pearson multinivel para el IGBC, la TRM y los TES entre junio de 2011 y febrero de 2014 con horizonte de pronóstico de un día

IGBC TRM TES
m = 1 m = 5 m = 10 m = 1 m = 5 m = 10 m = 1 m = 5 m = 10
P-Value P-Value P-Value P-Value P-Value P-Value P-Value P-Value P-Value
Jondeau et al. (2007) 0,599 0,8774 0,9549 0,4433 0,3933 0,359 0,9741 0,6229 0,7134
Hansen (1994) 0,9982 0,7294 0,9279 0,4957 0,3768 0,3859 0,915 0,5594 0,6107
Jondeau et al. (2007) con y constantes 0,6236 0,5389 0,7718 0,4239 0,5464 0,6112 0,9559 0,8111 0,7877
Jondeau y Rockinger (2003) 0,6226 0,8228 0,9491 0,4448 0,5127 0,5782 0,9338 0,6294 0,7149
RiskMetrics 0,0021 0,0001 0,0001 0,0019 0,0001 0,0001 0,0845 0,0583 0,0032
Normalidad 0,0007 0,0001 0,0001 0,0019 0,0001 0,0001 0,0613 0,0008 0,0001
ARMA-GARCH 0,0614 0,0041 0,0002 0,851 0,2545 0,5097 0,4677 0,4857 0,3523
Simulación histórica 0,0664 0,0033 0,0029 0,0001 0,0001 0,0001 0,0723 0,0045 0,0002
ARMA-APGARCH -t de Student 0,0873 0,0165 0,0008 0,2242 0,2967 0,3046 0,8921 0,6052 0,7061
ARMA-GARCH -t de Student 0,294 0,2955 0,1837 0,1245 0,2967 0,3072 0,9741 0,6229 0,6736

Anexo 3. Funciones de pérdida

Cuadro A3.1.

Pruebas de función de pérdida para el VaR del IGBC entre junio de 2011 y febrero de 2014 con horizonte de pronóstico de un día

López F1 F2 F3 López F1 F2 F3 López F1 F2 F3
Con α = 0,95 Con α = 0,99 Con α = 0,995
Jondeau et al. (2007) 69,067 17,29 27,34 25,831 14,018 2,311 3,46 5,38 6,36 1,118 1,181 3,173
Hansen (1994) 76,208 19,998 32,797 28,079 15,833 2,764 4,588 5,939 7,578 1,39 1,711 3,703
Jondeau et al. (2007) con y constantes 75,227 18,526 28,731 27,591 15,734 2,565 3,835 5,912 7,011 1,255 1,443 3,462
Jondeau y Rockinger (2003) 72,65 18,512 28,93 27,169 14,723 2,522 3,864 5,746 6,937 1,245 1,42 3,433
ARMA-APGARCH 83,415 20,9 33,124 30,606 17,305 2,76 4,135 6,271 8,002 1,255 1,435 3,482
ARMA-APGARCH constante 80,241 21,624 36,346 29,382 17,327 3,486 6,229 6,648 9,923 1,831 2,816 4,108
RiskMetrics 92,362 27,697 47,837 33,781 47,434 11,129 19,373 17,292 37,877 8,345 14,514 13,691
Normalidad 86,452 23,373 41,059 31,648 44,436 9,464 15,49 16,94 37,561 6,746 11,152 12,851
ARMA-GARCH 78,256 19,919 32,118 29,498 35,526 6,413 9,998 12,686 24,714 4,326 6,821 9,005
Simulación histórica 94,269 26,678 44,425 34,063 31,598 5,807 8,089 12,166 22,508 3,692 5,181 8,442
ARMA-APGARCH -t de Student 70,27 29,445 35,494 38,674 10,901 2,039 5,444 61,93 17,516 2,255 9,008 8,103
ARMA-GARCH -t de Student 70,262 21,627 33,502 35,748 17,241 9,293 5,76 23,537 34,337 3,558 11,489 53,351

[i] Funciones de pérdidas (López, F1, F2 y F3) para el IGBC, con horizonte de pronóstico a un día.

Cuadro A3.2.

Pruebas de función de pérdida para el VaR de la TRM entre junio de 2011 y febrero de 2014 con horizonte de pronóstico de un día

López F1 F2 F3 López F1 F2 F3 López F1 F2 F3
Con α = 0,95 Con α = 0,99 Con α = 0,995
Jondeau et al. (2007) 37,371 10,410 3,257 6,939 5,061 0,492 0,053 0,497 0,000 0,000 0,000 0,000
Hansen (1994) 36,989 12,109 4,198 7,871 7,122 0,816 0,118 0,791 1,004 0,086 0,005 0,060
Jondeau et al. (2007) con y constantes 27,997 5,913 1,353 4,137 1,000 0,022 0,000 0,019 0,000 0,000 0,000 0,000
Jondeau y Rockinger (2003) 35,854 8,863 2,540 5,936 4,027 0,371 0,031 0,330 0,000 0,000 0,000 0,000
ARMA-APGARCH 19,927 4,555 1,109 3,456 0,000 0,000 0,000 0,000 0,000 0,000 0,000 0,000
ARMA-APGARCH constante 27,358 5,542 1,538 4,299 1,002 0,027 0,001 0,050 0,000 0,000 0,000 0,000
RiskMetrics 54,571 20,978 8,862 12,257 21,663 4,908 1,874 4,054 13,031 2,807 1,059 2,590
Normalidad 55,990 18,793 9,323 11,442 19,301 4,961 2,565 4,375 11,620 3,083 1,654 3,020
ARMA-GARCH 35,436 9,635 3,437 6,180 8,464 1,281 0,404 1,303 3,219 0,598 0,167 0,740
Simulación histórica 49,332 19,119 9,956 11,519 20,043 4,935 2,245 4,313 12,493 3,433 1,550 3,227
ARMA-APGARCH -t de Student 32,934 22,128 5,507 4,130 10,502 2,012 0,116 0,010 0,135 0,319 2,143 0,162
ARMA-GARCH -t de Student 33,360 21,130 4,519 5,133 10,510 2,010 0,121 0,009 0,140 0,327 2,073 0,168

[i] Funciones de pérdidas (López, F1, F2 y F3) para la TRM, con horizonte de pronóstico a un día.

Cuadro A3.3.

Pruebas de función de pérdida para el VaR de los TES entre junio de 2011 y febrero de 2014 con horizonte de pronóstico de un día

López F1 F2 F3 López F1 F2 F3 López F1 F2 F3
Con α = 0,95 Con α = 0,99 Con α = 0,995
Jondeau et al, (2007) 64,361 16,163 22,666 20,977 12,628 1,987 3,351 4,473 5,864 1,006 1,384 2,763
Hansen (1994) 67,101 15,828 23,070 21,128 13,383 2,087 3,722 4,845 6,584 1,059 1,669 2,884
Jondeau et al, (2007) con y constantes 67,976 17,414 25,037 22,524 13,361 2,218 3,689 5,121 7,063 1,054 1,469 2,875
Jondeau y Rockinger (2003) 63,929 16,372 23,953 21,585 14,149 2,262 4,227 5,068 7,423 1,213 2,088 3,136
ARMA-APGARCH 69,078 17,753 25,021 21,803 12,978 2,115 3,591 4,400 6,833 1,028 1,337 2,822
ARMA-APGARCH constante 68,048 18,011 25,994 22,921 13,625 2,329 3,776 5,420 6,045 1,046 1,473 2,830
RiskMetrics 64,800 16,717 18,927 20,446 23,993 4,637 5,670 7,867 18,209 3,097 3,809 5,797
Normalidad 63,233 14,939 17,774 20,422 24,514 4,713 5,356 8,579 20,212 3,183 3,495 6,492
ARMA-GARCH 45,246 9,753 13,391 14,455 16,199 2,948 4,441 5,764 11,973 2,126 3,069 4,613
Simulación histórica 74,062 19,928 25,024 25,019 29,718 5,388 6,668 9,248 17,682 3,424 3,415 6,446
ARMA-APGARCH -t de Student 72,637 19,252 22,232 23,584 15,235 5,810 7,000 5,367 8,747 2,575 9,183 2,355
ARMA-GARCH 60,905 19,683 21,942 23,303 14,593 5,734 4,921 3,284 8,636 2,566 9,738 2,350

[i] Funciones de pérdidas (López, F1, F2 y F3) para el TES, con horizonte de pronóstico a un día.

Anexo 4. Gráficos de backtesting para el VaR

Figura A4.1.

Gráficos de backtesting para el VaR del IGBC, la TRM y los TES por la metodología de Jondeau et al. (2007) para horizonte de un día, con α = 0,95, α = 0,99 y α = 0,995

dys.76.7_307_1.jpg
Figura A4.2.
dys.76.7_308_1.jpg
Figura A4.3.

VaR con Jondeau et al. (2007) constante

dys.76.7_309_1.jpg
Figura A4.4.
dys.76.7_310_1.jpg
Figura A4.5.

VaR con ARMA-APGARCH

dys.76.7_311_1.jpg
Figura A4.6.

VaR con ARMA-APGARCH constante

dys.76.7_312_1.jpg
Figura A4.7.

VaR con RiskMetrics

dys.76.7_313_1.jpg
Figura A4.8.

VaR con normalidad

dys.76.7_314_1.jpg
Figura A4.9.

VaR con ARMA-GARCH

dys.76.7_315_1.jpg
Figura A4.10.

VaR con simulación histórica

dys.76.7_316_1.jpg
Figura A4.11.

VaR con ARMA-GARCH-t de Student

dys.76.7_317_1.jpg
Figura A4.12.

VaR con ARMA-APGARCH-t de Student

dys.76.7_318_1.jpg

Anexo 5. Curtosis y asimetría condicionales

Figura A5.1.

Curtosis y asimetría condicional en los retornos del IGBC

dys.76.7_319_1.jpg
Figura A5.2.

Curtosis y asimetría condicional en los retornos de la TRM

dys.76.7_320_1.jpg
Figura A5.3.

Curtosis y asimetría condicional en los retornos de los TES

dys.76.7_321_1.jpg

Referencias

1. 

Alexander, C. (2009). Market risk analysis, value at risk models (vol. 4). John Wiley & Sons.

2. 

Artzner, P., Delbaen, F., Eber, J.-M., & Heath, D. (1999). Coherent measures of risk. Mathematicalfinance, 9 (3), 203-228.

3. 

Becerra, O., & Melo, L. (2008). Medidas de riesgo financiero usando cópulas: teoría y aplicaciones (Borradores de Economía 489). Banco de la República.

4. 

Caporin, M. (2003). Evaluating value-at-risk measures in presence of long memory conditional volatility. GRETA, 5.

5. 

Christoffersen, P. F. (1998). Evaluating interval forecasts. International Economic Review, 841-862.

6. 

Christoffersen, P. F., Diebold, F. X., & Santomero, A. M. (2003). Elements of financial risk management. CiteSeer.

7. 

Ding, Z., Granger, C. W., & Engle, R. F. (1993). A long memory property of stock market returns and a new model. Journal of Empirical Finance, 1 (1), 83-106.

8. 

Dowd, K. (2003). An introduction to market risk measurement. John Wiley & Sons.

9. 

Durán, R., Lorenzo, A., & Ruiz, A. (2012). A GARCH model with autoregressive conditional asymmetry to model time-series: An application to the returns of the Mexican stock market index. Avances Recientes en Valuación de Activos y Administración de Riesgos, 4, 247-262.

10. 

Hansen, B. E. (1994). Autoregressive conditional density estimation. International Economic Review, 35(3), 705-730.

11. 

Jondeau, E., Poon, S.-H., & Rockinger, M. (2007). Financial modeling under non-Gaussian distributions. Springer.

12. 

Jondeau, E., & Rockinger, M. (2003). Conditional volatility, skewness, and kurtosis: Existence, persistence, and comovements. Journal of Economic Dynamics and Control, 27 (10), 1699-1737.

13. 

Jorion, P. (2007). Value at risk: The new benchmark for managing financial risk (vol. 3). Nueva York: McGraw-Hill.

14. 

Lai, J.-Y. (2012). Shock-dependent conditional skewness in international aggregate stock markets. The Quarterly Review of Economics and Finance, 52 (1), 72-83.

15. 

Lambert, P., & Laurent, S. (2002). Modelling skewness dynamics in series of financial data using skewed location-scale distributions (Discussion Paper 119). Louvain-la-Neuve: Institut de Statistique.

16. 

Leccadito, A., Boffelli, S., & Urga, G. (2014). Evaluating the accuracy of value-at-risk forecasts: New multilevel tests. International Journal of Forecasting, 30(2), 206-216.

17. 

López, J. A. (1998). Methods for evaluating value-at-risk estimates (Technical Report). Nueva York: Federal Reserve Bank.

18. 

McNeil, A. J., Frey, R., & Embrechts, P. (2010). Quantitative risk management: Concepts, techniques, and tools. Princeton: Princeton University Press.

19. 

Melo, L., & Becerra, O. (2006). Una aproximación a la dinámica de las tasas de interés de corto plazo en Colombia a través de modelos GARCH multivariados (Reporte Técnico). Banco de la República.

20. 

Morgan, J. (1996). Riskmetrics (Technical Document). Nueva York: Morgan Guaranty Trust Company.

21. 

Tsay, R. S. (2005). Analysis of financial time series (vol. 543). John Wiley & Sons.

Notes

[3] Los modelos ARMA-GARCH permiten definir otras funciones de distribución para los errores estandarizados y en su versión más sencilla se asume normalidad.

[4] Dicha función no necesariamente tiene una solución analítica.

[5] Unas definiciones más detalladas de estas metodologías se pueden encontrar en Dowd (2003), Tsay (2005), Melo y Becerra (2006), Jorion (2007) y Alexander (2009), entre otros.

[6] Dicha acotación a los parámetros no asegura la existencia de la asimetría o la curtosis. Al igual que en Jondeau y Rockinger (2003), no se restringe el dominio de los parámetros a vt ≥ 4, con el fin de que sean los datos los que determinen la existencia del tercer y cuarto momento.

[7] Esta función está definida en Jondeau et al. (2007).

[8] En este modelo se asume que los errores estandarizados siguen una distribución normal.

[9] El ejercicio de backtesting se realizó sobre las últimas 655 observaciones. En este procedimiento las estimaciones de los parámetros de los modelos no se mantienen constantes y se reestiman cada diez observaciones.

[10] Los resultados de la prueba de Dickey y Fuller aumentada (ADF) y la de Kwiatkowsky, Phillips, Schmidt y Shin (KPSS), presentados en el cuadro A1.1 (anexo 1), indican que las series analizadas son estacionarias. Igualmente, los resultados del cuadro A1.2 sugieren que existe evidencia de efectos ARCH sobre las variables consideradas.

[11] La curtosis y la asimetría condicionales se calculan a partir de las ecuaciones (26), (25) y (27), utilizando los parámetros modelados (v, λ), según la dinámica de cada metodología.

[12] Este tipo de resultados también se obtienen para algunos casos cuando se utiliza un nivel de confianza de α = 0,99.