Nuevos modelos y técnicas estadísticas para el estudio de datos financieros

Author

Daoudi, Jalila

Director

del Castillo Franquet, Joan

Date of defense

2009-07-13

ISBN

9788449042850

Pages

122 p.



Department/Institute

Universitat Autònoma de Barcelona. Departament de Matemàtiques

Abstract

Nuestra línea de investigación se ha desarrollado en el ámbito de la estadística aplicada a las finanzas. Nuestro objetivo es encontrar y analizar nuevos modelos estadísticos para ajustar los datos financieros y nuevas técnicas para estudiar el comportamiento de las colas. Una aplicación destacada de este trabajo es el estudio del riesgo operacional. En los últimos años, la industria bancaria ha cambiado profundamente por los procesos de liberalización, innovación financiera y tecnológica. Esto, ha generado en las entidades financieras una evolución en el ámbito de la modelización de procesos para la medición y gestión del riesgo. El riesgo financiero se define como el impacto adverso en el rendimiento debido a diferentes fuentes de incertidubre. En la actualidad, y desde una perspectiva avanzada de riesgos, se identificarían y se cuantificarían tres tipos de riesgo: riesgo de mercado, riesgo de crédito y riesgo operacional. A diferencia de los anteriores, el riesgo operacional es un riesgo que no es producto de la toma de una posición de riesgo, tiene su origen en sucesos que no pueden ser adscritos a riesgo de mercado o a riesgo de crédito, se define como la pérdida potencial por deficiencias en los controles, por los errores en el procesamiento y almacenamiento de las operaciones o en la transmisión de información, así como por resoluciones administrativas y judiciales adversas, fraudes, robos o por factores externos. El método más reciente para la cobertura de riesgo operacional es el método de medición avanzado (AMA) que consiste en la modelización de la distribución agregada de pérdidas (Loss Distribution Approach o LDA) que se ha utilizado con éxito en el ámbito de seguros. Bajo el supuesto de que las severidades son independientes entre si e independientes de la frecuencia de los sucesos, la metodología LDA requiere la modelización por separado de la frecuencia y de la severidad. El capital regulatorio se calcula como el percentil de la distribución agregada de pérdidas para un nivel de probabilidad del 99;9%. Las fluctuaciones pronunciadas de precios conducen a serias inestabilidades en los mercados financieros. Estas perturbaciones llevan a problemas en la gestión del riesgo. En este contexto, es necesaria la modelización del comportamiento de estos precios que alcanzan valores extremos. La distribución normal no determina con suficiente precisión dicho comportamiento, lo cual obliga a recurrir a otro tipo de distribuciones de colas pesadas o semi pesadas. En el Capítulo uno, haremos una descripción de las distribuciones de colas pesadas que son distribuciones que tienen colas más pesadas que la distribución exponencial. Históricamente se han utilizado en el mundo de seguros, especificamente las distribuciones subexponenciales. En la última década, esta metodología se ha trasladado al mundo de las finanzas. De forma más amplia los mercados financieros están bajo una permanente tensión por la interacción entre la oferta y la demanda, lo cual implica fluctuaciones pronunciadas en los precios. El modelo clásico para estudiar la evolución de los precios es el modelo de Black Scholes que supone normalidad en la distribución de los precios. Los estudios empíricos, que presentan una curtosis elevada y valores extremos que no se pueden ajustar por la distribución normal, muestran que este modelo está lejos de ser adecuado. Suponiendo normalidad de la distribución de la oferta y de la demanda, y si hay tantas ofertas como demandas (mercado ideal), las transacciones siguen una mixtura de normales. En caso contrario, cuando no se aceptan de la misma manera las ofertas y las demandas las transacciones pueden seguir una mixtura de normales truncadas. En el Capítulo dos, proponemos la mixtura de normales truncadas para ajustar los datos de tipo de cambio. Es un modelo muy apropiado dado que en la práctica nos permite estudiar la no-normalidad de los datos teniendo en cuenta la asimetría de los mismos. Para ello, primero desarrollamos las propiedades de la distribución propuesta y a continuación demostramos que la función de verosimilitud tiene un máximo único y que este máximo depende del coeficiente de variación. El enfoque basado en la modelización de la distribución de severidad mediante distribuciones de colas semi pesadas tales que la distribución lognormal, la inversa gaussiana y la mixtura de normales proporcionan estimaciones robustas estables del capital regulatorio, es decir, las cifras de capital entre dos periodos sólo pueden variar por su exposición al riesgo. El enfoque basado en la teoría de valor extremo que se caracteriza por el ajuste de los valores que superan un determinado umbral con la distribución de Pareto generalizada es de mucha importancia dado que las entidades se basan únicamente sobre las pérdidas elevadas, aunque la elección de manera eficiente del umbral a partir del cual se realiza el ajuste a una distribución de Pareto es crucial para obtener valores estables de las medidas de riesgo. Varios autores estudiaron la estimación de la distribución de Pareto generalizada mediante el método de máxima verosimilitud. No obstante, los métodos numéricos no siempre tienen soluciones sobretodo cuando las muestras son pequeñas, por ello se han propuesto otros métodos tales como el método de los momentos ponderados que sólo se puede utilizar cuando el momento de orden dos es finito, y el método que consiste en estimar los parámetros a través de los estadísticos de orden. En el Capítulo tres, explicaremos los problemas destacados de la no convergencia en algunos casos de la función profile verosimilitud de la distribución de Pareto generalizada. Luego, demostraremos que la función profile verosimilitud se caracteriza por el coeficiente de variación empírico. Por último, probaremos que en el caso de la distribución de Pareto, la función de verosimilitud tiene un máximo global cuando el coeficiente de variación empírico es mayor que uno. Por otro lado, ilustramos con un ejemplo que la función de verosimilitud de la distribución de Pareto generalizada puede no tener soluciones. En el Capítulo cuatro, utilizamos la caracterización de la distribución de Pareto generalizada a través del coeficiente de variación condicionado para desarrollar una metodología previa y complementaria a los estudios paramétricos y contrastar el modelo desde un punto de vista empírico. Es un método alternativo a los métodos clásicos ME-Plot y el Hill-Plot para estudiar las colas. Además nos permite encontrar de manera eficiente el umbral a partir del cual podemos ajustar los datos por una distribución de Pareto y estimar el parámetro del peso de la cola. Por otro lado, proponemos un test de exponencialidad contra las alternativas de cola Pareto. Una de las dificultades de la distribución de Pareto generalizada es que al incluir distribuciones de soporte acotado, existen problemas de convergencia de los estimadores. Además las ecuaciones de verosimilitud para muestras pequeñas pueden no tener soluciones. Por ello, proponemos la distribucón TNP que es la unión de la normal truncada, la distribución exponencial y la distribución de Pareto como alternativa a la distribución GPD.


Our line of investigation has developed in the field of the statistical applied to the finances. Our aim is to find and analyse new statistical models to adjust the financial data and new techniques to study the behavior of the tails. An application of this work is the study of operational risk. The banking business has changed deeply by the processes of liberalization, financial and technological innovation. This, has generated an evolution in the field of modeling the processes for the measurement and the quantification of the risk. The risk of loss has his origin in events that can not be attribute to market risk or to credit risk, it is resulting from inadequate or failed internal processes, people and systems or from external events. This definition includes legal risk but excludes strategic and reputacional risk. The most recent method for hedging the operational risk is the method of advanced measurement (AMA) that consists in modeling the aggregate distribution of losses (Loss Distribution Approach or LDA) that has been used successfully in the field of insurances. assuming that the severities are independent, and, that are independent of the frequency of the events, the methodology LDA requires modeling separately the frequency and the severity. The VaR is then calculated as the percentile of the aggregate distribution of losses for a level of probability 99;9%. In the Chapter one, we give an overview on heavy-tailed distributions. Historically, it have been used in the world of insurances, specifically the distributions subexponentials. In the last decade, this methodology has moved to the world of the finances. In the Chapter two, it is shown that the prices formation mechanism may explain some amount of non-normality. Assuming normality for bid and ask prices, the observed transaction prices may be a mixture of normal distributions or a mixture of left- right truncated normal distributions, the latter case being more likely. The statistical properties of the mixture of left-right truncated normal distri- butions are developed. It is proved that there is only one maximum for the likelihood function and the maximum is closely related to the coeficient of variation. Our results show that continuity at zero of this distribution can be avoided in statistical analysis. Empirical work suggests that in financial data non-normality is also produced for a large number of values close to the mean, here referred to as ïnliers". This could explain that the Laplace approximation is often a better approach than normal distribution for daily returns. The approach based in the modeling the distribution of severity by semi weighed distributions such as the lognormal distribution, the inverse gaussian and the mixture of normal provide robust estimates estables of the VaR. The approach based in the theory of extreme value that adjust the values over an determined threshold by the generalized Pareto distribution is of importance To obtain values estables of the measures of the risk. In the Chapter three, we provide precise arguments to explain the anomalous behavior of the likelihood surface when sampling from the generalized Pareto distribution for small or moderate samples. The behavior of the profile-likelihood function is characterized in terms of the empirical coefficient of variation. A suficient condition is given for global maximum of the likelihood function of the Pareto distribution to be at a finite point. In the Chapter four, we develop a previous and complementary methodology to the parametric studies to contrast the model from a point of empirical view. New methods to decide between polynomial or exponential tails are introduced. Is an alternative method to the classical methods ME-Plot and the Hill-Plot. The key idea is based on a characterization of the exponential distribution and uses the residual coefficient of variation as a random process. A graphical method, called a CV plot, is introduced to distinguish between exponential and polynomial tails. Moreover, new statistics introduced from a multivariate point of view allow for testing exponentiality using simultaneously several thresholds. The usefulness of our approach is clearly shown with the daily returns of exchange rates between the US dollar and the Japan yen. One of the difficulties of the distribution of generalized Pareto is that include bounded distributions, there lead a problems of convergence of the estimators. Besides the likelihood functions for small samples can not having solutions. Thus, we propose the TNP distribution that is the union of the normal truncated, the exponential distribution and the distribution of Pareto and is an alternative to the distribution GPD to modeling financial data.

Keywords

Colas pesadas; Coeficientes de variación; Distribución de pareto generalizada

Subjects

519.1 - Combinatorial analysis. Graph theory

Knowledge Area

Ciències Experimentals

Documents

jd1de1.pdf

970.7Kb

 

Rights

ADVERTIMENT. L'accés als continguts d'aquesta tesi doctoral i la seva utilització ha de respectar els drets de la persona autora. Pot ser utilitzada per a consulta o estudi personal, així com en activitats o materials d'investigació i docència en els termes establerts a l'art. 32 del Text Refós de la Llei de Propietat Intel·lectual (RDL 1/1996). Per altres utilitzacions es requereix l'autorització prèvia i expressa de la persona autora. En qualsevol cas, en la utilització dels seus continguts caldrà indicar de forma clara el nom i cognoms de la persona autora i el títol de la tesi doctoral. No s'autoritza la seva reproducció o altres formes d'explotació efectuades amb finalitats de lucre ni la seva comunicació pública des d'un lloc aliè al servei TDX. Tampoc s'autoritza la presentació del seu contingut en una finestra o marc aliè a TDX (framing). Aquesta reserva de drets afecta tant als continguts de la tesi com als seus resums i índexs.

This item appears in the following Collection(s)