sabato 25 settembre 2010

Volatility in troubled times....

La vera sfortuna per voi 10 lettori è che in questi giorni (notti, per l'esattezza) ho un po' di tempo per scaricare sul blog tutto il materiale di ricerca che ho prodotto sprazzi nei mesi scorsi. Questo post in particolare è destinato a raccogliere il frutto di un'approfondita analisi di volatilità condotta sullo S&P 500. L'idea è di testare alcuni membri della famiglia non gaussiana dei GARCH, verificando la loro capacità di produrre intervalli di confidenza previsivi per l'indice americano in regime di turbolenza (in particolare Settembre - Ottobre 2008). A scanso di equivoci, è bene puntualizzare che nemmeno il modello più sofisticato ha il dono della preveggenza (quello, come si sa, compete a certi chartisti grafomani che pubblicano sessanta libri all'anno...). In una successione di eventi di mercato, il primo shock che si verifica (fallimento Lehman Bros, ad esempio) è difficilmente prevedibile. La cosa buona dei modelli GARCH è che, se ben specificati, si adattano piuttosto rapidamente alla conseguenta clusterizzazione dei picchi di volatilità, il che in soldoni significa: è probabile che il primo shock mi colga impreparato prendendomi in piena faccia, ma se resto in piedi magari vinco ai punti. Intiendes? Il problema degli shocks degni di questo nome è che ben di rado risultano coerenti con l'ipotesi di distribuzione condizionata normale dei rendimenti. Assumiamo ad esempio che la media dei rendimenti dello S&P 500 evolva secondo un AR(1), la cui equazione è:

R(t) = alpha + phi*R(t-1) + epsilon(t)

Sia chiaro che questa semplice formulazione non ha la pretesa di essere la miglior previsione possibile per una serie di rendimenti: è, più che altro, una procedura di filtraggio della serie, utile a fornire una stima del residuo più robusta (e nulla più di questo). Ricordo per i più arrugginiti che l'autoregressione sopra riportata è stimabile tramite OLS, una tecnica che, forse non tutti lo sanno, è nella sua essenza non parametrica, nel senso che non presuppone una particolare distribuzione di probabilità per la densità del campione. Questo lascia la porta aperta all'eventualità che epsilon(t) possa non essere un'estrazione da una distribuzione Normale. Con queste poche righe, scritte essenzialmente per gioco, ci siamo imbattuti nel concetto di distribuzione condizionata. Vorrei richiamare l'attenzione dei 10 lettori su questa nozione, sconosciuta in particolare anche a stuole di practitioners (che pure, secondo me, non dovrebbero esserne a digiuno, ma la finanza italiana è uno zoo pieno di bestie singolari). Quando si sente parlare di "eventi estremi che colpiscono i mercati finanziari", in realtà si sta parlando, almeno implicitamente, di epsilon(t) e della sua distribuzione che, con ogni probabilità, non è Normale. Ammettendo che tale disturbo abbia varianza eteroschedastica, se impieghiamo un GARCH gaussiano per cogliere questa caratteristica il peso assegnato alle code della distribuzione di epsilon(t) sarà insufficiente per tenere conto di rendimenti estremamente negativi e quindi il risultante intervallo di confidenza previsivo, costruito a partire dalla previsione sulla media fatta dall'AR(1) e dalla volatilità GARCH, molto poco efficace. La situazione potrebbe migliorare usando modelli GARCH a code grasse (o leptocurtici che dir si voglia)? E' quello che cercheremo di capire nei prossimi giorni. Per il momento posso solo augurarvi buona notte, mica penserete che mi metta a smanettare in MatLab alle 1 e 29 spero...

Nessun commento:

Posta un commento