domenica 16 gennaio 2011

Cari 10 lettori, come promesso qualche settimana fa (che in rete è come dire 4 o 5 secoli fa) in questo post nuovo fiammante comincio a riportare un po’ di risultati sull’analisi di rischio ex ante condotta sull’indice S&P 500. Siccome almeno 9 di voi sono pigri e manco si sognano di andarsi a rileggere il post precedente, riassumo brevemente l’intento dello studio in oggetto: si tratta, in sostanza, di un semplice esercizio di analisi comparativa tra vari modelli di VaR (Value-at-Risk) per provare a rispondere all’annosa domanda: ma l’Armageddon dell’Ottobre 2008 poteva essere in qualche modo previsto? Ho riletto un paio di volte quest’ultima frase, e mi sono accorto che in effetti è una domanda mal posta (ma siccome sono pigro anch’io col cavolo che la riformulo, tsé). Insomma è obiettivamente difficile tentare di fornire una risposta senza prima mettersi d’accordo su cosa sia lecito intendere per “previsione”. Dico questo perché, su vari blog di finanza, mi sembra che ci sia una terribile confusione su questo termine, il che non soltanto genera pericolosi malintesi, ma talvolta contese furibonde (e comiche). In merito a tale spinosa questione, e sempre che riusciate a sottrarvi alla vostra indomita pigrizia, potente andare a dare un'occhiata al mio post precedente (9 Novembre). Sintetizzando al massimo, la previsione è un concetto eminentemente statistico, e di qui, cari 10 lettori, non si scappa. Se non si ha chiaro questo punto in testa, tanto vale lasciar perdere il trading e darsi ai tarocchi, giacché tra i due passatempi (ammesso e non concesso che il primo in effetti lo sia) non vi sarebbe differenza alcuna. La stragrande maggioranza dei fraintendimenti nasce da un uso scorretto e fuorviante della terminologia statistica, che porta a stabilire l’equazione “previsione = stima puntuale”. Ecco, niente di più sbagliato: una previsione, economica finanziaria o di altro tipo, è sempre un intervallo di confidenza, ottenuto a partire dalla distribuzione attesa del fenomeno che si studia. Quindi, l’oggetto della previsione non è e non potrebbe mai essere un unico numero, in cui riporre tutte le proprie speranze di gloria, ma una distribuzione che può essere rappresentata, per meglio dire descritta, da una serie di misure statistiche, quali: media, mediana, varianza, percentili, e chi più ne ha più ne metta. Ciò non toglie ovviamente che scopo di chiunque faccia previsioni è avere forecast i più precisi possibili. Il che significa “distribuzioni di rendimenti attesi” poco variabili, sulle quali dunque si possa fare ragionevole affidamento. In questo caso, è lecito aspettarsi che il valore effettivamente realizzatosi nell’orizzonte di previsione sia piuttosto vicino alla media dell’intervallo di previsione: in caso contrario la previsione puntuale sarà ben poco informativa, esistendo un’elevata probabilità che il fenomeno in esame si manifesti in prossimità delle code della distribuzione. Ma, si chiederanno i due lettori ancora svegli, cosa me ne faccio di un intervallo di previsione che il più delle volte a quanto pare non è affidabile? In particolare, con quale spirito e per quale motivo utilizzarlo? Di primo acchito, la risposta che mi viene è semplice: per non farsi male. In effetti, la statistica applicata al trading abitua fin da subito a ragionare in modo tendenzialmente trapattoniano: primo non prenderle. Perciò, se non posso contare troppo sulla stima puntuale di un rendimento atteso per domani (a causa dell’elevata variabilità della serie finanziaria considerata, che è causa di una non trascurabile incertezza previsiva), magari il modello che ho sviluppato è efficace nel descrivere il processo di volatilità, o la forma delle code. In questo caso, potrei dunque ritrovarmi con un modello non eccelso sul piano delle previsioni puntuali (la media), ma non catastrofico per quel che riguarda la stima di un percentile sinistro: insomma, del tanto famigerato VaR. Ora, anche se non siete una banca inopinatamente esposta a mutui ipotecari nell’Est Europa, un uso intelligente che potreste fare di questo numerino è quello di trattarlo come campanello d’allarme per certe strategie. E dunque potreste individuare a priori una soglia di confidenza che vi fa dormire relativamente tranquilli (la mia è il 99,99% periodico), stimare ogni giorno il VaR per il giorno successivo e decidere di operare o meno in base a quanto del vostro capitale state per mettere a rischio. Se tale valore eccede il VaR, probabilmente una scelta saggia sarebbe quella di mettersi sulla riva del fiume, aspettando di veder passare qualche cadavere di trader che “compro e vendo da 20 anni, lo so io quand’è il momento di andare long”. Ovviamente, tutto questo ha senso se e solo se il modello di stima del benedetto percentile sopra citato è di buona qualità: questo impone un’attività di model selection non banale, che in ogni caso non dovrebbe mai essere automatizzata (per questo rabbrividisco ogni volta che sento parlare di data mining finanziario) o affidata meccanicamente a qualche PC. In effetti questo lavoro è così importante e delicato che lo ritengo più simile a un’opera artigianale che alla mera applicazione di qualche formula. Occorre sensibilità, esperienza, spirito critico e soprattutto una profonda conoscenza delle procedure d’inferenza statistica, il cui fine è monitorare la significatività dei parametri del modello prescelto, per capire se il flusso di nuove informazioni che si rendono disponibili day-by-day stanno cambiando le carte in tavole, consegnando il vostro modello al Museo dei Sogni Infranti. Come i meno sonnolenti dei 10 lettori sapranno, questo è un tema che ricorre spesso nei miei post. E c’è un solo modo per acquisire questa esperienza: farsela sul campo, scaricando montagne di dati, provando e riprovando, testando tutte le intuizioni o anche solo le curiosità (anche quelle più bislacche) che possono venire in mente, mantenendo sempre una mente aperta, soprattutto verso l’idea di fallimento.
Lo specifico interesse in questo caso è capire se differenti modelli di volatilità si comportano meglio in condizioni di improvviso stress dei mercati. Per essere più precisi, confronteremo la consueta procedura econometrica, fatta di diagnosi, selezione modello, stima e controllo del modello ex post, con una stima del VaR molto in voga tra i practioners, cioè quella basata su una finestra di osservazioni rolling (nel nostro esempio 200, 100, e 50 giorni). Cercheremo di capire se previsioni di VaR basate su differenti modelli di volatilità siano più robuste di altre: il tutto con particolare riferimento al periodo Settembre – Ottobre 2008. I dati che utilizzeremo sono i rendimenti giornalieri close-to-close dell’indice S&P 500 scaricato da Yahoo Finance. Cosa a mio modesto avviso ancora più interessante, cercheremo di capire se misure di volatilità meno sofisticate (tipo una stima rolling window della volatilità), quotidianamente usate anche su blasonati desk di banche d’investimento, si comportano meglio o peggio di modelli più avanzati, come qualche membro di rilievo della popolosa famiglia GARCH.
Un po’ di indicazioni sulle specifiche del back test eseguito. Non è stato utilizzato un vero e proprio modello per la media, d’altronde ben pochi practioners lo fanno. Tuttavia, ho stimato un termine costante solo con l’intento di rendere la serie a media nulla e dunque ricreare le condizioni per la stima GARCH tradizionale (che, come ormai anche i muri sanno, si applica a serie white noise). Per coerenza (per par condicio avrebbe detto qualche ex Capo dello Stato) la medesima operazione è stata condotta anche sulle stime rolling. Pertanto alla fine il VaR è stato calcolato come il percentile al 95% della distribuzione attesa dei rendimenti: inutile dire che essa è pesantemente influenzata dalla volatilità. L’idea di fondo è però un’altra: siamo sicuri che la volatilità da sola sia sufficiente a distribuire massa di probabilità nelle code, così da generare un VaR robusto, anche in presenza di eventi estremi? Capovolgendo i termini della questione, sarebbe peraltro anche lecito domandarsi: siamo certi che l’utilizzo di modelli dinamici di volatilità dia un vantaggio “sistematico” rispetto ad approcci più euristici, come quello delle stime rolling window? Proprio perché non siamo certi di niente (a parte che quest’anno la Juve non vince nemmeno la tombola di Viggiù, ahimè) , intendiamo condurre questa analisi. Come diceva un mio grandissimo prof di quando facevo il dottorato, “per rispondere con cognizione di causa bisogna prima studiare e verificare. Per rispondere e basta è sufficiente aprire bocca e dare aria”.

Prima di passare all'esame dei grafici riferiti alle previsioni dei singoli modelli riporto nel diagramma seguente l'andamento delle volatilità misurate secondo ciascun approccio (asse sinistro) a fronte dell'andamento, ullo stesso periodo, dell'indice S&P 500 (asse destro).


Come si vede, le stime rolling di volatilità sono poco reattive alle fasi di stress del mercato. In altri termini, sono lente nell'incorporare l'arrivo di nuova informazione, in particolare quella di segno negativo. E' dunque lecito aspettarsi che la costruzione di un VaR basata su queste non sia efficiente, ma più avanti avremo modo di valutare nello specifico i risultati. I vari modelli GARCH utilizzati invece esibiscono la tipica clusterizzazione, ossia la concentrazione in picchi della volatilità. Come è noto, si tratta di una caratteristica peculiare dei mercati finanziari: a fasi di alta volatilità solitamente seguono periodi di volatilità altrettanto elevata. Ovviamente nessun modello, per quanto sofisticato, è in grado di anticipare il primo significativo shock che colpisce la serie considerata: ma, rispetto ad approcci più semplicistici, è in grado di allinearsi più rapidamente al nuovo "regime" di volatilità che si è ventuo instaurando.

Di seguito trovate i grafici del VaR out-of-sample prodotto da ciascuno dei modelli. Ma pare giusto a questo punto descrivere in maneria molto sintetica almeno i modelli GARCH utilizzati, rimandando alle pubblicazioni specialistiche per i dettagli, ovviamente. Indico con y(t+1) e sigma2(t+1) rispettivamene il rendimento dell'S&P500 e la sua varianza al tempo "t+1".

In tutti i modelli GARCH, l'equazione del rendimento è banalmente data da:

y(t+1) = c + epsilon(t+1)

Si noti che c è una costante (mentre, nel caso delle stime rolling, tale termine è sostituito con la media campionaria dei rendimentisulla finestra considerata). Inoltre epsilon(t+1) è una serie di disturbi indipendentemente e identicamente distribuiti con media zero. Naturalmente, la specifica distribuzione dipenderà dal tipo di modello considerato. In alcuni modelli si utilizza il disturbo standardizzato z(t+1) = epsilon(t+1)/sigma(t+1) che, oltre ad avere media nulla, ha evidentemente varianza unitaria.

Modello GARCH(1,1) Normale simmetrico

sigma2(t+1) = omega + alpha*epsilon(t)^2 + beta*sigma2(t)

Classico modello GARCH, quello sviluppato da Bollerslev e Engle per intenderci: tanto più "grande" è la news (cioè epsilon) tanto maggiore è la volatilità. Intuizione semplice, ma di grande efficacia, soprattutto molto aderente alla realtà empirica. La distribuzione di epsilon(t) è Normale con media zero e varianza sigma2(t).

Modello GARCH(1,1) Normale con risposta di volatilità asimmetrica

sigma2(t+1) = omega + alpha*(z(t) - rho*sigma(t))^2 + beta*sigma2(t)

Questo è anche definito il GARCH di Duan (da Jim Duan, che lo ha studiato approfonditamente in una serie di articoli a partire dal 1996). L'asimmetria è introdotta dal parametro rho. Si tratta di un modello molto interessante, perché nel continuo tende al modello a volatilità stocastica di Heston (1993), ampiamente utilizzato nel pricing delle opzioni. La distribuzione di z(t) è normale con media zero e varianza unitaria: ciò implica che epsilon(t) si distribuisce come una Normale con media zero e varianza sigma2(t).

Modello GARCH(1,1) A Mistura Bivariata di Normali

sigma2(t+1,i) = omega(i) + alpha(i)*epsilon(t)^2 + beta(i)*sigma2(t,i) per i = 1,2

Questo modello, sviluppato da Carola Alexander, descrive il processo di varianza come il risultato della ponderazione di due Garch Normali simmetrici. Si tratta di uno dei framework più flessibili, nel senso che è in grado di riprodurre dinamiche time-varying anche del momento terzo e quarto della distribuzione di epsilon(t).

Modello GARCH(1,1) t di Student

Idem come sopra ma con disturbi t di Student. Ricordo che la t di Student è una distribuzione simmetrica ma leptocurtica (con indice di curtosi maggiore di 3 quindi).

Modello GARCH(1,1) t di Student con risposta di volatilità asimmetrica

Idem come sopra ma di nuovo con disturbi t di Student.

E finalmente adesso i grafici del VaR out-of-sample!








Ora, ci sarebbe da sciorinare tutta una srie di commenti e di dotte considerazioni. Ma non sarete così ottimisti da pensare che lo faccia alle 0.17 vero? Magari non sembra, ma anch'io ho un lavoro che mi aspetta domattina... quindi good night e alla prossima.
P.S. I nottambuli possono nel frattempo dare una sbirciata e chiedersi: ma se avessi avuto un TS nel Settembre 2008 basato sul VaR Rolling come criterio di stop loss adesso quante latrine starei pulendo...? ;)

3 commenti:

  1. non mi tornano tutti i t+1...
    ad esempio, nel garch simmetrico:

    sigma2(t+1) = w + a*e2(t) + b*sigma2(t)

    non sigma2(t+1) = w + a*e2(t+1) + b*sigma2(t+1)...

    is that correct? :)

    ciao,
    ale

    RispondiElimina
  2. Corretto! E' un refuso di stampa dovuto alla tarda ora di pubblicazione del post :) Grazie per avermelo fatto notare, correggo al volo... ciao!

    RispondiElimina
  3. Ciao ma il blog è oramai abbandonato? Posso chiederti, essendo uno studente, che tipo di formazione hai seguito? Il tuo blog è affascinante, ben scritto e molto simpatico, peccato siano argomenti di nicchia. Spero in una tua risposta !

    RispondiElimina