domenica 16 gennaio 2011

Cari 10 lettori, come promesso qualche settimana fa (che in rete è come dire 4 o 5 secoli fa) in questo post nuovo fiammante comincio a riportare un po’ di risultati sull’analisi di rischio ex ante condotta sull’indice S&P 500. Siccome almeno 9 di voi sono pigri e manco si sognano di andarsi a rileggere il post precedente, riassumo brevemente l’intento dello studio in oggetto: si tratta, in sostanza, di un semplice esercizio di analisi comparativa tra vari modelli di VaR (Value-at-Risk) per provare a rispondere all’annosa domanda: ma l’Armageddon dell’Ottobre 2008 poteva essere in qualche modo previsto? Ho riletto un paio di volte quest’ultima frase, e mi sono accorto che in effetti è una domanda mal posta (ma siccome sono pigro anch’io col cavolo che la riformulo, tsé). Insomma è obiettivamente difficile tentare di fornire una risposta senza prima mettersi d’accordo su cosa sia lecito intendere per “previsione”. Dico questo perché, su vari blog di finanza, mi sembra che ci sia una terribile confusione su questo termine, il che non soltanto genera pericolosi malintesi, ma talvolta contese furibonde (e comiche). In merito a tale spinosa questione, e sempre che riusciate a sottrarvi alla vostra indomita pigrizia, potente andare a dare un'occhiata al mio post precedente (9 Novembre). Sintetizzando al massimo, la previsione è un concetto eminentemente statistico, e di qui, cari 10 lettori, non si scappa. Se non si ha chiaro questo punto in testa, tanto vale lasciar perdere il trading e darsi ai tarocchi, giacché tra i due passatempi (ammesso e non concesso che il primo in effetti lo sia) non vi sarebbe differenza alcuna. La stragrande maggioranza dei fraintendimenti nasce da un uso scorretto e fuorviante della terminologia statistica, che porta a stabilire l’equazione “previsione = stima puntuale”. Ecco, niente di più sbagliato: una previsione, economica finanziaria o di altro tipo, è sempre un intervallo di confidenza, ottenuto a partire dalla distribuzione attesa del fenomeno che si studia. Quindi, l’oggetto della previsione non è e non potrebbe mai essere un unico numero, in cui riporre tutte le proprie speranze di gloria, ma una distribuzione che può essere rappresentata, per meglio dire descritta, da una serie di misure statistiche, quali: media, mediana, varianza, percentili, e chi più ne ha più ne metta. Ciò non toglie ovviamente che scopo di chiunque faccia previsioni è avere forecast i più precisi possibili. Il che significa “distribuzioni di rendimenti attesi” poco variabili, sulle quali dunque si possa fare ragionevole affidamento. In questo caso, è lecito aspettarsi che il valore effettivamente realizzatosi nell’orizzonte di previsione sia piuttosto vicino alla media dell’intervallo di previsione: in caso contrario la previsione puntuale sarà ben poco informativa, esistendo un’elevata probabilità che il fenomeno in esame si manifesti in prossimità delle code della distribuzione. Ma, si chiederanno i due lettori ancora svegli, cosa me ne faccio di un intervallo di previsione che il più delle volte a quanto pare non è affidabile? In particolare, con quale spirito e per quale motivo utilizzarlo? Di primo acchito, la risposta che mi viene è semplice: per non farsi male. In effetti, la statistica applicata al trading abitua fin da subito a ragionare in modo tendenzialmente trapattoniano: primo non prenderle. Perciò, se non posso contare troppo sulla stima puntuale di un rendimento atteso per domani (a causa dell’elevata variabilità della serie finanziaria considerata, che è causa di una non trascurabile incertezza previsiva), magari il modello che ho sviluppato è efficace nel descrivere il processo di volatilità, o la forma delle code. In questo caso, potrei dunque ritrovarmi con un modello non eccelso sul piano delle previsioni puntuali (la media), ma non catastrofico per quel che riguarda la stima di un percentile sinistro: insomma, del tanto famigerato VaR. Ora, anche se non siete una banca inopinatamente esposta a mutui ipotecari nell’Est Europa, un uso intelligente che potreste fare di questo numerino è quello di trattarlo come campanello d’allarme per certe strategie. E dunque potreste individuare a priori una soglia di confidenza che vi fa dormire relativamente tranquilli (la mia è il 99,99% periodico), stimare ogni giorno il VaR per il giorno successivo e decidere di operare o meno in base a quanto del vostro capitale state per mettere a rischio. Se tale valore eccede il VaR, probabilmente una scelta saggia sarebbe quella di mettersi sulla riva del fiume, aspettando di veder passare qualche cadavere di trader che “compro e vendo da 20 anni, lo so io quand’è il momento di andare long”. Ovviamente, tutto questo ha senso se e solo se il modello di stima del benedetto percentile sopra citato è di buona qualità: questo impone un’attività di model selection non banale, che in ogni caso non dovrebbe mai essere automatizzata (per questo rabbrividisco ogni volta che sento parlare di data mining finanziario) o affidata meccanicamente a qualche PC. In effetti questo lavoro è così importante e delicato che lo ritengo più simile a un’opera artigianale che alla mera applicazione di qualche formula. Occorre sensibilità, esperienza, spirito critico e soprattutto una profonda conoscenza delle procedure d’inferenza statistica, il cui fine è monitorare la significatività dei parametri del modello prescelto, per capire se il flusso di nuove informazioni che si rendono disponibili day-by-day stanno cambiando le carte in tavole, consegnando il vostro modello al Museo dei Sogni Infranti. Come i meno sonnolenti dei 10 lettori sapranno, questo è un tema che ricorre spesso nei miei post. E c’è un solo modo per acquisire questa esperienza: farsela sul campo, scaricando montagne di dati, provando e riprovando, testando tutte le intuizioni o anche solo le curiosità (anche quelle più bislacche) che possono venire in mente, mantenendo sempre una mente aperta, soprattutto verso l’idea di fallimento.
Lo specifico interesse in questo caso è capire se differenti modelli di volatilità si comportano meglio in condizioni di improvviso stress dei mercati. Per essere più precisi, confronteremo la consueta procedura econometrica, fatta di diagnosi, selezione modello, stima e controllo del modello ex post, con una stima del VaR molto in voga tra i practioners, cioè quella basata su una finestra di osservazioni rolling (nel nostro esempio 200, 100, e 50 giorni). Cercheremo di capire se previsioni di VaR basate su differenti modelli di volatilità siano più robuste di altre: il tutto con particolare riferimento al periodo Settembre – Ottobre 2008. I dati che utilizzeremo sono i rendimenti giornalieri close-to-close dell’indice S&P 500 scaricato da Yahoo Finance. Cosa a mio modesto avviso ancora più interessante, cercheremo di capire se misure di volatilità meno sofisticate (tipo una stima rolling window della volatilità), quotidianamente usate anche su blasonati desk di banche d’investimento, si comportano meglio o peggio di modelli più avanzati, come qualche membro di rilievo della popolosa famiglia GARCH.
Un po’ di indicazioni sulle specifiche del back test eseguito. Non è stato utilizzato un vero e proprio modello per la media, d’altronde ben pochi practioners lo fanno. Tuttavia, ho stimato un termine costante solo con l’intento di rendere la serie a media nulla e dunque ricreare le condizioni per la stima GARCH tradizionale (che, come ormai anche i muri sanno, si applica a serie white noise). Per coerenza (per par condicio avrebbe detto qualche ex Capo dello Stato) la medesima operazione è stata condotta anche sulle stime rolling. Pertanto alla fine il VaR è stato calcolato come il percentile al 95% della distribuzione attesa dei rendimenti: inutile dire che essa è pesantemente influenzata dalla volatilità. L’idea di fondo è però un’altra: siamo sicuri che la volatilità da sola sia sufficiente a distribuire massa di probabilità nelle code, così da generare un VaR robusto, anche in presenza di eventi estremi? Capovolgendo i termini della questione, sarebbe peraltro anche lecito domandarsi: siamo certi che l’utilizzo di modelli dinamici di volatilità dia un vantaggio “sistematico” rispetto ad approcci più euristici, come quello delle stime rolling window? Proprio perché non siamo certi di niente (a parte che quest’anno la Juve non vince nemmeno la tombola di Viggiù, ahimè) , intendiamo condurre questa analisi. Come diceva un mio grandissimo prof di quando facevo il dottorato, “per rispondere con cognizione di causa bisogna prima studiare e verificare. Per rispondere e basta è sufficiente aprire bocca e dare aria”.

Prima di passare all'esame dei grafici riferiti alle previsioni dei singoli modelli riporto nel diagramma seguente l'andamento delle volatilità misurate secondo ciascun approccio (asse sinistro) a fronte dell'andamento, ullo stesso periodo, dell'indice S&P 500 (asse destro).


Come si vede, le stime rolling di volatilità sono poco reattive alle fasi di stress del mercato. In altri termini, sono lente nell'incorporare l'arrivo di nuova informazione, in particolare quella di segno negativo. E' dunque lecito aspettarsi che la costruzione di un VaR basata su queste non sia efficiente, ma più avanti avremo modo di valutare nello specifico i risultati. I vari modelli GARCH utilizzati invece esibiscono la tipica clusterizzazione, ossia la concentrazione in picchi della volatilità. Come è noto, si tratta di una caratteristica peculiare dei mercati finanziari: a fasi di alta volatilità solitamente seguono periodi di volatilità altrettanto elevata. Ovviamente nessun modello, per quanto sofisticato, è in grado di anticipare il primo significativo shock che colpisce la serie considerata: ma, rispetto ad approcci più semplicistici, è in grado di allinearsi più rapidamente al nuovo "regime" di volatilità che si è ventuo instaurando.

Di seguito trovate i grafici del VaR out-of-sample prodotto da ciascuno dei modelli. Ma pare giusto a questo punto descrivere in maneria molto sintetica almeno i modelli GARCH utilizzati, rimandando alle pubblicazioni specialistiche per i dettagli, ovviamente. Indico con y(t+1) e sigma2(t+1) rispettivamene il rendimento dell'S&P500 e la sua varianza al tempo "t+1".

In tutti i modelli GARCH, l'equazione del rendimento è banalmente data da:

y(t+1) = c + epsilon(t+1)

Si noti che c è una costante (mentre, nel caso delle stime rolling, tale termine è sostituito con la media campionaria dei rendimentisulla finestra considerata). Inoltre epsilon(t+1) è una serie di disturbi indipendentemente e identicamente distribuiti con media zero. Naturalmente, la specifica distribuzione dipenderà dal tipo di modello considerato. In alcuni modelli si utilizza il disturbo standardizzato z(t+1) = epsilon(t+1)/sigma(t+1) che, oltre ad avere media nulla, ha evidentemente varianza unitaria.

Modello GARCH(1,1) Normale simmetrico

sigma2(t+1) = omega + alpha*epsilon(t)^2 + beta*sigma2(t)

Classico modello GARCH, quello sviluppato da Bollerslev e Engle per intenderci: tanto più "grande" è la news (cioè epsilon) tanto maggiore è la volatilità. Intuizione semplice, ma di grande efficacia, soprattutto molto aderente alla realtà empirica. La distribuzione di epsilon(t) è Normale con media zero e varianza sigma2(t).

Modello GARCH(1,1) Normale con risposta di volatilità asimmetrica

sigma2(t+1) = omega + alpha*(z(t) - rho*sigma(t))^2 + beta*sigma2(t)

Questo è anche definito il GARCH di Duan (da Jim Duan, che lo ha studiato approfonditamente in una serie di articoli a partire dal 1996). L'asimmetria è introdotta dal parametro rho. Si tratta di un modello molto interessante, perché nel continuo tende al modello a volatilità stocastica di Heston (1993), ampiamente utilizzato nel pricing delle opzioni. La distribuzione di z(t) è normale con media zero e varianza unitaria: ciò implica che epsilon(t) si distribuisce come una Normale con media zero e varianza sigma2(t).

Modello GARCH(1,1) A Mistura Bivariata di Normali

sigma2(t+1,i) = omega(i) + alpha(i)*epsilon(t)^2 + beta(i)*sigma2(t,i) per i = 1,2

Questo modello, sviluppato da Carola Alexander, descrive il processo di varianza come il risultato della ponderazione di due Garch Normali simmetrici. Si tratta di uno dei framework più flessibili, nel senso che è in grado di riprodurre dinamiche time-varying anche del momento terzo e quarto della distribuzione di epsilon(t).

Modello GARCH(1,1) t di Student

Idem come sopra ma con disturbi t di Student. Ricordo che la t di Student è una distribuzione simmetrica ma leptocurtica (con indice di curtosi maggiore di 3 quindi).

Modello GARCH(1,1) t di Student con risposta di volatilità asimmetrica

Idem come sopra ma di nuovo con disturbi t di Student.

E finalmente adesso i grafici del VaR out-of-sample!








Ora, ci sarebbe da sciorinare tutta una srie di commenti e di dotte considerazioni. Ma non sarete così ottimisti da pensare che lo faccia alle 0.17 vero? Magari non sembra, ma anch'io ho un lavoro che mi aspetta domattina... quindi good night e alla prossima.
P.S. I nottambuli possono nel frattempo dare una sbirciata e chiedersi: ma se avessi avuto un TS nel Settembre 2008 basato sul VaR Rolling come criterio di stop loss adesso quante latrine starei pulendo...? ;)

martedì 9 novembre 2010

Che cos'è una previsione?

Cari 10 lettori, tenetevi forte che stiamo per addentrarci in un ginepraio non da poco. La domanda del titolo ci spinge immanenti in un terreno impervio, in certi aspetti simile a certe dispute medievali sul sesso degli angeli: che dire, speriamo di avere maggior fortuna. Ho riflettuto a lungo prima di pubblicare questo post, chiedendomi se e quanto potesse essere utile. In fondo, ho da portare solo il contributo della mia personale esperienza e spesso, mio malgrado, mi sono trovato a recitare la parte di colui che rompe le uova nel paniere altrui (e magari fossero solo le uova). Quindi, per quanto non mi piaccia un granché, sarò un'altra volta coerente con questo personaggio, e cercherò di spiegare cosa dovrebbe essere inteso per previsione. Dico dovrebbe, perché di curiose congetture intorno a questa parola se ne leggono a bizzeffe, sui blog di finanza (anche sul più famoso italiano). Purtroppo, per accostarsi a certi concetti senza correre il rischio di dire sciocchezze, occorre sgomberare il campo dagli equivoci. La previsione è un concetto eminentemente statistico, e di qui non si scappa: mi dispiace per i fan del mago Otelma, ma ogni interpretazione differente da questa è un biglietto di sola andata per il mondo dei tarocchi e delle sedute spiritiche. Il che può anche essere divertente, ma ahimè non profittevole, specie per un trading consapevole e razionale.
La previsione non è mai un numero unico: si è portati a credere questo perché la gente è abituata a ragionare "in media" e ha bisogno di statistiche riassuntive rapide, su cui ha una diretta sensibilità e riscontro. E quindi l'ISTAT, la Banca d'Italia e compagnia bella rilasciano il dato del tasso di disoccupazione, della produzione industriale ecc., a cui però illettore attento dovrebbe sempre far seguire l'aggettivo "media". In sostanza, quello che viene diffuso (o per meglio dire, spacciato) come previsione è in realtà soltanto il valore medio del fenomeno che si vuol descrivere. Perciò, viene da chiedersi, trattandosi di media non è che alle volte qualcuno nasconde (magari per non spaventare i meno attrezzati sul piano tecnico) una distribuzione di probabilità vera e propria? Risposta esatta. Ecco che quindi la previsione è una distribuzione di probabilità: che si applichi ai rendimenti del FTSE MIB o alla produzione di latte in Emilia Romagna fa poca differenza concettualmente (metodologicamente ne fa eccome, come purtroppo sanno gli analisti finanziari). Quando viene comunicato un singolo numero di forecast, si sta tentando in realtà di riassumere un'intera distribuzione: il che, se la variabilità della stessa è limitata, può anche avere un senso. Ma se non è questo il caso, può essere invece decisamente fuorviante. Implicazioni per il trading? Troppe, e tutte molto delicate. Diciamo che una strategia semplice, tipo andare long su titoli che in base a qualche modello hanno rendimento atteso positivo, può esporre a rischi difficili da quantificare ex ante. Occorrono quindi dei correttivi, che sfruttino informazioni deducibili dall'intera distribuzione dei rendimenti attesi: non esiste una regola aurea (e se esistesse col cavolo che la scriverei su un blog), ma a naso direi che conta l'esperienza, la sensibilità e la lucidità dell'analista. Ok, qualche personalissimo suggerimento: utilizzare l'Info Ratio al posto del brutale rendimento atteso potrebbe aiutare, così come classificare i titoli in base alla probabilità (ricavabile dalla distribuzione dei rendimenti attesi) che sul periodo di forecast gli asset perfomino oltre un certo threshold. Oppure, costruire un portafoglio secondo un predeterminato criterio e calcolare il VaR ex ante, per farsi un'idea a priori di quanto capitale si sta mettendo a rischio e con quale probabilità.

Insomma la scelta è ampia e per questo difficile. Nella mia esperienza di econometrico applicato "prestato" dall'accademia ai desk, ho imparato, ahimé spesso sulla mia pellaccia, che, invece del modello perfetto (un'entità teorica affascinante, ma che esiste solo nella testa di qualche ingenuo), bisognerebbe ricercare il miglior modo di utilizzare modelli inevitabilmente imperfetti. E' chiaro che lo scopo resta sempre quello di minimizzare l'imperfezione, o renderla il più possibile innocua, ma senza illudersi che l'incertezza delle distribuzioni dei rendimenti attessi collassi a zero. Questo è un modo astruso e tremendamente rozzo di intendere la statistica, che al massimo serve per abbindolare una schiera di pollastri su qualche, pur rinomato, blog.

Stay tuned!

domenica 10 ottobre 2010

Regimi di volatilità (questi sconosciuti)

Si sente molto spesso parlare, sui blog finanziari e non solo, di regimi di volatilità. Il problema è che nove volte su dieci ciò avviene a sproposito. È una situazione frequente: le persone colgono la presenza o l’azione di un fenomeno empirico, grazie all’intuizione, ma poi lo interpretano in maniera erronea o ancora più spesso utilizzando strumenti inadeguati. Insomma, sbagliati. Ora, che la volatilità cambi nel tempo è cosa risaputa e, mi spingo a dire, accettata dai più. Certo, un bell’aiuto in questo senso lo ha fornito anche l’indice VIX, e rendiamo grazie agli sforzi compiuti dal CBOE (ben remunerati, a vedere i volumi dei derivati ivi scambiati ogni giorno). In questo intervento, con il sostegno morale dei residui 2 lettori non ancora preda di Morfeo, cercheremo di dare un contenuto preciso, il più possibile chiaro (almeno, questi sono gli intenti), al concetto di regime di volatilità, fornendo un’applicazione pratica al mercato americano che speriamo sia illuminante, se non altro sul piano metodologico.
Partiamo da lontano. Tutti qui sanno, o sono supposti sapere, cos’è una variabile casuale Normale. Se non lo sapete c’è Santa Wikipedia, ma non abusatene perché, oltre a dare dipendenza, talvolta può confondere ulteriormente le idee. Bene: stando così le cose, non è difficile immaginare cosa siano due variabili casuali Normali. Se a questo punto aggiungiamo l’ipotesi di indipendenza fra queste, direi che non sconvolgiamo la vita di nessuno. Ordunque, ponderando queste due v.c. Normali con dei pesi compresi fra 0 e 1 ( e che chiameremo w) o, se preferite, combinandole linearmente in modo convesso, otteniamo quella che si chiama mistura di Normali. In formule (sperando che sia leggibile):

w * N(mu1,sigma1) + (1 – w) * N(mu2,sigma2)

Questa distribuzione di probabilità ha conosciuto una grande fortuna nell’econometria finanziaria, perché dotata di una grande flessibilità, che le consente di approssimare, anche con margini di errore molto ridotti, qualsiasi distribuzione empirica di rendimenti. Altre ragioni del suo successo, in particolare alcune elucubrazioni del buon B. Mandlebrot, le evito accuratamente, giacché qui si discetta di econometria, e non di magia egizia. In particolare, se avete la pazienza di concentrare la vostra attenzione sul grafico sottostante, formato con la serie storica dei rendimenti mensili dell’indice S&P 500 dal Dicembre 1949 all’Agosto 2010, potrete accorgervi della sua asimmetria, nonché della presenza di una (preoccupante) gobba nella coda sinistra.




Già, la tanto famigerata leptocurtosi, una compagna tanto fedele quanto perniciosa dell’investitore, anche se molti fanno finta che non esista. Tale eccesso di massa di probabilità nei valori estremi negativi potrebbe essere generato dalla giustapposizione tra una Normale con media e varianza centrate sui rispettivi valori campionari e magari un’altra v.c. Normale, con la media appunto spostata nella coda sinistra e un’opportuna varianza. Insomma, se fosse questo il caso, avremmo proprio a che fare con una Mistura di Normali. Ora, immaginate che i pesi di questa mistura possano variare nel tempo, di modo che, ogni mese, le code e l’asimmetria del nostro indice cambino a loro volta. Il motivo di questo comportamento può avere le più disparate ragioni, quali il mutare delle informazioni disponibili sui mercati, decisioni di politica monetaria o altri shocks macroeconomici. Sotto queste condizioni la nostra mistura sarebbe dinamica: se i pesi delle due v.c. Normali fossero governati nel tempo da una catena markoviana (e rivai con Wikipedia…) ben definita, allora avremmo tra le mani un bel, si fa per dire, modello a cambiamento di regime markoviano (cd. Markov Switching Regime). Un processo di questo tipo è dunque una successione stocastica di stati, ciascuno caratterizzato dal suo proprio rendimento atteso e volatilità. L’aspetto più delicato, come è facile intuire, è l’inferenza sui regimi, il che sostanzialmente si riduce a formulare una domanda: quanti regimi agiscono nella serie (ammesso che ce ne siano)?
Rispondere a questa domanda è un lavoraccio. Per i più esperti, rammenterò che utilizzare i tradizionali testi di verosimiglianza (tipo Lagrange Multiplier o Likelihood Ratio) non è possibile, perché l’ipotesi alternativa (appunto la presenza di un regime) è sulla frontiera della regione del test medesimo, e quindi la statistica test non ha una distribuzione standard. Ecco perché spesso si ricorre a simulazioni Monte Carlo o a procedure non parametriche (per non parlare degli strumenti d’inferenza bayesiana). Una domanda dunque controversa e stimolante, alla quale, per quel che ci riguarda, abbiamo fornito la solita risposta brutale (che, volendo essere rigorosi, in realtà avrebbe dovuto essere un’assunzione da verificare all’inizio della nostra indagine, ma turiamoci il naso e andiamo avanti...). Basandoci sull’esperienza empirica e sull’opinione prevalente degli investitori, abbiamo formulato l’ipotesi che il mercato azionario (americano, nel nostro studio) sia caratterizzato da un regime bullish (drift positivo), un regime neutral (drift nullo) e un regime bearish (drift negativo). Pertanto, le tre componenti di questa mistura di Normali saranno:

Normal(m_Bullish,sigma_Bullish) con m_Bullish > 0
Normal(0,sigma_Neutral)
Normal(m_Bearish,sigma_Bearish) con m_Bearish < 0

In un modello a cambiamento di regime le probabilità di transizione da uno stato all’altro determinano il succedersi degli stati. Tuttavia, siccome ogni singolo stato non è direttamente osservabile (infatti, anche un rendimento positivo potrebbe in teoria essere stato generato dal regime bearish, per quanto poco probabile), il rendimento stimato di ogni periodo risulta dalla ponderazione dei tre regimi con le rispettive probabilità di transizione. Si può dimostrare che questo “induce” una forma di eteroschedasticità nella serie (cioè di varianza non costante nel tempo), utile a modellare una delle più frequenti e importanti caratteristiche che di solito si riscontrano nelle serie dei rendimenti finanziari.
Qui di seguito trovate il grafico delle probabilità di transizione in ogni mese.







Come si leggono queste probabilità? Precisamente come la probabilità, data tutta l’informazione disponibile fino al periodo corrente, di trovarsi domani in uno dei tre regimi indicati sopra. In questo modello si può anche calcolare la durata media di ogni stato (rimando a San Hamilton per i dettagli del caso).
Ecco qui i risultati. I coefficienti del modello sono tutti significativi al 95% di confidenza. I tre regimi sembrano ben differenziati, con lo stato bullish caratterizzato da un drift pari a 1.02% e quello bearish pari a -4.07%. Il tempo medio di persistenza dei tre stati è rispettivamente di 24.2, 14.03 e 3.01 mesi. Come leggere questi risultati? Non ho la sfera di cristallo ma posso dirvi la mia modesta opinione, sempre che non vi siate ancora legati un’incudine al collo con l’idea di buttarvi nel Po,. La serie storica dei rendimenti dello S&P 500 ha una tendenza a permanere per più tempo nello stato di espansione, e tuttavia la durata media dello stato neutral (in cui in sostanza il processo si comporta come un puro white noise) non è bassa. Infine, per quanto tre mesi di durata media dello stato bearish possano sembrare pochi, questi si verificano con un drift marcatamente negativo, addirittura quattro volte superiore in valore assoluto a quello del regime bullish (ricordo a chi si fosse svegliato adesso che si tratta di valore mensili, insomma non annualizzati). Quindi, riassumendo: lo stato bullish è più frequente, ma quello bearish espone a perdite capaci di annullare completamente (e anche di più) i guadagni generati dal mercato in fase di espansione.
E la tanto decantata volatilità? Le stime sembrano coerenti con la percezione che dei mercati hanno la maggior parte dei practitioners. In fasi espansive, la volatilità è bassa (poco più del 10% su base annuale), in fasi di stagnazione tocca il 16.14% annualizzata, per raggiungere il suo massimo nel regime di contrazione (quasi il 30% annualizzata).
Guardando alle probabilità di transizione, notiamo che è almeno da Gennaio 2009 che il mercato americano si trova nello stato neutral. Ma se preferite chiamarla fase laterale come il più pappone dei papponi, beh, mi tappo le orecchie, fate pure.
Il problema più grosso, nella stima di questi modelli, è la convergenza dell’algoritmo di massimizzazione della logverosimiglianza. Infatti, un modello a cambiamento di regime ha un profilo di verosimiglianza non regolare (in inglese: smooth), presentando una molteplicità di massimi locali. Centrare il massimo globale è un’impresa ardua, che si può sperare di coronare col successo solo imponendo idonee restrizioni sullo spazio parametrico, avendo a disposizione un campione numeroso e ripetendo la stima più volte con starting values differenti, confrontando il valore della logverosimiglianza di volta in volta ottenuto. Insomma, è questo un tema aperto della ricerca econometrica, ben lungi dall’essere risolto (un contributo importante recentemente lo ha fornito il solito immenso James D. Hamilton). Gestire correttamente questi aspetti controversi è spesso una questione di sensibilità “artigianale”. Nel nostro piccolo ci abbiamo provato, nel tentativo di offrire un nuovo spunto di riflessione e discussione.

Adesso, come sempre, tocca a voi.

Stay tuned!

P.S. Per completezza riporto anche i grafici di volatilità, asimmetria e curtosi. Tutte e tre le serie sono state calcolate tramite simulazione Monte Carlo del processo (per ogni singolo mese). In effetti le forme chiuse dei momenti superiori al secondo sono abbastanza involute, quindi ho preferito ricorrere alla simulazione. Per i commenti sui grafici, spero di farmi vivo quanto prima... ma come sempre non contateci troppo!







sabato 25 settembre 2010

Volatility in troubled times....

La vera sfortuna per voi 10 lettori è che in questi giorni (notti, per l'esattezza) ho un po' di tempo per scaricare sul blog tutto il materiale di ricerca che ho prodotto sprazzi nei mesi scorsi. Questo post in particolare è destinato a raccogliere il frutto di un'approfondita analisi di volatilità condotta sullo S&P 500. L'idea è di testare alcuni membri della famiglia non gaussiana dei GARCH, verificando la loro capacità di produrre intervalli di confidenza previsivi per l'indice americano in regime di turbolenza (in particolare Settembre - Ottobre 2008). A scanso di equivoci, è bene puntualizzare che nemmeno il modello più sofisticato ha il dono della preveggenza (quello, come si sa, compete a certi chartisti grafomani che pubblicano sessanta libri all'anno...). In una successione di eventi di mercato, il primo shock che si verifica (fallimento Lehman Bros, ad esempio) è difficilmente prevedibile. La cosa buona dei modelli GARCH è che, se ben specificati, si adattano piuttosto rapidamente alla conseguenta clusterizzazione dei picchi di volatilità, il che in soldoni significa: è probabile che il primo shock mi colga impreparato prendendomi in piena faccia, ma se resto in piedi magari vinco ai punti. Intiendes? Il problema degli shocks degni di questo nome è che ben di rado risultano coerenti con l'ipotesi di distribuzione condizionata normale dei rendimenti. Assumiamo ad esempio che la media dei rendimenti dello S&P 500 evolva secondo un AR(1), la cui equazione è:

R(t) = alpha + phi*R(t-1) + epsilon(t)

Sia chiaro che questa semplice formulazione non ha la pretesa di essere la miglior previsione possibile per una serie di rendimenti: è, più che altro, una procedura di filtraggio della serie, utile a fornire una stima del residuo più robusta (e nulla più di questo). Ricordo per i più arrugginiti che l'autoregressione sopra riportata è stimabile tramite OLS, una tecnica che, forse non tutti lo sanno, è nella sua essenza non parametrica, nel senso che non presuppone una particolare distribuzione di probabilità per la densità del campione. Questo lascia la porta aperta all'eventualità che epsilon(t) possa non essere un'estrazione da una distribuzione Normale. Con queste poche righe, scritte essenzialmente per gioco, ci siamo imbattuti nel concetto di distribuzione condizionata. Vorrei richiamare l'attenzione dei 10 lettori su questa nozione, sconosciuta in particolare anche a stuole di practitioners (che pure, secondo me, non dovrebbero esserne a digiuno, ma la finanza italiana è uno zoo pieno di bestie singolari). Quando si sente parlare di "eventi estremi che colpiscono i mercati finanziari", in realtà si sta parlando, almeno implicitamente, di epsilon(t) e della sua distribuzione che, con ogni probabilità, non è Normale. Ammettendo che tale disturbo abbia varianza eteroschedastica, se impieghiamo un GARCH gaussiano per cogliere questa caratteristica il peso assegnato alle code della distribuzione di epsilon(t) sarà insufficiente per tenere conto di rendimenti estremamente negativi e quindi il risultante intervallo di confidenza previsivo, costruito a partire dalla previsione sulla media fatta dall'AR(1) e dalla volatilità GARCH, molto poco efficace. La situazione potrebbe migliorare usando modelli GARCH a code grasse (o leptocurtici che dir si voglia)? E' quello che cercheremo di capire nei prossimi giorni. Per il momento posso solo augurarvi buona notte, mica penserete che mi metta a smanettare in MatLab alle 1 e 29 spero...

Premi al rischio & Co.

Dopo molto tempo torno a infestare le pagine di questo blog con le mie elocubrazioni. Mi scuso per l'assenza, ma il tempo è sempre poco, e comunque mai abbastanza per quello che si vorrebbe dire (e, nelle mie intenzioni, condividere). Nell'ultimo post, oramai risalente a qualche mese fa, parlavo di come certe idee di Analisi Tecnica (quantitativa o almeno pretesa tale), a prima vista bizzarre assai, potessero essere riformulate in modo econometrico, così da poter essere rigorosamente testate dai dati empirici. E' esattamente per questo tipo di motivo che gli econometrici sono odiati dagli AT: sentirsi spiattellare che una MA a 200 gg non anticipa un beneamato cappero non deve essere una cosa bella. Però, prima di metterci soldi reali, non sarebbe più prudente avere qualche riscontro oggettivo, che faccia riferimento ai dati? Il problema non è l'errare: il problema è perseverare.


Fine del pistolotto. Potete rimettere in tasca l'accendino con cui stavate per darvi fuoco e, se avete due minuti di tempo, fare due chiacchiere insieme a me del Premio al Rischio (questo sconosciuto). Ora, se sperate di trovare in questo post indicazioni per terminare la vostra tesi di laurea in Economia Finanziaria, state freschi. Quello che vorrei fare è invitare i 10 lettori qua presente a riflettere sul fatto che non è salutare comprare stocks il cui rischio non viene adeguatamente ricompensato. Cosa intendo con questa espressione, dalla sorprendente banalità? Lo vedremo tra breve, ma ricordo che anche l'intuizione apparentemente più scontata, in finanza, necessita di una opportuna modellazione empirica. Altrimenti sono chiacchiere, e tornatevene pure alle medie mobili.

Scendendo dunque nel dettaglio, si consideri un modello CAPM standard del tipo:

R(t) = rf + Beta*[RMKT(t) - rf] + epsilon(t) (1)

dove R(t) è il rendimento di un titolo al tempo t, rf il tasso risk-free (ipotizzato costante, quindi non stocastico), RMKT il rendimento del mercato al tempo t ed epsilon il solito disturbo identicamente e indipendentemente distribuito, che almeno per il momento assumeremo gaussiano con media 0 e una certa varianza. Il valore atteso della (1) è dato da :

E[R(t)]= rf + Beta*E[RMKT(t) - rf] (2)

dalla (2) si capisce subito perché il Beta rappresenta l'esposizione al rischio di mercato.

Un semplice modo per testare il CAPM base sopra riportato consiste nell'aggiungere un'intercetta "alpha" alla regressione e testare la significatività della stessa: se il CAPM regge, tale intercetta non dovrebbe essere significativamente diversa da zero.
Bene. Come ormai sono anche alle bocciofile, il CAPM è un modello di equilibrio. Senza addentrarsi nel ginepraio di cosa questo significhi a livello di teoria economica, possiamo turarci il naso e affermare che, qualora valga il CAPM, il rendimento del titolo oscilla intorno alla quantità "rf + Beta*[RMKT(t) - rf]", distanziandosi da questa solo per brevi periodi e comunque esibendo la tendenza a ritornarvi nel lungo termine (vi piace mean reversion, termine che ora va tanto di modo? E vada per mean reversion va', oggi mi voglio rovinare...). Come si vede, è una definizione piuttosto intuitiva di "equilibrio", che dovrebbe mettere d'accordo un po' tutti, a parte la solita pletora di accademici che, ritengo, avrebbero molto da ridire, rettificare, aggiungere e modificare: ma noi, come sempre facciamo, ce ne sbattiamo allegramente e vai col liscio.
Faccio notare che la varianza del rendimento del titolo, condizionatamente a tutta l'informazione disponibile al tempo t, è data da:


Var[R(t)] = (Beta^2)*Var[RMKT(t)] + Var[epsilon(t)]


La prima componente è detta varianza sistematica e deriva al titolo dall'esposizione al mercato, la seconda è definita varianza idiosincratica o specifica ed è appunto peculiare del titolo. Queste varianze possono essere anche time-varying e probabilmente, trattandosi di stocks, lo saranno. La teoria afferma che, nell'ambito del modello CAPM, è possibile annullare solo la varianza idiosincratica (si può dimostrare costruendo un portafoglio di N titoli equipesati con N che tende a infinito), ma non quella sistematica (ndr, ringrazio Surcontre per avermi fatto notare un lapsus) . Ecco, qui il discorso si fa interessante per un investitore in carne e ossa, meno forse per un ricercatore. Io come potenziale stock picker cercherei di acquistare quei titoli che, per ragioni di inefficienza (legate al news-flow o ad altro) magari anche temporanea, sembrano offrire una remunerazione anche per il rischio specifico. Di conseguenza, il modello che formulerei potrebbe essere quello di un garch-in-mean con il mercato come variabile esplicativa, cioè:

R(t) = rf + alpha + Beta*[RMKT(t) - rf] + delta*sigma(t) + epsilon(t)

dove adesso epsilon ha una varianza esplicitamente GARCH e modellata come segue:

sigma2(t) = omega2 + a*[epsilon(t-1) - lambda]^2 + b*sigma2(t-1)

Si noti che:

  • ho considerato un GARCH asimmetrico, per tenere conto del fatto che empiricamente la volatilità pare rispondere più violentemente a news (cioè, epsilon) negative che positive

  • ho aggiunto l'intercetta alpha per testare l'eventuale presenza di un sovrarendimento non spiegato dal risk-free, dal rischio sistematico o dal rischio idiosincratico
Il gioco che ho fatto è stato stimare, tramite Quasi Massima Verosimiglianza, questo modello per 25 titoli dell'indice FTSE MIB usando i close price dal 28 Febbraio 2005 al 26 Giugno 2010 scaricati da Yahoo Finance. La stima del modello, disponendo di un buon numero di dati, non pone particolari problemi a chi smanetta ad esempio con MatLab (io personalmente l'ho eseguita con un mio codice "autoctono" C#), a parte qualche potenziale difficoltà di identificazione strutturale tra alpha e delta, ma non vi tedierò oltre con queste quisquilie (si fa per dire) econometriche. E' più utile invece cercare di dedurre le implicazioni del modello, e il mio consiglio è sempre lo stesso: prima di farsi abbagliare dal miraggio di facili successi bisogna sempre chiedersi se c'è buon senso nell'impianto teorico che si è messo in piedi. A questo proposito, cosa dice l'equazione del rendimento del titolo? Vediamo in dettaglio:

  • al titolo è richiesto di remunerare il risk-free (prima componente);

  • il titolo può generare extra-rendimento (alpha);

  • il titolo deve ricompensare l'investitore per l'invetsimento al mercato (fattore sistematico)

  • il titolo può godere di una compensazione aggiuntiva per il suo rischio specifico, qualora le dinamiche di mercato non siano sufficienti a remunerare l'investitore con il solo fattore sistematico
Di seguito riporto i risultati per i titoli che mostrano una sensibilità significativa al loro rischio specifico (cioè, il cui t-ratio associato è maggiore di 1.64):












I titoli riportati dunque compensano in media l'investitore anche per la volatilità idiosincratica che li caratterizza. Se il modello dunque è ben specificato (e ben stimato), il raziocinio dovrebbe spingere un investitore prudente (a l quale sia venuta la malaugurata idea di comprare azioni!) di inserire in portafoglio questi stocks, perché il loro rendimento incorpora un premio al rischio specifico. Si tenga presente che il modello, così com'è formulato, non è in grado di fornire previsioni per il perioso successivo, perché a tal fine servirebbe un modello previsivo anche per il mercato (cosa che in realtà ho già implementato, ma se non distillo i risultati mi sa che i lettori da 10 diventano -4). Per questa ragione non ho ancora testato una strategia out-of-sample basata sulla previsione dei rendimenti attesi. D'altronde, ve l'avevo pur detto che il tempo è poco e tiranno, no? Tuttavia, spero almeno di avervi messo qualche pulce nell'orecchio, che stimoli la vostra curiosità e, ovviamente, intraprendenza.


A presto (ma non garantisco eh...)!

giovedì 18 marzo 2010

Analisi Econometrica e Analisi Tecnica

Allora, partiamo da lontano, e guai a chi si addormenta. Qualche anno fa (forse tre, ma potrei sbagliarmi) mi ritrovai nel bel mezzo di uno dei Comitati d'Investimento della banca per cui lavoravo al tempo. Una precisazione: per chi non lo sapesse, di solito questi comitati sono un concerto grosso di gestori anzianotti che russano come l'orso Onofrio di Nonna Papera. Tuttavia quella volta ci fu una rimarchevole novità. Il capo del desk delle gestioni patrimoniali venne da me e mi disse: "Caro collega, lei che ne pensa dell'analisi tecnica?". E io col basso profilo che da sempre mi caratterizza risposi: "Tutto il male possibile ovviamente, ma perché me lo chiede?". Da lì partì una disquisizione sul fatto che "purtroppo le nostre brave regoline non ci danno più le soddisfazioni di una volta, ahimè". E quindi cominciò ad illustrarmi il delirio di sovrapposizioni, incroci e diritti di precedenza vari che alimentavano le loro (una volta infallibili, a quanto pare) strategie. Bene, spesi oltre due ore nel tentativo di decifrare quel mare di discorsi, e alla fine gli dissi: "perché non cerchiamo di formalizzare queste congetture sull'efficacia di certi indicatori, come medie mobili e RSI ad esempio, in senso statistico? Cioè, formuliamo un modello che metta in relazione prezzo e indicatori e vediamo se esiste una qualche significavità statistica dei corrispondenti parametri". Lui non ne fu molto entusiasta, perché in cuor suo temeva che il crudele dato empirico sconfessasse una vita intera di convinzioni ferree. Io invece, come ho già avuto modo di dire nel post precedente, ero molto più sereno, forte del mio agnosticismo: cioè, gli spiegai, io non sto affermando affatto che troveremo inconsistenza statistica nel vostro modo di lavorare. Al contrario, pensavo ingenuamente che un'evidenza statsitica potesse aiutare anche la difesa di certi approcci nei confronti di un Direttore degli Investimenti incazzato come un muflone nella stagione degli amori. Su questa base nelle settimane seguenti sviluppai un semplice modello TAR (Threshold AutoRegressive) sul DAX (o sull'S&P500... e chi se lo ricorda) basato sull'RSI come variabile indicatrice e con due soglie: una a 30 e una a 70. Le quali soglie, mi era stato detto, erano considerate i livelli "critici" dell'RSI. Beh i risultati non furono entusiasmanti... con queste soglie. Non sembrava esserci tutta questa evidenza che le fasi di ipercomprato o ipervenduto, così come raccontato dall'RSI, influenzassero significativamente la performance del DAX. Ma una soglia posta uguale alla mediana dell'RSI (calcolata su tutta la finestra temporale disponibile) invece sì... e con grande stupore dei più (me compreso, che sotto sotto comunque continuavo a remare contro, per presunzione e formazione accademica). Quindi il modellino fu implementato ed è rimasto in vita con buona soddisfazione (il che non vuol dire equity line crescenti ripide senza volatilità: quelle si trovano soltanto alla Fiera di Rimini, ma su questo avremo modo di rtornare in più di un'occasione ;)) fino all'anno scorso... poi il cliente della gestione patrimoniale chiuse il mandato per comprare non so quale immobile a Londra e la cosa è morta lì... un vero peccato. Questo ad ogni modo era solo uno spunto per mandare il seguente messaggio: può esserci del valore in ogni tipo di approccio metodologico, ma l'econometria e la statistica sono solo degli strumenti per accertare la presenza (ad un certo livello di confidenza) di tale presunto (o preteso) valore. Quindi: nei poderosi libri di di Hamilton o di Greene non c'è nessuna pietra filosofale, solo una sfilza interminabile di conti ed equazioni, spesso difficili da digerire. Ai volenterosi il compito di adattare quel corpus formalistico alle proprie esigenze, o meglio alle proprie idee e al proprio intuito. Perché è l'intuito l'ingrediente di ogni strategia d'investimento: l'econometria, la probabilità, la finanza matematica sono solo strumenti per dare robustezza a un'idea, non per crearla di sana pianta. E scusate il grassetto, ma quando ci vuole ci vuole...
Su queste basi, ho cominciato a fare qualche studio sulla rilevanza statistica di certi indicatori tecnici quantitativi a fini di trading su base econometrica. In futuro, riprenderò in mano anche i TAR applicati all'RSI, ma per il momento volevo ammorbare i 10 lettori ancora svegli con un piccolo studio che ho fatto sulla possibile esistenza di cointegrazione fra l'indice FTSE MIB e le sue medie mobili (da quella a 5 gg a quella a 200). Da qualche parte qua sotto o qua sopra trovate il grafico delle relative serie storiche.








Ora, non avrete la sfacciataggine di chiedere a un misero statistico di estrapolare chissà quali conclusioni dagli incroci fra quelle simpatiche linee smussate, vero? Al massimo, io potrei vederci una possibile relazione di cointegrazione, il che merita sicuramente un approfondimento. Nella tabella sparsa da qualche parte in questa pagina, trovate i risultati. Utilizzando dati settimanali dal 31 Dicembre 2003, la procedura di Johansen ha individuato 5 vettori di cointegrazione. A titolo esemplificativo, riporto anche il grafico della combinazione cointegrante n. 1, ottenuta assegnando a ogni variabile l'opportuno peso rappresentato dai corrispondenti elementi del vettore di cointegrazione stesso. Come si vede, la dinamica mean reverting della serie così ottenuta è piuttosto promnunciata, e in effetti appare stazionaria anche a un semplice esame visivo. Questo ci conforta sull'accettazione dell'ipotesi di cointegrazione, ma a ben vedere sarebbe risultato molto strano se così non fosse: in effetti serie di prezzo e relative medie mobili sono tutte funzioni della stessa variabile, di qui la quasi certa cointegrazione (speriamo che nessun mio ex prof legga mai questo post sennò mi spedisce sulla Luna a calci, ma tant'è, ormai ci sono...). L'efficacia previsiva (in media) però è tutt'altro paio di maniche: esprimendo il modello cointegrato in forma ECM si possono effettuare previsioni out-of-sample del rendimento atteso del FTSE MIB a t+1 (cioè, nel nostro caso, per la settimana successiva) e impostare una regola di trading in base alla quale si assume una posizione long se il rendimento atteso è positivo, altrimenti si va short. Ora, è chiaro che si tratta di una regola naif, ma di solito la utilizzo per "tastare il polso al paziente". In altri termini: se c'è qualche valore in un modello di trading econometrico così concepito, dovrebbe emergere anche dall'applicazione di una sistema tanto semplice. Beh, andiamo al sodo: ho fatto un backtest (che non significa soldi reali, chiariamo subito), utilizzando l'ETF di Lyxor su una finestra out-of-sample che va dal 31/12/2007 fino ad oggi. Nel grafico a fianco, i risultati della strategia. Naturalmente una linea verde non significa nulla e la finestra di backtest è troppo breve per provare orgasmi finanziari ma, riportando un 65% di performance positive nella finestra, merita un ulteriore approfondimento... voi che ne pensate?

A presto.

MC




mercoledì 17 marzo 2010

Il Manifesto del Partito Econometrista

Tranquilli, non sto per propinarvi le note di Statistica I di quando ero un imberbe dottorando. Non sono qui per salvare nessuno da una presunta ignoranza. Solo che, essendo pignolo, ho la passione per i puntini sulle "i". E dunque, dovete sapere che vengo or ora da alcuni sedicenti forum di finanza, sui quali ho ho letto delle cose assolutamente singolari, tipo che l'econometria non si presti allo studio delle serie finanziarie, in quanto "come dice la parola stessa, è nata per analizzare l'economia" (sì, avete letto bene, basta stroppicciasi gli occhi e darvi pizzicotti). O ancora: che invece, no, in principio potrebbe anche funzionare ma solo con dati a frequenze basse, tipo un mese o un trimestre (ancora a stroppicarvi gli occhi?).
L'econometria è uno strumento. Non sopperirà mai alla mancanza di intuito, o alla carenza di sensibilità nell'analizzare le varie fasi di mercato. Il più delle volte, a ben vedere, è uno strumento "negante": cioè ha l'effetto di smontare miti e convinzioni che la moltitudine dei chiacchieroni strologanti danno per assodate e incrollabili (tipo: che una certa media mobile anticipa non so cosa, o che i paesi emergenti hanno ormai realizzato il decoupling da quelli sviluppati). In questo senso, l'econometrico si chiama fuori dal coro e non prende parte alla noiosa querelle tra analisti tecnici, analisti fondamentali e macroeoconomisti. In particolare direi che l'econometrico:
1) guarda con curiosità all'analista tecnico (quello quantitativo ovviamente, del graficista non vuole nememno sospettare la teorica esistenza) perché ritiene che nella sua imperterrita ricerca di indicatori vari possa aver colto una dinamica o una regolarità empirica degna di essere verificata in senso inferenziale. Perché, si sa, l'occhio vorrà anche la sua parte, ma spesso inganna...

2) non disdegna di dialogare con l'analista fondamentale, perché grazie alla sua esperienza può aver identificato dei driver di performance di questo o quel titolo, che meritano di essere testati; certo, ha anche il compito ingrato di comunicare alcune ferali ntozie, tipo che col cavolo che la performance di Fiat è determinata dai suoi earnings

3) si accompagna volentieri al macroeconomista, del quale apprezza molto le raffinate analisi su GDP e quant'altro; fermo restando, ahimé, che se lo strategist di turno ha perfettamente compreso il funzionamento dell'economia USA ma non ha chiarito i link fra questa è lo S&P 500, beh allora di TALF, debito pubblico, Non farm Pay Roll e compagnia bella non si sa proprio che farsene

In conclusione, quella dell'econometrico finanziario è una posizione tendenzialmente agnostica. A priori non rifiuta alcun approccio, purché chiaramente abbia una base quantitativa (o quantitativizzabile) da cui partire. Ciò che invece respinge, e non potrebbe essere altrimenti, è la mis-interpretazione dei fondamenti della disciplina non solo econometrica, ma statistica in senso generale. Detesta i luoghi comuni e le uniche idee a priori che ammette sono quelle espresse in termini bayesiani (e anche lì dipende dalla scuola di provenienza...). Chiede conto delle affermazioni pronunciate con troppa faciloneria e sicumera, sottoponendole al rigore dei dati empirici, che purtroppo spesso parlano in modo fin troppo chiaro e, ahimè, spietato. Mette in evidenza le contraddizioni logiche alla base di decisioni d'investimento basate sulle "sensazioni" o su una presunta vulgata in virtù della quale, ad esempio, "quando cresce il PIL le borse vanno su" (sì, auguri).

Orbene, se mettete insieme tutte queste considerazioni, non avrete difficoltà a capire perchè siamo la categoria più odiata di tutte!

E tuttavia, di questo rancore ci facciamo orgogliosamente un vanto. D'altronde signore e signori, se i dati vi vanno contro sarà mica colpa nostra?

Ok, ora che abbiamo fondato il Partito, prometto che dal prossimo post cominciamo con l'Econometria.

E se ci gira male, ci candidiamo anche alle elezioni. Tanto meglio del PD facciamo di sicuro. ;)