Visualizzazione post con etichetta analisi tecnica. Mostra tutti i post
Visualizzazione post con etichetta analisi tecnica. Mostra tutti i post

mercoledì 28 marzo 2012

Un approccio quantitativo all'asset allocation tattica di Faber

E' da qualche giorno online la nuova versione dell'articolo che  insieme a Claudio Pacati, Roberto Renò e Adrian Risso dell'Università di Siena abbiamo dedidicato all'asset allocation tattica proposta da Faber. In questo articolo cerchiamo di determinare la robustezza statistica della strategia di trend following proposta da Faber nel suo articolo A Quantitative Approach to Tactical Asset Allocation.

L'articolo di Faber è uno degli articoli più letti di financial economics degli ultmi anni: come osserviamo nell'introduzione del nostro lavoro

In Faber (2007), a very simple trend-following strategy has been proposed and “shown” to outperform the market. The simplicity of the tactical asset allocation suggested and the remarkable performance of the strategy (no losing years from 1972 to 2007) have contributed to make it an outstanding editorial success. On January 20, 2012, the paper was still the most downloaded paper on SSRN (www.ssrn.com, one of the largest online libraries of working papers) in the last 12 months and the second most downloaded paper in total (surpassed only by Solove, 2008), reaching the noteworthy figure of 84, 255 downloads. While using the number of downloads to measure the scientific relevance of a paper is certainly questionable under many respects, it is at least interesting to notice that the fourth paper in the list is Fama (1998), authored by one of the recognized fathers of the doctrine of market efficiency. 


Come i lettori di Alfa o Beta? sanno bene The trading rule proposed by Faber (2007) for asset allocation among risky  assets and a risk-free asset is as simple as that: if the monthly closing price of  the risky asset is higher than its past ten month average, buy the risky asset; else  
buy the riskless asset. This “timing” model applied to each asset of a diversified  

portfolio including United States stocks, the Morgan Stanley Capital International  
EAFE Index (MSCI EAFE), Goldman Sachs Commodity Index (GSCI), National  
Association of Real Estate Investment Trusts Index (NAREIT), and United States 


government 10-year Treasury bonds leads to rather impressive results: Better risk-
adjusted performance than a reference equally-weighted yearly rebalanced passive  

portfolio and, especially, a drastic reduction of the maximum drawdown. Published  
by the author just before the 2007–2009 financial crises its growing popularity is  
certainly due to the remarkable result of over thirty-five consecutive years of positive  
performance.

La difficoltà principale nella valutazione di strategie con una bassa frequenza di ribilanciamento come questa è la limitatezza del campione statistico a disposizione: le serie temporali a disposizione, con frequenza mensile, sono costituite da poco più di 400 dati, decisamente corte. L'approccio che abbiamo seguito è stato quello di applicare il metodo del boostrapping alle innovazioni ottenute applicando un semplice modello GARCH(1,1) applicato alle serie temporali mensili dei rendimenti dei sei asset coinvolti (oltre ai cinque asset rischiosi bisogna anche tenere conto della variabilità del tasso di renumerazione della liquidità).
Ecco il risultato che mostra nel piano media-varianza il portafoglio storico ottenuto applicando la strategia di Faber (in rosso), la frontiera efficiente calcolata ex-post dai rendimenti storici degli asset (in blu) e i risultati di cinquecento portafogli ottenuti applicando la strategia di Faber ai rendimenti simulati con il boostrapping.


E' possibile leggere i risultati delle simulazioni in modo quantitativo utilizzando una funzione di utilità per misurare la percentuale di portafogli che dominano il portafoglio di Faber (nel piano media varianza, dunque che presentano una volatilità non superiore e un rendimento non inferiore a quello di Faber). Abbiamo impiegato una funzione di utilità quadratica u(x)=x-(gx^2)/2 dove g>0 è il coefficiente di avversione per il rischio. Nella tavola qui sotto abbiamo riportato la percentuale di portafogli simulati (boostrapped) che hanno un'utilità superiore all'utilità ottenuta dalla strategia di Faber applicata alla serie storica. Questa percentuale può essere interpretata come una stima della significatività statistica (in gergo, del p-value) della strategia di Faber, fornendo una stima della probabilità che la sovraperformance sia un effetto casuale. Com'era prevedibile, al crescere dell'avversione per il rischio la strategia si comporta meglio. E' bene tuttavia osservare che un coefficiente g=4 comporta che l'investitore rifiuti un investimento con un rendimento atteso del 10% qualora la deviazione standard superi il 20%, valori assolutamente normali per un investimento di tipo azionario.

mercoledì 15 dicembre 2010

Le strategie di trend-following e i mercati post-crisi finanziaria: l'esempio del Decision Moose di Bill Dirlam

I lettori più fedeli di Alfa o Beta? conoscono già il sito Decision Moose di Bill Dirlam: in un post dell'aprile scorso riprodussi un suo commento dedicato al tema dei derivati e della loro regolamentazione. Decision Moose è in realtà soprattutto un sito diventato celebre per una strategia di asset allocation tattica fondata sul momento che ha avuto uno straordinario successo: online dal 30 agosto 1996 ha garantito ai suoi fedeli un rendimento complessivo (teorico, cioè al lordo di tasse, costi di transazione ecc. ecc.) del 2415% attraversando pressochè indenne fasi di turbolenze dei mercati come la crisi dell'estate 1998, lo scoppio della bolla tecnologica, l'11 settembre, la crisi finanziaria del 2008 e così via (qui potete trovare la serie storica di tutte le transazioni di questo portafoglio mentre qui trovate molte più informazioni sul modello e su come è stato costruito).
Il commento settimanale di Dirlam è una delle mie letture preferite della domenica sera: il commento di questa settimana è dedicato alla performance a dir poco deludente della strategia negli ultimi 24 mesi.
Con l'autorizzazione dell'autore lo riproduco qui sotto

Not Fighting the Fed While it Fights Me

Have to admit that the last two years have been very humbling for the Moose. In prior years, it regularly provided a CAGR in the 25-35% range. It caught the 2008 meltdown before it happened and avoided the 45% losses many buy-and-hold equity investors suffered. Lately however, it has underperformed the S&P by a rather frustrating margin.
I've been asking myself why that might be. What, if anything, could I do to improve the model's near term results-- without jeopardizing the aspects of the construct that have provided its long term success? What is different about this cycle-- beyond the fact that government has been roiling the markets for two years?
The three keys to the model's long term success are that it doesn't fight the market; it doesn't fight the tape; and it doesn't fight the Fed. The mathematical reflections of those keys are (1) relative strength among the assets in the model, (2) a technical analysis of each asset, and (3) the Fed Check.

Il Fed Check di cui si parla è un indicatore tecnico basato sul confronto dell'andamento dei prezzi delle obbligazioni del Tesoro USA con l'andamento dei prezzi delle materie prime che cerca di prevedere in qualche modo le prossime mosse della politica monetaria USA. Nelle parole del suo creatore
The Fed Check reveals what the market thinks the Fed should do-- not to be confused with what it WILL do. The indicator is a ratio between Treasury bond prices and commodity prices, examined over the medium term. 
Quando il rapporto si allontana consideravolmente da 1 in un senso o nell'altro è spesso indicativo di interventi sui tassi di interesse in senso restrittivo (quando le materie prime crescono comparativamente troppo in fretta, anticipando futuri trend inflazionistici) o al contrario più accomodanti (quando invece sono i prezzi delle obbligazioni a crescere troppo in fretta, abbassando i tassi di interesse e segnalando la necessità di tagliare i tassi da parte della Fed, un segnale solitamente fortemente rialzista per i mercati azionari)

L'analisi settimanale di Dirlam prosegue con alcune considerazioni tratte dall'esperienza degli ultimi due anni che possono però interessare chiunque cerchi di costruire modelli quantitativi di asset allocation...


 Exogenous government intrusions into the marketplace that truncate trends and increase both unpredictability and volatility are outside the control of any trend-following model builder. I must confine my search to issues that I can address. In that respect, over the past two years, the Fed Check seems to have been the primary culprit in retarding Moose profits. The Fed Check has kept us out of stocks when we should have been in, and put us into bonds when we should have steered clear.
For those of you who are into building your own models, there is a lesson here. That lesson is that every component in a good model requires a very long data history. Problem with exchange traded funds is that the data histories are still relatively short. When the moose was being developed back in the late 80s, the technical component was adopted based on a 70-year time frame, and the the relative
strength component was adopted based on a 50-year timeframe. I only used about a 20-year time frame for back-testing the Fed component, however. That has proved to be a mistake.
During the 70s and 80s, stock prices and bond prices were positively correlated. In other words, they moved in tandem, rising and falling together. They were complementary. Since the 2000–2003 meltdown, however, stocks and bonds have become negatively correlated.
They have become substitutes for one another. When stocks go down, bond prices go up, and vice versa.
Substitution is the traditional view of the stock-bond relationship that devolved during the 30s, 40s, and 50s. The major difference is that the 70s and 80s were highly inflationary compared to the earlier era, during which we were fighting depression-era deflation prior to fighting a world war. Now that we are in another “deflationary” period, the traditional relationship has returned.
The Fed Check's rule to avoid stocks when bond prices are collapsing relative to commodity prices, then, is the result of an initial analysis that only considered an abnormally inflationary environment. In a disinflationary cycle, such as the one that began around 2001, the rule began to work only sporadically, so I adjusted the model, to account for the short term technicals in stocks before avoiding them. In a deflationary cycle-- like the one we've experienced over the past two years-- it hasn't worked at all.
Now that I have figured out the problem and why it may be happening, I guess it's time to go back to the drawing board on the Fed Check.
Meanwhile, the model holds US small-cap stocks this week, even while the Fed Check continues to deteriorate. I still perceive IWM to be the most attractive equity option for reasons expressed in last week's “author's take”. Also, Treasury bonds are extremely bearish. Without some meltdown in China or Europe that threatens the global economy, bonds' bull run is over. Money is exiting bonds and going elsewhere. For those who might prefer a more diversified approach, yes, equities are behaving as a substitute, but so are gold and commodities.

venerdì 8 ottobre 2010

Il lancio di GTAA e i dubbi di Jason Zweig

Mebane Faber annuncia la prossima quotazione di un ETF dal ticker GTAA le cui scelte di portafoglio si fondano sul trend following e sull'impiego del momento e della mean reversion. E' un concorrente potenzialmente molto agguerrito dopo il terribile biennio 2007-2008, durante il quale le tradizionali strategie di asset allocation hanno sofferto molto per il simultaneo collasso sia delle azioni che del mercato immobiliare e delle materie prime. Così non mi stupisce che i pesi massimi dell'informazione finanziaria stiano già alzando un bel fuoco di sbarramento.

Qui sotto potete ascoltare l'opinione di Jason Zweig che solleva numerosi dubbi sul valore aggiunto dell'asset allocation tattica rispetto ai più tradizionali portafogli diversificati strategici.



Qui sotto invece potete ascoltare un'opinione di Robert Arnott di Research Affiliates sull'impiego di strumenti tattici per le decisioni di asset allocation. L'intervista è vecchia di qualche mese.  Arnott è un acceso sostenitore di una asset allocation tattica che impiega strumenti di valutazione fondamentali per le decisioni di portafoglio. E' infatti il creatore degli ETF fondamentali, scambiati anche sul mercato italiano, in cui in cui i pesi dei titoli azioniari in portafoglio anzichè essere proporzionali alla capitalizzazione, sono stabiliti utilizzando diverse metriche di tipo value (dividendi, ricavi, utili, ecc.).



Se siete curiosi di approfondire alcune idee alla base della strategia di Faber potete dare un'occhiata anche qui,  se invece volete approfondire il meccanismo di costruzione degli indici fondamentali sui quali si basa l'asset allocation  raccomandata da Arnott potete farlo qui. 

martedì 17 agosto 2010

Un nuovo crash in autunno?

I sostenitori dell'analisi tecnica sono molto sensibili agli indicatori di breadth: un mercato sano deve avere un buon bilancio tra tori e orsi in modo da sostenere i trend in atto, specialmente al rialzo. Un indicatore temutissimo è l'Hindenburg Omen poichè espressamente concepito per anticipare possibili crash del mercato azionario U.S.A. Secondo il Wall Street Journal la definizione dell'indicatore prevede:

The Omen's Criteria

All criteria must be met for a confirmed occurrence.
  • The daily number of new NYSE 52-week highs and the daily number of new 52-week lows must both be greater than 2.5% of the total issues traded that day.
  • The smaller of the 52-week highs and lows must be greater than or equal to 79 (or 2.5% of 3,168 issues).
  • The NYSE's 10-week moving average must be rising.
  • The McClellan Oscillator, a measure of market fluctuations, must be negative.
  • New 52-week highs can't be more than twice the new 52-week lows. (However, it is acceptable for the new 52-week lows to be more than double the 52-week highs.)
L'Omen ha svolto un buon lavoro nell'anticipare i crash degli ultmi 20 anni:

The Omen was behind every market crash since 1987, but also has occurred many other times without an ensu. ing significant downturn. Market analysts said only about 25% of Omen appearances have led to stock-market declines that can be considered crashes.
"The Hindenburg Omen does show some deteriorating internals, which signals some major concerns," said Ryan Detrick, senior technical strategist at Schaeffer's Investment Research. "But it isn't a reason to move to 100% in cash. We're taking a wait-and-see approach, but considering its recent history, we're considering it more than other indicators."

Se volete saperne di più potete dare un'occhiata anche qui. 
Bisogna però stare molto attenti a tirare delle conclusioni sugli indicatori di crash: il campione statistico che si ha a disposizione è limitatissimo (è curioso che nessuno abbia provato a verificarne l'affidabilità su altri mercati, come ad esempio quello inglese, tedesco o giapponese...se qualche lettore è in grado di indicarmi qualche referenza bibliografica o qualche post sul web a questo riguardo gli sarei molto grato). Una discussione dell'affidabiltà di questo indicatore che solleva la questione del rischio di data mining e overfitting of rules to historical data è svolta nel blog di CXOadvisory. In particolare l'efficacia dell'Omen sembra essere dovuta al successo nell'anticipare i crolli del 1987, del 2001 e del 2008, come indica la figura qui accanto. Tenete presente che dal 1986 ad oggi si contano 27 segnali in tutto.