Skip to content

Algoritmo di Fund Ranking: l’efficacia dell’esperienza

Algoritmo_tw

L’algoritmo di selezione dei fondi è lo strumento principale di Euclidea per il supporto nella decisione di che fondi inserire in portafoglio. 

Il risultato di tale algoritmo è una classifica che ordina i fondi e gli ETF dal migliore al peggiore. Abbiamo già avuto modo di spiegare in un precedente articolo che, in Euclidea, consideriamo i fondi attivi e gli ETF in maniera agnostica. Per ottimizzare i portafogli dei nostri clienti, infatti, usiamo entrambi e per questo motivo il nostro ranking comprende sia i fondi attivi che gli ETF.

La suddetta classifica viene effettuata a livello di peer group (ossia di gruppi di fondi con strategie di investimento omogenee) dal momento in cui crediamo che le caratteristiche di ciascun fondo debbano essere valutate nel contesto in cui il fondo stesso opera. In questo modo, le decisioni riguardanti l’asset allocation e le decisioni riguardanti la selezione dei fondi vengono tenute ben distinte. L’ identificazione di peer group omogenei è il primo passo nella costruzione del nostro ranking proprietario, ed è il primo elemento di distinzione rispetto ad altri metodi di classificazione disponibili sul mercato. È chiaro dunque che l’efficacia dell’algoritmo dipenda da come i peer group sono costruiti e dalla loro effettiva omogeneità.  Evitare che una classificazione errata possa inficiare i risultati del ranking è cruciale. I peer group sono dunque costantemente ‘puliti’ in modo tale che ogni fondo sia assegnato al gruppo di sua competenza. Per fare ciò, vengono utilizzati degli algoritmi di clustering che identificano le caratteristiche statistiche di un fondo e ne suggeriscono l’appartenenza ad un determinato peer group. Una volta che i fondi sono stati assegnati, l’algoritmo procede alla selezione delle share class da valutare.

Selezione della Share Class

La selezione delle share class è un altro aspetto fondamentale del data preprocessing. Ogni fondo ha più share class in cui investire, ma entra nel ranking con una sola, quella ritenuta più idonea ai fini della nostra strategia di investimento. Queste si differenziano principalmente in ordine di commissioni, valuta e hedging policy. È necessario che la classe istituzionale venga selezionata e denominata nella valuta e hedging policy adeguate. L’algoritmo implementa un albero decisionale che codifica la priorità delle caratteristiche che un comparto deve avere per essere giudicato idoneo.

“Hyper” Price

Una volta ottenuta la share class idonea, rimane un ultimo passo prima di procedere all’algoritmo vero e proprio. Ammettiamo che la share class scelta al punto precedente, la share class A, non abbia sufficiente track record; ammettiamo inoltre che un’altra share class dello stesso fondo, la share class B, sia invece vecchia abbastanza. Se l’algoritmo utilizzasse il prezzo della prima share class staremmo trascurando dei dati utili per la valutazione del fondo (notare che si può incappare nello stesso tipo di problema in termini di valute o hedging). Per evitare ciò, il prezzo della share class B verrà depurato dalle commissioni (o dalla valuta o dall’hedging) e in questo modo verrà creata una serie storica che rappresenta “l’idea platonica” del fondo. Poco importa se la share class B non sarà quella valutata nell’algoritmo (la A), perché a questo punto ci sarà un’unica serie storica comune a tutte le share class di uno stesso fondo. D’altronde, hedging, commissioni e valuta altro non sono che modifiche di overlay all’investimento originale.

L’algoritmo “Core”

Per ogni peer group vengono dunque selezionati i fondi che vi appartengono e le corrispondenti serie storiche depurate come descritto al punto precedente. Queste vengono analizzate secondo quattro diverse prospettive:

  1. Costo
  2. Rischio
  3. Performance
  4. Altro

Ogni fondo otterrà un punteggio in termini di queste macro aree, a ciascuna delle quali è assegnato un peso. Il punteggio finale del fondo altro non è che la media pesata dei punteggi ottenuti in ciascun’area. Con la stessa logica, il punteggio di ogni macro area è ottenuto pesando i punteggi ottenuti nelle aree a loro sottostanti, che meglio declinano i vari aspetti dell’area “madre”[1]. Esse vengono descritte più nel dettaglio nei paragrafi successivi.

Costo

Il costo è la prima metrica secondo la quale valutare un fondo. Troviamo che questo sia naturale, dal momento che esso è l’unica componente certa di ritorno futuro (come spiegato in un precedente articolo, la minimizzazione dei costi è altamente efficace se non usata in maniera tranchant, bensì selettivamente a seconda delle caratteristiche dell’asset class sottostante). Le due sub metriche qui valutate sono dunque il total expense ratio (TER) e il rapporto tra la tracking error volatility (TEV) e il TER. La tracking error volatility misura la volatilità del delta di rendimento tra il benchmark del peer group e il fondo e rapportarlo al TER equivale a chiedersi se, per unità di costo, il fondo stia “muovendo” a sufficienza, ossia se si stia adoperando abbastanza per la generazione di un extra rendimento.

Rischio

Sotto la metrica di rischio ci sono cinque sub-metriche: la prima è la volatilità, la misura di rischio più celebre, che misura la dispersione dei ritorni intorno alla media[2]. Strettamente legato al concetto di volatilità c’è quello della seconda metrica, la downside deviation, che cerca di discriminare tra la cosiddetta volatilità “buona” (dei ritorni positivi) e quella cattiva (dei ritorni negativi), misurando la volatilità solo di quest’ultimi. La terza misura di rischio è la tracking error volatility, che misura la volatilità del delta di rendimento tra il benchmark del peer group e il fondo. La quarta metrica è quella del drawdown, definita come la perdita massima ottenuta rispetto al valore di picco registrato. Infine vi è una misura di tail risk, o rischio di coda, che misura quanto “spesse” sono le code della distribuzione dei ritorni[3].

Performance

La prima sub-metrica in ottica di performance è, naturalmente, il rendimento di ciascun fondo. Questa misura può sembrare scontata, ma implica un’assunzione molto forte, ossia che i fondi che hanno fatto meglio continueranno a fare meglio in futuro. Le tre metriche seguenti sono tre indici di rendimento risk-adjusted: lo Sharpe ratio, Sortino ratio, l’information ratio. I primi due misurano il rendimento rapportato rispettivamente alla volatilità e alla downside deviation, mentre l’ultimo il rapporto tra il differenziale di rendimento e la TEV. La quinta metrica è quella di consistency: essa misura con che costanza il fondo è stato nei primi quartili in termini di rendimento.

Altro

Infine, ci sono tre metriche che non rientrano in alcuna categoria specifica. Queste sono molto importanti: quando spieghiamo che Euclidea ha un algoritmo di selezione proprietario significa che i fondatori della società hanno trasferito la loro esperienza nel costruire un processo di selezione dei fondi e costruzione dei portafogli, in algoritmi che siano il risultato proprio di questa esperienza, in particolare come fund selector. Queste metriche riflettono quindi la loro competenza nella selezione di un fondo, che avviene in seguito a centinaia di incontri con gestori di fondi internazionali. In queste ratio si è voluto rendere quantitativi dei parametri di scelta di tipo qualitativo effettuati dai fund selector nel corso della due diligence di un fondo. La prima sono gli Asset under Management (AuM, o masse gestite): la logica sottostante è che un fondo estremamente piccolo o estremamente grande avrà più problemi a raggiungere i suoi scopi rispetto ad un fondo di dimensione media. Il secondo riguarda gli inflow e gli outflow, sempre in termini di masse gestite: più sono i flussi più estremi (in positivo o in negativo), peggiori sono le possibili ripercussioni sull’operatività del fondo[4]. Infine vi è la tenure del gestore, una metrica funzione del tempo in cui il gestore è rimasto in carica.

L’IA

L’ultima metrica deriva da un algoritmo afferente a quella sfera dell’intelligenza artificiale chiamata “Deep Learning”. Quest’algoritmo implementa un modello di rete neurale che cerca di prevedere attraverso tecniche computazionali che fondi apparterranno al primo quartile in termini di Sharpe Ratio o di altre metriche (e.g. Calmar Ratio). Mentre i pesi relativi a ciascuna metrica (sia micro che macro) sono fissi all’interno dell’algoritmo “core”, quest’ultima metrica di IA cerca di supplire a eventuali relazioni tra le varie metriche che sono state trascurate o a pesi non calibrati ottimamente. Correndo parallelamente all’algoritmo principale, esso cerca in sostanza di sopperire a suoi eventuali “punti cechi”, e mira ad avere un valore predittivo in termini di quartili.

Note sui Fondi Alternativi

I fondi alternative UCITS sono valutati in maniera parzialmente differente rispetto agli altri fondi cosiddetti long-only. In questi fondi la componente di “alfa”, cioè la componente di ritorno indipendente dal mercato sottostante, è preponderante (o dovrebbe esserlo). Per valutare correttamente l’operato di questi fondi è dunque fondamentale distinguere la parte di rendimento che deriva dall’esposizione al mercato sottostante (beta) da quella generata dalla bravura del gestore (alfa). Una volta ottenute queste quantità[5], esse vengono utilizzate per calcolare gran parte delle metriche di cui sopra (ad esempio, lo sharpe ratio diventa il rapporto tra l’alpha e la volatilità dell’alpha), mentre altre metriche vengono aggiunte in modo tale da valutare il fondo di concerto con le peculiarità dei fondi alternativi (ad esempio, metriche che verifichino che il beta si evolva coerentemente con la strategia d’investimento del fondo[6]).

 

[1] Gran parte delle metriche sono pesate in maniera tale da dare maggiore rilevanza alle statistiche più recenti rispetto a quelle meno recenti, e.g. un fondo che ha ottenuto un ottimo rendimento nell’ultimo anno avrà un ranking migliore di un fondo che ha ottenuto un ottimo rendimento quattro anni fa, ceteris paribus.

[2] Più nel dettaglio, la volatilità, detta anche deviazione standard, pesa più che proporzionalmente i ritorni più distanti dalla media.

[3] Per stimare questo indicatore facciamo ricorso al cosiddetto Hill’s Estimator, che è lo strumento più comune per stimare lo spessore delle distribuzioni ‘heavy-tailed’.

[4] Si noti che i flussi di cui si parla sono depurati dell’effetto mercato, cioè considerano solo il denaro che entra o esce dal fondo.

[5] La componente di alfa e di beta vengono ottenute tramite regressioni con finestra mobile tra la serie storica del fondo e quella del benchmark.

[6] In questo caso l’algoritmo opera un’ulteriore distinzione tra fondi market neutral, ossia con beta atteso uguale a zero, e i fondi total return, che mantengono un’esposizione variabile al mercato sottostante.