Aktienindizes: alternative Gewichtungsmethoden im Vergleich

Wer passiv in Aktien investiert, kauft klassischerweise ETFs, die einen nach der Marktkapitalisierung der enthaltenen Titel gewichteten Index abbilden – den DAX, den Euro Stoxx 50, den S&P 500, den FTSE 100 oder auch die bekannten MSCI-Benchmark-Indizes. Mit dem Aufstieg des indexorientierten Investierens begann allerdings auch der Aufstieg verschiedener alternativer Gewichtungsmethoden für Indizes. Die haben im Wesentlichen allesamt das gleiche Ziel: ein besseres Rendite-Risiko-Profil als die klassischen Marktkapitalisierungs-Indizes.

Marktkapitalisierung mit Obergrenze, Gleichgewichtung, Minimum-Varianz-Gewichtung und so weiter und so fort – dass es überhaupt so viele verschiedene Gewichtungsprinzipien für investierbare Aktienindizes gibt, zeigt schon: Der Marktkapitalisierungsansatz ist durchaus umstritten. Offenbar zurecht, wie ein von der Cass Business School veröffentlichtes Paper zeigt. Viele alternative Ansätze schneiden besser ab als der Marktkapitalisierungs-Ansatz – insbesondere seit den späten 1990er-Jahren.

Heuristische Gewichtungsmethoden, empirisch untersucht

Die Studie stützt sich auf Daten für die 1.000 größten US-Aktien und hat den Zeitraum zwischen 1969 und Ende 2011 untersucht, also immerhin 42 Jahre. Ein nach dem Marktkapitalisierungskriterium aus diesem Anlageuniversum gebildeter Index trat dabei gegen verschiedene andere Gewichtungsmethoden an. Namentlich:

  • Gleichgewichtung: Bei diesem Ansatz erhält jede Aktie im Anlageuniversum das gleiche Gewicht im Index. Ein möglicher Nachteil dieses Verfahrens ist nach Angaben der Autoren der Studie, dass kleinere, weniger liquide Aktien systematisch höher gewichtet werden als in einem Marktkapitalisierungsindex.
  • Vielfaltsgewichtung: Klingt komisch auf Deutsch, aber ich wollte Diversity Weight, wie alle anderen Methodenbezeichnungen auch, nicht unübersetzt lassen. Dieser Ansatz stellt eine Mischung aus der Gewichtung nach Marktkapitalisierung und der Gleichgewichtung dar. Im Kern geht es darum, dass das aufgrund der Marktkapitalisierung der Indexbestandteile ermittelte Indexgewicht bei einer Obergrenze gekappt wird. Dafür werden die übrigen Indexkomponenten gleichmäßig höher gewichtet. Für Ihre Studie haben die Autoren Andrew Clare, Nick Motson und Steve Thomas das nach der Marktkapitalisierung ermittelte Gewicht jeder Aktie im Index mit einem Wert kleiner 1 potenziert (w^p) und den resultierenden Wert anschließend durch die Summe der w^p-Werte aller Indexbestandteile dividiert.
  • Inverse Volatilitätsgewichtung: Der klassischen Finanztheorie zufolge sollten Wertpapiere mit hoher Volatilität, riskante Papiere also, höhere Renditen erzielen als weniger riskante Papiere. Allerdings brachte eine in den 1970er-Jahren veröffentlichte Studie offenbar ein ziemlich genau gegenteiliges Ergebnis. Basierend darauf – und auf dem zuletzt gestiegenen Interesse an Minimum-Varianz-Investments – konstruieren Clare & Co. auch einen Index, in dem Aktien mit niedriger Volatilität ein höheres Gewicht bekommen. Dafür ermitteln sie zunächst die Standardabweichung der jeweiligen Rendite für jede Aktie, bilden den Kehrwert davon und dividieren diesen dann durch die Summe der Kehrwerte der Standardabweichungen aller Indexbestandteile. Auf diese Weise erhält die Aktie mit der geringsten Renditevolatilität das höchste Gewicht im Index, während die Aktie mit der höchsten Volatilität das niedrigste Gewicht erhält.
  • Risikoparitätische Gewichtung: Gewichtet man Aktien in einem Index unabhängig von ihrer Marktkapitalisierung gleich, bedeutet dies noch nicht, dass auch alle Aktien in gleichem Maße die Volatilität des Index beeinflussen: Aktien mit höherer Volatilität haben bei dieser Methodik einen stärkeren Einfluss auf die Gesamtvolatilität des Index. Ein weiterer alternativer Gewichtungsansatz zielt daher darauf ab, dass alle Indexbestandteile gleichermaßen zur Gesamtvolatilität, also zum Risiko des Index, beitragen. Enthält ein Index 100 Aktien, dann sollte nach diesem Modell jede einzelne Aktie 1 Prozent zur Gesamtvolatilität beisteuern.
  • Gewichtung nach Risikoclustern: Schließlich untersucht die Studie noch ein Verfahren, das nicht einzelne Aktien nach ihrem Risikobeitrag gewichtet, sondern ganze Cluster von Aktien mit ähnlichen Risikoeigenschaften. Das für die Studie gewählte, relativ einfache Verfahren sieht vor, dass solche Cluster aus Aktien gebildet werden, die jeweils der gleichen Branche angehören. Alle Cluster – Finanztitel, Konsumgüteraktien und so weiter – sind im Index gleich gewichtet. Innerhalb der Cluster sind die Aktien nach Marktkapitalisierung gewichtet.

Die Studienautoren weisen darauf hin, dass keine der hier vorgestellten Indexkonstruktionsmöglichkeiten eine wissenschaftliche Basis gibt – und letztlich auch keinen Grund für Investoren, im Vorhinein eine überlegene Performance der einen oder anderen Gewichtungsmethode zu erwarten. Die empirischen Daten zeigen allerdings, dass es in der Vergangenheit durchaus Unterschiede gab. Frappierender als die Unterschiede zwischen den einzelnen Gewichtungsmethoden ist allerdings die Tatsache, dass jede einzelne der vorgestellten Methoden im Zeitraum zwischen 1969 und 2011 besser abschnitt als der nach Marktkapitalisierung gewichtete Index – obwohl doch gerade dieser sich am ehesten aus der Kapitalmarkttheorie ableiten lässt. Das half ihm allerdings wenig: Er erzielte lediglich eine jährliche Rendite von 9,4 Prozent, während der nach inverser Volatilität gewichtete Index es auf 11,4 Prozent p. a. brachte und der risikoparitätische Index 11,3 Prozent p. a. erzielte. Risikomaße wie Standardabweichung und maximaler Verlust lagen dabei in einem ähnlichen Bereich, sodass die Marktkapitalisierungsgewichtung letztlich auch die niedrigste Sharpe-Ratioaufwies (siehe Tabelle 1).

Tabelle 1: Rendite und Risiko der Strategien von 1969 bis 2011

Methodik Rendite p. a. Volatilität Sharpe-Ratio Max. Drawdown
 Marktkapitalisierung  9,4 %  15,3 %  0,32  -48,5 %
 Gleichgewichtung  11,0 %  17,2 %  0,39  -50,2 %
 Vielfaltsgewichtung  10,0 %  15,7 %  0,35  -48,8 %
 Inverse Volatilität  11,4 %  14,6 %  0,45  -45,7 %
 Risikoparität  11,3 %  15,6 %  0,43  -47,5 %
 Risikoclusterung  9,8 %  16,7 %  0,33  -48,9 %

Bei einem Blick auf die Performance in den einzelnen Jahrzehnten der Stichprobe zeigt sich ein ähnliches Bild: Der Marktkapitalisierungsindex schnitt in den 1970ern, 1980ern und in den 2000ern am schlechtesten ab, wobei es allerdings insbesondere seit dem Jahr 2000 sehr deutliche Unterschiede gab. Hier erzielte der nach Marktkapitalisierung gewichtete Index lediglich eine Rendite von 0,4 Prozent p. a., während es der risikoparitätische Ansatz auf 6,6 Prozent p. a. und der nach inverser Volatilität gewichtete Ansatz auf 6,9 Prozent p. a. brachten (siehe Tabelle 2). Und abermals liegt die Standardabweichung auf einem sehr ähnlichen Niveau. Lediglich in der Boomphase der 1990er schnitt der klassische Marktkapitalisierungsindex besonders gut ab.

Tabelle 2: Annualisierte Rendite der Strategien in verschiedenen Jahrzehnten

Methodik 1970er 1980er 1990er 2000er
 Marktkapitalisierung  6,1 %  16,9 %  17,6 %  0,4 %
 Gleichgewichtung  9,0 %  17,8 %  15,0 %  6,2 %
 Vielfaltsgewichtung  6,9 %  17,1 %  17,1 %  2,6 %
 Inverse Volatilität  9,4 %  19,6 %  13,2 %  6,9 %
 Risikoparität  9,3 %  18,9 %  14,0 %  6,6 %
 Risikoclusterung  6,4 %  17,8 %  13,5  5,1 %

Schlussfolgerung für Privatanleger: Alternativen in Erwägung ziehen

Die Studienautoren nehmen die Indexperformances noch deutlich ausführlicher auseinander und kommen am Ende zu dem Fazit, dass praktisch alle alternativen Gewichtungsmethoden Aktien mit niedrigerer Marktkapitalisierung und Aktien mit niedrigem Kurs-Buchwertverhältnis höher gewichten als der reine Marktkapitalisierungsindex – dass also Small Caps und Value-Aktienübergewichtet sind und die Indexperformance von den entsprechenden Faktorprämien profitiert haben.

Der Grund für die Outperformance der alternativen Indizes ist also nicht unbedingt in der jeweiligen Indexmethodiken per se zu suchen, sondern in den indirekten Konsequenzen, die diese mit sich bringen. Die Studie kann mithin nicht wirklich erklären, warum ein risikoparitätischer Ansatz so gut abschneidet oder warum die Minimum-Varianz-Gewichtung sinnvoll sein könnte. Sie zeigt allerdings, dass es sinnvoll sein könnte, sein Portfolio nicht einfach nur auf dem Marktkapitalisierungskriterium aufzubauen.

Wie man das als Anleger nun umsetzt – ob mit spezialisierten Minimum-Varianz-Produkten oder mit einer Eigenbau-Komposition aus Large-Cap-, Small-Cap- und Value-ETFs – ist eine andere, auch ziemlich spannende Frage. In jedem Fall liefert die Studie aber Anhaltspunkte dafür, dass es auch für Privatanleger sinnvoll sein könnte, einige der „neumodischeren“ Strategie-ETFs einmal eines genaueren Blickes zu würdigen.

Den Index mit der niedrigsten möglichen Volatilität finden

Ein Beispiel für dieses Vorgehen ist der Minimum-Varianz-Index. Diese Gewichtungsmethode entscheidet sich von der im vorigen Artikel vorgestellten Methode der Gewichtung von Aktien nach inverser Volatilität dadurch, dass sie nicht auf einzelne Aktien schaut, sondern versucht, Aktien aus einem vorgegebenen Universum (im vorliegenden Fall die 1.000 US-Aktien mit der höchsten Marktkapitalisierung) diejenigen auszuwählen, die im Zusammenspiel die geringste Gesamtvolatilität aufweisen. Dabei kann im Extremfall auch eine ganze Menge von Aktien aus dem Universum im Index völlig fehlen. Das Verfahren kann somit theoretisch zu einer starken Konzentration auf einige wenige Titel führen. Um dieses Problem zu umgehen, testen Clare & Co. Die Methode einmal ohne jegliche Einschränkungen, darüber hinaus aber auch mit Obergrenzen von 1 und 5 Prozent für das maximale Gewicht einer Aktie im Index.

Den Index mit der größtmöglichen Diversifikation finden

Diese Optimierungsmethode beruht auf der Annahme, dass die erwartete Rendite einer Aktie umso höher ist, je stärker ihre Rendite schwankt. Von diesem Postulat geleitet, wird nun ein Index entwickelt, der die höchste Sharpe Ratio besitzt, also ein besonders günstiges Verhältnis von erwarteter Überrendite und erwartetem Risiko. Auch bei diesem Verfahren gibt es eine Begrenzung des Gewichts einzelner Titel im Index, nämlich auf Werte zwischen 0 und 10 Prozent.

Den risikoeffizientesten Index finden

Ein ähnlicher Ansatz postuliert, dass die erwartete Rendite einer Aktie proportional zu ihren Renditeschwankungen nach unten sind. Der entsprechende Wert wird ähnlich berechnet wie die Standardabweichung einer Aktie, allerdings werden dabei nur negative Renditen berücksichtigt. Schließlich sind Renditeschwankungen nach oben ja nichts Schlechtes. Um auf dieser Basis einen risikoeffizienten Index zu konstruieren, werden die Aktien aus dem Universum in Dezile eingeteilt, also in Gruppen, die je 10 Prozent des gesamten Aktienuniversums ausmachen. Bei einem Universum von 1.000 Aktien bilden also die 100 Titel mit den höchsten negativen Renditeschwankungen das erste Dezil und so weiter. Anschließend wird für jede Gruppe der Median der negativen Renditeschwankungen berechnet. Jede Aktie in der Gruppe enthält den resultierenden Wert als Näherungsmaß für ihre erwartete Rendite. Auf dieser Basis wird dann optimiert, bis ein Portfolio mit einem idealen Verhältnis von Rendite und Risiko gefunden ist. Ich gebe zu: So richtig verstanden habe ich nicht, wie das funktioniert.

Die Performances der auf diese Weise konstruierten Indizes im Untersuchungszeitraum von 1968 bis 2011 sind in Tabelle 1 zu sehen. Erneut zeigt sich: Alle hätten besser abgeschnitten als der klassische Marktkapitalisierungsindex.

Tabelle 1: Die Performance der optimierten Indizes im Überblick

Methodik Rendite p. a. Volatilität Sharpe-Ratio Max. Drawdown
 Marktkapitalisierung  9,4 %  15,3 %  0,32  -48,5 %
 Minimum-Varianz  10,8 %  11,2 %  0,50  -32,5 %
 Opt. Diversifikation  10,4 %  13,9 %  0,40  -41,1 %
 Risikoeffizienz  11,5 %  15,9 %  0,43  -56,0 %

Das Ergebnis ähnelt sehr dem aus dem vorigen Artikel: Alle alternativen Indizes schneiden besser ab als der nach Marktkapitalisierung gewichtete. Persönlich finde ich noch interessant, dass die Minimum-Varianz-Optimierung tatsächlich zu niedriger Varianz und insbesondere einem stark verminderten maximalen Verlust führt – obwohl die Optimierung ja auf den auch von mir oft geschuldeten Daten der Vergangenheit beruhen muss. Gleichzeitig ist die Rendite deutlich höher als man meinen sollte, wenn man der orthodoxen Idee anhängt, dass ein niedrigeres Portfolio-Risiko auch zu niedrigeren Renditen führen sollte.

Ebenfalls spannend: Der risikoeffiziente Ansatz führt zu einer hohen Rendite und hohem Risiko. Ob das auch so geplant ist, weiß ich nicht, schließlich habe ich ihn nicht richtig verstanden.

Nach fundamentalen Kriterien gewichtete Indizes

Das finale Set der von Clare & Co. untersuchten Indizes wird anhand relativ einfacher fundamentaler Kriterien gewichtet. Dies sind:

  • der Gesamtwert der von einem Unternehmen ausgeschütteten Dividenden,
  • der gesamte jährliche Cashflow eines Unternehmens,
  • der Buchwert eines Unternehmens,
  • der Jahresumsatz eines Unternehmens
  • sowie eine Kombination dieser vier Kriterien, bei der jedes Kriterium den gleichen Einfluss auf die Gewichtung des Index hat.

Tabelle 2 zeigt die Performance dieser Indizes im Vergleich mit dem Marktkapitalisierungsindex.

Tabelle 2: Die Performance der auf fundamentalen Kriterien basierenden Indizes

Methodik Rendite p. a. Volatilität Sharpe-Ratio Max. Drawdown
 Marktkapitalisierung  9,4 %  15,3 %  0,32  -48,5 %
 Dividendengewichtet  10,8 %  14,5 %  0,42  -53,6 %
 Cashflowgewichtet  10,9 %  15,2 %  0,41  -52,7 %
 Buchwertgewichtet  10,7 %  15,7 %  0,39  -55,1 %
 Umsatzgewichtet  11,4 %  16,2 %  0,42  -52,6 %
 Composite-Index  11,0 %  15,3 %  0,41  -53,5 %

Auch hier also das – inzwischen – alte Bild: Alle alternativen Indizes schneiden besser ab als der nach Marktkapitalisierung gewichtet Index, zumindest wenn man nur auf die Rendite oder nur auf die Sharpe-Ratio schaut. Volatilität und maximaler Verlust dagegen sind bei diesen alternativen Strategien durchaus auch einmal höher als beim Standard-Index.

Renditequellen im Vergleich: Value rult

Zum Abschluss dieses Artikels möchte ich daher noch einmal einen Blick auf die Renditequellen der beschriebenen, auf fundamentalen Daten basierenden Indizes werfen. Als Renditequellen gelten hier (bzw. in der Studie) die klassischen Faktoren Beta (also Marktrisiko), Größe (also die Small-Cap-Prämie), Value (die Kurs-Buchwert-Prämie) und außerdem das Momentum (also der Beitrag positiver Rendite-Autokorrelationen). Tabelle 3 zeigt die annualisierten Unterschiede der fundamentalen Indizes zum Marktkapitalisierungsindex im Bezug auf jeden Faktor. Ein positiver Wert drückt eine Überrendite gegenüber dem Standard-Index aus.

Tabelle 3: Renditequellen der fundamentalen Indizes im Vergleich

Methodik Beta Größe Value Momentum
 Dividendengewichtet  0,26 %  -0,01 %  1,61 %  -0,02 %
 Cashflowgewichtet  0,12 %  0,01 %  1,62 %  -0,11 %
 Buchwertgewichtet  -0,01 %  0,15 %  2,02 %  -0,14 %
 Umsatzgewichtet  0,04 %  0,22 %  1,76 %  -0,16 %
 Composite-Index  0,10 %  0,09 %  1,75 %  -0,11 %

Das Ergebnis ist recht eindeutig: Alle auf fundamentalen Kriterien basierenden Indizes erzielen ihre Überrendite gegenüber der Benchmark im Wesentlichen durch eine starke Tendenz hin zum Value-Investing. Das erscheint angesichts der Gewichtungskriterien auch logisch, denn was macht ein Value-Unternehmen (im klassischen wissenschaftlichen Sinn) aus, wenn nicht hohe Dividendenausschüttungen/Cashflows/Buchwerte/Umsätze im Vergleich zu ihrer Marktkapitalisierung? Das Gewichtungsverfahren erklärt auch, warum Investoren mit solchen Fundamental-Portfolios sogar vom Small-Cap-Effekt profitieren könnten: Die in den Indizes hoch gewichteten Unternehmen mögen nach sämtlichen realwirtschaftlichen Kriterien groß oder riesig sein – an der Börse, die traditionell nur nach Marktkapitalisierung schaut, sind sie es nicht – entsprechend sind viele klassische Large Caps, stark wachsende Unternehmen mit hoher Bewertung, in den fundamentalen Indizes unterrepräsentiert.

3 Kommentare

  1. Hallo,
    Der Artikel ist grundsätzlich wirklich sehr interessant! Leider ist er aber auch ein wenig Praxisfern, denn es gibt ja durchaus eine Reihe von ETFs, die einen “Value-” oder “Low Volatility-” Ansatz verwirklichen, ohne dass diese in dem Artikel eine Erwähnung finden. (einige ETFs sind gut über justetf.com zu finden, die RAFI-Serie jedoch nicht?).
    Ich war diesen eigentlich sehr interessiert ggü. eingestellt, aber zugleich auch recht skeptisch, da ich nicht wusste/nachvollziehen konnte, welche Auswahl denn da in den ETF aufgenommen wird. Vielleicht kann ja ein 2.Teil etwas konkreter verschiede !Verwirklichungs-Ansätze” aufzeigen, wie andere Gewichtungsstrategien praktikabel (d.h. mit ETFs) umsetzbar sind?
    Ansonsten, bleibt mir nur, mich für den Artikel zu bedanken! Sehr informativ – denn grundsätzlich scheinen sich manche andere Gewichtungsansätze also schon zu lohnen?

  2. Sehr schöner Artikel – wenn er im 2.Teil damit komplettiert würde aufzuzeigen, wieviele Aktien man aus einem Index auswählen muß, um die gleiche Diversifizierung bzw. Risiko zu haben (gemessen an Sharpe Ratio und Volatilität). Die ETF Anbieter die einen Russell2000 oder EuroStoxx600 abbilden, kaufen nämlich auch nicht 2000 oder 600 Aktien, sondern eine Auswahl (Swap-nutzende ETF explizit außen vor gelassen.) Die CASS-Studie zeigt ja explizit auf, dass man die Wertentwicklung eines Index um so leichter übertreffen kann, je mehr man sich von den Konstruktionsmerkmalen löst.
    2.Punkt: die RADA-ETFs und Strategie-ETFs (Value, Small Cap) etc. sind sicher interessant, aber man sollte sich bewußt sein, dass sich die Katze hier in den Schwanz beißt. Der ETF soll preiswert bleiben im Vergleich zu aktiven Fonds der gleichen Strategieausrichtung, also wählt er nach Kennzahlen in einer Datenbank Aktien aus: statt das ein Analyst oder Aktienmanager hergeht und die Kennzahlen des Unternehmens X einzeln analysiert, mit verschiedenen Methoden womöglich, um dann zu entscheiden, ob Unternehmen X günstig ist oder nicht. Damit steht und fällt alles mit der Qualität der Datenbank. Jeder der schon mal selbst ein wenig Fundamentalanalyse betrieben hat, weiß wie problematisch das ist: bei einem Unternehmen fallen hohe außerbilanzielle Positionen unter den Tisch, beim Anderen treiben hohe Abschreibungen den Gewinn nach unten und die Kennzahlen KGV,KBV,EBIT,EV/EBIT reagieren entsprechend. Ich vermute, diese ETFs sind in bestimmten Zeiträumen erfolgreich, weil sie v.a. diszipliniert eine Strategie umsetzen und damit ab und zu antizyklisch investieren – aber nicht weil sie die besten Aktien auswählen.

  3. toller Artikel zu einem Thema, dass mich auch schon länger beschäftigt.
    Bei sog. Strategie-ETFs mit alternativer Gewichtung sollte man sicherlich immer das Fondsvolumen im Auge behalten. Die schönste Alternativgewichtung bringt wenig, wenn der ETF nach wenigen Jahren mangels Nachfrage geschlossen wird und man ggf. in einer schlechten Marktphase zum umschichten gezwungen ist.
    Da es bei den Alternativgewichtungen am Ende eh darauf hinausläuft, dass man mehr Small Caps an Bord hat, kann man dies ja sehr einfach durch die Hinzunahme entsprechender ETFs ins Portfolio realisieren. So gehe ich jedenfalls vor.
    Ich freue mich auf weitere Artikel von dir zu dem Thema!
    Viele Grüße
    Holger

Kommentare sind geschlossen.