Elf Jahre Finanzkrise

14. September 2018  |  Prof. Dr. Stefan Mittnik
11jfk
Vor zehn Jahren meldete Lehman Brothers Konkurs an – und löste damit die Weltfinanzkrise aus, wie überall zu lesen ist. In Wahrheit begann das Debakel aber schon mehr als ein Jahr zuvor.

Am 15. September 2008 passierte es: Die US-Investmentbank Lehman Brothers meldete Insolvenz an, nachdem sie fünf Tage zuvor einen Quartalsverlust von fast vier Milliarden Dollar angekündigt hatte – wohlgemerkt nach einem Minus von drei Milliarden im Vorquartal. Spontane Rettungsversuche des Managements waren fehlgeschlagen. Eine Übernahme durch die britische Bank Barclays hatte die Regierung in London verhindert. Und auch Washington hatte abgewunken und kein Rettungspaket geschnürt. So kam es, dass Lehman tatsächlich in die Pleite schlitterte. Ein Ereignis, das die Finanzwelt erschütterte und eine globale Krise auslöste. Zumindest ist das derzeit überall zu lesen. Die Zeile „10 Jahre Finanzkrise“ ist allgegenwärtig.

Im Herbst 2008 lehrte ich an der Universität New School in Lower Manhattan. Hier, im Herz der Finanzwelt, war die Panik, die ausbrach, sofort spürbar. Insofern stimmt es: Der Lehman-Kollaps war für die meisten Geldprofis wirklich ein Schock – und für die große Mehrheit der Privatanleger ohnehin. Aber kam das Kursbeben tatsächlich aus dem Nichts? Wie ein Blitz, der aus heiterem Himmel in die Wall Street fährt?

Wer systematisch das Risiko an den Börsen im Auge hat, muss sagen: nein. Denn es gab mehrere statistische Kennziffern, die schon lange vor dem Lehman-Debakel beunruhigende Signale aussandten; die anzeigten, dass der Druck im Kessel des Finanzsystems stark gestiegen war. Welche das waren? Um das zu verstehen, hilft es, das Drehbuch der Krise genauer zu studieren.

Niedrige Zinsen und laxe Kreditvergabe

Der Plot beginnt in den 1990er Jahren, in der Dotcom-Ära. Es war die Zeit, in der neue Geschäftsmodelle ersonnen wurden, reihenweise Firmen an die Börse gingen und die Aktienkurse massiv stiegen. Und in der selbst Titel wie der des Ex-Staatskonzerns Deutsche Telekom auf der Welle der Euphorie mitreiten konnten. Heute, 20 Jahre später, wissen wir: Die Investoren schätzten das Potenzial der neuen Technologien damals richtig ein. Unternehmen wie Google, Amazon und Alibaba belegen das. Nur dachten die Anleger, dass die New Economy viel früher durchstarten würde, als es tatsächlich geschah. So verbrannten die Dotcom-Firmen erst mal jede Menge Cash, ohne dass sich die hohen Erwartungen erfüllten. Die Folge: Im Frühjahr 2000 kippte die Stimmung. Die Weltbörsen gingen in einen dreijährigen Sinkflug über. Und wie immer in schweren Finanzkrisen, schlitterte die Realwirtschaft in eine tiefe Rezession.

Die US-Notenbank Fed reagierte schnell und heftig. Auch weil sie anders als die Europäische Zentralbank nicht nur auf Preisstabilität, sondern auch auf die Konjunktur zu achten hat. Sie senkte die Leitzinsen innerhalb von zwei Jahren von 6,5 auf 1,0 Prozent. Kredite waren plötzlich so billig wie seit Jahrzehnten nicht mehr. Und damit nahm das Unheil seinen Lauf. Die Nachfrage nach Wohnimmobilien boomte – ausgerechnet in einer Phase, in der so manche Bank beide Augen zudrückte, wenn es um die Kreditwürdigkeit und Eigenmittel ihrer Kundschaft ging. Das galt vor allem für die staatlich beeinflussten Hypothekengiganten Fannie Mae und Freddie Mac. Denn das Wohnraumförderungsgesetz in den USA (National Affordable Housing Act) verlangte von den beiden, dass sie Mindestquoten bei der Kreditvergabe für Haushalte mit geringem Einkommen erfüllen. Diese Quoten wurde über die Jahre sogar angehoben und erreichten vor Ausbruch der Subprime-Krise ein Niveau von 56 Prozent. Folge: Die zwei Geldhäuser häuften bis 2007 zusammen rund 4,5 Billionen Dollar an Kreditvolumen an. So entstand eine fast ausschließlich auf Pump finanzierte Immobilienblase. Im Mittel wurden beim Immobilienerwerb nur zwei Prozent an Eigenkapital beigesteuert. 43 Prozent der Käufe gingen sogar ganz ohne Eigenmittel über die Bühne. Insider nannten diese Hypotheken NINJA-Darlehen: no income, no job and no assets (kein Einkommen, kein Job, kein Vermögen).

Deals von höchster Stelle gebilligt

Doch was war eigentlich mit den Banken und Aufsehern in den USA los? Warum spielten sie bei diesem Kredit-Monopoly mit? Haben sie die drohenden Zahlungsausfälle schlichtweg übersehen? Die Antwort auf diese Fragen hat drei Teile. Erstens: Die Gewinne der Banken sprudelten prächtig – zumindest vor 2007. Und solange der Rubel rollt, ist die Neigung zum Einschreiten gering. Zweitens: Das Risiko schien überschaubar. Seit Anfang der 1960er Jahre kannten die Immobilienpreise nur eine Richtung: nach oben. Im Schnitt kletterten sie um mehr als sechs Prozent jährlich. Das bedeutet, falls es bei einem Darlehen zu einem Zahlungsausfall kommt, konnte die Bank damit rechnen, die Immobilie mit Gewinn zu verkaufen. Und drittens: Die Banken hielten die Risiken meist gar nicht in ihren Büchern. Dazu fehlte oft das gesetzlich geforderte Eigenkapital. Deshalb verkauften die Geldhäuser die Hypotheken in der Regel sofort weiter. Egal ob die Kredite von hoher („prime“) oder minderer („subprime“) Qualität waren: Sie wechselten meist in großen Paketen, den sogenannten Hypothekenverbriefungen, den Besitzer. Gebilligt wurden die Deals von höchster Stelle im Finanzwesen. Alan Greenspan, damals Chef der Fed, sagte 2002: „Unser Paradigma der Risikokontrolle betont die Dispersion von Risiken. … Wenn Risiken geschickt verteilt sind, werden Schocks … besser absorbiert und führen mit einer geringeren Wahrscheinlichkeit zu Ausfallkaskaden, die die Finanzstabilität bedrohen.“

Obendrein gab es weltweit auch noch genug Abnehmer für die komplex konstruierten Hypothekenbündel. So erreichte der Subprime-Tsunami auch Deutschland. Allen voran die staatlich kontrollierten Banken, viele mit dem Kürzel LB für Landesbank im Namen, die sich kurz vor Wegfall der Staatsgarantien 2005 bis zur Halskrause verschuldet hatten und das geliehene Geld irgendwo unterbringen mussten. Sie lechzten nach den mit einem fragwürdigen Triple A ausgezeichneten verbrieften Hypothekenanleihen.

Goldman Sachs: Vorsprung dank Risikomanagement

Als dann vor zehn Jahren die Nachricht von der Lehman-Pleite an der Wall Street einschlug, wurden selbst die US-Experten, die mit Hypothekenprodukten handelten und damit quasi die Hand am Puls hatten, auf dem falschen Fuß erwischt. Eine namhafte Ausnahme gab es allerdings: Goldman Sachs. Der Konkurrent von Lehman setzte sehr früh auf ein quantitatives Risikomanagement. Täglich bestimmten und analysierten die Goldman-Banker die Risiken aller wichtigen Positionen ihres Hauses, auch aufgeteilt nach Anlageklassen. Dabei setzten sie auf das Risikomaß Value at Risk (VaR), dort definiert als Verlust in Dollar, der mit einer Wahrscheinlichkeit von 95 Prozent in den nächsten 24 Stunden nicht überschritten wird. Für eine der Anlageklassen – Hypothekenprodukte – registrierten Goldmans Risikowächter bereits Ende 2006 anziehende VaR-Werte, obwohl die eigenen Händler an der Front noch keinerlei Nervosität verspürten. Goldman Sachs begann, die Risikopositionen abzubauen.

Nichtsdestotrotz stieg der VaR innerhalb der folgenden drei Monate weiter – um mehr als das Sechsfache. Dennoch schafften es die Goldmänner dank ihres effektiven Risikomanagements, die Hypothekenpositionen rechtzeitig abzubauen, ohne dabei Verluste zu erleiden. All dies ist im Bericht des Unterausschusses des US-Senats zur Finanzkrise nachzulesen. Noch spannender: der Film „Der große Crash – Margin Call“ aus dem Jahr 2011. Regisseur und Drehbuchautor Jeffrey C. Chandor, selbst Sohn eines Bankers, bedient sich bei der Goldman-Story und schildert eindrucksvoll, wie es in der heißen Phase hinter den Kulissen zugegangen sein könnte.

Messbare Alarmsignale

Unterdessen spielte sich das Drama an den Weltbörsen vor aller Augen ab. DAX und S&P 500 verloren jeweils rund die Hälfte ihres Wertes. Bleibt die Frage, ob auch der Privatanleger die Krise hätte kommen sehen und seine Aktienpositionen abbauen können – ähnlich wie Goldman Sachs.

Auf den ersten Blick sieht es nicht so aus. Das Risikomanagement von Goldman hatte direkten Zugriff auf Preisdaten von Hypothekenpapieren, die nicht über die Börse gehandelt wurden. Dennoch: Auch an den Aktienbörsen konnte man bereits einige Monate vor dem Lehman-Zusammenbruch alarmierende Risikosignale messen. Das zeigt unsere dreiteilige Grafik, die Kursverlauf (oben), tägliche Kursschwankungen (Mitte) und das Risiko (unten), ausgedrückt durch den VaR, abbildet – jeweils bezogen auf den S&P-500-Index.

Der Lehman-Crash und seine Vorbeben

S&P-500-Index, tägliche Kursschwankungen und Risiko* von Ende 2006 bis Anfang 2009

SCA 3Graphs SP500 2 kurs n1
SCA 3Graphs SP500 2 rendite n1
SCA 3Graphs SP500 2 risiko n1

* Gemessen als VaR (in Prozent) mit einer Anlagedauer von einem Jahr und einem Konfidenzniveau von 95 Prozent. Hinweis: Weder vergangene Wertentwicklungen noch Prognosen haben eine verlässliche Aussagekraft über zukünftige Wertentwicklungen.

Ebenfalls eingezeichnet sind fünf markante Ereignisse, die bis zum Lehman-Kollaps über die Nachrichtenticker liefen:

22. Februar 2007: Die Bank HSBC gab zum ersten Mal in ihrer Geschichte eine Gewinnwarnung heraus. Grund: Sie musste die Rücklagen für faule Kredite in den USA deutlich anheben. Zudem feuerte sie zwei Topmanager, die für das US-Geschäft verantwortlich waren.
12. März 2007: Einer der größten staatsunabhängigen Immobilienfinanzierer in den USA, die New Century Financial Corporation, meldete, dass ihm die meisten seiner Gläubigerbanken die Kreditlinien gekappt hatten und dass er selbst stark von Kreditausfällen betroffen ist.
07. Juni 2007: Die Investmentbank Bear Stearns stoppte die Rücknahme von Anteilen für einen ihrer Immobilien-Hedgefonds.
17. Juli 2007: Bear Stearns meldet, dass zwei seiner Immobilien-Hedgefonds kollabiert sind und rund 90 Prozent an Wert verloren haben.
15. September 2008: Die Investmentbank Lehman Brothers stellt Insolvenzantrag.

Interessant ist: Vor der HSBC-Gewinnwarnung am 22. März 2007 herrschten an der US-Börse sehr niedrige Risiken vor und der S&P 500 stieg stetig. Danach sprang das Risiko mit jeder der Nachrichten an. Man kann auch von Vorbeben sprechen. Spätestens am 17. Juli 2007, als Bear Stearns den Kollaps zweier Immobilien-Hedgefonds meldete, fand dabei ein nachhaltiger Wechsel im Risikoregime statt, der auf ein stark erhöhtes Crashrisiko hingedeutet hat. Von da ab bis zur Lehman-Pleite verlor der S&P 500 rund 20 Prozent. Und bereits vor der Pleite lag das Risiko rund doppelt so hoch wie der längerfristige Durchschnitt von 20 Prozent. Mit der Lehman-Meldung stieg das Risiko dann nochmal kräftig an – und der S&P 500 stürzte um weitere 40 Prozent ab.

Ein Risikomanagementsystem, in dem Marktrisiken fortwährend gemessen werden, hätte spätestens nach der zweiten Bear-Stearns-Mitteilung, also 14 Monate vor dem Lehman-Desaster, Alarm geschlagen und die Aktienposition schrittweise abgebaut. Ähnlich wie es Goldman Sachs mit den Hypothekenpapieren machte. Der Unterschied: Beim S&P 500 handelt es sich um einen Börsenindex, dessen Kursdaten öffentlich zugänglich sind. Deshalb können seine Risikosignale direkt aus diesen Daten abgeleitet werden. Investoren, die über das nötige Know-how und die nötige Zeit verfügen, hätten also durchaus rechtzeitig reagieren können. Nur um Missverständnissen vorzubeugen: Ein Allheilmittel gegen Börsencrashs ist das Messen von Vorbeben nicht. Denn es gibt auch Kursstürze, bei denen diese kleineren Erschütterungen im Vorfeld nicht auftreten. Im Fall der Finanzkrise und der Dotcom-Krise aber waren sie messbar.

Eher elf Jahre Krise als zehn

War nun die Lehman-Pleite der Startpunkt für die Finanzkrise? Klar, sie rückte die brisante Lage am US-Immobilienmarkt schlagartig ins Rampenlicht und schickte die Weltfinanzmärkte auf Talfahrt. Aber der tödliche Mix aus Zinssenkungen der Fed und Affordable Housing Act bildete den Nährboden für die Krise. Und er sorgte dafür, dass die Finanzwelt schon Monate vor dem September 2008 wackelte. Zehn Jahre Finanzkrise? Aus statistischer Sicht würde ich eher sagen: gut elf Jahre – klingt natürlich nicht so gut.

Und wer sich fragt, was es bringt, vergangene Krisen zu analysieren, und denkt, dass die nächste Krise sicher ganz anders verlaufen würde, dem rate ich, sich kurz die aktuelle Lage in Deutschland ins Gedächtnis zu rufen. Wohnraumförderung für die Bezieher niedriger Einkommen, steigende Immobilienpreise, Zinswende am Horizont: Die Diskussion kommt einem irgendwie bekannt vor. Ob uns eine Börsentalfahrt bevorsteht? Ehrlich gesagt, ich weiß es nicht. Aber ich rate jedem Investor, schon mal seine Risikomanagementmaschine anzuwerfen.

Risikohinweis – Die Kapitalanlage ist mit Risiken verbunden und kann zum Verlust des eingesetzten Vermögens führen. Weder vergangene Wertentwicklungen noch Prognosen haben eine verlässliche Aussagekraft über zukünftige Wertentwicklungen. Wir erbringen keine Anlage-, Rechts- und/oder Steuerberatung. Sollte diese Website Informationen über den Kapitalmarkt, Finanzinstrumente und/oder sonstige für die Kapitalanlage relevante Themen enthalten, so dienen diese Informationen ausschließlich der allgemeinen Erläuterung der von Unternehmen unserer Unternehmensgruppe erbrachten Wertpapierdienstleistungen. Bitte lesen Sie auch unsere Risikohinweise und Nutzungsbedingungen.

 

Wollen auch Sie intelligenter investieren?

Scalable Capital bietet erstklassige Vermögensverwaltung mit einer wegweisenden Investment-Technologie. Global diversifizierte ETF-Portfolios mit modernem Risikomanagement, zu niedrigen Kosten.

Stefan Mittnik
Prof. Dr. Stefan Mittnik
GRÜNDER, WISSENSCHAFTLICHER BEIRAT
Stefan ist Professor für Finanzökonometrie und Direktor des Center for Quantitative Risk Analysis an der Ludwig-Maximilians-Universität in München sowie Fellow am Center for Financial Studies (CFS) in Frankfurt. Nach der Promotion in den USA lehrte er in New York und Kiel, bevor er 2003 nach München wechselte. Er war Mitglied des Forschungsbeirates der Deutschen Bundesbank, Fachkollegiat der Deutschen Forschungsgemeinschaft sowie Forschungsdirektor am CFS und Ifo-Institut und hatte mehrere Gast- und Ehrenprofessuren in den USA inne. Seit rund 30 Jahren forscht er zu Fragen der Analyse, Modellierung und Prognose von Finanzmarktrisiken und entwickelt Verfahren, bei denen empirische Relevanz statt finanzmathematischer Eleganz im Vordergrund stehen.