Einführend werden die Ideologieelemente der "Querdenker" besprochen, dort auch die Ergebnisse der ersten empirischen Studien zu "Querdenkern" und Teilnehmern an Corona-Demonstrationen. Verschwörungserzählungen sind ein (potenzieller) Radikalisierungsfaktor und spielen für die Bewegung der "Querdenker" eine wichtige Rolle. So werden verschiedene aktuelle internationale Verschwörungserzählungen von "Querdenkern" aufgegriffen, darunter auch die antisemitische Verschwörungserzählung "QAnon". In Reaktion auf die "Querdenker"-Bewegung haben die deutschen Verfassungsschutzbehörden einen neuen Phänomenbereich von Extremismus festgestellt, die "verfassungsschutzrelevante Delegitimierung des Staates". Bei der Analyse der Szene der "Querdenker" muss differenziert werden, weil eine komplexe Mischung aus Radikalismus, Verschwörungserzählungen und Extremismus festzustellen ist. Der Inhalt Ideologieelemente der "Querdenker" Ergebnisse der ersten empirischen Studien zu "Querdenkern" und Teilnehmern an Corona-Demonstrationen Verschwörungserzählungen mit Bezug zu den "Querdenkern" Neuer Phänomenbereich von Extremismus: Verfassungsschutzrelevante Delegitimierung des Staates Die Akteure – Eine Analyse "Querdenken 711" Interaktion zwischen "Reichsbürgern" und "Selbstverwaltern" sowie Rechtsextremisten und "Querdenkern" "Querdenker" und ihr Gewaltpotenzial Von enthemmter Sprache zu Tötungsaufrufen (Potenzieller) stochastischer Terrorismus Die Zielgruppen Studierende und Dozierende der Politikwissenschaft, Soziologie und Psychologie Journalisten und Politiker, Mitarbeiter von Behörden, Krankenhäusern und andere Akteure im Bereich der Corona-Pandemie Der Autor Prof. Dr. Stefan Goertz ist Professor für Sicherheitspolitik mit dem Schwerpunkt Extremismus- und Terrorismusforschung an der Hochschule des Bundes, Fachbereich Bundespolizei, in Lübeck.
Zugriffsoptionen:
Die folgenden Links führen aus den jeweiligen lokalen Bibliotheken zum Volltext:
Intro -- Vorwort -- Inhaltsverzeichnis -- Modellierung evolutorischer Systeme -- Frank Beckenbach: Ressourcengewinnung und Marktkoordination in einem Multi-Agenten System -- 1. Vorbemerkung -- 2. Forschungsfragen einer (ökologisch erweiterten) Evolutorischen Ökonomik -- 2.1 Evolutionsökonomischer Rahmen -- 2.2 Modellierung beschränkter Handlungsrationalität -- 2.3 Koordination beschränkt rationaler Akteure -- 2.4 Einbettung ökonomischer Aktivitäten in ein ökologisches Ressourcensystem -- 3. Multi-Agenten Systeme (MAS) -- 3.1 Grundlegende Merkmale -- 3.2 Bedeutung der MAS für die Evolutorische Ökonomik -- 4. Der Ausgangspunkt: das "Sugarscape"-MAS und seine Weiterentwicklung -- 4.1 Grundlegende Merkmale -- 4.2 Ressourcensystem -- 4.3 Agentensystem -- 4.4 Gesamtsystem -- 4.5 Ein Simulationsbeispiel -- 5. Folgerungen und Perspektiven -- Literatur -- Bernd Meyer: Korreferat zu Frank Beckenbach -- Wilhelm Brandes: Über Selbstorganisation in Planspielen - ein Erfahrungsbericht -- 1. Hintergrund und Fragestellung -- 2. Die Spiele -- 3. Spieltheoretische Vorbemerkungen -- 4. Einige informelle Hypothesentests -- 5. Selbstorganisation - kann man davon sprechen? -- 6. Zusammenfassung -- Literatur -- Günter Haag: Korreferat zu Wilhelm Brandes -- Literatur -- Günter Haag und Kathrin Grützmann: Die Entstehung von Konventionen als dynamischer Entscheidungsprozess mit Gedächtnis -- 1. Einführung -- 2. Ein Entscheidungsmodell mit Gedächtniseffekt -- 2.1 Ein stochastisches Entscheidungsmodell ohne Gedächtniseffekt -- 2.2 Ein Entscheidungsmodell mit Gedächtniseffekt -- 3. Simulationen zur Erklärung der Evolution von Konventionen -- 3.1 Zu Beginn der Betrachtung werden keine Alternativen bevorzugt -- 3.1.1 Vollständige Information vorhanden -- 3.1.2 Unvollständige Information über den Entscheidungsprozess -- 3.2 Bevorzugung bestimmter Alternativen.
Zugriffsoptionen:
Die folgenden Links führen aus den jeweiligen lokalen Bibliotheken zum Volltext:
We characterize the unique Markov perfect equilibrium of a tug-of-war without exogenous noise, in which players have the opportunity to engage in a sequence of battles in an attempt to win the war. Each battle is an all-pay auction in which the player expending the greater resources wins. In equilibrium, contest effort concentrates on at most two adjacent states of the game, the tipping states, which are determined by the contestants' relative strengths, their distances to final victory, and the discount factor. In these states battle outcomes are stochastic due to endogenous randomization. Both relative strength and closeness to victory increase the probability of winning the battle at hand. Patience reduces the role of distance in determining outcomes. Applications range from politics, economics and sports, to biology, where the equilibrium behavior finds empirical support: many species have developed mechanisms such as hierarchies or other organizational structures by which the allocation of prizes are governed by possibly repeated conflict. Our results contribute to an explanation why. Compared to a single stage conflict, such structures can reduce the overall resources that are dissipated among the group of players. ; Wir beschreiben das eindeutige Markoff-perfekte Gleichgewicht in einem mehrstufigen Konflikt ohne exogene Unsicherheit (noise), bei dem die Spieler versuchen, in einer Serie von aufeinander folgenden kleineren Gefechten einen Konflikt zu gewinnen. Jedes Gefecht ist eine all-pay auction, bei der derjenige Spieler gewinnt, der die meisten Ressourcen eingesetzt hat. Im Gleichgewicht konzentriert sich der Mitteleinsatz auf höchstens zwei benachbarte Zustände, die wir als spielentscheidende Zustände (tipping states) bezeichnen. Die Lage dieser Zustände hängt von der relativen Stärke der Spieler, der Zahl der verbleibenden Spielstufen bis zum Gesamtsieg und dem Diskontierungsfaktor ab. An diesen kritischen Zuständen ist der Konfliktausgang zufällig aufgrund der stochastischen Verteilung der im Gleichgewicht gewählten Mengen von Konfliktressourcen. Sowohl die relative Stärke als auch die Nähe zur finalen Konfliktstufe erhöhen die Wahrscheinlichkeit, das einzelne Gefecht zu gewinnen. Geringe Kosten des Wartens verringern den Einfluss der Entfernung zum Gesamtsieg auf den Ausgang der einzelnen Gefechte. Die Anwendungsgebiete sind zahlreich und reichen von der Politik über die Wirtschaft und den Sport bis zur Biologie. Dort findet das Gleichgewichtsergebnis empirisch Unterstützung: Viele Arten haben eigene Mechanismen entwickelt, z.B. Hierarchien oder andere Organisationsstrukturen, bei denen die Allokation der Siegerprämie in sich möglicherweise wiederholenden Konflikten erfolgt. Unsere Ergebnisse liefern hierzu eine Erklärung. Im Vergleich mit einem einstufigen Konflikt können solche Strukturen den Ressourceneinsatz der Spieler reduzieren.
We examine an incentive scheme for a group of agents, where all agents are rewarded if the group meets its target. If the group does not meet its target, only the agents that meet their individual target are rewarded. In environmental policy, the EU burden sharing agreement and the UK Climate Change Agreements feature this incentive scheme. There is only a difference in outcome between group and individual rewards if emissions are stochastic. Group rewards generally lead to higher expected emissions than individual rewards. The attraction of the group reward scheme may lie in its fairness and its tough-looking targets.
Galt der Finanzmarkt der neoklassischen Theorie immer schon als Paradigma von Marktförmigkeit schlechthin, so stellt der Börsencrash von 2009 eine besondere Herausforderung für die wirtschaftswissenschaftliche Lehre dar. Dass die rezente Krise nicht als bloß akzidentielles Beiwerk unaufhörlich sich verwirklichender Vernunft beschrieben werden kann, argumentiert Joseph Vogl in seinem Essay Das Gespenst des Kapitals. In dieser Wissensgeschichte des Finanzkapitalismus skizziert er, wie die politische Ökonomie von jenen Geistern heimgesucht wird, die sie selbst herbeirief. Als am 6. Mai 2010 der Börsenindex des Dow Jones Industrial an der New York Stock Exchange binnen Minuten blitzartig um fast 1000 Punkte einbrach, saß der verblüffte Börsenanalyst Jim Cramer im Studio des US-Senders CNBC und starrte auf das Kursdiagramm des 170 Milliarden Dollar-Konzerns 'Procter & Gamble', dessen Aktienpreis gerade von 62 auf 47 Dollar eingebrochen war. "It can't be there. That's not a real prize! Just go buy Procter!", entfuhr es ihm, während der Kurs weiter auf 42 Dollar purzelte – und der ehemalige Hedgefonds-Manager hatte die Begründung für seine Kaufempfehlung noch gar nicht zu Ende formuliert, da sprang die Aktie wieder auf einen Wert von 60 Dollar zurück.[1] Dieser spektakuläre 'flash crash', bei dem unter anderem Aktien der 23 Milliarden Dollar schweren Unternehmensberatung 'Accenture' kurzzeitig für einen Penny zu erstehen waren, zeitigte zwar keine so anhaltenden Effekte wie die 'Black Week' 2009. Als erratische Figur, die noch erfahrenen Finanzökonomen ihr eigenes Metier opak werden ließ, führt sie jedoch ins Zentrum nicht nur einer gesellschaftlichen Unsicherheit über das zeitgenössische Spekulationswesen, sondern auch der Diskursgeschichte finanzwissenschaftlichen Wissens, die Joseph Vogl in seinem Essay Das Gespenst des Kapitals vorlegt. Gerade die Unheimlichkeit, mit der sich in Krisen, Crashs und Kurseinbrüchen das Finanzkapital selbst depotenziert, lässt für den Berliner Kulturwissenschaftler den Systemcharakter des Börsenkapitalismus schlechthin fragwürdig erscheinen. Der heuristische Trick, der Vogls ambitioniertem Essay zugrunde liegt und ihn von einer Vielzahl rezenter Polemiken über das Finanzmarktgeschehen abhebt, gestaltet sich denkbar einfach, bringt aber weitreichende Konsequenzen mit sich: Anstatt zu fragen, ob der zeitgenössische Kapitalismus ein System unbeirrbarer Effizienzsteigerung und die Krise damit ein bloß flüchtiger Moment der Rejustierung von Marktmechanismen sei, erwägt Vogl, ob es sich beim Diktum der Systemförmigkeit des Marktes nicht nur um eine wirkmächtige Chimäre wirtschaftswissenschaftlicher Abstraktion handelt. "Oikodizee" tauft er diese Gründungsfigur, für die "einzig der Markt und seine Akteure als Garantien spontaner Ordnung, innerweltlicher Vorsehung und Systemhaftigkeit überhaupt funktionieren. Die Geschichte der politischen Ökonomie ist die Geschichte dieser Hoffnungsfigur." (S. 31) Gekonnt, für aufmerksame Foucault-Leser jedoch wenig überraschend, verfolgt Vogl diese Naturalisierung des kapitalistischen Geistes ausgehend von den sich formierenden Humanwissenschaften. Dort entdeckt er ein insuläres Subjekt der Passionen und (Eigen-)Interessen, dessen Universalität zugleich einen natürlichen Raum sozialer Gesetzmäßigkeiten eröffnet. Regiert wird dieser von einer Kraft der Vorsehung wie sie emblematisch die 'unsichtbare Hand' Adam Smiths darstellt: "Darum ist der Markt […] Ort von sozialer Ordnung schlechthin: ein Katalysator, der Leidenschaften in Interessen, egoistische Interessen aber in einen glücklichen Zusammenhang transformiert und darin einem Naturgesetz folgt." (S. 45) Dieser "Naturalismus des Regierens" (S. 47) grundiert – so Vogl – in modifizierter Form dabei noch den Finanzmarktkapitalismus unserer Tage. So erscheint denn das neoklassische Diktum vom Wettbewerb als Fortentwicklung des naturalistischen Interessenausgleichs als Ausbuchstabierung jener utopischen Implikationen – eines "prospektiven Realismus" (S. 55) – die eine Marktförmigkeit ökonomischer wie sozialer Tauschverhältnisse proklamieren, wo selbige allererst noch im Entstehen begriffen sind. Folgt man dem Autor, ist den neoklassischen Theoretikern eine gewisse Hellsichtigkeit zuzuerkennen, wenn sie im von lässlichen Obstakeln wie Güterproduktion und -distribution nicht affizierten Finanzmarkt das Modell von Wettbewerbslogik überhaupt erspähen und die Kontrafaktizität der eigenen Theorie konzedieren. Im Neoliberalismus wird damit der proaktive Charakter ökonomischer Theorie, die Bearbeitung der Ermöglichungsbedingungen für Wettbewerbsgesellschaften programmatisch: "Der Wettbewerb ist also jene idealbildliche Abstraktion, die in den tatsächlichen Ereignissen des Marktes bloß mehr oder weniger erscheint. Das bedeutet andererseits, dass er keine elementare Gegebenheit ist, sondern hergestellt, gefördert, durchgesetzt und ermöglicht werden muss." (S. 58) Die Privilegierung des Finanzmarkts als Paradigma von Wirtschaftshandeln schlechthin stellt für Vogl demzufolge einen "weltweiten sozialen Großversuch" dar, "der bis auf weiteres im Gange ist" (S. 114) und vor allem durch eine Verschiebung von Zirkulationsmodellen gekennzeichnet ist: Erschöpft sich ein an der Güterproduktion orientierter Markt tendenziell im Warentausch, so dynamisiert insbesondere der durch das Ende des im Bretton-Woods-Abkommens verbrieften Gold-Standards instituierte freie Devisenmarkt ab Anfang der 1970er Jahre eine "ökonomische condition postmoderne" (S. 87). Das freie Spiel der Banknotensignifikanten führt dabei zu einer prinzipiellen Unabschließbarkeit von Transaktionsgeschäften; das sich verselbständigende Kreditgeld bedingt einen unendlichen Aufschub von Zahlungsereignissen. Durch diesen "Markt der Märkte" (S. 90) gibt es kein Außerhalb der Spekulation mehr. Kritisch wird diese Entwicklung für Vogl allerdings weniger durch die Referenzlosigkeit des Geldes, die letztlich als Konsequenz aus der Erfindung des Zinses – die Zeugung von Geld durch Geld als Zeit[2] – erscheint, sondern durch die Tilgung von Zukunft.[3] Gerade weil für den frei flottierenden Finanzmarkt allein die Antizipation von Werthaftigkeit den faktischen Wert bestimmt, erweist sich die Zukunft als über Erwartungen, Erwartungserwartungen und weitere Erwartungspotenzen stets schon in die Gegenwart eingepreist. Der aktuelle Preis ist stets der wahrscheinlichste zukünftige, der "real prize". Alles, was sich dann noch zu ereignen vermag, kann bloß schiere Kontingenz, mathematisierbare Zufälligkeit sein, das "Spiel eines Schimpansen […], der mit verbundenen Augen Dartpfeile auf den Börsenteil einer Zeitung wirft." (S. 100) Für Vogl zeigt sich in den stochastischen Modellen zur Kalkulierung von möglichen Kursverläufen ("Random Walk Theory") damit nicht nur eine "Verwandlung von Ratespielen in Finanzwissenschaft" (S. 109), sondern eine fatale Selbstbezüglichkeit ökonomischen Wissens, das von einem präsupponierten Equilibrium probabilistischer Normalverteilung ausgeht und sich selbst durch seine massierte Anwendung in Form einer selbsterfüllenden Prophezeiung Evidenz verschafft: Wenn genügend Marktteilnehmern ihre Investitionsentscheidungen anhand des gleichen Berechnungsmodells kalkulieren – oder zumindest erwarten, dass hinreichend viele andere Teilnehmer die Verwendung dieses Modells erwarten – verhält sich der Markt am Ende tatsächlich wie das Modell. In Zeiten vollständig computerisierten 'High Frequency Tradings' wird er damit aber auch anfällig für Ereignisse, die sich dem logarithmierten Kalkül der Normalverteilung entziehen. Gerade diese 'Black-Swan'-Ereignisse [4] führen dann zu einem kaskadenhaften Zusammenbruch der sich wechselseitig stützenden Erwartungsloops, der sich – wie beim 'Flash Crash' – notwendigerweise den Grenzen der Wahrnehmbarkeit entzieht: "Das Gespenst des Kapitals kommt stets aus seiner eigenen Zukunft zurück." (S. 172) Die von beeindruckender intellektueller Spannkraft zeugende Wissenschaftsprosa des Essays beweist insbesondere in den kursorischen Darstellungen finanztheoretischen Denkens ein beinahe kabarettistisches Talent zur Pointierung von dessen Aporien. Wer sich davon – wie der Rezensent – jedoch eine konsequente Fortschreibung einer Poetologie des ökonomischen Menschen erhofft, wie sie Vogl in seiner vielbeachteten Habilitationsschrift Kalkül und Leidenschaft von der Theaterpoetik der Aufklärung bis zur Steuerungslogik des modernen Romans verfolgt hatte, der wird enttäuscht. Zwar setzt der Essay mit einer Lektüre von Don DeLillos verschlungener Bankersodyssee Cosmopolis ein und entwickelt daran die Frage, inwieweit die Wissensform der Finanzökonomie überhaupt noch eine Wahrnehmungsweise, ein Narrativ, eine Poetik hervorzubringen vermag. Allein, beantwortet wird sie nicht. Stattdessen skizziert Vogl einerseits marginalisierte finanztechnische Modelle von Mandelbrots Fraktalrechnung zur Kalkulation des Nicht-Erwartbaren über postkeynesianische Theorien bis zu Minskys These transistorischer (In-)Stabilität, von denen er sich ein Ende der Oikodizee, also "Säkularisierung ökonomischen Wissens […], Ökonomien ohne Gott, Märkte ohne Vorsehung und Wirtschaftssysteme ohne prästabilisierte Harmonien" (S. 176) erhofft. Andererseits bricht sich gerade zum Ende des Buchs jedoch auch eine Fundamentalskepsis gegenüber einer Finanzökonomie Bahn, deren Reform zugleich mit ihrer Abschaffung in eins zu fallen scheint, weil der unendliche temporale Aufschub einer Kreditökonomie mit einer stets finiten Liquidität ökonomischer Akteure konfligiert: "Ökonomische Zeit ist maßlos, leer, unbestimmt, proleptisch und abstrakt, historische Zeiten sind angefüllt, konkret, bestimmt, irreversibel und beschränkt." (S. 173) Dass die Welt bunt, die Ideen der Finanzwelt aber bloß grau sind, ist für diesen geistreichen Essay dann aber doch ein reichlich vorzeitiges Fazit. --- [1] 'May 6th 2010 Stock Market Flash Crash Part 5', http://www.youtube.com/watch?v=Mt2FMiFFERY&feature=related [29. 03. 2011]. [2] Vgl. Samuel Weber: Geld ist Zeit. Gedanken zu Kredit und Krise. Zürich/Berlin: diaphanes 2009. [3] Vgl. auch Joseph Vogl: "Der Angriff der Zukunft auf die übrige Zeit". In: Gefahrensinn. Archiv für Mediengeschichte. Hg. v. Lorenz Engell/Bernhard Siegert/Joseph Vogl. München: Wilhelm Fink 2009, S. 101–106. [4] Nassim Nicholas Taleb: The Black Swan. The Impact of the Highly Improbable. London: Penguin Books 2008.
The problem of assessing the environmental risk of pesticides can be formulated as a robust feasibility problem: A pesticide is only approved by regulatory agencies of Germany and the entire European Union, if it causes no damage to the environment and man in any possible scenarios. Typically, experimental toxicity studies are used to construct a scenario based approximation of an uncertainty set. In doing so, the considered scenarios are possibly unrealistic, but they aim to represent the worst case. Thus, an overestimation of the effects is accepted to be certain that all possible risks are covered. We consider mechanistic models that do not only describe the effect of pesticides but also aim to explain the underlying processes. Such models may build a more realistic approximation of uncertainty set and thus be instrumental in assessing the risk. This allows the consideration of more complex scenarios. Currently, the use of the models is discussed but at most used in addition to conventional standard tests in European risk assessment. One reason is that they are not well documented. There exists a large family of models differing in complexity as well as precision. Furthermore, there are no standardized model test scenarios, yet. Especially, it is not clear how trustworthy the predictions of the models as well as the models themselves are. Mathematically, we consider parametrized systems of nonlinear differential equations and the complex interdependency of two associated problems. On the one hand, we have the inverse problem of identifying the model parameters. On the other hand, we have the direct problem of predicting effects under varying environmental conditions. This step requires an in depth analysis of the discretization error (ordinary differential equations), extrapolation error (situations not covered by calibration), conceptual model error (situation not covered by model) and consequences of changes in parameter values (sensitivity and uncertainty analysis). Furthermore, the characterization of the physically sound parameters is in special interest in view of the construction of model test scenarios. Besides a realistic modeling, the solution of the model system (exact, approximate) and the choice of the initial values of the inverse problem play a prominent role. We study three different models in the main chapters that are connected by the aim of describing mechanistically the effect of active substances in the environment. The first part deals with the unified framework of the model GUTS (General Unified Threshold model of Survival). This model is based on two different mortality hypotheses: stochastic death (SD) and individual tolerance (IT). The second and third part concentrate on models describing the sublethal effects of active substances on growth of the water plant Lemna. Although both models treat the same species and have the same objective, the models differ in concept and complexity. The first model is a logistic growth model with an effective growth rate that is influenced by environmental conditions and dosage of a pesticide. The second model involves Dynamic Energy Budget theory (DEB) describing growth in terms of changing the energy budget in time. We analyze and quantify uncertainties and errors in the considered ecotoxicological models. Furthermore, we develop methodologies to reduce the uncertainties such that the prediction of the models is enhanced. Thus, this thesis provides a foundation for the use of sophisticated mathematical models in environmental risk assessment of pesticides. ; Die Risikobewertung von Pestiziden in der Umwelt kann als robustes Zulässigkeitsproblem formuliert werden: Ein Pestizid wird nur dann von den regulatorischen Behörden Deutschlands und der gesamten Europäischen Union zugelassen, wenn kein Schaden für Mensch und Umwelt entsteht. Normalerweise werden zur Approximation der Unsicherheitsmenge experimentelle Toxizitätsstudien durchgeführt. Die dabei betrachteten Szenarien sind möglicherweise unrealistisch, aber sie repräsentieren den ungünstigsten Fall. Eine Überschätzung möglicher Wirkungen wird also akzeptiert, um sicher zu gehen, dass alle möglichen Risiken betrachtet werden. Wir betrachten mechanistische Modelle, die nicht nur die Wirkung von Pestiziden beschreiben, sondern die grundlegenden Prozesse erklären. Diese Modelle können eine realistischere Approximation der Unsicherheitsmenge bilden und sind daher hilfreich in der Umweltrisikobewertung. Dies erlaubt die Betrachtung von komplexeren Szenarien. Zu dem jetzigen Zeitpunkt wird der Einsatz dieser Modelle in der Europäischen Risikobewertung diskutiert, jedoch meistens nur zusätzlich zur Standardtoxizitätsbewertung genutzt. Ein Grund dafür ist die schlechte Dokumentation der Modelle. Es existieren zahlreiche Modelle, die sich in der Komplexität als auch in der Genauigkeit unterscheiden. Ferner sind noch keine standardisierten Modelltestszenarien definiert. Vor allem ist nicht klar, ob und wie vertrauenswürdig die Vorhersagen der Modelle sind. Mathematisch betrachten wir parametrische nichtlineare Differentialgleichungssysteme und das komplexe Zusammenspiel zweier verknüpfter Probleme. Zum einen haben wir das inverse Problem der Parameteridentifikation, zum anderen das direkte Problem der Vorhersage von Effekten unter variablen Umweltbedingungen. Dieser Schritt erfordert eine fundamentale Analyse der Diskretisierungsfehler (gewöhnliche Differentialgleichungen), der Extrapolationsfehler (Situationen, die von der Kalibrierung nicht abgesichert werden) sowie der konzeptionellen Modellfehler (Situationen, die nicht vom Modell abgesichert werden). Zudem analysieren wir die Auswirkungen von Änderungen in den Parameterwerten (Sensitivitäts- und Unsicherheitsanalyse). Zusätzlich ist die Charakterisierung der Parameter von besonderem Interesse bezüglich der Konstruktion von Modelltestszenarien. Neben einer realistischen Modellierung spielen die Lösung der Modellsysteme (exakt, annährend) und die Wahl der Startwerte des inversen Problems eine wichtige Rolle. Wir analysieren drei unterschiedliche Modelle in den Hauptkapiteln, die verbunden sind durch ein gemeinsames Ziel, nämlich die mechanistische Beschreibung der Wirkung von aktiven Substanzen in der Umwelt. Der erste Teil der Arbeit handelt von dem verallgemeinerten Modell GUTS (General Unified Model of Survival). Dieses Modell charakterisiert die Überlebenswahrscheinlichkeit von Organismen anhand zweier Hypothesen: Stochastischer Tod (SD) und individuelle Toleranz (IT). Im zweiten und dritten Teil werden Modelle präsentiert, die die sublethale Wirkung von aktiven Substanzen auf das Wachstum derWasserpflanze Lemna erklären. Obwohl beide Modelle das gleiche Ziel haben und dieselbe Spezies modellieren, unterscheiden sie sich in Konzept und Komplexität. Das erste Modell beschreibt das logistische Wachstum der Lemna mit Hilfe der effektiven Wachstumsrate, die durch abiotische Umweltbedingungen und die Dosis des Pestizids beeinflusst wird. Das zweite Modell beruht auf der Dynamic Energy Budget Theorie (deb). Es stellt das Pflanzenwachstum mit Hilfe von sich in der Zeit ändernden Energiebilanzen dar. Wir untersuchen und quantifizieren die Unsicherheiten der betrachteten ökotoxikologischen Modelle. Darüber hinaus haben wir Methoden entwickelt, um diese Unsicherheiten zu verringern, so dass sich die Vorhersagen der Modelle verbessern. Diese Arbeit stellt die Grundlage für die Anwendbarkeit von anspruchsvollen mathematischen Modellen in der Umweltrisikobewertung von Pestiziden dar.
This dissertation consists of five studies on dynamic micro founded macroeconomics. Micro founded macroeconomics is a flexible paradigm. It can be enriched by micro data, assess drivers of economic fluctuations, and is particularly suited for policy analysis. The studies contained in this dissertation contribute to all of these aspects. Chapter 1 outlines the contribution to contemporary scholarship and connects the five studies through their shared scientific paradigm. Chapter 2 provides a novel experimental design that allows to test preferences of people over the temporal resolution of consumption uncertainty. Our experimental design does not require any structural assumptions and measures these attitudes directly in a model-free way. Preferences regarding the temporal structure of uncertainty play a key role in recursive utility models. They constitute a central ingredient in macrofinancial studies and beyond. In a laboratory experiment, we find that, on average, subjects only weakly prefer an early resolution of uncertainty. Surprisingly, recursive utility has no predictive power in explaining preferences over the temporal resolution of consumption uncertainty. The remaining chapters apply dynamic micro founded models to macroeconomic research questions, which are at the center of contemporary discussions. Chapter 3 explores the effects of technological advances in automation technology on growth and inequality. For this purpose, the study builds a novel macroeconomic model with household (skill) heterogeneity, in which automation capital serves as a production input. The model suggests that automation amplifies aggregate growth but generates substantial inequality when skillshares are fixed. Endogenous education choice reduces rising inequality via general equilibrium effects. The chapter discusses potential policy responses in the form of taxes on machines, corporate income taxation, and education subsidies. Chapter 4 asks what drives protracted low inflation in the post-crisis euro area. The estimation of a non-linear dynamic stochastic general equilibrium (DSGE) model of the global economy finds that weak domestic demand, in combination with the zero lower bound, explains a large share of the inflation slowdown. Labor market developments have put additional downward pressure on prices. However, a DSGE model, which focuses on domestic shocks, cannot tell the whole story: External price developments, related to substantial swings in commodity prices and declining euro area (EA) import prices, play a significant role in the post-crisis inflation process. Chapter 5 estimates a multi-region DSGE model to study the fiscal policy implications of downward nominal wage rigidity (DNWR) for an individual country in a currency union. Non-linear methods explicitly account for an endogenous occasionally binding DNWR constraint and the state-dependence of policy. We show that a cut in social security contributions (SSC) paid by employers is particularly effective under DNWR: While the impact multiplier of government expenditure is larger, the SSC reduction entails more persistent growth effects. Moreover, the adjustment of the economy to an SSC reduction is more tax rich, which makes this policy attractive for countries during an economic crisis with limited fiscal space. The US macroeconomic experience of the last decade stressed the importance of jointly studying the growth and business cycle fluctuations behavior of the economy. To analyze this issue, Chapter 6 embeds a model of Schumpeterian growth into a medium-scale DSGE model. Results from a Bayesian estimation suggest that fluctuations in investment risk premia are key drivers of the slump following the Great Recession. Demand shocks are relevant to the evolution of technology, and endogenous growth amplifies financial crises. However, the model estimation challenges the common claim that the slump is a pure demand-side phenomenon. We identify adverse supply-side factors such as a decline of the innovative capacity and frontier technology well before the financial turmoil. ; Die vorliegende Dissertation besteht aus fünf Aufsätzen zu dynamischer mikrofundierter Makroökonomie. Mikrofundierte Makroökonomie ist ein flexibles wissenschaftliches Paradigma. Die Offenheit und Transparenz erlauben es, Mikrodaten sinnvoll zu integrieren, Ursachen von Konjunkturschwankungen zu untersuchen und machen mikrofundierte Makroökonomie besonders geeignet für wirtschaftspolitische Analyse. Diese Dissertation liefert Beiträge zu all diesen Aspekten. Das erste Kapitel legt die Beiträge der einzelnen Studien zur gegenwärtigen Forschung dar und verbindet sie anhand des gemeinsamen wissenschaftstheoretischen Paradigmas. Kapitel 2 entwickelt neue experimentelle Methoden, um Präferenzen hinsichtlich der zeitlichen Struktur von (Konsum-)Unsicherheit zu testen. Präferenzen hinsichtlich der zeitlichen Struktur von Unsicherheit sind ein zentrales Element rekursiver Nutzenmodelle und wichtiger Bestandteil in der makrofinanziellen Theoriebildung und darüber hinaus. Die vorgeschlagene experimentelle Methode hat den Vorteil, nicht an ein bestimmtes parametrisches Modell gebunden zu sein. Unsere Resultate zeigen, dass die meisten Teilnehmer nur schwach ausgeprägte Präferenzen hinsichtlich der zeitlichen Auflösung von Konsumunsicherheit haben. Die Ergebnisse zeigen außerdem, dass das rekursive Nutzenmodell keine Erklärungskraft bezüglich dieser Präferenzen hat. Die weiteren Kapitel wenden dynamische mikrofundierte Modelle zur Analyse von makroökonomischen Fragestellungen an. Kapitel 3 analysiert die Wachstums- und Verteilungseffekte von fortschreitender Automatisierung des Produktionsprozesses. Zu diesem Zweck entwickelt Kapitel 3 ein neues dynamisches Gleichgewichtsmodell mit Haushalts- und Ausbildungsheterogenität, in dem Automatisierungskapital ein Produktionsfaktor ist. In dem Modell generiert Automatisierung Wachstum. Durch die unterschiedliche Interaktion mit verschiedenen Formen von Arbeit (Routine- versus Nicht-Routine-Tätigkeiten) führt Automatisierung auch zu einem Anstieg von Einkommens- und Konsumungleichheit, insbesondere solange die Ausbildungsniveaus der Haushalte konstant bleiben. Endogene Bildungsentscheidungen verringern den Anstieg von Ungleichheit durch starke gesamtwirtschaftliche Rückkopplungseffekte. Das Kapitel betrachtet Steuern auf Automatisierungstechnologie, Besteuerung von Kapitaleinkommen und Bildungssubventionen als potentielle Politikmaßnahmen. In diesem Zusammenhang werden potentielle Wohlfahrtsgewinne und -verluste aus dynamischer Perspektive analysiert. Kapitel 4 untersucht Faktoren, die zur gegenwärtigen langen Niedriginflationsphase in der Eurozone geführt haben. Die Schätzung eines nicht-linearen dynamischen stochastischen allgemeinen Gleichgewichtsmodells (dynamic stochastic general equilibrium, DSGE) der globalen Wirtschaft zeigt, dass die Nullzinsuntergrenze in Kombination mit Nachfrageschocks einen Großteil des Inflationsrückgangs erklären kann. Laut der Schätzung haben angebotsseitige Entwicklungen im Arbeitsmarkt (Lohnzurückhaltung) zusätzlichen negativen Preisdruck verursacht. Preisentwicklungen außerhalb der Eurozone, insbesondere Rohstoffpreisschwankungen und ein Rückgang der Exportpreise im Rest der Welt, spielen eine wichtige Rolle. Kapitel 5 analysiert fiskalpolitische Implikationen von abwärtsgerichteten Nominallohnrigiditäten (ANLR) für Länder in einer Währungsunion. Nichtlineare Lösungsmethoden und Schätzverfahren berücksichtigen, dass Löhne stärker auf gute als auf schlechte gesamtwirtschaftliche Entwicklungen reagieren. Diese Asymmetrie führt zu Zustandsabhängigkeit von Fiskalpolitik, d.h. die makroökonomischen Effekte fiskalischer Maßnahmen unterscheiden sich je nach Konjunkturphase. Die Analyse zeigt, dass eine Senkung der Sozialversicherungsbeiträge (SVB) auf Arbeitgeberseite im Falle einer schweren Rezession und ANLR besonders effektiv ist. Diese Politikmaßnahme erzeugt langlebigere Wachstumseffekte als Staatsausgabenerhöhungen, auch wenn letztere einen größeren Multiplikatoreffekt in der kurzen Frist aufweisen. Darüber hinaus führt die Senkung der SVB zu einer Expansion der Steuerbasis und höheren Steuereinnahmen. Eine Senkung der SVB ist daher eine sinnvolle Maßnahme zur Stabilisierung des Konjunkturzyklus für Länder mit geringem fiskalischen Spielraum. Angesichts der langanhaltenden Niedrigwachstumsphase nach der Finanzkrise analysiert Kapitel 6 Perspektiven auf Wachstum und Konjunktur. Um die komplizierten Zusammenhänge abwägen zu können, konstruiert Kapitel 6 ein neues makroökonomisches Modell, das neben Finanzkrisen und Konjunkturzyklen auch die Entwicklung von Produktivität und Technologie abbildet. Zu diesem Zweck integriert die Studie ein schumpeterianisches Wachstumsmodell in ein neukeynesianisches Konjunkturzyklusmodell. Ergebnisse einer bayesianischen Schätzung zeigen, dass Risikoprämien für Investitionen eine wichtige Ursache der Wachstumsflaute sind. Die Nachfrageschwäche beeinflusst Forschungs- und Entwicklungsausgaben und damit den technischen Fortschritt. Zugleich verstärkt endogenes Wachstum die Effekte von Finanzkrisen. Nichtsdestotrotz bestreitet die Modellschätzung, dass die Niedrigwachstumsphase ein reines Nachfragephänomen ist. Angebotsseitige Entwicklungen wie abnehmende Innovationsdynamik und Rückgang des spitzentechnologischen Fortschritts traten bereits vor der Finanzkrise auf.
Hintergrund und Ziele: Aufgrund hoher Informationsasymmetrien zwischen Patienten und behandelnden Ärzten haben Patienten nur geringe Möglichkeiten, die Behandlung im Krankenhaus und deren Erfolgsaussichten ex ante einzuschätzen. Qualitätstransparenz kann helfen, Informationsasymmetrien zu reduzieren und Patientenmündigkeit zu stärken. Jedoch ist das Wissen über Qualitätstransparenz und deren Wirkung fragmentiert, veraltet und im deutschen Kontext nur ansatzweise vorhanden. Die Qualität im Krankenhaus soll gesteigert werden, doch ist der Zusammenhang zwischen vielen Strukturfaktoren und Ergebnisqualität unzureichend erforscht. Diese Forschungsarbeit soll die wissenschaftliche Grundlage für den politischen Diskurs zu Transparenz und Verbesserung von Behandlungsqualität im Krankenhaus ausbauen und konkrete Empfehlungen für die Weiterentwicklung der Qualitätssicherung und den Ausbau qualitätsfördernder Strukturfaktoren in Deutschland geben. Methodik: Als primäre empirische Grundlage fungiert eine umfassende Datenbank, welche die in Deutschland verfügbaren Struktur-, Prozess- und Ergebnisdaten auf Krankenhaus- und Fachabteilungsebene integriert. Zusätzlich werden Nutzerdaten des weisse-liste.de Public Reporting Portals verwendet. Methodisch interdisziplinär nutzt diese Arbeit verschiedene Ansätze und Techniken aus der Versorgungsforschung, der Gesundheitsökonomie und Big Data Marketing Forschung. Zum einen werden Qualitätstransparenzsysteme qualitativ untersucht. Dabei stehen insbesondere die Messung, Veröffentlichung und Incentivierung von Behandlungsqualität im Krankenhaus im Mittelpunkt eines internationalen Vergleiches. Zum anderen untersuchen Regressionsanalysen und eine stochastische Analyse der Effizienzgrenzen den Einfluss bestimmter Strukturfaktoren auf Qualität und Effizienz in der Krankenhausversorgung. Als Zielvariable wird primär Ergebnisqualität betrachtet. Ergebnisse: Kapitel 1 untersucht die Einflussfaktoren auf Behandlungsqualität aus Patienten- und Leistungserbringersicht und erläutert die Konzepte Qualitätssicherung und Public Reporting. Als internationale Vergleichsarbeit identifiziert Kapitel 2 gesundheitspolitische Ansätze zur Steigerung von Qualitätstransparenz in fünf OECD Ländern. Unter anderem spielen Regierungen eine zentrale Rolle in der Etablierung von Standards und Anreizen für Qualitätstransparenz und integrierte Datensysteme in der Gesundheitsversorgung. Qualitätstransparenz benötigt einen stärkeren Fokus auf Ergebnisqualität und sollte sich auf Krankenhaus- und Leistungsbereichsebene konzentrieren, um Vergleichbarkeit und sinnvolle Wahlmöglichkeiten für Patienten zu garantieren. Kapitel 3 richtet den Fokus auf Deutschland und zeigt große Unterschiede in der risiko-adjustieren Qualität zwischen Krankenhäusern auf nationaler und regionaler Ebene für ausgewählte Notfall- und elektive Leistungsbereiche. Je nach Leistungsbereich liegt das risiko-adjustierte Mortalitäts- bzw. Komplikationsrisiko bis zu 50-mal höher in Krankenhäusern mit schlechter Qualität im Vergleich zu den qualitativbesten Krankenhäusern. Kapitel 4 untersucht Nutzerverhalten in der Krankenhaussuche auf dem Public Reporting Portal "WeisseListe.de". Die Nutzung ist im Zeitraum von 2013 bis 2015 um 38% auf 2 750 Nutzer pro Tag angestiegen. Nutzer suchen insbesondere Qualitätsinformationen für onkologische und orthopädische Leistungsbereiche, doch sind für nur 5 der 20 meistgesuchten Leistungsbereiche Prozess- oder Ergebnisindikatoren verfügbar. Dicht besiedelte Gebiete in Westdeutschland mit höherer Krankenhausdichte weisen eine stärkere Portalnutzung auf als Ost- oder Süddeutschland. Unterschiedliche Nutzergruppen mit spezifischen Charakteristika konnten identifiziert werden und verdeutlichen die Notwendigkeit für nutzerorientiertes Public Reporting. Kapitel 5 untersucht den systematischen Einfluss von Spezialisierung der Krankenhausinfrastruktur und -prozesse und von Zertifizierung auf Qualität am Beispiel der Schlaganfallbehandlung. Krankenhäuser mit einer Stroke Unit haben eine 6% geringere Schlaganfallsterblichkeit. Ein zusätzlicher systematischer Einfluss für ein Stroke Unit Zertifikat kann nicht festgestellt werden. Kapitel 6 richtet den Fokus auf den Krankenhausmarkt als Ganzes und analysiert den Einfluss von Qualitätswettbewerb auf die Behandlungsqualität in den Leistungsbereichen Schlaganfall, Herzinfarkt und Hüft-Total-Endoprothetik. Ein signifikanter Einfluss von Krankenhauswettbewerb auf die Qualität der Versorgung kann nicht festgestellt werden, was möglicherweise auf das weiterhin unzureichende öffentliche Bewusstsein für Qualitätsunterschiede und gegenläufige Effekte durch Krankenhauszentralisierung und Spezialisierung zurückzuführen ist. Letztlich kombiniert Kapitel 7 Qualität und Ressourceneffizienz in einer neuen Methode zur Bestimmung qualitätsadjustierter technischer Krankenhauseffizienz. Dabei werden deutliche Effizienzpotentiale identifiziert, welche insbesondere durch Spezialisierung und Konzentration von Leistungen zu adressieren sind. Fazit: Die Arbeit verdeutlicht Verbesserungspotentiale im Qualitätstransparenzsystem und in der Versorgungsqualität und Effizienz deutscher Krankenhäuser. Neben den aktuellen Bestrebungen im Rahmen des Krankenhausstrukturgesetzes kann ein internationaler Best Practice Austausch, Qualitätssicherung mit tatsächlichen Konsequenzen für schlechte Qualität, ein stärkerer Fokus auf Ergebnisqualität, Spezialisierung und Zentralisierung in der Versorgung, eine nutzenorientierte Verbesserung des Public Reportings und eine weitere Stärkung des Qualitätswettbewerbs die Versorgungsqualität in Deutschland nachhaltig steigern. ; Background and objectives: Due to large information asymmetries between patients and physicians, patients often have limited opportunity to assess treatment options, process of care and their prospective treatment outcomes in advance. Quality of care transparency can help to reduce information asymmetries and increase patient autonomy. Yet, the scientific knowledge around quality of care transparency and its effects on outcomes is fragmented, outdated and, in the German context, rudimentary. In order to enhance quality transparency and to improve hospital outcome quality, the dynamics around quality of care transparency and the relationship between important structural factors and outcomes must be better understood. This research project aims to expand the scientific foundation for policymaking on quality transparency and quality improvement in hospital care. The goal is to provide concrete policy recommendations for improvement of quality transparency and the expansion of quality-enhancing structural factors in the German hospital sector and beyond. Methods: The empirical foundation for this project is a comprehensive database, which integrates the available structural, procedural and outcome quality metrics at both a hospital and medical department level. In addition, website data for the weisse-liste.de public reporting portal is used. Based on an interdisciplinary health economics approach, this project employs different methodologies from health systems research, health economics and big data e-commerce marketing research. First, this project investigates quality of care transparency systems qualitatively by analyzing how they measure, report and incentivize better outcomes. Second, this project uses regression analysis and stochastic efficiency modeling to examine the influence of certain structural factors on quality and efficiency in hospital service delivery. Outcome quality, as opposed to process quality, is the main focus and dependent variable. Results: Chapter 1 examines the factors impacting quality of care on the patient demand side and the care provider supply side, as well as reviews quality assurance and public reporting in the German context. As an international comparison, Chapter 2 examines health policy approaches to enhance quality of care in five mature OECD health systems. Among others, the results suggest governments play an essential role in establishing standards and incentives for quality of care transparency and integrated IT systems in heath service delivery. Furthermore, quality transparency needs a stronger emphasis on outcome quality and should focus at the medical condition and hospital level to ensure patients are empowered with accessible and meaningful information to guide healthcare decisions. Chapter 3 sets the focus on Germany and uncovers large differences in risk-adjusted outcomes between hospitals—both at a national and regional level—as well as for emergency and elective conditions. Depending on the treatment area, the risk-adjusted mortality or complication risk is up to 50 times higher in hospitals with poor outcome quality, relative to hospitals with the best outcome quality of care. Chapter 4 examines website user patterns for the hospital search function of the public reporting portal weisse-liste.de. Between 2013 and 2015, usage of the website increased by 38% annually, to 2,750 user sessions per day. In particular, users searched for quality of care information for oncological and orthopedic treatment areas. Process and outcome quality metrics are only available for 5 of 20 most searched-for treatment areas. In Western Germany, users from densely populated areas with a high number of hospitals conducted relatively more searches than users in Southern and Eastern Germany. From the website data, user groups with distinct characteristics could be identified and confirm the need for customized public reporting options. Chapter 5 evaluates the systematic influence of hospital certification, hospital infrastructure, and process specialization on stroke care outcome quality. Hospitals with a dedicated stroke unit have, on average, a 6% lower risk-adjusted 30-day stroke mortality, ceterius paribus. However, a stroke unit certification showed no systematic influence on 30-day stroke mortality. Chapter 6 focuses on the provider market at large—examining the influence of provider competition on outcomes for hip replacement surgery, and stroke and heart attack emergency care. The influence of provider competition on outcomes remains unclear and insignificant, which can be partially attributed to currently insufficient awareness about outcome differences and where to access the right information. It also hints at the potentially countervailing outcomes influences of hospital centralization and specialization. Chapter 7 combines the concepts of quality and efficiency of care in hospital service provision in a new stochastic frontier analysis model, estimating quality-adjusted technical hospital efficiency. Large inefficiencies are identified, which can be addressed in part through specialization and concentration in care delivery. Conclusions: This research project illustrates substantial potential for improvement in the German quality transparency system, as well as opportunities to enhance the quality of care and efficiency in German hospital service delivery. Possible solutions to increase quality of care in Germany may include, among others: an international best practice exchange, stronger focus on outcome quality, actual regulatory consequences for hospitals with insufficient quality of care, specialization and centralization in hospital care, a user oriented public reporting system, and a substantial strengthening of hospital quality of care competition.
In the past decades, the issues in real estate have received an increasing amount of attention worldwide. One of the main reasons is that the boom-bust cycles in real estate markets were attributed to the underlying causes of numerous financial crises, such as the Nordic banking crisis in the early 1990s, Japan's "Lost Decade" of 1991–2000, the East Asian Financial Crisis in 1997 and the recent global financial crisis erupted in the American 2007 (Bordo and Jeanne, 2002; Crowe et al., 2013; Hartmann, 2015; Reinhart and Rogoff, 2009). Real estate is deemed to be an important factor in the real economy as it makes a major contribution to GDP and provides prosperity and jobs in most countries. In addition, real estate also plays a crucial role in the financial system, since construction projects and residential property purchases are usually credit-financed. Leveraged banks rely heavily on real estate collateral to reduce the risk of much f their household and commercial lending. A widespread downturn in property prices will have a severe impact on the financial stability. Since the explosion of the global financial crisis in 2007, a considerable number of economic models and methods have been designed specifically to anatomize the root causes and key events of it. As a part of the growing body of literature, the focus of this study centres on the old question of what we can learn from this crisis. However, this thesis attempts to provide different insights by employing a newly developed empirical method and economic concepts. There are several lessons that we can learn from the financial crisis. First, countries should watch for early warning and now-casting hints signalling a future crisis. As the crisis in many countries was caused by excessive increases in property prices and/or rapid credit growth, one of the major tasks is to develop renewed empirical methods and econometric tests to detect excessive asset price developments. Meanwhile, these methods are of particular importance in the sense of macroprudential policy. Broadly speaking, macroprudential policy is seen as aiming at financial stability. In terms of the specific goals of macroprudential policy, the general view is that it is all about limiting the risk and costs of systemic crises. Since boom-bust cycles in real estate markets have been major factors in systemic financial crises and therefore need to be at the forefront of macroprudential policy (Hartmann, 2015). Against this background, we employ the newly developed recursive unit root tests to spot the beginning and the end of potential speculative bubbles in the Chinese and German housing price cycle. Because both countries have experienced large markup in the aftermath of the global financial crisis of 2007-2009, there are increasing worries that they might be destined to a similar fate. Nevertheless, we find that actual house prices are not to be disconnected significantly from underlying economic fundamentals and there is no evidence of an emerging speculative housing bubble at the present time in China and Germany. Further to this, we also investigate house price developments across other OECD countries. In contrast to Germany, the majority of OECD countries, such as Ireland, New Zealand, Spain, the Netherlands, the UK and the US, have experienced strong house price growth in the early 2000s, which cumulated in 2007–2008 into an astounding burst of speculative house price bubbles. Aiming to assess the genuine validity and reliability of the univariate screening toolkit, we also provide the test statistics for these countries. The test results deliver timely warnings of underlying misalignments, vulnerabilities and tail risks that predisposed the international housing market to the financial crisis in 2007–2009. The second lesson we could learn is that policymakers should also be mindful of the channels through which the financial crisis erupted. Since the explosion of the crisis in 2007, most of the blame has been placed on the regulatory authorities and investment banks. Nevertheless, in the instance of the subprime mortgage catastrophe, we should not point the finger only at them. Rather, this crisis was the collective creation of the world's central banks, homeowners, mortgage lenders and investors (Petroff, 2007). Against this background, this thesis also attempts to scrutinize the housing investment behaviour of households. Based on Coeurdacier et al.'s(2011) earlier work, we develop a stylised stochastic model to show that risky steady state house prices have a significant impact on housing investment choice. With increasing risk from aggregate income, the financial market and the housing market, the model predicts that agents tend to invest more in housing and financial assets. We also address the issue of housing investment from the perspective of housing affordability in a dynamic life-cycle modelling framework. The main purpose is to assess quantitatively the impact of the affordability constraints on households' optimal consumption, mortgage, portfolio choices and poverty status over the lifetime. Meanwhile, we also investigate the interaction between borrower-based macroprudential policies and social policies aimed at improving poverty and fostering home ownership and credit availability. Through studies of different scenarios, we find that the affordability constraints are crucial determinants of households' investment behaviour and their poverty status in both prime and subprime mortgage markets. Moreover, the sensitivity analysis implies that in light of the age profile of households and features of mortgage credit markets, the magnitudes of the borrower-based macroprudential policies are needed to be carefully assessed in order to minimise the potential conflicts with other social policies. ; In den vergangenen Jahrzehnten haben die Immobilienprobleme zunehmende Aufmerksamkeit weltweit erhalten. Einer der Hauptgründe dafür ist, dass der Boom-Bust-Zyklus auf den Immobilienmärkten den eigentlichen Ursachen der zahlreichen Finanzkrisen zugeordnet wurde, wie zum Beispiel der nordischen Bankenkrise in den frühen 1990er Jahren, Japans "verlorenem Jahrzehnt" von 1991 bis 2000, der ostasiatischen Finanzkrise im Jahr 1997 und der jüngsten globalen Finanzkrise, die in Amerika 2007 ausbrach (Bordo and Jeanne, 2002; Crowe et al., 2013; Hartmann, 2015; Reinhart and Rogoff, 2009). Immobilien gelten als ein wichtiger Faktor in der Realwirtschaft, da sie einen wichtigen Beitrag zum BIP leisten und zu Wohlstand und Arbeitschancen in den meisten Ländern beitragen. Darüber hinaus spielen Immobilien auch eine entscheidende Rolle im Finanzsystem, da Bauvorhaben und der Kauf von Wohneigentum in der Regel mit Hilfe von Krediten finanziert werden. Mit Fremdkapital finanzierte Banken verlassen sich stark auf Immobiliensicherheiten, um das Risiko der Privathaushalts- und Gewerbekredite zu reduzieren. Ein umfassender Rückgang der Immobilienpreise hat einen starken Einfluss auf die Stabilität des Finanzsystems. Seit dem Ausbruch der globalen Finanzkrise im Jahr 2007, wurden eine beträchtliche Anzahl von Wirtschaftsmodellen und Methoden speziell entwickelt, um die Ursachen und deren Schlüsselereignisse analysieren zu können. Als Teil der wachsenden Ansammlung von Literatur fokussiert sich diese Studie auf die alte Frage, was wir aus dieser Krise lernen können. Diese Doktorarbeit versucht allerdings unterschiedliche Einblicke durch Einsatz einer neu entwickelten empirischen Methode und wirtschaftlicher Konzepte anzubieten. Es gibt einige Lektionen, die wir aus der Finanzkrise lernen können. Zunächst sollten die Länder die Frühwarnungen und kurzfristigen Hinweise, die eine künftige Krise signalisieren, dringend beachten. Da die Krise in vielen Ländern von übermäßigem Immobilien-Preisanstieg und/oder rasantem Kreditwachstum verursacht wurde, ist es eine der wichtigsten Aufgaben, erneuerte empirische Methoden und ökonometrische Tests zu entwickeln, um einen übermäßigen Anstieg der Vermögenspreise zu erkennen. Zugleich sind diese ökonometrischen Tests im Sinne der makroprudenziellen Politik von besonderer Bedeutung, weil Boom-Bust-Zyklen an den Immobilienmärkten die Hauptfaktoren in systemischen Finanzkrisen darstellen (Hartmann, 2015). Allgemein gesprochen kann makroprudenzielle Politik als Ausrichtung auf Finanzstabilität gesehen werden. In Bezug auf die spezifischen Ziele der makroprudenziellen Politik ist die allgemeine Sicht, dass es sich um die Begrenzung der Risiken und Kosten der systemischen Krisen handelt. Vor diesem Hintergrund verwenden wir die neu entwickelten rekursiven Einheitswurzeltests, um den Anfang und das Ende der möglichen Spekulationsblasen im chinesischen und deutschen Immobilienpreiszyklus herauszufinden. Da beide Länder starke Preiserhöhungen nach der globalen Finanzkrise von 2007-2009 erlebt haben, gibt es zunehmende Sorge, dass ihnen ein ähnliches Schicksal bestimmt sein könnte. Allerdings finden wir, dass die aktuellen Immobilienpreise nicht von den wirtschaftlichen Fundamentalfaktoren deutlich zu trennen sind, und es gibt zurzeit keine Hinweise auf eine aufkommende spekulative Immobilienblase in China und Deutschland. Überdies haben wir Immobilienpreisentwicklung in den anderen OECD-Ländern geprüft. Im Gegensatz zu Deutschland haben die meisten OECD-Länder, wie Irland, Neuseeland, Spanien, die Niederlande, Großbritannien und die USA, ein starkes Immobilienpreiswachstum in den frühen 2000er Jahren erlebt, das in den Jahren 2007-2008 kumulierte und zu dem erstaunlichen Platzen von spekulativen Immobilienpreisblasen geführt hat. Um die echte Gültigkeit und Zuverlässigkeit des eindimensionalen Screening-Toolkit zu belegen, legen wir auch die Untersuchungsstatistiken für diese Länder vor. Der Untersuchungsnachweis liefert rechtzeitige Warnungen vor zugrunde liegender Falschausrichtung, Schwachstellen und Restrisiken, die den internationalen Immobilienmarkt in der Finanzkrise der Jahre 2007-2009 fehlgelenkt haben. In der zweiten Lektion erfahren wir, dass die politischen Entscheidungsträger sich der Kanäle bewusst sein sollten, durch die die Finanzkrise ausgebrochen ist. Seit dem Ausbruch der Krise im Jahr 2007 wurden die Vorwürfe überwiegend gegen die Regulierungsbehörden und Investmentbanken erhoben. Dennoch sollten wir im Falle der Subprime-Hypothekenkrise nicht nur mit dem Finger auf diese zeigen. Diese Krise war eigentlich die kollektive Erschaffung der weltweiten Zentralbanken, Hausbesitzer, Kreditgeber und Investoren (Petroff, 2007). Vor diesem Hintergrund versucht diese Arbeit auch das Investitionsverhalten der Haushalte in Immobilien eingehend zu untersuchen. Basierend auf Coeurdacier et al.'s (2011) früherer Arbeit entwickeln wir einem stilisierten stochastischen Modell um zu zeigen, dass riskante stationäre Immobilienpreise einen wesentlichen Einfluss auf das Wahlverhalten bei Immobilieninvestition haben. Mit zunehmendem Risiko aus dem Gesamteinkommen, dem Finanzmarkt und dem Immobilienmarkt prognostiziert das Modell, dass Agenten tendenziell mehr in Immobilien und Finanzanlagen investieren. Wir befassen uns auch mit der Frage der Immobilieninvestitionen aus der Sicht der Immobilienerschwinglichkeit in einem dynamischen Lebenszyklus des Modellierungsrahmens. Der Hauptzweck besteht darin, die Auswirkungen der Erschwinglichkeitsbeschränkungen auf den optimalen Konsum, die Portfolioauswahl, die Hypothek und den Armutsstatus der privaten Haushalte über die gesamte Lebensdauer quantitativ zu beurteilen. Außerdem untersuchen wir auch die Interaktion zwischen Kreditnehmerbasierte makroprudenzielle Maßnahmen und sozialpolitischen Maßnahmen zur Verbesserung der Armut und zur Förderung von Wohneigentum sowie Kreditverfügbarkeit. Durch Untersuchungen von verschiedenen Szenarien verdeutlichen die Ergebnisse der Modellkalibrierung, dass die Erschwinglichkeitseinschränkungen entscheidende Faktoren für Investitionsverhalten der Haushalte und ihren Armutstatus im Prime und im Subprime-Hypothekenmarkt sind. Darüber hinaus impliziert die Sensitivitätsanalyse, dass angesichts des Altersprofiles von Haushalten und die Grundzüge von Hypothekenmärkten die Einflußgrößen der Kreditnehmerbasierten makroprudenziellen Maßnahmen sorgfältig beurteilt werden müssen, um mögliche Konflikte mit anderen Sozialpolitiken zu minimieren.
The global financial crisis has had profound effects on macroeconomics. It highlighted a magnitude of challenges for the profession. On the one hand, the turmoil emphasized the absence of important characteristics in standard models. On the other hand, the sheer magnitude of the shocks, combined with policy changes, unconventional measures, and new regulations, induced a shift in many macroeconomic variables. These structural breaks, along with the breakdown of standard transmission mechanisms and newly binding constraints, accentuated the importance of non-linearities in macroeconomic models. While non-linear models were not uncommon before, the arsenal of many macroeconomists was dominated by linearised general equilibrium models, Vector Autoregressive Models (VARs), and Error Correction models. Consequently, the workhorse modelling technique --- DSGE modelling --- was the primary candidate in need to adapt to the new environment. A multitude of new methods and additions were introduced: partially binding constraints to tackle the zero lower bound, higher order perturbations to approximate wider area around a steady state, transmissions between several steady states, and time-varying parameters, either gradual or sudden, to reflect the new state of the system. The first half of this thesis falls into this last category, as it examines the effects of rare events such as financial and currency crises through the lens of regime shifting DSGE models. By introducing non-linearities in the form of time-varying parameters that follow a stochastic process, these models show how similar shocks may have different effects on the economy, since agents may react otherwise even under similar circumstances simply due to a different state of the economy. This is achieved through a novel class of DSGE models --- Markov-switching DSGE (MS-DSGE) that aim at capturing the aforementioned non-linearities. These models assume that the economy may take a number of different states, each associated with a set of parameters. In every representation, the relationships between macroeconomic variables are given; however, the economy is allowed to transition between these regimes following a stochastic Markov process. Therefore, even similar shocks may have different effects across the states of the economy. Furthermore, the economic agents are aware that such transitions may occur and take this into account when making their decisions, which introduces further non-linearities in the form of precautionary behaviour. The introductory chapter presents a small open economy (SOE) model for the Estonian economy, which has had a fixed exchange rate regime (FER) for over two decades. The peg was in the form of a currency board --- a special form of a FER where the base money is fully covered by foreign reserves, eliminating the option of the central bank to act as a lender of last resort''. Under the peg, domestic interest rates are expected to converge to the rates of the foreign currency, due to the unlimited convertibility of bills. Empirically, however, the rates are never a simple identity as it is often assumed in the standard DSGE literature. It is evident from the data that a substantial spread may exist as a consequence of problems in the banking sector or the exchange rate system. This spread may have substantial effects on the economy through abnormally high interest rates. Therefore, in this model the spread is modelled explicitly and further examined from two perspectives. On the one hand, it may arise from endogenous factors, such as through the international financial position of the country. An indebted country might be demanded a premium when issuing more debt. On the other hand, it may also arise from exogenous factors, such as a financial or currency crisis. Were the economy in financial distress, even small shocks could be amplified and much more pronounced. These features are added by modelling stochastic volatility of the interest rate spread in a regime switching framework. While the standard model would average out periods with abnormally high rates and times with low interest rates, the Markov-switching extension is aligned with the data. The model is estimated with Bayesian techniques. The main findings are that financial shocks play a minor role when the banking sector is stable, whereas in the other case these shocks are large and potentially detrimental to the economy, suggesting how important the credibility of the exchange rate system may be. The second chapter of this thesis, titled The regime-dependent evolution of credibility: A fresh look at Hong Kong's linked exchange rate system'', builds on that very issue. How important can the effects of loss of credibility be? It estimates a model for the Hong Kong economy, which has had a currency board for almost three decades. This is one of the longest running FER systems, and it has had its share of speculative attacks over the years. If the traders assume that the currency board will not hold, they take positions against it that are shaped by their expectations, whether the currency would appreciate or depreciate following the abandonment of the peg. The pressure on the spot markets induces a premium on the interest rates through the exchange rate parity. Thus, spreads between foreign and domestic interest rates can be positive, even if the financial system is under no scrutiny. Therefore, we can judge the perceived credibility of the currency board by incorporating financial information in the form of the interest and spot rates. We estimate a structural MS-DSGE model and quantify the effects of loss of credibility of the system. Applying the same framework developed for the previous work, we can estimate the size of the shocks driving the interest rate differential. The main finding is that monetary shocks are amplified and may be up to five times as large if the credibility of the board is put into question when compared to a stable FER, which indicates the importance of tackling currency crises swiftly. The second half of this thesis takes a different approach. It moves away from structural modelling and ventures into the empirical realm of data-driven models, where non-linearities are once more introduced by means of time-varying parameters. Chapter three, titled The credibility of Hong Kong's currency board system: Looking through the prism of MS-VAR models with time-varying transition probabilities'', is a natural continuation of the issue of credibility by addressing a limitation of the MS-DSGE models. Due to their complexity, the probabilities governing the switching parameters have to be constant. This drawback has yet to be resolved in the literature and imposes a serious limitation in scenarios where self-fulfilling expectations fuel the crises. Believing that a regime change may be near could very well influence the likelihood of a shift. This calls for endogenising the transition probabilities between states, which can be achieved in a Markov-switching VAR framework (MS-VAR). The advantage of this setup is that one can pose a set of questions: What captures a loss of credibility in a system? Which are the trigger variables? Does the damage to the confidence in the exchange rate regime stem from fears of the global financial market's or is it solely coming from domestic volatility? In this chapter, we construct a conditional volatility index for Hong Kong and show that uncertainty on the domestic stock markets, as well as the swings of the foreign exchange market for domestic currency, have predictive power over the investor's confidence. Moreover, global uncertainty indicators remain uninformative. The final chapter on non-linearities in macroeconomics retains the spirit of time varying parameters in Markov-switching models, yet ventures away from the SOE setting of the previous sections. It is titled Modelling the time variation in Euro area lending spreads'' and investigates the apparent divergence of lending rates across the Eurozone in recent years. Governed by common monetary policy, European interest rates exhibited similar trends before and even during the financial crisis, but developed rather peculiarly after 2011. Italy, Spain, Portugal, and Ireland experienced surges in their lending rates, while the policy rate was near zero levels --- the transmission of monetary policy has been impaired. While the breakdown in the interest rate pass-through has already been documented in the literature, very little has been found regarding its triggers. This chapter builds an MS-VAR model with time-varying transition probabilities and applies it to the lending rates of Italy, Spain, Ireland, and Portugal relative to Germany's. Under the assumption of no breakdown of the interest rate pass-through, the interest rate differential should react similarly following a common monetary policy shock. By introducing two regimes and endogenous transition probabilities, the model captures the heterogeneity and country specifics of the member states. We find that global risk factors have contributed to higher lending rates in Italy and Spain, and that problems in the banking sector further explain the impairment in Spain, whereas fiscal problems and contagion effects have contributed in Italy and Ireland. We also find that the ECB's unconventional monetary policy announcements have had temporary positive effects in Italy. Due to the zero lower bound, these findings are amplified if EONIA is used as a measure of the policy rate. For Portugal, we do not detect any changes in the pass-through. ; Die globale Finanzkrise war von einer großen Bedeutung für die Wirtschaft und somit für die Volkswirtschaftslehre. Sie hat zur Folge erhebliche Struktur- und Durchbrüche der gewöhnlichen Übertragungsmechanismen. Die Unfähigkeit der linearen Modelle den Umfang der Krise zu prognostizieren hat die Bedeutung der Nichtlinearitäten in der Forschung stark betont. Eine bestimmte Klasse von Modellen – die Markov-switching DSGE Modelle (MS-DSGE) - abzielt die oben genannten Nichtlinearitäten zu erfassen. Bei diesen Modellen wird es davon ausgegangen, dass die Wirtschaft eine Reihe verschiedener Zustände annehmen kann, die jeweils mit einem Satz von Parametern charakterisiert werden. In jeder Darstellung werden die Beziehungen zwischen makroökonomischen Variablen gegeben, jedoch wechselt die Wirtschaft zwischen den Regimen nach einem stochastischen Markov-prozess. Deshalb können die gleichen Schocks unterschiedliche Auswirkungen auf der Wirtschaft haben. Darüber hinaus sind die wirtschaftlichen Akteure bewusst, dass solche Übergänge auftreten können und dies berücksichtigen. Die Akteure bilden deren Erwartungen mit der Sicht, dass ein Regimeweschel möglich wäre, was zu weitere Nichtlinearitäten führt und dadurch werden der vorbeugende Effekt einer drohenden Krise modelliert. Das einleitende Kapitel präsentiert eine kleine offene Volkswirtschaft, die nach der Eigenschaften der estnischen Wirtschaft modelliert wird. Estland hatte mehr als zwei Jahrzehnten einen festen Wechselkurssystem (FWK). Das System ist ein Währungsamt (Currency Board) - eine spezielle Form eines FWK, beidem das Basisgeld zu 100% durch Währungsreserven gedeckt ist und die Möglichkeit der Zentralbank als "lender of last resort" zu dienen abschafft. Mit einem FWK ist es zu erwarten, dass die inländischen Zinsen sich an den ausländischen Zinsen durch eine Arbitrageopportunität anpassen und dadurch konvergieren die beiden Zeitreihen. Empirisch jedoch sind die Zinsen nie identisch, wie es oft in der DSGE Literatur angenommen wird. Aus den Daten ist es offensichtlich, dass eine erhebliche Risikoprämie aufbauen kann die auch eine negative Auswirkung auf die Wirtschaft hat. Diese Zinspanne kann aus verschiedenen Gründe, wie z.B. eine Banken oder Finanzkrise, erscheinen und dadurch verschlechtert sich die wirtschaftliche Lage weiter. Daher wird in diesem Modell diese Nichtlinearität der Risikoprämie explizit mit einer Markov-prozess modelliert und mit Bayesianische Methoden geschätzt. Die Hauptergebnisse zeigen, dass finanzielle Schocks eine untergeordnete Rolle spielen im Fall der Bankensektor stabil ist und eine große Auswirkung haben können im Fall die Wirtschaft sich in einer Krise befindet, eine Eigenschaft die in der linearen Modellen nicht erfassen wird. Das zweite Kapitel dieser Arbeit, mit dem Titel "The Regime-Dependent Evolution of Credibility: A Fresh Look at Hong Kong's Linked Exchange Rate System" baut auf diesem Modell auf und untersucht wie wichtig die Glaubwürdigkeit des Wechselkurssystems für eine kleine offene Wirtschaft ist. Das Modell wird für Hong Kong geschätzt, ein Land das ein Currency Board seit fast drei Jahrzehnten besitzt. Dies ist eine der am längsten laufenden FWK-Systeme und es hat eine gewisse Anzahl von spekulativen Attacken überstanden. Gehen die Händler davon aus, dass das feste Wechselkurssystem aufgehoben wird, werden sie eine Position gegen das System halten, wo sie die Währung verkaufen und Nachfrage nach ausländische Währung generieren. Um die Regierung den Wechselkurs behalten zu können, muss sie (i) genug Reserven ausländischer Währung halten und (ii) die Kapitalabwanderung vermeiden. Dies führt zu erhöhende Zinsen (um die Währung attraktiver zu halten) und wieder zu einer Leitzinsspanne. Diese Zinspanne wird mit dem MSDSGE Modell aus dem ersten Kapitelgeschätzt und durch Varianzzerlegung und Impuls-Antwort Funktionen wird die Transmission der Zinsschocks bei "normalen" Zeiten und in Perioden der Glaubwürdigkeitsverlusts. Die zweite Hälfte der Dissertation versucht die Themen des ersten Teils durch empirische Modelle zu vertiefen. Das dritte Kapitel " The Credibility of Hong Kong's Currency Board System: Looking Through the Prism of MS-VAR Models with Time-Varying Transition Probabilities " ist eine natürliche Fortsetzung der Frage der Glaubwürdigkeit des Wechselkurssystems. Mit Hilfe eine Markov-switching Vektorautoregression (MS-VAR) wird einen gewissen Nachteil des MS-DSGE Modelle überwunden – die Annahme, dass die Wahrscheinlichkeiten für den Regimewechsel konstant und exogen sind. Diese Annahme wird bei den DSGEModellen getroffen nur wegen der Komplexität der Modelle. Dennoch, ist die Annahme Kritsch bei der Modellierung von Krisen, wo selbsterfüllende Erwartungen eine wichtige Rolle spielen können. Durch die Endogenisierung von er Regimewahrscheinligkeiten wird es in diesem Kapitel untersucht was den Verlust der Glaubwürdigkeit des Wechselkurssystems beeinflussen kann. Welche Variablen können ihn "triggern"? Wir entwickeln einen eigenen Index für die Hong Kong Finanzmärkte und zeigen, dass Turbulenz auf die Heimfinanzmärkte einen Einfluss auf die Glaubwürdigkeit haben, wobei die Volatilität bei den globalen Finanzmärkten keine "spillover" Effekts haben. Das letzte Kapitel "Modelling the Time Variation in Euro Area Lending Spreads" untersucht die Divergenz zwischen den Kreditzinsen im Euroraum, besonders Irland, Italien, Spanien und Portugal. In den letzten Jahren hat die EZB der Leitzins niedrig gehalten, indessen die Darlehenszinsen in den o.g. Ländern gestiegen sind was auf eine Veränderung bei der Transmission der Geldpolitik hindeutet. Im vierten Kapitel wird es wieder mit Hilfe eines MS-VAR Modelles untersucht was dazu eingelegt hat. Wir finden heraus, dass globale Risikofaktoren und Volatilität auf den Finanzmärkten zu höheren Kreditzinsen in Italien und Spanien beigetragen haben und dass die Probleme im Bankensektor der Erhöhung der Darlehenszinsen in Spanien beeinflusst haben. Die Fiskalkrise hatte einen Einfluss auf der Dynamik der Kreditzinsen in Irland, wobei in Portugal wir keine Veränderung der Transmission der Geldpolitik identifizieren können.