In der Literatur wurden verschiedene parametrische Modelle zur Analyse der Heteroskedastie in Zeitreihen von Finanzmarktdaten entwickelt. Eine Möglichkeit, die bedingte Volatilität nichtparametrisch zu erfassen, ist die Kernschätzung von bedingten Quantilen. In diesem Aufsatz werden einige asymptotische Eigenschaften des Kernschätzers präsentiert. Die Anwendung von nichtparametrischen Schätzern setzt die Wahl eines Glättungsparameters voraus. Es wird die Bandweitenwahl mittels Cross-Validation als Lösung diskutiert. Die Prozedur wird zur Schätzung von bedingten Quantilen in der Zeitreihe täglicher DAX-Renditen verwendet.
Angesichts der Vielfältigkeit des deutschen Bildungssystems erscheint es fraglich, die Entwicklung der Lohnstruktur lediglich anhand durchschnittlicher, meist semiparametrisch geschätzter Bildungsrenditen zu beurteilen. Die Arbeit konzentriert sich daher im theoretischen Teil auf die systematische Darstellung und Diskussion neuerer nichtparametrischer Verfahren zur Schätzung von Bildungsrenditen. Anhand von Daten des Deutschen Instituts für Wirtschaftsforschung (DIW) für den Zeitraum 1984-2000 werden im empirischen Teil die Ergebnisse traditioneller und ausgewählter Verfahren neueren Verfahren kritisch gegenübergestellt. Es zeigt sich, dass nichtparametrisch geschätzte Bildungsrenditen wertvolle Zusatzinformationen liefern und somit ein differenzierteres Bild der Entwicklung der Lohnstruktur ermöglichen.
'Die in den Sozialwissenschaften, den Wirtschaftswissenschaften und der Biometrie bekanntesten Modelle für binäre abhängige Variablen sind das Probit- und Logitmodell. Als Verteilung der Fehlervariablen verwendet man dabei die Normalverteilung beziehungsweise die Logistische Verteilung. Beide Modelle liefern in der Regel ähnliche Schätzungen. Ist die Verteilung der Fehlervariablen schief, so führen Tests schnell zur Ablehnung beider Modelle. Beim Gallant-Nychka Ansatz wird die Verteilung geeignet approximiert. Neben den Parametern des Modells sind simultan die Parameter der Verteilung zu schätzen. Simulationen zeigen, daß die Schätzung bei normalverteilten Fehlervariablen fast genauso effizient wie im Probitmodell, jedoch viel besser bei Abweichungen von der Normalverteilung ist.' (Autorenreferat)
Angesichts der Vielfältigkeit des deutschen Bildungssystems erscheint es fraglich, die Entwicklung der Lohnstruktur lediglich anhand durchschnittlicher, meist semiparametrisch geschätzter Bildungsrenditen zu beurteilen. Die Arbeit konzentriert sich daher im theoretischen Teil auf die systematische Darstellung und Diskussion neuerer nichtparametrischer Verfahren zur Schätzung von Bildungsrenditen. Anhand von Daten des Deutschen Instituts für Wirtschaftsforschung (DIW) für den Zeitraum 1984-2000 werden im empirischen Teil die Ergebnisse traditioneller und ausgewählter Verfahren neueren Verfahren kritisch gegenübergestellt. Es zeigt sich, dass nichtparametrisch geschätzte Bildungsrenditen wertvolle Zusatzinformationen liefern und somit ein differenzierteres Bild der Entwicklung der Lohnstruktur ermöglichen.
Die nichtparametrische Statistik ist ein wichtiges Teilgebiet der statistischen Methodenlehre. Kennzeichnend für die Verfahren der nichtparametrischen Statistik sind vor allem Verteilungs-Freiheit, Robustheit und Einfachheit, woraus sich eine hohe Praxisrelevanz ergibt. Dieses Lehrbuch ist eine verständliche Einführung in nichtparametrische Tests. Besondere Berücksichtigung finden Permutations- und Bootstrap-Tests, die seit der zweiten Hälfte der 1990er mehr und mehr in den Vordergrund rücken und inzwischen in zahlreichen statistischen Programmsystemen implementiert wurden
Zugriffsoptionen:
Die folgenden Links führen aus den jeweiligen lokalen Bibliotheken zum Volltext:
In diesem Aufsatz wird die nichtparametrische Autoregression auf die Prognose von Quantilen angewendet. Verfahren der Kernregression werden benutzt, um zu autoregressiven Quantiisschätzern zu gelangen. Da die üblichen Maße zur Beurteilung der Prognose, wie etwa der mittlere quadratische Prognosefehler oder der Theilsche Ungleichheitskoeffizient, in diesem Fall ungeeignet sind, wird ein anderes Prognosemaß definiert. Der nichtparametrische Schätzer wird dann verwendet, um tägliche Renditen der Daimler-Benz Aktie zu prognostizieren. Die Prognosen werden mit Hilfe des definierten Prognosemaßes beurteilt und die Prognosen für verschiedene Quantile werden miteinander verglichen.
We propose a non-parametric procedure for estimating the realized spot volatility of a price process described by an Itô semimartingale with Lévy jumps. The procedure integrates threshold jump elimination technique of Mancini (2009) with a frame (Gabor) expansion of the realized trajectory of spot volatility. We show that the procedure converges in probability in L²([0; T]) for a wide class of spot volatility processes, including those with discontinuous paths. Our analysis assumes the time interval between price observations tends to zero; as a result, the intended application is for the analysis of high frequency financial data. We investigate practical tests of market efficiency that are not subject to the joint-hypothesis problem inherent in tests that require the specification of an equilibrium model of asset prices. The methodology we propose simplify the testing procedure considerably by reframing the market efficiency question into one about the existence of a local martingale measure. As a consequence, the need to directly verify the no dominance condition is completely avoided. We also investigate market efficiency in the large financial market setting with the introduction of notions of asymptotic no dominance and market efficiency that remain consistent with the small market theory. We obtain a change of numeraire characterization of asymptotic market efficiency and suggest empirical tests of inefficiency in large financial markets. We argue empirically that the U.S. treasury futures market is informational inefficient. We show that an intraday strategy based on the assumption of cointegrated treasury futures prices earns statistically significant excess return over the equally weighted portfolio of treasury futures. We also provide empirical backing for the claim that the same strategy, financed by taking a short position in the 2-Year treasury futures contract, gives rise to a statistical arbitrage.
Der Value at Risk ist die am stärksten verbreitete Kennzahl zur Bestimmung des Risikos bei Finanzinstituten. Für diese gibt es bezüglich Theorie, Simulation und empirischer Anwendung bereits ein breites Spektrum an Literatur. Im Rahmen dieser Arbeit werden verschiedene Methoden zur Schätzung des Value at Risk gegenübergestellt und bezüglich ihrer Performance untereinander verglichen. Zusätzlich zum Value at Risk wird der Expected Shortfall als mögliche Alternative aufgeführt. Der wesentliche Fokus liegt zum einen auf dem Vergleich von bedingten Methoden mit und ohne vorherige Filterung von Daten. Zum anderen soll die Frage beantwortet werden, ob bedingte oder unbedingte Methoden für die Schätzung der Risikomaße zu favorisieren sind. Auf Basis der in dieser Arbeit durchgeführten Simulations- und empirischen Studien wird gezeigt, dass die Filterung von Daten einen nicht zu verachtenden Mehrwert erzielt. Nach einer adäquaten Filterung liefern sowohl Extremwertmodelle als auch nichtparametrische Modelle gute Ergebnisse. In der empirischen Studie stellen sich die bedingten Methoden als vorteilhaft heraus.
Zugriffsoptionen:
Die folgenden Links führen aus den jeweiligen lokalen Bibliotheken zum Volltext: