Die folgenden Links führen aus den jeweiligen lokalen Bibliotheken zum Volltext:
Alternativ können Sie versuchen, selbst über Ihren lokalen Bibliothekskatalog auf das gewünschte Dokument zuzugreifen.
Bei Zugriffsproblemen kontaktieren Sie uns gern.
140 Ergebnisse
Sortierung:
In: Diskussionspapiere des Fachbereichs Wirtschaftswissenschaften, Universität Hannover 270
In: Diskussionspapiere 27
18 Studies, die sich auf Daten aus 20 hochentwickelten, sich entwickelnden und weniger entwickelten Ländern stützen, zeigen, dass die Durchschnittslöhne in exportierenden Firmen höher liegen als in nichtexportierenden Firmen aus gleichen Branche und Region. Die Existenz dieser Lohnzuschläge bei Exporteuren ist einer der stilisierten Fakten der wachsenden Literatur zur Mikroökonometrie des internationalen Handels...
In: Diskussionspapiere aus der Fakultät für Sozialwissenschaft, Ruhr-Universität Bochum Nr. 95-3
In: Discussion paper series No. 271
Propensity score matching is a prominent strategy to reduce imbalance in observational studies. However, if imbalance is considerable and the control reservoir is small, either one has to match one control to several treated units or, alternatively, discard many treated persons. The first strategy tends to increase standard errors of the estimated treatment effects while the second might produce a matched sample that is not anymore representative of the original one. As an alternative approach, this paper argues to carefully reconsider the selection equation upon which the propensity score estimates are based. Often, all available variables that rule the selection process are included into the selection equation. Yet, it would suffice to concentrate on only those exhibiting a large impact on the outcome under scrutiny, as well. This would introduce more stochastic noise making treatment and comparison group more similar. We assess the advantages and disadvantages of the latter approach in a simulation study.
The paper compares two approaches to the estimation of panel probit models: the Generalized Method of Moments (GMM) and the Simulated Maximum Likelihood (SML) technique. Both have in common that they circumvent multiple integrations of joint density functions without the need to impose restrictive variance-covariance specifications on the error term distribution. Particular attention is paid to a three-stage GMM estimator based on nonparametric estimation of optimal instruments. A Monte Carlo study reveals slight efficiency gains from SML when the underlying model is correctly specified. GMM turns out to be more robust than SML when heteroskedasticity over time is ignored as well as in the presence of multiplicative heteroskedasticity. An application to the product innovation activities of German manufacturing firms is presented.
In: Discussion paper series 4451
This paper assesses the effectiveness of unconfoundedness-based estimators of mean effects for multiple or multivalued treatments in eliminating biases arising from nonrandom treatment assignment. We evaluate these multiple treatment estimators by simultaneously equalizing average outcomes among several control groups from a randomized experiment. We study linear regression estimators as well as partial mean and weighting estimators based on the generalized propensity score (GPS). We also study the use of the GPS in assessing the comparability of individuals among the different treatment groups, and propose a strategy to determine the overlap or common support region that is less stringent than those previously used in the literature. Our results show that in the multiple treatment setting there may be treatment groups for which it is extremely difficult to find valid comparison groups, and that the GPS plays a significant role in identifying those groups. In such situations, the estimators we consider perform poorly. However, their performance improves considerably once attention is restricted to those treatment groups with adequate overlap quality, with difference-in-difference estimators performing the best. Our results suggest that unconfoundedness-based estimators are a valuable econometric tool for evaluating multiple treatments, as long as the overlap quality is satisfactory. -- Multiple treatments ; nonexperimental estimators ; generalized propensity score
In: Regensburger Diskussionsbeiträge zur Wirtschaftswissenschaft 393
In: Working paper 121
Die vorliegende Dissertation besteht aus drei Studien, welche die Wirksamkeit verschiedener Arbeitsmarktprogramme untersuchen. Diese werden im Rahmen aktiver Arbeitsmarktpolitik mit dem Ziel eingesetzt, Arbeitslosigkeit bestimmter Zielgruppen zu verringern sowie deren Beschäftigungschancen zu verbessern. Jedes Kapitel ist darauf ausgerichtet, mit Hilfe mikroökonometrischer Evaluationsmethoden einen ursächlichen Zusammenhang zwischen dem jeweiligen Arbeitsmarktprogramm und den individuellen Arbeitsmarktergebnissen wie Beschäftigungschancen oder Beschäftigungsstabilität, herzustellen. Dabei ist es entscheidend die tatsächlichen Effekte für Programmteilnehmer von anderen Faktoren, welche den Arbeitsmarkterfolg beeinflussen zu trennen, um glaubwürdige Schlussfolgerungen ziehen zu können und politische Beratung zu erlauben. In den ersten beiden Studien, in Kapitel zwei und drei, werden, von der Arbeitsagentur finanzierte, Lohnsubventionen untersucht. Diese werden oft als besonders wirksame Maßnahmen zur Verbesserung der Arbeitsmarktchancen von Arbeitslosen mit Vermittlungshemmnissen vorgeschlagen. In der ersten Analyse - Kapitel zwei - wird die Effektivität eines Subventionsprogramms für Langzeitarbeitslose in Deutschland untersucht. Im Gegensatz zum oft verwendeten "matching"-Ansatz - einer speziellen ökonometrischen Evaluationsmethode - wird in der vorliegenden Analyse eine alternative Evaluationsmethode angewandt. Mit Hilfe des "Regression Discontinuity Designs" kann untersucht werden wie hoch die Beschäftigungsraten Langzeitarbeitsloser während der Existenz des Subventionsprogramms gewesen wären, wenn die Lohnsubvention in dieser Zeit nicht existiert hätte. Diese Beschäftigungsraten können dann mit den tatsächlich beobachteten verglichen werden, um den Effekt des Programms ermitteln zu können. Dieser Auswertungsansatz ist besser geeignet, um die Effektivität von Lohnkostenzuschüssen zu bewerten. Die daraus folgenden Ergebnisse sollten zu einer Neubewertung früherer Studien führen, welche Lohnsubventionen mit Hilfe von "matching"-Methoden untersuchen. Die zweite Analyse - Kapitel drei - beschäftigt sich mit der Effektivität von Lohnkostenzuschüssen unter Berücksichtigung verschiedener Firmencharakteristika. Empfänger von Lohnsubventionen sind in bestimmten Firmen angestellt, so dass es für den Arbeitsvermittler sowie die Arbeitsagentur von großer Bedeutung ist, zu wissen, in welcher betrieblichen Umgebung Arbeitslose am meisten von der Programmteilnahme profitieren. Gegeben beschränkter öffentlicher Finanzen bieten die Ergebnisse dieser Studie zusätzliche Orientierung für Arbeitsvermittler im Genehmigungsverfahren der Subvention. In der dritten Untersuchung - Kapitel vier - werden die Auswirkungen von Weiterbildungsmaßnahmen auf die Arbeitsmarktchancen von Arbeitslosen mit Blick auf deren berufliche Mobilität untersucht. Die administrativen Daten ermöglichen es, die Berufswechselabsicht jedes Arbeitsuchenden zu Beginn der Arbeitslosigkeit zu bestimmen. In der folgenden empirischen Analyse werden zunächst die Effekte der Weiterbildungsmaßnahmen separat für Arbeitsuchende mit und ohne Wechselabsicht untersucht. Danach werden diese miteinander verglichen, um Aussagen über Effektheterogenität machen zu können, d.h. um herauszufinden welche der beiden Gruppen mehr oder weniger von Weiterbildungen profitiert. Arbeitsmarktevaluation ; Arbeitsökonomie
In: IWH-Diskussionspapiere 2010,3
The study contributes to the development of "standards" for the application of matching algorithms in empirical evaluation studies. The focus is on the first step of the matching procedure, the choice of an appropriate distance function. Supplementary to most former studies, the simulation is strongly based on empirical evaluation situations. This reality orientation induces the focus on small samples. Furthermore, variables with different scale levels must be considered explicitly in the matching process. The choice of the analysed distance functions is determined by the results of former theoretical studies and recommendations in the empirical literature. Thus, in the simulation, two balancing scores (the propensity score and the index score) and the Mahalanobis distance are considered. Additionally, aggregated statistical distance functions not yet used for empirical evaluation are included. The matching outcomes are compared using non-parametrical scale-specific tests for identical distributions of the characteristics in the treatment and the control groups. The simulation results show that, in small samples, aggregated statistical distance functions are the better choice for summarising similarities in differently scaled variables compared to the commonly used measures. -- distance functions ; matching ; microeconometric evaluation ; propensity score ; simulation
In: Discussion paper series 2738
A fundamental identification problem in program evaluation arises when idiosyncratic gains from participation and the treatment decision depend on each other. Imbens and Angrist (1994) were the first to exploit a monotonicity condition in order to identify an average treatment effect parameter using instrumental variables. More recently, Heckman and Vytlacil (1999) suggested estimation of a variety of treatment effect parameters using a local version of their approach. However, identification hinges on the same monotonicity assumption that is fundamentally untestable. We investigate the sensitivity of respective estimates to reasonable departures from monotonicity that are likely to be encountered in practice and relate it to properties of a structural parameter. One of our results is that the bias vanishes under a testable linearity condition. Our findings are illustrated in a Monte Carlo analysis.