Persönlichkeitseigenschaften, Wahlverhalten und politische Orientierung: politische Kenntnistests.
Themen: Mündliche Befragung: Haushaltsgröße; Kinderzahl (gestaffelt nach Altersstufen); wichtigstes Ziel der Kindererziehung; Postmaterialismus; Politikinteresse; Sympathie-Skalometer für Gerhard Schröder, Joschka Fischer, Angela Merkel, Guido Westerwelle, Edmund Stoiber, Jürgen Trittin, Gregor Gysi, Franz Schönhuber und Gerhard Frey sowie für die Parteien SPD, CDU, CSU, FDP, Bündnis 90/Die Grünen, PDS, Republikaner, DVU und NPD; Sympathie-Skalometer für die Gewerkschaften sowie die evangelische und die katholische Kirche; Anforderungsprofil für eine politische Partei; Parteien, die sich besonders für die Interessen von Arbeitern, Selbstständigen, Landwirten, Katholiken und Gewerkschaftsmitgliedern einsetzen; Selbsteinschätzung der Charaktereigenschaften (semantisches Differential); Institutionenvertrauen (Skalometer); Lebenszufriedenheit (Skalometer); Bedeutung Gottes für das eigene Leben (Skalometer); Zustimmung zur Aussage, Jesus sei Mensch und Gott zugleich gewesen; Glauben an ein Leben nach dem Tod, an Gott, an den Himmel und an die Hölle (Skalometer); derzeit wichtigste Probleme in der BRD und Partei, die am ehesten geeignet ist, es zu lösen; Wahlbeteiligungsabsicht im Falle einer anstehenden Landtagswahl, Europawahl, Kommunalwahl und Bundestagswahl; Parteipräferenz sowie Kriterien für die eigene Wahlentscheidung; Einstufung dieser Parteipräferenz als gefühlsmäßig aufgrund von Drängen von anderen; Protest als Motivation für die Wahlentscheidung; Selbsteinschätzung als Protestwähler; Vermutung, ob die Erststimme oder Zweitstimme bei der Wahl über die Stärke der Parteien im Bundestag entscheidet; Kenntnis der Anzahl der Bundesländer; Zuordnung der Parteizugehörigkeit von Gerhard Schröder, Joschka Fischer, Angela Merkel, Guido Westerwelle, Edmund Stoiber, Jürgen Trittin, Gregor Gysi, Franz Schönhuber und Gerhard Frey; Positionierung von SPD, CDU, CSU, FDP, Bündnis 90/Die Grünen, PDS, Republikaner, DVU und NPD auf einem Links-Rechts-Kontinuum; Selbsteinstufung auf einem Links-Rechts-Kontinuum; Einstellung zum US-Militäreinsatz im Irak, zu Genforschung, zur Euro-Einführung, zur Erleichterung des Zuzugs von Ausländern, zur Aufrüstung der Bundeswehr, zur finanziellen Unterstützung Arbeitsloser, zur Intensivierung der Europäischen Einigung, zur Legitimität von Schwangerschaftsabbrüchen, zur Ehe Homosexueller, zum weiteren Ausbau von Kernenergie; Wahlverhalten bei der letzten Bundestagswahl und Gründe für eine mögliche Wahlenthaltung; Zufriedenheits-Skalometer für die SPD-Regierung, die Grünen als Koalitionspartner sowie die Oppositionsparteien; Interesse an Zeitungslektüre zur politischen Information; Häufigkeit der Zeitungslektüre sowie präferierte überregionale Zeitung; Zustimmung zur Einschätzung der Medien, Schröders Politik habe sich seit der Wahl verschlechtert; Parteineigung und Parteiidentifikation; Dauer der Parteiidentifikation; Einstellung und Verbundenheit zur genannten Partei (Skala); Demokratiezufriedenheit; Einstellung zu den politischen Parteien und ihren Abgeordneten (Skala); politische Entfremdung; Einstellung zu den Themen: Religiosität, Astrologie, Wunderheiler, Ausländerpolitik, Fremdenfeindlichkeit, Antisemitismus, Nationalsozialismus, Meinungsfreiheit, soziale Gerechtigkeit politisches Engagement, Sozialismus, Imperialismus und Entwicklungspolitik (Skala); psychologische Selbsteinschätzung hinsichtlich Geselligkeit, Nervosität, Selbstvertrauen, Pragmatismus, Ordnungsliebe, Freundlichkeit, Zeitmanagement, Stressresistenz, Lebensfreude, Kommunikationsstärke, Teamfähigkeit, Pflichtbewusstsein, Ausgeglichenheit, Extrovertiertheit, Kunstverständnis, Sozialkompetenz, Zielstrebigkeit, Offenheit, Entschlossenheit, Ängstlichkeit, Beliebtheit, Fleiß, Religiosität, Wirkung auf andere, Zuverlässigkeit, Bestimmtheit, Wissenschaftsinteresse, Interesse an Astrologie, eigenem Abstraktionsvermögen und Perfektionismus (Skalen, Neo-FFI);
Demographie: Alter (Geburtsdatum); deutsche Staatsangehörigkeit; Konfession; Relevanz des religiösen Glaubens; Kirchgangshäufigkeit, Erwerbstätigkeit; berufliche Stellung; Kinderzahl; Zusammenleben mit einem Partner; Verwandschaftsgrad der Personen im Haushalt; Hauptverdiener im Haushalt; Selbsteinschätzung sowie Einschätzung des Hauptverdieners als Besserverdienende; Schulbildung; Gewerkschaftsmitgliedschaft; Wohnort vor der Wende in Ost oder West.
Interviewerrating: Geschlecht; Anwesenheit Dritter während des Interviews; Eingreifen dieser Personen in den Interviewablauf; Kooperationsbereitschaft des Befragten; vermutete Zuverlässigkeit der Angaben des Befragten; Kontaktprotokoll; Interviewdauer; Uhrzeit für Interviewbeginn und Interviewende; Ortsgröße; Intervieweridentifikation; Intervieweralter; Interviewergeschlecht.
Schriftliche Befragung: Einschätzung der wirtschaftlichen Lage in den alten und neuen Bundesländern; Wertorientierungen: Gesetz und Ordnung, hoher Lebensstandard, Macht und Einfluss, Entwicklung der eigenen Phantasie und Kreativität, Sicherheit, soziales Engagement, Dominanz, Fleiß und Ehrgeiz, Toleranz, politisches Engagement, Hedonismus, Pflichtbewusstsein (Skalometer); Häufigkeit des Konsums von Fernsehnachrichten in der ARD, im ZDF sowie bei den privaten Sendern; Häufigkeit der Lektüre von BILD-Zeitung, Nachrichtenmagazinen und Tageszeitungen; Interesse an Nachrichten aus den Bereichen Politik im In- und Ausland, Regionales, Kultur, Sport, Vermischtes sowie Wirtschaft (Skalometer); Einschätzung von Gerhard Schröder, Joschka Fischer, Angela Merkel, Guido Westerwelle, Edmund Stoiber, Jürgen Trittin, Gregor Gysi, Franz Schönhuber und Gerhard Frey hinsichtlich Kompromissfähigkeit/Durchsetzungsfähigkeit, Gewissenhaftigkeit/Unbefangenheit und Innovationsfreude/Traditionsverbundenheit; Selbsteinschätzung hinsichtlich Geselligkeit, Durchsetzungsfähigkeit, Ausgeglichenheit, Gewissenhaftigkeit, Innovationsfreude, Religiosität, Kompromissfähigkeit; Kanzlerpräferenz (Angela Merkel oder Gerhard Schröder); wichtigstes Problem in der BRD; Einschätzung der Fähigkeit von SPD, CDU, CSU, FDP, Bündnis 90/Die Grünen, PDS, Republikaner, DVU und NPD dieses Problem zu lösen (Skalometer); Parteien, die sich besonders für die Interessen von Angestellten, Beamten, Besserverdienende, Durchschnittsverdiener und schlechter Verdienende einsetzen; Parteien, die am ehesten mit sozialer Gerechtigkeit, freiem Unternehmertum, Veränderungsfreudigkeit, Protest, Pflichtbewusstsein, Gefühlsbetontheit, Traditionsverbundenheit, Phantasie, Gewissenhaftigkeit, Härte und Aufgeschlossenheit assoziiert werden; Einstellung des Befragten zu Schweizern, Türken, Franzosen, Amerikanern, Österreichern, Russen, Buddhisten, Christen, Juden und Mohammedanern (Skalometer); Selbsteinschätzung des Befragten hinsichtlich Aufgeschlossenheit, Flexibilität, Empathiefähigkeit, Kontaktfreudigkeit, Spontanität, Opportunismus, Konfliktfähigkeit, Autoritätsglauben, Toleranz, Selbstständigkeit, Dominanzverhalten, Kompromissfähigkeit, Lernbereitschaft, Erfolgsorientierung und Diskussionsfreudigkeit; Demokratiezufriedenheit; Einschätzung der bestehenden Gesellschaftsordnung als gerecht; Selbsteinschätzung gesellschaftlicher Benachteiligung; Einschätzung Gerhard Schröders und Angela Merkels hinsichtlich Tatkraft, Sympathie, politische Vertrauenswürdigkeit, Führungsstärke, Geschmack, umweltpolitische Kompetenz, Ehrlichkeit, außenpolitische Kompetenz, Ausstrahlung, Entscheidungsfreudigkeit, Verantwortung, Wirtschaftskompetenz, Kompetenz bei Sozialreformen und Arbeitsmarktpolitik (Skalometer); Wählbarkeit von SPD, CDU/CSU, FDP, Bündnis ´90/Die Grünen, PDS und Republikaner auf einem Skalometer von 0 bis 100; Institutionenvertrauen: Kirche, Gewerkschaften, Wirtschafts- und Arbeitgeberverbänden, Umweltschutzgruppen und Bundestagsabgeordneten (Skalometer); Vertrauen in Gerhard Schröder, Joschka Fischer, Angela Merkel, Guido Westerwelle, Edmund Stoiber, Jürgen Trittin, Gregor Gysi, Franz Schönhuber und Gerhard Frey (Skalometer); Vertrauen in die SPD, CDU, CSU, FDP, Bündnis 90/Die Grünen, PDS, Republikaner, DVU und NPD (Skalometer); Selbsteinschätzung hinsichtlich Gesprächigkeit, Kritikfreudigkeit, Gründlichkeit, Deprimiertheit, Originalität, Reserviertheit, Hilfsbereitschaft, Achtlosigkeit, Entspanntheit, Aufgeschlossenheit, Aktivität, Streitlust, Zuverlässigkeit, Anspannung, Tiefsinn, Begeisterungsfähigkeit, Nachsichtigkeit, Unordentlichkeit, Besorgtheit, Phantasie, Wortkargheit, Gutgläubigkeit, Faulheit, Ausgeglichenheit, Einfallsreichtum, Durchsetzungsfähigkeit, Distanziertheit, Ausdauer, Launenhaftigkeit, Kunstverständnis, Schüchternheit, Einfühlungsvermögen, Fleiß, Stressresistenz, Ambitioniertheit, Geselligkeit, Unfreundlichkeit, Zielstrebigkeit, Unsicherheit, Interesse an eigener Abstraktionsfähigkeit, Kooperationsfähigkeit, Zerstreutheit und musisches Interesse; eigene Einstellung sowie vermutete Position von CDU/CSU, SPD, FDP, Bündnis 90/Die Grünen, Republikaner und PDS zum Ausbau der Kernenergie, dem Militäreinsatz der USA im Irak, zu Zuzugsmöglichkeiten von Ausländern und zur europäischen Einigung; Issue-Relevanz dieser Themen; Geschlecht des Befragten; Selbstcharakterisierung hinsichtlich Originalität, Materialismus, Chancengleichheit, Bewundert werden, Sicherheitsbedürfnis, Abwechslung, Gewissenhaftigkeit, Empathiefähigkeit, Bescheidenheit, Hedonismus, Unabhängigkeitsstreben, Fürsorglichkeit, Anerkennung, starker Sicherheitsstaat, Risikofreudigkeit, korrektes Verhalten, Respekt erhalten, Loyalität, Umweltbewusstsein und Traditionsbewusstsein (Skala); Einschätzung von Gerhard Schröder, Joschka Fischer, Angela Merkel, Guido Westerwelle, Edmund Stoiber, Jürgen Trittin, Gregor Gysi, Franz Schönhuber und Gerhard Frey hinsichtlich Geselligkeit und seelischer Ausgeglichenheit; Einschätzung von Gerhard Schröder, Joschka Fischer, Angela Merkel, Guido Westerwelle, Edmund Stoiber, Jürgen Trittin, Gregor Gysi, Franz Schönhuber und Gerhard Frey auf einem Links-Rechts-Kontinuum; Einschätzung der eigenen wirtschaftlichen Lage; Gefühl politischer Wirksamkeit, efficacy (Skala); wichtigste Bezugsperson des Befragten und vermutetes Einverständnis der beiden wichtigsten Personen im Hinblick auf eine angenommene Wahlentscheidung des Befragten für die SPD, CDU/CSU, FDP, Bündnis 90/Grüne, PDS oder Republikaner (Skalometer). Zusätzlich verkodet wurde: Rücklaufdatum;
Indizes: Neurotizismus, Extraversion, Offenheit für Erfahrung, Verträglicheit, Gewissenhaftigkeit, extrem rechte Einstellung, extrem linke Einstellung.
Natürliche Ressourcen bilden die Lebensgrundlage vieler ländlicher Haushalte in Entwicklungsländern. Die Auswirkungen unklarer Eigentumsrechte, extremer Armut, nicht funktionierender Märkte und Institutionen trägt dazu bei, dass natürliche Ressourcen, mit samt den Gemeinschaften, die von ihnen abhängen, dem Risiko der Gemeingüter-Tragik ausgesetzt sind. Gemeinschaftliches Management natürlicher Ressourcen (CBNRM) ist ein Ansatz, der es Gemeinschaften ermöglicht, ihre natürlichen Ressourcen nachhaltig zu nutzen, und damit ökonomische Entwicklung und soziale Gleichheit verbessert. CBNRM erfreut sich immer größerer Beliebtheit in Afrika südlich der Sahara, und sowohl Regierungs- als auch Nichtregierungsorganisationen fördern die Vorteile des Programms. Die wenigen empirischen Studien, die sich mit den ökonomischen und ökologischen Auswirkungen CBNRMs beschäftigen, kommen allerdings zu unterschiedlichen Ergebnissen hinsichtlich positiver oder negativer Programmauswirkungen. Diese Arbeit verfolgt daher einen ganzheitlichen Ansatz. Mit Hilfe einer detaillierten Fallstudie in einem CBNRM Gebiet (das Sikunga Naturschutzgebiet) in der nordöstlichen Sambesi Region Namibias werden drei spezifische Forschungsziele verfolgt. Es geht konkret darum, (1) unterschiedliche Existenzstrategien innerhalb der Gemeinschaft zu identifizieren, die jeweiligen Unterschiede in der Ressourcennutzung zu erkennen, und zu analysieren, wie diese Unterschiede die ökonomische Gleichheit in der Gemeinschaft bedingen, (2) die ökonomischen Verbindungen zwischen den verschiedenen ökologischen und nicht-ökologischen Aktivitäten innerhalb der CBNRM-Wirtschaft zu untersuchen; und (3) zu analysieren, wie individuelle und ökologische Faktoren Kooperation zum Schutz der natürlichen Ressourcen schwächen. Die ersten beiden Zielstellungen wurden anhand einer Befragung von 200 Haushalten aus dem Sikunga Naturschutzgebiet untersucht, die im September und Oktober 2012 durchgeführt wurde. Der Datensatz umfasst detaillierte Informationen über Einkommensquellen, Zeitallokation, Konsum und Ausgaben, Nutzung natürlicher Ressourcen, Viehwirtschaft und Pflanzenproduktion. Außerdem wurden Informationen zu sozio-demographischen Haushaltseigenschaften und Sozialkapital gesammelt. Für die Analyse des Datensatzes wurden zwei aufeinander aufbauende empirische Strategien genutzt. Entsprechend der ersten Zielstellung, wurde eine zweistufige Clusteranalyse durchgeführt, die die Haushalte anhand ihrer jeweiligen Existenzstrategie in unikale Gruppen (Cluster) kategorisiert. Diese Haushaltscluster wurden dann benutzt, um eine ökologisch-erweiterte Social Accounting Matrix (ESAM) zu entwickeln. Diese ESAM diente als Grundlage zur Durchführung unbeschränkter und beschränkter Multiplikatoranalysen, um, entsprechend der zweiten Zielstellung, die Verbindungen zwischen ökologischen und nicht-ökologischen Aktivitäten innerhalb der Gemeinschaft zu identifizieren. Zur Bearbeitung der dritten Zielstellung wurde eine Serie von Lab-in-the-Field-Experimenten zur Eruierung des Kollektivgut-Verhaltens der Gemeinschaftsmitglieder im Sikunga Naturschutzgebiet im September und Oktober 2014 durchgeführt, wobei die Haushalte nur teilweise mit denen aus der vorangegangen Welle übereinstimmen. Die experimentellen Daten sind in Paneldatenform und erlauben daher die Anwendung von Generalized Least Squares Random Effects und Poisson Random Effects Modellen. Methodisch trägt diese Arbeit zum gegenwärtigen Forschungsstand in der Verhaltensökonomie in der Literatur zu öffentlichen Gütern auf verschiedene Weise bei. Erstens beinhaltet das Kollektivgut-Experiment tatsächliche Anstrengungen seitens der Teilnehmer, welche sowohl im Feld als auch im Labor durchgeführt werden können. Während tatsächliche Anstrengungen im Labor im Laufe der Zeit zum Standard geworden sind, steht die Umsetzung im Feld vor allerlei Herausforderungen. Zum Beispiel hängen diese Aufgaben von Fähigkeiten zu rechnen und zu lesen, oder von einfachen physischen Eigenschaften wie der Sehstärke, ab. Besonders in ländlichen Gebieten Afrikas südlich der Sahara sind diese Fähigkeiten unter dem Niveau der westlichen Welt. In dieser Arbeit wird eine tatsächliche Anstrengung so modelliert, dass diese Fallstricke überwunden werden können. Zweitens, ist dies die erste empirische Studie, die konsistent die Auswirkungen von Risiko in einem Kollektivgutexperiment untersucht, indem Risiko simultan auf das private und das öffentliche Gut angewandt wird. Durch den Vergleich des Teilnehmerverhaltens in einem risiko-neutralen und in einem risiko-behafteten Kontext in zwei aufeinanderfolgenden Experimenten, ist es möglich, den Effekt von Risikoaversion und Wahrscheinlichkeitsgewichtung zu kontrollieren und letztlich den Einfluss von Risiko auf Kooperationsverhalten zu identifizieren. Auf diese Weise trägt diese Arbeit eine neue Dimension zum, von Ostrom entwickelten, Teufelskreis der Kooperation bei. Drittens ermöglicht das Experiment die Quantifizierung des Risikoeffekts auf das Anstrengungslevel in einer kontrollierten Umgebung. Während viele Studien quasi-experimentelle Methoden anwendeten, erfolgt in dieser Arbeit die Quantifizierung des Risikoeffekts zum ersten Mal in einer kontrollierten Umgebung. Die Ergebnisse dieser Arbeit liefern neue Erkenntnisse in der Verhaltensökonomie zu Kollektivgütern und können zu einer Verbesserung der Programmgestaltung von CBNRMs beitragen. Erstens ist die Wirtschaftsstruktur in der Studienregion zugunsten der wohlhabenderen Haushalte ausgerichtet und zu denen, die näher an den Hauptinfrastrukturen leben, wie Straßen und Elektrizität. Mit Hilfe des Programms konnten Eigentumsrechte auf die Gemeinschaft übertragen werden, aber ohne Entwicklungsstrategien, die speziell die verletzlichen Haushalte in der Gemeinschaft unterstützen, konnte die Elite durch kommerziellen Abbau und Handel größere Renditen aus den natürlichen Ressourcen ziehen. Ärmere Haushalte sind dagegen weiterhin auf die natürlichen Ressourcen zur Deckung ihres Eigenbedarfs angewiesen. Zweitens, unter Berücksichtigung der biologischen Grenzen des Naturschutzgebietes, gibt es nur wenig ökonomische Integration zwischen den ökologischen und nicht-ökologischen Aktivitäten innerhalb der Dorfgemeinschaft. Im Gegensatz dazu, gibt es starke Verbindungen zwischen verschiedenen ökonomischen Aktivitäten mit erhöhter Nachfrage für eine bestimmte Ressource. Dies führt zu erhöhter Nachfrage für die meisten anderen Rohstoffe, anstatt zur Stimulation anderer Sektoren außerhalb des Rohstoffabbaus in der Dorfgemeinschaft. Daher dürfte es für die Gemeinschaft schwer sein, ihr Einkommen aus dem CBNRM-Programm zur Diversifizierung ihrer wirtschaftlichen Aktivitäten zu nutzen und langfristig aus der Ressourcennutzung herauszukommen. Drittens identifiziert diese Arbeit potentielle verhaltensökonomische Faktoren, die die positiven Auswirkungen des CBNRMs beschränken könnten. Die Ergebnisse des Lab-in-the-Field-Experiments zeigen, dass Risiko Aufwands- und Kooperationsbereitschaft negativ beeinflusst. In einem risiko-neutralen Kontext waren Haushalte eher bereit, in öffentliche Güter zu investieren als in einem risiko-behafteten Kontext. Weiterhin wurde belegt, dass gemeinsame Strategien zur Verbesserung der Kooperation und Kommunikation in Gegenwart von Risiko nicht effektiv sind. Dies hebt eine potentielle Schwachstelle des CBNRM Programmdesigns hervor, wobei die Risiken des gemeinschaftlichen Vermögens und Unternehmen weder abgemildert noch versichert sind. Diese nicht versicherten Risiken könnten für Haushalte Anreiz sein, sich von der Gemeinschaft abzusetzen und in ihr eigenes Unternehmen zu investieren, zum Beispiel in die Umwandlung von gemeinschaftseigenen Lebensraum für Wildtiere in privates landwirtschaftliches Eigentum. Insgesamt zeigen die Ergebnisse dieser Fallstudie, dass das CBNRM Programm wahrscheinlich nur begrenzt Vorteile für die Forschungsregion haben wird. In Hinsicht auf die Literatur deuten die Ergebnisse an, warum die ökonomischen Effekte von CBNRM bisher nicht eindeutig sind. Es wird empfohlen, verschiedene Methoden und empirische Strategien, die sowohl individuelle Haushalte als auch ihre Überlebensstrategien ins Zentrum stellen, in der Analyse zu berücksichtigen. Letztlich suggerieren die Ergebnisse des Experiments, dass die Gegenwart ungemilderter Risiken eine Bedrohung für Gemeinschaftsprojekte, die auf Kooperation bauen, darstellt. Akteure aus der Entwicklungspraxis könnten daher in Betracht ziehen, wie Gemeinschaften gegenüber Risiken, wie Niederschlagsveränderungen oder Konflikte zwischen Wildtieren und Menschen, versichert werden können. ; In remote areas of developing countries, the livelihoods of many rural households are highly dependent on natural resources. However, the impact of poorly defined property rights, extreme levels of poverty, dysfunctional markets and government institutions place the natural resources, and the communities that depend on them, at risk of becoming another tale of the "tragedy of the commons". Community based natural resource management (CBNRM) was promoted as an approach that would enable communities to sustainably manage their natural resources which would also enhance economic development and economic and social equality. CBRNM has become increasingly popular in sub-Saharan Africa, and governments and NGOs alike continue to promote the perceived benefits of CBNRM programmes. The few extant empirical studies, however, that investigate economic and environmental impacts of CBNRM derive inconsistent conclusions whether CBNRM impacts are positive or negative. The aim of this thesis is to evaluate the role of social, natural, physical, human and financial capital in influencing the impact of CBNRMs. This thesis therefore takes a holistic approach by means of a detailed case study on a single CBNRM area (the Sikunga Conservancy) in the north-eastern Zambezi region of Namibia, this thesis focuses on three specific research objectives: (1) to identify the different livelihood strategies within the community, to investigate the extent to which different strategies utilize natural resources, and to analyse how this improves economic equality within the community; (2) to examine the economic linkages between the different environmental and non-environmental activities within the CBNRM-economy; and (3) to investigate how individual and environmental factors may degrade cooperation to protect natural resources. The first two objectives are met using household survey data from 200 households in the Sikunga Conservancy collected in September and October 2012. The data set contains detailed information on income sources, time-use, consumption and expenditure data, harvesting of natural resources, livestock and crop management. Information on each household's socio-demographics and social capital was also collected. The survey data is utilized in two different empirical strategies that build upon each other. To meet the first research objective, a two-step cluster analysis is conducted, identifying the unique groups of households within the study area which adopt similar livelihood strategies. The household clusters were 9 then used to develop an environmentally extended village social accounting matrix (ESAM). According to the second objective, the ESAM serves as a basis to conduct a series of unconstrained and constrained multiplier analyses to identify the linkages between environmental and non-environment based activities, and the different household groups and other institutions within the community. The third objective is addressed via a series of artefactual lab-in-the-field experiments to elicit community members' behaviour towards public goods that were conducted in the same community, with a partial overlap between households, in September and October 2014. The lab-in-the-field experiment data follows the form of panel data. As such, a series of Generalized Least Squares Random Effects and Poisson Random Effects models are applied. Methodologically, the thesis makes several contributions to the current research of behavioural economics in public good literature. First, it provides a real-effort based public good game which can be implemented in the field as well as in laboratories. Whilst laboratory real-effort tasks are common place and have been relatively standardized over time, the conduct in the field has several challenges. For example, these tasks are heavily biased towards basic levels of numeracy, literacy or even simple physical characteristics such as level of sight. Especially in rural areas of sub-Saharan Africa where numeracy and literacy levels may be well below the western world, and simple things such as sight or hearing deprivation remain untreated. This thesis details a real-effort task which overcomes these constraints by utilising a simple physical sorting task. Second, it is the first empirical study of its kind to consistently examine the impact of risk in a public good game; by simultaneously applying risk to the private and public goods. By comparing participants' behaviours in a risk neutral and risky setting in two sequential public good games the experiment is able to limit the impact of risk aversion and probability weighting and finally, identify the impacts of risk on cooperative behaviour. In this way, it adds a new dimension to the virtuous circle of cooperation developed by Ostrom. Furthermore, by utilising a real-effort based experiment, it also quantifies the impact of risk on exertion levels in a controlled environment. Whilst many studies have used quasi-experimental methods and econometrics to quantify the impact of risk on effort levels, this is the first time that it has been quantified in a controlled environment. Empirically, the results obtained in this thesis contribute to existing knowledge and help improve CBNRM programme designs. Firstly, in the study area, the structure of the economy is heavily biased towards the wealthier households, and those located near the main infrastructure such as roads and electricity. CBNRM has transferred property rights for natural resources to the community, but without development policies that specifically target vulnerable households within the community the elite and wealthy households have been able to extract greater rents from the natural resources via more commercial harvesting and trading. Poorer households largely continue to rely on natural resources for subsistence. Secondly, when the biological limits of the conservancy are taken into consideration, there is little economic integration between the environmental and non-environmental activities within the village economy. Conversely, there are strong interlinkages within different environmental activities, with increased demand for natural resources, leading to increased demand for most other environmental resources, rather than stimulating other off-farm sectors within the village economy. Therefore, communities may struggle to use income derived from CBNRM to diversify their economy and shift away from natural resource consumption. Thirdly, as well as highlighting the importance of the local underlying economic structures when designing CBNRM programmes, this study also identifies potential behavioural factors which may limit the positive impact of CBNRM. The results of the lab-in-the-field experiment show that risk negatively impacts on effort and cooperation levels. Faced with pay-off equivalent situations, households were more likely to invest in public goods in risk neutral contexts than in risky contexts. Furthermore, common strategies to enhance cooperation such as communication and observation proved to be ineffective in the presence of risk. This highlights a potential flaw in the design of many CBNRM programmes where the risk to community owned assets and enterprises are unmitigated and uninsured. The uninsured risks in community assets may create the incentive for households to reduce their contributions to public goods and invest in their own private assets and enterprises, to the detriment of community-owned ones such as the conversion of community-owned wildlife grazing lands to private land for agriculture. Overall the results of the case study show that the CBNRM programme in the study area is likely to have limited benefits. With respect to the literature they may help to explain why the literature to date onthe economic impacts of CBNRM has been inconclusive. It is recommended to consider multiple methods and empirical strategies that consider individual households and livelihood strategies at the centre of analysis. Finally, the experiment results suggest that the presence of unmitigated risk poses a threat to community projects that are dependent on cooperation. Development practitioners may need to consider ways of insuring community projects against risks such as weather and wild-life conflicts.
Der Energiesektor Deutschlands befindet sich aktuell in einem Transformationsprozess, bei dem die ursprünglich fossile und nukleare Rohstoffbasis zunehmend durch erneuerbare Energiequellen ersetzt wird. Ein entscheidender Auslöser dieser Energiewende war die Implementierung des Energiekonzeptes der Bundesregierung im Jahr 2010. Neben der Substitution traditioneller durch erneuerbare Energieträger, beinhaltet die Umsetzung der Energiewende weitere ökologische, ökonomische und soziale Ziele. Diese umfassen a) eine Verbesserung des Umweltschutzes, b) die Gewährleistung angemessener Energiepreise für Konsumenten, c) den Erhalt der wirtschaftlichen Wettbewerbsfähigkeit und Entwicklung sowie d) eine Verringerung der Importabhängigkeit von Energieträgern. Um die komplexen Auswirkungen der Umsetzung der Energiewende auf die deutsche Volkswirtschaft zu ermitteln, verfolgt diese Dissertation zwei Ziele. Das erste Ziele ist die Entwicklung eines Allgemeinen Gleichgewichtsmodells (CGE Modell) für Deutschland, auf dessen Basis ein Monitoring der Energiewende möglich ist und Politikempfehlungen abgeleitet werden können. Das zweite Ziel ist die Anwendung dieses Modells, um die Auswirkungen der Umsetzung der Energiewende im Stromsektor unter besonderer Berücksichtigung des Agrarsektors zu analysieren. Diese Arbeit stellt die Entwicklung des Static Applied General Equilibrium Modells für Deutschland (STAGE_D) sowie der zugrunde liegenden Datenbasis in Form einer Social Accounting Matrix (SAM) vor. Bei der Daten- und Modellentwicklung wird dabei das Problem adressiert, dass das homogene Produkt Strom durch unterschiedliche Technologien mit unterschiedlichen Kostenstrukturen erzeugt wird. STAGE_D bildet sowohl bestehende Technologien (Kernkraft, Kohle, Gas usw.), als auch neue Technologien (Wind, Sonne und Biomasse) zur Stromerzeugung ab. Den Agrarsektor präsentiert STAGE_D als einen Multi-Produkt-Sektor auf Ebene der Bundesländer. Somit können regionale Unterschiede der landwirtschaftlichen Produktionsstrukturen Deutschlands in CGE-Analysen einbezogen werden. STAGE_D erfasst ebenso CO2-Emissionen, die durch den Einsatz energetischer Rohstoffe durch Industrie und Haushalt verursacht werden. Im Rahmen der Anwendung des Modells STAGE_D werden drei Szenarien analysiert. Diese untersuchen i) die Auswirkungen des Atomausstiegs, ii) die vollständige Umsetzung der Ziele der Energiewende im Stromsektor sowie iii) die Rolle der Verstromung von Biomasse im Agrarsektor. Die Ergebnisse zeigen, dass die Energiewende im Stromsektor negative Auswirkungen auf die Wirtschaftskraft Deutschlands hat. Dies zeigt sich durch einen Rückgang des Bruttoinlandsprodukts infolge eines Produktionsrückgangs der heimischen Wirtschaft in allen Szenarien. Die Einführung neuer, teurerer Technologien zur Stromerzeugung führt zu höheren Strompreisen für Industrie und Haushalte. Für die Industrie erhöhen sich die Produktionskosten, Haushalte haben weniger Einkommen für den Konsum anderer Güter und Dienstleistungen zur Verfügung. Der Produktionsrückgang der heimischen Wirtschaft bewirkt darüber hinaus eine Verringerung der Einkommen der Produktionsfaktoren Kapital, Arbeit und Land. Private Haushalte sind somit zusätzlich zu steigenden Strompreisen mit einer Minderung ihrer Einkommen konfrontiert und tragen somit die Hauptlast bei der Umsetzung der Energiewende. Im internationalen Kontext erleidet die deutsche Wirtschaft einen Verlust an Wettbewerbsfähigkeit. Dieser wird durch den Rückgang sowohl der Importe, als auch der Exporte von Waren und Dienstleistungen sichtbar. Das Ziel geringerer CO2-Emissionen wird zwar erreicht, resultiert jedoch hauptsächlich auf der geringeren Wirtschaftskraft Deutschlands und weniger aus der Substitution fossiler durch erneuerbare Energieträger. Aus agrarischer Sicht ist die Energiewende Fluch und Segen zugleich. Der Ausbau der Biogasproduktion kompensiert durch höhere Erlöse für Strom und Substrate teilweise die steigenden Stromkosten. Gleichzeitig treiben jedoch umfangreiche Investitionen in den Ausbau von Biogasanlagen die Kapitalkosten in die Höhe. Insgesamt führen die negativen Auswirkungen höherer Kapital- und Stromkosten und die geringere Inlandsnachfrage nach Futter- und Nahrungsmitteln zu einem Rückgang des Produktionsniveaus und der Preise fast aller Agrarerzeugnisse. Die Betrachtung der Auswirkungen der Energiewende auf regionaler Ebene zeigt, dass Bundesländer mit einer energie- und kapitalintensiven Tierproduktion stärker betroffen sind, als Bundesländer mit dominierender Pflanzenproduktion. Im Hinblick auf die zukünftige Energiepolitik der Regierung wird auf Basis der Ergebnisse empfohlen, die Förderung erneuerbaren Energien vor dem Hintergrund der aktuell bestehenden Kraftwerksstrukturen im Strombereich zu modifizieren. Darüber sollte der technische Fortschritt der Stromerzeugung unterstützt und die Effizienz der Stromnutzung gefördert werden, um die gewünschte Umstrukturierung des Stromsektors und damit die Umsetzung der ökonomischen, ökologischen und sozialen Ziele der Energiewende zu erreichen. Mit Blick auf den Agrarsektor sollte die Biogasproduktion zur Stromerzeugung vorläufig noch aufrechterhalten werden, da diese erneuerbare Energiequelle kontinuierlich verfügbar ist. Aufgrund der steigenden Nachfrage nach Agrarrohstoffen zur Erzeugung von Nahrungsmitteln und andere Verwendungszwecke, ist ein weiterer Ausbau der Biogasproduktion jedoch nicht zu empfehlen. Der Ausbau erneuerbarer Energien zur Stromerzeugung sollte sich künftig auf Wind- und Solarenergie konzentrieren. Dies auch vor dem Hintergrund, dass Stromerzeugung auf Basis dieser Energieträger kostengünstiger und umweltfreundlicher ist. ; Germany's energy sector is currently characterised by a transformation process, in which the fossil and nuclear basis is increasingly replaced by renewable energy sources. A key driver of this energy transition was the implementation of the Energy Concept by the German government in 2010. Beside the substitution of traditional energy sources by renewables, the implementation of the so-called Energiewende includes further ecological, economic and social objectives. These include a) an improvement of environmental protection, b) a guarantee of reasonable energy prices for consumers, c) the maintenance of economic competitiveness and development and d) a reduction in the dependence of energy sources on imports. In order to determine the complex impacts of the implementation of the Energiewende on the German economy, this dissertation has two objectives. The first objective is the development of a single-country Computable General Equilibrium model (CGE model) for Germany, which allows for a monitoring of the Energiewende and policy recommendations. The second objective is the application of this model to analyse the impact of the implementation of the Energiewende in the electricity sector on the German economy, with particular emphasis on the agricultural sector. This thesis presents the development of the Static Applied General Equilibrium Model for Germany (STAGE_D) and the underlying database in the format of a Social Accounting Matrix (SAM). The data and model development addresses the problem that the homogeneous product electricity is generated by different technologies with different cost structures. STAGE_D represents both - existing technologies (nuclear power, coal, gas, etc.) and new technologies (wind, solar and biomass) for electricity generation. The agricultural sector is presented by STAGE_D as a multi-product sector at regional level of the federal states. Thus, regional differences in Germany's agricultural production structures can be considered in the frame of a CGE analysis. STAGE_D also records carbon emissions caused by the use of energy resources by industry and households. In this thesis, the application of STAGE_D comprises the analysis of three scenarios. They examine i) the effects of nuclear phase-out, ii) the full implementation of the objectives of the Energiewende in the electricity sector and iii) the role of the conversion of biomass into electricity in the agricultural sector. The results show that the Energiewende in the electricity sector has a negative impact on the economic performance of Germany. This is reflected by a decline in Gross Domestic Product as a consequence of a drop in the production of the domestic economy in all scenarios. The introduction of new, more expensive technologies for electricity generation leads to higher electricity prices for industry and households. Therefore, production costs for the industry are increasing. Households have less income available for consumption of other goods and services. In addition, the decline in production of the industry leads to reduced incomes of the production factors capital, labour and land. Next to higher electricity prices, private households are therefore additionally confronted with a reduction of their incomes and thus have to carry the main burden in the realisation of the Energiewende. In the international context, the German economy is suffering a loss in competitiveness. This is reflected in the results by the decline in imports and exports of goods and services. Although the target of lower carbon emissions is achieved in all scenarios, this is primarily caused by Germany's lower economic performance and less by the substitution of fossil by renewable energy sources. From the agricultural perspective, the energy transition is both - a boon and a bane. The expansion of biogas production is partially compensating for higher electricity prices by increasing revenues for biomass-based electricity and substrates. But at the same time, extensive investments in the expansion of biogas plants are driving up the cost of capital. Overall, the negative effects of higher capital and electricity costs and lower domestic demand for food and feed cause a decline in production and prices for almost all agricultural products. The consideration of the impact of the Energiewende at regional level shows that federal states with energy- and capital-intensive animal production are more affected than federal states with dominant plant production. With regard to the future energy policy of the government, it is recommended, on the basis of the results, to modify the support for renewable energies against the background of the currently existing power plant structures in the electricity sector. In addition, technological progress in electricity generation and the efficiency of electricity use should be supported in order to achieve the required restructuring of the electricity sector and thus the implementation of the economic, ecological and social objectives of the Energiewende. With regard to the agricultural sector, biogas production for electricity generation should be maintained meanwhile because this renewable energy source is continually available compared to solar and wind. Against the background of the increasing demand of agricultural commodities for food and other purposes, a further expansion of biogas production is not recommended. The expansion of renewable energies for electricity generation in the future should focus on wind and solar energy. This also with regard to the fact that electricity generation on the basis of these energy sources is more cost-effective and ecological.
Wertvorstellungen, Interessen, Wünsche und Gesellschaftsverständnis von Jugendlichen. Kumulierter Datensatz der Shell Jugendstudien der Jahre 2002, 2006, 2010 und 2015.
Themen: Die folgenden Themen sind im Gesamtdatensatz insgesamt enthalten. Teilweise wurden sie zu jedem Erhebungszeitpunkt gefragt, teilweise jedoch nur zu einer oder zu mehreren Erhebungszeitpunkten.
Was ist bei Jugendlichen ´in´ und was ist ´out´ (Treue, Karriere, Politik, Glaube, Aussehen, Europa, Aktien, Technik, sich selbständig machen, Markenkleidung, Bioläden, Verantwortung übernehmen, Studieren, Heiraten, Drogenkonsum, Bürgerinitiativen); persönliche Zukunftserwartung und gesellschaftliche Zukunftssicht; Angst Auslösendes (z.B. Umweltverschmutzung, Krieg in Europa, körperliche Bedrohung, Terroranschläge, Arbeitsplatzverlust, etc.); Zustimmung zu ausgewählten Aussagen zu Deutschland (schöne Landschaften und Städte, große Leistungen in Literatur und Kunst, weltweit begehrte Produkte, starke Wirtschaft, fleißige und arbeitsame Menschen, soziale Absicherung, Schutz vor Kriminalität, Land, in dem man nach eigenen Vorstellungen leben kann, politische Mitbestimmung der Bürger, hat aus den Fehlern seiner Vergangenheit gelernt, Vorbild für andere Länder); Freizeitaktivitäten; Selbsteinschätzung des Gesundheitszustands; Häufigkeit des Alkoholkonsums; Häufigkeit des Konsums ausgewählter Nahrungs- und Genussmittel; Raucherstatus; Häufigkeit von Sportaktivitäten pro Woche; Zufriedenheit mit dem Körpergewicht; Piercing; Tattoo; Sichtbarkeit des bzw. der Tattoos; Solariumnutzung; eigenes Handy; Internetzugang und wöchentliche Nutzungsdauer; Nutzungspräferenzen im Internet; Art des Internetzugangs (Computer, Laptop, Notebook, Tablet, Smartphone, anderes internetfähiges Handy, internetfähiger Fernseher, internetfähiger Spielkonsole, keine Internetnutzung); Nutzungshäufigkeit für ausgewählte Aktivitäten im Internet (z.B. Blogschreiben, Blogs und Foren besuchen, informieren über Politik und Gesellschaft, soziale Netzwerke, Chats, etc.); Meinung zu sozialen Netzwerken (vorsichtiger Umgang mit persönlichen Daten, wenig Zeit für andere Dinge durch häufige Internetnutzung, Facebook und Google verdienen mit Nutzerdaten viel Geld, Spaß am Liken, Spaß an Internetkontakten, man muss bei sozialen Netzwerken dabei sein um Aktivitäten der anderen mitzubekommen, Facebook und Google wollen das Internet beherrschen, bei Verlust von Smartphone, Tablet oder Notebook würde halbes Leben fehlen); Häufigkeit der Facebook-Nutzung; Anzahl der Freunde auf Facebook; Anzahl der Facebook-Freunde im engeren Freundeskreis; Vertrauen zu Facebook; von Whistleblower Edward Snowden gehört; Sorgen um persönliche Daten wegen der Aufdeckung durch Edward Snowden; Politikinteresse; Rezeption politischer Sendungen im Fernsehen; Wahlbeteiligungsabsicht bei der nächsten Bundestagswahl; aktives Informieren über Politik und Informationsquellen; Einstellung zur Herabsetzung des Wahlalters für Bundestagswahlen auf 16 Jahre; Einstellung zu einer Jugendquote analog zur Frauenquote in politischen Positionen; nur Jugendliche ab 15 Jahren: Selbsteinschätzung auf einem Links-Rechts-Kontinuum; Grund für fehlende Selbsteinstufung Links-Rechts; Vertrauen in ausgewählte Gruppierungen und Organisationen (Institutionenvertrauen); Einstellung zu politischen Fragen: Gefühl politischer Wirksamkeit; Politikverdrossenheit und Demokratie-Normen (Skalen: Politiker kümmert nicht, was Leute denken, Politikverständnis, Politiker nur daran interessiert gewählt zu werden und nicht am Wählerwillen, Politik zu kompliziert, nur wenige Mächtige haben Einfluss auf die Regierung, Parteipolitik ödet an, in der Politik sollten mehr junge Leute was zu sagen haben, jeder Bürger hat das Recht, für seine Überzeugungen auf die Straße zu gehen, Bürger verliert das Recht zu Streiks und Demonstrationen bei Gefährdung der öffentlichen Ordnung, jeder sollte das Recht haben für seine Meinung einzutreten, auch wenn Mehrheit anderer Meinung ist, lebensfähige Demokratie ohne politische Opposition nicht denkbar, in jeder Gesellschaft Konflikte, die nur mit Gewalt ausgetragen werden können, auch wer in politischer Auseinandersetzung Recht hat, sollte Kompromiss suchen, Wahlbeteiligung als Bürgerpflicht jeder Demokratie, starke Hand müsste wieder Ordnung in unseren Staat bringen); wieder alle: kompetenteste Partei zur Lösung der Probleme in Deutschland; Befürwortung eines NPD-Verbots; persönlich genutzte Möglichkeiten der politischen Partizipation; zukünftige gesellschaftliche Aufgabenfelder; Meinung zum technischen Fortschritt im Hinblick auf Risiken für den Menschen; erfahrene Benachteiligung aufgrund verschiedener Merkmale (Alter, Geschlecht, soziales Engagement, Nationalität, Äußeres, soziale Herkunft, leben in einem bestimmten Teil Deutschlands, politische Überzeugungen, Religion); Beurteilung ausgewählter Möglichkeiten politischer Einflussnahme und eigene politische Partizipation; Interesse am Weltgeschehen; Zunahme oder Abnahme des Interesses am Weltgeschehen; Meinung zu internationalen Bundeswehreinsätzen; deutsche Interessen in der Welt stärker geltend machen; wichtige Rolle Deutschlands in der Welt; größere weltweite Bedeutung Deutschlands in der Welt; Zusammenarbeit mit den USA in der Außen- und Sicherheitspolitik; Gruppenzugehörigkeit als Deutscher, als Europäer, als Weltbürger, als Bürger des Bundeslandes oder als Bürger des Wohnortes; nur Jugendliche ab 15 Jahren: Zustimmung zu ausgewählten Aussagen über Deutschland und seine Rolle in der Welt (Deutschland sollte politische Führungsrolle in Europa haben, Russland sollte wichtiger Partner für Deutschland bleiben, etc.); wieder alle: persönliches soziales, politisches und gesellschaftliches Engagement; Ort bzw. Gruppierung des persönlichen Engagements; Funktion als Klassensprecher; Einstellung zu persönlicher politischer Aktivität; Kontakte zu Ausländern in Deutschland; Einstellung zum Ausländerzuzug; Meinung zur Aufnahme von Flüchtlingen; nur Jugendliche ab 15 Jahren: Zufriedenheit mit der Demokratie in Deutschland; Zufriedenheit mit Demokratie als Staatsform allgemein oder Präferenz für eine andere Alternative (starker Mann oder starke Partei regieren alleine, sozialistisches System, gibt nichts Besseres, obwohl Demokratie nicht gefällt); wieder alle: Einstellung gegenüber besonderen Bevölkerungsgruppen in unmittelbarer Nachbarschaft (soziale Distanz zu: Homosexuellen, Aussiedlern, Kinderreichen, Studenten, Rentnern, Sozialhilfeempfängern, Afrikanern, Behinderten und Türken); Wertorientierungen und Wichtigkeit für die persönliche Lebensgestaltung (z.B. Gesetz und Ordnung respektieren, hoher Lebensstandard, Macht und Einfluss, etc.); Einstellungen zum Leben und Lebensziele (Skala, nur Jugendliche ab 15); Nationalstolz; Einschätzung des Endes der Jugendzeit und des Beginns der Zugehörigkeit zu alten Menschen; Eigenschaften der älteren und der jüngeren Generation; Einschätzung der Problematik des demografischen Wandels; Einstellung zum demografischen Wandel in Bezug auf die Gesellschaft; harmonisches oder angespanntes Verhältnis zwischen Jung und Alt (Intergenerationenkonflikt); Einschätzung der zukünftigen Entwicklung des Verhältnisses zwischen Jung und Alt; Gedanken und Erwartungen in Bezug auf die eigene Alterssicherung (nur Jugendliche ab 15); Meinung über die Wohlstandsverteilung zwischen Alt und Jung; Vorstellung vom Alter; nur für Jugendliche ab 15: Assoziationen in Verbindung mit der Europäischen Union; Zustimmung zur Abschaffung der allgemeinen Wehrpflicht; Einstellung zur Aufnahme der Türkei in die Europäische Union; Meinung zur europäischen Integration und zur EU-Osterweiterung; von Globalisierung gehört; Assoziationen in Verbindung mit Globalisierung; Erwartungen an die Globalisierung (z.B. bessere und billigere Produkte durch stärkeren Wettbewerb, amerikanische Kultur setzt sich immer mehr durch, Leben wird interessanter und vielfältiger, etc.); eher Vorteile oder eher Nachteile durch die Globalisierung; Vertrauen in ausgewählte Organisation oder Gruppierungen zur positiven Weiterentwicklung der Globalisierung; vom Klimawandel gehört; Einschätzung der Problematik des Klimawandels; Einstellung zum Klimawandel (Skala); persönliches Engagement für den Klimaschutz (Skala); wieder alle: Einstellung zu Entwicklungsländern; psychologische Selbstcharakterisierung; Einstellungen zum Leben (z.B. Zukunftszuversicht, Selbstwirksamkeit, Leistungsbereitschaft, Einsamkeit); persönliches Problemlösungsverhalten; Stellenwert von Familie und von eigenen Kindern für das persönliche Glück; Einstellung zur Heirat; Grundvertrauen zu den Mitmenschen; Geschwister; feste Partnerschaft und Zugehörigkeit zu einer festen Gruppe oder Clique; Zufriedenheit mit dem Freundeskreis; Zusammensetzung des Freundeskreises (Deutsche, Migranten); eigene Meinungsführerschaft in der Clique und Selbsteinschätzung der Beliebtheit.
Demographie: Alter (Geburtsjahr); Geschlecht; in Deutschland geboren und deutsche Staatsangehörigkeit; Eltern in Deutschland geboren (Migrationshintergrund); eigene Kinder und Kinderzahl; Wunsch nach (weiteren) Kindern und Anzahl gewünschter (weiterer) Kinder; Konfession; Bedeutung der Religion im Elternhaus; religiöse Überzeugung (persönlicher Gott oder überirdische Macht); Glaube an Gott und an ein Leben nach dem Tod (Skala); Häufigkeit des Betens; Einstellung zur Kirche und zur Esoterik (Skala); Schulbildung; derzeit besuchte Schulform; angestrebter Schulabschluss; Versetzung gefährdet bzw. Klasse wiederholt; gerne in der Schule und Schulstress; Nachhilfeunterricht; beruflicher Ausbildungsabschluss; Fremdsprache neben der Muttersprache; Sprachkompetenz außer Deutsch in ausgewählten Sprachen; Erwerbstätigkeit; berufliche Stellung; unzureichende schulische Qualifikation bzw. fehlender Schulabschluss für den Wunschberuf; Wohnortwechsel für die Ausbildung bzw. den Beruf; Ausbildungszufriedenheit; empfundener Ausbildungsstress; erwartete Übernahme durch den Ausbildungsbetrieb nach Ausbildungsabschluss; Praktikumszufriedenheit; im Praktikum vom Arbeitgeber ausgenutzt; erwartete Übernahme nach dem Praktikum; Zeitpunkt des Praktikums; Praktikum war sinnvoll für weitere Karriere; Sicherheit, den angestrebten Schulabschluss zu erreichen; Studienzufriedenheit; Stress im Studienalltag; Wehr- bzw. Zivildienstzufriedenheit; Zufriedenheit mit der derzeitigen Situation; Arbeitszufriedenheit; Arbeiten im erlernten Beruf; zufrieden im erlernten Beruf bzw. Wunsch nach anderer Tätigkeit; Wunsch nach Ausübung des erlernten Berufs; leistungsgerechte Entlohnung; erwartete Erfüllbarkeit der beruflichen Wünsche; Arbeit und Beruf: Erwartungen an den Beruf; genügend freie Zeit neben dem Beruf; Vorstellungen zu Arbeitszeitregelungen und zur Vereinbarkeit von Familie und Beruf; Jobben in der Freizeit und Wochenstundenzahl; Wehrdienst, Zivildienst oder freiwilliges Soziales bzw. Ökologisches Jahr; Präferenz für Wehrdienst oder Zivildienst im Zug der Wehrpflicht; Interesse an einem Freiwilligen Sozialen oder Ökologischen Jahr; privat erbrachte Betreuungs- oder Unterstützungsleistungen; Bewertung der persönlichen finanziellen Situation; Vergleich der persönlichen finanziellen Situation mit der von Freunden; familiärer Hintergrund: Eltern verstorben, zusammen lebend, getrennt lebend oder geschieden; Lebensform; Kontakthäufigkeit zu den Großeltern; bereits außerhalb des Elternhauses gewohnt; höchster Schulabschluss der Eltern; Verhältnis zu den Eltern; Einschätzung des Politikinteresses der Eltern; Vereinsmitgliedschaft der Eltern; Strenge der Erziehung und Charakterisierung des Erziehungsstils der Eltern; Übernahme des Erziehungsstils der Eltern; Situationen gewaltsamer Auseinandersetzungen (Schlägereien) im letzten Jahr; Anzahl der Bücher im Elternhaus; Wohnstatus der Eltern; Haushaltsgröße; Haushaltsnettoeinkommen; Zurechtkommen mit dem Haushaltseinkommen; Lebenszufriedenheit; Einschätzung der persönlichen Zukunft; Bereitschaft zur Teilnahme an einem vertiefenden Gespräch.
Zusätzlich verkodet wurde: Alter; Schichtzugehörigkeit; West/Ost; Alter gruppiert; Migrationshintergrund; Wellenkennung; Bundesland; Siedlungsstrukturtyp (BIK); Hochrechnungsfaktor und Gewichtungsfaktor je Welle.
Inhaltsangabe: Einleitung: Die US-Immobilienkrise (Subprime), im Kern eine lokale Krise, bezogen auf den US-Wohnungsmarkt der unteren Gesellschaftsschichten, hat wirtschaftliche Auswirkungen weit über die amerikanischen Landesgrenzen hinaus. Durch die weltweite Vernetzung der Finanzindustrie und die Globalisierung der Märkte ist auch der deutsche Immobilienmarkt von der amerikanischen Immobilienkrise betroffen. Bis zum Sommer 2007 wurde der deutsche Gewerbeimmobilienmarkt mit Kapital überschüttet. Die Transaktionsvolumina erreichten Rekordhöhen, die Banken konnten sich günstig refinanzieren und finanzierten Immobilientransaktionen teilweise mit mehr als 95% Fremdkapital. Versicherungsgesellschaften, Pensionskassen und ausländische Kapitalanleger erhöhten stetig ihren Immobilienanteil, im Verhältnis zu Aktien und Renten, um das Risiko zu diversifizieren. Gerade Deutschland profitierte in den Jahren 2005 und 2006 davon, da hier die Immobilienpreise weniger stark als in anderen Märkten gestiegen sind und somit die Preise insbesondere von ausländischen institutionellen Investoren als günstig empfunden wurden. Zahlreiche Fonds mit den unterschiedlichsten Renditezielen wurden aufgelegt. Der Deutsche Immobilienmarkt fand scheinbar grenzenlosen Zufluss an Kapital. Auffallend war, wie stark Private Equity Gelder in den Markt investiert wurden. Opportunistische Fonds mit Renditezielen von weit über 15% waren keine Seltenheit. Angetrieben wurden diese Renditen zum einen durch die niedrigen Fremdkapitalzinsen, zum anderen durch die Bereitschaft der Banken, den hohen Fremdkapitalanteil zu finanzieren. Im Juli 2007 veränderten sich die Marktverhältnisse in der Finanzbranche abrupt. Zu diesem Zeitpunkt vermeldeten US-Banken erhebliche Verluste durch Abschreibungen auf CDOs und ABSs. Diese verbrieften Produkte, deren Basiswerte ein Pool von Hypothekendarlehen an Kreditnehmer in den USA mit schlechter Bonität ist, hatten erheblich an Wert verloren, da die Kreditnehmer aufgrund von Zinsanpassungen ihre Darlehen nicht mehr bedienen konnten. Mit der Krise an den Finanzmärkten ging eine erhebliche Gefahr für die Gesamtwirtschaft einher, denn die Kreditvergabe - als zentrale Stütze für Investitionen und Konsum - kam praktisch zum Erliegen. Die Finanz- und Liquiditätskrise hatte neben den US-Banken insbesondere auch deutsche und schweizerische Geldinstitute getroffen, die stark in die beschriebenen CDOs investiert waren und dadurch Wertberichtigungen in Milliardenhöhe bilden mussten. Zu dieser Zeit stellte sich die Frage im Gewerbeimmobilienmarkt, wie schnell sich der Kapitalmarkt aus der Liquiditätskrise befreien könnte, um wieder ausreichende Fremdkapitalmittel zur Verfügung zu stellen bzw. welche alternativen Finanzierungsmöglichkeiten sich dem Markt böten. Eine weitere wichtige Frage für die Perspektive des Gewerbeimmobilienmarktes war, ob sich die Weltwirtschaft von einer amerikanischen Rezession abkoppeln könnte oder nicht. Anhand des Vergleichs der führenden Research Analysen versucht die Arbeit empirisch Veränderungen im Zeitablauf aufzuzeigen. Tiefergehender werden auch die Veränderungen der Refinanzierungsmöglichkeiten der Banken analysiert, z.B. anhand der Funding Spreads, um zu verstehen, wie hier der Immobilienmarkt von externen Faktoren beeinflusst wurde. Der Untersuchungszeitraum der Arbeit reicht dabei bis in den Herbst des Jahres 2008 und beschreibt die Turbolenzen der Finanzkrise bis zum Abschluss des weltweiten Rettungspakets für Banken durch die führenden Wirtschaftsnationen. Gang der Untersuchung: Die Masterarbeit spannt den Bogen zwischen der lokalen Immobilienkrise in den USA und deren Auswirkungen auf die globalen Kapitalmärkte bis hin zum deutschen Gewerbeimmobilienmarkt. Der Schwerpunkt liegt dabei im Kapitel 4, das die veränderte Kapitalsituation des internationalen Gewerbeimmobilienmarktes mit Schwerpunkt Deutschland beschreibt. Das Kapitel unterteilt die Phase vor Ausbruch der Immobilienkrise in den USA bis etwa Mitte des Jahres 2007 und die Phase danach bis in den Herbst des Jahres 2008. Zur Schaffung einer einheitlichen Verständnisgrundlage werden anfangs im 2. Kapitel die wesentlichen Begriffe des Immobilienkapitalmarkts definiert und voneinander abgegrenzt, um die Funktionsweise dieser besser zu verstehen. Hierbei wird insbesondere auf die Vielfältigkeit und Komplexität der Finanzprodukte eingegangen, die von vielen als Ursachen für die Ausbreitung der Subprime-Krise auf andere Märkte gesehen werden. Kapitel 3 beschreibt die Entstehung der US-Immobilienkrise und deren Ausbreitung auf die globalen Volkswirtschaften, insbesondere die weltweiten Kapital- und Immobilienmärkte. Eine Chronologie der Ereignisse schildert den Dominoeffekt, wie sich die US-Immobilienkrise seit Mitte des Jahres 2007 mit zunehmender Geschwindigkeit über die globalen Kapitalmärkte ausbreitete und die weltweiten Volkswirtschaften in eine Rezession stürzte. Die Arbeit schließt mit einer Zusammenfassung der wesentlichen Erkenntnisse ab und erörtert die zukünftigen Entwicklungsmöglichkeiten für den Gewerbeimmobilienmarkt in Deutschland.Inhaltsverzeichnis:Inhaltsverzeichnis: InhaltsverzeichnisI AbbildungsverzeichnisII AbkürzungsverzeichnisIV 1.Einleitung1 1.1Problemstellung1 1.2Gang der Untersuchung2 2.Funktionsweise der Immobilienkapitalmärkte3 2.1Marktteilnehmer3 2.1.1Projektentwickler4 2.1.2Investoren4 2.1.3Banken7 2.1.4Sonstige7 2.2Immobilien Investitionsprodukte8 2.2.1Eigenkapitalmärkte9 2.2.2Fremdkapitalmärkte12 3.US-Immobilienkrise (Subprime)19 3.1Wurzeln der Krise19 3.2Auslöser der Krise20 3.3Beschleuniger der Krise und der Übergriff auf andere Märkte21 4.Veränderung der Kapitalversorgung von Investoren im Zeitablauf28 4.1Vor der Subprime-Krise28 4.2Während der Subprime-Krise44 5.Ausblick und Schlussbemerkung57 LiteraturverzeichnisVITextprobe:Textprobe: Kapitel 4.2, Während der Subprime-Krise: Gorge Soros datierte den Ausbruch der globalen Finanzkrise auf den August 2007. Zu diesem Zeitpunkt mussten die Zentralbanken der USA, der EU und Englands dem Bankenmarkt Liquidität in Milliardenhöhe zuschießen, um dem Kollaps am Geldmarkt zu verhindern. Mit Ausbruch der Subprime-Krise in den USA schlug die Stimmung auch im internationalen Immobilienmarkt um. Die zuvor für den Boom verantwortlich gemachte Globalisierung und der Einsatz moderner Finanzinstrumente wurden nun als Ursache für die globale Ausbreitung der US-Immobilienkrise gesehen. Warren Buffet zitierte Mark Twain schon lange vor dem Ausbruch der Subprime-Krise und schuf den Vergleich von einer Katze am Schwanz zu tragen mit der Erfahrung in Derivate zu investieren, würde gleichermaßen schmerzhaft sein. Investoren, in durch Subprime Immobilien besicherte Investmentpapiere und Derivate, konnten nun nachvollziehen, was Warren Buffet andeutete. Zwar besteht zwischen dem Gewerbeimmobilienmarkt und dem Wohnungs- und Häusermarkt keine direkter Zusammenhang, jedoch ist der Gewerbeimmobilienmarkt abhängig von der Entwicklung der Realwirtschaft. Die durch die Subprime-Krise entstandene Finanzkrise hatte sich negativ auf die allgemeine wirtschaftliche Stimmung durchgeschlagen. Das IFO-Institut meldete im Juni 2008 eine deutliche Abkühlung des Geschäftsklimas in Deutschland mit einem verhaltenen Ausblick für das Gesamtjahr. Analysen des Marktforschungsverbunds Euroconstruct gingen erstmals seit dem Jahr 2002 von schrumpfenden Bauvolumen aus. Dies führten sie auf die Immobilienkrise in den USA zurück und die damit verbundene Finanz- und Liquiditätskrise. Die daraus resultierende restriktivere Kreditpolitik der Banken führte zu steigenden Margen bei den Kreditprodukten. Zudem hatte in Europa aufgrund von Inflationsängsten die EZB die Zinsen nicht wie in den USA gesenkt, sondern im Gegenteil zunächst leicht angehoben. Höhere Refinanzierungssätze plus steigende Margenerwartungen der Banken verteuerten so die Fremdkapitalkosten für die Unternehmen. Dies kombiniert mit der allgemeinen konjunkturellen Abkühlung waren keine guten Vorzeichen für die prozyklische Bauwirtschaft. Dennoch bleibt insgesamt festzuhalten, dass die europäischen Baumaßnahmen im Jahr 2008 und 2009 auf dem Niveau von 2007 verharren dürften. Die Folgen der Krise ließen sich an verschiedenen fundamentalen Fakten für den globalen Immobilienmarkt erkennen. Die Immobilienindices gaben deutlich nach, ohne bis dato einen Boden gefunden zu haben. Die zuvor auf Rekordhöhe gestiegenen Cross-Border Transaktions-volumina brachen massiv ein. Der Verbriefungsmarkt für durch immobilienbesicherte Wertpapiere war von einem Tag auf den anderen praktisch nicht mehr existent. Die Fundingspreads für Finanzierungen in Immobilien, die nicht über Pfandbriefe refinanziert werden konnten, gingen stark in die Höhe und verteuerten damit den Fremdkapitalzins auf ein Niveau, das jeden Businessplan eines Immobilieninvestors oder –Entwicklers zerschlug. Daraus folgte ein deutlich schwierigerer Zugang für Immobilieninvestoren, sowohl zu Eigenkapital als auch Fremdkapital. Der NPI, der amerikanische Index für Gewerbeimmobilien, lieferte in den ersten beiden Quartalen des Jahres 2008 die schlechteste Performance seit dem Jahr 1993 mit nur noch 0,56% Rendite für das 2. Quartal des Jahres 2008. Wie der Abbildung 19 zu entnehmen, ging der Trend in den negativen Bereich, nachdem im Jahr 2005, mit knapp über 20% Jahresrendite, noch ein Rekordjahr erreicht werden konnte. Diesem Abwärtstrend in den Vereinigten Staaten Amerikas schlossen sich auch die europäischen Immobilienindices an. Der monatliche IPD Index, der die Immobilienwertentwicklung für Direktinvestitionen in Gewerbeimmobilien des Vereinigten Königreich Großbritannien und Nordirland (UK) misst, zeigte negative Erträge von minus 1,3% per Ende Juli des Jahres 2008. Dieser Rückgang war etwas geringer als im Monat zuvor. Grundsätzlich blieb der weitere Trend negativ, nachdem Gewerbeimmobilien lange zuvor nur positive Erträge einbrachten. In der 12-Monatsbetrachtung hat der Index ein Allzeittief von minus 16,1% erreicht. In der Abbildung 20 kann die Entwicklung der letzten 24 Monate von Juli des Jahres 2006 bis Juli des Jahres 2008, differenziert nach den verschiedenen Arten von gewerblichen Immobilien, abgelesen werden. Verglich man die Entwicklung in den USA und UK direkt miteinander, so konnte man feststellen, dass die Gewerbeimmobilienerträge in UK noch wesentlich stärker und schneller auf die Folgen des Rückgangs des amerikanischen Häusermarktes reagierten. Die Subprime-Krise war noch nicht wirklich ausgerufen, da drehte der UK-Markt schon in den negativen Bereich, während der NPI in den USA selbst im zweiten Quartal 2008 noch leicht positive Erträge aufweisen konnte. Dies bewies, wie eng die Märkte miteinander verflochten waren. Die Marktteilnehmer befürchteten offenbar, dass britische Gewerbeimmobilien stärker von einer sich aus Amerika ausbreitenden Wirtschaftskrise betroffen sein könnten, als Gewerbeimmobilien in den USA selbst. Für den deutschen Markt stand der IPD Index für direkte Investitionen, DIX, zum Zeitpunkt der Veröffentlichung der Masterarbeit noch nicht zur Verfügung. Ein massiver Abschwung und Vertrauensverlust in die deutsche Immobilienwirtschaft ließ sich an der Kursentwicklung deutscher Immobilienunternehmen trotzdem ablesen. So hatte der Immobilienaktienbarometer IMAB zwischen Juni des Jahres 2007 bis Juli des Jahres 2008 mehr als 50% an Wert verloren. Im Vergleich dazu hatte sich der DAX 30 besser geschlagen mit einem Wertverlust von nur ca. 20% im gleichen Zeitraum. Neben dem zeigt Abbildung 21, dass sich der IBAM bis zum Ausbruch der Subprime-Krise im Sommer des Jahres 2007, seit Dezember des Jahres 2005 besser entwickelte als die deutschen Standardwerte im DAX 30. Die beiden ersten deutschen REIT Unternehmen, Deutsche REIT und Fair Value REIT hatten ca. 50% an Wert verloren von Juli des Jahres 2007 bis Juli des Jahres 2008. Immobilienaktien hatte es durch die Immobilienkrise in den USA besonders hart getroffen. Börsentypische Übertreibungen und die Assoziation der US-Immobilienkrise mit Immobilienaktien generell ließen die Kurse besonders stark fallen im Vergleich zu Wertpapieren aus Industrie und Handel, wie in der Abbildung 21 der Vergleich zwischen IBAM mit dem DAX verdeutlicht. Würde man die stark von der Immobilienkrise betroffenen Bankaktien noch aus dem DAX Portfolio herausrechnen, würde der Unterschied zwischen Immobilienaktien und Wertpapieren aus Industrie und Handel noch deutlicher ausfallen.
Die Inhalte der verlinkten Blogs und Blog Beiträge unterliegen in vielen Fällen keiner redaktionellen Kontrolle.
Warnung zur Verfügbarkeit
Eine dauerhafte Verfügbarkeit ist nicht garantiert und liegt vollumfänglich in den Händen der Herausgeber:innen. Bitte erstellen Sie sich selbständig eine Kopie falls Sie diese Quelle zitieren möchten.
Ohne eine günstige und üppige Energieversorgung, die an Verlässlichkeit nichts vermissen lässt, ist der Wohlstand unserer Gesellschaft undenkbar. Seit der Zeit der Industrialisierung im 19. Jahrhundert ist die Frage der Energieversorgung zunehmend in den Mittelpunkt unserer ökonomischen Interessen gerückt. Damit wurde das Thema Energieversorgung auch zum Gegenstand der Politik. Seit dieser Zeit haben alle deutschen Regierungen sich mit Priorität darum bemüht, dass Energie in Deutschland in ausreichendem Maße zur Verfügung steht und für breite Schichten der Gesellschaft und für möglichst alle Industrieanwendungen zu einem akzeptablen Preis angeboten werden kann.Hat es sich dabei zu Beginn dieses Prozesses vor allem darum gedreht, wie man möglichst günstig und in großen Mengen an primäre Energieträger kam, vornehmlich Kohle, später Öl und Gas, so hat sich in den letzten zwanzig Jahren vieles in Deutschland verändert. Seit die Naturwissenschaften uns immer eindrucksvoller vor Augen führen, dass fossile Energieträger durch den Ausstoß von Treibhausgasen den Klimawandel herbeigeführt haben und in zunehmendem Maße verschärfen, ist der Menschheit und damit auch Deutschland in großem Stil daran gelegen, Energiequellen zu erschließen, die der Umwelt keinen Schaden zufügen, uns gleichzeitig aber nicht in die Vormoderne zurückfallen lassen.Eine breite gesellschaftliche Debatte ist seitdem entstanden, mit welchen Methoden man am besten dieses Ziel erreichen kann und welche sich eher nicht eignen, um dem Klimawandel zu begegnen und gleichzeitig den Industriestandort Deutschland nicht zu gefährden. Insbesondere die Partei Bündnis90/Die Grünen und die ihr nachgeordneten Lobbyorganisationen hatten einen entscheidenden politischen Einfluss auf die deutsche Gesellschaft und Politik, sodass in den letzten zwei Dekaden ein Transformationsprozess in Gang gesetzt wurde, der es sich zum Ziel setzt, die deutsche Volkswirtschaft mit sauberen und erneuerbaren Energien zu versorgen. Dieser Prozess, der gemeinhin als Energiewende bezeichnet wird, ist extrem vielgestaltig und umfasst einen radikalen und durchgehenden Umbau unserer Art, Energie zu erzeugen und zu nutzen, und ist ein international einmaliges und vielbeachtetes Projekt.Energiewende in Deutschland – Begriffsklärung "Der Wohlstand unserer Gesellschaft hängt von einer funktionierenden Energieversorgung ab. Ohne Strom, Wärme und Mobilität ist unser Alltag nicht mehr denkbar. Das Ziel der Energiewende ist es deshalb, eine sichere, wirtschaftliche und umweltverträgliche Energieversorgung zu realisieren. Die Erforschung von Technologien und gesellschaftlichen Konzepten zur nachhaltigen Energieerzeugung, -umwandlung und -verteilung stehen daher im Fokus dieses Projekts." (BMBF 2023)Die Energiewende beschreibt nach dieser Definition also einen umfassenden, aber auch notwendigen Umbau unserer Energieversorgung. Dieser Umbau ist notwendig, da beim Verbrennen von fossilen Energieträgern wie Kohle, Öl oder Gas Treibhausgase entstehen (vgl. BMBF, 2023), welche den Klimawandel verursachen und zunehmend verschärfen. Die Energiewende fußt im Grunde auf zwei Säulen. Erstens geht es um die Versorgung der deutschen Volkswirtschaft und der deutschen Bevölkerung durch Erzeugung und Speicherung von Energie (hauptsächlich Strom), der aus erneuerbaren Quellen stammen soll. Vor allem Wind- und Wasserkraft, aber auch Solarenergie stehen dabei im Vordergrund. So sollen die erneuerbaren Energien bis 2050 rund 60% unseres Bruttoendenergieverbrauchs und sogar 80% unseres Bruttostromverbrauchs decken. (vgl. BMBF, 2023)Da Sonne und Wind ohne Speichertechnik aber nicht grundlastfähig sind, also nicht kontinuierlich zur Verfügung stehen, muss Deutschland neue Technologien entwickeln, um überschüssigen Strom langfristig speichern zu können, um ihn dann in das Netz einzuspeisen, wenn er benötigt wird, oder in anderer Form in nutzbare Energie umzuwandeln und an anderer Stelle zu einem späteren Zeitpunkt zur Verstromung zu nutzen oder für andere Anwendungen. Solche Arten der Umwandlung sind vor allem Power-to-Gas, also die Umwandlung von elektrischem Strom in Wasserstoffgas. Dieses durch Elektrolyseverfahren gewonnene Gas kann entweder durch Brennstoffzellen verstromt werden oder in das Erdgasnetz eingespeist werden. (vgl. BMBF, 2023)"Ebenso denkbar ist die Umwandlung von überschüssigem Wind- oder Solarstrom in Wärme (Power-to-Heat), in flüssige Kraftstoffe (Power-to-Fuel) oder in Basischemikalien (Power-to-Chemicals)." (BMBF, 2023)Die Speicherung von überschüssigem Strom aus erneuerbaren Energien soll also vielerlei Gestalt annehmen. Zweitens ist es notwendig, den Energieverbrauch im großen Stil zu reduzieren, dazu soll bis 2050 rund 50% weniger Primärenergie verbraucht werden als 2008. Erreicht werden soll dies durch verschiedene Innovationen in unterschiedlichen Bereichen. Von effizienteren Motoren und Kraftwerken über Gebäudesanierungen bis hin zu Einsparungen bei Industrieprozessen. Ein weiterer Schritt ist die Nutzung der Kraft-Wärme-Kopplung (KWK) bei der die entstandene Wärme aus der Stromgewinnung bei Industrieprozessen oder zum Heizen genutzt werden soll. (vgl. BMBF, 2023)Diese großflächige Speicherinfrastruktur befindet sich gerade erst im Aufbau und wird erst in der Zukunft eine große Rolle bei der Transformation weg von fossilen Energieträgern hin zu erneuerbaren Energien spielen. Ebenfalls Zukunftsmusik ist die notwendige Dezentralisierung unserer Energieversorgung. Große konventionelle Kraftwerke werden in Zukunft keine Rolle mehr bei der Energiegewinnung in Deutschland spielen, sondern ersetzt werden durch eine dezentrale Struktur mit zahlreichen kleinen Produktionsanlagen. Dafür müssen sich unsere Stromnetze massiv verändern hin zu intelligenten Stromnetzten, an denen alle relevanten Akteure wie Produzenten, Verteiler und Verbraucher beteiligt sein müssen (vgl. BMBF, 2023), wenn das Projekt gelingen soll.Die Energiewende beschreibt also einen massiven Transformationsprozess aller unserer Lebensbereiche, um unsere Gesellschaft und unsere Volkswirtschaft in eine nachhaltige Energieversorgung zu überführen, die auf erneuerbaren Energien fußen soll. Eine Form der erneuerbaren Energien hat hier bisher noch keine Erwähnung gefunden und ist in den Medien und der Forschung auch bei weitem nicht so stark präsent wie Wind- und Solarenergie, nämlich die Geothermie. Um diese Energieform soll es in diesem Beitrag gehen.Funktionsweise der Geothermie"99 % der Erde sind heißer als 1.000 °C – ein gewaltiges Energiepotenzial." (EnBW, 2023) Es ist nach diesem Zitat nicht verwunderlich, dass sich ausgerechnet ein Energiekonzern so sehr für eine erneuerbare Energiequelle einsetzt. Doch bevor man sich anschaut, welches Potenzial Geothermie für Deutschland hat, sollte man sich anschauen, wie diese Form der Energiegewinnung funktioniert, denn daraus leitet sich ab, ob und wo Geothermie genutzt werden kann."Geothermie bezeichnet die in der Erdkruste gespeicherte Wärmeenergie und die ingenieurtechnische Nutzung. Geothermie kann zum Heizen, Kühlen und zur Stromerzeugung eingesetzt werden. In Deutschland steigt die Temperatur in der Erdkruste durchschnittlich um 3 Kelvin pro 100 Meter an. Dementsprechend erschließen oberflächennahe und tiefe Geothermie Bereiche unterschiedliche Temperaturniveaus." (Umweltbundesamt, 2023)Geothermie nutzt also die natürliche Wärme des Erdinneren. Je tiefer man bohrt, desto wärmer wird es. Es werden daher auch grundsätzlich zwei Arten von Geothermie voneinander unterschieden: Die oberflächennahe Geothermie und die tiefe Geothermie. (vgl. UBA, 2023) Bei der oberflächennahen Geothermie handelt es sich um eine Variante dieser Energieerzeugung, die in geringer Tiefe und mit geringer Temperatur arbeitet. Bei tiefer Geothermie werden mehrere Kilometer tiefe Bohrlöcher benötigt, um Erdschichten mit hohen Temperaturen erreichen zu können."Die Oberflächennahe Geothermie nutzt den Untergrund bis zu einer Tiefe von ca. 400 m und Temperaturen von bis zu 25 °C für das Beheizen und Kühlen von Gebäuden, technischen Anlagen oder Infrastruktureinrichtungen. Hierzu wird die Wärme oder Kühlenergie aus den oberen Erd- und Gesteinsschichten oder aus dem Grundwasser gewonnen. Neben klassischen Anwendungsformen zur Bereitstellung von Raumwärme und Warmwasser wird die Oberflächennahe Geothermie auch zur Beheizung von Gewächshäusern sowie zur Enteisung von Weichen oder Parkplätzen eingesetzt." (Bundesverband Geothermie e.V., 2023)Sie ist damit die am häufigsten genutzte Form der Erdwärme, da sie für viele auch private Anwendungen in Frage kommt. In Deutschlands privaten Hauhalten und öffentlichen Gebäuden wie Krankenhäusern oder Schulen sind Stand 2020 über 440.000 Geothermieanlagen unterschiedlichster Machart verbaut. Jährlich kommen etwa 20.500 (vgl. Bundesverband Geothermie e.V., 2023) dieser Oberflächenanlagen dazu. In der folgenden Abbildung (siehe Link) sieht man eine der gängigsten Formen der oberflächennahen Geothermie, wie sie hauptsächlich in privaten Wohnhäusern verbaut wird: https://www.geothermie.de/fileadmin/_processed_/d/9/csm_Schema_Haus_WP_BV_20171024_final_deutsch_ed82c836bd.jpg Bei der oberflächennahen Geothermie werden einige Unterkategorien unterschieden (Abbildung siehe Link): https://www.geothermie.de/fileadmin/_processed_/5/3/csm_181122_Blockgrafik_Geothermie_003-02_bc7ad8b59a.jpg Von allen diesen Unterkategorien hat sich die Erdwärmesonde als die häufigste Variante durchgesetzt. Diese Sonden sind senkrechte Bohrungen, in die mit einer Art Zement befestigte Rohre eingelassen werden. Diese Rohre werden mit einer Trägerflüssigkeit befüllt. Dabei handelt es sich meist um Wasser, welches mit Frostschutzmittel versetzt wurde. Dieses Wasser nimmt die Wärme aus dem Inneren der Erde auf und transportiert sie zur Wärmepumpe an die Oberfläche.Für das Bahnnetz zum Beispiel zum Beheizen von Weichen kommen spezielle Anlagen zum Einsatz, die CO2 als Trägerflüssigkeit nutzen. Wenn mehrere oder größere Einheiten gleichzeitig durch dieselbe Anlage beheizt werden sollen, wird ein ganzes Sondenfeld in den Boden eingebracht. Dies ist aber aufwändiger und bedarf einer sehr genauen Planung, damit sich die einzelnen Sonden nicht gegenseitig die Wärme entziehen. (vgl. Bundesverband Geothermie e.V., 2023)Bei größeren Projekten wie z.B. Wohngebieten können auch Brunnenanlagen verbaut werden. Diese müssen aber mit Filteranlagen ausgestattet sein, um Verunreinigungen des Grundwassers zu verhindern. Daneben können auch Erdwärmekollektoren ins Erdreich eingelassen werden oder sogenannte Energiepfähle. Bei beiden ergibt sich ein finanzieller Vorteil durch die dafür nur in geringem Maße notwenigen Aushubarbeiten. (vgl. Bundesverband Geothermie e.V., 2023)Da die Temperaturen im Sommer an der Oberfläche höher sind als im Erdinneren kann Geothermie auch als Ersatz für herkömmliche Klimaanlagen verwendet werden. Grundsätzlich benötigen alle Arten von Geothermie eine Form von Wärmetauschung, die elektrischen Strom benötigt. In diesen Wärmepumpen befindet sich eine Chemikalie, die bereits bei geringer Temperatur verdampft. Das dabei entstehende Gas wird in einem Kompressor verdichtet. Der so erreichte Druck wird als Wärme an das Heizungssystem abgegeben. Wenn das Gas abkühlt, verflüssigt es sich wieder, der Druck wird durch ein Ventil abgebaut. (vgl. Bundesverband Geothermie e.V., 2023)"Die tiefe Geothermie stößt gegenüber der oberflächennahen Nutzung von Erdwärme in andere Dimensionen vor. Es werden nicht nur Wärmereservoire in größeren Tiefen erschlossen und dabei Bohrlöcher von bis zu fünf Kilometer Tiefe gebohrt. Auch die damit betriebenen Anlagen sind wesentlich größer und leistungsfähiger." (UBA, 2023)Grundsätzlich funktioniert tiefe Geothermie genauso wie oberflächennahe Geothermie. Es gibt aber einige technische Unterschiede, die das Potenzial dieser Variante verändern und Einfluss haben auf ihre Anwendungsmöglichkeiten. Tiefe Geothermie ist vollständig unabhängig von den Jahreszeiten und sehr leistungsstark. Ganze Stadtviertel können damit über Fernwärme versorgt werden. Bei entsprechender Tiefe und damit Temperatur kann mit tiefer Geothermie sogar Strom erzeugt werden. (vgl. UBA, 2023) Bei der tiefen Geothermie werden grundsätzlich drei Typen unterschieden.Bei tiefen Erdwärmesonden ist das Prinzip dasselbe wie bei oberflächennahen Sonden. Der Unterschied besteht neben der Tiefe des Bohrlochs aufgrund der hohen Temperaturen darin, dass keine Wärmepumpe benötigt wird. Die Wärme kann direkt durch das Heizungssystem verwendet werden. (vgl. Bundesverband Geothermie e.V., 2023) Der entscheidende Vorteil dieses Typs liegt darin, dass er nahezu überall genutzt werden kann, da es sich um einen geschlossenen Wasserkreislauf handelt, für den kein Austausch mit dem Grundwasser notwendig ist. Das System kann einfach mit Wasser befüllt werden, welches dann in die Tiefe geleitet wird und so die Wärme nach oben transportiert.Genau das ist bei der hydrothermalen Geothermie anders. Sie ist auf natürliche Grundwasserreservoirs angewiesen. Ohne Gesteinsschichten, die ausreichend Grundwasser führen, ist diese Variante also nicht nutzbar, da das Thermalwasser über eine Bohrung nach oben und über eine zweite Bohrung wieder nach unten geleitet werden muss. (Abbildung hier: https://www.geothermie.de/fileadmin/_processed_/e/7/csm_Geotherm_Energiebereitstellung_de_thumb_03_62a402241e.png)Sind keine natürlichen Thermalwasservorkommen vorhanden, gibt es noch die Möglichkeit, dieses künstlich in das Gestein zu pressen. Die sogenannte petrothermale Geothermie ist die Variante mit den größten Potenzial in Deutschland, da hier durch Stimulationsmaßnahen im Erdreich die Gegebenheiten, die es braucht, um tiefe Geothermie zu nutzen, künstlich hergestellt werden. Das Gestein wird durch Geoengineering so präpariert, dass man unter hohem Druck Wasser in die Gesteinsschicht presst, welches sich dann in der Tiefe aufwärmt. (vgl. Bundeverband Geothermie e.V., 2023) Dieses warme Wasser kann dann wie gewohnt zur Wärmegewinnung genutzt werden.Neben diesen gängigen Formen der Geothermie gibt es noch einige Sonderformen wie das Speichern saisonal anfallender Wärme z.B. beim Kühlen von Gebäuden oder die Nutzung von Erdwärme aus Tunneln und Bergbauanlagen. (vgl. Bundesverband Geothermie e.V., 2023)Potenzial der Geothermie in Deutschland"Die Erdwärme steht uns ganzjährig und verlässlich zur Verfügung, sie ist wetterunabhängig, krisensicher und nahezu unerschöpflich. Darum ist es richtig, die Nutzung der Erdwärme in Deutschland weiter voranzubringen. Wir haben daher einen Konzeptvorschlag mit acht konkreten Maßnahmen entwickelt, den wir in einem ersten Schritt zur Konsultation stellen wollen, um darauf aufbauend konkrete Geothermieprojekte an den Start zu bringen. Die Nutzung der Erdwärme muss nach unserer Einschätzung konsequent zusammen gedacht werden mit dem Ausbau und der Dekarbonisierung der Wärmenetze. Denn beides ist gerade für Kommunen und bei der Entwicklung einer klimaneutralen Wärmeversorgung wichtig." (Robert Habeck)Dieses Zitat des Bundesministers für Wirtschaft und Klimaschutz spricht Bände darüber, welche Bedeutung der Geothermie in Zukunft beigemessen werden wird. Das Potenzial der Geothermie hängt mit ihrer Funktionsweise zusammen, die ihre Anwendungsmöglichkeiten bedingt. Bis 2030 sollen fünfzig Prozent der Wärmeleistung in Deutschland klimaneutral erzeugt werden. Dazu soll unter anderem ein geothermisches Potenzial von 10 TWh erschlossen werden. (vgl. BMWK, 2023)Besonderes Potenzial wird der Geothermie, geographisch gesehen, in solchen Regionen beigemessen, in denen die Wärmeerzeugung auch ohne Wärmepumpen möglich ist. Diese Regionen sind vor allem die norddeutsche Tiefebene, der Oberrheingraben und das Alpenvorland (siehe Link unten für Kartenübersicht). Hier haben sich mehrere Projekte bereits etabliert, einige davon auch bereits mit großer Heizleistung (vgl. BMWK, 2022). Karte: https://www.stadtwerke-speyer.de/de/Ueber-uns/Engagement/Geothermie/Geothermie/Geothermie-temperaturkarte-3500-unter-nn-20220316__scaled__317_451.png Bayern ist bei der Nutzung der tiefen Geothermie Vorreiter in Deutschland und hat bereits konkrete Pläne für die zukünftige Nutzung in seinem Energiekonzept erarbeitet. So soll mittelfristig 1% des bayrischen Gesamtverbrauchs durch diese Technologie gedeckt werden und etwa 0,6% des Stromverbrauchs. Bei der oberflächennahen Geothermie gehen die Zahlen der zu verbauenden Anlagen in die zehntausende. (vgl. Bayrisches Energiekonzept, 2011)Hier zeigt sich aber bereits eine Begrenzung der Nutzung von Geothermie. Während oberflächennahe Geothermie nahezu überall genutzt und vor allem für das Heizen und Kühlen von kleinen bis mittleren Gebäudeeinheiten eingesetzt werden kann, ist die tiefe Geothermie auf einige Regionen in Deutschland beschränkt. Jedenfalls nach dem aktuellen Wissensstand.Das Bundesministerium für Wirtschaft und Klimaschutz will in den nächsten zwei Jahren eine großangelegte Datenkampagne fahren, um eine einheitliche Lagebeschreibung für die Nutzung der Geothermie in ganz Deutschland zu erstellen. In einer entsprechenden Explorationskampagne im Jahr 2023 an etwa hundert Standorten, an denen günstige Bedingungen zu erwarten sind, soll das Potenzial näher erforscht werden. (vgl. BMWK, 2022)Des Weiteren ist bisher die Nutzung von Geothermie für die Stromproduktion noch nahezu unerforscht. Forschungsprojekte wie z.B. der EnBW in Bruchsal oder im elsässischen Soultz-sous-Forêts sollen diese Wissenslücke schließen, befinden sich aber erst im Aufbau. Welches Potenzial sich hier für die deutsche Energiewende ergeben wird, lässt sich zu diesem Zeitpunkt noch nicht sagen. Die Stromproduktion mit Geothermie an einem Standort der Stadtwerke München ist zugunsten der Wärmegewinnung zum Heizen eingestellt worden. (vgl. Bundesverband Geothermie e.V., 2023)Die Frage bleibt also, welches Potenzial Geothermie denn nun tatsächlich hat. Klar ist, dass Geothermie nicht den gesamten Wärmebedarf in Deutschland decken kann. Während oberflächennahe Geothermie überall eingesetzt werden kann, um Gebäude zu beheizen, so gibt es in der Industrie Anwendungen mit über 200 Grad Celsius, die nicht durch Geothermie in Kombination mit einer großen Wärmepumpe bereitgestellt werden können. Trotzdem können in Deutschland 70 GW Leistung installiert werden und damit bis zu 300 TWh pro Jahr an Wärmeleistung. Dies entspricht in etwa der Hälfte des zukünftigen Wärmebedarfs aller Gebäude in Deutschland. (vgl. DW, 2023)Damit entfaltet die Geothermie eine Leistung, die zumindest für einen sehr großen Bereich der Energie- und Wärmewende ein großes Potenzial aufweist. Wenn man in Betracht zieht, wie stiefmütterlich dieses an und für sich gewaltige Energiepotenzial bisher genutzt wurde, kann hier von einer kleinen Wärmerevolution gesprochen werden, die unsere Art zu heizen und zu kühlen grundlegend verändern wird. Geothermie ist gerade auf dem besten Weg, in einigen Jahren ein fester Bestandteil unseres Alltags zu werden. Die große Unbekannte an dieser Stelle bleibt die Frage, ob Stromproduktion mit Geothermie in Deutschland in großem Umfang überhaupt möglich ist oder ob es nicht doch eher zugunsten der Wärmegewinnung ungenutzt bleiben sollte.Beispiel MünchenIn München erstreckt sich ein über 900 Kilometer langes Fernwärmenetz (vgl. SWM, 2023), das die meisten Münchner Haushalte mit Wärme zum Heizen versorgt. Um dieses riesige Netz klimaneutral zu bekommen, wird einiges an Anstrengung nötig sein. Doch die Stadt München sitzt auf ihrer eigenen nachhaltigen Wärmequelle.Wie bereits oben erwähnt, eignet sich das Alpenvorland, zu dem München gehört, besonders gut für alle Arten von Geothermie. Im Grunde ist ganz Bayern für diese Methode der Wärmegewinnung gut geeignet. Theoretisch könnten bis zu 40% des bayrischen Wärmebedarfs durch Geothermie gedeckt werden. 25% sind von der bayrischen Staatsregierung als Zielmarke ausgegeben worden. (vgl. SZ, 2022) In München sollen mehrere Standorte zusammenwirken, um zwischen 70% und 80% des Wärmebedarfs zu decken. (vgl. Münchner Merkur, 2022) Sechs Anlagen sind derzeit in Betrieb: Die Geothermieanlage Freiham ist seit 2016 in Betrieb und liefert Fernwärme an den Münchner Westen. In Dürrnhaar steht seit 2012 eine Anlage, die zur Stromproduktion verwendet wird. In Kirschstockach wurde ursprünglich Strom produziert. Dies wurde aber zugunsten von Fernwärme aufgegeben. Sie produziert seit 2013. In Sauerlach wird ebenfalls Strom und Fernwärme produziert. Sie ist eine der leistungsstärksten Anlagen in München. Die Anlage in Riem zur Wärmeerzeugung ist seit 2004 in Betrieb und hat damit die Vorreiterrolle inne. Sie ist für die Messestadt und die Neue Messe München zuständig. In München-Sendling steht Deutschlands leistungsstärkste Geothermieanlage. Sie wird in Zukunft Fernwärme für 80.000 Menschen liefern können. (vgl. SWM, 2023)Ziel der Stadt München ist es, bis 2040 durch Fernwärme ihren Wärmebedarf klimaneutral zu decken. (vgl. SWM, 2023) Damit ist München zu einer Art Modellstadt für die deutsche Energiewende und für Interessenten aus der ganzen Welt geworden, die in der Geothermie einen entscheidenden Beitrag zum Klimaschutz und zur Energiesicherheit sehen.In München und in ganz Südbayern hat sich jedenfalls ein Boom hinsichtlich der Geothermie entwickelt. Die Süddeutsche Zeitung spricht von einer Goldgräberstimmung. (vgl. SZ, 2022) Ein durchaus passender Ausdruck angesichts des bergbaulichen Charakters, den diese Technologie nun mal an sich hat. In jedem Falle sind Politik und Unternehmen auf die Region aufmerksam geworden und wollen dort zum Teil große Summen investieren. Allein die Stadt München will bis zu einer Milliarde Euro in den Ausbau der Geothermie investieren, um ihre Ziele bezüglich der Nutzung der Geothermie zu erreichen. (vgl. Münchner Merkur, 2022) Der Bund wird ebenfalls drei Milliarden Euro in den Ausbau dieser Technologie stecken und einige private Unternehmen haben große Investitionen angekündigt. (vgl. SZ, 2022)Es gibt aber auch einige Dinge, die man durchaus als Nachteile dieser Technologie ansehen könnte und die in München zu Herausforderungen führen. Wie bereits erwähnt, ist es notwendig, bergbauartige Maßnahmen zu ergreifen, um Geothermie nutzen zu können. Dies setzt einen hohen Aufwand voraus und hat hohe Einstandskosten zur Folge (vgl. SZ, 2022). Des Weiteren ist die Nutzung von Geothermie zur Wärme- und Stromproduktion gleichzeitig momentan nur bei Neubaugebieten profitabel. (vgl. Münchner Merkur, 2022)Es stehen also noch einige ungeklärte Fragen in München im Raum. Dennoch kann man sagen, dass dieses großangelegte Projekt den Charakter einer Blaupause für andere Ballungsgebiete haben wird, in denen Geothermie ebenfalls in diesem Umfang möglich wäre. Städte wie Hamburg, Bremen oder Mannheim liegen ebenfalls in Gebieten mit großem Potenzial für Geothermie, in einigen davon sind auch schon Projekte hierzu angelaufen. (vgl. Bundesverband Geothermie e.V., 2023)FazitEiner der wichtigsten Bestandteile der Energiewende ist die Dezentralisierung der Energieversorgung. Dies betrifft nicht nur Standorte, sondern auch die Formen der Energiegewinnung. Wenn man sich also von der Geothermie das Potenzial gewünscht hätte, dass diese Technologie die endgültige Lösung der Energiefrage ist, wird man enttäuscht werden. Der Bundesverband Geothermie e.V. selbst spricht von einem zwar großem, aber auch begrenzten Potenzial. Wir werden also in diese Technologie investieren, wahrscheinlich sogar sehr viel. Aber wir werden auch andere Formen der Energiegewinnung benötigen, um die Energiewende zu schaffen.Es hat durchaus etwas Befreiendes zu wissen, dass man hier auf etwas gestoßen ist, das Grenzen hat. In einer Zeit, in der die Dimensionen von Konsum und Produktion Ausmaße angenommen haben, die nach menschlichem Ermessen kaum noch erfassbar sind und eigentlich auch kaum noch zu kontrollieren, ist die Geothermie ein Stück weit eine Antithese zu dieser Grenzenlosigkeit. Das Umweltbundesamt sagt, dass die technologischen Herausforderungen der Geothermie beherrschbar und lokal begrenzt sind. Nicht jedes Land und nicht jede Region kann Geothermie in derselben Weise nutzen. Inwieweit Geothermie in der Zukunft eine Rolle spielen wird, bleibt auch in Deutschland damit noch offen und bedarf weiterer Forschung. QuellenBayerische Staatsregierung (2011). Bayerisches Energiekonzept "Energie innovativ" BMBF / Bundesministerium für Bildung und Forschung (2023). Geothermie. https://www.bmbf.de/bmbf/de/forschung/energiewende-und-nachhaltiges-wirtschaften/energiewende/energiewende_node.html Bundesministerium für Wirtschaft und Klimaschutz (2023). Eckpunkte für eine Erdwärmekampagne Geothermie für die Wärmewende. https://www.bmwk.de/Redaktion/DE/Downloads/Energie/eckpunkte-geothermie.pdf?__blob=publicationFile&v=1 Bundesministerium für Wirtschaft und Klimaschutz (2022). Geothermie für die Wärmewende – Bundeswirtschaftsministerium startet Konsultationsprozess. https://www.bmwk.de/Redaktion/DE/Pressemitteilungen/2022/11/20221111-geothermie-fuer-die-waermewende.html Bundesverband Geothermie e.V. (2023). https://www.geothermie.de/aktuelles/nachrichten.html Deutsche Welle (2023): Geothermie auf dem Vormarsch? https://p.dw.com/p/4KFIlEnBW (2023). Geothermie. https://www.enbw.com/erneuerbare-energien/geothermie/ Münchner Merkur (2022) Die Energie der Zukunft: Wird München bei Geothermie zur Blaupause für Deutschland? https://www.merkur.de/wirtschaft/geothermie-energie-zukunft-muenchen-deutschland-kraftwerk-anlage-projekt-sendling-zr-91526752.html Süddeutsche Zeitung (2022). Goldgräberstimmung im Münchner Süden. https://www.sueddeutsche.de/muenchen/landkreismuenchen/muenchen-stadtwerke-geothermie-erdwaerme-laufzorn-1.5722522 SWM / Stadtwerke München (2023). Geothermie: Den Schatz aus der Tiefe sinnvoll nutzen https://www.swm.de/magazin/energie/geothermie Stadtwerke Speyer (2023). Geothermie. https://www.stadtwerke-speyer.de/geothermie?ConsentReferrer=https%3A%2F%2Fwww.google.com%2F Umweltbundesamt (2023). Geothermie. https://www.umweltbundesamt.de/themen/klima-energie/erneuerbare-energien/geothermie#oberflachennahe-geothermie
Florian Malzacher, freier Autor, Dramaturg und Kurator, tätig unter anderem in leitender Funktion beim Festival steirischer herbst in Graz (2006–2012) und beim Impulse Theater Festival in Düsseldorf, Köln und Mühlheim (2013–2017), geht in seiner neuen Monographie einem Theater im Spannungsfeld von Repräsentation und Partizipation nach. Dabei akzentuiert er bereits in der Einleitung, dass es ihm in Gesellschaftsspiele. Politisches Theater heute nicht um eine umfassende Darstellung aller möglichen als politisch beschreibbaren Theaterformen gehe; vielmehr strebe er "ein suchendes Buch über ein suchendes Theater, das Teil einer suchenden Gesellschaft" sei, an (S. 16). Diese einführenden Worte lassen eine gewisse Unentschlossenheit in der Auswahl der Fallbeispiele und Analysefelder befürchten – eine Sorge, die sich rasch als nichtig erweist, geht es dem Autor doch klar um die Benennung eines politischen Theaters, das politische Prozesse, Visionen und Lösungsversuche nicht nur zeigt, sondern bewusst mitgestaltet. Die Fokussierung auf tendenziell postdramatische Theaterformen des deutschsprachigen Raums erscheint angesichts von Malzachers Biographie naheliegend. Die fünf Hauptkapitel sind schlaglichtartig in die Begriffe "Repräsentation", "Identitätspolitiken", "Partizipation", "Kunst und Aktivismus" sowie "Theater als Versammlung" unterteilt. Darin werden Beispiele primär institutionellen Theaterschaffens der letzten zehn Jahre diskutiert, um Gestaltungs- und Wirkungsmöglichkeiten eines politischen Theaters auszuloten, das einen dezidiert aktivistischen Anspruch erhebt. Wie vielfältig dieser Anspruch besetzt werden kann, zeigt sich schon in den Beispielen des ersten Kapitels zur "Repräsentation". Dieses widmet sich zunächst der Neuauflage einer bereits existierenden Inszenierung von Josef Bierbichlers Roman Mittelreich. Die Regisseurin Anta Helena Recke bediente sich dabei der 2015 uraufgeführten Inszenierung von Anna-Sophie Mahler und brachte diese mit ausschließlich schwarzen Schauspieler*innen in den Hauptrollen auf die Bühne der Münchner Kammerspiele (2017). Gleiches Bühnenbild, gleicher Text, gleicher Ablauf – nur Schauspieler*innen, der Chor und die Musiker*innen werden ausgetauscht, um eine, so Recke, "Schwarzkopie" auf die Bühne zu bringen. Diese Form der appropriation art thematisiert "den (Alb)traum völliger Assimilation" (S. 20) und ist laut Malzacher zugleich eines der überraschend seltenen Beispiele für institutionelle Selbstkritik im Theater. Die generelle Problematik der Repräsentation auf den europäischen und insbesondere deutschsprachigen Bühnen führt Malzacher auch historisch aus: Demnach versuchten performance arts und happenings seit den 1960er Jahren der Repräsentation "zu entkommen, indem sie den Fokus ganz auf die Präsenz, die Gegenwärtigkeit der Situation legten, die sie selbst erzeugen" (S. 28). Im Theater seien diametrale Vorstellungen der Repräsentationsproblematik zu finden: Während manche Theaterformen versucht haben, beispielsweise unter dem Einfluss von Antonin Artaud, die Differenz zwischen Repräsentation und Repräsentiertem und damit zwischen Kunst und Leben aufzuheben, wollten andere, darunter am prominentesten Bertolt Brecht, diese transparent machen und zugleich jene Personengruppen einbeziehen, die künstlerisch wie politisch nicht ausreichend repräsentiert sind. Brecht war sich jedoch schon Anfang der 1930er Jahre der Repräsentationsproblematik bewusst, als er seinen Begriff der "Menschenfresserdramatik" ins Spiel brachte: "Doppelte Ministergehälter wurden den Mimen ausgeworfen, welche die Qualen der Ausgebeuteten möglichst naturgetreu imitieren konnten" (zit. nach S. 30). Die Frage, wer wen repräsentiert, habe sich jedoch in den letzten drei Jahrzehnten zugespitzt, wenn man an die Arbeiten von Rimini Protokoll und ihren "Expert*innen des Alltags" oder an Formen der (Selbst-)Repräsentation in Theaterhäusern mit Kompanien kognitiv beeinträchtigter Schauspieler*innen denkt. Die Repräsentationsfrage erschöpft sich jedoch nicht in der Besetzungspolitik und im Umgang mit gesellschaftlichen Minderheiten auf der Bühne, sondern wird angesichts der Diskurse des Anthropozäns, des Animismus und des Post-Humanismus aktuell auf anderen Ebenen virulent. Denn eine seriöse Auseinandersetzung mit Repräsentation im Theater schließt konsequenterweise auch nicht-menschliche Wesenheiten mit ein, beispielsweise in Mette Ingvartsens evaporated landscapes (2009), in der Landschaften aus Nebel und Licht choreographiert werden, oder in Stefan Kaegis Solo für einen Androiden Uncanny Valley (2018), in welchem der Mensch durch einen Roboter ersetzt wurde. Die Prognose von Malzacher in dieser Hinsicht bleibt optimistisch: "Während der Mangel an Perfektion des Roboters vielleicht bald schon Schnee von gestern ist, wird der menschliche Makel des Fehlerhaften auch künftig zum Theater gehören, das immer ein Medium der radikalen Gegenwärtigkeit und des Menschlichen, also des Kompromisses und des Scheiterns" sei (S. 46 f).Angesichts der wissenschaftlichen und feuilletonistischen Beschäftigung mit "Identitätspolitik" bleibt jenes Kapitel überraschend kurz, was sicherlich auch daran liegt, dass das Thema in den anderen Teilen des Buchs immer wieder aufscheint. Malzacher nimmt hier trotz der Kürze eine globale Perspektive ein, führt politische Diskurse der amerikanischen identity politics gleichermaßen aus wie postkoloniale Theorien von Gayatri Chakravorty Spivak sowie Slavoj Žižeks Kritik an linker Identitätspolitik. Es ist das einzige Unterkapitel, das ohne ausführliches Fallbeispiel aus dem Theater auskommt und eher perspektivisch, in gewisser Weise utopisch bleibt: "Dabei ist die komplexe Gemengelage [der Identitätspolitik] eigentlich eine ideale Voraussetzung für eine Kunst, deren Aufgabe es nicht ist, alles einfacher zu machen, sondern neue Horizonte zu eröffnen, andere Lebens- und Sichtweisen mit den eigenen zu konfrontieren, eigene Verstrickungen in die politischen Dilemmas unserer Zeit aufzudecken. [.] Doch Angst, Schmollen oder Nostalgie sind keine guten Ausgangspunkte, um Kunst zu machen oder zu rezipieren. Besser sind Neugierde, Empathie und Mut" (S. 62). Konkreter wird es im Kapitel zur "Partizipation". Hier verlässt Malzacher auch zunächst die deutschsprachige bzw. mitteleuropäische Perspektive und befasst sich mit Antanas Mockus, der 1995 Bürgermeister von Bogotá wurde. Mit dem Konzept der cultura ciudadana (Bürgerkultur) integrierte er praktische Theatererfahrungen in seine Politik und nutzte Strategien der zeitgenössischen Kunst, um "Alltagssituationen zu dekontextualisieren, sie anders zu rahmen, sie verstehbar zu machen" (S. 65). Seine Maßnahmen als Bürgermeister führten Bogotá weg vom unrühmlichen ersten Platz in der Weltrangliste gefährlichster Städte: Er veranlasste beispielsweise mittels Marketingmaßnahmen Kinder in weiten Teilen der Zivilbevölkerung dazu, Druck auf ihre Eltern auszuüben, damit sie in örtlichen Geschäften private Waffen gegen Spielzeug eintauschen. Auch ließ er sich in einem "Super-Bürger"-Kostüm fotografieren, um sich über seine vermeintliche Macht zu mokieren. In seine kugelsichere Weste – eine tägliche Standardausrüstung für kolumbianische Politiker*innen seines Status – schnitt er ein herzförmiges Loch, inszenierte dieses somit zugleich als eine Art Achillesferse und propagierte Gewaltfreiheit, während er damit zugleich sein eigenes Leben riskierte. Mit der politischen Popularisierung von theatralen Inszenierungsstrategien war Antanas Mockus ausgesprochen erfolgreich. Dieses konkrete Beispiel wird gleich einer Utopie in die Argumentation Malzachers eingeführt, wenn der Autor daraufhin attestiert, dass ein politisches Theater der Partizipation, in welcher das Publikum zur Beteiligung bewegt wird, meist nur eine vorgetäuschte Beteiligung meine, nämlich eine "als Aktivität verkleidete Passivität" (S. 67). Hier wird Malzacher auch fordernd: "Wo Theater politisch sein will, muss es sich mit der Frage nach Teilhabe auseinandersetzen und sich mitten hinein in das skizzierte Dilemma bewegen" (ebd.). Er unterscheidet zwischen Beispielen partizipativen Theaters, die gleichzeitig als Realität und als Fiktion erfahren werden (She She Pop, Arbeiten der Performerin Ann Liv Young) und stellt ihnen ein Theater der Immersion gegenüber, das "Partizipation als Unterwerfung" praktiziere. Als Beispiel fungiert hierbei ein multimediales Projekt, dessen Produktionskontext jedoch theatralen Inszenierungs- und Schautraditionen folge: DAU, ein seit 2009 laufendes Film- und Performancespektakel des russischen Filmemachers Ilja Chrschanowski, sei zunächst für die Beteiligten immersiv. Hunderte Schauspieler*innen, aber auch Wissenschaftler*innen, Köch*innen, Pfleger*innen etc. werden für drei Jahre in ein 24/7 Dauerrollenspiel im ukrainischen Charkiw angesiedelt. In Kostümen spielen sie in einem gigantomanischen Filmset und vor zahlreichen versteckten und nicht-versteckten Kameras den Alltag eines physikalischen Geheiminstituts nach, und zwar unter "immersiven Bedingungen; Gewalt, Alkohol und einige Kindszeugungen inklusive" (S. 90). DAU entspreche damit der künstlerisch-gigantomanischen Realität fiktiver Filme wie etwa Peter Weirs The Truman Show (1998) oder Charlie Kaufmans Synecdoche, New York (2008). Darin sieht Malzacher jedoch das Gefahrenpotenzial der Immersion: "Es geht nicht um Emanzipation und Erkenntnis, sondern um Unterwerfung" (S. 91). Nahezu gegenteilig zu DAU verhalten sich die Fallbeispiele im Kapitel "Kunst und Aktivismus", in dem er künstlerische Strategien und Taktiken rezenter Protestkulturen thematisiert. Die Arbeiten der Londoner Clandestine Insurgent Rebel Clown Army (C.I.R.C.A.) versuchen in laufende Proteste zu intervenieren und aufgeheizte Konfrontationen zwischen Demonstrant*innen und Polizist*innen mit theatralen Mitteln zu verwirren bzw. die Exekutive zum Lachen zu bringen und somit eine zugespitzte Situation zu entschärfen. C.I.R.C.A. sind sogenannte artivists, die mittels theatraler Strategien Machtverhältnisse nicht nur in Frage stellen, sondern unterbrechen. Ähnlich funktionieren die Arbeiten des US-amerikanischen Performancekünstlers William Talen, der als charismatischer TV-Evangelikaler namens Reverend Billy zusammen mit anderen Künstler*innen die Church of Stop Shopping ins Leben gerufen hat. Ästhetisch und rhetorisch inspiriert von klerikalen US-Fernsehsendern tritt er mit Predigten und eigenen Gospelsongs in Gemeindezentren auf, aber auch auf Straßenkreuzungen, Parkplätzen und in Shopping Malls, um den neoliberalen Konsum zu kritisieren. Zu deutschen Beispielen kehrt Malzacher mit dem Zentrum für Politische Schönheit (ZPS) zurück, beendet das Kapitel jedoch mit dem Beispiel des hoax, dem Streich in Form einer Falschmeldung mit dem Ziel, Massenmedien auf eine falsche Fährte zu locken: Als einen Höhepunkt der hoax-Strategie nennt er dabei die Arbeiten des Aktivistenduos The Yes Men, bestehend aus Jacques Servin und Igor Vamos. Durch die falsifizierte Identität von Servin als Sprecher des Konzerns Union Carbide gelang es ihnen 2004, am 20. Jahrestag der Industriekatastrophe mit tausenden Todesopfern im indischen Bhopal, in den Morgennachrichten der BBC World zugeschalten zu werden und eine Entschuldigung des Konzerns zu formulieren sowie Milliardenentschädigungen anzukündigen. Dass hinter der Figur des Firmensprechers der Yes Man Jacques Servin stand, flog noch am selben Tage auf, doch da war der Wert des Mutterkonzerns Dow Chemical an der Wall Street bereits um zwei Milliarden US Dollar gefallen. Der kurzfristige Börseneinbruch beweise: "Was ethisch richtig ist, wird vom Markt nicht unbedingt honoriert" (S. 106). The Yes Men sowie die Church of Stop Shopping gehören zur Strategie des laughtivism, die der serbische Aktivist Srđa Popović in die Protestkultur eingeführt hat. Im letzten Kapitel zum "Theater als Versammlung" werden Strategien von Theatermacher*innen beschrieben, in deren Arbeiten Partizipation mittels Entscheidungsgewalt ein aktiver Bestandteil der Inszenierung ist. Mit Milo Raus General Assembly und Die Kongo Tribunale sowie Jonas Staals New World Summits wird das politische Potenzial von Theatern als Orte der Versammlung hinterfragt. Die Beispiele thematisieren die Partizipation eines Publikums, das eingeladen wird, Abstimmungen durchzuführen, innerhalb von fiktiven Tribunalen ein Urteil zu sprechen oder politische Forderungen an eine fiktive Weltklimakonferenz zu formulieren. Gemäß der Kuratorin Miwon Kwon findet hier Kunst nicht im sondern als öffentlicher Raum statt, was Malzacher als "das vielleicht wichtigste Anliegen politischen Theaters" benennt (S. 125). Malzacher hält fest, dass die Unterscheidung zwischen den Arbeiten Milo Raus und anderen preenactments darin liege, dass Raus Arbeit eine emotionale Identifikation mit den Figuren anstrebt. Und während dieser in seinem Genter Manifest betone, dass Theater kein Produkt, sondern ein Produktionsvorgang sei, dessen Vorarbeiten ebenfalls öffentlich sichtbar sein müssen, kritisiert Malzacher, dass just diese Vorarbeiten von Rau unsichtbar bleiben, weil sonst "das Streben nach Realismus, nach affektiver Katharsis, nach emotionaler Identifikation" konterkariert würde (S. 141). Malzacher schlussfolgert, dass Theater Versammlungen "re-enacten, enacten oder pre-enacten" und gleichermaßen "Räume der Analyse, der Reflektion, der Imagination oder der Intervention" schaffen kann – "aber in dem Augenblick, in dem es zur tatsächlichen Versammlung wird, endet der Realismus und die Realität beginnt. Mit all ihrer Theatralität" (S. 143). Mit Gesellschaftsspiele. Politisches Theater heute liefert Florian Malzacher insgesamt einen vielstimmigen und detaillierten Einblick in aktuelle Entwicklungen eines politisch-aktivistischen Theaters und nimmt dabei zugleich historische Kontextualisierungen vor. Dass der Autor komplexe Begriffe (Immersion, Partizipation, u.a.) in ihrer kultur- bzw. theatertheoretischen Bestimmung für seine Zwecke stets nur kurz diskutiert, trübt den positiven Gesamteindruck keineswegs, da die Monographie eine Verortung des gegenwärtigen politischen Theaters anhand des Materials aus der Theaterpraxis und nicht basierend auf bestehenden Theoriemodellen anstrebt.
A main reason for founding the European Union was to remove internal trade obstacles and to establish a Single Market within its borders. Along with the increasing integration of international markets, an ever-increasing diversification of firms in tandem with the development of multinational enterprises is observable. Legislative authorities of the European Union and its member states are faced with the challenge of ensuring that their corporate tax systems keep pace with this economic transformation of companies and markets. Hence, in order to meet the requirements of an integrated European market, in 2001 the European Commission proposed a switch from Separate Accounting to Formula Apportionment as the leading corporate income taxation system in the European Union. Basically, corporate income of multinational enterprises can be taxed according to these two different principles. At present Separate Accounting is applied at the international level, while some countries like the U.S., Canada, Germany and Switzerland use Formula Apportionment at the state or federal level. Under the current system of Separate Accounting each subsidiary of a multinational enterprise is treated as a separate entity subject to national tax law. For this reason multinationals have to value their intra-firm trade using internal transfer prices, which should meet an external standard of comparison, so-called arm's length prices. Because of the very nature of internal trade with firm-specific tangibles and intangibles evaluating adequate transfer prices proved difficult. Consequently, Separate Accounting was identified as one reason for manipulations in favor of profit shifting for tax saving purposes. That is why the European Commission regards the consolidation of profits including cross-border loss offset for calculating a multinational company's tax base as a more suitable approach in the economic union and advocates the Common Consolidated Corporate Tax Base (CCCTB). To allocate the consolidated tax base to the taxing countries a splitting mechanism is needed. Hence, the CCCTB proposal includes a system of Formula Apportionment. A formula apportions a share of the overall tax base depending on the multinational enterprise's geographical economic activity in the respective country. The European Commission favors a common three-factor apportionment formula containing assets, labor and sales to represent the production and consumption side. The European Commission's proposal has initiated a continuing politico-economic discussion about the efficiency and distributional consequences of the transition to Formula Apportionment in Europe. This doctoral thesis evaluates particular issues within this debate by presenting three theoretical articles to answer specific research questions. The articles are based on the methodological concept of a Nash tax competition model under perfect symmetry, where countries choose their corporate tax rates non-cooperatively. The non-cooperative behavior of one country may impose fiscal externalities on other countries and thereby renders the tax policy inefficient. This dissertation focuses on the derivation, explanation and interpretation of the resulting inefficiencies under Separate Accounting and Formula Apportionment. For this reason it contributes three papers to the theoretical literature of optimal tax policies in a non-cooperative equilibrium of tax rates. The work aims to compare and discuss the alternative policy options. The first article pertains to the public debate about the right taxation principle to apply in Europe. The article investigates the effect of fiscal equalization on the efficiency properties of corporate income tax rates chosen under the taxation principles of Separate Accounting and Formula Apportionment. Fiscal equalization ensures efficiency if the marginal transfer just reflects the fiscal and pecuniary externalities of tax rates. In contrast to previous studies, tax base equalization (Representative Tax System) does not satisfy this condition, but combining tax revenue and private income equalization does, regardless of which taxation principle is implemented. This finding implies that it does not matter whether MNEs are taxed according to Separate Accounting or Formula Apportionment if there is equalization of national income (i.e. private income plus tax revenues). Under Formula Apportionment, tax base equalization is superior to tax revenue equalization if the wage income externality is sufficiently large. Even though the European Union does not have an explicit equalization system, a part of the Unions's budget is financed by contributions from the member states. The implied income redistribution would indeed not be enough to ensure efficiency of corporate income taxation, since the budget is not an equalization system in the sense of our analysis. But the very existence of income redistribution in Europe might indicate that reforming the member states' contributions to the budget in a suitable way may politically be easier to achieve than replacing an implemented corporate tax system. The second article refers to the sales factor in the proposed three-factor formula under Formula Apportionment. The incorporation of a sales factor in the formula as well as the assignment of sales at the place of origin or destination are hotly debated issues. The CCCTB Working Group suggested in 2007 the inclusion of sales following the destination principle but also mentioned that ".most member states experts that would support the inclusion of sales as a factor would prefer sales measured 'at origin' ". With regard to the most recent proposal by the European Commission in 2011, the European Parliament advocated that the sales weight be lowered to 10%. The Committee of the Internal Market and Consumer Protection even called for the removal of the sales factor. In contrast, from Canada and the United States, the opposite development has been observed, namely the increasing importance of the sales factor. Taking a two-country Nash tax competition model with a sales-only formula and market power, we investigate (i) whether the transition from Separate Accounting to Formula Apportionment mitigates tax competition and improves welfare and (ii) whether tax competition is weakest when sales are measured with the origin principle. The driving force is a negative consumption externality that hampers the positive formula externality present for both the origin and destination principle. The third paper investigates the Commission's recommendation to implement a transition process to Formula Apportionment. During the change Formula Apportionment should be optional for multinational enterprises. Recent empirical literature proves that profit consolidation reduces multinational enterprises' involuntary costs for complying with different tax laws, but increases discretionary compliance costs incurred by tax planning activities. That is why the third article considers a two-country model with multinationals that are heterogeneous with respect to their involuntary compliance costs. Additionally, multinational enterprises using the Formula Apportionment system face higher discretionary compliance costs due to restricted tax base manipulation opportunities. Hence, multinational enterprises would prefer to be taxed under Formula Apportionment if and only if under Separate Accounting the involuntary compliance costs exceed the tax advantage due to better profit shifting possibilities. We show that a non-negative threshold value of involuntary compliance costs exists such that multinationals with costs above this level choose Formula Apportionment. We prove in a symmetric setting that starting from a pure Separate Accounting system with national revenue maximization, a transition from Separate Accounting to an optional Formula Apportionment increases the non-cooperative tax rates and national revenues for both countries ending up with the results of pure Formula Apportionment. This is because with identical tax rates the multinational enterprise cannot benefit from the better profit shifting opportunities under Separate Accounting but saves involuntary compliance costs. In our analysis the optional system of tax base consolidation promises an efficiency enhancement for the member countries. Hence, we deliver an additional argument in support of an international agreement on the CCCTB proposal. ; Einer der Hauptgründe für die Entstehung der Europäischen Union (EU) war das Ziel, interne Handelshemmnisse zu beseitigen, um innerhalb der Unionsgrenzen einen gemeinsamen Markt zu etablieren. Parallel zur zunehmenden Integration der internationalen Märkte ist eine vermehrte Diversifikation von Unternehmen zu beobachten, welche durch die Entstehung multinationaler Konzerne begleitet wird. Für die Gesetzgeber der EU und ihrer Mitgliedsstaaten bedeutet dies, ihre Körperschaftsteuersysteme laufend an diesen Transformationprozess anzupassen. Um dabei den Anforderungen des EU-Binnenmarktes gerecht zu werden, erachtet die Europäische Kommission eine umfassende Reform der Körperschaftsbesteuerung als notwendig. Im Jahr 2001 schlug die Kommission deshalb vor, für multinationale Unternehmen das Unternehmensteuersystem der separaten Gewinnbesteuerung durch eine formelbasierte Gewinnbesteuerung abzulösen. Aktuell wird die separate Gewinnbesteuerung vorwiegend auf der internationalen Ebene verwendet, während einige Länder wie die USA, Kanada, Deutschland und die Schweiz die Formelbesteuerung innerhalb ihrer förderalen Strukturen nutzen. Bei der separaten Gewinnbesteuerung wird jede Konzerntochter als eigenständiges Unternehmen behandelt, das der nationalen Steuergesetzgebung unterliegt. Der Wert des Zwischenhandels innerhalb der Unternehmensgruppe wird mit Hilfe von Transferpreisen ermittelt. Dabei sollen die firmeninternen Transferpreise dem sogenannten arm's-length-Prinzip folgen, so dass sie den Einkauf des Produktes oder der Leistung von einem Drittanbieter widerspiegeln. Es hat sich jedoch in der Praxis gezeigt, dass es sich bei den unternehmensintern gehandelten Gütern und Dienstleistungen oft um firmenspezifische Produkte handelt, für die kein externer Vergleichsmaßstab existiert und die Ermittlung und Kontrolle angemessener Transferpreise erschwert. Dies führt zu einer Manipulationsanfälligkeit bei dem Prinzip der separaten Gewinnbesteuerung, welche als eine Ursache für die internationale Gewinnverlagerung zum Zwecke der Steuervermeidung gesehen wird. Daher betrachtet die Kommission die Gewinnkonsolidierung einschließlich der grenzüberschreitenden Verlustverrechnung zur Bestimmung der Steuerbemessungsgrundlage eines multinationalen Unternehmens als geeigneteren Ansatz für den EU-Binnenmarkt. Sie schlägt dafür die Einführung der Gemeinsamen konsolidierten Körperschaftsteuer-Bemessungsgrundlage (GKKB) vor. Für die Aufteilung der GKKB auf die einzelnen steuerberechtigen Länder enthält der Vorschlag die formelbasierte Gewinnaufteilung. Eine EU-weit gültige Aufteilungsformel ordnet dabei die Steuerbemessungsgrundlage, gemäß der geschäftlichen Aktivität des multinationalen Unternehmens in jedem Land, den Mitgliedsstaaten zu. Die Kommission will mit Hilfe der Formelfaktoren sowohl Produktion als auch Konsum angemessen abbilden und favorisiert die drei gleich gewicheteten Faktoren Vermögenswerte, Arbeit und Umsatz. Der Vorschlag einer GKKB hat eine andauernde polit-ökonomische Debatte über die Effizienzwirkungen und die Verteilungsaspekte eines Übergangs zur formelbasierten Gewinnbesteuerung in Europa ausgelöst. Die vorliegende Doktorarbeit setzt sich mit speziellen Themen dieser Debatte auseinander. Dazu wurden drei Aufsätze entwickelt, die spezifische Forschungsfragen beantworten und sich in die theoretische Literatur der optimalen Steuerpolitik in einem unkooperativen Steuersatzgleichgewicht einordnen lassen. Die Artikel basieren auf dem methodischen Konzept eines Nash-Steuerwettbewerbsmodells bei vollständiger Symmetrie, wobei den Ländern die Souveränität über die Körperschaftsteuersätze obliegt. Da die einzelnen Staaten die Auswirkungen Ihrer Steuerpolitik auf die anderen Mitgliedsstaaten ignorieren, kann ihr Verhalten fiskalische Externalitätten auslösen, welche eine ineffiziente Steuersatzwahl kennzeichnen. Der Fokus der Papiere liegt auf der Ableitung, Erklärung und Interpretation der sich aus dem Steuerwettbewerb ergebenden Ineffizienzen unter der separaten und der formelbasierten Gewinnbesteuerung. Das Ziel dieser Arbeit ist es, die verschiedenen Politikalternativen dahingehend zu vergleichen und zu diskutieren. Der erste Artikel bezieht sich auf die Diskussion über das "bessere" Körperschaftsteuersystem für Europa. Das Papier untersucht den Effekt eines Finanzausgleichsystems auf die Effizienzeigenschaften der Körperschaftsteuersätze, die unter dem Prinzip der separaten Gewinnbesteuerung bzw. der Formelbesteuerung gewählt werden. Ein Finanzausgleich sichert dann Effizienz, wenn der marginale Transfer die fiskalischen und pekuniären Externalitäten der Steuersätze widerspiegelt. Im Unterschied zu vorherigen Arbeiten erfüllt in unserem Modell der Steuerbasisausgleich diese Bedingung nicht. Stattdessen führt ein Ausgleich der Nationaleinkommen, das heißt der Kombination aus einem Ausgleich von Steueraufkommen und privatem Einkommen, unabhängig vom verwendeten Steuerprinzip zu Effizienz. Dieses Ergebnis weist darauf hin, dass es irrelevant ist, ob multinationale Unternehmen der separaten oder der formelbasierten Gewinnbesteuerung unterliegen, wenn parallel ein Finanzausgleichssystem der Nationaleinkommen existiert. Bei der Formelbesteuerung könnte der Steuerbasisausgleich zu effizienteren Ergebnissen als der Steueraufkommensausgleich führen, wenn die Lohneinkommensexternalität ausreichend groß ist. Obwohl in der EU kein explizites Finanzausgleichssystem exisitiert, das im Sinne unserer Analyse angelegt ist, wird ein Teil des EU-Budgets durch die Beiträge der einzelnen Mitgliedsstaaten finanziert. Die damit verbundene Einkommensumverteilung reicht zwar nicht zur Sicherstellung effizienter Körperschaftsteuersätze aus, jedoch könnte die Erweiterung eines bereits vorhandenen Systems durch die entsprechende Anpassung der Beiträge zum EU-Budget politisch leichter durchsetzbar sein als die vollständige Reform des Körperschaftsteuersystems. Der zweite Artikel beschäftigt sich mit dem Umsatzfaktor in der Aufteilungsformel. Die Aufnahme eines Umsatzfaktor als solches sowie die Frage, ob Umsätze dem Ursprungsland oder dem Bestimmungsland zugeschlagen werden, werden innerhalb der EU kontrovers diskutiert. Die GKKB-Arbeitsgruppe schlug im Jahr 2007 die Aufnahme der Umsätze nach dem Bestimmungslandprinzip vor, erwähnte aber gleichzeitig, dass eine Mehrzahl der Experten der Mitgliedsstaaten die Einbeziehung der Umsätze nach dem Ursprungslandprinzip bevorzugen würde. Zum Vorschlag der Europäischen Kommission zu diesem Thema aus dem Jahr 2011 wandte das Europäische Parlament ein, dass es die Gewichtung des Umsatzfaktors auf 10% absenken würde. Der Ausschuss für den Binnenmarkt und Verbraucherschutz forderte sogar die vollständige Streichung des Umsatzfaktors in der Formel. Im Gegensatz zu diesen Forderungen stehen die Entwicklungen in Kanada und den USA, wo der Umsatzfaktor immer mehr an Bedeutung gewinnt. Wir zeigen in einem Nash-Steuerwettbewerbsmodell mit zwei Ländern, Marktmacht und einer umsatzbasierten Aufteilungsformel, dass (i) der Übergang von der separaten zur formelbasierten Gewinnbesteuerung den Steuerwettbewerb abschwächt und dieWohlfahrt erhöht und (ii) mit einem Umsatzfaktor nach dem Ursprungslandprinzip der geringste Steuerwettbewerb auftritt. Das zweite Ergebnis ist auf eine negative Konsumexternalität zurückzuführen, welche der sowohl beim Ursprungsland- als auch beim Bestimmungslandprinzip auftretenden positiven Formelexternalität entgegenwirkt. Das dritte Papier untersucht den Kommissionsvorschlag, eine Übergangsphase von der separaten zur formelbasierten Gewinnbesteuerung zu schaffen. Während dieser Phase soll die Formelbesteuerung den Unternehmen optional zur Verfügung stehen. Die empirische Literatur zeigt, dass sich durch die Gewinnkonsolidierung die unfreiwilligen Befolgungskosten, die ein multinationales Unternehmens aufbringen muss, um die nationalen steuergesetzlichen Vorgaben zu erfüllen, verringern. Auf der anderen Seite steigen die diskretionären Kosten für Maßnahmen des Unternehmens, die der Gewinnverlagerung dienen. Der dritte Artikel bildet diese Erkenntnisse in einem Zwei-Länder-Modell ab, in welchem sich die multinationalen Unternehmen in der Höhe ihrer unfreiwilligen Befolgungskosten unterscheiden. Zusätzlich sehen sich Unternehmen, die die Formelbesteuerung nutzen, höheren diskretionären Kosten gegenüber, weil hier die Möglichkeiten zur Manipulation der Steuerbemessungsgrundlage deutlich eingeschränkt sind. Folglich werden nur die Unternehmen für die Formelbesteuerung votieren, bei denen unter der separaten Gewinnbesteuerung die unfreiwilligen Befolgungskosten den Steuervorteil durch die leichtere Gewinnverlagerung übersteigen. Wir leiten einen nicht negativen Schwellenwert der unfreiwilligen Befolgungskosten ab, ab welchem sich Unternehmen mit höheren Kosten für die Formelbesteuerung entscheiden. Unter Annahme von Symmetrie zeigen wir, dass, ausgehend von einem System mit separater Gewinnbesteuerung und nationaler Steueraufkommensmaximierung, eine optionale formelbasierte Gewinnbesteuerung die unkooperativ gewählten Steuersätze und das nationale Steueraufkommen für beide Länder erhöht. Basierend auf den Modellannahmen wird sogar das Niveau der ausschließlichen Formelbesteuerung erreicht, da bei gleichen Steuersätzen der Vorteil der besseren Gewinnverschiebungsmöglichkeiten irrelevant wird und nur die Ersparnis der unfreiwilligen Befolgungskosten als Entscheidungskriterium wirkt. In unserer Analyse führt die Optionalität der GKKB zu einer Effizientverbesserung in den beteiligten Ländern. Somit können wir ein Argument für die Vorteilhaftigkeit des GKKB-Vorschlags innerhalb der EU beitragen. ; DFG, RU 1466/1, Alternative Systeme zur Besteuerung multinationaler Unternehmen in Europa
In the past decades, the issues in real estate have received an increasing amount of attention worldwide. One of the main reasons is that the boom-bust cycles in real estate markets were attributed to the underlying causes of numerous financial crises, such as the Nordic banking crisis in the early 1990s, Japan's "Lost Decade" of 1991–2000, the East Asian Financial Crisis in 1997 and the recent global financial crisis erupted in the American 2007 (Bordo and Jeanne, 2002; Crowe et al., 2013; Hartmann, 2015; Reinhart and Rogoff, 2009). Real estate is deemed to be an important factor in the real economy as it makes a major contribution to GDP and provides prosperity and jobs in most countries. In addition, real estate also plays a crucial role in the financial system, since construction projects and residential property purchases are usually credit-financed. Leveraged banks rely heavily on real estate collateral to reduce the risk of much f their household and commercial lending. A widespread downturn in property prices will have a severe impact on the financial stability. Since the explosion of the global financial crisis in 2007, a considerable number of economic models and methods have been designed specifically to anatomize the root causes and key events of it. As a part of the growing body of literature, the focus of this study centres on the old question of what we can learn from this crisis. However, this thesis attempts to provide different insights by employing a newly developed empirical method and economic concepts. There are several lessons that we can learn from the financial crisis. First, countries should watch for early warning and now-casting hints signalling a future crisis. As the crisis in many countries was caused by excessive increases in property prices and/or rapid credit growth, one of the major tasks is to develop renewed empirical methods and econometric tests to detect excessive asset price developments. Meanwhile, these methods are of particular importance in the sense of macroprudential policy. Broadly speaking, macroprudential policy is seen as aiming at financial stability. In terms of the specific goals of macroprudential policy, the general view is that it is all about limiting the risk and costs of systemic crises. Since boom-bust cycles in real estate markets have been major factors in systemic financial crises and therefore need to be at the forefront of macroprudential policy (Hartmann, 2015). Against this background, we employ the newly developed recursive unit root tests to spot the beginning and the end of potential speculative bubbles in the Chinese and German housing price cycle. Because both countries have experienced large markup in the aftermath of the global financial crisis of 2007-2009, there are increasing worries that they might be destined to a similar fate. Nevertheless, we find that actual house prices are not to be disconnected significantly from underlying economic fundamentals and there is no evidence of an emerging speculative housing bubble at the present time in China and Germany. Further to this, we also investigate house price developments across other OECD countries. In contrast to Germany, the majority of OECD countries, such as Ireland, New Zealand, Spain, the Netherlands, the UK and the US, have experienced strong house price growth in the early 2000s, which cumulated in 2007–2008 into an astounding burst of speculative house price bubbles. Aiming to assess the genuine validity and reliability of the univariate screening toolkit, we also provide the test statistics for these countries. The test results deliver timely warnings of underlying misalignments, vulnerabilities and tail risks that predisposed the international housing market to the financial crisis in 2007–2009. The second lesson we could learn is that policymakers should also be mindful of the channels through which the financial crisis erupted. Since the explosion of the crisis in 2007, most of the blame has been placed on the regulatory authorities and investment banks. Nevertheless, in the instance of the subprime mortgage catastrophe, we should not point the finger only at them. Rather, this crisis was the collective creation of the world's central banks, homeowners, mortgage lenders and investors (Petroff, 2007). Against this background, this thesis also attempts to scrutinize the housing investment behaviour of households. Based on Coeurdacier et al.'s(2011) earlier work, we develop a stylised stochastic model to show that risky steady state house prices have a significant impact on housing investment choice. With increasing risk from aggregate income, the financial market and the housing market, the model predicts that agents tend to invest more in housing and financial assets. We also address the issue of housing investment from the perspective of housing affordability in a dynamic life-cycle modelling framework. The main purpose is to assess quantitatively the impact of the affordability constraints on households' optimal consumption, mortgage, portfolio choices and poverty status over the lifetime. Meanwhile, we also investigate the interaction between borrower-based macroprudential policies and social policies aimed at improving poverty and fostering home ownership and credit availability. Through studies of different scenarios, we find that the affordability constraints are crucial determinants of households' investment behaviour and their poverty status in both prime and subprime mortgage markets. Moreover, the sensitivity analysis implies that in light of the age profile of households and features of mortgage credit markets, the magnitudes of the borrower-based macroprudential policies are needed to be carefully assessed in order to minimise the potential conflicts with other social policies. ; In den vergangenen Jahrzehnten haben die Immobilienprobleme zunehmende Aufmerksamkeit weltweit erhalten. Einer der Hauptgründe dafür ist, dass der Boom-Bust-Zyklus auf den Immobilienmärkten den eigentlichen Ursachen der zahlreichen Finanzkrisen zugeordnet wurde, wie zum Beispiel der nordischen Bankenkrise in den frühen 1990er Jahren, Japans "verlorenem Jahrzehnt" von 1991 bis 2000, der ostasiatischen Finanzkrise im Jahr 1997 und der jüngsten globalen Finanzkrise, die in Amerika 2007 ausbrach (Bordo and Jeanne, 2002; Crowe et al., 2013; Hartmann, 2015; Reinhart and Rogoff, 2009). Immobilien gelten als ein wichtiger Faktor in der Realwirtschaft, da sie einen wichtigen Beitrag zum BIP leisten und zu Wohlstand und Arbeitschancen in den meisten Ländern beitragen. Darüber hinaus spielen Immobilien auch eine entscheidende Rolle im Finanzsystem, da Bauvorhaben und der Kauf von Wohneigentum in der Regel mit Hilfe von Krediten finanziert werden. Mit Fremdkapital finanzierte Banken verlassen sich stark auf Immobiliensicherheiten, um das Risiko der Privathaushalts- und Gewerbekredite zu reduzieren. Ein umfassender Rückgang der Immobilienpreise hat einen starken Einfluss auf die Stabilität des Finanzsystems. Seit dem Ausbruch der globalen Finanzkrise im Jahr 2007, wurden eine beträchtliche Anzahl von Wirtschaftsmodellen und Methoden speziell entwickelt, um die Ursachen und deren Schlüsselereignisse analysieren zu können. Als Teil der wachsenden Ansammlung von Literatur fokussiert sich diese Studie auf die alte Frage, was wir aus dieser Krise lernen können. Diese Doktorarbeit versucht allerdings unterschiedliche Einblicke durch Einsatz einer neu entwickelten empirischen Methode und wirtschaftlicher Konzepte anzubieten. Es gibt einige Lektionen, die wir aus der Finanzkrise lernen können. Zunächst sollten die Länder die Frühwarnungen und kurzfristigen Hinweise, die eine künftige Krise signalisieren, dringend beachten. Da die Krise in vielen Ländern von übermäßigem Immobilien-Preisanstieg und/oder rasantem Kreditwachstum verursacht wurde, ist es eine der wichtigsten Aufgaben, erneuerte empirische Methoden und ökonometrische Tests zu entwickeln, um einen übermäßigen Anstieg der Vermögenspreise zu erkennen. Zugleich sind diese ökonometrischen Tests im Sinne der makroprudenziellen Politik von besonderer Bedeutung, weil Boom-Bust-Zyklen an den Immobilienmärkten die Hauptfaktoren in systemischen Finanzkrisen darstellen (Hartmann, 2015). Allgemein gesprochen kann makroprudenzielle Politik als Ausrichtung auf Finanzstabilität gesehen werden. In Bezug auf die spezifischen Ziele der makroprudenziellen Politik ist die allgemeine Sicht, dass es sich um die Begrenzung der Risiken und Kosten der systemischen Krisen handelt. Vor diesem Hintergrund verwenden wir die neu entwickelten rekursiven Einheitswurzeltests, um den Anfang und das Ende der möglichen Spekulationsblasen im chinesischen und deutschen Immobilienpreiszyklus herauszufinden. Da beide Länder starke Preiserhöhungen nach der globalen Finanzkrise von 2007-2009 erlebt haben, gibt es zunehmende Sorge, dass ihnen ein ähnliches Schicksal bestimmt sein könnte. Allerdings finden wir, dass die aktuellen Immobilienpreise nicht von den wirtschaftlichen Fundamentalfaktoren deutlich zu trennen sind, und es gibt zurzeit keine Hinweise auf eine aufkommende spekulative Immobilienblase in China und Deutschland. Überdies haben wir Immobilienpreisentwicklung in den anderen OECD-Ländern geprüft. Im Gegensatz zu Deutschland haben die meisten OECD-Länder, wie Irland, Neuseeland, Spanien, die Niederlande, Großbritannien und die USA, ein starkes Immobilienpreiswachstum in den frühen 2000er Jahren erlebt, das in den Jahren 2007-2008 kumulierte und zu dem erstaunlichen Platzen von spekulativen Immobilienpreisblasen geführt hat. Um die echte Gültigkeit und Zuverlässigkeit des eindimensionalen Screening-Toolkit zu belegen, legen wir auch die Untersuchungsstatistiken für diese Länder vor. Der Untersuchungsnachweis liefert rechtzeitige Warnungen vor zugrunde liegender Falschausrichtung, Schwachstellen und Restrisiken, die den internationalen Immobilienmarkt in der Finanzkrise der Jahre 2007-2009 fehlgelenkt haben. In der zweiten Lektion erfahren wir, dass die politischen Entscheidungsträger sich der Kanäle bewusst sein sollten, durch die die Finanzkrise ausgebrochen ist. Seit dem Ausbruch der Krise im Jahr 2007 wurden die Vorwürfe überwiegend gegen die Regulierungsbehörden und Investmentbanken erhoben. Dennoch sollten wir im Falle der Subprime-Hypothekenkrise nicht nur mit dem Finger auf diese zeigen. Diese Krise war eigentlich die kollektive Erschaffung der weltweiten Zentralbanken, Hausbesitzer, Kreditgeber und Investoren (Petroff, 2007). Vor diesem Hintergrund versucht diese Arbeit auch das Investitionsverhalten der Haushalte in Immobilien eingehend zu untersuchen. Basierend auf Coeurdacier et al.'s (2011) früherer Arbeit entwickeln wir einem stilisierten stochastischen Modell um zu zeigen, dass riskante stationäre Immobilienpreise einen wesentlichen Einfluss auf das Wahlverhalten bei Immobilieninvestition haben. Mit zunehmendem Risiko aus dem Gesamteinkommen, dem Finanzmarkt und dem Immobilienmarkt prognostiziert das Modell, dass Agenten tendenziell mehr in Immobilien und Finanzanlagen investieren. Wir befassen uns auch mit der Frage der Immobilieninvestitionen aus der Sicht der Immobilienerschwinglichkeit in einem dynamischen Lebenszyklus des Modellierungsrahmens. Der Hauptzweck besteht darin, die Auswirkungen der Erschwinglichkeitsbeschränkungen auf den optimalen Konsum, die Portfolioauswahl, die Hypothek und den Armutsstatus der privaten Haushalte über die gesamte Lebensdauer quantitativ zu beurteilen. Außerdem untersuchen wir auch die Interaktion zwischen Kreditnehmerbasierte makroprudenzielle Maßnahmen und sozialpolitischen Maßnahmen zur Verbesserung der Armut und zur Förderung von Wohneigentum sowie Kreditverfügbarkeit. Durch Untersuchungen von verschiedenen Szenarien verdeutlichen die Ergebnisse der Modellkalibrierung, dass die Erschwinglichkeitseinschränkungen entscheidende Faktoren für Investitionsverhalten der Haushalte und ihren Armutstatus im Prime und im Subprime-Hypothekenmarkt sind. Darüber hinaus impliziert die Sensitivitätsanalyse, dass angesichts des Altersprofiles von Haushalten und die Grundzüge von Hypothekenmärkten die Einflußgrößen der Kreditnehmerbasierten makroprudenziellen Maßnahmen sorgfältig beurteilt werden müssen, um mögliche Konflikte mit anderen Sozialpolitiken zu minimieren.
(Siehe dazu auch das downloadbare PDF-Dokument zu dieser Studie)
Die Entwicklung der regionalen Wirtschaft, des Handels und damit des Wohlstands hängen eng mit der zur Verfügung stehenden Verkehrsinfrastruktur zusammen. Der Verkehrssektor sorgt für die Mobilität von Personen sowie den effizienten Austausch von Gütern und Nachrichten und lässt die Bedeutung räumlicher Distanzen in den Hintergrund treten. Hierbei sind sämtliche Bereiche des Verkehrs- und Informationswesens von Bedeutung. In verschiedenen Studien konnten große wirtschaftliche Modernisierungseffekte für die frühe Neuzeit durch die Entwicklung des Postverkehrs in festen Fahrplänen sowie den Bau von Chausseen nachgewiesen werden. Die Innovationen im Bereich der Telekommunikation beschleunigen den Austausch von Informationen um ein Vielfaches, frühere Technologien werden ergänzt oder sogar vollkommen ersetzt durch neue Formen der Informationsvermittlung. (Ein Beispiel ist das Telegramm, das Ende des 19. Jh. und Anfang des 20. Jh. eine hilfreiche und schnelle Form der Nachrichtenübermittlung war, da es wenig Telefone gab und die Briefe eine Laufzeit von ca. 4 Tagen hatten. Im 21. Jh. werden Telegramme nur selten eingesetzt. Das Telegramm hat an Bedeutung verloren, da das Kommunikationsnetz ausgebaut wurde und mittlerweile modernere Möglichkeiten der Datenübertragung wie z.B. SMS, E-Mail, Instant Messaging, zur Verfügung stehen.) Später wurden hinsichtlich der Entwicklung und des Ausbaus des Eisenbahnverkehrs ähnliche Effekte für den Warenhandel und die Integration von Regionen in den überregionalen nationalen Markt und in den Welthandel für die Zeit der industriellen Revolution nachgewiesen. Es soll versucht werden, die quantitative Entwicklung von Indikatoren zu den verschiedenen Verkehrsbereichen Eisenbahn, Kraftfahrzeuge, Binnen- und Seeschifffahrt, Luftverkehr sowie Post- und Nachrichtenverkehr über einen möglichst langen Zeitraum wiederzugeben, um so aufbereitete Zeitreihen der Forschung zur Verfügung zu stellen.
Die vorliegende Datensammlung zum Themenbereich 'Verkehr und Information' enthält insgesamt 75 Zeitreihen, die sich auf den Zeitraum vom Beginn der Amtlichen Statistik zur Zeit des Deutschen Reiches im Jahr 1870 bis zur heutigen Bundesrepublik in den Grenzen vom 3. Oktober 1990 erstrecken; es soll also, soweit es die Quellen erlauben, der Zeitraum von 1870 bis 2010 statistisch wiedergegeben werden. Aufgrund der sich häufig ändernden Erhebungssystematiken sowie durch die Folgen des 1. und des 2. Weltkrieges können nicht für alle Zeitreihen kontinuierlich Daten für den gewünschten Zeitraum zur Verfügung gestellt werden. Entweder liegen für die Zeitabschnitte während der Kriege keine Daten vor oder aber die Vergleichbarkeit insbesondere bei unterschiedlicher Erhebungssystematik ist stark eingeschränkt. Letzeres Problem tritt in besonderer Weise für die Statistik aus der Zeit der ehemaligen Deutschen Demokratischen Republik auf, aber auch die Statistik der früheren Bundesrepublik Deutschland (das Gebiet der alten Länder) kann erhebliche Brüche in der Systematik aufweisen. Der technische Fortschritt ist ein weiterer Grund, der das Fortführen kontinuierlicher Zeitreihen erschwert.
Die Zeitreihen zum Bereich 'Verkehr und Information' decken folgende Gebiete ab: • 01: Eisenbahnen: Streckenlängen und Fahrzeugbestände (1850-2009) • 02: Eisenbahnen: Personen- und Güterverkehr (1850-2002) • 03: Straßenverkehr: Bestand an Kraftfahrzeugen (1902-2010) • 04: Straßenverkehr: Straßenverkehrsunfälle (1906-2010) • 05: Binnenschifffahrt: Bestand an Binnenschiffen (1872-2010) • 06: Binnenschifffahrt: Güterverkehr auf den Binnenwasserstraßen (1909-2010) • 07: Seeschifffahrt: Handelsschiffstonnage und Anzahl der Schiffe (1971-2010) • 08: Seeschifffahrt: Güterumschlag bedeutender Seehäfen - Hamburg, Bremische Häfen, Emden sowie Rostock, Wismar und Stralsund (1925-2010) • 09: Gewerblicher Luftverkehr (1919-2010) • 10: Deutsche Reichs- und Bundespost, Telekommunikation (1871-2010)
Zeitreihen zum Kraftfahrzeugverkehr: 03: Strassenverkehr: Bestand an Kraftfahrzeugen (1902-2010) Kraftfahrzeuge insgesamt, Krafträder, Personenkraftwagen, Kraftomnibusse, Lastkraftfahrzeuge, Zugmaschinen, Sonderkraftfahrzeuge, Bevölkerung in 1000, Krafträder auf 1000 Einwohner, Personenkraftwagen auf 1000 Einwohner, Lastkraftfahrzeuge auf 1000 Einwohner.
Zeitreihen zur Binnenschifffahrt: 05: Bestand an Binnenschiffen (1872-2010) Güterschiffe mit eigener Triebkraft (Anzahl), Güterschiffe mit eigener Triebkraft (Tragfähigk. in 1.000 t), Güterschiffe ohne eigene Triebkraft (Anzahl), Güterschiffe ohne eigene Triebkraft (Tragfähigk. in 1.000 t).
06: Güterverkehr auf den Binnenwasserstraßen (1909-2010) Beförderte Güter (Mill. T.). Zeitreihen zur Seeschifffahrt: 07: Handelsschiffstonnage und Anzahl der Schiffe (1871-2010) Insgesamt, Anteil an Welthandelstonnage, Anzahl der Schiffe.
08: Güterumschlag bedeutender Seehäfen - Hamburg, Bremische Häfen, Emden sowie Rostock, Wismar und Stralsund (1925-2010)
Zeitreihen zur Luftfahrt: 09: Gewerblicher Luftverkehr (1919-2010) Für deutsche Flughäfen: Beförderte Personen, Beförderte Luftfracht, Beförderte Luftpost. Für deutsche Fluggesellschaften: Beförderte Personen, Personenkilometer (Pkm), Beförderte Luftfracht, Beförderte Luftfracht in Tonnenkilometer (Tkm), Beförderte Luftpost, Beförderte Luftpost in Tonnenkilometer (Tkm)
Zeitreihen zum Post- und Telekommunikationswesen: 10: Deutsche Reichs- und Bundespost, Telekommunikation (1871-2010) Für das Deutsche Reich, die Alten Länder und die Neuen Länder bis 1990: Beförderte Briefsendungen, Beförderte Paket- und Wertsendungen, Übermittelte Telegramme, Sprechstellen (Telefonanschlüsse), Ortsgespräche, Ferngespräche, Ton-Rundfunkgenehmigungen (Radioempfang), Fernseh-Rundfunkgenehmigungen. Für Deutschland in den Grenzen vom 3. Oktober 1990 ab 1990: Beförderte Briefsendungen, Beförderte Paket- und Wertsendungen, Übermittelte Telegramme, Sprechstellen (Kanäle) - Alle Service-Anbieter, Sprechstellen (Kanäle) - Dt. Telekom, Sprechstellen (Kanäle) - Wettbewerber der Telekom, Sprechstellen (Telefon-Anschlüsse) - Alle Service-Anbieter, Sprechstellen (Telefon-Anschlüsse) - Deutsche Telekom, Sprechstellen (Telefon-Anschlüsse) - Wettbewerber der Telekom, Mobilfunk, Teilnehmer, Verbindungsvolumen im Festnetz(in Mrd. Minuten; zuvor: Summe Ortsgespräche bzw. Ferngespräche) - Alle Service-Anbieter, Verbindungsvolumen im Festnetz(in Mrd. Minuten) - Dt. Telekom, Verbindungsvolumen im Festnetz(in Mrd. Minuten) - Wettbewerber, TAL-Anmietungen durch Wettbewerber der Deutschen Telekom (Mio Anmietungen), Ortsgespräche, Ferngespräche, Ton-Rundfunkgenehmigungen, Fernseh-Rundfunkgenehmigungen.
Zu den einzelnen Bereichen
Die Eisenbahn Die Frage, ob die Eisenbahn als Staatsbahn oder als privat betriebenes Unternehmen geführt werden soll, begleitet die Eisenbahn schon seit ihren ersten Jahren. Vor allem in den wichtigen Handels- und Industriestädten werden in Deutschland private Aktiengesellschaften gegründet, um den Bau von Eisenbahnstrecken zu finanzieren. Dagegen setzt man in Baden und Braunschweig von Beginn an auf das Staatsbahnsystem. 1886 übernimmt schließlich der preußische Staat die bedeutende "Rheinische Eisenbahngesellschaft". Nach Ende des ersten Weltkrieges 1918 wurde die erste Verfassung eines demokratischen Staates, die Weimarer Verfassung 1919 für das Deutsche Reich beschlossen. Auf Grundlage dieser Verfassung wurde 1920 der Staatsvertrag zur Gründung der Deutschen Reichseisenbahnen in Kraft gesetzt. Die bis dahin noch den Ländern unterstellten staatlichen Eisenbahnen (bzw. Länderbahnen) gingen jetzt in Reichsbesitz über. Im Einzelnen waren dies: die Königlich Bayerischen Staats-Eisenbahnen, die Königlich Sächsischen Staatseisenbahnen, die Königlich Württembergischen Staats-Eisenbahnen, die Großherzoglich Badischen Staatseisenbahnen, die Preußischen Staatseisenbahnen, die Preußisch-Hessische Eisenbahngemeinschaft "K.P. u. G.H. StE", die Großherzoglich Oldenburgischen Staatseisenbahnen und die Großherzoglich Mecklenburgische Friedrich-Franz-Eisenbahn. (Vergl.: http://de.wikipedia.org/wiki/Deutsche_Reichsbahn_%281920%E2%80%931945%29) Neben dieser Entwicklung waren in Deutschland immer sowohl staatseigene als auch private Bahnen tätig. Für die Zeit des Deutschen Reiches, für die ehemalige Bundesrepublik (alte Länder) sowie für Deutschland nach dem 1. Oktober 1990 werden daher die Angaben zu den aufgeführten Beständen jeweils für alle Bahnen zusammen und für die Staatsbahn im speziellen aufgeführt (d.i. Deutsche Reichsbahn, Deutsche Bundesbahn). Zu der Entstehungsgeschichte der einzelnen deutschen Bahnen sowie den Entscheidungsphasen sind wertvolle Hinweise aus R. Fremdling und A. Kunz: Statistik der Eisenbahnen in Deutschland 1835 – 1989. Scripta Mercaturae Verlag, 1995, S. 19ff. zu entnehmen.
01: Eisenbahnen: Streckenlängen und Fahrzeugbestände (1850-2009) Dieser Abschnitt enthält Zeitreihen zur Länge der Schienenstrecken und den Fahrzeugbeständen, die sich aufgliedern in Lokomotiven, Triebwagen, Personenwagen, Gepäckwagen und Güterwagen. Angaben für alle Bahnen zusammen zur Zeit des Deutschen Reiches sowie für die staatseigene Bundesbahn der ehemaligen Bundesrepublik Deutschland in den Grenzen von 1945 wurden – mit Ausnahme der Reihe zu den Triebwagen – bereits von R. Fremdling und A. Kunz im Rahmen ihrer Studie "Statistik der Eisenbahnen in Deutschland 1835 – 1989. Scripta Mercaturae Verlag, 1995" erhoben. Sie decken den Zeitraum 1850-1932 für das Deutsche Reich und 1950-1989 für die Alten Länder (also die ehemalige Bundesrepublik) ab. Ergänzt wurden diese Reihen für 1938 bis 1940 aus den Statistischen Jahrbüchern für das Deutsche Reich bzw. für 1989 bis1993 aus den Statistischen Jahrbüchern für die Bundesrepublik Deutschland. Zusätzlich zu den Reihen von Fremdlung/ Kunz wurden in dieser Studie für die entsprechenden Werte zur Länge des Schienennetzes sowie zum Fahrzeugbestand speziell für die staatliche Bahn des Deutschen Reiches, also für die Deutsche Reichsbahn, sowie für alle Bahnen der Bundesrepublik bis 1993 zusammengestellt. Für die Zusammenstellung der Streckenlängen und Fahrzeugbestände wurde daher sowohl auf die Ergebnisse dieser Studie als auch auf die Publikationen des Statistischen Bundesamtes zurückgegriffen. Für die neuen Länder können für die Zeit der ehemaligen DDR nur zur Staatsbahn – also zu der Deutsche Reichsbahn – Angaben gemacht werden, da es zur Zeit der DDR keine privaten Bahnen gab. Neben dem Statistischen Jahrbuch für die DDR wurden hier die von dem Statistischen Bundesamt herausgegebenen Sonderreihen mit Beiträgen für das Gebiet der ehemaligen DDR und die darin enthaltenen verkehrsstatistischen Übersichten herangezogen. Für die ersten Jahre nach der Wiedervereinigung werden noch Werte für die Gebiete der alten Bundesrepublik und der ehemaligen DDR in den Statistischen Jahrbüchern für die Bundesrepublik Deutschland gesondert ausgewiesen. Ab 1994 werden die Bestände nur noch für Gesamtdeutschland nachgewiesen, so dass die Datenreihen jeweils für die Neuen Länder und die Alten Länder mit dem Jahr 1990, spätestens 1993 enden und nur noch für Deutschland in den Grenzen vom 3. Oktober 1990 fortgeführt werden können. Die Schienenstrecken werden als Eigentumslänge mit Stand am Ende des jeweiligen Kalenderjahres wiedergegeben. Der Fahrzeugbestand bezieht sich immer auf den Stand am Ende des Rechnungs- bzw. Betriebsjahres. Bis 1937 werden Eigentumsbestände der Bahnen ausgewiesen. Anschließend beziehen sich die Werte auf den Einsatzbestand, d.h., in den angegebenen Werten können auch von anderen Bahngesellschaften für den eigenen Bahnbetrieb geliehene Bestände mit enthalten sein. Die Bahn durchlief grundlegende technische Veränderungen. In den alten Ländern, dem Tätigkeitsgebiet der Deutschen Bundesbahn, wurden sukzessiv bis 1977 alle Dampflokomotiven durch Elektro- und Diesellokomotiven ersetzt. Die Schienenstreckentypen wurden vereinheitlicht (vollständiger Abbau von Schienenstrecken für Schmalspurbahnen). Neue Wagentypen und Zugtypen (InterCity, TransEuroExpress) wurden eingeführt. Dies alles kann im Rahmen der vorliegenden Studie nicht detailliert in Form von statistischen Zeitreihen nachgezeichnet werden, da dies den zeitlichen Rahmen des Projektes sprengen würde. Die technischen Veränderungen insbesondere im Bereich der Fahrzeugbestände, und hier besonders in Bezug auf die Triebwagen (Lokomotiven, etc.) haben zu einer Veränderung der Systematik geführt. Um die Darstellung der Reihen möglichst konstant zu gestalten, wurden neu hinzugekommene Triebwagentypen bzw. weiter ausdifferenzierte Wagentypen, die in der Statistik gesondert aufgeführt wurden, soweit es möglich war, zu Oberbegriffen zusammengefasst. Dies wird in den jeweils betreffenden Zeitreihen für den Zeitraum, auf den diese Vorgehensweise angewendet wurde, in den Anmerkungen kenntlich gemacht. So werden ab 1990 im Statistischen Jahrbuch für die Bundesrepublik Deutschland unter dem Oberbegriff 'Triebwagen' die Kategorien 'Elektrische Lokomotiven', Diesellokomotiven', 'Elektrische Triebwagen' und 'Dieseltriebwagen' gesondert aufgeführt. Der Bestand der Lokomotiven wurde für die Vademecum-Studie durch die Aufaddierung der Kategorien 'Elektrische Lokomotiven' und 'Diesellokomotiven' erfasst. Dampflokomotiven wurden so lange erfasst, wie sie auch in den Statistischen Jahrbüchern der Bundesrepublik aufgeführt wurden. Für die Triebwagen wurde jeweils die Summe aus ´Elektrische Triebwagen´ und ´Dieseltriebwagen´ gebildet.
02: Eisenbahnen: Personen- und Güterverkehr (1850-2002) Neben dem Fahrzeugbestand stellt die Leistung in den Bereichen der Personenbeförderung und der Güterbeförderung eine bedeutende betriebswirtschaftliche sowie verkehrsstatistische Größe dar. Der gemäß vergebenen Aufträgen durchgeführte Transport von Gütern inklusive der Be-, Um- und Ausladung, beinhaltet eine Vielzahl von Verkehrsunterstützungs-, Verkehrsvermittlungs- und Verkehrskoordinierungsprozessen. Zum einen kann die Verkehrsleistung in den absoluten Werten ausgedrückt werden, d.h. die Anzahl der transportierten Personen bzw. das Gewicht der transportierten Güter. Statistisch wird die Verkehrsleistung mit Hilfe einer Kennzahl zum Ausdruck gebracht, die für den Personentransport die Dimension »Pkm (Personenkilometer)« (= Personen X Kilometer) und für den Gütertransport die Dimension »tkm (Tonnenkilometer)« (= Tonnen X Kilometer) hat. Das Produkt aus der zurückgelegten Strecke und der Menge der transportierten Güter bzw. der beförderten Personen wird als 'Aufwandsgröße' im Transportwesen verstanden. Diese vier Größen werden jeweils für alle Bahnen zusammen sowie für die Deutsche Reichsbahn/Deutsche Bundesbahn im speziellen dargestellt – wobei für die neuen Bundesländer Angaben nur für die Deutsche Reichsbahn erhältlich sind. Auch hier kann für die Zeit des Deutschen Reiches auf die Studie von Fremdling und Kunz für alle Bahnen zusammen zurückgegriffen werden. Für die Deutsche Reichsbahn im speziellen werden die Angaben des Statistischen Reichsamtes in den herausgegebenen Jahrbüchern herangezogen. Für das Gebiet der alten Bundesländer stellen Fremdling und Kunz Kennzahlen für die Deutsche Bundesbahn zur Verfügung. Dementsprechend werden die Kennzahlen für alle in der Bundesrepublik Deutschland (Alte Länder) tätigen Bahnen zusätzlich aus der amtlichen Statistik erhoben.
Der motorisierte Strassenverkehr: Rainer Flik beschreibt in seinen Arbeiten "Motorisierung des Straßenverkehrs, Automobilindustrie und Wirtschaftswachstum in Europa und Übersee bis 1939" (in: M. Lehmann-Waffenschmidt (Hg., 2002): Perspektiven des Wandels - Evolutorische Ökonomik in der Anwendung. Metropolis – Verlag für Ökonomie.) und insbesondere "Von Ford lernen? Automobilbau und Motorisierung bis 1933. Köln: Böhlau, 2001" die Ursachen für die verzögerte Durchsetzung des Automobils als Transportmittel sowie die verspätete Motorisierung der deutschen Bevölkerung. Es waren seiner Analyse zu Folge die schlechteren Rahmenbedingungen für den Automobilmarkt und weniger Unterschiede in den Bedürfnissen der Bevölkerung oder im Unternehmerverhalten, die dem Automobil in Deutschland zunächst zum Nachteil gereichten. In den dicht besiedelten und durch die Eisenbahn und Strassenbahn (sog. Pferdeomnibusse und Pferdebahnen, später um 1880 sukzessive ersetzt durch die Elektrische Stadt- bzw. Strassenbahn) gut erschlossenen Ballungsräumen Deutschlands spielte zunächst das Automobil für die Wirtschaft und den Transport der Güter eine untergeordnete Rolle. Darüber hinaus waren hohe Investitionskosten für den Ausbau von Strassen notwendig, während die Schienenstrecken für die Eisenbahn in den deutschen Großstädten schon vorhanden waren. Daher wurde auch durch die Besteuerungspraxis des Staates das Automobil gegenüber der Eisenbahn zunächst benachteiligt, was zur Folge hatte, dass die Motorisierung des Mittelstandes langsamer verlief als beispielsweise in den USA. Erst in den 1920er Jahren hat das Lastkraftfahrzeug in den Ballungsräumen sich als Transportfahrzeug durchsetzen können, während der Personenkraftwagen noch als teures Luxusgut nur wenigen wohlhabenden Personen zugänglich war. Dagegen spielte das Motorrad für die Motorisierung der deutschen Bevölkerung eine entscheidende Rolle. Deutschland hatte in den 30er Jahren die höchste Motorraddichte und war der bedeutendste Motorradproduzent auf dem Weltmarkt. Als das Automobil technisch ausgereift war und die für den wirtschaftlichen Betrieb notwendige Infrastruktur geschaffen war, konnte sich der Diffusionsprozess schneller und erfolgreicher entfalten. Flik unterscheidet in dem Diffusionsprozess des Automobils in Deutschland drei Stadien: Motorisierung der Oberschicht, Motorisierung des Gewerbe treibenden Mittelstandes und schließlich die Massenmotorisierung (Flik, R.: 2005: Nutzung von Kraftfahrzeugen bis 1939 – Konsum- oder Investitionsgut? In: Walter, R. (Hrsg.): Geschichte des Konsums. Erträge der 20. Arbeitstagung der Gesellschaft für Sozial- und Wirtschaftsgeschichte, 23-26. April 2003 in Greifswald. Stuttgart: Franz Steiner). Für die Zeitreihen zum Kraftfahrzeugbestand in Deutschland wird auf die Studiendaten von Flick zurückgegriffen, welche durch Daten der amtlichen Statistik (Statistisches Bundesamt und Kraftfahrt-Bundesamt) ergänzt werden. Ein weiteres Kapitel (Tabelle 04) zeichnet die Entwicklung der Strassenverkehrsunfälle statistisch nach.
03: Bestand an Kraftfahrzeugen (1902-2010) Der Bestand der Kraftfahrzeuge nach Kraftfahrzeugtyp spiegelt die Durchsetzung dieses Verkehrsmittels wieder. Es liegen Zeitreihen zum Bestand der Kraftfahrzeuge insgesamt und Kraftfahrzeuge untergliedert nach den Typen Motorrad, Personenkraftwagen, Kraftomnibusse, Lastkraftfahrzeuge, Zugmaschinen und schließlich Sonderkraftfahrzeuge vor. Weiterhin werden der Bestand an Motorrädern, Personenkraftwagen und Lastkraftwagen pro 1000 Einwohner wiedergegeben. Aufgrund vorgenommener Korrekturen können die Werte zu den einzelnen Reihen zwischen den verschiedenen Ausgaben der statistischen Jahrbücher abweichen. Da Flik sich in seiner Studie auf die Angaben der amtlichen Statistik stützt, wurden Werte des Statistischen Bundesamtes dann den Werten von Flik vorgezogen, wenn diese Publikationen neueren Datums sind und von den Angaben bei Flik abweichen. Für das Deutsche Reich sind die Angaben auf den jeweiligen Gebietsstand Deutschlands bezogen. Das Saarland ist von 1922 bis 1935 nicht eingeschlossen. Die Angaben für 1939 beruhen auf einer Fortschreibung des Kraftfahrzeugbestands von 1938 und schließen die 1938 und 1939 dem Deutschen Reich angeschlossenen Gebiete nicht ein. Die Daten geben den Bestand jeweils zum 1. Januar wieder. Ferner wird bis 1933 der Bestand ohne vorübergehend abgemeldete Fahrzeuge, ab 1934 inklusive der vorübergehend abgemeldeten Kraftfahrzeuge angegeben. Bis 1914 wurde in der Erfassung zwischen Personenkraftwagen und Kraftomnibussen keine Unterscheidung getroffen, so wurden beide in der Kategorie Personenkraftwagen wiedergegeben. Unter der Rubrik 'Sonderkraftfahrzeuge' werden Fahrzeuge der Kommunen (Kommunalfahrzeuge) aufgeführt, wie z.B.: Straßenreinigungsmaschinen, Feuerwehrfahrzeuge, sowie ab 1948 Krankenwagen. Weiterhin werden Abschlepp- u. Kranwagen sowie Wohnwagen u. ähnliche Fahrzeuge dieser Kategorie zugeordnet. Der Kraftfahrzeugbestand insgesamt für das Gebiet der alten Länder (ehemalige Bundesrepublik) wurde aus den Daten zu den einzelnen Fahrzeugtypen berechnet. Die Werte für die neuen Länder bzw. für die ehemalige DDR sind für die Zeit bis 1989 den Statistischen Jahrbüchern für die DDR entnommen worden. Für die Zeit von 1990-1994 wurde die Publikation 'Verkehr in Zahlen', vom Bundesministerium für Verkehr, Bau und Stadtentwicklung herausgegeben, herangezogen. Bei der Erfassung der Sonderkraftfahrzeuge und der Kraftomnibusse wurde in der Statistik der ehemaligen DDR 1978 eine neue Systematik eingeführt, in der einige Fahrzeugtypen den jeweiligen Obergruppen neu zugeordnet wurden. Das hat in den beiden Fahrzeug-Gruppen zu einer starken Erhöhung der Fahrzeug-Anzahl geführt. Es muß dennoch festgehalten werden, dass der Anstieg der Fahrzeuge um 28000 bzw. 30000 Fahrzeuge von einem Jahr auf das andere sich nicht aus den Veränderungen der Fahrzeugbestände der anderen Fahrzeugtypen erklären lässt, so dass der Hinweis auf eine veränderte Systematik sich nicht in den Zahlen der Datenreihen wiederspiegelt.
04: Straßenverkehrsunfälle (1906-2010) Insbesondere das Automobil hat den einzelnen Bürgern in der Gesellschaft in jüngster Zeit einen enormen Mobilitätszuwachs beschert. Im Laufe der Zeit konnten immer größere Teile der Bevölkerung am Individualverkehr partizipieren. Die Kehrseite der Mobilität einer ganzen Gesellschaft sind die Unfälle mit den Verletzten und Getöteten. Durch die massenhafte Verbreitung motorisierter Fahrzeuge, die sich im selben Verkehrsraum wie Pferde und Fuhrwerke, Fußgänger oder Radfahrer bewegen, steigt die Unfallwahrscheinlichkeit stark an. Auch die Geschwindigkeit der motorisierten Verkehrsmittel erhöht die Unfallwahrscheinlichkeit und die Schwere der Unfälle, den Personen- und Sachschaden enorm. Darüber hinaus hat die Strassenverkehrssicherheit und damit die Zuverlässigkeit, mit der Güter schnell und sicher transportiert werden können und unbeschadet am Zielort ankommen, einen empfindlichen Einfluß auf die wirtschaftliche Entwicklung. Denn der Transport übernimmt eine bedeutende Funktion als Wachstumsmotor durch die Erweiterung der Märkte. Eine besondere Zusammenstellung von langen Zeitreihen zur Entwicklung der Strassenverkehrsunfälle erscheint daher sinnvoll. Das Statistische Bundesamt definiert Straßenverkehrsunfälle wie folgt: "Straßenverkehrsunfälle sind Unfälle, bei denen infolge des Fahrverkehrs auf öffentlichen Wegen und Plätzen Personen getötet oder verletzt wurden oder Sachschaden entstanden ist. Auskunftspflichtig für die Statistik der Straßenverkehrsunfälle ist die Polizei. Demzufolge sind Unfälle, zu denen die Polizei nicht gerufen wurde, in der Statistik nicht enthalten. ( In der Unfallstatistik ) … werden Angaben zu Unfällen, Beteiligten, Fahrzeugen, Verunglückten und Unfallursachen erfasst." Statistisches Bundesamt Es wird regelmäßig vom Statistischen Bundesamt ein Heft der Fachserie 8, Reihe 7 mit langen Reihen zu Verkehrsunfällen herausgegeben. Auf der Basis dieser Publikation wurden die Reihen zu der Anzahl der Unfälle, der bei Unfällen Getöteten und der Verletzten zusammengestellt.
Die Schifffahrt
Eine der ersten Verkehrsmittel war die Fortbewegung mit Flößen, später mit Schiffen, zunächst in Ufernähe und auf Flüssen, später auf hoher See. Schon sehr früh wurde der Radius der Fortbewegung erheblich erweitert. Noch bevor die Staaten Europas die Blüte der Hochseeschifffahrt erreichten, haben sie schon die Flüsse als Transportwege für den Handel benutzt. Große Handelsstädte entstanden entlang der großen Flüsse Rhein, Main, Mosel, Donau, Oder, usw. Die Schifffahrt ermöglichte so schon früh den Austausch von Gütern und Ideen, brachte aber auch Auseinandersetzungen über territoriale, wirtschaftliche und militärische Interessen mit sich. Im Laufe der Zeit spezialisierte sich die Schifffahrt in zivile und militärische Bereiche, in Handel und Fischerei. Die Schifffahrt wird im folgenden unterteilt in Binnenschifffahrt und Seeschifffahrt.
05: Bestand an Binnenschiffen (1871-2010) Die Binnenschifffahrt umfasst die Binnen-see-schifffahrt, Flussschifffahrt und Kanalschifffahrt, wobei im Rahmen der vorliegenden Studie auf die Fluss- und Kanalschifffahrt der Schwerpunkt gelegt wird. Binnenfischerei mit Fischerbooten und Transport mit Frachtschiffen auf Binnengewässern machten den Hauptanteil der Binnenschifffahrt aus. Im 17. Jh. wurden noch auf Flößen große Mengen Holz auf den Flüssen nach Holland transportiert. Ende des 18. Jahrhunderts kamen die Treidelschiffe zum Einsatz (Boote und Kähne durch Segel, Ruder, Staken oder Treidel fortbewegt). Mit Erfindung der Dampfmaschine setzten sich Schiffe mit eigener Triebkraft immer stärker in der Binnenschifffahrt durch. Sämtliche Massengüter wurden auf den Binnengewässern transportiert (z.B. Kohle, Erze und Erdölprodukte). Mit dem Ausbau von Binnenwasserstraßen und Schleusen, durch die eine Regulierung des Wasserstandes ermöglicht wurde, kann der Transport über die Binnenwasserstraßen beschleunigt werden. Heute übernimmt die Binnenschifffahrt Massentransporte in vielen Bereichen (Containertransport, Autotransport, etc.). Laut des Bundesverbandes für Deutsche Binnenschifffahrt dominieren Schütt- und greiferfähige Massengüter, wie etwa Baustoffe, Erze, Kohle und Stahl, mit einem Anteil von rund 70 % an der Gesamtmenge das Geschäft der Binnenschifffahrt (http://www.binnenschiff.de/). Für die Hütten- und Stahlindustrie ist die Binnenschifffahrt unentbehrlich. Auch in deutschen und europäischen Logistikketten stellt die Binnenschifffahrt ein unverzichtbares Glied dar. Im Rahmen dieser Studie kann der Bestand der in der Binnenschifffahrt zum Einsatz gekommenen Schiffe nach Schiffstyp nicht wiedergegeben werden, da dies den Rahmen sprengen würde. Einer der einschneidendsten Veränderungen war die Dampfmaschine und damit die Möglichkeit, Schiffe mit eigener Triebkraft zu bauen. Daher wird hinsichtlich des Bestandes der Binnenschiffe zwischen Güterschiffen mit eigener Triebkraft und Güterschiffen ohne eigene Triebkraft unterschieden. Der Bestand der Schiffe wird dargestellt zum einen anhand der Anzahl der Schiffe, zum anderen aber mittels der Tragfähigkeit des Binnenschiffsbestandes in 1000 t. Für das Deutsche Reich und für die Bundesrepublik Deutschland dient als Datenquelle die Studie von Kunz, Andreas (Hrsg.), 1999: Statistik der Binnenschiffahrt in Deutschland 1835-1989. St. Katharinen: Scripta Mercaturae Verlag.; GESIS Köln, Deutschland ZA8157 Datenfile Version 1.0.0; Datentabelle: Bestand an Binnenschiffen. Die Angaben zu den Beständen beziehen sich für die Periode von 1845-1956 auf den 1.1. und ab 1957 auf den 31.12. des jeweiligen Jahres. Zum Teil wurden die Angaben vom Primärforscher geschätzt. Für den Bestand an Binnenschiffen der ehemaligen DDR dient das Statistische Jahrbuch für die DDR, Jg. 1990, S. 260, Tab. ´Registrierter Bestand an Binnenschiffen´ als Datenquelle. Hier werden nur Schiffe mit eigener Triebkraft aufgeführt und es wird der Jahresdurchschnitt berichtet. Aussagen zu Schiffen ohne eigene Triebkraft können nicht gemacht werden. Für Deutschland in den Grenzen von Oktober 1990 wurde das Statistische Jahrbuch für die Bundesrepublik Deutschland als Datenquelle herangezogen. Die Werte beziehen sich immer auf den Stand zum 31.12. des jeweiligen Jahres. Es wurde die Summe aus Gütermotorschiffen und Tankmotorschiffen für Reihe der Schiffe mit eigener Triebkraft gebildet. Schlepper und Schubboote wurden nicht mit einbezogen. Fahrgastschiffe wurden ebenfalls nicht mit einbezogen. Güterschleppkähne und Tankschleppkähne wurden dagegen in die Reihe der Binnenschiffe ohne eigene Triebkraft aufgenommen.
06 Güterverkehr auf den Binnenwasserstraßen (1909-2010) Der Transport von Gütern auf den Binnenwasserstrassen ist ein Indikator für die Leistungs- und Wettbewerbsfähigkeit der Binnenschifffahrt. Bedeutende Einflussfaktoren sind die verfügbaren Höhen der Wasserspiegel der Flüsse und später der Binnenkanäle. Der Bau von Schleusen hat den Transport auf Binnenwasserstraßen entscheidend beschleunigt. Kleinere Flüsse, wie z.B. der Neckar, der Main oder die Mosel wurden durch die Kanalisierung und den Bau von Schleusen erst schiffbar gemacht. Der Bau von Binnenlandkanälen ergänzt die Flüsse, indem zwei Flüsse miteinander verbunden werden (z.B. der Mittellandkanal). Insgesamt wurde durch solche Baumaßnahmen der Umfang der schiffbaren Wasserstraßen entscheidend erhöht. Bei der Erfassung der Transportleistung deutscher Binnenwasserstraßen ist auch der Gütertransport nicht-deutscher Fahrzeuge beteiligt. Für das Deutsche Reich in den Grenzen vom 31.12.1937 wurde für den Zeitraum von 1909-1914 und 1932-1938 die Publikation vom Statistischen Bundesamt: Bevölkerung und Wirtschaft 1872-1972, S. 207 als Quelle herangezogen. Für 1919-1931sind die erhobenen Zeitreihen von Andreas Kunz: Statistik der Binnenschifffahrt in Deutschland 1835-1989; GESIS Köln, Deutschland ZA8157 Datenfile Version 1.0.0., Datentabelle: Verkehrsleistungen auf Binnenwasserstraßen verwendet worden. Auch für die frühere Bundesrepublik Deutschland in den Grenzen von 1949, also die sogenannten Alten Länder, wurde für die Jahre 1936, 1938, 1947 u. 1948 auf die Publikation des Statistisches Bundesamtes: Bevölkerung und Wirtschaft, S. 207 zurückgegriffen. Für 1949-1989 stammen die Werte aus der Studie von A. Kunz (ZA8157 Datenfile Version 1.0.0.). Einbezogen wurden für das Bundesgebiet die Wasserstaßen des Elbegebietes, des Wesergebietes, des Mittellandkanalgebietes, das Westdeutsche Kanalgebiet, das Rheingebiet, das Donaugebiet, sowie Berlin (West). Auch der Durchgangsverkehr auf den deutschen Wasserstrassen wurde mit erfasst. Für den Bereich der ehemaligen DDR bzw. der Neuen Länder wurde auf das Statistische Jahrbuch für die DDR zurückgegriffen. In dieser Reihe werden die Transportwerte inklusive der von der Binnenreederei der DDR beladenen Schiffe anderer Länder berichtet. Ausnahmen bilden die Jahre 1960, 1965, 1970, 1975, 1980 und 1985 bis 1989. Hier werden nur für die deutschen Binnenschiffe die Werte angegeben. Für das wiedervereinte Deutschland stehen die Transportwerte seit 1991 zur Verfügung. Die Werte wurden mittels einer Abfrage vom 15. Februar 2012 von der GENESIS-Online Datenbank ermittelt. (vergleiche: (www-genesis.destatis.de; Abfrage: ´Beförderte Güter (Binnenschifffahrt): Deutschland, Jahre, Hauptverkehrsbeziehungen, Flagge des Schiffes, Güterverzeichnis (Abteilungen)´)
07 Handelsschiffstonnage (1871-2010) Eine leistungsfähige Seeschifffahrt hat schon früh zur Erweiterung der regionalen Märkte beigetragen. Ein Beispiel für die frühe Globalisierung stellt die Hanse dar, die ohne die Seeschifffahrt nicht möglich gewesen wäre. Die zwischen Mitte des 12. Jahrhunderts und Mitte des 17. Jahrhunderts bestehenden Vereinigungen niederdeutscher Kaufleute hatte sich zum Ziel gesetzt, die Sicherheit der Überfahrt zu verbessern und die Vertretung gemeinsamer wirtschaftlicher Interessen besonders im Ausland wahrzunehmen. In den Zeiten ihrer größten Ausdehnung waren beinahe 300 See- und Binnenstädte des nördlichen Europas in der Städtehanse zusammengeschlossen. Eine wichtige Grundlage dieser Verbindungen war die Entwicklung des Transportwesens, insbesondere zur See. Die Kogge, ein bauchiges Handelsschiff, stellte den bedeutendsten größeren Schiffstyp der Hanse dar. Im ausgehenden 14. Jahrhundert wurden die Koggen mehr und mehr von anderen Schiffstypen abgelöst. Im 15. Jahrhundert setzte der Machtverlust der Hanse ein, der unter anderem auch durch die Entdeckung Amerikas ausgelöst wurde. Der bisher dominierende Ostsee-Westsee-Handel (heute Nordsee-Handel) wurde nun in überseeische Gebiete ausgedehnt. Dabei ging nicht etwa das Handelsvolumen der Hanse im eigentlichen Sinne zurück, es entstanden jedoch mächtige Konkurrenten, die die Bedeutung der Hanse für die einzelnen Städte und Kaufleute schwächten (siehe hierzu: http://de.wikipedia.org/wiki/Hanse und Rolf Hammel-Kiesow (2008): Die Hanse, München 4. aktualisierte Auflage). Auch heute ist eine leistungsfähige Seeschifffahrt Voraussetzung für die Globalisierung. Arbeitsteilige Volkswirtschaften sind in starkem Maße vom überseeischen Handel abhängig. Die Handelsschiffstonnage gibt die Transportkapazität in Tonnen einer Handelsflotte an. Bei fortschreitender Technik im Schiffsbau steigt auch die Transportkapazität einzelner Schiffe, was die Wettbewerbsfähigkeit positiv beeinflusst. Die Entwicklung der Handelsschiffstonnage ist somit ein Indikator neben anderen, der die Stellung und Leistungsfähigkeit der nationalen Handelsflotte auf dem Weltmarkt angibt. Die Zusammenstellung der deutschen Handelsschiffstonnage gibt die Tonnage einmal in Bruttoregistertonnen und zum anderen, soweit die entsprechenden Werte aus den Quellen erhoben werden konnten, als Anteil an der Welthandelstonnage wieder. Auch die Anzahl der Handelsschiffe wird angeführt. Das Raummaß Bruttoregistertonne (abgekürzt = BRT) ist die Maßeinheit für die Tragfähigkeit der Seeschiffe. Es wird der gesamte umbaute Schiffsraum vermessen (Bruttoraumgehalt bzw. Bruttotonnage). Seit dem 1. Juli 1994 wird der Raumgehalt eines Schiffes in Bruttoraumzahl (BRZ) und Nettoraumzahl (NRZ) berechnet. Die Angaben für das Deutsche Reich beziehen sich auf das Reich in seinen jeweiligen Grenzen. Als Quellen wurde das Statistische Jahrbuch für das Deutsche Reich sowie die Publikation "Bevölkerung und Wirtschaft" des Statistischen Bundesamtes herangezogen. Ab 1900 geben die Werte den Stand zum 1. Juli des jeweiligen Jahres an. Für die Alten Länder bzw. das Gebiet der ehemaligen Bundesrepublik Deutschland wurden die Werte aus der Publikation "Verkehr in Zahlen" des Bundesministeriums für Verkehr, Bau und Stadtentwicklung, Tabelle: ´Seeschifffahrt - Handelsflotte der BRD´ bezogen. Hier beziehen sich die Werte jeweils auf den 31 Dezember des jeweiligen Jahres. In dieser Quelle wurden Schiffe mit mechanischem Antrieb und einem Raumgehalt von mindestens 100 BRT und mehr berücksichtigt. Außerdem sind für den Zeitraum von 1975 – 1990 Schiffe unter der Flagge der Bundesrepublik einschl. ausländischer Schiffe mit Flaggenschein aufgenommen worden. Schiffe der BRD, die unter fremder Flagge fuhren, werden nicht berücksichtigt, da sie nicht für den deutschen Handel und Transport verwendet werden. Leider kann nach 1971 keine Angabe zum Anteil der deutschen Handelsschiffstonnage an der Welthandelstonnage gemacht werden. Für das Gebiet der ehemaligen DDR wurde das Statistische Jahrbuch für die DDR, Jahrgang 1990, als Quelle herangezogen. Hier ist der Stichtag der Bestandsangaben, wie im Falle des Deutschen Reiches, der 1.7. des jeweiligen Jahres. Für das wiedervereinte Deutschland in den Grenzen des 3. Oktobers 1990 beziehen sich die Angaben – wie für die ehemalige Bundesrepublik – auf den Stand zum 31.12. des jeweiligen Jahres. Als Quelle wurde die Publikation "Verkehr in Zahlen" des Bundesministeriums für Verkehr, Bau und Stadtentwicklung herangezogen.
08 Güterumschlag in bedeutenden Seehäfen - Hamburg, Bremische Häfen, Emden sowie Rostock, Wismar und Stralsund (1925-2010) Der Güterumschlag eines Hafens ist ein Indikator für seine wirtschaftliche Bedeutung und der Einbettung des Hafens in der Logistikkette. Bei guter Anbindung an Bahn und Autobahn und kurzen, zügigen Be- und Entladungsphasen von Schiffen sowie LKWs und Bahn-Waggongs wird sich ein Hafen als Güterumschlagszentrum etablieren. Die Datentabelle K15.08 enthält für die wichtigsten Häfen Deutschlands die Entwicklung des Güterumschlags vom Deutschen Reich bis zum Jahr 2010 im wiedervereinten Deutschland in den Grenzen vom 3. Oktober 1990. Vor dem Hintergrund der Teilung Deutschlands nach dem 2. WK in zwei Staaten und der Auswahl der wichtigsten Häfen für die ehemalige DDR, wie sie in dem Statistischen Jahrbuch für die ehemalige DDR getroffen wurde, sind folgende Häfen in der Datentabelle aufgenommen worden: Hamburg, Bremische Häfen, Emden, Rostock, Wismar und Stralsund. Als Quelle dienen die Statistischen Jahrbücher für das Deutsche Reich, für die Bundesrepublik Deutschland und für die DDR. Für die neuen Länder wurde darüber hinaus noch die Publikation des Bundesministeriums für Verkehr, Bau und Stadtentwicklung, Verkehr in Zahlen, Jg. 1990, S. 282, Tabelle: 'DDR Kennziffern - Seehäfen und Binnenhäfen' herangezogen.
Die Luftfahrt
Mit der Erfindung des Flugzeuges tritt eine vollkommen neue Form der Fortbewegung auf den Markt. Die ersten Flugzeuge wurden zunächst nur für militärische Zwecke genutzt; 1919 setzte mit Gründung der Deutschen Luft-Reederei (DLR) in Deutschland eine Entwicklung hin zum zivilen Luftverkehr ein. Die Deutsche Luft-Reederei (DLR) wurde vom Reichsluftamt in Berlin als weltweit erste Fluggesellschaft für den zivilen Luftverkehr zugelassen. Zwischen Berlin und Weimar begann der regelmäßige Post- und Passagierverkehr. Die Luftpost mit Flugzeugen, die schon während des Ersten Weltkriegs entstand, wurde wesentlich ausgebaut. In den darauf folgenden Jahren entstanden viele kleine Fluggesellschaften, die häufig nur eine Strecke bedienten. Der technische Fortschritt ermöglichte schließlich die Entwicklung eines Verkehrsflugzeuges mit beheizbarer Kabine und gepolsterten Sitzen. 1926 wurde die "Deutsche Lufthansa AG" unter Beteiligung des Reiches, der Länder und Städte gegründet. Bis 1945 war sie Einheitsgesellschaft für den zivilen Luftverkehr mit weit verzweigtem europäischem Streckennetz. Mit der Kapitulation Deutschlands nach dem 2. Weltkrieg im Mai 1945 wurde die deutsche Luftfahrt zunächst unterbrochen. Nach der Gründung der Bundesrepublik Deutschland und der Einrichtung des Verkehrsministeriums konnte der zivile Luftverkehr wieder 1955 aufgenommen werden. Der Luftverkehr hat gerade für eine international ausgerichtete Volkswirtschaft wie Deutschland eine enorme Bedeutung durch die hohen Mobilitätszuwächse in wirtschaftlichen Bereichen und im Bereich des Personenverkehrs. Mit Einsetzen des Luftverkehrs als Transportmittel ist eine Verringerung der Transportkosten und Transportzeiten zwischen weit entfernten Orten erreicht worden. Eisenbahn- und Schiffsverkehr stellen für den Flugverkehr aufgrund der größeren Gütermengen, die sie transportieren können, sowie der günstigeren Kosten pro transportierter Gewichtseinheit, weiterhin wichtige Mitbewerber im Bereich des Gütertransportes dar. Wesentliche Akteure des Luftverkehrs sind neben der Flugsicherung die Flughäfen und die Fluggesellschaften. In der Zeit von 1919 bis 1949 entwickelte sich der Luftverkehr bis in die 1970er Jahre hinein als ein stark staatlich regulierter Sektor. Die Luftverkehrsgesellschaften wie z.B. die Deutsche Lufthansa sowie die Flughäfen befanden sich oft im Besitzt des jeweiligen Heimatlandes. Ende der 70er Jahre setzte in den USA ein Deregulierungsprozess des Luftverkehrssektors ein, der schließlich auch in den 80er Jahren die Länder der Europäischen Union erfasste. Die Europäische Gemeinschaft verwirklichte in drei großen Liberalisierungsschritten in den Jahren 1987, 1990 und 1993 eine weitgehend vollständige Dienstleistungsfreiheit für den innereuropäischen Luftverkehr. (vergl.: St. Kraft: Geschäftsmodelle strategischer Luftverkehrsallianzen. Universität Gießen. WEB: http://www.org-portal.org/fileadmin/media/legacy/Gesch_ftsmodelle_strategischer_ Luftverkehrsallianzen.pdf)
09 Gewerblicher Luftverkehr der deutschen Fluggesellschaft und aller Fluggesellschaften auf deutschen Flugplätzen (1919-2010)
Solange der Luftverkehr noch nicht liberalisiert war, diente der größte nationale Flughafen der nationalen Fluggesellschaft als Hauptstützpunkt. Aufgrund der strikten Reglementierung des europäischen Luftverkehrs durch bilaterale Abkommen wurde den Fluggesellschaften die Streckenführung und Passagierbeförderung größtenteils vorgegeben. Nur, wenn es um Zubringerdienste (die sog. spokes) innerhalb des eigenen Landes ging, konnten die Passagierströme für Langstreckenflüge auf einen bestimmen Flughafen als sogenannten Hub (=gewählter Umsteigeflughafen einer Fluggesellschaft) konzentriert werden. Nach der Liberalisierung innerhalb der EU treten Flughäfen und Fluggesellschaften nun als selbständige Akteure auf, die Entscheidungen nach Effizienzgesichtspunkten fällen können. Die Flughäfen treten untereinander in den Wettbewerb ein. Mit dem Ausbau ihrer Kapazitäten und Dienstleistungen am Boden versuchen sie, für Fluggesellschaften als Hauptstützpunkt (das sog. Hub-and-Spokes-System ) attraktiv zu sein. Unternehmen des Güterverkehrs sowie die Teilnehmer des Personenverkehrs sollen aufgrund guter Serviceleistungen angesprochen werden. Die Fluggesellschaften wiederum konkurrieren über angebotene Flugrouten und Preise. (vgl. Gordon Paul Schenk, 2003: Auf dem Weg zu einem gemeinsamen Markt im Luftverkehr. Dissertation, Hamburg, S. 123 f.) Von daher erscheint es sinnvoll, die erbrachten Transportleistungen im Luftverkehr sowohl nach den Fluggesellschaften als auch nach den Flughäfen getrennt darzustellen. Es wurde versucht, möglichst lange kontinuierliche Datenreihen für Deutschland zur Zeit des Deutschen Reiches bis 1938/1940, jeweils für die frühere Bundesrepublik (Alte Länder) und die ehemalige DDR (Neue Länder) von 1950 bis 1990 sowie für das wiedervereinte Deutschland in den Grenzen vom 3. Oktober 1990 für die Zeit von 1990 bis 2010 zusammenzustellen. Für die Flughäfen wurden die Leistungen sämtlicher deutscher und ausländischer Fluggesellschaften aufgenommen. Zur Zeit des Deutschen Reiches ist auch der Luftschiffverkehr in den Zahlen mit enthalten. Für die Bundesrepublik Deutschland und das wiedervereinte Deutschland wurde der Gesamtverkehr einschließlich des Durchgangsverkehrs erfasst. Für die alten Länder (ehemalige Bundesrepublik) wurden die Werte folgender Flughäfen erfasst: Berlin-West, Bremen, Düsseldorf, Frankfurt, Hamburg, Hannover, Köln, München, Nürnberg, Stuttgart, ab 1977 Saarbrücken. Die Datenreihen für die Neuen Länder beziehen sich auf die Flughäfen Berlin- Schönefeld, Dresden, Leipzig/Halle, ab 1998 Erfurt. Für die Fluggesellschaften werden jeweils neben den Beförderungsleistungen in absoluten Zahlen auch die Kennwerte der Transportleistungen, Personenkilometer und Tonnenkilometer angegeben. Für die ehemalige DDR wird in dem Statistischen Jahrbuch für die DDR nur für die Fluggesellschaft der ehemaligen DDR, die Interflug bzw. Deutsche Lufthansa der DDR berichtet, so dass für die Zeit von 1945 bis 1990 keine Angaben zu den Flughäfen gemacht werden können. Folgende Zeitreihen sind in dieser Datentabelle aufgenommen worden: Für die deutschen Flughäfen: - Beförderte Personen in 1000; - Beförderte Luftfracht in 1000 t.; - Beförderte Luftpost in 1000 t. Für die deutschen Fluggesellschaften: - Beförderte Personen in 1000; - Beförderte Personen in Personenkilometer; - Beförderte Luftfracht in 1000 t.; - Beförderte Luftfracht in 1000 Tonnenkilometer; - Beförderte Luftpost in 1000 t. - Beförderte Luftpost in 1000 Tonnenkilometer.
Die Nachrichtenübermittlung durch Post und Telekommunikation
Die Beförderung von Nachrichten, Kleingütern und zum Teil auch Personen ist ein wesentlicher Bestandteil eines funktionsfähigen Gemeinwesens. Bis zum späten Mittelalter gab es in dem damaligen Heiligen Römischen Reich deutscher Nationen kein etabliertes System der allgemeinen Nachrichtenübermittlung, sondern Kaiser, Klerus und Fürsten sendeten per Boten ihre Nachricht direkt zum Zielort. Der Habsburger Maximilian I. benötigte für die effektive Verwaltung seines Reichs eine zuverlässige und sichere Nachrichtenübermittlung. 1490 beauftragte er die Familie Torre e Tassis (später Thurn und Taxis) mit der Einrichtung einer systematisch organisierten Nachrichtenübermittlung. Durch die Einrichtung von Poststationen war die Übermittlung von Nachrichten nicht mehr an eine Person, den Boten, gebunden, sondern wurde – vergleichbar einem Staffelrennen – an der Station einem anderen Reiter übergeben. Der Nachrichtenbeförderung wurde bei Tag und bei Nacht durchgeführt. Dieses Poststationen-System wurde ständig erweitert, Briefe konnten so über große Distanzen innerhalb von 5 bis 6 Tagen transportiert werden. Die Nachrichtenübermittlung wurde extrem beschleunigt. Raum und Zeit waren plötzlich keine unüberwindbaren Hindernisse. War dieses Übermittlungssystem zunächst ausschließlich für kaiserliche Nachrichten eingerichtet, wurde schon 1530 die Post der Allgemeinheit zugänglich gemacht. In der darauffolgenden Zeit wurden von Landesfürsten, Herzogtümern und Städten konkurrierende Postrouten eingerichtet. Zwar wurde durch Kaiser Rudolf II. die Reichspost 1597 zum kaiserlichen Hoheitsrecht erklärt. Dieses Monopol, welches das Haus Thurn und Taxis als kaiserliches Lehen erhielt, wurde jedoch nicht von allen Landesfürsten anerkannt, was zu einer Vielzahl ausgehandelter bilateraler Verträge zwischen der Reichspost und den jeweiligen konkurrierenden lokalen Postunternehmen zwang. 1850 wurde schließlich der Deutsch-Österreichische Postverein als Zusammenschluß kleinstaatlicher Posten mit dem Ziel eines einheitlichen Tarifsystems gegründet, dem in der Folgezeit immer mehr deutsche Staaten beigetreten sind. Durch die politischen Ereignisse 1866/67 (Deutsch-Preußischer Krieg) wurde der Deutsche Postverein aufgelöst. Schon in dieser Zeit hat der technische Fortschritt zu großen Umwälzungen und neuen Perspektiven geführt. Als technische Erneuerung sind in diese Zeit gefallen: die Telegrafie, die Bahn, die als Transportmittel für die Post entdeckt wurde, und die Rohrpost. Die Preußen führten die Telegrafie 1832 offiziell ein (Telegrafenlinie von Berlin nach Koblenz). 1850 wurde der Deutsch-Österreichische Telegrafenverein gegründet, der den Anschluss an das belgische, französische und das englische Telegrafennetz ermöglichte. "Erst mit der Gründung des Deutschen Reichs 1871 unter Bismarck wurde auch das deutsche Postwesen endgültig unter einem Dach zusammengefasst und über 100 Jahre lang verstaatlicht." (Gregor Delvaux de Fenffe, www.planet-wissen.de/kultur_medien/ kommunikation/post/index.jsp ) Gebühren der Postbeförderung wurden vereinheitlicht, der Einsatz moderner Technologien forciert. Schließlich wurden mittels bilateraler Verträge die Beförderungshemmnisse über die Grenzen des Deutschen Reiches abgebaut. Führte in der Entstehungszeit des Postwesens die Vielfalt eigenständiger, regionaler Postvereine aufgrund vieler Grenzen und unterschiedlicher Regeln zu einem unübersichtlichen und starrem System, so brachte die Liberalisierung des Post- und Telekommunikationswesens in Deutschland in den 1990er Jahren einen Anstieg der Auswahl für die Verbraucher, stark fallende Preise, neue innovative Dienste und damit mehr Flexibilität. Auslöser der Liberalisierungsprozesse nicht nur für Post und Telekommunikation, sondern für den gesamten Verkehrssektor, war das Binnenmarktprogamm der Europäischen Union, das europäische Wettbewerbsrecht und die Europäische Kommission als Akteur. Ziel der Liberalisierung ist es, wettbewerbsverzerrende staatliche Eingriffe und damit nationalstaatliche Gestaltungsspielräume einzuschränken. Nationalstaatliche Monopole sind wegen bestehender europarechtlicher Verpflichtungen nicht mehr zu halten. (vergl.: Susanne K. Schmidt: Liberalisierung in Europa. Campus, 1998; Justus Haucap / Coenen, Michael (2010): Ordnungspolitische Perspektiven Nr.01. Regulierung und Deregulierung in Telekommunikationsmärkten: Theorie und Praxis. Düsseldorf, Düsseldorfer Institut für Wettbewerbsökonomie DICE) Flankiert wird diese Entwicklung durch eine Vielzahl neuer Technologien der Kommunikation, wie das Internet mit seinen vielfältigen Möglichkeiten (Social Media, das Semantische Web, die Internet-Telefonie, der E-Mail-Verkehr), der Mobilfunk oder die Möglichkeit, SMS zu versenden.
10 Deutsche Reichs- und Bundespost (1871-2010)
Die quantitative Entwicklung der Dienstleistungen des Post- und Telekommunikationswesen von der Zeit des Deutschen Reichs bis zur Gegenwart soll mit folgenden Zeitreihen festgehalten werden: - Beförderte Briefsendungen, - Beförderte Paket- und Wertsendungen, - Übermittelte Telegramme, - Sprechstellen (Telefonanschlüsse), - Ortsgespräche, - Ferngespräche, - Ton-Rundfunkgenehmigungen - Fernseh-Rundfunkgenehmigungen
Durch die rasante technische Entwicklung können viele Reihen insbesondere ab den 1990er Jahren in dieser Form nicht mehr fortgeführt werden bzw. müssen durch weitere Reihen ergänzt werden, und zwar: - Bezüglich der Telefone muss zwischen Telefon-Anschlüssen und Telefon-Kanälen unterschieden werden. Der klassische Analoganschluss ermöglicht durch das ISDN die Bereitstellung von mehreren Kanälen auf einen ISDN-Anschluss. Darüber hinaus stellt der Mobilfunk ein neues Medium dar, das neben dem Festnetzanschluss erfasst werden muß. - Aufgrund der Monopolstellung, welche die Post für ca. 120 Jahre innehatte, ist sie die Eigentümerin wertvoller Infrastruktur. Im Falle des Telefons ist sie, bzw. die aus ihr hervorgegangene Deutsche Telekom AG Eigentümerin der Telefonanschlussleitungen. Das Telefonnetz kann als einziger Teil nicht oder nur schwer von alternativen Anbietern ersetzt werden und es wird für gewöhnlich von einem örtlichen Zugangsnetz-Monopolisten (die Deutsche Telekom) kontrolliert. Damit die Wettbewerber den Zugang zum Anschluss des Kunden auf wirtschaftliche Weise realisieren können, sorgt die Regulierungsbehörde für eine angemessene Tarifierung der Vorleistungen des etablierten Betreibers. Daher ist die Entwicklung der TAL-Anmietungen durch Wettbewerber ein wichtiger Indikator für den Prozess der Liberalisierung. - Viele technische Neuerungen, die in letzter Zeit an Bedeutung gewonnen haben, sind im Rahmen dieser Tabelle nicht berücksichtigt worden, so. z.B. die Verbreitung der Internet-Anschlüsse in den Haushalten oder die Internet-Telefonie. Der Grund liegt darin, dass die Reihen oft erst mit Ende der 1990er Jahre oder später beginnen, wie man dies auch am Beispiel der TAL-Anmietungen sehen kann, für die erst mit dem Jahr 1998 der erste Wert erhoben wurde. Zum andern wurde versucht, soweit wie möglich, eine gewisse Vergleichbarkeit zu den Jahren vor 1990 beizubehalten. Für die Telefonanschlüsse bedeutet dies, dass für Deutschland ab 1990 die Sprechstellen, gezählt als Anzahl der Kanäle für alle Anbieter und für die Telekom AG im besonderen ausgewiesen werden. Nach 2007 ergibt sich ein Bruch in diesen Reihen, da ab 2008 nur noch die Sprechstellen, gezählt als Anschlüsse, ausgewiesen werden, womit sich die ausgewiesenen Zahlen verringern (ein Anschluss kann mehrere Kanäle bereitstellen). - Für die 'Übermittelten Telegramme' sind aus den uns vorliegenden Quellen keine Werte zu entnehmen.
Im Folgenden stelle ich den Sammelband Performing Politics vor, der anlässlich der ersten Internationalen Sommerakademie 2010 in Hamburg entstanden ist. Die zentrale Fragestellung der Akademie lautete: "wie man heute im Sinne der von Jean-Luc Godard vorgeschlagenen Unterscheidung statt politischer Kunst politisch Kunst machen kann" (S. 7). Außerdem sollte der Austausch zwischen Theorie und Praxis gepflegt und die Veranstaltung für eine größere Öffentlichkeit geöffnet werden. Trotz der Heterogenität ergänzen sich einige Beiträge und vermitteln einen Eindruck des vielfältigen und weiten Feldes. Unter der Überschrift "Politik (in) der Kunst" wurden Beiträge versammelt, die sich mit den grundlegenden Voraussetzungen dafür beschäftigen, wie Kunst politisch sein kann. Es geht dabei vor allem um künstlerische Methoden und Vorgangsweisen. Der Gemeinschafts-Begriff bzw. der Begriff des Kollektiven spielt eine wichtige Rolle in mehreren Beiträgen. Das Nature Theater of Oklahoma (NTO) – Pavol Liska und Kelly Copper – versucht ein krisenhaftes Moment in ihre Arbeiten einzuführen, das ihre eigene Arbeitsweise, die der Schauspieler_innen und die Erwartung des Publikums herausfordert. So sollen neue Formen entstehen, die die traditionellen Grenzen des Theaters überschreiten. Die Theatermacher_innen verwenden einen Begriff von "Echtheit" bzw. "Realismus", der einen Zwischen-Zustand meint, in dem die Darsteller_innen weder sie selbst noch ihre Rolle sind. Robin Arthur thematisiert das Problem der Gemeinschaft und 'der Anderen' im Kontext des Politischen. Dabei wirft der Autor die Frage auf: Ist jede Art von Performance schon Politik, weil sie eine bestimmte (wenn auch exklusive) Kollektivität erzeugt? Reinhard Strobl und Jasna Žmak versuchen mit ihrem Text "High Hopes" eine fiktive Gemeinschaft mit ihren Lesern_innen herzustellen. Man könnte diese Textform auch als 'performatives Texten' beschreiben, da es den/die Leser_in aktivieren soll, eigene Gedanken anzuschließen. Sebastian Blasius fragt sich angesichts der Arbeit … although I live inside … my hair will always reach towards the sun … der Choreographin Robyn Orlin, "ob überhaupt innerhalb des theatralen Mediums Alternativen oder Lösungen politischer Fragen erdacht werden können, die nicht schon anderswo versucht wurden" (S.42). Spannend finde ich seine Schlussfolgerung, dass die Form an sich in Frage gestellt werden müsse, um politisch Theater zu machen. Auch in Astrid Deuber-Mankowskys Beitrag geht es um das Herstellen einer Gemeinschaft, genauer um "das Fehlen des Volkes" in Filmen der Nachkriegszeit. Die Formel des "Fehlens des Volkes" geht auf Gilles Deleuze zurück. Nach Deleuze sei es die Aufgabe des modernen Kinos, zu zeigen "wie das Volk fehlt" – was verbunden sei mit der Herstellung der Bedingungen von Kollektivität, dem Problem der Wahrnehmung und dem Problem des Denkens (vgl. S.30). Rudi Laermans spricht in seinem Text über Meg Stuart hingegen vom "kollektive[n] Blick" bzw. dem "kollektiven Ohr". Gemeint ist einerseits die Gemeinschaft von Zuschauer_innen/Zuhörer_innen und andererseits eine kulturelle Gemeinschaft, die dieselben Zeichen lesen kann. Die sogenannte "Politik des Zuschauens" tritt dann ein, wenn die Voraussetzungen und kulturellen Normen des Schauens/Hörens oder die Beziehung zwischen Zuschauern_innen und Akteuren_innen in Frage gestellt werden (vgl. S.43f.). Im Abschnitt "Interventionen – Kunst und (subversive) Aktionen" geht es um die Rolle von Kunst als 'politisches Instrument' sowie um die Frage, inwiefern Kunst konkrete Auswirkungen auf politische und gesellschaftliche Zusammenhänge haben kann. Sergej A. Romashko betont die Bedeutung des jeweiligen situativen und historischen Kontextes für die Frage, wann Kunst politisch ist. Mit Walter Benjamin weist er außerdem darauf hin, dass das Politische an der Kunst nicht allein am Inhalt festgemacht werden könne, sondern auch die Form zu berücksichtigen sei. So können die Arbeiten von Kollektive Aktionen (Kollektivnye dejstvija), einer russischen Künstlergruppe, der der Autor selbst angehört, im Kontext der Sowjetzeit und im Verhältnis der gesellschaftlichen Spielregeln als 'politisch' gedeutet werden. Die Teilnehmer_innen stellen nichts dar, sondern vollziehen eine bestimmte Handlung, die sich zu kulturellen, historischen und politischen Rahmenbedingungen ins Verhältnis setzt. André Schallenberg bezieht sich in seinem Beitrag ebenfalls auf Arbeiten von Kollektive Aktionen (KA), aber auch auf aktuelle Aktions- und Interventionsprojekte von Labofii, den Yes Men, 01.org und der russischen Gruppe Voina. Er unterscheidet zweckorientierte Kunst, die sich in den Dienst von Protest oder einer pädagogischen Funktion stellt von jenen Praktiken, die versuchen Freiräume für Kunst zu schaffen, die außerhalb jeglichen Systemzwangs stehen. Daher unterscheidet er das Laboratory of Insurrectionary Imagination (Labofii), das als erklärtes Ziel "die (Zurückeroberung) öffentlichen Raumes durch eine Gruppe Fahrradfahrer sowie die Herstellung einer sich einig wissenden Gemeinschaft von politisch Aktiven" habe, radikal von Gruppen wie KA oder Voina (S. 74). Demgegenüber erläutert John Jordan die Innenperspektive des Labofii. Die Künster_innen betrachten "de[n] Aufstand als eine Kunstform und Kunst als Mittel zur Vorbereitung auf den kommenden Aufstand" (S.79). Zu diesem Zweck bauten sie z.B. zurückgelassene Fahrräder in Kopenhagen/Hamburg um, und in einer Reclaim-The-Street-Aktion sollten die Straßen 'zurückerobert' werden. Fraglich ist einerseits, inwiefern Kunst die Realität auf Dauer verändern kann und andererseits, ob die Unterordnung von Kunst unter andere Zwecke – seien diese pädagogischer, politischer oder wirtschaftlicher Art – diese nicht ihrer selbst zu sehr entfremdet. Shalaby und Bansemir beziehen sich ebenfalls auf die Aktion FLOOD von Labofii, die am 22.August 2010 in Hamburg stattfand. Sie betonen die Ambivalenz der Aktion, die weder eindeutig als Kunst noch als politische Demonstration einzuordnen war, was zu einer Auflösung der Grenzen beider Bereiche führte. Maximilian Haas beurteilt die Aktionen von Labofii im Sinne von Walter Benjamin als "reine Mittel ohne Zweck, die sich dem Kontext der repräsentativen Ordnung von Kunst und Politik entziehen, und die – folgt man Benjamin – also als gewaltlos zu bezeichnen wären" (S. 87). Für Haas bleiben sowohl der Kunstcharakter der Intervention als auch die jeweilige politische Forderung unausgesprochen, was die Aktionen zu reinen Mitteln werden lasse. Die Beiträge, die unter "Konfigurationen – Politiken des Raumes" gesammelt wurden, thematisieren einerseits die Inszenierung des öffentlichen urbanen Raumes und andererseits künstlerische Interventionen, die sich mit diesem auseinandersetzen. Die Autor_innen nähern sich der Thematik aus historischer, künstlerischer, architektonischer, sozialer und kapitalismuskritischer Perspektive an. Ulrike Haß hat sich angesehen, wie kulturelle, politische, religiöse und andere Faktoren städtische Topographien im Laufe der Zeit verändern. Genauer untersucht die Autorin die Relation zwischen Raum und Sichtbarkeit in Bezug auf die Städte der Renaissance, die filmischen Topographien deutscher Filmemacher am Anfang des 20. Jahrhunderts und in Bezug auf den Städtebau der BRD. Die totale Sichtbarkeit in der Kontrollgesellschaft lässt dabei "übersehene Räume" – Zwischenräume, die noch nicht vom Konsum bestimmt werden –als potentielle Orte des Widerstands erscheinen, die zurückerobert und teilnehmend erkundet werden können. Das Kollektiv Bauchladen Monopol begann 2010 in Hamburg, öffentliche Plätze und Gebäude durch ihre Tanz-Aktionen zu besetzen und damit den Raum für die begrenzte Zeit von jeweils vierzig Minuten für sich zu beanspruchen. In der Reflexion ihrer Arbeit kommen sie zu dem Schluss, dass die Besetzung öffentlicher urbaner Räume, die keinem bestimmten Zweck dient, sowohl als Eingriff in die bestehende Ordnung, aber auch als willkommene Abwechslung gelesen werden kann. Jasmin Stommel weist in ihrem Beitrag ebenfalls auf den Zusammenhang von kapitalistischen Interessen und dem urbanem Raum hin. Ein Symptom davon seien sogenannte "Nicht-Orte" (Marc Augé) an der Peripherie von Städten, die monofunktional und transitorisch sind. Als Beispiel führt die Autorin das Kampnagelgelände in Hamburg an, in dessen vielfältiger Nutzung sich dieses Spannungsverhältnis widerspiegle. Unter dem Titel "Überschreitungen – Politiken (in) der Institution" wurden Beiträge gruppiert, die sich mit den Bedingungen von Kunstproduktion in jenen institutionellen Gefügen beschäftigen, die Kunst oftmals erst ermöglichen, aber auch behindern können. Aus ihrer Perspektive als Kuratorin führt Amelie Deuflhard vier Kategorien an, in die sie künstlerische Arbeiten einordnet, die "politisch Kunst machen": "neue theatrale Formen (Experiment), transkulturelle Arbeiten, partizipatorische Formate und performative Interventionen" (S.124). Das Problem an den genannten Kategorien ist meiner Meinung nach, dass diese sehr allgemein und weit gefasst werden. Des Weiteren müssten folgende Aspekte einbezogen werden: der geschichtliche Kontext, die raum-zeitlichen Konfigurationen sowie die spezifische Ästhetik der Darstellung. Anneka Esch-van Kan weist auf die starke Tendenz hin, Theorie und Praxis des zeitgenössischen Theaters zu verbinden, was sich sowohl in den Produktionsweisen als auch in der wissenschaftlichen Arbeit niederschlägt. Sie betont jedoch die damit verbundenen Spannungen, die es erschweren eine Sprache zu finden, "die den vielfältigen komplexen Verhältnissen begegnen könnte". Das Finden einer solchen Sprache ist ihrer Ansicht nach ein wichtiger Schritt für die "Theoriebildung zum Politischen im Theater" (S.128). Als Theaterpraktiker plädiert Matthias von Hartz dafür, das Potential der Institutionen zu nutzen, um eine – nicht näher definierte – Öffentlichkeit zu erreichen. Einerseits sieht er die Relevanz des Theaters als Ort gesellschaftlicher Auseinandersetzung schwinden, andererseits will er für dessen Re-Politisierung kämpfen. Unter den verschiedenen Institutionen sieht er Festivals als "theoretisch ideale Formate", da für diese "alle Freiheiten des Theaters, aber nur wenige seiner Zwänge" gälten (S.131). Obwohl die Idee, die Institutionen von Seiten der Künstler_innen mehr zu nutzen, durchaus interessant ist, scheinen mir die zugrunde gelegten Begriffe von "Politik" und "Öffentlichkeit" sehr vage und unreflektiert. Außerdem denke ich, dass der Autor eher "politisches Theater" meint – und weniger Theater, das auf politische Weise gemacht ist. Nina Jan weist in ihrem Beitrag darauf hin, dass Festivals genauso bestimmten "Zwängen" folgen wie andere Kunstinstitutionen und demnach nicht unbedingt mehr Freiheiten bieten. Während die Relevanz von Festivals für das Networking zwischen Künstler_innen unbestreitbar sei, betont sie auch die den Festivals inhärente Marktlogik. Als Versuch, sich dieser zu entziehen, nennt die Autorin das Festival Pleskavica, das im Juni 2011 in Ljubljana (Slowenien) stattfand. Unter dem Titel "Jenseits des Spektakels" wurden Beiträge versammelt, die sich mit dem Begriff des Spektakels bzw. des Spektakulären auseinandersetzen. In Bezug auf Letzteres geht es um reale und imaginäre Bilder, die in und durch Performances/Theater generiert werden. Das postspektakuläre Theater, das André Eiermann beschreibt, setzt sich kritisch mit den Postulaten der "Unmittelbarkeit" und der "zwischenmenschlichen Begegnung von Angesicht zu Angesicht" auseinander, die in den letzten zehn Jahren zentral für den Diskurs um das Politische im Theater und die "Mitverantwortung des Publikums" waren (S.145). Im Unterschied zum oft spektakulären Mitmach-Theater, das – ganz im Sinne der Gesellschaft des Spektakels – darauf ausgerichtet sei, sich selbst darzustellen und einen nur scheinbar gleichwertigen Austausch mit den Darstellern_innen zu simulieren, sind postspektakuläre Arbeiten abstrakter oder formaler, bieten jedoch dem Publikum Anschlussstellen für die eigenen Imagination. Jemma Nelson und Caden Manson – zwei Mitglieder der New Yorker Performance Gruppe The Big Art Group – stellen ihren Begriff des Spektakulären vor. Für ihre Performances dienen die massenwirksamen Bildproduktionsmaschinen von Internet-Foren, Online-Games, Webseiten, Talkshows oder Nachrichtensendungen als Inspirationsquellen und Rohmaterial. Es geht den Verfassern jedoch um die "Brechung des Spektakulären", die ihrer Meinung nach nicht mehr durch eine kritische oder analytische Distanz bewerkstelligt werden könne (S.151). Statt Aussagen blieben in den Aufführungen die Bildlichkeit und die Formen des medialen Informationskrieges übrig. Es geht den Theatermachern aber auch um eine Kritik an der Massenwirksamkeit von Bildern. Sanna Albjørks Außenperspektive auf zwei Produktionen der Big Art Group hilft, deren Arbeitsweise besser zu verstehen. Charakteristisch ist laut der Autorin "[d]ie Gleichzeitigkeit der Betrachtung spektakulärer Bilder […] und die Ausstellung ihrer Produktion". Es gehe nicht um den 'Inhalt' der Bilder, sondern um deren "Manipulierbarkeit" (S.153). Interessant ist vor allem die Frage, die sich Albjørk selbst stellt: Wird wirklich eine Brechung des Spektakulären bewerkstelligt, oder wird der/die Zuschauer_in durch das "Bombardement von Bildern und Sounds" (S.154) mit dieser Überforderung allein gelassen? Krystian Lada untersucht anhand von drei Beispielen "den kreativen Prozess des Herstellens von Bildern auf der Bühne" (S.155). Wie bei Eiermann kommt dem Publikum eine wichtige Rolle zu. Erst in der Vorstellung der Zuschauer_innen entstehen die 'fertigen' Bilder, die durch die Bühnenvorgänge angeregt werden. Der Prozess der Imagination kann z.B. nur durch Sprache und die Körper der Performer_innen initiiert werden. Unter dem Titel Ein anderes Subjekt des Politischen wurden Beiträge versammelt, die sich mit der Subjekt-Werdung und deren politischen Implikationen auseinandersetzen. Einerseits wird der cartesianische Subjekt-Begriff philosophisch befragt, andererseits geht es um die Subjekt-Konstitution in/durch Performances und Theateraufführungen. In seinem Beitrag "Theaterkörper" denkt Jean-Luc Nancy Martin Heideggers Da-Seins-Begriff radikal weiter, indem er das Subjekt als Körper versteht, der nicht gedacht werden kann, sondern sich zeigt. Da dieses Körper-Subjekt nicht mehr im Rahmen der Philosophie gedacht werden kann, dehnt Nancy seine Überlegungen auf das Theater aus, das derjenige Ort sei, wo Präsenz erfahren werden könne. Nancy denkt Existenz als gleich-ursprüngliche Mitzugehörigkeit (coappartenance) (vgl. S.158), als Nebeneinander von Körpern in einer zeitlich-räumlichen Konfiguration, die über Relationalitäten miteinander in Beziehung treten. Dieser Gedanke ist immens politisch, da er den Menschen nicht als vereinzeltes Individuum begreift, sondern als Teil einer Gemeinschaft von Körpern, die immer schon aufeinander bezogen sind. Maria Tataris Kommentar zu Nancys Text trägt viel zu dessen Verständlichkeit bei und ergänzt diesen um wertvolle Informationen. Das "als Solche" der Präsenz denkt Nancy als Äußerlichkeit, was dem philosophischen Denken, das immer am Immateriellen festhält, widerspricht. Folgendes Zitat fasst Nancys Text auf wunderbare Weise zusammen: "Heideggers ontologische Differenz, die die Entfaltung des Seins nicht als Bestandheit der Präsenz, sondern als Emergenz der Zeit denkt, von Nancy als Körper radikalisiert, als Errichtung von bezügezeitigenden und raumgreifenden Intensitäten im Außen, endet im Theater" (S. 175). Mayte Zimmermann wendet in ihrem Beitrag Nancys Konzept eines Körper-Subjekts auf deufert&plischkes Arbeit Anarchiv#2: second hand an. In dieser Arbeit wird das Subjekt herausgefordert, weil es keine fixe Position mehr einnimmt, von der aus es sich seiner Machtposition versichern und die Performer_innen zu angeblickten Objekten machen kann. Die Verhandlung der Frage des Gemeinschaftlichen im Theater ist für die Autorin eine politische Frage. Das Politische kann für sie jedoch nur als "quasi gespenstische Repräsentation" gedacht werden (S.176). Die Konfrontation mit dem Anderen generiert die Subjekt-Werdung: Die Körper im Raum setzten sich zueinander in Relation; sie prallen aufeinander, stoßen einander ab oder ziehen einander an. Aber sie verhalten sich immer zu-einander, sie sind immer schon mit-einander. Laut Zimmermann geht es in Anarchiv#2 auch darum, dass der Abgrund bzw. der "Zwischen-Raum" und die "Zwischen-Zeit" zwischen uns und dem Anderen geöffnet werden sollen, auf eine Weise, dass das "gespenstische Eigenleben" des Anderen erhalten bleiben kann (vgl. S. 184f.). Nikolaus Müller-Schöll untersucht in seinem Beitrag den Zusammenhang zwischen dem Verschwinden der Figur des Chores und der des Harlekins in der europäischen Theatergeschichte sowie deren Renaissance im Theater der Gegenwart. Der Harlekin bricht, wie der Chor, mit der Illusion der Bühnenhandlung, weil wir ihn immer als Harlekin/Chor erkennen und wissen, dass er "nur spielt". Beide sind nicht Teil der Handlung des Dramas, sondern ihnen kommt die "Funktion eines Trägers, Begleiters, Zeugen und Richters der Handlung zu, letztlich also eine Art von Neutrum und insofern die eines bloßen Spielers" (S.193). Müller-Schöll nennt u. a. die Performance-Gruppe Forced Entertainment als herausragendes Beispiel für die Wiederkehr des Harlekins im Gegenwartstheater. Die Geschichten, die sie erzählen, scheitern, denn es gibt keine Wahrheit mehr, die im dramatischen Dialog zutage kommen könnte (vgl. S.197ff.). Sowohl der Harlekin als auch der Chor stellen traditionelle Möglichkeiten dar, innerhalb der Theatertradition auf die Unsicherheit von Identität hinzuweisen. Für Müller-Schöll geht es um die "abgründige Erfahrung" der Existenz, um das Bewusstsein, dass wir immer schon in einem Medium sind, das "das Ende jeder geschlossenen Repräsentation und die Eröffnung unabsehbarer Möglichkeiten" bedeutet (S.200). Jurga Imbrasaite geht in ihrem Beitrag ebenfalls auf die Frage des Subjektes und dessen politische Bedeutung ein. Am Beispiel von Jérôme Bels Tänzerporträts wird aufgezeigt, wie "das choreographische Subjekt" (vgl. Zimmermann) erzeugt wird, indem es sich der Choreographie unterwirft. Die Machtkonstellation Choreograph – Tänzer wird subvertiert, indem die Stücke die Namen der porträtierten Tänzer tragen. Neben der unorthodoxen Namensgebung stellt die Art und Weise, wie die Tänzer_innen agieren, ebenfalls eine Verschiebung der Normen dar. Das private Selbst und das "choreographisches Selbst" werden einander gegenübergestellt und höhlen sich dadurch gegenseitig aus. Insgesamt gibt der Sammelband Performing Politics einen guten Überblick über aktuelle Debatten im Kontext des Politischen und der darstellenden Künste. Die Beiträge decken ein weites thematisches Spektrum ab; durch die Bündelung unter übergreifende Themen gelingt es jedoch, Querverbindungen zwischen den einzelnen Beiträgen herzustellen. Viele Autoren_innen arbeiten sich an der Schnittstelle von Theorie und Praxis der Kunst ab, tun dies jedoch aus sehr unterschiedlichen Perspektiven. Es finden sich aber auch spannende Beispiele und Berichte aus der Praxis von/über: Nature Theater of Oklahoma, Labofii, Kollektive Aktionen (KA), The Big Art Group, Kollektiv Bauchladen Monopol, deufert&plischke, Jérôme Bel und Forced Entertainment. Theoretisch besonders anregend ist der Abschnitt "Ein anderes Subjekt des Politischen", der Einblick in aktuelle philosophische Debatten (Jean-Luc Nancy) gibt, ohne jedoch den Kunstkontext hinter sich zu lassen. Die Beiträge zu "Politiken des Raumes" geben ungewohnte und spannende Perspektiven in Hinblick auf Raum, Stadt, Kapitalismus und Öffentlichkeit. Der Abschnitt "Interventionen" spiegelt wiederum sehr gut den aktuellen Trend zu aktionistischen und interventionistischen Kunstformen wieder. Andererseits taucht darin die alte Debatte um den "Zweck von Kunst" überhaupt auf, in der die Verfechter des l'art pour l'art jenen gegenüberstehen, die Kunst dem Zweck der Politik (oder anderen Zwecken) unterordnen wollen. Zusammenfassend lässt sich sagen, dass es sich um eine vielseitige und spannende Lektüre für all jene handelt, die einen Überblick über aktuelle Debatten zur Thematik suchen. Es finden sich aber sicher auch Anregungen für auf diesem Gebiet bereits versierte Leser_innen.
Córdoba es la segunda ciudad más poblada de la Argentina, y posee el ejido municipal más extenso del país, siendo un importante centro industrial y de servicios del centro del país. Es además la cabecera de la segunda región metropolitana argentina, el Área Metropolitana de Córdoba (AMCBA). Si bien el desarrollo de sus áreas centrales y periurbanas es un tema bastante desarrollado académicamente, actualmente hay un vacío de conocimiento en la situación actual de las áreas pericentrales e intermedias de esta ciudad -aun cuando ocupan más del 30% del área urbanizada y donde habita la mayor parte de su población-. Es en estas áreas donde se ubica el objeto de estudio de esta tesis: los barrios pericentrales que forman un anillo alrededor del área central. Originados como extensiones suburbanas alrededor de 1940, y consolidados como barrios residenciales de clase media y media alta de baja densidad antes de 1970, ocupan lo que son hoy algunas de las áreas con mejor calidad ambiental y urbana de la ciudad. Los barrios pericentrales son considerados generalmente consolidados y estables; sin embargo, analizados en detalle, muestran complejas transformaciones: un vaciamiento poblacional constante, a pesar del crecimiento demográfico en general de Córdoba y el AMCBA; aumento de inmuebles abandonados; y a diferencia de sectores en una similar posición, no son objeto de grandes inversiones inmobiliarias de renovación urbana. Esta situación es invisibilizada, en parte por ser resultado de procesos con poco impacto relativo en la ciudad, y en parte porque estos procesos no están contemplados por los modelos urbanos locales vigentes –basados en la teoría racionalista y determinista de principios del siglo XX-, que conceptualizan a los barrios pericentrales como una "panacea urbana". Esta tesis puso en disputa estos modelos, partiendo de la discusión sobre un fenómeno informal detectado indefectiblemente (aunque no exclusivamente) en estos barrios pericentrales: la microdensificación emergente. La imposibilidad de colocar los inmuebles existentes en el mercado hace que los propietarios busquen nuevas formas de valorizar sus propiedades, de facilitar el acceso a la vivienda a sus hijos o de invertir sus ahorros de forma segura, obteniendo una fuente adicional de ingresos: en cada parcela edificada se aumenta la cantidad de unidades funcionales, aprovechando la superficie construible vacante o refuncionalizando las construcciones obsoletas, aunque manteniendo el grano y la escala de intervención respecto al tejido existente. La oferta de hábitat en estos barrios se diversifica, y no sólo evita la expulsión de población, sino que también atrae a nuevos habitantes. Además, en un tejido originalmente sólo residencial, incorpora actividades de comercio y servicios que enriquecen el tejido funcional. El proceso se realiza sin planificación general (y por supuesto fuera del marco legal): es la suma de acciones individuales que se reconstruyen como una "tendencia" o "patrón emergente", revitalizando el tejido urbano de forma sutil pero definitiva. Se planteó como hipótesis que la microdensificación emergente es un proceso de revitalización que aprovecha el potencial del tejido de estos barrios de forma más sostenible y eficiente que el modelo impuesto formalmente. 10 La tesis se encuadró bajo el enfoque sistémico de la complejidad. Este enfoque entiende a la ciudad como un sistema complejo y dinámico, en desarrollo constante; determinado más por las interrelaciones entre sus componentes y entre esos componentes y el contexto, que por las condiciones de cada elemento individualmente. La calidad y cantidad de estas interacciones es primordial, al punto de definir la condición urbana de una aglomeración. Según estas premisas, un sistema urbano sostenible y eficiente será aquel que, maximizando recursos materiales y humanos (y de acuerdo a la capacidad de carga del sistema) desarrolle de redes de intercambio múltiples, diversas y descentralizadas, que generen procesos de sinergia y desarrollo inclusivos. La investigación se estructuró entonces de forma tal de responder las siguientes preguntas: • En primer lugar, ¿cuáles son las condiciones específicas que catalizan la microdensificación en los barrios pericentrales de Córdoba? • Siendo la microdensificación una respuesta a una situación particular dentro del sistema urbano, ¿Cuál es el grado de sostenibilidad y eficiencia que aporta a los barrios pericentrales (en particular) y a Córdoba (en general)? • Y tras haber identificado su impacto en la estructura urbana, su potencial transformador y organizativo, ¿puede el estudio de los procesos emergentes hacer un aporte conceptual e instrumental a los modelos locales de planeamiento urbano? Primeramente, un análisis documental reconstruyó la condición específica de los barrios pericentrales, y el escenario actual de Córdoba con respecto a la producción y acceso al hábitat urbano. Luego se infirió un escenario tendencial a corto y mediano plazo, que sirvió para definir distintos patrones de territorialización, incluyendo el patrón "formal" de los barrios pericentrales. Se continuó con el análisis específico de la microdensificación, proponiendo un escenario posible a mediano plazo donde el patrón de microdensificación ha sido plenamente desarrollado, transformando cuali y cuantitativamente el tejido espacio-funcional y socioeconómico. A partir de estos resultados, se realizó un análisis comparativo de los distintos patrones de desarrollo urbano de Córdoba en cuanto a su sostenibilidad y eficiencia. Se demostró que el patrón de microdensificación en los barrios pericentrales es mucho más sostenible y eficiente que los patrones formales existentes, y se abrió la discusión que se desarrolla en la última parte de esta tesis: El argumento desarrollado en esta investigación y los resultados que de él se desprenden tienen un carácter analítico y explicativo útil para el análisis de otros escenarios en el contexto urbano argentino y latinoamericano. En primer lugar, sobre preferir la revitalización progresiva frente a la renovación total o la creación de nuevo suelo urbano en la periferia; promover una ciudad compacta, diversa e inclusiva tanto social como funcionalmente; basada en la multiplicación y diversificación de los agentes productores de ciudad; que considera estos procesos, así como los mecanismos de empoderamiento, participación y gobernanza como instrumentos para lograr mayor sostenibilidad y eficiencia en el desarrollo urbano. Por otro lado, esta tesis puso en relevancia el rol de los procesos emergentes en un sistema urbano como mecanismo vital para generar esta revitalización. Finalmente, se discute el aporte del enfoque sistémico para comprender, explicar y proponer intervenciones a la disciplina. ; Córdoba ist die Hauptstadt der gleichnamigen Provinz im Nordosten Argentiniens. Sie ist der Mittelpunkt der zweitgrößten Metropolregion des Landes (bekannt unter der spanischen Abkürzung AMCBA) und ein wichtiges kulturelles und wirtschaftliches Zentrum des Landes. Derzeit scheint die Stadt durch zwei gegensätzlichen Prozesse geprägt, die zeitgleich von statten gehen: Einerseits die Erneuerung des Zentralbereichs und der Umgebung durch Hyperverdichtung, mit dem damit verbundenen Verlust des sozialen und architektonischen Erbes und dem Zusammenbruch der vorhandenen Infrastruktur-Netzwerke. Anderseits die Expansion der gebauten Stadt auf ländliche und industrielle Gebiete der städtischen Peripherie, was aufgrund einer abnehmenden Belegungsdichte immer mehr zu einer Verdünnung der Stadtstruktur führt. Darüber hinaus konzentriert sich der Wohnungsbau auf immer kleinere Gruppen und dies obwohl sich sowohl der Wohnungsbau beschleunigt als auch das Angebot an urbanen Wohnräumen erhöht: Während private Immobilienprojekte fast ausschließlich auf Bevölkerungsgruppen mit hohem Einkommen und Investoren, die nicht in der Stadt wohnen, ausgerichtet sind, sind die staatlichen Investitionen im sozialen Wohnungsbau ausschließlich für die Bevölkerungsgruppen mit den niedrigsten Einkommen bestimmt. Dadurch entsteht ein Defizit an Wohnangeboten für die Mittelschicht Córdobas, die fast 45% der Stadtbevölkerung ausmacht. Diese Schwerpunktsetzung ist auch bei lokalen Stadtforschern und Stadtplanern zu erkennen. Die aktuelle Situation der perizentralen Gebiete und Zwischenbereiche der Stadt sind weniger präsent, obgleich diese mehr als 30 % der urbanisierten Stadtfläche einnehmen und von der Mehrheit der Stadtbevölkerung bewohnt werden. Um diese Wissenslücke zu schließen, stehen die perizentralen Stadtviertel, die das Stadtzentrum umschließen, im Mittelpunkt dieser Arbeit. Sie sind ab 1940 als Erweiterungen der Vorstadt entstanden und etablierten sich im Laufe der 1960er Jahre als Wohngebiete mit einer geringen Bevölkerungsdichte, die heute von der Mittelschicht bewohnt werden und die höchste Umweltqualität und urbane Qualität der Stadt aufweisen. Die Gesetzgebung begrenzt dabei die Bebauung der Grundstücke auf Einfamilienhäusern, um die gewünschte geringe Bevölkerungsdichte beizubehalten. Man könnte die Untersuchung von bereits konsolidierten und stabilen urbanen Sektoren als sinnlos betrachten. Doch, wenn sie im Detail analysiert werden, zeigen sich komplexe demografische, räumliche und funktionale Transformationen, die von Interesse sind. Obwohl sich über die Jahre hinweg in diesen Stadtvierteln das bis zu diesem Moment angeblich "perfekteste" Wohnmodell materialisiert hat, nämlich ein Modell, welches "alle möglichen städtischen Wohnbedürfnisse erfüllt", leidet das soziale Gefüge und die bebaute Umwelt darunter. Das aktuelle Szenario zeigt, trotz des demografischen Wachstums von Cordoba und der Metropolregion AMCBA, einen konstanten Bevölkerungsrückgang in diesen Stadtvierteln: Junge Leute verlassen die Wohngegenden, während die zurückbleibende Bevölkerung altert und die Anzahl an verlassenen Gebäude stetig steigt. Für die auf dem Immobilienmarkt angebotenen Gebäude ist es schwierig, den Immobilienwert zu halten geschweige denn Käufer zu finden. Im Gegensatz zu anderen Bereichen der Stadt, die sich in einer ähnlichen Position befinden, sind diese Stadtviertel nicht im Fokus großer Immobilienaktivitäten. Dies widerspricht ihrer privilegierten Lage innerhalb der Stadtstruktur. 2 Diese Entwicklungen wurden lange Zeit übersehen. Zum einen da sie das Ergebnis von Prozessen sind, die wenig Auswirkungen auf die Stadt haben und zum anderen weil diese Prozesse in den heutigen lokalen städtischen Wohnmodellen nicht berücksichtigt werden, welche auf rationalistischen und deterministischen Theorien aus dem Anfang des 20. Jahrhunderts basieren und diese perizentralen Stadtviertel als städtisches Allheilmittel betrachten. Es ist unmöglich eine Hypothese abzuleiten, die aktuelle oder zukünftige Szenarios der perizentralen Stadtviertel in Córdoba unter diesen Rahmenbedingungen erklärt. Daher stellt diese Arbeit solche Modelle und ihre Fähigkeit, die Entwicklung der Stadt zu erklären oder in ihr effektiv zu arbeiten, in Frage und schlägt einen theoretischen Rahmen vor, der zum Verständnis, zur Erklärung und zur effektiven Umsetzung in der Stadt beitragen soll. Dies erfolgt auf Grundlage der Auseinandersetzung mit einem informellen Phänomen, welches deutlich (aber nicht ausschließlich) in diesen perizentralen Stadtvierteln erkennbar ist: die aufkommende Mikroverdichtung. Aufgrund der bereits genannten Unmöglichkeit, existierende Immobilien gewinnbringend auf den Markt zu bringen, suchen Eigentümer neue Wege, um ihr Wohneigentum aufzuwerten, ihren Kindern den Zugang zu einer Wohnung zu erleichtern oder ihre Ersparnisse sicher zu investieren und sich dadurch eine zusätzliche Einnahmequelle außerhalb des traditionellen Immobilienmarktes zu sichern. Aus diesem Grund erhöhen die Eigentümer die Anzahl der funktionalen Einheiten auf ihrem Grundstück, indem sie freie Fläche bebauen oder veraltete Konstruktionen renovieren. Das Stadtgefüge wird dabei durch diese Eingriffe nicht tiefgreifend verändert. Des Weiteren wird das Wohnraumangebot in diesen Stadtvierteln umfangreicher und verhindert nicht nur die Verdrängung der alten Bewohner, sondern zieht auch neue an. Auch werden dem ursprünglichen Wohngebiet zusätzliche nicht-residentielle Nutzungen hinzugefügt, die das Stadtgefüge bereichern. Letztendlich hat die Mikroverdichtung der perizentralen Nachbarschaften eine spezielle Eigenschaft, und zwar seinen emergenten / aufkommenden Zustand: Der Prozess erfolgt ohne allgemeine Planung (und auch außerhalb des rechtlichen Rahmens). Hauptakteure dieses Wandels sind die Eigentümer selbst, die ohne jegliche vorherige Absprachen agieren. Ob aus Notwendigkeit oder aus Opportunismus heraus, es handelt sich dabei um einen fragmentierten Prozess. Es beinhaltet eine Vielzahl individueller Aktionen, die als ein "Trend" oder "neu aufkommendes Muster" innerhalb der allgemeinen Organisation der perizentralen Stadtviertel zu begreifen sind und das Stadtgefüge auf subtile aber endgültige Art und Weise erneuern. Die vorliegende Arbeit stellt die Hypothese auf, dass die aufkommende Mikroverdichtung in diesen Stadtvierteln von Córdoba ein Revitalisierungsprozess ist, der das Potenzial des Stadtgefüges nachhaltiger und effizienter nutzt als das formell auferlegte Stadtentwicklungsmodell. Aufgrund des offenkundigen Gegensatzes zwischen dieser Hypothese und den aktuellen Rahmenbedingungen der lokalen Stadtentwicklung, ist es notwendig, einen theoretischen Rahmen zu schaffen, der die offensichtlichen Widersprüche auflöst und die Arbeitshypothese einrahmt. Diese These ordnet sich dem systemischen Ansatz der Komplexität zu, der analytischen Erforschung von komplexen Systemen. Dieser theoretische Rahmen ermöglicht, die aufkommenden Prozesse als integraler Bestandteil einer Stadt (ein "urbanes System"), seine Entwicklung im Laufe der Zeit, seine Komplexität und die Faktoren, von denen die urbane Nachhaltigkeit und Effizienz abhängen, zu erklären. Der systemische Ansatz begreift die Stadt als ein komplexes und dynamisches System in ständiger Entwicklung; ein System, das eher durch die Wechselbeziehungen zwischen seinen Komponenten und zwischen diesen und dem Kontext bestimmt wird, als durch den einzelnen Zustand jedes Elements. Die Qualität und Quantität dieser Interaktionen steht dabei an erster Stelle und definiert sogar den urbanen Zustand eines Ballungsgebietes. Urbanität ist nicht allein durch ihre Größe oder ihre Dichte gegeben, sondern ist gemäß der Synergie definiert, die durch eine Vielzahl an verschiedenen Interaktionen und Wech3 selwirkungen zwischen unterschiedlichen Akteuren produziert wird. Dieser Prozess heißt Synoikismos. Die Entfaltung der technologischen, sozialen und politischen Entwicklungen und Innovationen, die den städtischen Zustand charakterisieren, ist das inhärente Ergebnis dieser Interaktionen und eine direkte Funktion ihrer Intensität, Vielfalt und Redundanz, sowohl räumlich als auch zeitlich. Laut diesen Voraussetzungen ist ein nachhaltiges und effizientes Städtesystem eines, das durch die Maximierung der menschlichen und materiellen Ressourcen (und der Systembelastbarkeit entsprechend) mehrere unterschiedliche und dezentrale Austauschnetzwerke entwickelt, die inklusive Synergie- und Entwicklungsprozesse erzeugen. Dies bedeutet zum einen eine energieeffiziente Stadt, auch effizient im Konsum jeglicher Ressourcen und zum anderen eine kompakte Stadt, welche mehrere Begegnungen zwischen verschiedenen Akteuren ermöglicht, die Beteiligung an politischen Mechanismen und die intensive Nutzung des öffentlichen Raums, die Fußgängermobilität und eine funktionale und soziale Vielfalt in der Stadt fördert. Dies schließt auch Flexibilität und Anpassungsfähigkeit an Veränderungen durch Widerstands- oder Transformationsprozesse ein. Laut den lokalen Stadtentwicklungsmodellen, sind aufkommende und informelle Prozesse, wie die Mikroverdichtung, ein Zeichen der Krise im städtischen System: Anomalien, die durch die Entwicklung von schädlichen Prozessen im Konflikt mit dem Rest der Stadtstruktur entstanden sind. Konflikte, die sogar zum Zusammenbruch führen können. Laut dem theoretischen Ansatz dieser Arbeit jedoch, können diese Prozesse auch als Versuch des Systems verstanden werden, sich selbst zu regulieren und sich an neue Situationen anzupassen: Als Antwort auf ein ungelöstes Spannungsszenario; eine Art und Weise, in der das System sich selbst organisiert, um auf diese Spannung zu reagieren, indem ein neues Gleichgewicht gesucht wird. Die Arbeit strukturiert sich anhand von diesem theoretischen Rahmen, um die folgenden Fragen beantworten zu können: • Erstens, welche besonderen Rahmenbedingungen führen zu der aufkommenden Mikroverdichtung in den perizentralen Stadtvierteln in Córdoba? • Begreift man die Mikroverdichtung als Antwort auf eine bestimmte Situation innerhalb des städtischen Systems, stellt sich folgende zweite Frage: Welches Ausmaß an Nachhaltigkeit und Effizienz ermöglichen die Prozesse der Mikroverdichtung in den perizentralen Stadtvierteln im Speziellen und in Córdoba im Allgemeinen? • Nach der Identifizierung der Auswirkungen dieser Prozesse auf die Stadtstruktur, sowie des damit einhergehenden transformativen und organisatorischen Potenzials steht die dritte Frage im Raum: Kann die Erforschung von aufkommenden Prozessen dieser Art einen konzeptionellen und instrumentellen Beitrag zur lokalen Stadtplanung leisten? Um diesen Fragen nachzugehen wurde im weiteren Verlauf der Forschung eine Dokumentenanalyse durchgeführt, um den spezifischen Zustand der perizentralen Stadtviertel, der das Phänomen der aufkommenden Mikroverdichtung ermöglicht, zu rekonstruieren. Diese Analyse vollzog sich in zwei Schritten: Als Erstes wurden die perizentralen Stadtviertel und der Grund für ihr besonderes Urbanisierungsmuster historisch rekonstruiert und dadurch als (nahezu) monofunktionelle Wohnviertel mit einer geringen Bevölkerungsdichte identifiziert. Als Zweites wurde das aktuelle urbane Szenario Córdobas hinsichtlich der Produktion von und dem Zugang zu städtischem Habitat analysiert, um urbane, regionale und globale Variablen zu entwickeln, die die Entwicklungstrends der Stadt bestimmen. Dieses Vorgehen ermöglichte die Formulierung eines umfassendes Arguments, das alle Prozesse erklärt, die bisher als "gleichzeitig aber widersprüchlich" erfasst wurden. Darüber hinaus erklärt und prognostiziert dieses Argument die "undenkbare" Situation von perizentralen Stadtvierteln. Nach der Rekonstruktion des aktuellen Szenarios wurde ein kurzes und mittelfristiges (10 Jahren) Trendszenario des Phänomens abgeleitet. Dies diente dazu, die unterschiedlichen 4 Entwicklungsmuster in Córdoba zu vergleichen und deren Auswirkungen auf die Stadtstruktur zu bewerten. Im weiteren Verlauf der Arbeit wurde die Analyse der Mikroverdichtung hinsichtlich der Veränderungen im sozialen, funktionalen und räumlichen Stadtgefüge fortgeführt. Als Ergebnis wurde ein mögliches Zukunftsszenario vorgeschlagen, bei dem das Muster der Mikroverdichtung formalisiert und somit das räumlich-funktionale und sozioökonomische Gefüge der Stadtviertel transformiert wurde. Anschließend wurden das Potenzial und die Stärken (und Schwächen) gegenüber dem mittelfristigen Trendszenario von Córdoba und den perizentralen Stadtvierteln spezifiziert. Basierend auf diesen Ergebnissen wurden verschiedene Stadtentwicklungsmuster von Córdoba mithilfe der Variablen analysiert, die als strukturelle Bedingungen für Nachhaltigkeit und Effizienz definiert waren. Mit dem Ergebnis, dass die Nachhaltigkeit und die Effizienz der Mikroverdichtungsszenarien deutlich größer war als in den aktuellen Trendszenarien. Die vorliegende Analyse konnte somit die Hypothese dieser Arbeit belegen. Im letzten Abschnitt der Arbeit wurde der Diskussionsteil eröffnet. Die erste Diskussion befasste sich mit der Entwicklung, die eine progressive Revitalisierung fördert anstatt einer vollständigen Erneuerung des Stadtgefüges oder der Schaffung von neuem städtischem Land in der ruralen Peripherie der Stadt. Zudem fördert sie sowohl auf soziale, räumliche als auch funktionale Art und Weise eine kompakte, vielfältige und integrative Stadt. Diese Entwicklung beruht auf der Multiplikation und Diversifizierung der Akteure, die im Städtebau involviert sind, und betrachtet diese Prozesse, sowie die Ermächtigungs-, Beteiligungs- und Staatsführungsmechanismen als Instrumente zur Erlangung einer größeren Nachhaltigkeit und Effizienz in der Stadtentwicklung. Das bedeutet, eine Stadt, die in der Lage ist, kreativere Synergien zu schaffen und so zu sozialen, technologischen und wirtschaftlichen Vorteilen kommt. Des Weiteren betonte diese Arbeit die Rolle der aufkommenden Prozesse in einem städtischen System. Die aufkommende Mikroverdichtung hat wenig Einfluss auf die städtische Struktur von Córdoba. Jedoch ist es ein wichtiger Mechanismus, um die Verarmung und den Verlust von Ressourcen in perizentralen Bereichen und Zwischengebieten zu verhindern, d.h. um den partiellen Zusammenbruch der städtischen Struktur zu vermeiden und gleichzeitig Urbanität in Gebieten zu schaffen, die als bloße Wohnungsviertel charakterisiert sind. In der Stadtplanung ist es wichtig, auf aufkommende Prozesse in der Stadtentwicklung und auf die Erzeugung von Synergien Wert zu legen. Ihre Einbeziehung in die kritische Analyse beinhaltet die Entwicklung von Planungsinstrumenten, die nicht nur die Notwendigkeit der Dezentralisierung der Stadtentwicklung und der Entscheidungsfindung erkennen können, sondern die auch in der Lage sind, die Ungewissheit als Variable zu integrieren. Darüber hinaus müssen sie flexibel genug sein, um Veränderungen und die Notwendigkeit für Korrekturen und Anpassungen im Laufe der Zeit zu erkennen. Das Argument dieser Arbeit hat einen analytischen und erklärenden Charakter, der für die Analyse von anderen urbanen Szenarien in Argentinien und Lateinamerika nützlich ist. Dies ermöglicht die Verallgemeinerung sowohl der Ergebnisse als auch der theoretischen Annäherung an städtische Phänomene, basierend auf dem Stadt-Verständnis als komplexes, für ihre Umgebung offenes System, welches weit entfernt vom Gleichgewicht ist. Der größte Beitrag dieser Arbeit zur Urbanistik ist das Verständnis der Rolle der aufkommenden Phänomene und die Analyse der Widersprüche und Spannungen innerhalb der traditionellen lokalen Stadtmodelle, die auch Ausgrenzungen und Ungerechtigkeit im Zugang zu Stadt hervorhebt. Die Rolle des Staates und des Immobilienmarktes in der Stadtentwicklung von Cordoba wurde denaturiert und eine dialektische Artikulation der Logik des territorialen Lebensraumes in der Stadt, die sowohl Produktions- und Zugangsstrategien als auch die scheinbaren Widersprüche in der Stadtentwicklung der lateinamerikanischen mittelgroßen Städten erklärt, wurde vorgeschlagen. ; Córdoba is the capital of the province of Córdoba, in Argentina. It is also the principal city of the second-most populous metropolitan area of the country, the Greater Córdoba Metropolitan Area (AMCBA according to its acronym in Spanish), with strengths in business, automotive industry, culture, education, and research. Currently, the city seems to develop in two simultaneous and opposing processes: On the one hand, renovation by densification of the central area and its extensions, with losses of social and built heritage, and the collapse of infrastructure networks that this entails. On the other hand, extension of the urbanized area over rural and industrial periphery, with dwindling occupancy densities that dilute the urban structure more and more in the territory. Besides that, although housing production accelerates -increasing its supply-, it is concentrated in ever smaller groups: while real estate projects are targeted almost exclusively at high-income sectors and investors who do not live in the city, State investment in social housing is allocated exclusively to lower income sectors. This situation produces a deficit in proposals aimed at the so-called "middle class", even though it makes up of almost 45% of the city´s population. In addition, these processes concentrate the interest of the greater part of both local academics and urban planners. This situation produces a knowledge gap in the current situation of Córdoba´s pericentral and intermediate areas, which occupy more than 30% of the city´s urbanized land (and where the majority of this city´s inhabitants reside). It is there where this thesis´ case study is located: the pericentral districts that surround the central area. They originated as suburban extensions around 1940, and consolidated as middle-class/low-density residential neighborhoods before 1970. Today, they occupy some of the best environmental and urban quality areas of the city. Even land-use regulation specifically limits occupancy to single-family dwellings on individual plots to maintain the desired low-density residential neighborhood pattern. We can discuss the futility of studying urban sectors considered already consolidated and stable; however, when analyzed in detail, pericentral areas show complex demographic, spatial, and functional transformations that contradict this characterization: Despite the fact that these neighborhoods materializes the supposedly "most perfect" residential model known until now, a model "that solves each and every one of the urban-life needs", its social and built fabric resents. The current scenario shows a constant population-shrinking process, in spite of the demographic growth of both Córdoba and the AMCBA. Young people leaves these neighborhoods, while the remaining population ages. Abandoned buildings constantly increase; the ones offered in the real estate market have difficulties to find buyers, or even to maintain their price, which contradicts its privileged status within the city. At the same time -and unlike areas in a similar position- these neighborhoods are not the object of major real estate investments. Local academics and urban planners overlook this situation, in part because it is the result of processes with relative less impact in the city, and in part because these processes are not covered by current local urban models -based on the rationalist and deterministic urban theory of early 20th century-, which conceptualize suburban neigh6 borhoods as an urban panacea. It is impossible to deduce a hypothesis that explains the current nor the trend scenario of pericentral neighborhoods of Córdoba in terms of that framework. Therefore, this thesis discussed those theoretical models, and its capacity to explain Córdoba´s development. It proposed a theoretical framework that allowed understanding, explaining, and operating effectively in the city. It did so based on the discussion of an informal phenomenon unfailingly (but not exclusively) detected in pericentral neighborhoods: the emergent micro-densification. Given the impossibility of advantageously placing their properties in the housing market -due to factors such as land-use restrictions, and specific conditions of the local real estate market-, the landowners seek new ways to valorize their properties, facilitate access to housing for their children, or profitably invest their savings, obtaining an additional income outside the "traditional" real estate market. They increase the number of functional units in their plots, occupying the vacant building area or refurbishing obsolete constructions, while maintaining the intervention scale in relation to the existing urban fabric. These neighborhoods´ housing supply diversifies; and it not only prevents the expulsion of population, but it also attracts new inhabitants. In addition, in an originally residential fabric, it incorporates non-residential activities that enrich the urban fabric. Finally, micro-densification in pericentral neighborhoods presents a differential quality: its "emergent" condition. The process carries out without general planning (and of course outside the legal framework); inhabitants/landowners decide to do so, without any prior agreement. It is an atomized and fragmented process, result of necessity or opportunism. It is the sum of individual actions reconstructed as a "trend", or an "emerging pattern" within the general organization of pericentral neighborhoods, revitalizing the urban fabric in a subtle but definitive way. This research hypothesized that emergent micro-densification in these neighborhoods is a process of revitalization that harnesses the potential of their urban fabric; it does so in a more sustainable and efficient way than the current urban development patterns. Faced with the manifest opposition between this hypothesis and the current local urFaced with the manifest opposition between this hypothesis and the current local urban development framework, it was necessary to construct a theoretical framework able to solve the apparent contradictions detected -that the latter cannot explain-, and frame the working hypothesis. Therefore, this thesis is framed under the systemic complexity approach, that is, the analytical study of complex systems. This theoretical framework has the capacity to explain emergent processes as integral part of a city, its development over time, its complexity, and the factors on which urban sustainability and efficiency depend. The systemic approach understands the city as a complex and dynamic system, in constant development; a system determined more by interrelationships between its components, and between those components and the context, than by the individual conditions of each component. The quality and quantity of these interactions is paramount, to the point of defining the urban condition of a human agglomeration in the territory: urbanity is not given merely by the size or density of a human agglomeration; it is defined in terms of the synergy produced by a large number of different interactions between different agents; a process called synekism. The generation of innovation, and technological/social/political development that characterize the urban condition is an inherent result of these interactions, and a direct function of the intensity, diversity, and redundancy of them in the territory, over time. 7 A sustainable and efficient urban system will be one that, by maximizing material and human resources (and according to the system´s load capacity), develops decentralized, multi-exchange networks; one capable of generating synergy and inclusive development. This implies an energy efficient city, but also efficient in the consumption of any type of resources; a compact city, which prioritizes participatory political mechanisms and intensive use of public spaces, but also pedestrian mobility, and functional and social diversity. It also implies flexibility and adaptability in the face of changes, through processes of resilience or transformation. According to local urban development models, emergent and informal processes such as micro-densification are a sign of crisis within the urban system: anomalies due to the development of harmful processes, in conflict with the rest of the urban structure; conflicts that may even lead to the city´s collapse. But according to the theoretical approach proposed in this thesis, these processes can also be identified as an attempt by the system to self-regulate and adapt to new situations: as a response to a scenario of tension; a way in which the system self-organizes, and responds to that tension seeking a new equilibrium. The research is then structured in order to answer the following questions: • First, what are the specific conditions that catalyze micro-densification in the pericentral neighborhoods of Córdoba? • Second, since micro-densification is a response to a particular situation within the urban system, what is the degree of sustainability and efficiency that transformations through micro-densification provides to pericentral neighborhoods (in particular) and to Córdoba (in general)? • Finally, having identified the impact of such processes on the urban structure, and its transformative and organizational potential, can the study of emergent processes make a conceptual or instrumental contribution to local urban planning? The research continued with a document analysis that reconstructs the specific condition of pericentral neighborhoods of Córdoba -which catalyzes the phenomenon of emergent micro-densification-. This stage developed in two parts: In the first place, we historically reconstruct pericentral neighborhoods of Córdoba, and the reasons for their urbanization pattern, which consolidates them as residential, (virtually) mono-functional, low-density, middle-class neighborhoods. Secondly, we analyzed Córdoba´s current scenario -with respect to the production and access to urban habitat- establishing urban, regional, and global variables that determine the city´s current development trends. This analysis allowed us to develop a comprehensive argument that explains all the processes that until now were conceptualized as "simultaneous but contradictory". It also explains and predicts the "unthinkable" situation of pericentral neighborhoods. After reconstructing the current scenario and defining different development patterns in Córdoba (including the "formal" pericentral neighborhoods´ pattern), we inferred a trend scenario in the short and medium term (10 years). We continued analyzing the micro-densification phenomenon, in terms of its social, functional, and spatial urban fabric transformations. As a result, a possible future scenario was proposed in which the micro-densification pattern has been formalized, transforming qualitatively and quantitatively the spatial-functional and socio-economic fabric. We specified their potential and strengths (as well as their weaknesses), against the future trend scenario of Córdoba and the pericentral neighborhoods. 8 Based on these results, we analyzed the different urban development patterns in Córdoba according to the variables defined as structural conditions of sustainability and efficiency: The sustainability and efficiency of the micro-densification scenario are much greater than those of the current trends scenario. Therefore, we verified the working hypothesis, and opened the discussion of this thesis. A first line of discussion dealt with development that fosters progressive revitalization, instead of complete renewal of urban fabric, or creation of new urban land on city´s rural periphery. Development that promotes a compact, diverse, and inclusive city, both socially, spatially and functionally; based on the multiplication and diversification of city-building agents. Development that considers these processes, as well as the mechanisms of empowerment, participation, and governance as instruments to achieve greater sustainability and efficiency in urban development. A city capable of generating more creative synergy, which translates into social, technological, and economic benefits. We denatured both the role of the State and the real estate market in the urban development of Córdoba; we proposed a dialectical articulation of different logics of urban development, explaining both the production and access strategies to habitat, and the apparent contradictions in urban development of Latin American middle cities. This thesis´ argument has an analytical and explanatory character, useful for analyzing other urban systems in Argentina and Latin America. It allows the generalization of both the results and the theoretical approach to urban phenomena, understanding the city as a complex system open to its surroundings and far from equilibrium. On the other hand, this thesis emphasized the role of emergent processes in an urban system. So far, emergent micro-densification has little impact on Córdoba´s urban structure. However, it is a vital mechanism to prevent pauperization and loss of resources in pericentral and intermediate urban areas -that is to say, to avoid the partial collapse of the urban structure-, while generating urbanity in areas characterized as mere residential fragments. It is essential to give importance in urban development and in generation of synergy to emergent processes. Incorporating them into critical analysis and diagnosis involves developing planning tools capable not only of recognizing the need to decentralize urban development and sharing decision-making, but also capable of incorporating uncertainty as a variable. In addition, they must be flexible enough to detect changes and the need for adjustment and adaptation over time. This thesis makes its greatest contribution to urban studies by helping to understand the role of emergent phenomena, highlighting contradictions and tensions within the traditional local urban models, and exclusions and inequities driven by those models.
Córdoba es la segunda ciudad más poblada de la Argentina, y posee el ejido municipal más extenso del país, siendo un importante centro industrial y de servicios del centro del país. Es además la cabecera de la segunda región metropolitana argentina, el Área Metropolitana de Córdoba (AMCBA). Si bien el desarrollo de sus áreas centrales y periurbanas es un tema bastante desarrollado académicamente, actualmente hay un vacío de conocimiento en la situación actual de las áreas pericentrales e intermedias de esta ciudad -aun cuando ocupan más del 30% del área urbanizada y donde habita la mayor parte de su población-. Es en estas áreas donde se ubica el objeto de estudio de esta tesis: los barrios pericentrales que forman un anillo alrededor del área central. Originados como extensiones suburbanas alrededor de 1940, y consolidados como barrios residenciales de clase media y media alta de baja densidad antes de 1970, ocupan lo que son hoy algunas de las áreas con mejor calidad ambiental y urbana de la ciudad. Los barrios pericentrales son considerados generalmente consolidados y estables; sin embargo, analizados en detalle, muestran complejas transformaciones: un vaciamiento poblacional constante, a pesar del crecimiento demográfico en general de Córdoba y el AMCBA; aumento de inmuebles abandonados; y a diferencia de sectores en una similar posición, no son objeto de grandes inversiones inmobiliarias de renovación urbana. Esta situación es invisibilizada, en parte por ser resultado de procesos con poco impacto relativo en la ciudad, y en parte porque estos procesos no están contemplados por los modelos urbanos locales vigentes –basados en la teoría racionalista y determinista de principios del siglo XX-, que conceptualizan a los barrios pericentrales como una "panacea urbana". Esta tesis puso en disputa estos modelos, partiendo de la discusión sobre un fenómeno informal detectado indefectiblemente (aunque no exclusivamente) en estos barrios pericentrales: la microdensificación emergente. La imposibilidad de colocar los inmuebles existentes en el mercado hace que los propietarios busquen nuevas formas de valorizar sus propiedades, de facilitar el acceso a la vivienda a sus hijos o de invertir sus ahorros de forma segura, obteniendo una fuente adicional de ingresos: en cada parcela edificada se aumenta la cantidad de unidades funcionales, aprovechando la superficie construible vacante o refuncionalizando las construcciones obsoletas, aunque manteniendo el grano y la escala de intervención respecto al tejido existente. La oferta de hábitat en estos barrios se diversifica, y no sólo evita la expulsión de población, sino que también atrae a nuevos habitantes. Además, en un tejido originalmente sólo residencial, incorpora actividades de comercio y servicios que enriquecen el tejido funcional. El proceso se realiza sin planificación general (y por supuesto fuera del marco legal): es la suma de acciones individuales que se reconstruyen como una "tendencia" o "patrón emergente", revitalizando el tejido urbano de forma sutil pero definitiva. Se planteó como hipótesis que la microdensificación emergente es un proceso de revitalización que aprovecha el potencial del tejido de estos barrios de forma más sostenible y eficiente que el modelo impuesto formalmente. 10 La tesis se encuadró bajo el enfoque sistémico de la complejidad. Este enfoque entiende a la ciudad como un sistema complejo y dinámico, en desarrollo constante; determinado más por las interrelaciones entre sus componentes y entre esos componentes y el contexto, que por las condiciones de cada elemento individualmente. La calidad y cantidad de estas interacciones es primordial, al punto de definir la condición urbana de una aglomeración. Según estas premisas, un sistema urbano sostenible y eficiente será aquel que, maximizando recursos materiales y humanos (y de acuerdo a la capacidad de carga del sistema) desarrolle de redes de intercambio múltiples, diversas y descentralizadas, que generen procesos de sinergia y desarrollo inclusivos. La investigación se estructuró entonces de forma tal de responder las siguientes preguntas: • En primer lugar, ¿cuáles son las condiciones específicas que catalizan la microdensificación en los barrios pericentrales de Córdoba? • Siendo la microdensificación una respuesta a una situación particular dentro del sistema urbano, ¿Cuál es el grado de sostenibilidad y eficiencia que aporta a los barrios pericentrales (en particular) y a Córdoba (en general)? • Y tras haber identificado su impacto en la estructura urbana, su potencial transformador y organizativo, ¿puede el estudio de los procesos emergentes hacer un aporte conceptual e instrumental a los modelos locales de planeamiento urbano? Primeramente, un análisis documental reconstruyó la condición específica de los barrios pericentrales, y el escenario actual de Córdoba con respecto a la producción y acceso al hábitat urbano. Luego se infirió un escenario tendencial a corto y mediano plazo, que sirvió para definir distintos patrones de territorialización, incluyendo el patrón "formal" de los barrios pericentrales. Se continuó con el análisis específico de la microdensificación, proponiendo un escenario posible a mediano plazo donde el patrón de microdensificación ha sido plenamente desarrollado, transformando cuali y cuantitativamente el tejido espacio-funcional y socioeconómico. A partir de estos resultados, se realizó un análisis comparativo de los distintos patrones de desarrollo urbano de Córdoba en cuanto a su sostenibilidad y eficiencia. Se demostró que el patrón de microdensificación en los barrios pericentrales es mucho más sostenible y eficiente que los patrones formales existentes, y se abrió la discusión que se desarrolla en la última parte de esta tesis: El argumento desarrollado en esta investigación y los resultados que de él se desprenden tienen un carácter analítico y explicativo útil para el análisis de otros escenarios en el contexto urbano argentino y latinoamericano. En primer lugar, sobre preferir la revitalización progresiva frente a la renovación total o la creación de nuevo suelo urbano en la periferia; promover una ciudad compacta, diversa e inclusiva tanto social como funcionalmente; basada en la multiplicación y diversificación de los agentes productores de ciudad; que considera estos procesos, así como los mecanismos de empoderamiento, participación y gobernanza como instrumentos para lograr mayor sostenibilidad y eficiencia en el desarrollo urbano. Por otro lado, esta tesis puso en relevancia el rol de los procesos emergentes en un sistema urbano como mecanismo vital para generar esta revitalización. Finalmente, se discute el aporte del enfoque sistémico para comprender, explicar y proponer intervenciones a la disciplina. ; Córdoba ist die Hauptstadt der gleichnamigen Provinz im Nordosten Argentiniens. Sie ist der Mittelpunkt der zweitgrößten Metropolregion des Landes (bekannt unter der spanischen Abkürzung AMCBA) und ein wichtiges kulturelles und wirtschaftliches Zentrum des Landes. Derzeit scheint die Stadt durch zwei gegensätzlichen Prozesse geprägt, die zeitgleich von statten gehen: Einerseits die Erneuerung des Zentralbereichs und der Umgebung durch Hyperverdichtung, mit dem damit verbundenen Verlust des sozialen und architektonischen Erbes und dem Zusammenbruch der vorhandenen Infrastruktur-Netzwerke. Anderseits die Expansion der gebauten Stadt auf ländliche und industrielle Gebiete der städtischen Peripherie, was aufgrund einer abnehmenden Belegungsdichte immer mehr zu einer Verdünnung der Stadtstruktur führt. Darüber hinaus konzentriert sich der Wohnungsbau auf immer kleinere Gruppen und dies obwohl sich sowohl der Wohnungsbau beschleunigt als auch das Angebot an urbanen Wohnräumen erhöht: Während private Immobilienprojekte fast ausschließlich auf Bevölkerungsgruppen mit hohem Einkommen und Investoren, die nicht in der Stadt wohnen, ausgerichtet sind, sind die staatlichen Investitionen im sozialen Wohnungsbau ausschließlich für die Bevölkerungsgruppen mit den niedrigsten Einkommen bestimmt. Dadurch entsteht ein Defizit an Wohnangeboten für die Mittelschicht Córdobas, die fast 45% der Stadtbevölkerung ausmacht. Diese Schwerpunktsetzung ist auch bei lokalen Stadtforschern und Stadtplanern zu erkennen. Die aktuelle Situation der perizentralen Gebiete und Zwischenbereiche der Stadt sind weniger präsent, obgleich diese mehr als 30 % der urbanisierten Stadtfläche einnehmen und von der Mehrheit der Stadtbevölkerung bewohnt werden. Um diese Wissenslücke zu schließen, stehen die perizentralen Stadtviertel, die das Stadtzentrum umschließen, im Mittelpunkt dieser Arbeit. Sie sind ab 1940 als Erweiterungen der Vorstadt entstanden und etablierten sich im Laufe der 1960er Jahre als Wohngebiete mit einer geringen Bevölkerungsdichte, die heute von der Mittelschicht bewohnt werden und die höchste Umweltqualität und urbane Qualität der Stadt aufweisen. Die Gesetzgebung begrenzt dabei die Bebauung der Grundstücke auf Einfamilienhäusern, um die gewünschte geringe Bevölkerungsdichte beizubehalten. Man könnte die Untersuchung von bereits konsolidierten und stabilen urbanen Sektoren als sinnlos betrachten. Doch, wenn sie im Detail analysiert werden, zeigen sich komplexe demografische, räumliche und funktionale Transformationen, die von Interesse sind. Obwohl sich über die Jahre hinweg in diesen Stadtvierteln das bis zu diesem Moment angeblich "perfekteste" Wohnmodell materialisiert hat, nämlich ein Modell, welches "alle möglichen städtischen Wohnbedürfnisse erfüllt", leidet das soziale Gefüge und die bebaute Umwelt darunter. Das aktuelle Szenario zeigt, trotz des demografischen Wachstums von Cordoba und der Metropolregion AMCBA, einen konstanten Bevölkerungsrückgang in diesen Stadtvierteln: Junge Leute verlassen die Wohngegenden, während die zurückbleibende Bevölkerung altert und die Anzahl an verlassenen Gebäude stetig steigt. Für die auf dem Immobilienmarkt angebotenen Gebäude ist es schwierig, den Immobilienwert zu halten geschweige denn Käufer zu finden. Im Gegensatz zu anderen Bereichen der Stadt, die sich in einer ähnlichen Position befinden, sind diese Stadtviertel nicht im Fokus großer Immobilienaktivitäten. Dies widerspricht ihrer privilegierten Lage innerhalb der Stadtstruktur. 2 Diese Entwicklungen wurden lange Zeit übersehen. Zum einen da sie das Ergebnis von Prozessen sind, die wenig Auswirkungen auf die Stadt haben und zum anderen weil diese Prozesse in den heutigen lokalen städtischen Wohnmodellen nicht berücksichtigt werden, welche auf rationalistischen und deterministischen Theorien aus dem Anfang des 20. Jahrhunderts basieren und diese perizentralen Stadtviertel als städtisches Allheilmittel betrachten. Es ist unmöglich eine Hypothese abzuleiten, die aktuelle oder zukünftige Szenarios der perizentralen Stadtviertel in Córdoba unter diesen Rahmenbedingungen erklärt. Daher stellt diese Arbeit solche Modelle und ihre Fähigkeit, die Entwicklung der Stadt zu erklären oder in ihr effektiv zu arbeiten, in Frage und schlägt einen theoretischen Rahmen vor, der zum Verständnis, zur Erklärung und zur effektiven Umsetzung in der Stadt beitragen soll. Dies erfolgt auf Grundlage der Auseinandersetzung mit einem informellen Phänomen, welches deutlich (aber nicht ausschließlich) in diesen perizentralen Stadtvierteln erkennbar ist: die aufkommende Mikroverdichtung. Aufgrund der bereits genannten Unmöglichkeit, existierende Immobilien gewinnbringend auf den Markt zu bringen, suchen Eigentümer neue Wege, um ihr Wohneigentum aufzuwerten, ihren Kindern den Zugang zu einer Wohnung zu erleichtern oder ihre Ersparnisse sicher zu investieren und sich dadurch eine zusätzliche Einnahmequelle außerhalb des traditionellen Immobilienmarktes zu sichern. Aus diesem Grund erhöhen die Eigentümer die Anzahl der funktionalen Einheiten auf ihrem Grundstück, indem sie freie Fläche bebauen oder veraltete Konstruktionen renovieren. Das Stadtgefüge wird dabei durch diese Eingriffe nicht tiefgreifend verändert. Des Weiteren wird das Wohnraumangebot in diesen Stadtvierteln umfangreicher und verhindert nicht nur die Verdrängung der alten Bewohner, sondern zieht auch neue an. Auch werden dem ursprünglichen Wohngebiet zusätzliche nicht-residentielle Nutzungen hinzugefügt, die das Stadtgefüge bereichern. Letztendlich hat die Mikroverdichtung der perizentralen Nachbarschaften eine spezielle Eigenschaft, und zwar seinen emergenten / aufkommenden Zustand: Der Prozess erfolgt ohne allgemeine Planung (und auch außerhalb des rechtlichen Rahmens). Hauptakteure dieses Wandels sind die Eigentümer selbst, die ohne jegliche vorherige Absprachen agieren. Ob aus Notwendigkeit oder aus Opportunismus heraus, es handelt sich dabei um einen fragmentierten Prozess. Es beinhaltet eine Vielzahl individueller Aktionen, die als ein "Trend" oder "neu aufkommendes Muster" innerhalb der allgemeinen Organisation der perizentralen Stadtviertel zu begreifen sind und das Stadtgefüge auf subtile aber endgültige Art und Weise erneuern. Die vorliegende Arbeit stellt die Hypothese auf, dass die aufkommende Mikroverdichtung in diesen Stadtvierteln von Córdoba ein Revitalisierungsprozess ist, der das Potenzial des Stadtgefüges nachhaltiger und effizienter nutzt als das formell auferlegte Stadtentwicklungsmodell. Aufgrund des offenkundigen Gegensatzes zwischen dieser Hypothese und den aktuellen Rahmenbedingungen der lokalen Stadtentwicklung, ist es notwendig, einen theoretischen Rahmen zu schaffen, der die offensichtlichen Widersprüche auflöst und die Arbeitshypothese einrahmt. Diese These ordnet sich dem systemischen Ansatz der Komplexität zu, der analytischen Erforschung von komplexen Systemen. Dieser theoretische Rahmen ermöglicht, die aufkommenden Prozesse als integraler Bestandteil einer Stadt (ein "urbanes System"), seine Entwicklung im Laufe der Zeit, seine Komplexität und die Faktoren, von denen die urbane Nachhaltigkeit und Effizienz abhängen, zu erklären. Der systemische Ansatz begreift die Stadt als ein komplexes und dynamisches System in ständiger Entwicklung; ein System, das eher durch die Wechselbeziehungen zwischen seinen Komponenten und zwischen diesen und dem Kontext bestimmt wird, als durch den einzelnen Zustand jedes Elements. Die Qualität und Quantität dieser Interaktionen steht dabei an erster Stelle und definiert sogar den urbanen Zustand eines Ballungsgebietes. Urbanität ist nicht allein durch ihre Größe oder ihre Dichte gegeben, sondern ist gemäß der Synergie definiert, die durch eine Vielzahl an verschiedenen Interaktionen und Wech3 selwirkungen zwischen unterschiedlichen Akteuren produziert wird. Dieser Prozess heißt Synoikismos. Die Entfaltung der technologischen, sozialen und politischen Entwicklungen und Innovationen, die den städtischen Zustand charakterisieren, ist das inhärente Ergebnis dieser Interaktionen und eine direkte Funktion ihrer Intensität, Vielfalt und Redundanz, sowohl räumlich als auch zeitlich. Laut diesen Voraussetzungen ist ein nachhaltiges und effizientes Städtesystem eines, das durch die Maximierung der menschlichen und materiellen Ressourcen (und der Systembelastbarkeit entsprechend) mehrere unterschiedliche und dezentrale Austauschnetzwerke entwickelt, die inklusive Synergie- und Entwicklungsprozesse erzeugen. Dies bedeutet zum einen eine energieeffiziente Stadt, auch effizient im Konsum jeglicher Ressourcen und zum anderen eine kompakte Stadt, welche mehrere Begegnungen zwischen verschiedenen Akteuren ermöglicht, die Beteiligung an politischen Mechanismen und die intensive Nutzung des öffentlichen Raums, die Fußgängermobilität und eine funktionale und soziale Vielfalt in der Stadt fördert. Dies schließt auch Flexibilität und Anpassungsfähigkeit an Veränderungen durch Widerstands- oder Transformationsprozesse ein. Laut den lokalen Stadtentwicklungsmodellen, sind aufkommende und informelle Prozesse, wie die Mikroverdichtung, ein Zeichen der Krise im städtischen System: Anomalien, die durch die Entwicklung von schädlichen Prozessen im Konflikt mit dem Rest der Stadtstruktur entstanden sind. Konflikte, die sogar zum Zusammenbruch führen können. Laut dem theoretischen Ansatz dieser Arbeit jedoch, können diese Prozesse auch als Versuch des Systems verstanden werden, sich selbst zu regulieren und sich an neue Situationen anzupassen: Als Antwort auf ein ungelöstes Spannungsszenario; eine Art und Weise, in der das System sich selbst organisiert, um auf diese Spannung zu reagieren, indem ein neues Gleichgewicht gesucht wird. Die Arbeit strukturiert sich anhand von diesem theoretischen Rahmen, um die folgenden Fragen beantworten zu können: • Erstens, welche besonderen Rahmenbedingungen führen zu der aufkommenden Mikroverdichtung in den perizentralen Stadtvierteln in Córdoba? • Begreift man die Mikroverdichtung als Antwort auf eine bestimmte Situation innerhalb des städtischen Systems, stellt sich folgende zweite Frage: Welches Ausmaß an Nachhaltigkeit und Effizienz ermöglichen die Prozesse der Mikroverdichtung in den perizentralen Stadtvierteln im Speziellen und in Córdoba im Allgemeinen? • Nach der Identifizierung der Auswirkungen dieser Prozesse auf die Stadtstruktur, sowie des damit einhergehenden transformativen und organisatorischen Potenzials steht die dritte Frage im Raum: Kann die Erforschung von aufkommenden Prozessen dieser Art einen konzeptionellen und instrumentellen Beitrag zur lokalen Stadtplanung leisten? Um diesen Fragen nachzugehen wurde im weiteren Verlauf der Forschung eine Dokumentenanalyse durchgeführt, um den spezifischen Zustand der perizentralen Stadtviertel, der das Phänomen der aufkommenden Mikroverdichtung ermöglicht, zu rekonstruieren. Diese Analyse vollzog sich in zwei Schritten: Als Erstes wurden die perizentralen Stadtviertel und der Grund für ihr besonderes Urbanisierungsmuster historisch rekonstruiert und dadurch als (nahezu) monofunktionelle Wohnviertel mit einer geringen Bevölkerungsdichte identifiziert. Als Zweites wurde das aktuelle urbane Szenario Córdobas hinsichtlich der Produktion von und dem Zugang zu städtischem Habitat analysiert, um urbane, regionale und globale Variablen zu entwickeln, die die Entwicklungstrends der Stadt bestimmen. Dieses Vorgehen ermöglichte die Formulierung eines umfassendes Arguments, das alle Prozesse erklärt, die bisher als "gleichzeitig aber widersprüchlich" erfasst wurden. Darüber hinaus erklärt und prognostiziert dieses Argument die "undenkbare" Situation von perizentralen Stadtvierteln. Nach der Rekonstruktion des aktuellen Szenarios wurde ein kurzes und mittelfristiges (10 Jahren) Trendszenario des Phänomens abgeleitet. Dies diente dazu, die unterschiedlichen 4 Entwicklungsmuster in Córdoba zu vergleichen und deren Auswirkungen auf die Stadtstruktur zu bewerten. Im weiteren Verlauf der Arbeit wurde die Analyse der Mikroverdichtung hinsichtlich der Veränderungen im sozialen, funktionalen und räumlichen Stadtgefüge fortgeführt. Als Ergebnis wurde ein mögliches Zukunftsszenario vorgeschlagen, bei dem das Muster der Mikroverdichtung formalisiert und somit das räumlich-funktionale und sozioökonomische Gefüge der Stadtviertel transformiert wurde. Anschließend wurden das Potenzial und die Stärken (und Schwächen) gegenüber dem mittelfristigen Trendszenario von Córdoba und den perizentralen Stadtvierteln spezifiziert. Basierend auf diesen Ergebnissen wurden verschiedene Stadtentwicklungsmuster von Córdoba mithilfe der Variablen analysiert, die als strukturelle Bedingungen für Nachhaltigkeit und Effizienz definiert waren. Mit dem Ergebnis, dass die Nachhaltigkeit und die Effizienz der Mikroverdichtungsszenarien deutlich größer war als in den aktuellen Trendszenarien. Die vorliegende Analyse konnte somit die Hypothese dieser Arbeit belegen. Im letzten Abschnitt der Arbeit wurde der Diskussionsteil eröffnet. Die erste Diskussion befasste sich mit der Entwicklung, die eine progressive Revitalisierung fördert anstatt einer vollständigen Erneuerung des Stadtgefüges oder der Schaffung von neuem städtischem Land in der ruralen Peripherie der Stadt. Zudem fördert sie sowohl auf soziale, räumliche als auch funktionale Art und Weise eine kompakte, vielfältige und integrative Stadt. Diese Entwicklung beruht auf der Multiplikation und Diversifizierung der Akteure, die im Städtebau involviert sind, und betrachtet diese Prozesse, sowie die Ermächtigungs-, Beteiligungs- und Staatsführungsmechanismen als Instrumente zur Erlangung einer größeren Nachhaltigkeit und Effizienz in der Stadtentwicklung. Das bedeutet, eine Stadt, die in der Lage ist, kreativere Synergien zu schaffen und so zu sozialen, technologischen und wirtschaftlichen Vorteilen kommt. Des Weiteren betonte diese Arbeit die Rolle der aufkommenden Prozesse in einem städtischen System. Die aufkommende Mikroverdichtung hat wenig Einfluss auf die städtische Struktur von Córdoba. Jedoch ist es ein wichtiger Mechanismus, um die Verarmung und den Verlust von Ressourcen in perizentralen Bereichen und Zwischengebieten zu verhindern, d.h. um den partiellen Zusammenbruch der städtischen Struktur zu vermeiden und gleichzeitig Urbanität in Gebieten zu schaffen, die als bloße Wohnungsviertel charakterisiert sind. In der Stadtplanung ist es wichtig, auf aufkommende Prozesse in der Stadtentwicklung und auf die Erzeugung von Synergien Wert zu legen. Ihre Einbeziehung in die kritische Analyse beinhaltet die Entwicklung von Planungsinstrumenten, die nicht nur die Notwendigkeit der Dezentralisierung der Stadtentwicklung und der Entscheidungsfindung erkennen können, sondern die auch in der Lage sind, die Ungewissheit als Variable zu integrieren. Darüber hinaus müssen sie flexibel genug sein, um Veränderungen und die Notwendigkeit für Korrekturen und Anpassungen im Laufe der Zeit zu erkennen. Das Argument dieser Arbeit hat einen analytischen und erklärenden Charakter, der für die Analyse von anderen urbanen Szenarien in Argentinien und Lateinamerika nützlich ist. Dies ermöglicht die Verallgemeinerung sowohl der Ergebnisse als auch der theoretischen Annäherung an städtische Phänomene, basierend auf dem Stadt-Verständnis als komplexes, für ihre Umgebung offenes System, welches weit entfernt vom Gleichgewicht ist. Der größte Beitrag dieser Arbeit zur Urbanistik ist das Verständnis der Rolle der aufkommenden Phänomene und die Analyse der Widersprüche und Spannungen innerhalb der traditionellen lokalen Stadtmodelle, die auch Ausgrenzungen und Ungerechtigkeit im Zugang zu Stadt hervorhebt. Die Rolle des Staates und des Immobilienmarktes in der Stadtentwicklung von Cordoba wurde denaturiert und eine dialektische Artikulation der Logik des territorialen Lebensraumes in der Stadt, die sowohl Produktions- und Zugangsstrategien als auch die scheinbaren Widersprüche in der Stadtentwicklung der lateinamerikanischen mittelgroßen Städten erklärt, wurde vorgeschlagen. ; Córdoba is the capital of the province of Córdoba, in Argentina. It is also the principal city of the second-most populous metropolitan area of the country, the Greater Córdoba Metropolitan Area (AMCBA according to its acronym in Spanish), with strengths in business, automotive industry, culture, education, and research. Currently, the city seems to develop in two simultaneous and opposing processes: On the one hand, renovation by densification of the central area and its extensions, with losses of social and built heritage, and the collapse of infrastructure networks that this entails. On the other hand, extension of the urbanized area over rural and industrial periphery, with dwindling occupancy densities that dilute the urban structure more and more in the territory. Besides that, although housing production accelerates -increasing its supply-, it is concentrated in ever smaller groups: while real estate projects are targeted almost exclusively at high-income sectors and investors who do not live in the city, State investment in social housing is allocated exclusively to lower income sectors. This situation produces a deficit in proposals aimed at the so-called "middle class", even though it makes up of almost 45% of the city´s population. In addition, these processes concentrate the interest of the greater part of both local academics and urban planners. This situation produces a knowledge gap in the current situation of Córdoba´s pericentral and intermediate areas, which occupy more than 30% of the city´s urbanized land (and where the majority of this city´s inhabitants reside). It is there where this thesis´ case study is located: the pericentral districts that surround the central area. They originated as suburban extensions around 1940, and consolidated as middle-class/low-density residential neighborhoods before 1970. Today, they occupy some of the best environmental and urban quality areas of the city. Even land-use regulation specifically limits occupancy to single-family dwellings on individual plots to maintain the desired low-density residential neighborhood pattern. We can discuss the futility of studying urban sectors considered already consolidated and stable; however, when analyzed in detail, pericentral areas show complex demographic, spatial, and functional transformations that contradict this characterization: Despite the fact that these neighborhoods materializes the supposedly "most perfect" residential model known until now, a model "that solves each and every one of the urban-life needs", its social and built fabric resents. The current scenario shows a constant population-shrinking process, in spite of the demographic growth of both Córdoba and the AMCBA. Young people leaves these neighborhoods, while the remaining population ages. Abandoned buildings constantly increase; the ones offered in the real estate market have difficulties to find buyers, or even to maintain their price, which contradicts its privileged status within the city. At the same time -and unlike areas in a similar position- these neighborhoods are not the object of major real estate investments. Local academics and urban planners overlook this situation, in part because it is the result of processes with relative less impact in the city, and in part because these processes are not covered by current local urban models -based on the rationalist and deterministic urban theory of early 20th century-, which conceptualize suburban neigh6 borhoods as an urban panacea. It is impossible to deduce a hypothesis that explains the current nor the trend scenario of pericentral neighborhoods of Córdoba in terms of that framework. Therefore, this thesis discussed those theoretical models, and its capacity to explain Córdoba´s development. It proposed a theoretical framework that allowed understanding, explaining, and operating effectively in the city. It did so based on the discussion of an informal phenomenon unfailingly (but not exclusively) detected in pericentral neighborhoods: the emergent micro-densification. Given the impossibility of advantageously placing their properties in the housing market -due to factors such as land-use restrictions, and specific conditions of the local real estate market-, the landowners seek new ways to valorize their properties, facilitate access to housing for their children, or profitably invest their savings, obtaining an additional income outside the "traditional" real estate market. They increase the number of functional units in their plots, occupying the vacant building area or refurbishing obsolete constructions, while maintaining the intervention scale in relation to the existing urban fabric. These neighborhoods´ housing supply diversifies; and it not only prevents the expulsion of population, but it also attracts new inhabitants. In addition, in an originally residential fabric, it incorporates non-residential activities that enrich the urban fabric. Finally, micro-densification in pericentral neighborhoods presents a differential quality: its "emergent" condition. The process carries out without general planning (and of course outside the legal framework); inhabitants/landowners decide to do so, without any prior agreement. It is an atomized and fragmented process, result of necessity or opportunism. It is the sum of individual actions reconstructed as a "trend", or an "emerging pattern" within the general organization of pericentral neighborhoods, revitalizing the urban fabric in a subtle but definitive way. This research hypothesized that emergent micro-densification in these neighborhoods is a process of revitalization that harnesses the potential of their urban fabric; it does so in a more sustainable and efficient way than the current urban development patterns. Faced with the manifest opposition between this hypothesis and the current local urFaced with the manifest opposition between this hypothesis and the current local urban development framework, it was necessary to construct a theoretical framework able to solve the apparent contradictions detected -that the latter cannot explain-, and frame the working hypothesis. Therefore, this thesis is framed under the systemic complexity approach, that is, the analytical study of complex systems. This theoretical framework has the capacity to explain emergent processes as integral part of a city, its development over time, its complexity, and the factors on which urban sustainability and efficiency depend. The systemic approach understands the city as a complex and dynamic system, in constant development; a system determined more by interrelationships between its components, and between those components and the context, than by the individual conditions of each component. The quality and quantity of these interactions is paramount, to the point of defining the urban condition of a human agglomeration in the territory: urbanity is not given merely by the size or density of a human agglomeration; it is defined in terms of the synergy produced by a large number of different interactions between different agents; a process called synekism. The generation of innovation, and technological/social/political development that characterize the urban condition is an inherent result of these interactions, and a direct function of the intensity, diversity, and redundancy of them in the territory, over time. 7 A sustainable and efficient urban system will be one that, by maximizing material and human resources (and according to the system´s load capacity), develops decentralized, multi-exchange networks; one capable of generating synergy and inclusive development. This implies an energy efficient city, but also efficient in the consumption of any type of resources; a compact city, which prioritizes participatory political mechanisms and intensive use of public spaces, but also pedestrian mobility, and functional and social diversity. It also implies flexibility and adaptability in the face of changes, through processes of resilience or transformation. According to local urban development models, emergent and informal processes such as micro-densification are a sign of crisis within the urban system: anomalies due to the development of harmful processes, in conflict with the rest of the urban structure; conflicts that may even lead to the city´s collapse. But according to the theoretical approach proposed in this thesis, these processes can also be identified as an attempt by the system to self-regulate and adapt to new situations: as a response to a scenario of tension; a way in which the system self-organizes, and responds to that tension seeking a new equilibrium. The research is then structured in order to answer the following questions: • First, what are the specific conditions that catalyze micro-densification in the pericentral neighborhoods of Córdoba? • Second, since micro-densification is a response to a particular situation within the urban system, what is the degree of sustainability and efficiency that transformations through micro-densification provides to pericentral neighborhoods (in particular) and to Córdoba (in general)? • Finally, having identified the impact of such processes on the urban structure, and its transformative and organizational potential, can the study of emergent processes make a conceptual or instrumental contribution to local urban planning? The research continued with a document analysis that reconstructs the specific condition of pericentral neighborhoods of Córdoba -which catalyzes the phenomenon of emergent micro-densification-. This stage developed in two parts: In the first place, we historically reconstruct pericentral neighborhoods of Córdoba, and the reasons for their urbanization pattern, which consolidates them as residential, (virtually) mono-functional, low-density, middle-class neighborhoods. Secondly, we analyzed Córdoba´s current scenario -with respect to the production and access to urban habitat- establishing urban, regional, and global variables that determine the city´s current development trends. This analysis allowed us to develop a comprehensive argument that explains all the processes that until now were conceptualized as "simultaneous but contradictory". It also explains and predicts the "unthinkable" situation of pericentral neighborhoods. After reconstructing the current scenario and defining different development patterns in Córdoba (including the "formal" pericentral neighborhoods´ pattern), we inferred a trend scenario in the short and medium term (10 years). We continued analyzing the micro-densification phenomenon, in terms of its social, functional, and spatial urban fabric transformations. As a result, a possible future scenario was proposed in which the micro-densification pattern has been formalized, transforming qualitatively and quantitatively the spatial-functional and socio-economic fabric. We specified their potential and strengths (as well as their weaknesses), against the future trend scenario of Córdoba and the pericentral neighborhoods. 8 Based on these results, we analyzed the different urban development patterns in Córdoba according to the variables defined as structural conditions of sustainability and efficiency: The sustainability and efficiency of the micro-densification scenario are much greater than those of the current trends scenario. Therefore, we verified the working hypothesis, and opened the discussion of this thesis. A first line of discussion dealt with development that fosters progressive revitalization, instead of complete renewal of urban fabric, or creation of new urban land on city´s rural periphery. Development that promotes a compact, diverse, and inclusive city, both socially, spatially and functionally; based on the multiplication and diversification of city-building agents. Development that considers these processes, as well as the mechanisms of empowerment, participation, and governance as instruments to achieve greater sustainability and efficiency in urban development. A city capable of generating more creative synergy, which translates into social, technological, and economic benefits. We denatured both the role of the State and the real estate market in the urban development of Córdoba; we proposed a dialectical articulation of different logics of urban development, explaining both the production and access strategies to habitat, and the apparent contradictions in urban development of Latin American middle cities. This thesis´ argument has an analytical and explanatory character, useful for analyzing other urban systems in Argentina and Latin America. It allows the generalization of both the results and the theoretical approach to urban phenomena, understanding the city as a complex system open to its surroundings and far from equilibrium. On the other hand, this thesis emphasized the role of emergent processes in an urban system. So far, emergent micro-densification has little impact on Córdoba´s urban structure. However, it is a vital mechanism to prevent pauperization and loss of resources in pericentral and intermediate urban areas -that is to say, to avoid the partial collapse of the urban structure-, while generating urbanity in areas characterized as mere residential fragments. It is essential to give importance in urban development and in generation of synergy to emergent processes. Incorporating them into critical analysis and diagnosis involves developing planning tools capable not only of recognizing the need to decentralize urban development and sharing decision-making, but also capable of incorporating uncertainty as a variable. In addition, they must be flexible enough to detect changes and the need for adjustment and adaptation over time. This thesis makes its greatest contribution to urban studies by helping to understand the role of emergent phenomena, highlighting contradictions and tensions within the traditional local urban models, and exclusions and inequities driven by those models.