Tropische Entwaldung und Waldschädigung (Degradation) trägt zu mehr als 20% zu den global emittierten Treibhausgasen bei. Entwaldung und ihre Auswirkungen können leichter mit Satellitenbildern abgeschätzt werden. Was Waldschädigung anbelangt, ist es schwierig, mit den aktuellen Satellitenbild-Auflösungen Abholzung und Biomasse-Schäden, die daraus resultieren, genau zu evaluieren, obwohl Waldschädigung wesentlich zu den Kohlenstoff-Emissionen in den Tropen beiträgt. Mit zunehmendem CO2-Gehalt in der Atmosphäre besteht ein dringender Bedarf an zuverlässigen Schätzungen von Biomasse und Kohlenstoff-vorräten in den tropischen Wäldern, ganz besonders in Afrika, wo der Datenmangel erheblich ist. Feuchte Tropenwälder speichern große Mengen an Kohlenstoff und benötigen genaue allometrischen Regressionen für deren Schätzungen. In Afrika hat die Abwesenheit von artspezifischen oder artübergreifenden allometrischen Gleichungen zum breiten Einsatz der pan-feucht-tropischen Gleichungen zur Baum-Biomasse Abschätzung geführt. Dieser Mangel an Informationen hat viele Diskussionen über die Richtigkeit dieser Daten angestoßen, da die Gleichungen aus Biomasse, die außerhalb Afrikas gesammelt wurde, abgeleitet wurden. Die Entwicklung von ortsspezifischen Gleichungen und pan-feucht-tropischen Gleichungen, unter Einschluß von Daten aus Afrika, wird für die meisten Ökologen immer wichtiger, um die genaue Schätzung dieses Beitrags zu erweitern, der für Anpassung und Klimaschutz-Strategien notwendig ist. Allometrische Gleichungen sind Schlüssel-Werkzeuge für die Szenarien des Klimawandels, da sie für die Abschätzung von Biomasse und Kohlenstoff-Pool auf lokaler, regionaler und globaler Ebene verwendet werden. Informationen zur Netto-Primärproduktion (NPP), die sich aus direkten Biomasse Feldmessungen ergeben, sind in diesem Zusammenhang von entscheidender Bedeutung, um zu wissen, wie die Waldökosysteme durch den Klimawandel betroffen sein werden und auch um Eddy-Kovarianz-Messungen zu kalibrieren. Das übergeordnete Ziel dieser Studie war es, einen wissenschaftlichen Beitrag zur Anpassung oder Schadenseindämmung von feuchten tropischen Wäldern auf die Auswirkungen des Klimawandels zu erstellen. Die spezifischen Ziele waren: (1) Analyse der Bestandesentwicklung eines Waldes im östlichen Kamerun und Diskussion einer Methodik zur Schätzung der potenziellen Kohlendioxidemissionen oder zur Eindämmung von Waldschäden. (2) Entwicklung allometrischer Gleichungen für die genaue Schätzung der Biomassen und Kohlenstoffvorräte in feuchten Wäldern in Kamerun und auch in Afrika. (3) Schätzung der Kohlenstoffspeicher und der Netto-Primärproduktion (NPP) und ihre räumliche Verteilung auf verschiedene Schichten und Landnutzungstypen des Campo-Ma'an Bereichwaldes in Kamerun. Diese Dissertation präsentiert Ergebnisse aus zwei Feldstudien, durchgeführt in der Nachbarschaft von Yokadouma im östlichen Kamerun und auch in der Campo-Ma'an Wald im südlichen Kamerun. Die vorliegende, in Yokadouma durchgeführte Studie resultierte in einer Veröffentlichung, die Waldschädigung nach selektivem Holzeinschlag und deren Implikationen für REDD und die Kohlenstoff-Schätzungen ansprach. Um diese Situation anzugehen wurde die Post-logging-Bestandsentwicklung eines semi-natürlichen Laubwaldes in Kamerun für einen Einschlagszyklus (30 Jahre) nach selektivem Holzeinschlag modelliert. Um zu simulieren wie verschiedene Management-Praktiken Einfluss auf die Post-logging-Bestandsdynamik haben, modelliert man, wie Änderungen des Mindest-Einschlags-durchmessers (MFD) Stammzahlen, Dichte, Grundfläche und die damit verbundene Kohlenstoff-Biomasse am Ende des Einschlagszyklus beeinflussen. Die in Campo-Ma'an durchgeführte Studie resultierte in zwei weiteren Artikeln. Der erste Artikel behandelt ortsspezifische und auch pan-feucht-tropische allometrische Gleichungen, die auch an anderen Standorten in feuchten tropischen Wäldern, wo es keine spezifischen allometrischen Gleichungen gibt, benutzt werden können. Diese Studie verwendet 91 destruktive Probebäume, um damit artübergreifende allometrische Gleichungen zu entwickeln, und zwar unter Anwendung verschiedener Eingangsgrößen wie Durchmesser, Durchmesser und Höhe, ein Produkt von Durchmesser und Höhe, und Holzdichte. Unsere Biomassedaten wurden zu 372 Biomassedaten aus verschiedenen feuchten tropischen Wälder in Asien und Südamerika hinzugefügt, um damit neue pan-feucht-tropische allometrische Regressionen zu entwickeln. Artspezifische- und artübergreifende Höhen-Durchmesser- Regressionsmodelle wurden auch entwickelt, um Höhen von 3833 Bäumen abzuschätzen. Der zweite Aufsatz verwendet unsere ortsspezifischen allometrischen Gleichungen, um oberirdische und unterirdische Biomasse- und Kohlenstoffvorräte zu schätzen. Die NPP wurde anhand der Wachstumsraten aus Baumringanalysen ermittelt. Eine Kohlenstoff-Biomasse-Karte wurde auch in dieser letzten Arbeit mit GIS-Technologie entwickelt, um Verteilungen der verschiedenen Nutzungen und Vegetationstypen darzustellen. Die wichtigsten Ergebnisse waren folgende: Waldschädigungs-Studien: Mit diesen geschätzten MFDs ermittelten wir bei 7% Fällungsschadensraten, dass sich die Stamm-Dichte von erntereifen Bäume von 12,3 (50,4 MgC ha-1) auf 6,7 (32,5 MgC ha-1) Bäume pro Hektar reduziert und sich die Zahl der bleibenden Bäume von 80 (18,9 MgC ha-1) auf 85,7 (36,8 MgC ha-1) Bäume pro Hektar erhöht. Dies entspricht einem vermiedenen Schaden von geschätzten 17,9 MgC ha-1. Wir fanden auch heraus, dass eine Erhöhung der Mortalität und Schadensintensität auch die Schädigung der Kohlenstoff-Biomasse erhöht in 30 Jahre, und zwar schätzungsweise auf 8,9 MgC ha-1 bei 10% oder auf 17,4 MgC ha-1 bei 15% Fällschaden. Diese Studie zeigt, dass die korrekte Bestimmung des MFD der gefällten Arten (unter Berücksichtigung ihrer Fähigkeit zur Rekonstitution am Ende des Fällungszyklus im Zusammenhang mit Reduced Impact Logging (RIL)) die Freisetzung von bis zu 35 MgC ha-1 vermeiden kann. Diese Schätzungen könnten erreicht werden, wenn eine Kombination von Politik und Maßnahmen erfolgt, die die Überwachung der Waldentwicklung nach dem Einschlag beinhaltet. Allometrische Gleichungen Mit nur dem Durchmesser als Eingangsgröße schätzt das artenübergreifende Regressionsmodell die oberirdische Biomasse des untersuchten Ortes mit einem mittleren Fehler von 7,4%. Hinzufügung von Höhe oder Holzdichte trug nicht wesentlich zur Verbesserung der Schätzungen bei. Mit den drei Variablen zusammen verbesserte sich die Genauigkeit auf einen mittleren Fehler von 3,4%. Für allgemeine allometrische Gleichungen war die Baumhöhe eine gute Prädiktor-Variable. Die beste pan-feucht-tropische Gleichung erhielt man, wenn die drei Variablen hinzugefügt wurden, gefolgt durch jene, die Durchmesser und Höhe umfasste. Diese Studie liefert Höhen-Durchmesser-Beziehungen und Holz dichten von 31 Arten. Die pan-feucht-tropische Gleichung durch Chave et al. (2005) schätzt die gesamte oberirdische Biomasse von verschiedenen Standorte mit einem mittleren Fehler von 20,3%, gefolgt von den in der vorliegenden Studie entwickelten Gleichungen mit einem mittleren Fehler von 29,5%. Biomasse, Kohle, NPP Die Kohlenstoff-Biomasse betrug im Durchschnitt 264 Mg ha-1. Diese Schätzung beinhaltet oberirdischen Kohlenstoff und wurzel-organischen Kohlenstoff des Bodens bis zu 30 cm Tiefe. Dieser Wert variiert von 231 Mg ha-1 an Kohlenstoff in Agroforstwäldern bis zu 283 Mg ha-1 an Kohlenstoff in bewirtschafteten Wäldern und bis zu 278 Mg ha-1 an Kohlenstoff in einem Nationalpark. Die Kohlenstoff-NPP variierte pro Jahr von 2542 kg ha-1 in Agroforstwäldern bis zu 2787 kg ha-1 in bewirtschafteten Wäldern und bis zu 2849 kg ha-1 Jahr-1 im Nationalpark. Unsere NPP Werte beinhalten keine Fein-Streu, Kohlenstoffverluste durch Verbraucher und Emissionen von flüchtigen organischen Verbindungen. Wir glauben, dass unsere Studie nicht nur die entsprechenden Schätzungen von Biomasse, Kohlenstoff-Pools und NPP liefert, sondern auch eine geeignete Methode darstellt, um für diese Komponenten und die damit verbundenen Unsicherheiten generell Schätzungen zu liefern. ; Tropical deforestation and forest degradation contributes to more than 20% of the global greenhouse gases emitted. Deforestation and its impacts can be more easily estimated with satellite images. Concerning forest degradation, it is difficult with the actual satellite image resolutions to evaluate accurately logging and biomass damage resulting from this activity though it contributes substantially to carbon emissions in the tropics. With increasing CO2 in the atmosphere, there is an urgent need of reliable biomass estimates and carbon pools in tropical forests, most especially in Africa where there is a serious lack of data. Moist tropical forests store large amounts of carbon and need accurate allometric regressions for their estimation. In Africa the absence of species-specific or mixed-species allometric equations has lead to a broad use of pan moist tropical equations to estimate tree biomass. This lack of information has raised many discussions on the accuracy of these data, since equations were derived from biomass collected outside Africa. Developing site-specific equations and pan-moist tropical equations including data from Africa is becoming very important for most ecologists for accurate estimations of this contribution extend, necessary for adaptation and mitigation strategies on climate change impacts. Allometric equations are key tools for climate change scenarios since they are used for estimating biomass and carbon pool at local, regional and world level. Information on net primary production (NPP) resulting from direct biomass field measurements of annual tree ring width is crucial in this context, to know how forest ecosystems will grow in the future with their possible impacts on carbon pools and fluxes and also to calibrate eddy covariance measurements. The overall objective of this study was to provide a scientific contribution for adaptation or mitigation of moist tropical forests on climate change impacts. The specific objectives were to (1) analyze the stand development of a forest in the eastern Cameroon and discuss a methodology for estimating the potential carbon emissions or reductions from forest degradation, (2) develop allometric equations for accurate estimations of biomass and carbon pools in moist forests in Cameroon and also in Africa, (3) estimate carbon pools and Net Primary Productivity (NPP) and their spatial distribution on different strata and land use types of the Campo-Ma an area forest in Cameroon. This dissertation presents results from two field studies conducted at the neighbourhood of Yokadouma in the eastern Cameroon and also in the Campo-Ma an forest in the southern Cameroon. The study conducted at Yokadouma resulted in a paper addressing forest degradation after selective logging and its implications for REDD and carbon pools and flux estimations. To address this situation, a post-logging stand development of a semi-deciduous natural forest in Cameroon was modelled for one felling cycle (30 years) after selective logging. To simulate how different management practices influence post-logging forest dynamics, we modelled how changes in the minimum felling diameter (MFD) affect stem density, basal area and the related carbon biomass at the end of the felling cycle. The study conducted in Campo-Ma an resulted in two other projected articles. The first article addressed site-specific allometric equations and also pan-moist tropical equations which can be used at other locations in moist tropical forests where there are no specific allometric equations. We used for this study 91 destructive sample trees to develop mixed-species allometric equations applying different input variables such as diameter, diameter and height, product of diameter and height, and wood density. Our biomass data were added to 372 biomass data collected across different moist tropical forests in Asia and South America to develop new pan moist tropical allometric regressions. Species-specific and mixed-species height diameter regression equations were also developed to estimate heights using 3833 trees. The second projected article used our site-specific allometric equations to estimate aboveground and belowground biomass and carbon pools. The NPP was estimated using the growth rates obtained from tree ring analysis. A carbon biomass map was also developed in this last paper using GIS technology to show the distribution in the different land uses and vegetation types. The main findings were the following: Forest degradation studies: With these MFDs estimated, at 7% logging damage rate, we found that the stem density of harvestable trees reduces from 12.3 (50.4 MgC ha-1) to 6.7 (32.5 MgC ha-1) trees per ha and the number of residual trees increases from 80 (18.9 MgC ha-1) to 85.7 (36.8 MgC ha-1) trees per ha. This corresponds to an avoided damage estimated at 17.9 MgC ha-1. We also found that increasing mortality and damage intensity also increases the damage on carbon biomass estimated after a felling cycle of 30 years to be 8.9 MgC ha-1 at 10% or to be 17.4 MgC ha-1 at 15% logging damage. This study shows that proper determination of MFD of logged species taking into consideration their capacity of reconstitution at the end of the felling cycle associated with Reduced Impact Logging (RIL) can avoid up to 35 MgC ha-1. These estimations could be achieved if there is a combination of Policy and Measures allowing monitoring of forest development after logging. Allomeric equations Using only tree diameter as input variable, the mixed-species regression equation estimates the aboveground biomass of the study site with an average error of ±7.4%. Adding height or wood density did not improve significantly the estimations. Using the three variables together improved the precision with an average error of ±3.4%. For general allometric equations tree height was a good predictor variable. The best pan moist tropical equation was obtained when the three variables were added together followed by the one which includes diameter and height. This study provides height-diameter relationships and wood density of 31 species. The pan moist tropical equation developed by Chave et al. (2005), estimates total aboveground biomass across different sites with an average error of ±20.3% followed by equations developed in the present study with an average error of ±29.5%. Biomass, carbon, NPP The carbon biomass of Campo-Ma an forest was on average 264 Mg ha 1. This estimate includes aboveground carbon, root carbon and soil organic carbon down to 30 cm depth. This value varied from 231 Mg ha 1 of carbon in Agro-Forests to 283 Mg ha 1 of carbon in Managed Forests and to 278 Mg ha 1 of carbon in National Park. The carbon NPP varied from 2542 kg ha 1 year 1 in Agro-Forests to 2787 kg ha 1 year 1 in Managed Forests and to 2849 kg ha 1 year 1 in National Park. Our NPP values do not include fine litterfall, carbon losses to consumers and emission of volatile organic compounds. We believe that our study provides not only appropriate estimate of biomass, carbon pools and NPP, but also an appropriate methodology to estimate these components and the related uncertainty.
Inhaltsangabe: Einleitung: Anläufe zu einer Währungsunion (WU) auf der Ebene der Europäischen Gemeinschaften (EG) sind nicht neu. Wiederholt wurden solche unternommen, konnten aber nie wie vorgesehen umgesetzt werden. Das weitreichendste Konzept zu einer Europäischen Währungsunion (EWU) stellt der Maastrichter Vertrag dar. Er ist das Ergebnis der einjährigen Regierungskonferenzen zur Wirtschafts- und Währungsunion (WWU) und zur Politischen Union (PU), die im Dezember 1991 in Maastricht ihren Abschluß fanden. Am 7. Februar 1992 wurde der Vertrag von Maastricht von den Mitgliedstaaten der EG unterzeichnet. Gegenstand der Untersuchung dieser Arbeit ist diese im Maastrichter Vertrag festgelegte EWU bzw. der dort festgelegte organisatorische und politische Rahmen der EWU. Die korrekte Bezeichnung des weithin als 'Maastrichter Vertrag' bekannten Vertragswerkes ist 'Vertrag über die Europäische Union' (EUV). Der EUV vom 7. Februar 1992 stellt die bisher umfassendste Änderung und Ergänzung der Römischen Verträge dar. Wie bereits die Einheitliche Europäische Akte (EEA) von 1986 ist der EUV als Mantelvertrag angelegt, der die einzelnen Elemente zusammenführt und sie auf eine neue Phase des Integrationsprozesses, die Europäische Union (EU), ausrichtet. In diesem Mantelvertrag sind die einzelnen Bestimmungen zur Änderung und Ergänzung der drei Gründungsverträge der EG, des EWG-Vertrages, des EGKS-Vertrages und des EAG-Vertrages, einschließlich der institutionellen Änderungen enthalten. Der geänderte EWG-Vertrag wird künftig EG-Vertrag (EGV) genannt. Strukturell stellt der EUV die EG auf drei Säulen. Neben dem EGV, der die 'Vergemeinschaftung' der Geld- und Währungspolitik vorsieht und zudem um einige weitere Materien erweitert wurde, sind dies die beiden auf intergouvernementaler Zusammenarbeit basierenden Säulen der Gemeinsamen Außen- und Sicherheitspolitik (GASP) sowie der Bereiche Justiz und Inneres. Formal ist die Bezeichnung 'EU' nur dann korrekt, wenn auf die drei genannten Säulen insgesamt Bezug genommen wird. Grundlage und unvermindert der mit Abstand wichtigste Teil der EU, die ihrerseits über keine Rechtspersönlichkeit verfügt, ist hingegen nach wie vor die EG. In Orientierung an dieser formalen Bezeichnung ist der Begriff der 'EU' entsprechend nur in den seltensten Fällen zutreffend. So wird auch in dieser Arbeit in erster Linie von der 'EG' die Rede sein. Um jedoch der 'politischen Vision', die sich aus den wirtschaftspolitischen sowie souveränitäts- und demokratietheoretischen Implikationen der EWU ergibt, gerecht zu werden, wird die formal korrekte Bezeichnung aufgegeben und der Begriff der 'EU' anstelle des Begriffes der 'EG' an den Stellen verwandt, an denen es sich um zukünftige, auf eine PU verweisende Entwicklungen bzw. Entwürfe handelt. Gemäß Art. N EUV soll 1996 eine Revisionskonferenz beginnen, bei der die Vertreter der Regierungen der Mitgliedstaaten diejenigen Vertragsbestimmungen prüfen werden, für die explizit eine Revision vorgesehen ist. Laut Vertrag gehören die Bestimmungen zur WWU nicht zu diesem Bereich. Allerdings ist davon auszugehen, daß es über die für eine Revision vorgesehenen Vertragsbestimmungen hinaus, gerade auch, was die WWU betrifft, zu Änderungen kommen kann. Wie erwähnt, legt der Vertrag das Ziel fest, den Prozeß der europäischen Integration auf eine neue Stufe zu heben und die EG zu einer 'immer engeren Union der Völker Europas' weiterzuentwickeln. Damit ist zwar eine politische Finalität formuliert, diese wird aber nicht näher definiert. Der Vertrag beschränkt sich vielmehr darauf, Ziele dieser Union aufzulisten, ohne eine konkrete Form des Integrationsprozesses festzulegen. Es bleibt offen, ob der Endzustand dieses Integrationsprozesses ein europäischer föderaler Bundesstaat, ein europäischer Zentralstaat, ein europäischer Staatenbund oder eine Form außerhalb dieser Kategorien sein soll. Insgesamt stellt der Vertrag integrationspolitisch keinen qualitativen Sprung dar, sondern beschränkt sich vielmehr auf die Weiterentwicklung bzw. Ergänzung bereits bestehender Grundstrukturen. 'Die Kompetenzen der Gemeinschaft bleiben - jedenfalls im Grundsatz - funktionsgerichtet und funktionsbegrenzt, d.h. bezogen auf Errichtung und Funktionieren des Binnenmarktes und der Europäischen Union.' Die derzeitige Form der Union, wie sie sich im Maastrichter Vertrag darstellt, ist gekennzeichnet durch eine gemischt institutionelle Struktur. Bereiche einheitlicher supranationaler, d.h. gemeinschaftlicher, Politik, wie sie die Agrar- und die Handelspolitik darstellen bzw. für den Geld- und Währungsbereich für die Zukunft vorgesehen sind, stehen neben intergouvernemental beschlossenen Maßnahmen. In anderen Bereichen wiederum gibt es lediglich einen gemeinsamen Rahmen für den Informationsaustausch. Den Kompetenzzuweisungen, die im Rahmen der Regierungskonferenz zur PU zustande gekommen sind, 'liegt erkennbar keine der Kompetenzübertragung eigene Konzeption zugrunde.' Grundsätzlich sind in diesen, die PU berührenden Politikfeldern, die Mitgliedstaaten weiterhin Träger der Zuständigkeit und Verantwortung; auf Gemeinschaftsebene soll lediglich eine gewisse Koordinierung stattfinden. Der Grad der Kompetenzzuweisung in den einzelnen Gebieten ist sehr unterschiedlich. Durch seine Vergemeinschaftung erfährt das Währungswesen eine Sonderbehandlung. Hierdurch hebt es sich von den anderen Bereichen des Vertrages ab, erhält aber keine Einbindung in einen übergeordneten Rahmen. Die Inkonsistenz des Vertrages basiert auf dieser Konstruktion. JOCHIMSEN ist der Ansicht, daß die durch die Trennung in zwei Regierungskonferenzen verursachte Zweigleisigkeit von WWU und PU unglücklich und wenig förderlich für die Realisierung des Projektes der PU war. Die Zuständigkeiten für die WU lagen während der Regierungskonferenz auf deutscher Seite beim Wirtschafts- und Finanzministerium, die Zuständigkeiten für die PU beim Außenministerium. 'Das formale gemeinsame Dach der Initiatoren, nämlich der Staats- und Regierungschefs (...), hat nicht vermocht, die wechselseitige Bedingtheit des Vorhabens zur notwendigen Einheitlichkeit zusammenzufügen. Diese methodisch-institutionelle Weichenstellung hatte allerdings die weitreichendsten Konsequenzen für die Schaffung der erforderlichen politischen Voraussetzungen einer effektiven Stabilitätsausrichtung der EWWU: Der Parallelzug bewirkte, daß einerseits Notenbankfragen materiell und technisch im Brennpunkt standen sowie die Wirtschaftsunion eher negativ denn positiv definiert wurde, wobei die Strukturen der politischen Union außer Blick gerieten, und andererseits die Außen- und Sicherheitspolitik dominierte.' Und ARNOLD urteilt sehr kritisch: 'Der Vertrag von Maastricht ist unter dem Kriterium des Ziels der westeuropäischen Integration hinsichtlich der EG unzureichend, politisch ein Fragment und militärisch ein Nullum. Er hat den Beweis für die Unmöglichkeit geliefert, die 'Finalität' westeuropäischer Integrationspolitik, als einen gemeinsamen Bundesstaat, zu erreichen. Der Grund dafür ist einfach: Es fehlt der gemeinsame politische Wille.' Die dargestellte Grundstruktur der EU nach Maastricht, die durch das Fehlen einer PU in Ergänzung zu der geplanten WU gekennzeichnet ist, bildet den Ausgangspunkt der Untersuchung. Die fehlende Einbindung der WU über eine PU hat insbesondere von deutscher Seite zu erheblicher Kritik geführt. So verwiesen anläßlich der Anhörung des Finanzausschusses des Deutschen Bundestages in Bonn am 18. September 1991 diverse Stimmen auf die politische Dimension der EWU und forderten die Parallelität des Zusammenwachsens der EG zu einer WWU und der institutionellen Weiterentwicklung der EG zur PU. Nach Ansicht des BDI gehört, um den Erfolg einer WU zu sichern, zu den unabdingbaren Kriterien für den Übergang in die dritte Stufe der WU neben einer weitgehenden Konvergenz in der Wirtschafts- und insbesondere in der Finanzpolitik auch eine erhebliche Annäherung an das Endziel der PU. Er befürchtet, daß ohne eine Festigung und föderative Weiterentwicklung der politischen Strukturen das Projekt 'WWU' auf halbem Wege steckenbleibe. Auch die Deutsche Bundesbank kritisiert die fehlende Einigung über die künftige PU. Diese sei im Zusammenhang mit der Entwicklung einer 'Kultur der Stabilität', wie sie in der Bundesrepublik vorhanden sei, von zentraler Bedeutung. Der dauerhafte Erfolg der WU hänge von der Existenz eben dieser Kultur ab. Bundesbankpräsident TIETMEYER sieht die Notwendigkeit, 1996 im Rahmen der Revisionskonferenz des Maastrichter Vertrages die Parallelität von WU und PU noch herzustellen. Nur dann habe die WU Aussicht auf Erfolg. Hinsichtlich der Zusammengehörigkeit von WU und PU äußert sich JOCHIMSEN, Landeszentralbankpräsident in Nordrhein-Westfalen, folgendermaßen: 'Die Maastrichter Regelungen zur Währungsunion (schaffen) für sich genommen keineswegs eine funktionsfähige monetäre Ordnung (...), die (...) ohne den Kontext der politischen Integration Europas auskommen könnte. Es erscheint im Gegenteil verhängnisvoll anzunehmen, das europäische Notenbanksystem funktioniere womöglich um so besser, je weniger auf dem Felde der Wirtschafts- und Finanzunion sowie der Politischen Union geregelt werde, solange nur die Unabhängigkeit des ESZB (Europäischen Systems der Zentralbanken, Anm. d. Verf.) gewahrt sei. In Wirklichkeit handelt es sich hier um komplementäre Politikbereiche.' OHR vertritt die Ansicht, daß der mit einer WU verbundene Wegfall der Flexibilität der Währungsbeziehungen zwischen den Partnerländern ohne die konstitutionellen Bedingungen der PU u.U. desintegrierende Effekte haben könnte, so daß der Bestand einer WU ohne eine PU gefährdet wäre. Nur bei einem Höchstmaß an wirtschaftspolitischer Konvergenz, das auch gemeinschaftliches Handeln in den Bereichen Fiskalpolitik, Sozialpolitik und Lohnpolitik sowie anhaltend gleiche wirtschaftspolitische Zielsetzungen einschließe, sei eine Einheitswährung für die Integration förderlich. 'Dies kann letztlich nur eine politische Union garantieren. Solange es aber noch keine politische Union gibt, birgt die Währungsunion eine Vielzahl ökonomischer Risiken, die auch die schon bestehende Integration wieder beeinträchtigen können. (...) Solange die Bereitschaft zu einer politischen Union noch fehlt, sollten die Marktintegration über den Binnenmarkt und die monetäre Integration über eine Währungsunion nicht miteinander vermischt werden'.Inhaltsverzeichnis:Inhaltsverzeichnis: Abkürzungsverzeichnis Teil A:Einleitung1 I.Zielsetzung der Dissertation1 1.Gegenstand der Untersuchung1 2.Fragestellung und Erkenntnisinteresse6 3.Aufbau und Methodik der Arbeit8 4.Stand der Forschung11 II.Die Konstruktion der EWU im Maastrichter Vertrag16 1.Die Hauptergebnisse des Maastrichter Vertrages hinsichtlich der EWU16 2.Kritische Beurteilung der die EWU betreffenden Regelungen25 2.1Die Konstruktion des ESZB25 2.2Der Übergang in die 3. Stufe27 2.3Die Konvergenzkriterien im einzelnen29 Teil B: Die Interdependenz von EWU und PU36 Kapitel I: Souveränitäts- und demokratietheoretische Aspekte der EWU36 I.Das Souveränitätskonzept37 1.Theoretische Grundlagen und begriffliche Klärung38 1.1Die Entstehung des Begriffes38 1.2Souveränität und Staatsbegriff41 1.3Innere und äußere Souveränität42 2.Auflösungserscheinungen der Souveränität im 20. Jahrhundert45 2.1Auswirkungen wachsender internationaler Verflechtung auf die Souveränität46 2.2Das Verhältnis der EG zur Souveränität der Mitgliedstaaten vor Maastricht52 3.Souveränität - Attribut des modernen Staates? - Versuch der Definition eines veränderten Souveränitätsbegriffes vor dem Hintergrund der europäischen Integration54 4.Exkurs: Souveränität der Mitgliedstaaten nach Maastricht unter verfassungsrechtlichen Gesichtspunkten62 4.1Das Souveränitätsverständnis einiger Mitgliedstaaten unter besonderer Berücksichtigung der verfassungsrechtlichen Situation in der Bundesrepublik Deutschland62 4.2Das Urteil des Bundesverfassungsgerichtes67 II.Souveränitäts- und demokratietheoretische Bewertung der geld- und währungspolitischen Regelungen im Maastrichter Vertrag: Das Verhältnis der EG zur Souveränität der Mitgliedstaaten nach Maastricht75 1.Staatlichkeit und Währung75 1.1Bedeutung und Rolle der Währung sowie der geld- und währungspolitischen Kompetenzen für einen Staat76 1.2Souveränitätstheoretische Bewertung der Vergemeinschaftung der Geld- und Währungspolitik im Maastrichter Vertrag81 2.Staatlichkeit und Notenbank84 2.1Die Stellung von Zentralbanken im Staat85 2.2Die Einbettung einer unabhängigen Zentralbank in den staatlichen Rahmen am Beispiel der Deutschen Bundesbank92 2.2.1Demokratische Legitimation der Deutschen Bundesbank als eigener geld- und währungspolitischer Instanz und sachliche Begründung ihrer Unabhängigkeit92 2.2.2Demokratietheoretische Rechtfertigung der Unabhängigkeit einer Zentralbank am Beispiel der Deutschen Bundesbank97 2.3Bedarf eine Europäische Zentralbank einer ihr übergeordneten 'staatsleitenden Kraft'?107 2.3.1Die Frage der demokratischen Rechtfertigung der EZB als unabhängiger Zentralbank108 2.3.2Das Problem der faktischen Realisierbarkeit der Unabhängigkeit der EZB112 2.3.3Die Interdependenz von EWU und PU über die EZB114 3.Zusammenfassung118 Kapitel II: Ökonomische Funktionsbedingungen der EWU121 I.Theoretische Grundlegung123 1.Chancen und Risiken einer WU123 2.Theorie optimaler Währungsräume126 2.1Darstellung der Theorie126 2.2Die EG als optimaler Währungsraum?133 2.3Wirtschaftspolitische Implikationen in einem nicht-optimalen Währungsraum138 2.4Die EG im Lichte der Theorie optimaler Währungsräume: Zusammenfassung und Bewertung141 3.Alternativer Ansatz zur Theorie optimaler Währungsräume: Konvergenz als zentrale Funktionsbedingung der EWU142 3.1Wirtschaftliche Konvergenz in ihren verschiedenen Ausprägungen: Nominale und reale Konvergenz143 3.2Reale und nominale Konvergenz als Funktionsbedingungen der EWU147 II.Analyse und Implikationen der Funktionsbedingungen der EWU154 1.Geldwertstabilität als Funktionsbedingung der EWU155 1.1Funktionale Zusammenhänge zwischen WU und Finanz- und Budgetpolitik155 1.2Verschiedene Varianten der Disziplinierung der Budgetpolitik unter Berücksichtigung der funktionalen Zusammenhänge162 1.2.1Marktmäßige Disziplinierung163 1.2.2Finanzpolitische Selbstbindung durch ein koordinierendes Regelsystem169 1.2.3'Vergemeinschaftung' finanzpolitischer Kompetenzen173 1.3Institutionalisierung eines budgetpolitischen Regelsystems176 1.4Zusammenfassung: Implikationen der Geldwertstabilität als Funktionsbedingung der EWU186 1.5Exkurs: Die wechselkurspolitische Kompetenz in der EWU188 2.Reale Konvergenz als Funktionsbedingung der EWU191 2.1Funktionale Zusammenhänge zwischen WU und Wirtschaftspolitik über die Funktionsbedingung realer Konvergenz192 2.2Konvergenz der Wirtschaftspolitik zur Verbesserung realer Konvergenz194 2.3Finanzausgleich200 2.3.1Strukturpolitisch motivierter Finanzausgleich mit dem Ziel der Verbesserung realer Konvergenz202 2.3.2Finanzausgleich zu Stabilisierungszwecken: Kompensierende Maßnahmen bei wirtschaftlichen Störungen210 2.3.2.1Diskretionäre gegenseitige Versicherung gegenüber länderspezifischen makroökonomischen Schocks211 2.3.2.2Interregionale Haushaltsströme mit automatischen Stabilisatoren213 2.3.3Auswirkungen eines Finanzausgleichs auf den Gemeinschaftshaushalt und die Einnahmenpolitik der Gemeinschaft216 2.4Zusammenfassung: Implikationen realer Konvergenz als Funktionsbedingung der EWU223 3.Exkurs: Geldwertstabilität und reale Konvergenz: Besondere Rolle der Lohnpolitik in der EWU225 3.1Funktionaler Zusammenhang zwischen WU und Lohnpolitik225 3.2'Gemeinsame' Lohnpolitik bei Lohndifferenzierung228 III.Folgen der Implikationen der ökonomischen Funktionsbedingungen der EWU230 1.Staatliche Strukturen zur Gewährleistung der ökonomischen Funktionsbedingungen der EWU?231 2.Souveränitätstheoretische Bewertung der ökonomischen Funktionsbedingungen der EWU234 Teil C: Implikationen der Interdependenz von EWU und PU im Hinblick auf die Gesamtstruktur der Gemeinschaft240 I.Die PU - funktionales System von Zuständigkeiten oder Staatsverband?240 1.Die PU als funktionales System von Zuständigkeiten?240 2.Umstrukturierung der EU in einen Staatsverband als Ausdruck ökonomischer, souveränitäts- und demokratietheoretischer Implikationen der EWU243 II.Strukturmodell eines Europäischen Bundesstaates245 1.Bestehende Verfassungsentwürfe245 1.1'Entwurf eines Vertrages zur Gründung der Europäischen Union' des EP vom 14. Februar 1984246 1.2'Entwurf einer Verfassung der Europäischen Union' des EP vom Februar 1994251 1.3Reformprogramm für die EU der Europäischen Strukturkommission von 1994254 2.Institutionelle und konstitutionelle Strukturen eines Europäischen Bundesstaates256 2.1Institutionelle Anforderungen an einen Europäischen Bundesstaat257 2.1.1Das Europäische Parlament259 2.1.2Der Ministerrat als Staatenkammer262 2.1.3Weiterentwicklung der Kommission zur Europäischen Regierung265 2.2Die konstitutionelle Ebene eines Europäischen Bundesstaates265 2.2.1Grundstrukturen einer Europäischen Verfassung266 2.2.2Verfassungsmäßig zu verankernde staatliche Elemente268 2.2.3Kernkompetenzen eines Europäischen Bundesstaates271 3.Die Europäische Union: Staat, aber nicht Nation273 Teil D: Integrationstheoretische Voraussetzungen der Verwirklichung einer EPU277 I.Die Bedeutung von Integrationstheorien für den zu untersuchenden Zusammenhang277 II.Die relevanten Theorierichtungen in der Übersicht279 1.Funktionalismus280 1.1Funktionalismus im Sinne Mitranys280 1.2Neofunktionalismus281 1.3Rehabilitierung des Neofunktionalismus284 2.Theorie des Föderalismus289 3.Kommunikationstheorie290 4.Bewertung der Integrationstheorien292 III.Darstellung der Eckpunkte der Integrationspolitik unter Bezugnahme auf den integrationstheoretischen Hintergrund294 1.Die Entwicklung der europäischen Integration bis zur Gründung der EWG294 2.Stagnation und Wiederbelebung der europäischen Integration302 3.Zwischenbilanz310 IV.Analyse des funktionalen Ansatzes hinsichtlich seiner Eignung für eine umfassende politische Integration312 1.Integrationstheoretische Analyse des Integrationsschrittes zur EWU312 1.1Die dem Maastrichter Vertrag vorausgehenden Anläufe hin zu einer WU312 1.2Die der EWU zugrunde liegende politische Finalität314 2.Der Integrationsschritt zur PU: Rehabilitierung und Ergänzung der Theorie des Föderalismus319 2.1Die Theorie des Föderalismus als adäquate Integrationsstrategie für den Schritt zu einer PU319 2.2Handlungs- und interessentheoretische Voraussetzungen322 2.3Nationalstaatliche Interessen hinsichtlich einer PU324 3.Zusammenfassung und Bilanz331 Teil E: Abschließender Exkurs: Historische Währungsunionen des 19. Jahrhunderts im Überblick335 I.Zwei Typen von monetären Unionen im 19. Jahrhundert337 1.Monetäre Unionen zwischen souveränen Staaten338 2.Monetäre Unionen als Ergebnis politischer Integration342 II.Die politische, wirtschaftliche und monetäre Entwicklung in Deutschland im 19. Jahrhundert: Vom Zollverein zum Deutschen Reich und zur Reichsbank344 1.Die politische und wirtschaftliche Entwicklung345 2.Die monetäre Integration349 III.Währungsunionen im 19. Jahrhundert: Bilanz und Lehren352 1.Wirtschaftliche Konvergenz und Interdependenz zwischen WU und PU352 2.Determinanten politischer Integration im deutschen Einigungsprozeß im 19. Jahrhundert355 Teil F: Zusammenfassung und Ausblick: Die EWU als Langfristperspektive357 I.Zusammenfassung der Hauptergebnisse357 II.Die Realisierungschancen der Voraussetzungen der Funktions- und Bestandsfähigkeit der EWU362 III.Ausblick367 Bibliographie372 Anhang: Statistische Übersichten zur Konvergenz419 Tabelle 1: Nominale Konvergenzlage der Mitgliedstaaten der EG419 Tabellen 2-5: Die nominalen Konvergenzkriterien im einzelnen420 Tabellen 6a-10: Kriterien realer Konvergenz der Mitglied-staaten der EG424Textprobe:Textprobe: Kapitel 1.2.3, 'Vergemeinschaftung' finanzpolitischer Kompetenzen: Nach Meinung des Frankfurter Instituts für wirtschaftspolitische Forschung sind die Regelungen des Maastrichter Vertrages unter der Voraussetzung ihrer Einhaltung ausreichend: 'Eine weitergehende Bindung der Finanzpolitik ist nicht notwendig. Die Mitgliedsländer sollten autonom über die Höhe und Struktur der Ausgaben und über ihr Abgabensystem bestimmen. Eine gegenseitige Information über die geplanten Maßnahmen ist sicher nützlich, eine strikte Vormundschaft für die nationale Finanzpolitik hingegen nicht.' Grundsätzlich ist eine Gewährleistung der Disziplinierung der Finanzpolitik und die Schaffung von Konvergenz bzgl. der hier in Frage stehenden Größen als Voraussetzung einer funktionsfähigen WU auf der Grundlage eines strengen Regelsystems von Konvergenzkriterien, deren Einhaltung zwangsläufig zu einer stabilitätsorientierten und konvergenten Finanz- bzw. Budgetpolitik führen würde, denkbar. Wie hoch jedoch die Gefahr ist, daß solche Konvergenzkriterien nicht wörtlich eingehalten bzw. ihrer intendierten Wirkung nicht gerecht werden, ist in der kritischen Würdigung der Vereinbarungen des Maastrichter Vertrages in Teil A, insbesondere in der Beurteilung der für eine auf Dauer tragbare Finanzlage entscheidenen Kriterien der Defizitquote und der Schuldenquote gezeigt worden. Die Gefahr der Ausübung von Druck auf die EZB, ebenso wie gewisse, die Stabilität gefährdende externe Effekte, die als Argumente für ein Regelsystem angeführt wurden, sind auch im Rahmen eines Regelsystems nicht völlig auszuschließen. 'Sie (die Konvergenzkriterien, Anm. d. Verf.) können in der praktisch-politischen Umsetzung erheblich abgeschwächt werden und gegebenenfalls dazu beitragen, den fiskalpolitischen Stabilitätsstandard in der WWU zu verwässern.' Sofern die Einhaltung der Regeln in Frage gestellt werden muß, gewänne die Gefährdung der Geldwertstabilität durch Entwicklungen, auf die die EZB keinen Einfluß nehmen kann, bzw. durch eine direkte Gefährdung der Stabilitätspolitik der EZB durch Ausübung von Druck auf diese, an Relevanz. Im Extremfall wäre die Geldwertstabilität den gleichen Gefahren ausgesetzt, wie bei Nichtexistenz eines Regelsystems. Die dargestellten Aspekte sprechen im Hinblick auf die für den dauerhaften Bestand einer WU notwendige finanzpolitische Disziplinierung für eine gemeinschaftliche Finanzpolitik, die durch einen finanzpolitischen Akteur betrieben wird. Die Gegenkräfte gegen eine finanzpolitische Selbstbindung in Form eines Regelsystems sind nicht gering und werden sich bei Fortbestand nationalstaatlicher Souveränität in der Finanzpolitik und einer entsprechenden Zahl finanzpolitischer Akteure erheblich schwerer beherrschen lassen. Sie sprechen für eine einheitliche Akteursebene von Geld- und Finanzpolitik. Eine vollständig vergemeinschaftete Budgetpolitik würde einen gemeinsamen dominanten Haushalt der EG implizieren; die Zahl finanzpolitischer Akteure, die dem geldpolitischen Akteur in Gestalt der EZB gegenüberstünde, reduzierte sich deutlich. Dem aus Stabilitätsgründen zu präferierenden gleichen Zentralisierungsgrad der Geld- und Finanzpolitik würde durch einen dominanten EG-Haushalt Rechnung getragen, der die Voraussetzung dafür bildete, daß die Abstimmung beider Politikbereiche nicht erschwert und die Verantwortlichkeit des budgetären Bereiches nicht verdeckt wäre. Ein dominanter Haushalt der Gemeinschaft implizierte makroökonomisch wirksam werdende wirtschaftspolitische Maßnahmen der zentralen Gemeinschaftsebene implizieren, da die Finanzkraft für selbige von den Nationalstaaten auf diese überginge. Entscheidene Argumente, die ihren Ursprung im wesentlichen in der Tatsache der mangelnden Konvergenz in der EG haben, sprechen jedoch für die Notwendigkeit eines differenzierten Einsatzes makroökonomischer Politiken und damit gegen eine 'Vergemeinschaftung' der Budgetpolitik. Hierauf wird im einzelnen im Rahmen der Ausführungen zur realen Konvergenz als Funktionsbedingung der WU eingegangen. Solange die wirtschaftliche Konvergenz in der Gemeinschaft in dem Maße unzureichend ist, wie sie sich derzeit darstellt, wäre eine gemeinschaftsweite Budgetpolitik im Hinblick auf die Geldwertstabilität zwar förderlich, vorausgesetzt, ein zentraler finanzpolitischer Akteur würde der stabilitätspolitischen Verantwortung gerecht. Im Hinblick auf die Schaffung realer Konvergenz hingegen wäre sie eher kontraproduktiv. Denn solange die EG kein wirtschaftlich homogenes Gebiet darstellt, spielen asymmetrische Schocks eine nicht unerhebliche Rolle, auf die mit einem national bzw. regional differenzierten Einsatz der Wirtschaftspolitik zu reagieren ist. Letztlich ist der entscheidende Aspekt einer stabilitätsorientierten Budgetpolitik auch nicht die Ausübung auf zentraler Ebene, sondern die Schaffung der Voraussetzung dafür, daß weiterhin auf nationalstaatlicher Ebene verantwortete Budgetpolitiken auf ihre Stabilitätsorientierung hin verpflichtet werden. Darüberhinaus ist darauf hinzuweisen, daß große Unterschiede in den Finanzverfassungen der einzelnen EG-Mitgliedstaaten, vor allem historisch bedingte Unterschiede der politischen Entscheidungsprozesse und -ebenen existieren, die die 'Vergemeinschaftung' der nationalen Budgets erheblich erschwerten. Während in Frankreich und Großbritannien die Verantwortung relativ zentralistisch ist, existiert in der Bundesrepublik eine föderative Regelung. Der Großteil der staatlichen Investitionsentscheidungen wird vergleichsweise autonom auf der Ebene vor allem der Länder, aber auch der Städte und Gemeinden getroffen. Regionale Wirtschaftspolitik hat eine nicht unerhebliche Bedeutung. Schließlich existiert in der Bundesrepublik ein beträchtlicher horizontaler und vertikaler Finanzausgleich.
Luri, Xavier, et al. (Gaia Collaboration) ; [Context] This work is part of the Gaia Data Processing and Analysis Consortium papers published with the Gaia Early Data Release 3 (EDR3). It is one of the demonstration papers aiming to highlight the improvements and quality of the newly published data by applying them to a scientific case. [Aims] We use the Gaia EDR3 data to study the structure and kinematics of the Magellanic Clouds. The large distance to the Clouds is a challenge for the Gaia astrometry. The Clouds lie at the very limits of the usability of the Gaia data, which makes the Clouds an excellent case study for evaluating the quality and properties of the Gaia data. [Methods] The basis of our work are two samples selected to provide a representation as clean as possible of the stars of the Large Magellanic Cloud (LMC) and the Small Magellanic Cloud (SMC). The selection used criteria based on position, parallax, and proper motions to remove foreground contamination from the Milky Way, and allowed the separation of the stars of both Clouds. From these two samples we defined a series of subsamples based on cuts in the colour-magnitude diagram; these subsamples were used to select stars in a common evolutionary phase and can also be used as approximate proxies of a selection by age. [Results] We compared the Gaia Data Release 2 and Gaia EDR3 performances in the study of the Magellanic Clouds and show the clear improvements in precision and accuracy in the new release. We also show that the systematics still present in the data make the determination of the 3D geometry of the LMC a difficult endeavour; this is at the very limit of the usefulness of the Gaia EDR3 astrometry, but it may become feasible with the use of additional external data. We derive radial and tangential velocity maps and global profiles for the LMC for the several subsamples we defined. To our knowledge, this is the first time that the two planar components of the ordered and random motions are derived for multiple stellar evolutionary phases in a galactic disc outside the Milky Way, showing the differences between younger and older phases. We also analyse the spatial structure and motions in the central region, the bar, and the disc, providing new insightsinto features and kinematics. Finally, we show that the Gaia EDR3 data allows clearly resolving the Magellanic Bridge, and we trace the density and velocity flow of the stars from the SMC towards the LMC not only globally, but also separately for young and evolved populations. This allows us to confirm an evolved population in the Bridge that is slightly shift from the younger population. Additionally, we were able to study the outskirts of both Magellanic Clouds, in which we detected some well-known features and indications of new ones. ; The Gaia mission and data processing have financially been supported by, in alphabetical order by country: the Algerian Centre de Recherche en Astronomie, Astrophysique et Géophysique of Bouzareah Observatory; the Austrian Fonds zur Förderung der wissenschaftlichen Forschung (FWF) Hertha Firnberg Programme through grants T359, P20046, and P23737; the BELgian federal Science Policy Office (BELSPO) through various PROgramme de Développement d'Expériences scientifiques (PRODEX) grants and the Polish Academy of Sciences - Fonds Wetenschappelijk Onderzoek through grant VS.091.16N, and the Fonds de la Recherche Scientifique (FNRS); the Brazil-France exchange programmes Fundaçãode Amparo à Pesquisa do Estado de São Paulo (FAPESP) and Coordenação de Aperfeicoamento de Pessoal de Nível Superior (CAPES) - Comité Français d'Evaluation de la Coopération Universitaire et Scientifique avec le Brésil (COFECUB); the National Science Foundation of China (NSFC) through grants 11573054 and 11703065 and the China Scholarship Council through grant 201806040200; the Tenure Track Pilot Programme of the Croatian Science Foundation and the École Polytechnique Fédérale de Lausanne and the project TTP-2018-07-1171 "Mining the Variable Sky", with the funds of the Croatian-Swiss Research Programme; the Czech-Republic Ministry of Education, Youth, and Sports through grant LG 15010 and INTER-EXCELLENCE grant LTAUSA18093, and the Czech Space Office through ESA PECS contract 98058; the Danish Ministry of Science; the Estonian Ministry of Education and Research through grant IUT40-1; the European Commission's Sixth Framework Programme through the European Leadership in Space Astrometry (ELSA) Marie Curie Research Training Network (MRTN-CT-2006-033481), through Marie Curie project PIOF-GA-2009-255267 (Space AsteroSeismology & RR Lyrae stars, SAS-RRL), and through a Marie Curie Transfer-of-Knowledge (ToK) fellowship (MTKD-CT-2004-014188); the European Commission's Seventh Framework Programme through grant FP7-606740 (FP7-SPACE-2013-1) for the Gaia European Network for Improved data User Services (GENIUS) and through grant 264895 for the Gaia Research for European Astronomy Training (GREAT-ITN) network; the European Research Council (ERC) through grants 320360 and 647208 and through the European Union's Horizon 2020 research and innovation and excellent science programmes through Marie Skłodowska-Curie grant 745617 as well as grants 670519 (Mixing and Angular Momentum tranSport of massIvE stars – MAMSIE), 687378 (Small Bodies: Near and Far), 682115 (Using the Magellanic Clouds to Understand the Interaction of Galaxies), and 695099 (A sub-percent distance scale from binaries and Cepheids – CepBin); the European Science Foundation (ESF), in the framework of the Gaia Research for European Astronomy Training Research Network Programme (GREAT-ESF); the European Space Agency (ESA) in the framework of the Gaia project, through the Plan for European Cooperating States (PECS) programme through grants for Slovenia, through contracts C98090 and 4000106398/12/NL/KML for Hungary, and through contract 4000115263/15/NL/IB for Germany; the Academy of Finland and the Magnus Ehrnrooth Foundation; the French Centre National d'Etudes Spatiales (CNES), the Agence Nationale de la Recherche (ANR) through grant ANR-10-IDEX-0001-02 for the "Investissements d'avenir" programme, through grant ANR-15-CE31-0007 for project "Modelling the Milky Way in the Gaia era" (MOD4Gaia), through grant ANR-14-CE33-0014-01 for project "The Milky Way disc formation in the Gaia era" (ARCHEOGAL), and through grant ANR-15-CE31-0012-01 for project "Unlocking the potential of Cepheids as primary distance calibrators" (UnlockCepheids), the Centre National de la Recherche Scientifique (CNRS) and its SNO Gaia of the Institut des Sciences de l'Univers (INSU), the "Action Fédératrice Gaia"' of the Observatoire de Paris, the Région de Franche-Comté, and the Programme National de Gravitation, Références, Astronomie, et Métrologie (GRAM) of CNRS/INSU with the Institut National Polytechnique (INP) and the Institut National de Physique nucléaire et de Physique des Particules (IN2P3) co-funded by CNES; the German Aerospace Agency (Deutsches Zentrum für Luft- und Raumfahrt e.V., DLR) through grants 50QG0501, 50QG0601, 50QG0602, 50QG0701, 50QG0901, 50QG1001, 50QG1101, 50QG1401, 50QG1402, 50QG1403, 50QG1404, and 50QG1904 and the Centre for Information Services and High Performance Computing (ZIH) at the Technische Universität (TU) Dresden for generous allocations of computer time; the Hungarian Academy of Sciences through the Lendület Programme grants LP2014-17 and LP2018-7 and through the Premium Postdoctoral Research Programme (L. Molnár), and the Hungarian National Research, Development, and Innovation Office (NKFIH) through grant KH_18-130405; the Science Foundation Ireland (SFI) through a Royal Society - SFI University Research Fellowship (M. Fraser); the Israel Science Foundation (ISF) through grant 848/16; the Agenzia Spaziale Italiana (ASI) through contracts I/037/08/0, I/058/10/0, 2014-025-R.0, 2014-025-R.1.2015, and 2018-24-HH.0 to the Italian Istituto Nazionale di Astrofisica (INAF), contract 2014-049-R.0/1/2 to INAF for the Space Science Data Centre (SSDC, formerly known as the ASI Science Data Center, ASDC), contracts I/008/10/0, 2013/030/I.0, 2013-030-I.0.1-2015, and 2016-17-I.0 to the Aerospace Logistics Technology Engineering Company (ALTEC S.p.A.), INAF, and the Italian Ministry of Education, University, and Research (Ministero dell'Istruzione, dell'Università e della Ricerca) through the Premiale project "MIning The Cosmos Big Data and Innovative Italian Technology for Frontier Astrophysics and Cosmology" (MITiC); the Netherlands Organisation for Scientific Research (NWO) through grant NWO-M-614.061.414, through a VICI grant (A. Helmi), and through a Spinoza prize (A. Helmi), and the Netherlands Research School for Astronomy (NOVA); the Polish National Science Centre through HARMONIA grant 2018/06/M/ST9/00311, DAINA grant 2017/27/L/ST9/03221, and PRELUDIUM grant 2017/25/N/ST9/01253, and the Ministry of Science and Higher Education (MNiSW) through grant DIR/WK/2018/12; the Portugese Fundação para a Ciência e a Tecnologia (FCT) through grants SFRH/BPD/74697/2010 and SFRH/BD/128840/2017 and the Strategic Programme UID/FIS/00099/2019 for CENTRA; the Slovenian Research Agency through grant P1-0188; the Spanish Ministry of Economy (MINECO/FEDER, UE) through grants ESP2016-80079-C2-1-R, ESP2016-80079-C2-2-R, RTI2018-095076-B-C21, RTI2018-095076-B-C22, BES-2016-078499, and BES-2017-083126 and the Juan de la Cierva formación 2015 grant FJCI-2015-2671, the Spanish Ministry of Education, Culture, and Sports through grant FPU16/03827, the Spanish Ministry of Science and Innovation (MICINN) through grant AYA2017-89841P for project "Estudio de las propiedades de los fósiles estelares en el entorno del Grupo Local" and through grant TIN2015-65316-P for project "Computación de Altas Prestaciones VII", the Severo Ochoa Centre of Excellence Programme of the Spanish Government through grant SEV2015-0493, the Institute of Cosmos Sciences University of Barcelona (ICCUB, Unidad de Excelencia "María de Maeztu") through grants MDM-2014-0369 and CEX2019-000918-M, the University of Barcelona's official doctoral programme for the development of an R+D+i project through an Ajuts de Personal Investigador en Formació (APIF) grant, the Spanish Virtual Observatory through project AyA2017-84089, the Galician Regional Government, Xunta de Galicia, through grants ED431B-2018/42 and ED481A-2019/155, support received from the Centro de Investigación en Tecnologías de la Información y las Comunicaciones (CITIC) funded by the Xunta de Galicia, the Xunta de Galicia and the Centros Singulares de Investigación de Galicia for the period 2016-2019 through CITIC, the European Union through the European Regional Development Fund (ERDF) / Fondo Europeo de Desenvolvemento Rexional (FEDER) for the Galicia 2014-2020 Programme through grant ED431G-2019/01, the Red Española de Supercomputación (RES) computer resources at MareNostrum, the Barcelona Supercomputing Centre - Centro Nacional de Supercomputación (BSC-CNS) through activities AECT-2016-1-0006, AECT-2016-2-0013, AECT-2016-3-0011, and AECT-2017-1-0020, the Departament d'Innovació, Universitats i Empresa de la Generalitat de Catalunya through grant 2014-SGR-1051 for project 'Models de Programació i Entorns d'Execució Parallels' (MPEXPAR), and Ramon y Cajal Fellowship RYC2018-025968-I; the Swedish National Space Agency (SNSA/Rymdstyrelsen); the Swiss State Secretariat for Education, Research, and Innovation through the ESA PRODEX programme, the Mesures d'Accompagnement, the Swiss Activités Nationales Complémentaires, and the Swiss National Science Foundation; the United Kingdom Particle Physics and Astronomy Research Council (PPARC), the United Kingdom Science and Technology Facilities Council (STFC), and the United Kingdom Space Agency (UKSA) through the following grants to the University of Bristol, the University of Cambridge, the University of Edinburgh, the University of Leicester, the Mullard Space Sciences Laboratory of University College London, and the United Kingdom Rutherford Appleton Laboratory (RAL): PP/D006511/1, PP/D006546/1, PP/D006570/1, ST/I000852/1, ST/J005045/1, ST/K00056X/1, ST/K000209/1, ST/K000756/1, ST/L006561/1, ST/N000595/1, ST/N000641/1, ST/N000978/1, ST/N001117/1, ST/S000089/1, ST/S000976/1, ST/S001123/1, ST/S001948/1, ST/S002103/1, and ST/V000969/1.
Untersuchungen zur Rohstoffeffizienz der Forst-Holz-Kette vor dem Hintergrund der Forstreform in Ghana Im Jahr 1994 wurde in Ghana eine Forstreform durchgeführt, mit dem Ziel, das Artenspektrum der kommerziell nutzbaren Bäume zu vergrößern, den Holzverlust in der Forst-Holz-Kette zu reduzieren sowie die Verarbeitungsprozesse in der Holzindustrie zu optimieren. Um den Erfolg dieser politisch motivierten Ziele sicherzustellen, wurden ein Exportverbot für Rundholz und Mindestpreise für den Verkauf von Holz auf dem Stock erlassen, die an die internationalen Marktpreise angepasst waren. In dieser Arbeit soll die Effizienz dieser Maßnahmen genauer beleuchtet werden. In einem ersten Abschnitt werden die Auswirkungen des Exportverbots von Rundholz (LEB=log export ban) ab 1995 auf die weiter verarbeitende Industrie, die Preisentwicklung auf nationaler und internationaler Ebene sowie die Nutzung des vorhandenen Artenspektrums mit statistischen Methoden untersucht. Dafür standen zwei Zeitreihen der Timber Industry Development Division (TIDD), einer Abteilung der Forstkommission von Ghana, zur Verfügung. Der erste Datensatz umfasst den Zeitraum von 1984 bis 2005, während der zweite, detailliertere Datensatz die Periode von 1995 bis 2005 abdeckt. Im zweiten Abschnitt der Arbeit wurde die bei Holzerntemaßnahmen erzielte Rundholzausbeute analysiert. Dazu wurden im Rahmen von Fallstudien Holzerntemaßnahmen mit detaillierten Untersuchungen begleitet. Verglichen wurden die aufgrund der Dimension und der Qualität der eingeschlagenen Bäume verwertungstechnisch objektiv nutzbaren Holzmengen mit denjenigen Rundholzmengen, die tatsächlich zur Verarbeitung gelangten. In die Untersuchung wurde die Kontrolle und Ausführung der Arbeit miteinbezogen. Aus den Ausbeutedaten wurden Modelle zur Berechnung eines angemessenen Stockpreises sowohl für einzelne Baumarten als auch als Durchschnittswerte entwickelt. Ein weiterer Arbeitsschritt befasste sich mit der Schnittholzausbeute im Sägewerk. Ebenfalls im Rahmen von Fallstudien wurden das eingesetzte Rundholz und das daraus erzeugte Schnittholz hinsichtlich Volumen und Qualität verglichen und die Gründe für Ausbeuteunterschiede analysiert. Die Analyse des Produktionsprozesses deckte dabei auf, welche Faktoren bei welchen Arbeitsschritten zu den beobachteten Verlusten bei der Schnittholzausbeute beitragen. Dabei wurden sowohl technische Faktoren als auch Motivation und Ausbildungsstand der Arbeiter berücksichtigt. Auswirkungen des Exportverbots – Entwicklung der Exportmengen In dem Zeitraum vor Inkrafttreten des Rundholzexportverbots in den Jahren 1984 bis 1985 betrug das Gesamtexportvolumen von Holz und Holzprodukten ca. 5,7 Mio. m³. Daran hatten Rundholz- und Sägeholzexporte einen Anteil von 55% bzw. 39%, während die Anteile von veredelten Produkten deutlich niedriger waren: Furnier 4,1%, Sperrholz 0,4% und Fertigwaren aus Holz 1,4%. In den Jahren zwischen 1996 und 2005, in denen sich das Rundholzexportverbot auswirkte, betrug das exportierte Gesamtvolumen von Holz und Holzprodukten 4,5 Mio. m³. Daran hatte das Sägeholz einen Anteil von 54%, während der Anteil weiterverarbeiteter Produkte deutlich zunahm: Furnier 21,3%, Sperrholz 10,5% und Hobelware bzw. Holzprodukte 14,2%. Die Analyse der Wirkung des Exportverbots für Rundholz aus Ghana zeigt, dass durch diese Maßnahme ein deutlich höherer Anteil der Wertschöpfung im Land verbleibt. Vor allem die Herstellung von Furnieren, Sperrholz und veredelten Holzprodukten stieg deutlich an. In dieser Hinsicht wird die Hypothese gestützt, dass ein Exportverbot von Rundholz die Produktion von höherwertigen Waren im Inland fördert. Weitere Faktoren für die beobachtete quantitative Zunahme und den Wertzuwachs bei den verarbeiteten Produkten dürften auch die Verknappung des Rundholzangebots, die hohen Exportzölle auf Halbfertigwaren (Sägeholz) und finanzielle Investitionsanreize seitens des Staates sein. Preisentwicklung für Exportprodukte Die Untersuchung zeigte, dass der aggregierte Preisindex für alle Holzprodukte, die vor Inkrafttreten des Rundholzexportverbots exportiert wurden, in der Zeit von 1984 bis 1995 inflationsbereinigt um 129% anstieg, während der aggregierte Preisindex nach Inkrafttreten des Rundholzexportverbots im Zeitraum von 1996 bis 2005 um 3% fiel. Dabei stiegen die Exportpreise für die verschiedenen Produkte in unterschiedlichem Ausmaß: Sägeholz um 109%, Furnier um 238%, Sperrholz um 142% und verarbeitete Holzprodukte um 102%. Im Zeitraum nach Eintreten des Rundholzexportverbots ergaben sich demgegenüber folgende Veränderungen in den Preisen: Sägeholz +14,8%, Furnier -21,9%, Sperrholz -47% und verarbeitete Holzprodukte -31,7%. Während die Exportpreise für Furnier an stärksten anzogen, fielen die Preise von Sperrholzprodukten aus tropischen Hölzern, da billige Sperrhölzer auf Nadelholzbasis den Markt eroberten. Auch der stetig ansteigende Einsatz von Holzwerkstoffen wie MDF und OSB im Möbelbau und im konstruktiven Bereich verdrängen tropische Sperrhölzer aus dem Markt. Ein weiterer Grund ist schließlich der starke Konkurrenzdruck auf diese Produkte durch Sperrholz aus chinesischer Produktion. China war bis vor kurzem noch ein wichtiger Importeur von tropischem Sperrholz, ist heute aber bereits einer der größten Exporteure. Die Ursachen für die Preisrrückgänge sind vermutlich auch in globalen Ereignissen zu sehen, wie beispielsweise dem Zusammenbruch der asiatischen Märkte in den Jahren 1997 und 1998, sowie der schwachen Nachfrage nach Waren auf internationalen Märkten zwischen 2000 und 2001, die u. a. aus der wirtschaftlichen Rezession der drei stärksten Volkswirtschaften (USA, Japan, Deutschland) resultierte. Anteil weniger genutzter Baumarten (LUS) Der Anteil der weniger genutzten Baumarten (LUS – lesser used species in Ghana, auch als "Pink" und "Green"-Baumarten bezeichnet) an der Exportmenge blieb auch während des Exportverbots für Rundholz relativ gering. An der Gesamtexportmenge (ca. 4,1 Mio. m³) der sechs Hauptprodukte, die zwischen 1995 und 2005 aus Gahana ausgeführt wurden, betrug der Volumenanteil der "Pink" und "Green" Baumarten nur 12,5% bzw. 1,3%. Die marktgängigen "Scarlet" und "Red"-Baumarten nahmen dagegen einen Mengenanteil von 49% bzw. 29,4% ein, während sonstige Baumarten zu 7,7% beitrugen. Detaillierte Analysen der Statistiken zeigen, dass veredelte Produkte wie Fußböden und Paneele nahezu vollständig aus "Scarlet" und "Red"-Baumarten hergestellt wurden. Der Anteil dieser Baumarten macht bei diesen Produktgruppen 87% bzw. 90% aus. Beide Produktgruppen gehören zu den höchstbezahlten Exportprodukten. In der Regel fordern Kunden und Verbraucher die spezifischen Holzeigenschaften dieser Holzartengruppen, woraus die hohen Anteile bei den hochwertigen Produkten zu erklären sind. Es steht zu erwarten, dass diese Holzarten auch in Zukunft in Produktgruppen dominieren. Wie erwartet, hat der Mengenanteil von luftgetrockneten Sägeholz aus "Scarlet" Baumarten von 83 % im Jahr 1995 auf etwa 6 % im Jahr 2005 abgenommen, während luftgetrocknetes Schnittholz aus den weniger genutzten "Pink"-Baumarten gegenläufig von 6 % im Jahr 1995 auf 22 % in 2005 anstieg. Die Substituierung von "Scarlet" durch "Pink" Baumarten spiegelt die zunehmende Knappheit dieser verwertungstechnisch geschätzten Baumarten wieder. In den letzten Jahren wurden durch die Forstverwaltung erhöhte Abgaben auf einfaches, luftgetrocknetes Schnittholz erhoben, welches aus den zunehmend knapper werdenden Hauptbaumarten hergestellt wird. Auch darin könnte die wachsende Bevorzugung der weniger genutzten Baumarten in diesem Produktbereich erklärt werden. Entgegen der Erwartungen blieb jedoch der hohe Anteil der Hauptbaumarten im Bereich des kammergetrockneten Sägeholzes stabil. Die Bevorzugung der "Scarlet" Baumarten für diese Produkte ist nicht zuletzt auf deren deutlich besseres Verhalten bei der künstlichen Trocknung zurückzuführen. Forschungsvorhaben und verbesserte praktische Erfahrungen über die technische Trocknung der bisher weniger genutzten Baumarten könnten dazu beitragen, dass auch in diesem höherwertigen Bereich zunehmend eine Substitution stattfindet. Ausbeuteverluste und mögliche Ursachen in der Forst- Holz-Kette Die Frage der Ausbeuteverluste und ihrer möglichen Ursachen entlang der Forst-Holz-Kette wurde methodisch im Rahmen eines Fallstudien-Ansatzes untersucht. Dazu wurden die Nutzungsgebiete von drei unterschiedlichen Konzessionären (A, B, D) ausgewählt, die von ihrer geographischen Lage und ihrer Struktur her für die primäre Holzverarbeitung durch die Industrie in Ghana typisch sind. Insgesamt 135 Bäume aus neun Baumarten wurden für diese Studie ausgewählt. Dabei handelt es sich um die für die Vermarktung bedeutendsten Baumarten. Das theoretisch holzindustriell verwendbare Volumen aller Bäume in dieser Studie belief sich auf 2.177 m3, d. h. im Durchschnitt 16 m3 je Baum. Tatsächlich aufgearbeitet und zum Sägewerk transportiert wurden jedoch nur 1.638 m3 oder 12 m3 je Baum. Damit betrug die durchschnittliche Ausbeutequote 75+/-11,82%, während gut 25% (539 m3) des an sich industriell verwendbaren Holzes als Hiebsreste im Wald verblieben. Sowohl der Zopfdurchmesser als auch die Länge dieser Reststücke, wie auch ihre Qualität wären durchaus für eine weitere Bearbeitung im Sägewerk geeignet gewesen. Während der Feldaufnahmen konnten ungenügende Arbeitstechniken und mangelhafte Überwachung als die wichtigsten Gründe für diese geringe Rundholzausbeute identifiziert werden. Dabei spielt auch die herrschende Praxis, nach der der Stockpreis ermittelt wird, den die Firmen an den Staat entrichten müssen, eine Rolle: Da nur für das tatsächlich aus dem Wald exportierte Holz gezahlt werden muss, ergibt sich für die Konzessionäre kein finanzieller Anreiz dafür, die gefällten Bäume möglichst vollständig industriell zu nutzen. Aus diesem offensichtlichen Missstand wurde die Notwendigkeit abgeleitet, Modelle zu entwickeln, die zur Bestimmung der gesamten potentiell vermarktbaren Holzmenge eines stehenden Baumes herangezogen werden können, um so den Stockpreis (stumpage fee) rechnerisch zu bestimmen. Auf der Basis der Versuchsergebnisse wurden drei allometrische Funktionen berechnet, die für eine Schätzung des nutzbaren Volumens herangezogen werden können. Für die Bildung von baumartenspezifischen Modellen wurden drei in Ghana vom Mengenaufkommen her wichtige und markgängige Baumarten herangezogen: Akasaa (Chrysophyllum albidum), Wawa (Triplochiton scleroxylon) und Ofram (Terminalia superba). Darüber hinaus wurden auch generelle Modelle ohne spezifischen Bezug auf einzelne Baumarten entwickelt. Als Datengrundlage dafür wurden neben den drei genannten Hauptbaumarten die Arten von neun weiteren Baumarten herangezogen. Im Allgemeinen hatten artenspezifische Modelle eine bessere Vorhersagbarkeit als gemischte Modelle. Der Grund könnte in der höheren Homogenität der beobachteten und der vorhergesagten Variablen bei den artenspezifischen Modellen liegen. Die Modelle, die auf der Basis der Variablen Brusthöhendurchmesser (DBH) und kommerziell nutzbarer Schaftlänge (L) die nutzbare Holzmenge schätzen, waren jenen Modellen überlegen, die als Variable lediglich den DBH heranziehen. Allerdings ist eine zutreffende Ermittlung der kommerziell nutzbaren Schaftlänge stehender Bäume in der Praxis schwierig. Auch die nur auf dem DBH basierenden Modelle konnten die sägefähigen Stammholzanteile einschließlich stärkerer Kronenanteile mit hinreichender Genauigkeit schätzen. Ein so genanntes Log-Tracking-System, das in Ghana eingeführt werden soll, könnte die Anwendung dieser Modelle in der Praxis begünstigen. Wenn mit ihrer Hilfe die tatsächlich genutzten Stammvolumina zuverlässiger als bisher ermittelt werden, kann mittels der entwickelten Modelle auf das reale, nutzbare Volumen der Bäume auf dem Stock zurückgeschlossen werden, und eine realistische Bestimmung des Stockgeldes (stumpage fee) wäre so möglich. Die Nutzung der entwickelten Modelle in der Praxis zur Festsetzung eines realistischen Stockpreises haben jedoch ihre Grenzen: Wenn sich im Zeitablauf die Ausbeuterelationen fundamental ändern, müssen durch aktuelle Untersuchungen die hier aufgestellten Modelle neu parametrisiert werden. Ausbeuteverluste und mögliche Ursachen im Sägewerk Um die Ausbeute von Schnittholz in der weiteren Bearbeitungsstufe zu bestimmen, wurden im Rahmen der Fallstudie in 4 Sägewerken (A, B, C, D) insgesamt 189 Stämme eingeschnitten. Dazu wurden folgende, für Ausbeute und Qualität ausschlaggebende Faktoren aufgenommen: • Dimension und Volumen des eingesetzten Rundholzes • Zeitraum zwischen Fällung und Verarbeitung der Stämme • Risse, Fäule, Pilzbefall und sonstige Fehler am Rundholz • Schnittbild • Einschnitttechnologien • Qualität des Einschnitts (Maßhaltigkeit) • Volumen und Qualität des erzeugten Schnittholzes Die durchschnittliche Schnittholzausbeute lag bei 28,3% und war damit deutlich niedriger als die in vergleichbaren Studien angegebenen Werte. Die Ausbeute schwankte zwischen nur 1,9% für die Baumart Otie (Pycnanthus angolensis), die im Sägewerk A eingeschnitten wurde, bis hin zu 52.6% für Mahagonie (Khaya ivorensis), eingeschnitten in Werk B. Es konnte festgestellt werden, dass die geringe Qualität und die hohen Materialverluste überwiegend auf die lange Lagerzeit zwischen Fällung und Einschnitt zurückzuführen waren. Alle Otie-Stämme (Pycnanthus angolensis) und die meisten der Wawa –Sägestämme (Triplochiton scleroxylon) zeigten tiefe Risse an der Stirnseite sowie starken Pilzbefall, was zu hohen Ausbeuteverlusten führte. Für die Baumart Otie (Pycnanthus angolensis) wurden durchschnittliche Zeiträume von 6 Monaten vom Einschlag bis zum Einschnitt ermittelt, für Wawa immerhin noch 4 Monate. Eine entscheidende Schwachstelle ist also die mangelhafte logistische Planung. Die unflexible Ausrichtung in der Schnittholzproduktion auf nur wenige exportgängige Liefermaße verursachte einen hohen Volumenanteil an Sägeresthölzern, die bei einer entsprechenden Einschnittgeometrie und Sortierung durchaus zu Fußböden, Paneelen oder anderen Produkten hätten weiterverarbeitet werden können. Um die Maßhaltigkeit der verwendeten Einschnitttechnologien zu bestimmen, wurden zusätzlich an 267 Brettern in sägefrischem Zustand Breite und Stärke ermittelt. Die Ergebnisse der Studie zur Maßhaltigkeit des Schnittholzes weisen darauf hin, dass veraltete und schlecht gewartete Sägentechnik für große Volumenverluste beim Einschnitt verantwortlich sind. Schwankungen der Maßhaltigkeit von 2 bis 17% innerhalb eines Brettes konnten bei der untersuchten Schnittware festgestellt werden. Die Streuung der Maßhaltigkeit zwischen den Brettern war signifikant höher, was wiederum eine schlechte Wartung bzw. Justierung der Einschnittaggregate bestätigt. Abschließend muss kritisch angemerkt werden, dass mit 4 Fallstudien der Stichprobenumfang bei der Bestimmung der Einschlagvolumina sowie der Ausbeuteuntersuchungen bei Schnittholz im Sägewerk keine statistisch repräsentativen und auf ganz Ghana verallgemeinerbare Aussagen zulassen. Dennoch sind die Ergebnisse insofern richtungweisend, als dass Ursachen und Faktoren für die hohen Material- und Wertverluste entlang der Forst-Holz-Kette in Ghana aufgezeigt werden. Damit können Lösungsansätze für die logistischen und technischen Probleme erarbeitet, ein effizientes Controlling konzipiert und innovative Ansätze für eine erweiterte Produktpalette entwickelt werden. Diese Maßnahmen sind dringend notwendig, um eine nachhaltige Bewirtschaftung der Naturwälder Ghanas sicherzustellen und den knappen Rohstoff Holz effizienter zu nutzen. ; SUMMARY: Assessment of raw material utilisation efficiency of the forest-wood chain as influence by the forest sector reform in Ghana. The 1994 forest sector reform in Ghana placed priority on downstream processing, utilisation of lesser-used species (LUS) and improvement of processing efficiency in the timber industry of Ghana. To ensure the success of these policy goals, a ban on exportation of logs was introduced and stumpage fees were adjusted to reflect the realistic timber prices on the international market. This thesis was designed to assess the raw material utilisation efficiency under the influence of the forest sector reform and forest-wood processing chain. The thesis set out to investigate the effects of the log export ban (LEB) policy on the downstream processing, the growth of volume and the prices of the export wood products, and the utilisation of the various timber species. Two sets of time series data as compiled by the Timber Industry Development Division (TIDD) of the Forestry Commission of Ghana were analysed with statistical regressions. The first set of data spanned from 1984 to 2005 whilst the second more detailed data set was compiled from 1995 to 2005. This thesis further assessed, on a case study basis, logging recovery and examined the effect of lax supervision on the logging recovery, and thus justifying the need to develop models to predict the total merchantable volume and logically, the realistic stumpage volume and fees. It continued to assess the sawnwood processing recovery and quantified the volume loss due to sawnwood thickness over-sizing and sawing variation and investigated other factors that contribute to the low sawnwood recovery so as to provide managers and operators with insight into their operation performance and identify ways to improve production. Export market- Volumes Before the LEB policy in the years from 1984 to 1995, the total export volume of wood and wood products was about 5.7 million cubic metres. Out of this volume, log and sawnwood exports accounted for about 55 % and 39 % respectively whilst the contributions from veneer, plywood, and processed wood exports were 4.1 %, 0.4 % and 1.4 % respectively. In the years between 1996 and 2005, the total volume of wood and wood products exported during the LEB policy was about 4.5 million cubic metres. Veneer, plywood, and processed moulding showed increasing shares in the export market, contributing respectively 21.3 %, 10.5 % and 14.2 % during this period, whilst sawnwood accounted for 53.9%. The results of the study showed that the implementation of the log export ban policy in Ghana caused increases in the volume shares of the value-added products such as veneer, plywood and processed wood, which is in agreement with the theory that an LEB policy stimulates the production of value-added products. However, important factors such as shortage of timber supply, high export taxes on the primary products (sawnwood), and investment incentives may have played significant roles in increasing the volume of these products. Export market- Prices The study found that the aggregate price index of all the wood products exported before the LEB policy increased by 129 % compared to the decline of the aggregate price index by -3.9 % during the LEB policy. The growth in the export prices of sawnwood, veneer, plywood and processed wood before the LEB policy were respectively 109 %, 238 %, 142 % and 102 % compared to the corresponding growths or declines of 14.8 %, -21.9 %, -47 % and -31.7 % during the LEB policy. Whilst the export prices of veneer appear to have been bolstered by the increasing market share of re-constituted panels such as MDF and OSB, those of plywood from the tropical forests were eclipsed by the increasing substitution of tropical plywood by softwood plywood and other panels such as MDF and OSB in furniture, millwork, and mouldings production. Another important contributing factor to the decline in the prices of plywood is the intense competition from China, which until recently was a major importer of tropical plywood, and is now a major exporter of plywood. The need to find new markets for tropical plywood could help revive its export trade. These decline in prices also appears also to have been caused by such global factors as the collapse of the Asian economy in 1997 and 1998, and the weak demand for international commodity in 2000 and 2001, resulting from the economic recession of the world's three largest economies (U.S.A., Japan and Germany). Export volume of the traditional (scarlet and red) and the Lesser-Used Species (LUS) (pink and green) species During the LEB policy, the export volume shares of the LUS (pink and green species) stayed relatively low. Out of the total export volume of 4,074,570 m³ of the six main products exported from 1995 to 2005, pink and green species (LUS) contributed only 12.5 % and 1.3 % respectively. Furthermore, scarlet and red species had a respective volume share of 49 % and 29.4 % whilst "other species" contributed 7.7 %. The results indicated that flooring and moulding products were almost exclusively produced from the traditional timber species. About 87 % of the flooring and 90 % of the moulding products were produced from both the scarlet and red species. These two products are among the highly-priced export products. The flooring and moulding products are generally used for decoration purposes and the traditional and highly-valued timber species such as the scarlet and red species are expected to dominate the choice of species for these products. This fact probably explains the high volume contribution of the traditional timber species to the production of flooring and moulding products. In the face of a limited supply of the primary timber species, scarlet and red species obviously should be reserved for the highly-priced products such as flooring and moulding. As expected, the trend in the volume share of air-dried (AD) sawnwood produced from the scarlet species showed a substantial decrease from 83 % in 1995 to about 6 % in 2005, whilst air-dried sawnwood from the pink species increased from about 6 % in 1995 to about 22 % in 2005. The substitution of the scarlet species by the pink species reflects the increasing shortage of supply of the former. Another reason could be the result of systematic efforts by the stakeholders in forest management in Ghana to substitute the LUS species for the scarlet in the production of sawnwood (AD) by imposing levies on sawnwood (AD) produced from the primary timber species. Contrary to expectation, kiln-dried (KD) sawnwood had the most stable volume share from the scarlet species, decreasing only marginally from about 86 % in 1995 to about 84 % in 2005. Technical difficulties in developing kiln-drying schedules for the LUS species may explain a higher percentage volume share of the scarlet species used to produce sawnwood (KD). The logging efficiency and the development of allometric models to predict the realistic stumpage volume In a case study approach, a total of 135 trees from nine timber species were sampled from three logging sites of mills A, B and D to allow for the assessment of logging recovery and the development of models to predict the total merchantable volume. The mills were selected according to the prevailing sawmill industry structure in Ghana. The main species were selected on the basis of their forest availability and economic importance. Wawa (Triplochiton scleroxylon), for example, constitutes about 21 % of Forest Inventory Project (FIP) class 1 volume greater than 70 cm in diameter (see Ghana Forestry Department 1989) and hence justifies its higher selection percentage. The merchantable volume of all the trees sampled from the three studied mills totalled 2,177 m³, averaging 16.0 m³ per tree. The logs that were extracted from this total merchantable volume by the mills amounted to 1,638 m³, averaging 12 m³ per tree. The average logging recovery rate of the three studied logging sites was 75±11.82 % whilst 25 % (539 m³) of the merchantable volume was left at the logging site as residues. On the basis of the small-end diameter and length values, the merchantable wood residues were of sufficient quality to warrant their utilisation. For example, the small-end diameter of the residues ranged from 41 cm for ofram (Terminalia superba) to 60 cm for wawa (Triplochiton scleroxylon) whilst the average length of the residues also varied between 4.2 m for sapele (Entandrophragma cylindricum) and 8.5 m for wawa (Triplochiton scleroxylon). The study identified insufficient working techniques and lax supervision as one of the major causes of low logging recovery and the existing practice of fixing stumpage fees gives only weak economical incentives to improve volume recovery. Therefore the need to develop models to predict the total merchantable volume as a basis for adjusted stumpage fee calculation, was justified. To fix realistic stumpage fees, which take into account the true potential of the harvested trees, three allometric equations were developed to allow for comparison in terms of predictive accuracy. Three main species, namely akasaa (Chrysophyllum albidum), wawa (Triplochiton scleroxylon), and ofram (Terminalia superba) were sampled for the construction of the species-specific based models. The mixed-species based models were developed from the three main species and six additional tree species. In general, the species-specific models had a better predictive power than the mixed-species based models and this could be attributed to the relatively higher homogeneity of both the observed and predictor variables of the species-specific based models. Among the mixed-species based models, those that predicted the total merchantable volume indirectly from the log volume had the highest predictive power. The log tracking system which is being introduced in Ghana could benefit from these models. When logging data are available (through the log tracking system) the models could be used to predict the realistic stumpage volume. These models however, were found to perform relatively better for small-sized trees than for large-sized trees over (20 m³). The models that predicted the total merchantable volume from DBH and the total merchantable length had better fits than those that used only DBH as a predictor variable. Nevertheless they have little practical importance because of difficulty in measuring the total merchantable length in the forest. These models have however theoretically showed that, by including the merchantable branches, the general form of allometric equation did not substantially change. DBH as a predictor of the total merchantable volume has several advantages. It is easier and simpler to use since forest inventories include DBH measurements. For the mixed-species based models that predicted the total merchantable volume from DBH only, the site-specific models had a higher predictive power than a single model developed for all-sites, indicating that for a higher accuracy, DBH may be a good predictor of the total merchantable volume of tree species at a specific site. The use of these models, however, presents a limitation. If logging efficiency of individual mills changes substantially over time, the model may have to be validated periodically before it could be applied. Sawmill efficiency In order to determine sawnwood recovery in a case study approach, a total of 189 saw logs were sampled from four mills (Mills A, B, C and D). In order to assess the factors that affect sawnwood recovery, the following inquiries and observations were made and recorded: • Log dimensions (length, diameter at both ends) • Time between felling and processing of logs, • Prior to processing, each sampled saw logs was inspected for defects such as end-splits, rots and fungal blue stain. • Log breakdown technique, • Edging and trimming techniques and • Quality of trimming off-cuts The average sawnwood recovery (28.3 %) found in this study was substantially lower than the reported average recovery rate in the previous studies. The sawnwood recovery ranged from 1.9 % for the otie (Pycnanthus angolensis) processed at mill A to 52.6 % for the mahogany (Khaya ivorensis) processed at mill B. The study found that the poor log quality, resulting mainly from long storage periods between felling and processing, had a substantial effect on the sawnwood volume recovery. All of the otie (Pycnanthus angolensis) saw logs and most of the wawa (Triplochiton scleroxylon) saw logs sampled had end-splits and were severely infested with fungal blue stain and thus their low recovery was expected. The low sawnwood recovery reported in this study could be mainly attributed to a lack of proper management of logs and a lack of adequate logistic planning. For example, the period between felling and processing of the otie (Pycnanthus angolensis) logs was about six months whilst due to logistical problems and poor planning the period between felling and processing of the wawa logs sawn at mill D was about three months. In addition, 267 green sawn boards were sampled from the mills to quantify the sawnwood volume loss due to thickness over-sizing and sawing variation. The results of this study indicated that the volume that could have been gained by reducing the sawnwood thickness over-sizing and sawing variation ranged from about 2 % to 17 % in volume of the sampled sawnwood. The study also found that between-board sawing variation was substantially higher than within-board sawing variation indicating that lack of setworks repeatability could be the major cause of the loss in volume. It was observed that the studied mills concentrated their production on sawnwood in export dimensions and grades. Therefore, off-cuts and trim ends that could have been processed further into mouldings, battens, floorings, and other products were discarded or sold at cheaper prices. The limited supply of timber resources give every reason for sawmills in Ghana to optimise fibre recovery from every tree that is felled. Even though this thesis studied only a limited number of cases, which represent a small fraction of the forest and sawmill industry in Ghana, there is a reason to believe that conditions prevailing in other operations are not very different from those observed in these case study mills. Ghanaian sawmills stand to benefit economically if they could improve their logistical planning and integrate production lines devoted to recovering fibre from off-cuts and trimmings.
Aus der Einleitung: 4.500 Mitarbeiter, zehn Länder, drei Kontinente und fünf Zeitzonen: Das ist die Bilanz der Produktion der elektrischen Zahnbürste "Sonicare Elite 7000" der Firma Philips aus den Niederlanden (vgl. Abb. 1). Bis zu der Verpackung in Seattle haben die Komponenten zwei Drittel des Erdumfangs zurückgelegt. Die "Weltbürste" ist nur eines von zahllosen Beispielen, welches auf die weltumspannenden Produktionsnetze hinweist. Die Ausweitung der internationalen Arbeitsteilung ist der Motor der Weltwirtschaft, die sich laut Weltbank in der "revolutionären Phase" der Globalisierung befindet. Unter Globalisierung versteht man gemeinhin die Zunahme weltweiter Verflechtungen infolge der Ausbreitung und Vertiefung ökonomischer, ökologischer, politischer und kultureller Prozesse. Aus ökonomischer Perspektive steht die Ausbildung weltweiter Märkte im Mittelpunkt, "auf denen Waren und Dienstleistungen gehandelt, Investitionen getätigt, Technologien übertragen und Informationen ausgetauscht werden". Mit zunehmender Interdependenz der Weltwirtschaft hängt das ökonomische und soziale Wohl der Nationen, Regionen und Städte von komplexen Interaktionen auf globaler Ebene ab. Mit anderen Worten, "what happens in any given country or locality is broadly determinedby its role in systems of production, trade and consumption which have become global in scope". Jeder Ort, jede Region oder Nation übernimmt somit innerhalb des von Konkurrenz geprägten Weltsystems eine spezifische Rolle. Der gegenwärtige Strukturwandel im Zeichen der Globalisierung fordert die "Rollenverteilung" des "modernen Weltsystems", dessen Ursprung unter anderem im Europa des 15. Jahrhunderts zu suchen ist, heraus. Vor diesem Hintergrund ist der "ökonomische Auf- bzw. Abstieg von Ländern und Regionen" zu sehen, das heißt es gibt Gewinner und Verlierer des Strukturwandels. Dubai bietet die moderne Version von Tausendundeiner Nacht: es sind vor allem Projekte der Superlative, wie zum Beispiel das einzige Sieben-Sterne Hotel der Welt und aufgeschüttete Inseln in Form einer Palme, die das Bild von Dubai nachhaltig prägen. Künstliche Welten, internationale Sportereignisse, Gesundheitstourismus und an erster Stelle Shopping-Tourismus – Dubai ist in vielfältiger Weise für Touristen aus aller Welt attraktiv. Jedoch beginnt die große Erfolgsgeschichte der Moderne nicht erst mit dem Touristenaufkommen der 1990er Jahre. Dubai konnte sich früh als Dienstleistungs- und Handelszentrum in der Golfregion etablieren, bis in die dreißiger Jahre des 20. Jahrhunderts spielte der Perlenhandel die entscheidende Rolle. Zollfreiheit und Steuervergünstigungen zogen bereits damals zahlreiche Händler an – heute gilt Dubai als einer der bedeutendsten Umschlagplätze für den Goldhandel. Die Erlöse aus den Petrodollars nutzte die Führung seit den 1960er Jahren, um den Standort Dubai durch groß angelegte Infrastrukturprojekte, wie beispielsweise die beiden Tiefseehäfen Jebel Ali und Port Rashid, kontinuierlich zu stärken und für die Nach-Erdöl-Zeit zu sorgen. Zu Beginn des Jahres 2006 machte Dubai mit Schlagzeilen auf sich aufmerksam, die als Menetekel für die etablierten Industrieländer gedeutet werden können: Zum einen der Vorstoß der Dubai Ports World sechs Häfen an der Ostküste der USA zu übernehmen, zum anderen die neu gegründete internationale Börse DIFX (Dubai International Financial Exchange), die Unternehmen aus einem Raum anziehen will, in dem ein Drittel der Weltbevölkerung lebt. Innerhalb von nur 50 Jahren ist Dubai vom verschlafenen Fischerdorf zur "cosmopolitan regionally dominant twenty-first century city" aufgestiegen und hat somit eine einzigartige Entwicklung vollzogen. Auf der Suche nach einer Position in der Weltwirtschaft im Zeitalter der Globalisierung gibt man sich nicht mit der "reaktiven Mittlerrolle" eines "globalisierten" Ortes zufrieden, sondern strebt die aktive Funktion eines "globalen Ortes" an.m Could Dubai become the most important city on earth?" – fragt Nicolson im Online-Angebot der Khaleej Times vom 13. Februar 2006 und bringt damit das Selbstbewusstsein und die Ambitionen der Regierung Dubais auf den Punkt. Scheinbar erwacht hier eine Region, die bisher kaum jemand auf dem "Globalisierungsradar" hatte. Die Globalisierungsdebatte vermittelt oftmals den Eindruck von einem zeitlich "isoliert" auftretenden Phänomen. Der zweite zentrale Begriff des Titels der Arbeit - Weltwirtschaftssystem - wurde gewählt, um den Globalisierungsansatz in einen systematischen (historischen) Zusammenhang zu stellen. Welchen Beitrag leistet die geographische Perspektive? Die Weltwirtschaftlichen Vorgänge und die mit diesen zusammen-hängenden Transporte von Personen sowie von materiellen und immateriellen Gütern und Leistungen sind nicht nur an sich wirtschafts-geographische Arbeitsfelder, sondern ihre Wirkungen auf das innere Gefüge der an den Außenbeziehungen beteiligten Staaten machen sie zu einem wirtschaftsgeographischen Kernbereich. Ein Autor beklagt, dass die Beschäftigung der Geographen mit dem Welthandel immer spärlich ausfiel und seit Mitte des 20. Jahrhunderts zum Stillstand kam. Der Hauptgrund ist der kleine Maßstab, das heißt Übersee- und Welthandel sind mit geographischen Methoden nur schwer fassbar. Ferner hätte man versäumt eine "tragfähige Brücke zur Außenhandelstheorie der Nationalökonomie zu schlagen." Zehn Jahre später greift ein anderer die Problematik wieder auf und stellt sie gleichzeitig in den größeren Zusammenhang der Globalisierungsdiskussion. Obwohl die Prozesse und die Folgen, die mit dem Begriff Globalisierung verbunden sind, Gegenstandsbereich der Geographie sind, seien die Geographen an den zentralen Streitfragen nicht beteiligt: "Geography is rather like the small child in the school playground who always gets missed out when the big children are picking teams". Darüber hinaus moniert er, dass sich die geographische Forschung in großem Maße mit dem Zu- und Abfluss von ausländischen Direktinvestitionen beschäftige, während Handelsströme wenig beachtet würden: "in the case of international trade, what matters are not so much changes in volume - although they are important - as changes in composition". Mit eben jener "composition" in zeitlicher und räumlicher Dimension beschäftigt sich das nachfolgende Kapitel. Eine explizite "Theorie der Weltwirtschaft" existiert nicht. Dennoch sollen die vorgestellten Konzepte1 mit ihren verschiedenen Aspekten in der Gesamtansicht eine erste systematische Annäherung an das Weltwirtschaftssystem darstellen. Den aktuellen Entwicklungen und der Struktur der Weltwirtschaft im Kontext der Globalisierung widmet sich das dritte Kapitel, welches zusammen mit dem zweiten Kapitel einen "theoretischen Rahmen" bildet, innerhalb dessen schließlich die Bedeutung von Dubai herausgearbeitet werden soll.Inhaltsverzeichnis:Inhaltsverzeichnis: 1.EINLEITUNG1 1.1Von der "Weltbürste" zur Weltwirtschaft1 1.2Warum Dubai?2 1.3Forschungsstand und Fragestellung3 2.WELTWIRTSCHAFTSSYSTEM4 2.1Weltsystem-Theorie und "Weltwirtschaften"5 2.1.1Das Weltsystem nach WALLERSTEIN5 2.1.1.1Die Analyse des Weltsystems5 2.1.1.2Das moderne Weltsystem6 2.1.2Die "Weltwirtschaften" nach BRAUDEL8 2.2Die Wirtschaftsräume nach OTREMBA10 2.3Tripolarität der Weltwirtschaft11 2.3.1Die Triade nach OHMAE11 2.3.2Regionale Theorie des Welthandels nach GROTEWOLD12 2.3.3Weltstädte, Global Cities und Steuerungszentralen14 2.4Zusammenfassung16 3.GLOBALISIERUNG DER WELTWIRTSCHAFT19 3.1Problematisierung der Globalisierung19 3.1.1Der problematische Begriff Globalisierung20 3.1.2Das Problem Globalisierung21 3.2Konzeption von Globalisierung22 3.2.1Globalisierung als neue Epoche23 3.2.2Globalisierung als Prozess24 3.2.3Voraussetzungen der Globalisierung24 3.2.3.1Technologische Innovationen24 3.2.3.2Institutionelle Veränderungen26 3.2.3.3Die Integration neuer Märkte27 3.2.4Akteure der Globalisierung27 3.2.4.1Der Nationalstaat als Akteur28 3.2.4.2Global agierende Unternehmen28 3.2.4.3Der Konsument29 3.3Erscheinungsformen der Globalisierung30 3.3.1Globalisierung des Handels30 3.3.1.1Entwicklung der Rahmenbedingungen des Welthandels30 3.3.1.2Entwicklungen im Handel mit Waren und Dienstleistungen31 3.3.1.3Regionale Struktur des Welthandels34 3.3.2Globalisierung der Produktion44 3.3.2.1Von der klassischen zur neuen internationalen Arbeitsteilung44 3.3.2.2Transnationale Unternehmen46 3.3.2.3Ausländische Direktinvestitionen47 3.3.3Globalisierung der Finanzmärkte52 3.3.3.1Das Bretton Woods-System52 3.3.3.2Spekulation versus Effizienz53 3.3.4Globale Transportnetze54 3.3.4.1Die Herausbildung von Transportnetzen55 3.3.4.2Containerlinienschifffahrt55 3.3.4.3Luftverkehr61 3.4Fazit – das globalisierte Weltwirtschaftssystem64 3.4.1Globalisierung versus Regionalisierung65 3.4.2Globale Vernetzung68 3.4.2.1Global Cities als Nodalpunkte von globalen Netzwerken68 3.4.2.2Verbindung der Nodalpunkte69 4.DUBAI IM WELTWIRTSCHAFTSSYSTEM71 4.1Die Golfregion72 4.1.1Die Golfküste unter europäischem Einfluss72 4.1.2Beginn der Öl-Ära73 4.1.3Eine Region hängt am Öltropf74 4.1.3.1Die Ausgangsbedingungen74 4.1.3.2Die Organisation erdölexportierender Länder (OPEC)76 4.1.4Die Golfregion – Dependenz versus internationale Profilierung80 4.2Überblick über die VAE81 4.2.1Politisches System der VAE82 4.2.2Außenwirtschaftspolitik der VAE84 4.2.3Sozio-ökonomische Betrachtung der VAE87 4.2.3.1Entwicklung im Zeichen des Ölreichtums87 4.2.3.2Entwicklung im Zeichen der Diversifizierung91 4.3Dubai – Wirtschaftsstruktur und Standortfaktoren94 4.3.1Der Aufschwung Dubais nach dem Zweiten Weltkrieg96 4.3.2Ölinduzierte Entwicklung und Diversifizierungstendenzen98 4.3.2.1Immobilienboom in Dubai101 4.3.2.2Freihandelszonen als Schnittpunkte der Diversifizierungsstrategie 102 4.3.2.3Wer investiert in Dubai?104 4.3.3Handel105 4.3.4Transportwesen108 4.3.4.1Die Häfen Dubais108 4.3.4.2Dubai International Airport 113 4.3.5Tourismus118 4.3.6Finanzen122 4.3.7Produzierendes Gewerbe123 4.4Fazit: Dubais Sonderweg in der Golfregion 124 5.DUBAIS BEDEUTUNG IM GLOBALISIERTEN WELTWIRTSCHAFTS-SYSTEM126 5.1Gewinner und Verlierer der Globalisierung126 5.2Dubai als "Hub" der Golfregion128 5.3Dubai – ein überregionales Steuerungszentrum?131 6.LITERATURVERZEICHNIS132Textprobe:Textprobe: Kapitel 4.3.2; Ölinduzierte Entwicklung und Diversifizierungstendenzen: 1963 begann man in Dubai mit den Bohrungen nach Öl, 1966 stieß man auf Öl und drei Jahre später schließlich wurde das erste Rohöl aus Dubai exportiert. Boomartig strömten Menschen, Güter und finanzielle Mittel nach Dubai. Die Ausweitung der Rohölföderung in den 1970er Jahren und die starke Anhebung des Weltmarktpreises für Rohöl in den Jahren 1973 und 1979 bescherten dem Emirat über die Zahlungen der Ölgesellschaften reiche Finanzmittel. Daraufhin erlebte die Stadt einen beispiellosen "Bau-Boom". Schulen, Krankenhäuser, Straßen und moderne Telekommunikationsnetzwerke wurden aufgebaut. Ein neuer Hafen (Port Rashid) wurde gebaut, der Dubai International Airport (DIA) wurde um einen Terminal erweitert und mit einer erweiterten Landebahn ausgestattet, die für jeden Flugzeugtyp geeignet ist. Mit Jebel Ali baute man den größten künstlichen Hafen der Welt. Um ihn herum wurde die Jebel Ali Freihandelszone (JAFZ) eingerichtet, heute eine unter vielen Freihandelszonen, mit denen Dubai Investoren anlockt. Für die zahlreichen Projekte brauchte man bereits Ende der 1960er Jahre möglichst billige Arbeitskräfte, die man insbesondere in Indien und Pakistan fand. Viele kamen auch aus dem Iran, Europa und arabischen Ländern. 1968 betrug der Anteil der ausländischen Arbeitskräfte 50% der Gesamtbevölkerung Dubais. Zwar hatten die "expatriates" oder "non-nationals" einen beträchtlichen kulturellen Einfluss auf die einheimische Gesellschaft, aber ihr politischer Einfluss in der Zivilgesellschaft war und ist beschränkt, so dürfen sie beispielsweise keine Gewerkschaften bilden. Den entscheidenden Anstoß für den Aufstieg Dubais lieferten die Öleinnahmen, eine weitere entscheidende Antriebskraft waren die lokalen Kaufleute mit ihrem Netzwerk aus internationalen Kontakten. Schon früh diversifizierten sie ihre Geschäftstätigkeiten, finanzierten große Projekte, agierten als Berater und investierten als Aktionäre in private Unternehmen, beispielsweise in die Dubai Telephone Company. Im ersten Golfkrieg bewiesen die Kaufleute ein feines Gespür für Unternehmertum, als sie in den sehr lukrativen Handel mit dem Iran eingebunden waren. Der Handel mit Konsumgütern und Ausrüstungsgegenständen jeglicher Art brachte ihnen und der gesamten Wirtschaft hohe Gewinne ein. Auch die Häfen und angeschlossene Dienstleistungen profitierten von dem Krieg, da die internationale Schifffahrt die sichereren Trockendocks in Dubai den Häfen von Kuwait und Iran vorzog. Seit den frühen 1980er Jahren ist der Handel mit den anderen GCC-Staaten kontinuierlich angewachsen, so dass die Häfen Dubais zu den geschäftigsten der ganzen Region wurden. Seit den 1970er Jahren machte Dubai durch den Bau von Trockendocks, von See- und Flughäfen sowie von Luxushotels, die Einrichtung von Freihandelszonen, das zollfreie Angebot von Uhren, Fotoartikeln, Goldschmuck und Perlen, aber auch das Angebot von Alkohol und Night Life (in Maßen) auf sich aufmerksam. Das moderne Dubai mit seinem Ruf als Handelsplatz steht damit in einer Linie mit dem Dubai vor der Öl-Ära und kann damit auf etwas aufbauen, das SALLOUM als "inherited ability for commerce by its people" bezeichnet. Dubai besitzt nur einen kleinen Anteil von 4% am Erdölvorkommen und 1,9% am Erdgasvorkommen der VAE. Die Lebensdauer beider Ressourcen wird auf 30 bis 40 Jahre geschätzt. Angesichts dessen bestimmte von Beginn an die Notwendigkeit zu alternativen Einkommensquellen für die "Nach-Erdöl-Zeit" das Handeln der Verantwortlichen. Einseitig auf den Industriesektor zu bauen kam aufgrund der nationalen und regionalen Marktenge nicht in Frage. Die politischen Entwicklungen nach dem 11. September 2001 brachten zusätzlich Unsicherheiten bezüglich der Investitionen und Anlagen im Ausland – vor allem in den USA – mit sich. Die Verantwortlichen in Dubai erkannten die Zeichen der Zeit und setzten auf die Privatisierung der Wirtschaft, die Öffnung des Landes für den internationalen Tourismus, die Liberalisierung der Immobilienmärkte sowie des Waren- und Finanzverkehrs. Flankierend dazu wurden Transportwesen, Infrastruktur und IT-Kommunikation den neuen Gegebenheiten angepasst, günstige Arbeits-, Aufenthalts- und Lebensbedingungen für alle Fachkräfte, Investoren und Besucher geschaffen. Im Zeitraum von 1975 bis 1981 verzeichnete das Emirat ein Wachstum des BIP von durchschnittlich 17% pro Jahr. Infolge des Verfalls des Ölpreises und der instabilen Verhältnisse in der Region während des ersten Golfkrieges stagnierte das BIP weitestgehend bis Ende der 1980er Jahre. Von 1990 bis 2000 verzeichnete Dubai ein Wachstum des BIP (in nominalen Preisen) zum Vorjahr von durchschnittlich 7.7%. Für das Jahr 2004 wird das BIP bei KKP mit 30 Mrd. US-$ angegeben. Das Wachstum wurde dabei primär über eine stabile Entwicklung außerhalb des Rohölsektors ("Nicht-Öl-Sektor") erreicht, welcher im Zeitraum von 1990 bis 2000 ein durchschnittliches Wachstum von 11.1% erzielte. Der Rohölsektor hingegen verzeichnete im gleichen Zeitraum einen durchschnittlichen Rückgang von -2.4% pro Jahr. Der Rohölsektor verlor demnach Anteile am BIP zugunsten des Nicht-Öl-Sektors (vgl. Abb. 26). In den 1970er und 1980er Jahren wurde knapp die Hälfte des BIP außerhalb des Rohölsektors erwirtschaftet, ab den 1990er Jahren stieg der Anteil des Nicht-Öl-Sektors am BIP deutlich: Im Jahr 1990 betrug er 65.2% des BIP, 2000 90% und 2004 bereits mehr als 93%. Die Werte belegen die von der Regierung erfolgreich eingeleiteten Diversifizierungsprozesse, insbesondere seit Beginn der 1990er Jahre, so dass die Vulnerabilität des BIP gegenüber Ölpreisschwankungen bedeutend reduziert werden konnte. Der Anteil des Rohöls am BIP Dubais ist mit 7% signifikant geringer als im Landesdurchschnitt, der einen Anteil von 33% verzeichnet (vgl. Abb. 27). Bei einem Anteil von 28% der Bevölkerung steuert Dubai alleine 31% des gesamten Nicht-Öl-Sektors der VAE bei. Besonders dynamisch entwickelten sich die Sektoren Handel, Finanzen, Transport- und Kommunikationswesen, Restaurant- und Hotelgewerbe und das produzierende Gewerbe. Zwischen 1994 und 2000 wuchs das im Hotel- und Gastronomiegewerbe erwirtschaftete BIP um 165.2%, was zu einem Großteil auf die geographische Erschließung der touristisch attraktiven Strandgebiete zurückzuführen ist. Es folgen im gleichen Zeitraum das produzierende Gewerbe (+129.6%), Transport- und Kommunikationswesen (+101.6%) und das Finanz- und Versicherungswesen (+92.2%) (VAN DE BUNT 2003: 31f.). Die neuesten Zahlen zeigen die Fortsetzung der Trends. 2004 wuchs das reale BIP Dubais um 13.3%, die Hauptanteile am Zuwachs hatten dabei: Immobilien (19.8%), produzierendes Gewerbe (15.5%), Bauindustrie (12.6%), Finanz- und Versicherungswesen (12.6%), Handel (10.7%) sowie Transport- und Kommunikationswesen (9.6%). Der Anteil des Transport- und Kommunikationswesens von Dubai ist für über 55% des gleichen Sektors der VAE verantwortlich. Des Weiteren entspricht Dubais Finanzsektor 47% des VAE–Finanzsektors. Kapitel 4.3.2.1, Immobilienboom in Dubai: Der hohe Anteil des Immobiliensektors am BIP-Zuwachs Dubais verweist auf den Boom im Immobiliensektor. Der Wert der geplanten Projekte für die nächsten fünf Jahre wird auf 30 Mrd. US-$ geschätzt. 2004 hatte die Bauindustrie einen Anteil von 13% am Nicht-Öl-BIP. Seit 2000 ist sie mit einer durchschnittlichen jährlichen Rate von 24% gewachsen, was den Bau-Boom widerspiegelt, der sich im Jahre 2003 im Bau von über 2000 Gebäuden niederschlug. Der Bausektor gilt auch als größter Arbeitgeber, 24% aller Arbeitskräfte sind hier beschäftigt, hauptsächlich aus dem Ausland stammende Arbeitnehmer. Spektakuläre Projekte, zum Beispiel "The Palm Jumeirah", "The Palm Jebel Ali" und "The World", locken Käufer schon vor Beginn der Bautätigkeiten an, so dass in Dubai die Immobilien "fast vollständig bereits vom Reißbrett verkauft" werden. Die Käufer spekulieren auf die enormen Wertsteigerungen am Immobilienmarkt Dubais – in keinem anderen Land der Welt sind Immobilien nach Fertigstellung 20% teurer geworden. Initiator und Träger der Projekte ist letztlich das Herrscherhaus beziehungsweise die von ihm kontrollierten Finanzgesellschaften – beispielsweise EMAAR, die 1997 gegründet wurde oder NAKHEEL, 2003 gegründet. In sehr viel geringerem Maße übernehmen auch Privatpersonen und Banken die (Vor-)Finanzierung der "Megaprojekte", wie sie von manchen Offiziellen bezeichnet werden. Nach der Fertigstellung werden sie meist privatisiert, das heißt vollständig oder teilweise an Einheimische vergeben. Im Sinne des Rentierstaates werden somit die Pfründe an die lokale Bevölkerung verteilt, doch die Einkommen werden erst dann erzielt, wenn die Objekte über Immobilienagenturen vermietet, verpachtet oder auch verkauft werden. Die Akteure müssen sich dazu mit einer verschärften Wettbewerbssituation auseinandersetzen. Die vielfältigen Bauaktivitäten generieren ein enormes, qualitativ und preislich hochwertiges Angebot, das die Erschließung des globalen Marktes geradezu herausfordert. Wie bereits angedeutet, sind die meisten Projekte, obwohl noch teilweise in Planung, verkauft, verpachtet oder vermietet. Die Käufer stammen überwiegend aus der Golfregion (40-46%), zu je 15-22% aus Russland und anderen GUSStaaten sowie beispielsweise aus Indien, Japan oder Südkorea. Kapitel 4.3.2.2, Freihandelszonen als Schnittpunkte der Diversifizierungsstrategie: In der Nachkriegszeit setzte die Regierung Dubais auf einen liberalen, "unternehmensfreundlichen" ökonomischen Kurs mit geringen Steuerabgaben und politisch stabilem Rahmen, in der Hoffnung, dadurch Investitionen anzuziehen. Diese Haltung drückt sich besonders in der 1985 gegründeten Jebel Ali Free Zone (JAFZ) aus, die erste in der Region gegründete Freihandelszone. Das Areal wurde unmittelbar im Bereich des schon existierenden Tiefsee-hafens Jebel Ali eingerichtet, der gleichzeitig mit der Gründung ausgebaut wurde. Das Konzept sieht vor, dass innerhalb der "Enklave" Geschäftstätigkeiten frei von Zoll und gesetzlichen Beschränkungen durchgeführt werden können. Unternehmen, die sich in der Freihandelszone niederlassen, nutzen nicht nur die niedrigen Arbeitskosten und Visum-freie Anheuerung der nicht-organisierten Arbeitskräfte, sondern vor allem die Möglichkeit, sich zu 100% an Kapitalgesellschaften zu beteiligen. Für Ausländer ist das außerhalb der Freihandelszonen sonst nicht möglich, es dürfen nach geltendem Recht maximal 49% einer Unternehmung in ausländischen Besitz übergehen. Die Geschäftsleute genießen noch weitere Privilegien: es ist kein Sponsor erforderlich, es ist kein Service Agent bei Zweigniederlassungen erforderlich, zwischen 15-30 Jahre garantierte Steuerbefreiung (Körperschafts- und Einkommenssteuer), freier Kapital- und Gewinntransfer. Grundsätzlich ist die aktive Teilnahme am Wirtschaftsleben der VAE erlaubt, es können Waren importiert und exportiert werden. Die Lizenzen sind jedoch nur auf das Gebiet der jeweiligen Freihandelszone beschränkt, mit der Folge, dass diese Niederlassungen gesellschaftlich als nicht in den VAE niedergelassen gelten. Deshalb erfordert der Export in die VAE einen Handelsvertreter, Importeur oder auch ein Joint Venture in Form einer Vertriebsgesellschaft. Die Entscheidung, sich in innerhalb der VAE oder in einer Freihandelszone niederzulassen, hängt somit wesentlich von dem angestrebten Zielmarkt ab. Ist dieser nicht auf die VAE beschränkt, stellt die Niederlassung in einer Freihandelszone eine sinnvolle Alternative zu einem Standort innerhalb der VAE dar. Seit der Gründung flossen über 2,5 Mrd. US-$ an Investitionen in die JAFZ, in der 2003 2.350 Firmen aus 97 Ländern angesiedelt waren. Neben japanischen Firmen (Nissan, Mitsubishi, Honda, Sony) sind vor allem auch europäische multinationale Unternehmen vertreten, beispielsweise ABB, Shell, BASF und Unilever. In den 1980er Jahren fungierte die JAFZ überwiegend als Lagerungs- und Verteilerzentrum für die multinationalen Unternehmen. In den letzten Jahren ließen sich dort auch Unternehmen des produzierenden Gewerbes nieder, dennoch dominiert der Handel mit 80% die Aktivitäten in dem Areal. Der Erfolg der JAFZ war ausschlaggebend dafür, dass in der Folgezeit noch weitere Freihandelszonen – nicht nur in Dubai – eingerichtet beziehungsweise noch in Planung gegeben wurden. Bemerkenswert sind auch die Bemühungen der Führung, Dubai als IT- und Medienstandort zu positionieren. Die Dubai Internet City stellt die notwendige Infrastruktur bereit, "that enables ICT enterprises to operate locally, regionally and globally from Dubai, with significant competitive advantage". Namhafte Unternehmen wie Microsoft, Oracle und Canon nutzen bereits dieses Angebot. Die Dubai Media City zielt auf internationale Medienunternehmen ab, die sich in den speziell eingerichteten Studios und Bürogebäuden niederlassen sollen. CNN und Reuters haben hier beispielsweise Zweigstellen etabliert. 2004 wurde die erste Produktionsstätte für Chips, CDs, DVDs und Software, das Dubai Silicon Oasis gegründet, das zusammen mit dem Knowledge Village das "knowledge-economy-system" komplettiert. Der Mix aus Industrie und Dienstleistungen in den meisten Freihandelszonen kennzeichnet ebenfalls die Diversifizierung der Wirtschaft Dubais. Zusätzlich zu produzierendem Gewerbe und Logistikunternehmen werden heute auch moderne Dienstleistungen aus dem Bereich Bankwesen, Versicherung und Recht angeboten. Dubais zukünftige Entwicklung ist durch die Entwicklung des Dienstleistungssektors determiniert. Die strukturelle Verschiebung zu einem Dienstleistungszentrum par excellance zeigt sich in den breit gefächerten Dienstleistungsaktivitäten: Handel-, Reparatur-, Restaurant- und Hoteleinrichtungen, Transport- und Kommunikationswesen, Immobiliendienstleistungen, soziale und Personaldienstleistungen, Finanz- und Versicherungswesen, staatliche Leistungen sowie Haushaltsdienstleistungen. Der Anteil des Dienstleistungssektors am BIP Dubais ist von 38% im Jahre 1985 auf 71% 2003 gestiegen (vgl. Abb. 28). Die "Wasserscheide" zu Beginn der 1990er Jahre ist mit dem im gleichen Zeitraum rapide wachsenden BIP in Verbindung zu bringen (vgl. Abb. 26) und bestätigt darüber hinaus die erfolgreiche Diversifizierungsstrategie in den 1990er Jahren. Kapitel 4.3.2.3, Wer investiert in Dubai?: Insbesondere seit den Terroranschlägen von New York und Washington sind die Rückflüsse arabischer Geldanlagen aus Amerika und Europa beträchtlich. Es existieren keine genauen Zahlen über die Privatvermögen im Ausland. Dennoch gilt als sicher, dass allein im Jahr 2002 ein dreistelliges Milliardenvermögen aus Amerika abgezogen wurde, wo Untersuchungen der Finanzbehörden ebenso drohen wie Schadenersatzprozesse im Zusammenhang mit der Finanzierung von Terrornetzwerken wie Al Qaida. Das Geld für die Milliardeninvestitionen stammt demnach vor allem von Investoren der Region, die "heute noch von den Anschlägen vom 11. September 2001 und dem US-amerikanischen Krieg gegen islamisch fundamentalistischen Terror" profitiert. Laut des Global Business Policy Council20 sehen asiatische Investoren Dubai an neunter Stelle der attraktivsten Investitionsstandorte, während Europäer es an 20. Stelle nennen. Unter japanischen und indischen Investoren rangiert Dubai auf dem 6. Platz, Investoren aus der Schweiz setzen Dubai auf den dritten Rang der attraktivsten Investitionsstandorte. ADI in Dubai sind im Jahr 2004 enorm angestiegen, auf 840 Mio. US-$, gegenüber 30 Mio. US-$ im Jahr zuvor21. Investoren des Chemie- und Elektronikbereichs äußern sich sehr zuversichtlich über die Entwicklung des produzierenden Gewerbes der Region. Insbesondere die Freihandelszonen – wie die JAFZ – sind für die Investoren aufgrund der Zoll- und Steuerprivilegien als Standort attraktiv. Die im Jahr 2005 eröffnete Industrial City in Dubai, die Investitionsanreize für die Schwerindustrie bietet, fördert das Interesse der Investoren zusätzlich. Die Direktinvestitionen in das Ausland fallen dagegen gering aus, sie werden auf 1% des BIP geschätzt. Im Vergleich dazu steuern Direktinvestitionen im Ausland zu dem BIP Hongkongs 24%, dem Singapurs 10% und dem der Schweiz 7,9% bei. Die Vorteile der Freihandelszonen-Strategie liegen auf der Hand, doch nicht alle Investoren teilen diese Euphorie. So gibt es beispielsweise Bedenken hinsichtlich der lokalen Geschäftspraktiken und geistigen Eigentumsrechte, da vertrauliche Informationen auf dem engen Raum einer Freihandelszone möglicherweise reibungsloser zu den umgebenden Wettbewerbern diffundieren. Die Bedenken haben jedoch scheinbar eine kulturelle Komponente: Asiatische Unternehmen scheinen sich weniger um mögliche Beeinträchtigungen zu sorgen als europäische oder amerikanische Firmen, wie die Entwicklung des Dragon Mart aufzeigt. Hier können sich bis zu 4.000 chinesische Firmen niederlassen, denen 15.000m² Lagerungseinrichtungen zur Verfügung gestellt werden. Darüber hinaus ist der Aufbau einer "special China Town" vorgesehen, die bis zu 20.000 Händler anziehen möchte. Von den Unternehmensclustern versprechen sich die Verantwortlichen die Stärkung des komparativen Vorteils von Dubai – insbesondere im Hinblick auf asiatische Händler – "as a gateway to serve the Middle East and European Markets". Durch die geplante Erhöhung der Anzahl der Direktflüge in die USA, ausgehend von dem Dubai International Airport, wird auch dieser Markt in stärkerem Maße berücksichtigt werden. Für die Einordnung von Dubais Rolle im Weltwirtschaftssystem ist es notwendig auf einzelne Sektoren näher einzugehen. Nachfolgend werden die Entwicklungen in den Wirtschaftssektoren Handel, Transportwesen, produzierendes Gewerbe, Finanzen sowie Tourismus aufgezeigt.
Die globale Biodiversitätskrise stellt neben dem Klimawandel die größte Herausforderung für die Menschheit dar. Um den Schutz der Biodiversität langfristig zu garantieren, sind zwischen allen beteiligten Akteuren abgestimmte Ziele zu vereinbaren, in Konzepten festzulegen und geeignete Naturschutzmaßnahmen zu ergreifen. Dabei sind divergierende Bedürfnisse von Natur und Menschen zu berücksichtigen und ethisch-moralische Fragen über den Wert der Natur sowie unterschiedliche Ansätze zum Naturschutz zu untersuchen. In dieser Dissertation werden Ziele und naturschutzfachliche Werte in deutschen Waldnaturschutzkonzepten in einem interdisziplinären Ansatz unter Berücksichtigung ökologischer, politischer und gesellschaftlicher Aspekte analysiert. Dabei werden der derzeitige Zustand des Waldnaturschutzes in Deutschland bewertet sowie aktuelle und zukünftige Herausforderungen beschrieben. Die Dissertation stellt neue Methoden zur Klassifizierung von Naturschutzzielen und zur Bewertung von Schutzgütern im Wald vor und erörtert mögliche Veränderungen der Naturschutzverantwortung vor dem Hintergrund des Klimawandels. Der langfristige Erhalt sowie eine nachhaltige Nutzung der Wälder sind angesichts des Klimawandels wichtiger denn je geworden, denn Wälder leisten einen wichtigen Beitrag zum Schutz der Biodiversität und erbringen zahlreiche Ökosystemleistungen. Aufgrund der vielfältigen Schutz- und Nutzungsanforderungen ist im Waldnaturschutz ein Konsens über die Ziele erforderlich. Nur ein auf übereinstimmenden Zielen und Maßnahmen beruhendes transparentes System dürfte ausreichend akzeptiert und umgesetzt werden. Daher wurde in Kapitel 2 dieser Dissertation ein hierarchisches System zur Klassifikation von Naturschutzzielen entwickelt. Innerhalb von übergeordneten Zielbereichen wurden Schutzgütern angestrebte Zieleigenschaften zugeordnet, die durch bestimmte Maßnahmen erreicht werden sollen. Anhand dieses Systems wurden die Inhalte von Biodiversitäts- und Waldnaturschutzkonzepten auf Gemeinsamkeiten und Unterschiede untersucht. In den Konzepten wurde ein breiter Konsens hinsichtlich der Schutzziele über verschiedene Interessensgruppen und räumliche Bezugsebenen hinweg festgestellt, wobei die Erhaltung von Arten, Ökosystemen und Strukturen in Wäldern als besonders wichtig eingestuft wurde. Im Hinblick auf die genetische Vielfalt, abiotische Ressourcen und soziokulturelle Ziele wurden Defizite festgestellt, ebenso wie eine skalenbedingte Inkonsistenz beim Wissenstransfer. Als Ursachen für diese Divergenzen im Waldnaturschutz können Zielkonflikte, eine mangelnde Abstimmung über Skalenebenen hinweg und eine unzureichende Umsetzung der Ziele identifiziert werden. Im Privatwald, der die Hälfte der deutschen Waldfläche ausmacht, ist die Umsetzung von Naturschutzmaßnahmen eine besondere Herausforderung. Privatwaldbesitzer haben oftmals Vorbehalte gegenüber hoheitlichen Naturschutzauflagen und aufgrund des finanziellen Aufwands eine geringere Teilnahmebereitschaft. Um für mehr Akzeptanz zu sorgen, sollten Naturschutzmaßnahmen im Wald finanziell ausgeglichen werden. Die vertragliche Vereinbarung von Naturschutzleistung und finanzieller Gegenleistung (= Vertragsnaturschutz) findet im Privatwald jedoch bisher wenig Anwendung. Da die erfolgreiche Umsetzung des Waldvertragsnaturschutzes ein System sinnvoller Maßnahmen erfordert, wurde den in Kapitel 2 identifizierten Schutzgütern (Waldbiotoptypen, Strukturen und Prozessen im Wald) in Kapitel 3 ein naturschutzfachlicher Wert auf Grundlage der Schutzbedürftigkeit und der Schutzwürdigkeit zugeordnet. Einen hohen Naturschutzwert haben Eichen- und Eichenmischwälder, trocken-warme Buchenwälder, historische Waldnutzungsformen (Mittel- oder Hutewälder) und natürliche Strukturelemente wie starkes Totholz (Laubbaumarten, stehend und liegend) oder Habitatbäume. Auf Grundlage des Ausgangswertes und der erwarteten Wertentwicklung wird abgeschätzt, ob Erhaltungs- bzw. Wiederherstellungsmaßnahmen im Rahmen von Vertragsnaturschutz mit unterschiedlichen Laufzeiten sinnvoll sind. Vertragsnaturschutz ist besonders bei Schutzgütern mit einem hohen Ausgangswert geeignet, wenn damit ein Wertverlust vermieden werden kann und wenn mit einer hohen Aufwertung zu rechnen ist. Bei niedrigem Ausgangswert und geringer Aufwertungswahrscheinlichkeit ist Vertragsnaturschutz nicht sinnvoll. Mit diesem Bewertungssystem können Privatwaldbesitzer überprüfen, welche Naturschutzmaßnahmen in ihrem Wald geeignet sind und damit in Zukunft zu einer erhöhten Anwendung des Waldvertragsnaturschutzes beitragen. Der Klimawandel und seine prognostizierten Auswirkungen hinsichtlich Intensität und Häufigkeit von Störungen erfordern eine Anpassung der waldbaulichen Bewirtschaftung. Waldbauliche Planungsinstrumente wie Waldentwicklungstypen (WET) sind in Deutschland oft nur an der wirtschaftlichen Produktivitätsfunktion orientiert, während naturschutzfachliche Anforderungen wenig Berücksichtigung finden. Daher wurde das in Kapitel 3 entwickelte System zur naturschutzfachlichen Bewertung von Waldbiotoptypen in Kapitel 4 an die wirtschaftlich relevanten Hauptbaumarten (Buche, Eiche, Kiefer, Fichte, Tanne, Douglasie und Lärche) angepasst und für die flächendeckende Anwendung im Waldbestand entsprechend der potenziellen natürlichen Vegetation des Standortes weiterentwickelt. Mit dem neuen System können naturschutzfachliche Auswirkungen der waldbaulichen Planung und zukünftigen Baumartenzusammensetzung in Waldbeständen räumlich-explizit eingeschätzt werden. Bestimmte forstliche Baumartenkombinationen können dabei zu einer Verschlechterung des naturschutzfachlichen Ausgangswertes führen, welcher durch den dort natürlicherweise vorkommenden Waldbiotoptyp bestimmt wird. Der höchste Naturschutzwert kann erhalten werden, wenn die geplanten Baumarten sowohl autochthon als auch natürlicher Bestandteil des spezifischen Waldbiotoptyps sind. Anhand eines deutschlandweiten Transekts wurde die naturschutzfachliche Bewertung von zukünftig geplanten WET erprobt. In den meisten Fällen führten die WET-Kombinationen zu einer Verschlechterung des ursprünglichen Naturschutzwertes, da die eingeschränkte Baumartenwahl der WET nicht die vielfältige Artenzusammensetzung der natürlichen Waldbiotoptypen widerspiegelte. Mit diesem Bewertungssystem lässt sich die Waldbauplanung auch naturschutzfachlich einschätzen und auf eine möglichst naturnahe und standortheimische Baumartenzusammensetzung ausrichten. Die Unsicherheiten des Klimawandels und die damit verbundenen Veränderungen der Umweltbedingungen stellen auch den Naturschutz vor neue Herausforderungen und können eine Anpassung von Zielen und Schutzbegründungen erforderlich machen. In Kapitel 5 wurde daher untersucht, ob der günstige Erhaltungszustand von FFH-Waldlebensraumtypen angesichts des Klimawandels ein gut begründetes Ziel bleiben kann. Dabei wurde sowohl auf die Frage der Schutzbegründung eingegangen als auch eine Einschätzung des zukünftigen Entwicklungstrends des Erhaltungszustandes von FFH-Waldlebensraumtypen vorgenommen. Es konnte gezeigt werden, dass aktuelle Nischen- und Artverbreitungsmodelle von Lebensraumtypen und Baumarten darauf hindeuten, dass eine Klimawandel-bedingte Zunahme der Trockenheit für Waldlebensraumtypen wie den subalpinen Bergahorn-Buchenwald sowie den montan-alpinen bodensauren Fichtenwald zu Arealverlusten führen kann. Bei Moor- und Auenwäldern sollte zunächst eine erfolgreiche Renaturierung im Vordergrund stehen, bevor eine zukünftige Entwicklung abgeschätzt werden kann. Waldlebensraumtypen auf Sekundärstandorten wie Eichenmischwälder benötigen wahrscheinlich weiterhin aktive Pflegemaßnahmen, um einen günstigen Erhaltungszustand wiederherzustellen und langfristig zu sichern. Bei den Verbreitungsmodellen für Buchenwaldlebensraumtypen konnte eine zunehmende Unsicherheit bezüglich der zukünftigen Verbreitung festgestellt werden und es ließ sich auch unter Klimawandel überwiegend keine deutlich negative Veränderung erkennen. Eine Flexibilisierung und Anpassung von naturschutzfachlichen Zielsetzungen sollte demnach nur evidenzbasiert und im Rahmen eines adaptiven Managements erfolgen. Insgesamt ergeben sich vorerst keine eindeutigen Hinweise darauf, den günstigen Erhaltungszustand der Waldlebensraumtypen unter Klimawandel als ein gut begründetes Ziel des Naturschutzes aufzugeben. In dieser Dissertation werden die Bedeutung von Waldnaturschutzkonzepten in der heutigen Zeit und die Schwierigkeiten, die bei der Einordnung und Umsetzung von Waldnaturschutzzielen auftreten können, diskutiert. Ferner werden die Herausforderungen, die sich bei der naturschutzfachlichen Bewertung von Schutzgütern und Baumarten sowie bei der zukünftigen Umsetzung von Waldnaturschutzmaßnahmen ergeben können, identifiziert. Dabei wurde festgestellt, dass die systematische Analyse von naturschutzfachlichen Zielsetzungen in der Naturschutzforschung an Bedeutung gewonnen hat und ein insgesamt breiter Konsens über die Ziele im Waldnaturschutz in Deutschland herrscht. Trotzdem besteht ein erheblicher Präzisierungsbedarf, insbesondere im Hinblick auf die Umsetzung des Vertragsnaturschutzes im Privatwald. Die vorgestellten Systeme zur Ableitung von Naturschutzwerten können insofern hilfreich sein, als dass abstrakte Eigenschaften wie Naturschutzwerte in ein vereinfachtes und nachvollziehbares System eingeordnet wurden. Forstliche und naturschutzfachliche Akteure können damit für den Naturschutzwert der Wälder sensibilisiert werden. Um bestehende Vorurteile zwischen den Akteuren abzubauen, ist es zudem notwendig, das Fördersystem in Deutschland im Hinblick auf den finanziellen Umfang und die Wirksamkeit von Naturschutzmaßnahmen weiter zu überarbeiten sowie praktische Handlungsempfehlungen auf der Grundlage wissenschaftlicher Erkenntnisse zu geben. Diese Dissertation unterstreicht, dass eine ständige Anpassung der Waldbehandlungsstrategien für den Waldnaturschutz und Waldbau notwendig ist, um die Herausforderungen des Klimawandels zu bewältigen. Damit Wälder ihre vielfältigen Funktionen und Ökosystemleistungen auch in Zukunft erhalten können, sollten naturnahe, artenreiche und aus überwiegend heimischen Baumarten aufgebaute resiliente Mischwäldern bevorzugt und die bestehenden Ziele im Naturschutz nicht ohne Grund aufgegeben werden. Nur so kann Waldnaturschutz in Deutschland und auch weltweit langfristig erfolgreich sein. ; The global biodiversity crisis is, along with climate change, the greatest challenge facing mankind. To ensure the long-term protection of biodiversity, conservation objectives must be agreed upon by all stakeholders, defined in concepts, and appropriate actions taken. This involves considering the often contrasting needs of nature and people and examining ethical-moral issues about the value of nature as well as different approaches to nature conservation. In this thesis, conservation objectives and values in German forest conservation concepts, considering ecological, political and social aspects are analysed in an interdisciplinary approach. The present state of forest conservation in Germany is discussed and current and future challenges are described. Based on this assessment of needs new methods for the classification of conservation objectives and for the assessment of forest conservation objects are presented and possible changes in conservation responsibility in view of climate change are proposed. Forests support a significant proportion of global biodiversity and provide essential ecosystem services, and their long-term conservation and sustainable use is becoming more important than ever in the face of climate change. Due to the diverse demands for conservation and use, a consensus on the objectives is necessary in forest conservation. Only a transparent system based on consistent objectives and measures is likely to be sufficiently accepted and implemented. Therefore, a hierarchical framework for the classification of nature conservation objectives was developed in Chapter 2 of this thesis. Within higher-level target areas, desired target properties were assigned to conservation objects, which are to be achieved through certain measures. Using this framework, the contents of biodiversity and forest conservation concepts were examined for commonalities and differences. A broad consensus on conservation objectives was found in the concepts across different stakeholder groups and spatial scales, with the conservation of species, ecosystems and structures in forests rated as particularly important. Deficits were identified with regard to genetic diversity, abiotic resources and social-cultural objectives, as well as a mismatch in the transfer of knowledge. The reasons for these inconsistencies in forest conservation include conflicting objectives, lack of coordination across scales and inadequate implementation of objectives. In private forests, which make up half of the German forest area, the implementation of nature conservation measures is a particular challenge. Private forest owners often have reservations about sovereign nature conservation regulations and are less willing to participate due to the financial expenses involved. In order to ensure higher acceptance, forest conservation measures should be financially compensated. However, the contractual agreement of nature conservation services and financial remuneration (= contract-based nature conservation) has so far found limited application in private forests. Since the successful implementation of contract-based forest conservation requires a system of reasonable measures, the conservation objects identified in Chapter 2 (forest habitat types, structures and processes in forests) were assigned a conservation value in Chapter 3 on the basis of the need for, and the worthiness of, protection. Oak and mixed oak forests, dry-warm beech forests, historical forms of forest use (coppice forests or wood pastures) and natural structures such as deadwood (deciduous tree species, standing and lying) or habitat trees have a high nature conservation value. Based on the initial value and the expected value development, it was assessed whether conservation or restoration measures within the framework of contract-based forest conservation with varying durations are suitable. Contract-based forest conservation is particularly suitable for conservation objects with a high initial value if a loss of value can be avoided and if a high increase in value can be expected. It is not suitable for low initial values and a low restoration potential. With this framework, private forest owners can easily assess which nature conservation measures are suitable in their forest, increasing the likelihood that they will apply contract-based forest conservation in the future. Climate change and its predicted effects in terms of intensity and frequency of disturbances require an adaptation of silvicultural management. In Germany, silvicultural planning tools such as forest development types are often only related to the economic productivity function, while nature conservation demands are given little consideration. Therefore, the framework developed in Chapter 3 for the conservation value assessment of forest habitat types was adapted in Chapter 4 to the economically relevant tree species (beech, oak, pine, spruce, fir, Douglas-fir and larch) and further developed for application in forest stands according to the potential natural vegetation of the location. With the new framework, the nature conservation impacts of silvicultural planning and future tree species composition in forest stands can be spatially-explicitly assessed. Certain silvicultural combinations of tree species can lead to a reduction in the initial nature conservation value, which is determined by the forest habitat type naturally occurring there. The highest nature conservation value can be achieved if the planned tree species are both autochthonous and a natural component of the respective forest habitat type. The framework was trialled to assess planned forest development types using a Germany-wide transect. In most cases, the forest development type combinations led to a reduction of the initial nature conservation value, as the restricted tree species selection of the forest development types did not correspond to the diverse species composition of the natural forest habitat types. With this evaluation framework, forest planning can also be assessed in terms of nature conservation and be adapted to a tree species composition that is as close to nature and site-specific as possible. The uncertainties of climate change and the associated changes in environmental conditions also pose new challenges for nature conservation and may require an adaptation of the conservation objectives and justifications. Chapter 5 therefore investigated whether the favourable conservation status of forest habitat types of the Habitats Directive remains a well-founded objective when confronted with climate change. In this context, both the question of the conservation justification and an assessment of the future development trend of the conservation status of forest habitat types of the Habitats Directive were addressed. It was shown that current niche and species distribution models of habitat types and tree species indicate that a climate change-induced increase in drought can lead to losses in area of forest habitat types such as the subalpine sycamore-beech forest and the montane-alpine soil-acid spruce forest. In the case of bog woodland and alluvial forests, successful restoration should be the first priority before future development can be assessed. Forest habitat types on secondary sites, such as mixed oak forests, will probably continue to require active management measures to restore and secure a favourable conservation status in the long term. The distribution models for beech forest habitat types showed increasing uncertainty regarding future distribution, and for the most part no significant negative change could be identified, even under climate change. Flexibilisation and adaptation of conservation objectives should therefore only take place on the basis of evidence and within the framework of adaptive management. Overall, no clear indications is found to abandon the favourable conservation status of forest habitat types under climate change as a well-founded objective of nature conservation. This thesis discusses the importance of forest conservation concepts in today's world and the difficulties that can arise in the classification and implementation of forest conservation objectives. Furthermore, the challenges that may arise in the conservation value assessment of conservation objects and tree species as well as in future implementation of forest conservation measures are identified. It was found that the systematic analysis of conservation objectives has gained importance in conservation research and that there is a broad consensus on the objectives of forest conservation in Germany. Nevertheless, there is a considerable need for more specification, especially with regard to the implementation of contract-based nature conservation in private forests. The frameworks presented for the derivation of nature conservation values can be helpful in turning abstract properties such as nature conservation values into a simplified and comprehensible system. Forestry and nature conservation stakeholders can thus be sensitised to the conservation value of forest biodiversity. In order to reduce existing prejudices between stakeholders, it is also necessary to further revise the funding system in Germany with regard to its financial scope and the effectiveness of conservation measures, and to provide practical recommendations for action based on scientific findings. This thesis underlines that a constant adaptation of forest management strategies is necessary for forest conservation and silviculture to cope with the challenges of climate change. For forests to maintain their diverse functions and ecosystem services in the future, semi-natural, species-rich resilient mixed forests composed of predominantly native tree species should be favoured and the existing objectives in nature conservation should not be abandoned without reason. Only in this way can forest conservation in Germany and also worldwide be successful in the long term. ; 2022-04-28
Die Inhalte der verlinkten Blogs und Blog Beiträge unterliegen in vielen Fällen keiner redaktionellen Kontrolle.
Warnung zur Verfügbarkeit
Eine dauerhafte Verfügbarkeit ist nicht garantiert und liegt vollumfänglich in den Händen der Blogbetreiber:innen. Bitte erstellen Sie sich selbständig eine Kopie falls Sie einen Blog Beitrag zitieren möchten.
Die stetig fortschreitende Urbanisierung ist eine der prägenden Entwicklungen unserer Zeit. Mit einer immer größeren Bevölkerung, die sich in Städten niederlässt, haben sich urbane Gebiete zu den Knotenpunkten unserer Gesellschaft entwickelt. Sie sind Treffpunkt für Innovationen, Wirtschaftswachstum und kulturellen Austausch.Doch mit dieser enormen Verdichtung der Bevölkerung in städtischen Ballungsräumen geht auch eine Reihe komplexer Herausforderungen einher. Städte stehen vor einem wachsenden Druck, die Bedürfnisse ihrer Bürgerinnen und Bürger zu erfüllen, aber auch gleichzeitig ökologische und soziale Nachhaltigkeit sicherzustellen (vgl. Etezadzadeh 2015, S. 1ff.).In diesem Kontext hat sich das Konzept der "Smart City" in den letzten Jahren als zukunftsweisender Ansatz erwiesen. Die Smart City stellt eine strategische Herangehensweise dar, die auf Technologie und Innovation setzt, um Städte intelligenter, nachhaltiger und lebenswerter zu gestalten. Der Kerngedanke besteht darin, städtische Ressourcen effizienter zu nutzen und gleichzeitig die Lebensqualität der Bürger*innen zu erhöhen (vgl. Etezadzadeh 2015, S. 7f.). Eine Smart City nutzt moderne Technologien, wie künstliche Intelligenz (KI) und Big Data-Analysen, um urbane Prozesse zu optimieren.Trotz des Potenzials zur Förderung einer nachhaltigen Stadtentwicklung gibt es jedoch auch einige Herausforderungen, mit denen sich die Städte konfrontiert sehen. Datenschutz und Privatsphäre sind wichtige Anliegen, insbesondere angesichts der Vielzahl von Daten, die in einer Smart City erfasst werden. Die Finanzierung solcher umfassenden städtischen Transformationen kann ebenfalls ein Hindernis darstellen. Des Weiteren stellt die Einbeziehung der Bürgerschaft eine komplexe Aufgabe dar.Die folgende Arbeit befasst sich mit dem Konzept Smart City und fragt nach den damit zusammenhängenden Chancen und Herausforderungen. Welche Chancen bietet das Konzept für eine nachhaltige Stadtentwicklung? Um ein vertieftes Verständnis für die Smart City als einen richtungsweisenden Ansatz zur Bewältigung der städtischen Herausforderungen im Hinblick auf eine nachhaltige Stadtentwicklung zu erlangen, wird die Stadt Freiburg im Breisgau herangezogen, die als ein Beispiel für eine intelligente und nachhaltige Stadtentwicklung und Stadtplanung steht.Warum Smart City?Mit dem Eintritt in das neue Jahrtausend hat sich eine bedeutende Entwicklung abgezeichnet: Das Zeitalter der Städte hat begonnen, und erstmalig in der Geschichte der Menschheit wohnt die Mehrheit der Weltbevölkerung in städtischen Gebieten. Dieser Wandel ist eng mit einem Anstieg der Weltbevölkerung verbunden. Im Jahr 1950 lebte weniger als ein Drittel der Weltbevölkerung in urbanen Gebieten. Seit 2007 ist dieser Anteil auf mehr als die Hälfte angestiegen. Laut Berechnungen der Vereinten Nationen werden bis zum Jahr 2050 voraussichtlich etwa zwei Drittel der Weltbevölkerung in Städten leben (vgl. bpb 2017, o.S.).Mit dem Zuwachs der urbanen Bevölkerung rücken vermehrt Potenziale und Herausforderungen hinsichtlich der Städte im globalen Entwicklungsprozess in den Fokus, darunter die Bekämpfung von Armut, die Integration marginalisierter Gruppen, das Wirtschaftswachstum sowie die Verwirklichung von Klima- und Entwicklungszielen. Der anhaltende Trend zur Urbanisierung erfordert spezifisch angepasste und nachhaltige Ansätze für die Gestaltung von urbanen Siedlungen (vgl. Jaekel 2015, S. 2f.).Durch dieses Wachstum entstehen jedoch auch Risiken. Mit dem rapiden Anstieg der Bevölkerungszahlen geht eine Zunahme des motorisierten Verkehrs einher. Dies führt u.a. zur Verkehrsstauung und verstärkten Lärm- und Schadstoffemissionen. Gleichzeitig kommt es zur Verschmutzung von Böden und Gewässern und vermehrter Bebauung landwirtschaftlicher Flächen (vgl. Weiland 2018, o.S.).Außerdem weisen Städte einen erhöhten Bedarf an Ressourcen wie z.B. Wasser, Energie und Rohstoffe für Gewerbe, Haushalte und Verkehr auf. Städte tragen damit überproportional zur Nutzung vorhandener Ressourcen bei, zu steigenden CO2-Emissionen und gelten damit als ein Verursacher der globalen Klimaerwärmung (vgl. Weiland 2018, o.S.). Natürliche Lebensräume und die Artenvielfalt sind gefährdet, wodurch die Städte gleichzeitig ihre eigene Lebensgrundlage zerstören (vgl. Etezadzadeh 2015, S. 7). Dabei sind es insbesondere die Städte, die"das Potenzial [haben], durch ihre Dichte und Struktur klima- und ressourcenschonend zu wirtschaften und durch geeignete Maßnahmen den Schutz der lebendigen Umwelt zu fördern" (Etezadzadeh 2015, S. 5).Städte spielen demnach eine entscheidende Rolle im Kontext des ökologischen Fortschritts und des Klimaschutzes. Eine auf Umweltbewusstsein basierende Stadtentwicklung kann wesentlich zur nachhaltigen Nutzung von Ressourcen beitragen. Dabei stellt das Konzept der Smart City einen Ansatz dar, diese Schwierigkeiten anzugehen (vgl. LpB BW 2022, o.S.). Das Konzept Smart CityFür die genannten urbanen Herausforderungen im Hinblick auf die Entwicklungen der letzten Jahrzehnte gibt es verschiedene Ansätze, Konzepte und Lösungsmodelle, welche unter dem Begriff "Smart City" firmieren. Grundsätzlich wird Smart City als ganzheitlicher Lösungsansatz gesehen, bei dem eine Vielzahl von Akteuren beteiligt sind. Dabei gibt es keine einheitliche Definition des Begriffs."Aus der Erkenntnis, dass den Herausforderungen einer Stadt mit einem umfassenden Ansatz begegnet werden muss, entstand die Idee der intelligenten Stadt" (Hadzik 2016, S. 10).Das Konzept der Smart City integriert verschiedene Bereiche des urbanen Lebens: die soziale und bauliche Infrastruktur, Verkehr, Mobilität, Energie, Nachhaltigkeit, Dienstleistungen, Politik, aber auch die generelle Stadtentwicklung und ihre Planung (vgl. Hadzik 2016, S. 10). Einen zentraler Bestandteil der Welt der Smart City stellt die Verwendung von digitaler Technologie dar. Hier sehen sich die Städte dem Anspruch gegenüber, digitale Instrumente adäquat einzusetzen und damit für effizientere und nachhaltigere Prozesse zu sorgen. Durch deren Einsatz sollen intelligente Lösungen für das urbane Leben geschaffen werden (vgl. Etezadzadeh 2015, S. 46f.). Zwar gibt es keine einheitliche Vorstellung davon, was "Smart City" ist und sein soll, jedoch ist"den meisten Ansätzen […] gemein, dass man unter 'Smart City' den Einsatz neuer Informations- und Kommunikationstechnologien (IKT) zum Zwecke einer integrierten Stadtentwicklung versteht" (Hoppe 2015, S. 5).Dadurch stellen Klimaschutz, die Steigerung der Lebensqualität für Bewohner*innen, wachsende Partizipation, Inklusion und Effizienz von Ressourcen übergeordnete Ziele dar, welche mithilfe dieser Technologien erreicht werden sollen (vgl. Hoppe 2015, S. 5). Vor diesem Hintergrund sollen "smarte" Lösungen die Antwort hinsichtlich einer Optimierung urbaner Prozesse sein (vgl. Libbe 2019, S. 2). Der Unterschied zwischen einer "normalen" Stadt und einer Smart City liegt demnach darin, dass eine Smart City durch Digitalisierung"effizienter, nachhaltiger und fortschrittlicher sein [soll]. Das kann die Infrastruktur betreffen, Gebäude, Mobilität, Dienstleistungen oder die Sicherheit" (LpB BW 2022, o.S.).Es hat sich gezeigt, dass der Smart City- Ansatz nicht als fertige Lösungsstrategie betrachtet werden und auch nicht als vollständig ausgearbeitetes Modell angesehen werden kann (vgl. Jaekel 2015, S. 31), sondern vielmehr als eine Reihe von Entwicklungsstrategien (vgl. LpB 2022, o.S.). Es lassen sich jedoch verschiedene Bausteine identifizieren.Bausteine einer Smart CityNach Steinbrecher, Salg und Starzetz (2018, S. 2) lassen sich sechs Bereiche der Smart City ausmachen: Smart Economy, Smart People, Smart Governance, Smart Mobility, Smart Environment, Smart Living.Smart Economy: Das Ziel der Smart Economy besteht darin, die umfangreichen Innovationsmöglichkeiten von Städten zu nutzen, um wirtschaftliche Herausforderungen und Veränderungen erfolgreich zu bewältigen. Hierbei sollen die reichhaltigen Daten- und Informationsressourcen von Städten eingesetzt werden, um bestehende Wirtschaftszweige zu stärken, z.B. durch die Optimierung von Produktions- oder Dienstleistungsprozessen. Gleichzeitig soll die Entstehung neuer Wirtschaftszweige gefördert werden, etwa durch die Entwicklung digitaler Angebote für Bürger*innen und Unternehmen.Smart People: Für die Umsetzung aller digitalen und "smarten" Anwendungen ist es erforderlich, dass die Bürger*innen und Unternehmen über digitale Fähigkeiten verfügen, um die vorhandenen Angebote nutzen oder sogar weiterentwickeln zu können. Der Bereich "Smart People" bezieht sich darauf, das Ziel zu verfolgen, die digitalen Kompetenzen der Menschen so zu fördern und auszubauen, dass die aktiv an der Gestaltung ihrer Stadt, der Wirtschaft und der Umwelt teilhaben und mitwirken können.Smart Governance: Smart Governance strebt danach, eine engere Verbindung zwischen Bürgern und Verwaltung herzustellen. Dieses Konzept zielt darauf ab, die Abläufe und Interaktionen innerhalb der Verwaltung zu optimieren und die Kommunikation zwischen der Verwaltung und den Bürgern zu verbessern. Dies erfordert nicht nur den Einsatz von Informations- und Kommunikationstechnologien (IKT), sondern auch die Entwicklung neuer Methoden, um eine tiefere Beteiligung der Bürger zu ermöglichen und innovative Wege für digitale Bürgerbeteiligung zu schaffen.Smart Mobility: Der Transportsektor trägt maßgeblich zum Energieverbrauch und den Emissionen von Treibhausgasen bei. Außerdem sind andere Umweltauswirkungen wie Lärm und Luftverschmutzung stark mit dem Verkehr verknüpft. Eine effiziente Mobilitätsstrategie zielt darauf ab, die negativen Auswirkungen des Verkehrssektors zu reduzieren, während sie den hohen Mobilitätsanforderungen der modernen Gesellschaft gerecht wird. Smart Mobility strebt an, Lösungen zu entwickeln, die von IKT unterstützt werden und die Umweltbelastung und Lärmbelästigung signifikant verringern. Dies beinhaltet die Weiterentwicklung bewährter Transportkonzepte, wie autonome und emissionsfreie Verkehrslösungen, sowie die Optimierung des Verkehrsflusses durch Echtzeit-Verkehrsleitsysteme. Darüber hinaus kann auch die Integration alternativer Mobilitäts- und Stadtplanungskonzepte, wie z.B. die Förderung einer "Stadt der kurzen Wege", die idealerweise ohne motorisierten Verkehr auskommt, Teil einer Smart Mobility-Strategie sein.Smart Environment: Im Bereich des Smart Environment lassen sich intelligente Ansätze zur Verringerung des Energie- und Ressourcenverbrauchs verorten. Dazu gehört u.a. die Verbesserung der Überwachung und Steuerung von Umweltbedingungen, beispielsweise durch kontinuierliche Überwachung der Luft- oder Wasserqualität. Diese Herangehensweise erfordert gleichzeitig eine verstärkte Nutzung erneuerbarer Energiequellen. IKT-basierte Anwendungen und Infrastrukturen wie Smart Grids spielen hierbei eine entscheidende Rolle, da sie dazu beitragen, das Angebot und die Nachfrage von Energie effizienter aufeinander abzustimmen.Smart Living: Dieser Bereich zielt darauf ab, IKT-basierte Anwendungen stärker einzubinden und damit zu einer Verbesserung der Lebensqualität der Bürger*innen beizutragen. Dies kann z.B. durch einen höheren Komfort bei der Bedienung drahtlos vernetzter Haushaltsgeräte, wie der Kaffeemaschine oder der Heizung, geschehen (vgl. Steinbrecher, Salg, Starzets 2018, S. 2).Im Folgenden werden konkrete Handlungsfelder und Anwendungsbereiche des Konzepts Smart City betrachtet, wobei der Fokus insbesondere auf die Umsetzung in der Stadt Freiburg im Breisgau liegt. Welche Ideen, Innovationen und Anwendungen konnten in Freiburg bisher realisiert werden und was plant die Stadt weiter in Richtung Smart City? Um ein umfassendes Bild der Thematik zu erlangen, werden im Anschluss die damit zusammenhängenden Chancen und Herausforderungen für die Transformation urbaner Räume durch das Konzept der Smart City dargestellt. Chancen von Smart City-Konzepten – die Stadt Freiburg im Breisgau"Gutes Zusammenleben, saubere Luft angenehmes Stadtklima, emissionsarme Mobilität, Raum für Fußgänger, attraktiv für Kreative und Engagierte, Unternehmen und Gäste. Sicherer Alltag, freundliche und offene Quartiere, in denen wir gerne leben" (vgl. Digitalstrategie Freiburg, S. 1).Im Folgenden wird die Stadt Freiburg zur Betrachtung herangezogen und danach gefragt, wie diese die Inhalte und Prinzipien des Konzepts Smart City konkret umsetzt. Welche Chancen und Herausforderungen ergeben sich dabei für Freiburg, aber auch für andere Städte auf dem Weg in die "smarte" Richtung? Das folgende Video gibt einen Überblick über die (digitalen) Ziele der Stadt (digital.freiburg 2019: https://www.youtube.com/watch?v=3clTSCU1NjY) Freiburg ist eine der zahlreichen Städte in Deutschland, die damit begonnen haben, bestimmte Maßnahmen bezüglich des Feldes der "smarten" Stadtplanung und Stadtentwicklung anzugehen. Dabei haben die Städte Freiburg, Mannheim, Aalen und Heidenheim in Baden-Württemberg im Jahr 2020 beim Bundeswettbewerb "Smart Cities made in Germany" eine Förderung für digitale Zukunftsprojekte erhalten (vgl. LpB BW 2022, o.S.).Freiburg hat eine Digitalstrategie entwickelt hinsichtlich der Frage, wie Digitalisierung helfen kann, die Stadt nach den Vorstellungen der Menschen zu entwickeln. Diese digitale Agenda besteht aus insgesamt sechs Themenfeldern. Jedes Themenfeld umfasst Maßnahmen und Ziele, welche die Entwicklung der Stadtgesellschaft im Blick haben. Die Digitalisierungsstrategie beschreibt das Freiburg der nächsten sechs Jahre und zielt auf das Jahr 2025 ab (vgl. Digitalstrategie Freiburg, S. 6).Digitalstrategie Freiburg: https://digital.freiburg.de/digitalstrategie Im Folgenden werden die sechs Themenfelder der Strategie und einige damit zusammenhängende Maßnahmen betrachtet, um ein umfassenderes Bild der Smart City Freiburg gewinnen zu können.1. Lebenswelten. Familie. GesundheitDigitales Nachbarschaftsnetzwerk: Freiburg entwickelt unter dem Namen "Soziale Nachbarschaft und Technik" (SoNaTe) aktuell ein digitales Kommunikationsnetzwerk. Dabei sollen soziale Nachbarschaften in Kommunen und Regionen gestärkt werden. Das Ziel ist die lokale Verbindung von Menschen, Gruppen, Organisationen und Unternehmen, aber auch die Vereinfachung des Zugangs zu Kommunikation, Dienstleistungen, Infrastruktur und Freizeitangeboten. Die Plattform als Alternative zu etablierten sozialen Medien soll bundesweit eingesetzt werden und die Teilhabe ihrer Nutzer*innen gewährleisten.Online-Vermittlung von Räumen in der Stadt: Die Stadt arbeitet in Zusammenarbeit mit verschiedenen Kooperationspartnern daran, ein Online-Tool zur Vermittlung von Räumlichkeiten zu entwickeln. Dieses Tool soll dazu beitragen, die gemeinsame und effiziente Nutzung von städtischen Räumen, Hallen und Vereinsräumen zu fördern. Darüber hinaus wird es dazu beitragen, das vielfältige Engagement von städtischen Initiativen besser sichtbar zu machen.Digitale Unterstützung bei Feuerwehr und Rettungsdienst: Die Integrierte Leitstelle (ILS) in Freiburg befindet sich derzeit in der Entwicklungs- und Testphase als Pilotstandort für eine fortschrittliche Handyortung namens AML (Advanced Mobile Location) im Falle eines Notrufs über Smartphones. Zusätzlich unterstützt die ILS Freiburg die Ersthilfe-App namens "FirstAED", die dazu dient, die nächstgelegenen Ersthelfer zu alarmieren. In Zukunft soll die ILS Freiburg eine automatisierte "Nächste-Rettungsmittel-Strategie" einführen, die auf GPS-Ortung direkt aus dem Einsatzleitsystem der ILS Freiburg basiert. Gleichzeitig wird im Rahmen des Landesprojekts "Leitstelle Baden-Württemberg" ein vernetzungsfähiges Einsatzleit- und Kommunikationssystem aufgebaut. Parallel dazu wird der Ausbau von vernetzten, GPS-gesteuerten Ampelvorrangschaltungen und bevorzugten Strecken vorangetrieben, die auch von Fahrzeugen der Freiwilligen Feuerwehren genutzt werden können (vgl. Digitalstrategie Freiburg, S. 19ff.).2. Gesellschaft. Ethik. VertrauenBürgerschaftliche Beteiligung mit digitalen Mitteln: Um sicherzustellen, dass die Bürgerinnen und Bürger von Freiburg effektiv und einheitlich an städtischen Angelegenheiten teilnehmen können, wurde ein IT-gestütztes Instrument eingeführt. Die Website "mitmachen.freiburg.de" bietet verschiedene Beteiligungsmodule an, die je nach Art des Projekts flexibel eingesetzt werden können. Die Online-Beteiligung wird aktiv ausgebaut und soll als Standardmethode neben den traditionellen analogen Beteiligungsformaten etabliert werden. Zusätzlich soll die formelle Beteiligung der Bürger*innen bei der Bauleitplanung durch den Einsatz digitaler Tools vereinfacht und verbessert werden. In Zukunft wird die Stadtverwaltung verschiedene Formen der Beteiligung anbieten, die im Einklang mit dieser Digitalisierungsstrategie stehen (vgl. Digitalstrategie Freiburg, S. 31).3. Bildung. Kultur. WissenschaftIndustrie 4.0-Labor-Walter-Rathenau-Gewerbeschule: Im Mai 2018 wurde ein Labor eingerichtet, das mit digital gesteuerten Produktionsmodulen wie Industrierobotern und Automatisierungssystemen ausgestattet ist. Ziel war es, intelligente Produktionsprozesse zu entwickeln und Schulungen auf der Grundlage realer Industriestandards durchzuführen. Dieses Labor ist äußerst flexibel, da seine Komponenten und Schnittstellen denen in der Industrie gleichen. Es kann problemlos an aktuelle Entwicklungen und neue Industriestandards angepasst werden. Die Einrichtung des Industrie 4.0-Labors erfolgte in enger Abstimmung mit den Anforderungen der Wirtschaft und wurde speziell auf den Schulbetrieb abgestimmt. Die Finanzierung für dieses Labor erfolgte ausschließlich aus dem städtischen Haushalt.Museen Digital: Die Planungen für das "Museum der Zukunft" umfassen die Erwägung neuer Ausstellungsformate im Kontext der Digitalisierung. Dabei werden innovative digitale Vermittlungswege sowie die Nutzung von Social Media in Betracht gezogen. Ein Hauptziel besteht darin, den Besucherinnen und Besuchern einen einfachen und unmittelbaren Zugang zu Informationen und den Dienstleistungen der Museen zu ermöglichen. Die Ausstellungsinhalte sollen durch vielfältige multimediale und interaktive Vermittlungsformate lebendiger erlebbar gemacht werden. Dies könnte den Einsatz von Technologien wie Augmented Reality, 3D-Visualisierungen und sogar spielerische Elemente wie Gaming-Formate einschließen. Eine zentrale Grundlage für die digitale Vermittlung ist eine umfangreiche Museumsdatenbank, die als Wissensspeicher dient und die digitale Sammlung erweitert. Auf dieser Basis kann die Museumsdatenbank in einem weiteren Schritt mit den physischen Ausstellungsobjekten verknüpft werden, um die reale Ausstellung um Informationen zu Entstehungsprozessen, Techniken, Materialien und Geschichte zu bereichern (vgl. Digitalstrategie Freiburg, S. 43ff.).4. Digitale StadtverwaltungDigitaler Posteingang, Digitale Akten- und Vorgangsverwaltung: Die Einführung der elektronischen e-Akte ist bereits weit fortgeschritten und bildet das Fundament für die Digitalisierung in der Verwaltung. Sie eröffnet die Möglichkeit zur Effizienzsteigerung von Arbeitsabläufen und ermöglicht flexibleres Arbeiten, unabhängig von Zeit und Ort. Dies hat zur Folge, dass Informationen und Dokumente nicht mehr in vielfacher Ausführung und in verschiedenen Medien an verschiedenen Orten aufbewahrt werden müssen. Die Einführung der e-Akte ermöglicht sogenannte "medienbruchfreie" Prozesse und verbessert die Dienstleistungen für Bürgerinnen und Bürger. Die positiven Auswirkungen der e-Akte erstrecken sich somit über die internen Verwaltungsabläufe hinaus.Digitale Stadt- und Bauplanung: Wie viele Großstädte in Deutschland steht auch Freiburg vor der Herausforderung, schnell neuen und bezahlbaren Wohnraum zu schaffen, der gleichzeitig umweltfreundlich und nachhaltig ist. Um diesem Bedarf gerecht zu werden, sollen Bauplanung und baurechtliche Verfahren mithilfe digitaler Werkzeuge vereinfacht werden. Aktuell werden die baurechtlichen Aspekte in der gesamten Stadt digital erfasst. Gleichzeitig werden neue Bauprojekte in einem standardisierten digitalen Format entwickelt (XPlanung/XBau). Dieser Ansatz ermöglicht nicht nur eine digitale Beteiligung aller Betroffenen in den verschiedenen Phasen des Planungsprozesses, sondern ebnet auch den Weg für digitale Bauanträge. Durch teilautomatisierte digitale Prüfungen wird die Zeitspanne von der Antragstellung bis zur Genehmigung verkürzt. Zusätzlich werden aus den verfügbaren digitalen Informationen dreidimensionale Pläne (ein "digitaler Zwilling") erstellt, die umfassende Analyse- und Berichtsoptionen für die Stadtentwicklung bieten. In diesem Zusammenhang ermöglicht eine detaillierte digitale Darstellung von Gebäudemodellen (Building Information Modeling - BIM) die Verknüpfung von Entwurfsvisualisierungen, Baufortschritt, Genehmigungsverfahren und Gebäudemanagement.Service Management für digitale Bürger*innenanfragen: In Zukunft sollen alle digitalen Anfragen von Bürger*innen in ein zentrales Ticketsystem geleitet werden. Dieses System soll einen einheitlichen, zentral gesteuerten Bearbeitungsprozess bieten. Die verschiedenen Dienststellen und Ämter sollen in dieses Ticketsystem integriert werden und können darüber den gesamten Kommunikationsprozess abwickeln. Die Nutzung von Automatisierung, die Möglichkeit zur Überwachung, Steuerung und Auswertung innerhalb dieses Systems soll die Servicequalität bei der Beantwortung der Anfragen verbessern (vgl. Digitalstrategie Freiburg, S. 57ff.).5. Arbeit. Wirtschaft. TourismusNetzausbau: Masterplan digitale Infrastruktur: Um die Grundlage für den Netzausbau zu schaffen, soll ein Masterplan "digitale Infrastruktur für Freiburg" als Ausbaustrategie erstellt werden, was auch Gigabit-Breitband, 5G sowie Sensorik-Netzwerke einschließen soll. Zusätzlich soll für den Mobilfunk ein koordinierter, aber auch strahlungsmindernder Ausbau in Kooperation mit den Anbietern geschaffen werden (vgl. Digitalstrategie Freiburg, S. 72).6. Netze. Energie. VerkehrIntermodale Verkehrsplattform/App: Die bestehende ÖPNV-Auskunft namens "VAG mobil" sowie der digitale Vertrieb über "MobilTicket" und den "VAG-Online-Shop" werden um neue multimodale Funktionen erweitert. Egal an welchem Ort sich Kunden der VAG in Freiburg gerade befinden, die App zeigt auf einer Karte nicht nur Haltestellen mit Live-Abfahrtszeiten für Busse und Bahnen, sondern auch sämtliche "Sharingpoints" für Fahrzeuge und Fahrräder an. In einem ersten Schritt wurden verfügbare Mietfahrräder des Fahrradverleihsystems "FRELO" in die "VAG mobil"-App integriert, inklusive Buchung, Nutzung und Abrechnungsfunktionen.Umweltsensitives Verkehrsmanagement: Der Luftreinhalteplan sieht vor, dass bei Überschreitung bestimmter Schadstoffwerte an der Messstelle Schwarzwaldstraße die Menge des Verkehrs aus dem Osten, der über die B 31 in die Stadt einfährt, reguliert werden soll. In diesem Kontext wird derzeit untersucht, ob es sinnvoll ist, die bestehende Verkehrssteuerung zu einem umfassenden Verkehrsleitsystem für Freiburg auszubauen. Ein solches System könnte dazu verwendet werden, sicherzustellen, dass nur eine angemessene Anzahl von Fahrzeugen in das Stadtgebiet oder in bestimmte Stadtteile einfährt, die dort ohne größere Störungen bewältigt werden können. Es würde auch die Möglichkeit bieten, auf hohe Schadstoffbelastungen, beispielsweise bei ungünstiger Witterung, und auf akute Verkehrsstörungen wie Baustellen, Unfälle oder Veranstaltungen gezielt zu reagieren.Ausbau öffentliches WLAN: Ein kostenfreies WLAN an Verwaltungsstandorten und öffentlichen Einrichtungen sowie in Bussen und Stadtbahnen soll ausgebaut werden.Belegungserfassung und Leitsystem für P&R-Parkplätze: Durch die Installation von Belegungssensoren an den P+R-Anlagen wird die Belegung effizienter gestaltet und die unerlaubte Nutzung durch Dauerparker*innen oder Fremdparker*innen verringert. Dies ermöglicht es Besuchern und Pendlern, Echtzeitinformationen über die Auslastung der P+R-Parkplätze online über die städtische Website, die App "VAG mobil" und dynamische Wegweiser zu erhalten. Diese Daten werden ähnlich wie im bestehenden Parkleitsystem der Innenstadt verarbeitet. Das Ziel ist es, den Verkehr innerhalb der Stadt zu reduzieren, indem Berufspendler und Besucher leichter freie P+R-Plätze am Stadtrand finden können, um von dort auf den öffentlichen Nahverkehr oder das städtische Fahrradverleihsystem umzusteigen. Darüber hinaus wird durch die Integration weiterer Parkhäuser in das bestehende Echtzeit-Parkleitsystem in der Innenstadt vermieden, dass Parkplatzsuchende unnötige Autofahrten unternehmen müssen.In Anbetracht der vorangegangenen Entwicklungen und Maßnahmen, die in Freiburg im Kontext der Smart City-Initiative geplant und umgesetzt werden, wird deutlich, dass die Stadt aktiv bestrebt ist, intelligente Lösungen zur Bewältigung der heutigen und zukünftigen urbanen Herausforderungen zu implementieren. Freiburg setzt dabei auf Digitalisierung und Technologie, um die Lebensqualität der Bürger*innen zu steigern und gleichzeitig umweltfreundlichere, effizientere und nachhaltigere Stadtstrukturen zu schaffen. Dies zeigt sich in verschiedenen Aspekten, z.B. darin, dass Freiburg grundsätzlich den Anspruch hat, die Menschen in den Fokus der Digitalisierung zu stellen, damit diese den Prozess der Digitalisierung aktiv mitgestalten können, was im Hinblick auf die Einrichtung der Online-Beteiligungsplattform "mitmachen.freiburg" deutlich wird (Mitmachen.Freiburg: https://mitmachen.freiburg.de/stadtfreiburg/de/home). Darüber hinaus investiert die Stadt in die Entwicklung digitaler Plattformen und Services, die den Zugang der Bürger*innen zu städtischen Dienstleistungen verbessern. Im Bereich des Verkehrs und der Mobilität trägt Freiburg mit der Einführung von intelligenten Verkehrssystemen, der Optimierung des Nahverkehrs sowie im Rahmen des Belegungssystems für P+R Parklätze dazu bei, den Verkehr in der Stadt effizienter und nachhaltiger zu gestalten.Zusammenfassend lässt sich sagen, dass die Stadt Freiburg auf unterschiedliche Weise in Richtung Smart City moderne Technologien und digitale Lösungen einsetzt, um die Lebensqualität zu steigern, Umweltbelastungen zu reduzieren und die Stadt insgesamt effizienter und nachhaltiger zu gestalten. Die zuvor genannten Beispiele der verschiedenen Themenfelder haben gezeigt, dass Tendenzen im Hinblick auf Konzepte und Bereiche der Smart City geplant, umgesetzt und auch funktionieren können. Trotzdem stehen Städte wie Freiburg vor einigen Herausforderungen bei der Implementierung und Umsetzung von Strategien und Plänen im Sinne von Smart City.Herausforderungen für Smart CitiesDW Shift (2020): https://www.youtube.com/watch?v=VRRPy-yEKRM Smart Cities stehen vor einer Reihe von Herausforderungen, während sie sich bemühen, technologische Lösungen zur Verbesserung der Lebensqualität, Nachhaltigkeit und Effizienz in städtischen Gebieten zu implementieren. Dazu gehören die Aspekte Sicherheit, Datenschutz und Privatsphäre, Inklusion und Chancengleichheit sowie finanzielle Aspekte.Das Konzept der Smart City sieht in verschiedenen Teilbereichen das Sammeln einer Fülle von Daten vor. Hierbei gilt es zu beachten, dass Digitalisierung dem Menschen dienen sollte und die Implementierung von Smart City-Elementen nicht eine übermäßige Überwachung der Bürger*innen voraussetzt. Dabei stellen die Sicherheit und die Privatsphäre der Bürger*innen zentrale Punkte dar, die es zu beachten und zu berücksichtigen gilt (vgl. LpB BW 2022, o.S.).Die Landeszentrale für politische Bildung Baden-Württemberg (2022, o.S.) führt an, dass sich eine Smart City an den Grundsätzen der Digitalcharta des Wissenschaftlichen Beirats der Bundesregierung orientieren sollte. Hierzu gehört in erster Linie die Wahrung der Menschenwürde im Digitalen. Darüber hinaus gilt, dass jeder Mensch das Recht auf Identität, Datenschutz und Privatsphäre hat. An dieser Stelle stellt sich bei dieser großen Menge an gesammelten Daten die Frage, was mit den gesammelten Daten passiert, wer darauf Zugriff hat und was damit gemacht wird (vgl. Stöckl 2022, o.s.). Unter einer Unsicherheit im Hinblick auf Datenschutz und Privatsphäre kann die Effizienz von Smart Cities leiden sowie das Vertrauen in öffentliche Behörden, was die Einrichtung von ausreichendem Datenschutz und Transparenz zu einer zentralen Herausforderung macht (vgl. Stöckl 2022, o.S.).Eine weitere Herausforderung für Smart Cities ist die Gewährleistung von Inklusion und Chancengleichheit. Es wird davon ausgegangen, dass digitale Infrastrukturen für alle Menschen zugänglich sein und überdies gleiche Chancen für gesellschaftliche Teilhabe und Entfaltung bieten sollten. Das stellt die Städte vor Schwierigkeiten, da es immer technikaffine und weniger technikaffine Menschen sowie Menschen unterschiedlichen Alters mit unterschiedlichen Fähigkeiten geben wird. Somit sollte im Idealfall bei der Digitalisierung der Städte darauf geachtet werden, dass beispielsweise nicht-technikaffine Bürger*innen keine Nachteile oder Ausgrenzung erfahren. Es stellt sich demnach die Frage, ob es sinnvoll ist, z.B. den Kauf von Parktickets oder Bahnfahrkarten ausschließlich über Smartphones zur Verfügung zu stellen, da nicht alle Menschen ein Smartphone besitzen (vgl. LpB BW 2022, o.S.). Somit ist die Gewährleistung, dass die Vorteile der Digitalisierung niemanden abhängen oder zurücklassen, mitunter eine der größten Herausforderungen für eine Smart City (vgl. Stöckl 2022, o.S.).Was als weitere zentrale Herausforderung hinzukommt, mit der jede Stadt zwangsläufig konfrontiert wird, wenn es um die Planung und Umsetzung von Anwendungen und Strategien hinsichtlich des Smart City-Konzeptes geht, ist der Aspekt der Finanzierung. Für eine erfolgreiche Finanzierung müssen verschiedene Finanzierungsinstrumente und -strategien herangezogen werden, wozu öffentliche sowie private Akteure gehören. Die Planung und Durchsetzung von Geldern hinsichtlich der Einrichtung von Smart City muss von den Städten demnach ausreichend durchdacht und organisiert werden (vgl. Hinterberger et. al. 2015, S. 4).FazitARTE (2023): Retten Städte die Welt? https://www.youtube.com/watch?v=dUkrIDg0_8c Smart Cities bieten eine Vielzahl von Chancen und Möglichkeiten, die die Lebensqualität der Bürgerinnen und Bürger verbessern, die Effizienz städtischer Dienstleistungen steigern und zur nachhaltigen Entwicklung beitragen können. Folgende Schlussfolgerungen konnten aus der Betrachtung der Smart City Freiburg gezogen werden:Smart City-Technologien können die Lebensqualität in städtischen Gebieten erheblich steigern. Dies umfasst eine bessere Luftqualität, weniger Verkehrsstaus, sauberes Wasser, sichere Straßen und öffentliche Plätze sowie den Zugang zu hochwertigen Bildungs- und Gesundheitseinrichtungen. Sie können zusätzlich die Effizienz städtischer Dienstleistungen steigern, was den effizienten Einsatz von Energie, Wasser und Ressourcen, die Optimierung des öffentlichen Verkehrs und die Verbesserung der Verwaltung inkludiert.Einen weiteren Aspekt stellt die Bürgerbeteiligung dar. Smart City-Initiativen können die Beteiligung der Bürgerinnen und Bürger am städtischen Leben fördern. Das schließt die Möglichkeit ein, Feedback zu geben, an Entscheidungsprozessen teilzunehmen und städtische Dienstleistungen zu personalisieren. Zusätzlich können intelligente Verkehrsmanagementsysteme und vernetzte Verkehrslösungen dazu beitragen, den Verkehrsfluss zu optimieren, Staus zu reduzieren und die Sicherheit im Straßenverkehr zu erhöhen. Insgesamt bieten Smart Cities die Möglichkeit, Städte lebenswerter, nachhaltiger und effizienter zu gestalten und die Lebensqualität der Menschen zu verbessern. Durch die Integration von Technologie und Innovation können viele der heutigen urbanen Herausforderungen angegangen werden.Die Betrachtung der verschiedenen Themenfelder und Maßnahmen der Smart City Freiburg im Rahmen ihrer Digitalstrategie konnte aufzeigen, dass sich zwar viele Ideen bereits in der Planung und Entwicklung befinden, es aber an einigen Stellen noch an technischen Strukturen oder Fachkräften fehlt, die die Entwicklung und Durchsetzung vorantreiben würden.Trotz der Möglichkeiten und Chancen sind Smart Cities mit einigen Herausforderungen konfrontiert, darunter finanzielle Herausforderungen, denn die Entwicklung und Implementierung der Initiativen erfordern die nötige Technologie, Infrastruktur und Fachkräfte. Eine Stadt muss demnach Finanzierungsquellen finden, um diese Projekte umzusetzen bzw. aufrechtzuerhalten.Als weiterer Punkt wurde der Datenschutz genannt. Die Erhebung von Daten in einer Smart City erfordert Datenschutz- und Sicherheitsmaßnahmen. Die Stadt muss sicherstellen, dass mit den Daten der Bürger*innen sorgsam umgegangen wird und dass sie vor Sicherheitsrisiken geschützt sind. Eine weitere Herausforderung besteht darin, sicherzustellen, dass alle Bürger*innen von den Smart City-Lösungen profitieren können. Dies erfordert Maßnahmen, um sicherzustellen, dass die Technologie für alle zugänglich ist, unabhängig von ihrem sozioökonomischen Status oder ihrer technischen Affinität.Es hat sich gezeigt, dass die Einbeziehung der Bürger*innen in den Prozess der Smart City-Gestaltung entscheidend ist, jedoch auch eine Herausforderung darstellt. Die Stadt muss Mechanismen entwickeln, um die Meinungen und Bedenken der Bevölkerung zu berücksichtigen und transparente Entscheidungsprozesse zu gewährleisten, wie man am Beispiel der Stadt Freiburg sehen konnte. Die Betrachtung der Stadt Freiburg zeigt, dass die Herausforderungen, vor denen Städte bei der Umsetzung von Smart City-Initiativen stehen, vielfältig sind und eine sorgfältige Planung und strategische Herangehensweise erfordern. Eine ganzheitliche Betrachtung unter Berücksichtigung von finanziellen, technischen, sozialen und ökologischen Aspekten ist entscheidend für den Erfolg.QuellenARTE (2023): Retten Städte die Welt? Video: https://www.youtube.com/watch?v=dUkrIDg0_8c (zuletzt aufgerufen: 10.09.2023)Bundeszentrale für politische Bildung (bpb) (2017): Verstädterung, online unter: https://www.bpb.de/kurz-knapp/zahlen-und-fakten/globalisierung/52705/verstaedterung/ (zuletzt aufgerufen: 10.09.2023)Digitalstrategie der Stadt Freiburg, online unter: https://digital.freiburg.de/digitalstrategie (zuletzt aufgerufen: 10.09.2023)DW Shift (2020): Smart City: How do you live in a Smart City? Future Smart City Projects. Surveillance or Utopia? Video: https://www.youtube.com/watch?v=VRRPy-yEKRM (zuletzt aufgerufen: 10.09.2023)Etezadzadeh, Chirine (2015): Smart City- Stadt der Zukunft? Die Smart City 2.0 als lebenswerte Stadt und Zukunftsmarkt. Springer Vieweg. Wiesbaden.Hadzik, Tobias (2016): Smart Cities. Eine Bestandsaufnahme von Smart City- Konzepten in der Praxis. Epubli Ebooks. 3. Auflage.Hinterberger, Robert/ Kopf, Thomas/ Linke, Alexander/ Stühlinger, Lukas (2015): Finanzierungshandbuch Smart Cities. Smart Finance for Smart Cities. Wien, online unter: https://www.klimafonds.gv.at/wp-content/uploads/sites/16/Smart-FinanceFinanzierungshandbuch.pdf (zuletzt aufgerufen: 10.09.2023).Hoppe, Klaus (2015): Der Smart City- Ansatz. Chancen und Herausforderung für Städte und Gemeinden. Klima-Bündnis. Arbeitsgruppe Energieversorgung 2050, online unter: https://klaushoppe-consulting.de/wp-content/uploads/2018/06/1_Der_Smart_Cities_Ansatz.pdf (zuletzt aufgerufen: 10.09.2023)Jaekel, Michael (2015): Smart City wird Realität. Wegweiser für neue Urbanitäten in der Digitalmoderne. Springer Vieweg. Wiesbaden.Landeszentrale für politische Bildung Baden-Württemberg (lpB) (2022): Smart City- die Stadt der Zukunft? Technologie in der nachhaltigen Stadtentwicklung, online unter: https://www.lpb-bw.de/smart-city#c56712 (zuletzt aufgerufen: 10.09.2023).Libbe, Jens (2019): Lost in Transformation: Rezension zu 'Smart City. Kritische Perspektiven auf die Digitalisierung in Städten' von Sybille Bauriedl und Anke Strüver (Hg.). Soziopolis: Gesellschaft beobachten, online unter: https://www.ssoar.info/ssoar/handle/document/82404 (zuletzt aufgerufen: 10.09.2023)Mitmachen. Freiburg: https://mitmachen.freiburg.de/stadtfreiburg/de/home (zuletzt aufgerufen: 10.09.2023)Stadt Freiburg (2019): digital.freiburg. Video: https://www.youtube.com/watch?v=3clTSCU1NjY (zuletzt aufgerufen: 10.09.2023)Steinbrecher, Johannes/ Salg, Julian/ Starzetz, Julia (2018): Viele bunte Smarties?! Die Smart City als Lösung kommunaler Herausforderungen? KfW Research. Fokus Volkswirtschaft. Nr. 204, online unter: https://www.kfw.de/PDF/Download-Center/Konzernthemen/Research/PDF-Dokumente-Fokus-Volkswirtschaft/Fokus-2018/Fokus-Nr.-204-April-2018-Smart-Cities.pdf (zuletzt aufgerufen: 10.09.2023)Stöckl, Benedikt (2022): 'Smart Cities' bergen Chance, aber auch Risiken für gesellschaftlichen Zusammenhalt. Euractiv, online unter: https://www.euractiv.de/section/innovation/news/smart-cities-bergen-chancen-aber-auch-risiken-fuer-gesellschaftlichen-zusammenhalt/ (zuletzt aufgerufen: 10.09.2023)Weiland, Ulrike (2018): Stadt im Klimawandel. Bundeszentrale für politische Bildung (bpb), online unter: https://www.bpb.de/themen/stadt-land/stadt-und-gesellschaft/216883/stadt-im-klimawandel/ (zuletzt aufgerufen: 10.09.2023)
Die Inhalte der verlinkten Blogs und Blog Beiträge unterliegen in vielen Fällen keiner redaktionellen Kontrolle.
Warnung zur Verfügbarkeit
Eine dauerhafte Verfügbarkeit ist nicht garantiert und liegt vollumfänglich in den Händen der Blogbetreiber:innen. Bitte erstellen Sie sich selbständig eine Kopie falls Sie einen Blog Beitrag zitieren möchten.
Holger Hanselka soll die Fraunhofer-Gesellschaft aus der Krise holen. Wie will er das machen? In seinem ersten Interview als neuer Fraunhofer-Präsident spricht der Wissenschaftsmanager über saubere Governance, die Verteilung von Macht und eine deutsche Krise.
Angekommen: Am heutigen Dienstag übernimmt Holger Hanselka das Amt als Fraunhofer-Präsident. Foto: Markus Jürgens/Fraunhofer.
Herr Hanselka, herzlichen Glückwunsch zum Amtsantritt als neuer Fraunhofer-Präsident. Welches Dienstfahrzeug werden Sie fahren?
Funktional muss es sein. Als ich beim Karlsruher Institut für Technologie (KIT) anfing, habe ich den Sechszylinder meines Vorgängers gegen einen Vierzylinder eintauschen lassen. Damit fühlten sich die Fahrer nicht so gut, aber ich habe mich gut gefühlt. Heute denkt man nicht mehr in Zylindern, sondern in anderen Antriebsformen. Klar ist also: Fahren muss das Fahrzeug, ich muss drin arbeiten können, aber Luxus oder Statussymbol brauche ich nicht.
Wie sieht es mit der Kategorie der Hotels aus, in denen Sie übernachten werden?
Ich schlafe sehr häufig für 80 Euro die Nacht. Es gibt aber Jahreszeiten und Situationen, in denen mit 80 Euro nichts zu machen ist – denken Sie zum Beispiel an die Hannover-Messe –, und wenn man die nötigen Mehrausgaben plausibel begründet, geht das auch mit dem Reisekostengesetz in Ordnung. Ist eine ordentliche Begründung nicht möglich, dann sollte man es nicht machen. So einfach ist das. Ich sehe da kein Problem. In Zeiten gleich mehrerer Polykrisen auf dem gesamten Planeten steht Fraunhofer aber vor ganz anderen Herausforderungen.
Die massiven Vorwürfe gegen den Fraunhofer-Vorstand um Ihren Vorgänger Reimund Neugebauer sind aber ein Problem. Sie betreffen unter anderem den Umgang mit Spesen und Steuergeldern, ein mutmaßlich problematisches Führungsverhalten und die angebliche Erzeugung eines Klimas der Angst. Als neuer Präsident erben Sie die alten Skandale, die Vertrauenskrise nach außen und innen und die gerade erst begonnene Aufarbeitung.
Als neuer Präsident bin ich verantwortlich für die Fraunhofer-Gesellschaft, und dieser Verantwortung stelle ich mich. Es ist eine Selbstverständlichkeit für mich, dass all die Vorwürfe, die im Raum stehen, transparent und lückenlos aufgeklärt werden. Die Federführung dafür liegt beim Senat, und da gehört sie auch hin. Meine Rolle als Präsident wird darin bestehen, dass der Vorstand und ich den Senat bei seiner Aufklärungsarbeit weiterhin vollumfänglich unterstützen. Und wenn es soweit ist, wird es meine Aufgabe sein, aus bestätigten Fehlern und Fehlverhalten die notwendigen Konsequenzen zu ziehen, so dass sie sich nicht wiederholen können. Ein Klima der Angst kann ich bei Fraunhofer nicht wahrnehmen.
HOLGER HANSELKA, 61, ist Maschinenbauingenieur und wurde am 25. Mai vom Fraunhofer-Senat einstimmig zum neuen Präsidenten der Forschungsgesellschaft gewählt. Die vergangenen zehn Jahre war er Präsident des Karlsruher Instituts für Technologie (KIT) und fungierte als für den Forschungsbereich Energie zuständige Vizepräsident der Helmholtz-Gemeinschaft, zu der das KIT gehört. Bevor Hanselka nach Karlsruhe kam, leitete er das Fraunhofer-Institut für Betriebsfestigkeit und Systemzuverlässigkeit in Darmstadt. Das KIT hatte von 2006 bis 2012 den Status einer Exzellenzuniversität, verlor ihn dann vorübergehend – und gewann ihn 2019 zurück. Bei Fraunhofer gilt Hanselka nach angesichts der Spesenaffäre als Hoffnungsträger, der gleichermaßen Aufklärung und Neustart gewährleisten soll. Foto: Markus Breig, KIT.
Verlassen Sie sich nicht zu sehr auf den Senat? Immerhin war er es, der noch im August 2021, als längst massive Whistleblower-Vorwürfe gegen Reimund Neugebauer laut wurden, Ihren Vorgänger nicht nur im Amt bestätigt, sondern seine Amtszeit sogar noch verlängert hat. Einfach so im Umlaufverfahren.
Wie der Senat in der Vergangenheit gewirkt hat, kann ich schwer beurteilen. Anfang dieses Jahres stand die Stellenausschreibung für das Präsidentenamt in der Zeitung, erst seitdem habe ich mich intensiv mit Fraunhofer und auch mit dem Fraunhofer-Senat auseinandergesetzt. Seitdem, das kann ich sagen, war ich besonders von der ebenfalls neuen Senatsvorsitzenden Hildegard Müller sehr beeindruckt und ihren Bemühungen um eine transparente und lückenlose Aufklärung. Daher lautet meine Antwort: In einen Senat unter Frau Müllers Leitung habe ich großes Vertrauen. Und wie gesagt: Ich als Präsident werde dafür sorgen, dass auch wir als Vorstand gemeinsam jeden erdenklichen Beitrag leisten, die Dinge zu klären.
Obwohl dem Senat zum Teil noch dieselben Leute angehören, die sich wie eine Mauer vor Reimund Neugebauer gestellt, im Herbst 2021 die Vorwürfe gegen ihn per Senatsbeschluss als "durchweg
haltlos" und die Aufklärung faktisch als abgeschlossen eingestuft haben. Übrigens sitzen auch im Vorstand, den Sie jetzt leiten, noch Leute, die über viele Jahre Weggefährten Neugebauers waren. Darunter Alexander Kurz, der seit 2011 verschiedene Vorstandsämter bekleidet hat, als enger Vertrauter Neugebauers gilt und genau wie dieser von der Fraunhofer-Mitgliederversammlung für das Rechnungsjahr 2022 nicht entlastet wurde. Wir erinnern uns: Die Rücktrittsforderungen nach den im Februar 2023 öffentlich gewordenen Vorwürfen im Bericht des Bundesrechnungshofs, erhoben unter anderem von Bundesforschungsministerin Stark-Watzinger, richteten sich gegen den Vorstand als Ganzes.
Der Senat hat zur Aufklärung der sehr eindeutigen Vorwürfe im Rechnungshofbericht einen eigenen Ausschuss eingerichtet, der sich sehr intensiv seiner Arbeit widmet, und zwar in enger Zusammenarbeit mit verschiedenen Kanzleien und der Staatsanwaltschaft. Als bislang Außenstehender ist mein Eindruck, dass mit Unterstützung des gesamten Vorstands alles getan wird, was man tun kann, um Transparenz zu schaffen und aufzuklären. Die Frage nach den Konsequenzen, die ich gerade schon angesprochen habe, kann erst seriös beantwortet werden, wenn zu der begonnenen Untersuchung Ergebnisse vorliegen. Alles andere wäre unlauter. Worüber ich mir ehrlich gesagt die größeren Gedanken mache: Wie können und müssen wir die Governance bei Fraunhofer so verändern, dass künftig jeder seine Rolle hat, das Zusammenspiel funktioniert und vor allem auch die Aufsichtsfunktion des Senates greift? Da sehe ich Nachholbedarf.
"Ich sehe eine Parallelität zwischen dem Zustand, in dem sich das Karlsruher Institut für Technologie bei meinem Amtsantritt befand, und der Situation bei Fraunhofer heute."
Was meinen Sie konkret?
Die jetzt zu Recht von allen geforderte Compliance funktioniert nur, wenn die Governance einer Institution sauber aufgestellt ist. Und genau an der Stelle kann ich mit der Erfahrung, die ich anderswo gesammelt habe, meinen vielleicht wichtigsten Beitrag leisten. Ich werde mein Wissen und meine Erfahrung aus den vergangenen Jahren auf die Fraunhofer-Gesellschaft übertragen und hinterfragen: Was haben wir schon? Was fehlt? Das ist eine Aufgabe, auf die ich mich freue, weil sie klar und pragmatisch ist und ehrlich gesagt gar nicht so kompliziert. Man muss sie halt gründlich erledigen. Und dann können wir uns wieder um unser Kerngeschäft kümmern.
Wenn Sie von der anderswo gesammelten Erfahrung sprechen, meinen Sie das KIT, an dem Sie 2013 Präsident wurden?
In der Tat sehe ich eine Parallelität zwischen dem Zustand, in dem sich das KIT damals befand, und der Situation bei Fraunhofer heute.
2013 hatte das KIT gerade seinen Status als Exzellenzuniversität verloren, die Fusion der Universität mit einem Helmholtz-Zentrum steckte in der Krise, die Stimmung war schlecht und das Vertrauen der Mitarbeiter in die Institution gestört. Was fehlte, war ein vergleichbarer Compliance-Skandal.
Aber die institutionelle Governance war auch damals ein Problem. Und aus dieser Parallelität schöpfe ich Mut für meine aktuelle Aufgabe. Es ist mir einmal gelungen, das Ruder herumzureißen. Warum sollte es mir nicht ein zweites Mal gelingen? Der Schlüssel zum Erfolg war und ist aus meiner Sicht der Dialog. Mit den Menschen reden ist das, was ich kann. Und ich glaube, dass man mir zutraut, nach außen und innen aufrichtig zu kommunizieren und ehrlich miteinander umzugehen. Gerade am Anfang werde ich ein hohes Maß an Energie aufs Zuhören verwenden, um zu verstehen, wo die Probleme und Nöte liegen und wie wir gemeinsam zu Lösungen kommen.
"Dialog" und "Transparenz" sind in der Krisenkommunikation viel genutzte und oft missbrauchte Begriffe.
Nicht, wenn die Leute merken, dass sie ehrlich gemeint sind. Ich werde alles ansprechen, alles hinterfragen, mir zu allem erst eine Meinung bilden, wenn ich die der anderen gehört habe. Dialog funktioniert nur auf Augenhöhe – nur wenn ich selbst alles auf den Tisch lege, kann ich die anderen dazu ermutigen, das Gleiche zu tun. Das heißt nicht, dass alles geändert wird oder geändert werden kann. Aber, wo wir alle gemeinsam – und damit meine ich wirklich Fraunhofer als Ganzes – Fraunhofer besser machen können, werden wir nicht zögern, es zu tun. Diese herausragende Institution, deren Präsident ich nun sein darf, hat so viele Stärken, für sie arbeiten so viele engagierte und hochprofessionelle Menschen, es wäre doch gelacht, wenn wir es nicht schafften, uns wieder auf unsere weltweit anerkannte Arbeit zu konzentrieren.
"Wir müssen zur Normalität zurück, wie sie das Gesetz vorgibt: nicht wie die Fürsten speisen, aber es kann auch nicht sein, dass es nur noch Wasser und Salzstangen gibt."
Aus den Fraunhofer-Instituten ist großer Frust zu vernehmen, dass sie jetzt gerade stehen sollen für die mutmaßliche Steuerverschwendung in den Chefetagen. Nach dem Motto: Wir dürfen unseren Gästen nicht einmal mehr Kekse zum Kaffee servieren, weil es in der Zentrale Ärger um vermeintlich überflüssige Dienstfahrten oder angeblich horrende Bewirtungs- und Hotelrechnungen gibt.
Es trifft zu, dass die Fraunhofer-Gesellschaft verschärfte Auflagen im Zuwendungsbescheid durch das Bundesforschungsministerium bekommen hat, wie mit Geschenken, Bewirtungen oder Reisekosten umzugehen ist, deren Rigorosität man zum Teil schon hinterfragen kann. Ich finde, wir müssen auch da zur Normalität zurück, wie sie das Gesetz vorgibt: nicht wie die Fürsten speisen, aber es kann auch nicht sein, dass es nur noch Wasser und Salzstangen gibt. Angesichts der Vorwürfe ist das Pendel zu stark in die entgegengesetzte Richtung ausgeschlagen.
Wenn für Sie eine funktionierende Governance in einer sauberen Rollenverteilung zwischen den Gremien und einer funktionierenden Aufsicht besteht, was bedeutet das für das künftige Verhältnis zwischen Senat, Vorstand und Mitgliederversammlung?
Der Senat kann nicht alles beaufsichtigen, deshalb ist der erste Schritt, seine Kontrollaufgaben genau zu definieren, zu denen sicher zentral die Überprüfung des Wirtschaftsplans gehört. Die Kontrollaufgaben, die der Senat hat, muss er dann professionell erledigen. Dafür muss er aus Menschen bestehen, die die Fähigkeiten und das Wissen haben, die notwendigen Bewertungen vornehmen zu können. Die bereit sind, möglicherweise ein Veto gegen eine Entscheidung des Vorstands einzulegen, wenn es die Aufsicht erzwingt. Genauso muss die Leitungsaufgabe des Vorstandes beschrieben sein, und ich als Präsident muss die Aufgabenverteilung des Vorstands vertreten, und gemeinsam müssen wir die nötigen Kompetenzen aufweisen, um diese zu erledigen. Drittens die Mitgliederversammlung: Ein eingetragener Verein, wie die Fraunhofer-Gesellschaft einer ist, hat weniger gesetzliche Anforderungen in Sachen Transparenz zu erfüllen als zum Beispiel eine Aktiengesellschaft. Darum muss die Mitgliederversammlung es zu ihrer zentralen Aufgabe machen, die Fraunhofer-Satzung so zu überarbeiten, dass sie die im Gesetz fehlenden Regeln, die Rollen- und Mandatsbeschreibungen für eine moderne Governance und Compliance, erfüllt. Das mag alles ein bisschen theoretisch klingen, ist aber grundlegend und muss einmal durchdekliniert werden. Das ist Fleißarbeit und hier und da auch eine Machtfrage.
"Wenn man mehr Macht in das eine Körbchen und weniger ins andere legt, schafft das die nötige institutionelle Balance, mag aber den einen oder anderen aus dem Gleichgewicht bringen."
Nur hier und da?
Macht ist an sich nichts Böses. Man muss nur definieren, wo sie liegt und wo nicht, und dass mit Macht auch immer Verantwortung verbunden ist. Das gilt es möglichst rational zu beschreiben, ohne Rollenbeschreibungen und Menschen zu vermischen. Aber klar: Wenn man mehr Macht in das eine Körbchen und weniger ins andere legt, schafft das hoffentlich die nötige institutionelle Balance, mag aber den einen oder anderen Betroffenen aus dem Gleichgewicht bringen. Macht muss sich aber von der zu erfüllenden Funktion ableiten und nicht von Personen.
Die von Ihnen beschworene Rationalität in Ehren. Aber seien wir ehrlich: Sie als Präsident sind neu, Sie kommen aber in ein System hinein mit vielen Leuten, die sich an dieses System gewöhnt haben – und damit an eine Machtverteilung, die womöglich weniger transparent, aber sehr real ist. Wie wollen Sie die überzeugen, die im Moment die Macht haben – zumal Sie die impliziten Machtstrukturen gar nicht genau kennen?
Wenn man eine Governance neu und transparent festzurrt, heißt das noch lange nicht, dass sich alle Personen dem unterwerfen werden. Darum braucht man Aufsichtsorgane. Vor allem aber braucht es die Hartnäckigkeit, jedem Menschen die immer gleichen Fragen zu stellen. Was tust du? Warum tust du die Dinge so, wie Du sie tust? Wem gegenüber trägst Du für Dein Handeln die Verantwortung? Wer hat dir etwas zu sagen? Wem hast du etwas zu sagen? Und: Ist es so richtig organisiert? All das habe ich am KIT schon einmal durchexerziert. Und aus dieser Erfahrung sage ich: Die meisten Dysfunktionalitäten entstehen nicht durch Vorsatz, nicht aus bösem Willen, sondern sie wachsen historisch und werden dann nicht mehr hinterfragt. Ich bin mir sicher: Ich werde viele Stellen finden, wo die Zuständigkeiten nicht richtig definiert sind und es nur funktioniert, weil die Menschen im Sinne der Sache die organisatorischen Schwächen kompensieren. Bis es dann halt irgendwann nicht mehr funktioniert. Diese ganze Fragerei wird mir sicherlich gerade am Anfang nicht nur Sympathien einbringen, aber für Sympathie werde ich nicht bezahlt. Sondern für Sinnstiftung. Und wenn dieser Sinn zu erkennen ist, folgen dem am Ende die Menschen.
Auch die Menschen, die in einem transparenten System zu den Verlierern zählen?
Ich bestreite, dass irgendwer in einem solchen System verliert. Vielleicht muss man sich neu orientieren, sich neu aufstellen. Aber was ist so schlimm daran? Wenn alles sich verändert, verliert nur der, der stehenbleibt. Und so ist Fraunhofer nicht. Das ist eine agile Gesellschaft, die aus veränderungsbereiten Menschen besteht, die sich an Märkten und ihren Bedürfnissen orientieren. Im Vergleich zu einer klassischen Universität wird es das für mich einfacher machen.
"Ich möchte eine Kultur, in der intern alles zu sagen erlaubt ist, auch das, was sich nicht gut anhört."
Werden Sie auch den Kontakt suchen zu den Whisteblowern innerhalb der Fraunhofer-Gesellschaft, die bislang aus Angst vor den Konsequenzen meist aus der Anonymität heraus agieren mussten?
Ich wünsche mir, dass wir bei Fraunhofer wieder lernen, miteinander zu reden und nicht übereinander. Das heißt: Ob Sie gute Nachrichten haben oder schlechte, bitte kommen Sie zu mir. Ich möchte eine Kultur, in der intern alles zu sagen erlaubt ist, auch das, was sich nicht gut anhört. Nur wenn alles gesagt wird, können wir gemeinsam darüber nachdenken, was zu tun ist. Wenn ich als Präsident Dinge nur um die Ecke erfahre, über irgendwelche Bande, macht das die Sache mit dem Dialog nicht unmöglich, aber schwieriger.
Der Bundesrechnungshof hat kürzlich seinen zweiten Fraunhofer-Bericht in diesem Jahr fertiggestellt. Darin kritisiert er den Umgang mit Rücklagen und die Abwicklung des internen Wettbewerbs zwischen den Fraunhofer-Instituten. Noch mehr Altlasten, mit denen Sie umgehen müssen?
Ich hatte bislang keinen Zugang zu diesem zweiten Bericht. Ich kenne auch nur die von Ihnen erwähnten Buzzwords. Sobald ich den Bericht habe, werde ich die Schlussfolgerungen des Rechnungshofs sehr genau studieren. Was ich schon jetzt und ein bisschen ins Blaue hinein sagen kann: Das Modell von Fraunhofer unterscheidet sich grundlegend von dem, was die Max-Planck-Gesellschaft oder die Helmholtz-Gemeinschaft ausmacht. Bei Fraunhofer ist weniger als ein Drittel des Haushalts durch staatliche Grundmittel finanziert; der Anteil, den die Institute selbst erwirtschaften müssen, ist viel größer. Wir müssen also wie Unternehmer denken und agieren. Dazu gehört, die eigene Liquidität zu sichern für Phasen, in denen die Geschäfte mal nicht so gut laufen. Dass eine solche Logik nur schlecht zur Kameralistik staatlicher Haushalte passt, dass es da immer wieder Spannungen gibt und geben muss, ist offensichtlich. Rücklagen gehören in dieses Spannungsfeld. Ich bin gespannt, was der Rechnungshof an Vorschlägen hat, um hier eine vernünftige Balance herzustellen.
Bevor Sie 2013 ans KIT wechselten, haben Sie selbst ein Fraunhofer-Institut geleitet. Der vom Rechnungshof kritisierte interne Wettbewerb zwischen den Instituten ist Ihnen also nicht fremd.
Einen internen Wettbewerb gibt es nicht nur bei Fraunhofer, er ist der Wissenschaft inhärent. Bei Helmholtz wird er über die Programmorientierte Förderung ausgetragen, mal in Kooperation, mal in Konkurrenz zwischen den Zentren. An den Hochschulen bewerben sich Wissenschaftlerinnen und Wissenschaftler gemeinsam um DFG-Projektgelder und wetteifern zugleich um dieselben Töpfe. Die eine Woche sind sie Begutachtete, die nächste Woche Gutachtende. Diese Formen des Wettbewerbs halte ich für zwingend erforderlich, damit unser Wissenschaftssystem agil bleibt. Das Besondere bei Fraunhofer ist, dass die Institute rechtlich unselbstständig sind. Wenn sie im Wettbewerb besonders erfolgreich sind und Überschüsse erwirtschaften, gehen diese Überschüsse auf die Gemeinschaftsebene. Das muss zwangsläufig begleitet werden von einer anderen internen Verrechnung zugunsten der gut wirtschaftenden Institute, um den Anreiz und die Dynamik zu erhalten. Auch das ist eine Frage der vernünftigen Balance. Hier werde ich mich als Fraunhofer-Präsident dafür einsetzen, bei den Haushältern im Bundestag das nötige Verständnis zu schaffen und gleichzeitig im Dialog mit der Politik Wege zu finden, wie man das jetzige System zugleich bedarfsgerecht und anforderungsorientiert gestalten kann.
"Anstatt immer mehr Leute einzusetzen, die sich
angucken, was alles nicht funktioniert, sollten
wir den Spieß umdrehen und dafür sorgen, dass die Dinge erstmal wieder funktionieren."
Ist Fraunhofer inmitten seiner Modernisierungskrise Sinnbild für ein ganzes Land, dessen Geschäftsmodell nicht mehr funktioniert? Spätestens in der Corona-Zeit zeigte sich, dass die Bundesrepublik ein dramatisches Innovationsproblem hat: eine veraltete Infrastruktur, eine lückenhafte Digitalisierung, eine in Teilen dysfunktionale Verwaltung – und eine Wirtschaft, die sich zu lange auf angestammte Produktlinien verlassen hat.
Ich glaube, es handelt sich eher um eine Krise der Haltung als der Modernisierung.
Was meinen Sie damit?
Ich fange mit dem Positiven an. Ich war am vorvergangenen Wochenende in München und habe aus naheliegenden Gründen eine neue Wohnung gesucht. Da kam ich an einem Schild vorbei, auf dem war ein Hirsch abgebildet, und ich habe erwartet, dass "Nicht füttern" drunter steht. Von wegen. Drauf stand: Wenn Sie die Tiere füttern möchten, denken Sie daran, dass es Pflanzenfresser sind, also bitte pflücken Sie Pflanzen oder nehmen Sie Mohrrüben. Die Bayern haben es irgendwie drauf, habe ich da als Norddeutscher gedacht. Die wissen, wie die Menschen sind, und anstelle von Verboten, die doch keiner einhält, gibt es pragmatische Tipps. Damit bin ich wieder bei der Krise der Modernisierung oder besser der Haltung. Wir müssen wegkommen von diesem Wahnsinn der Überregulierung und immer noch mehr Bürokratie, in den wir hineingeraten sind. Wir müssen als Gesellschaft wieder mehr Zuversicht und Vertrauen in die Menschen haben und ihnen mehr Freiraum geben.
Sagen Sie ausgerechnet nach dem, was gerade bei Fraunhofer passiert ist?
Ich kann da keinen Widerspruch erkennen. Für eine Ermöglichungskultur, die ich meine, brauchen Sie zuerst ein klares Regelwerk, eine in sich stimmige Governance. Wenn ich beides habe, ist zugleich die Zahl der unsinnigen Vorschriften reduziert, dann brauche ich keine Bürokratiemonster, um die Einhaltung der Regeln zu überprüfen. Anstatt immer mehr Leute einzusetzen, die sich angucken, was alles nicht funktioniert, sollten wir den Spieß umdrehen und dafür sorgen, dass die Dinge erstmal wieder funktionieren. Und je besser sie funktionieren, desto transparenter geht es zu, und desto weniger Leute müssen es kontrollieren.
Und die Innovationskrise erledigt sich dann quasi wie von selbst mit? Ist das nicht etwas zu einfach? Bei vielen Technologien hat Deutschland längst den Anschluss verloren, und das gründlich. Da hat auch Fraunhofer wenig dran geändert – das immer noch einen Großteil seiner Lizenzeinnahmen aus einer Innovation der 80er und 90er Jahre bestreitet: des MP3-Standards.
Da bin ich doch deutlich optimistischer als Sie und habe auch einen weiteren Innovationsbegriff. MP3 war vor allem ein Patenterfolg. Aber die Innovation, für die Fraunhofer steht, ist mehr als die wirtschaftliche Verwertung einzelner Technologien. Unser Kerngeschäft ist es, Forschungsaufträge mittelständischer Unternehmen auszuführen, aus denen dann in Form von Gemeinschaftsprojekten neue Erkenntnisse, Anwendungsmöglichkeiten und Produkte entstehen. Wenn Sie sich auf dem Weltmarkt umschauen, könnten Sie auf die Produkte unzähliger Unternehmen "Fraunhofer inside" draufschreiben, das ist unser Kerngeschäft, der Gradmesser unseres Erfolgs. Nur wird der in der politischen Debatte allzu oft auf die Zahl unserer Startups, Spinoffs und Patente verkürzt.
"Unser Ziel muss sein, dass zum Beispiel Batterien nicht irgendwo auf der Welt produziert werden, sondern bei uns in Deutschland, und dass dies dann auch in unserer Gesellschaft wertgeschätzt wird."
Soweit der Werbeblock für Fraunhofer. Eigentlich ging es mir aber um Deutschlands technologischen Rückstand.
Und an der Stelle bin ich ganz bei Ihnen. Wir gehen in Deutschland zu wenig ins Risiko. Wenn ich mir die Zukunftstechnologien anschaue, zum Beispiel die Künstliche Intelligenz, die Robotik oder die Energiespeicherung, dann befinden sich sämtliche Schlüsselspieler außerhalb von Deutschland und, in den meisten Fällen, Europas. Die Batterietechnik ist ein gutes Beispiel. Ob in Ulm oder Münster, bei der Forschung sind wir gut dabei, da gehören wir auch unter Fraunhofer-Beteiligung zur Weltspitze. Aber wir schaffen es nicht, die Forschungsergebnisse in die nächste oder übernächste Generation von Batterien auf den Weltmarkt zu bringen. Unser Ziel muss sein, dass uns genau dieses wieder gelingt: dass diese Batterien nicht irgendwo auf der Welt produziert werden, sondern bei uns in Deutschland, und dass dies dann auch in unserer Gesellschaft wertgeschätzt wird. Genau da kommt es auf uns bei Fraunhofer an.
Was können Sie von der internationalen Konkurrenz lernen?
Nehmen wir das Feld der Künstlichen Intelligenz. Da könnten Sie jetzt auch mit einigem Recht sagen, da sei für uns in Deutschland der Zug abgefahren. Aber ich glaube das nicht. Wir müssen genau hinschauen, was Amazon oder Microsoft erfolgreich macht. Das meiste werden wir nicht nachmachen können, weil die finanziell in ganz anderen Dimensionen unterwegs sind. Aber wir können schauen, wie auch wir die Künstliche Intelligenz nutzen, um zum Beispiel unsere Produktionsprozesse der Analyseverfahren zu verändern. Entscheidend ist, dass wir nicht zur verlängerten Werkbank anderer werden, sondern dass wir uns schleunigst die richtigen Partner in der deutschen und europäischen Industrie suchen. Dass wir uns mit ihnen zusammentun, um neue Technologien entwickeln, die zu unserer Wirtschaft passen und zu neuen Produkten und Wertschöpfungen führen. Keine Sorge, ich bin nicht naiv, ich weiß schon, dass wir aufpassen und hungrig bleiben müssen. Aber wann immer ich ein Fraunhofer-Institut besucht habe in der letzten Zeit, habe ich diesen Hunger in den Augen unserer jungen Wissenschaftlerinnen und Wissenschaftler gesehen.
Der neue Präsident der Max-Planck-Gesellschaft, Patrick Cramer, hat im Interview hier im Blog die Verbesserung der Karrierewege als zentrales Ziel seiner Amtszeit benannt. Nachdem auch Sie gerade die Bedeutung junger Forschender so betont haben, welchen Änderungsbedarf sehen Sie an der Stelle bei Fraunhofer?
Zur Abwechslung mal überhaupt keinen. Wer zu Fraunhofer geht, tut das nicht vorrangig um einer wissenschaftlichen Karriere willen. Wer die anstrebt, ist an den Universitäten oder bei Max Planck besser aufgehoben. Wer zu Fraunhofer geht, den interessiert das Projektgeschäft. Der möchte nah dran sein an den Belangen der Wirtschaft und der Märkte – und dabei möglicherweise eine Promotion mitnehmen. Und über diese Promotion springe ich dann entweder in die Industrie oder übernehme Verantwortung anderswo in der Gesellschaft. Dass ich nach einer Promotion aus der Fraunhofer-Welt hinaus auf eine Postdoc-Stelle wechsle, eine Habilitation anstrebe oder Richtung Juniorprofessur, ist ungewöhnlich und sollte es bleiben.
Zu den Aufgaben eines Fraunhofer-Präsidenten gehört vor allem auch die Lobbyarbeit gegenüber der Politik. Wofür werden Sie sich einsetzen in einer Zeit, in der mit viel zusätzlichem Geld nicht zu rechnen ist und einige sogar die regelmäßigen Aufwüchse für die Forschungsorganisationen in Frage stellen?
Ich fordere nicht mehr Geld. Ich fordere, dass die Politik alles dafür tut, dass wir wieder eine starke und gesunde Wirtschaft bekommen. Politik muss dafür die nötigen Rahmenbedingungen schaffen. Politik kann aber auch, und das ist besonders wichtig, Haltung zeigen, sich öffentlich positionieren. Politik braucht das Selbstbekenntnis zu unserer Wirtschaftskraft und ihrer Bedeutung, sie muss sie fördern und priorisieren. Wenn die Politik das tut, findet auch Fraunhofer seine Rolle als technologieorientierter Ermöglicher unserer wissensbasierten Art zu wirtschaften. Wir haben nichts Anderes als Nation, wir haben keine Rohstoffe, wir können nicht vom Ackerbau leben, wir haben nur unsere Art zu forschen und zu wirtschaften, aber in der waren wir immer richtig gut. Dahin müssen wir wieder zurückkommen.
"Auf meiner Agenda stehen acht Jahre, die traue ich mir zu."
Irgendwelche speziellen Wünsche für Fraunhofer?
Ich halte es für wichtig, dass die Politik sich noch einmal das Zuwendungsrecht ansieht. Wir entsprechen in der Art, wie wir wirtschaften, weniger den anderen Forschungsorganisationen und stärker der Bundesagentur für Sprunginnovationen, die gerade neue Freiheiten in der operativen Verwendung von Steuergeldern erhalten hat. Warum sollten Elemente davon nicht auch für Fraunhofer anwendbar sein?
Nach zehn Jahren verlassen Sie jetzt das KIT, das Sie zurück zum Exzellenzstatus geführt haben. Angesichts der gerade angelaufenen nächsten Runde der Exzellenzstrategie: Wie ungünstig ist der Zeitpunkt Ihres Weggangs für die Karlsruher Erfolgschancen?
Wir Menschen neigen dazu, uns die Welt schönzureden, aber ich glaube tatsächlich, dass der Zeitpunkt für meinen Weggang nicht besser sein könnte. Regulär wäre meine Amtszeit im September 2025 zu Ende gewesen, mitten in der entscheidenden Phase der Exzellenzstrategie. Ein Präsident, dessen Abschied fest- oder dessen Wiederwahl aussteht, hätte dann die Strategie für die nächsten sechs Jahre präsentieren müssen. Sowas kommt bei Gutachtern gar nicht gut an. Insofern ist es nahezu ideal, dass sich das KIT jetzt, zwei Jahre vor Beginn der Begutachtungen, eine neue Präsidentin oder einen neuen Präsidenten suchen kann.
Wie stark schmerzt Sie der Abschied?
Ich habe mehr gelernt, als ich je geglaubt habe, lernen zu können. Ich hatte das Privileg, alle Professorinnen und Professoren zu berufen, ich konnte in alle Wissenschaftsdisziplinen hineinschauen von den Natur- über die Ingenieur- bis hin zu den Geistes- und Sozialwissenschaften. Ich habe so viele neue Facetten für mich erkannt, wie Wissenschaft funktioniert und wie Menschen funktionieren in diesen Wissenschaften. Diese zehn Jahre des Lernens kann mir keiner nehmen, die begleiten mich in die nächste Welt hinein. Ich hatte 2013 das Bild einer Einrichtung vor Augen, das ich umsetzen wollte, und das habe ich meines Erachtens auch getan. Ich bin angetreten mit einem Zehn-Punkte-Plan für zehn Jahre, und diese zehn Punkte sind jetzt abgearbeitet.
Beim KIT war es ein Zehn-Punkte-Plan für zehn Jahre, wie viele Punkte für wie viele Jahre werden es bei Fraunhofer?
Auf meiner Agenda stehen acht Jahre, die traue ich mir zu. Und das kommuniziere ich bewusst schon jetzt so, damit keiner auf die Idee kommt, mich aussitzen zu können. Ich stehe für Veränderung, und diese Veränderung will ich erreichen. Einen neuen Punkteplan braucht es dafür nicht, denn es wäre langweilig, immer genau das Gleiche zu machen. Aber dass ich einen Plan habe, haben Sie hoffentlich gemerkt.
A) Motivation und Problemstellung Der Computer ist heute eines der wichtigsten Hilfsmittel beim Entwurf und der Entwicklung von Fahrzeugen. Zunächst wurde er von Konstrukteuren für das Computer Aided Design (CAD) von virtuellen Fahrzeugmodellen eingesetzt. Inzwischen ist er in vielen anderen Bereichen der Fahrzeugentwicklung unentbehrlich geworden: der Entwicklungszyklus von Automobilen ist durch die Computer-gestützte numerische Simulation substanziell verkürzt worden. An virtuellen Prototypen gewonnene Ergebnisse können zunächst optimiert und anschließend am realen Prototypen validiert werden. Untersuchungen der Fahrdynamik, des Crash-Verhaltens, der Innenraumakustik und der Außenhautumströmung sind nur einige Anwendungsfelder, in denen Computer-basierte Technologien zur Senkung der Entwicklungskosten beitragen. Nach den Vorgaben aus dem Design wird ein Konstruktionsmodell erstellt; die erzeugten CAD-Daten beschreiben die Fahrzeugkomponenten anhand parametrischer Flächen und zusätzlicher Materialinformationen. Um die Daten in numerischen Simulationen verwenden zu können, müssen die Flächenbeschreibungen zunächst diskretisiert werden. Für die Strukturmechaniksimulation wird das CAD-Modell daher in ein Finite-Element-Modell umgewandelt, das dann zum größten Teil aus drei- und viereckigen Schalenelementen besteht. Das Finite-Element-Modell wird in einem Vorverarbeitungsschritt aufbereitet und mit zusätzlichen Daten ergänzt, bevor es dem Simulationsprogramm als Eingabedaten übergeben wird. Nach der meist sehr zeitintensiven Simulation, die für Gesamtfahrzeugmodelle mehrere Tage in Anspruch nehmen kann, liegen als Ergebnis große Datenmengen vor. Diese können aufgrund ihres Umfangs und ihrer Komplexität nur mit ausgereiften Visualisierungswerkzeugen ausgewertet werden. Die Erkenntnisse aus der Simulationsanalyse fließen an den Konstrukteur zurück. So schließt sich der Zyklus, der den virtuellen Prototypen solange iterativ verbessert, bis alle Zielgrößen erreicht werden. Bereits Anfang der achtziger Jahre wurden Strukturanalysen mit Hilfe numerischer Simulation anhand einfacher Balkenmodelle durchgeführt. Die Modellkomplexität geht mit der Leistungssteigerung der Hardware und der Weiterentwicklung der Simulationssoftware einher: die Modellgröße hat sich seitdem alle drei Jahre mehr als verdoppelt. Der Notwendigkeit, dem Entwicklungsingenieur entsprechende Visualisierungswerkzeuge zur Verfügung zu stellen, wurde bisher von den Herstellern der Simulationssoftware mit eigenen Lösungen begegnet. Anfangs entstanden einfache Darstellungsanwendungen, die das Fahrzeug als Gittermodell zeichneten, ohne einen räumlichen Eindruck zu vermitteln; die Applikationen wurden weiterentwickelt, entsprechen jedoch heute in der Regel nicht mehr dem, was im Bereich der Softwareentwicklung und vor allem der Visualisierung Stand der Technik ist. Der Fortschritt durch wissenschaftliche Forschung in der Computergraphik und die Weiterentwicklung der Hardware, insbesondere der Graphiksubsysteme, lässt die Lücke zwischen dem, was in der Visualisierung möglich ist, und dem, was in kommerziellen Produkten zur Datenanalyse angeboten wird, immer größer klaffen. Zudem ist die Wissenschaft im Bereich der angewandten Informatik stets bemüht, Einsatzgebiete zu identifizieren, in denen neu entwickelte Methoden evaluiert und verbessert werden können. Eine enge Zusammenarbeit zwischen Ingenieuren und Wissenschaftlern erscheint daher als sehr vielversprechend und zwingend notwendig. Die vorliegende Arbeit ist im Rahmen einer engen Kooperation mit der Berechnungsabteilung der BMW-Gruppe entstanden. Sie hat zum Ziel, den bestehenden Fahrzeugentwicklungsprozess im Umfeld der Strukturmechaniksimulation zu analysieren und durch Adaption neuer Methoden der Computergraphik aus anderen Bereichen sowie durch Entwicklung neuer Visualisierungstechniken und Interaktionsmechanismen zu beschleunigen. Eine Evaluation der eingesetzten Konzepte soll anhand einer prototypischen Applikation vorgenommen werden. Bisher wurde in der Visualisierung im Bereich der Strukturmechaniksimulation auf Basis von vierseitigen Schalenelementen nur wenig geforscht. Für die Analyse von Crash-Simulationsergebnissen müssen große, zeitabhängige Datensätze effizient verarbeitet werden. Dabei soll die Netzstruktur des Finite-Element-Modells erhalten bleiben, ohne dass dabei auf hohe Interaktionsraten verzichtet werden muss. Eine schnelle Datenaufbereitung spielt dabei eine ebenso wichtige Rolle, wie die Navigation durch das virtuelle dreidimensionale Fahrzeugmodell mit Hilfe der an einem Standardarbeitsplatz vorhandenen Eingabegeräte. Die Weiterentwicklung der Simulationscodes hat es ermöglicht, Teilstrukturen mit Randbedingungen zu versehen, so dass nun Berechnungen an Teilmodellen vorgenommen werden können. In der Karosserieberechnung werden anstatt homogen vernetzter Gesamtmodelle seitdem unabhängig voneinander vernetzte Bauteile zu virtuellen Fahrzeugmodellen zusammengesetzt. Der Netzanschluss benachbarter Bauteile wird nun nicht mehr über das aufwändige Abgleichen und Nutzen gemeinsamer Randknoten hergestellt; stattdessen überlappen die Bauteilnetze in Flanschbereichen, wo sie durch neu entwickelte Verbindungselemente aneinander gebunden werden. Dies hat unter anderem den Vorteil, dass einzelne Bauteile durch Varianten ausgetauscht werden können, ohne dass die Umgebung neu vernetzt werden muss. Wichtige Entscheidungen müssen bereits in der frühen Phase eines Fahrzeugprojektes aufgrund der durch numerische Simulation gewonnenen Erkenntnisse getroffen werden. Das setzt voraus, dass die bis dahin verfügbaren Konstruktionsdaten in rechenbare Simulationsmodelle umgesetzt werden können. Durch die unabhängige Vernetzung einzelner Bauteile und den unterschiedlichen Konstruktionsstand der verschiedenen Fahrzeugkomponenten kommt es nach der Zusammenführung häufig zu Berührungen und Durchdringungen der Bauteilnetze im diskretisierten Finite-Element-Modell. Diese müssen zunächst detektiert und beseitigt werden, da sie ansonsten die Simulationsergebnisse verfälschen würden. Darüber hinaus müssen die Bauteilnetze miteinander durch Verbindungselemente verbunden werden. Da die Konstruktionsdaten in der frühen Phase jedoch keine vollständigen Verbindungsdaten beinhalten, muss der Berechnungsingenieur den Datensatz mit entsprechender Information aufbereiten. Die Vorverarbeitung von Eingabedaten für den Simulationsprozess nimmt angesichts steigender Variantenrechnungen und einer halbwegs automatisierten Standardauswertung der Simulationsergebnisse gegenüber der Nachbearbeitung einen immer höheren Stellenwert ein. Derartige Ergänzungen der Simulationsmodelle mussten bisher mit Hilfe eines Text-Editors direkt an den Eingabedateien vorgenommen werden. Netzfehler und fehlende Anbindungen zwischen Bauteilen konnten lediglich durch Anrechnen des Modells entdeckt werden. Dazu wurde der Simulationsprozess gestartet und nach einiger Zeit wieder abgebrochen. Durch die Analyse der bis dahin berechneten Zwischenergebnisse werden derartige Unzulänglichkeiten des Eingabemodells sichtbar. Vorweggenommene Konsistenzprüfungen machen zeitaufwändige Anrechnungen überflüssig. Weiteres Prozessoptimierungspotenzial liegt in der Integration und Angleichung verschiedener Werkzeuge. Eine enge Kopplung des Simulationsprozesses an die Vor- und Nachbearbeitung der Daten durch ein und dieselbe Applikation, die sowohl Ein- als auch Ausgabedaten verarbeiten kann, schafft die Grundlage für eine schnelle Iteration im Optimierungsprozess und trägt zur angestrebten Reduzierung der vom Ingenieur zu bedienenden Vielzahl von Applikationen bei. In Zeiten fortschreitender Globalisierung und Fusionierung, aber auch durch zunehmendes Outsourcing der Teilmodellerstellung an darauf spezialisierte Dienstleistungsunternehmen steigt der Kommunikationsbedarf über räumliche Grenzen hinweg zusammenarbeitender Entwicklungsteams. Kostenintensive Besprechungen, zu denen sich alle Beteiligten an einem Ort zusammenfinden müssen, können nur durch Verbesserung der bereits vorhandenen Fernkommunikationsinfrastruktur reduziert werden. Da auf die gemeinsame Betrachtung der Modelldaten als Diskussionsgrundlage bei Besprechungen nicht verzichtet werden kann, bietet sich eine netzwerkbasierte Kopplung entfernter Arbeitsplätze an, um kleinere Besprechungstermine durch Telefonate mit zeitgleicher kooperativer Visualisierungssitzung am Arbeitsplatzrechner ersetzen zu können. Ein weiterer Aspekt befasst sich mit der Absicherung der Zuverlässigkeit von Simulationsergebnissen. Um eine Aussage darüber machen zu können, welche Modifikation der Fahrzeugstruktur das simulierte Verhalten positiv beeinflusst hat, müssen zunächst alle Einflussfaktoren, die auf die Simulation wirken, analysiert werden. Dies geschieht in Stabilitätsanalysen, in denen anhand gleicher Eingabedaten die Streuung der Simulationsergebnisse gemessen und die Ursache dafür erforscht wird. Durch konstruktive Maßnahmen soll in Ursprungsbereichen maximaler Streuung das Modell dahingehend modifiziert werden, dass gleiche Eingabedaten zu annähernd gleichen Simulationsresultaten führen. Ziel dieser Arbeit ist, das Pre- und Postprocessing von Strukturmechaniksimulation im Fahrzeugentwicklungsprozess bezüglich neuer Funktionalität und Leistungsfähigkeit durch die Einbeziehung neuer Graphiktechnologien sowie durch die Entwicklung neuer Visualisierungsalgorithmen signifikant voranzubringen. B) Beiträge dieser Arbeit Da die Arbeit in enger Zusammenarbeit mit der Karosserieberechnungsabteilung der BMW-Gruppe entstand und die Forschungsergebnisse direkt von den Ingenieuren an alltäglichen Problemstellungen eingesetzt werden sollten, mussten zunächst Voraussetzungen für eine erhöhte Akzeptanz bei den Anwendern geschaffen werden. Dazu gehören vor allem kurze Ladezeiten der Daten, eine intuitiv zu bedienende Benutzerschnittstelle sowie komfortable Funktionalität, die es ermöglicht, die Aufgaben schneller zu lösen als mit anderen Applikationen. Die Analyse der zu verarbeitenden zeitabhängigen Simulationsdaten und der zum Einlesen zur Verfügung gestellten Bibliothek führte zu einer geeigneten internen Datenstruktur, die eine effiziente Datenaufbereitung erlaubt und damit zu geringeren Start-up-Zeiten führt als bei vielen kommerziell verfügbaren Visualisierungswerkzeugen. Ferner resultiert aus der Evaluation verschiedener Szenengraphbibliotheken unter Berücksichtigung der Rechnerplattform im Anwenderumfeld die Entscheidung zu Cosmo3D / OpenGL Optimizer. Durch die Datenstrukturen und Funktionalitäten der Bibliothek bleibt der Ressourcenbedarf im Zusammenspiel mit einem optimierten Szenengraph-Design im Rahmen dessen, was auf einem Standard-Arbeitsplatzrechner zur Verfügung steht. Zur Beschleunigung der Bildsynthese werden bereits bekannte Verfahren zur Optimierung polygonaler Modelle für die Weiterverarbeitung in der OpenGL Pipeline mit adaptierten Algorithmen verglichen, die unter Berücksichtigung der zugrunde liegenden Daten Quadrilateralstreifen maximaler Länge bilden. Zusätzlich wird der Einsatz verschiedener Detailstufen im CAE-Umfeld untersucht und eine Lösung zur deutlichen Steigerung der Bildwiederholrate während der Navigation durch das Finite-Element-Modell präsentiert. Durch die Entwicklung und Evaluation Textur-basierter Visualisierungsverfahren werden deren Vorzüge anhand verschiedener Beispiele aus dem Berechnungsumfeld verdeutlicht. Daraus lässt sich die Notwendigkeit ableiten, Standard-Arbeitsplatzrechner in Zukunft mit entsprechender Graphik-Hardware auszustatten, um von den Möglichkeiten moderner Visualisierungsalgorithmen profitieren zu können. Im Rahmen der vorliegenden Arbeit wurde die Möglichkeit geschaffen, nach dem interaktiven Zusammenführen der Modellkomponenten aus verschiedenen Datenquellen auftretende Netzfehler zu visualisieren und selektiv zu beheben. Dazu kommen auf hierarchischen Datenstrukturen basierende Algorithmen zum Einsatz. Verbunden mit Methoden zur Darstellung und interaktiven Modifikation von Verbindungselementen sowie der Detektion fehlerhafter Schweißpunktdaten wird die Grundlage geschaffen, um Finite-Element-Modelle für die Crash-Simulation effizient aufzubereiten und die Modellerstellung für Variantenrechnungen stark zu vereinfachen. Speziell auf die Bedürfnisse der Berechnungsingenieure zugeschnittene Interaktions- und Navigationsmechanismen sowie frei bewegliche Clip-Objekte erleichtern den Umgang mit den Modelldaten. Durch die Entwicklung dreidimensionaler Selektionsobjekte und eine effiziente Schnittkraftberechnung steht die Kraftflussvisualisierung mit Hilfe dynamischer Kraftflussröhren nun auch als interaktives Analysewerkzeug im Postprocessing zur Verfügung. Die Berechnung der notwendigen Größen im Batch-Betrieb und die anschließende Zwischenspeicherung in einem eigenen Dateiformat ermöglicht die Standardauswertung von festgelegten Kraftflussverläufen im Anschluss an die Simulation. Dies trägt weiterhin zur Beschleunigung und Automatisierung der Nachverarbeitung bei. Mit der Entwicklung eines Bild- beziehungsweise Filmgenerators konnte mit Ergebnissen dieser Arbeit zur Entwicklung eines Integrationswerkzeuges für die Ablaufsteuerung und das Datenmanagement in der Karosserieberechnung beigetragen werden. Es werden zwei Lösungen für Szenarien einer kooperativen Sitzung mit mehreren Rechnern präsentiert. Die Ergebnisse zeigen auf, wie zeitaufwändige Treffen zwischen Ingenieuren durch Telefonate mit gleichzeitiger kooperativer Visualisierungssitzung ersetzt werden können. Das vorgestellte Verfahren zur Stabilitätsanalyse von Simulationsprozessen hilft, Ursprünge von Instabilitäten aufzudecken und die Aussagekraft der Simulationsergebnisse verbesserter Modelle zu erhöhen. Durch diese Arbeit ist eine prototypische Visualisierungsplattform für die Vor- und Nachbereitung von Strukturmechanikdaten namens crashViewer entstanden. Das objektorientierte Softwaredesign des Prototypen erlaubt die Integration weiterer Datenformate sowie die Implementierung neuer Algorithmen zu deren Evaluation im produktiven Einsatz in der Karosserieberechnung, aber auch in anderen CAE-Bereichen. C) Gliederung der Arbeit Im Folgenden wird ein Überblick über den Aufbau dieser Arbeit gegeben, woraus der Zusammenhang der Kapitel untereinander hervorgeht. Kapitel 2 motiviert die Entwicklung einer in die Simulation integrierten Vor- und Nachverarbeitungsapplikation. Zu Beginn führt das Kapitel in das breite Feld der digitalen Fahrzeugentwicklung ein. Das Umfeld der Crash-Simulation wird detaillierter betrachtet, wodurch ein Fundament für ein besseres Verständnis der darauffolgenden Kapitel geschaffen wird. Kapitel 3 gibt einen Überblick zu den Grundlagen der interaktiven Computergraphik und der Visualisierung. Darüber hinaus werden die der Crash-Simulation zugrunde liegenden Daten beschrieben, indem zunächst die Strukturen, aus denen sich ein Gesamtfahrzeugmodell im Allgemeinen zusammensetzt, erläutert werden und anschließend auf die Datenformate der Simulationseingaben beziehungsweise der Simulationsergebnisse eingegangen wird, um die breite Spanne der zu verarbeitenden Daten zu beleuchten. Kapitel 4 präsentiert ein effizientes Szenengraph-Design für zeitabhängige Finite-Element-Modelle mit invarianter Topologie. Dazu werden die notwendigen Grundlagen der verwendeten Graphikbibliotheken vermittelt und Erweiterungsmöglichkeiten diskutiert. Kapitel 5 erläutert die Architektur des im Rahmen dieser Arbeit entstandenen Prototypen und gibt einen Überblick über entwickelte Interaktionsmechanismen zur effizienten Datenanalyse. Kapitel 6 diskutiert verschiedene Verfahren zur Darstellungsbeschleunigung. Während sich die Quadrilateralstreifengenerierung und die Simplifizierung mit der Optimierung der modellierten Geometrie für eine effiziente Verarbeitung in der Graphik-Hardware auseinandersetzt, zeigt der letzte Teil dieses Kapitels, wie durch den Einsatz von Texturen zusätzliche Geometrieverarbeitung überflüssig wird. Kapitel 7 stellt spezielle Funktionalitäten für die Vorverarbeitung von Eingabemodellen vor. Außer der in verschiedenen Bereichen eingesetzten Distanzvisualisierung wird das interaktive Modifizieren von Schweißpunktdaten und die Parameterübertragung zwischen inkompatiblen Gittern erläutert. Kapitel 8 veranschaulicht Konzepte für die Nachverarbeitung von Simulationsergebnissen. Es werden Techniken zur Visualisierung skalarer und vektorieller Größen präsentiert. Darüber hinaus werden die interaktive Kraftflussvisualisierung und die Darstellung von Instabilitäten in Simulationsergebnissen betrachtet. Die CORBA-basierte Erweiterung zum gemeinschaftlichen Arbeiten räumlich getrennter Anwender, sowie die Batch-basierte Bild- und Film-Generierung von Strukturmechanikdaten schließen die Vorstellung der im Rahmen dieser Arbeit neu entwickelten Methoden ab. Kapitel 9 stellt die Ergebnisse dieser Arbeit in einen Kontext. An Beispielen aus dem produktiven Entwicklungsprozess werden die erzielten Fortschritte verdeutlicht und die Akzeptanz bei den Anwendern kritisch beleuchtet. Abschließend wird ein Überblick über weiterführende Arbeiten gegeben, die auf den vorliegenden Ergebnissen basieren. ; This thesis presents visualization techniques and interaction concepts that have been developed for the pre- and post-processing of structural mechanics. This work was done in cooperation with the crash simulation department of the BMW Group. The automotive industry's main goal is ensuring its share of a global market, which is becoming ever more competitive and dynamic. On the one hand, product quality has to be increased in relation to fuel consumption, weight, and passive safety. On the other hand the development process needs to be streamlined in order to reduce development costs and time to market. These objectives are hoped to be achieved by making extensive use of virtual prototyping. The vehicle development process has completely changed during the past two decades. In the early eighties finite element analysis found its way into the simulation of structural mechanics in the German automotive industry. Initially developed for military purposes, in 1983 a group of engineers of several automotive companies started feasibility studies based on finite element models containing less than 5,000 beam elements. Seven years later productive results of finite element analysis in structural mechanics started to influence car body development. In the second half of the nineties important project decisions were made during the early phase of the development process based on a deeper insight into crash behavior provided by crash-worthiness simulation results. Today, numerical simulation is an indispensable part of the computer aided product development chain in the automotive industry. After the design of a new car model is completed, a digital model is constructed by means of computer aided design (CAD). In a meshing step the created parametric surfaces defined by spline curves are discretized. The results describe the geometry of the car body by finite elements, for crash simulation mainly three- or four-sided shells but also beams and volumetric elements. The finite element model is completed, for example, with material properties, contact information, and boundary conditions. This is done in a preprocessing step. Once the simulation input data is available, the whole model is handed over to the simulation process which takes about one or two days using massive parallel processing. The deformation is recorded in a large result file. Commonly, the first 120 milliseconds of a crash are simulated and each two-thousandth time step is stored. A time step of less than one microsecond leads to a result file containing more than sixty snapshots. Typically, physical data such as acceleration, velocity, displacement, and forces per nodes or thickness, stress, strain, and other energies per element are recorded. During post-processing the information is analyzed in order to evaluate crash-worthiness. The feedback provided for the construction department closes the loop when all goals set for the car body structure have been attained. The virtual car body development in the pre- and post-processing of crash simulation divides into two main phases: (1) In the concept phase, new ideas are discussed and evaluated in order to reach a priority objective like minimizing car body weight. Only few people per car project are involved for a period of 12 to 18 months in this first stage. (2) After the basic decisions have been made regarding new concepts, a second phase follows which compromises all other fields to refine those concepts with respect to other objectives coming from the area of stability, dynamic or NVH. This phase requires many engineers from different departments for a period of more than 30 months to optimize the product. The later undesirable properties are revealed the higher the cost will be for the then necessary changes. Until the late nineties transitions between adjacent car body parts were modeled as two finite element meshes that share common nodes at the border. Each time a car body part was replaced by an optimized variant in order to enhance the crash behavior either the whole car model had to be re-meshed or border nodes had to be adapted manually. Therefore, preparing such variant models was a very time consuming task. After simulation codes like PAM-CRASH were able to simulate car body connections like for example spotwelds, finite element models became more like their counterparts made of steel. Now, a flange is constructed, along which adjacent car body parts can be connected without sharing common nodes. This allows for an independent meshing of car body parts and therefore for more variant computations. However, independent meshing lead to mesh penetration or even perforation in flange areas when inhomogeneous meshes are assembled. Thus, a new task arose for preprocessing where those mesh errors have to be removed in order to avoid error-prone simulation results. On the post-processing side, large time-dependent data sets require dedicated visualization methods that help the engineers to interpret the huge amount of data at interactive frame rates. Therefore, finite element meshes need to be prepared for an optimized processing in the graphics pipeline. Typical types of data that have to be visualized are scalar values, vectors, tensors or any combination thereof. In 1997, when most of the commercial visualization tools provided by solver companies as add-on to the simulation software could no longer provide state-of-the-art graphics, a demand arose for new visualization techniques available for productive use. Besides, the growing throughput caused by an increasing number of car body variants and the acceleration of computation hardware allowing more optimization cycles, made it necessary to automate as much processing steps as possible. The growing outsourcing of development tasks to suppliers and the number of merges in the automotive industry, which entail cooperation of corresponding departments at different sites, require a client-server-solution for cooperative work. Finally, the simulation community is concerned about the validity of their results compared to real crash-tests. It is important to detect and minimize the sources of scattering in the results originated by the simulation model or process. This is also a precondition for stochastic simulation, which is used in order to optimize the crash behavior by varying input parameters. The goal of this thesis is to provide solutions to some of the issues just stated. First of all, the applicability of different scene graph APIs is evaluated for large time-dependent data sets. APIs such as Performer or Cosmo3D / OpenGL Optimizer have been developed to take advantage of multiprocessing. Those APIs can perform model optimization during scene graph creation and benefit from multiprocessing using frustum culling and occlusion culling while traversing the scene graph to increase frame and interaction rates. Because of the large time-dependent databases and the limited memory of the workstations an efficient scene graph design is very important in order to handle the complex data interdependencies and to achieve high rendering speed. While five years ago the models consisted of about 250,000 finite elements with nearly the same number of nodes, today the size of the models has almost quadrupled. Since the element topology does not change in crash simulation, the connectivity of the finite elements needs to be stored just once. An index set representing the topology is shared across the sub-graphs of all time steps. A Gouraud shaded surface requires to do the edge detection on the state where geometry is deformed most, which is in general the last one. In order to minimize memory consumption, the index set is used for both coordinates and normals. Therefore, coordinates at vertices with multiple normals need to be added once per normal. Other scene graph nodes, e.g. the one specifying the appearance, can also be shared. Handling triangular elements as degenerate quadrilaterals allows to represent a mesh of three- and four-sided shell elements in one scene graph node. The prototype application named crashViewer, which was implemented to evaluate the methods developed in this thesis, uses Cosmo3D / OpenGL Optimizer for historical reasons: this bundle had been presented as predecessor of the 1997 announced Fahrenheit project, which was aborted two years later. Nevertheless, the proposed scene graph design allows to visualize 60 time steps of a model containing half a million elements and the same number of nodes with a memory consumption of 360 MB (flat-shaded) or 970 MB (Gouraud-shaded), provided that a crease angle of 20 degree leads to 40% more normals than vertices. One basic requirement for an interactive visualization application is that the frame rate does not fall below an acceptable minimum threshold. What "acceptable" means depends on data and experience with other tools. Generally speaking, visualization data should be rendered as fast as possible. For this reason, one aim of this work is to point out methods to optimize the finite element meshes' rendering acceleration. Two approaches are examined: (1) concatenation of adjacent elements to reduce data redundancy during geometry processing and (2) mesh simplification to remove information that does not significantly influence the shape of a car body part. Although OpenGL Optimizer provides a tri-stripper (opTriStripper) that is able to convert any polygonal mesh into strips of triangles, it is not applicable in this field because the original mesh structure should still be visible in wireframe mode. Hence, a quadrilateral stripper was developed, which analyses the mesh structure and generates many parallel bands of maximum length. As a matter of fact, quad-strips are not as versatile as tri-strips because each turn costs two extra vertices. However, compared to opTriStripper's reduction to 63.5% the proposed bandification algorithm reduces the number of referenced vertices to 54% of an unstripped representation averaged over 3,274 car body parts. Depending on the availability of vertex arrays the bandification leads to a rendering speed-up factor of about 4.5 without and 1.7 with vertex arrays in comparison to the unstripped geometry. In order to achieve even higher frame rates during camera interaction, a two-stage level-of-detail concept is developed. In addition to a fine level displaying the original mesh resolution, which is essential for the visualization in pre- and post-processing of structural mechanics simulation, a second level with coarse triangles is used as intermediate model for camera movement. Each time the user modifies the view, a previously simplified mesh is rendered until the camera parameters are no longer changed. Then the finer level of detail is displayed. An simplification algorithm was implemented which uses the one-sided Hausdorff distance as an error measure and which is compared to the Successive Relaxation Algorithm provided by OpenGL Optimizer as opSRASimplify. Aside from the interface opSRASimplify, which turns out to be unsuitable for getting an optimal decimated mesh with respect to a predetermined error tolerance, the resulting mesh quality is not as high as with the new HECSimplify simplifier. Breaking the error criterion can be avoided by defining an appropriate cost function for opSRASimplify, which causes less triangles to be removed compared to HECSimplify. If the decimation target is specified to achieve the same level of reduction, then the resulting triangle mesh contains gaps and the model appears distorted. Different car body models are reduced to 9-18% of the original number of triangles applying HECSimplify. This leads to a rendering speed-up factor of between 3.4 and 6.7. There is a trade-off between rendering speed and memory consumption. HECSimplify only applies half-edge collapses to the polygonal mesh. These operations just modify the topology, not the vertex coordinates. Therefore, the original and the reduced mesh are able to refer to the same set of coordinates. On the one hand, coordinate set sharing requires less memory, on the other hand the speed-up factor of a model that could be reduced to 9% of the original triangles is far away from 11. Both modules, the quad-stripper and the simplifier, are embedded into the Cosmo3D / OpenGL Optimizer framework by providing corresponding action objects and new scene graph nodes. Furthermore, the scene graph API was extended by several other new objects to overcome the restrictions with line picking or to provide new functionality. For example, the csClipGroup node enables the user to control a freely movable clip-plane, which affects only the underlying scene graph. This provides better insight into heavily deformed car body structures. Another form of clipping that is developed within this thesis uses one-dimensional RGBA texture maps in order to hide geometry that should not be displayed under certain conditions. This visualization method can be used, for example, to mask out those model regions that do not correspond to a given critical value range. In combination with distance values to adjacent car body parts the rendering can be restricted to potential flange regions of the model. For that purpose, first of all the parameter has to be transformed into a texture coordinate with respect to the specified parameter range. Then, a color scale is defined as a texture map. Using the GL_DECAL environment the color coding can be limited to regions of certain value ranges. Using the same mechanism in the GL_MODULATE environment with the alpha-test enabled allows for clipping the geometry where the corresponding values map into texture regions with an alpha component set to be fully transparent. This technique facilitates the accentuation of critical structures, because the user is able to interactively modify the texture map or the texture lookup table, if an index texture is used to control the visualization. As stated above, the most important change in finite element modeling for crash simulation was the introduction of independently meshed car body parts. Since the assembly of such inhomogeneous meshes may include perforations or penetrations, for example, caused by a shifted discretization along curved flanges, there was a growing demand for an interactive method to detect and remove this kind of mesh errors. Perforating regions can be detected by applying collision detection to the finite element model. Efficient collision detection as proposed by Gottschalk et al. requires hierarchical sub-structuring of the car body model. Consequently, in this study, each car body part is subdivided by a bounding volume tree (BVT). Different bounding volume types are tested: spheres, axis-aligned (AABB), and object-oriented bounding boxes (OBB). For perforation detection, where computation-intensive element-element-intersection tests are necessary at the lowest BVT level, OBBs turn out to be most efficient because they are very tight positioned around the element structure. Hence, downward traversals in the BVT can be terminated early because any one of 15 separating axes that defines a plane disjoining both volumes can be found. In order to detect penetrating nodes the minimum node-element-distances need to be computed. The BVT traversal algorithm is adapted appropriately. Children of a BVT node are visited only if their distance falls below a specified maximum distance of interest. Penetrating node-element-pairs are collected in a list for subsequent visualization. Using an interface to the original PAM-CRASH algorithm for penetration removal it is possible to provide the desired interactive mechanism that allows the engineers even to restrict mesh modification to selected car body parts. This is a big advantage over starting the simulation until initial forces move penetrating nodes apart from penetrated elements and restoring the computed mesh modification in the input data deck. First, the interactive method gives direct feedback and the engineers do not have to switch tools. Second, during the optimization of the car body structure by replacing single car body parts by variants this procedure enables the engineers to keep everything but the variant part fixed. Thus, only the nodes of the incoming part are aligned to its neighborhood and the confined modification makes it easier to compare the results of two simulations runs. What is more, the bounding volume hierarchy provides beneficial effects on many other tasks in pre- and post-processing of crash-worthiness simulation. It can be used to detect and follow flanges automatically or to spot flange regions that have only been inadequately connected. A basic task is the verification of connecting elements. For example, a spotweld must not exceed a maximum distance to those parts it should connect. Otherwise, a pending spotweld may suspend the simulation run delaying the development process and raising costs. In this study, several criteria for the validation of connecting elements are elaborated. Erroneous spotweld elements are emphasized by different colors and/or geometry. The engineers are successively guided to each problematic connection. Without this feature it would not be possible to find these model errors in such a short time. Furthermore, a method is developed that enables the computation engineers to effectively add missing connection information by means of spotwelds to the input model. Thus, it becomes even practicable to start with crash-worthiness simulations before detailed connection data is available from CAD data. One aim in virtual vehicle development is to combine the results of several areas in numerical simulation. In order to map the real development chain closely onto the virtual one, material properties influencing preliminary steps like forming have to be considered. For example, a deep-drawn blank sheet has a lower thickness in areas of high curvature than in other areas. As long as the material of a car body in crash simulation is assumed to be constant the before mentioned manufacturing influences cannot be properly represented. A hardware-based method is developed in this thesis for the efficient mapping of any type of data between incompatible meshes that are geometrically congruent. It utilizes the transformation and interpolation capability of the graphics subsystem. Element identifiers of one mesh are color-coded. For each element of the other mesh the view matrix is set up appropriately and the visible part of the first mesh is rendered. The colors that represent the element IDs can be read back into main memory. After the correlation between elements is finished in graphics hardware, the values are finally transfered in software. The post-processing of crash-worthiness simulation results necessitates the handling of large data sets. Since a binary result file may contain 2 GB of data but an engineer's workstation often is limited to 1 GB of main memory these boundary conditions need to be considered while designing data structures and algorithms of visualization software for this application area. On the other hand, interactivity and high rendering performance is a precondition to obtain acceptance by the user. The required tool should provide interaction mechanisms that assist the user in exploring and navigating through the data. Mainly, it should help to interpret the data by making the invisible visible. Besides an effective scene graph design, in this study, the internal data structures of the developed prototype application have been implemented with memory consumption in mind. Parameter transfer in post-processing is done state by state very fast by pointer-based data structures. The extensive use of texture mapping enhances the rendering performance. Visualization techniques are proposed that use textures for the direct mapping of scalar values onto the car body geometry, for the animated display of vector data, and for the visual discretization of the finite element mesh in the form of a wireframe texture map. All these approaches spare the transformation stage of the graphics pipeline additional processing of vertex-based data. For example, the traditional display method for shaded geometry with visible element borders is two-pass rendering, which halves the frame rate. The application of a black-bordered luminance texture, which is white inside, onto each geometric primitive balances the load between geometry and texture unit. Also, the encoding of a vector's direction by applying an animated texture onto a line reduces geometry load and leaves the underlying structure mostly visible in contrast to conventional vector visualization with arrows. Force flux visualization, first presented by Kuschfeldt et al. gives an overview over which components of the car body model absorb or transfer forces. It is necessary to detect and to understand the force progression within the car body structure. For example, the longitudinal structures within the front part of a car body play an important role for increasing the ability of the body to absorb forces in a frontal crash. Force flux visualization enables the engineers to design car components with an optimal crash behavior. This technique was made available for interactive daily use in crash simulation analysis. Providing a dedicated interaction mechanism, the prototype application allows to interactively define a trace-line along which the force flux can be visualized. For each section plane positioned in small intervals perpendicular along the trace-line the simulated node forces are accumulated. The resampling is accelerated by utilization of the bounding volume hierarchy. Each section force sum is then represented by color and radius of one ring of a tube around the trace-line. The dynamic trace-line definition aligns the force tube to the deforming structure of the analyzed car body part, for example, a longitudinal mounting. The specified trace-lines can be stored in order to precompute force tubes off line. This can be done by another prototype application in batch processing after simulation has finished. During a visualization session the precomputed values can be directly converted into time dependent force tube representations. The decoupling of time consuming computation and the interactive visualization further accelerates the analysis of crash-worthiness simulation. Starting multiple simulation runs with the same input data deck will produce different results. The scattering in results has to be minimized in order to be able to evaluate the influence of structure modifications. This work presents a method to detect and visualize instabilities of the simulation. The above stated texture-based visualization points out sources of instability and helps the engineers to determine if a branching is caused by the model structure or if it was originated by the solver. The pros and cons of different measurement functions are discussed. Furthermore, a CORBA-based synchronization of multiple viewers displaying different data sets is presented. This allows to analyze the simulation results of one run in direct comparison to those of other runs. It is very useful to view the differences in crash behavior of multiple car body models on one workstation. Moreover, this functionality can be used in combination with a telephone call to supersede a meeting between a computation engineer and his external supplier. The visualization is done locally on each client. Providing that data and software is available at each participating client, the only data that have to be transferred during a cooperative session are the events triggered at the steering master-client and propagated to one or more slave-clients. A master token decides which participant is able to send generated events to the other instances. This mechanism avoids conflicting camera control when multiple users try to modify their view at the same time. Another approach describes how an image-based client-server model can be used in this context. After a frame has been rendered on the server, it is encoded to reduce the amount of data. The encoded image stream is transferred to any client that is able to decode and display. There are less requirements for the client but the connection needs to provide a certain bandwidth. This scenario can also be used for remote visualization. The prototype crashViewer can be connected to a Java applet running inside a web-browser. Finally, a method for standardized analysis of crash-worthiness simulation is presented. A batch-processing prototype application has been developed to generate digital movies using a predetermined camera path. The contributions of this thesis aim at further acceleration of the virtual vehicle development process, for example, by introducing new interaction mechanisms, making extensive use of hierarchical data structures, using hardware-accelerated visualization techniques, and providing solutions for process automation.
This doctoral thesis examines how European merger control law is applied to the energy sector and to which extent its application may facilitate the liberalisation of the electricity, natural gas and petroleum industries so that only those concentrations will be cleared that honour the principles of the liberalisation directives (IEMD and IGMD ). In its communication on an energy policy for Europe, adopted on 10/01/2007, the Commission emphasized that a real internal European energy market is essential to meet Europe's three energy objectives, i.e. competitiveness to cut costs for citizens and undertakings to foster energy efficiency and investment, sustainability including emissions trading, and security of supply with high standards of public service obligations (Art. 106 TFEU). The EU issued three pre-liberalisation directives since the 1990s. Dissatisfied with the existing monopolistic structures, i.e. in Germany through demarcation and exclusive concession agreements for the supply of electricity and natural gas, which were until 1998 exempted from the cartel prohibition provision (§ 1 GWB), and the prevalence of exclusive rights on the energy markets, the Commission triggered infringement proceedings against four member states under Art. 258 TFEU. The CJEU confirmed that the Commission has the power to abolish monopoly rights under certain circumstances and the rulings had the effect of convincing the member states to enter into negotiations for an opening up of energy markets owing to the internal market energy liberalization directives of 1996 / 1998 / 2003 / 2009 / 2019 (IEMD and IGMD) . The core element of the IEMD and IGMD is to abolish exclusive rights and offer primarily at least large industrial electricity and gas consumers to choose their supplier (market opening for eligible consumers) and to grant negotiated or regulated third party access to transmission and distribution grids so to address natural monopolies. The second liberalization package of 2003 brought a widening of market opening and acceleration of pace of market opening to a greater number of eligible customers (all non-household consumers since July 2004 and all consumers since July 2007) and an increase in the provisions on management and legal unbundling. In parallel, two regulations regulate the access to cross-border electricity infrastructure (interconnectors) and the third party access to gas transmission networks. Two further Directives addressed the security of natural gas and power supply and a third deals with energy end use efficiency and services , a fourth dealt with the promotion of co-generation and a fifths covers marine environmental policy (Marine Strategy Framework Directive in combination with the Hydrocarbons-Licensing Directive ) backed by the public procurement directive in the energy sector. A regulation covers energy statistics. The implementation of the second energy package was slow and the Commission launched infringement proceedings against 5 member states in front of the CJEU (Art. 258, 256 TFEU). The 3rd energy package of 2009 addressed ownership unbundling of key-infrastructure ownership and energy wholesale and retail supply consisting of three regulations and two directives, deals with independent regulators, an agency for the cooperation of energy regulators (ACER) and cross-border cooperation (the European Network for transmission system operators for electricity and gas [ENTSO-E/G] and a regulation on cross-border grid access for electricity and natural gas. Another new regulation deals with market integrity and transparency . Hence, new regulations regulate guidelines on electricity balancing, congestion management, long-term capacity allocation, the code for grid access and transmission system operation . Other regulations address the guidelines for a European cross-border energy infrastructure, which has to be interpreted in the context of European environmental impact assessment law, the submission of data in electricity markets, establish a network code on demand connection , rule on a network code for grid access for direct current transmission systems, define guidelines on electricity transmission system operation, regulate a network code on electricity emergency , deal with security of natural gas supply and establish a programme to aid economic recovery by granting financial assistance. Finally, Directives promote the usage of renewable energies, regulate common oil stocks, the safety of offshore oil and gas production and the quality of petrol and diesel fuels. The 4th liberalization package consists of a new IEMD2019 and IGMD2019, of a new regulation on European cross-border electricity trade, of a regulation on risk preparedness in the electricity sector, of a new agency for the cooperation of European energy regulators, addresses energy efficiency and rules on good governance in the energy union. Since 2008, the Art. 194 I-II TFEU governs the ordinary legislation procedure in the energy sector (internal market in energy, security of energy supply, energy efficiency, energy saving, renewable energies, interconnection of energy grids) notwithstanding of unanimous decision making in case of energy taxation matters (Art. 194 III TFEU). A brief analysis of the economic implications of concentrations is followed by an assessment of the evolution of European merger control law under Art. 66 ECSCT, Art. 101 and 102 TFEU, the merger control regulation of 1989 and its significant amendments of 1997 and 2004. Then, the theoretical findings are contrasted to the results of recent merger proceedings in the energy sector with a focus on the VEBA/VIAG decision. Several deficiencies are established which limit the efficacy of merger control as a tool of offsetting shortcomings in the secondary EC law with regard to the liberalisation of the electricity and gas supply industry (IEMD and IGMD). Commitments proposed by the parties of a given concentration and accepted by the Commission as being sufficient to remedy a serious potential of dominance may only be of subsidiary relevance to the liberalisation of sectors owing to a number of analytical and practical drawbacks. One dominant drawback relates to the fact that the commitments depend always on parties' proposals and can never be imposed ex officio. Others relate to the blunt authorisations provided by the wording of Art. 6 and 8 MR1997 and MR2004 as to the implementation of undertakings. With regard to acquisitions of U.K. regional electricity companies by EdF, it is elaborated that the current merger control law leaves no scope for reciprocity considerations regarding acquisitions by incumbent companies in liberalised markets even though the acquirer is a protected public undertaking. Moreover, it is established that different decisions apply inconsistent market definitions. By means of the VEBA/VIAG and RWE/VEW cases, the question is addressed which causes are responsible for the established analytical and practical deficiencies of merger control in the energy sector. It is stated that the weaknesses of the IEMD 2009/72/EC and IGMD 2009/73/EC are partly responsible for weak undertakings which do not sufficiently remove the scope for dominance on the affected markets and which do not rule out any possibility of impediments of effective negotiated or regulated TPA and do not remove any commercial incentive of the grid subsidiaries of the vertically integrated companies as to access which discriminates between intra and extra group applicants. It is reported that another argument relates to the limited scope that the Commission has if it wants to remedy deficiencies of written primary law owing to the extraordinary nature of the implied powers doctrine based on the principle of constitutional state. Adverse political influence against competition authorities is also judged. Further, it is analysed that accidental regulation based on incidental provisions imposed on undertakings which may or not implement a concentration is by no means a consistent and non-discriminatory and predictable tool to overcome drawbacks of primary or secondary European law in a given sector owing to the democratic principle and the constitutional state doctrine. It is discussed that secondary legislation with regard to energy networks is inter alia restricted by Art. 345 TFEU and provisions of national constitutions which protect property rights against dis-proportionate expropriations or re-definitions of property. Further, legal authorisations of said calibre will have to be connected to a system of state liability law. Adverse political pressures are considered. The same is true for egoistic national policies which abstain from transnational task forces in order to settle difficulties and disputes. Furthermore, the adverse effect of different stages of the maturity of domestic markets, different consumer patterns and a potential isolation of the system is not neglected, because these conditions make it more difficult to apply consistent standards as to the appropriate market definition in order to facilitate harmonisation. The implementation of the VEBA/VIAG merger is discussed, as the former was further complicated owing to specifically evaluated circumstances which were difficult to predict. Nevertheless, the Commission is not exempted from the duty to take due care concerning potential impediments as to the realisation of parties' commitments. In contrast to the negative aspects, it can be highlighted that the Commission quickly realised flaws of the energy liberalisation project as expressed by the present form of the IEMD and IGMD. Consequently, the co-ordinative and innovative mechanisms of Florence and Madrid were created in order to boost the development of effective cross border trade - i.e. tariff systems and interconnector congestion management. It will be concluded that undertakings put forward by the parties and accepted by the Commission should be restricted to a subsidiary legal instrument, only applied if strictly necessary to overcome certain detrimental aspects of given concentrations in order to provide a hint for the legislator, to specify its legislation. Competition as a de-central distributor of risk, wealth and power will be extended to its maximum extent, if wholesale consumers benefit from lower energy prices which allow greater productivity of European products on the world markets in combination with higher environmental standards owing to modern, cost-efficient plants. A successful implementation will be described by liquid spot markets for power accompanied by tools of financial risk management like forwards, futures and options. These will be valuable indicators of efficient liberalisation of the European electricity and gas supply industries. ; Diese Doktorarbeit untersucht wie das Europäische Fusionskontrollverfahrensrecht auf den Energiesektor angewendet wird und in welchem Ausmaß seine Anwendung die Liberalisierung der Elektrizitäts-, Gas- und Erdölmärkte unterstützt, so dass nur solche Unternehmenszusammenschlüsse freigegeben wurden, die die Prinzipien der Liberalisierungsrechtsakte (Binnenmarktstromrichtlinie und Binnenmarktsgasrichtlinie). In ihrer Mitteilung über eine Energiepolitik für Europa, angenommen am 10.01.2007, betonte die Kommission, dass ein realer Energiebinnenmarkt essentiell ist, um Europas drei Energieziele zu erreichen, d.h. Wettbewerbsfähigkeit, um Kosten für Bürger und Unternehmen zu senken, um Energieeffizienz und Investitionen zu fördern, und Nachhaltigkeit, darin eingeschlossen ein Emissionshandel, und Energieversorgungssicherheit mit hohen Standards von öffentlichen Dienstleistungspflichten (Art. 106 AEUV). Die EU erließ drei Prä-Liberalisierungsrechtsakte seit den 1990er Jahren . Unzufrieden mit den existierenden monopolartigen Strukturen, d.h. in Deutschland durch Demarkationsverträge und ausschließliche Konzessionsverträge für die Versorgung von Strom und Erdgas, die bis 1998 vom allgemeinen Kartellverbot ausgenommen waren (§ 1 GWB), und die Vorherrschaft von ausschließlichen Rechten auf den Energiemärkten, löste die Kommission Vertragsverletzungsverfahren gegen vier Mitgliedstaaten gemäß Art. 258 AEUV . Der Gerichtshof bestätigte, dass die Kommission das Recht hat, ausschließliche Rechte unter gewissen Bedingungen abzuschaffen, und die Urteile hatten den Effekt, die Mitgliedstaaten zu überzeugen, in Verhandlungen für eine Marktöffnung der Energiemärkte gemäß den Energiebinnenmarktrichtlinien von 1996, 1998, 2003, 2009 und 2019 einzutreten (Strombinnenmarktrichtlinie und Gasbinnenmarktrichtlinie). Das Kernelement der Strombinnenmarktrichtlinie und Gasbinnenmarktsrichtlinie ist es, ausschließliche Rechte abzuschaffen und primär zumindest großen industriellen Strom und Gasverbrauchern das Recht einzuräumen, ihren Versorger frei zu wählen (Marktöffnung für auswählbare Verbraucher) und einen verhandelten oder regulierten Drittparteizugang zu Übertragungsnetzen und Verteilungsnetzen zu gewähren, um natürliche Monopole zu regulieren. Das zweite Liberalisierungspaket von 2003 brachte eine erweiterte Marktöffnung und Beschleunigung der Geschwindigkeit der Marktöffnung zu einer größeren Zahl von auswählbaren Verbrauchern (alle Nicht-Haushaltskunden seit Juli 2004 und alle Konsumenten ab Juli 2007) und eine Ausweitung der Vorschrift über Management- und rechtliche Entflechtung . Parallel dazu regeln zwei Verordnungen den Zugang zu grenzüberschreitenden Elektrizitätsinfrastrukturen (Interkonnektoren) und den Drittparteizugang zu Gas Übertragungsnetzwerken. Zwei weitere Richtlinien adressieren die Versorgungssicherheit von Erdgas und Strom und eine dritte behandelt die Energieendnutzungseffizienz und Dienstleistungen , eine vierte Richtlinie beschäftigte sich mit der Förderung von Kraft-Wärme-Kopplung und eine fünfte deckt Meeresumweltschutzpolitik ab (Marine Strategie Rahmenrichtlinie in Verbindung mit der Kohlenwasserstoff-Lizensierungsrichtlinie, verstärkt durch die Richtlinie über das öffentliche Auftragswesen im Energiesektor. Eine Verordnung behandelt Energiestatistiken. Die Umsetzung des zweiten Energiepakets war langsam und die Kommission leitete Vertragsverletzungsverfahren gegen 5 Mitgliedstaaten ein beim Europäischen Gerichtshof (Art. 258, 256 TFEU). Das dritte Energiepaket von 2009 adressierte die eigentumsrechtliche Entflechtung von Schlüssel-Infrastrukturen und die Energiegroßhandelsversorgung und die Kleinkundenenergieversorgung bestehend aus drei Verordnungen und zwei Richtlinien, beschäftigt sich mit unabhängigen Energieregulierungsbehörden, einer Agentur für die Zusammenarbeit von Energieregulierungsbehörden (ACER) und der grenzüberschreitenden Kooperation (das Europäische Netzwerk für Übertragungsnetzwerkoperatoren für Strom und Gas [ENTSO-E/G] und eine Verordnung über grenzüberschreitenden Netzzugang für Strom und Erdgas . Eine andere Verordnung behandelt die Marktintegrität und Transparenz. Außerdem regulieren neue Verordnungen Grundzüge der Strom-Balancierung, Verstopfungsmanagement, langfristige Kapazitätszuweisung, den Kodex für den Netzzugang und die Operation des Übertragungsnetzes. Andere Verordnungen regulieren die Grundsätze für eine europäische grenzüberschreitende Energie-Infrastruktur, welche im Kontext des europäischen Umweltverträglichkeitsprüfungsrechts interpretiert werden muss, die Einreichung von Daten über Strommärkte, etablieren einen Netzwerkkodex über Nachfrageverbindung, regeln einen Netzwerkkodex für den Netzzugang für Gleichstromübertragungssysteme, definieren Richtlinien über Stromübertragungssystemoperation, regulieren einen Netzwerkkodex über Stromversorgungsnotfälle, behandeln Erdgasversorgungssicherheit und etablieren ein Programm, um der ökonomischen Wiederherstellung zu helfen, indem finanzielle Hilfen gewährt werden. Schließlich fördern Richtlinien die Nutzung von erneuerbaren Energien, regulieren gemeinsame Erdölvorräte, die Sicherheit der Hochsee Erdöl- und Erdgasproduktion und die Qualität von Benzin und Diesel Kraftstoffen. Das vierte Liberalisierungspaket besteht aus einer neuen Strombinnenmarktrichtlinie 2019 und einer Erdgasbinnenmarktrichtlinie 2019, aus einer neuen Verordnung über europäischen grenzüberschreitenden Stromhandel, aus einer Verordnung übrer Risikovorbereitung im Stromsektor, aus einer neuen Agentur für die Zusammenarbeit der Europäischen Energie-Regulatoren, adressiert Energieeffizienz und regelt die gute Geschäftsführung in der Energieunion. Seit 2008 regelt Art. 194 I-II AUEV das ordentliche Gesetzgebungsverfahren im Energiesektor (Binnenmarkt für Energie, Energieversorgungssicherheit, Energieeffzienz, Energieeinsparung, erneuerbare Energien und die Interkonnektion von Energienetzen) unabhängig vom einstimmigen Entscheiden im Bereich von Energiebesteuerungen (Art. 194 III AEUV). Eine kurze Analyse der wirtschaftlichen Implikation von Unternehmenszusammenschlüssen folgt die Untersuchung der Evolution des Europäischen Fusionskontrollverfahrensrechts gemäß dem ehemaligen Art. 66 EGKSV, Art. 101 and 102 AEUV, der Fusionskontrollverfahrensverordnung von 1989 und ihrer signifikanten Änderungen von 1997 und 2004. Dann werden die theoretischen Ergebnisse den Resultaten der Fusionskontrollverfahren im Energiesektor gegenübergestellt mit einem Schwerpunkt auf der VEBA/VIAG Entscheidung. Mehrere Schwachstellen werden herausgestellt, welche die Effektivität der Fusionskontrolle im Energiesektor herausstellen, die die Effektivität der Fusionskontrolle als ein Werkzeug zum Ausgleich der Schwachstellen im Sekundärrecht der EU mit Bezug auf die Liberalisierung der Strom- und Erdgasversorgungsindustrien mindern (Elektrizitätsbinnenmarktrichtlinie und Erdgasbinnenmarktrichtlinie). Verpflichtungszusagen auf Vorschlag der Partien eines Unternehmenszusammenschlusses, die von der Kommission angenommen worden sind, um hinreichend zu sein, um ein seriöses Potential von Marktbeherrschung zu adressieren können nur auf hilfsweise Relevanz zur Liberalisierung on Wirtschaftssektoren dienen gemäß einer Anzahl von analytischen und praktischen Nachteilen. Ein relevanter Nachteil bezieht sich auf das Faktum, dass die Verpflichtungszusagen der Parteien immer auf den Parteivorschlägen fußen und dass sie niemals ex officio auferlegt werden können. Andere Nachteile beziehen sich auf die grobe Autorisierung der Kommission, wie sie nahegelegt wird durch den Wortlaut von Art. 6 and 8 Fusionskontrollverordnung 1997 und 2004 bezogen auf die Umsetzung von Nebenbestimmungen. Mit Bezug auf die Akquisition von regionalen Stromunternehmen im Vereinigten Königreich durch EdF wird herausgearbeitet, dass das gegenwärtige Fusionskontrollverfahrensrecht keinen Ansatz für Reziprozitätserwägungen lässt mit Bezug auf Akquisitionen durch amtierende Unternehmen in liberalisierten Märkten, auch wenn der Erwerber eine geschützte öffentliche Unternehmung ist. Außerdem wird herausgearbeitet, dass unterschiedliche Entscheidungen inkonsistente Marktdefinitionen herausarbeitet. Durch die VEBA/VIAG and RWE/VEW Entscheidungen wird die Frage beantwortet, welche Ursachen verantwortlich sind für die etablierten analytischen und praktischen Nachteile der Fusionskontrolle im Energiesektor. Es wird herausgestellt, dass die Schwächen der Elektrizitätsbinnenmarktrichtlinie 2009/72/EG und der Erdgasbinnenmarktrichtlinie 2009/73/EG zu gewissen Anteilen verantwortlich sind für schwache Nebenbestimmungen, die nicht hinreichend den Anwendungsbereich für Marktbeherrschung auf den betroffenen Märkten eliminieren und die nicht jedwede Möglichkeit von Erschwernissen des verhandelten oder regulierten Drittparteizugangs zu Infrastrukturen ausschließen und welche nicht den kommerziellen Anreiz der Netztochtergesellschaften der vertikal integrierten Unternehmen entfernen, zu unterscheiden zwischen Intra- und Extra-Gruppen Netzzugangspetenten. Es wird geschildert, dass sich ein anderes Argument auf den limitierten Anwendungsbereich bezieht, dass die Kommission, wenn sie es möchte, um Nachteile zu adressieren des primären Gemeinschaftsrechts gemäß der außergewöhnlichen Natur der impIizierten Befugnisse Doktrin basieren auf dem Prinzip des Rechtsstaates. Gegenteilige politische Einflussnahme gegen Wettbewerbsbehörden wird außerdem untersucht. Darüber hinaus wird analysiert, dass akzidentielle Regulierung basierend auf Nebenbestimmungen, die vielleicht oder nicht einen Unternehmenszusammenschluss implementieren unter keinem Gesichtspunkt ein konsistentes und vorhersehbares Werkzeug ist, um Nachteile des primären oder sekundären Europäischen Rechts in einem gegebenen Sektor zu überwinden gemäß dem Demokratieprinzip und dem Rechtsstaatsprinzip. Es wird diskutiert, dass sekundäre europäische Rechtssetzung mit Bezug auf Energienetzwerke unter anderem durch Art. 345 AEUV begrenzt wird und dass Vorschriften nationaler Verfassungen, die Eigentumsrechte garantieren, gegen die unverhältnismäßige Enteignung oder Inhalts- und Schrankenbestimmungen des Eigentum schützen . Darüber hinaus werden rechtliche Ermächtigungen des besagten Kalibers gewürdigt und mit einem System von Staatsverantwortlichkeitsrecht verbunden. Gegenteilige politische Drücke wurden erwogen. Das gleiche trifft zu für egoistische nationale Politiken, die von nationalen Taskforces Abstand nehmen, um Schwierigkeiten und Streitigkeiten zu adressieren. Außerdem wird der gegenteilige Effekt von unterschiedlichen Phasen der Reife häuslicher Märkte, unterschiedlichem Verbraucherverhalten und einer möglichen Isolation des Systems untersucht und nicht vernachlässigt, weil diese Bedingungen es schwieriger machen, konsistente Standards mit Bezug auf die sachgerechte Marktdefinition anzuwenden, um die Harmonisierung zu erleichtern. Die Einflüsse der VEBA/VIAG Fusion wird diskutiert, weil diese Entscheidung weiter erschwert war und kompliziert wurde durch spezielle ausgewertete Umstände, die schwierig vorherzusehen waren. Dennoch war die Kommission nicht befreit von der Verpflichtung, um notwendige Sorgfalt anzuwenden bezogen auf potentielle Erschwernisse bezogen auf die Realisierung der Verpflichtungszusagen der Parteien. Im Gegensatz zu den negativen Aspekten kann herausgestellt werden, dass die Kommission schnell Schwachstellen des Enerigeliberalisierungsprojektes erkannt hat, wie es durch die gegenwärtige Form der Elektrizitätsbinnenmarktrichtlinie und der Erdgasbinnenmarktrichtlinie geprägt wird. Konsequenterweise wurden die koordinierenden und innovativen Mechanismen der Foren von Florenz und Madrid geschaffen, um die Entwicklung effektiven grenzüberschreitenden Energiehandels voranzutreiben, d.h. Tarifsysteme und Interkonnektorenverstopfungsmanagements. Es wird der Schluss gezogen, dass Unternehmen, vorangetrieben durch die Parteien und angenommen durch die Kommission, davon ausgenommen wurden sollen, ein subsidiäres rechtliches Instrument zu begrenzen, um gewisse schädliche Aspekte einer gegebenen Unternehmenskonzentration zu überwinden, um für einen Hinweis and den Gesetzgeber zu sorgen, seine Gesetzgebung zu spezifizieren. Wettbewerb als ein dezentrales Verfahren zur Verteilung von Risiko, Wohlstand und Macht wird ausgedehnt zu seinem maximalen Ertrag, wenn Großhandelsverbraucher von geringeren Energiepreisen profitieren, die eine gesteigerte Produktivität Europäischer Produkte auf den Weltmärkten bewirken in Kombination mit höheren Umweltstandards durch den Einsatz moderner, kosteneffzienter Produktionsstätten. Eine erfolgreiche Implementierung wird beschrieben durch liquide Spot-Märkte für Energie, begleitet durch Werkzeuge des finanziellen Risikomanagements wie Forward-Derivate, Future-Derivate und Optionen. Diese wurden wertvolle Indikatoren einer effizienten Liberalisierung der Europäischen Elektrizitäts- und Erdgasversorgungsindustrien sein.
Die Inhalte der verlinkten Blogs und Blog Beiträge unterliegen in vielen Fällen keiner redaktionellen Kontrolle.
Warnung zur Verfügbarkeit
Eine dauerhafte Verfügbarkeit ist nicht garantiert und liegt vollumfänglich in den Händen der Blogbetreiber:innen. Bitte erstellen Sie sich selbständig eine Kopie falls Sie einen Blog Beitrag zitieren möchten.
Ob durch Spiegel im All, künstlich erzeugte Wolken oder Partikel in der Stratosphäre, die technischen Möglichkeiten, Einfluss auf das Klima zu nehmen, scheinen in einer Welt, die zunehmend mit den Auswirkungen des Klimawandels konfrontiert wird, grenzenlos (vgl. Deutschlandfunk 2023).Geoengineering steht für den Versuch, gegen die steigenden Temperaturen und CO₂-Emissionen anzukämpfen und das Klimasystem der Erde zu beeinflussen. Während die wissenschaftliche Erforschung dieser Technologien immer weiter fortschreitet, rückt auch die politische Machbarkeit solcher Eingriffe in den Fokus von internationalen Debatten und politischen Agenden. Doch was ist solares Geoengineering und wie funktioniert es, welche politischen Risiken birgt es und wie umsetzbar erscheint dieses Vorhaben derzeit? Diesen Fragen will die folgende Arbeit nachgehen.Zunächst soll Geoengineering im allgemeinen und solares Geoengineering im besonderen dargestellt werden. Neben der Vorstellung verschiedener Konzepte des solaren Geoengineerings soll auch die technologische Machbarkeit dargestellt werden. Der nächste Abschnitt beschäftigt sich mit der politischen Seite des solaren Geoengineerings. Die politischen Risiken sollen thematisiert werden. Zudem sollen Probleme der Umsetzbarkeit im politischen Rahmen anhand von Spieltheorien erläutert werden und das Dilemma des moralischen Risikos, das sich am solaren Geoengineering zeigt, dargestellt werden.GeoengineeringFür den Begriff des Geoengineering existiert in der Wissenschaft bislang keine allgemeingültige Definition (vgl. Wagner 2023, S. 11). Eine in der Literatur verbreitete Definition stammt von der britischen Royal Society. Demnach umfasst Geoengineering bewusste und zielgerichtete – meist in großem Maßstab durchgeführte – Eingriffe in das Klimasystem mit dem Ziel, die anthropogene Klimaerwärmung abzumildern (vgl. Royal Society 2009, S. 1).Auch in der Definition des Weltklimarats (Intergovernmental Panel on Climate Change – kurz IPCC) werden unter Geoengineering technologische Maßnahmen verstanden, die darauf abzielen, das Klimasystem zu stabilisieren, indem sie direkt in die Energiebilanz der Erde eingreifen und dadurch das Ziel verfolgen, die globale Erwärmung zu verringern (vgl. IPCC 2007).Laut dem Klimaökonom Gernot Wagner ist die Begriffsverwendung von Geoengineering, wie sie auch in diesen Definitionen verwendet wird, zu vage. Es handelt sich nach ihm um eine menschengemachte Bezeichnung, die durch seine häufige Verwendung im öffentlichen Diskurs entstanden ist und häufig als Überbegriff für zwei sich stark unterscheidende Konzepte verwendet wird (vgl. Wagner 2023, S. 11). Grundlegend werden die Maßnahmen des Geoengineering in zwei Kategorien untergliedert:Maßnahmen zur Kohlenstoffdioxidentfernung: Unter diese Maßnahmen fallen Technologien, die das Ziel haben, dem Kohlenstoffkreislauf der Atmosphäre CO2 zu entziehen und dieses dauerhaft zu speichern. Diese Maßnahmen werden auch als Kohlenstoffentnahme oder im englischen Sprachgebrauch als Carbon Dioxid Removal (CDR), Carbon Geoengineering oder Direct air capture bezeichnet (vgl. Wagner 2023, S. 12).Maßnahmen zur Beeinflussung des Strahlenhaushalts: Diese Maßnahmen werden auch unter solarem Geoengineering, solar radiation management (SRM), Strahlungsmanagement, solar radiation modification oder als albedo modification bezeichnet. Gemeint sind damit Methoden, die einen umfassenden und gezielten Eingriff zur Abkühlung der Erde vorsehen und damit die Atmosphäre in Bodennähe abkühlen sollen (vgl. Wagner 2023, S. 11).Da in dieser Seminararbeit das solare Geoengineering im Fokus steht, soll im nachfolgenden Kapitel genauer auf die verschiedenen Ansätze des solaren Geoengineerings eingegangen werden.Solares GeoengineeringDas solare Geoengineering setzt am Klimasystem der Erde an. Die Sonne spielt in diesem System den Motor. Während ein Teil des Sonnenlichts direkt über Wolken, Bestandteile der Luft oder der Erdoberfläche reflektiert und an den Weltraum zurückgegeben wird, wird der andere Teil der Strahlung durch die Atmosphäre und den Erdboden in Wärmestrahlung umgewandelt (vgl. Umweltbundesamt 2011, S. 9). Ein Teil dieser Wärmestrahlung bleibt aufgrund bestimmter Gase in der Atmosphäre und erwärmt die Erde, sodass Leben überhaupt möglich ist, hierbei spricht man vom natürlichen Treibhauseffekt. Der andere Teil der Wärmestrahlung wird an den Weltraum abgegeben (vgl. Deutscher Wetterdienst 2023). Wird nun durch bestimmte Faktoren, wie zu viel anthropogen verursachte Treibhausgase, die Atmosphäre zusätzlich erwärmt, spricht man vom Klimawandel (vgl. ebd.).Solares Geoengineering kann nun an verschiedenen Punkten des Klimasystems ansetzen, um die Temperatur der Atmosphäre zu senken. Zum einen an der reflektierten Solarstrahlung durch eine Veränderung der Erdoberfläche oder der Wolken, an der abgegebenen Wärmestrahlung durch den atmosphärischen Gehalt an Treibhausgasen und Aerosolen sowie durch Installationen im Weltraum (Umweltbundesamt 2011, S. 9). Die verschiedenen Konzepte des solaren Geoengineerings sollen nachfolgend kurz vorgestellt und hinsichtlich ihrer Umsetzbarkeit eingeordnet werden.Änderung der Albedo von OberflächenKonzepte, die sich die Änderung der Albedo von Oberflächen zunutze machen, setzen auf die Reflektion der einfallenden Sonnenstrahlen von Oberflächen. Je nach Farbe und Beschaffenheit von Oberflächen und Körpern werden einfallende Sonnenstrahlen unterschiedlich stark reflektiert (vgl. Umweltbundesamt 2011, S. 12). Das Verhältnis der Strahlung, die auf einem Objekt ankommt, und dem, was zurückgeworfen wird, wird als Albedo bezeichnet. Es ist daher ein Maß für das Rückstrahlungsvermögen von Objekten. Während dunkle Flächen, wie zum Beispiel Ozeane ein niedrigeres Rückstrahlungsvermögen und damit eine niedrige Albedo aufweisen, besitzen helle Oberflächen ein hohes Rückstrahlungsvermögen und damit eine hohe Albedo, die dazu führt, dass die Temperatur sinkt und die an den Weltraum abgegebene Wärmestrahlung verringert wird (vgl. ebd.).Um die Albedo von Oberflächen zu erhöhen, wird beispielhaft für diese Art des solaren Geoengineerings vorgeschlagen, Dächer, Straßen und Gehwege weiß zu streichen, rückstrahlungsstarke Pflanzen in der Landwirtschaft einzusetzen, Wüstenregionen mit reflektierenden Planen zu bedecken oder die Ozeane durch schwimmende reflektierende Gegenstände aufzuhellen (vgl. Umweltbundesamt 2011, S. 12).Auch wenn das Streichen von ganzen Städten eine niederschwellige Art des solaren Geoengineerings darstellt, würde diese Vorgehensweise nur bedingt einen Beitrag zur Reduktion der Temperatur leisten (vgl. Umweltbundesamt 2011, S. 12). Zudem dürfte der Einsatz von reflektierenden Feldfrucht- und Grünlandsorten ebenso scheitern, da enorme Flächen benötigt werden würden und große Monokulturen entstehen könnten (vgl. ebd. S. 13). Und auch der Vorschlag, die Ozeane mit schwimmenden Gegenständen aufzuhellen, ist kritisch zu betrachten und steht im Widerspruch zu anderen Umweltzielen wie der Vermeidung von Müll in den Meeren. Zudem würde die Funktion der Meere eingeschränkt und ein Ökosystem der Erde vom Licht abgeschnitten werden, wodurch die Nebenwirkungen auf den Menschen nur bedingt planbar wären (vgl. ebd.).Erhöhung der Albedo von WolkenDamit Wolken entstehen können, werden neben der passenden Temperatur und Luftfeuchtigkeit kleine Partikel wie Sandkörner, Salzkristalle oder Staub benötigt. Sie bilden die sogenannten Kondensationskerne, an denen das Wasser kondensieren kann, wodurch sich kleine Tröpfchen bilden. Der Gehalt dieser Wassertröpfchen bestimmt die Reflektionseigenschaft einer Wolke und somit ihre Albedo. Kleine Tröpfchen werfen das Sonnenlicht stärker zurück und führen zu einer längeren Lebensdauer der Wolken und zu dem gewünschten Abkühlungseffekt (vgl. Umweltbundesamt 2011, S. 13 f.). Anwendbar wäre dieses Konzept in Küstenregionen, indem durch Flugzeuge oder Schiffe vermehrt Kondensationskerne ausgebracht werden, um niedrige Wolken über den Ozeanen zu generieren (vgl. ebd.).Technisch ist dieses Konzept umsetzbar, die Einsatzorte könnten gewechselt und der Einsatz auch kurzfristig gestoppt werden. Bei großen Flächen sind die Auswirkungen auf Windsysteme, Meeresströmungen und Niederschläge sowie Folgen für Meeresorganismen jedoch noch unklar. Daher ist die weitere Erforschung dieser Thematik nötig (vgl. Umweltbundesamt 2011, S. 14).Installationen im erdnahen WeltraumDiese Konzepte setzen an der einstrahlenden Sonnenenergie in erdnahen Umlaufbahnen an und sollen die ankommende Sonnenstrahlung auf der Erde reduzieren. Als Ideen für diese Art des solaren Geoengineering kursieren beispielsweise das Anbringen eines reflektierenden Materials zwischen Erde und Sonne, an der ein Riesenspiegel, ein Aluminiumgeflecht oder eine Vielzahl an reflektierenden Scheiben installiert werden könnte. Auch das Anbringen eines Saturn-ähnlichen Rings aus Staubpartikeln wird in diesem Kontext diskutiert (vgl. Umweltbundesamt 2011, S. 16).Diese Konzepte klingen wenig realistisch und schwer umsetzbar. Es würden je nach Verfahren immense Mengen an Material benötigt werden und hohe Materialkosten bergen. Des Weiteren ist unklar, wie genau und wo solche Konstruktionen im Weltraum angebracht werden könnten. Zudem wäre durch spiegelnde Objekte im Weltraum die solare Einstrahlung nicht gleichmäßig verteilt, was dazu führen könnte, dass sich die atmosphärische und ozeanische Zirkulation verändern würde (vgl. Umweltbundesamt 2011, S. 16).Ausbringung stratosphärischer AerosoleDurch Vulkanausbrüche konnte nachgewiesen werden, dass in der Stratosphäre durch geringere Austauschprozesse von Luftmassen Ascheteilchen und Schwefelverbindungen Monate bis Jahre verweilen können und dadurch weniger Sonnenlicht zur Erdoberfläche gelangt und das Klima der Erde um 0,1 bis 0,2 °C gemindert wird (vgl. Umweltbundesamt 2011, S. 14). Diese Erkenntnisse sollen im Sinne des solaren Geoengineering angewendet werden, indem zum Beispiel über Wetterballons oder spezielle Flugzeuge Schwefelverbindungen in die Stratosphäre freigesetzt werden. Diese oxidieren dort zu Sulfatpartikeln, die die Sonnenstrahlung streuen und damit das an der Erdoberfläche einfallende Sonnenlicht reduzieren könnten (vgl. ebd. S. 15).Diese Art des solaren Geoengineerings wird wohl derzeit am häufigsten diskutiert. Aus technischer Sicht lässt sich die Ausbringung von Aerosolen einfach ermöglichen. Dieses Konzept des Geoengineering ist im Vergleich zu anderen Methoden eher kostengünstig und könnte schon mit einstelligen Milliarden-Dollar-Beträgen pro Jahr realisiert werden (vgl. Wagner 2023, S. 15). Jedoch überwiegen weitere Risiken als die bloße technische Umsetzbarkeit, die im Abschnitt der politischen Risiken für diese Art des solaren Geoengineering ausführlicher erläutert werden.Solares Geoengineering als politisches ThemaBevor man sich mit der politischen Umsetzbarkeit von solarem Geoengineering befassen kann, muss darauf eingegangen werden, wie solares Geoengineering derzeit in der Klimapolitik thematisiert wird. Da es sich beim Klima um ein gemeinschaftliches Gut handelt und der Klimawandel keinen Stopp vor Grenzen macht, wird die Klimapolitik auch als sogenannte "Querschnittsaufgabe" bezeichnet. Nicht ein Akteur allein kann diese politische Aufgabe lösen. Im Feld der Klimapolitik sind Prozesse der vertikalen und horizontalen Politikintegration sowie die Einbindung verschiedener Akteure beinhaltet. So ist die deutsche Klimapolitik in zwischenstaatliche und völkerrechtliche Abkommen der internationalen Klimapolitik integriert (vgl. Roelfes 2022).Teil dieser Struktur sind die Berichte des Weltklimarats, das Pariser Klimaabkommen oder die Convention on Biological Diversitiy der UNO, die wichtige Grundlagen für politische Entscheidungen der Länder zum Klimaschutz bilden. Daher soll vorgestellt werden, inwieweit das solare Geoengineering in diesen Debatten thematisiert wird.Solares Geoengineering in Berichten des IPCCDer IPCC oder auch Weltklimarat veröffentlicht in seinen Sachstandberichten zusammengefasst den aktuellen Stand der Klimaforschung, bewertet diesen und bereitet ihn für die Politik auf. Dadurch nimmt die zwischenstaatliche Organisation der Vereinten Nationen Einfluss, inwieweit ein Thema in der Politik behandelt wird und welche Maßnahmen zur Bekämpfung des Klimawandels eingesetzt werden, ohne direkte Handlungsempfehlungen abzugeben. Stattdessen sind Bewertungsmodelle in den Veröffentlichungen integriert, die verschiedene Klimaszenarien beinhalten (vgl. Wittstock 2023, S. 40).Im fünften Sachstandsbericht des IPCC werden Methoden des Geoengineering erstmals bei einem Migrationsszenarium aufgeführt. Da nur in wenigen Szenarien die Emissionsreduktion allein die Erderwärmung auf 2 °C begrenzen könnte. Soziale und politische Aspekte wurden bei den Modellierungen jedoch nicht berücksichtigt (vgl. Wittstock 2023, S. 41). Vermehrt wird auf die Methode des Carbon Dioxid Removals eingegangen, aber auch das Solar Radiation Management wird thematisiert. Insgesamt befürwortet der IPCC nicht direkt die Methoden des Geoengineering, sondern empfiehlt die weitere Erforschung dieser Technologien auf technologischer und sozialwissenschaftlicher Ebene (vgl. ebd. S. 42).Solares Geoengineering im Pariser KlimaabkommenIn den politischen Debatten des Pariser Abkommens von 2015 und den Texten des Abkommens wurden Methoden des solaren Geoengineerings nicht diskutiert. Dennoch kamen nach der Ratifizierung des Abkommens Methoden des Geoengineering vermehrt ins Gespräch. Das angestrebte Ziel, die Erderwärmung auf 1,5 °C zu begrenzen, ist nach Klimaforscher*innen nur mit Unterstützung des Geoengineering möglich (vgl. Wittstock 2023, S. 44 f.).Solares Geoengineering in der Convention on Biological DiversityAuch im Rahmen der Convention on Biological Diversity wurde das solare Geoengineering weitreichend diskutiert. Der Schwerpunkt der multilateralen Diskussion beim Thema Geoengineering liegt in diesem Übereinkommen. Im Jahr 2010 wurde für Geoengineering im allgemeinen auf der Grundlage des Vorsorgeprinzips sowie ökologischer und sozialer Bedenken eine Vereinbarung aufgeschoben (vgl. Heinrich Böll Stiftung 2018, S. 5).Zusammenfassend lässt sich also festhalten, dass solares Geoengineering in den politischen Debatten Einzug hält und diskutiert wird, jedoch derzeit keine Strukturen zu finden sind, die den Einsatz erlauben. Mit Vereinbarungen und Einigungen in den Diskussionen kann derzeit nicht gerechnet werden.Risiken des solaren GeoengineeringsWie bei der Beschreibung der einzelnen Konzepte des solaren Geoengineering deutlich wurde, handelt es sich je nach Konzept um realistischere oder weniger realistische Vorhaben, Einfluss auf das Klima der Erde zu nehmen. Während Konzepte, welche Installationen im Weltraums vorsehen und sehr hohe Kosten mit sich brächten, weniger diskutiert werden, wird die Ausbringung von stratosphärischen Aerosolen weit häufiger in politischen Debatten diskutiert. Doch gerade diese Art des solaren Geoengineering birgt politische Risiken, auf die nun eingegangen werden soll.Immer wieder wird diskutiert, inwieweit das solare Geoengineering durch Aerosole Einfluss auf das regionale Klima und damit auf die Landwirtschaft von bestimmten Ländern hat (vgl. Wagner 2023, S. 46). Während starke Kritiker wie die Klimawissenschaftler Alan Robock und David Keith es für möglich halten, dass es durch den falschen und leichtsinnigen Einsatz zu regionalen Klimaanomalien kommen kann, die im schlimmsten Fall die Nahrungsversorgung von Milliarden Menschen bedrohen und damit zu einem politischen Problem ausufern (vgl. ebd. S. 57), äußern neuere umfassendere Analysen weniger Bedenken bezüglich des sich verändernden regionalen Klimas, da es sich um ein komplexes System handelt.Es wird davon ausgegangen, dass der Effekt des solaren Geoengineering nicht nur eine geringere Oberflächentemperatur der Erde nach sich zieht, sondern auch Temperaturextreme reduzieren kann und dadurch die Verdunstung von Wasser reduziert wird. Dadurch zeigt sich, dass die Welt durch solares Geoengineering eher wie eine Welt ohne Klimawandel aussieht und große Hungersnöte aufgrund von ausbleibendem Regen eher unwahrscheinlich sind (vgl. ebd. S. 58).Ein weiteres politisches Risiko besteht im Ozonabbau. Während in den vergangenen Jahren durch die politische Reglementierung von Fluorchlorkohlenwasserstoff das Ozonloch zum Schrumpfen gebracht wurde, führen Sulfat-basierte stratosphärische Aerosole durch ihren Säuregehalt zu einer Reduktion des Ozons in der Atmosphäre, wodurch die Erholung des Ozonlochs verlangsamt wird (vgl. Wagner 2023, S. 63). Zwar wurde in Forschungsgruppen auch mit einer Alternative für Sulfat-Aerosole experimentiert, doch diese Studien sind noch am Anfang. Generell ist nicht gewiss, wie solares Geoengineering den Erholungsprozess beeinflussen kann (vgl. ebd. S. 65).Während erneuerbare Energien, wozu auch Solarenergie gehört, durch die Politik stark gefördert werden, kann durch die Dimmung des solaren Geoengineerings der Solarertrag reduziert werden. Photovoltaikanlagen können zwar auch mit dem diffusen Licht, das durch solares Geoengineering entsteht, Strom erzeugen, aber wie genau sich die Reduktion des Sonnenlichts auf die Energiegewinnung auswirkt, ist unklar (vgl. Wagner 2023, S. 69).Ein weiteres Problem, das sich vor allem auf der politischen Ebene zeigt und hohe Bedenken gegenüber solarem Geoengineering erzeugt, bezieht sich auf eine schnellere und nicht genau vorhersehbare Erwärmung bei einem Aussetzen der Maßnahmen. Solares Geoengineering könnte eine Angriffsfläche für Anschläge sein. Aber auch Naturkatastrophen oder rasche politische Veränderungen können Grund zur Sorge wecken (vgl. Wagner 2023, S. 71).Würde die globale Durchschnittstemperatur gesenkt und der Einsatz des solaren Geoengineering abrupt beendet werden, könnte dies zu einem "termination shock" führen. Die Temperaturen könnten nach oben schellen, ohne dass eine Anpassung der Umwelt möglich wäre. Zudem besteht auch die Gefahr, dass trotz langwieriger wissenschaftlicher Forschung unvorhergesehene Probleme auftauchen könnten, die solch einen "termination shock" heraufbeschwören könnten (vgl. ebd. S. 72).Mit diesen Risiken hängen auch die Bedenken zusammen, dass es kein sofortiges Zurück gibt. Wenn einmal mit der Ausbringung von Aerosolen begonnen wurde, ist ein Abbruch nur sehr langsam möglich (vgl. Wagner 2023, S. 72). Um die Maßnahmen zu stoppen, kann nur stufenweise vorgegangen werden. Da sich Aerosole 12 bis 18 Monaten in der Stratosphäre befinden, können diese nicht innerhalb eines Tages entfernt werden (vgl. Wagner 2023, S. 72).Ein weiteres Risiko betrifft die Steuerung des Vorgehens. Mechanismen wie menschliches Versagen stellen dabei eine besondere Gefahr dar (vgl. Wagner 2023, S. 73). Solares Geoengineering birgt viele Gefahren, die übersehen werden könnten. So kann das Ziel, den Ausstoß von Kohlenstoffdioxid zu reduzieren, durch den leichtsinnigen Einsatz von solarem Geoengineering umgangen werden (vgl. ebd.).Kommerzielle und militärische Kontrollen stellen ein weiteres Risiko dar. Im Prozess der Ermöglichung von solarem Geoengineering sieht Wagner eine Vielzahl an Unternehmen bei jeder Lieferkette beteiligt (vgl. Wagner 2023, S. 74). Militärische Kontrollen sind in solch einem Bereich besonders besorgniserregend und könnten anderen Ländern falsche Signale vermitteln und auch die Kontrolle des solaren Geoengineerings durch die Verteilung von Patenten wäre nach Wagner kritisch zu sehen (vgl. ebd.).Einen weiteren wichtigen Aspekt stellt ein möglicher Konflikt mit bereits bestehenden Abkommen dar. Das geltende Umweltkriegsabkommen ENMOD verbietet die militärische und feindselige Nutzung umweltverändernder Techniken, verbietet derzeit jedoch nicht die Forschung am solaren Geoengineering und würde im Falle eines bestehenden globalen Steuerungssystems auch nicht die Durchführung von solarem Geoengineering verbieten (vgl. Wagner 2023, S. 74).Dieses Problem führt auch zu einer der riskantesten Unklarheiten des solaren Geoengineering und zu der Frage, wer solares Geoengineering kontrollieren soll und wem diese moralische Autorität obliegt? Bislang gibt es keine global greifende Governance-Struktur, der sich alle Menschen der Erde anschließen würden und die solche Entscheidungen treffen könnte, und solch eine zu gründen, erscheint derzeit unmöglich (vgl. Wagner 2023, S. 75).Und nicht zuletzt besteht ein erhebliches Risiko im Bereich der unvorhergesehenen Konsequenzen. Derzeit geht es noch vor allem um die Erforschung der Technologien des solaren Geoengineering. Größere Risiken und Unsicherheiten sprechen eher für einen erhöhten Forschungsbedarf. Man weiß nicht alles und kann womöglich in diesem Bereich nie alles wissen, solange solares Geoengineering nicht tatsächlich eingesetzt wird (vgl. Wagner 2023, S. 82).Probleme der Umsetzbarkeit des solaren GeoengineeringNeben den Risiken, die solares Geoengineering mit Aerosolen birgt, zeigen sich auch auf der Ebene der Umsetzbarkeit weitere Probleme. Nach Gernot Wagner kommen beim solaren Geoengineering zwei spieltheoretische Phänomene zu tragen, die auf die Umsetzbarkeit Einfluss nehmen und damit das Entscheidungsverhalten beeinflussen. Zum einen der Free-Driver-Effekt sowie das Gefangenendilemma (vgl. Wagner 2023, S. 33).In der Spieltheorie geht es um strategische Entscheidungssituationen. Es werden Situationen untersucht, in denen das Ergebnis nicht von einer Partei allein bestimmt werden kann, sondern nur von mehreren gemeinsam. Die Handlungen des*der Einzelnen wirken sich immer auf das Ergebnis der*des Anderen aus (vgl. Gabler Wirtschaftslexikon 2023).Free-Driver-ProblemBeim Klimawandel kommt die "Tragik der Allmende" zum Tragen. Während im Mittelalter die Dorfwiese, auf der jede*r Dorfbewohner*in sein*ihr Vieh weiden lassen konnte, auf Kosten der Allgemeinheit verwüstet wurde, lässt sich dieses Szenario heutzutage auf die Nutzung der Atmosphäre als Senke für anthropogen verursachte Treibhausgase übertragen (vgl. Forschungsinformationssystem 2023). Während die Vorteile der Emissionen privatisiert sind, trägt die Allgemeinheit die Kosten der Verschmutzung und muss Lösungen für den Klimawandel finden (vgl. Wagner 2023, S. 22).In der Klimapolitik wirkt sich auf spieltheoretischer Ebene das "free-rider-problem" oder auch Trittbrettfahrerproblem darauf aus, warum wenige Länder hohe Maßnahmen gegen den Klimawandel ergreifen. Für ein einzelnes Land liegt es nicht im Eigeninteresse, als Erster die Kosten für die CO₂-Minderung zu tragen. Wenn alle anderen so weitermachen wie bisher, hätte es keine Vorteile für das Land, mehr zu tun als die anderen. Was dazu führt, dass die Motivation, strenge Maßnahmen für eine CO₂-Reduktion zu ergreifen, sehr gering ist und nicht umgesetzt wird (vgl. Wagner 2023, S. 22).Anders als beim Trittbrettfahrerproblem, bei dem es nicht im Eigeninteresse des*der Einzelnen liegt, als Erste*r die Kosten für eine CO₂-Minderung zu tragen, und damit eine Tatenlosigkeit einhergeht, führt beim Free-Driver-Problem eine zu hohe Handlungsbereitschaft zu einem Problem (vgl. Wagner 2023, S. 23). Aufgrund der geringen Kosten für die Umsetzbarkeit des solaren Geoengineering durch Aerosole stellt solares Geoengineering ein mächtiges Werkzeug dar, dass Staaten dazu veranlassen kann, "Gott" zu spielen (vgl. ebd.). Daher könnte es zu einem zu schnellen Einsatz und damit einhergehend einer schnellen Umsetzbarkeit von solarem Geoengineering kommen. Die Risiken und Ungewissheiten mindern diesen Effekt gerade noch ab (vgl. Wagner 2023, S. 28).GefangenendilemmaAuch das Gefangenendilemma kommt bei der Frage nach der Umsetzung von solarem Geoengineering zum Tragen. Das Dilemma beruht auf der Unvorhersehbarkeit des Verhaltens der*des anderen Spielers*in und kennzeichnet eine Situation, bei der sich zwei rational denkende Individuen selbstsüchtig verhalten und einander verraten, obwohl es für beide besser wäre, an einem Strang zu ziehen (vgl. Wagner 2023, S. 33).Anhand einer 2x2-Matrix stellt Wagner die Klimapolitik anschaulich dar. Das Ziel beider Länder ist, die CO₂-Emissionen zu reduzieren. Dabei ergibt sich die Möglichkeit, dies durch eine hohe Minderung der Emissionen zu verfolgen und es damit durch einen ambitionierten Klimaschutz zu tun, oder durch eine niedrige oder langsame Minderung der Emissionen. Wenn sich nicht beide Länder auf die hohe Minderung einigen, wird immer die niedrige Minderung gewinnen, was bedeutet, dass das schwächste Glied über den Ausgang der Situation entscheidet (vgl. ebd. S. 34). Dieses Szenario verdeutlicht auch, warum es so schwierig ist, eine hohe Emissionsreduzierung zu verwirklichen. Wenn andere Länder wenig im Hinblick auf den Klimaschutz tun, bietet das keine Anreize für ein anderes Land, sich stärker für den Klimaschutz einzusetzen (vgl. ebd.).Kommt zu dieser vorgestellten Matrix nun noch die Option des solaren Geoengineering hinzu, die durch ihre schnelle und (relativ) günstig Umsetzbarkeit überzeugt, würde solares Geoengineering an Stelle der Reduktion von CO₂-Emissionen kommen und das eigentliche Ziel, die Emissionen zu reduzieren, könnte verfehlt werden (vgl. Wagner 2023, S. 35).Wichtig bei diesem spieltheoretischen Ansatz ist auch die Rangfolge, die ein Land aus den Komponenten des solarem Geoengineering, hoher CO₂-Minderung und niedriger CO₂-Minderung aufstellt. Wenn ein Land ein großes Interesse verfolgt, das Klima zu schützen, und sich einer hohen Minderung der Emissionen verschreibt, gibt es zwei Optionen, an welchem Rangplatz solares Geoengineering angeordnet wird. Entweder als erste Option, mit der Reihenfolge solares Geoengineering vor hoher Minimierung der Emissionen und an dritter Stelle die langsame Minimierung der Emissionen. Diese Reihenfolge führt dazu, dass solares Geoengineering auf Kosten anderer Klimaschutzmaßnahmen durchgesetzt wird. Bei einer anderen Möglichkeit, die die Einordnung der hohen Minimierung der Emissionen in der Rangfolge vor solarem Geoengineering und als letzte Option die niedrige Minimierung des CO₂s platziert, bleibt das Hauptziel, die Emissionen zu senken, bestehen (vgl. Wagner 2023, S. 36).Hinzu kommt im spieltheoretischen Rahmen, dass das endgültige Ergebnis auch davon abhängt, an welcher Stelle in der Rangfolge ein anderes Land solares Geoengineering verortet. So könnte solares Geoengineering auch an Platz drei der Rangfolge anderer Länder stehen. Je nachdem, an welcher Stelle es verortet wird, setzt sich in der Matrix ein anderes Szenario durch (vgl. Wagner 2023, S. 37).Es zeigt sich also, dass es sich bei den spieltheoretischen Überlegungen um ein komplexes Zusammenspiel von den verschiedenen Spielparteien und ihren Ansichten zum Klimaschutz handelt. Die bloße Verfügbarkeit von solarem Geoengineering kann aufgrund seiner Risiken auch zur Verschärfung der Umweltpolitik führen. Inwieweit solares Geoengineering durch den vernünftigen Einsatz einen positiven Effekt auf das Klima und den Planeten haben kann, bleibt immer noch unklar (vgl. Wagner 2023, S. 41).Moralisches Risiko des solaren GeoengineeringIm Zusammenhang mit dem solaren Geoengineering steht immer wieder der Begriff des moralischen Risikos - auch "moral hazard" genannt. Definitorisch wird moralisches Risiko beschrieben als "den fehlenden Anreiz, sich vor Risiken zu schützen, wenn man vor den Folgen geschützt ist" (Wagner 2023, S. 131). In der Anwendung gibt es ein breites Gebiet, auf dem das moralische Risiko wirken kann. Ein bekanntes Beispiel ist die Krankenversicherung oder das Anlegen eines Sicherheitsgurts beim Autofahren. Das bloße Anlegen kann zu riskantem Verhalten durch schnelleres Fahren führen. Denn der Sicherheitsgurt macht schnelles Fahren scheinbar sicherer (vgl. Wagner 2023, S. 131).Im Zusammenhang mit dem solaren Geoengineering besteht die Sorge darin, dass der Einsatz von solarem Geoengineering zu einem Anstieg der Kohlenstoffdioxid-Emissionen führen könnte und klimaschädliche Mechanismen weiter ausgebaut werden (vgl. Wagner 2023, S. 132). Gernot Wagner beschreibt das moralische Risiko, welches beim solaren Geoengineering zum Tragen kommt, auch als "grünes moralisches Risiko". Darunter versteht er "den fehlenden Anreiz, tiefgehende, komplexe Umweltprobleme anzugehen, weil die Möglichkeit einer schnellen technologischen Lösung, z.B. Geoengineering, besteht" (Wagner 2023, S. 133).Diese Bedenken stammen laut Wagner vor allem aus dem linken Umweltschutz und kritisieren, dass technologische Lösungen allein nicht weit genug gehen und die grundlegenden Ziele verfehlen. Befürchtet wird auch, dass komplexe gesellschaftliche Veränderungen umgangen werden könnten (vgl. Wagner 2023, S. 133). Kritisiert wird in diesem Zusammenhang auch, dass sich bei solarem Geoengineering eine "Technofix"-Mentalität zeigt, die darauf vertraut, dass soziale und ökologische Probleme mit technologischem Fortschritt zu lösen seien. An den zugrundeliegenden Ursachen und Treibern des Klimawandels wird nicht gearbeitet und Nebeneffekte sowie Risiken verlagert (vgl. Schneider 2020).Bei diesen Diskussionen muss man jedoch beachten, dass die gerade eingesetzten Interventionen, CO2-Emissionen zu reduzieren, um den Klimawandel zu bekämpfen, zu wenig greifen und die aktuellen politischen Debatten dazu führen, dass solares Geoengineering als eine Maßnahme im Kampf gegen den Klimawandel diskutiert wird (vgl. Wagner 2023, S. 141).Wichtig in diesem Zusammenhang ist auch, ob solares Geoengineering das erste oder das letzte Mittel gegen den Klimawandel ist. Wenn solares Geoengineering die beste Lösung darstellt, liegt es nach Wagner auch nahe, dass ein Verzicht auf fossile Brennstoffe unvorstellbar erscheint (vgl. Wagner 2023, S. 141). Andere, vielleicht auch schwierigere und teurere Maßnahmen gegen den Klimawandel erscheinen dabei überflüssig und das grüne moralische Risiko wird beschworen (vgl. ebd.).Wird solares Geoengineering als letzte Rettung angesehen, könnte es jedoch auch nicht den gewünschten Effekt erzielen. Denn wenn die erhofften Erwartungen nicht erfüllt werden, gibt es keine weitere Lösung. Daher kann solares Geoengineering nicht als alleinige Lösung für dieses komplexe Problem angesehen werden und das moralische Risiko schwingt in allen Entscheidungen für und gegen solares Geoengineering mit (vgl. ebd.).FazitDiese Seminararbeit wollte der Frage nachgehen, ob sich das solare Geoengineering als Maßnahme gegen den Klimawandel eignet. Aus Sicht der aktuellen politischen Lage, die in internationalen Abkommen eingebettet ist, in denen der Umgang mit solarem Geoengineering noch nicht hinreichend geregelt ist beziehungsweise eine Einigung immer wieder verschoben wird und kein rechtlicher Rahmen über die Nutzung von solarem Geoengineering besteht, verschiedene Risiken und Probleme sowohl auf technischer als auch auf sozialer Ebene konstatiert werden, zeigt sich, dass solares Geoengineering derzeit noch kein geeignetes Mittel im Kampf gegen den Klimawandel darstellt.Auch wenn sich solares Geoengineering in Form der Ausbringung von Aerosolen technisch und mit verhältnismäßig geringen Kosten umsetzen lassen würde, birgt es noch auf zu vielen Ebenen Risiken. Erschreckend sind vor allem die unvorhersehbaren Folgen, die nicht einschätzbar sind und die erst durch eine tatsächliche Anwendung auftreten können, sowie die Gefahr eines termination shocks. Gerade auf politischer Ebene, auf der Strukturen für einen Einsatz noch fehlen, würde ein verfrühter Einsatz vor allem Konflikte schüren und einem Spiel mit dem Feuer gleichkommen.Auch eine Klimapolitik, die solares Geoengineering vor das Ziel stellt, die CO₂-Emissionen signifikant zu senken, geht in die falsche Richtung. Solares Geoengineering kann in Zukunft als sinnvoller Zusatz gegen den Klimawandel und nicht als Lösung des eigentlichen Problems dienen.Bis solares Geoengineering durch Aerosole tatsächlich umsetzbar ist, bedarf es weiterer Forschung, nicht nur auf technischer, sondern auch auf sozialwissenschaftlicher Ebene, sowie geeigneter globaler Governance-Strukturen, die solch ein Vorgehen mit globalen Auswirkungen rechtfertigen können. Denn letztendlich stellt sich die Frage, ob und wer das Klima überhaupt beeinflussen will und darf. Und dazu sollte solares Geoengineering im öffentlichen Diskurs thematisiert und in einem transparenten und partizipativen Prozess in der Öffentlichkeit ausgehandelt werden, damit solares Geoengineering als technische Möglichkeit in der Zukunft eingesetzt werden kann.LiteraturDer Deutsche Wetterdienst (2023): Klimawandel – ein Überblick (dwd online) <https://www.dwd.de/DE/klimaumwelt/klimawandel/klimawandel_node.html> (26.12.2023).Deutschlandfunk (2023): Können wir nicht einfach die Sonne verdunkeln? (Deutschlandfunk vom 15.02.2023) <https://www.deutschlandfunk.de/geoengineering-klimawandel-100.html> (23.12.2023).Forschungsinformatiossystem (2023): Beispiel: Die "Tragik der Allmende" (Forschungsinformationssystem.de vom 14.07.2023) <https://www.forschungsinformationssystem.de/servlet/is/328924/> (07.01.2024).Gabler Wirtschaftslexikon (2023): Spieltheorie (wirtschaftslexikon.gabler.de) <https://wirtschaftslexikon.gabler.de/definition/spieltheorie-46576#:~:text=Definition%3A%20Was%20ist%20%22Spieltheorie%22,von%20den%20Aktionen%20anderer%20abhängt> (08.01.2024). Heinrich Böll Stiftung (2018): Ein zivilgesellschaftliches Briefing zur Governance von Geoengineering. Dem Geo-Sturm standhalten (boell.de) <https://www.boell.de/sites/default/files/hbf_etc_geogovern_briefing_de.pdf> (11.01.2024).IPCC (2007): Climate Change 2007: Mitigation. Contribution of Working Group III to the Fourth Assessment Report of the Intergovernmental Panel on Climate Change (vom 12.01.2018) <http://www.ipcc.ch/pdf/assesment-report/ar4/wg3/ar4_wg3_full_report.pdf> (23.12.2023).Roelfes, Michael (2022): Klimapolitik in Deutschland (bpb vom 24.06.2022). https://www.bpb.de/themen/klimawandel/dossier-klimawandel/509727/klimapolitik-in-deutschland/ (01.01.2024). Royal society (2009): Geo-Engineering the Climate: Science, Governance and Uncertainty, Royal society: London.Schneider, Linda (2020): Ein Technofix für das Klima? Die Interessen hinter dem Geoengineering im Meer (boell.de vom 23.04.2020) <https://www.boell.de/de/2020/04/23/ein-technofix-fuer-das-klima-die-interessen-hinter-dem-geoengineering-im-meer> (10.01.2024). Umweltbundesamt (2011): Geo-Engineering wirksamer Klimaschutz oder Größenwahn? <https://www.umweltbundesamt.de/sites/default/files/medien/publikation/long/4125.pdf> (10.01.2024).Wagner, Gernot (2023): Und wenn wir einfach die Sonne verdunkeln? Das riskante Spiel, mit Geoengineering die Klimakrise aufhalten zu wollen, Oekom: München. Wittstock, Felix (2023): Alternativloses Climate Engineering? Kommunikation von NGOs in einer klimapolitischen Kontroverse, Nomos: Baden Baden.
Die Inhalte der verlinkten Blogs und Blog Beiträge unterliegen in vielen Fällen keiner redaktionellen Kontrolle.
Warnung zur Verfügbarkeit
Eine dauerhafte Verfügbarkeit ist nicht garantiert und liegt vollumfänglich in den Händen der Blogbetreiber:innen. Bitte erstellen Sie sich selbständig eine Kopie falls Sie einen Blog Beitrag zitieren möchten.
Quo vadis, EU? Das Projekt, das zu Anfang für Frieden sorgen sollte, hat inzwischen so manches umgesetzt, was in der Gründungszeit, im Mai 1951, für visionär gehalten wurde. Die Europäische Gemeinschaft für Kohle und Stahl, die zu Beginn aus sechs Staaten (Frankreich, Deutschland, Belgien, Niederlande, Luxemburg, Italien) bestand, entwickelte sich schnell weiter: Von einem Gemeinsamen Markt über weitere Mitgliedsländer bis hin zu einer gemeinsamen Währung transformierte sich die einstige Gemeinschaft zur heutigen Europäischen Union."Spill over"-Effekte sorgten dafür, dass ausgehend vom Gemeinsamen Markt auch gemeinsame Arbeitsbereiche außerhalb der Ökonomie entstanden: Das Wirtschaftsprojekt wurde zunehmend politisch und steht heute zwischen Supranationalismus und Intergouvernementalismus. Die EU, so wird gerne gesagt, ist ein System sui generis, weder ganz internationale Organisation noch ganz Staat. Doch gerade weil die EU in machen Belangen staatliche Züge angenommen hat, stellt sich die Frage, ob ihre demokratische Legitimation ausreicht. Angela Merkel drückte das in einer Regierungserklärung von 2006 folgendermaßen aus:"Kurz gesagt muss man feststellen: Europa steht bei den Europäerinnen und Europäern nicht so hoch im Kurs […]. Wir müssen […] den Stand des Projekts Europa kritisch überprüfen. Wir müssen den Bürger in den Mittelpunkt stellen" (Bundesregierung 2006, S. 3f.).Doch worunter leidet die demokratische Legitimation der EU? Und wie könnte man der Union zu mehr Demokratie verhelfen? Diesen Fragen geht der folgende Beitrag nach. Ausgehend vom Aufbau der EU wird das sogenannte Demokratiedefizit in institutioneller und struktureller Hinsicht erläutert. Abschließend werden mögliche Lösungsvorschläge vorgestellt und Kritikpunkte geäußert.Aufbau der EU und DemokratiedefizitDie Aufbau der Union wird häufig als abstrakt und kompliziert erachtet. Auch die ZDF-Satiresendung Die Anstalt greift den komplexen Aufbau der EU zusammen mit dem Demokratiedefizit in der Sendung vom 06.09.2015 auf. Um auf das Demokratiedefizit aufmerksam zu machen, beginnen die Satiriker Claus von Wagner und Max Uthoff so: Claus von Wagner (C.v.W.): "Die meisten Nutzer [gemeint sind hier die Bürger*innen der Europäischen Union] beschweren sich, dass unser Haus [gemeint ist die Europäische Union] nicht den demokratischen Anforderungen entspricht."Max Uthoff (M.U.): "Diese Leute sind doch gar nicht in der Lage, ein so komplexes Haus wie unseres zu verstehen."C. v. W.: "Aber sie sollen drin wohnen ... wie soll denn das gehen?! Vielleicht können Sie's mir erklären, schau'n Sie mal, wir haben da hinten doch den Grundriss von unserem Hotel [gemeint ist hier abermals die Europäische Union]."M. U.: "Ja ... ja, was suchen Sie denn?"C. v. W.: "Na, die Demokratie!"M. U.: "Ach Demokratie ... Demokratie ... was heißt schon Demokratie?"C. v. W.: "Na, das Regieren des Volkes durch das Volk für das Volk." (von Wagner/Uthoff 2016, 00:00:00 – 00:01:00). Wie Markus Preiß, Leiter des ARD-Studios in Brüssel, in seinem #kurzerklärt-Video erläutert, ist die Europäische Union "demokratisch mit Schönheitsfehlern" (Preiß 2019, 00:02:07-00:02:10) und sicherlich weit weg davon, undemokratisch zu sein. Doch über ihr Demokratiedefizit lässt sich schlecht hinwegsehen. Es fußt im Wesentlichen auf zwei Gründen: "zu wenig Bürgerbeteiligung infolge mangelnder Transparenz und eine[r] unzureichende[n] Legitimation der Institutionen der Europäischen Union" (Bollmohr 2018, S. 73). Doch politische Systeme sind auf Legitimation angewiesen, "um Herrschaft dauerhaft zu sichern" (Abels 2019, S. 2). Um dieses Demokratiedefizit besser verstehen zu können, ist eine Beschreibung des Aufbaus der Europäischen Union und ihrer Institutionen unerlässlich. Autor*innen, die die Europäische Union für demokratisierbar halten, begreifen die EU als als ein politisches System, das durch institutionelle und strukturelle Reformen verändert werden kann (vgl. Schäfer 2006, S. 354). Sie gehen hierbei von einem Demokratieverständnis gemäß der Übersetzung des Wortes Demokratie (= Volksherrschaft) aus. Wie in der Inszenierung der Anstalt angeklungen, wird von einer Auslegung des Wortes ausgegangen, das das Regieren des Volkes durch das Volk für das Volk als Grundlage nimmt und auf eine Aussage von Abraham Lincoln zurückgeht ("government of the people, by the people, for the people"). Die EU hat sieben Organe (vgl. Weidenfeld 2013, S. 116). Den Kern bildet dabei das "institutionelle Dreieck" bzw. nach der Inklusion des Europäischen Rates durch den Vertrag von Lissabon das "institutionelle Viereck", bestehend aus dem Europäischen Rat, der Europäischen Kommission, dem Europäischen Parlament und dem Rat der Europäischen Union. Zu den Organen gehört darüber hinaus der Gerichtshof der Europäischen Union, die Europäische Zentralbank und der Rechnungshof. Beginnend mit dem Europäischen Parlament werden nachfolgend alle Institutionen nach der Reihenfolge aufgelistet, wie sie im Vertrag von Lissabon stehen, und ihr Demokratie- bzw. Legitimationsdefizit erläutert. Europäisches Parlament In das Bewusstsein der europäischen Bevölkerung kam das Europäische Parlament (EP) erst mit der ersten Direktwahl im Jahr 1979 (vgl.: ebd.). Damit war "[d]er Schritt hin zu einem von den Bürgern legitimierten europäischen Einigungswerk […] getan" (ebd.). Seither gewann das EP an Befugnissen. So wurde beispielsweise mit dem Vertrag von Maastricht (1992) das Mitentscheidungsverfahren eingeführt, "welches das Parlament dem Rat im Gesetzgebungsprozess gleichstellt" (ebd.). Wahlen für das Europäische Parlament finden alle fünf Jahre statt (vgl.: Weidenfeld 2006, S. 65). Insbesondere hinsichtlich des Demokratiedefizits ist es wichtig festzuhalten, dass das EP die einzig direkt gewählte Institution der Europäischen Union darstellt. Als solche stellt sie "die unmittelbare Vertretung der Unionsbürger auf der europäischen Ebene dar" (Weidenfeld 2013, S. 116). Dabei werden die Sitze "degressiv-proportional" verteilt (ebd., S. 117). Dies führt allerdings dazu, dass "ein deutscher Abgeordneter mehr als 13 Mal so viele Bürger vertritt wie ein Parlamentsmitglied aus Luxemburg oder Malta" (ebd.). Von einer gleichen Wahl, wie es das Grundgesetz in der Bundesrepublik Deutschland für die Bundestagswahlen vorgibt, kann nicht gesprochen werden. Die Funktionen und Aufgaben des EP sind vielfältig. Es "fungiert zusammen mit dem Ministerrat der Union als Gesetzgeber" (ebd.) und stellt mit ihm die Haushaltsbehörde dar (vgl. ebd.). Gleichzeitig "kontrolliert [es] die Arbeit der Kommission" (ebd.). Generell kann von fünf Funktionen des EP gesprochen werden: Systemgestaltungsfunktion, Politikgestaltungsfunktion, Wahlfunktion, Kontrollfunktion und Repräsentations- bzw. Artikulationsfunktion (vgl.: ebd., S. 121ff.). Mit der Systemgestaltungsfunktion hat das Europäische Parlament einen, wenn auch geringen, Spielraum zur "konstitutionellen Weiterentwicklung des EU-Systems" (ebd., S. 121). Beispielsweise darf das Parlament "Entwürfe zur Änderung der Verträge [vorlegen]" (ebd.). Außerdem kann eine Erweiterung der Europäischen Union nur mit Zustimmung der Parlaments durchgeführt werden. Die Politikgestaltungsfunktion bezeichnet die Möglichkeit des EP, die Kommission auffordern zu können, eine Gesetzesinitiative zu starten (= indirektes Initiativrecht). Die Kommission muss dieser Bitte innerhalb von drei Monaten nachkommen oder andernfalls ihr Verhalten wohlbegründet erläutern. Das indirekte Initiativrecht teilt sich das EP mit dem Rat. Ebenso teilen sich beide Organe das Haushaltsrecht, wobei das EP in diesem Belang, zumindest auf Ausgabenseite, das letzte Wort behält (vgl.: ebd., S. 122). Die Wahlfunktion wird durch die Wahl des Kommissionpräsidenten erfüllt, der vom Europäischen Rat vorgeschlagen wird. Das EP ist auch an der Bestellung der Kommission beteiligt und muss der Zusammensetzung zustimmen. Die Repräsentations- und Artikulationsfunktion des Europäischen Parlaments wird kritisch gesehen. Aufgrund einer fehlenden europäischen Öffentlichkeit kann eine Repräsentation der europäischen Bürger*innen nicht in dem Maße stattfinden, wie es in nationalstaatlichen Parlamenten der Fall ist. Das Europäische Parlament arbeitet in Fraktionen, die sich nach der politischen Ausrichtung organisieren und sich aus den Mitgliedern des EP aus den verschiedenen Mitgliedsstaaten zusammensetzen. Im Gegensatz zu nationalen Parlamenten gibt es kein "Regierungs-Oppositions-Schema" (vgl.: ebd., S. 124) und es wird mit Ad-hoc-Mehrheiten gearbeitet. Wie Weidenfeld (2013) klarstellt, bietet diese Herangehensweise "immer wieder neue Möglichkeiten zur persönlichen Einflussnahme […]; [allerdings wird es] für die Öffentlichkeit […] dadurch schwierig, politische Verantwortung zuzuordnen" (ebd.). Auch wenn sich das EP durch verschiedene Vertragsreformen immer weiter an die "Rolle nationaler Parlamente angenähert" (ebd., S. 121) hat, besitzt es nicht alle Funktionen der Parlamente der Mitgliedsstaaten. Bezogen auf das EP werden "drei wesentliche Legitimationsmängel" (Bollmohr 2018, S. 99) aufgezeigt. Einer der Mängel ist der Wahlmodus, denn statt eines "kodifizierten Wahlrechts […] gelten nationale Wahlgesetze mit zum Teil erheblichen Unterschieden" (ebd., S. 86). Die Sitzverteilung im Europäischen Parlament nach der degressiven Proportionalität verstärkt die Ungleichheit der Wähler*innenstimmen bei der Europawahl. Zu erwähnen ist hierbei auch, dass es zur Europawahl, anders als bei nationalen Wahlen, kaum einen erkennbaren Wahlkampf gibt. Dies hängt unter anderem damit zusammen, dass es keine europäischen Parteien und deshalb kein parteienspezifisches Wahl- bzw. Parteiprogramm und kaum europäische Themen gibt (vgl.: ebd., S. 86f.). Auswirkungen hat das auf die Arbeitsweise des Europäischen Parlaments. Ohne Parteiprogramm können Mitglieder der Fraktionen lediglich fallbezogen "über Vorgänge beraten und abstimmen, die von der Europäischen Kommission vorgegeben werden", was den Prozess "unvorhersehbar" macht (ebd., S: 87). Ein weiterer Mangel ist die eingeschränkte Gesetzgebungsfunktion. Die Rechtsetzungsverfahren werden, trotz Aufwertung des EP, von den Räten dominiert (vgl.: ebd.). Wie Bollmohr (2018) auf Seite 99 feststellt, ist die Beteiligung an der Gesetzgebung mit unter zehn Prozent noch "zu gering". Zusätzlich wird der fehlende Austausch zwischen Unionsbürger*innen und den Abgeordneten des EP als Mangel gesehen. Das einzige von den Unionsbürgern direkt gewählte Organ hat zwar in den letzten Jahrzehnten an Kompetenzen gewonnen, ist aber in wichtigen Bereichen (Außenpolitik, Steuerpolitik) nach wie vor nicht gleichberechtigt mit den nationalen Regierungen im Rat. Europäischer Rat Der Europäische Rat besteht aus den Staats- und Regierungschefs der Mitgliedsstaaten der EU und entscheidet im Konsens. Er nimmt formal nicht am Gesetzgebungsprozess teil, sondern hat eine gewichtige Rolle bei der "Systemgestaltung und bei der Besetzung von Schlüsselpositionen" (Weidenfeld 2013, S. 127). Der Europäische Rat hat drei zentrale Funktionen: Lenkungsfunktion, Wahlfunktion und Systemgestaltungsfunktion. Die Lenkungsfunktion erlaubt es dem Europäischen Rat, allgemeine Leitlinien für die Politik der EU, vornehmlich für die Außenpolitik, zu erlassen. Er wählt mit dem Präsidenten des Europäischen Rats und dem Hohen Vertreter für die Außen- und Sicherheitspolitik die zwei wichtigsten "Vertreter der EU-Außenpolitik" (ebd.). Darüber hinaus nimmt er eine "Schlüsselstellung" in der Systemgestaltung ein (ebd.). Schließlich sind die Mitgliedsstaaten die Herren der Verträge und sie entscheiden, welche Kompetenzen sie an die europäische Ebene abgeben. Rat der EU/Ministerrat"Der Rat [der EU] besteht aus je einem Vertreter jedes Mitgliedstaats auf Ministerebene, der befugt ist, verbindlich für die Regierung zu handeln" (ebd., S. 129). Er ist nach Fachgebiet in Fachministerräte unterteilt. Zunehmend entscheidet der Rat mit Mehrheit. Halbjährlich wechselt die Präsidentschaft des Rates (vom 01.01.2023-30.06.2023 hat beispielsweise Schweden die Ratspräsidentschaft inne). Der Rat besitzt zentrale Befugnisse in der EU-Außen- und Sicherheitspolitik. Daneben ist seine Legislativ- und Exekutivfunktion entscheidend. Inzwischen teilt sich der Rat die Legislativfunktion, genauso wie das Haushaltsrecht, mit dem Europäischen Parlament. Beide Organe besitzen überdies das Recht, auf die Kommission zuzugehen und einen Gesetzentwurf vorzuschlagen. Die Exekutivfunktion nimmt der Rat wahr, "indem er Vorschriften zur Durchführung von Rechtsakten erlässt, die Durchführung selbst ausführt oder sie an die Kommission delegiert" (ebd., S. 132). Der Rat übernimmt gegenüber der Kommission darüber hinaus eine Kontrollfunktion.Die Räte, also der Europäische Rat und der Rat der Europäischen Union, beziehen ihre Legitimation durch die Nationalstaaten. Daraus entsteht dennoch ein Legitimationsmangel bzw. ein Demokratiedefizit, weil der Ministerrat maßgeblich am Gesetzgebungsverfahren in der EU beteiligt, aber nicht auf EU-Ebene legitimiert ist (vgl.: Bollmohr 2018, S. 99). Zusätzlich hält Bollmohr (2018) fest, dass der Rat (der EU) "zwar von den nationalen Parlamenten beeinflusst wird, aber da die qualitative Mehrheit im Rat auch Abstimmungsniederlagen für einzelne Länder nach sich ziehen kann, sind die Möglichkeiten der Parlamente begrenzt" (ebd.). KommissionWie Weidenfeld (2013) auf Seite 135 schreibt, ist die Kommission "vertragsrechtlich auf das allgemeine EU-Interesse verpflichtet und soll unabhängig von den nationalen Regierungen handeln". Während der Europäische Rat das prototypische intergouvernementale Organ darstellt, ist die Kommission die klassische supranationale Institution in der Europäischen Union. Das Kollegium, aus dem sich die Kommission zusammensetzt, besteht aus einem Kommissar pro Mitgliedsland. Es wird "in einem Zusammenspiel zwischen den Staats- und Regierungschefs und dem EP [bestimmt]" (ebd., S. 137). Der/die Kommissionspräsident*in und der Verwaltungsapparat ergänzen die Kommission. Der Europäische Rat schlägt ein*e Kandidat*in für das Amt der/des Kommissionpräsident*in vor, welche*r sich dann einer Wahl im EP unterziehen muss. Bei Ablehnung unterbreitet der Rat einen neuen Vorschlag, bei Annahme schlagen die Staats- und Regierungschefs mit dem/der Präsident*in die weiteren Kommissionsmitglieder vor, die ebenso der Zustimmung des Parlaments bedürfen. Eine Amtsperiode der/des Präsident*in dauert fünf Jahre. Außerdem hat das EP die Befugnis, die Kommission durch ein Misstrauensvotum ihres Amtes zu entheben. Hierfür ist eine Zweidrittelmehrheit notwendig. Die Kommission hat vier wichtige Funktionen: Sie fungiert sowohl als Exekutive als auch als Außenvertretung und hat die Legislativ- und Kontrollfunktion inne. Als Exekutive ist die Kommission für die Durchführung von Rechtsakten und die "Umsetzung und Verwaltung der Unionspolitiken verantwortlich, die vom Parlament und vom Rat verabschiedet wurden" (ebd., S. 138). Die Ausführung des vom Europäischen Parlament beschlossenen Haushalts gehört ebenso zu den exekutiven Aufgaben der Kommission. Die Legislativfunktion umfasst das Initiativmonopol. Die Kommission darf als einzige EU-Institution Gesetzesvorschläge einbringen. Sie ist "agenda-setter" (ebd., S. 139) und kann die EU-Integration vorantreiben. Als Hüterin der Verträge ist die Kommission für die Einhaltung des Unionsrechts verantwortlich und kann, bei Verletzung des Unionsrechts, ein Vertragsverletzungsverfahren eröffnen. Sie vertritt überdies die vergemeinschaftete Handels- und Entwicklungspolitik nach außen und nimmt "im Namen der EU an den Verhandlungen im Rahmen der WTO teil" (vgl.: ebd., S. 140). Die Mängel der Legitimation der Europäischen Kommission zeigen sich bei der Wahl der Mitglieder und der/des Präsident*in. Kandidat*innen werden von den Mitgliedsstaaten der Europäischen Union vorgeschlagen und vom Europäischen Parlament bestätigt. Dies ist in den Verträgen zwar so festgehalten, "aber der Legitimationsglaube in die wichtigste Institution der EU ist gering" (Bollmohr 2018, S. 99). Schließlich ist "das EP durch das bestehende Wahlverfahren nur bedingt als legitimiert [anzusehen] […] und der Europäische Rat durch die Nationalparlamente nicht im Eigentlichen für EU-Fragen legitimiert" (ebd., S. 80). Zudem stellt die Kommission eine Art Exekutive, also Regierung dar. Diese ist momentan weder wähl- noch abwählbar. Doch genau das, eine wähl- und abwählbare Regierung, zeichnet eine Demokratie aus, weswegen das Demokratiedefizit der EU an dieser Stelle besonders zum Vorschein kommt. EuGH, Europäische Zentralbank und RechnungshofDer Europäische Gerichtshof mit Sitz in Luxemburg ist verantwortlich für die Wahrung und die Einheitlichkeit des Unionsrechts. Er wird dann aktiv, wenn eine Klage oder eine Anfrage vorliegt und agiert deshalb reaktiv. Gleichzeitig stellt er – wie die Kommission – ein supranationales Organ dar. Der Gerichtshof besteht aus einem Richter je Mitgliedsstaat, die von "den nationalen Regierungen im gegenseitigen Einvernehmen für eine Amtszeit von sechs Jahren ernannt [werden]" (Weidenfeld 2013, S. 143). Das Europäische Parlament spielt bei der Ernennung der Richter keine Rolle, was den Gerichtshof von anderen obersten Gerichten, wie dem Supreme Court oder dem Bundesverfassungsgericht, unterscheidet. Zusätzlich unterscheidet ihn vom höchsten Gericht der Bundesrepublik Deutschland, dass eine Wiederwahl der Richter möglich ist. Der Europäische Gerichtshof hat die Befugnis, gegenüber den Mitgliedsstaaten "bindende Urteile [zu] sprechen" (ebd., S. 143). Das hat zur Folge, dass seine Entscheidungen die Bevölkerung der EU direkt betreffen. Mit dem Vertrag von Lissabon wurden seine Kompetenzen von der supranationalen Säule zudem auf die Innen- und Justizpolitik erweitert (vgl.: ebd.). Entscheidungen fallen meist einvernehmlich oder per einfacher Mehrheit. Der Gerichtshof hat "in der Geschichte der Integration immer wieder eine Motorrolle übernommen" (ebd., S. 145). Seine Urteile fallen überwiegend integrationsfreundlich aus (in dubio pro communitate – (ugf.) im Zweifel für die Europäische Union). Die Europäische Zentralbank (EZB) mit Sitz in Frankfurt am Main wurde 1998 mit der Einführung der gemeinsamen Währung eingerichtet. Sie ist für die Geldpolitik der EU verantwortlich und hat als Organ einen supranationalen Charakter. In ihrer Arbeitsweise ist sie von anderen EU-Organen und von den Mitgliedsstaaten unabhängig. Bei der Währungspolitik arbeitet die EZB mit nationalen Zentralbanken zusammen. Ihr vorrangiges Ziel ist es, Preisstabilität zu sichern. Darüber hinaus unterstützt sie die Wirtschaftspolitik der Europäischen Union. Der Vertrag von Maastricht (1992) hob den Rechnungshof zu einem Organ an. Seine Aufgabe ist die Rechnungsprüfung der EU, was alle Einnahmen und Ausgaben betrifft. Er besteht aus einem Staatsangehörigen je Mitgliedsstaat, welche vom Rat ernannt werden. Hierbei verfügt das Europäische Parlament über ein Anhörungsrecht. Alle drei Organe, der EuGH, die Zentralbank und der Rechnungshof, werden nicht gewählt, sind aber dennoch in besonderem Maße am Integrationsprozess beteiligt. Dieser Umstand ist keine Besonderheit der EU, sondern auch in Nationalstaaten üblich. Dennoch gibt es Kritik und Reformvorschläge. Die Wiederwahl der Richter am EuGH gilt als besonders problematisch. Ebenso gibt es Forderungen nach mehr Transparenz in allen drei Organen.Die bisher genannten Defizite beziehen sich auf die Institutionen der Europäischen Union und werden deswegen institutionelle Defizite genannt. Daneben gibt es das strukturelle Demokratiedefizit, das die nach wie vor fehlende Kommunikations-, Erfahrungs- und Erinnerungsgemeinschaft beschreibt, in der sich eine kollektive Identität herausbildet, etabliert und tradiert (vgl. Graf Kielmannsegg 2003, S. 57ff.). Oder einfacher ausgedrückt: Es mangelt an einer "Wir-Identität", denn es fehlt eine gemeinsame Sprache, es gibt kein gemeinsames Politikverständnis und kein einheitliches Rechtssystem (vgl. Bollmohr 2018, S. 74). Schließlich schafft ein auf Effizienz ausgelegter Gemeinsamer Markt noch keine Demokratie, geschweige denn einen gemeinsamen Demos. Darauf ist der Markt auch gar nicht angewiesen. Das strukturelle Demokratiedefizit macht sich beispielsweise bei den Europawahlen durch eine geringe Wahlbeteiligung bemerkbar (im Jahr 2009 lag die Wahlbeteiligung bei gerade mal 43%, vgl.: Decker 2017, S. 166). Diese Defizite sind nicht neu und seit der zunehmenden Politisierung der Europäischen Union bekannt. Seit Ende der 1980er Jahre ist man auf EU-Ebene bemüht, sie zu beheben (vgl.: Bollmohr 2018, S. 71). Doch wie könnten weitere Schritte in Richtung weniger Demokratiedefizit in einem "Mehrebenensystem ohne einheitlichen Demos […], ohne einheitliche Regierung […] und ohne nennenswerte intermediäre Strukturen" (ebd., S. 73) aussehen? Nachfolgend werden exemplarisch Lösungsvorschläge für das institutionelle und strukturelle Demokratiedefizit vorgestellt. Sie erheben nicht den Anspruch, die Gesamtheit aller Lösungsvorschläge abzudecken. Potenzielle Lösungsansätze für das institutionelle und strukturelle Demokratiedefizit der EUInstitutionelles DemokratiedefizitIn ihrem Beitrag "Neue Governance-Formen als Erweiterung der europäischen Demokratie" (2017) nennt Gesine Schwan eine bessere Zusammenarbeit von europäischen und nationalen Parlamentariern als Stellschraube für mehr demokratische Teilhabe. Die Überwindung des Gegensatzes zwischen "renationalisierender" und "supranationaler" europäischer Integration hätte einige Vorteile. Beispielsweise bewirke diese "verschränkte Parlamentarisierung" (S. 158), wie sie diese Form der Zusammenarbeit nennt, eine bessere Verständigung über die Perspektiven von nationalen und europäischen Abgeordneten. Außerdem führe der intensivere Austausch zu einer früheren Information der nationalen Parlamentarier über Debatten und Entscheidungen im Europäischen Parlament. Dies hat folgende, demokratiefördernde Konsequenzen: Einerseits gebe es dadurch eine breitere öffentliche Diskussion und eine daraus resultierende Legitimation. Andererseits eine verstärkte parlamentarische Kontrolle. Einen Einbezug von Wissenschaft und Medien hält Schwan für geboten. Zusätzlich fördere dies die grenzüberschreitende Kommunikation und Kooperation. Nach wie vor, bemängelt Schwan, existiere ein Mangel an intermediären Vermittlerstrukturen in der Europäischen Union, was beispielsweise Medien, Parteien und Verbände betrifft. Etwas konkreter wird Frank Decker in seinem Beitrag "Weniger Konsens, mehr Wettbewerb: Ansatzpunkte einer institutionellen Reform" (2017). Er benennt die seiner Meinung nach drei wichtigsten "demokratischen Stellschrauben" (S. 167), um das institutionelle Demokratiedefizit zu beheben. Er sieht im einheitlichen Wahlrecht, in der Wahl des Kommissionspräsidenten und der Bestellung der Gesamtkommission Potenziale, um die Europäische Union institutionell zu legitimieren.Decker moniert, dass gemäß dem Vertrag über die Arbeitsweise der Europäischen Union (AEUV, Art. 223 Abs. 1) ein einheitliches Wahlrecht längst hätte erfüllt sein müssen (vgl. Decker 2017, S. 168). Nun gebe es die "paradoxe Situation" (ebd.), dass europäische Parteien zwar den Parlamentsbetrieb bestimmen, bei den Europawahlen aber nach wie vor nur die nationalen Parteien kandidieren (vgl.: ebd.). Eine Aufhebung dieser Tatsache sieht Decker in einer "Einführung eines europaweiten Verhältniswahlsystems mit moderater Sperrklausel" (ebd.). Diese wäre ein starker Anreiz dafür, sich als Parteien zusammenzuschließen, was einerseits der Fragmentierung im Europäischen Parlament entgegenwirken würde und andererseits förderlich für die Arbeitsfähigkeit des EP wäre. Diese Regelung würde zudem zu einer Vereinheitlichung des Wahlsystems innerhalb der Europäischen Union beitragen. Die Mitgliedsstaaten dürften weiterhin selbst entscheiden, wie das Wahlrecht genau geregelt ist und wie die Wahl durchgeführt wird. Unbedingt geboten sei hingegen eine Wahlpflicht oder alternativ eine Verteilung der Sitze nach der Wahlbeteiligung. So würde ein Anreiz für eine hohe Teilnahme geschaffen werden und die Wahlen für das EP könnten ihre Bewertung als Nebenwahl ein wenig verlieren. Jede*r EU-Bürger*in hätte nach wie vor eine Stimme, die er/sie bei der Verhältniswahl mit "starren Listen" vergeben darf (ebd., S. 170). Auf diese Weise, schlussfolgert Decker, könnte mit der heutigen Diskrepanz zwischen Parteiensystem auf der parlamentarischen und elektoralen Ebene gebrochen werden (vgl.: ebd.). Die Wahl der/des Kommissionspräsident*in ist eine weitere Stellschraube, mit der man Decker zufolge das institutionelle Demokratiedefizit der EU schmälern kann. Für zentral hält er die Frage nach dem Verhältnis zwischen Parlament und Regierung. Decker schlägt an dieser Stelle das präsidentielle System vor, mit der Begründung, dass die Bürger*innen selbst die Chance hätten, ihre*n Präsident*in direkt zu wählen. Ob der/die Kommissionspräsident*in mit relativer oder absoluter Mehrheit gewählt wird, müsste geklärt werden. Die Wahl des/der Kommissionspräsident*in auf diese Art zu verändern, würde zum einen dafür sorgen, dass "[d]ie europäische Politik […] endlich ein Gesicht [bekäme]" (ebd., S. 174). Zum anderen würde diese Änderung dazu führen, dass die EU eine wählbare Exekutive hätte, was einer Regierung im nationalstaatlichen Sinn gleichkäme. Ebenso sieht Decker die Bestellung der Kommissare kritisch. Momentan ist das Gremium durch den gleichberechtigten Vertretungsanspruch aller Mitgliedsstaaten zu groß, was negative Auswirkungen auf die Arbeitsweise hat (vgl.: ebd., S. 175). Daneben kann der/die Kommissionspräsident*in kaum Einfluss auf die Auswahl der Kommissare nehmen, was zur Folge hat, dass "[d]ie Zusammensetzung der Kommission […] insofern eher die nationalen Wahlergebnisse [reflektiert] als das Ergebnis der Europawahlen" (ebd.). Deswegen schlägt Decker vor, dem/der direkt gewählten Kommissionspräsident*in das Recht zu erteilen, die Kommissare selbst zu ernennen. Alternativ könnten die Wähler*innen befugt werden, neben dem/der Präsident*in noch die Kommissar*innen zu wählen (vgl.: ebd., S. 176). Dies, so Decker, würde die Kommission nicht nur weiter demokratisch aufwerten, sondern wäre auch ein Beitrag zur Europäisierung der Europawahlen. Antoine Vauchez geht in seinem Beitrag "Die Regierung der 'Unabhängigen': Überlegungen zur Demokratisierung der EU" (2017) auf die mangelnde Transparenz mancher Institutionen der Europäischen Union ein. Er merkt bezüglich der Demokratisierung an:"Um die Stellung dieser Institutionen [gemeint sind hier Kommission, Zentralbank und EuGH, Anm. A.B.] im politischen Prozess neu zu justieren, muss man an den drei Säulen rütteln, auf denen ihre Autorität in der europäischen Politik bislang beruhte: der vollständigen Souveränität in der Auslegung ihres Mandats, dem Anspruch auf wissenschaftliche Objektivität in ihren Diagnosen und Urteilen und einem bestimmten Verständnis von Unabhängigkeit als Abgrenzung von den vorhandenen politischen und sozialen Interessen. Diese Trias bildet eine Blockade, die zu durchbrechen jede Demokratisierungsstrategie bemüht sein muss" (Vauchez 2017, S. 187f.). Vauchez prangert Kommission, EuGH und EZB als "Mysterien des Staates" (ebd., S. 188) an. Beispielsweise mische sich die EZB inzwischen in Bereiche wie "das Rentensystem, die Lohnpolitik, das Arbeitsrecht und die Organisation des Staatswesens" ein (ebd.). Ähnliches gilt für den Europäischen Gerichtshof. In diesen Institutionen liege damit auch Regierungsgewalt. Deren Mandate sollten politisch erweitert werden, um dem Demokratiedefizit entgegenzuwirken. Antoine Vauchez vertritt deswegen die Ansicht, dass Themen, die in diesen Institutionen behandelt werden, "das Produkt öffentlicher Debatten und Auseinandersetzungen […] in einer Vielzahl nationaler und transnationaler Arenen [sein sollten]" (ebd.). Er nennt als Beispiel das Europäische Parlament, schließt aber andere politische Mittel, um EuGH und EZB zu überprüfen, wie beispielsweise das Frühwarnsystem, das mit dem Lissabonner Vertrag eingeführt wurde, nicht aus. Hierbei können "[e]ine Mindestzahl von einem Drittel der nationalen Parlamente […] den Entwurf eines Gesetzgebungsaktes vor die Kommission bringen, wenn er die Grundsätze der Subsidiarität und der Verhältnismäßigkeit missachtet" (ebd., S. 189). Die Kommission sollte die Möglichkeit haben, Entscheidungen von EZB und EuGH für nichtig erklären zu können, sollten "diese den von der Union zu vertretenden 'Werten, Zielen und Interessen' [entgegenstehen]" (ebd.).Um der Intransparenz der Arbeitsweise dieser EU-Institutionen entgegenzuwirken, schlägt Vauchez zudem vor, der Öffentlichkeit Zugang zu Archiven, Daten, vorbereitenden Dokumenten und Beratungsprotokollen zu verschaffen. Auch hier hält er die Schaffung eines öffentlichen Forums für Dissens und Diskussion für notwendig (vgl.: ebd., S. 190). Abschließend hält es Vauchez für geboten, den repräsentativen Charakter der 'unabhängigen' Institutionen zu stärken. Damit meint er nicht nur die Repräsentanz aller Mitgliedsstaaten, sondern auch die Abbildung der Komplexität und Vielfalt der Bürger*innen der Europäischen Union in den Gremien und Ausschüssen der Institutionen. So, schlussfolgert Vauchez, stelle "man letztlich die Fähigkeit unter Beweis, ein europäisches Allgemeininteresse zu verkörpern" (ebd., S. 191). Institutionelle Reformen, wie sie hier gefordert werden, sind prinzipiell möglich. Doch kann mit ihnen allein das strukturelle Demokratiedefizit nicht behoben werden (vgl. Bartolini 2000, S. 156, zitiert nach: Schäfer 2006, S. 356). Strukturelles Demokratiedefizit Das strukturelle Demokratiedefizit beruht darauf, dass es kein europäisches Wir-Gefühl bzw. kein europäisches Volk im Sinne eines Staatsvolkes gibt. Dabei verfolgt die EU bereits seit geraumer Zeit eine Politik, die identitätsstiftend sein soll (vgl.: Thalmaier 2006, S. 4). Seit den 1970er Jahren haben Parlament und Kommission versucht, die EU-Bürgerschaft voranzutreiben und die europäischen Bürger*innen an europäische Themen heranzuführen (vgl.: Wiener 2006, S. 8). Diese Politik hat bisher jedoch nicht zu einem 'Wir-Gefühl' geführt (vgl.: ebd.). Doch möchte die EU ihr strukturelles Demokratiedefizit schmälern, ist sie auf ebenjenes 'Wir-Gefühl' angewiesen, denn eine Unterstützung wird von den Bürger*innen für die Europäische Union unbedingt gebraucht. Thalmaier (2006) unterscheidet hierbei zwischen spezifischer und diffuser Unterstützung. Während Bürger*innen ein politisches System spezifisch unterstützen, wenn es Ergebnisse hervorbringt, die den Interessen der Bürger*innen entsprechen, beschreibt die diffuse Unterstützung ein Vertrauen und eine Identifikation mit einem System, auch wenn die eigenen Interessen nicht immer durchgesetzt werden (vgl.: ebd., S. 6). Auf dieses grundsätzliche Vertrauen in das Handeln der Institutionen ist die Europäische Union als politisches System angewiesen. Eine kollektive Identität, die jedoch nicht mit einer nationalen Identität vergleichbar sein soll, ist dabei unerlässlich. Die Behebung des Öffentlichkeitsdefizit ist bei der Herausbildung einer kollektiven Identität erforderlich. Thalmaier schreibt deswegen, dass die "Ausbildung einer europäischen Identität […] entscheidend von der Entstehung einer europäischen Öffentlichkeit [abhängt]" (ebd., S. 10). Zu lange habe es eine mangelnde Dynamik in der europapolitischen Kommunikation gegeben. Eine "stärkere Politisierung europäischer Politik" ist geboten, um eine europäische Öffentlichkeit überhaupt herauszubilden (ebd., S. 12). Daneben soll die Identitätserweiterung für eine kollektive Identität sorgen. Sie soll nach Thalmaier über die Schließung von Wissensdefiziten und -lücken über die Europäische Union erreicht werden. Der Schule kommt hier eine tragende Rolle zu. Deren Lehrpläne sollen angepasst und europäisiert werden, sodass die Bildungsinhalte in Fremdsprachen oder auch in sozial- und geisteswissenschaftlichen Fächern die europäische Ebene beleuchten. Dadurch soll zusätzlich die Relevanz der Europäischen Union vermittelt werden. Das minimiere die Fremdheit der EU (vgl.: ebd., S. 10) und könne identitätsstiftend wirken. Schließlich, so Thalmaier, erreiche man eine Reduzierung des strukturellen Demokratiedefizits nicht ohne eine Schaffung von mehr Partizipationsmöglichkeiten für die Bürger*innen bei Themen, die die Politik der EU betreffen. Neben institutionellen Reformen, die in diesem Beitrag bereits thematisiert wurden, spricht sich Thalmaier für europaweite Referenden aus, beispielsweise bei Angelegenheiten, die das Primärrecht oder EU-Beitritte betreffen. Dazu gehöre ein intensiver Austausch mit den Bürger*innen der Europäischen Union. Bereits im Weißbuch der Europäischen Kommission aus dem Jahr 2006 ist ein Austausch und Dialog in der Dienstleistungsrichtlinie festgeschrieben. Bisher wird sie jedoch wenig genutzt. Thalmaier schlägt deswegen vor, enger in den Austausch mit den EU-Bürger*innen zu gehen. Eine Begründung jedes Projekts in einem öffentlichen Interaktionsprozess sei geboten, genauso sollte um Zustimmung für jede politische Neuerung auf EU-Ebene gerungen werden. Neue Wege der Kommunikation und des Dialogs mit Bürger*innen seien dabei zentral. Mehr Interaktion und Kommunikation schlägt auch Antje Wiener in ihrem Artikel "Bürgerschaft jenseits des Staates" (2006) vor, um die EU-Identität zu stärken und das strukturelle Demokratiedefizit zu mindern. Insbesondere die "Kommunikation über europäische Rechte innerhalb der EU-Mitgliedsstaaten sowie intra- oder transeuropäisch in den entsprechenden institutionellen beziehungsweise medialen Kontexten, kurz jede Art von öffentlicher Diskussion zum Thema Rechte" (ebd., S. 11), trage dazu bei und mobilisiere auch das "Interesse am europäischen Projekt" (ebd.). Interaktion mit Institutionen, (EU-)Politiker*innen und Mitbürger*innen hätten das Potenzial, zu mehr "Staats- und Gemeinschaftsbildung" (ebd.) zu führen und die Bürger*innen enger an die EU zu binden. Durch Teilhabe und Teilnahme "im öffentlichen Diskurs soll eine zivile republikanische Identität geschaffen werden" (ebd.).Ähnliches fordert Ulrike Guérot, wenn es um die "Ausgestaltung einer europäischen Demokratie geht" (2018, S. 71). Damit "Europa" (ebd., S. 76) entstehe, brauche es Gemeinsames in der Europäischen Union über einheitliche bürgerliche und soziale Rechte. Sie argumentiert: "Es ist die Konvergenz von Recht, die Gemeinsamkeit entstehen lässt. In diesem Fall von Wahlrecht, Steuerrecht und sozialen Anspruchsrechten" (ebd.). Einigkeit und Einheitlichkeit seien auf dem europäischen Markt gegeben, bei den Bürger*innen sei Europa ihrer Ansicht nach aber noch zu fragmentiert. Solle sich daran etwas ändern, müsse mehr Gleichheit geschaffen werden, was am ehesten durch gemeinsame Rechte und Gesetze passiere. Guérot spricht hierbei von einem "Paradigmenwechsel" (ebd., S. 75) hin zu mehr Demokratie. Denn sollte einheitliches europäisches Recht eingeführt werden, wende man sich hin zu einer "Europäischen Republik, bei der die Souveränität bei den Bürger*innen Europas liegt […]" (ebd.). Kritik an diesen Ansätzen einer Demokratisierung der EU Kritiker*innen dieser Vorschläge sehen in einer "politisierte[n] EU eine Lähmung" der Europäischen Union (Schäfer 2006, S. 357). Für sie stellt die EU einen starren Verwaltungsapparat dar, "[e]ine Bürokratie, die sachlich und zielgerichtet arbeitet [und die] vom politischen Tagesgeschäft abgeschottet werden [muss]" (ebd.; Føllesdal/Hix, 2006, S. 538). Kritiker*innen sehen das Problem nicht in einem fehlenden Demos oder mangelnder Beteiligung der Bürger*innen, sondern in "vielfältigen Blockaden" (Schäfer 2006, S. 357) bei der Entscheidungsfindung und -durchsetzung. Ihrer Ansicht nach müsse die Europäische Union effizienter sein, um an Legitimität zu gewinnen, was nicht durch eine Demokratisierung erreicht werden könne (vgl.: ebd.). Schließlich müsse das Gemeinwohl über den Partikularinteressen der aktuellen Regierungen stehen. Für diejenigen, die einer Demokratisierung skeptisch gegenüberstehen, ist die Europäische Union bereits jetzt eine "aufgeklärte Bürokratie, die im Interesse der Bevölkerung entscheidet" (ebd./vgl.: Føllesdal/Hix, 2006, S. 546). Eine Demokratisierung bzw. "Politisierung der Europäischen Union liefe ihrem Aufgabenprofil zuwider" (Schäfer 2006, S. 357). Ebenso merken Kritiker*innen an, dass Macht in der EU geteilt werde und Entscheidungen durch Verhandlungen und nicht durch "Hierarchie" zustande kämen (vgl.: ebd., S. 360). Würde Macht in einem so fragmentierten Raum wie Europa zentralisiert, müsse das "für Minderheiten bedrohlich wirken" (ebd.). Zudem gründe der Erfolg des Konkordanzsystems der EU auf dem "Verzicht auf partizipatorische Entscheidungsverfahren" (ebd.). Gerade das Demokratiedefizit, so die Kritiker*innen, sei deshalb der wesentliche Faktor für den Zusammenhalt der Europäischen Union. Fazit und Ausblick Das sogenannte Demokratiedefizit existiert in institutioneller und struktureller Form. Das Problem ist dabei nicht unbekannt und es wird auf EU-Ebene durchaus versucht, es zu beheben. Reformvorschläge, beispielsweise von führenden Politikwissenschaftler*innen, gibt es zuhauf. Institutionell wird vorgeschlagen, dass sich verschiedene Organe der EU durch demokratische Wahlen legitimieren. Bei den Lösungsvorschlägen wird hierbei häufig auf die Kommission und die Wahl der/des Präsident*in und die Bestimmung der Beamten eingegangen. Eine (direkte) Wahl der/des Präsident*in und gegebenenfalls der Beamten würde das Interesse an der Europäischen Union stärken und das Demokratiedefizit schmälern. Andere Organe, wie beispielsweise der EuGH und die EZB sollten in ihrer Arbeitsweise transparenter werden, indem sie ihre Vorhaben/Gesetzesinitiativen vorab bekanntgeben, sodass sie in öffentlichen Debatten diskutiert werden können. Ein weniger auf konkrete Organe zugeschnittener Vorschlag ist ein engerer Austausch zwischen nationalen Parlamenten und dem EP. Um das strukturelle Demokratiedefizit zu beheben, ist eine europäische Öffentlichkeit, bzw. deren Herausbildung, von besonderer Bedeutung. Stellschrauben sind hier ein intensiver Austausch mit den EU-Bürger*innen und europaweite Referenden. Eine andere wäre die Europäisierung des Schulcurriculums. Damit könnte die Bedeutung der EU vermittelt und Wissenslücken über sie geschlossen werden. Tiefgreifender sind Forderungen nach gleichen Rechten und Pflichten für EU-Bürger*innen in allen Mitgliedsstaaten. Dies würde sicherlich zu einer höheren Identifikation mit der EU und den Mitbürger*innen führen – und somit zu einem Abbau des strukturellen Demokratiedefizits –, bräuchte jedoch weitreichende institutionelle Veränderungen und somit die Zustimmung der Mitgliedsstaaten zu einer EU in supranationalem Gewand.Kritiker*innen einer Demokratisierung der EU stellen sich deswegen die Frage, ob die EU überhaupt einen Demokratisierungsprozess durchlaufen soll. Für sie ist die Union bereits jetzt eine demokratisch legitimierte Gemeinschaft, die effizient und zielgerichtet arbeitet. Eine Demokratisierung, so die Kritiker*innen, laufe dem Aufgabenprofil der "aufgeklärten Bürokratie" (Føllesdal/Hix, 2006, S. 546) zuwider und ist zwecks Effizienzmangel deshalb gar nicht wünschenswert. Die Europäische Union steht vor einem Dilemma: Einerseits fehlt ihr demokratische Legitimität, wie sie in Nationalstaaten vorhanden ist, beispielsweise durch eine wähl- und abwählbare Regierung, gleiche Wahlen mit bedeutendem, europäischem Wahlkampf und Transparenz. Andererseits ist sie, qua Ursprung, eine effiziente Bürokratie, die dem Ziel des Wohlstandserhalts verpflichtet ist. LiteraturverzeichnisAbels, Gabriele (2020): Legitimität, Legitimation und das Demokratiedefizit der Europäischen Union. In: Becker, Peter/Lippert, Barbara (Hrsg.): Handbuch Europäische Union, SpringerVS: Wiesbaden, S. 175-193.(AEUV) Vertrag über die Arbeitsweise der Europäischen Union (2009): Sechster Teil: Institutionelle Bestimmungen und Finanzvorschriften, Titel I: Vorschriften über die Organe, Abschnitt 1: Das Europäische Parlament (Art. 223). Abrufbar unter: https://dejure.org/gesetze/AEUV/223.html [zuletzt abgerufen am 23.01.2023].Andersen, Uwe (Hrsg.) (2014): Das Europa der Bürger. Europa besser verstehen und daran mitwirken, Wochenschau Verlag: Schwalbach/Ts.Antalovsky, Eugen (Hrsg.)/Melchior, Josef/Puntscher Riekmann, Sonja (1997): Integration durch Demokratie. Neue Impulse für die Europäische Union, Metropolis: Marburg.Bartolini, Stefano (2000): Institutional Democratization and Political Structuring in the EU. Lessons from the Nation-state Development, in: Henry Cavanna (Hrsg.), Governance, Globalization and the European Union. Which Europe for Tomorrow?, Dublin: Four Courts Press, S. 129-158.Bollmohr, Rainer (2018): Das Demokratiedefizit der EU nach dem Vertrag von Lissabon. Der Einfluss der erweiterten Kompetenzen der nationalen Palramente am Beispiel des Deutschen Bundestags, 2. Aufl., Tectum: Baden-Baden.Bundesergierung (2006): Bulletin der Bundesregierung Nr. 44-1 vom 11. Mai 2006. Regierungserklärung von Bundeskanzlerin Dr. Angela Merkel zur Europapolitik vor dem Deutschen Bundestag am 11. Mai 2006 in Berlin, abrufbar unter https://www.bundesregierung.de/resource/blob/975954/769336/2f7ab272f747f3dc5b57c8d6317e7713/44-1-merkel-data.pdf?download=1 [zuletzt abgerufen am 15.01.2023].Decker, Frank (2017): Weniger Konsens, mehr Wettbewerb: Ansatzpunkte einer institutionellen Reform. In: Rüttgers, Jürgen/Decker, Frank (Hrsg.): Europas Ende, Europas Anfang, Campus Verlag GmbH, Frankfurt am Main, S. 163-180.Franzen, Wolfgang (2018): Europa ohne Europäer? Die Europäische Union aus Sicht ihrer Bevölkerung, 2. Aufl., Tectum: Baden-Baden.Føllesdal, Andreas/Hix, Simon (2006): Why there is a Democratic Deficit in the EU: A Response to Majone and Moravcsik. In: Journal of Common Market Studies 44 (3), S. 533-562.Gehler, Michael (2005): Europa. Ideen, Institutionen, Vereinigung. Olzog: München.Graf Kielmannsegg, Peter (2003): Integration und Demokratie. In: Jachtenfuchs, Markus/Kohler-Koch, Beate (Hrsg.): Europäische Integration. 2. Aufl., Leske + Budrich: Opladen, S. 49-83.Grimm, Dieter (2017): Europa: Ja – Aber welches? In: Rüttgers, Jürgen/Decker, Frank (Hrsg.): Europas Ende, Europas Anfang, Campus Verlag GmbH, Frankfurt am Main, S. 31-48.Grimmel, Andreas (Hrsg.) (2020): Die neue Europäische Union. Zwischen Integration und Desintegration, Nomos: Baden-Baden.Guérot, Ulrike (2018): Die Zukunft Europas – oder Zukunft ohne Europa? In: Guérot, Ulrike/Negt, Oskar/Kehrbauch, Tom/Herold, Emanuel: Europa jetzt! Eine Ermutigung, Steidl: Göttingen, S. 65-82.Hennette, Stéphanie/Piketty, Thomas/Sacriste, Guillaume/Vauchez, Antoine (2017): Für ein anderes Europa. Vertrag zu Demokratisierung der Eurozone, C.H. Beck: Nördlingen.Lincoln, Abraham (1863): The Gettysburg Address. Rede abgerufen über die Bibliothek der Cornell University, abrufbar unter https://rmc.library.cornell.edu/gettysburg/good_cause/transcript.htm [zuletzt abgerufen am 28.12.2022].Preiß, Markus (2019) [tagesschau]: #kurzerklärt: Wie demokratisch ist die EU? [Video]. Abrufbar auf YouTube unter https://www.youtube.com/watch?v=Zm6fIF2LIWI&t=4s [hochgeladen am 13.05.2019; zuletzt abgerufen am 23.01.2023].Schäfer, Armin (2006): Nach dem permissiven Konsens: Das Demokratiedefizit der Europäischen Union. In: Leviathan 34(3), Nomos: Baden-Baden, S. 350-376.Schwan, Gesine (2017): Neue Governance-Formen als Erweiterung der europäischen Demokratie. In: Rüttgers, Jürgen/Decker, Frank (Hrsg.): Europas Ende, Europas Anfang, Campus Verlag GmbH, Frankfurt am Main, S. 149-162.Simons, Alexander (2005): Europäische Union für Dummies. WILEY-VCH: Weinheim.Thalmaier, Bettina (2005): Braucht die EU eine eigene Identität? (CAP Analyse, 10/2005). München: Universität München, Sozialwissenschaftliche Fakultät, Centrum für angewandte Politikforschung (C.A.P) Bertelsmann Forschungsgruppe Politik.Thalmaier, Bettina (2006): Möglichkeiten und Grenzen einer europäischen Identitätspolitik. (CAP Analyse, 6/2006). München: Universität München, Sozialwissenschaftliche Fakultät, Centrum für angewandte Politikforschung (C.A.P) Bertelsmann Forschungsgruppe Politik.Vauchez, Antoine (2017): Die Regierung der "Unabhängigen": Überlegungen zur Demokratisierung der EU. In: Rüttgers, Jürgen/Decker, Frank (Hrsg.): Europas Ende, Europas Anfang, Campus Verlag GmbH, Frankfurt am Main, S. 181-196.von Wagner, Claus/Uthoff, Max (2016) [Freidenker]: Das Demokratiedefizit in der EU (ZDF – Die Anstalt, 6.9.2016) [Video]. Abrufbar auf YouTube unter https://www.youtube.com/watch?v=3lHVcvJdWIs [hochgeladen am 09.09.2016; zuletzt abgerufen am 11.01.2023].Weidenfeld, Werner (2006): Die Europäische Verfassung verstehen. Verlag Bertelsmann Stiftung: Gütersloh.Weidenfeld, Werner/Wessels, Wolfgang (Hrsg.) (2007): Europa von A bis Z. Taschenbuch der europäischen Integration, 10. Aufl., Nomos: Baden-Baden.Weidenfeld, Werner (2013): Die Europäische Union. 3. Aufl., Wilhelm Fink: München.Wiener, Antje (2001): Zum Demokratiedilemma europäischer Politik: Symbole und Inhalte der Verfassungsdebatte. Erschienen in Jean-Monnet-Working Paper 2001/1, abrufbar unter: https://media.suub.uni-bremen.de/bitstream/elib/3614/1/ELibD601_2001_1.pdf [zuletzt abgerufen am 14.01.2023].Wiener, Antje (2006): Bürgerschaft jenseits des Staates. Die europäische Bürgerschaftspraxis folgt eigenen Regeln, Publiziert 2006 in: Vorgänge 174, 2: 27-38, abrufbar unter: https://www.wiso.uni-hamburg.de/fachbereich-sowi/professuren/wiener/dokumente/publikationenaw/zeitschriftenartikelaw/wiener-2006-vorgaenge.pdf [zuletzt abgerufen am 13.01.2023].
Die Inhalte der verlinkten Blogs und Blog Beiträge unterliegen in vielen Fällen keiner redaktionellen Kontrolle.
Warnung zur Verfügbarkeit
Eine dauerhafte Verfügbarkeit ist nicht garantiert und liegt vollumfänglich in den Händen der Blogbetreiber:innen. Bitte erstellen Sie sich selbständig eine Kopie falls Sie einen Blog Beitrag zitieren möchten.
1. Einleitung Das Besondere an Wilhelm Heitmeyer ist, dass er uns empirisch erklärt, was wir vorher nur vermutet oder gesagt bekommen haben. Der Sozialwissenschaftler Wilhelm Heitmeyer, Jahrgang 1945, forscht seit Jahrzehnten zu gruppenbezogener Menschenfeindlichkeit und Rechtsextremismus (Universität Bielefeld, o.J.). Bekannt geworden ist er als Gründungsdirektor des Instituts für interdisziplinäre Konflikt- und Gewaltforschung der Universität Bielefeld 1996, wo er bis zu seiner altersbedingten Emeritierung als Direktor fungierte. Seine Langzeitstudie "Deutsche Zustände" zu rechtsextremen Einstellungen in der Gesellschaft und zu gruppenbezogener Menschenfeindlichkeit machen ihn zu einem der "wichtigsten Rechtsextremismus-Forscher der Bundesrepublik" (Laudenbach, 2023).Im folgenden Beitrag soll es um ausgewählte Arbeiten von Heitmeyer gehen. In seinen jüngeren Veröffentlichungen nimmt er die Mechanismen von Krisen und daraus resultierenden Kontrollverlusten als Treiber von autoritären Versuchungen in den Fokus. In Bezug darauf wird in der vorliegenden Arbeit genauer auf Heitmeyers Beitrag zur Erklärung des Erstarkens des "autoritären Nationalradikalismus" eingegangen. Hierunter fällt die Partei "Alternative für Deutschland (AfD)", die den Kern dieses Politiktypus in Deutschland ausmacht.Heitmeyer stellte um die Jahrtausendwende die These auf, der globalisierte Kapitalismus bringe vielfältige Schieflagen mit sich in Form von Desintegration, Abstiegsängsten und Kontrollverlusten. Damals ahnte er noch nichts von den Krisen, die in den folgenden "entsicherten Jahrzehnten" auf uns zukommen und uns vor erhebliche Herausforderungen stellen würden (Heitmeyer, 2018, S. 89).Die aufgestellte These rund um soziale, politische und ökonomische Strukturentwicklungen wurde mit individuellen und kollektiven Verarbeitungsmustern gekoppelt und 2022 um Krisen der "Post-9/11"-Ära und Kontrollverluste als Krisenfolgen erweitert. Diese wiederum bilden einen Nährboden für autoritäre Versuchungen, für sogenannte rechte Bedrohungsallianzen als politische Folgen autoritärer Entwicklungen.Die Ergebnisse der Langzeitstudie eignen sich, um das Aufkommen und Erstarken einer autoritär nationalradikalen Partei wie der Alternative für Deutschland zu beleuchten. Heitmeyer ist es, der durch seine Sozialstrukturanalyse das vielzitierte Fünftel (19,6%) der Bevölkerung empirisch nachweisen konnte, das der rechtspopulistisch eingestellten Gruppe in der Bevölkerung mit Einstellungen der gruppenbezogenen Menschenfeindlichkeit zugeordnet werden kann (Schaefer, Mansel & Heitmeyer, 2002, S. 125 f.).Wahlpolitisch blieben diese Teile der Bevölkerung lange unbedeutend. Die Wähler:innen waren meist keiner Partei zugehörig, sie "vagabundierten" zwischen den Parteien von Wahl zu Wahl oder wählten gar nicht; viele harrten in einer "wutgetränkten Apathie". Bis zu dem Jahr, als die AfD auf die politische Oberfläche trat und ab 2015 eine radikale Entwicklung nahm; ein "politisches Ortsangebot" für diese Teile der Bevölkerung ist gefunden (Heitmeyer, Freiheit & Sitzer, 2021, S. 113 ff.).Im folgenden wird zuerst eine begriffliche Rahmung des Politiktypus des "autoritären Nationalradikalismus" vorgenommen. Zentrale Schemata der Arbeiten von Wilhelm Heitmeyer sollen beleuchtet werden. Nach diesen Ausführungen wird der Blick auf Krisen und Kontrollverluste und ihre Funktion als Treiber autoritärer Entwicklungen gerichtet. Im letzten Schritt geht es um die Ausprägung des autoritären Nationalradikalismus in Form der AfD.2. Der autoritäre NationalradikalismusUm über Heitmeyers Arbeiten zu schreiben, bedarf es einer Konturierung der von ihm verwendeten Begriffe. Im Folgenden werden die Begriffe des Autoritarismus und der dichotomischen Welt- und Gesellschaftsbilder erklärt, um anschließend den politischen Typus des autoritären Nationalradikalismus von Rechtspopulismus und Rechtsextremismus abzugrenzen und entsprechend zu erläutern. 2.1 AutoritarismusDas Legitimations- und Strukturmuster politischer Macht des Autoritarismus gründet auf einer Beziehung zwischen "Machthaber:innen" in Regierungen, Parteien und anderen Organisationen und "Machtunterworfenen". Unter Machthaber:innen versteht man Amts-, Funktions- und Handlungsträger:innen, während Machtunterworfene Mitglieder, Gefolgsleute oder Anhänger:innen sind (Frankenberg & Heitmeyer, 2022, S. 31). Abhängig ist diese Beziehung in der sozialen Praxis von der Autorität der Machthabenden und der Reaktion der Unterworfenen.Autorität kann aus Bewunderung, begeisterter Unterstützung, Respekt, Ehrfurcht oder gleichmütiger Duldung aus freien Stücken zugeschrieben werden und gründet in Anerkennung. Jedoch wird Autorität dann autoritär, "[...] wenn Willfährigkeit aufgenötigt, Unterwerfung durch Täuschung bewirkt, Gehorsam durch Drohung oder handgreifliche Gewalt erzwungen wird" (Frankenberg & Heitmeyer, 2022, S. 32).Eine dominante Rolle spielen Grunderzählungen in der Entwicklung des Autoritären. Hierzu zählen die Bedrohung von Ordnung, die Auflösung von Identitäten, das Zerstören von Hierarchien und Dominanzen, Fantasien vom Untergang des (deutschen) Volkes sowie der Opferstatus aufgrund des Agierens feindlicher Mächte sowohl aus dem Inneren wie von außen (Frankenberg & Heitmeyer, 2022, S. 35). Diese Kennzeichen der Bedrohung, Auflösung, Zerstörung, des Untergangs etc. haben die Funktion, kollektive Ängste zu schüren. Zugleich sollen so Mobilisierungen in Gang gesetzt und autoritäre Bewegungen und Bestrebungen angetrieben werden (Frankenberg & Heitmeyer, 2022, S. 35).Frankenberg & Heitmeyer beschreiben die politische Rhetorik des Autoritären als Diskurslogik, die sich vor allem in Wahlpropaganda und programmatischen Erklärungen zeigt. Diese konstruieren manichäische Weltbilder, weisen eine dichotomische Struktur auf und manifestieren sich auf drei Ebenen, wie die folgende Abbildung zeigt. Häufig anzutreffen sind die Gegensätze von Volk vs. Elite, geschlossene vs. offene Gesellschaft, wir vs. die oder Ungleichwertigkeit vs. Gleichwertigkeit. Abbildung 1: Dichotomische Welt- und Gesellschaftsbilder (Quelle: eigene Darstellung nach Heitmeyer, 2018, S. 248)2.2 Dichotomische Welt- und GesellschaftsbilderDiese Gegensätze laufen auf "Entweder-Oder"-Konflikte hinaus, die sich immer aufs "Ganze" beziehen, da es um "Alles" geht (Heitmeyer, 2022 b, S. 275). Der Streitgegenstand wird der Verhandlung oder dem Kompromiss entzogen, ein "Mehr-oder-Weniger" ist nicht möglich. Die von autoritären Bewegungen, Organisationen und Regimen geführten Konflikte zielen demnach nicht auf Verständigung oder Verhandlungen ab. Es geht um "[...] Entscheidungen zugunsten einer rigiden Machtdurchsetzung und Machtsicherung mit möglichst umfassender Verhaltenskontrolle in allen Lebensbereichen der Gesellschaft und den Institutionen des politischen Systems" (Frankenberg & Heitmeyer, 2022, S. 37).Gesellschaftliche Entwicklungen sind von immer höherer Komplexität und Ambivalenz geprägt. Ebenso nimmt ihre Unübersichtlichkeit zu und sie verändern sich mit zunehmender Geschwindigkeit. In diesem Zuge stehen politische Akteur:innen vor der Herausforderung, ihre Ambitionen und Machtansprüche für die jeweilige Wähler:innenschaft passend aufzubereiten. Hierzu gehört das Anbieten von Welt- und Gesellschaftsbildern, die Unübersichtlichkeit strukturieren, Entschleunigung versprechen und Komplexität reduzieren. Aus diesen Gründen werden von gemäßigten und extremen rechten Bewegungen und Parteien solche Dichotomien verwendet, die das Ordnen der eigenen Gefühlslagen, Erfahrungen und der eigenen Weltsichten erleichtern. 2.3 Populismus und RechtspopulismusPopulismus sieht Heitmeyer als Stil der Mobilisierung, der übergehen kann in eine "machiavellistische Strategie zur Erlangung oder Verteidigung der Macht" und auf marginalisierte Gruppen abzielt. Hinzu kommt häufig eine populistisch etikettierte Rhetorik und schlichte, aber einflussreiche Weltdeutungen, die dazu dienen, Ressentiments zu aktivieren, um eine imaginäre, kollektive Identität zu beschwören. Dies ganz im Sinne eines authentischen Volkes oder "der Nation" gegen Elit:innen, gegen "das System", Minderheiten oder die "Lügenpresse" (Frankenberg & Heitmeyer, 2022, S. 24).Nach Heitmeyer hat sich eine allgemein akzeptierte Definition von Populismus etabliert, wonach eine Bewegung dann als populistisch charakterisiert werden kann, "[...] wenn ihr die Unterscheidung zwischen dem "wahren" Volk einerseits und den ausbeuterischen, dekadenten, volksverräterischen Eliten andererseits zugrunde liegt" (Heitmeyer, 2018, S. 231). Heitmeyer verwendet mittlerweile meist den Begriff autoritär anstelle von populistisch, im Folgenden wird ebenfalls diese Bezeichnung verwendet.Beim Rechtspopulismus prangert Heitmeyer eine "inflationäre Verwendung" ohne wirkliche Trennschärfe an, der keine einheitliche Definition hat, oftmals jedoch als Form des Autoritarismus mit "dünner Ideologie" und als Vergangenheitsorientierung beschrieben wird (Heitmeyer, 2018, S. 231). Im Allgemeinen bezeichnet er den Rechtspopulismus als eine Ergänzung des populistischen Grundprinzips "Volk gegen Elite" um eine nationalistische Rhetorik (Heitmeyer, 2018, S. 232).Zur These der "dünnen Ideologie" führt Heitmeyer an, dass sich populistische bzw. autoritäre Bestrebungen nicht nur durch ihren Politikstil und einer auf Machterwerb zielenden Strategie auszeichnen, sondern durch ein "Set von Ideen" und einem spezifischen Politik- und Demokratieverständnis, also ein Muster zur Deutung der gesellschaftlichen Wirklichkeit anbieten, das sich nicht nur auf Kritik an Elit:innen und demokratischer Repräsentation beschränkt."Mit der ideologischen Kombination und politischen Handlungsagenda von Antielitismus und Antipluralismus, einer Kultur der unmittelbaren Kommunikation, einem xenophoben Nationalismus und dem Phantasma imaginärer Gemeinschaftlichkeit entfernt sich die Beschreibung des Populismus weit von demokratischen grass roots und nimmt die Deutungsangebote aus dem Lager des Autoritarismus an" (Frankenberg & Heitmeyer, 2022, S. 25). 2.4 Autoritärer NationalradikalismusDer Einheitsbegriff des Rechtspopulismus als "catch-all-term" wird nach Heitmeyer der sperrigen Realität nicht gerecht und hat viele alternative Benennungen verkümmern lassen. Zudem werden mit Nutzen dieses Begriffes durch Wissenschaft, Politik und Medien Vernebelungstaktiken der politischen Akteur:innen und Bewegungen bedient, da nicht die genauen ideologischen Komponenten ihrer jeweiligen Programme benannt werden. Das Abbilden der vielfältigen Realität muss auch begrifflich differenziert abgebildet werden, was notwendig ist, um "Gegengifte" zu entwickeln. Daher müssen die Begriffe "sperrig und unpoliert" sein (Heitmeyer, Freiheit & Sitzer, 2021, S. 105).Der autoritäre Nationalradikalismus bewegt sich zwischen dem Rechtspopulismus und dem gewalttätigen Rechtsextremismus bzw. Neonazismus. Anzumerken ist, dass es sich nicht um eine faschistische Gesinnung handelt, da der italienische Faschismus nicht mit dem Nationalsozialismus identisch ist, in dem der Antisemitismus zentral ist (Heitmeyer, Freiheit & Sitzer, 2021, S. 106). Der gewalttätige Rechtsextremismus schreckt viele Wähler:innen oder Sympathisant:innen ab, da er in öffentlichen Räumen situativen Schrecken verbreiten will.Im Gegensatz dazu weist der Rechtspopulismus eine "flache" Ideologie auf und ist mit der dramatisierten Konfliktlinie Volk vs. Elite auf kurzzeitige Erregungszustände ausgerichtet, die über klassische Massenmedien und die sozialen Medien verbreitet werden sollen, wie Abbildung 2 anschaulich darstellt (Heitmeyer, Freiheit & Sitzer, 2021, S. 106). Der autoritäre Nationalradikalismus hingegen zielt auf die destabilisierende Veränderung gesellschaftlicher und politischer Institutionen. Zudem bedient er sich dichotomischer Welt- und Gesellschaftsbilder, um destabilisierende Veränderungen erreichen zu können. Abbildung 2: Die Erfolgsspur des autoritären Nationalradikalismus (Quelle: eigene Darstellung nach Heitmeyer, 2018, S. 236; Heitmeyer, Freiheit & Sitzer, 2021, S. 107)Drei markante Charakteristika des autoritären Nationalradikalismus werden in der Sozialforschung hervorgehoben. Diese werden im folgenden erklärt und in Kapitel 6 auf die AfD bezogen:Das Autoritäre zeigt sich in der Betonung einer hierarchischen sozialen Ordnung, in Forderungen nach rigider Führung politischer Institutionen und in einem fundamentalistischen Verständnis des Agierens und Opponierens auf politischer Ebene ohne Kompromisse. Politik und Gesellschaft sollen also entsprechend einem Kontrollparadigma organisiert werden. Dichotomische Gesellschaftsbilder sind maßgebend und operieren als Grundlage für kämpferisch initiierte "Entweder-oder-Konflikte" (Heitmeyer, Freiheit & Sitzer, 2021, S. 105).Die Betonung der besonderen Stellung des deutschen Volkes bildet das Nationale des autoritären Nationalradikalismus. Formulierungen und Parolen wie "Deutschland den Deutschen" oder "Deutschland zuerst" unterstreichen eine Überlegenheit gegenüber anderen Völkern, Nationen, ethnischen und religiösen Gruppen und eine neue, "deutsche" Vergangenheitsdeutung wird reklamiert (Heitmeyer, Freiheit & Sitzer, 2021, S. 105 f.).Das Radikale, vom ursprünglichen Wortsinn aus dem Lateinischen (radix = Wurzel) her bestimmt, richtet sich gegen die offene Gesellschaft und die liberale Demokratie, die trotz zahlreicher kritikwürdiger Defekte erst durch jahrzehntelange Entwicklungen und Freiheitskämpfe ermöglicht wurden. Ein rabiater und emotionalisierter Mobilisierungsstil wird dazu angewendet, der sich vor allem durch menschenfeindliche Grenzüberschreitungen auszeichnet (vgl. Heitmeyer, Freiheit & Sitzer, 2021, S. 106).Weiterhin ist auf acht Elemente hinzuweisen, die zum Instrumentarium des organisierten autoritären Nationalradikalismus zählen:""Deutsch-Sein" als Schlüsselkategorie und sicherheitsspendender Identitätsanker;Propagandierung dichotomer Weltbilder;Kontrollparadigma als Versprechen einer autoritären sozialen Ordnung;Emotionalisierung gesellschaftlicher Probleme als Kontrollverluste;eskalativer Mobilisierungsstil zur Wiederherstellung von Kontrolle;Forcierung sozialer Vergleichsprozesse zwecks Radikalisierung;Ausnutzen der "Gewaltmembran", um mit bestimmten Begriffen andernorts Gewalt freizusetzen und Legitimationen zu liefern;Konstruktion einer "Opferrolle", um Sympathisanten an sich zu binden und ein Recht auf "Notwehr" zu etablieren" (Heitmeyer, 2018, S. 213-276; Heitmeyer, Freiheit & Sitzer, 2021, S. 111).Diese Elemente sind deshalb wichtig zu nennen, da sie als Grundlage für drei wichtige Ziele dienen, die autoritär nationalradikale Parteien verfolgen:Das Besetzen vakanter politischer Themenräume, die von etablierten Parteien in der Vergangenheit übersehen wurden,das Verschieben des Sagbaren, wobei Heitmeyer auf die Theorie des "Overton-Windows" hinweist, sowie drittensdie Normalisierung von Positionen und dadurch die Schaffung neuer Normalitätsstandards (vgl. Heitmeyer, Freiheit & Sitzer, 2021, S. 111 f.).Der autoritäre Nationalradikalismus wird ab Kapitel 5 ausführlich in Bezug auf die Partei "Alternative für Deutschland" dargestellt, die den Kern des autoritären Nationalradikalismus in Deutschland bildet. 2.5 Rechtsautoritär und rechtsextremDen Bezug von Autoritärem zu Rechtsautoritärem und Rechtsextremem begründen Frankenberg & Heitmeyer damit, dass "für die Übersetzung des Autoritären in die aktuellen gesellschaftlichen und politischen Zustände und Entwicklung [...] eine Fokussierung auf das rechtsautoritäre und rechtsextreme Spektrum angebracht" ist (2022, S. 40).In Ermangelung einer umfassenden Definition von Rechtsextremismus, die die Dimension der Gewalt beinhaltet, hat Heitmeyer ein eigenes Konzept vorgelegt (Frankenberg & Heitmeyer, 2022, S. 40). Dieses akzentuiert die "Kernverbindung" von Ideologie der Ungleichheit und Gewaltakzeptanz. Die Ideologie der Ungleichheit enthält zwei zentrale Dimensionen, wobei die erste gruppenbezogen auf Ungleichwertigkeit ausgerichtet ist und sich später als "gruppenbezogene Menschenfeindlichkeit" ausgeprägt hat:"Sie zeigt sich in Facetten wie nationalistische bzw. völkische Selbstübersteigerung; rassistische Einordnung; soziobiologische Behauptung von natürlichen Hierarchien; sozialdarwinistische Betonung des Rechts des Stärkeren; totalitäre Normverständnisse im Hinblick auf Abwertung des "Anders-Sein" und die Betonung von kultureller Homogenität gegen Heterogenität" (Frankenberg & Heitmeyer, 2022, S. 40 f.).Diese erste Dimension lässt sich als Vorlage für die späteren Studien "Deutsche Zustände" von Wilhelm Heitmeyer verstehen. Die zweite Dimension der Ideologie der Ungleichheit hat sich als lebenslagenbezogen erwiesen und verweist auf Ausgrenzungsforderungen in Form von kultureller, politischer, rechtlicher, ökonomischer sowie sozialer Ungleichbehandlung von Fremden bzw. "Anderen".Die Gewaltakzeptanz haben Frankenberg & Heitmeyer in vier ansteigend eskalierende "Varianten der Überzeugung unabänderlicher Existenz von Gewalt" kategorisiert, hinter denen die Grundannahme steht, dass Gewalt als "normale Aktionsform zur Regelung von Konflikten" und demnach als legitim angesehen würde (2022, S. 41). Insofern überrascht die Tatsache nicht, dass etwa rationale Diskurse oder demokratische Regelungsformen von sozialen und politischen Konflikten abgelehnt und autoritäre oder gar militaristische Umgangsformen und Stile betont werden (Frankenberg & Heitmeyer, 2022, S. 41).Die politikwissenschaftliche Forschung zum Rechtsextremismus sieht Heitmeyer fixiert auf politische Symbole, historisch-politische Bezugnahmen, Parteiprogramme und Wahlerfolge. Jedoch reicht dieser Fokus nicht aus, um den Aufschwung rechter und rechtsextremer Kräfte in der Gesellschaft zu erklären – weshalb der "[..] Blick auf die Zusammenhänge zwischen ökonomischen, sozialen und politischen Strukturentwicklungen, den individuellen und kollektiven Verarbeitungen und den politischen Handlungskonsequenzen, wenn ein entsprechendes Handlungsangebot vorhanden ist", geweitet werden muss (Frankenberg & Heitmeyer, 2022, S. 41).Dies beschreibt das "Analyseschema" (siehe Abbildung 5) im folgenden Kapitel. Fürderhin sollen nicht einzelne Aspekte oder Ereignisse parzelliert betrachtet werden, sondern mittels des "konzentrischen Eskalationskontinuums" die "rechten Bedrohungsallianzen", die bis in die Mitte der Gesellschaft hineinreichen, sichtbar werden. Hierzu hat Heitmeyer 2018 ein weiteres Untersuchungsmodell entwickelt (siehe Abbildung 3). Die beiden Schemata werden folgend beschrieben. Vorangestellt finden sich die zentralen Ausgangspunkte und Thesen von Wilhelm Heitmeyer, auf denen die Schemata beruhen. 3. Heitmeyers Arbeiten: Zentrale Thesen und SchemataWilhelm Heitmeyers Studien knüpften ursprünglich an die mittlerweile vielzitierte Prognose Ralf Dahrendorfs aus 1997 an, dass wir uns "an der Schwelle zum autoritären Jahrhundert" befinden würden, da vieles auf solch eine Entwicklung hindeuten würde (Dahrendorf, 1997; Heitmeyer, 2022 b, S. 256). Dahrendorf wies vor über 25 Jahren auf das verhängnisvolle Zusammenwirken von Ökonomie, politischer Partizipation und sozialer Integration bzw. Desintegration hin und deutete dieses Spannungsverhältnis als eine "Quadratur des Kreises". Heitmeyer fragt in diesem Zusammenhang, "zu wessen Lasten diese Spannungen gehen würden" und "[...] wie sich unter dem Druck der kapitalistischen Kontrollgewinne die individuellen, kollektiven und institutionellen Kontrollverluste auswirken würden" (Heitmeyer, 2022 b, S. 256).Insbesondere die Langzeitstudie "Deutsche Zustände" zur gruppenbezogenen Menschenfeindlichkeit hat ergiebiges Daten- und Analysematerial erbracht, welches Heitmeyer in seinen Arbeiten verwendet (Heitmeyer, 2018, S. 28). Das Projekt mit seinen jährlichen repräsentativen Bevölkerungsbefragungen dient dazu, Langzeitverläufe sichtbar zu machen und eignet sich, um das Aufkommen und Erstarken der autoritär nationalradikalen AfD zu beleuchten.Heitmeyer konnte mit Hilfe der Resultate empirisch Zusammenhänge in zwei Richtungen nachweisen: "für die Unterstützung autoritärer Bewegungen sowie Parteien und gegen verschiedene Gruppen in der Gesellschaft (Frankenberg & Heitmeyer, 2022, S. 55). Je deutlicher man autoritäre Überzeugungen vertritt, desto eher stimme man fremdenfeindlichen und rassistischen Äußerungen zu, abgeschwächt auch Äußerungen zu Antisemitismus, Heterophobie und klassischem Sexismus sowie der These von Etabliertenvorrechten, also sozialer Dominanz in einem Hierarchiengefüge.So kam Heitmeyer auf das oben erwähnte und seither vielzitierte Fünftel der Bevölkerung (19,6%), das Einstellungen zu gruppenbezogener Menschenfeindlichkeit hegt und als "Machtmaterial" für autoritäre Bewegungen, Parteien und Regime zur Etablierung und Sicherung von autoritären gesellschaftlichen und politischen Machtstrukturen dienen kann (Schaefer, Mansel & Heitmeyer, 2002, S. 125 f.; Frankenberg & Heitmeyer, 2022, S. 56). 2001 formulierte Wilhelm Heitmeyer seinen Ausgangspunkt wie folgt:"Die zu verfolgende These geht davon aus, daß [sic] sich ein autoritärer Kapitalismus herausbildet, der vielfältige Kontrollverluste erzeugt, die auch zu Demokratieentleerungen beitragen, so daß neue autoritäre Versuchungen durch staatliche Kontroll- und Repressionspolitik wie auch rabiater Rechtspopulismus befördert werden" (Heitmeyer, 2001, S. 500).Der sogenannte "autoritäre Kapitalismus" entstand durch eine neoliberale Politik rund um die Jahrtausendwende. Weitreichende ökonomische Kontrollgewinne in einerseits gesellschaftlichen Lebensbereichen über soziale Standards von Verdiensten und soziale Absicherung sowie andererseits über Standortentscheidungen waren zu verzeichnen, ergo übergriffig eindringende Prozesse, sodass nun mehr ökonomische Dominanz als Quelle für Kontrolllosigkeit sowie für Anomie gilt.Diese weitreichenden Kontrollgewinne des Kapitals wurden begleitet von ebenso weitreichenden politischen Kontrollverlusten nationalstaatlicher Politik, verbunden mit sozialen Desintegrationsprozessen von Teilen der Bevölkerung. Diese Auswirkungen blieben auf politischer Ebene allerdings solange wahlpolitisch folgenlos, bis ein entsprechendes politisches Angebot auf den Plan trat. In Deutschland erschien dieses Angebot in Form des autoritären Nationalradikalismus der AfD, besonders anschaulich im Jahr 2015 durch die politisch-kulturelle Krise der Flüchtlingsbewegungen und die Spaltung der AfD auf Bundesebene (Heitmeyer, 2022 a, S. 301; Heitmeyer, 2022 b, S. 261).2018 schreibt Heitmeyer, dass sich dies tatsächlich so ereignet hat und sich empirisch nachweisen lässt: "Ein zunehmend autoritärer Kapitalismus verstärkt soziale Desintegrationsprozesse in westlichen Gesellschaften, erzeugt zerstörerischen Druck auf liberale Demokratien und befördert autoritäre Bewegungen, Parteien und Regime" (Heitmeyer, 2018, S. 23). Nachfolgend werden das Modell des konzentrischen Eskalationskontinuums und das Untersuchungsschema beschrieben. 3.1 Konzentrisches EskalationskontinuumMit dem Schema des konzentrischen Eskalationskontinuums soll dargestellt werden, wie autoritäre Eliten auf Legitimation und Partizipation – unter anderem durch die Bürger:innen - angewiesen sind, zumindest so lange, wie sie ein "formales Demokratiesystem westlicher Prägung" aufrecht erhalten wollen oder auch durch soziale, politische und ökonomische Gegenkräfte dazu genötigt werden.Heitmeyer rückt somit die "[...] Entstehung von Eskalationsdynamiken ins Blickfeld, mit denen die zustimmende oder schweigend duldende Beteiligung von erheblichen Teilen der Bevölkerung zu erfassen ist" (Frankenberg & Heitmeyer, 2022, S. 43). Das konzentrische Eskalationskontinuum dient dazu, die Wucht rechter Bedrohungsallianzen herauszukristallisieren und soll helfen, Gewalt, Gewaltstadien und deren Ursachen besser verstehen zu können.Betrachtet werden Einstellungen und Verhaltensweisen einzelner unverbunden nebeneinander lebender Personen sowie formelle Mitgliedschaften in politischen Parteien oder Vereinigungen. Dem Eskalationsmodell zugrunde liegt das Milieukonzept. Heute sind nicht mehr zwingend physische Kontakte notwendig, da Milieubildung auch im virtuellen Raum stattfindet. Heitmeyer weist darauf hin, dass in diesem Zusammenhang durch ein entstehendes "Wir"-Gefühl gleichzeitig eine abwertende, diskriminierende und ausgrenzende "Die"-Kategorie mitgeliefert wird.Das Schema stellt im "Zwiebelmodell" fünf Stufen dar, die als Einstellungsmuster der gruppenbezogenen Menschenfeindlichkeit in Teilen der Bevölkerung zu verstehen sind, die wiederum autoritären Versuchungen nachgeben und somit den Autoritären Nationalradikalismus der AfD in Deutschland, aber auch Fidesz in Ungarn oder der FPÖ in Österreich begünstigen (Heitmeyer, 2022, S. 43). Die jeweiligen eskalierenden Akteur:innengruppen in den Schalen des Modells werden kleiner, während die Gewaltorientierung im Inneren des Modells zunimmt.Als Kernmechanismus und verbindendes Element der Schalen zueinander werden die verschiedenen Legitimationsbrücken genannt. Fürderhin darf nicht unerwähnt bleiben, dass die Ideologie der Ungleichwertigkeit der kleinste gemeinsame Nenner aller Schichten des Eskalationskontinuums ist. Sie dient als Legitimationsfundus für personen- wie gruppenbezogene Diskriminierung, Ausgrenzung und Gewalt (Heitmeyer, Freiheit & Sitzer, 2021, S. 20). Abbildung 3: Konzentrisches Eskalationskontinuum (Quelle: eigene Darstellung nach Heitmeyer, 2018, S. 356; Heitmeyer, Freiheit & Sitzer, 2021, S. 59) Nachfolgend werden die Schichten im Spektrum von rechtem Denken bis zum terroristischen Handeln kurz erläutert: Die äußerste Schicht repräsentiert die gesamte Bevölkerung, in der in unterschiedlichem Ausmaß Einstellungen vertreten werden, je nach gesellschaftlicher Debatte, die der gruppenbezogenen Menschenfeindlichkeit zugeordnet werden können. Diese Einstellungen in der Bevölkerung stellen individuelle Positionierungen dar, die parteipolitisch gebunden, "freischwebend" sein oder auch zwischen Parteien "vagabundieren" können. Diejenigen Teile der Bevölkerung mit menschenfeindlichen Einstellungen sympathisieren zwar maßgeblich mit der AfD, sind an sie jedoch nicht zwangsläufig gebunden und können auch andere Parteien präferieren und wählen (Heitmeyer, Freiheit & Sitzer, 2021, S. 60).Das Milieu des autoritären Nationalradikalismus, insbesondere der AfD, das an diese erste Schicht anschließt, präsentiert und propagiert entsprechende Ausgrenzungsstrategien und konstruierte Feindbilder. Die AfD "saugt" die jeweiligen individuellen Einstellungen in der Bevölkerung auf und verdichtet sie zu kollektiven Aussagen, die sie dann wiederum auf die politische Agenda setzt. Sie konzentriert also potenzielle menschenfeindliche Einstellungen in der Bevölkerung, die bereits im Vorfeld durch andere Bewegungen, wie beispielsweise Pegida, verdichtet wurden und bildet für sie den parlamentarischen Arm.Ein weiteres Kennzeichen dieses Milieus ist eine gewisse ideologische Heterogenität, da die Einstellungen von "[...] rechtskonservativen bis hin zu "Übergangspositionen" in das systemfeindliche Milieu des völkischen "Flügels" der AfD" reichen" (Heitmeyer, Freiheit & Sitzer, 2021, S. 62). Zudem bemüht sich die AfD um den Anstrich einer "bürgerlichen" Partei, um anschlussfähig an die Mitte der Gesellschaft zu sein.Im systemfeindlichen Milieu ist man parteipolitisch eindeutig im rechtsextremen Milieu verortet, Bezug genommen wird etwa auf die NPD, was auch für die extremistisch-modernistische Identitäre Bewegung gilt. Gemeint sind also rechtsextremistische Bewegungen und neonazistische Kameradschaften, die sich an einschlägigen historischen Vorbildern orientieren. Die gemeinsame Grundlage stellt die Ideologie der Ungleichwertigkeit dar. In diesem Milieu sind bereits Gewaltattitüden verbreitet, Gewalt wird akzeptiert und zur Ausübung ist man situativ bereit (Heitmeyer, Freiheit & Sitzer, 2021, S. 62). Jedoch lässt man sich in Form von Parteien durchaus darauf ein, vorübergehend am demokratischen System teilzunehmen.An staatliche Vorgaben passt man sich nur aus strategischen Überlegungen an, indem beispielsweise Demonstrationen angemeldet werden; zugleich ist "Systemüberwindung" das zentrale Ziel: "In der "Parteifantasie" arbeitet man auf den "Volksaufstand" hin, mit dem die Vergangenheit wiederhergestellt werden soll. Es ist ein offener und weitgehend öffentlicher Kampf gegen das verhasste System" (Heitmeyer, Freiheit & Sitzer, 2021, S. 64).Diese wenn auch nur vorübergehende Teilnahme am demokratischen System gilt als wesentlicher Unterschied zur vorletzten Schicht, dem klandestinen terroristischen Planungs- und Unterstützungsmilieu. Es schließt jegliche Teilnahme am demokratischen System aus und fasst jede partielle und temporäre Teilnahme als Verrat an der Bewegung auf (Heitmeyer, Freiheit & Sitzer, 2021, S. 64). Dieses Milieu gilt als noch radikaler und agiert im Geheimen, oft mit eindeutiger Gewaltoption oder Gewalttätigkeit. Ziel ist der "Umsturz", wenn nötig mit Waffengewalt, weshalb dieser verdeckte Kampf auch aus dem Untergrund unterstützt wird – hier weist Heitmeyer auf die hohe Zahl untergetauchter rechtsextremistischer Straftäter:innen als aufschlussreiches Indiz hin (Heitmeyer, Freiheit & Sitzer, 2021, S. 64).Den Kern der "Zwiebel" stellen terroristische Zellen oder Einzeltäter:innen dar. Den Unterschied zur vorherigen Eskalationsstufe stellt das alleinige Merkmal des "Grad(s) der Klandestinität und Vernichtungsrealisierung" dar: "Die einen führen zum Schein noch ein "normales" Alltagsleben, die anderen eine Existenz im Untergrund. Sie beschaffen Waffen, erstellen Todeslisten und bereiten sich auf den Tag X vor. Die einen planen die Vernichtungstaten, die anderen setzen sie um" (Heitmeyer, Freiheit & Sitzer, 2021, S. 64).Die fünf Schichten des konzentrischen Eskalationskontinuums werden durch sogenannte "Legitimationsbrücken" zusammengehalten. Diese können dann entstehen, wenn es für gesellschaftliche Entwicklungen keine Lösungen zu geben scheint. Die Entwicklungen werden als Bedrohungen empfunden, für die die "Anderen", beispielsweise Geflüchtete oder Menschen mit anderen Lebensstilen, oder "die da oben", ergo der Staat als Ganzes, demokratische Institutionen oder demokratisch gewählte Entscheidungsträger:innen, verantwortlich gemacht werden. Diese kollektiven Schuldzuweisungen aus Teilen der Bevölkerung können sich dann in gruppenbezogene Menschenfeindlichkeit übersetzen.Zum anderen können sich die Legitimationen aus Verschwörungsideologien, aus Anleihen bei gesellschaftlichen Ordnungen oder historischen ideologischen Konzepten, wie dem Regime des Nationalsozialismus, dessen Ordnung wiederhergestellt werden soll, ergeben. Diese beispielhaft aufgezeigten Legitimationsquellen werden dann im Eskalationskontinuum von den äußeren Schichten weiter nach innen "transportiert (Heitmeyer, Freiheit & Sitzer, 2021, S. 65). Heitmeyer hat vier solcher Legitimationsbrücken jeweils zwischen den Stufen bestimmt, wie die folgende Abbildung zeigt:Abbildung 4: Legitimationsbrücken im Eskalationskontinuum (Quelle: eigene Darstellung nach Heitmeyer, Freiheit & Sitzer, 2021, S. 67)1. Das Einstellungsmuster gruppenbezogener Menschenfeindlichkeit in Teilen der Bevölkerung stellt den Ausgangspunkt dar. Es dient dem autoritären Nationalradikalismus der AfD als Legitimation, entsprechende Feindbilder aufzubauen und zuzuspitzen. Wichtig anzumerken ist, dass auch Menschen mit diesen Einstellungen, die nicht die AfD wählen oder mit ihr sympathisieren, zu diesem Legitimationsfundus beitragen. Sie bestimmen das gesellschaftliche Klima mit, aus dem die AfD ihre politische Legitimation "saugt" (Heitmeyer, Freiheit & Sitzer, 2021, S. 66 f.).2. Führende Vertreter:innen des autoritären Nationalradikalismus der AfD machen von einer "Gewaltmembran" Gebrauch, was bedeutet, dass eine aggressive Rhetorik die trennende Membran zur nächsten Stufe in gewissen Fällen durchdringen kann und den Weg freilegt für autoritär nationalradikale Bewegungen mit weiteren Aufheizungen – psychische Gewaltandrohungen können von gewalttätigen Akteur:innen in physische Gewalt umgesetzt werden, "[...] ohne dass diese Gewalt den sprachlichen Urhebern und Legitimationsbeschaffern direkt zuzurechnen wäre" (Heitmeyer, 2018, S. 271). Durch diese Gewaltmembran werden dem systemfeindlichen Milieu Motive für entsprechende Gewalt geliefert. Zur aggressiven Rhetorik zählen beispielsweise Erzählungen von einem "Bevölkerungsaustausch", Parolen wie "Corona-Diktatur" oder das Beschwören von Untergangsszenarien von Führungskräften der AfD. Auch das Propagieren einer Reinterpretation der deutschen Geschichte insbesondere seitens des völkischen "Flügels" der AfD durch Begriffe wie "Umvolkung" bringt die Gewaltmembran zum Schwingen. Diese Rhetoriken und Untergangsfantasien erzeugen Handlungsdruck (Heitmeyer, Freiheit & Sitzer, 2021, S. 67 f.).3. Das systemfeindliche Milieu ist geprägt von verschiedenen Akteur:innen, die sich auf der Schwelle zur Legitimation offener Gewalt gegen Vertreter:innen des Staates und gegen Minderheiten bewegen. Heitmeyer führt als Beispiel die Partei "Die Rechte" an, die den klandestinen terroristischen Planungsmilieus Motivation und Legitimation liefert (Heitmeyer, Freiheit & Sitzer, 2021, S. 68).4. Im letzten Schritt stehen die klandestinen Planungsmilieus. Diese errichten im Gegensatz zu den vorherigen Eskalationsstufen keine zusätzlichen ideologischen Legitimationsbrücken. Ihr Ziel sind die "Brücken zur Tat" und das Abschirmen terroristischer Akteur:innen gegen staatliche Verfolgung (Heitmeyer, Freiheit & Sitzer, 2021, S. 68).Hieraus resultiert die Schlussfolgerung, dass über verschiedene, eskalierende Stufen jene Teile der Bevölkerung, die explizite autoritäre Einstellungen oder Einstellungen der gruppenbezogenen Menschenfeindlichkeit aufweisen, an politischer Gewalt beteiligt sind; nicht zwangsläufig als Täter:innen im juristischen Sinne, aber als Gehilf:innen und Legitimationshelfer:innen, wie das konzentrische Eskalationskontinuum anschaulich darstellt (Frankenberg & Heitmeyer, 2022, S. 43). Das Modell des konzentrischen Eskalationskontinuums wird in Kapitel 6 in Bezug auf das Auftreten der AfD näher erläutert und an Beispielen untersucht.3.2 Analyseschema2018 hat Heitmeyer ein weiteres Analyseschema eingeführt. Ausgangspunkt für dieses soziologische Analysekonzept ist die Thematik, dass allein das Vorhandensein von autoritären Versuchungen in Teilen der Bevölkerung nicht ausreicht, um die entsprechenden Inhalte dann auch umgesetzt zu sehen. Hierzu ist es notwendig, dass diese Einstellungen in der Bevölkerung zusammen mit autoritären politischen Angeboten wirken. Insofern, formuliert Heitmeyer, "[...] wäre es zu kurz gegriffen, die Entstehung von autoritären Versuchungen nur aus Fehlentwicklungen des politischen Systems erklären zu wollen" (2018, S. 21).Die erste Ebene des Analyseschemas bildet Interdependenzen zwischen dem ökonomischen, sozialen und politischen Bereich ab. Diese sind als strukturelle Entwicklungen gekennzeichnet. Die unter "individuelle Verarbeitung" genannten Punkte sind von großer Bedeutung. Zentral ist hier, wie diese Erfahrungen bzw. Wahrnehmungen der ersten Ebene seitens der Bevölkerung subjektiv und individuell verarbeitet werden. Die individuellen Verarbeitungsmechanismen werden nach der Konzeption von Heitmeyer durch die "gesellschaftliche Integrations- und Desintegrationsdynamik" geprägt. Hierfür sind die folgenden Faktoren und Fragen von besonderer Bedeutung:"Sicherheit oder Unsicherheit der materiellen Reproduktion, der Anerkennung, des Statusaufstiegs, der Statussicherung bzw. des Statusabstieges, und ein Gefühl der Kontrolle über die eigene Biografie.Wird die eigene Stimme bzw. die Stimme der sozialen, ethnischen oder religiösen Gruppe, der Personen sich zugehörig fühlen, von den Regierenden wahrgenommen oder vielmehr ignoriert?Verlässlichkeit oder Erosion sozialer Beziehungen und Anerkennung der eigenen Identität bzw. der Identität der eigenen Gruppe durch Dritte, um emotionale Zugehörigkeit zu sichern" (Heitmeyer, 2018, S. 22).Zentral in Heitmeyers Analyse sind der Kontrollverluste und die Defizite in der Wahrnehmung sowie der subjektive Begriff der Anerkennung. Diese Verarbeitungen haben Auswirkungen auf die Integrations- und Desintegrationsprozesse bzw. auf Anerkennungsverhältnisse, aus welchen im letzten Schritt politische Konsequenzen, also politische Handlungsfolgen, resultieren.Essenziell ist an dieser Stelle die Tatsache, dass die individuellen Verarbeitungen auch als Grund dafür angeführt werden können, weshalb nicht alle Teile der Bevölkerung, die unter einer Art von Desintegrationsdynamik leiden, zwangsläufig für autoritäre Versuchungen anfällig sind und sich wahlpolitisch entsprechend verhalten. Von einer Krisenfolge betroffen zu sein, hat also nicht zwangsläufig das Annehmen eines autoritär nationalradikalen Angebots zur Folge (Heitmeyer, 2022 b, S. 269).Auch die autoritären Bewegungen, Parteien und Regime weisen autoritäre Versuchungen auf, die zu entsprechenden Einstellungen und Entscheidungen führen, die das gesellschaftliche Zusammenleben beeinflussen, da sie Bezug auf die ökonomischen, sozialen und politischen Systeme nehmen (Heitmeyer, 2018, S. 21 f.). Dieses Schema wurde von Heitmeyer mit diversen theoretischen Ansätzen angelegt und ausgefüllt mit empirischen Daten (Heitmeyer, 2022 b, S. 252).Das Theoriegeflecht aus mehreren sich ergänzenden disziplinären Zugängen besteht aus der Theorie Sozialer Desintegration von Anhut & Heitmeyer, der Konflikttheorie von Hirschman, der Theorie kapitalistischer Landnahme von Dörre, der Anomietheorie von Thome und dem kontrolltheoretischen Ansatz aus der Sozialpsychologie von Frey & Jonas. Die für das Analysekonzept wichtigsten Charakteristiken dieser Theorien werden in Heitmeyer 2018 und 2022 b ausführlich erklärt. Die genauere Betrachtung dieser Theorien würde den Rahmen der vorliegenden Arbeit sprengen, weshalb darauf an dieser Stelle verzichtet wird.Abbildung 5: Analyseschema (Quelle: eigene Darstellung nach Heitmeyer, 2018, S. 21)Erfolge rechter Parteien und Bewegungen wären demnach nicht möglich gewesen ohne bestimmte Entwicklungen im sozialen System der Gesellschaft, im politischen System der Demokratie und im ökonomischen System des globalisierten Kapitalismus (Heitmeyer, 2018, S. 16). Durch das vorliegende Analyseschema soll verdeutlicht werden, wie autoritärer Kapitalismus in Zusammenwirken mit sozialen Desintegrationsprozessen und politischer Demokratieentleerung als "Ursachenmuster für die Realisierung autoritärer Sehnsüchte" fungiert (Heitmeyer, 2018, S. 16 f.).Demokratieentleerung meint, dass ein Teil der Bevölkerung das Gefühl hat, nicht mehr wahrgenommen zu werden und gleichzeitig das Vertrauen schwindet, dass die herrschende Politik bzw. die Regierung willens und fähig ist, soziale Ungleichheit zu bekämpfen. Dies mündet bei Teilen der Bevölkerung in ein Gefühl, Bürger:innen zweiter Klasse zu sein (Heitmeyer, Freiheit & Sitzer, 2021, S. 48). Heitmeyer hat 2022 das Analyseschema ergänzt; die Komponenten Krisen und Kontrollverluste wurden entsprechend ausdifferenziert (siehe Abbildung 6). Im Folgenden werden Krisen und Kontrollverluste als besondere Treiber autoritärer Entwicklungen und die dahingehende Erweiterung des Analyseschemas beleuchtet.4. Krisen und Kontrollverluste als Treiber autoritärer EntwicklungenEine Krise wird von Frankenberg & Heitmeyer durch drei Charakteristika definiert. Die bisherigen sozialen, ökonomischen und politischen Routinen zur Bewältigung von Ereignissen greifen nicht mehr und die bis dato vorhandenen Wissensbestände zur Problemlösung reichen nicht aus. Zusätzlich sind die Zustände, wie sie vor diesen Ereignissen herrschten, nicht wieder herstellbar. Darüber hinaus konkurrieren in solch krisenhaften Situationen verschiedene Möglichkeiten zu ihrer Bewältigung, was wiederum anomische Verhaltensunsicherheiten erzeugt (Frankenberg & Heitmeyer, 2022, S. 45).Die Kombination der drei Kriterien legt nahe, dass "Situationen mit notstandsähnlichem Zuschnitt" mit der Erfahrung von Kontrollverlusten verflochten sind (Frankenberg & Heitmeyer, 2022, S. 45; Heitmeyer, 2023, S. 253). Insofern verwundert die Tatsache nicht, wenn die These vertreten wird, dass krisenhaft zugespitzte Entwicklungen und Ereignisse nicht allein, jedoch in besonderem Maße als Treiber und Pfade des Autoritären sowie rechtsextremer Aktivitäten zählen (Heitmeyer, 2022 b, S. 251).Von autoritären Regimen wird in Krisen oder notstandsähnlichen Situationen erwartet, dass sie Sicherheit und die Wiedergewinnung der Kontrolle gewährleisten können (2022, S. 44 f.). Zudem werden die Ereignisse von der Bevölkerung individuell je nach Betroffenheit und auch Resilienz unterschiedlich bearbeitet. Diese Verarbeitung wiederum wird unterschiedlich intensiv und nachhaltig in individuelle Befürchtungen sowie kollektive Ängste übertragen. Somit dienen sie dazu, Vorstellungen von Entsicherungen und Kontrollverlusten zu erzeugen, die sich identifizieren lassen als Treiber autoritärer Bestrebungen (Frankenberg & Heitmeyer, 2022, S. 45 f.).Eine weitere wichtige Unterscheidung in der Konzeption von Krise ist die Unterteilung in zwei Typen von Krise. Der erste Typus, sektorale Krisen, erfasst unterschiedliche Lebensbereiche und Funktionssysteme einer Gesellschaft schlagartig und mit massiven "Funktionsstörungen". Dazu gehören ein zeitlich entzerrtes Auftreten sowie die Lokalisierung in unterschiedlichen Teilbereichen der Gesellschaft. Zudem gab es verschiedene Instrumente, um diese Funktionsstörungen einzudämmen und gravierendere Auswirkungen zu verhindern.In der "Post-9/11"-Ära, in den sogenannten "entsicherten Jahrzehnten" seit Beginn des 21. Jahrhunderts, werden nach Heitmeyer vor allem drei – mit 9/11 als religiös-politische Krise vier - verschärfte Gefahrenlagen als sektorale Krisen identifiziert. Dazu zählt ab 2005 die Einführung von Hartz IV als eine sektorale, soziale Krise für gewisse Teile der Bevölkerung, die mit Statusängsten oder auch mit sozialem Abstieg konfrontiert waren. Weiter ist ab 2008/2009 die weltweite Banken- und Finanzkrise zu nennen, die die "systemrelevante" Finanzökonomie ins Wanken brachte mit Ausstrahlungseffekten auf das Gesamtsystem als ökonomisch-politische Krise. Fürderhin wird die sogenannte "Flüchtlingskrise" 2015/2016 als sozial-kulturelle bzw. kulturell-politische Krise angesehen, die das politisch-administrative System prägte (Frankenberg & Heitmeyer, 2022, S. 46; Heitmeyer, 2022 b, S. 255).Der zweite Typus bezieht sich auf systemische Krisen. Sie erfassen das gesamte Gesellschaftssystem in sich zuspitzenden Gefahrenlagen. Als langsame bzw. schleichende systemische Krise kann die Klimakrise angesehen werden, als "schnelle" systemische Krise die COVID-19 Pandemie. Hier werden die Potenziale für autoritäre Entwicklungen besonders offen sichtbar, da zahlreiche "Einhegungsinstrumente" nicht greifen, wodurch politische, individuell-biografische und kollektive Kontrollverluste auftreten, die politisch instrumentalisiert und mit Verschwörungstheorien und Wahnvorstellungen verbunden werden können (Frankenberg & Heitmeyer, 2022, S. 46 f.). Krisen lösen je nach Gefahrenlage individuelle und kollektive Befürchtungen aus, die sich in der Vorstellung einer "kollektiven Hilflosigkeit" verdichten können.In diesem Zusammenhang stellt sich die Frage nach Krisenängsten, ob und wie sie zu Treibern autoritärer Entwicklungen werden können. Ängste, unabhängig davon, ob eingebildet oder realistisch, ob auf Wissen oder Unwissen beruhend, lassen sich schwerlich von einer politischen Klasse, von Unternehmen oder dem freien Markt abfangen. Je mehr sich Gefahrenlagen häufen und sich Wahrnehmungen von Kontrollverlusten sowie Unsicherheiten ausbreiten, fallen auch Rechtsprechung und Verfassung als Orientierungsmedien aus und auch Wissenschaften können diese nicht mit der Lieferung von Begleitgewissheit neutralisieren.In solchen Situationen "[...] mutieren selbst Realängste, die vor greifbaren, konkreten Gefahren warnen, zu frei flottierenden, allfälligen Befürchtungen, die jede Risikoeinschätzung verhindern und irrationale Rettungsbedürfnisse wecken" (Frankenberg & Heitmeyer, 2022, S. 53). Diese Situationen können dann von autoritären Bewegungen, Organisationen und Regimen ausgebeutet werden, indem zunächst Ängste geschürt und im zweiten Schritt die Anhänger:innen mit wahnhaften Rettungsphantasien "versorgt" werden. Alexander Gaulands Aussage, "Wir werden uns unser Land und unser Volk zurückholen", liefert ein entsprechendes prominentes Beispiel für das Versprechen, die Kontrolle wieder herzustellen (Reuters Staff, 2017; Frankenberg & Heitmeyer, 2022, S. 53; Nickschas, 2023).Eine Annahme von Heitmeyer & Heyder lautet hier, dass die Faktoren der Standortlosigkeit und Kontrollverluste Autoritarismus und gruppenbezogene Menschenfeindlichkeit bestärken. Eine Variante zur Wiederherstellung von Stabilität stellt die Demonstration von Überlegenheit dar, die durch autoritäre Aggression ausgeübt werden kann. Um wirklich Überlegenheit demonstrieren zu können, muss diese möglichst risikoarm sein; dies ist dann gegeben, wenn besonders schwache, machtlose Gruppen als Gegner:innen ausgewählt werden (Heitmeyer & Heyder, 2002, S. 62). Empirisch stehen Abstiegsängste in einem signifikanten Zusammenhang mit einerseits Kontrollverlust-Situationen und andererseits der Abwertung schwacher Gruppen:"Wenn jemandem das eigene Leben außer Kontrolle gerät (oder zu geraten scheint), kann das Panik erzeugen. Zur Panikbekämpfung erfolgt dann eine Selbstaufwertung, die gleichzeitig die Abwertung von ungleichwertig markierten Gruppen bedeutet (Flüchtlinge, Migranten, Langzeitarbeitslose etc.)" (Heitmeyer, 2018, S. 109).Die individuellen Verarbeitungsmuster von Krisen und (gefühlten) Kontrollverlusten lassen sich durch entsprechende autoritäre Angebote von "rechtspopulistischen Mobilisierungsexperten" – mittels scharf konturierter Feindbilder und Kontrollversprechen - politisch aufladen und bedienen zur vermeintlichen "Wiederherstellung von Ordnung" (Heitmeyer, 2018, S. 106).2022 stützt Heitmeyer also die oben erwähnte These von Krisen als besondere Treiber autoritärer Entwicklungen und rechtsextremer Aktivitäten, indem er formuliert, dass der Blick auf Veränderungen in Richtung autoritärer Entwicklungen in gesellschaftlichen und politischen Verläufen geweitet werden soll, die unter verstärktem Einfluss zeitlich verdichteter Krisen stattfinden (Heitmeyer, 2022 b, S. 251). Das soziologische Analysekonzept von 2018 wird entsprechend angepasst um die zwei zentralen Eskalationstreiber Krisen und Kontrollverluste bzw. "Kontrollverluste als Krisenfolgen" (siehe Abbildung 6).Dies geht aus der Abbildung insofern deutlich hervor, als in die Strukturentwicklungen der ökonomischen, sozialen und politischen Dimension "[...] verschiedene Krisen mit unterschiedlichen Auswirkungen "hineingewirkt" und Einfluss genommen haben auf die individuellen psychologischen und sozialen Verarbeitungen, die wiederum mit Kontrollverlusten durchsetzt waren – immer auch je nach Krisenbetroffenheit" (Heitmeyer, 2022 b, S. 252 f.). Hierdurch entstanden durch das generelle Bedürfnis nach Realitätskontrolle Handlungsoptionen, die mehrfach variieren und auch autoritäre Versuchungen bzw. Gefahren beinhalten können.Abbildung 6: Analyseschema, erweitert und angepasst (Quelle: eigene Darstellung nach Heitmeyer, 2018, S. 21; Heitmeyer, 2022 b, S. 254)Fürderhin ist anzufügen, dass sich Kontrollverluste in Krisen verschiedenartig ausdrücken und sich Verhaltensmöglichkeiten zur Realitätskontrolle, also zur Lösung von Problemen, massiv verengen, insbesondere in systemischen Krisen. Individuelle Suchbewegungen setzen ein, um das grundlegende Bedürfnis nach Realitätskontrolle zu befriedigen. Diese Suchbewegungen schließen politische Suchbewegungen nach autoritären Akteur:innen mit ein, die die Wiederherstellung von Kontrolle durch Reduktion der Krisenkomplexität versprechen (Heitmeyer, 2022 b, S. 256).Krisen und Kontrollverluste treten daher als Treiber autoritärer politischer sowie gesellschaftlicher Entwicklungspfade in Erscheinung, da indes eine kritische Masse entstanden ist, die nicht mehr in der Lage ist, ihr zentrale Bedürfnis nach Realitätskontrolle im "bisher gewohnten Maße" zu realisieren. Genau das bieten autoritäre Akteur:innen im Gegensatz zur abnehmenden Kapazität liberaler Demokratien, geeignete Lösungen schnell zu finden und die Kontrolle wiederherzustellen (Heitmeyer, 2022 b, S. 257). Zudem ist diese versprochene Wiederherstellung keine Wiederherstellung des vorhergehenden Prä-Krisenzustandes, "[...] sondern eine autoritäre Veränderung von Kontrolle und damit auch veränderte ökonomische, soziale, kulturelle und politische Verhältnisse" (Heitmeyer, 2022 b, S. 257).Als Indiz sieht Heitmeyer zwei Mechanismen, die besonders hervorstechen: Einerseits die Ambivalenz, dass zahllose Widersprüche zunehmen, und andererseits die Ambiguität, dass zunehmende Komplexität von modernen Gesellschaften gepaart sind mit uneindeutigen Situationen und Zukünften. Ambivalenz- und Ambiguitätstoleranz kristallisieren sich also als unabdingbar heraus, um autoritären Versuchungen nicht nachzugeben."Denn wenn Sitationen [sic] oder auch die Anwesenheit von fremden Menschen als unberechenbar oder unkontrollierbar wahrgenommen werden, dann reagieren Personen, deren Ambiguitätstoleranz niedrig ist, mit vereinfachten Weltsichten oder Stereotypen, um wieder Ordnung, Struktur und Kontrolle zu erreichen" (Heitmeyer, 2018, S. 80).Hinzu tritt das Verschwimmen von gesellschaftlichen Koordinaten, die eigentlich als Vergewisserungen der jeweils eigenen Position in der Gesellschaft dienen, welches die Suchbewegungen nach politischen Akteur:innen aktiviert, die vorgeben, Widersprüche zu lösen, Unklarheiten in Klarheiten verwandeln und Kontrolle wiederherzustellen versprechen (Heitmeyer, 2018, S. 109 ff.; Heitmeyer, 2022 b, S. 258 f.).Hieraus könnte die Folgerung gezogen werden, dass das Potenzial von autoritären Versuchungen in der Moderne angelegt sei: "Ambivalenzen und Ambiguitäten als Grundparadigma der Moderne entfalten unter dem Druck von Krisen und damit verbundenen Kontrollverlusten eine neue Wucht, die ins Autoritäre drängt" (Heitmeyer, 2022 b, S. 259). Beispielsweise ist die erwähnte "Entweder-Oder" Logik im Vergleich zu "Mehr-oder-weniger" darauf angelegt, Ambivalenzen und Ambiguitäten zu beseitigen. "Das Autoritäre dient dann als Strategie zur Reduzierung von ökonomischer, sozialer und politischer Komplexität – und gleichzeitig von Freiheitsräumen" (Heitmeyer, 2022 b, S. 259).Heitmeyers Analysen zeigen, dass die Fähigkeiten zum Aushalten von Ambiguitäten und zum Umgang mit Ambivalenzen über zukünftige soziale, politische und ökonomische Entwicklungspfade in Teilen der Bevölkerung abnehmen. Dies ist passgenau für das Angebot vonseiten der autoritär-nationalradikalen Akteur:innen mit ihren dichotomischen Welt- und Gesellschaftsbildern (siehe Kapitel 2.2); das Angebot eignet sich hervorragend für mobilisierende Ideologien und rhetorische Eskalation (Heitmeyer, 2018, S. 246 f.).Erfolge rechter Parteien und Bewegungen wären demnach also nicht möglich gewesen ohne bestimmte Entwicklungen im sozialen System der Gesellschaft, im politischen System der Demokratie und im ökonomischen System des globalisierten Kapitalismus (Heitmeyer, 2018, S. 16). Konkreter ist es das Zusammenwirken eines autoritären Kapitalismus, sozialer Desintegrationsprozesse und politischer Demokratieentleerung als Ursachenmuster für die "Realisierung autoritärer Sehnsüchte" (Heitmeyer, 2018, S. 17).5. Die Partei "Alternative für Deutschland"Mit der inhaltlichen Neuausrichtung der vormals liberal-konservativen, eurokritischen Partei ab 2015 sowie mit dem immer weiter um sich greifenden Einfluss von rechtsextremistischen Akteur:innen innerhalb der AfD hält Heitmeyer es nicht mehr für angemessen, die AfD als rechtspopulistisch zu "verharmlosen", noch die Partei als vollständig rechtsextrem oder neonazistisch zu bezeichnen (Heitmeyer, 2022 a, S. 302; Heitmeyer, 2022 b, S. 265 f.; Heitmeyer & Piorkowski, 2023). Mit der herkömmlichen Typologie sei die AfD, als Typ einer neuen Partei, nicht zu beschreiben. Ebenso reichen die bisherigen Begriffe und Kategorien nicht aus, um "analytische Klarheit" über Zustand und Entwicklung der AfD zu gewinnen (Heitmeyer, 2018, S. 233).Seit dieser Neuausrichtung zieht die AfD Teile der Bevölkerung an, die unter den oben beschriebenen Krisen Kontrollverluste wahrnehmen oder empfinden und eine Wiedererlangung der Kontrolle forcieren. Das Autoritäre ist dann ein Weg zur Realitätskontrolle. Insofern lässt sich deutlich machen, dass die AfD nicht der Grund für die Entstehung von autoritären Versuchungen in der Bevölkerung ist. Diese autoritären Einstellungsmuster "schlummern" in Teilen der Bevölkerung bereits über einen längeren Zeitraum als Gefahrenpotenzial für die offene Gesellschaft (Heitmeyer, 2018, S. 113):"Ein Zwischenfazit zum Zusammenwirken von strukturellen Entsicherungen und individuellen Verunsicherungen zeigt, dass aufgrund der Krisen und ihrer Verarbeitungen, aufgrund von veränderten Lebensumständen und von Verschiebungen der gesellschaftlichen Koordinaten in entsicherten Zeiten bei Teilen der Bevölkerung ein erheblicher "Vorrat" an gruppenbezogen-menschenfeindlichen Einstellungen existiert, an die autoritäre politische Akteure bloß noch anzuknüpfen brauchten" (Heitmeyer, 2018, S. 117).Dies bedeutet, dass die Erfolgsvoraussetzungen des autoritären Nationalradikalismus der AfD eine längere Vorgeschichte haben, die in den letzten Jahrzehnten geformt und vorangetrieben wurden durch neue Entwicklungen des kapitalistischen Systems. Die Wähler:innen der AfD waren zuvor Wechselwähler:innen oder wählten gar nicht (Heitmeyer, Freiheit & Sitzer, 2021, S. 115). Sie verharrten dann in "wutgetränkter Apathie", was folgenlos blieb für die Politik, da diese Teile der Bevölkerung keinen wahlpolitischen Ausdruck fanden.Dieser in der Bevölkerung existierende Autoritarismus, der laut Heitmeyer "[...] vagabundierte, mal auf diese, mal auf jene im Bundestag vertretene Partei setzte oder aber gar nicht offen zutage trat, sondern in der politischen Apathie verharrte [...]" (2018, S. 237), hat durch das Aufkommen der Partei "Alternative für Deutschland" und ihren autoritären Nationalradikalismus ein neues politisches "Ortsangebot" bekommen. Hinsichtlich des oben beschriebenen Zwischenfazits lässt sich konstatieren, dass es der AfD offensichtlich gelungen ist, "[...] Personen aus ihrer individuellen Ohnmacht herauszuholen und mit kollektiven Machtfantasien auszustatten. Dazu gehört es auch, gruppenbezogen-menschenfeindliche Einstellungen zu kanalisieren und gegen schwache Gruppen zu richten" (Heitmeyer, Freiheit & Sitzer, 2021, S. 116).In diesen Prozessen ist die Ideologie der Ungleichwertig eingelagert und wird genutzt, um sich selbst aufzuwerten durch Abwertung und Ausgrenzung der vermeintlich "Anderen". Für die sogenannte "rohe Bürgerlichkeit" entstehen neue Anschlussmöglichkeiten. Unter diesem Begriff verbirgt sich keine soziale Klassenzugehörigkeit, sondern es handelt sich um eine verachtende Haltung gegenüber Schwächeren, geäußert in einer rabiaten Rhetorik und gepaart mit einer Ideologie, in der bestimmte Gruppen als ungleichwertig angesehen werden, während sich die eigentlichen autoritären Haltungen hinter einer dünnen Schicht zivilisiert-vornehmen, also bürgerlichen äußeren Umgangsformen, verbergen (Heitmeyer, 2018, S. 310; Heitmeyer, 2022 b, S. 273).6. Der autoritäre Nationalradikalismus der AfDSo folgert Heitmeyer, dass die AfD vorrangig für jenes Publikum attraktiv ist, "[...] das sich einerseits von den flachen Sprüchen rechtspopulistischer Akteure, die nur auf schnelle Erregungszustände fixiert sind, nichts verspricht, und sich andererseits von der Brutalität des Rechtsextremismus distanziert, um seine Bürgerlichkeit zu unterstreichen" (Heitmeyer, 2018, S. 235). Er weist zurecht auf ihre "bürgerliche Patina" hin, die die AfD für viele gesellschaftliche Gruppen wählbar macht (Heitmeyer & Piorkowski, 2023).Vor diesem Hintergrund überrascht der empirische Befund nicht, dass die bereits benannten 19,6 % der Bevölkerung mit Einstellungen zu gruppenbezogener Menschenfeindlichkeit sich selbst in der "politischen Mitte" einordnet, weshalb sich die "bürgerliche Patina" für die AfD als unentbehrlich erweist (Schaefer, Mansel & Heitmeyer, 2002, S. 132 f.).Die neue begriffliche Rahmung dient dazu, unterschiedliche inhaltliche und formale Ebenen zusammenzufassen, wie prägende Einstellungsmuster, der Mobilisierungsstil sowie zentrale programmatische Aussagen zu "bewegenden Themen" (Heitmeyer, 2018, S. 234). Daher ordnet Heitmeyer die AfD als autoritäre nationalradikale Partei ein, die gleichzeitig als Kern des autoritären Nationalradikalismus in Deutschland fungiert. Im Folgenden wird das Agieren der Partei als Protagonistin des autoritären Nationalradikalismus anhand der in Kapitel 2.4 erklärten Charakteristika erläutert:Als autoritär wird sie charakterisiert, da das Kontrollparadigma grundsätzlich ihre Vorstellungen von Politik sowie Gesellschaft durchzieht. Beispiele sind Forderungen nach einer streng hierarchisch organisierten sozialen Ordnung sowie nach rigider Führung in politischen Institutionen. Auch beruht das Verständnis von Politik und Gesellschaft wesentlich auf den Kategorien "Kampf und Konflikt", womit dichotomische Gesellschaftsbilder und strenge Freund-Feind-Schemata einhergehen (Heitmeyer, 2018, S. 234).Als national wird sie aufgrund der "[...] Betonung der außerordentlichen Stellung des deutschen Volkes" bezeichnet (Heitmeyer, 2018, S. 234). Hinzu kommt auch die Beanspruchung einer "neuen deutschen" Vergangenheitsdeutung sowie eines Überlegenheitsanspruchs gegenüber anderen Nationen oder ethnischen und religiösen Gruppen (Heitmeyer, 2018, S. 235).Das radikale Moment liegt in der Bekämpfung der offenen Gesellschaft und dem Ziel, die liberale Demokratie grundlegend umzubauen. Somit positioniert sich die Partei gegen zwei zentrale politisch-gesellschaftliche Errungenschaften. Hierzu dient ein rabiater und emotionalisierter Mobilisierungsstil der AfD, der mit menschenfeindlichen Grenzüberschreitungen arbeitet (Heitmeyer, 2018, S. 235).Die AfD hat die Destabilisierung gesellschaftlicher und politischer Institutionen zum Ziel, was entscheidend für die Erfolgsgeschichte der Partei ist, es geht um Militär, Polizei, Gerichte, Gewerkschaften, Rundfunkräte, politische Bildung, Theater oder auch Feuerwehrverbände (Heitmeyer, Freiheit & Sitzer, 2021, S. 107). Hierin besteht nach Heitmeyer die eigentliche Gefahr. Das Fiasko rund um die Wahl des Ministerpräsidenten in Thüringen 2020 zeigt, dass mittlerweile auch das parlamentarische System von der forcierten Destabilisierung betroffen ist (Heitmeyer, Freiheit & Sitzer, 2021, S. 107). Der autoritäre Nationalradikalismus der AfD und das Agieren der Partei soll im folgenden exemplarisch an zwei Krisen der vergangenen Jahre behandelt werden.Die Fluchtbewegungen ab 2015 bezeichnete Alexander Gauland als "Geschenk" für seine Partei, die AfD (Decker, 2022). In der Tat diente sie AfD und PEGIDA, um Personen, die vorrangig unter Anerkennungsdefiziten litten, mittels dichotomischer Weltbilder und der Emotionalisierung sozial-kultureller Probleme zu instrumentalisieren. Der anhaltende Erfolgsmechanismus von Parteien und Bewegungen wie AfD und PEGIDA besteht demnach darin, Anerkennungsprobleme zu bearbeiten und so Selbstwirksamkeit erfahren zu lassen. Als (potenzielle) Wähler:in würde man wahrgenommen werden und dies ließ Handlungsbereitschaften entstehen, die einerseits autoritäre Ausrichtungen entwickelten und andererseits themengebunden immer wieder neu aktiviert werden können (Heitmeyer, 2022 b, S. 275). Dies ist bei dem bereits genannten "Entweder-Oder"-Mechanismus der Fall, da es um "Alles" geht und Kompromisse von vornherein ausschließt.Weiter führt Heitmeyer aus, dass die Verbindungen von einem systemischen Krisentypus, wie beispielsweise der COVID-19-Pandemie, mit einer "Entweder-Oder"-Konfliktstruktur gesellschaftliche Entwicklungen begünstigen, die zwar nicht die Gesellschaft spalten, jedoch asymmetrisch polarisieren zwischen einer Bevölkerungsmehrheit und einer Minderheit (Beispiel: Geimpfte vs. Impfgegner:innen). In solchen Konstellationen enthüllt sich das Zusammenwirken und gemeinsame Auftreten der aufgeführten Mechanismen als äußerst gewaltanfällig (Heitmeyer, 2022 b, S. 275 f.).Im Jahr 2015 war der "Kampf um die Opferrolle" ein zentraler Mechanismus der AfD, um die Mobilisierung gegenüber Geflüchteten und staatlicher sowie gesellschaftlicher Integrationspolitik voranzubringen. Entsprechend entstanden Kampfbegriffe wie "Umvolkung" oder das Propagieren des "Untergangs der deutschen Kultur". Die Opferrolle kann nach Heitmeyer als Schlüsselkategorie interpretiert werden, "[...] denn wer [sich] in der öffentlichen Wahrnehmung glaubhaft als Opfer darstellen kann, schafft damit eine zentrale "moralgetränkte" Kategorie, um Widerstand als Notwehrrecht einschließlich Gewalt zu legitimieren" (Heitmeyer, 2022 b, S. 266). Insofern gilt der Opferstatus als eines der wichtigsten Instrumente, um Anhänger:innen an sich zu binden.Im Verlauf der COVID-19-Pandemie verkehren sich die Verhältnisse in den digitalen Medien, auf radikalisierten Demonstrationen und in der öffentlichen Debatte, was auch darauf zurückzuführen ist, dass der Mechanismus einer veränderten "Täter-Opfer"-Konstruktion sich ausbreitet. Neue Gelegenheitsstrukturen und Mobilisierungsaktivitäten werden in Figuren von "Freiheitskämpfern" ausgebaut und radikalisiert.Während der sogenannten "Flüchtlingskrise" waren es vor allem männliche Geflüchtete, die in der öffentlichen Wahrnehmung als bedrohliche Täter, die Verbrechen wie Vergewaltigungen und Tötungen begehen, dargestellt wurden. Staatliche Institutionen ließen sie "gewähren" im Sinne einer bevorstehenden "Umvolkung" (Heitmeyer, 2022 b, S. 266). In der COVID-19-Krise trat der Staat als Haupttäter auf: Die Bevölkerung wurde in den Lockdown getrieben, massiven Freiheitsbeschränkungen unterworfen und Ungeimpfte – ob Gegner:in oder nur Zweifelnde – wurden durch eine "Corona-Diktatur" in die Knie gezwungen.In diesem Strukturwandel wirken Verschwörungstheorien passgenau auf ideologische Konzeptionen ein, die an Krisen sowie an Kontrollverluste andockt. Verschwörungstheorien bilden hier als quasi-religiöses, glaubensbasiertes Kampfinstrument eine Art Ersatzlösung für die in der Moderne verloren gegangenen Gewissheiten und markieren gleichzeitig Feindgruppen für autoritäre politische "Lösungen", meist auch antisemitisch aufgeladen.Im Sinne des angeführten konzentrischen Eskalationskontinuums sind es unter anderem solche Parolen und Kampfbegriffe, die als begrifflich "notwehrrelevante" Legitimationsbrücken dienen. So wurden während der COVID-19-Pandemie von parlamentarisch einflussreichen Positionen weitere eskalationsorientierte Handlungsweisen beflügelt (Heitmeyer, 2022 b, S. 267). Die bisher aufgeführten Mechanismen und Strukturen fungieren demnach also als Bestandteile von Radikalisierungsprozessen. Diese wiederum bilden die Voraussetzungen für das Aufkommen von physischer Gewalt, von Körperverletzungen bis hin zu rechtsterroristischen Vernichtungstaten. Um diese Wirkung aufzuzeigen, soll folgend das Agieren der AfD anhand des oben beschriebenen Eskalationskontinuums verdeutlicht werden.In den "Schalen" des "Zwiebelmusters" wird, wie oben erläutert, die Gewaltorientierung größer, während die eskalierenden Akteur:innengruppen kleiner werden. Als Kernmechanismus werden die verschiedenen Legitimationsbrücken angeführt. In der äußersten, der größten Schale, finden sich feindbildliche autoritäre Einstellungsmuster in Teilen der Bevölkerung gegenüber dem Staat als Ganzes und generell demokratischer Politik. Diese liefern die entsprechenden Legitimationen für das Auftreten und Agieren des autoritären Nationalradikalismus der AfD.Zu Beginn der Pandemie forderte die AfD zunächst besonders harte Maßnahmen zur Eindämmung der Ausbreitung, sie blieb bei ihrem Stil der Emotionalisierung politischer und sozialer Probleme inklusive dem autoritären Kontrollparadigma. Da hiermit keine Zustimmungserweiterungen von potenziellen Wähler:innen gewonnen werden konnten, wurde eine radikale Richtungsänderung ins Gegenteil vollzogen. Dies führt Heitmeyer an, um zu verdeutlichen, "[...] dass es der Partei nicht um sachbegründete Prinzipien, sondern um opportunistische Nutzenkalküle zur Ausbreitung von Zustimmungen bzw. Verfestigungen der Wählerschaft geht – und um die Straße" (Heitmeyer, 2022 b, S. 276). Insofern mussten Parolen geprägt werden, wie der Begriff der "Corona-Diktatur", dem Selbststilisieren als "Freiheitskämpfer:innen" oder dem Verbreiten von Verschwörungsideologien wie des "Great Resets" (Siggelkow, 2023).So trat die AfD im Herbst und Winter 2021/2022 als wesentlicher Treiber der Corona-Proteste auf und baute gleichzeitig mit diesen Parolen, wie bereits ab 2015 in Zusammenhang mit der Krise um die Flüchtlingsbewegungen, gezielt Legitimationsbrücken für ohnehin schon mit Gewalt operierende rechtsextremistische Gruppen (Heitmeyer, 2022 b, S. 277). Diese Gruppierungen können sich durch diese Parolen auf eine Art gewaltlegitimierendes "Notwehrrecht" berufen, um gegen eine "Diktatur" zu agieren, verbunden mit "Umsturzfantasien".Heitmeyer führt weiter aus, dass diese Gruppen sich öffentlich in Demonstrationen bewegen und gleichzeitig klandestine rechtsterroristische Kleingruppen bedienen, "[...] die unter anderem aus Misserfolgen gegen die staatlichen Ordnungsmächte dann Legitimationen zum Umsturz des Systems ziehen" (Heitmeyer, 2022 b, S. 277). Aus diesem Mechanismus eröffnet sich, was Heitmeyer durch das konzentrische Eskalationskontinuum eindrucksvoll darstellen kann, dass schlussendlich Teile der Bevölkerung durch die verschiedenen "Schalen" hindurch zu den Legitimationslieferant:innen zählen, auf die sich Gewaltakteur:innen berufen, wenn sie sich auf "das Volk" beziehen (Heitmeyer, 2022 b, S. 277).Die Mechanismen verweisen insgesamt auf Bedrohungen der liberalen Demokratie und der offenen Gesellschaft. Weiter führt Heitmeyer an, dass staatliche Kontrollapparate sowie die Politik samt Appellen oder Ankündigungen der "wehrhaften Demokratie" nicht in der Lage sind, mehrere dieser Mechanismen in ihren Wirkungen "in den Griff zu bekommen". Die aufgezeigten Mechanismen, die bereits während der Krise der Flüchtlingsbewegungen und der Corona-Pandemie gewirkt haben, sind etabliert und werden auch weiterhin wirken.Die so genannte "3K-Trias" - Krisen, Konfliktstruktur und Kontrollverluste - gilt mittlerweile als etabliert und wirkt als wirkungsvoller Zusammenhang für autoritäre Entwicklungen. Die zukünftigen Krisenthemen werden wechseln, jedoch bleiben die gesellschafts- und demokratiezerstörerischen Mechanismen bestehen und können durch autoritär-nationalradikale Akteur:innen immer wieder neu themenbezogen aktiviert und emotional aufgeladen werden (Heitmeyer, 2022 b, S. 277).7. Fazit & AusblickHeitmeyers Arbeiten bilden einen Meilenstein in der empirischen Forschung zu Einstellungen gruppenbezogener Menschenfeindlichkeit und zu rechten Einstellungen in der Bevölkerung. Er wies bereits zu Beginn seiner Studien im Jahr 2001 darauf hin, dass ein globalisierter Kapitalismus zu politischen und sozialen Kontrollverlusten führen könne, die mit Demokratieentleerung und einem Erstarken des rabiaten Rechtspopulismus einhergehen.Anhand der Ergebnisse seiner langjährigen Forschung, unter anderem der Langzeitstudie zu den "deutschen Zuständen", konnte er empirisch nachweisen, dass knapp 20 % der Bevölkerung autoritäre Einstellungen haben (Schaefer, Mansel & Heitmeyer, 2002, S. 125 f.). Diese Einstellungen "schlummerten" in diesen Bevölkerungsteilen und fanden politisch bis zum Aufkommen der AfD keine sonderliche Beachtung. Sie "vagabundierten" zwischen den Parteien - meist zwischen den Volksparteien CDU/CSU und der SPD - oder verharrten in einer "wutgetränkten Apathie" und machten von ihrem Wahlrecht keinen Gebrauch (Schaefer, Mansel & Heitmeyer, 2002, S. 127 f.).Die strukturellen Ursachen des autoritären Kapitalismus, also Transformationsprozesse in ökonomischen Strukturen samt den Krisen in der "Post-9/11"-Ära führen zu Veränderungen im sozialen Bereich, wie individuelle Verarbeitungsprozesse der Krisenfolgen in Form von Abstiegsängsten oder Anerkennungsverlusten, also soziale Desintegrationserfahrungen bzw. Desintegrationsgefährdungen. In Kombination mit den damit einhergehenden Kontrollverlusten sehnen sich Teile der Bevölkerung nach einem krisensicheren, kollektiven kulturell-politischen Identitätsanker und nach der "Wiederherstellung der Ordnung" (Heitmeyer, 2022 a, S. 325). Dies schafft günstige Gelegenheitsstrukturen für die AfD, die sich 2015 inhaltlich radikal neu ausrichtete und als autoritär nationalradikales Angebot wahlpolitisch von diesen Entwicklungen profitierte. Durch ihre Fokussierung auf die kulturelle Dimension hat die Partei die Möglichkeit erhalten, "[...] soziale Kontrollverluste in Versprechungen zur Wiederherstellung von politischer Kontrolle zu übersetzen" (Heitmeyer, 2022 a, S. 325).Die Frage nach dem weiteren Verlauf liegt auf der Hand. Hier spricht Heitmeyer von "Zukünften" in einer Zeit, in der viele Menschen auf tiefgreifende Verunsicherungen seit 2001 mit einer Sehnsucht nach Ordnung, Kontrolle und Sicherheit reagiert haben, die von dem autoritären Nationalradikalismus der AfD bedient wird (Heitmeyer, Freiheit & Sitzer, 2021, S. 281). Zu den Entsicherungen der sozialen Zustände der letzten Jahrzehnte gesellt sich nun eine "Unübersichtlichkeit möglicher Zukünfte". Klar ist, dass die Routinen zur Bewältigung politischer, ökonomischer und sozialer Probleme und Krisen nicht länger funktionieren und es kein Zurück zu den Zuständen davor geben wird.Nach Heitmeyer muss die Frage nach der Resilienz demokratischer Einstellungen und Gegenevidenzen zum grassierenden Autoritarismus auf der Ebene der Akteur:innen angesetzt werden, bei der Bürger:innenschaft. Jedoch beschreibt er sie, die in Krisen sonst durchaus wehrhaft und spontan auf Herausforderungen reagierten und heute mehr denn je gefragt seien, als erschöpft, auch wenn in der Mehrheit der europäischen Staaten bisher nur eine Minderheit der autoritären Versuchung vollends nachgibt (Heitmeyer, Freiheit & Sitzer, 2021, S. 282; Heitmeyer, 2022 b, S. 277).Dennoch haben sich quer durch die Altersgruppen und unabhängig von der sozialen Lage unterschiedliche Teile der Bevölkerung "[...] statistisch signifikant und im Erscheinungsbild deutlich autoritären Versuchungen nachgegeben [...]" (Frankenberg & Heitmeyer, 2022, S. 74). Ebenso erschöpft seien auch die politischen Eliten, die eigentlich Visionen und Ideen für individuelle und gesellschaftliche Zukünfte, die Freiheit spenden und Sicherheit verheißen, entwickeln sollten. Es benötigt also mehr visionäre und zukunftssichernde Gesellschafts- und Politikvorstellungen gepaart mit neuen Beteiligungsformen, die von den Bürger:innen wahrgenommen werden (Heitmeyer, 2022 b, S. 278).Aktuelle empirische Befunde zu weiteren demokratischen Fortschritten geben wenig Anlass zu Optimismus (Frankenberg & Heitmeyer, 2022, S. 73 f.). Insofern folgert Heitmeyer, dass sich der Höhenflug autoritärer Politikangebote weiter fortsetzen wird, insofern sich der autoritäre Nationalradikalismus nicht selbst (von innen) zerlegt und es kein massives politisches Umsteuern mit gravierenden wirtschaftspolitischen Reformen gibt, wofür derzeit keine Anzeichen bestehen (Heitmeyer, 2018, S. 368). Nach Heitmeyer müssten aus den folgenden Punkten ökonomische, soziale und politische Konsequenzen gezogen werden:"Der finanzialisierte Kapitalismus verfolgt weiter ungehindert seine globale Landnahme, ohne Rücksicht auf die gesellschaftliche Integration.Die nationalstaatliche Politik ist angesichts der ökonomischen Abhängigkeit nicht willens oder in der Lage, soziale Ungleichheit konsequent zu verringern.Ein Fortschreiten der sozialen Desintegration ist angesichts von Prozessen wie der Digitalisierung sehr wahrscheinlich.Kulturelle Konflikte entlang konfessioneller und religiöser Grenzen werden nicht dauerhaft befriedet; vielmehr ist davon auszugehen, dass sie – auch im Zusammenhang mit Migrationsbewegungen – immer wieder angefacht werden.Sozialgeografische Entwicklungen wie Abwanderung und das ökonomische Abdriften ganzer Regionen gehen ungebremst weiter" (Heitmeyer, Freiheit & Sitzer, 2021, S. 283 f.).Die aufkommenden Probleme dieser auf Dauer gestellten Faktoren können von autoritär nationalradikalen Parteien und Bewegungen als "Signalereignisse" für sich ausgebeutet werden. Sie stellen also "stabile" günstige Voraussetzungen für ein weiteres Erstarken des autoritären Nationalradikalismus der AfD dar (Heitmeyer, Freiheit & Sitzer, 2021, S. 284). Es ist mittelfristig nicht abzusehen, dass die Themen, die die AfD mit ihrer eskalativen Rhetorik bearbeitet, in absehbarer Zukunft von der Bildfläche verschwinden werden.Zudem weisen die Strukturen der AfD und des sie unterstützenden Milieus mittlerweile einen hohen Organisations- und Institutionalisierungsgrad auf. Insofern ist davon auszugehen, dass die autoritär nationalradikalen Parteien und Bewegungen öffentliche Debatten weiterhin maßgeblich prägen und so das soziale Klima innerhalb der Gesellschaft dauerhaft in Richtung von mehr Aggressivität verschieben werden.Die Bedrohungen für die liberale Demokratie und die offene Gesellschaft durch den globalisierten Kapitalismus, durch Desintegrationsprozesse und dem autoritären Nationalradikalismus sind offensichtlich. Es hängt also viel von der Kraft konfliktbereiter und widerspruchstrainierter Gegenbewegungen ab, die für die offene Gesellschaft eintreten und sich nicht mit den Normalitätsverschiebungen, die aktuell bereits ablaufen, abfinden wollen (Heitmeyer, 2018, S. 372).LiteraturverzeichnisDahrendorf, R. (14. 11 1997). Die Globalisierung und ihre sozialen Folgen werden zur nächsten Herausforderung einer Politik der Freiheit. Von zeit.de: https://www.zeit.de/1997/47/thema.txt.19971114.xml/komplettansicht abgerufen am 21.10. 2023.Decker, F. (02. 12 2022). Etappen der Parteigeschichte der AfD. Von bpb.de: https://www.bpb.de/themen/parteien/parteien-in-deutschland/afd/273130/etappen-der-parteigeschichte-der-afd/ abgerufen am 21.10. 2023.Frankenberg, G., & Heitmeyer, W. (2022). Autoritäre Entwicklungen. Bedrohungen pluralistischer Gesellschaften und moderner Demokratien in Zeiten der Krisen. In G. Frankenberg, & W. Heitmeyer (Hg.), Treiber des Autoritären: Pfade von Entwicklungen zu Beginn des 21. Jahrhunderts (S. 15-86). Frankfurt a. M.: Campus Verlag GmbH.Heitmeyer, W. (2001). Autoritärer Kapitalismus, Demokratieentleerung und Rechtspopulismus. Eine Analyse von Entwicklungstendenzen. In D. Loch, & W. Heitmeyer (Hg.), Schattenseiten der Globalisierung (S. 497-534). Frankfurt a. M.: Suhrkamp Verlag, 1. Auflage.Heitmeyer, W. (2018). Autoritäre Versuchungen. Berlin: Suhrkamp Verlag.Heitmeyer, W. (2022 a). Autoritärer Nationalradikalismus (2018). In K. Möller (Hg.), Populismus. Ein Reader (S. 300-328). Berlin: Suhrkamp Verlag, 1. Auflage.Heitmeyer, W. (2022 b). Krisen und Kontrollverluste - Gelegenheitsstrukturen für Treiber autoritärer gesellschaftlicher Entwicklungspfade. In G. Frankenberg, & W. Heitmeyer (Hg.), Treiber des Autoritären: Pfade von Entwicklungen zu Beginn des 21. Jahrhunderts (S. 251-280). Frankfurt a. M.: Campus Verlag GmbH.Heitmeyer, W., & Heyder, A. (2002). Autoritäre Haltungen. Rabiate Forderungen in unsicheren Zeiten. In W. Heitmeyer (Hg.), Deutsche Zustände. Folge 1 (S. 59-70). Frankfurt a. M.: Suhrkamp Verlag, 1. Auflage.Heitmeyer, W., & Piorkowski, C. (09. 10 2023). "Autoritärer Nationalradikalismus". Von bpb.de: https://www.bpb.de/themen/deutschlandarchiv/522277/autoritaerer-nationalradikalismus/ abgerufen am 21.10. 2023.Heitmeyer, W., Freiheit, M., & Sitzer, P. (2021). Rechte Bedrohungsallianzen. Bonn: Sonderausgabe für die Bundeszentrale für politische Bildung.Laudenbach, P. (09. 07 2023). Die Gründe des Aufstiegs der AfD: Soziologe Wilhelm Heitmeyer im Interview. Von sueddeutsche.de: https://www.sueddeutsche.de/kultur/wilhelm-heitmeyer-afd-analyse-1.6012038?reduced=true abgerufen am 21.10. 2023.Nickschas, J.-B. (06. 02 2023). Zehn Jahre AfD: Zunehmend radikal. Von tagesschau.de: https://www.tagesschau.de/inland/innenpolitik/afd-zehn-jahre-103.html abgerufen am 21.10. 2023.Reuters Staff. (24. 09 2017). Gauland kündigt an - "Wir werden Regierung jagen". Von reuters.com: https://www.reuters.com/article/deutschland-wahl-afd1-idDEKCN1BZ0QJ abgerufen am 21.10. 2023.Schaefer, D., Mansel, J., & Heitmeyer, W. (2002). Rechtspopulistisches Potential. Die "saubere Mitte" als Problem. In W. Heitmeyer (Hg.), Deutsche Zustände. Folge 1 (S. 123-135). Frankfurt a. M.: Suhrkamp Verlag, 1. Auflage.Siggelkow, P. (16. 01 2023). Verschwörungsmythen: Klaus Schwab, das WEF und der "Great Reset". Von tagesschau.de: https://www.tagesschau.de/faktenfinder/wef-schwab-101.html abgerufen am 21.10. 2023.Universität Bielefeld. (o.J.). Prof. Dr. Wilhelm Heitmeyer. Von ekvv.uni-bielefeld.de: https://ekvv.uni-bielefeld.de/pers_publ/publ/PersonDetail.jsp?personId=21765 abgerufen am 21.10. 2023.
Ziele und Befunde der Arbeit Das durchgeführte Forschungsvorhaben zeigt durch einen holistischen, gleichzeitig politikwissenschaftlichen wie auch historischen Ansatz Folgendes: Nämlich, warum und wie das liberale, regelbasierte Weltordnungssystem im Untersuchungsraum der US-Präsidentschaften von Clinton bis Obama kontinuierlich durch ein System der realistischen, kurzfristig wirkenden Durchsetzung vitaler Interessen mittels militärischer Instrumentenpräferenz unter fortlaufender militärischer Optimierung ergänzt bzw. ersetzt wird. Dies erklärt auch, warum die "transaktionale Führung Trumps"(1), die nach dem Untersuchungsraum von 1993 bis 2017 mit Außenwirkung die Reduktion idealistischer "Grand Strategy"-Elemente bzw. wohlwollender Ordnungsmacht unter Kostenabwälzung und Vorteilsverringerung europäischer Nato-Verbündeter vornimmt, in Kontinuität zur ausgeübten Führungsmacht der Amtsvorgänger steht. Ergebnisse dieser Dissertation wie die sich ab 1993 immer nachdrücklicher abzeichnende Auflösung der multilateralen Grundordnung legen damit nahe, Trumps bisherige Außen- und Sicherheitspolitik als deutlich spürbares Krisensymptom und nicht als Ursache dieses Abbaus der nach 1945 eingerichteten Weltordnung einzustufen. Diese Auflösung ist mit einer Erosion des letztlich transatlantisch angestoßenen bipolaren "amerikanischen Systems" gleichzusetzen. Die Implementierung dieses Systems erfolgte als "Lernstunde zweier Weltkriege" auf Basis der mit der Aufklärung und den amerikanischen Gründungskennziffern eingeleiteten neuzeitlichen Ordnungskonzeptionen: Daher ist diese Auflösung auch ein Indikator für das Scheitern neuzeitlicher Ordnungskennziffern, die sich im "American way of life" entfalten konnten. Als ursächlich für die geschilderte Entwicklung wird eine von Clinton bis Obama konstant ansteigende Gesamtbedrohung nachgewiesen, mit der die konsequente Schwächung amerikanischer Vormacht verknüpft ist. Diese fußt u.a. auf der Basis von seit 1979 postulierten Klimawandeleffekten als Bedrohungsverstärker bei erreichter amerikanischer Förderspitze in fossilen Rohstoffen und ansteigendem Ressourcenbedarf im Kontext schrumpfender Rohstoffvorkommen. Weiter sind für den Untersuchungsraum die zunehmende Einwirkung der in den 1980er Jahren begonnenen "US-Konservativen Revolution" auf die Ausübung der Außen- und Sicherheitspolitik unter Einflusszugewinn von Konzernen und Lobbygruppen auf beispielsweise policy-Implementierung sowie die neuen Rahmenbedingungen zu addieren. Darunter fallen die sich ausformende Digitalisierung, die hohen Ressourcenverbrauch mit sich bringt, und die ansteigende Weltbevölkerung unter spezifischen demographischen Vorzeichen. Darüber hinaus sind beispielsweise die Beibehaltung des bipolar angewachsenen Rüstungssektors als ökonomische Basis militärischer Vormacht und das langsame Abbröckeln der Dollar-Hegemonie seit etwa 1973 zu berücksichtigen. Durch komplexes Zusammenspiel von "Grand Strategy"-Umsetzung gemäß der Prämisse amerikanischen Führungsmachtausbaus unter neokonservativem bzw. christlich-rechtem Einfluss mit asymmetrischen sowie reaktivierten konventionellen Bedrohungsgegenständen, Bedrohungsverstärkern und neuen Rahmenbedingungen wird der lineare Verlauf der Gesamtbedrohung im Zeitraum von 1993 bis 2017 verständlich: Im Kontext der "Grand Strategy"-Ausführungen erklären insbesondere das Bedrohungsabwehr-, Bedrohungsverstärker- und Marktwirtschaftsverständnis der US-Far Right in komplexer Wechselwirkung mit erstarkenden transnationalen Konzernen, Lobbygruppen, Individuen(2), informellen Netzwerken und staatlichen Akteuren in Bezug auf Bedrohungsgegenstände sowie Bedrohungsverstärker(3) im Zusammenhang mit der post-bipolaren, globalen Verankerung amerikanischer Wirtschafts- und Konsummuster das Folgende: Nämlich die Anpassung der amerikanischen Bedrohungsabwehr - unter Aufbau der "imperial presidency"(4) bzw. Einhegung des Systems von "checks and balances" - samt deren Implikationen auf das bipolare liberale Ordnungssystem. Sodann wird die notwendige Weiterführung in der Nato durch amerikanisch aufgeworfenen Nato-Umbau zur entsprechenden Umsetzung transformierter amerikanischer Bedrohungsabwehr bzw. Legitimierung der systemischen Anpassung begreifbar. Genauso wird nachvollziehbar, dass die so eingerichtete Bedrohungsabwehr nur kurzfristig abwehrt: Stattdessen verstärkt sie asymmetrische und konventionelle Bedrohung wie auch Bedrohungsverstärker - unter Einleitung von Rüstungsspiralen bzw. Demontierung der Rüstungskontrolle - und damit die Gesamtbedrohung. Dies lässt einen Konfliktausbruch jenseits des bisher Vorstellbaren konstant näher rücken. Gleichzeitig ist der dringende Bedarf an Mobilisierung der transatlantischen Zusammenarbeit im Hinblick auf Förderung der globalen Kooperation staatlicher, aber auch nichtstaatlicher Akteure hinsichtlich der Bedrohungswurzeln samt der sich verschlechternden Voraussetzungen illustriert: Denn mit jedem Anstieg der Gesamtbedrohung ist durch die eingeleitete amerikanische sicherheitspolitische Anpassung und deren Weiterführung in der Nato ein Abbau der regelbasierten Basiskennziffern im Untersuchungsraum verknüpft. Dies reduziert in fortlaufender Konsequenz die Grundlage für oben genannte, konstant zentraler werdende Zusammenarbeit, um eine sukzessive Erosion des bipolaren "amerikanischen Systems" unter künftigen Dystopien zu verhindern bzw. zumindest zu begrenzen. Durch die Forschungsergebnisse wird der bisherige Forschungsstand auf den Kopf gestellt, da so beispielsweise gezeigt werden kann, dass mittels der Transformation der Nato keine gleichberechtigte transatlantische Lastenteilung oder eine Weiterentwicklung der Nato gemäß der Nato-Gründungskennziffern erzeugt wird. Dies gilt auch für den europäischen Widerstand gegenüber der tatsächlichen Verankerung der Natotransformationspositionen(5), der auf die Erosion des bipolaren liberalen Ordnungssystems bzw. der US-Vorteilsgewährung sowie so begünstigter Partikularinteressensicherung abhebt. Außerdem wird deutlich, dass eine Kontinuitätslinie in der Bedrohungsabwehr von Clinton bis Obama unter unterschiedlicher Außenwirkung und dem Grundmuster "Battleship America" vorliegt - und eben nicht eine multilateral ausgerichtete Außen- und Sicherheitspolitik unter Clinton, die als Folge von 9/11 in einen unilateralen Pendelausschlag unter G. W. Bush 43 mündet, der durch die Obama-Administration wieder zurückgenommen wird. Die Arbeit basiert auf einer umfassenden Fülle an Literatur, die das aufwendige Literaturverzeichnis widerspiegelt: Darunter fallen vielfältige amerikanische und europäische Publikationen, Monographien und entsprechende Sekundärliteratur, wie Biographien, Veröffentlichungen unterschiedlichster Natur wichtiger Vertreter der transatlantischen Forschungselite, Akteure der entsprechenden Politikplanung und -ausführung und wissenschaftliche Artikel aus Fachzeitschriften zu allen Forschungsbereichen bzw. politikwissenschaftlicher Methodik und Theorie. Weiter wurden u.a. Veröffentlichungen bzw. relevante Dokumente von Regierungen, Außenministerien, Verteidigungsministerien, Regierungsorganen, Denkfabriken, universitären Forschungszentren sowie der Nato verwendet. Struktur der Arbeit Konkret ist die vorliegende Dissertation in zwei Bände sowie einen Anhangsband unterteilt: Band 1 umfasst Schwerpunkt 1, eine Prozessanalyse unter offensiver neorealistischer Verortung, Band 2 den darauf aufbauenden Schwerpunkt 2, einen Vergleich ("structured focussed comparison") unter defensiver neorealistischer Verortung. Im Anhangsband finden sich ergänzende Ausführungen zu Kapitel 1, Band 1 in Bezug auf den Forschungsstand, Literatur und Quellenlage, theoretische Verortung sowie Wahl des Untersuchungsraumes bzw. ausgewählter europäischer Nato-Partner. Weiter sind ein historisches Kapitel als Voraussetzung zum "process-tracing" in Kapitel 2, Band 1 und ein Abbildungs- und Abkürzungsverzeichnis wie auch ein Literaturverzeichnis enthalten. Insgesamt ermitteln die beiden aufeinander aufbauenden Schwerpunkte mittels qualitativer Methoden das Folgende: Nämlich die übergeordnete amerikanische sicherheitspolitische Reaktion auf eine neue Gesamtbedrohung sowie deren Weiterführung und Legitimierungschance in der Nato im Untersuchungsraum von Clinton bis Obama. Auf Basis des ersten Teils der Hypothese wird in Schwerpunkt 1, Band 1 ein Zusammenhang zwischen der Beibehaltung des bipolaren "US-Grand Strategy"-Ziels amerikanischer Führungs- und Ordnungsmacht sowie bipolarer außenpolitischer "Grand Strategy"-Kennziffern bzw. einer sich komplex entwickelnden neuen Gesamtbedrohung, amerikanischer sicherheitspolitischer Anpassung und der notwendigen Weiterführung in der Nato durch Natotransformation mittels amerikanisch aufgeworfener Natotransformationspositionen hergestellt. In Schwerpunkt 2, Band 2 wird auf Basis des zweiten Teils der Hypothese der transatlantische Aushandlungsprozess zur Etablierung der amerikanisch vorgeschlagenen Natotransformationspositionen in Augenschein genommen: Vor diesem Hintergrund wird überprüft, ob diese tatsächliche Verankerung bzw. Konkretisierung des Ausbaus amerikanischen Vormacht am Widerstand der ausgewählten europäischen Nato-Bündnispartner Frankreich, Deutschland und Großbritannien scheitert. Im Gesamtergebnis zeigt sich, dass aufgrund einer sich entwickelnden komplexen, linear ansteigenden Gesamtbedrohung die Chance zum Ausbau amerikanischer Führungsmacht konstant abnimmt. Dies muss mittels amerikanischer sicherheitspolitischer Anpassung kompensiert werden. Die daher erfolgende amerikanische sicherheitspolitische Neuausrichtung auf Basis der eingeleiteten "Revolution im Militärwesen" modifiziert wiederum die Kennziffern bipolarer kollektiver Sicherheitsgewährleistung. Alles wird mittels tatsächlicher Verankerung der amerikanischen Natotransformationspositionen ermöglicht bzw. legitimiert. Das tatsächliche Erreichen der - die sicherheitspolitische amerikanische Anpassung konsequent weiterführenden - Transformation der Nato ermöglicht eine missionsorientierte, reaktionsbeschleunigende, flexible und globale Sicherheitsprojektion. Außerdem ist die Voraussetzung für "alliances of choice" innerhalb der Nato geschaffen. Weiter zementiert die Modifikation der "bipolaren Nato" die mittels sicherheitspolitischer amerikanischer Anpassung eingeleitete Erosion zentraler zivilisatorischer Errungenschaften bzw. Aufgaben bipolarer kollektiver Sicherheitsgewährleistung unter Vorteilsverringerung europäischer Nato-Bündnispartner. Die tatsächliche Verankerung der Natotransformationspositionen erfolgt mittels der Reaktivierung konventioneller Bedrohung im Kontext der Ukraine-Krise von 2014 und der Erweiterung der Nato-Partnerschaftsringe auf globaler Ebene, ohne diesen den Status eines Nato-Mitgliedsstaates zu gewähren. Damit wird der Bündnisfall nicht globalisiert. Der ausgeübte deutsch-französische Widerstand wird besonders intensiv durch den Einbezug der europäischen Gründungsstaaten befördert, dagegen unterbleibt die Ausbildung einer europäischen Führungstroika durch Frankreich, Deutschland und Großbritannien. Darüber hinaus zeigt insbesondere die entsprechende Ursachenermittlung, dass trotz konstanter, aufeinander aufbauender amerikanischer sicherheitspolitischer Reaktion unter unterschiedlicher Außenwirkung sowie tatsächlicher Weiterführung in der Nato die Gesamtbedrohung nicht langfristig abgebremst wird: Dies führt zu einem konstanten Anstieg der Gesamtbedrohung unter fortlaufendem Einflussverlust staatlicher Akteure bzw. Machtdiffusion und -konzentration samt einer sukzessiven Chancenerhöhung reaktivierter konventioneller, nuklearer, Cyber- und ökologischer Zerstörungsszenarien. Auf dieser Basis entsteht die Konsequenz einer immer umfassenderen und die Reaktion beschleunigende Präzisionsabwehr unter ansteigender Versicherheitlichung, um die kontinuierliche Einengung amerikanischer Vormacht auszugleichen. Dies erzeugt im Fortlauf einen konstanten Abbau der Strahlungs- und Schlagkraft des liberalen, regelbasierten, bipolaren "amerikanischen Systems" sowie der Etablierung "idealistischer, liberaler" "Grand Strategy"-Elemente. Weiter ist damit - auf der Grundlage der aufeinander aufbauenden Natotransformationspositionen sowie Obamas "smart power"(6) im Untersuchungsraum - eine zunehmende Vorteilsverringerung der europäischen Nato-Verbündeten bzw. ein ansteigender Bedarf an US-Kostendämpfung verquickt. Zudem entwickelt sich eine immer geringer werdende Chance zur Entfaltung des postbipolar als "nicht verhandelbar" postulierten und global ausgebreiteten amerikanischen Lebensentwurfes in individueller, innerstaatlicher Ausprägung: Deren Artikulation erfolgt beispielsweise mittels zunehmendem Rechtspopulismus, Wahl von Außenseiterkandidaten, Zerfall traditioneller Parteiensysteme, isolationistischen Tendenzen unter ethnischer, regionaler Erstarkung, und Ablehnung von Supranationalität oder religiösem Fundamentalismus. Gleichzeitig ist die fortlaufende Erosion der globalen öffentlichen Güter identifizierbar. Damit ebnet all das oben Genannte den Boden für die Begrenzung amerikanischer wohlwollender Ordnungsmacht bzw. der Handlungsspielräume staatlicher Akteure - und für die Rückkehr zu klassischer Machtpolitik im Kontext entstandener Machtdiffusion bzw. -konzentration. Dies erschwert angesichts der Dringlichkeit einer langfristigen Eindämmung asymmetrischer bzw. konventioneller Sicherheitsbedrohungsgegenstände, -verstärker, -cluster und globalen Rahmenbedingungen folgende Chance: Nämlich die zu transatlantischer Zusammenarbeit in der Nato unter Wiederbelebung der politischen Organisation derselben sowie Erweiterung auf zusätzliche Ebenen und Akteure im Sinne von Vorbeugung bzw. vernetzter Sicherheit zur Erreichung entsprechender globaler Kooperation in Bezug auf Einhegen der Bedrohungswurzeln. Insgesamt wird durch diese Forschungsarbeit transparent, wie und warum die für den Untersuchungsraum von 1993 bis 2017 antizipierte "Friedensdividende" und das durch Präsident Clinton postulierte "age of hope" kaum spürbar wurden. Fußnoten (1) Vgl. Braml, Josef (2018), Trumps transaktionaler Transatlantizismus, in: Jäger, Thomas (Hrsg.), Zeitschrift für Außen- und Sicherheitspolitik, Oktober 2018, Volume 11, Ausgabe 4, S. 439-448, Wiesbaden. (2) Vgl. National Intelligence Council (Hrsg.) (2012), Global Trends 2013: Alternative Worlds (NIC 2012-001), https://publicintelligence.net/global-trends-2030/, letzter Zugriff: 12.04.19. Vgl. dazu auch das "international financial leadership, self-selected at Davos" bei McCoy, Alfred W. (2017), In the Shadows of the American Century. The Rise and Decline of US Global Power, Chicago. (3) Vgl. zu Bedrohungsverstärkern beispielsweise Mazo, Jeffrey (2010), Climate Conflict. How global warming threatens security and what to do about it, London, Abingdon. 1990 wurde bereits in Bezug auf den Bedrohungsverstärker Klimawandel für die entstehenden asymmetrischen bzw. konventionellen Bedrohungsgegenstände komplexe Cluster konstatiert: "Over the next half century, the global average temperature may increase by approximately 4 degrees C. (…) All nations will be affected. (…) How much time will there be to confirm the amount of change and then to act? (…) However, many believe that we will have waited too lang to avoid major dislocation, hardship and conflict - on a scale not as yet seen by man". Vgl. Kelley, Terry P. (1990), Global Climate Change. Implications For The United States Navy (The United States Naval War College, Newport, RI), http://documents.theblackvault.com/documents/weather/climatechange/globalclimatechange-navy.pdf, letzter Zugriff: 30.03.19. Dies lässt Hinweise auf die sich entwickelnde, konstant ansteigende Gesamtbedrohung im Untersuchungsraum von 1993-2017 zu. (4) Vgl. Schlesinger, Arthur M., Jr. (1973), The Imperial Presidency, Boston. (5) Die amerikanisch vorgeschlagenen Positionen zur Anpassung der Nato, die Nato Response Force sowie die Global Partnership Initiative, werden als "Natotransformationspositionen" bezeichnet: Mit deren tatsächlicher Etablierung war eine Transformation der Nato in konsequenter Weiterführung amerikanisch erfolgter sicherheitspolitischer Anpassung verknüpft. (6) Smart power geht auf Suzanne Nossel, Mitarbeiterin des UN-Botschafters Holbrooke während der Clinton-Administration, zurück: Vgl. Nossel, Suzanne (2004), Smart Power. Reclaiming Liberal Internationalism, http://www.democracyarsenal.org/SmartPowerFA.pdf, letzter Zugriff: 26.08.17. Weiter wird er Joseph Nye im Jahre 2003 als Reaktion auf die unilaterale Konzentration auf das militärische Instrument der G.W. Bush–Ära zugeschrieben. Vgl. Nye, Joseph S. Jr. (2011), The Future of Power, New York bzw. Nye, Joseph S. Jr. (2011), Macht im 21sten Jahrhundert. Politische Strategien für ein neues Zeitalter, München. Vgl. Rodham Clinton, Hillary (2010), Leading Through Civilan Power. Redefining American Diplomacy and Development, in: Foreign Affairs, November/December 2010, Vol. 89, No.6, S. 13-24. ; Aims and findings of the dissertation The completed research uses holistic, politological and historical approaches to present how, during the studied period of the administrations of Clinton to Obama, the liberal, rule-based world order system is gradually supplemented and replaced by a system of realist imposition of vital interests that have short-term effects, preferring military means combined with continuous military optimisation. This also explains a continuity between the leading-power policy of administrations in this study (1993-2017) and the subsequent period of the "transactional leadership of Trump"(1), with its recognizable, far-reaching effects of aiming to reduce idealistic Grand Strategy elements and measures of a benevolent order by passing on costs to and reducing the benefits of European NATO allies. The results of this dissertation, such as the increasingly evident dissolution of a multilateral fundamental order, therefore indicate that Trump's foreign and security policy to date should be regarded as a clearly noticeable crisis symptom, rather than the cause of a decline in the world order established after 1945. This decline is synonymous with the erosion of the transatlantically initiated bipolar "American system". Its implementation was the result of the "lesson of two world wars", based on modern concepts of order introduced by the Enlightenment and the founding criteria of the United States: thus its dissolution is also an indicator of the failure of contemporary criteria of order that thrive in the "American way of life". The cause of the described development is shown to be a constantly exacerbating overall threat, from Clinton to Obama, which is connected to the consistent erosion of US supremacy. Among other aspects, this is based on climate change effects postulated in 1979, which multiply the threat while coinciding with American peak production of fossil fuels and increased demand on resources in the context of dwindling raw material resources. Furthermore, during the period of this study, the "US conservative revolution", which began in the 1980s, increasingly affected foreign and security policy, combining with a consolidation in the influence of corporations and lobby groups in fields such as policy implementation and new underlying conditions. They include the onset of digitisation, entailing a high consumption of resources, and a growing world population faced with specific demographic indicators. Additionally, the maintenance of the armaments sector, originally a result of bipolar development, as the economic basis of military supremacy and the slow decline of the Dollar hegemony since around 1973, should also be taken into account. Complex interaction between Grand Strategy implementation according to the premise of expanding US-American dominance under neoconservative and Christian Right-wing influences, as well as asymmetrical and reactivated conventional security threats and threat multipliers clearly indicate the linear development of the overall threat in the period between 1993 and 2017: in the context of Grand Strategy statements, above all the understanding of defence against this threat, of the latter's multiplying factors and the market economy explains the following with respect to the US far-right in a complex interaction with the growth of transnational corporations, lobby groups, individuals(2), informal networks and state actors with respect to objects of threat and threat multipliers(3) in connection with the post-bipolar, global anchoring of US economic and consumer patterns: US adaptation of its reaction to this threat – while consolidating imperial presidency(4) and weakening the system of checks and balances – including its implications of a bipolar liberal order. In this way, the necessary continued leadership within NATO through the US-proposed NATO reform can be seen as an appropriate implementation of transformed threat-reaction measures and the legitimisation of systemic adaptation. It equally becomes clear that the established threat reaction measures only provide a short-term defence: instead, they enhance the asymmetric and conventional threat, as well as threat multipliers – by introducing arms races and breaking down arms control – thereby heightening the overall threat. The consequence is the consistently growing likelihood of a conflict of hitherto unimaginable proportions. At the same time, the urgent need to mobilise transatlantic cooperation with respect to supporting global cooperation between state and non-government actors is illustrated with respect to the roots of the threat and its deteriorating underlying conditions: each increase in the overall threat, the adapted US security policy and its continuation in NATO is connected to an erosion of rule-based underlying criteria during the studied period. This continuously and consistently undermines the basis of the above-stated, ever-increasingly important cooperation, to prevent or at least limit the successive erosion of the bipolar "American system" under future dystopias. The research results completely overturn the state of research to date, since for instance it is possible to show that, by means of NATO transformation findings, no transatlantic sharing of burdens on an equal footing and no NATO reform in accordance with its founding principles can be achieved. The same also applies to European opposition to the actual anchoring of NATO transformation positions(5), which is based on the erosion of the bipolar liberal order system and the maintenance of US advantages as well as the consolidation of particular interests they facilitate. Furthermore, it is apparent that a line of continuity in the threat-reaction measures from Clinton to Obama exists with varying external effects, along with an underlying pattern of "Battleship America" – as opposed to a multilaterally orientated foreign and security policy under Clinton, which merged into a unilateral, radical swing under G. W. Bush 43 following 9/11, but was reverted by the Obama administration. A comprehensive wealth of literature was used of the doctoral thesis, as reflected by the extensive bibliography: they firstly include diverse American and European publications, monographs and relevant secondary literature, including biographies, publications of various kinds of important political planning and implementation, as well as collected volumes and research articles from specialist journals on all fields of research and politological methodology and theory. The same applies to publications by leading European and American institutions, research centres and think tanks. Furthermore, this author used publications and documents by governments, foreign ministries, defence ministries, other government bodies and Nato. Dissertation structure This dissertation is divided into two volumes and one Appendix: Volume 1 discusses Focus 1, namely a process-tracing in the context of offensive neorealist positioning. Volume 2 presents Focus 2, which is based on the preceding focus in making a structured, focussed comparison in the context of defensive neorealist positioning. The Appendix volume contains further discussion of Chapter 1, Volume 1 with respect to the state of research, literature and sources, theoretical positioning and the choice of the region of study and selected European NATO partners. Furthermore, a historical chapter provides underlying information for process-tracing in Chapter 2, Volume 1, an index of images and abbreviations, and a bibliography. The entire dissertation uses qualitative methods to focus on these two mutually supporting, building on each other, themes to investigate the following from a US-perspective: firstly the overriding US security-policy reaction to a new overall threat and secondly, its continuation combined with the opportunity of for enabling and legitimising it within and through NATO during the studied period from Clinton to Obama. Based on the first part of this hypothesis, Focus 1 (Volume 1) establishes a connection between, on the one hand, maintaining the bipolar Grand Strategy target of consolidating the USA as a leading, regulating power, bipolar foreign-policy Grand Strategy indicators and a new overall threat that is developing in a complex way, and, on the other, the necessity of its continued leadership within NATO and the required NATO transformation according to US-proposed NATO transformation positions. Focus 2 (Volume 2) is based on the second part of the hypothesis, investigating the transatlantic negotiation process to establish these US-proposed NATO transformation positions: in this context, Volume 2 investigates whether the attempt to actually secure and consolidate such US supremacy was unsuccessful in the face of resistance from selected European NATO partners, namely France, Germany and the United Kingdom. The overall result shows that due to a complex, developing, linear increase in the overall threat, the chance for the USA to consolidate its status as a leading power is steadily diminishing. This must be compensated by adapting US security policy. The resulting American security-policy realignment based on the initiated "revolution in military affairs" in turn modifies the indicators of bipolar collective security guarantees. Everything is enabled and legitimised by means of actually securing US NATO-transformation positions. The actual implementation of such NATO transformation – representing the consistent adaptation of US security policy – enables a mission-orientated, rapid response, flexible, global security projection. It also creates conditions for "alliances of choice" within NATO. Furthermore, the modification of a "bipolar NATO" exacerbates the erosion of key achievements of civilisation as a result of adapted US security policy, as well as undermining the tasks of bipolar collective security guarantees through diminished benefits to European NATO partners. The actual anchoring of NATO transformation positions is achieved by reactivating the conventional threat in the context of the Ukraine crisis of 2014 and the extension of NATO partnership rings on a global level, without providing them with NATO membership status, thus avoiding globalisation in a mutual defence case. The German and French resistance is particularly intensive through the involvement of European founder states, while the formation of a European leadership triumvirate consisting of France, Germany and the United Kingdom does not take place. Moreover, a relevant investigation of causes particularly shows that despite constant mutually supporting US security reaction measures with varying international effects and actual continued leadership within NATO, the overall threat is not receding: this leads to a constant increase in the overall threat, a loss of influence of state actors, the diffusion and concentration of power and the increased probability of reactive conventional, nuclear, cyber and ecological destruction scenarios. On this basis, the consequence is an increasingly comprehensive and rapidly responding precision defence combined with growing securitization to compensate for the ongoing containment of US supremacy. This developing process steadily diminishes the reach and power of a liberal, rule-based, bipolar "American system" and the establishment of "idealistic, liberal" elements of US-Grand Strategy. This entails a further reduction in benefits for European NATO allies and increasing US cost-cutting demands – based on the successive NATO transformation positions that build on each other and Obama's "smart power"(6) during the period studied in this dissertation. Thus the chance is receding of developing the post-bipolar, globally adopted American way of life with individual national character, which is regarded as "non-negotiable": for instance its articulation is expressed through increasing right-wing populism, the election of outsider-candidates, the dissolution of traditional party systems, isolationist tendencies combined with burgeoning ethnic, regional movements, the rejection of supranationalism, and religious fundamentalism. At the same time, the ongoing erosion of global public goods is apparent. This all paves the way to limiting the benevolent American regulating power and state actors' leverage – and therefore to a return to classic power politics in the context of a resulting diffusion and concentration of power. In view of the urgency of a long-term containment of asymmetrical or conventional threats to security, or aspects that exacerbate such threats or clusters thereof, as well as underlying global conditions, this undermines the ability to achieve the following: to achieve transatlantic cooperation by broadening the range of levels and actors in the spirit of proactive and expanded, networked security to achieve according global cooperation with respect to containing the root causes of threats. Overall, this research work reveals how and why the anticipated "peace dividend" and the notion of an "age of hope", as postulated by President Clinton, were hardly perceptible during the period of study between 1993 and 2017. Notes (1) Cf. Braml, Josef (2018), Trumps transaktionaler Transatlantizismus, in: Jäger, Thomas (Hrsg.), Zeitschrift für Außen- und Sicherheitspolitik, Oktober 2018, Volume 11, Ausgabe 4, S. 439-448, Wiesbaden. (2) Cf. National Intelligence Council (Ed.) (2012), Global Trends 2013: Alternative Worlds (NIC 2012-001), https://publicintelligence.net/global-trends-2030/, last accessed: 12.04.19. See also the "international financial leadership, self-selected at Davos" cit. McCoy, Alfred W. (2017), In the Shadows of the American Century. The Rise and Decline of US Global Power, Chicago. (3) In 1990, the threat-enhancing nature of climate change was already postulated with respect to asymmetric objects of threat as well as conventional and complex clusters: "Over the next half century, the global average temperature may increase by approximately 4 degrees C. (…) All nations will be affected. (…) How much time will there be to confirm the amount of change and then to act? (…) However, many believe that we will have waited too long to avoid major dislocation, hardship and conflict – on a scale not as yet seen by man". Cf. Kelley, Terry P. (1990), Global Climate Change. Implications For The United States Navy (The United States Naval War College, Newport, RI), http://documents.theblackvault.com/documents/weather/climatechange/globalclimatechange-navy.pdf, last accessed: 30.03.19. Cf. Mazo, Jeffrey (2010), Climate Conflict. How global warming threatens security and what to do about it, London, Abingdon. This supports the thesis of a developing, constant overall threat during the period between 1993 and 2017. (4) Cf. Schlesinger, Arthur M., Jr. (1973), The Imperial Presidency, Boston. (5) In this dissertation, the proposed US positions on NATO adaptation, the NATO Response Force and the Global Partnership Initiative are described as "NATO transformation positions": Their actual establishment was connected to a NATO transformation with the consistent continuation of adapted US security policy. (6) Cf. Nossel, Suzanne (2004), Smart Power. Reclaiming Liberal Internationalism, http://www.democracyarsenal.org/SmartPowerFA.pdf, last accessed: 26.08.17, Nye, Joseph S. Jr. (2011), The Future of Power, New York, Nye, Joseph S. Jr. (2011), Macht im 21sten Jahrhundert. Politische Strategien für ein neues Zeitalter, München, Rodham Clinton, Hillary (2010), Leading Through Civilan Power. Redefining American Diplomacy and Development, in: Foreign Affairs, November/December 2010, Vol. 89, No.6, S. 13-24.
Forschungskonzept Das Nachhaltigkeitsleitbild der Agenda 21 und die damit verknüpften Rollenerwartungen an die Privatwirtschaft sind ein Bezugsrahmen der vorliegenden Doktorarbeit. Die Agenda 21, ein zentrales Dokument der UN-Konferenz für Umwelt und Entwicklung (UNCED 1992), und Dokumente der Folgekonferenzen weisen der Privatwirtschaft eine zentrale Rolle bei der Verwirklichung nachhaltiger Entwicklung zu: Wirtschaftsunternehmen sollen Wertschöpfung auf der Grundlage umweltverträglichen Umgangs mit natürlichen Res-sourcen erreichen. Als verantwortungsvolle Unternehmen sollen sie die Interessen ihrer Anspruchsgruppen berücksichtigen, und diese Gruppen sollen ihrerseits die Privatwirt-schaft bei der Realisierung nachhaltiger Entwicklung unterstützen. Regierungsunabhängige Umweltorganisationen erwarten von der Privatwirtschaft umwelt-verträglichen Umgang mit natürlichen Ressourcen und üben entsprechend Druck auf Unternehmen aus. Die Literatur dokumentiert jedoch Konflikte zwischen dem Rollenver-ständnis der Privatwirtschaft und den Erwartungen internationaler Organisationen und zivilgesellschaftlicher Anspruchsgruppen. Seitens der Unternehmen bestehen Zweifel, ob die Anforderungen dieser Akteure angemessen sind und inwieweit sie die ihnen zuge-wiesene Verantwortung übernehmen sollen. Auf diese Problematik bezieht sich die vor-liegende, 2006 bis 2008 durchgeführte qualitative empirische Untersuchung. Das Ziel der Forschungsarbeit war, den Wissensstand zum Umgang kleiner bis mittelgro-ßer Produktionsunternehmen mit ihren Rohstoff liefernden natürlichen Ressourcen zu erweitern - ihrer Rolle in Marktketten, ihrer Beziehungen zu Stakeholdern und die Berück-sichtigung natürlicher Ressourcen durch ihr Management. Als Beispiel ausgewählt wur-den Holzmöbel erzeugende Unternehmen (Möbelhersteller), eine mittelständische Bran-che der holzverarbeitenden Industrie. Da Möbelproduktion hohe Wertschöpfung aus Roh-holz ermöglicht, erschien dieses Beispiel aufschlussreich im Hinblick auf die allgemeine Annahme der Agenda 21, hohe ökonomische Wertschöpfung aus Holz lasse Impulse für nachhaltige Waldwirtschaft erwarten. Die Untersuchung wurde in Regionen mit unter-schiedlichen gesellschaftlichen, volkswirtschaftlichen und insbesondere forst- und holz-wirtschaftlichen Rahmenbedingungen durchgeführt. Forschungsfragen waren: Wie stellt sich "Forst" aus der Sicht von Möbelherstellern dar? In welcher Beziehung stehen Möbelhersteller zu ihren Anspruchsgruppen und wie kom-munizieren sie "Forst" gegenüber diesen Gruppen? Wie berücksichtigen Möbelhersteller "Forst" in ihren Entscheidungen? Der Verfasser stellt diese Forschungsfragen unter den Oberbegriff "Forstrationalität". Das Konstrukt "Forstrationalität" umreißt, wie Entscheidungsträger in der Holzindustrie Wald-bewirtschaftung als ihre Rohstoffbasis wahrnehmen und in Entscheidungen einbeziehen. Es umfasst alle Aspekte der Wahrnehmung und Interpretation sowie des Verhaltens holz-verarbeitender Industrieunternehmen bezüglich ihrer Rohstoffquelle "Forst". Grundlagen hierfür sind Theorien der Ressourcenabhängigkeit (Pfeffer und Salancik 1978/2003; Steimle, 2008) und des Sensemaking (Weick 1995, 2001). Informationen zur Beantwortung der Forschungsfragen wurden in drei Zentren der Möbel-industrie mit unterschiedlichen gesellschaftlichen und forstlichen Rahmenbedingungen in Brasilien und in Deutschland gewonnen: in Rio Branco do Acre (RBA) im brasilianischen Amazonasgebiet; in São Bento do Sul (SBS) in Südbrasilien und in Nordrhein-Westfalen (NRW) in Deutschland. Die drei Regionen in zwei Ländern vergleichende Feldforschung stellte besondere Anforderungen an die Forschungsmethodik. Vorgehen und Aufbau der Erhebungsinstrumente waren in den drei Regionen identisch: Grundlegendes empirisches Wissen vermittelten Inhaltsanalysen von Fachzeitschriften der Möbelwirtschaft (1) sowie die Auswertung von Sekundärinformationen (2). Telefonische Leitfadeninterviews mit Ex-perten (3) beleuchteten die Unternehmensumfelder und gaben allgemeine Hinweise zum Verhalten von Entscheidungsträgern der Möbelindustrie. Das Spektrum der "Forstrationa-litäten" der Entscheidungsträger erschloss sich im persönlichen Kontakt bei Betriebsbesu-chen; in jeder Region wurden zwei Hersteller von Massivholzmöbeln und ein Hersteller von Möbeln aus Holzwerkstoffen ausgewählt (4). Ergebnisse der Fachzeitschriftenanalyse Die quantitative Inhaltsanalyse von Fachzeitschriften diente dazu, das Gesamtspektrum der für den Wirtschaftszweig Möbelindustrie relevanten Fachthemen kennen zu lernen und die relative Bedeutung der Themenfelder "Umweltschutz" sowie "Waldressour-cen/Forstwirtschaft" einzuschätzen. Zusammenfassend konnten folgende Schlüsse gezo-gen werden: 1. Die Themenfelder "Umwelt" und "Forst" interessieren in der Möbelindustrie, erhalten aber in der Fachpresse weniger Raum als Themenfelder wie Wirtschaft, Technologie und Wettbewerb. 2. Im Themenfeld "Umwelt" sind in Deutschland wie in Brasilien Aspekte des eigenen Produktionsstandortes (innerbetrieblicher Umweltschutz) die bedeutendsten Themen der Möbelindustrie. 3. In der brasilianischen Möbelindustrie stehen "forst"-bezogene Aspekte stärker im Fo-kus als in Deutschland. Ergebnisse der regionalen Fallstudien Ergebnisse der Untersuchungsphasen (2) bis (4) stellt die Dissertation in Form von drei regionalen Fallstudien mit identischer Gliederung vor: a) Rahmenbedingungen der Möbel-hersteller b) Nicht-marktliche Anspruchsgruppen c) Lieferanten von Holzprodukten d) Mö-belabnehmer e) Interaktion der Möbelhersteller untereinander f) Forst- und Umweltmana-gement. Die regionalen Fallstudien bestätigen die Einsicht aus der Fachzeitschriftenanalyse, dass die spezifische Situation des gesamten regionalen Sektors "Forst- und Holzwirtschaft" die brasilianischen Möbelhersteller stärker prägt als die in NRW. So fanden in RBA in jünge-rer Zeit einschneidende forst- und umweltpolitische sowie institutionelle Veränderungen statt, die neue Rahmenbedingungen für alle holzbe- und -verarbeitenden Unternehmen gesetzt haben. In der Region SBS beschäftigt "Forst" die Möbelhersteller ebenso wie an-dere Zweige der Holzwirtschaft wegen eingetretener oder in der Zukunft erwarteter Holz-knappheiten sowie angesichts staatlicher Kontrolle der Verwendung von Holz aus legaler Waldnutzung. In NRW werden hingegen die einheimische Waldbewirtschaftung ebenso wie die Verarbeitung von Vorprodukten aus nichttropischen Holzarten als unproblematisch wahrgenommen, forstliche Themen erscheinen nicht als kritisch im Makroumfeld der Mö-belindustrie. In NRW wie in SBS dominiert die Auseinandersetzung mit gesamt- und bran-chenwirtschaftlichen Kerndaten, mit nationalen und internationalen Markttrends sowie mit technologischen Entwicklungen die Agenda der Möbelhersteller. Die Möbelhersteller unterliegen der Aufsicht von Umweltbehörden. Die Kontrolle des in-nerbetrieblichen Umweltschutzes, zum Teil verknüpft mit Arbeitsschutz, zeigte sich in al-len drei Regionen als Schwerpunkt der Aktivität dieser Behörden. Anders als in Deutsch-land unterliegt in Brasilien die Holzbeschaffung durch holzbe- und -verarbeitende Betriebe behördlicher Kontrolle. Die Fachverbände der Möbelindustrie in allen drei Fallstudienregionen definieren als ihre zentrale Aufgabe die Vertretung der Interessen ihrer Mitgliedsunternehmen gegenüber Politik und Gesellschaft. In beiden brasilianischen Fallstudienregionen, in denen forstbe-zogene Probleme die Möbelindustrie intensiv beschäftigen, sehen die Möbelindustriever-bände forstbezogene Angelegenheiten auch als ihre Aufgabe. In RBA agiert der Verband mit dem Ziel, die behördliche Registrierung von Möbelproduzenten des informellen Sek-tors voranzubringen und diese zur Verarbeitung von Holz aus legaler Waldnutzung zu verpflichten. In SBS haben die Möbelfachverbände in Perioden der Holzknappheit der Entwicklung der regionalen Forstwirtschaft und der Holzversorgung der Möbelindustrie große Aufmerksamkeit gewidmet; zur Zeit der Untersuchung drängten andere wirtschaftli-che Probleme die Waldthematik in den Hintergrund. Die durch die Forschungsarbeit erfassten Möbelhersteller stehen selten in direktem Kon-takt mit privaten Umweltorganisationen. Sie nehmen jedoch wahr, dass diese Organisa-tionen die Rahmenbedingungen der Möbelindustrie durch Verbraucherkampagnen, An-forderungen an die ersten Stufen der Forst-Holz-Wertschöpfungsketten und durch politi-sches Lobbying indirekt beeinflussen. Die Abhängigkeit der Möbelhersteller von Holzproduktlieferanten variiert in den drei Un-tersuchungsregionen. In NRW ist diese Abhängigkeit schwach ausgeprägt, weil die Mö-belhersteller Vorprodukte regional wie überregional problemlos einkaufen können und weil auch große Holzlieferanten Ansprüche der Möbelindustrie etwa bezüglich der Qualität, Abmessungen und Vorfertigung von Schnittholz und Holzwerkstoffen berücksichtigen. In Brasilien stellt sich die Situation anders dar. In SBS haben große bis mittelgroße Möbel-hersteller wegen der Unsicherheit der Holzversorgung und der Qualität von Vorprodukten aus Holz Schritte zur Rückwärtsintegration unternommen (eigene Sägewerke, vereinzelt eigene Bewirtschaftung von Kiefern-Plantagen) oder alternative Vorproduktquellen ge-sucht. In RBA stellt die behördlich kontrollierte Forderung, nur Holz aus "ordentlicher Waldwirtschaft" zu verarbeiten, die zu einem großen Teil staatlich geförderten Möbelher-steller des formellen Sektors vor Probleme. Denn ein hoher Anteil des entsprechenden regional verfügbaren Tropenholzes wird in Form von Holzhalbwaren in andere Regionen Brasiliens verkauft oder exportiert. Für die Möbelhersteller in RBA sind die Einkaufspreise hochwertiger Holzvorprodukte, insbesondere wenn diese aus zertifiziertem Holz erzeugt werden, deshalb in den letzten Jahren stark gestiegen, während die Möbelpreise aufgrund der Konkurrenz zahlreicher kleiner informeller Produzenten, aber auch durch das Angebot kostengünstig produzierter Serienmöbel aus Südbrasilien unter Druck stehen. Nur wenige gut organisierte Möbelhersteller in RBA scheinen bislang tragfähige Strategien zu verfol-gen, um diesem Dilemma zu begegnen. Die Beziehung von Möbelherstellern zu ihren Abnehmern ist in allen drei Fallstudienregio-nen durch Abhängigkeiten der Möbelhersteller geprägt. In RBA hängen formell registrierte Möbelhersteller stark von öffentlichen Aufträgen ab. In SBS sind Möbelhersteller von der Serienproduktion für den Exportmarkt abhängig; vielfach geben Auslandskunden die Mo-delle vor und haben großen Einfluss auf die Möbelpreisbestimmung. Beim Möbelabsatz im Inland stehen die Hersteller in NRW wie in SBS großen Einkaufsverbänden oder Kon-zernunternehmen des Möbeleinzelhandels gegenüber. In allen drei Regionen erhält die Möbelindustrie von ihren unmittelbaren Möbelabnehmern wie von Endverbrauchern nur schwache "Forst"-Signale - die Herkunft des für die angebo-tenen Möbel verarbeiteten Holzes aus "legaler" oder "nachhaltiger" Waldbewirtschaftung ist allenfalls ein nachrangiges Einkaufskriterium bzw. ist sie nur in Marktnischen relevant. Eine Ausnahme bilden die öffentlichen Auftraggeber in RBA, deren Möbelbeschaffung explizit den Aufbau nachhaltiger regionaler Forst-Holz-Wertschöpfungsketten in Acre stüt-zen soll. Experten der drei Untersuchungsregionen bezeichneten die Interaktion von Möbelherstel-lern untereinander als wenig kollegial, sondern wettbewerbsgeprägt. Unternehmen koope-rierten primär in für den Wettbewerb wenig relevanten Bereichen (z.B. gemeinsame Mes-sebesuche im Ausland). Die Initiative zu intensiverer Kooperation gehe häufig von Ver-bänden oder staatlichen Organisationen aus. Die Unternehmensbesichtigungen und Gespräche mit Experten zeigten, dass die in die Untersuchung einbezogenen Möbelhersteller nicht über ein systematisch aufgebautes Umweltmanagement verfügen. Die Beschäftigung mit Umweltproblemen orientiere sich vorwiegend an den für sie relevanten umweltrechtlichen Vorschriften. In NRW befolgen die Möbelhersteller nach Experteneinschätzung durchweg die Umweltauflagen; ihre Pro-duktionsbetriebe unterliegen strengen Kontrollen der Umweltbehörden. In Brasilien um-fassen behördliche Umweltschutzanforderungen für Möbelhersteller zusätzlich zum inner-betrieblichen Umweltschutz auch die Auflage, die Holzherkunft aus legaler Waldnutzung nachzuweisen. Bezüglich der Umsetzung der Umweltschutzanforderungen auf betriebli-cher Ebene ergab sich in beiden brasilianischen Regionen ein differenziertes Bild. Theoriebezogene Ergebnisinterpretation Der Verfasser versuchte zu verstehen, wie Unternehmer und Manager in der holzverar-beitenden Industrie das eigene Umfeld wahrnehmen und deuten, wie sie Entscheidungen treffen und begründen. Im Fokus stand die Forstrationalität von Entscheidungsträgern in möbelerzeugenden Unternehmen. Von ihm verfolgte Interpretationsansätze waren: 1. die Unterscheidung von Anlässen forstbezogenen Verhaltens der Möbelhersteller; 2. die Unterscheidung von Verhaltensbezugsebenen und Zeithorizonten; 3. die Prüfung, inwieweit das spezifische Verhalten bezüglich der für die Möbelher-stellung beanspruchten natürlichen Ressource Wald generellen Verhaltensmu-stern von Entscheidungsträgern in Produktionsunternehmen entspricht. Zu (1) Anlässe forstbezogenen Verhaltens Gefragt werden kann nach der wahrgenommenen Dringlichkeit forstbezogener Signale, die ein Möbelhersteller aus seinem Umfeld erhält: Können Anspruchsgruppen aus seiner Sicht ein bestimmtes forstbezogenes Verhalten verlangen bzw. erzwingen? Die Fallstudi-en legen den Schluss nahe, dass Möbelhersteller Einflüsse von Produktketten-externen Anspruchsgruppen wahrnehmen und reflektieren. Die Intensität wahrgenommener An-sprüche ist jedoch offenbar nur selten so hoch, dass sie Reaktionen der Möbelhersteller auslöst. In der Untersuchung erkennbar waren aber Verhaltensänderungen brasilianischer Möbelhersteller nach Einführung der DOF-Dokumentation zum Nachweis der Beschaffung von Holz aus legalen Quellen. Im Umkehrschluss lässt sich vermuten, dass Möbelherstel-ler forstbezogene Themen aus ihren Umfeldern vorwiegend als Signale wahrnehmen, die sie ihrem Selbstverständnis entsprechend individuell bewertet mit ihren Strategien ver-knüpfen, die sie aber auch ignorieren können. Die Art der für die Herstellung eines Möbelstücks verwendeten Holzvorprodukte bzw. die Materialkombination lenkt die Aufmerksamkeit von Möbelkäufern mehr oder minder stark auf den Bezug zum "Forst", wodurch auch die Forstrationalität der Möbelhersteller beein-flusst wird. In der Untersuchung ergaben sich diesbezüglich Unterschiede des Selbstver-ständnisses und der Marketingkommunikation zwischen Herstellern von Möbeln aus Holzwerkstoffen und aus Massivholz, bei den letzteren wiederum bezüglich der Möbelher-stellung aus Tropenholz oder nicht-tropischen Holzarten. Hersteller von Massivholzmö-beln stellten häufig einen Bezug ihrer Möbel zur Natur oder zum Wald her. Dabei betonten Hersteller von Tropenholzmöbeln die Individualität einzigartiger Holzarten aus artenrei-chen Naturwäldern; Hersteller von Möbeln aus nicht-tropischen Holzarten hingegen hoben die Herkunft der Möbelhölzer aus nachhaltig bewirtschafteten "nicht-tropischen" Wäldern hervor. Hersteller von Holzwerkstoffmöbeln argumentierten "ökologisch" mit den Vorteilen hoher Holzausbeute bei der Herstellung und Verarbeitung von Holzwerkstoffen, wodurch Waldressourcen geschont würden. Die brasilianischen Möbelhersteller sehen sich mit Ungewissheiten der Holzversorgung konfrontiert; sie interpretieren diese unterschiedlich, auch innerhalb der beiden Fallstudi-enregionen. In allen drei Untersuchungsregionen bekannten sich die in die Untersuchung einbezogenen Möbelhersteller zur Verarbeitung von Holz aus unbedenklichen Quellen. Sie erwarten Absatzrisiken für den Fall diesbezüglicher Zweifel ihrer Abnehmer. Gegen-wärtig sei kritisches Hinterfragen der Herkunft von Möbelhölzern seitens der Möbelab-nehmer jedoch selten und beziehe sich vorwiegend auf Tropenholz. Zu (2) Verhaltensbezugsebenen und Zeithorizonte Waldbewirtschaftung ist nur in wenigen Fällen ein eigenes Tätigkeitsfeld von Möbelher-stellern. Mit ihrem forstbezogenen Verhalten ergreifen Möbelhersteller folglich in der Re-gel nicht unmittelbar forstwirtschaftliche Maßnahmen, sondern beeinflussen diese indirekt oder reagieren auf die von anderen Akteuren gesetzten Forstthemen. Dies erfolgt zum einen durch Auswahl der für die Möbelproduktion eingesetzten Materialien und deren Be-schaffung, also durch ein direkt an die Möbelproduktion gebundenes Verhalten. Zum an-deren geschieht dies durch den Umgang und die Kommunikation mit Anspruchsgruppen im unmittelbaren Umfeld und im Makroumfeld. Materialorientiertes Verhalten und die Be-ziehungen zu Anspruchsgruppen stehen jedoch nicht isoliert nebeneinander, sondern können miteinander verknüpft sein, etwa weil bei Materialwahl-Entscheidungen das Ver-trauen zu Lieferanten und Abnehmerpräferenzen berücksichtigt werden. Mit Blick auf die Zeithorizonte der Entscheidungen von Möbelherstellern machte die Ana-lyse deutlich, dass in deren Kurzfristperspektive Forstrationalität von untergeordneter Be-deutung ist und andere Aspekte der Unternehmensumfelder im Vordergrund stehen (z.B. Holzversorgung für das aktuelle Produktionsprogramm und Wettbewerb). In der mittel- und langfristigen Zeitperspektive hingegen erhalten forstbezogene Überlegungen und Maßnahmen (wie Einsatz alternativer Holzvorprodukte oder Verwendung von Holz aus zertifizierter Waldbewirtschaftung) größeres Gewicht. Zu (3) Spiegelt Forstrationalität generelle Verhaltensmuster? Etliche der in der Forschungsarbeit registrierten Ausprägungen von Forstrationalität der Möbelhersteller lassen sich allgemeinen Verhaltensmustern von Entscheidungsträgern in Wirtschaftsunternehmen zuordnen: Legitimation: Die in die Untersuchung einbezogenen Möbelhersteller in allen drei Unter-suchungsregionen hoben hervor, ihr eigenes forstbezogenes Verhalten, insbesondere die Wahl der verarbeiteten Holzvorprodukte, sei gesetzeskonform und ökologisch unbedenk-lich. Diesen Standpunkt vertraten sie unabhängig von ihren jeweiligen Möglichkeiten, die Rohstoffquellen der beschafften Materialien zu beurteilen und zu beeinflussen. Anpassung: Die Möbelhersteller reagieren auf Anforderungen aus ihren Umfeldern, etwa auf behördliche Vorschriften und Kontrollen, Kritik von Umweltschutzverbänden, Nachfra-ge von Verbrauchern oder veränderte Wettbewerbsbedingungen. Solche Reaktionen schließen auch das forstbezogene Verhalten ein, wobei Vermeidung (zum Beispiel Ver-zicht auf die Verarbeitung von Tropenholz) ein alternatives oder komplementäres Verhal-ten sein kann. Antizipation: Unternehmen entwickeln Antizipationsstrategien, um sich auf erwartete zu-künftige Herausforderungen, Risiken und Chancen frühzeitig einzustellen. Dieses Verhal-ten zeigten Möbelhersteller in allen drei Untersuchungsregionen, etwa in ihrem Umgang mit der Forst-Holz-Produktketten-Zertifizierung oder der Erprobung neuer Holzarten und Holzwerkstoffe. Innovation: Sie ist eine Form der Umsetzung von Anpassung und Antizipation, ist aber für die Massivholz-Möbelhersteller auch eine eigenständige Verhaltensform. Zum Teil haben sie dabei Aspekte der Waldbewirtschaftung (besonders deutlich bei den Möbelherstellern in SBS, die Plantagenbewirtschaftung als neues Geschäftsfeld integriert haben) und der Weiterentwicklung ihrer Rohstoffbasis von vornherein im Blick, zum Teil ergeben sich se-kundäre Effekte für die Forstwirtschaft. Die vorliegende Untersuchung zur "Forstrationalität" holzverarbeitender Unternehmen hat gezeigt, dass Möbelhersteller Stärken und Schwächen der Waldnutzung in ihrer Standort-region wahrnehmen und forstbezogene Entscheidungen reflektiert treffen. Wie sie ent-scheiden, hängt von den Rahmenbedingungen der Industrie, dem Verhalten ihrer An-spruchsgruppen, von den spezifischen Unternehmensstrategien, auch von Wertvorstel-lungen der Eigentümer und Manager ab. Ihnen stehen bestimmte staatliche und private Anspruchsgruppen mit Erwartungen gegenüber, die dem Konzept nachhaltiger Entwick-lung der Agenda 21 entsprechen. Die Unternehmensbeispiele der Fallstudien zeigen ein-zelne Ansatzpunkte für die Verwirklichung nachhaltiger Entwicklung in waldreichen Re-gionen durch die Herstellung von Möbeln. Jedoch erscheint das gegenwärtige forstbezo-gene Verhalten der Möbelhersteller nicht umfassend nachhaltigkeitsorientiert, sondern pragmatisch selektiv abgestimmt auf die Erfordernisse, Interessen und Handlungsmög-lichkeiten der Unternehmen. Potenzial der Möbelindustrie, höhere Wertschöpfung durch immaterielle Phasen der Produktion (ihr Marketing, speziell die Produktgestaltung) zu erreichen, ist vorhanden. Auf der Grundlage neutraler Nachhaltigkeitsüberprüfung in der Holzwertschöpfungskette durch anerkannte Forstzertifizierungs-Systeme könnten von Holzmöbelherstellern durchaus stärkere Impulse für die Entwicklung und Aufrechterhal-tung nachhaltiger Forstwirtschaft ausgehen. Abschließend seien die theoretischen Erklärungsansätze Ressourcenabhängigkeit und Sensemaking angesprochen, denen in dieser Forschungsarbeit gefolgt wurde. Der Zu-sammenhang zwischen beiden ist bereits aus Pfeffer (1978) ableitbar. Steimle (2008) stellt diesen Zusammenhang explizit her, um das Nachhaltigkeitsverhalten von Unter-nehmen theoretisch zu erklären. Auch der Verfasser kombinierte beide Ansätze: Das Konzept der Ressourcenabhängigkeit war hilfreich bei der Analyse der Umfeldeinbettung der Möbelhersteller und bei der Interpretation ihrer Beziehungen zu bestimmten An-spruchsgruppen; der Sensemaking-Ansatz erleichterte es, die Umfeldwahrnehmung aus Sicht der Entscheidungsträger in der Möbelindustrie und ihr forstbezogenes Verhalten zu verstehen. ; Research concept The guideline to sustainability provided by Agenda 21, and the associated expectations of private enterprise with respect to their role in sustainability, represent a frame of reference for the study presented in this Ph.D. thesis. Agenda 21, a central document of the United Nations Conference on Climate and Development (UNCED 1992), and documents pro-duced by the following conferences attribute a central role to private enterprise in the real-isation of sustainable development. Commercial enterprises are expected to create value on the basis of an environmentally acceptable use of natural resources. Responsible en-terprises should accommodate the interests of the respective stakeholder groups, and these groups should in turn support private enterprise in the achievement of sustainable development. Non-governmental environmental organisations' expectations of private enterprise revolve around the environmentally appropriate use of natural resources and, accordingly, they exert pressure on businesses to do so. Nevertheless, the literature documents conflicts between commercial enterprise's understanding of its role and the expectations of interna-tional organisations and civil stakeholder groups. From the perspective of enterprise, doubts exist over whether the demands of these actors are reasonable and over the ex-tent to which commercial enterprise should assume the responsibility attributed to it. The objective of this study was to deepen the knowledge of the use by small and medium sized enterprises (SMEs) of the natural resources providing the raw materials necessary for their production activities – their role in market chains, their relationships with stake-holders and the consideration given to the management of natural resources. Enterprises manufacturing wood furniture were chosen for the study, as a representative example of an SME branch within the wood processing industry. As furniture production facilitates high value creation from raw wood, this example was deemed to be revealing with respect to the general assumption of Agenda 21 that high economic value creation from wood generates impulses for sustainable forestry. The investigation was carried out in regions with contrasting social, economic and especially forest and wood industry framework con-ditions. The research questions were: How do furniture manufacturers perceive 'forestry'? What is the relationship between furniture producers and the corresponding stakeholder groups, and how do they communicate 'forestry' to these groups? How do furniture producers ac-count for 'forestry' in their decisions? The author posed these questions under the overarching concept 'forest rationality.' The 'forest rationality' construct outlines how decision makers in the wood industry perceive forest management as the basis of their raw material supply, and how they account for it within decision making. It incorporates all aspects of the perception and interpretation, as well as the behaviour of wood processing enterprises with respect to the source of their raw material, 'forestry.' The basis for this is theories relating to resource dependence (Pfeffer and Salancik 1978, 2003; Steimle, 2008) and 'sensemaking' (Weick 1995, 2001). The information used to answer the research questions was obtained from three centres of the furniture industry in Brazil and in Germany, each with different social and forestry framework conditions. The three centres were in Rio Branco do Acre (RBA) in the Bra-zilian Amazon, in São Bento do Sul (SBS) in southern Brazil and in Nordrhein-Westfalen (NRW) in Germany. The comparative data collection carried out in the three regions posed particular demands in terms of the research methods. The approach chosen and the design of the data collection instruments were identical in the three regions. Funda-mental empirical knowledge was provided by means of a content analysis of furniture in-dustry journals (1) and the evaluation of secondary information (2). Guided telephone interviews with experts (3) illuminated the environments in which the enterprises operate and provided general insights into the behaviour of decision makers in the furniture in-dustry. The spectrum of forestry reasoning of the decision makers was further developed through personal contact made during visits to companies. In each region two producers of solid wood furniture and a producer of furniture from derived timber products were se-lected (4). Results of the journal analysis The quantitative content analysis of industry journals served to provide information about the overall spectrum of issues relevant for the furniture industry, and allowed for an as-sessment of the relative significance of the issues 'environmental protection' and 'forest resources/forestry.' The conclusions may be summarised as follows: 1. The issues 'environment' and 'forestry' are of interest within the furniture sector, but receive less attention in the industry press than topics such as economics, technology and competition. 2. In the furniture industry in both Germany and Brazil, the most important themes under the heading 'environment' are aspects concerning the local production site (enterprise-internal environmental protection). 3. 'Forestry'-related aspects are the focus of greater attention within the Brazilian fur-niture industry than the German. Results of the regional case studies The results of the research phases (2) to (4) are presented in the dissertation in the form of three regional case studies with an identical structure, namely a) the framework condi-tions affecting furniture manufacturers, b) non-market stakeholder groups, c) suppliers of wood products, d) furniture consumers, e) interaction between furniture manufacturers, f) forest and environmental management. The regional case studies confirmed the view provided by the analysis of the industry press that the specific situation of the entire regional 'forestry and wood industry' affects the Brazilian furniture manufacturers more so than those in NRW. In RBA there have re-cently been drastic changes in forestry and environmental policy, as well as institutional changes, which have generated new framework conditions for all wood producing and processing enterprises. In the SBS region 'forestry' occupies furniture manufacturers as much as other branches of the wood sector due to existing or expected future shortages of wood, and as a consequence of state control over the use of wood from legitimate forestry. In NRW, on the other hand, native forest management and the processing of materials derived from non-tropical tree species are considered to be unproblematic, and forestry-related themes do not appear to be critical in the macro-environment of the furni-ture industry. In NRW and in SBS the issue of core economic data for the sector as a whole, and branches within the sector, of national and international market trends and of technological developments dominate the agenda of the furniture manufacturers. The furniture manufacturers are subject to restrictions imposed by environmental authori-ties. The control of enterprise-internal environmental protection, linked in part with work safety, was identified as a focus of the activities of these authorities in all three regions. Unlike in Germany, in Brazil the sourcing of wood by wood processing enterprises is sub-ject to official control. The representative associations within the furniture industry in all three case study regions define as their central task the representation of the interests of their member organisa-tions to policy makers and society. In both Brazilian case study regions, in which forestry-related problems greatly occupy the furniture industry, the furniture industry associations also view forestry-related matters as being within their remit. In RBA the responsible as-sociation is seeking to advance the official registration of furniture manufacturers within the informal sector and to oblige them to process only wood obtained from legal sources. In SBS the furniture associations have focused considerable attention on the development of regional forestry and the supply of wood to the furniture industry in periods of wood shortage. At the time of this study, however, other economic problems had pushed the issue of forestry into the background. It was observed that the furniture producers studied as part of the research are rarely in direct contact with private environmental organisations. However, they are aware that these organisations indirectly influence the framework conditions affecting the furniture industry through consumer campaigns, by placing demands on the first links of the forest-wood value chain and through political lobbying. The dependence of the furniture producers on the suppliers of wood products varies be-tween the three study regions. This dependency is weak in NRW because the furniture manufacturers can source materials regionally and beyond without any difficulties, and because large wood suppliers take into consideration the demands of the furniture in-dustry with respect to quality, dimensions and the preparation of sawn wood and derived timber materials. This contrasts with the situation in Brazil. In SBS large to moderately large furniture manufacturers have taken a number of steps towards backward vertical integration (establishment of own sawmills, in some cases resorting to the management of pine plantations) or have sought alternative sources of pre-finished materials. The rea-sons for this are the uncertainty of the wood supply and the quality of the pre-finished wood products. In RBA the statutory requirement that only wood derived from 'legitimate sources' be used in manufacturing poses problems for the largely state-sponsored furni-ture manufacturers in the formal sector. A large proportion of the regionally available tropical wood is sold in or exported to other regions of Brazil in the form of part-wood goods. The prices paid by furniture manufacturers for high quality pre-finished wood pro-ducts, particularly those made of certified wood, have increased considerably in recent years, whereas furniture prices are under great pressure due to competition from numer-ous small, informal manufacturers and as a result of the supply of cheaply manufactured, mass produced furniture from southern Brazil. As yet, only a few well-organised furniture manufacturers in RBA appear to have adopted a strategy capable of countering this di-lemma. In all three regions the relationship between furniture manufacturers and their customers is characterised by dependencies of the furniture manufacturers. In RBA formally regis-tered furniture manufacturers are greatly dependent upon public contracts. In SBS furni-ture manufacturers are dependent upon mass production for the export market, with inter-national customers often specifying the models and exerting a considerable influence on price setting. In terms of national sales, the manufacturers in NRW and in SBS are pitted against the large purchasing associations and groups within the furniture retail industry. In all three regions the furniture industry receives only weak 'forestry' signals from its di-rect costumers and end users – that the wood used in the furniture provided is sourced from 'legal' or 'sustainable' forest management is, at best, a subordinate purchase cri-terion, or is only relevant in niches within the market. The public clients in RBA are an exception as their furniture acquisitions are explicitly intended to support the development of sustainable regional forest-wood value chains in Acre. Experts from the three research regions characterised the interaction between furniture manufacturers as competitive, with little cooperation evident. Any cooperation between the enterprises occurs primarily in those areas that are of little relevance for competition (e.g., visits to exhibitions abroad). Initiatives prompting intensive cooperation often stem from associations or governmental organisations. The visits to the enterprises in the three regions and discussions with the experts revealed that the furniture manufacturers involved in the study do not possess a systematically de-veloped system of environmental management. Consideration of environmental problems is oriented primarily towards the relevant environmental regulations. According to the ex-perts, in NRW the furniture manufacturers adhere to the rules. Their production facilities are subject to strict controls by the environmental authorities. In Brazil the statutory envi-ronmental regulations for furniture manufacturers include not only the enterprise-internal environmental protection stipulations but also the means to demonstrate that the wood used stems from legal sources. The implementation of the environmental protection re-quirements at operational level was found to be variable in the two Brazilian regions. Interpretation of the results in a theoretical context The author sought to understand how entrepreneurs and managers in the wood process-ing industry perceive and interpret their own environment; how they make and justify deci-sions. The focus was on the forestry reasoning exhibited by decision makers in furniture manufacturing enterprises. The interpretative approaches followed were: 1. The differentiation of motives for forestry-relevant behaviour displayed by furniture manufacturers; 2. The differentiation of behavioural planes of reference and time horizons; 3. The examination of the extent to which the specific behaviour with respect to the forest resource, as the principal source of the raw material used in the manufac-ture of furniture, corresponds to the general behavioural patterns of decision mak-ers in manufacturing enterprises. On (1) motives for forestry-related behaviour One might enquire as to the perceived urgency of the forestry-related signals that a furni-ture manufacturer receives from his environment: can, as far as the manufacturer is con-cerned, stakeholder groups demand or even force a certain forestry-related behaviour? The case studies suggest that furniture manufacturers perceive and take into consider-ation influences exerted by stakeholder groups external to the product chain. It would ap-pear, however, that the intensity of the perceived demands is rarely so high as to cause a reaction on the part of the manufacturers. Changes in the behaviour of Brazilian manufac-turers did become evident in the study after the introduction of the DOF documentation requiring that they be able to prove the wood they use is sourced legally. Conversely, it can be assumed that furniture manufacturers predominantly perceive forestry-related themes within their environment as signals, which they assess individually on the basis of their own beliefs and either integrate within their strategies or ignore. The type of pre-finished wood product – or combination of materials – used in the manu-facture of a piece of furniture serves to focus the attention of furniture buyers onto the relationship with 'forestry' to a greater or lesser extent, through which the forestry reason-ing of the manufacturers is also influenced. The investigation revealed differences in understanding and in marketing approaches between the manufacturers of furniture made of derived timber products and those of furniture made from solid wood; and in the latter case there was a further distinction between users of tropical and non-tropical tree spe-cies. The manufacturers of solid wood furniture often draw a link between their furniture and nature or the forest. Manufacturers of furniture made with tropical wood emphasise the individuality of unique types of wood stemming from natural forests rich in species. The manufacturers of furniture using non-tropical species, alternatively, accentuate the fact that their wood stems from sustainably managed 'non-tropical' forests. Manufacturers using derived timber products base their 'ecological' arguments on the advantages of the low levels of waste in the production and processing of derived timber products, as a re-sult of which forest resources are used more efficiently. The Brazilian furniture manufacturers are concerned by the uncertainties surrounding the supply of wood. The associated problems are perceived differently by different manufac-turers, even within the two case study regions. In all three study regions the furniture manufacturers involved in the study avowed the use of wood from legitimate sources, and expect risks to their sales if their customers were to have doubts in this regard. At present there is little critical scrutiny of the origins of the wood used in furniture by the consumer, however, and that which exists focuses predominantly on the use of tropical wood. On (2) behavioural planes of reference and time horizons In only very few cases is forest management an activity undertaken by furniture manufac-turers. The forestry-related behaviour of the furniture manufacturers does not involve di-rect participation in forest management operations, but rather in influencing these indi-rectly, or in reacting to the forest issues taken up by other actors. This is expressed in the choice of the materials used in furniture manufacture, and in their procurement; that is, through behaviour linked directly to furniture manufacture. It is also expressed in the communication with stakeholder groups situated in the enterprises' immediate surround-ings and in their macro-environment. Material-oriented behaviour and the relationship with stakeholder groups are not independent issues but may be linked; for example, because in decisions concerning material selection the manufacturer's trust in the supplier and the preferences of the consumers are taken into consideration. In terms of the time horizons of the decisions made by furniture manufacturers, the analy-sis made clear that forestry reasoning plays a subordinate role in their short term perspec-tive, and that other aspects are of greater importance for the enterprises in question (e.g., wood supply for the current production programme and competition). Forestry-related considerations and measures (e.g., the use of alternative pre-finished wood products or the use of certified wood) are afforded greater weighting in the medium to long term. On (3) whether forest rationality reflects general patterns of behaviour Many of the forms of forest rationality of the furniture manufacturers identified in the re-search can be matched to general behavioural patterns of decision makers in commercial enterprises: Legitimacy: The furniture manufacturers from all three regions involved in the study em-phasised that their own forestry-related behaviour complies with the law and is ecologi-cally sound, particularly the choice of pre-finished wood products. They adopted this posi-tion irrespective of their abilities to judge or influence the sources of the raw materials pro-cured. Adaptation: The furniture manufactures react to demands from their environment, such as statutory regulations and controls, criticism from environmental protection associations, requests from customers and altered competition conditions. Such reactions also incorpo-rate their forestry-related behaviour, with avoidance (e.g., avoiding the use of tropical wood) a possible alternative or complementary behaviour. Anticipation: Enterprises develop anticipation strategies in order to prepare in advance for expected future challenges, risks and opportunities. This behaviour was exhibited by furni-ture manufacturers in all three study areas; for example, in their manner of dealing with forest-wood product chain certification and in the testing of new wood types and derived timber products. Innovation: Innovation is a form of manifestation of adaptation and anticipation, but is also a distinct form of behaviour in the case of the manufacturers of solid wood furniture. They have, to a certain extent, aspects of forest management (particularly evident in the case of the furniture manufacturers in SBS that have integrated plantation management as a new area of operations) and the further development of their raw material base firmly in focus from the outset. There are also secondary effects for forestry. This study of the 'forest rationality' of wood processing enterprises shows that furniture manufacturers perceive the strengths and weaknesses associated with forest utilisation in their regions, and that they reflect carefully on forestry-related decisions. The decisions they make depend on the framework conditions within the industry, the behaviour of the associated stakeholder groups, the strategy of the specific enterprise and on the ideals of the owners and managers. They are confronted by the expectations of certain state and private stakeholder groups; expectations that correspond with the concept of sustainable development espoused by Agenda 21. The enterprises included in the case studies re-vealed individual starting points for the achievement of sustainable development in forest-rich regions through the production of furniture. However, the current forestry-related be-haviour of the manufacturers is not comprehensively geared towards sustainability. Rather it is pragmatically selective, tailored to the needs, interests and possible courses of action available to the respective enterprise. The potential for furniture manufacturers to achieve greater value creation in the non-material phases of the production process (marketing, and especially product design) exists. On the basis of neutral sustainability assessments in the wood value creation chain, carried out by recognised forestry certification systems, it is certainly possible for manufacturers of wood furniture to create greater impulses for the development and maintenance of sustainable forestry. Finally, to the theoretical approaches offering a potential explanation considered in the study, namely resource dependence and 'sensemaking.' The connection between the two could already be inferred from Pfeffer (1978). Steimle (2008) revealed the link between the two explicitly, in order to explain theoretically the sustainability behaviour of enter-prises. The author of this study also combined both approaches. The concept of resource dependence was helpful in the analysis of how embedded manufacturers are in their envi-ronment, and in the interpretation of their relationship with certain stakeholder groups. The 'sensemaking' approach rendered it easier to understand the perception by decision mak-ers in the industry of their business environment and their forestry-related behaviour.