The main objective of this study is to reveal the housing patterns in Cairo as one of the most rapidly urbanizing city in the developing world. The study outlines the evolution of the housing problem and its influencing factors in Egypt generally and in Cairo specifically. The study takes into account the political transition from the national state economy to the open door policy, the neo-liberal period and finally to the housing situation after the January 2011 Revolution. The resulting housing patterns in Cairo Governorate were identified as (1) squatter settlements, (2) semi-informal settlements, (3) deteriorated inner pockets, and (4) formal settlements. \r\nThe study concluded that the housing patterns in Cairo are reflecting a multifaceted problem resulting in: (1) the imbalance between the high demand for affordable housing units for low-income families and the oversupply of upper-income housing, (2) the vast expansion of informal areas both on agricultural and desert lands, (3) the deterioration of the old parts of Cairo without upgrading or appropriate replacement of the housing structure, and (4) the high vacancy rate of newly constructed apartments\r\nThe evolution and development of the current housing problem were attributed to a number of factors. These factors are demographic factors represented in the rapid growth of the population associated with urbanization under the dictates of poverty, and the progressive increase of the prices of both buildable land and building materials. The study underlined that the current pattern of population density in Cairo Governorate is a direct result of the current housing problems. Around the depopulation core of the city, a ring of relatively stable areas in terms of population density has developed. Population densification, at the expense of the depopulation core, is characterizing the peripheries of the city. The population density in relation to the built-up area was examined using Landsat-7 ETM+ image (176/039). The image was acquired on 24 August 2006 and considered as an ideal source for land cover classification in Cairo since it is compatible with the population census 2006.\r\nConsidering that the socio-economic setting is a driving force of change of housing demand and that it is an outcome of the accumulated housing problems, the socio-economic deprivations of the inhabitants of Cairo Governorate are analyzed. Small administrative units in Cairo are categorized into four classes based on the Socio-Economic Opportunity Index (SEOI). This index is developed by using multiple domains focusing on the economic, educational and health situation of the residential population. The results show four levels of deprivation which are consistent with the existing housing patterns. Informal areas on state owned land are included in the first category, namely, the â severely deprivedâ level. Ex-formal areas or deteriorated inner pockets are characterized as â deprivedâ urban quarters. Semi-informal areas on agricultural land concentrate in the third category of â medium deprivedâ settlements. Formal or planned areas are included mostly in the fourth category of the â less deprivedâ parts of Cairo Governorate. \r\nFor a better understanding of the differences and similarities among the various housing patterns, four areas based on the smallest administrative units of shiakhat were selected for a detailed study. These areas are: (1) El-Maâ desa is representing a severely deprived squatter settlement, (2) Ain el-Sira is an example for an ex-formal deprived area, (3) El-Marg el-Qibliya was selected as a typical semi-informal and medium deprived settlement, and (4) El-Nozha is representing a formal and less deprived area.\r\nThe analysis at shiakhat level reveals how the socio-economic characteristics and the unregulated urban growth are greatly reflected in the morphological characteristics of the housing patterns in terms of street network and types of residential buildings as well as types of housing tenure. It is also reflected in the functional characteristics in terms of land use mix and its degree of compatibility. It is concluded that the provision and accessibility to public services represents a performance measure of the dysfunctional structure dominating squatter and semi-informal settlements on one hand and ample public services and accessibility in formal areas on the other hand.\r\n ; Eine der größten Herausforderungen, mit denen die Städte in Entwicklungsländern konfrontiert werden, ist die starke unkontrollierte Ausdehnung der Siedlungsfläche als Folge der rasant wachsenden Einwohnerzahlen. Das Hauptziel der vorliegenden Studie ist die Erfassung und Erklärung der wichtigsten Grundmuster unterschiedlicher Wohngebiete in Kairo, einer der am stärksten wachsenden Metropolen in den Entwicklungsländern. Methodisch wird dabei auf eine Kombination des Einsatzes von Zensusdaten, GIS, Auswertung von Satellitenbildern und Ortsbegehungen zurückgegriffen.\r\nFolgende Schwerpunkte stehen im Zentrum der Untersuchung: (1) Veränderungen der politischen Rahmenbedingungen, die den Wandel im ägyptischen Wohnungssektor allgemein und speziell in Kairo seit Mitte des 20. Jahrhunderts geprägt haben; (2) Analyse der sozio-ökonomischen Strukturen der Wohnbevölkerung; (3) Untersuchung der Wohnsituation und des Wohnumfelds in vier ausgewählten Stadtteilen von Stadtteilen, die typische Wohnstrukturen repräsentieren; (4) Aufdeckung der Unterschiede und Mängel bei der Bereitstellung und Erreichbarkeit von öffentlichen Dienstleitungen in den ausgewählten Wohnvierteln.\r\nDie Studie vermittelt zunächst einen Überblick über die Entwicklung der Wohnungsproblematik auf nationaler Ebene und speziell in Kairo. Richtungsweisende Einschnitte bilden dabei die Übergänge von der unter Nasser etablierten sozialistischen Planwirtschaft zur Politik der â Offenen Türâ unter Sadat, gefolgt von der neo-liberalen Phase während der Herrschaft von Mubarak bis zu den jüngsten Umbrüchen nach der Revolution vom Januar 2011. Diese Phasen haben ihren Niederschlag in charakteristischen Strukturen der Wohngebiete in der ägyptischen Metropole gefunden.\r\nDie Untersuchung zeigt, dass sich an den durch Bevölkerungsabnahme gekennzeichneten Stadtkern ein Ring von Wohngebieten mit einer relativ stabilen Bevölkerungsdichte anschließt. Dagegen sind die peripheren Stadtteile durch einen rasanten Anstieg der Einwohnerzahl und extreme Bevölkerungsdichten gekennzeichnet, die beispiellos sind informelle Siedlungen in Entwicklungsländer.\r\nUm zu ermitteln, in welchem Ausmaß die Bevölkerung in den unterschiedlichen Wohngebieten aufgrund ihrer sozio-ökonomischen Verhältnisse bei der Verwirklichung möglichst optimaler Lebensbedingungen benachteiligt ist, wird für alle administrativen Einheiten in Kairo der Socio-Economic Opportunity Index (SEOD) berechnet. Er umfasst ein breites Spektrum von Daten zur wirtschaftlichen Lage, zum Bildungsstand und zur gesundheitlichen Situation der Wohnbevölkerung in den verschiedenen Stadtteilen umfasst. Die Ergebnisse zeigen vier Ebenen der Benachteiligung, die sich mit den jeweiligen charakteristischen Siedlungsstrukturen decken.\r\nZum besseren Verständnis der Unterschiede zwischen den verschiedenen Grundmustern der Wohngebiete wurden vier der kleinsten administrativen Einheiten (Shiakhat) für eine detaillierte Untersuchung ausgewählt. Es handelt sich dabei um \r\n- El-Madesa, die eine Squatter-Siedlung mit gravierend benachteiligter Bevölkerung repräsentiert,\r\n- Ain el-Sira als ein ehemals im Soziales Wohnungsbau errichtetes Viertel mit einer in sozio-öko- nomischer Hinsicht benachteiligten Einwohnerschaft,\r\n- El-Marg el-Quibliya, eine typische semi-legale informelle Siedlung auf Bewässerungsland mit mittlerer sozio-ökonomischer Benachteiligung der Einwohner, und \r\n- El-Nozha als ein älteres formelles Wohngebiet mit einer weniger benachteiligten Bevölkerung.\r\nDie Detailanalyse der vier Shiakhat offenbart, in welchem Maße die sozio-ökonomischen Charakteristika und das ungeplante städtische Wachstum sich widerspiegeln in den morphologischen Strukturen der Wohngebiete hinsichtlich der Straßennetze und der Typen des Wohnungsbaus. Entsprechendes gilt auch für die Miet- bzw. Eigentumsverhältnisse sowie die Mischung von Landnutzungsformen. Die Untersuchung der Bereitstellung und Erreichbarkeit von öffentlichen Infrastruktureinrichtungen offenbart darüber hinaus ein breites Spektrum von infrastrukturell weitest gehend unterversorgten Wohngebieten, wie den Squatter-Vierteln und semi-legalen Siedlungen auf der einen Seite, und den planmäßig errichteten formellen Gebieten auf der anderen Seite, in denen die Bevölkerung relativ gut mit öffentlichen Dienstleistungen und infrastrukturell versorgt ist.\r\n ; 239 S.
Der von den australischen Medienwissenschaftlern John Hartley, Jean Burgess und Axel Bruns herausgegebene Sammelband A Companion to New Media Dynamics präsentiert eine umfassende Standortbestimmung der rezenten New Media Analysis. Er erkundet dabei die heuristischen Herausforderungen, die angesichts der neuen Mediendynamik entstehen und versucht vor diesem Hintergrund die kulturellen Umbrüche der Medien des digitalen Zeitalters gesellschaftsdiagnostisch zu verorten. In ihrer Einführung nehmen die Herausgeber Bezug auf die Transformationen der Gegenwartsgesellschaft mittels der Neuen Vernetzungstechnologien, die sie zur methodischen Orientierung für den Aufbau und die Gliederung ihres groß angelegten Readers heranziehen: "Capitalism, technology, social networks, and media all evolve and change, sometimes to our delight, sometimes our dismay. This incessant process of disruption, renewal, and eventual (if not partial) replacement is now one of humanity's central experiences" (S. 1). An diesem Statement wird ersichtlich, dass es den Herausgebern in erster Linie darauf ankommt, die Fachgrenzen zu überschreiten, um der kritischen Reflexion der hegemonialen Rolle der Neuen Medien in den unterschiedlichen Bereichen des alltäglichen Lebens gerecht zu werden. In diesem Sinne versuchen die Herausgeber, die Netzwerkwerkgesellschaft als medieninduziert zu modellieren und problematisieren digital verfügbare Kollektivität als Manövriermasse technizistischer Praktiken. Insofern dominieren im Companion to New Media Dynamics datenkritische Aufsätze, die die Dynamik des Mediengebrauchs der Vernetzungstechnologien in erster Linie als technisches Produkt der Benutzerschnittstelle interpretieren. Insofern kann die Benutzerschnittstelle als Formationssystem von Wissen und als Produktionsbedingung für die Herstellung von Aussageordnungen und individuellen Äußerungen aufgefasst werden. Wie die Autoren Charles Leadbeater und Patrik Wikström verdeutlichen, sind die sozialen Netzwerke heute selbst zum Medienereignis geworden und gelten im öffentlichen Räsonnement als ein Indikator für die Verschiebung von ökonomischen und politischen Macht- und Herrschaftsverhältnissen. Als elementare Bausteine zum Verständnis gesellschaftlicher Ordnung werden sie in unterschiedlichen Mediendiskursen als "Leitmedium" einer neuen Kommunikationskultur gesetzt (vgl. den Beitrag von Mark Pesce und Basile Zimmermann), das nicht nur das kulturelle Gedächtnis prägt und zu kollektivem Wissen mittels der kooperativen Formen der Wissenskonstitution beiträgt (vgl. den Beitrag von Andrew Lih), sondern auch die soziale Macht von Gesellschaftsformationen verhandelt. An diesem Punkt zeigt sich auch ihr Kardinalproblem. Denn unter den Bedingungen der Ökonomie der Aufmerksamkeit und der endlosen Feedbackschleifen, welche die Kommunikationskultur des Social Net kennzeichnen, ist die Machtakkumulation potentiell unbegrenzt und unabgeschlossen. Die kybernetischen Technologien des Massenfeedbacks und die Performanz- und Effizienzorientierung der Sozialen Netzwerkseiten und Online-Portale haben mit der Schaffung eines Kontrolldispositivs der permanenten sozialen Beobachtung wesentlich zur digitalen Modellierung der neuen Kollektivitäten beigetragen (vgl. den Beitrag von Lelia Green und Danielle Brady zur Subjektformatierung in der Online-Jugendkultur). Die Textsammlung besteht aus 34 Originalbeiträgen und zeichnet sich durch eine stringente Argumentation und eine vielschichtige Gliederung der Themenfelder aus. Die einzelnen Kapitel sind sehr gut strukturiert und aufeinander abgestimmt. Die Aufsätze weisen durchgehend ein hohes Reflexionsniveau auf, sind fundiert und problemorientiert und muten sich eine erkenntniskritische Auseinandersetzung mit dem Gegenstand zu. Innovative Theoriebildung und empirisch fundierte Studien sind in der Anthologie zu Fragen der New Media Dynamics gut miteinander verzahnt. Gerade in der Konzentration auf ausgewählte Fragestellungen liegt die Stärke des Sammelbandes. Die Herausgeber vermeiden mit ihrer Konzeption, alle Bereiche oberflächlich zu behandeln; vielmehr bieten sie sowohl für die medienwissenschaftliche Theoriebildung als auch für die kultursoziologische Gegenwartsanalyse innovative und eigenständige Erklärungsmodelle an. In der programmatischen Einleitung zu ihrem Forschungsfeld reflektieren Hartley, Burgess und Bruns die methodologische und epistemologische Ausrichtung ihrer Anthologie und verfolgen den innovativen Anspruch, die Neuen Medien als Konvergenzphänomene technologischer, kultureller, sozialer und politischer Praktiken theoretisch zu verorten. Der Sammelband geht jedoch über diese gegenwartsdiagnostisch motivierten Einschätzungen weit hinaus und bietet in den unterschiedlichen Aufsätzen neuartige Theorieperspektiven und Optionen transdisziplinärer Analysemodelle. Die im ersten Kapitel versammelten Beiträge international renommierter Autor/innen (Sean Cubitt, Thomas Pettitt u.a.) sind als Annäherungen an das Feld der New Media Studies zu verstehen. Sie versuchen heuristische Fragestellungen zu definieren und künftige Trends der Forschungsliteratur zu prognostizieren. Die zentrale Frage des ersten Kapitels widmet sich weniger der Problematisierung der Reaktion der Medienwissenschaft auf den neuen Forschungsgegenstand, sondern fragt vielmehr nach der medialen Konstruktion des medienwissenschaftlichen Wissens durch die Neuen Medien. Das zweite und das dritte Kapitel des Companion to New Media Dynamics eröffnet ein breites Forschungsfeld der metatheoretischen Datenkritik und demonstriert eindrucksvoll, dass eine engagierte Wissenschaft der Neuen Medien aufzuzeigen hat, inwiefern mobile Kommunikationsmedien zur Normalisierung von Lebensstilen und zur Ausweitung von sozialer Kontrolle führen können. "Changing Media with Mobiles" von Gerard Goggin, "Make Room for the Wii" von Ben Aslinger, "Online Identity" von Alice E. Marwick und "Practices of Networked Identity" von Jan-Hinrik Schmidt zeigen auf, dass mobil abrufbare Social Networking Sites und ihre Kommentarfunktionen, Hypertextsysteme, Ranking- und Votingverfahren dafür sorgen, dass das Alltagsleben und -verhalten der mobilisierten User immer mehr zum Schauplatz von wechselseitiger Beobachtung geworden ist. Diese Beobachtungssituation wird oft als 360°-Feedback beschrieben: Jeder kann jeden überall und jederzeit überwachen. Die ortsunabhängige Verwendung in Echtzeitübertragung macht kommerziell bewirtschaftete Apps also zum geeigneten Tool für mediale Selbstführungstechniken im Standby-Modus. Da Apps durch ihre Nutzung immer auch die Einstellungen von Subjekten beeinflussen, können sie als persuasive Medien verstanden werden. Unter dem Schlagwort "Surveillance" thematisiert der einschlägig bekannte Autor Anders Albrechtslund in seinem Beitrag "New Media and Changing Perceptions of Surveillance" den Zusammenhang von Online-Medien und veränderten Wahrnehmungs- und Kommunikationsräumen sozialer Kontrolle und technologischer Überwachung im Backend-Bereich (d. h. dem Bereich, der den Nutzer/innen nicht zugänglich gemacht wird). Albrechtslund spricht in diesem Zusammenhang von der Durchsetzung einer neuen "Participatory Surveillance" (S. 309), die an der Schnittstelle zwischen den mobilen Endverbrauchergeräten und den Social Networking Sites entsteht, die durch kollektive Rahmungsprozesse dafür sorgen, dass unser Alltagsleben und -verhalten immer mehr zum Schauplatz offener Bedeutungsproduktion und permanenter Ausverhandlung in sozialen Evalutions- und Abstimmungsprozessen wird. Im Anschluss an die machtkritische Medientheorie von Albrechtslund diskutiert Feona Attwood genderpolitische Fragestellungen ("Cybersexuality and Online Culture") und selbsttechnologische Ökonomisierungsprozesse in den Sozialen Netzwerkseiten ("Microcelebrity and the Branded Self"). Die beiden genannten Autor/innen beschäftigen sich vor allem mit den Möglichkeiten und Rahmenbedingungen, welche den von Nutzer/innen generierten Inhalten im Bereich des kulturellen Hackings inhärent sein können. An diese Fragestellung anknüpfend versuchen die im Unterkapitel "Politics, Participation, and Citizenship" versammelten Texte von der politischen PR-Kampagne bis zum politischen Ungehorsam (Stephen Coleman, Cherian George, Tarleton Gillespie) Probleme der Tragfähigkeit der politischen Partizipation qua Neue Medien zu erörtern. Die Analysen von Jeffrey P. Jones, Tarleton Gillespie und Mark Pesce zeigen auf, dass YouTube als Ausdruck eines mediendemokratischen Öffentlichkeitswandels und des vorherrschenden Entertainisierungstrends aufgefasst werden kann, der auch die mediale Darstellung des Politischen erfasst hat. Mit dem Aufstieg der Medienunterhaltung zum Sinn- und Identitätszentrum der modernen Gesellschaft und der damit verknüpften kulturellen Aufwertung des Entertainments wird die Unterhaltungsöffentlichkeit zunehmend ein Element der Politikdarstellung. Die Unterhaltungsangebote der populären Medienkultur sind öffentliche Kommunikationsräume, die der Fragmentierung politischer Diskurse entgegenwirken und eine gemeinsame Zeichenwelt zur Verfügung stellen, welche die einzelnen Spezialdiskurse überschreitet und so eine Infrastruktur für das gemeinsame Gespräch zur Verfügung stellt. Heute durchdringt die politische Kommunikation und Meinungsbildung sämtliche Bereiche der Unterhaltungskultur. Diese Tendenz macht auch vor YouTube nicht Halt. Der Beitrag von Basile Zimmermann mit dem Titel "Materiality, Description, and Comparison as Tools for Cultural Difference Analysis" zeigt, dass die dem Videoportal eigene Medienpraxis des zivilgesellschaftlichen Dokumentarismus, der auf das unverfälschte Zeigen abzielt, sich vor 'gegnerischen' Aneignungen nicht schützen kann. Dieser grundsätzlich objektivierende Zeigegestus kommuniziert ein bestimmtes Rollenverständnis, da er mit dem Anspruch auftritt, ein Fenster zur Welt und ein – gegebenenfalls medial ausgegrenztes, sozial unterdrücktes – Abbild der politischen Realität zu sein. Der dokumentarisierende Wahrheitsanspruch kann aber nicht gegenkulturell verwahrt und beschützt werden, sondern wird in einem Aneignungsspiel von der 'Gegenseite' nachgeahmt, die in ihren politischen Kampagnen die dokumentarisierende Videoästhetik zur Authentifizierung der Inhalte instrumentalisiert. Vor dem Hintergrund dieser Fragestellung geht es der Analyse von Leila Green und Danielle Brady ("Young People Online"), die sich mit der Herausbildung eines zivilgesellschaftlichen Mediengebrauchs im Social Net beschäftigten, darum, den Raum der digitalen Öffentlichkeit für widerstreitende Handlungsspielräume und ambivalente Selbstpraktiken offen zu halten. Um die Handlungsspielräume im Vermittlungsverhältnis zwischen Sozialität und Subjektivität genauer zu fassen, versuchen die beiden Autor/innen die befreienden wie auch einschränkenden Möglichkeiten aufzuzeigen, welche die Subjekte in den sozialen Medien des Web 2.0 zum Ausgangspunkt ihrer widerspenstigen Praktiken nehmen. Fazit: Vor dem Hintergrund der wachsenden Bedeutung der digitalen Telekommunikation und ihrer sozialen Anwendungen wirft der von John Hartley, Jean Burgess und Axel Bruns herausgegebene Sammelband A Companion to New Media Dynamics einen vielschichtigen Blick auf die digitale Neuorganisation der mobilen Benutzeroberflächen, der Online-Plattformen und der sozialen Netzwerke und entwickelt dabei neue Forschungsansätze und -perspektiven für die Untersuchung digitaler Medienkulturen. Dennoch hat dieser umfangreiche Band in seinem deklarierten Anspruch der transdisziplinären Überwindung der medienwissenschaftlichen Fachgrenzen auch blinde Flecken. Wer sich Case Studies und ästhetische Analysen der von Nutzer/innen generierten Webinhalte im Bereich der Visual Culture oder des Visual Storytelling erhofft, wird enttäuscht. Denn die Aufarbeitung von konkreten Rezeptionskontexten ist hier kein Thema. Es dominiert in den meisten Beiträgen die akademische Referenzbildung, die die dynamische Bedeutungsproduktion der Nutzer/innen, der Fans und der Blogger/innen außer Acht lässt und damit den performativen Nutzungsaspekt der Sozialen Medien des Web 2.0 vernachlässigt. In diesem Sinne können die destabilisierenden Medienpraktiken der gewöhnlichen Nutzer/innen nicht in den Blick genommen werden und bilden gleichermaßen den blinden Fleck der in diesem Band versammelten Social Media Studies. Der Mehrwert der Technologie von sozialen Netzwerken und bloggestützter Kommunikation im Web 2.0 besteht aber vor allem in der Einrichtung eines medienimmanenten Rückkanals. Diese Feedback-Technologien haben nicht nur im engeren Sinne eine neuartige Kommentarkultur ermöglicht, sondern darüber hinaus zur sozialen Normalisierung von Beobachtungs- und Kontrolltechnologien beigetragen. Das Social Web kann also als eine Versuchsanordnung zur Multiplizierung kollektiver Blicke verstanden werden. Die Social Networking Sites können in dieser Hinsicht als eine Versuchsanordnung einer künftigen Surveillance Society interpretiert werden. Die Kollektivierung des Rückkanals erhöht die soziale Kontrolle, wenn sich Subjekte im Zustand der permanenten Beobachtung befinden. Mit der Verdichtung der Kommunikationsakte im medientechnologisch induzierten und medienästhetisch inszenierten Flow-Erlebnis gerät die Kommunikationskultur unter Beschleunigungsdruck und es kommt zur Herausbildung vereinfachter und repetitiver Mikrodramaturgien mittels Abbreviaturen, Ellipsen und Redundanzen. Dieses neue Machtverhältnis bleibt in dem Sammelband allerdings unterbelichtet. Das theoretische Defizit zeigt sich deutlich, wenn nicht diskutiert wird, dass Soziale Medien mit ihren Peer-to-Peer-Netzwerken heute auch horizontale Möglichkeiten der Systembeobachtung anbieten und im Frontend-Bereich eine dezentral organisierte Netzwerkdynamik etablieren, welche die von den User/innen generierten Inhalte einer reziproken Bewertungspraxis der wechselseitigen Beobachtung unterwirft.
Aus der Einleitung: Die Dienstleistungsbranche ist großen wirtschaftlichen und sozialen Veränderungen ausgesetzt. Die Globalisierung, die Liberalisierung und der technische Fortschritt bieten Chancen und Risiken zugleich. Während sich den einen Dienstleistungsunternehmen neue Marktchancen eröffnen, müssen sich andere Unternehmen grundsätzlich neu orientieren. Der Wettbewerb hat sich verschärft, mit unmittelbaren Auswirkungen auf das einzelne Unternehmen. Die beiden Autoren dieser Diplomarbeit haben anhand des Geschäftsmodells «Werbeagentur» untersucht, wie ein ganz spezifischer Wirtschaftszweig mit dem Wandel in der Dienstleistungsbranche konkret umgeht. Die Schweizer Werbeagenturen bewegen sich in einem komplexen Marktumfeld und sind zahlreichen Wettbewerbskräften ausgesetzt, die sie nur zum Teil aus eigener Kraft beeinflussen können. Die steigenden Bedürfnisse ihrer Auftraggeber auf der einen Seite, der zunehmende Wettbewerbsdruck auf der anderen Seite, sowie die immer rascheren und vielschichtigeren Entwicklungen im Bereich der Werbung, der Medien, der Konsumenten, der Konkurrenz wie auch im Bereich der Gesetzgebung, drängen die klassischen Werbeagenturen immer häufiger an ihre eigenen Grenzen. Werden die heutigen Agenturmodelle den veränderten Ansprüchen noch gerecht? Sind tiefer greifende strategische und strukturelle Veränderungen nötig? Was sind mögliche Ansätze für eine erfolgreiche Zukunft? Unsere Untersuchung hat gezeigt, dass die verschiedenen Problemstellungen für die Schweizer Werbeagenturen in der Branche akut diskutiert werden. Während im vergleichbaren Nachbarland Deutschland bereits intensive, öffentliche Debatten über die Zukunft der Werbeagenturen geführt werden, finden die Diskussionen in der Schweiz, mit wenigen Ausnahmen, aber mehrheitlich immer noch hinter verschlossenen Türen statt. Die ganzheitliche Betrachtung und Komplexität der Werbebranche erfordert eine umfassende Analysearbeit. In einem ersten Schritt wurde bereits vorhandenes Material aus der Fach- und Wirtschaftspresse, wie auch von den verschiedenen Branchenverbänden aus der Schweiz und dem vergleichbaren Nachbarland Deutschland zusammen getragen und analysiert. In einem zweiten Schritt wurden mittels einer Online-Umfrage rund 140 Marketing- und Kommunikationsverantwortliche zur Marktsituation der Schweizer Werbeagenturen befragt. Um diesen quantitativen Aussagen auch eine qualitative Tiefe zu verschaffen, wurden mit namhaften Experten seitens Werbeagenturen, Auftraggebern und der Wissenschaft umfassende Interviews geführt. Die Resultate zeigen, dass die akuten Diskussionen über die verschärfte Wettbewerbssituation der Schweizer Werbeagenturen durchaus berechtigt sind. In einzelnen Bereichen ist bei vielen Werbeagenturen tatsächlich akuter Handlungsbedarf vorhanden. Signifikant in der Kritik sind die Leistungserbringung im Bereich integrierter Kommunikationslösungen, das Know-how der Mitarbeiter und die Zusammenarbeit mit den Auftraggebern. Eine Herausforderung stellen für die Werbeagenturen auch die verstärkte Konkurrenzsituation, die Veränderungen in der Medienlandschaft, sowie die politischen Diskussionen rund um die Werbeverbote dar. Die Autoren dieser Arbeit haben sich aber nicht nur zum Ziel gesetzt, die Marktsituation und mögliche Herausforderungen darzustellen, sondern haben auch mögliche Szenarien skizziert, wie die Werbeagenturen den vielen Herausforderungen zukünftig entgegentreten könnten. Dabei konnten Beispiele von Unternehmen beigefügt werden, welche die vorgeschlagenen Konzepte bereits umgesetzt und teils auch schon erfolgreich anwenden.Inhaltsverzeichnis:INHALTSVERZEICHNIS 1.MANAGEMENT SUMMARY5 2.EINLEITUNG6 2.1Ausgangslage6 2.2Problemstellung6 2.3Ziel und Zweck der Arbeit6 2.4Aufbau der Arbeit7 2.5Methodik8 2.6Themenabgrenzung10 4.EMPIRISCHER TEIL:DIE WERBEAGENTUR UND IHRE HERAUSFORDERUNGEN11 4.1Definition Werbeagentur12 4.2Das Marktumfeld der Werbeagentur13 4.3Der Werbemarkt14 4.3.1Die Schweizer Werbewirtschaft14 4.3.2Werbemedien und Werbemittel15 4.3.3Werbeformen17 4.3.4Werbewirksamkeit20 4.3.5Die Herausforderungen für die Werbeagentur in der Dimension Werbemarkt21 4.4Dimension Medien22 4.4.1Technologische Entwicklung22 4.4.2Mediennutzung23 4.4.3Medieninhalte24 4.4.4Die Herausforderungen für die Werbeagentur in der Dimension Medien25 4.5Dimension Konsumenten26 4.5.1Gesellschaftliche Entwicklung26 4.5.2Konsumverhalten27 4.5.3Zielgruppensegmentierung28 4.5.4Herausforderungen für die Werbeagentur in der Dimension Konsumenten29 4.6Dimension Auftraggeber30 4.6.1Rolle der Unternehmen im wandelnden Markt30 4.6.2Werbeausgaben und Werbecontrolling31 4.6.3Werbeagenturen als Partner32 4.6.4Auswahl einer Werbeagentur33 4.6.5Auftrag an die Werbeagentur34 4.6.6Auftragserfüllung der Werbeagentur34 4.6.7Vertrag und Vergütung36 4.6.8Herausforderungen für die Werbeagentur in der Dimension Auftraggeber38 4.7Dimension Konkurrenz39 4.7.1Aktuelle Konkurrenz39 4.7.2Neue Konkurrenz40 4.7.3Herausforderungen für die Werbeagentur in der Dimension Konkurrenz42 4.8Dimension Umwelt43 4.8.1Globalisierung43 4.8.2Gesetzliche Rahmenbedingungen43 4.8.3Die Herausforderungen für die Werbeagentur in der Dimension Umwelt44 4.9Die Werbeagentur45 4.9.1Die Werbeagentur im Wandel der Zeit45 4.9.2Funktion und Leistung46 4.9.3Organisation48 4.9.4Prozesse51 4.9.5Mitarbeiter und Management52 4.9.6Finanzielle Entwicklung55 4.9.7Die unternehmensinterne Herausforderung für die Werbeagenturen55 5.ERSTE KONKLUSION EXPERTENINTERVIEWS56 5.1Erste Verdichtung der Ergebnisse56 5.2Experteninterviews58 6.LÖSUNGSANSÄTZE UND SZENARIEN64 6.1Mögliche Ansätze und Modelle64 6.1.1Die vier meistgenannten Agenturmodelle aus Sicht der Umfrageteilnehmer64 6.1.2Das zukünftige Agenturmodell aus Sicht der Trendforschung64 6.1.3Die vier möglichen Szenarien64 6.2Szenario 1: Das Generalunternehmen65 6.3Szenario 2: Die Modularorganisation67 6.4Szenario 3: Die Spezialisten69 6.5Szenario 4: Die kreative Unternehmensberatung71 7.SCHLUSSFAZIT73 8.BEGRIFFSERLÄUTERUNG74 9.QUELLENVERZEICHNIS75Textprobe:Textprobe: Kapitel 4.7, Dimension Konkurrenz: Die Schweizer Werbeagenturen befinden sich heute noch in einer vergleichsweise bequemen Situation. Die Werbeausgaben steigen und damit hergehend füllen sich auch die Auftragsbücher der Agenturen. Anstrengende Kundenakquisitionen sind für die etablierten Agenturen weiterhin nicht nötig, immer wieder werden sie zu Pitches eingeladen. Und auch wenn hier und dort ein viel ausgezeichneter Kreativer die Agentur wechselt, haben sich die großen Agenturen ihre Position im Schweizer Werbemarkt mehrheitlich gefestigt. Wie die Untersuchung der Marktumfelddimension Konkurrenz nachfolgend zeigen wird, könnte es mit dieser vornehmen Situation aber vielleicht schon bald einmal vorbei sein. Aktuelle Konkurrenz: Durch die vereinten Kernkompetenzen Beratung und Kreation besteht das Konkurrenzfeld der Werbeagenturen zumindest heute noch vor allem aus den übrigen Werbeagenturen in der Schweiz, welche ein vergleichbares Dienstleistungsangebot vorweisen können. Differenzierungsmöglichkeiten bestehen demzufolge weniger durch das Angebot selber, als vielmehr durch das Humankapital. Der Erfolg einer Werbeagentur steigt und fällt mit den Mitarbeitern. Je kreativer die Mitarbeiter der Gestaltungsabteilung oder je strategisch fähiger die Mitarbeiter der Beratungsabteilung, umso erfolgreicher die Agentur, lautet das Motto in der Branche. Der Schweizer Werbemarkt spürt aber zunehmend die Auswirkungen der Globalisierung. Einerseits profitieren die Schweizer Werbeagenturen vom zunehmenden internationalen Wettbewerb, sei es, weil sie die lokalen Gegebenheiten besser kennen als die ausländischen Agenturen oder weil sie durch ihre überragende kreative Leistung aufgefallen sind und deshalb neu auch vom Ausland Aufträge erhalten. Andererseits zeigt unsere Umfrage bei den Werbeauftraggebern aber, dass inzwischen bereits 10% der in der Schweiz ansässigen Unternehmen von ausländischen Werbeagenturen betreut werden. Zynisch äußerte sich deshalb kürzlich Frank Bodin, Charmain der Werbeagentur EURO RSCG zu diesem Trend: «Ist es so sexy, nach London zu fliegen?». Aber auch die Produktion verlagert sich vermehrt ins Ausland. Gerade im Bereich Onlinewerbung werden aufwändige Programmierungsarbeiten zunehmend in Billiglohnländer ausgelagert. Agenturen, welche auf diese kostengünstigen Ressourcen zurückgreifen, können damit bis zu 50 Prozent einsparen. Ein Wettbewerbsvorteil, auf den die Agenturen im steigenden Preiskampf sicher immer weniger verzichten können. Neben den genannten Konkurrenzfeldern stellen sich auch immer mehr Freischaffende Werber (Freelancer) oder kleine spezialisierte Agenturen in den Dienst der Unternehmen. Sie profitieren davon, dass die Marketingabteilungen der Kunden immer professioneller werden, zunehmend selber die Konzeption und Projektarbeit übernehmen und sich ein eigenes Netzwerk an Spezialisten halten. Gerade die Flexibilität und/oder die Spezialisierung verschaffen den Freischaffenden und Kleinstagenturen im komplexen Marktumfeld einen Wettbewerbsvorteil und machen sie zu ernst zu nehmenden Konkurrenten für die Werbeagenturen. Das sehen auch die Teilnehmer der Umfrage so. Nicht zuletzt verschaffen sich zunehmend auch Agenturen einen Wettbewerbsvorteil, die ihre Geschäftsmodelle grundsätzlich neu interpretiert haben. Eine Möglichkeit sind beispielsweise neue Zusammenarbeitsmodelle. Ein viel diskutierter und teils bereits erfolgreich angewandeter Ansatz ist die Erfolgsbeteiligung. Dabei wird die Werbeagentur intensiver in den gesamten Marketingprozess integriert und am Erfolg beteiligt, trägt aber gleichzeitig auch das Risiko finanziell mit, in dem sie ihre eigenen Leistungen vorfinanzieren muss. Neue Konkurrenz: Wie die Resultate aus dem Desk Research zeigen, droht den Werbeagenturen in Zukunft neue Konkurrenz aus ganz unterschiedlichen Lagern. Der deutsche Gesamtverband Kommunikationsagenturen GWA zum Beispiel, kündigte zum Jahrehundertwechsel eine Veranstaltung unter dem Titel «Werbeagenturen in der Sandwichposition: Toast oder Füllung?» an, die sich mit der Thematik befasst hatte, dass Unternehmensberatungsfirmen zunehmend das Beratungsfeld der Werbeagenturen streitig machen. Nebst Strategie und Konzeption, bieten spezialisierte Marketingberatungsunternehmen zunehmend auch Hand bei der Umsetzung. Die steigende Bedeutung kann sicher auch darauf zurückgeführt werden, dass den Beratungsunternehmen ein höheres Know-how im Bereich Markenführung attestiert wird, wie eine deutsche Studie zur Markenführungskompetenz vor einigen Jahren bewiesen hat. Auch die Schweizer PR-Agenturen schließen ihr starkes Wachstum im Jahr 2007 unter anderem auch darauf zurück, dass sich Aufträge und Budgets von den Werbeagenturen auf die PR-Agenturen verlagert hätten. Nebst den Beratungsunternehmen öffnet sich für die Werbeagenturen ein weiteres Konkurrenzfeld: die Medien. Der Umbruch der Medienwirtschaft ist voll im Gange, das Geschäft der Medien und Agenturen wird durch die technischen und sozialen Fortschritte laufend verändert. Längst haben die Medien ihre Rolle als reine Informationstransporteure niedergelegt, stärken ihre Medienmarkendurch professionelle Selbstvermarktung und versuchen mit zusätzlichen Angeboten, ihr Publikum ganz für sich zu gewinnen. Diese Entwicklung öffnet auch in der kommerziellen Vermarktung neue Möglichkeiten. Gerade vor dem Hintergrund, dass die Grenzen zwischen Werbung und Inhalt zunehmend schwinden, wird zukünftig niemand besser, als die Medien selbst, den Werbeauftraggebern direkten Zugang zu Inhalt und Publikum verschaffen können. Wie das Mediensponsoring bereits heute beweist, kann der Realisationsprozess zwischen Kommunikation und Inhalt nicht mehr getrennt werden. Zudem vereinen die Medienunternehmen immer mehr on- und offline-Medien unter einem Dach und werden damit zu mächtigen Konglomeraten, die den Werbeauftraggebern gesamtheitliche Lösungen anbieten können – Marktforschung, Adressdaten, Produktion, Channelplanning und Distribution inklusive. Auch im Bereich der Onlinekommunikation droht den Werbeagenturen durch Konzerne wie Microsoft und Google weiteres Ungemach. Die beiden Technologiegiganten haben im Jahr 2007 je ein führendes Vermarktungsunternehmen im Bereich der Onlinewerbung übernommen. Damit signalisieren Microsoft und Google, dass sie jenseits von Suchanzeigen (bsp. AdWords) verstärkt auch auf die Markenwerbung setzen werden. Eine mögliche Plattform wäre zum Beispiel das bisher kaum rentable Videonetzwerk «Youtube», die Google im Jahr 2006 ebenfalls übernommen hatte. Wenn die beiden Internetdienste ihre Kompetenzen im Bereich Onlinewerbung stärken, erobern sie zunehmend die Domäne von Werbeagenturen. Dies bestätigt auch Martin Sorell, Vorstandschef des globalen Agenturnetzwerkes WPP, zu welchen Werbeagenturen wie Ogilvy und Mather oder Young Rubicam gehören. Der große Vorteil der Technologiekonzerne gegenüber den Agenturen ist das Wissen um die Bedürfnisse und das Verhalten ihrer Nutzer. Google zum Beispiel, sammelt sämtliche Datenspuren, welche die Nutzer auf den Suchmaschinen oder in den sozialen Netzwerken hinterlassen. Damit können Google und Microsoft den Werbeauftraggebern auf die Zielgruppen zugeschnittene Lösungen bereithalten. Doch nicht nur das zielgenaue Channelplanning (Mediaplanung) machen die Internetdienstleister den Agenturen streitig, Google dringt mit einer neuen eigenen Kreativabteilung, dem «Creative Lab», auch ins Kerngeschäft der Werbeagenturen ein. Dass Google damit grosse Pläne verfolgt, beweist die Tatsache, dass der Technologiekonzern für sein «Creative Lab» Top-Kreative der weltweit führenden Werbeagenturen wie Ogilvy Mater, Wieden Kennedy oder TBWA/Chiat/Day abgeworben hat. Als letztes Konkurrenzfeld für die Werbeagenturen, welches die beiden Autoren dieser Arbeit noch speziell hervorheben wollen, sind die Werbekonsumenten selbst. Sollte in Zukunft Strategie, Konzeption und Projektmanagement vermehrt durch spezialisierte Marketingberatungsfirmen oder durch die unternehmenseigenen Marketingabteilungen selbst erfolgen, verbleibt den Werbeagenturen das Kreativgeschäft, also die Werbeidee selbst. Doch die Ideenfindung selbst ist keine unternehmerische Fähigkeit, die eine Werbeagentur alleine für sich in Anspruch nehmen könnte. Selbstverständlich verlangt die auf ein Unternehmensgedanken und ein Kampagnenziel zugeschnittene Werbeidee das nötige Marketingverständnis und methodische Fertigkeiten. Doch beweisen aktuelle Beispiele, dass erfolgreiche Werbeideen durchaus bewusst oder unbewusst auch aus der breiten Bevölkerung hervorgehen können. Experten sprechen dabei gerne vom «Open Source Marketing» oder auf die Werbung bezogen vom «User Generated Advertising». Die Vorteile liegen auf der Hand: Erstens ist der Fundus an potentiell erfolgreichen Werbeideen, nicht zuletzt dank dem Internet, um ein Vielfaches größer, als innerhalb einer einzigen Werbeagentur. Zweitens geben die zahlreichen Ideeneingaben den Unternehmen wertvolle Informationen über ihr Ist-Image sowie die Möglichkeit der direkten Interaktion mit den Ideeneingeber. Drittens kosten die Ideen im Vergleich zu den professionell agierenden Werbeagenturen bedeutend weniger.
Das postjugoslawische Dokumentarfilmschaffen hat, entgegen der Spielfilme und abgesehen von ein paar wenigen Beiträgen in Fachzeitschriften, bislang nur wenig filmwissenschaftliche Aufmerksamkeit erfahren. Dies ändert sich nun mit Andrea Reiters als Monografie publizierter Dissertationsschrift. Sie geht von der Annahme aus, dass sich in den dokumentarischen Arbeiten, die während und unmittelbar nach den jugoslawischen Zerfallskriegen produziert wurden, divergierende Strategien des politischen Widerstands finden lassen. Diese ortet sie nicht in einer etwaigen Haltung pazifistischer Narrative und Themen der Filme, sondern in deren formalästhetischer Umsetzung. In diesen Filmen liege, so die Argumentation, nicht nur ein politisch-aktivistisches Potenzial, sondern eben auch ein politisch-aktivierendes, mit dem Anspruch, einen gesellschaftlichen demokratischen Wandel mitzugestalten. Unter dem "politisch-aktivistischen" Charakter wird auf ein Verständnis von Aktivismus als politisches Handeln oder auf die Agitation innerhalb politischer Bewegungen referenziert, welche Filme als Mittel zur Durchsetzung ihrer Ziele nutzen. Das "politisch-aktivierende" Vermögen wiederum ist ein diskurstheoretischer Begriff, mit dem eine Aktivierung eines kritischen, dem dirigistischen Mainstream entgegengesetzten Denkens erfasst wird. Um das Potential eines aktivistischen Filmschaffens im postjugoslawischen Dokumentarfilm jener Zeit zunächst zu kontextualisieren, leitet die Autorin 70 Seiten lang in die historischen Parameter der Jugoslawienkriege ein. Die historischen Voraussetzungen für das Ende der Sozialistischen Föderativen Republik Jugoslawiens werden auch für eine balkanhistorisch wenig bewanderte Leser*innenschaft verständlich und präzise zusammengefasst. Besondere Aufmerksamkeit erhalten dabei die Umbrüche in den dokumentarfilmproduzierenden Medienlandschaften Serbiens, Kroatiens und Bosnien und Herzegowinas, welche weitgehend dem jeweiligen dominanten Politdiskurs im Land gleichgeschalten waren und – nach der Liquidation und (Teil-)Privatisierung der staatlich geförderten Produktionsgesellschaften, Filmzentren sowie Fernsehanstalten in den frühen 90er-Jahren – durch direkten politischen Einfluss gesteuert wurden. Hierbei seien die Grenzen "zwischen 'objektiver' Berichterstattung und interessensgesteuerter Kommunikation" fließend: "Was wahr ist und was falsch, was Informationen oder Deutung, tendenziös oder manipulativ, lässt sich für den Einzelnen oder die Einzelne oft schwer entschlüsseln, da er oder sie auf die Informationsvermittlung durch die Medien angewiesen ist, um sich ein Bild machen zu können" (S. 44). An diese Beobachtung schließen die Analysen der Dokumentarfilme an, welche "Denkanstöße liefern und so auf ein Zukünftiges verweisen, was aufseiten der Zuschauer*innen zu einer spezifischen filmischen Erfahrung führt, welche die Vision eines demokratischen Wandels der Gesellschaft anregt" (S. 20). Die Frage nach Gattungen des Dokumentarfilms und insbesondere der Aspekt objektiver oder objektivierbarer Fakten und 'Wahrheiten' in dokumentarfilmischen Praktiken wird in einer film- und medienwissenschaftlichen Vielstimmigkeit problematisiert, wobei die Autorin insbesondere auf den vielzitierten US-amerikanischen Dokumentarfilmtheoretiker Bill Nichols zurückgreift. In der theoretischen Verortung des Dokumentarfilmbegriffs und dessen Verfahren wird aufgezeigt, dass sich filmische Aktivierung nicht in einem einheitlichen Konzept zusammenfassen lässt. Je nach Film würden filmische Agitation, Vision und Reflexion facettenreich ineinander verwoben. Somit müsse jeder Film auch als Einzelfall erörtert und in seinen Spezifika betrachtet werden. Reiter betont in ihrem Verständnis des politisch-filmischen Aktivismus mit Nachdruck, dass die Dokumentarfilme des Forschungskorpus weder als propagandistisch noch als gegenpropagandistisch einzustufen sind. Sie greift dabei auf die zehn Kriterien des funktionalen Analysemodells von Garth S. Jowett und Victoria O'Donnell in Propaganda & Persuasion (2012) (Jowett/O'Donnel 2012) zurück, das propagandistische Tendenzen von Filmen prüft, um anhand dieser Konzeptualisierung aufzuzeigen, dass es sich bei ihren Analysebeispielen nicht um Propaganda handelt. Propaganda sei, jenen Konzepten folgend, stets um Überzeugung und emotionale Lenkung bemüht, während die politisch-aktivistische Perspektive gegenteilige Ziele verfolge. Diese stelle eine Form dar, welche an das natürliche Urteilsvermögen der Zuschauer*innen appelliert, Widersprüche zulässt und das kritische Hinterfragen fördert: "Der politisch-aktivierende Dokumentarfilm wird vielmehr als eine Kommunikationsform verstanden, der es maßgeblich um die Aufforderung zur politischen Reflexion geht" (S. 96). Demnach ist Reiters Dokumentarfilmverständnis, nicht unähnlich demjenigen von Bill Nichols, eines, welches bei den Zuschauer*innen eine individuelle Auseinandersetzung mit dem jeweiligen Thema anstoßen soll und somit Ideologiekritik als ästhetische Praxis begreift. Das Politische kritischer Dokumentarfilme liege demzufolge nicht in den etwaigen Zielsetzungen der Werke selbst, sondern in einer Bedeutungszuschreibung, die sich erst in der Rezeption vollzieht. Dieses Denkmodell behält Reiter auch im Auge, wenn sie von den konkreten Filmen spricht, denn diese werden von ihr stets in den jeweiligen Rezeptionskontext gebettet, welcher von internationalen Festivalkarrieren bis hin zu klandestinen Vorführungen in kleinen Filmclubs reicht. Somit würden die Dokumentarfilme Gegendiskurse erzielen, welche "[aufdecken und konterkarieren], was ihr Widerpart zu verbergen sucht" (S. 138). Die aktive Rolle der Zuschauer*innen in der Rezeption dieser zum Nachdenken anregenden Filme bezeichnet die Autorin als "Prospektivität" (S. 19f). Dieser geht sie in den Filmanalysen anhand der Frage nach, wie die Filme ein Bewusstsein für das Werden der Wirklichkeit im Allgemeinen sowie für einen gesellschaftlichen Wandel im Konkreten schaffen. Formalästhetische Parameter etwa würden die Zuschauer*innen dazu anregen, über die thematisierten Fragen zu reflektieren, wodurch diese sich selbst in weiterer Folge als handlungsmächtige politische Subjekte begreifen würden, die sich dominanten politischen Diskursen durch konkrete politische oder ästhetische Intervention widersetzen können. Dieses prospektive Moment der Dokumentarfilme sucht Andrea Reiter in den filmischen Strategien selbst. Um die jeweiligen Filme spezifisch zu kontextualisieren, sind die Analysekapitel nach Ländern geordnet, was angesichts der zentralen Forschungsfrage zwar sinnvoll erscheint, sich jedoch zugleich den Potenzialen komparatistischer Betrachtungen (bewusst) entzieht. Dokumentarfilme aus Serbien etwa seien in einer weitgehend gleichgeschalteten Medienlandschaft unter der autokraten Herrschaft Slobodan Miloševićs primär unter der Ägide des unabhängigen Radios B92 entstanden. Reiter beginnt hier mit einem besonders prominenten, international aufgrund der Bekanntschaft des Filmemachers breit rezipierten Beispiel: In Želimir Žilniks Tito po drugi put među Srbima (Tito zum zweiten Mal unter den Serben, BRJ 1994) begleitet der Regisseur den als Josip Broz Tito verkleideten Mimen Dragoljub S. Ljubičić auf den Straßen Belgrads und beobachtet dabei die spontanen Gespräche zwischen den Bürger*innen und dem Darsteller des verstorbenen ehemaligen Anführers der bereits zerfallenen sozialistischen Republik. Die gefilmte öffentliche Performance zeichnet ein kaleidoskopisches Bild der damaligen serbischen Gesellschaft, welches von der Staatsseite gänzlich negiert wurde: Hier begegnen wir Bürger*innen, die die dominanten politischen Diskurse hinterfragen und sich gar in der Öffentlichkeit kritisch und reflektiert zur aktuellen Lage ihres Landes äußern – es zeigt sich somit ein gänzlich konträres Bild zu der in Mitteleuropa wahrgenommenen, vermeintlich mehrheitlichen Unterstützung der serbischen Bevölkerung für die nationalistische Agenda ihrer Regierung: Ein Misstrauen gegenüber Milošević kommt in den Gesprächen zwischen dem Tito-Mimen und den Passant*innen ebenso zum Ausdruck wie auch Distanzierungen zur sozialistischen Vergangenheit. Der Dialog, welchen der Tito-Imitator provoziert und befördert und welcher in Žilniks Film mitdokumentiert wird, zeigt eine Polyphonie an Meinungen und politischen Haltungen, welche im Mainstreamdiskurs häufig negiert wird. Janko Baljak wiederum, der zu den Gründungsmitgliedern des Video-Departments des B92-Senders gehörte, widmet sich in seiner Dokumentarfilmreihe Kosovska Trilogija (Kosovo Trilogy: The Parallel Worlds of Kosovo, BRJ 1994) der Parallelgesellschaft der serbischen und albanischstämmigen Bevölkerung im Kosovo. Seine Filme, die Reiter als nächstes inspiziert, konfrontieren die Zuschauer*innen mit der harten sozialen Realität der beiden Minderheiten. Doch durch einen politisch nicht zuzuordnenden Off-Kommentator entzieht sich der Film einer 'proserbischen' oder 'prokosovarischen' Lesart – vielmehr liegt der Referenzpunkt der Kritik, laut Reiter, "in einem allgemeinen gesellschaftlichen Normen- und Wertekanon und weist über ethnische Differenzierungen zwischen den beiden Parteien [.] hinaus" (S. 170). Ebenso von Baljak stammt Vidimo se u Čitulji (The Crime that changed Serbia – See you in the Obituary, BRJ 1995), ein kontrovers diskutierter Dokumentarfilm, welcher sich der während des Krieges ausbreitenden 'Unterwelt' des Landes widmet. Mitglieder gewaltbereiter Gangs kommen zu Wort und prahlen teilweise über ihre Taten. Die Kamera folgt auch Polizeibeamt*innen an Tatorte und zeigt dabei Spuren von Gewalt und Tod. Der Film problematisiert somit eine neue, besonders zu hinterfragende Schatten-Elite und ihre Einflusssphären innerhalb der postjugoslawischen serbischen Gesellschaft. Die Filme der B92-Bewegung, welche weitgehend innerhalb geschlossener Filmvorführungen in oppositionellen Zirkeln Belgrads zur Aufführung kamen, sieht Reiter als "eine Komponente [der] sich aus unterschiedlichen Bevölkerungsschichten langsam konsolidierenden Bewegung [.], die im Laufe der 1990er-Jahre eine immer breitere Basis erreichte, bis Milošević im Jahr 2000 endgültig von der Bevölkerung gestürzt wurde" (S. 165). Die B92-Filme seien, so die Schlussfolgerung, nicht auf Belehrung aus, sondern würden die Zuschauer*innen dazu anleiten, die neuen Verhältnisse in ihrem Land kritisch zu hinterfragen, indem sie politisch Verleugnetes oder Verdrängtes bezeugen. Die Suche nach politisch-aktivierenden Dokumentarfilmen in Kroatien wiederum gestaltete sich dabei für die Autorin besonders schwierig. Anders als in Serbien hatte sich unter den Dokumentarfilmer*innen der jungen Republik kein Kommunikationsraum eines engagierten Gegendiskurses etablieren können – finanzielle Unterstützung für Dokumentarfilme gab es unter der rechten HDZ-Regierung Franjo Tuđmans kaum. Umso spannender sind im entsprechenden Kapitel Reiters Analysen zu lesen, denn sie fokussiert sich auf para- und metapolitische Aspekte in zuteil staatlich mitproduzierten, doch politisch nicht klar verortbaren Dokumentarfilmen. Die drei Beispiele – Petar Kreljas Na Sporednom Kolosijeku (At the Railway Siding, HR 1992), Ivan Saljas Hotel Sunja (HR 1992) und Zvonimir Jurićs The Sky Below Osijek (HR 1996) – lassen Kriegsbeteiligte mit unterschiedlichen Erfahrungen zu Wort kommen und entziehen sich dabei, entgegen der meisten kroatischen Dokumentarfilme jener Zeit, einer eindeutigen Schwarzweiß-Zeichnung von Freund*in-Feind*in bzw. Opfer-Täter*in-Narrativen. Somit wird die dominante patriotisch-heroische Perspektive in Frage gestellt. Die Kroatienstudie schließt mit einem Kapitel zu Lordan Zafranovićs essaystischem Dokumentarfilm Zalazak Stoljeća: Testament L.Z. (Decline of the Century: Testament L.Z., 1993), dessen Produktion mit 1986 schon deutlich vor dem Kroatienkrieg begann und der die Ustaša-Vergangenheit des Staates zum Thema hat. Zafranović verwendet filmische Strategien, die seinen Arbeitsprozess als Regisseur mitreflektieren, beispielsweise indem er sich selbst am Schneidetisch filmt. Dies akzentuiert nicht nur die Konstruktion des Films als Kunstwerk, sondern reflektiert zugleich die Gestaltung und Konstruierbarkeit von Geschichte. Die behandelten Filmbeispiele, die in Bosnien und Herzegowina während des Kriegs produziert wurden, sind allesamt innerhalb des belagerten Sarajevos entstanden. Hier findet man den mit über 50 kürzeren und längeren Dokumentarfilmen quantitativ größten Korpus eines regionalen Dokumentarfilmschaffens vor – was keineswegs eine Anomalie ist, denn auch in Theater, Literatur und anderen Künsten zeigt sich ein äußerst reges Schaffen während der Belagerung der bosnischen Hauptstadt. Die Filme handeln vom Alltag der von serbischen Streitkräften umzingelten Zivilbevölkerung. Sie entziehen sich jeglicher Spaltung der Ethnien und inszenieren Sarajevo als multiethnische und -kulturelle Stadt. Da Reiter hier natürlich auch mit Filmen konfrontiert ist, die sich mit explizitem Krieg und Gewalt beschäftigen, ja sogar tote Menschen zeigen, werden auch ethische Komponenten des Betrachtens des Leidens Anderer (Susan Sontag) miteinbezogen – insbesondere im Fall von Vesna Ljubićs Film Evo Čovjeka: Ecce Homo (Ecce Homo: Behold the Man, BIH 1994), welcher sich der Ausweglosigkeit der Bevölkerung in einem beobachtenden Modus nähert. In ästhetisierten Kadragen verweilt hier die Kamera auf den Straßen, Plätzen und Hügeln der Stadt und beobachtet den Alltag einer Bevölkerung in einem Belagerungszustand. Trotz der Gefahr, der die Sarajevoer*innen ausgeliefert sind, werden auch Menschen auf offener Straße beobachtet, die sich ohne Hast und scheinbar entspannt fortbewegen, während um sie herum Detonationen und Schüsse zu hören sind – die beobachtende Distanz zeigt also auch einen Gewohnheitseffekt, der sich unter der leidenden Bevölkerung einstellt – Gewalt als Alltag. Das letzte Kapitel des Buchs widmet sich Beispielen nach 1995, also folgend dem Friedensabkommen von Dayton, welches die Kriege in Kroatien und Bosnien beendete. Serbische Filmemacher*innen rücken, folgt man Reiter, in dieser Zeit die Opposition und die gegen Milošević demonstrierende Öffentlichkeit ins Zentrum ihrer Werke, während in Kroatien eine Fokussierung auf die Enttabuisierung kroatischer Kriegsverbrechen eintritt. Als eine weitere Konfiguration des politisch-aktivierenden Dokumentarfilmschaffens stellt Reiter im Schlusskapitel subjektive Erzählstrategien in den Mittelpunkt: Regisseur*innen richten hier zunehmend die Kamera auf sich selbst und gehen offenen Fragen der Nachkriegsgesellschaften nach. Dies ist eine weitere Strategie im breiten untersuchten Korpus, durch welchen einem vermeintlichen Objektivitätsparadigma des Dokumentarfilms offensiv entgegengetreten wird: Die Ausstellung der Konstruiertheit dokumentarischen Erzählens durch den je subjektiven Blickwinkel wird nicht nur zum Gegenstand des jeweiligen Films, sondern damit auch die Erzählperspektive als hinterfragbar herausgestellt. "Die Filme führen die politische Dimension persönlichen Denkens und Handelns vor Augen sowie die Wichtigkeit, einerseits unterschiedliche Diskurse zu erkennen und anzuerkennen und andererseits die Macht und Einflussmöglichkeiten dominanter Rhetoriken wahrzunehmen" (S. 321f). Ein paar wenige ungenaue, teils saloppe Formulierungen ("Die Bilder vermitteln einen dokumentarischen 'Look'", S. 159 oder "Selbst wenn [.] die serbische Unterwelt aus einem chaotischen, [.] – man kann es nicht anders sagen – Haufen intellektuell beschränkter Verbrecher besteht [.]", S. 174f) trüben den Gesamteindruck des sonst sprachlich präzisen Textes nicht. Bislang noch unerwähnt blieb der sparsame und kluge Einsatz von Interviews mit den Filmschaffenden jener Zeit, welche immer wieder in den Text einfließen. Die Verzahnung von Dokumentarfilmtheorie mit (post)jugoslawischen politischen Diskursen und dem argumentativ präzisen Close Reading des Filmmaterials macht dieses Buch zu einem unverzichtbaren Beitrag zur Grundlagenforschung des rezenten südslawischen Filmschaffens. Andrea Reiters Studie beleuchtet nicht nur bislang marginalisiertes und außerhalb der Region seitens der Filmwissenschaft wenig beachtetes Material, sondern sie regt durch die Perspektivierung auf Prospektivität und Aktivismus implizit dazu an, auch das Filmschaffen anderer Konfliktregionen unter diesem Augenmerk zu untersuchen. Literatur: Jowett, Garth/O'Donnel, Victoria: Propaganda and Persuasion. 4. Aufl.Thousand Oaks, CA 2012.
Grenze und Raum – das sind im Zeitalter der allgegenwärtig vermuteten 'Globalisierungsprozesse' prekäre und zugleich hochaktuelle Begrifflichkeiten. Die Geisteswissenschaften haben die Konjunktur des Räumlichen seit dem Ende der 1980er-Jahre als 'spatial turn' bzw. später als 'topographical turn' deklariert. Trotz aller durch politische und ökonomische Bestrebungen – und nicht zuletzt durch Medientechnologien – hervorgerufenen Auflösungserscheinungen des Lokalen und Liminalen rückt die Grenze vermehrt in den Blickpunkt der deutschsprachigen Geistes- und Kulturwissenschaften. Aus dieser anhaltenden Konjunktur speist sich auch der Sammelband Topographien der Grenze. Verortungen einer kulturellen, politischen und ästhetischen Kategorie. Als dezidierte "Anstöße zu einer interdisziplinären Grenzforschung" – so der Untertitel der Einleitung – versammeln Christine Hewel und Christoph Kleinschmidt Beiträge aus den Kulturwissenschaften, der Literaturwissenschaft, der Philosophie und Soziologie, der Wirtschaftsgeschichte sowie der Politik-, Rechts- und Medienwissenschaft. Der Band ist das Ergebnis einer internationalen Tagung gleichen Namens, die vom Germanistischen Institut der WWU Münster in Kooperation mit dem Museum für Angewandte Kunst Frankfurt am Main und dem Internationalen interdisziplinären Arbeitskreis für philosophische Reflexion (IiAphR) im November 2009 veranstaltet wurde. Eröffnet wird der Band von drei Beiträgen, die sich der Grenze theoretisch und begrifflich nähern. Frauke A. Kurbacher reflektiert in "Die Grenze der Grenze" Strukturen des Verhältnisses von Denktraditionen und Performativität in menschlicher (moralischer) "Haltung" (S.37): Ausgehend von den Phänomenologien Maurice Merleau-Pontys und Bernhard Waldenfels' fasst sie die Grenze zunächst als trennendes Moment von Ich/Anderem, Eigenem/Fremden. Eröffnet wird so eine anthropologisch-existentielle Dimension des Liminalen, die die Autorin erweitert, indem sie die Grenze als "Interliminale" (S. 27) versteht. Kurbacher führt so zwei begriffsgeschichtliche Denkmodelle der Grenze ein, die sich in dieser Deutlichkeit nicht in den anderen Beiträgen wiederfinden: einerseits ein Denken der Grenze als historische oder räumliche Zäsur, das aber zugleich deren Überschreitung, Überwindung, Transgression erkennt und anerkennt. Andererseits ein Denken, "das gerade unter Absehung […] konstituierender Grenzziehung als eines des 'Sich-selbst-Fortschreibens' beschrieben werden könnte" (S. 28). Mit dieser Differenzierung wird für Kurbacher die Grenze als zeitliche Kategorie begreifbar. Menschliche Existenz sei, so ihr ethischer Ansatz, nicht durch Leben und Tod definiert, sondern durch die Handlungsspielräume und Möglichkeiten des interpersonellen Austauschs zwischen diesen existenziellen Grenzen. Der zweite Beitrag, "Ineinandergreifende graue Zonen" von Rainer Guldin, schließt an den phänomenologischen Ansatz Kurbachers an. Mit Vilém Flussers Bestimmung der Grenze als Ort der Begegnung bezieht sich Guldin auf ein Denken der Grenzenlosigkeit, dem jeder Nationalismus zutiefst suspekt ist. Vilém Flusser hat sich, von den Nationalsozialisten ins Exil getrieben, stets für ein Ineinandergreifen von Denken, Publizieren und eigener Biographie stark gemacht – mit einer überaus konzisen Ethik von intersubjektiver wie interkultureller Begegnung, wie Guldin nachzeichnet. Mit einer Re-Lektüre zweier wahrnehmungstheoretischer Texte über die Haut setzt Guldin an der Grenze des Subjekts an. Diese Grenze ist zunächst keine ethische, da sie laut Flusser in erster Linie nicht Subjekte, sondern Subjekt und Objekt, Ich und Welt trennt. Die Haut als 'Grenze' ist also zunächst Gegenstand wahrnehmungstheoretischer Fragestellungen, die Guldin mit Flussers autobiographischen und medientheoretischen Schriften zu einer politischen und topographischen Theorie der Grenze vereint. Indem Guldin diese unterschiedlichen Textsorten in Beziehung setzt, zeichnet er ein konzises Bild von Flussers Interliminalitätskonszeption. Einem weiteren kanonisierten Theoretiker widmet sich Doris Schweitzer im dritten Beitrag: "Grenzziehungen und Raum in Manuel Castells' Theorien des Netzwerks und der Netzwerkgesellschaft" skizziert die sozial- und medienwissenschaftlichen Paradigmen des Netzes und des Netzwerks und zeigt dabei ein Missverständnis auf: Dem Castells'schen Netzwerk-Gedanken liege kein entgrenztes und deterritorialisierendes Raumverständnis zugrunde, sondern das Netz "generiert Raum" (S. 55), so Schweitzers These. Entgegen der euphorischen und weit verbreiteten Annahme der Entgrenzung durch das Netz komme es zu einer Radikalisierung der Grenze durch dessen Exklusionsmechanismen. So würden einzelne Gruppen und Regionen von dominanten Wissens- und Warenflüssen abgeschnitten. Mit ihrer Analyse eröffnet Schweitzer eine kritische Perspektive auf jene Rede von der Informationsgesellschaft, welche die Grenze als obsolet erklärt: "Die Radikalisierung der Grenzproblematik bei Castells ist somit gegen diejenigen Apologeten der verflüssigenden Globalisierung zu wenden, die unermüdlich von der Entgrenzung […] gegenwärtiger Prozesse reden – gerade auch dann, wenn sie sich dabei auf Castells Beschreibung der Netzwerkgesellschaft berufen" (S. 60). Der zweite Schwerpunkt des Sammelbandes nimmt die Grenze als Ort von politischer und ökonomischer Macht in den Blick und widmet sich geostrategischen Raumfragen. Andreas Vasilache beschreibt in seinem Beitrag "Grenzen in der Transnationalisierung" einen Paradigmenwechsel der exekutiven Gefüge von Staaten: eine durch die Globalisierung sukzessive verwischende Trennbarkeit von Innen- und Außenpolitik, die sich u.a. in einer Zunahme von globalem Problembewusstsein (etwa in Bezug auf Unternehmungen zur Verlangsamung des Klimawandels) niederschlägt. Dieser Verschränkung von Innen- und Außenpolitik stellt Vasilache die Trennung von staatlichem Eingriff und privater Dienstleistung bei, die ihrerseits im Auflösen begriffen sei. Als Beispiele dienen ihm hier u.a. nichtstaatliches Sicherheitspersonal bei Flughafenkontrollen sowie die im Laufe des zweiten Irakkriegs eingesetzten Söldner privater Sicherheitsfirmen. Die erodierenden Grenzen von Innen/Außen einerseits, privat/öffentlich andererseits seien aber mitnichten ein Indiz für eine allumfassende Nivellierung staatstheoretischer Wissenskategorien: "Grenzen werden im Rahmen politischer Transnationalisierungen zwar volatil und sprunghaft, büßen dabei allerdings keineswegs ihre strenge politisch-epistemische Unterscheidungsfunktion ein" (S.85). Andrea Komlosy unterfüttert den auf die Gegenwart bezogenen Beitrag Vasilaches historisch. "Zwischen Sichtbarkeit und Verschleierung. Politische Grenzen in Europa im historischen Wandel" vollzieht die Entstehung einer gemeinsamen europäischen Außengrenze seit dem 17.Jahrhundert nach, bei der die Binnengrenzen keineswegs verschwunden seien. Die Inszenierungen der Grenze dienten einem hegemonialen Anspruch von Herrschaft: Während Grenzen im 17. und 18. Jahrhundert als Zeichen von Inklusion und Exklusion, von Staatsmacht und Zugehörigkeit inszeniert wurden, verlagerten sie sich durch die EG und EU zunehmend in den europäischen Binnenraum. Ihre Unsichtbarkeit leiste nun der Illusion eines grenzenlosen Europas Vorschub, bei der punktuelle, ubiquitäre Kontrollen im Vorfeld und im Hinterland (vgl. S. 103) im krassen Gegensatz zu den hochtechnologisierten Außengrenzen Europas stünden. Liliane Ruth Feierstein, Christopher Pollmann und Jörn Glasenapp erörtern im vierten Abschnitt des Bandes die identitätsbildenden Funktionen von Grenzen. Ähnlich wie Andrea Komlosy konstatiert Christopher Pollmann in seinem Text "Globalisierung und Atomisierung" einen historischen Umbruch: Waren es im 18. Jahrhundert vor allem territoriale Grenzen, die kollektive Identität stifteten, komme es im Zuge der industriellen Revolution zu einer 'Individualisierung' der Grenze. Pollmann macht – unter Rückgriff auf Simmel und Marx – die zunehmende Regulierung des alltäglichen Lebens durch die Systeme von Recht, Uhrzeit und Geld als Schwächung kollektiver, zumal territorialer Grenzen aus; Grenzen fungieren in der Folge als Handlungsrahmen für Individuen. Jörn Glasenapp nimmt den allegorischen Grenzverkehr im Kalten Krieg in den Blick, den er in John Sturges' Film The Magnificient Seven von 1960 entdeckt. Seine Analyse kennzeichnet – mit Bezug auf Akira Kurosawas Die sieben Samurai, der Vorlage zu Sturges' Western – die rassifizierenden und kolonialistischen Diskurse von Grenze und 'frontier' durch eine Gegenüberstellung von Samurai/Bauern (Kurosawa), Amerikaner/Mexikaner (Sturges), NATO/'Ostblock' bzw. USA/Vietnam (realpolitischer Hintergrund) als "kinematographische Wunschphantasie" (S.152). Liliane Ruth Feierstein schließlich analysiert die Grenze in Riten, Umgangsformen und Symbolen jüdischen Lebens. Als religiöse Gemeinschaft sei das Judentum durch die gemeinschaftskonstituierenden Dimensionen der Begrenzung gekennzeichnet: beispielsweise durch Inschriften an Wohnhäusern, die die Bewohner_innen als Gläubige ausweisen und so das Haus als einen "Jewish Space" (S. 109) markieren. Die abgegrenzten Bereiche für Männer und Frauen in der Synagoge oder die geltenden Gesetzmäßigkeiten und gemeinschaftlichen Einschränkungen des jüdischen Glaubens, etwa die "limits of Shabbat" (ebd.), sind weitere Dimensionen der Begrenzung. Diesen tradierten Räumen und religiösen Einschränkungen stehen die Erfahrungen des Judentums als einer diasporischen Gemeinschaft gegenüber. In der Diaspora führt die gemeinschaftsstiftende Funktion der Grenze zur Ausgrenzung: die historische Ghettoisierung und Vertreibung und die Vernichtung als radikalste aller Infragestellungen der jüdischen Gemeinschaft während des Holocausts. Den Grenzen der Kunst bzw. der Kunst der Grenze sind die drei Beiträge des vierten Kapitels gewidmet. Nikolaj Rymar isoliert mit Michail Bachtin die Grenzen zwischen Kunst und Wirklichkeit, indem er die Kunst als "zweite Kultur" (S. 160) begreift, welche die Kategorien der 'ersten Kultur' – also Soziales, Religion, Politik etc. – in Frage stellt. Die Grenzüberschreitungen der 'zweiten Kultur' machen so die Grenzziehungen der 'ersten Kultur' erst sichtbar und ermöglichen deren Neuanordnung. Christoph Kleinschmidt nimmt unter Rückbezug auf die ästhetischen Schriften Lessings und Goethes die Grenzen der Künste in Bezug auf ihr Material in den Blick: Herrschte bis 1800 ein Kunstverständnis vor, das sich "vor allem mit der aisthetischen Dimension des Künstlerischen als dem Schönen beschäftigt und eine Überwindung des Materials durch die Form impliziert", komme es im Lauf des 19.Jahrhunderts zu einer diskursiven Verschiebung: In der Folge seien die Grenzen des Materials als wesentlich für die Kunst (und für die Grenzen zwischen einzelnen Kunstrichtungen) verstanden worden. Über Lessing, Schelling, Hegel und Vischer bis hin zu den Avantgarden der Moderne untersucht Kleinschmidt Kunsttheorien und die in ihnen formulierten materialästhetischen Programme. Christine Hewel beschließt diesen Teil mit einem 'Rundgang' durch das Museum für Angewandte Kunst Frankfurt. Anhand verschiedener Exponate des Museums erläutert Hewel aus museumspädagogischer Perspektive, wie die Grenzen zwischen Schmuck und Funktion, zwischen Eigenwert und Gebrauchswert, zwischen Kunst und Kunsthandwerk durchlässig werden. Die beiden letzten Aufsätze des Sammelbandes sind analytische Beiträge aus der Literaturwissenschaft. Stephanie Catani zeichnet die Topologie des Exilraums in Franz Kafkas Der Verschollene und W.G. Sebalds Die Ausgewanderten nach. Catani beschreibt die Heimatlosigkeit von Kafkas Protagonisten Karl Roßmann als Resultat eines individuellen Vater-Sohn-Konflikts und schließt daran eine Analyse des politischen Ausnahmezustands in Sebalds Die Ausgewanderten an, als dessen modernes Paradigma sie mit Giorgio Agamben das nationalsozialistische Regime mit seiner gesetzlosen und zugleich gesetzmäßigen Rechtsprechung versteht. Im individuell motivierten wie im politisch-existenziell notwendigen Exil werde die Ortlosigkeit zu einem paradoxen Grenzraum, der Heimat, erst konstituiert. Damit problematisiert die Autorin die Aufwertung der Heimatlosigkeit zu einem Bhabha'schen 'Third Space', den sie in den (fiktiven) Exilerfahrungen der Protagonisten nicht wiederfindet. Um die Ästhetisierung von Heimatlosigkeit geht es Ingo Irsliger und Christoph Jürgensen in ihrem Beitrag über Emine Sevgi Özdamars Erzählband Mutterzunge und Feridun Zaimoğlus Interviewband Kanak Sprak. Irsliger und Jürgensen verwehren sich zwar den Labels "Migrationsliteratur" und "Multikulti", können aber anhand einer positiven Bewertung des "Third Space"-Konzepts der Postcolonial Studies zeigen, wie alternative und hybride Identitätsangebote und -konzepte vor allem durch die Sprachstrategien von Özdamar und Zaimoğlu hervorgebracht werden. Die Fülle der unterschiedlichen Ansätze und Gegenstände ist beeindruckend, doch die angestrebte Interdisziplinarität gestaltet sich mitunter als loses Nebeneinander. Unter die Räder kommen dabei vor allem die titelgebenden Topographien. Zwar erweist sich der sehr weit gefasste Begriff der Grenze bald als fruchtbar, doch wäre gerade hier eine genauere Unterscheidung von Raum – Topologie – Topographie wünschenswert gewesen, wie sie etwa Stephan Günzel vorgenommen hat.[1] Kursorisch bleiben auch Bezüge zur Aktualität der Grenze in Perspektive auf Migration; damit werden zahlreiche politische, ökonomische, juristische, aber auch ästhetische Fragestellungen nicht einmal angerissen. Christoph Kleinschmidt gibt in seiner Einleitung eine gute – leider zu kurz geratene – Übersicht über den Forschungsstand geisteswissenschaftlicher Grenzforschung und verweist darin explizit auf die Aktualität europäischer wie US-amerikanischer Grenzdiskurse. Hinweise zur kritischen Grenzregimeforschung, wie sie etwa Sabine Hess, Serhat Karakayali, Vassilis Tsianos und andere[2] unternommen haben, finden sich jedoch nur in den Fußnoten des Bandes. Im Hinblick auf diese kritische Grenzregimeforschung ist auffällig, dass viele der Beiträge zur Beschreibung auf einem – wenn auch als konstruiert, als dispositiv oder ideologisch überformt gekennzeichneten – Dies-/Jenseits der Grenze beharren, selten aber Akte der Grenzverletzung, Momente der Passage, des Transits, des Auf-der-Grenze-Seins in den Blick nehmen.[3] Aus einer aktuellen Perspektive wünschenswert wären etwa Überlegungen zu den Debatten um die europäischen Außengrenzen und deren Inszenierungen und technologische Aufrüstung einerseits sowie durch mobile Technologien möglich gewordene Ergänzungen und Subversionen hegemonialer Diskurse andererseits. Dennoch bietet der Band viele spannende Denkanstöße in Hinblick auf das Phänomen Grenze und trägt dazu bei, die anhaltenden Debatten des Räumlichen vermehrt unter Berücksichtigung des Liminalen zu führen. --- [1] vgl. Stephan Günzel: "Spatial turn – topographical turn – topological turn. Über die Unterschiede zwischen Raumparadigmen". In: Spatial Turn. Das Raumparadigma in den Kultur- und Sozialwissenschaften, hrsg. v. Jörg Döring/Tristan Thielmann. Bielefeld: transcript 2009, S. 219–237. [2] vgl. etwa Sabine Hess/Bernd Kasparek (Hg.): Grenzregime Diskurse, Praktiken, Institutionen in Europa. Berlin/Hamburg: Assoziation A 2010 sowie Transit Migration Forschungsgruppe (Hg.): Turbulente Ränder. Neue Perspektiven auf Migration an den Grenzen Europas. Bielefeld: transcript 2007. [3] vgl. neben der kritischen Grenzregimeforschung auch den essayistisch gehaltenen Sammelband von Eva Horn/Stefan Kaufmann/Ulrich Bröckling (Hg.): Grenzverletzer. Von Schmugglern, Spionen und anderen subversiven Gestalten. Berlin: Kadmos 2002.
Die Inhalte der verlinkten Blogs und Blog Beiträge unterliegen in vielen Fällen keiner redaktionellen Kontrolle.
Warnung zur Verfügbarkeit
Eine dauerhafte Verfügbarkeit ist nicht garantiert und liegt vollumfänglich in den Händen der Blogbetreiber:innen. Bitte erstellen Sie sich selbständig eine Kopie falls Sie einen Blog Beitrag zitieren möchten.
Kaum ein Thema wird derzeit so kontrovers diskutiert wie das des Elektroautos. Für die einen sind sie Technologieträger und zukunftsweisende Technik, für die anderen ein Schwindel und eine unzureichende Alternative. Mit Elon Musk hat die Szene eine ideale Gallionsfigur. Der Multimilliardär wird vergöttert und gehasst. Seine Firma Tesla brachte das Elektroauto, vor allem aber auch den eigenen Aktienkurs, in den Fokus.Dabei ist die Kontroverse nicht überraschend. Die Klimakrise ist allgegenwärtig, Antworten finden sich nur schleichend. Die Folgen sind vielfältig, die Ursachen eindeutig. Aus dieser Problematik leitet sich die Leitfrage dieser Arbeit ab: Können Elektroautos eine entscheidende Rolle bei der Bekämpfung der Klimakrise spielen?Um diese Frage beantworten zu können, wird zunächst grob umrissen, welche Problematik bei der Klimakrise vorherrschend ist und welche Folgen diese mit sich bringt. Anschließend werden kurz die Ursachen sowie die Rolle der fossilen Brennstoffe untersucht. Im Anschluss wird das Elektroauto selbst genauer betrachtet. Funktion sowie verschiedene Arten mit Vor- und Nachteilen werden skizziert.Im dritten Abschnitt wird der wohl größte Punkt von Kritikern aufgenommen, nämlich die Frage, wie es um die tatsächliche Klimabilanz von Elektroautos, vor allem im Vergleich zu Verbrennern, bestellt ist. Im letzten Abschnitt werden die notwendigen Veränderungen für einen Wandel zur elektrischen Mobilität beleuchtet. Zentral sind dabei die Energiewende und die notwendigen Maßnahmen zur Schaffung einer entsprechenden Infrastruktur.1. Rolle der fossilen Brennstoffe in der KlimakriseIn diesem Abschnitt soll festgehalten werden, welchen Anteil und welche Rolle die fossilen Brennstoffe an der Klimakrise haben. Zu diesem Zweck wird in aller Kürze das Phänomen Klimakrise umrissen und anschließend auf die Einflüsse der fossilen Brennstoffe eingegangen.1.1 Die Klimakrise Beim Begriff "Klimakrise" handelt es sich um eine Abwandlung des Begriffes "Klimawandel". Dabei ist das Wort "Krise" zutreffender, handelt es sich doch um ein Phänomen, das "hier und jetzt Menschen tötet" (Otto 2022. S. 69). Zentraler Aspekt der Klimakrise ist die zunehmende Erwärmung unseres Planeten. Problematisch sind hierbei vor allem die in Gang gesetzten Kettenreaktionen.Als Beispiel wäre der Eisalbedo-Rückkopplungseffekt zu nennen. Die zunehmende Hitze lässt das arktische Meereis schmelzen. Dieses wiederum dient als Reflektor der Sonnenstrahlen. Durch die Abnahme dieser Flächen wird auch weniger Sonnenlicht reflektiert, was wiederum zu einer Zunahme der Hitze führt (Vgl. Francis 2022. S. 64).Gleichzeitig bilden sich durch die höheren Temperaturen sogenannte "Hitzeglocken". Innerhalb dieser Gebiete findet keine Bildung von schützenden Wolken statt, welche die Einstrahlung der Sonne normalerweise eindämmen würden (Vgl. Hayhoe 2022. S. 53). In der Folge strahlt Sonnenlicht ungehindert ein und treibt die Erderwärmung weiter voran. Ähnliche Beispiele finden sich auch in anderen Bereichen. Zusammenfassend lässt sich also festhalten, dass es sich bei der Klimakrise um die hitzebedingte Ingangsetzung verschiedener Mechanismen handelt, die diesen Effekt weiter beschleunigen. 1.2 Folgen der Klimakrise Nachdem im vorangegangenen Abschnitt erläutert wurde, was unter dem Begriff "Klimakrise" verstanden werden kann, werden hier die Folgen dieser Entwicklung genauer beleuchtet. Als erstes ist hierbei das Wetter zu nennen. Neben Effekten wie der Hitzeglocke führt die zunehmende Wärme dazu, dass mehr Wasser verdampft, was in manchen Teilen der Welt zu Dürren, in anderen jedoch zu Überschwemmungen führt (Vgl. Marvel 2022. S. 77). Dies bedroht Mensch und Tier gleichermaßen.Zu den Folgen gehört neben der höheren Luft- auch eine höhere Wassertemperatur. Dies setzt nicht nur einen beschleunigenden Rückkopplungseffekt in Gang (Vgl. Rahmstorf 2022. S. 84), sondern führt auch zu einem Massensterben von Korallen, welche als "Kinderstube der Ozeane" (Vgl. Hayhoe 2022. S. 53) betrachtet werden. Der wärmebedingte Anstieg der Meeresspiegel bedroht neben den Lebensräumen von Tieren - wie beispielsweise dem Eisbären (Vgl. Ebd.) - auch die von Millionen Menschen an den Küsten dieser Welt (Vgl. Winkelmann 2022. S. 81).Dies waren nur einige Beispiele, letztendlich lassen jedoch alle Folgen ähnliche Rückschlüsse zu. Die zunehmende Erwärmung bringt das komplexe Ökosystem des Planeten aus der Balance. Dies bedroht die Lebensgrundlage aller Lebewesen. Somit ist davon auszugehen, dass bereits in weniger als 50 Jahren fast ein Fünftel des Planeten unbewohnbar sein wird (Vgl. Lustgarten 2022. S. 180).Die Klimaaktivistin Greta Thunberg ist der Überzeugung, dass aus der Klimakrise "unbeschreibliches Leid, umfangreiche humanitäre Katastrophen und Gefahren für unsere gesamte Zivilisation, wie wir sie kennen, erwachsen werden" (Thunberg 2022. S. 196). Führt man sich vor Augen, dass wir bisher noch nicht einmal alle Folgen genauer kennen, ist dies vermutlich mehr als zutreffend. 1.3 Ursachen der Klimakrise Ursächlich für diese Erwärmung sind primär die sogenannten Treibhausgase. Nach Ausstoß verbleiben sie in der Atmosphäre und bilden eine Art künstliche Decke über der Erde. In der Folge kann weniger Wärme in den Weltraum abgestrahlt werden und die Temperaturen auf der Erde nehmen zu (Vgl. Hayhoe 2022. S. 52). Daher auch der Name "Treibhauseffekt".Zu nennen sind hierbei vor allem Kohlenstoffdioxid und Methan. Rund ein Drittel der bisherigen Erderwärmung lässt sich auf Methan zurückführen (Vgl. Hausfather 2022. S. 55). Im Gegensatz zu Kohlenstoffdioxid handelt es sich bei Methan um ein kurzlebiges Gas. Durch die Reaktion mit Hydroxyl sind rund 80 Prozent des ausgestoßenen Methans nach 20 Jahren verschwunden (Vgl. ebd.). Ein Drittel der menschengemachten Methanemissionen geht auf die industrielle Tierhaltung zurück (Vgl. Shindell 2022. S. 152). Kohlenstoffdioxid, kurz "CO2" genannt, verbleibt jedoch wesentlich länger in der Atmosphäre. 1.4 Rolle der fossilen Brennstoffe Der größte Teil des ausgestoßenen Kohlenstoffdioxids lässt sich auf fossile Energieträger zurückführen (Vgl. Quaschning 2022. S. 22). Dazu zählen Erdöl, das vor allem zum Heizen und als Treibstoff verwendet wird, Erdgas, welches vor allem für die Stromerzeugung genutzt wird, sowie Stein- und Braunkohle, welche ebenfalls zur Stromerzeugung oder in industrieller Produktion eingesetzt wird. In Summe machen die fossilen Energieträger rund zwei Drittel der menschengemachten Emissionen zum Klimawandel aus (Vgl. ebd.).Betrachtet man nur Deutschland, so sind 80 Prozent der deutschen Treibhausgasemissionen auf fossile Energieträger zurückzuführen (Vgl. ebd.). Das Autorenpaar Volker und Cornelia Quaschning beschäftigt sich in seinem Buch "Energierevolution" mit genau dieser Problematik. Nicht umsonst nennen sie Kohlenstoffdioxid das "für Deutschland mit Abstand wichtigste Treibhausgas" (Ebd. S. 40) und bezeichnen die Energieversorgung als "Achillesverse Deutschlands" (Ebd. S. 22). Um die im Pariser Klimaabkommen vereinbarten Ziele einzuhalten, müsste es Deutschland schaffen, "bereits in den 2030er-Jahren auf null" (Ebd. S. 41), gemeint sind Kohlenstoffdioxid Emissionen, zu kommen. 1.5 Alternativlosigkeit der Reduktion der CO2-Emissionen Wie im vorangegangenen Abschnitt bereits beschrieben, sind Treibhausgase in der Atmosphäre ursächlich für die Klimakrise. Die logische Folge ist eine Reduktion des Ausstoßes dieser Gase. Dies geht selbstverständlich mit vielen Veränderungen einher, weshalb Kritiker oftmals für andere Lösungen plädieren. Eine vielmals geforderte Lösung ist der Fokus auf Entwicklung von Technologien, welche eine Art Rückholung des Kohlenstoffdioxids aus der Luft ermöglichen, um möglichst wenig Veränderungen für die Menschen notwendig zu machen. Im Folgenden daher einige dieser Lösungsansätze.Durch die Photosynthese sind Bäume gewissermaßen grüne CO2-Wandler. Sie nehmen CO2 auf, speichern es und geben Sauerstoff wieder frei. Es wäre also durchaus logisch, durch das Pflanzen von Bäumen Kohlenstoffdioxid aus der Luft zu filtern. Dem entgegen steht jedoch die Tatsache, dass seit den 1980er Jahren noch nie "so viel Wald geschädigt oder gar vom Absterben betroffen" (Quaschning 2022. S. 45) war, wie heute. Die Ausgangslage der Wälder ist also denkbar schlecht. Hinzu kommt, dass das Anpflanzen von Bäumen ein langwieriger Prozess ist. Erst wenn sie über viele Jahrzehnte gewachsen sind, können Bäume eine signifikante Menge von Kohlenstoffdioxid binden (Vgl. ebd.). Des Weiteren wären enorme Flächen von Nöten, um ausreichend Wälder pflanzen zu können. Zusammenfassend lässt sich also festhalten, dass das Pflanzen von Bäumen (alleine) kein aussichtsreicher Weg zur Eindämmung der CO2-Emissionen sein wird. Quaschning nennt die Lösung einen "reinen Wunschtraum" (Ebd. S. 46) und merkt an:"Bäume zu pflanzen, damit alle weiter Dieselautos fahren und mit einer Erdgasheizung heizen können, wird definitiv nicht funktionieren" (Ebd.).Auch die Technologie "BECCS" hat mit Bäumen zu tun. Die Abkürzung steht für "Bioenergy with Carbon Capture and Storage" (Ebd. S. 47). Hierbei wird Biomasse aus Holz verbrannt, welches naturgemäß Kohlenstoffdioxid speichert. Das bei der Verbrennung freigesetzte Kohlenstoffdioxid wird aufgefangen und anschließend in einer Art Endlager unter der Erde gespeichert (Vgl. ebd.). Ähnlich wie bei dem Ansatz der massiven Aufforstung, benötigt auch diese Technologie einen enormen Flächenverbrauch. Gleichzeitig ist sie mit enorm hohen Kosten und der Frage verbunden, wo man das aufgefangene CO2 am Ende lagert. Letztendlich wäre die Folge wohl "eines der massivsten Naturzerstörungsprogramme, die die Erde je gesehen hat" (Quaschning 2022. S. 48).Der Ansatz des "Direct Air Carbon Capture and Storage" (Ebd.), kurz DAC, baut ebenfalls auf die Abscheidung von CO2 aus der Luft und ist damit ein enger Verwandter der oben erläuterten BECCS-Methode. Das "direct" steht hierbei für die Idee der direkten Abscheidung von Kohlenstoffdioxid aus der Umgebungsluft. Doch auch die DAC-Methode liefert keine präzise Antwort auf die Frage, wo das abgeschieden CO2 am Ende gelagert werden soll. Hinzu kommen enorme Kosten. 2018 schätzte die SAPEA-Studie die Kosten einer solchen Methode auf bis zu 1000 Euro pro Tonne CO2 (Vgl. ebd.).Neben enorm hohen Kosten oder Problematiken wie der Endlagerung - man denke an die Probleme des Atommülls - machen die hier beschriebenen Beispiele deutlich, dass die Menschheit bisher über keine Technologie verfügt, die ausreichend erforscht oder ausgereift genug ist, um die Krise der Kohlenstoffemissionen auf andere Art und Weise zu lösen, als ihren Ausstoß zu reduzieren. 1.6 Rolle des VerkehrsIn Abschnitt 1.4 wurde bereits deutlich, wie hoch der Einfluss der fossilen Brennstoffe auf die Klimakrise ist. Betrachtet man Deutschland, so macht der Verkehr rund ein Fünftel der Emissionen des Landes aus (Vgl. ebd. S. 160). Während bei der Energieversorgung über die Jahre hinweg Fortschritte erzielt werden konnten, gab es im Verkehr "praktisch gar keinen Rückgang der Treibhausgasemissionen" (Ebd. S. 79). Somit "ist das Verkehrswesen heute der einzige Sektor, in dem die CO2-Emissionen weiter steigen" (Schwedes/Keichel 2021. S. 9).Trotz steigender Benzinpreise stieg die Anzahl der Autos in Deutschland an. So zählte das Kraftfahrbundesamt in Flensburg im Jahr 2021 66,9 Millionen zugelassener Fahrzeuge (Vgl. Kraftfahrbundesamt. 2021). Es kommt im Durchschnitt also kaum ein deutscher Haushalt ohne Kraftfahrzeug aus. Die vorhandenen Alternativen durch Zugverkehr und Elektroautos werden bereits in Teilen mit Ökostrom betrieben, doch "spürbare Emissionsreduktionen" (Quaschning 2022. S. 80) sind dadurch nicht zu erwarten.Im Hinblick auf die Leitfrage lassen sich die Erkenntnisse dieses Kapitels wie folgt zusammenfassen: Die Klimakrise bedroht längerfristig gesehen alles Leben auf dem Planeten. Hervorgerufen wird sie durch den flächendeckend zu hohen Ausstoß der Treibhausgase Kohlenstoffdioxid und Methan. Die akute Bedrohung durch die Klimakrise macht ein Handeln unabdingbar. Da Kohlenstoffdioxid lange in der Atmosphäre verbleibt, muss schnellstmöglich eine Lösung gefunden werden. Keine der uns bisher bekannten Innovationen lässt es möglich erscheinen, das Problem der Treibhausgase anders lösen zu können, als ihren Ausstoß drastisch zu reduzieren. Hierbei spielen Autos insofern eine Rolle, als dass sie mit ihren Verbrennungsmotoren maßgeblich zu den hohen Emissionen beitragen. 2. Definition und Funktionsweise von elektrischen Automobilen Um die Ausgansfrage beantworten zu können, wird in diesem Kapitel umrissen, welche Fahrzeuge wir zu Elektromobilen zählen können, und anschließend in Ansätzen dargestellt, wie diese funktionieren. 2.1 DefinitionDas Elektromobilitätsgesetz der Bundesregierung kategorisiert die folgenden drei Gattungen als Elektrofahrzeug:"a) das reine Batterieelektrofahrzeug (Battery Electric Vehicle – BEV), b) das von außen aufladbare Hybridfahrzeug (Plug-in-Hybrid Vehicle – PHEV) und c) das Brennstoffzellenfahrzeug (Fuel Cell Electric Vehicle – FCEV)" (ADAC 2023).Beim reinen Batterieelektrofahrzeug handelt es sich um klassische Elektroautos, wie sie beispielsweise Tesla produziert. Hybridfahrzeuge vereinen einen Elektro- mit einem Verbrennungsmotor. In den meisten Fällen lassen sich diese auch rein elektrisch betreiben, solange die Batterie ausreichend geladen ist. Es bleibt jedoch anzumerken, dass das Verhältnis dieser Fahrzeuge oftmals stark in Richtung des Verbrenners geht. Es handelt sich also gewissermaßen um Verbrennerfahrzeuge mit einem elektronischen Unterstützungsmotor. Obwohl das Brennstoffzellenfahrzeug oft in Abgrenzung zum Elektroauto genannt wird, handelt es sich dabei jedoch um eine Art Elektroauto mit spezifischem Antrieb, was im folgenden Abschnitt genauer erläutert wird. 2.2 Funktionsweisen von Elektromobilen Grundsätzlich lässt sich festhalten, dass alle bisher entwickelten Elektroautos auf der Basis von Magneten funktionieren (Vgl. Kauffmann 2021. S. 78). Zentrales Bauteil ist dabei der "Stator". Dieser ist unbeweglich und erzeugt durch Gleichstrom ein konstantes Magnetfeld (Vgl. ebd.). Neben dem Stator verfügt jeder Motor über einen "Rotor". Dieser ist im Gegensatz zum Stator beweglich. Es handelt sich um eine Art magnetische Welle.Wechselstrom wechselt bis zu 50 Mal in der Sekunde die Richtung und sorgt damit für wechselnde Polung. Dies führt in Verbindung mit dem Stator zu einer Abwechslung von Anziehen und Abstoßen, sodass eine Drehbewegung entsteht. (Vgl. ebd. S. 79). Um für den Wechselstrom und damit die wechselnde Polung zu sorgen, ist der "Kummutator" direkt am Rotor verbaut. Er wird aufgrund seiner Funktion oftmals als "Polwechsler" bezeichnet. Grundsätzlich kann man dabei Innenläufer- und Außenläufermotoren unterscheiden. Dies bezieht sich auf die Position der zentralen Bauteile. Umschließt der Rotor den Stator, spricht man von einem Außenläufer. Wird wiederum der Rotor umschlossen, spricht man von einem Innenläufer (Vgl. ebd.). 2.3 Asynchronmotor Der Asynchronmotor, kurz ASM, nutzt dreiphasigen Wechselstrom, auch Drehstrom genannt. Da die Akkus jedoch stets mit Gleichstrom geladen werden, muss der Motor diesen erst umwandeln. Durch die Spulen des Stators fließt phasenverschobener Strom und erzeugt ein rotierendes Magnetfeld. Dreht sich der Rotor langsamer als dieses Magnetfeld, entsteht ein Drehmoment und damit Vortrieb. Dieses Prinzip verleiht dem Asynchronmotor seinen Namen. Die Vorteile des Asynchronmotors liegen in seinem hohen Wirkungsgrad und seinen (verhältnismäßig) geringen Fertigungskosten (Vgl. ebd. S. 80f). Momentan sind die Modelle S und X von Tesla sowie der Audi e-tron mit einem solchen Motor bestückt. 2.4 SynchronmotorDer Synchronmotor basiert auf derselben Technik wie sein technologischer Bruder, der Asynchronmotor. Allerdings entsteht das Drehmoment hier, wenn Rotor und Magnetfeld des Stators synchron laufen. Daher auch der Name (Vgl. ebd. S. 81). Seine Vorteile im Vergleich zum ASM liegen vor allem in der höheren Effizienz und damit dem geringeren Energieaufwand. 2.5 ReluktanzmotorBeim Reluktanzmotor handelt es sich um den komplexesten Motortyp. Die namensgebende Reluktanzkraft bezeichnet in der Physik den magnetischen Widerstand und entsteht durch eine Änderung dieses Widerstands. Der Reluktanzmotor funktioniert ähnlich wie die Synchronmotoren, schöpft seine Kraft jedoch aus der Änderung des magnetischen Widerstands innerhalb des Motors. Reluktanzmotoren sind bisher die effizienteste Form des elektrischen Motors, allerdings auch die komplexeste (Vgl. ebd. S. 84f).3. Klimabilanz elektrischer FahrzeugeUm tatsächlich bewerten zu können, inwiefern Elektroautos eine Alternative zu fossilen Brennstoffen darstellen und unsere Emissionen senken könnten, wird in diesem Kapitel die Klimabilanz solcher Fahrzeuge untersucht. 3.1 VerbrauchDer wohl entscheidende Aspekt des Elektroautos liegt im Verbrauch bzw. den Emissionen während der Fahrt. Diese gehen nämlich gegen Null. Wird die Batterie des Elektroautos mit ausschließlich grünem Strom geladen, fährt es sich "komplett klimaneutral" (Quaschning 2022. S. 168). Gegenwärtig ist dies jedoch noch nicht möglich (mehr dazu im nächsten Kapitel). Lädt man heute sein Elektroauto am regulären Netzstrom, so ist von Emissionen von "50 bis 100 Gramm Kohlendioxid pro Kilometer" (Ebd.) auszugehen.Bei Autos mit Verbrennungsmotor hängen die Emissionen vor allem mit der Art des Motors sowie der Fahrweise zusammen. Hier ist von Emissionen von "80 bis 240 Gramm Kohlendioxid pro Kilometer" (Ebd.) auszugehen. Das Elektroauto ist dem Verbrenner in dieser Hinsicht also voraus und könnte diesen Vorsprung ausbauen, je mehr grüner Strom zur Verfügung steht.Besondere Erwähnung sollte an dieser Stelle noch das wasserstoffbetriebene Auto finden. Hierbei handelt es sich ebenfalls um ein Auto mit Elektroantrieb, es zieht jedoch seine Energie aus aufbereitetem Wasserstoff. Zum jetzigen Zeitpunkt wird dabei jedoch die dreifache Menge Strom verbraucht, da die Wasserstoffproduktion eine große Menge Energie frisst (Vgl. Kaufmann 2021. S. 39). Insofern ist das vermeintlich grüne Wasserstoffauto im Moment keine echte Alternative und wird im Rahmen dieser Arbeit auch nicht weiter berücksichtigt. 3.2 Herstellung Bevor ein Fahrzeug die ersten Kilometer auf den Straßen zurücklegt, muss es zuerst produziert werden. Dies geht sowohl beim Elektroauto als auch beim Verbrenner mit enormem Ressourcenaufwand einher. Fakt ist, dass das Elektroauto im Moment des Kaufs noch eine schlechtere Klimabilanz aufweist als ein Verbrenner (Vgl. ebd.). Als problematisch für die Umweltbilanz werden vor allem "seltene Erden, Lithium und Kobalt" (Ebd. S. 169) betrachtet. Es sei jedoch erwähnt, dass sich diese Stoffe auch "in der Elektronik, im Navi-Bildschirm oder im Katalysator oder Dieselrußfilter" (Ebd. S. 170) von konventionellen Autos mit Verbrennungsmotor befinden.Ein weiterer oftmals aufgegriffener Kritikpunkt ist der scheinbar hohe Wasserverbrauch bei der Herstellung von Batterien. Dies lässt sich insofern als Mythos klassifizieren, als dass für das Gewinnen von ausreichend Lithium für eine Autobatterie in etwa so viel Wasser verbraucht wird wie für die Herstellung eines Kilo Rindfleischs oder einer Jeans (Vgl. ebd. S. 171). Vergleicht man den Konsum von Rindfleisch oder den Kauf von Kleidung mit der zu erwartenden Produktionsmenge von Batterien, so kann der Wasserverbrauch kein Argument gegen die Nachhaltigkeit eines Elektroautos sein. 3.3 RecyclingSpätestens seit dem Siegeszug des Smartphones ist allen die Problematik von Batterien bekannt. Sie verlieren mit der Zeit an Ladekapazität, sodass sie irgendwann zwangsläufig getauscht werden müssen. Zweifelsohne sind auch die Batterien von Elektroautos nicht von dieser Problematik befreit. Es wird also zurecht angemerkt, dass die Nachhaltigkeit von Elektroautos auch damit einhergeht, in welchem Umfang Batterien recycelt werden können.Da Elektroautos bisher einen sehr geringen Anteil am PKW-Bestand darstellen und die meisten davon noch am Anfang ihrer Lebenszeit stehen, gibt es bisher faktisch keine Recyclingmöglichkeiten (Vgl. ebd. S.172). Es gibt jedoch gute Gründe für Optimismus bei der Recyclingproblematik. Der Firma Duesendfeld aus Deutschland ist es bereits gelungen, bei Batterien "eine Recyclingquote von 91 Prozent zu erreichen" (Ebd.). Dies beweist, dass wir zumindest davon ausgehen können, dass Recycling für einen großen Teil der Batterien technologisch umsetzbar wäre. Es bleibt die Frage, zu welchem Preis.Konkludierend lässt sich nach diesem Kapitel festhalten, dass auch Elektroautos selbstverständlich nicht vollständig grün betrieben werden können. Auch sie bringen Materialkosten und Emissionen bei der Produktion sowie die Frage nach flächendeckendem Recycling mit sich. Ein großer Teil der Klimabilanz hängt außerdem von der Energieerzeugung ab, die im folgenden Kapitel thematisiert wird. Dennoch sind sie bereits zum jetzigen Zeitpunkt Autos mit Verbrennungsmotoren überlegen. Hinzu kommt die Tatsache, dass die Entwicklung dieser Fahrzeuge noch am Anfang steht. Es ist also davon auszugehen, dass in vielerlei Hinsicht noch Fortschritte erzielt werden können, die diesen Vorsprung weiter ausbauen. 4. Energiegewinnung und Infrastruktur Ausgehend von der Leitfrage drängt sich die Frage auf, wie eine Welt aussehen müsste, in der nur noch Elektromobilität vorherrscht. In diesem Kapitel werden dabei vor allem die Aspekte der Energiegewinnung und der nötigen Infrastruktur beleuchtet. 4.1 EnergiegewinnungWie oben bereits beschrieben, hängen die Emissionen von Elektroautos massiv mit der Art der Energiegewinnung zusammen. Würden Batterien ausschließlich mit grünem Strom geladen, wären die Fahrzeuge im Verbrauch nahezu vollständig emissionsfrei (siehe 3.1). Aus diesem Grund nun zunächst eine Bestandsaufnahme:"Im Jahr 2020 haben die erneuerbaren Energien Wasserkraft, Biomasse, Windkraft und Photovoltaik in Deutschland mehr als die Hälfte der Stromerzeugung gedeckt" (Ebd. S. 76).Diese Zahl erscheint hoch, führt man sich vor Augen, dass die amtierende Bundeskanzlerin Anfang der 1990er Jahre noch versicherte, erneuerbare Energien könnten unmöglich mehr als vier Prozent des Strombedarfs des Landes decken (Vgl. ebd. S. 77). Zum Erreichen der Klimaziele wäre dennoch ein vollständiger Umstieg von Nöten. Dies betrifft jedoch nur indirekt die Elektromobilität. Dennoch sind sich die Quaschnings sicher, wenn sie schreiben:"Wir brauchen heute definitiv nicht mehr über die Frage zu diskutieren, ob wir 100 Prozent erneuerbare Energien erreichen können" (Ebd.).Dies ist insofern nicht überraschend, als dass es nicht an Möglichkeiten zur vollständigen Energiewende fehlt, sondern momentan vor allem an der Umsetzung. Da sich die erneuerbaren Energien vor allem auf Wind, Wasser und Sonne stützen, werden oftmals Bedenken geäußert, ein nur auf diesen Quellen basierendes Stromnetz sei möglicherweise zu instabil. Doch auch hier sind die Autoren optimistisch:"Wir können mit Speichern und der Sektorkupplung auch eine Energieversorgung aufbauen, die sicherer ist als unsere heutige" (Ebd. S. 94).In Bezug auf Elektromobilität lässt sich festhalten, dass es grundsätzlich Möglichkeiten gäbe, durch das Vorantreiben der Energiewende Elektroautos klimaneutral betreiben zu können. 4.2 Infrastruktur Selbst wenn die oben beschriebene Energiewende vollzogen wird, müsste für einen flächendeckenden Einsatz von Elektroautos auch die entsprechende Infrastruktur geschaffen werden. Zum jetzigen Zeitpunkt können Elektroautos an speziellen Ladestationen, in etwa wie an Tankstellen, oder an der heimischen Steckdose geladen werden. Dabei dauert das Laden an der heimischen Steckdose um ein Vielfaches länger, außer das jeweilige Heim verfügt über eine der sogenannten "Wallboxen". Diese machen das schnelle Laden wie an den speziellen Ladestationen auch zuhause möglich.Wer sich heute ein Elektroauto kauft, muss jedenfalls nicht fürchten, ohne ausreichend Strom liegen zu bleiben (Vgl. ebd. S. 174). Dies liegt jedoch primär an dem noch geringen Verkehrsaufkommen von Elektroautos. Sollte die Elektromobilität den Verbrennungsmotor ablösen, müssten entsprechend viele Ladestationen gebaut werden. Diese als "intelligente Steckdosen mit hohen Leistungen" (Ebd.) zu bezeichnen, ist physikalisch gesehen sehr vereinfacht, trifft jedoch insofern zu, als dass der Ausbau dieser Infrastruktur kein Problem darstellen sollte. Die Quaschnings nehmen diesen Aspekt in ihrem Buch humoristisch auf und halten fest:"Am Bau von Steckdosen sollte die Energierevolution nun aber wirklich nicht scheitern" (Ebd.).Eine im Zusammenhang mit Elektroautos oft geschilderte Befürchtung ist der Zusammenbruch der Stromnetze. Dabei befürchten Kritiker, dass das Stromnetz der Belastung nicht standhalten kann, wenn zu viele Autos gleichzeitig geladen werden, beispielsweise über Nacht. Eindeutige Zahlen gibt es hierzu nicht, es ist jedoch davon auszugehen, dass bei vergleichbarer Fahrweise ca. 15 Prozent mehr Strom benötigt werden würde, um die Flotte der Elektroautos zu laden (Vgl. ebd.). Schwachstelle bei dieser Rechnung ist die Tatsache, dass das Beispiel auf der Vermutung fußt, nur 30 Millionen Elektroautos in Deutschland zu betreiben. Das wären weniger als halb so viele Fahrzeuge, wie im Moment auf den Straßen sind, und führt damit zu einem unterschätzten Aspekt. 4.3 Mentale InfrastrukturAlle bisherigen Erkenntnisse in Bezug auf die Leitfrage waren vor allem technischer Natur. Betrachtet man den Ist-Zustand in Deutschland, so lassen die vorherigen Kapitel vor allem Schlüsse über die technischen Möglichkeiten und Chancen zu. Dabei ist es nicht die Technik allein, die über die Erfolgschancen der Elektromobilität entscheidet. Der Begriff der "mentalen Infrastruktur" (Schwedes/Keichel 2021. S. 3) bezieht sich hierbei auf die notwendige Bereitschaft innerhalb der Bevölkerung, sprich den Nutzern von Elektroautos, sich auf die Neuerungen im Vergleich zum Verbrenner einzustellen.Ahrend und Stock nennen diese die "Träger einer potenziell neuen Mobilitätskultur" (Ahrend/Stock 2021. S. 111). Schwedes und Keichel sprechen von einem Wandel hin zur "postfossilen Mobilitätskultur" (Schwedes/Keichel 2021. S. 3). Diese beinhaltet ein nachhaltiges Verkehrssystem, welches zum Ziel haben muss, "weniger Verkehr zu erzeugen, die Geschwindigkeit zu reduzieren und die zurückzulegenden Entfernungen zu minimieren" (Ebd. S. 4).Es muss also einen "kulturellen Paradigmenwechsel" (Ebd.) geben, um das Thema Elektromobilität bei Autos tatsächlich massentauglich zu machen. Dieser Umstieg gestaltet sich schwierig, denn das Auto ist in Deutschland "tiefverwurzelt in den Mobilitätsroutinen vieler Bürger" (Ahrend/Stock 2021. S. 110). Dabei reicht die reine Akzeptanz der neuen Technologie nicht aus. Um den Umschwung zu schaffen, die mentale Infrastruktur in den Köpfen zu bauen, muss eine "Anpassungsleistung an die alltäglichen Handlungsanforderungen" (Ebd. S. 113) erfolgen. 5. FazitAbschließend nun die Konklusion zur Ausgangsfrage: Können Elektroautos ein Teil des Weges aus der Klimakrise sein, indem sie fossile Brennstoffe beim Thema Mobilität obsolet machen? Zu diesem Zweck werden nun nochmal die einzelnen Kapitel der Arbeit beleuchtet. Im ersten Kapitel wurde untersucht, was wir überhaupt unter dem Begriff Klimakrise verstehen können und welche Rolle der Verkehr dabei spielt. Hier kristallisierte sich heraus, dass insbesondere in Deutschland das Verkehrsaufkommen einen großen Anteil an den zu hohen Kohlenstoffdioxidemissionen hat. Da bisher keine Technologie vielversprechend genug ist, bleibt keine andere Möglichkeit als die CO2-Emissionen drastisch zu reduzieren.Im zweiten Kapitel wurde sich mit der Frage auseinandergesetzt, was wir überhaupt unter einem Elektroauto verstehen können und wie diese Fahrzeuge funktionieren. Als Basis diente dabei das Mobilitätsgesetz der Bundesrepublik Deutschland, welches wasserstoffbetriebene Autos miteinschließt. Das dritte Kapitel behandelte die zentrale Frage der tatsächlichen Klimabilanz von elektrischen Fahrzeugen. Hier wurde deutlich, dass deren Umweltbilanz vor allem von der Herkunft des Batteriestroms abhängig ist. Selbstverständlich entstehen bei der Produktion ebenfalls Emissionen, grundsätzlich konnte jedoch festgehalten werden, dass die Klimabilanz elektrischer Fahrzeuge schon heute besser ist als die der Verbrennungsmotoren.In Kapitel 4 konnte erläutert werden, dass zumindest in Deutschland alle Möglichkeiten vorhanden wären, eine Energiewende zu schaffen und damit vollständig grünen Strom möglich zu machen. Neben grünem Strom wurde die nötige Infrastruktur untersucht. Hier galt es, neben den Ladestationen vor allem die mentale Infrastruktur hervorzuheben, ohne die ein Umstieg unmöglich wäre.Der Großteil dieser Arbeit beschäftigte sich mit der Frage, inwiefern es möglich wäre, Elektromobilität in Form von Elektroautos in der Bundesrepublik zu verwirklichen. Dazu müssten mehrere Bedingungen erfüllt werden. Um Elektroautos tatsächlich sinnvoll betreiben zu können, wäre eine vollständige Energiewende von Nöten. Die Fortschritte der letzten Jahrzehnte machen deutlich, dass dies zweifelsohne möglich wäre, wenn das Ziel politisch verfolgt wird.Hinzu kommt der Ausbau der entsprechenden Infrastruktur. Bedenkt man die Zahl der Tankstellen die obsolet würden, kann Platzmangel kein Problem beim Bau von Ladesäulen darstellen. Auch wenn ein solcher Ausbau mit Problemen verbunden wäre, kann dieser ähnlich wie die Energiewende vonstatten gehen, sofern der Staat entsprechend handelt.Ob diese Bedingungen erfüllt werden, hängt jedoch auch von der Stimmung innerhalb der Bevölkerung ab. Ein solcher Umschwung kann politisch nur erfolgen, wenn er den Rückhalt in der Bevölkerung genießt. Dabei sind nicht nur Wählerstimmen, sondern auch die mentale Infrastruktur nötig. Dies könnte vor allem im Autoland Deutschland, in welchem das Auto als Heiligtum gilt, auf erheblichen Widerstand stoßen.Den ersten Teil der Ausgansfrage können wir also wie folgt beantworten: Bezogen auf die Bundesrepublik Deutschland lässt sich mit Sicherheit sagen, dass ein Umstieg auf Elektromobilität aus technischer Sicht möglich und mit gesellschaftlichem Willen zum Wandel umsetzbar ist. Dies führt zum zweiten Teil der Ausgangsfrage, nämlich inwiefern dies die Problematik der Klimakrise lösen könnte. Auf die Bundesrepublik allein bezogen macht der Verkehr ein Fünftel der Emissionen aus. Davon ausgehend, dass ein Wandel zur Elektromobilität auch mit einer kompletten Energiewende vollzogen wird, lässt sich sagen dass dies einen bedeutenden Schritt bei der Bekämpfung des Klimawandels darstellen könnte.Dabei gilt es jedoch zwei entscheidende Aspekte festzuhalten. Erstens geht mit der erläuterten mentalen Infrastruktur einher, dass sich das Verhältnis zu Mobilität grundsätzlich ändert. Sprechen wir von einem Wandel zur Elektromobilität, so bedeutet dies nicht, dass die Veränderung darauf beschränkt ist, statt eines Verbrenners einen Elektromotor zu starten und zu tanken. Zweitens wäre diese Veränderung dennoch völlig unzureichend. Der Verkehrssektor mag einen großen und alltäglich präsenten Anteil an der Klimakrise haben, doch um die ohnehin schon niedrig gesteckten Klimaziele zu erreichen, würde auch dies nicht ausreichen. Das Elektroauto stellt bezogen auf die fossilen Brennstoffe eine Alternative dar, kann diesen Weg jedoch nicht allein bestreiten. Führt man sich die Gefahr und das Ausmaß der Klimakrise vor Augen, so kann das Elektroauto maximal einen (bescheidenen) Beitrag zum benötigten Wandel leisten.LiteraturAhrend, Christine/Stock, Jessica: Der Benchmark ist noch immer das heutige Verhalten, in: Oliver Schwedes/Marcus Keichel (Hrsg.), Das Elektroauto, Mobilität im Umbruch. Wiesbaden 2021. Francis, Jennifer: Die rasche Erwärmung der Arktis und der Jetstream, in: Gretha Thunberg (Hrsg.), Das Klimabuch. Frankfurt am Main. 2022. Hausfather, Zeke: Methan und kurzlebige Treiber des Klimawandels, in: Gretha Thunberg (Hrsg.), Das Klimabuch. Frankfurt am Main. 2022. Hayhoe, Katharine: Wärme, in: Gretha Thunberg (Hrsg.), Das Klimabuch. Frankfurt am Main 2022. Kauffmann, Timo: E-Auto einfach erklärt, Von A wie Akku bis Z wie zu Hause laden. Heidelberg. 2021. Lustgarten, Abrahm: Klimaflüchtlinge, in: Gretha Thunberg (Hrsg.), Das Klimabuch. Frankfurt am Main. 2022. Marvel, Kate: Dürren und Überschwemmungen, in: Gretha Thunberg (Hrsg.), Das Klimabuch. Frankfurt am Main. 2022. Otto, Friederike: Gefährliches Wetter, in: Gretha Thunberg (Hrsg.), Das Klimabuch. Frankfurt am Main. 2022. Quaschning, Volker/Cornelia: Energierevolution Jetzt! Mobilität, Wohnen, grüner Strom und Wasserstoff: Was führt uns aus der Klimakrise – und was nicht? München 2022. Rahmstorf, Stefan: Die Erwärmung der Meere und der Anstieg des Meeresspiegels, in: Gretha Thunberg (Hrsg.), Das Klimabuch. Frankfurt am Main. 2022. Schwedes, Oliver/Keichel, Marcus: Zehn Jahre Elektroauto & (k)ein bisschen klüger? in: Oliver Schwedes/Marcus Keichel (Hrsg.), Das Elektroauto, Mobilität im Umbruch. Wiesbaden. 2021. Shindell, Drew: Luftverschmutzung, in: Gretha Thunberg (Hrsg.), Das Klimabuch. Frankfurt am Main. 2022. Thunberg, Greta: Die Welt hat Fieber, in: Gretha Thunberg (Hrsg.), Das Klimabuch. Frankfurt am Main. 2022. Winkelmann, Ricarda: Eisschilde, Schelfeis und Gletscher, in: Gretha Thunberg (Hrsg.), Das Klimabuch. Frankfurt am Main. 2022. Pressemitteilung Nr. 08/2021 des Kraftfahrbundesamts: https://www.kba.de/DE/Presse/Pressemitteilungen/2021/Fahrzeugbestand/fahrzeugbestand_node.html#:~:text=Flensburg%2C%202.,auf%20(%2B1%2C6%20%25 Website des Allgemeinen Deutschen Automobil Clubs: Glossar, Elektromobilität von A bis Z: https://www.adac.de/rund-ums-fahrzeug/elektromobilitaet/info/glossar-elektromobilitaet/
Bad governance causes economic, social, developmental and environmental problems in many developing countries. Developing countries have adopted a number of reforms that have assisted in achieving good governance. The success of governance reform depends on the starting point of each country – what institutional arrangements exist at the out-set and who the people implementing reforms within the existing institutional framework are. This dissertation focuses on how formal institutions (laws and regulations) and informal institutions (culture, habit and conception) impact on good governance. Three characteristics central to good governance - transparency, participation and accountability are studied in the research. A number of key findings were: Good governance in Hanoi and Berlin represent the two extremes of the scale, while governance in Berlin is almost at the top of the scale, governance in Hanoi is at the bottom. Good governance in Hanoi is still far from achieved. In Berlin, information about public policies, administrative services and public finance is available, reliable and understandable. People do not encounter any problems accessing public information. In Hanoi, however, public information is not easy to access. There are big differences between Hanoi and Berlin in the three forms of participation. While voting in Hanoi to elect local deputies is formal and forced, elections in Berlin are fair and free. The candidates in local elections in Berlin come from different parties, whereas the candidacy of local deputies in Hanoi is thoroughly controlled by the Fatherland Front. Even though the turnout of voters in local deputy elections is close to 90 percent in Hanoi, the legitimacy of both the elections and the process of representation is non-existent because the local deputy candidates are decided by the Communist Party. The involvement of people in solving local problems is encouraged by the government in Berlin. The different initiatives include citizenry budget, citizen activity, citizen initiatives, etc. Individual citizens are free to participate either individually or through an association. Lacking transparency and participation, the quality of public service in Hanoi is poor. Citizens seldom get their services on time as required by the regulations. Citizens who want to receive public services can bribe officials directly, use the power of relationships, or pay a third person – the mediator ("Cò" - in Vietnamese). In contrast, public service delivery in Berlin follows the customer-orientated principle. The quality of service is high in relation to time and cost. Paying speed money, bribery and using relationships to gain preferential public service do not exist in Berlin. Using the examples of Berlin and Hanoi, it is clear to see how transparency, participation and accountability are interconnected and influence each other. Without a free and fair election as well as participation of non-governmental organisations, civil organisations, and the media in political decision-making and public actions, it is hard to hold the Hanoi local government accountable. The key differences in formal institutions (regulative and cognitive) between Berlin and Hanoi reflect the three main principles: rule of law vs. rule by law, pluralism vs. monopoly Party in politics and social market economy vs. market economy with socialist orientation. In Berlin the logic of appropriateness and codes of conduct are respect for laws, respect of individual freedom and ideas and awareness of community development. People in Berlin take for granted that public services are delivered to them fairly. Ideas such as using money or relationships to shorten public administrative procedures do not exist in the mind of either public officials or citizens. In Hanoi, under a weak formal framework of good governance, new values and norms (prosperity, achievement) generated in the economic transition interact with the habits of the centrally-planned economy (lying, dependence, passivity) and traditional values (hierarchy, harmony, family, collectivism) influence behaviours of those involved. In Hanoi "doing the right thing" such as compliance with law doesn't become "the way it is". The unintended consequence of the deliberate reform actions of the Party is the prevalence of corruption. The socialist orientation seems not to have been achieved as the gap between the rich and the poor has widened. Good governance is not achievable if citizens and officials are concerned only with their self-interest. State and society depend on each other. Theoretically to achieve good governance in Hanoi, institutions (formal and informal) able to create good citizens, officials and deputies should be generated. Good citizens are good by habit rather than by nature. The rule of law principle is necessary for the professional performance of local administrations and People's Councils. When the rule of law is applied consistently, the room for informal institutions to function will be reduced. Promoting good governance in Hanoi is dependent on the need and desire to change the government and people themselves. Good governance in Berlin can be seen to be the result of the efforts of the local government and citizens after a long period of development and continuous adjustment. Institutional transformation is always a long and complicated process because the change in formal regulations as well as in the way they are implemented may meet strong resistance from the established practice. This study has attempted to point out the weaknesses of the institutions of Hanoi and has identified factors affecting future development towards good governance. But it is not easy to determine how long it will take to change the institutional setting of Hanoi in order to achieve good governance. ; Bad governance (schlechte Regierungsführung) verursacht neben wirtschaftlichen und sozialen Schäden auch Umwelt- und Entwicklungsprobleme in vielen Entwicklungsländern. Entwicklungsländer haben zahlreiche Reformen in Angriff genommen, welche sie in der Entwicklung von good governance (gute Regierungsführung) unterstützen sollen. Der Erfolg solcher Reformen staatlicher Steuerungs- und Regelsysteme hängt jedoch maßgeblich von der Ausgangssituation in den einzelnen Ländern ab. Einfluss auf den Erfolg haben Faktoren wie z. B. die existierende institutionelle Ordnung, auf die zu Beginn solcher Reformen zurückgegriffen werden kann. Auch der verantwortliche Personenkreis, der mit der Umsetzung der Reformen beauftragt wird, ist für deren Erfolg maßgeblich. Diese Dissertation befasst sich damit, wie sich formelle Institutionen (Gesetze und Regeln) sowie informelle Institutionen (Kultur, Gewohnheit und Wahrnehmung) auf good governance auswirken können. Im Rahmen dieser Forschungsarbeit werden drei Merkmale mit besonderem Bezug zu good governance untersucht: Transparenz, Partizipation und Rechenschaftspflicht. Folgende Untersuchungsergebnisse sind hervorzuheben: In Bezug auf good governance stellen Berlin und Hanoi zwei Extreme dar. Während Berlin auf einer "good-governance-Skala" im positiven oberen Bereich anzusiedeln wäre, müsste sich Hanoi eher im unteren Bereich wiederfinden. Good governance im Sinne von verantwortungsvoller Regierungsführung ist in Hanoi bei weitem noch nicht erreicht. So sind in Berlin Informationen sowohl über die Ziele und die Entscheidungen der am Politikprozess beteiligten Akteure und über Dienstleistungen der Verwaltung als auch über die öffentlichen Finanzen allgemein abrufbar, verlässlich und verständlich. Dies ist nicht der Fall in Hanoi. Während in Berlin die BürgerInnen keine Schwierigkeiten im Zugang zu öffentlichen Informationen haben, so sind diese Informationen in Hanoi nicht oder nur schwer erhältlich. Weiterhin gibt es zwischen Hanoi und Berlin erhebliche Unterschiede in den drei Arten der Partizipation. Während die Wahlen kommunaler Vertreter in Hanoi rein formell und erzwungen sind, so sind Wahlen in Berlin gleich, geheim und frei. Bei den Berliner Kommunalwahlen entstammen die VertreterInnen den unterschiedlichen Parteien und Wählervereinigungen, während die Kandidatur der KommunalvertreterInnen in Hanoi weitgehend durch die Volksfront bestimmt wird. Obwohl die Wahlbeteiligung bei den lokalen Wahlen in Hanoi bei fast 90% liegt, so ist die Legitimität sowohl der Wahlen selbst als auch des Vertretungsprozesses so gut wie nicht vorhanden. Die zu wählenden VolksvertreterInnen werden ausschließlich durch die Kommunistische Partei bestimmt. In Berlin wird die Teilhabe der BürgerInnen bei der Lösung kommunaler Probleme durch die Regierung gefördert. Hierzu werden unterschiedliche Methoden genutzt, u. a. der Bürgerhaushalt, Bürgerportale, Bürgerinitiativen etc. Einzelne BürgerInnen können entscheiden, ob sie sich individuell oder auch kollektiv einbringen. Durch das Fehlen von Transparenz und bürgerlicher Teilhabe ist die Qualität öffentlicher Dienstleistungen in Hanoi gering. So werden Dienstleistungen selten innerhalb der Fristerbracht, die gesetzlich vorgegeben ist. BürgerInnen, die dennoch öffentliche Dienstleistungen in Anspruch nehmen und zeitnah erhalten wollen, können die verantwortlichen Beamten direkt bestechen, ihre persönlichen Beziehungen nutzen oder eine dritte Person gegen Bezahlung beauftragen – einen "Mediator" (Vietnamesisch: "Cò"). Im Gegensatz hierzu werden Dienstleistungen in Berlin kundenorientiert erbracht. Die Qualität der Dienstleistungen ist in Bezug auf Zeit und Kosten hochwertig. Schmiergeldzahlungen, Bestechung sowie das Nutzen persönlicher Beziehungen im Austausch für "bessere" öffentliche Dienstleistungen sind in Berlin unüblich. Die Analyse der Fallstudien in Berlin und Hanoi verdeutlichen, wie Transparenz, bürgerliche Teilhabe sowie Rechenschaftspflicht miteinander verflochten sind und sich gegenseitig beeinflussen. Es ist schwierig die Kommunalverwaltung in Hanoi zur Rechenschaft zu ziehen. Hierzu fehlt es an geeigneten Instrumenten, wie z.B. freie und gleiche Wahlen. Es fehlt ebenfalls die Beteiligung von Akteuren wie freien Medien, Nichtregierungsorganisationen und zivilgesellschaftlichen Organisationen. Der wesentliche Unterschied formeller regulativer und kognitiver Institutionen zwischen Berlin und Hanoi wird anhand von drei Prinzipien dargestellt: Rechtsstaatlichkeit (Rule of Law) vs. Herrschaft durch Recht (rule by law), Pluralismus vs. Einheitspartei innerhalb der Politik sowie Marktwirtschaft vs. Marktwirtschaft sozialistischer Prägung. In Berlin gelten Verhaltensnormen, welche das Gesetz und die individuelle Freiheit respektieren. Ebenso herrscht das Bewusstsein vor, die Gemeinschaft zu fördern. EinwohnerInnen Berlins erachten es als selbstverständlich, dass sie öffentliche Dienstleistungen gerecht in Anspruch nehmen können. Die Vorstellung, Geld oder Beziehungen auf unrechtmäßige Art zu nutzen, um Verwaltungsvorgänge abzukürzen, herrschen weder bei Verwaltung noch bei den BürgerInnen vor. Innerhalb eines schwachen formellen Rahmens von good governance in Hanoi interagieren neue Werte und Normen einer Volkswirtschaft im Umbruch (Wohlstand, Erfolg) mit denen einer Planwirtschaft (Lügen, Abhängigkeit, Passivität) sowie mit denen traditioneller Gesellschaften (Hierarchie, Harmonie, Familie, Kollektivismus) und beeinflussen die Handlungen der Akteure. In Hanoi wird es nicht als selbstverständlich angesehen, das zu tun, was in Berlin als "das Richtige" angesehen würde, z. B. Gesetze einzuhalten. Unbeabsichtigte Konsequenzen willkürlicher Reformaktivitäten der Partei zeigen sich im Fortbestehen von Korruption. Die sozialistische Orientierung der Marktwirtschaft scheint nicht erreicht worden zu sein, da sich die Schere zwischen Reich und Arm geweitet hat. Good governance ist unerreichbar, wenn BürgerInnen, Verwaltung und PolitikerInnen hauptsächlich von Eigeninteressen gelenkt werden. Der Staat und die Gesellschaft hängen voneinander ab. Um theoretisch good governance in Hanoi zu erreichen, müssten (formelle und informelle) Institutionen geschaffen werden, die positiven Einfluss auf BürgerInnen, Verwaltung und VolksvertreterInnen haben. BürgerInnen sind "gut" aufgrund von Lernprozessen und Gewöhnung und nicht aufgrund ihrer Natur. Das Rechtstaatlichkeitsprinzip ist notwendig, um die Leistungsbereitschaft lokaler Verwaltungen sowie der Volksvertretungen zu stärken. Sobald Rechtstaatlichkeit konsequente Anwendung findet, verringert sich auch der Raum, in dem informelle Institutionen angewendet werden können. Die Förderung von good governance in Hanoi hängt im Wesentlichen vom Verlangen ab, die Regierung und die Menschen zu verändern. Good governance in Berlin sollte als Ergebnis eines andauernden Prozesses von Entwicklung und Änderung von Lokalregierung und BürgerInnen angesehen werden. Institutionelle Transformation ist ein langwieriger und komplizierter Prozess. Veränderungen formeller Regelungen sowie die Art der Implementierung solch neuer Regelungen trifft möglicherweise auf starken Widerstand seitens etablierter Akteure mit ihren Gewohnheiten. In dieser Studie wurde gezeigt, welches die Schwachpunkte der Institutionen in Hanoi sind. Ebenso wurden jene Faktoren identifiziert, welche die zukünftige Entwicklung in Richtung von good governance beeinflussen können. Es ist jedoch schwierig einzuschätzen, wie lange es dauern wird, das institutionelle Gefüge in Hanoi hin zu verantwortungsvoller Regierungsführung zu ändern.
Aus der Einleitung: Seit den 1990er Jahren befindet sich die Finanzwelt im Umbruch, weg von den traditionellen Bankgeschäften, hin zu wesentlich effektiveren und risikoreicheren Novitäten. Früher lag das Hauptaugenmerk einer Bank auf der Entgegennahme von Einlagen und der Ausgabe von Krediten. Heutzutage gelten diese Geschäfte nicht mehr als Gewinntreiber Nr. 1 und man erfand deshalb neue Kreationen wie Zertifikate, Derivate, Sekurisationen oder ähnliches. Seitdem, so meinen einige Kritiker, ähnelt die Bankenlandschaft eher einem legalisierten Spiel- und Wettmonopol, als einer seriösen Finanzbranche. In diesem Zusammenhang wurde auch der Begriff des Casino-Kapitalismus geprägt. Carry Trades gehören in diesem Zusammenhang eher zu den komplexeren Investitionsstrategien. Es geht darum Zinsdifferenzen zwischen verschiedenen Währungsräumen auszunutzen. Ein Carry Trade besteht dabei sowohl aus einem Währungskredit, als auch gleichzeitig aus einer Währungsanlage. Geht mit diesen beiden Geschäften auch ebenfalls eine positive Wechselkursentwicklung einher, kann ein Carry Trade durchaus eine hohe Outperformance erzielen. Wenngleich diese Strategien auch sehr sensibel auf Marktänderungen reagieren und somit ein extrem großes Risiko beinhalten können. Diese Arbeit soll sich schwerpunktmäßig mit der richtigen Auswahl der Währungen sowohl auf der Anlagen- als auch auf der Kreditseite beschäftigen. Hierzu werden verschiedene Strategien theoretisch, als auch praktisch, vorgestellt und auch spezielle Beispielrechnungen zur Unterstützung dieser Thesen angefertigt. Im ersten Kapitel werden zunächst allerdings erst einige Grundlagen gelegt und ein erster Überblick auf die eigentliche Funktion eines Carry Trades sowie auf die Rendite- und Risikomöglichkeiten gegeben. Im zweiten Kapitel wird anschließend ein Überblick über die Währungen stattfinden, die für den Carry Trade geeignet sind. In diesem Zusammenhang werden die Chancen und Risiken der einzelnen Währungen auch kurz, gemäß ihrer vergangenen Entwicklungen, beurteilt. Desweiteren wird versucht die Auswirkungen von einigen aktuellen negativen Marktentwicklungen (Subprime Krise oder hohe Inflationsraten) auf die Carry Trades zu prognostizieren. Im dritten Kapitel folgt dann ein kurzes volkswirtschaftliches Statement. Hier werden sowohl die Auswirkungen von Carry-Trades auf die Wechselkurse beurteilt, als auch ein Überblick gegeben, welche volkswirtschaftlichen Modelle für das Gelingen eines Carry Trades gelten müssen bzw. welche auch gerade nicht. Hierfür wird ein Erklärungsschwerpunkt auf die Theorie der Zinsparität gelegt. Der zweite Teil befasst sich nun mit den eigentlichen Währungsauswahl-Strategien. Hier sollen jeweils einzelne Strategien vorgestellt werden und die Vorteilhaftigkeit einer jeden Strategie anhand von Performanceberechnungen herausgestellt werden. Hierzu wird im vierten Kapitel zunächst ein Überblick über einzelne Performancekennzahlen gegeben. Das fünfte Kapitel stellt dann anschließend Strategien mit jeweils einzelnen Währungspaaren vor. Herausgestellt wird, welche Währungskombinationen sich aus den verschiedenen Ländergruppen gut eignen und welche eher nicht. Das sechste Kapitel stellt Varianten mit Währungspools vor. Hieraus ergeben sich individuelle Vor- und Nachteile zu den Einzel-Strategien, die mithilfe einer Performanceberechnung herausgestellt werden können. Im siebten und letzten Kapitel erfolgt zum Schluss noch ein kleiner Performancevergleich aller betrachteten Strategien. Danach wird ebenfalls noch ein Ausblick auf die Zukunft des Carry-Trade-Marktes gewagt.Inhaltsverzeichnis:Inhaltsverzeichnis: InhaltsverzeichnisII AbbildungsverzeichnisV TabellenverzeichnisVI AbkürzungsverzeichnisVII ISO-WährungscodesVIII Teil I: Einführung und Grundlagen von Carry-Trade-Strategien1 1.Einführung2 1.1Einführung und Problemstellung2 1.2Die Entstehung der Currency Carry Trades4 1.3Die Wirkungsweise von Carry Trades6 1.4Rendite- und Risikomöglichkeiten bei Carry Trades8 1.4.1Rendite8 1.4.2Risiko10 2.Typische und moderne Carry Trade Währungen14 2.1Überblick über mögliche Verschuldungswährungen14 2.1.1Der Japanische Yen14 2.1.2Der Schweizer Franken16 2.1.3Der US-Dollar17 2.2Überblick über mögliche Anlagewährungen18 2.2.1Der Euro18 2.2.2Der Australische Dollar der Neuseeländische Dollar19 2.2.3Die restlichen Devisen des G10-Währungsraums20 2.3Überblick über alternative Währungen23 2.4Wird der Yen als Hauptverschuldungswährung abgelöst?25 2.5Auswirkungen der US-Dollar Schwäche27 3.Die Auswirkungen von Carry-Trade-Geschäften auf die Volkswirtschaft eines Landes29 3.1Das Verhalten der Wechselkurse der beteiligten Länder29 3.2Carry Trades und die Theorie der Zinsparität31 3.2.1Herleitung der Zinsparität31 3.2.2Die ungedeckte Zinsparität und die Existenz des Forward Rate Bias34 3.2.3Die gedeckte Zinsparität und die Absicherung von Carry-Trade-Geschäften38 3.3Mögliche Gefahren für die Volkswirtschaft eines Landes40 Teil II: Vorstellung von Strategien zur Währungsauswahl mit Carry Trades und Performancebestimmung44 4.Vorstellung einzelner Kennzahlen zur Performancebestimmung45 4.1Statistische Werte zur Performancebestimmung46 4.1.1Das arithmetische Mittel46 4.1.2Der Median46 4.1.3Die Standardabweichung47 4.1.4Die Schiefe48 4.1.5Die Kurtosis48 4.2Kennzahlen zur Performancebestimmung von Carry Trades49 4.2.1Die Sharpe Ratio49 4.2.2Das Verhältnis Carry/Risiko50 5.Strategien mit einzelnen Währungspaaren und Performancemessung52 5.1Auswahl innerhalb des G10-Währungsraumes52 5.1.1Währungspaare mit dem Euro55 5.1.2Währungspaare mit dem USD57 5.1.3Währungspaare mit dem CHF60 5.1.4Währungspaare mit dem JPY61 5.2Relative-Value-Ansätze63 5.2.1Auswahl nach Leistungsbilanzsalden64 5.2.2Auswahl nach Fehlbewertungen der Kaufkraftparität67 5.3Vergleich der vorgestellten Ansätze68 6.Strategien mit Währungspools72 6.1Vorüberlegungen zur Bildung des Währungspools72 6.2Strategien auf G10-Währungen75 6.3Strategien auf G10-Währungen mit unterschiedlicher Gewichtung77 6.4Strategien auf G10-Währungen in Verbindung mit aufstrebenden Schwellenländern79 6.5Strategien mit globaler Währungsauswahl81 6.6Vergleich der vorgestellten Ansätze83 7.Zusammenfassung und Ausblick86 Literaturverzeichnis89Textprobe:Textprobe: Kapitel 2.1.1, Der Japanische Yen: Der Japanische Yen ist definitiv die größte Verschuldungswährung überhaupt. Man schätzt, dass im Jahre 2007 alleine 200 bis 330 Milliarden USD nur für Carry-Trade-Geschäfte ausgeliehen waren. Carry-Trade-Geschäfte sind allerdings nicht als solche gekennzeichnet, deshalb ist eine genauere Quantifizierung unmöglich. Grund für die Beliebtheit des Yen ist im Wesentlichen natürlich die Leitzinsentwicklung in Japan. So versuchte die japanische Zentralbank lange Jahre mit ihrer Nullzinspolitik, die Wirtschaft mit so viel wie möglich Liquidität zu versorgen, um die stark deflatorischen Tendenzen der Volkswirtschaft in den Griff zu bekommen. Denn niedrige Zinsen fördern eine hohe Inflation, da deutlich mehr Geld investiert und weniger Geld gespart wird. Jedoch bekommt man bis heute diese negativen Tendenzen nicht ganz in den Griff. Mittlerweile weiß man, dass dies vor allem durch die Carry Trades ausgelöst wurde. Denn der Großteil der Kredite geht an ausländische Investoren, die die geliehenen Yen nicht in Japan, sondern im höher verzinsten Ausland investieren und somit die japanische Wirtschaft nicht signifikant stärken. Inzwischen sind die Leitzinsen allerdings immerhin auf 0,50% gestiegen. Was natürlich nur geringfügigen Einfluss auf den positiven Zinsspread der Carry-Trader hat und den Yen weiterhin als beste Verschuldungswährung charakterisiert. Eine weitere Determinante die für den Yen als Verschuldungswährung spricht, ist die Wechselkursentwicklung. Der Yen ist zwar eine sehr volatile Währung, hat aber seit dem Jahrtausendwechsel eine deutliche Abwertungstendenz gegenüber den Hochzinsländern. So stand der Yen im Oktober 2000 auf seinem Höchststand von ca. 92,5586 JPY/EUR und ist aktuell auf einen Wert von 167,10 JPY/EUR gefallen. Von dieser negativen Entwicklung können die Investoren, noch zusätzlich profitieren, indem sie neben der Zinsdifferenz noch Wechselkursgewinne abschöpfen. Diese Abwertungstendenz ist allerdings eigentlich absurd, da Japan einen extrem hohen Leistungsbilanzüberschuss hat und die Währung eigentlich deutlich aufwerten sollte, aber genau das nicht tut. Der Grund hierfür ist wohl ebenfalls auf die hohe Anzahl von Krediten an ausländische Investoren zurückzuführen, die den Yen nach Kreditaufnahme sofort wieder zurück kaufen, in eine andere Währung tauschen und somit nicht zur Stärkung der Wirtschaft beitragen. Dieser Effekt belastet den Yen spürbar. Ob sich die beschriebenen Zins- und Währungsentwicklungen auch in Zukunft weiter fortsetzen, wird in den nachfolgenden Kapiteln noch eingehend erläutert. Kapitel 2.1.2, Der Schweizer Franken: Traditionell ist der Schweizer Franken die zweitbeliebteste Verschuldungswährung. Vor allem Europäer ziehen den Schweizer Franken oftmals dem Yen vor. Das Zinsniveau lag in der Schweiz in den letzten Jahren immer deutlich unter dem Zinsniveau im Euroland oder anderer Hochzinswährungen. So erreichte das von der Schweizerischen Nationalbank (SNB) vorgegebene Zielband seit 1999 nur sehr kurzfristig einmal ein Niveau über 3% - 4%. Aktuell liegt das Zielband bei 2,25% - 3,25%, sodass der Schweizer Franken aktuell auch immer noch einen sehr hohen Zinsspread für Carry-Trade-Geschäfte generiert. Die geringe Volatilität des Schweizer Franken ist eine weitere wichtige Voraussetzung für das Gelingen eines Carry Trades mit der Shortposition im Schweizer Franken. Der CHF hat zwar seit Einführung des Euro ca. 10% an Wert gegenüber dem Euro verloren, pendelte aber trotzdem, bis auf geringere Aufwertungsphasen in den Jahren 2002 und 2003, immer konstant um die Marke von 1,60 EUR/CHF und steht aktuell bei 1,6158 EUR/CHF. Wie auch der Yen hat der CHF erkennbare Abwertungstendenzen, wenn auch bei weitem nicht in solchem Ausmaß wie in Japan. Trotz des auch hier vorhandenen Leistungsbilanzüberschusses, kommt es aufgrund des hohen Kapitalexportes durch Carry-Trades aus der Schweiz, nicht zu einer Aufwertung des CHF, die für den Kreditnehmer mit erheblichen Währungsverlusten verbunden wäre. Die SNB sieht zurzeit allerdings auch noch keinen Anlass der Carry-Trade-Problematik entgegen zu wirken. Deshalb werden die Zinsen in Zukunft wohl auch nicht spürbar steigen, sodass die Schweiz, auch wegen ihrer geringen Wechselkursvolatilität, in Zukunft weiter eines der beliebtesten Verschuldungsländer bleiben sollte. Kapitel 2.1.3, Der US-Dollar: Die Leitzinsentwicklung in den Vereinigten Staaten von Amerika war in den vergangenen zehn Jahren von einem Auf und Ab geprägt. Deshalb war der US-Dollar in der Vergangenheit sowohl als Anlage- als auch Verschuldungswährung sehr beliebt. So war der Leizinssatz z.B. in einer Ausschwungphase vor dem 11. September 2001 bis auf über 6% geklettert, danach viel er bis auf einen Tiefststand von 1% im Jahr 2003. In den Jahren 2003 – 2004 war der US-Dollar somit auch schon bei einigen Carry-Tradern als Verschuldungswährung sehr beliebt. Aktuell befinden sich die Leitzinsen wieder auf dem Rückzug. Per 30.04.2008 senkte man die Federal Funds Rate auf 2%. Grund hierfür ist die immer noch andauernde Immobilienkrise. Deshalb ist es kaum verwunderlich, dass die Spekulanten den schwachen US-Dollar jetzt nach 2003 wieder als Shortposition in ihre Carry-Trade-Strategien einfließen lassen. Die Wechselkursentwicklung des US-Dollar spricht ebenfalls für eine Kreditaufnahme in USD. So verschlechterte sich der USD seit dem Jahr 2001 deutlich und fiel von seinem Höchststand von 0,8459 EUR/USD im Mai 2001 auf aktuell 1,5611 EUR/USD. Experten führen diesen andauernden Rückgang vor allem auf das seit Jahren bestehende Leistungsbilanz- und Haushaltsdefizit der US-Volkswirtschaft zurück. Darüberhinaus verliert der US-Dollar nicht nur gegenüber dem Euro, sondern büßt spätestens seit dem Ausbruch der Immobilienkrise im Sommer 2007 auch gegenüber den Hauptanlagenwährungen des Australischen- und Neuseeländischen Dollars kräftig ein. Prozentual fiel der US-Dollar seit Mitte August 2007 gegenüber dem Australischen Dollar um ca. 20% und gegenüber dem Neuseeländischen Dollar um ungefähr 10%. Eine Carry-Trade-Finanzierung mit dem USD hätte einem Spekulanten also in den letzten Monaten neben der Zinsdifferenz noch erhebliche Währungsgewinne beschert. Kapitel 2.2, Überblick über mögliche Anlagewährungen: Kapitel 2.2.1, Der Euro: Der Euro gehört als Anlagewährung eher zu den konservativen Alternativen. Er dient vielen Europäern als sichere Anlage. Der Vorteil liegt auf der Hand, für den Europäer gibt es bei einer Anlage im Euro nur ein einseitiges Wechselkursrisiko, nämlich auf der Kreditseite. Hierfür muss man aber auch geringere Zinseinkünfte als in anderen Währungsräumen in Kauf nehmen. Der aktuelle Leitzinssatz liegt im Euroland bei 4%. Kurzfristig stieg der Euro im Jahr 2001 sogar mal auf die Marke von 4,75%, siedelte sich dann aber stets unter dieser Marke an. Bis Mitte des Jahres 2003 fiel die Euro Hauptfinanzierungsrate dann bis auf 2%. Diese Marke hielt sich dann immerhin ganze 1,5 Jahre, was einige Spekulanten natürlich auf den Plan brachte den Euro als sichere Verschuldungsalternative für den Carry-Trade zu nutzen. Einige Experten rechneten schon damit, dass der Euro den Yen als Hauptverschuldungswährung komplett ablöst. So schrieb Champeau 2005: Has the Euro-Carry-Trade startetet? Hierbei bezog er sich auf das Morgan Stanley Global Economic Forum 2005, in dem Ökonomen sogar davon ausgingen, dass die EZB, aufgrund der damaligen Zinserhöhungen in den USA, ihre Leitzinsen auf längere Sicht auf diesem niedrigen Niveau lässt und damit der Euro-Carry-Trade immer beliebter würde. Nach dem Yen-Carry-Trade und dem US-Dollar-Carry-Trade in den Jahren 2003 und 2004, sollte jetzt der Euro als Verschuldungswährung übernehmen. In diesem Fall prognostizierte man ebenfalls eine klare Abwertung des Euro gegenüber den Hochzinsländern, vergleichbar mit Japan und den USA während der Niedrigzinsphase. Diese Prognosen hatten allerdings nur kurzfristig bestand, denn ab Ende des Jahres 2005 erhöhte die EZB wider erwarten ihre Leitzinsen stetig bis auf den Wert von 4%. Dieser Wert hält sich nun seit Juni 2007, auch trotz Immobilienkrise konstant. Somit ist der Euro zurzeit für den Europäer eine gute Anlagewährung, der Zinsvorteil ist zwar nicht so hoch, aber durch das geringere Wechselkursrisiko ist der Euro im Moment sehr attraktiv. Für die restlichen Anleger ist der Euro aber, wenn, nur im Zusammenhang mit dem Yen interessant, da sonst der Zinsspread im Vergleich zum übernommenen Risiko zu gering ist. Gegenüber dem Yen hat der Euro schon seit Jahren eine Aufwertungstendenz, die sich für den Investor positiv auswirken würde. Kapitel 2.2.2, Der Australische Dollar der Neuseeländische Dollar: In der Gruppe der G10 Währungen sind der Australische und der Neuseeländische Dollar auf der Anlagenseite wohl momentan am beliebtesten. Gründe hierfür sind in erster Linie die jeweiligen Leitzinssätze. So notiert der Australische Dollar zurzeit bei 7,25% und der Neuseeländische Dollar sogar bei 8,25%. Traditionell sind die Zinssätze beider Länder in den letzten Jahren immer höher angesiedelt als die Zinssätze im Euroraum oder den USA. In den letzten 10 Jahren senkten die beiden Zentralbanken die Leitzinsen niemals unter 4%. Da verwundert es nicht, dass schätzungsweise fast ein Drittel der Longpositionen im weltweiten Carry-Trade-Handel im Australischen Dollar vermutet werden. Wie in Abschnitt 2.1.3 bereits beschrieben haben beide Währungen auch deutliche Aufwertungstendenzen, was neben der Zinsdifferenz einen großen Währungsgewinn generiert. Wenn man einen Vergleich mit dem Yen zieht, dann gewann der Kurs des AUD seit dem Jahr 2001 gegenüber dem JPY 92% an Wert und der NZD sogar 131%. Dies macht nun erneut deutlich, dass es trotz hoher Zinsen trotzdem zu einer Aufwertung der Währung kommen kann, obwohl die Fundamentaldaten eigentlich dagegen sprechen. Dieses Phänomen wurde ja schon in umgekehrter Situation im Zusammenhang mit dem JPY und dem CHF betrachtet. Prozentual gesehen ergäbe sich aus einer Carry-Trade-Strategie mit AUD und NZD auf der Longposition und dem Yen in der Shortposition, inklusive Zinsdifferenz und Währungsgewinn, eine durchschnittliche Rendite von 12,5% p.a. bei einer Währungskombination von AUD/JPY und sogar eine 15%ige Rendite pro Jahr bei einer Kombination aus NZD/JPY. (Der Betrachtungszeitraum wurde ebenfalls ab 2001 gewählt.) Somit erfüllen beide Währungen die optimalen Voraussetzungen für das Gelingen einer Zinsdifferenzstrategie.
(Schlagworte: 19. Jahrhundert, Landwirtschaft, landwirtschaftliche Produktion, landwirtschaftliche Revolution, Agrarrevolution, landwirtschaftliche Statistik, Anbau- und Erntestatistik, Nutztierhaltung, Westfalen, Preußische Provinz Westfalen, Primärsektor)
Einleitende Bemerkungen Das von 2001 bis 2005 von der DFG geförderte Projekt 'Preußische Agrarstatistik, Provinz Westfalen' wurde unter der Leitung von Prof. Dr. Wolfram Fischer und Prof. Dr. Heinrich Volkmann durchgeführt. Bearbeiter des am Institut für Wirtschaftspolitik und Wirtschaftsgeschichte der Freien Universität Berlin angesiedelten Projektes war Dr. Meinolf Nitsch, der den größten Teil der Daten erhoben und in tabellarischer Form aufbereitet hat. Frau Dr. Rita Gudermann hat schließlich das Projekt zu Ende geführt, da Herr Dr. Nitsch aufgrund einer Erkrankung nicht weiter an der Bearbeitung teilnehmen konnte. Der Band war ursprünglich für die Reihe "Quellen und Forschungen zur Historischen Statistik" (Hrsg.: Wolfram Fischer, Franz Irsiegler, Karl Heinrich Kaufhold und Hugo Ott) vorgesehen und ist daher in seiner Struktur und seinem Gehalt an den Bänden dieser Reihe angepaßt. Er erscheint aufgrund der Unterstützung des LWL-Instituts für westfälische Regionalgeschichte in Münster außerhalb der Reihe.
Gegenstand der Studie Im Zusammenhang mit den tiefgreifenden Veränderungen in der landwirtschaftlichen Produktion (neue Kulturpflanzen und Tierrassen, größere Anbauflächen, andere Anbaumethoden, Produktion für den Markt) durchlief die deutsche Landwirtschaft im 19. Jahrhundert eine starke Steigerung ihrer Produktivität. Um Fragen der Wirtschafts- und Sozialgeschichte des agrarischen Sektors beantworten zu können, wird eine verlässliche Datenbasis benötigt. Mit der vorliegenden Agrarstatistik Westfalens für das 18. Und 19. Jahrhundert wird ein umfassendes statistisches Grundlagenwerk für die Forschung zur Verfügung gestellt. "Es enthält bisher überwiegend unveröffentlichtes Zahlenmaterial auf der Ebene einzelner weltlicher und geistlicher Herrschaften und ihrer Verwaltungseinheiten vor 1815 sowie der preußischen Provinz Westfalen mir ihren Regierungsbezirken und Kreisen. Aufgenommen wurden Zahlen zu den landwirtschaftlichen Betrieben und zur in diesen Betrieben tätigen Bevölkerung, zur Bodennutzung, zur Anbau- und Erntestatistik, zur Viehhaltung sowie zu Löhnen und Preisen. Nützliche quantitative Informationen, die diesen Gruppen nicht zuzuordnen waren, wurden in einem Anhang zusammengestellt. … Die Kriterien der Bearbeitung (des statistischen Materials) lehnen sich an das von 1981 bis 2005 von der DFG geförderten Schwerpunktprogramm 'Historische Statistik' an. Damit die Daten einem großen Nutzerkreis für verschiedene Forschungsaufgaben zur Verfügung stehen können, wurden sie so quellennah wie möglich belassen. (Es wurden keine Schätzungen für fehlende Werte vorgenommen.)" Nitsch, Gudermann (2009),S. 2. Trotz der durch die Quellensituation bedingten Lücken sowie regionalen und thematischen ungleich dokumentierten landwirtschaftlichen Verhältnisse liegt ein statistisches Kompendium mit Material aus der Zeit der beginnenden amtlichen Statistik vor, das der weiteren Forschung nach den Auswirkungen der Agrarrevolution auf Besitzverhältnisse, Sozialstruktur und Produktivität dienlich ist. Durch Langzeitvergleiche lassen sich wirtschaftliche und soziale Auswirkungen der Agrarreformen analysieren und es kann festgestellt werden, inwiefern landwirtschaftliche Intensivierungen und Marktintegration bereits schon vor den Agrarreformen stattgefunden haben.
Zeit und Ort der Untersuchung: Untersuchungszeitraum ist die Periode vom Ende des 18. Jahrhunderts bis 1889, in der sich der Umbruch von der feudalen, ständisch geprägten Landwirtschaft zur industriellen Produktionsweise vollzog. Anfangs- und Endpunkt der Untersuchung wurden zudem durch die Quellensituation vorgegeben, da außer den Preisreihen zu Grundnahrungsmitteln eine breitere quantitative Überlieferung zur Landwirtschaft erst im letzten Drittel des 18. Jahrhunderts verfügbar ist. Daher deckt sich der Untersuchungszeitraum mit der Periode der beginnenden und sich konsolidierenden amtlichen Statistik, für die schließlich in der zweiten Hälfte des 19. Jahrhunderts Methoden der systematischen Erhebung, Bearbeitung und Publikation der quantitativ erhebbaren Verhältnisse in der Landwirtschaft herausgearbeitet und angewendet wurden.
Geografische Beschreibung des Untersuchungsraumes: Der Raum Westfalen umfasst ca. 30000 Quadtratkilometer und ist durch vier große Naturlandschaften geprägt: der nördliche Teil der Provinz mit dem westfälischen Tiefland, die westfälische Bucht mit dem Münsterland, das Weserbergland, und schließlich das Südergebirge in der südlichen Spitze Westfalens. Während der nördliche Zipfel der Provinz Westfalen eine vom Meeresklima bestimmte Geest-Landschaft mit sandigen aber auch undurchlässigen Böden, so dass es auch zur Bildung von Mooren kam. Die westfälische Bucht mit dem Münsterland ist geprägt durch zum Teil lehmige Sande im Westen und Nordosten sowie fruchtbaren Lössboden im Süden (z.B. Emscherland). Schwere, undurchlässige Kleiböden finden sich im Kernmünsterland. Das Weserbergland ist eine Hügellandschaft mit fruchtbaren Mulden, so dass eine Vielfalt von Kleinlandschaften entstehen konnte. Die Böden sind kalkhaltig. Das Südergebirge setzt sich zusammen aus dem Siegerland und verschiedenen Teilen des Sauerlands. Die Höhenzüge erreichen eine durchschnittliche Höhe von 400 Metern, im Hochsauerland von über 800 Metern und wechseln mit tief eingesunkenen Flusstälern. Kalkarme Lehm- und Sandböden herrschen vor. Die Bodenformen und der Mangel an großen schiffbaren Flüssen waren ausschlaggebend für die Lage Westfalens im Verkehrssystem: Die vom großen Frankfurter Verkehrsfeld ausgehenden Handelswege führten an den westfälischen Gebirgen vorbei zu den holländischen und deutschen Küsten. Stattdessen entwickelte sich ein starker Binnenverkehr in west-östlicher Richtung (Rheine-Osnabrück-Minden und Essen-Dortmund-Soest-Paderborn) sowie zwischen der flämisch-holländischen Küste und dem östlichen Westfalen. Bedeutende Städte entstanden entlang dieser Verkehrsachsen. Entsprechend den naturräumlichen Verhältnissen bildeten sich sehr unterschiedliche Wirtschaftsregionen aus, in denen neben landwirtschaftlich geprägten Regionen sich auch Gewerbegebiete herausbildeten. Erst in der zweiten Hälfte des 19. Jahrhunderts führte die Industrialisierung und Verstädterung zu einem starken Anwachsen der Ruhrgebietsregion.
Politische Beschreibung des Untersuchungsraumes: Die politischen Grenzen des Raumes Westfahlen haben sich häufig geändert. Bis Ende des 18. Jahrhunderts ist das Gebiet durch eine starke territoriale Zersplitterung gekennzeichnet. Um 1800 liegt noch eine Vielfalt geistlicher und weltlicher Herrschaftsgebiete vor. Entsprechend groß war die Vielfalt rechtlicher Strukturen. Etwa zwei Drittel der Fläche nahmen die geistlichen Territorien mit bis zu 90% katholischer Bevölkerung ein, unter denen wiederum die Fürstentümer Münster und Paderborn sowie das Herzogtum Westfalen und das Vest Recklinghausen die größten waren. Zu Preußen gehörten dagegen die mehrheitlich protestantischen Gebiete (Fürstentum Minden, Grafschaften Ravensgburg, Lingen, Tecklenburg und Mark). Bei den übrigen Territorien handelte es sich um Kleinstaaten. Nach den Befreiungskriegen von der französischen Herrschaft gewann Preußen zu seinem westfälischen Besitz den größten Teil des übrigen Kulturraumes Westfalens dazu und es wurde die Provinz Westfalen gebildet (1815). Preußen integrierte die unterschiedlichen Verwaltungssysteme der hinzugekommenen Gebiete in ein einheitliches Verwaltungssystem, wobei die Statistik als Hilfswissenschaft einen wichtigen Beitrag leistete. Preußen gliederte die Provinz in drei Regierungsbezirke (Münster, Minden, Arnsberg). Die Regierungsbezirke wurden wiederum in 34 Kreise unterteilt. Damit war eine konsequente staatliche Verwaltungseinheit eingeführt worden. Von 1832 bis 1967 blieben die Kreise konstant, was für statistische Vergleiche von Bedeutung ist.
Quellenproblematik: Sieht man von den weiter zurückreichenden Preisreihen für Grundnahrungsmitteln - vor allem für Getreide - ab, setzt eine breitere quantitative Überlieferung zur landwirtschaftlichen Bevölkerung, zu ihren Eigentumsverhältnissen und ihrer Landausstattung erst im letzten Drittel des 18. Jahrhunderts ein. Quantitative Angaben zur Entwicklung der Landwirtschaft von sehr unterschiedlicher Qualität finden sich verstreut in Publikationen und Archivalien verschiedenster Herkunft. Seit Ende des 18. Jahrhunderts wurden in zunehmend größerer Zahl in Preußen statistisch-topographische Beschreibungen der Kreise und Regierungsbezirke angefertigt. Allerdings kann das in diesen Beschreibungen verstreute Zahlenmaterial nur selten für eine fundierte statistische Analyse herangezogen werden. Die statistischen Angaben lassen sich nur eingeschränkt vergleichen. Nicht nur sind die Beschreibungen von sehr unterschiedlicher Qualität, es liegen ihnen oft unterschiedliche Stichjahre, Maße und Gewichte zugrunde. Daher wurden diese Berichte nur zum Teil in das vorliegende statistische Kompendium mit einbezogen, sofern es sich um zusammenfassende Darstellungen handelte. Herausgegebene Zeitschriften, wie z.B. das 'Westphälische Magazin zur Geographie, Historie und Statistik', die 'Mittheilungen des Statistischen Bureaus' in Berlin, oder die 'Tabellen und amtlichen Nachrichten über den Preußischen Staat', publizierten in den regelmäßig erschienenen Ausgaben statistisches Material zur Land- und Forstwirtschaft, wodurch diese Periodika zu einer bedeutende Quelle für die vorliegenden Arbeit wurden. Wichtige Quellenbestände für die Zeit vor der Gründung des Statistischen Büros in Berlin konnten die Primärforscher in den Archiven ausfindig machen. Es handelt sich hierbei um die Akten der Ministerien für Landwirtschaft und Finanzen sowie der preußischen Ober- und Regierungspräsidien, die zum größten Teil im Geheimen Staatsarchiv in Berlin und im westfälischen Staatsarchiv in Münster liegen. In den 1870er und 1880er Jahren finden die reichseinheitlich strukturierten landwirtschaftlichen Berufs- und Betriebszählungen statt und liefern vergleichbares, einheitlich erfaßtes statistisches Material.
Hauptaufgabe der Bearbeiter der vorliegenden Studie war es, das verstreute statistische Material aus den unterschiedlichen Quellen der geistlichen und weltlichen Grundbesitzer und ihrer Verwaltungseinheiten, der erfaßten amtlichen Daten durch die Regierungsbezirke und die Provinz sowie aus den Berufs- und Betriebszählungen zusammenzutragen, auf Zuverlässigkeit zu prüfen und auszuwählen und das brauchbare statistische Material in eine benutzerfreundliche Form zu bringen. Ein vollständiges, die Region, die Zeit und die Sachgebiete abdeckendes Kompendium konnte jedoch dabei nicht entstehen. Lange zusammenhängende Reihen sind selten. Auch thematische und regionale Ungleichgewichte konnten nicht vermieden werden.
Die Hauptschwierigkeit in der Zusammenstellung des verstreuten und überwiegend inkongruenten statistischen Quellenmaterials entstand durch die unterschiedlichen Erhebungsmethoden, die den Vergleich zwischen den verschiedenen Berichtsjahren sowie zwischen den Regionen erschwerten. "Gerade die großen Disparitäten des Zahlenmaterials sind es schließlich gewesen, die eine erfolgreiche Bearbeitung und Zusammenstellung der deutschen Agrarstatistik bisher verhindert haben. So differieren Erhebungszeitpunkte und –orte, Maße und Gewichte sowie die den Erhebungen zugrundeliegenden Definitionen und Verfahrensweisen. Hinzu kommen Verschiebungen der administrativen Grenzen sowie die Probleme der bei den ländlichen Betrieben dieser Zeit so gut wie immer fehlenden Buchführung. Deshalb beruht ein großer Teil der älteren Daten auf Schätzungen." Nitsch, Gudermann, 2009, S. 15. Im Laufe der Erhebungen wurden die Erfassungsmethoden anspruchsvoller und entwickelten sich vom schlichten Zählen hin zu zuverlässigen Katasteraufnahmen mit Bonitierung der Böden (=Einteilung der Böden in Klassen der Beschaffenheit und Ertragsfähigkeit) sowie der regelmäßigen Erhebung von Anbau und Ertrag. Mit dem Ziel übersichtliche Tabellen mit vergleichbarem Zahlenmaterial zu schaffen, sind die Angaben vereinheitlicht bzw. auf moderne Maße und Gewichte umgerechnet worden. "Der Akribie von Meinolf Nitsch ist es zu verdanken, dass den Zeitgenossen eine Reihe von Rechenfehlern nachgewiesen werden konnten, … . Wo sie offensichtlich waren, wurden sie für die vorliegende Publikation stillschweigend korrigiert. Auf schwerwiegendere Abweichungen wird in den Anmerkungen hingewiesen. Leider ließen sich jedoch nicht alle Unstimmigkeiten … korrigieren. " S. 15
Der Datenteil der Studie gliedert sich in die folgenden Bereiche auf:
Erhoben wurden statistische Daten zu folgenden Bereichen: - die Sozial- und Betriebsgrößenstruktur, - das Kulturartenverhältnis, also das Verhältnis der Äcker, Wiesen, Weiden, Öd- und Unland zueinander, - die Anbau- und Erntestatistk, - die Viehbestandsstatistik, - die Löhne und Preise und schließlich - Börsenkurse für Agrarprodukte in Minden, Münster, Paderborn und Dortmund.
Für HISTAT sind die Statistiken, die als Zeitreihen vorliegen, aufbereitet worden und unter dem Thema 'Produktion: Land- und Forstwirtschaft' für den Download bereitgestellt. Die Daten sind wie folgt untergliedert:
A. Sozialstruktur und Betriebsgrößenstruktur
A.1 Fläche und Bevölkerung der Kreise der Provinz Westfalen 1818-1871 A.2 Bevölkerung des Fürstentums Minden 1722-1792 A.3 Anzahl der Hufen, Dörfer, Feuerstellen, Ziegeleien und Teeröfen in den Kreisen der Grafschaft Minden 1795-1801 A.4 Betriebsgrößenstruktur (Zahl der Betriebe und Flächen) nach Regierungsbezirken für 1849, 1852, 1855, 1858.
B. Kulturverhältnisse
B.1 Prozentuales Verhältnis der Kulturarten in der Provinz Westfalen 1815-1883 B.2 Entwicklung der Bodennutzung in der Provinz Westfalen in Prozent seiner Gesamtfläche, 1815, 1849, 1864, 1913. B.3 Anbau der Kulturpflanzen in der Provinz Westfalen in Prozent der Ackerfläche, 1815, 1883, 1893, 1913.
C. Anbau- und Erntestatistik, Viehbestand
C.1 Aussaat und Ernteerträge
C.1.1 Aussaatmengen in den Kreisen der Grafschaft Mark, 1795, 1796, 1797, 1799, 1800, 1801, 1804. C. 1.2 Fruchterträge in den Regierungsbezirken der Provinz Westfalen als Abweichung von einer = 100 gesetzten "Mittelwerternte", 1846-1873. C. 1.3 Fruchterträge der Provinz Westfalen insgesamt als Abweichung von einer = 100 gesetzten "Mittelwerternte", 1868-1877. C. 1.4 Stroherträge in der Provinz Westfalen als Abweichung von einer = 100 gesetzten "Mittelwerternte", 1850-1860. C. 1.5 Fruchtgewicht in den Regierungsbezirken der Provinz Westfalen, 1848-1858. C. 1.6 Fruchtertrag in den Regierungsbezirken der Provinz Westfalen, 1865-1872. C. 1.7 Strohertrag in den Regierungsbezirken der Provinz Westfalen, 1865-1872. C. 1.8 Gesamtertrag der landwirtschaftlichen Produktion in den Regierungsbezirken der Provinz Westfalen, 1878-1903. C. 1.9 Hektarerträge der landwirtschaftlichen Produktion in den Regierungsbezirken der Provinz Westfalen, 1878-1903. C. 1.10 Ernteerträge in den Kreisen des Regierungsbezirks Minden, 1878-1882. C. 1.11 Ernteerträge in den Kreisen des Regierungsbezirks Münster, 1878-1882. C. 1.12 Ernteerträge in den Kreisen des Regierungsbezirks Arnsberg, 1878-1882.
C.2 Viehbestand
C.2.1 Anzahl der Schafte sowie Wollproduktion in den Kreisen der Grafschaft Mark, 1730-1786. C.2.2 Viehbestand in den Kreisen der Grafschaft Mark, 1756-1786. C.2.3.1 Anzahl der Schafe in den Ämtern und Städten des Fürstentums Minden und der Grafschaft Ravensberg, 1786-1798. C.2.3.2 Wollproduktion in den Ämtern und Städten des Fürstentums Minden und der Grafschaft Ravensberg, 1786-1798. C.2.4 Anzahl der Schafe und Wollproduktion in den Kreisen der Grafschaft Mark, 1788-1799. C.2.5 Viehbestand in den Kreisen der Grafschaft Mark, 1795-1804. C.2.6 Viehbestand in den Kreisen des Regierungsbezirks Münster, 1816-1825. C.2.7 Viehbestand in den Kreisen der Provinz Westfalen, 1828-1883. C.2.8 Durchschnittsgewicht des Schlachtviehs in Preußen und im Deutschen Reich, 1809-1905.
D. Löhne und Preise
D.1 Löhne
D.1.1 Tagelohnsätze für Waldarbeiter in den preußischen Staatsforsten der Provinz Westfalen, 1800-1879. D.1.2 Ländliche Tagelöhne in Zehnjahresdurchschnitten, umgerechnet in Roggenwerte, in den Regierungsbezirken Minden, Münster und Arnsberg, 1811-1850.
D.2 Preise
D.2.1 Jahresdurchschnittspreise
D.2.1.1 Martini-Marktpreise für Getreide in Münster pro Münsterische Malter, 1811-1850. D. 2.1.2 Kornpreise im Fürstentum Minden und in der Grafschaft Ravensberg, 1638-1747. D. 2.1.3 Martini-Marktpreise für Roggen in Minden-Ravensburg und im Paderborner Land, 1765-1850. D. 2.1.4 Marktpreise für Getreide auf dem Kornmarkt Witten/Ruhr, 1692-1794.
D. 2.1.5 Marktpreise für Getreide auf dem Kornmarkt Witten/Ruhr, 1806-1883. D. 2.1.6 Jahresdurchschnittspreise von Agrarprodukten in Münster, Minden, Paderborn und Dortmund, 1816-1871.
D.2.2 Monatspreise
D.02.02.01 bis D.02.02.14 Monatspreise von Agrarprodukten je Regierungsbezirk und nach Regierungsbezirken und Kreisen (1819-1834) [insgesamt 14 Tabellen]
D.02.02.15 bis D.02.02.22 Monatspreise von Agrarprodukten als Durchschnittspreise der Märkte in den verschiedenen Städten (1866-1872) [insgesamt 8 Tabellen]
D.02.02.23 bis D.02.02.26 Börsenkurse für landwirtschaftliche Produkte in Münster, Minden, Paderborn und Dortmund(1876-1880). [insgesamt 3 Tabellen]
Die Inhalte der verlinkten Blogs und Blog Beiträge unterliegen in vielen Fällen keiner redaktionellen Kontrolle.
Warnung zur Verfügbarkeit
Eine dauerhafte Verfügbarkeit ist nicht garantiert und liegt vollumfänglich in den Händen der Blogbetreiber:innen. Bitte erstellen Sie sich selbständig eine Kopie falls Sie einen Blog Beitrag zitieren möchten.
Die Lehrerbildung befindet sich inmitten des größten Umbruchs seit vielen Jahren. Aber schaffen es die Kultusminister, ihren Reformen eine stimmige und gemeinsame Richtung zu geben? Die Ständige Wissenschaftliche Kommission der KMK präsentiert dazu ihr lange erwartetes Gutachten.
Foto: Katerina Holmes, Pexels.
LANGE GEPLANT kommt das Gutachten jetzt mit einer Aktualität, die man sich gar nicht hat wünschen können: Drei Tage nach Bekanntgabe der historisch schlechten deutschen PISA-Ergebnisse veröffentlichte das wichtigste wissenschaftliche Beratungsgremium der Kultusministerkonferenz (KMK) am Freitagmittag seine Empfehlungen "zur Lehrkräftegewinnung und Lehrkräftebildung für einen hochwertigen Unterricht". Zuvor hatten die 16 Experten der Ständigen Wissenschaftlichen hin Kommission (SWK) ihr Gutachten in vertraulicher Runde den Kultusministern vorgestellt.
Die Vorschläge der SWK kommen auf den ersten Blick teilweise wenig radikal daher, doch würde ihre Umsetzung die Schulen in Deutschland nachhaltig verändern – und die KMK gleich mit.
Insgesamt elf Empfehlungen umfasst das Gutachten, sortiert nach vier Kapiteln. Mit die wichtigste Forderung: Es muss endlich eine vernünftige Datenbasis her. Denn bislang ist die KMK noch jedesmal von der Entwicklung der bundesweiten Schülerzahlen überrascht worden, auch hat sie die Änderungen der bildungspolitischen Rahmenbedingungen (etwa den Ausbau von Inklusion oder Ganztagsschule) nie ausreichend in ihren Modellierungen abgebildet. Im Gegensatz etwa zu den Prognosen, die der Essener Bildungsforscher Klaus Klemm im Auftrag der Bertelsmann-Stiftung erstellt hat und die fast immer näher an den tatsächlichen Lehrerbedarf herankamen.
"Sonst kommen wir nie zu einer verlässlichen Prognose"
Warum? Lange hatte die KMK ihrer Modellrechnungen zu selten aktualisiert, das immerhin hat sie inzwischen abgestellt und sammelt die Rückmeldungen der Bundesländer in jährlichem Abstand (allerdings ist aktuelle Veröffentlichung weit überfällig). Doch ändert dies laut Olaf Köller, dem Ko-Vorsitzenden der SWK, nichts daran, dass die Grundlage der KMK-Berechnungen, die Länderzumeldungen, nicht so recht zusammenpassen. "Es fehlt die Transparenz über in die Annahmen, die die Länder jeweils ihren Prognosen zugrundelegen", sagt Köller, im Hauptberuf Direktor des IPN Leibniz-Instituts für die Pädagogik der Naturwissenschaften und der Mathematik. "Darum müssen die Daten künftig systematisch und vergleichbar in allen Ländern erhoben werden, unter Berücksichtigung des tatsächlichen Bedarfs, und alle Länder müssen etwaige Datenlücken schließen, sonst kommen wir nie zu einer verlässlichen Prognose."
Eine solche Systematik würde freilich eine andere KMK voraussetzen: eine, die in der Lage ist, die für eine Vergleichbarkeit nötigen Datendefinitionen herzustellen und, in Form ihrer Verwaltung, des KMK-Sekretariats, dann selbstbewusst von den Ländern die nötige Datenqualität einzufordern. Was, nebenbei gesagt, nur beschleunigen würde, was die Kultusminister bei ihrem Treffen in Berlin ohnehin, je nach Bundesland und Perspektive mehr oder weniger begeistert, diskutiert haben: die überfällige grundlegende Reform der KMK, ihrer Prozesse und Verfasstheit.
Zweites großes Thema des SWK-Gutachtens: den Ausbildungserfolg der Lehramtsstudierenden erhöhen. Auch hier, das zeigte zuletzt eine Analyse des Stifterverbandes eindrucksvoll, handelt es sich zu einem guten Teil um ein Datenproblem. Viele lehrerbildende Universitäten können nämlich gar nicht sagen, wie viele ihrer Lehramt-Studienanfänger bis zum Abschluss kommen – geschweige denn, warum sie zu welchem Zeitpunkt entscheiden, doch nicht Lehrer zu werden. Von einer "großen Forschungs- und Datenlücke", die es zu füllen gelte, sprach im Sommer der Stifterverband, "denn nur auf Basis belastbarer Befunde können bildungspolitische Maßnahmen ergriffen werden, die letztendlich einen Bildungsnotstand verhindern."
Genau diese Datenlücke will die SWK schließen und fordert, die Studierbarkeit der Lehramtsstudiengänge müsse "datengestützt" verbessert werden, zudem müsse die soziale und akademische Integration in die Hochschulen gestärkt werden. Das entscheidende Mittel für beides: ein funktionierendes Qualitätsmanagement und verlässliche Abstimmungsstrukturen, die auch die erste Phase der Lehrerbildung, das Studium, mit der zweiten, dem Vorbereitungsdienst, verbinden. Beide Phasen laufen bislang oft nebeneinander, umso mehr gilt das für die dritte, die Fort- und Weiterbildung der bereits berufstätigen Lehrer.
Hoffnung Ein-Fach-Lehrer
Womit die SWK beim Kern ihrer Empfehlungen angekommen ist, der künftigen Gestaltung der Studiengänge, man könnte auch sagen: ihrer zumindest teilweisen Neugestaltung. Denn die Experten empfehlen, neben dem klassischen grundständigen Studium einen "wissenschaftsbasierten, qualifizierten zweiten Weg in den Lehrkraftberuf" zu eröffnen. Oder weniger verklausuliert formuliert: den seit einer Weile viel diskutierten Ein-Fach-Lehrer einzuführen. Genaus das hatte der Wissenschaftsrat im Sommer bereits im Sommer vorgeschlagen, allerdings nur bezogen aufs Mathematikstudium.
Das Modell der SWK ist schnell erklärt: Bewerber haben einen fachlichen Bachelor oder Master, beispielsweise in Germanistik. Dann starten sie in einen viersemestrigen Master of Education, der ihnen das gesamte pädagogische Rüstzeug mitgibt, um Lehrer zu werden: die Fachdidaktik, die Bildungswissenschaften, dazu die Praktika und einen Spezialisierungsbereich wie Digitalisierung, Inklusion, Sprachbildung oder Berufsorientierung. Nach diesem Master folgt der Übergang in ein reguläres Referendariat und anschließend die volle Lehrbefähigung – allerdings nur für ein Fach.
Berufsbegleitend soll es dann die Option geben, ein zweites Fach hinzuzustudieren – aber nicht verpflichtend. "Hier setzen wir auf die Motivation der Lehrkräfte", sagt die Berliner Professorin für Schulpädagogik, Felicitas Thiel, neben Köller Vorsitzende der SWK. Hier dürfte das Gutachten der Kommission größere Diskussionen auslösen: Andere Erziehungswissenschaftler warnen nämlich davor, dass Ein-Fach-Lehrer in den Schulen zu einseitig belastet würden, den Unterrichtsbedarf nicht ausreichend abbilden und die Stundenplanorganisation verkomplizieren könnten. Weshalb ihre Ausbildung, wenn man sie zulasse, mit der Verpflichtung einhergehen müsse, ein zweites Fach nachzuholen. Doch schon der Wissenschaftsrat hatte diese Gründe nicht als plausibel genug für eine verpflichtende Zweit-Fach-Weiterbildung erachtet.
In jedem Fall aber ist diese SWK-Empfehlung für die Schulwirklichkeit wohl die weitreichendste. Denn auch wenn es hier und da bereits gut funktionierende wissenschaftliche Aufbau-Masterprogramme gibt: Vielerorts besteht derzeit nur die Wahl zwischen dem traditionellen Lehramtsstudium und aus der Not geborenen Seiteneinsteiger-Programmen, die zwar flexibel sind, denen jedoch vielfach, wie nicht nur die SWK klagt, die Wissenschaftsbasierung fehlt. Würde es der KMK gelingen, einen Ein-Fach-Lehramt nach einheitlichen Maßstäben zu etablieren, wäre der Zugang zum Lehramtsstudium dauerhaft flexibler – auch über den aktuellen dramatischen Lehrkräfte-Mangel hinaus.
Absage an ein duales Lehramtsstudium
Für die Debatten unter den Kultusministern schon bei der Vorstellung des SWK-Gutachtens dürfte unterdessen gesorgt haben, dass die Experten einem anderen bei Bildungspolitik und lehrerbildenden Hochschulen in Mode gekommenen Reformvorhaben eine Absage erteilen: dem dualen Lehramtsstudium. "Wir können nicht verstehen, wo da eigentlich die Euphorie herkommt", sagt Felicitas Thiel. Schon außerhalb des Lehramts gelinge in dualen Studiengängen die Verschränkung von Theorie und Praxis nicht wirklich gut, hinzu komme: "Wer soll, wenn wir an manchen Schule nur noch zehn Prozent grundständig ausgebildete Lehrkräfte haben, noch nebenbei die aufwändige Begleitung dual Studierender übernehmen?"
Anders sieht das unter anderem der Wissenschaftsrat, der, schwer kritisiert unter anderem vom Deutschen Philologenverband, im Sommer seine Empfehlungen zur Zukunft des Matheunterrichts vorgelegt hatte, inklusive einem Plädoyer zur Entwicklung des dualen Studiums.
Ebenfalls keine Unterstützung von der SWK erhalten Überlegungen, komplette Lehramtsstudiengänge zumindest für die beruflichen Schulen auch an Hochschulen für angewandte Wissenschaften laufen zu lassen. "Es gibt bereits 34 Universitätsstandorte, die in der Lehrerbildung mit HAWs kooperieren", sagt SWK-Mitglied Isabell van Ackeren, Professorin für Bildungssystem- und Schulentwicklungsforschung an der Universität Duisburg-Essen, die an der Ausarbeitung des Gutachtens maßgeblich beteiligt war. Um ausreichend wissenschaftsbasiert und berufsfeldbezogen zu sein, sagt sie, würde die Abwicklung eines kompletten Lehramtsstudiums aber erhebliche zusätzliche personelle Ressourcen und organisationale Strukturen an den HAWs erfordern. "Das halten wir nicht für zielführend, weitere Kooperationen hingegen schon."
Wofür die SWK sich indes ausspricht: die Einführung sogenannter Assistenz-Lehrkräfte, die auf der Grundlage eines Bachelorabschlusses und einer Weiterqualifizierung an die Schulen kommen könnten. Ohne Berechtigung zum eigenständigen Unterricht, aber in Anbindung und zur Unterstützung an eine voll qualifizierte Lehrkraft. Eine Idee, die so ähnlich schon vor zwei Jahrzehnten mit der Einführung der Bologna-Studiengänge im Lehramt diskutiert wurde, sich aber nie hat durchsetzen können.
Zweite Chance für die Assistenz-Lehrkraft?
"Anders als damals gibt es jetzt aber ein funktionierendes Vorbild aus der Medizin, den Physician Assistent als zusätzliche Karriereoption für Pflegekräfte", sagte Felicitas Thiel. "Das hat macht uns optimistisch, dass wir es jetzt auch in der Lehrerbildung schaffen, in einem vielfältigeren System von Karrierewegen zu denken, mit unterschiedlichen Verantwortlichkeiten in der Schule, aber immer auf Augenhöhe." Eine Debatte darüber, so Thiel, sei überfällig – auch um klare Kriterien und Kompetenzen festzulegen.
Apropos klare Kriterien: Länder wie Brandenburg etablieren bereits neue, stark umtstrittene Lehrer-Laufbahnen auf Bachelorebene – allerdings dann mit vollständiger Lehrbefähigung. "Genau das wollen wir nicht", betont Thiel – wohl ahnend, dass die SWK-Vorschläge genau mit solchen Modellen in einen Topf geworfen werden könnten, etwa von den Lehrergewerkschaften.
Und sonst? Schlagen die SWK-Experten vor, den Vorbereitungsdienst einheitlich auf zwölf Monate zu verkürzen, allerdings nur unter Voraussetzung eines Gesamtkonzepts, das wie gefordert erste und zweite Phase und Berufseinstieg sowie Theorie und Praxis besser verknüpft, vor allem in Form eines über die Phasen hinweg kohärenten Curriculums, das außerdem Mentoren und Fachseminarleiter wissenschaftsbasiert qualifiziert und die Unterrichtsverpflichtung während Referendariat und Berufseinstieg möglichst gering hält.
Außerdem fordert die Kommission einen ländergemeinsamen Qualitätsrahmen für ein in sich stimmiges, qualitätsgesichertes Forbildungssystem, von dem die SWK das Bildungssystem trotz einer (theoretischen) Fortbildungsverpflichtung in allen Ländern weit entfernt sieht. Stichworte sind hier zertifizierte Module der wissenschaftlichen Weiterbildung etwa für ein weiteres Unterrichtsfach in Mangelfächern, für andere Unterrichtsbereiche, für eine sonderpädagogische Fachrichtung oder zur Nachqualifizierung für eine andere Schulform, außerdem der Ausbau von Master- und Promotionsstudiengänge etwa für Leitungspositionen und Koordinationsfunktionen.
Dicke Bretter, klare Ansagen
Dicke Bretter und klare Ansagen – in dem, was die SWK gut heißt, genauso aber, wovon sie abrät. Jetzt ist es an der Bildungspolitik. Im März wollen die Kultusminister ihren eigenen Aufschlag zur Zukunft der Lehrerbildung beschließen, auf der Grundlage des SWK-Gutachtens und weiteren Papieren wie den Empfehlungen des Wissenschaftsrats zum Mathestudium. Auch der Stifterverband hatte vor wenigen Wochen einen ambitionierten Reformkatalog vorgelegt.
Vieles von dem Vorgeschlagenen, werden die Kultusminister argumentieren, gebe es schon. Stimmt. Allerdings, und das ist der entscheidende Punkt der SWK-Experten, fehlt derzeit zweierlei in der deutschen Lehreraus- und weiterbildung: Stimmigkeit und Systematik. Beides will das neue Gutachten erreichen. Ob die KMK ihm folgen kann, selbst wenn die Kultusminister es wollten? So, wie sie im Augenblick ist, an vielen Stellen vermutlich nicht. Ein Grund mehr, sie zu reformieren.
Nachtrag am 08. Dezember, 12.45 Uhr:
Was die Kultusminister zum SWK-Gutachten sagen
Von einer "klaren Positionierung für hohe Qualitätsstandards in der Lehrkräftebildung", sprach KMK-Präsidentin Katharina Günther-Wünsch (CDU), im Hauptberuf Berliner Bildungssenatorin. "Die Kultusministerkonferenz wird sich eingehend mit den vorgeschlagenen Empfehlungen auseinandersetzen und entsprechende Maßnahmen formulieren." Zur Absage der SWK an ein duales Lehramtsstudium sagte Günther-Wünsch, der Begriff der Dualität sei ungünstig gewählt. Nichts desto trotz gebe es Debatten in den Bundesländern über die Verkürzung der Studiendauer und Verknüpfung der Praxisanteile, und man werde darüber nun mit der SWK weiterdiskutieren, vielleicht dann unter einer anderen Überschrift als "duales Studium".
Hamburgs Schulsenator Ties Rabe, der die SPD-Bildungspolitik in den Ländern koordiniert, sagte: "Die Idee, neben dem klassischen Lehramtsstudium einen zweiten Weg mit einem neuen Studiengang in den Lehrberuf zu eröffnen, erschließt ganz neue Chancen für Studierende." Die Verkürzung des Referendariats durch eine bessere Verzahnung von Studium und Praxis sollte sorgfältig geprüft werden.
Rabes Gegenüber auf CDU-Seite, Hessens Kultusminister Alexander Lorz, sagte, er begrüße insbesondere die Ansätze, "neue Personengruppen für den Beruf als Lehrkraft zu erschließen, ohne dabei den Qualitätsanspruch aus dem Blick zu verlieren". Die etablierte und qualitätsgesicherte grundständige Ausbildung unserer zukünftigen Lehrerinnen und Lehrer durch alternative Formen zu gefährden, lehnt die SWK ab. "Dem schließe ich mich an."
Kostenfreien Newsletter abonnieren
In eigener Sache: Blog-Finanzierung
Wie dieser Blog finanziell aufgestellt ist, warum er Ihre Unterstützung braucht – und welche Artikel im November am meisten gelesen wurden.
Die Inhalte der verlinkten Blogs und Blog Beiträge unterliegen in vielen Fällen keiner redaktionellen Kontrolle.
Warnung zur Verfügbarkeit
Eine dauerhafte Verfügbarkeit ist nicht garantiert und liegt vollumfänglich in den Händen der Blogbetreiber:innen. Bitte erstellen Sie sich selbständig eine Kopie falls Sie einen Blog Beitrag zitieren möchten.
Der SPD-Parteivorstand will die Bildungsausgaben massiv erhöhen, finanziert über zusätzliche Steuern. Die Parteivorsitzende Saskia Esken sagt, wie Bund, Länder und Kommunen auf ein gemeinsames Ziel eingeschworen werden sollen: den Kampf gegen die dramatische Bildungsungerechtigkeit.
Saskia Esken ist Softwareentwicklerin und war stellvertretende Vorsitzende des Landeselternbeirats Baden-Württemberg. Nach ihrem Einzug in den Bundestag 2013 engagierte sie sich in der Bildungs- und Digitalpolitik. 2019 wurde sie eine von zwei SPD-Bundesvorsitzenden. Foto: Anne Hufnagl.
Frau Esken, heute wird der SPD-Parteivorstand voraussichtlich den Leitantrag "Zusammen für ein starkes Deutschland" für den Bundesparteitag im Dezember beschließen. Wesentlicher Bestandteil ist ein "Deutschlandpakt Bildung". Wer soll da mit dem paktieren?
Mit dem "Deutschlandpakt Bildung" wollen wir erreichen, dass Bund, Länder und Kommunen sich zusammentun, um ihren gesamtstaatlichen Bildungsauftrag zu erfüllen. Die Lage der Bildung in Deutschland ist so herausragend schwierig geworden in den vergangenen 20 Jahren, die sozialen Schieflagen bei der Bildungsgerechtigkeit so groß, dass nur noch alle staatlichen Ebenen gemeinsam Veränderungen bewirken können. Die Zeit drängt, wir stehen vor einem großen demografischen Umbruch: Wenn meine Generation in Rente geht, kommt eine nach, die nur noch halb so groß ist. Woraus folgt, dass noch dringlicher wird, was ohnehin unsere Pflicht sein sollte: Wir müssen die Potenziale aller jungen Menschen vollständig entwickeln. Insofern ist der "Deutschlandpakt Bildung" eingebettet in eine größere Strategie zur Gestaltung der gesellschaftlichen Transformation, die wir dem SPD-Bundesparteitag vorschlagen wollen.
"Kooperationsgebot statt Kooperationsverbot", "ein echter Bildungsaufbruch", "gleiche Chancen für eine gute und zeitgemäße Bildung für alle Menschen", Ganztagsausbau, Verstetigung des Digitalpakts. Mit Verlaub: Vieles von dem, was in dem Leitantrag zum "Deutschlandpakt Bildung" vorkommt, stand so oder ähnlich schon im Ampel-Koalitionsvertrag von Ende November 2021. Hat der so wenig gebracht?
Der Koalitionsvertrag trägt eine starke sozialdemokratische Handschrift. Insofern steht viel Schlaues drin und wir haben auch einiges schon umgesetzt. Erst vor wenigen Wochen ist, leider mit wenig öffentlicher Wahrnehmung, das "Startchancen"-Programm zwischen Bund und Ländern geeint worden, das genau in die Richtung zielt, in die wir jetzt als SPD entschieden weitergehen wollen: Ganz gezielt die Bildung sozial benachteiligter Schülerinnen und Schüler zu fördern, weil wir nur auf diese Weise etwas erreichen können im Kampf gegen die große Bildungsungerechtigkeit. In der Ampel-Koalition müssen wir uns durch die finanziellen Limitierungen auf zehn Prozent der Schulen beschränken. Aber die Herausforderungen kennen diese Limits nicht: Ein Viertel der Grundschülerinnen und Grundschüler kann am Ende von Klasse vier nicht genügend gut lesen, schreiben, rechnen, zuhören. Ein Drittel der Neuntklässler verfehlt die Mindeststandards in Deutsch. 50.000 junge Menschen verlassen jedes Jahr die Schulen ohne Schulabschluss. Hier wird klar: Wenigstens die Hälfte aller Schulen braucht die Unterstützung, die wir jetzt nur jeder zehnten geben können.
"Mein Vorschlag mit dem Sondervermögen war das erste Ausrufezeichen"
Der "Deutschlandpakt Bildung" soll also ein aufgepumptes "Startchancen"-Programm werden?
Er soll viel breiter werden als das, aber in der Tat, der Pakt soll derselben Logik folgen: Die Ebenen tun sich zusammen, um ganz gezielt Benachteiligungen der Bildungschancen auszugleichen. Wir gehen stärker in die Breite und schärfen gleichzeitig den Fokus, weil die Bildungsforschung noch einmal deutlicher gezeigt hat, wo die Probleme liegen. Erstens: Es kommt auf den Anfang an, auf frühe Hilfen, frühkindliche Bildung und – wenn nötig - frühe Intervention. In der Grundschule dann die gezielte Förderung der Basiskompetenzen, die Unterstützung genau dort, wo sie zu Hause fehlt, aus den verschiedensten Gründen. Vielleicht weil beide Eltern Vollzeit arbeiten und, um über die Runden zu kommen, zusätzlich einen Minijob haben. Die können nicht nachmittags mit den Hausaufgaben helfen und auch keine Nachhilfe bezahlen. Deshalb müssen wir hier den Ganztag nutzen. Denn als Gesellschaft sind wir aber verantwortlich, dass alle Kinder das notwendige Rüstzeug für eine erfolgreiche Bildungsbiografie bekommen. Und zweitens kommt es auf den Abschluss an, denn ohne den gibt es keinen Anschluss. Damit möglichst alle Schülerinnen und Schüler einen Schulabschluss erhalten, der sie formal und inhaltlich dazu befähigt, eine Berufsausbildung aufzunehmen und fertigzumachen.
Für die "Startchancen" wollen Bund und Länder jeweils eine Milliarde Euro pro Jahr investieren. Sie haben bereits vor Monaten 100 Milliarden zusätzlich für ein Sondervermögen Bildung gefordert – auch das mit wenig Widerhall in der Öffentlichkeit. Ist die Idee mit dem Deutschlandpakt jetzt der nächste Anlauf?
Mein Vorschlag mit dem Sondervermögen war das erste Ausrufezeichen, und es hat einigen Widerhall gefunden, zu Beispiel bei der "Bildungswende", aber leider noch keine Umsetzung. Um es klar zu sagen: Bildung ist eines der zentralen Zukunftsthemen unserer Zeit und sollte es darum auch für uns in der Politik sein. Woraus folgt, dass wir der Bildung dasselbe finanzpolitische Gewicht einräumen sollten wie anderen priorisierten Politikfeldern. Mit unserem Antrag legen wir nach und sagen jetzt konkret, was wir tun wollen, woher wir das nötige Geld nehmen wollen und wie wir durch einen Pakt zwischen Bund, Ländern und Kommunen sicherstellen, dass wir die verabredeten Ziele auch verbindlich erreichen.
Und da ist das Zauberwort wiederum "Sondervermögen"?
Ob nun ein Sondervermögen oder ein anderes Finanzinstrument gut für unsere Ziele passt, wird man sehen. Hauptsache, wir treiben jedes Jahr wesentlich mehr Geld für Bildung auf und sorgen dafür, dass es verbindlich und zielgerichtet eingesetzt wird. Wichtig ist auch, dass wir das Projekt wissenschaftlich begleiten. Wir brauchen endlich eine durchgehende Dateninfrastruktur zur Bildung in Deutschland - die Forschung klagt zu Recht, dass uns oft die Grundlage fehlt, um genauer hinschauen zu können.
"Zehn Milliarden Euro zusätzlich pro Jahr, zumindest auf zehn Jahre"
Bitte mal konkret: Was meinen Sie konkret, wenn Sie von "wesentlich mehr Geld für Bildung" reden? Sind das besagte 100 Milliarden Euro, und über welchen Zeitraum?
Im "Startchancen"-Programm investieren Bund und Länder zwei Milliarden Euro zusätzlich für zehn Prozent der Schulen. Ich sage, dass wir mit dem "Deutschlandpakt Bildung" wenigstens die Hälfte der Schulen erreichen sollten. Insofern habe ich das Ziel, um die zehn Milliarden Euro zusätzlich pro Jahr zu generieren. Und so wie die "Startchancen" über zehn Jahre laufen sollen, sollten wir auch den Deutschlandpakt zumindest auf zehn Jahre anlegen. Das ist für die Politik, die normalerweise in Legislaturperioden denkt, schon nahe an der Dauerhaftigkeit. Perspektivisch, auch das steht im Leitantrag, wollen wir uns dem Ziel annähern, unbefristet sieben Prozent der Wirtschaftsleistung für Bildung auszugeben.
Laut Leitantrag wollen Sie das nötige Geld nicht etwa durch eine Umpriorisierung der heutigen Staatsausgaben erreichen, sondern durch eine höhere Einkommensteuer für Spitzenverdiener – und durch eine höhere Erbschafts- und Schenkungssteuer für Superreiche. Glauben Sie, das ist angesichts der politischen Mehrheitsverhältnisse durchsetzbar?
Vor allem ist es notwendig. Mit dem Vorschlag verfolgen wir ja zwei Ziele. Wir wollen mehr Geld für Bildung, wir wollen aber auch mehr Steuergerechtigkeit erreichen. Im Moment steht das System auf dem Kopf: Kleine und mittlere Erbschaften werden im Schnitt mit neun Prozent besteuert, während auf Erbschaften über 20 Millionen im Schnitt nur drei Prozent anfallen. Das ist grob ungerecht. Das müssen umdrehen. Wir machen das aber nicht aufkommensneutral, sondern so, dass mehr Steuereinahmen erzielt werden. Und wenn wir gleichzeitig über eine Einkommensteuerreform nur die extrem hohen Einkommen belasten, die mittleren aber entlasten, stärken wir auch dadurch die Gerechtigkeit – und generieren nochmal mehr Geld für Bildung.
Wie aber wollen Sie sicherstellen, dass dieses Geld dort auch ankommt? Es ist rechtlich unmöglich, Steuern mit Zweckbindung zu erheben.
Die Erbschafts- und Schenkungssteuer ist eine reine Ländersteuer, sie kommt also zu 100 Prozent den Ländern zugute. Aber natürlich haben Sie Recht: Wir können die Länder nicht zwingen, dass sie die Mehreinnahmen in die Bildung investieren. Der "Deutschlandpakt Bildung" zielt auf eine Vereinbarung von Bund und Ländern: Wenn der Bund einen Teil seiner höheren Steuereinnahmen aus der Einkommensteuer in den Deutschlandpakt investiert, erwarten wir von den Ländern das Commitment, ebenfalls einen Teil ihrer Mehreinnahmen in den gemeinsamen Topf für Bildung einbringen.
Bund und Länder zahlen also in den gemeinsamen Fonds ein, und dann, so sieht es der Leitantrag vor, entscheiden sie in einer gemeinsamen Kommission zusammen mit dem Kommunen, wofür es ausgegeben wird. Ein schönes Gedankenexperiment. Aber realistisch?
Natürlich ist es wichtig, dass die Kommission sich ihre demokratische Legitimation holt, indem sie über die Mittelverwendung einmal im Jahr Rechenschaft ablegt gegenüber den Parlamenten, bei denen das Budgetrecht liegt. Das wollen und können wir ihnen nicht aus der Hand nehmen. Aber wir können, so wie es beim "Startchancen"-Programm geschieht, auf der Grundlage der Kommissionsarbeit Bund-Länder-Vereinbarungen abschließen, die dafür sorgen, dass die Mittel aus dem Deutschlandpakt entsprechend den tatsächlichen Bedürfnissen zielgerichtet dort ankommen, wo sie gebraucht werden. Jeweils mit Zustimmung der Parlamente, versteht sich. Wichtig ist, dass wir am Ende der Tatsache Rechnung tragen, dass der Anteil sozial benachteiligter Schülerinnen und Schüler gerade in solchen Bundesländern besonders hoch ist, deren Finanzkraft eher gering ist.
"Es geht nicht nur um mehr Gerechtigkeit für die Kinder und Jugendlichen. Es geht auch um die Zukunft unserer Volkswirtschaft und unseres Wohlstands."
Mehr Geld an Bremer Schulen und weniger nach Bayern und Baden-Württemberg? Sind die "Startchancen" dann wirklich ein gutes Vorbild? Die Länder haben mit Ach und Krach einen Kompromiss erreicht, der darin besteht, dass der Großteil der Gelder doch wieder per Gießkanne verteilt wird.
Ich baue weiter auf die Kraft des Arguments. Denn es geht nicht nur darum, mehr Gerechtigkeit für die Kinder und Jugendlichen zu erreichen. Es geht auch um die Zukunft unserer Volkswirtschaft und unseres Wohlstands. Unsere Gesellschaft wird immer diverser, und wir brauchen die Zuwanderung ja auch, um unsere Wirtschaft und unsere Gesellschaft in Zeiten der Demografie am Laufen zu halten. Umso mehr brauchen wir dann aber auch ein Bildungssystem, das jeden und jede Einzelne in die Lage versetzt, das nutzen zu können, was in ihnen steckt. Deutschland hat keine Bodenschätze – unsere Ressource sind unsere klugen Köpfe. Und in die müssen wir investieren. Ich bin zuversichtlich, dass am Ende genau diese Argumente wirken werden.
Vielleicht sind die Länder leichter zu überzeugen, wenn dank des 100-Milliarden-Fonds auch die Zukunft des Digitalpakts gesichert wird? In den vergangenen Monaten hatten viele Länder die Befürchtung, für den Bund könnte es zwischen "Startchancen" oder Digitalpakt-Fortsetzung auf ein Entweder – Oder hinauslaufen.
Ich bin zuversichtlich, dass uns beim Digitalpakt eine Weiterentwicklung gelingt. Ich habe den Digitalpakt angestoßen, er wurde auf meine Anregung während der Pandemie aufgestockt. Unsere Schulen müssen auf die immer weitergehende Digitalisierung unserer Welt und auf Entwicklungen wie in der Künstlichen Intelligenz eine Antwort haben, und dafür brauchen sie die nötige Ausstattung. Mit der von uns vorgeschlagenen Reform der Erbschafts- und Schenkungssteuer erhalten die Länder weitere finanzielle Handlungsspielräume, die sie für die zeitgemäße Ausstattung ihrer Schulen aufwenden können.
Reden wir mal von etwas Anderem als Geld. Es gibt ernstzunehmende Bildungsexperten, die sagen: Eigentlich ist genug Geld da, das wirkliche Problem unseres Bildungssystems besteht darin, dass der Föderalismus nicht richtig funktioniert.
Also der Sanierungsstau an den Schulen von fast 50 Milliarden Euro ist schon ein erhebliches Geldproblem. Aber richtig ist, dass mehr Geld allein nicht reicht. Kein Geld der Welt kann zum Beispiel kurzfristig den enormen Fachkräftemangel lösen, den wir insbesondere in Kitas und Schulen haben. Und so sehr wir Lehrkräfte entlasten wollen, um ihre Arbeitsbedingungen zu verbessern, so wenig wissen wir, wie wir die entstehenden Deputatslücken füllen sollten. Darum gehört zu unserem "Deutschlandpakt Bildung" der Vorschlag einer gemeinsamen Aus- und Weiterbildungsoffensive für Erzieher*innen, Lehrkräfte und weiteres pädagogisches Personal. Die Zusammenarbeit von Bund und Ländern ist auch im Bildungsföderalismus möglich und wird ja auch stetig weiterentwickelt. Auch in der Vergangenheit haben wir, wo es nötig war, das Grundgesetz geändert. Doch dafür brauchen wir eine Zweidrittel-Mehrheit, dafür müssten die Unionsparteien mit im Boot sein müssten. Ich setze auf neue Strukturen der gesamtstaatlichen Zusammenarbeit, wie ich sie für den "Deutschlandpakt Bildung" beschrieben habe. Strukturen, die nicht auf Zweidrittel-Mehrheiten und erst recht nicht auf Einstimmigkeit angewiesen sind, sondern die über ein gemeinsames Commitment funktionieren.
"Wenn die SPD den Leitantrag beschließt, wird sie alles dafür tun, dass der Deutschlandpakt auch Wirklichkeit wird"
Frau Esken, wann hat die SPD zuletzt erfolgreich ein so großes Bildungsrad gedreht, wie Sie das vorhaben?
An einen vergleichbaren Leitantrag kann ich mich nicht erinnern. Aber ich erinnere mich, wie das Versprechen von Aufstieg durch Bildung und Leistung eine ganze Generation inspiriert hat. Das war meine Generation. In den 60er und 70er Jahren haben viele Arbeiterkinder diesen Aufstieg geschafft, haben hohe Bildungsabschlüsse erzielt und Führungsaufgaben übernommen. Heute jedoch ist die soziale Mobilität praktisch zum Erliegen gekommen. Schlimmer noch: Viel zu viele Kinder und Jugendliche fallen in unserem Bildungssystem durchs Raster. Das ist eine riesige Ungerechtigkeit, doch wenn wir auch in Zukunft erfolgreich sein wollen als Volkswirtschaft und als Gesellschaft, dann können wir es uns gar nicht leisten, all diese Potenziale liegen zu lassen. Ich sage: Von der Bildung dieser jungen Menschen hängt unsere Zukunft ab. Und ich bin überzeugt: Dem stimmt die große Mehrheit der Menschen zu, die Wissenschaft wird es bestätigen und die Wirtschaft weiß es ohnehin. Diese Überzeugung kann und muss das gemeinsame Fundament für den "Deutschlandpakt Bildung" werden.
Mit dem es dann wann losgeht? Immerhin ist die SPD die stärkste Regierungsfraktion. Und die gemeinsame Kommission von Bund, Ländern und Kommunen, die Keimzelle des Deutschlandpakts werden soll, hatte die Ampel schon in ihrem Koalitionsvertrag angekündigt.
Darum wäre es sehr wünschenswert, wenn es der Bundesbildungsministerin endlich gelänge, die Kommission einzurichten. Wir halten sie für dringend notwendig, sonst hätten wir sie nicht im Koalitionsvertrag vereinbart. Sie wäre der erste Schritt. Und Sie können sich darauf verlassen: Wenn die SPD den Leitantrag beschließt, wird sie alles dafür tun, dass der "Deutschlandpakt Bildung" auch Wirklichkeit wird. Und wir fangen noch in dieser Legislatur an, um Mehrheiten dafür zu werben.
Kostenfreien Newsletter abonnieren
In eigener Sache: Bitte unterstützen Sie meine Arbeit
Die Finanzierung des Blogs bleibt eine Herausforderung – bitte unterstützen Sie meine Arbeit!
Zwei legislative Umbruchphasen geben Aufschluss über Entstehung und Entwicklung des japanischen Internationalen Gesellschaftsrechts, über die dahinter stehenden Grundgedanken und die Bezüge zu anderen Rechtsmaterien: Während der Meiji-Restauration setzte sich die japanische Rechtswissenschaft erstmals damit auseinander, wie der Umgang mit Gesellschaften aus anderen Ländern rechtlich zu regeln sei. Gut hundert Jahre später wurden die Probleme in den übergreifenden Reformen der Heisei-Ära unter völlig anderen Voraussetzungen erneut aufgegriffen. Zum einen war der japanische Gesetzeskanon im letzten Jahrhundert ausdifferenziert und methodisch unterfüttert sowie nach dem Zweiten Weltkrieg in ein anderes politisches Umfeld übertragen worden. Zum anderen war Japan nicht mehr bedrohter Außenseiter, sondern entschied als einer der größten Wirtschaftsakteure darüber, wie es sich auf dem globalen Weltmarkt positioniert.Bei den Kodifikationsprojekten der Meiji-Restauration wurde das Problem des Umgangs mit ausländischen juristischen Personen im Schwerpunkt bei Schaffung des ZG diskutiert. Dem lag die Auffassung zugrunde, dass die Problematik primär eine Frage der Anerkennung sei. Die Gründungstheorie diente in Japan allein zur Unterscheidung zwischen aus- und inländischen Gesellschaften bei der Entscheidung über die Anerkennung. Es ging also um eine materiellrechtliche, nicht um eine kollisionsrechtliche Fragestellung. Daher behandelte der für das Kollisionsrecht Verantwortliche Nobushige Hozumi die Problematik nicht bei Erlass des Hōrei. Vielmehr wurde unter seiner sowie der Leitung von Masa'akira Tomii und Kenjirō Ume eine Anerkennungsvorschrift ins ZG eingefügt. Die Regelungen zum Internationalen Gesellschaftsrecht sind exemplarisch für die eklektische Rechtsrezeption, die für die Entstehung des modernen japanischen Rechts charakteristisch ist. So wurde die Anerkennungsvorschrift in dem ansonsten vom deutschen und französischen Recht geprägten ZG maßgeblich durch den belgischen Gesetzesentwurf François Laurents von 1882 beeinflusst. Da die Regelung auf die Gründung der juristischen Person abstellte, sahen die Gesetzesväter im Bereich des Handelsrechts die Gefahr der Entstehung von Scheinauslandsgesellschaften. Daher wurde eine aus dem italienischen Recht rezipierte Vorschrift zum Schutz vor Scheinauslandsgesellschaften in das unter Federführung von Ume und Okano konzipierte und etwas später verabschiedete HG aufgenommen. Die Abstimmung bei dieser für das internationale Gesellschaftsrecht erforderlichen kodifikationsübergreifenden Regelung war dadurch gesichert, dass Persönlichkeiten wie Hozumi und Ume am Entwurf mehrerer Gesetze – Hōrei und ZG bzw. ZG und HG – beteiligt waren.Im übergreifenden Reformprogramm der heutigen Heisei-Ära stand das Internationale Gesellschaftsrecht auf der Agenda beim 2006 neu gefassten Kollisionsrecht. Denn seit Erlass der Vorschriften in der Meiji-Zeit hat sich das Verständnis des Umgangs mit ausländischen Unternehmen grundlegend verändert. Im Vordergrund steht seit einem dogmatischen Umbruch, der spätestens mit Ende des Zweiten Weltkriegs abgeschlossen war, die Entscheidung über das anwendbare Recht. Die Gründungstheorie ist seit Jahrzehnten herrschende Meinung, wird allerdings durch die fremdenrechtliche Vorschrift zu Scheinauslandsgesellschaften erheblich eingeschränkt. Die Fortentwicklung des japanischen internationalen Gesellschaftsrechts geschah eigenständig und losgelöst vom belgischen und italienischen Vorbild, jedoch eingebettet in die fortlaufende Auseinandersetzung mit verschiedenen Rechtsordnungen. Insbesondere die Reform des Kollisionsrechts von 2006 wurde durch intensive rechtsvergleichende Studien vorbereitet. Herausgebildet hat sich über die Jahrzehnte eine eigenständige Form der Gründungstheorie. Angeknüpft wird wie im common law an das Recht des Ortes, an dem die Gesellschaft ursprünglich gegründet wurde – nicht wie etwa in der Schweiz an das Recht des Ortes der aktuellen Registrierung oder Organisation der Gesellschaft. Im Unterschied zu den Ländern des common law und auch zu Deutschland wird wie im romanischen Rechtskreis der – heute fremdenrechtlich eingeordneten – Anerkennung noch immer eine (wenn auch geringe) Bedeutung zugesprochen.Die Liberalität der Gründungstheorie wird durch die Vorschrift gegen Scheinauslandsgesellschaften erheblich eingeschränkt. Vor Erlass des GesG 2005 wurde eine Streichung dieser Vorschrift erwogen. Dies wäre international bemerkenswert gewesen, wie ein Vergleich zu Deutschland zeigt. Dort wurde die unbeschränkte Geltung der Gründungstheorie nur widerstrebend durch äußeren Druck und bisher auch nur für den relativ sicheren Raum des EWR zugelassen. Schließlich wurde die japanische Vorschrift in überarbeiteter Form beibehalten – gegen den Protest mehrerer ausländischer Wertpapierhäuser sowie unter Kritik seitens der USA und der EU. Um diesen Widerstand zu besänftigen, sicherte die Regierung in Stellungnahmen und das Oberhaus in einem ergänzenden Beschluss eine extrem enge Auslegung der Tatbestandsvoraussetzungen zu. So kam es zu einer – kritisch zu beurteilenden – Kompromisslösung.Bei der Reform des Kollisionsrechts im Jahr 2006 hätte die Tatsache, dass die Ausprägung der japanischen Gründungstheorie schon länger weitgehend gefestigt ist, eine gesetzliche Verankerung des Gesellschaftskollisionsrechts eigentlich erleichtern sollen. Dennoch wurde die Schaffung einer solchen Vorschrift noch vor Veröffentlichung des Zwischenberichts aufgegeben. Die Gründe dafür sind vielschichtig. Zum einen wurde keine Einigung über die Art der Regelung – abschließende Auflistung der zum Regelungsbereich gehörenden Tatbestände oder abstrakte Formulierung des Anwendungsbereichs – erzielt. Dass eine Löschung der Vorschrift über Scheinauslandsgesellschaften in der Diskussion war, rief zusätzliche Unsicherheit hervor. Zum anderen war die Reform nicht speziell auf das internationale Gesellschaftsrecht ausgerichtet. Vielmehr wurde das gesamte wirtschaftsrelevante Kollisionsrecht reformiert. Da die Gründungstheorie schon seit Jahrzehnten herrschende Meinung war, fehlte ein unmittelbarer Anlass für die Kodifikation des Gesellschaftskollisionsrechts. Der Schwerpunkt der Reform lag im internationalen Vertrags- und Deliktsrecht, wo das Bedürfnis für eine gesetzgeberische Klarstellung aufgrund der fortschreitenden Internationalisierung des japanischen Wirtschaftsverkehrs groß war. Auch wollte der japanische Gesetzgeber die Entwicklung des Gesellschaftskollisionsrechts in Europa, namentlich in Deutschland, weiter beobachten.Dennoch: Die Reformen im Kollisions- und Gesellschaftsrecht haben die Entwicklung des japanischen internationalen Gesellschaftsrechts vorangebracht. Sie waren Anlass für zahlreiche Symposien und Veröffentlichungen, häufig mit fachübergreifendem Ansatz. Ob sich dies in Zukunft fortsetzt und möglicherweise gar im geschriebenen Recht Ausdruck findet, ist schwer abzuschätzen. Angesichts nur mäßig steigender Zahlen von ausländischen Unternehmen in Japan ist die rechtspolitische Relevanz gegenüber anderen, drängenderen Themen eher gering. Zudem waren die meisten Reformen bisher auf einzelne Gesetze zugeschnitten. Schnittstellenthemen wie das internationale Gesellschaftsrecht haben dabei, wie gezeigt, einen schweren Stand. Andererseits könnten gesetzgeberische Aktivitäten auf der Ebene der EU angesichts des Augenmerks des japanischen Gesetzgebers auf das europäische Gemeinschaftsrecht das Interesse für das internationale Gesellschaftsrecht erneut entfachen. ; Two periods of legislative upheaval shed light on the formation and development of the Japanese international corporate law, its fundamental ideas and its relations to other legal matters: During the Meiji Restoration, the Japanese jurisprudence dealt for the first time with the question how foreign companies should be handled legally. More than a century later, these problems were picked up again under completely different conditions during the comprehensive reforms of the Heisei era. On the one hand, the Japanese legal canon had become more differentiated and substantiated methodically and had been transferred to a different political environment after the Second World War. On the other hand, Japan was not anymore a threatened outsider, but rather decided as one of the biggest economic players about how to position herself on the global market.During the codification projects of the Meiji Restoration, the problem of how to deal with foreign juridical persons was discussed mainly when making the Civil Code. The reason was that the problem was mainly seen as one of admission of foreign legal persons. The foundation theory served as a method to distinguish between foreign and domestic companies when deciding about their admission. This was a question of substantial law, not one of conflict of laws. Nobushige Hozumi, who was in charge of the conflict of laws provisions, did not deal with this problem when drafting the Hōrei. Rather, a provision on admission of foreign juridical persons was inserted into the Civil Code under the direction of Hozumi, Masa'akira Tomii and Kenjirō Ume. The international company law provisions are exemplary for the eclectic law reception that is characteristic for the formation of the modern Japanese law. I.e. the provision on admission of foreign juridical persons in the Civil Code, which was in great parts modeled on German and French law, was influenced by a draft law of the Belgian François Laurent. As the provision named the foundation of the juridical person as relevant, the drafters feared the emergence of pseudo-foreign companies. They therefore inserted a provision against pseudo-foreign companies received from Italian law into the Commercial Code, that was drafted under the auspices of Ume and Okano and was passed a bit later. The coordination of the insertion of provisions into different codifications was ensured due to the fact that personalities like Hozumi and Ume were involved in the drafting of several laws – Hōrei and Civil Code, and Civil code and Commercial Code, respectively.During the comprehensive reform program of the current Heisei era, the international company law was on the agenda when redrafting of the conflict of laws provisions in 2006. For since the enactment of the provisions in the Meiji era, the conception of how to deal with foreign companies had changed fundamentally. Since a dogmatic change that was concluded at the latest with the end of the Second World War, the main question is what law should be applicable. The foundation theory has been the prevailing opinion for decades, though restricted considerably by the alien law provisions on pseudo-foreign companies. The development of the Japanese international company law was independent from the Belgian and Italian models, but embedded into the constant analysis of a variety of legal orders. Especially the reform of the conflict of laws provisions in 2006 was prepared by intense comparative law research. Over the years, a distinct form of the foundation theory has evolved. Like in common law, the law of the place of the original foundation is the relevant connecting factor – not the place of the current registration or organization of the company as e.g. in Switzerland. In contrast to the common law jurisdictions and also to Germany, the admission – which is classified as alien law today – still is of (albeit small) significance. The liberality of the foundation theory is restricted considerably by the provision against pseudo-foreign companies. During the drafting of the Company Code of 2005, a deletion of this provision was considered. The comparison to Germany shows that this would have been remarkable internationally. In Germany, the unconfined application of the foundation theory was only given up reluctantly due to external pressure, and limited to the relatively secure European economic area. The Japanese provision was finally kept in a revised version – against the protest of a number of foreign securities companies and against the criticism of the US and the EU. In order to quieten this resistance, the Minister of Justice and the House of Councillors promised that the provision would be interpreted in an extremely narrow sense. That way, a – disputable – compromise was reached.The fact that the foundation theory has been the prevailing opinion in Japan for a long time should have made a codification of the conflict of laws of companies easier. However, during the reform of the conflict of laws provisions of 2006, the creation of a provision on the law applicable to companies was abandoned even before the publication of the interim report. There were several reasons for that. On the one hand, there was no consensus on the kind of provision – enumeration of the company law matters or abstract formulation of the scope of application. The discussion on the deletion of the provision against pseudo-foreign companies brought further insecurity about the appropriate codification. On the other hand, the reform was not directed towards the international company law. Rather, it included the entire conflict of laws that was economically relevant. As the foundation theory had been prevailing for decades, there was no immediate reason for the codification of the conflict of laws for companies. The focus of reform was on the international contract law and law of torts, where the necessity for a legislative clarification was pressing. Also, the Japanese legislator wanted to further await the development of international company law issues in Europe, e.g. in Germany.However – the reforms of the conflict of laws provisions and of the company law have contributed to the development and differentiation of the Japanese international company law. They gave reason for the arrangement of several symposia and publications, often with interdisciplinary approach. Whether this will advance in the future and might even be reflected in written law is an open question. Given the slow growth of the number of foreign companies in Japan, from the point of view of legal policy, there are more pressing issues. Also, most of the reforms have so far been directed to the redrafting of single law codes. Topics relating to several law codes – e.g. Hōrei, Company Code and Civil Code such as the international company law – are thus put at a disadvantage. However, legislative efforts in the EU could again spark the interest of the Japanese legislator, who takes interest in the European Community Law.
Die Inhalte der verlinkten Blogs und Blog Beiträge unterliegen in vielen Fällen keiner redaktionellen Kontrolle.
Warnung zur Verfügbarkeit
Eine dauerhafte Verfügbarkeit ist nicht garantiert und liegt vollumfänglich in den Händen der Blogbetreiber:innen. Bitte erstellen Sie sich selbständig eine Kopie falls Sie einen Blog Beitrag zitieren möchten.
"Da die demokratischen Institutionen und Haltungen weiterhin existieren, merken wir nicht, dass die Demokratie geschwächt und die Macht innerhalb des politischen Systems auf eine kleine Elite aus Politikern und Konzernen übergegangen ist, die eine Politik nach den Wünschen Letzterer betreiben."Dieses drastische Zitat, welches eine dramatische Betrachtung der gegenwärtigen Lage der westlichen Demokratien darstellt, ist nicht etwa aus dem Wahlprogramm einer populistischen Partei entnommen. Ebenso wenig sind es Auszüge aus einer Wutrede von Alice Weidel oder Sarah Wagenknecht. Diese rigorosen Worte stammen vom britischen Sozialwissenschaftler Colin Crouch und fassen weite Teile seiner Postdemokratie-These pointiert zusammen (Crouch 2021, S. 21).Die vermeintliche Nähe zu rechten Verschwörungsmythen und populistischen Narrativen von korrupten Eliten in angeblichen Scheindemokratien rückt Crouch auf den ersten Blick in kein gutes Licht (vgl. Mudde 2020, S. 55 f.). Ist er durch seine Kritik am Zustand der westlichen Demokratien womöglich als latenter Komplize der aufsteigenden Kräfte des rechtsradikalen Spektrums auszumachen?Hinsichtlich der evidenten Defizite in der Entwicklungsrichtung etablierter Demokratien der westlichen Hemisphäre erscheint eine kritische Analyse als durchaus sinnvoll. So bestätigt die Realität durch Wahlergebnisse und zahlreiche Umfragen beispielsweise zunehmend das vielzitierte Phänomen der Politikverdrossenheit sowie das verbreitete Misstrauen der Bürger*innen in Politik und deren Institutionen (vgl. Best et al. 2023, S. 18-21). Daher möchte der vorliegende Beitrag folgenden Fragestellungen nachgehen:Ist die Postdemokratie-These notwendige Kritik an politischen Missständen oder Wasser auf die Mühlen des Rechtspopulismus?Sind die Ausführungen Crouchs damit als Chance oder Gefahr für die Demokratie zu bewerten? Aus Gründen des begrenzten Umfangs beziehen sich die folgenden Ausführungen explizit auf den Rechtspopulismus und klammern den durchaus existierenden Populismus des politisch linken Spektrums aus. Angesichts des fortwährend wachsenden Einflusses politischer Akteur*innen der Neuen Rechten sowie der Verbreitung einschlägiger rechtsradikaler Narrative im öffentlichen Diskurs scheint dieser Fokus aktuell von ungleich größerer Bedeutung zu sein (vgl. Mudde 2020, S. 13-17).Der inhaltliche Gedankengang des Beitrags sei an dieser Stelle knapp skizziert: Die Leitfrage soll aus verschiedenen Perspektiven bearbeitet werden, um den ambivalenten Potenzialen der These Colin Crouchs gerecht zu werden. Dabei wird der schmale Grat zwischen angebrachter Kritik, welche zu einer verbesserten Demokratie beitragen kann, und der Nähe zu rechtspopulistischen Narrativen mit gegenteiliger Wirkung thematisiert.Insbesondere die zentralen Unterscheidungsmerkmale zwischen Crouchs analytischen Ausführungen und rechtspopulistischer Eliten-Kritik sollen anschließend als sinnvolle Abgrenzung herausgearbeitet werden. Dies wird als Schlüssel zu einer gewinnbringenden praktischen Verwertung der Postdemokratie-These betrachtet, um sie als Chance im Sinne einer konstruktiven Kritik an negativen Entwicklungen der westlichen Demokratien fruchtbar werden zu lassen.Colin Crouch: "Postdemokratie"Der britische Politikwissenschaftler und Soziologe Colin Crouch sorgte bereits in den frühen 2000er Jahren mit Veröffentlichungen um seine These der Postdemokratie für internationales Aufsehen. Seine Gegenwartsanalyse beschreibt einige Tendenzen, die insbesondere in den etablierten Demokratien der westlichen Welt zu beobachten sind und durch komplexe Zusammenhänge eine zunehmende Schwächung der Demokratie bedeuten.Gemäß der Wortneuschöpfung mit der bedeutungsschweren Vorsilbe "post" charakterisiert er den aktuellen Zustand als Niedergang der lebhaften Demokratie nach der politischen und gesellschaftlichen Hochphase demokratischer Prozesse. Solch ein vergangener "Augenblick der Demokratie" (Crouch 2021, S. 22) zeichne sich in der Theorie durch die Verwirklichung sämtlicher demokratischer Ideale aus. Insbesondere eine lebendige Zivilgesellschaft partizipiert dabei öffentlich am politischen Prozess, wobei die aktive Beteiligung der gleichberechtigten Bürger*innen über den regelmäßigen Gebrauch des Wahlrechts hinausgeht. Eine angemessene und wirkungsvolle Verbindung zwischen dem Staat und seinen Bürger*innen gewährleistet eine funktionierende Repräsentation der Bevölkerung durch demokratisch legitimierte politische Amtsträger*innen (vgl. Crouch 2021, S. 22 f.).Die neoliberale Vorherrschaft in grundlegenden politischen Entscheidungen und Handlungen seit den 1980er Jahren führte zu wachsender Ungleichheit, die auch im politischen Diskurs spürbar wurde. So dominieren in Folge von ökonomischer Globalisierung und der Entstehung mächtiger Megakonzerne wirtschaftliche Eliten zunehmend den politischen Diskurs sowie durch gezielten Lobbyismus den Raum der politischen Entscheidungsfindung.Demokratische Prozesse werden subtil ausgehöhlt, indem Wirtschaftseliten den Platz von formal gleichberechtigten Bürger*innen als bedeutendste Instanz im demokratischen Raum einnehmen. Dies führe mitunter zu einer folgenschweren einseitigen Zuwendung politischer Akteur*innen hin zu wirtschaftlichen Eliten und deren Interessen der Profitsteigerung, was mit einer symptomatischen Entfremdung der Volksvertreter*innen von der zu repräsentierenden Bevölkerung einhergehe (vgl. Crouch 2021, S. 9 f.; S. 24-26). Der renommierte Philosoph und Soziologe Jürgen Habermas fasst die Zusammenhänge der These bezüglich der vorherrschenden neoliberalen Ideologie pointiert zusammen:"Ich habe den Begriff 'Postdemokratie' nicht erfunden. Aber darunter lassen sich gut die politischen Auswirkungen der sozialen Folgen einer global durchgesetzten neoliberalen Politik bündeln." (Habermas 2022, S. 87)Ein weiterer einschneidender Umbruch ist in der Zivilgesellschaft selbst verortet. So nimmt die herkömmliche Bindung an soziale Klassen und Kirchen als gesellschaftliche und politische Verortung der kollektiven Milieus innerhalb einer Gesellschaft seit Jahrzehnten massiv ab. Damit gehe in vielen Fällen auch ein Raum der politischen Betätigung und Meinungsbildung verloren, was zuweilen zur politischen Orientierungslosigkeit der Bürger*innen führe. Dies erschwere das Aufrechterhalten der Bindung politischer Akteur*innen an deren Basis in vielerlei Hinsicht. Denn nicht zuletzt orientiert sich auch die etablierte Parteienlandschaft an den einst zentralen sozialen Zugehörigkeiten der Bürger*innen (vgl. Crouch 2021, S. 26-30).Rund 20 Jahre nach den ersten einschlägigen Veröffentlichungen erneuerte Crouch seine These mit einigen Ergänzungen und Korrekturen, welche vor dem Hintergrund zeitgeschichtlicher Entwicklungen durch den Abgleich mit der politischen Realität notwendig erschienen. Doch die Kernthese der Postdemokratie blieb grundlegend erhalten (vgl. Crouch 2021, S. 10-17):
Als knapper inhaltlicher Exkurs am Rande der Kernthematik sei an dieser Stelle ein kritischer Vermerk bezüglich relevanter politischer Entwicklungen seit 2020 eingefügt. Nach der Veröffentlichung der Originalausgabe des Buches "Postdemokratie revisited", welches die damals aktualisierte Version der Postdemokratie-These von Colin Crouch hinsichtlich veränderter politischer Umstände enthält, sind einschneidende weltpolitische Ereignisse zu bedeutenden Prägefaktoren der transnationalen und nationalen Politiken geworden.Die Corona-Pandemie und der anhaltende russische Angriffskrieg auf die Ukraine führten zu politischen Entscheidungen, welche mitunter unmittelbar spürbar für große Teile der Bürger*innen waren und dies noch immer sind. Damit einhergehend wurde eine zunehmende Politisierung der Bevölkerung einiger demokratischer Staaten beobachtet (vgl. Beckmann/Deutschlandfunk 2021). In der deutschen Gesellschaft sind zudem seit einigen Wochen zahlreiche Demonstrationen gegen Rechtsextremismus zu verzeichnen, welche vom Soziologen und Protestforscher Dieter Rucht bereits als "größte Protestwelle in der Geschichte der Bundesrepublik" bezeichnet wurden (Fuhr/FAZ.NET 2024).Crouch spricht in diesem Kontext aktuell von einer durchaus verbreiteten Abneigung gegenüber den rechtsextremen Strategien von Hass und Hetze in entwickelten demokratischen Gesellschaften. Diese müsse aktiviert und politisch mobilisiert werden im Sinne einer gestärkten Demokratie gegen rechtsextreme Bestrebungen. Doch könne dies lediglich einhergehend mit ökonomischen Lösungen der wachsenden sozialen Ungleichheit seitens der politischen Akteur*innen nachhaltig wirksam werden (vgl. Hesse/fr.de 2024). Nicht außer Acht zu lassen sind diese zuweilen folgenschweren Ereignisse in der politischen und zeitgeschichtlichen Gesamtschau, wenngleich die zahlreichen raschen politischen sowie demoskopischen Wendungen der vergangenen Jahre in den folgenden Ausführungen nicht umfänglich Berücksichtigung finden können.Relevanz der AnalyseWie bereits das zustimmende Zitat des namhaften zeitgenössischen Philosophen Habermas im vorausgehenden Abschnitt anklingen lässt, treffen Crouchs Ausführungen hinsichtlich zahlreicher analysierter Missstände politischer und gesellschaftlicher Art durchaus zu. So wird die Relevanz der kritischen Gegenwartsanalyse bezüglich einiger Aspekte in Teilen angesichts der Studienergebnisse zum Thema "Demokratievertrauen in Krisenzeiten" der Friedrich-Ebert-Stiftung aus dem Jahr 2023 deutlich.Unter Berücksichtigung der multiplen Krisen der Gegenwart wurden in einer repräsentativen Zufallsstichprobe volljährige wahlberechtigte Deutsche zu Themen befragt, welche die Funktionalität des repräsentativ-demokratischen Systems sowie den gesellschaftlichen Zusammenhalt betreffen (vgl. Best et al. 2023, S. 5 f.). Dabei konnte ermittelt werden, dass etwas mehr als die Hälfte der Befragten unzufrieden ist mit dem gegenwärtigen Funktionieren der Demokratie. Obgleich in der Gegenüberstellung mit der Vorgängerstudie aus dem Jahr 2019 ein leichter Rückgang dieses Prozentsatzes auszumachen ist, muss ein anhaltend hohes Niveau der generellen Unzufriedenheit bezüglich der Funktionalität unseres politischen Systems diagnostiziert werden (vgl. Best et al. 2023, S. 17 f.).Dass der soziale Status der befragten Bürger*innen als einflussreicher Parameter in dieser Frage herausgestellt werden konnte, lässt sich widerspruchsfrei in Crouchs Analyse der zunehmend elitär gestalteten Politik einfügen. Denn es erscheint folgerichtig, dass Menschen aus unteren sozialen Schichten mit vergleichsweise wenig Einkommen häufiger unzufrieden sind mit dem politischen System, in welchem vermehrt die Interessen höherer sozio-ökonomischer Gruppen begünstigt werden (vgl. Crouch 2021, S. 44-47).Außerdem beklagen deutliche Mehrheiten in der Befragung die Undurchschaubarkeit komplexer Politik sowie unzureichende Möglichkeiten der politischen Partizipation, was Crouchs Ausführungen zur Entpolitisierung der Mehrheitsgesellschaft im Zuge der zunehmenden Politikverdrossenheit bestärkt (vgl. Best et al. 2023, S. 18-20). Vor die Wahl verschiedener Regierungsmodelle gestellt, bevorzugt lediglich ein Drittel der Befragten die repräsentative Demokratie, während beinahe die Hälfte zur direkten Demokratie tendiert (vgl. Best et al. 2023, S. 21 f.).Passend dazu ist das Vertrauen in die politischen Institutionen lediglich hinsichtlich der Judikative, dem Bundesverfassungsgericht, bei der großen Mehrheit unter den befragten Bürger*innen in hohem Ausmaß vorhanden. Der eklatant angestiegene Anteil der Menschen ohne jegliches Vertrauen in das Parlament und die Bundesregierung könnte im Sinne Colin Crouchs als Folge der Entfremdung der politischen Akteur*innen vom Großteil der Bevölkerung gekennzeichnet werden (vgl. Best et al. 2023, S. 26-31; Crouch 2021, S. 216 f.).Ein weiterer zentraler Kritikpunkt Crouchs wird sinngemäß durch die Frage nach konkreten Problemen der deutschen Demokratie angesprochen. So sehen über 70 Prozent der Befragten den Einfluss von Lobbygruppen als problematisch an, wobei sich diese Ansicht in vergleichbarer Weise durch alle politischen Lager zieht. Colin Crouchs kritischer Blick bezüglich eines überbordenden Lobbyismus mit unverhältnismäßigem Einfluss im politischen Prozess wird somit durch diese Studie demoskopisch gestützt (vgl. Best et al. 2023, S. 32 f.; Crouch 2021, S. 68 f.).Auch andere wissenschaftliche Veröffentlichungen, wie der aktuelle "Transformationsindex BTI 2024" der Bertelsmann-Stiftung, analysieren einen ähnlichen Zustand der politischen und gesellschaftlichen Lage westlicher Demokratien im Sinne einer akuten Krise des Liberalismus vor dem Hintergrund der neoliberalen Vorherrschaft.Das positive Potential der Postdemokratie-These liegt angesichts der ernstzunehmenden Problematiken in einer möglichen Stärkung der Demokratie durch praktische Konsequenzen auf Grundlage dieser kritischen Befunde. Praktische Ansätze im Bereich der strenger regulierten Lobbyarbeit sowie neue Formen der Bürger*innenbeteiligung sind bereits Teil der politischen Agenda und werden erprobt. Ob diese den Zweck einer erstarkenden Demokratie real erfüllen werden, ist aktuell noch offen. Im besten Falle können gestärkte demokratische Strukturen nicht zuletzt demokratiegefährdende Akteur*innen aus dem rechtspopulistischen und rechtsextremen Spektrum zurückdrängen.Jedoch klingt an dieser Stelle ein Widerspruch an. Denn stärkt nicht gerade Crouchs Framing der Kritik an politischen Eliten und an der Entwicklung des politischen Systems die antidemokratischen radikalen Kräfte am rechten Rand angesichts der vermeintlichen narrativen Überschneidungen?Parallelen zu rechtspopulistischen NarrativenCrouch selbst schreibt in seinem Buch von neuen "Bewegungen […], die ähnliche Klagen über die heutigen Demokratien vorzubringen scheinen, wie ich sie in Postdemokratie geäußert habe, und insbesondere den Vorwurf äußern, dass die Politik von Eliten dominiert werde, während normale Bürger kein Gehör mehr fänden." (Crouch 2021, S. 136).Gemeint sind aufsteigende populistische Gruppierungen und Parteien, wovon jenen aus dem rechtsradikalen Lager aktuell die höchste politische Relevanz beigemessen wird. Um die Leitfrage des Beitrags angemessen multiperspektivisch zu beleuchten, sollen nun die vermeintlichen Gemeinsamkeiten zwischen den Erkenntnissen des britischen Sozialwissenschaftlers und rechtspopulistischen Narrativen herausgestellt sowie kritisch betrachtet werden.Die augenscheinlichste Parallele liegt im Bereich der Elitenkritik, wie Crouch es im angeführten Zitat selbst andeutet. Politische Entscheidungsträger*innen und wirtschaftliche Eliten handeln überwiegend im eigenen Interesse und entfernen sich dabei immer mehr von den Bürger*innen, insbesondere von jenen mit geringem sozialen Status, und deren Anliegen. Diese Analyse Crouchs erinnert an die rechtspopulistische Dichotomie, welche die abgehobene Elite dem normalen Volk gegenüberstellt. Der Wille des Volkes werde gemäß diesem Narrativ von der etablierten Politik bewusst übergangen (vgl. Crouch 2021, S. 41 f.; Mudde 2020, S. 55 f.).Doch bereits in der Formulierung wird ein zentraler Unterschied hinsichtlich der Vorstellung der regierten Bürger*innen deutlich. So wird im rechtspopulistischen Narrativ das Volk als homogene Masse mit einheitlichem Willen angesehen, während Crouch von Bürger*innen mit verschiedenen sozioökonomischen Hintergründen und pluralen Interessen spricht (vgl. Wodak/bpb 2023; Crouch 2021, S. 258 f.).Die Globalisierung als nach wie vor prägende Entwicklung mit Auswirkungen auf alle gesellschaftliche Sphären ist Anhaltspunkt einer weiteren vermeintlichen Schnittmenge. Als hintergründige Ursache für die zunehmende Entfremdung politischer Akteur*innen von weiten Teilen der Bevölkerung sowie für den unverhältnismäßig hohen Einfluss kapitalorientierter Großkonzerne konstatiert Crouch die Globalisierung der Wirtschaft.Des Weiteren führe die Tatsache, dass Wirtschaftspolitik vor diesem Hintergrund weitgehend auf transnationaler Ebene betrieben wird, zu einem Bedeutungsverlust der nationalstaatlichen Politik. Debatten im nationalen Kontext seien somit laut Crouch oftmals als politisch gegenstandslose Scheindebatten zu kennzeichnen (vgl. Crouch 2021, S. 25 f.). Diese Beschneidung des Nationalstaats durch eine zunehmende Globalisierung wird von Akteur*innen der Neuen Rechten im Sinne ihres charakteristischen Nationalismus massiv beklagt. Damit einher geht eine misstrauische bis konsequent ablehnende Haltung gegenüber transnationaler Politik insbesondere bezüglich einschlägiger Institutionen wie der Europäischen Union (vgl. Mudde 2020, S. 56-59; S. 132 f.).Populist*innen gerieren sich grundsätzlich als wahre Stimme des Volkes, welches exklusiv durch sie vertreten werde in einem von eigennützigen Eliten regierten System (vgl. Mudde 2020, S. 46). Hinsichtlich der Postdemokratie-These lässt dies vermuten, dass populistische Bewegungen als basisdemokratischer Stachel im Fleisch der Postdemokratie charakterisiert werden können. Mitunter würde das die massive Abneigung der etablierten Parteien ihnen gegenüber erklären (vgl. Crouch 2021, S. 139-141).An dieser Stelle könnte auf eine zumindest teilweise Zustimmung Colin Crouchs hinsichtlich rechtspopulistischer Narrative geschlossen werden. Im Vorgriff auf die Ausführungen der folgenden Abschnitte sei jedoch vor einer voreiligen Gleichsetzung ohne die notwendige politikwissenschaftliche Differenzierung gewarnt. So weist Crouch selbst deutlich auf die Diskrepanz hin, welche die antidemokratischen Tendenzen rechtspopulistischer Bewegungen zweifellos von einer zukunftsorientierten Kritik an postdemokratischen Problemen trennt (vgl. Crouch 2021, S. 139).GefahrenpotentialIst Crouchs These angesichts der verwandten Anklagen Wasser auf die Mühlen der Rechtspopulist*innen? Trägt die Publizierung seiner massiven Kritikpunkte womöglich zur fortschreitenden Enttabuisierung radikaler Positionen im öffentlichen Diskurs bei?In der aktuellen politischen und gesellschaftlichen Debatte lässt sich eine einflussreiche rechtspopulistische Strategie der Diskursverschiebung beobachten. Einschlägige illiberale Narrative werden hierbei im politischen Diskurs salonfähig durch schrittweises Verrücken der roten Linien, welche das legitime demokratische Meinungsspektrum umgrenzen. Das "Perpetuum mobile des Rechtspopulismus" (Wodak/bpb 2023) lässt in einem schleichenden Prozess xenophobe und diskriminierende Haltungen durch kalkulierte rhetorische Grenzüberschreitungen rechtspopulistischer Akteur*innen zunehmend vertretbar erscheinen.Des Weiteren wird so Einfluss auf die Themensetzung im demokratischen Diskurs genommen, was nicht zuletzt durch die partielle Übernahme seitens ursprünglich gemäßigter konservativer Parteien des politischen Establishments befördert wird. Die beobachtbare Diskursverschiebung stellt eine ernstzunehmende Gefahr für liberale Demokratien dar, wie bereits an autokratischen Entwicklungen in einigen Ländern mit Regierungen des äußerst rechten Spektrums abzulesen ist (vgl. Wodak/bpb 2023).Crouchs Ausführungen bezüglich postdemokratischer Tendenzen bergen insbesondere mit Blick auf die Elitenkritik das Gefahrenpotential einer narrativen Instrumentalisierung durch illiberale Akteur*innen. Doch hinsichtlich eines entscheidenden Aspekts eignet sich die Argumentation Colin Crouchs nur schwerlich als Hilfestellung zur Enttabuisierung rechtsradikaler Positionen. So sind vereinfachende Schuldzuweisungen mitnichten Teil der analytischen Ausführungen Crouchs, und es werden keine Feindbilder unter gesellschaftlichen Minderheiten ausgemacht, was der zentralen Ideologie der äußersten Rechten entgegensteht (vgl. Crouch 2021, S. 143 f.). Vortrag von Ruth Wodak über Rechtsruck und Normalisierung: Die von Crouch geforderte Politisierung der Zivilgesellschaft sollte in diesem Zusammenhang nicht mit der fortschreitenden Polarisierung der Öffentlichkeit einhergehen oder gar gleichgesetzt werden. Dies würde gefährliche aktuelle Tendenzen der gesellschaftlichen Spaltung verstärken und somit den gesellschaftlichen Zusammenhalt zusätzlich gefährden. In jener Hinsicht kann enorme politische und gesellschaftliche Polarisierung Demokratien destabilisieren, wie dies beispielsweise in der US-Amerikanischen Gesellschaft zu beobachten ist (vgl. Crouch 2021, S. 150-154). Unter Berücksichtigung dieses Gesichtspunktes können soziale Bewegungen der äußersten Rechten kaum als anerkennenswerte Belebung der Demokratie gewertet werden, ganz zu schweigen von der antidemokratischen Ideologie, welche dahintersteht (vgl. Mudde 2020, S. 152-155).Crouch selbst geht im Buch in einem eigenen Kapitel auf die "Politik des nostalgischen Pessimismus" (Crouch 2021, S. 136) ein und stellt durch eine eingehende Analyse der populistischen Strategien und Inhalte eine kritische Distanz zu einschlägigen Bewegungen heraus. Insbesondere den Rechtspopulismus heutiger Akteur*innen der Neuen Rechten ergründet der Soziologe als antipluralistisch, antiegalitär und im Kern antidemokratisch, wenngleich diese Ausrichtungen in vielfältiger Weise öffentlich verschleiert werden (vgl. Crouch 2021, S. 169-172).ZwischenfazitDie Postdemokratie-These hat Potenziale für beide politischen Stoßrichtungen, welche in der Leitfrage des Beitrags pointiert gegenübergestellt wurden. Entscheidend sind ein reflektierter Umgang mit den Analysen sowie die gebotene Einordnung der Schlussfolgerungen im jeweiligen politischen Kontext. Zweifelsfrei ist dabei die Maxime zu beachten, niemals den Populismus antidemokratischer Kräfte zu stärken. Gleichermaßen darf die mögliche Angst vor dem schmalen Grat zwischen reflektierter sozialwissenschaftlicher Kritik und rechtspopulistischer Aufwiegelung keinesfalls zur Ignoranz postdemokratischer Missstände führen. Denn im Sinne von Jan-Werner Müllers Definition von Populismus sind "[a]lle Populisten [..] gegen das »Establishment« – aber nicht jeder, der Eliten kritisiert, ist ein Populist." (Müller 2016, S. 18 f.).Um die missbräuchliche argumentative Übernahme von Crouchs These durch demokratiefeindliche Rechtspopulist*innen wirksam zu verhindern, ist eine differenzierte Klarstellung im Sinne der politischen Einordnung von Crouchs Analysen erforderlich.Lösungsansatz: DifferenzierungAls Schlüssel zur fruchtbaren Berücksichtigung von Crouchs These im politikwissenschaftlichen und gesamtgesellschaftlichen Diskurs kann die Differenzierung zur Abgrenzung von rechtspopulistischen Narrativen dienen. Eine deutliche Unterscheidung ist im Sinne Colin Crouchs herauszustellen und in der Argumentation im Kontext der öffentlichen Debatte stets zu beachten, um sich deutlich von rechtspopulistischen Parolen abzugrenzen. So kann einer drohenden Enttabuisierung radikaler Positionen vorgebeugt werden, um diese Gefahr für die liberale Demokratie nicht zusätzlich argumentativ zu stützen. Zentrale Unterscheidungsmerkmale sollen nachfolgend erläutert werden.Rechtspopulistische Bewegungen sind lediglich vordergründig für mehr Demokratie und Mitbestimmung des Volkes. Denn im Kern widersprechen ihre kennzeichnenden Ideologeme liberaldemokratischen Werten, wie insbesondere der Antipluralismus deutlich macht. Die antipluralistische Ideologie steht in enger Verbindung mit dem exklusivistischen Vertretungsanspruch des Volkes und deren homogenen Interessen. Alle Gruppen und Individuen, welche sich aus diversen Gründen nicht diesem normalen Volk zurechnen lassen, werden rhetorisch exkludiert und sind Feindbilder der Rechtspopulist*innen. Dieser xenophobe Antipluralismus veranlasst die grundlegende Einordnung jener Bewegungen als illiberal und antidemokratisch (vgl. Wodak/bpb 2023).Crouch dagegen plädiert für die plurale Interessensvertretung heterogener Gruppen und Individuen als gleichberechtigte Teile einer demokratischen Gesellschaft. Darüber hinaus wird die Emanzipation jeglicher unterdrückter Gruppen innerhalb Crouchs Theorie als erstrebenswerter Moment der Demokratie angesehen, was in diametralem Gegensatz zum ideologischen Antifeminismus und Rassismus sowie zur Queerfeindlichkeit der äußersten Rechten steht (vgl. Crouch 2021, S. 22 f.).Das Verhältnis zum neoliberalen Kapitalismus markiert ebenfalls eine signifikante Differenz zwischen Crouchs Thesen und vorherrschenden Denkweisen der äußersten Rechten. Akteur*innen rechtspopulistischer Politik weisen deutliche antiegalitäre Überzeugungen auf, was programmatisch beispielsweise im angestrebten faktischen Abbau des Sozialstaats ersichtlich wird. Politisch forcierte Umverteilung im Sinne stärkerer sozialer Gerechtigkeit und striktere Regulierung von Lobbyarbeit, wie es von Crouch gefordert wird, steht dieser antiegalitären Haltung entgegen. Der sozialpolitisch im linken Spektrum einzuordnende Soziologe Crouch zeigt sich deutlich kritisch gegenüber neoliberal dominierter Politik und der Macht von Wirtschaftseliten. Als grundlegender zentraler Angriffspunkt der politischen Entwicklungen seit mehreren Jahrzehnten gilt der Neoliberalismus innerhalb seiner gesamten Analyse (vgl. Crouch 2021, S. 143; S. 234-238).Die Art der Beschreibung von Ursachen hinter beklagten Problemen der aktuellen politischen Situation stellt ein weiteres Unterscheidungsmerkmal dar. So weisen rechtspopulistische Narrative zuvörderst liberale Eliten und Migrant*innen als schuldige Sündenböcke aus, wobei diesen Akteur*innen prinzipiell unlautere Absichten unterstellt werden. Die vereinfachende Personifizierung von Schuld fungiert als bedeutender Aspekt der rechtspopulistischen Kommunikationsstrategien (vgl. Mudde 2020, S. 49-56).Die kritische Auseinandersetzung Crouchs mit postdemokratischen Tendenzen hingegen ist geprägt von der Darstellung komplexer Zusammenhänge von multiplen Ursachen. Simple Schuldzuweisungen werden dabei vermieden (vgl. Crouch 2021, S. 9; S. 24-26). Generell unterscheiden sich die Ausführungen Colin Crouchs im Charakter diametral von rechtspopulistischen Narrativen. Die nüchterne sozialwissenschaftliche Analyse beinhaltet die Herausarbeitung komplexer Entwicklungen und Zusammenhänge, während der Rechtspopulismus von allgemeiner Vereinfachung mit personalisierten Schuldzuweisungen und Feindbildern geprägt ist, welche zentrale Bestandteile rechtspopulistischer Kommunikation sind (vgl. Wodak/bpb 2023).FazitZusammenfassend ist zunächst die Relevanz der kritischen Ausführungen Crouchs zu rekapitulieren. Um die Zukunftsvision einer verbesserten Demokratie mit konkreten Maßnahmen anzustreben, ist eine analytische Grundlage bezüglich gegenwärtiger Probleme von Nöten, welche in der Postdemokratie-These gefunden werden kann. Die Ambivalenz der These angesichts einer möglichen Instrumentalisierung durch Populist*innen wurde verdeutlicht, wenngleich keine konkreten Zusammenhänge zwischen Crouchs These und dem Aufstieg der neuen Rechten nachgewiesen werden konnten.Die anschließende Erläuterung der Unterscheidungsmerkmale stellt eine unzweifelhafte Abgrenzung der Postdemokratie-These von der polemischen Ideologie der Rechtspopulist*innen dar. Dies verdeutlicht die aktuelle Notwendigkeit, im gesellschaftlichen Diskurs auf differenzierte Weise Entwicklungen des politischen Systems zu kritisieren, ohne dabei Wasser auf die Mühlen des Rechtspopulismus zu geben. Denn die Gefahr, haltlose rechtspopulistische Parolen durch unangemessene Gleichsetzungen mit sachlichen Gegenwartsanalysen soziologisch aufzuladen und damit substantiell zu überhöhen, ist schließlich nicht zu missachten. Wenn jedoch die sozialwissenschaftlichen Analysen der Postdemokratie-These Crouchs wahrheitsgetreu Eingang in die politische Debatte finden, könnten sie der polemischen Argumentation vom rechten Rand die Substanz entziehen und diese als antidemokratisch entlarven, ohne dabei angezeigte Kritik am Status Quo der etablierten Demokratien auszuklammern.Die Fähigkeit zu einer solchen Differenzierung stellt insbesondere für angehende politische Bildner*innen eine bedeutende Kompetenz dar. Neben der stetigen Arbeit an den eigenen Fähigkeiten in diesem bedeutsamen Bereich kommt Lehrkräften die elementare Aufgabe zu, die Kompetenz der reflektierten Differenzierung an Schüler*innen zu vermitteln. Denn diese ist unerlässlich hinsichtlich der übergeordneten Zielperspektive, sie zu mündigen Bürger*innen als Teil einer lebendigen Demokratie werden zu lassen. Insbesondere angesichts der zunehmenden Polarisierung sämtlicher politischer und gesellschaftlicher Themen, die nicht zuletzt durch den Einfluss von Sozialen Medien und deren einschlägigen Mechanismen gefördert wird, ist dieser Ansatz nicht zu unterschätzen (vgl. Crouch 2021, S. 259 f.).Außerdem sind neue politische und gesellschaftliche Entwicklungen stets mitzudenken, was die Notwendigkeit einer fortwährenden Aktualisierung der sozialwissenschaftlichen Gegenwartsanalyse Colin Crouchs hervorhebt und eine stetige kritische Prüfung der Postdemokratie-These vor dem Hintergrund neuartiger Entwicklungen zweifellos miteinschließt.LiteraturBeckmann, Andreas (2021): Pandemie und Demokratie. Wurde der Kurs in der Corona-Politik ausreichend ausgehandelt? (Deutschlandfunk vom 02.09.2021), https://www.deutschlandfunk.de/pandemie-und-demokratie-wurde-der-kurs-in-der-corona-100.html [25.03.2024].Best, Volker; Decker, Frank; Fischer, Sandra et al. (2023): Demokratievertrauen in Krisenzeiten. Wie blicken die Menschen in Deutschland auf Politik, Institutionen und Gesellschaft? Friedrich-Ebert-Stiftung e.V. (Hrsg.), Bonn.Crouch, Colin (2021): Postdemokratie revisited, Suhrkamp: Berlin.Fuhr, Lukas (2024): Protestforscher Dieter Rucht: "Der Höhepunkt der Demowelle liegt wohl hinter uns" (FAZ.NET vom 16.02.2024), https://www.faz.net/aktuell/politik/inland/demos-gegen-rechtsextremismus-werden-laut-protestforscher-nachlassen-19518795.html#void [20.03.2024].Habermas, Jürgen (2022): Ein neuer Strukturwandel der Öffentlichkeit und die deliberative Politik, Suhrkamp: Berlin.Hesse, Michael (2024): "Im Westen hält die Brandmauer noch": Politologe Colin Crouch über Rechtsextremismus (Frankfurter Rundschau vom 12.02.2024), https://www.fr.de/kultur/gesellschaft/rechtsextremismus-politologe-colin-crouch-im-westen-haelt-die-brandmauer-noch-populismus-92826654.html [20.03.2024].Mudde, Cas (2020): Rechtsaußen. Extreme und radikale Rechte in der heutigen Politik weltweit, Dietz: Bonn.Müller, Jan-Werner (2016): Was ist Populismus?, Suhrkamp: Berlin.Wodak, Ruth (2023): Rechtspopulistische Diskursverschiebungen, in: Aus Politik und Zeitgeschichte (bpb.de vom 20.10.2023), https://www.bpb.de/shop/zeitschriften/apuz/diskurskultur-2023/541849/rechtspopulistische-diskursverschiebungen/ [26.03.2024].
Die Inhalte der verlinkten Blogs und Blog Beiträge unterliegen in vielen Fällen keiner redaktionellen Kontrolle.
Warnung zur Verfügbarkeit
Eine dauerhafte Verfügbarkeit ist nicht garantiert und liegt vollumfänglich in den Händen der Blogbetreiber:innen. Bitte erstellen Sie sich selbständig eine Kopie falls Sie einen Blog Beitrag zitieren möchten.
Wie sich die neue KMK-Präsidentin die Kultusministerkonferenz der Zukunft vorstellt – und was passieren muss, damit diese Vision Realität wird: ein Interview mit Christine Streichert-Clivot über Lehren aus Pisa, Reformen im Lehramtsstudium, die bildungspolitische Bilanz der Ampel – und den Umgang mit Transformation als Leitthema.
Christine Streichert-Clivot, 43, ist SPD-Politikerin und seit 2019 saarländische Ministerin für Bildung und Kultur. Foto: Ministerium für Bildung und Kultur Saarland/Holger Kiefer.
Frau Streichert-Clivot, am 1. Januar 2024 hat das Saarland turnusmäßig die Präsidentschaft der Kultusministerkonferenz übernommen. Sie führen die nächsten zwölf Monate lang die Geschicke des deutschen Bildungsföderalismus. Was lässt sich da als zweitkleinstes Bundesland eigentlich ausrichten?
In der KMK haben jeder Minister und jede Ministerin unabhängig von der Größe ihres Bundeslandes das gleiche Stimmrecht, und ich glaube, dass ich als Kultusministerin des Saarlandes sogar einen Vorteil habe. Wir führen die gesamte Bildungslandschaft aus dem Ministerium heraus, wir haben keine nachgeordneten Behörden, das heißt: Der Draht in die Praxis hinein könnte enger kaum sein. Wir erfahren immer sofort, was los ist, und wo besonderer Unterstützungsbedarf besteht. Das macht uns agiler, und diese Agilität möchte ich in die KMK einbringen inmitten ihres spannenden Transformationsprozesses, den ich in diesem Jahr gern führen und zu einem Ergebnis bringen möchte. Also: Ich freue mich auf das Jahr, natürlich bedeutet die Präsidentschaft viel Arbeit, aber auch eine ausgesprochene Ehre. Zumal ich den Austausch mit meinen Kolleginnen und Kollegen immer als sehr inspirierend erlebe.
Traditionell hat jede KMK-Präsidentschaft ein Leitthema. Was wird das Ihre sein?
Die Bildungslandschaft steht vor einer Vielzahl komplexer und miteinander verflochtener Probleme, die eine ganzheitliche und kooperative Herangehensweise erfordern. Deshalb haben wir als Saarland uns für die Präsidentschaft auch kein fokussiertes Einzelthema gesetzt, sondern eine Leitidee für zukünftiges bildungspolitisches Handeln formuliert: "Bildung in Zeiten des Wandels - Transformation aktiv gemeinsam gestalten". In einer Zeit, in der sich die KMK genauso im Umbruch befindet wie unser Bildungssystem genauso, in der wir an verschiedenen Stellen ansetzen müssen und nicht das eine Rezept, die eine Lösung existiert, kann es für mich nur eine Leitidee geben: der mutige Umgang mit Transformation.
"Der entscheidende gemeinsame Kompass muss bei allen Veränderungen immer der Blick der Kinder und Jugendlichen sein."
Klingt so richtig wie abstrakt. Was bedeutet das praktisch?
Wenn wir unsere Schulen durch die Zeit der Transformation leiten wollen, geht das nur gemeinsam mit den politischen Ebenen in den Ländern, Kommunen und dem Bund und in enger Zusammenarbeit mit anderen Fachkonferenzen. Weitere wichtige Themen, die die KMK im kommenden Jahr begleiten werden, sind unter anderem der allgemeine Fachkräftemangel, der nicht nur die Schulen, sondern auch die Hochschulen fordert, die Lehrkräftegewinnung und –qualifizierung, die digitale Transformation des Lehrens und Lernens und die pädagogische Weiterentwicklung von digital gestützten Lehr- und Lernprozessen, auch im Umgang mit Künstlicher Intelligenz an Schulen. Wir werden uns aber auch an der anstehenden und dringend nötigen Weiterentwicklung und Reform der KMK messen lassen müssen. Die Transformation betrifft uns als ganze Gesellschaft in all unseren Teilen. Der entscheidende gemeinsame Kompass muss bei allen Veränderungen immer der Blick der Kinder und Jugendlichen sein.
Was macht Sie optimistisch, dass Ihre Kolleginnen und Kollegen diesen Anspruch teilen?
Wir sind die einzige Ministerkonferenz, die sich der Durchleuchtung durch eine Organisationsberatung gestellt hat. Aus einer Unzufriedenheit mit dem Zustand der KMK und der Langsamkeit ihrer Entscheidungen heraus. Mit dem Wunsch, viel stärker als bislang die politisch relevanten Themen zu setzen und Lösungen bereitzustellen. Optimistisch macht mich auch, dass wir schon entscheidende Schritte in die Richtung gemacht haben. Vor allem durch die Einrichtung der Ständigen Wissenschaftlichen Kommission (SWK), die bereits jetzt mit ihren Gutachten, Impulsen und Papieren die bildungspolitische Debatte prägt.
Was muss sich als erstes ändern in der KMK?
Erstens hat die KMK eine viel zu große Zahl an Gremien, zum Teil ohne Einsetzungsbeschluss, die ein Eigenleben entwickelt haben in den vergangenen Jahren. Diese Gremien binden sehr viele Mitarbeiterinnen und Mitarbeiter in den Landesministerien und im KMK-Sekretariat. Da müssen wir ran, zumal das Gutachten von "Prognos" gezeigt hat, dass all diese Gremien untereinander kaum vernetzt sind, es kommt also zu Dopplungen, zu nicht abgestimmten Entscheidungen. Wenn die KMK ein wirkmächtiger Think Thank der Bildungspolitik werden soll, sind das die wichtigsten Stellschrauben, an die wir ranmüssen.
Was heißt für Sie "Think Tank"?
Wir müssen das Rad nicht in jedem Bundesland neu erfinden. Wir brauchen eine Stelle, die einerseits die Zusammenarbeit der Länder effektiver organisiert und andererseits transparent macht, welche bildungspolitischen Projekte in welchen Ländern gut laufen. Für ersteres brauchen wir ein langfristiges Arbeitsprogramm, das über Jahre und mehrere KMK-Präsidentschaften hinwegreicht. Für zweiteres brauchen wir eine KMK-Verwaltung, deren Mitarbeiterinnen und Mitarbeiter bereit und in der Lage sind, die Bildungspolitik der Länder zu begleiten und auszuwerten, anstatt in der Betreuung zu vieler Gremien festzustecken.
Braucht es ein Arbeitsprogramm, das über mehrere Präsidentschaften hinwegreicht, oder braucht es eine Präsidentschaft, die über mehrere Jahre dauert? Führung erfordert Erfahrung und Zeit.
Ich finde es zu früh, diese Frage zu beantworten. Fakt ist, dass die gegenwärtige Regelung die Möglichkeiten einer Präsidentschaft, langfristig zu wirken, stark einschränkt. Und ich beobachte bei vielen meiner Kolleginnen und Kollegen die Bereitschaft, längerfristig Verantwortung zu übernehmen, und sei es erstmal für einen Teilbereich, wie wir es heute schon etwa im Rahmen der länderübergreifenden Vorhaben beim Digitalpakt praktizieren.
"Oft würde es ja schon reichen, wenn wir die KMK-Beschlüsse, die wir haben, so umsetzen, dass sie auf Dauer greifen."
Eine andere Frage, bei der Sie und Ihre Kolleginnen gern im Allgemeinen bleiben, ist die nach den künftigen Abstimmungsmodalitäten. Muss die KMK nicht endlich weg vom Einstimmigkeitsprinzip bei allen wichtigen Fragen – weil sonst allzu oft nicht die beste Lösung gewinnt, sondern die, die am wenigsten wehtut?
Richtig ist, dass wir zuerst über die Struktur unserer Zusammenarbeit und unserer künftigen Agenda als KMK sprechen und zu einem Ergebnis kommen sollten, bevor wir darüber reden, ob wir einander häufiger überstimmen sollten. Sonst verzetteln wir uns und verschwenden Energie und Ressourcen, die wir gerade dringend für die inhaltliche Arbeit brauchen. Oft würde es ja schon reichen, wenn wir die Beschlüsse, die wir haben, so umsetzen, dass sie auf Dauer greifen. Zumal regelmäßige Mehrheitsentscheidungen derart stark in die Bildungshoheit der einzelnen Länder eingreifen würden, dass wir Bildungsminister uns jedes Mal mit unserem Kabinett und der Mehrheit in den Landtagen abstimmen müssten. Ob das probat wäre?
Welches sind denn die Themen, die Ihres Erachtens auf der längerfristigen Agenda der KMK oben stehen sollten?
Mit am zentralsten sind für mich die Schlussfolgerungen, die wir aus den jüngsten Pisa-Ergebnissen ziehen. Die Studie hat erneut offengelegt, dass es einen starken Zusammenhang zwischen dem Bildungserfolg der Kinder und Jugendlichen und ihrer Herkunft gibt, wobei ich darunter viel mehr verstehen würde als nur die Frage nach ihrer Migrationserfahrung. Es geht um die sozioökonomische Situation der Familien, die soziale Schere hat sich in den vergangenen Jahren weiter geöffnet in Deutschland. Dass darüber hinaus die Pandemie eine Rolle bei der massiven Verschlechterung gespielt hat, beantwortet noch nicht die Frage, was genau da passiert ist. Für mich besteht hier wiederum ein enge Verbindung zu der sozialen Schieflage. Ein Großteil der Kinder ist gut durch die Zeit der Schulschließungen gekommen, aber bei vielen anderen fehlte die Unterstützung, sie haben starke seelische Belastungen erlitten.
Was bedeutet das für die Zukunft?
Was es jedenfalls nicht bedeutet: dass wir auf die zunehmende Heterogenität und Diversität reagieren, indem wir versuchen, die Klassen und Schulen wieder homogener zu machen. Der Hinweis, dass es vor allem Länder mit weniger diverser Bevölkerung seien, die bei Pisa bessere Leistungen erreicht haben, mag berechtigt sein oder nicht, wenn wir jetzt stärker aufteilen, stärker gliedern, wie einige Lehrerverbände es fordern, verstärken wir die Ungerechtigkeiten weiter.
Aber was dann?
Wir haben im Saarland mit dem Ausbau von Schulsozialarbeit und Sprachförderung die Unterstützung unserer Schulen massiv verstärkt, wir haben die Einrichtung multiprofessioneller Teams gesetzlich verankert. Das sind Erfahrungen, die ich in der KMK einbringen kann. Das ist übrigens auch der Grund, warum ich die begonnene enge Verzahnung zwischen KMK und Jugend- und Familienministerkonferenz (JFMK) 2024 fortsetzen möchte, unter anderem mit einer gemeinsamen Sitzung der Präsidien. Wir haben viele gemeinsame Themen, mit Blick auf multiprofessionelle Teams, auf den Ganztag und die Fachkräftegewinnung in den Kitas. Da ist viel Musik drin, ich werde mit Bremens Kinder- und Bildungssenatorin Sascha Karolin Aulepp, die nächstes Jahr der JFMK vorsitzt, dort weitermachen, wo unsere Vorgänger Katharina Günther-Wünsch und Steffen Freiberg aufgehört haben. Darüber hinaus, glaube ich, sollten wir als Konsequenz aus Pisa häufiger den Schülerinnen und Schülern zuhören, wie sie ihren Unterricht erleben.
"Sich einfach zurückzulehnen und zu sagen, Mädchen seien halt weniger an Mathe interessiert und wer keine mathematische Grundbildung erhält, hat selbst schuld, bringt uns nicht weiter."
Was meinen Sie damit?
Pisa bietet auch dazu wichtige Erkenntnisse. Es stellt sich beim Blick auf Angaben der Jugendlichen sehr schnell die Frage, ob der Mathematikunterricht, wie er in den meisten Schulen erteilt wird, noch zeitgemäß ist. Bietet er die Lebensorientierung, die Schülerinnen und Schüler sich wünschen? Wie muss er ablaufen, damit Mädchen sich genauso angesprochen fühlen? Sich einfach zurückzulehnen und zu sagen, Mädchen seien halt weniger an Mathe interessiert und wer keine mathematische Grundbildung erhält, hat selbst schuld, bringt uns nicht weiter. Weshalb die Weiterentwicklung der Lehrkräftebildung nicht zufällig das nächste große Thema auf unserer Agenda als KMK ist.
Aber geht es bei der wirklich vorrangig um besseren Unterricht? Oder beruht die plötzliche Reformdynamik vor allem auf dem Kalkül der Kultusminister, möglichst schnell möglichst viele Lehrkräfte gegen den Mangel zu produzieren?
Den Eindruck habe ich nicht. Natürlich muss jedes Land erstmal schauen, selbst genug Lehrkräfte zu haben. Darum brauchen wir auch kurzfristige Strategien gegen den Fachkräftemangel, der nicht nur die Schulen betrifft, weshalb wir mit vielen anderen gesellschaftlichen Bereichen um die gleichen Köpfe konkurrieren. Andererseits müssen wir aber grundsätzlich schauen, wie wir die Lehrerbildung praxisorientierter machen, um genau den lebensweltlichen Bezug zu den Schülerinnen und Schülern zu erreichen, der im Unterricht oft eben nicht da ist. Und so hilfreich das kürzlich veröffentlichte Gutachten der SWK zur Zukunft der Lehrkräftebildung war, genau an der Stelle haben wir mit den Experten einen offenen Diskussionspunkt.
Eine recht euphemistische Umschreibung dafür, dass die SWK die Begeisterung der Kultusminister für die Einführung eines dualen Studiums überhaupt nicht teilt.
Es erscheint vorstellbar, dass wir dazu in der KMK bald eine Beschlusslage hinbekommen. Und ich glaube, dass sich der Konflikt mit der SWK ein Stückweit erledigt, wenn wir uns von den Begrifflichkeiten lösen. Was ich unter einem dualen Studium verstehe, eine stärkere Praxisorientierung schon ab dem ersten Semester, wird von etlichen Wissenschaftlern geteilt. Da hat sich in den vergangenen Jahren schon viel getan mit Praktika und Praxissemestern. Aber wir stellen fest, dass die Studierenden sich noch mehr wünschen, sie wollen die unmittelbare Konfrontation mit dem Schulalltag. Mit der praxisintegrierten Ausbildung der Erzieherinnen gibt es längst gute Vorbilder.
Der SWK geht es aber um die tiefe wissenschaftliche Fundierung – die die Studierenden sich übrigens genauso wünschen.
Die SWK fürchtet, es könnten sich durch einen zu frühen Praxiseinsatz ungute Arbeitsstrategien verfestigen, bevor sie theoretisch hinterfragt werden konnen. Für mich ist das aber vor allem eine Frage der Organisation und der geeigneten Umsetzung.
"Im Saarland diskutieren wir jetzt die Etablierung von Ausbildungsschulen , ähnlich wie es Lehrkrankenhäuser für angehende Mediziner gibt."
Vor allem ist es eine Frage der Betreuung. Die Realität sieht vielerorts so aus, dass schon Lehramtsstudierende als Vertretungskräfte in den Schulen arbeiten, ohne jedes Coaching – wenn doch Bildungswissenschaftler warnen, dass Praxiseinsatz ohne umfangreiche Anleitung pädagogisch wertlos ist.
Es ist aber genau, wie Sie sagen: Diese Frage stellt sich nicht erst mit der Debatte ums duale Studium. Das Problem beginnt, sobald die jungen Fachkräfte, die eigentlich noch in Ausbildung sind, zur Abdeckung von Personallücken eingesetzt werden. Verschärft wird es, wenn gleichzeitig Betreuungspersonen fehlen. Schon im Referendariat ist eine angemessene Begleitung immer wieder aufs Neue eine Herausforderung, viele Fachseminarleiter wünschen sich einen stärkeren und verbindlicheren Austausch mit den Schulen. Weshalb wir im Saarland jetzt die Etablierung von Ausbildungsschulen diskutieren, ähnlich wie es Lehrkrankenhäuser für angehende Mediziner gibt. Das sind Standorte, wo es Mentorinnen gibt, die mit Studierenden und Referendaren zusammenarbeiten, sie im unmittelbaren Austausch begleiten. Dann und nur dann kann ein duales Studium funktionieren – bis hin zu einer Variante mit einem bezahlten Einsatz bereits zu Beginn des Studiums. An den Grundschulen in meinem Bundesland spüre ich da eine große Offenheit, an den weiterführenden Schulen weniger, wenn man beispielsweise die ablehnende Position des Philologenverbandes betrachtet. Aber die Debatte müssen wir trotzdem führen. Und sie zusammendenken mit der Reform der dritten Phase, der verstärkten berufsbegleitenden Weiterqualifizierung von Lehrerinnen und Lehrern.
Die noch mehr von Schulen und Universitäten abverlangen würde.
Die aber lohnen würde. Ich gebe Ihnen ein Beispiel. Im Saarland haben wir dieses Schuljahr das Fach Informatik eingeführt, flächendeckend an allen weiterführenden Schulen ab Klasse sieben. Die dafür nötigen Informatiklehrer finden wir nicht auf dem Arbeitsmarkt, weil erstens Informatiker anderswo deutlich mehr verdienen können als in den Schulen und weil zweitens mit jedem Bundesland, das Informatik als Schulfach etabliert, die Konkurrenz zunimmt. Darum haben wir mit der Universität des Saarlandes eine neues Weiterbildungsprogramm auf die Beine gestellt, bei dem Lehrerinnen und Lehrer Informatik als drittes Fach hinzustudieren können. Das ermöglicht uns, Schritt für Schritt den Bedarf zu decken.
Die SWK schlägt als weitere Maßnahme die Einführung von Assistenzlehrkräften vor – im Sinne eines neuen Berufsbildes, aber auch als Entlastung der Kollegien.
Aktuell haben wir im Saarland keine Assistenzlehrkräfte, ich bin bei der Frage mit Blick auf mögliche Konflikte auch sehr zurückhaltend. Am Ende führt das zu unterschiedlichen Bezahlstrukturen unter dem Dach einer Schule. Wir sollten eher schauen, ob es andere Möglichkeiten gibt, die Kollegien zu unterstützen, etwa durch eine Ausweitung der systemischen Unterstützung im Rahmen ganztägiger, inklusiver Schulen. Als zusätzliche professionelle Struktur an den Schulen. Das gehört zu dem, was ich mir unter multiprofessionellen Teams vorstelle.
Zu denen auch die Systemadministratoren gehören würden, über deren Einsatz in Schulen seit dem Digitalpakt verstärkt diskutiert wird. Apropos Digitalisierung: Im Jahr 2 nach dem Auftauchen von ChatGPT hätte man denken können, dass Sie das Thema Künstliche Intelligenz zum Thema Ihrer Präsidentschaft machen.
Das ist Teil der Transformation, über die ich am Anfang gesprochen habe. So wichtig digitale Souveränität und digitale Mündigkeit als Zukunftskompetenzen sind, so besorgt beobachte ich, wie etwa skandinavische Länder den Rückzug aus der Digitalisierung in den Schulen verkünden. Das würde bei uns die digitale Spaltung in der Schülerschaft weiter vertiefen. Wir statten im Saarland alle Schülerinnen und Schüler ab Klasse drei mit eigenen digitalen Endgeräten aus, fertig konfiguriert mit den nötigen Inhalten. Wir reden nicht mehr von digitalen Schulbüchern in PDF-Format, sondern von einer Vielfalt von Diagnoseinstrumenten für eine Individualisierung des Lernfortschritts mit paralleler Rückmeldung an die Lehrkräfte. Was zeigt, dass es um weit mehr geht als die Potenziale von Large Language Models wie ChatGPT. Und um völlig neue Herausforderungen. Woher weiß ich noch, dass mein Gegenüber in der Videokonferenz echt ist und nicht durch eine Software generiert? Oder wenn ich auf Facebook die immer gleichen Bilder zum Konflikt zwischen Israel und Palästina angeboten bekomme, warum ist das so? Alles Fragen, auf die unsere Schulen die Kinder vorbereiten müssen. Sie werden in einer Welt leben, die nach ganz anderen Gesetzen funktioniert als unsere heutige. Wir müssen ihnen die Instrumente gegeben, diese Welt kritisch zu begleiten und im besten Falle gestalten zu können.
Mit dem "Wir" meinen Sie die Bundesländer, weil sie die Bildungshoheit haben?
Die Zukunft der Bildungspolitik liegt in der Zusammenarbeit zwischen Bund, Ländern und Kommunen, weshalb gerade beim Digitalpakt, diesem großen kommunalen Unterstützungsprogramm, die Fortsetzung so wichtig ist. Ohne den Digitalpakt I wären viele Investitionen in die Digitalisierung unserer Schulen nicht möglich gewesen. Er endet im Juni 2024, und natürlich haben wir uns als Länder ein klares Signal des Bundes gewünscht, dass es unmittelbar mit dem Digitalpakt II weitergeht. Stattdessen bekamen wir die Ansage, dass es frühestens 2025 etwa wird. Wenn ich mir jetzt die Entwicklungen der vergangenen Wochen anschaue, bin ich sehr gespannt, wie es der Bundesbildungsministerin gelingen wird, das Programm im Haushalt zu platzieren. Gelingt ihr das nicht, werden viele neue im Digitalpakt I entstandene Strukturen in den Kommunen kaputtgehen. Einfach, weil die meisten Länder die Ausgaben nicht allein stemmen können. Der Bund hat eine Mitverantwortung, dass in den Schulen aller Bundesländer eine gleichwertige digitale Infrastruktur besteht.
"Digitalpakt und Startchancen sind die zwei Programme, die am Ende über bildungspolitische Bilanz von Ministerin Stark-Watzinger entscheiden werden."
Wäre es dann nicht die Verantwortung der Länder, wie vom Bund gefordert 50 Prozent der Finanzierung beizusteuern?
Der Bund hat erst im Laufe des Jahres 2023 seine Strategie geändert und will plötzlich überall und einseitig weg von den alten Finanzierungsschlüsseln. Darüber wird zu verhandeln sein, so wie wir beim Startchancen-Programm darüber verhandelt haben – auch über die Eigenleistungen der Länder, die dann angerechnet werden. Wenn wir im Saarland alle Schüler mit Endgeräten ausstatten, stemmen wir viel selbst – das sollte der Bund anerkennen. Und wenn wir über eine Fifty-Fifty-Finanzierung reden, wäre es übrigens umgekehrt angebracht, dass der Bund sich auf eine langfristige Lösung einlässt. Wir können nicht immer von einer Programmverlängerung in die nächste gehen. Wir brauchen einen höheren Grad an Verbindlichkeit.
Es gibt Länder, vor allem mit CDU-geführten Kultusministerien, die ein Junktim machen wollen zwischen Startchancen-Programm und Digitalpakt. Die sagen: Auch wenn es zeitnah eine Startchancen-Verwaltungsvereinbarung gibt, werden wir die nur ratifizieren, wenn es Sicherheit beim Digitalpakt gibt.
Dafür habe ich großes Verständnis. Der Digitalpakt ist ein Infrastrukturprogramm: Wenn der Digitalpakt nicht fortgeführt werden kann, dann wird die Infrastruktur auf kommunaler Ebene darunter leiden. Deshalb schauen wir als Länder natürlich beim Startchancenprogramm auch auf die Entwicklung des Digitalpakts. Sieht der Bund hier seine Aufgaben nach Auslaufen des Programms seine Aufgabe als erledigt an oder bekennt er sich zu seiner Verpflichtung einer Anschlussfinanzierung? Vor dem Hintergrund des jüngsten Verfassungsgerichtsurteils schauen wir als Kultusministerinnen und Kultusminister genau hin, ob sich das Bekenntnis für die Fortführung des Digitalpakts auch in den Zahlen in der Bundeshaushaltsplanung ablesen lässt.
Der Entwurf der Startchancen-Verwaltungsvereinbarung, die der Bund für November angekündigt hatte, ließ derweil bis zwei Tage vor Weihnachten auf sich warten.
Ich will dem Bund da nichts unterstellen, das BMBF hat mit den Ländern gemeinsam äußerst intensiv in der gemeinsamen Arbeitsgruppe an dem Programm gearbeitet. Aber natürlich ist es sehr bedauerlich dass es so lange gedauert hat, denn ein Beginn zum August 2024 wird jetzt zu einer extremen Herausforderung. Ich erinnere nur an den Entwurf der Vereinbarung zu den Ganztagsschulen, die über Monate zwischen Bundesfamilienministerium und den Ländern hin- und herging. Unsere Ministerien müssen den Vorschlag des Bundes jetzt in kürzester Zeit bewerten und dabei trotzdem gründlich sein, wir müssen auf politischer Ebene sehr schnell zu einer Einschätzung kommen, ob wir auf dieser Grundlage weitermachen können. Darum hatten wir ja so viel Wert darauf gelegt, möglichst früh den Entwurf zu erhalten. Nun ist es, wie es ist. Und wir müssen zweigleisig fahren: mit dem Bund verhandeln und parallel bereits schauen, welche Schulen wir für das Programm vorschlagen wollen. Das geht aber nur teilweise. Ich kann nicht mit den Schulen ins Gespräch gehen über die einzelnen Säulen des Programms, ohne zu wissen, ob diese Säulen dann auch so kommen. Wir arbeiten also mit angezogener Handbremse und müssen doch mit aller Kraft dafür kämpfen, dass wir zum nächsten Schuljahr pünktlich starten können.
Die Ampelkoalition in Berlin ist mit großen bildungspolitischen Ambitionen in die Legislaturperiode gestartet. Hat sie geliefert?
Die Antwort ist offen. Ich erwarte, dass das BMBF bei Digitalpakt und Startchancen liefert. Das sind die zwei Programme, die am Ende über bildungspolitische Bilanz von Ministerin Stark-Watzinger entscheiden werden.
Kostenfreien Newsletter abonnieren
In eigener Sache: Blog-Finanzierung
Wie dieser Blog finanziell aufgestellt ist, warum er Ihre Unterstützung braucht – und welche Artikel im November am meisten gelesen wurden.
Die Inhalte der verlinkten Blogs und Blog Beiträge unterliegen in vielen Fällen keiner redaktionellen Kontrolle.
Warnung zur Verfügbarkeit
Eine dauerhafte Verfügbarkeit ist nicht garantiert und liegt vollumfänglich in den Händen der Blogbetreiber:innen. Bitte erstellen Sie sich selbständig eine Kopie falls Sie einen Blog Beitrag zitieren möchten.
Saudi-Arabien erlebt einen tiefgreifenden Wandel und steht vor großen Herausforderungen, die weit über sein traditionelles Image als Ölexporteur hinausgehen. Das Land, das über Jahrzehnte hinweg stark von der Ölförderung abhängig war und noch immer ist, steht vor besonderen Herausforderungen im Kontext der Nachhaltigkeit. Im Zeitalter von globaler Erwärmung, Ressourcenknappheit und Umweltzerstörung gewinnt das Konzept der Nachhaltigkeit zunehmend an Bedeutung.Es ist daher von großer Relevanz, sich mit den Bemühungen und Initiativen einzelner Länder auseinanderzusetzen, die darauf abzielen, ökologische, ökonomische und soziale Nachhaltigkeit zu fördern. Mit seinem "Vision 2030"-Programm hat das Königreich ambitionierte Ziele formuliert, um seine Wirtschaft zu diversifizieren und nachhaltige Entwicklung zu fördern (vgl. Benlaria et al., 2022).Diese Arbeit zielt darauf ab, die verschiedenen Nachhaltigkeitsprojekte des Landes darzustellen, zu analysieren und kritisch zu bewerten. Zu Beginn wird Saudi-Arabiens Standpunkt in der Welt als Ölexporteur beleuchtet. Des Weiteren werden die Herausforderungen, die bei der Umstellung auf nachhaltige Projekte entstehen, erörtert. Im Anschluss werden die Potenziale und Strategien für eine nachhaltige Energiezukunft vorgestellt.Saudi-Arabiens Standpunkt in der Welt (Ölexporteur)Saudi-Arabien ist als einer der weltgrößten Ölexporteure bekannt, dessen Wirtschaft traditionell stark von der Erdölindustrie abhängig ist. Als eines der führenden Ölexportländer nimmt Saudi-Arabien eine bedeutende Rolle in der globalen Wirtschaft und Energiepolitik ein. Der Reichtum des Landes, der auf den umfangreichen Ölvorkommen beruht, hat das Land nicht nur zu einem wirtschaftlichen Schwergewicht gemacht, sondern auch zu einem Schlüsselakteur auf der geopolitischen Bühne.Die Einnahmen aus dem Ölexport bilden die Stütze der Staatsfinanzen und ermöglichen es dem Land, umfassende Infrastrukturprojekte zu finanzieren und soziale Programme zu unterstützen. Jedoch ist Saudi-Arabien stark von den Schwankungen des globalen Ölpreises abhängig, was die Wirtschaft anfällig für externe Einflüsse macht.Mit einem Anteil von rund 42 % am Bruttoinlandsprodukt ist der Erdölsektor ein entscheidender Faktor für die Wirtschaft des Landes (vgl. Alghamdi et al., 2020). In der Vergangenheit trug der Ölreichtum zur Entwicklung verschiedener Wirtschaftsstrukturen bei und ermöglichte es dem saudischen Staat, seine umfassenden Sozialleistungen zu finanzieren (vgl. Henrich, 2023, S. 197).Die Notwendigkeit, sich von der Öl-Abhängigkeit zu lösen, wurde insbesondere durch die Ereignisse im September 2019 verdeutlicht, als zwei Erdölanlagen der Firma ARAMCO durch Drohnenangriffe beschädigt wurden, wodurch das Königreich kurzzeitig 60 % seiner Produktionskapazitäten verlor (vgl. Akbulut et al., 2022, S.74).Diese Abhängigkeit von fossilen Brennstoffen hat langfristige Folgen für die Umwelt und stellt das Land vor Herausforderungen im Zusammenhang mit globaler Erwärmung und Klimawandel. Angesichts der zunehmenden internationalen Bestrebungen zur Reduktion von Treibhausgasen und der Förderung nachhaltiger Energiequellen, steht Saudi-Arabien vor einem Wendepunkt. Es muss seine Wirtschaft diversifizieren und den Weg hin zu einer nachhaltigeren Zukunft einschlagen (vgl. Alghamdi et al., 2022).Die außenpolitischen Strategien Saudi-Arabiens, insbesondere die Annäherung an Israel und die Beziehungen zu den USA, spielen ebenfalls eine wichtige Rolle. Die Unterstützung der USA, insbesondere im Sicherheitsbereich, bleibt für das Land von zentraler Bedeutung (vgl. Akbulut et al., 2022, S.97f.).Kritik gibt es an der Ernsthaftigkeit Saudi-Arabiens im Hinblick auf internationale Umweltverträge. Frühere Positionen des Landes bei Verhandlungen zu globalen Umweltabkommen wurden als obstruktiv eingestuft, was teilweise darauf zurückgeführt wurde, dass eine Reduzierung von Treibhausgas-Emissionen zu einem Rückgang der Nachfrage nach Erdöl und damit zu Einnahmeverlusten führen könnte.Dennoch zeigt das Engagement und die Teilnahme an globalen Umweltforen ein zunehmendes Bewusstsein für Nachhaltigkeitsfragen innerhalb des Landes. Mit der Umsetzung von Vision 2030, einem ambitionierten Programm des Kronprinzen Mohammed Bin Salman, das darauf abzielt, die Abhängigkeit des Landes vom Öl zu senken und der Förderung nachhaltiger Praktiken in verschiedenen Wirtschaftssektoren, einschließlich der Umwelt-, Energie- und Infrastrukturprojekte, hat Saudi-Arabien bereits wichtige Schritte in Richtung einer nachhaltigeren Zukunft unternommen (vgl. Akbulut et al., 2022, S.68). Herausforderungen bei der Umstellung auf nachhaltige ProjekteAls ein bedeutender Exporteur von Erdöl und Erdgas sieht sich Saudi-Arabien vor der Herausforderung, sich von seiner starken Abhängigkeit von fossilen Brennstoffen zu lösen und auf nachhaltige Projekte umzusteigen. Außerdem steht das Land vor zahlreichen Entwicklungsproblemen wie hoher Arbeitslosigkeit, schnell wachsender Bevölkerung, schneller Urbanisierung und einem großen Zustrom von Einwanderern, während es gleichzeitig über unzureichendes Ackerland sowie Lebensmittel- und Wasserressourcen verfügt.Trotzdem strebt Saudi-Arabien an, sich von der Abhängigkeit von Erdöl zu lösen und den Übergang zu erneuerbaren Energiequellen voranzutreiben, um den Energiebedarf des Landes zu decken. Um diese Ziele zu erreichen, wurden umfassende Recyclingprojekte etabliert und Anstrengungen unternommen, um die Wüstenbildung und verschiedene Formen der Umweltverschmutzung zu reduzieren. Ein optimierter Umgang mit Wasserressourcen wird durch die Reduzierung des Verbrauchs und die Nutzung von aufbereitetem und erneuerbarem Wasser gefördert. Darüber hinaus werden Inseln, Naturschutzgebiete und Strände geschützt und rehabilitiert, um sie der Öffentlichkeit zugänglich zu machen. Das Bildungssystem spielt ebenfalls eine Rolle bei der Förderung nachhaltiger Praktiken. Saudi-Arabien hat in den letzten Jahrzehnten die Anzahl der Universitäten erheblich erhöht, was auf sein Engagement für eine nachhaltige nationale Entwicklung hinweist (vgl. Alshuwaikhat et al., 2017).Saudi-Arabien hat sich internationalen Anstrengungen angeschlossen, um den Herausforderungen des Klimawandels zu begegnen, wie es auch auf der Klimakonferenz von Dubai 2023 deutlich wurde. Dennoch wird das Land aufgrund seiner führenden Rolle in der Erdölproduktion und als einer der zehn größten CO2-Produzenten weltweit weiterhin kritisiert (vgl. Haque et al., 2020). Die Forschung empfiehlt, dass die saudi-arabische Regierung nicht nur die Nutzung erneuerbarer Energien fördern, sondern auch deren Finanzierung verbessern und die Leistungsfähigkeit des Verbrauchs und der industriellen Nutzung von erneuerbaren Energien steigern sollte (vgl. Kahia et al., 2021). Potenziale und Strategien für eine nachhaltige EnergiezukunftDa Saudi-Arabien über reichlich Sonneneinstrahlung und große Flächen verfügt, die sich ideal für die Nutzung von Solarenergie eignen, sind die Potenziale für erneuerbare Energien in Saudi-Arabien groß. Photovoltaikanlagen könnten einen erheblichen Beitrag zur Energieversorgung leisten. Aufgrund der klimatischen Bedingungen mit hoher Sonneneinstrahlung und der ausgedehnten, dünn besiedelten Landfläche verfügt das Land über ein großes Potenzial in der Solarenergie, das bisher nur minimal genutzt wird.Zudem bieten die beträchtlichen Windenergieoptionen zusätzliche Chancen, nachhaltige Energie zu gewinnen. Durch ihr ergänzendes Erzeugungsprofil wird die Windenergie den Ausbau der Solarenergie unterstützen. Darüber hinaus bieten die ausgedehnten Küstengebiete des Landes ideale Bedingungen für die Entwicklung von Windenergieprojekten. Diese erneuerbaren Ressourcen haben das Potenzial, Saudi-Arabien zu einem Vorreiter auf dem Gebiet der nachhaltigen Energie zu machen (vgl. Krebber, 2022).Die saudi-arabische Regierung hat bereits in verschiedene Projekte investiert, um die nationale Infrastruktur zu verbessern und die Effizienz im Energieverbrauch zu steigern (vgl. Alghamdi et al., 2022). Es ist zu beachten, dass Saudi-Arabien nicht nur im Hinblick auf Energie, sondern auch im Hinblick auf Wasser und Abfallmanagement Nachhaltigkeit anstrebt. Die Einführung von Recyclingprojekten und die Bemühungen zur Reduzierung von Wüstenbildung und Verschmutzung sind Teil dieser Bestrebungen (vgl. Alshuwaikhat et al., 2017).Die Umsetzung dieser vielfältigen Strategien und Projekte ist allerdings mit Herausforderungen verbunden. Die vollständige Abhängigkeit von fossilen Brennstoffen für die Stromerzeugung und der Mangel an verbindlichen Bauvorschriften, die Nachhaltigkeit berücksichtigen, stellen Hindernisse dar, die es zu überwinden gilt. Die Regierung hat zwar wichtige Schritte unternommen, um Umweltschutz, Biodiversität, natürliche Ressourcen und eine bessere Lebensqualität zu gewährleisten, doch der Weg zu einer nachhaltigen Zukunft erfordert eine fortgesetzte und verstärkte Anstrengung in Bildung, Forschung und Regulierung (vgl. Alghamdi et al., 2022). Nachhaltigkeitsprojekte in Saudi-ArabienIn Saudi-Arabien hat sich in den letzten Jahrzehnten ein bedeutender Wandel vollzogen, der insbesondere durch die zunehmende Bedeutung von Nachhaltigkeitsprojekten gekennzeichnet ist. Die Regierung hat erkannt, dass die Abhängigkeit von fossilen Brennstoffen langfristig nicht tragbar ist, und hat daher erhebliche Investitionen in erneuerbare Energiequellen und nachhaltige Entwicklungsprojekte getätigt (vgl. Benlaria et al., 2022).Dabei hat Saudi-Arabien eine Reihe von Initiativen gestartet, um die Prinzipien der Nachhaltigkeit im Land zu realisieren. Bedeutende staatliche Bauprojekte und die Entwicklung von Infrastruktur und Gebäude, einschließlich Unterkünften, privatem Bau, Krankenhäusern und Schulen, haben zur raschen Entwicklung des Tourismussektors beigetragen. Die Regierung hat zudem wichtige Maßnahmen zum Schutz der Umwelt und zur Erhaltung der Biodiversität und natürlicher Ressourcen ergriffen (vgl. Alghamdi et al., 2022).Beispielsweise wurden mit dem Programm "Vision 2030" ambitionierte Ziele formuliert, um die Wirtschaft des Landes zu diversifizieren und nachhaltige Entwicklung zu fördern. Zu den Zielen gehört die Aufnahme erneuerbarer Energien in den Energiemix des Landes, die Steigerung der Produktion von Erdgas und die Kontrolle des Energieverbrauchs durch Subventionspläne für Brennstoffe (vgl. Mohammed et al., 2020). Im folgenden werden drei große Nachhaltigkeitsprojekte Saudi-Arabiens vorgestellt:Neom - "The Line"Ein zentrales Element von Vision 2030 ist das Projekt Neom, das als eine Stadt der Zukunft konzipiert ist und als Musterbeispiel für nachhaltige Städteplanung dienen soll. Mit einem Investitionsvolumen von geschätzten 500 Milliarden US-Dollar ist Neom nicht nur ein städtisches Großprojekt, sondern auch ein Symbol für die Transformation des Königreichs.Neom wird vollständig auf erneuerbare Energiequellen setzen und strebt an, eine Netto-Null-Kohlenstoff-Stadt zu werden. Die Entwicklungspläne für Neom schließen innovative Technologien ein, wie grüne Wasserstoffanlagen, solarbetriebene Entsalzungsanlagen und Systeme für urbane Luftmobilität, die es ermöglichen, Neom als einen globalen Vorreiter in der nachhaltigen Stadtentwicklung zu positionieren (vgl. Yusuf et al., 2022).Des Weiteren wird "The Line" errichtet, das ein Teil des größeren NEOM-Projekts ist. Es soll eine 170 km lange lineare Stadt werden, die darauf abzielt, alle wesentlichen Alltagsbedürfnisse innerhalb von fünf Gehminuten erreichbar zu machen und dabei auf den Einsatz von Autos zu verzichten. Die Verkehrssysteme werden vollständig unterirdisch geführt und durch künstliche Intelligenz gesteuert, um eine reibungslose Integration und schnelle Massentransitsysteme zu gewährleisten (vgl. Algumzi, 2022).Trotz der hohen Erwartungen und des Potenzials birgt das Projekt auch Herausforderungen. Die finanzielle Transparenz und das Risikomanagement sind kritische Aspekte, die es zu beachten gilt. Darüber hinaus muss Neom den Spagat zwischen der Bewahrung der kulturellen Identität Saudi-Arabiens und der Einführung von Innovationen meistern. Die Fertigstellung der ersten Phase ist für 2025 geplant, was den ambitionierten Zeitrahmen des Projekts unterstreicht.Das Projekt soll ein neues Kapitel in der Geschichte der urbanen Entwicklung aufschlagen. Es soll ein Modell sein, das zeigt, dass nachhaltig geplante Städte sowohl aus sozioökonomischer als auch aus technologischer Perspektive machbar sind. Der Erfolg dieses Megaprojekts könnte weitreichende Implikationen für die Stadtplanung weltweit haben und Saudi-Arabien als einen führenden Akteur im Bereich der Nachhaltigkeit etablieren (vgl. Yusuf et al., 2022).Das Rote Meer ProjektSaudi-Arabien schlägt durch das Rote Meer Projekt bemerkenswerte Ökotourismus-Bemühungen für eine nachhaltige Zukunft ein. Das Projekt ist ein Beispiel für die Förderung der Tourismusindustrie. Die Vielfalt der natürlichen Ökosysteme und soziokulturellen Merkmale Saudi-Arabiens bieten viele Möglichkeiten für den Ökotourismus. Dieses Luxustourismus-Entwicklungsprojekt erstreckt sich über einen Archipel von 90 Inseln an der Westküste Saudi-Arabiens und den Küsten der Provinz Tabuk.Das bereits 2017 angekündigte Projekt soll den internationalen Tourismus auf diese unberührten Inseln locken, bis zu 70.000 Arbeitsplätze schaffen und das Ökosystem an der Küste des Roten Meeres schützen. Zu den Zielen gehört das Streben nach 100 Prozent erneuerbarer Energie und schließlich die Erzeugung und Speicherung der vor Ort genutzten Energie aus erneuerbaren Quellen (vgl. Al-Sulbi, 2010). Grünes RiadUm der Wüstenlandschaft und dem immer bedrohlicheren Klimawandel entgegenzuwirken, hat Saudi-Arabien das sogenannte Riyadh Green Project ins Leben gerufen. In Riad, der Hauptstadt Saudi-Arabiens, sollen 7,5 Millionen Bäume den immer extremeren Lebensbedingungen entgegensteuern. Bis 2030 will König Salman Bin Abdulaziz zahlreiche Bäume in der Stadt und der gleichnamigen Provinz pflanzen. Das Projekt soll die Lebensqualität der Millionenmetropole verbessern und zielt darauf ab, den Pro-Kopf-Anteil der Grünfläche der Stadt von 1,7 auf 28 Quadratmeter zu erhöhen.Ein wesentliches Ziel des Projekts ist es, die Auswirkungen des Klimawandels in der Millionenmetropole zu verringern. Die CO2-Konzentration soll durch die urbane Bepflanzung um 3-6 % gesenkt werden, auch der Feinstaub-Gehalt soll reduziert werden. Dies bringt gesundheitliche Vorteile für die Bevölkerung von Riad mit sich, deren Atemwege von schlechter Luftqualität beeinträchtigt sind. Durch das Projekt soll eine höhere Luftqualität gewährleistet, geringere Temperaturen in der Stadt erreicht und weniger Wasser verschwendet werden (vgl. Hager, 2022).Beitrag zur globalen EnergiewendeSaudi-Arabien hat die Saudi Green Initiative ins Leben gerufen, die zum Ziel hat, bis 2030 50 % des Stroms aus erneuerbaren Energien zu gewinnen. 2019 machte Gas 65 % des saudi-arabischen Strommixes aus, der Rest wird durch Öl abgedeckt. Saudi-Arabien gehört zu den weltweit größten CO₂-Verursachern, will sich jedoch als ambitionierter Akteur im Kampf gegen den Klimawandel etablieren.Kronprinz Mohammed bin Salman erklärte im Oktober 2021 auf dem Saudi Green Initiative Forum, sein Land strebe an, bis 2060 klimaneutral zu werden. In diesem Zusammenhang hat das Königreich erhebliche Anstrengungen unternommen, um den Übergang zu erneuerbaren Energien voranzutreiben und eine nachhaltige Infrastruktur zu entwickeln. Die Vision 2030 des Königreichs unterstreicht die Ambitionen, die Abhängigkeit von Öleinnahmen zu verringern und eine nachhaltigere und vielfältigere Wirtschaft zu schaffen.Die Regierung hat umfangreiche Investitionen in den Ausbau erneuerbarer Energien getätigt, insbesondere in Solar- und Windenergie, um ihre Ziele zu erreichen. Diese Bemühungen sind nicht nur auf die Reduzierung von Treibhausgasemissionen und die Bekämpfung des Klimawandels ausgerichtet, sondern auch darauf, die Energieversorgungssicherheit zu stärken und wirtschaftliche Chancen zu schaffen.Trotz dieser Bemühungen weist die aktuelle Entwicklung erneuerbarer Energien in Saudi-Arabien noch eine erhebliche Lücke im Vergleich zu den gesetzten Zielen auf. Die angestrebten Kapazitäten von 27,3 Gigawatt bis 2023 und 58,7 Gigawatt bis 2030 scheinen aufgrund der bisherigen Fortschritte schwer erreichbar (vgl. Mohammed et al., 2020).Die saudische Regierung hat wichtige Initiativen ergriffen, um die Umwelt zu schützen und die Biodiversität zu bewahren. Dennoch hängt die Elektrizitätserzeugung vollständig von fossilen Brennstoffen ab, was erhebliche Umweltauswirkungen mit sich bringt (vgl. Alghamdi et al., 2022). Saudi-Arabien hat zwar bedeutende Schritte in Richtung Nachhaltigkeit unternommen, jedoch ist es noch ein langer Weg, bis das Königreich seine ambitionierten Ziele erreicht. Soziale, ökonomische und ökologische AuswirkungenDie Nachhaltigkeitsdiskussion in Saudi-Arabien ist eng mit der sozialen, ökonomischen und ökologischen Entwicklung des Königreichs verknüpft. Der Versuch, von der Abhängigikeit von Öl- und Gasexporten wegzukommen und auf erneuerbare Energien und Nachhaltigkeitsprojekte umzusteigen, ist ein schwieriger Schritt, der verschiedene Auswirkungen mit sich bringt. Welche sozialen, wirtschaftlichen und ökologischen Auswirkungen durch diese Projekte entstehen, werden im folgenden Kapitel näher betrachtet.Unter soziale Auswirkungen fallen neue Arbeitsplätze und neuer Wohnraum für die Bevölkerung Saudi-Arabiens. Die Bedeutung von Nachhaltigkeit in Saudi-Arabien wird auch durch das Engagement für nachhaltige Praktiken in öffentlichen und privaten Unternehmen unterstrichen, wobei die Regierung ernsthafte Anstrengungen unternimmt, um Umweltprobleme anzugehen (vgl. Hashmi et al., 2014).Dennoch besteht eine Diskrepanz zwischen den Umweltgesetzen und der Landespolitik sowie den Regelungen, und es mangelt an öffentlichem Bewusstsein für Nachhaltigkeit. Es wird deutlich, dass trotz der Bemühungen der Regierung zur Adressierung von Umweltproblemen und ökologischen Fußabdrücken noch merkliche Probleme bestehen, die den Fortschritt hin zu einer umweltgerechten Nachhaltigkeit behindern (vgl. Mandeli, 2019).Ökonomisch wird gehofft, dass Saudi-Arabiens Wirtschaft durch die Projekte wächst. Die Bemühungen des Königreichs, erneuerbare Brennstoffe aus einheimischen Quellen zu fördern, sind ebenfalls ein wichtiger Schritt in Richtung einer nachhaltigeren Energieversorgung. Investitionszuflüsse öffnen und stärken gleichzeitig die Finanzmärkte Saudi-Arabiens, um eine nachhaltige Entwicklung zu realisieren (vgl. Belloumi et al., 2020). Darüber hinaus ist eine umfassende Bildungsreform erforderlich, um Manager auf die Arbeitsplätze der Zukunft vorzubereiten und das Königreich auf den Weg der Nachhaltigkeit zu führen (vgl. Hashmi et al., 2014).Für die ökologische Nachhaltigkeit ist die Förderung des Ökotourismus in Saudi-Arabien von enormer Bedeutung. Dies erfordert eine ganzheitliche Integration sowohl naturzentrierter als auch menschzentrierter Perspektiven, um einen nachhaltigen Ökotourismus auf nationaler Ebene aufrechtzuerhalten (vgl. Al-Sulbi, 2010). Die strategische Bewegung zur Förderung der Tourismusindustrie in allen Regionen des Königreichs begann im Jahr 2002 und hat sowohl erhebliche Investitionen in diesen aufstrebenden Sektor angezogen als auch eine Änderung der Einstellung der Touristen bewirkt (vgl. Al-Sulbi, 2010).Trotz dieser Fortschritte ist Saudi-Arabien nach wie vor mit Herausforderungen konfrontiert ist, wie z.B. der zunehmenden Nachfrage nach Wohnraum und finanziellen und institutionellen Kapazitäten (vgl. Mandeli, 2019). Saudi-Arabien muss sich weiterhin für internationale Investitionszuflüsse öffnen und gleichzeitig seine Finanzmärkte stärken, um eine nachhaltige Entwicklung zu realisieren (vgl. Belloumi et al., 2020).Zusammenfassend lässt sich sagen, dass Saudi-Arabien bedeutende Schritte in Richtung Nachhaltigkeit unternommen hat, aber nach wie vor mit der Herausforderung konfrontiert ist, die sozialen, ökonomischen und ökologischen Auswirkungen von Nachhaltigkeitsprojekten in Einklang zu bringen und die Implementierung dieser Projekte effektiv zu gestalten.AusblickSaudi-Arabien hat in den letzten Jahren erhebliche Anstrengungen unternommen, um seine Wirtschaft diversifizierter und nachhaltiger zu gestalten. Dabei stehen verschiedene Projekte und Initiativen im Mittelpunkt, die darauf abzielen, die Abhängigkeit von fossilen Brennstoffen zu verringern und die Umweltauswirkungen zu minimieren.Zusammenfassend lässt sich sagen, dass in dem Land Saudi-Arabien, das historisch stark von der Ölproduktion abhängig ist, das Thema Nachhaltigkeit in den letzten Jahren zunehmend an Bedeutung gewonnen hat. Die saudi-arabische Regierung hat ihre Vision 2030 eingeführt, die eine Reihe von strategischen Zielen zur Diversifizierung der Wirtschaft und zur Förderung nachhaltiger Entwicklung beinhaltet (vgl. Mohammed et al., 2020). Diese Vision beinhaltet die Schaffung einer "lebendigen Gesellschaft", einer "florierenden Wirtschaft" und einer "ehrgeizigen Nation", wobei Nachhaltigkeit in allen drei Bereichen als Schlüsselkomponente betrachtet wird (vgl. Alnasser et al., 2022).Innerhalb dieser Rahmenbedingungen hat Saudi-Arabien bedeutende Projekte zur Förderung erneuerbarer Energien initiiert. Ein Beispiel für das Engagement des Landes ist die Entwicklung von Kapazitäten im Bereich der erneuerbaren Energien. Die positive Auswirkung von erneuerbaren Energien auf das Bruttoinlandsprodukt verdeutlichen die Potenziale für ein nachhaltiges Wirtschaftswachstum (vgl. Benlaria et al., 2022).Zudem werden in Saudi-Arabien Maßnahmen zur Förderung des nachhaltigen Tourismus ergriffen. Die Planung von nachhaltigen Ökotourismus-Potenzialen erfordert eine ganzheitliche Integration von naturzentrierten und menschenzentrierten Perspektiven, um einen nachhaltigen Ökotourismus auf nationaler Ebene zu gewährleisten (vgl. Al-Sulbi, 2010).Trotzdem bleibt Saudi-Arabien einer der weltweit größten Energieverbraucher, was die Notwendigkeit für das Land betont, seine Energieeffizienz zu steigern und auf saubere Technologien umzustellen. Reformen bei den Energiesubventionen und Forschungsarbeiten zur Energieeffizienz werden als wichtige Schritte für Saudi-Arabien gesehen, um eine nachhaltige Entwicklung voranzutreiben (vgl. Belloumi et al., 2020).Die Herausforderungen, die sich aus der raschen Urbanisierung und dem wachsenden Energie- und Wasserverbrauch ergeben, erfordern jedoch eine umfassende Herangehensweise. Saudi-Arabien hat trotz der Fortschritte im Umweltschutz noch nicht das Ziel der nachhaltigen Entwicklung erreicht, was auf unzureichende Stadtplanung und -management zurückzuführen ist (vgl. Mandeli, 2019).Trotz dieser Herausforderungen zeigt die saudi-arabische Regierung ein ernsthaftes Engagement für die Bewältigung von Umweltproblemen und fördert die Forschung und das Studium von Umweltherausforderungen, die das Königreich betreffen (vgl. Hashmi et al., 2014).Insgesamt zeigt Saudi-Arabien mit den Nachhaltigkeitsprojekten eine klare Verpflichtung zum Umweltschutz und zur Reduzierung der Abhängigkeit von nicht erneuerbaren Ressourcen wie Öl und Gas. Die Entwicklungen und Projekte zeigen das Bestreben des Landes, nachhaltige Praktiken zu fördern und gleichzeitig die Wirtschaft zu diversifizieren.Nach wie vor muss Saudi-Arabien die Nachhaltigkeitsprojekte und erneuerbare Energien fördern, um die Umweltbedingungen zu verbessern und um die langfristige wirtschaftliche Stabilität des Königreichs fördern. Durch hohe Investitionen in erneuerbare Energien, Bergbau, nachhaltigen Tourismus und verbessertes Umweltmanagement zeigt Saudi-Arabien, dass es bereit ist, eine führende Rolle in der nachhaltigen Entwicklung der Region zu übernehmen.LiteraturverzeichnisAlghamdi et al. (2022). Reviewing the effects of deploying building information modelling (BIM) on the adoption of sustainable design in Gulf countries: a case study in Saudi Arabia, (S. 12). Zugriff am 12. Januar 2024 unter https://www.semanticscholar.org/paper/0633a9da9ba38156d5a4c36fe6900b01a8e623beAlgumzi, A. (2022). Risks and Challenges Associated with NEOM Project in Saudi Arabia: A Marketing Perspective, (S. 2). Zugriff am 12. Januar 2024 unter https://www.semanticscholar.org/paper/2690493241ebab996ebe8348deeed12bbc61b2a0Akbulut et al. (2022). Umbruch, Zerfall und Restauration. Der Nahe Osten im Spannungsfeld regionaler Akteure und externer Mächte. Nomos Verlagsgesellschaft: Baden-Baden.Alnasser et al. (2022). Food Sustainability Knowledge among Saudis: Towards the Goals of Saudi Vision 2030, (S.1). Zugriff am 14. Januar 2024 unter https://www.semanticscholar.org/paper/1e3ba547c0b8b8236dc4a8428e82181d42ec94d3Alshuwaikhat et al. (2017). Sustainability Matters in National Development Visions—Evidence from Saudi Arabia's Vision for 2030, (S. 5). Zugriff am 13. Januar 2024 unter https://www.semanticscholar.org/paper/86fe3ac3c44644b9f630bd20544722aa43c3d310Al-Sulbi, A. (2010). Potentialities planning of sustainable ecotourism in the Kingdom of Saudi Arabia., (S. 1). Zugriff am 12. Januar 2024 unter https://www.semanticscholar.org/paper/857a345740a1f48fe7f3ee0cdff6373aa51d858bBelloumi et al. (2020). The Impact of International Trade on Sustainable Development in Saudi Arabia, (S. 15). Zugriff am 20. Januar 2024 unter https://www.semanticscholar.org/paper/d33575fa3411abf93e0a981197699b8b7df00350Benlaria et al. (2022). Economic Impact of Renewable Energy on Sustainable Development in Saudi Arabia, (S. 1). Zugriff am 14. Januar 2024 unter https://www.semanticscholar.org/paper/4c63c458afb666cb32e598f31e59f1cb29acb121Hashmi et al. (2014). Sustainability Commitment In Saudi Arabia And Need For Educational Reforms For The Jobs Of The Future, (S. 1). Zugriff am 10.Januar 2024 unter https://www.semanticscholar.org/paper/cb49f5881aa3fedc9c1e5f527d082143d403b01eMandeli, K. (2019). Sustainable Development and Governance in Saudi cities, (S. 14). Zugriff am 14. Januar 2024 unter https://www.semanticscholar.org/paper/e5d72b27627d03f367a04826a423a276e7e7ab7d Hager, H. (2022). Was ist das Riyadh Green Projekt?. Zugriff am 06. Januar 2024 unter https://www.floo.media/wiki/was-ist-das-riyadh-green-project/Haque et al. (2020). Environmental Sustainability Awareness in the Kingdom of Saudi Arabia, (S. 1). Zugriff am 11. Januar 2024 unter https://www.semanticscholar.org/paper/adfd22db93db0ab7572405c27fff5313ef82c83bHenrich, C. (2023). Politik und Gesellschaft im Mittleren Osten. Eine Region im Spannungsfeld politischer und gesellschaftlicher Transformation. Springer VS: Wiesbaden.Kahia et al. (2021). Green Energy, Economic Growth and Environmental Quality Nexus in Saudi Arabia, (S. 1). Zugriff am 15. Januar 2024 unter https://www.semanticscholar.org/paper/24149fe380f4a1b951d23837c778958cc458813eKrebber, M. (2022). Saudi-Arabien setzt auf Wind- und Solarenergie. Das Königreich strebt einen raschen und massiven Ausbau der Erneuerbare Energien an. Zugriff am 06. Januar 2024 unter https://www.en-former.com/saudi-arabien-setzt-auf-wind-und-solarenergie/Mohammed et al. (2020). An Integrated Approach to the Realization of Saudi Arabia's Energy Sustainability, (S. 3). Zugriff am 15. Januar 2024 unter https://www.semanticscholar.org/paper/238c7ee3a1abab995bbceeed3ab5c75af2f74b29Yusuf et al. (2022). Saudi Arabia's NEOM Project as a Testing Ground for Economically Feasible Planned Cities: Case Study, (S. 2). Zugriff am 11. Januar 2024 unter https://www.semanticscholar.org/paper/b62c70282678e56b748a9c26a64ee6464c87725f