Wenn räumliche Planungen in Angriff genommen werden, sind Konflikte meist vorprogrammiert. Weiten sich diese Konflikte über das konkrete Planungsprojekt aus, führt dies oft zu Debatten um das Ausmaß und die Art und Weise, in der die von einer Planung Betroffenen in diese einbezogen werden. Partizipative Verfahren werden dann als Ausweg aus einer solchen 'planerischen Legitimitätskrise' angesehen. Doch wie berechtigt ist die mit partizipativen Verfahren verbundene Hoffnung auf einen Ausgleich der widerstreitenden Interessen? Ziel der vorliegenden Untersuchung war es, anhand der Planungsprozesse ausgewählter Hochwasserrückhalteräume zu klären, inwieweit partizipative Verfahren tatsächlich zur Verbesserung von räumlichen Planungsprozessen beitragen können. Hierzu wurden drei Forschungsfragen aufgestellt: 1) Wie können partizipative Prozesse evaluiert werden? 2) Wie wirken sich partizipative Prozesse auf die Ergebnisse räumlicher Planungen aus? 3) Welche Rahmenbedingungen und Prozessfaktoren müssen für eine erfolgreiche Öffentlichkeitsbeteiligung gegeben sein? Mit dem Fokus auf einer partizipativen Entscheidungsfindung lässt sich die Arbeit in das Feld der interaktionsorientierten Policy-Forschung einordnen. Zur Untersuchung der partizipativen Prozesse wurden Methoden der qualitativen empirischen Sozialforschung angewandt. Der Forschungsprozess unterteilte sich in zwei Untersuchungsphasen: 1) In einer explorativen Studie wurden 25 problemzentrierte Experteninterviews in vier Fallstudien der Planung von Hochwasserrückhalteräumen entlang des deutschen Rheins durchgeführt. 2) Aufbauend auf den Ergebnissen der explorativen Studie wurde eine Modellstruktur zur Bewertung partizipativer Prozesse erarbeitet. Hierzu wurden die Ziele partizipativer Verfahren den drei Komponenten des Legitimitätsbegriffes (Input-, Throughput-, Output-Legitimität) zugeordnet. Basierend auf der Analyse bestehender Ansätze zur Evaluierung partizipativer Verfahren und den Ergebnisse der explorativen Studie entstand eine Modellstruktur. Diese diente als Codierungssystem bei der qualitativen Inhaltsanalyse der Interviews und wurde gleichzeitig im Verlauf der Analyse überarbeitet. Die Inhaltsanalyse wurde dabei auf zwei Fallstudien begrenzt. Bei der Betrachtung der beiden Fallstudien kristallisierten sich vier Rahmenbedingungen als entscheidend für den Erfolg partizipativer Verfahren heraus: 1) ein möglichst geringer Konfliktgehalt der Planung, 2) kooperative Schlüsselpersonen, 3) politische Unterstützung und politischer Handlungsspielraum, 4) finanzielle Grundlagen für den Ausgleich von Beeinträchtigungen. Als zentrale Prozessfaktoren wurden die folgenden drei Aspekte identifiziert: 1) ausreichende Ergebnisoffenheit auf Seiten des Planungsträgers und echte Kooperationsangebote an die betroffenen Akteure, 2) frühzeitige, kontinuierliche, transparente Information und direkte Kontakte zu den betroffenen Akteuren, 3) eine bewusst gestaltete Verzahnung zwischen formellen und informellen Verfahren. Die zentrale Frage dieser Arbeit, ob und inwieweit partizipative Prozesse zu einer größeren Legitimität von räumlichen Planungsprozessen beitragen können, kann nicht mit einem eindeutigen 'Ja' oder 'Nein' beantwortet werden. Dies liegt auch darin begründet, dass sich unter dem Dachbegriff der Legitimität die drei verschiedenen Aspekte Input-, Throughput- und Output-Legitimität verbergen. Diese drei Aspekte bauen aufeinander auf, stehen aber auch in einem Spannungsverhältnis zueinander, so dass Zielkonflikte zwischen ihnen entstehen. Je nach Situation und Planungsanforderungen sollte eine bewusste Entscheidung für eine bestimmte legitimatorische Ausrichtung des partizipativen Prozesses getroffen werden. Dies umso mehr, als die Fallstudien deutlich machten, dass es kein allgemeines Verständnis von Legitimität und einem 'guten' Verfahren gibt, dem sich alle Akteure automatisch anschließen. Das Wissen um Rahmenbedingungen und Prozessfaktoren kann Planungsträgern helfen, einen Beteiligungsprozess adäquat zu gestalten. Dieser ist natürlich nur bedingt steuerbar und mit gruppendynamischen Prozessen und Emotionen verbunden. Partizipation setzt daher auf Seiten der 'Anbieter' partizipativer Verfahren ein hohes Maß an Kompetenzen im Bereich des Prozess- und Konfliktmanagements voraus. Zugleich ist aber auch Partizipationskompetenz auf Seiten der partizipierenden Akteure notwendig. Partizipationsforschung sollte zukünftig stärker als bisher Wissenschaftsbereiche in die zu integrieren, die helfen, menschliche Verhaltensmuster und gruppendynamische Prozesse zu verstehen. Ein solches Verständnis würde es erlauben, adäquatere Hilfestellungen für die Gestaltung partizipativer Prozesse abzuleiten und auf die eingangs gestellte Frage nach der Wirksamkeit partizipativer Verfahren differenzierte und praxistaugliche 'Ja, wenn' – Antworten zu liefern. ; Conflicts are inherent to spatial planning processes. When these conflicts spread beyond the specific scope of the project, debates about the method to integrate concerned actors in the planning process are common. Public participation is seen in these cases as a solution for such planning-related legitimacy crises. However, the question arises as to whether expectations of public participation in relation to the balance of interests, authorized planning processes and technically sound decisions in environmental planning are justified. This thesis will contribute to answer that question by investigating planning processes in the field of flood protection. It was the main objective of this research to clarify in how far and under which conditions participatory processes can indeed improve spatial planning processes. Three research questions were derived: 1) How can participatory processes be evaluated?, 2) How do participatory processes affect the progress and result of a planning process?, 3) Which framework conditions and process factors need to be given for a successful public participation? Case studies concerning the planning of flood retention areas along the German Rhine served as background for the analysis. With its focus on the decision-making between actors, the research belongs to the field of interaction-oriented policy research. For the investigation of participatory processes, qualitative methods of empirical social research were applied. The research process was thereby divided into two investigation phases: 1) Within four case studies concerning the planning of flood retention areas along the German Rhine 25 problem-centered expert interviews were conducted. 2) Based on the results of the explorative study and on existing evaluation approaches, a model structure for the evaluation of participatory processes was developed. In order to define targets for participatory processes, different targets related to them were bundled in the field of legitimacy which includes three different components: input legitimacy, throughput legitimacy and output legitimacy. By doing so, an evaluation structure for participatory processes was developed, which bundles nine categories with 12 criteria in the three dimensions: context, process and result. The model structure served as coding system for the qualitative analysis of expert interview contents. Two case studies were selected for in-depth analysis. Four central framework conditions were identified within the case studies, which have an influence on the success of the participatory process: 1) a low conflict potential of the planning process, 2) existence of cooperative key stakeholders, 3) political support and scope of political action, 4) financial means of the planning agency to provide compensation. In additional to these general framework conditions, three crucial factors for the process design were identified: 1) openness towards unexpected results, especially on behalf of planning agencies, 2) early, continuous and transparent information flow through direct contact with concerned actors, 3) conscious interlocking of formal and informal processes. Hence, participatory processes need to be included in a mix of appropriate political instruments. The central question of this study regarding the extent to which participatory processes can add to broader legitimacy of planning processes cannot be answered with a straight 'yes' or 'no'. This is because of the complexity of the different spheres of legitimacy and the fact that they not only build on each other but that there are conflicting goals related to the three legitimacy aspects. Thus, there is the need to decide for a specific legitimacy orientation according to the situation and the requirements of the planning process. The case studies underpin this because they show that there is no universal definition of legitimacy and no commonly held understanding of a 'good' process. The focus on the identified framework conditions and process factors should allow planning agencies to facilitate improved public participation. Although they cannot necessarily be regulated, knowledge of these conditions and factors adds to the successful planning of the process. In order to handle emotions and group-dynamic processes, competencies in conflict and process management are crucial on the supply side. On the side of the participating actors, courage to express their own interests is important as well as the skills to understand complex planning processes and to act emphatically. Research areas that assist in understanding behavioral patterns and group-dynamic processes should therefore be more intensely included in participation research. This understanding would allow for appropriate assistance concerning the design of participatory processes and for the answer 'yes, if…' to the question of whether participatory processes can assist in the improvement of planning processes.
Die Inhalte der verlinkten Blogs und Blog Beiträge unterliegen in vielen Fällen keiner redaktionellen Kontrolle.
Warnung zur Verfügbarkeit
Eine dauerhafte Verfügbarkeit ist nicht garantiert und liegt vollumfänglich in den Händen der Herausgeber:innen. Bitte erstellen Sie sich selbständig eine Kopie falls Sie diese Quelle zitieren möchten.
Am vorgegangenen Freitag die Schlappe bei der Exzellenzstrategie, am darauffolgenden Mittwoch berichteten regionale Medien über schwerwiegende Manipulationsvorwürfe gegen die Kieler Universitätspräsidentin Simone Fulda. Von da an überschlugen sich die Ereignisse.
Große Ambitionen: Simone Fulda bei ihrer Amtseinführung im Oktober 2020. Foto: CAU, Flickr. CC BY-NC-SA 2.0.
EIGENTLICH HATTE SIE am Montag eine Erklärung abgeben wollen, hieß es intern, doch dann schaffte Simone Fulda bereits am Samstag Tatsachen und erklärte ihren Rücktritt als Präsidentin der Kieler Christian-Albrechts-Universität (CAU). "In Verantwortung für die Universität und schweren Herzens gehe ich diesen Schritt", sagte die 55 Jahre alte Medizinerin, und Wissenschaftsministerin Karin Prien (CDU) kommentierte, sie habe "großen Respekt für diese Entscheidung".
Zu dem Zeitpunkt waren gerade einmal gut drei Tage vergangen, seit die Kieler Nachrichten erstmals über Vorwürfe der Datenmanipulation und gefälschter Abbildungen berichtet hatten, erhoben von Leonid Schneider in seinem Blog "For Better Science". Der Wissenschaftsjournalist hatte bereits am 22. Januar einen umfangreichen Artikel über mutmaßliche und nach seinem Recherchen tiefgreifende Verstöße Fuldas und anderer Wissenschaftler gegen die gute wissenschaftliche Praxis veröffentlicht, die er dort im Einzelnen aufführt.
Die betreffenden Forschungsarbeiten auf dem Gebiet der molekularen Onkologie fallen in die Zeit, bevor Fulda in Kiel Präsidentin wurde. Bis 2010 forschte sie an der Universität Ulm, wo ihr Kollege und Mentor Klaus-Michael Debatin seit 1997 als Ärztlicher Direktor der Universitätsklinik für Kinder- und Jugendmedizin fungiert. Debatin wird in Schneiders Blogbeitrag ebenfalls scharf angegangen. 2010 ging Fulda als Professorin für Experimentelle Tumorforschung an die Goethe-Universität Frankfurt und wurde Direktorin des dortigen Instituts für Experimentelle Tumorforschung in der Pädiatrie.
Die Vorwürfe aus Schneiders Blog waren schon in den Tagen und Wochen zuvor allmählich an der Universität durchgesickert, seit dem ersten Artikel in den Kieler Nachrichten am Mittwoch überschlugen sich dann die Ereignisse. Während die Deutsche Forschungsgemeinschaft (DFG) mitteilte, zunächst Vorprüfungen eingeleitet zu haben, die über die Einleitung eines förmlichen Untersuchungsverfahrens entscheiden, zitierte der NDR Schleswig-Holstein bereits zwei "unabhängig voneinander angefragte Professoren von anderen Hochschulen", die zwar namentlich nicht genannt werden wollten, aber anhand der vorliegenden Abbildungen "die Möglichkeit von Unregelmäßigkeiten" bestätigten. Wörtlich sagte einer der Professoren demzufolge: "Ohne alle Details geprüft zu haben, sieht es so aus, als wenn ein großer Teil der Vorwürfe berechtigt sein könnte."
Misstrauenserklärung von Kieler Medizinern
Ebenfalls am Mittwoch forderten Professoren der Fakultät für Medizin in einem Brief mit Bezug zu den Vorwürfen und dem jüngsten Scheitern bei der Exzellenzstrategie faktisch Fuldas Rücktritt: Sie solle "weiteren Schaden" von der Universität abwenden. Und kurz nachdem Fulda sich am Mittwochabend in einer nichtöffentlichen Sitzung des Universitätssenats gegen die Vorwürfe der Datenmanipulation verwahrt hatte, sprachen ihr unter anderem die Dekane aller acht Fakultäten das Misstrauen aus.
Gerade einmal 48 Stunden nach ihrem ersten Artikel kommentierten die Kieler Nachrichten dann: Es gehe in Kiel "längst nicht mehr" um die Frage, ob die Präsidentin der CAU vor vielen Jahren während ihrer Forschungsarbeit Daten manipuliert habe. Wenn die Spitzenforscher von Fulda verlangten, "Verantwortung gegenüber der Universität" zu übernehmen und darauf verwiesen, die wissenschaftlichen Vorwürfe gegen sie "im Detail zur Kenntnis genommen zu haben", dann habe sie "keinen Spielraum mehr. Simone Fulda muss zurücktreten."
Am selben Tag berichtete die Zeitung unterdessen auch von zwei Professorinnen, die Fulda auf der Plattform "X" verteidigten. Die Historikerin Martina Winkler warnte davor, die Präsidentin "jetzt zur Buhfrau für das Scheitern der CAU in der Exzellenzinitiative zu machen", die Mikrobiologin Christina Hölzel meinte, die Auffälligkeiten in den Forschungsarbeiten von Fulda könnten durchaus erklärbar sein.
Wissenschaftsministerin Prien wiederum sagte am Freitag, die im Raum stehenden Vorwürfe hätten "das Potenzial, die nun dringend notwendigen Anstrengungen der CAU zu überschatten, im weiteren Verfahren der beiden bestehenden Exzellenzcluster erfolgreich zu sein".
Fulda hatte in der Zwischenzeit nicht nur im Senat, sondern auch gegenüber dem NDR ihre Unschuld mit allem Nachdruck betont: Es gebe keine Tatsachengrundlage, die den Vorwurf der Datenmanipulation rechtfertigen würde. Trotzdem titelten die Kieler Nachrichten am Samstag: "Fulda schweigt zu den Vorwürfen." Tatsächlich hatte sie am Freitagnachmittag nämlich eine Mail an alle Universitätsmitarbeiter geschrieben, zusammen mit dem für Forschung zuständigen Vizepräsident Eckhard Quandt, sich darin aber allein zu den kurz zuvor durchgefallenen drei Antragsskizzen für neue Exzellenzcluster geäußert.
Die Zahl der drängenden Fragen wächst weiter
Nachdem zuletzt auch die übrigen Mitglieder der Hochschulleitung ihr schriftlich das Vertrauen entzogen, folgte am Samstagabend der Rücktritt. Mit dem die Causa Fulda nicht zu Ende ist, doch die Zahl der drängenden Fragen weiter wächst. Wie lange dauert es, bis die mutmaßlichen Manipulationen seriös aufgeklärt sind? Und wen interessiert das Ergebnis zu dem Zeitpunkt noch? Wie lange wusste Fulda schon von den Vorwürfen gegen sie? Wer wusste sonst noch davon und ab wann? Warum hat die Universität, angefangen mit ihren Dekanen und Medizinern, die Präsidentin, gerechnet ab dem breiten Bekanntwerden der Vorwürfe, in solch einer Rekordzeit fallen lassen? Welchen Vorlauf dazu gab es und ab wann? Welche Rolle spielte die Berichterstattung in den regionalen Medien? Und wieviel der atemberaubenden Dynamik der vergangenen Tage, wieviel von den Verwerfungen, auf die Fulda nur noch mit ihrem Rücktritt zu reagieren können glaubte, lässt sich überhaupt vorrangig durch die Vorwürfe erklären?
Fest steht: Die im Oktober 2020 ins Amt gekommene Fulda hatte ihren Erfolg von Anfang an strategisch und rhetorisch eng, sehr eng mit dem Abschneiden in der Exzellenzstrategie verbunden. Ihr war allerdings auch kaum etwas Anderes übrig geblieben. 2018 hatte die einzige Volluniversität Schleswig-Holsteins zwei Exzellenzcluster erringen können, ein hervorragendes Ergebnis, das der Wissenschaft im nördlichsten Bundesland Hoffnung auf mehr machte: auf den begehrten Status einer Exzellenzuniversität. Doch scheiterte Kiels diesbezügliche Bewerbung 2019 – mit der Aussicht, es sieben Jahre später erneut zu versuchen.
Drei neue Clusteranträge zusätzlich zu den bestehenden sollten dafür die Grundlage legen, die beteiligten Forscher, die Fakultäten und allen voran Präsidentin Fulda steckten jede Menge Energie, Herzblut und Ressourcen hinein, die Landesregierung gab zusätzliches Geld. Doch am vorvergangenen Freitag kam die große Enttäuschung: Alle drei neuen Projekte fielen schon als Antragsskizzen durch. Die größtmögliche Pleite. Fünf Tage später erschien der erste Bericht über die Vorwürfe in den Kieler Nachrichten, acht Tage später trat Fulda zurück.
Unterschätzte die Unipräsidentin die wissenschaftspolitische Dimension?
Vor dem Hintergrund des Wettbewerbs wird auch erklärbar, warum nicht nur Fulda, sondern die gesamte Universität lange kein Interesse daran hatten, dass die kursierenden Vorwürfe gegen sie öffentlich wurden. Und warum diese nach dem Scheitern bei der Exzellenzstrategie umso heftiger in die Schlagzeilen drängten. Die Kommunikation der Unipräsidentin tat in dieser Konstellation ihr Übriges: Laut Schneider hat sie auf seine schon vor Wochen gestellten Anfragen nicht reagiert. Und womöglich in der Annahme, durch öffentliche Kommentare werde sie der Debatte nur weiteren Vorschub leisten, beschränkte Fulda, die normalerweise sehr zugewandt und direkt auftritt, ihre Reaktion nach außen bis zuletzt auf das Allernötigste. Konzentriert auf die wissenschaftliche Dimension der Vorwürfe gegen sie persönlich, überschätzte sie offenbar ihren Rückhalt bei den Mächtigen der Universität und unterschätzte zugleich die wissenschaftspolitischen Dimensionen, die weit über sie, die Hochschulleitung oder gar die Universität Kiel hinausreichten. Etwa als die Landes-SPD der Wissenschaftministerin Prien vorwarf, sich in der Angelegenheit zu passiv zu verhalten.
Die erhobenen Vorwürfe sind ernst. Bei ihrer Aufklärung sind neben der DFG auch die Universitäten Ulm und Frankfurt gefragt. Doch ganz gleich, was ihre Untersuchungen am Ende ergeben: Die Art und Weise, wie Fulda in Rekordzeit jetzt abtreten musste, obwohl, wie Kanzlerin Claudia Ricarda Meyer am Samstag betone, "weiterhin die Unschuldsvermutung" gelte, stimmt nachdenklich, genau wie das sich gegenseitig verstärkende Wechselspiel zwischen Wissenschaft und Medien. Und könnte Spuren hinterlassen. Spätestens, wenn es jetzt darum gehen wird, eine qualifizierte Nachfolge für Fulda zu finden.
Zunächst soll die CAU jetzt durch ein Interims-Präsidium geleitet werden. "Damit ist, bis zur Wahl einer neuen Präsidentin oder eines neuen Präsidenten der CAU, die Hochschulleitung weiterhin voll funktionsfähig", versicherte die Universität per Pressemitteilung. Ein Arbeitsschwerpunkt werde die Vorbereitung der Folgeanträge für die bestehenden Exzellenzcluster "Precision Medicine in Chronic Inflammation, PMI" und "ROOTS – Konnektivität von Gesellschaft, Umwelt und Kultur in vergangenen Welten" sein.
Nachtrag am 12. Februar: Leider musste ich in meiner Verantwortung als Betreiber dieses Blogs die Kommentarfunktion zu diesem Artikel grundsätzlich ausschalten, da zahlreiche Beiträge einerseits anonym abgefasst wurden, andererseits aber persönliche Anschuldigungen und Wertungen gegenüber Personen enthielten. Ich bitte um Ihr Verständnis.
Kostenfreien Newsletter abonnieren
In eigener Sache: Bitte die Unterstützung dieses Blogs nicht vergessen
Die Inhalte der verlinkten Blogs und Blog Beiträge unterliegen in vielen Fällen keiner redaktionellen Kontrolle.
Warnung zur Verfügbarkeit
Eine dauerhafte Verfügbarkeit ist nicht garantiert und liegt vollumfänglich in den Händen der Herausgeber:innen. Bitte erstellen Sie sich selbständig eine Kopie falls Sie diese Quelle zitieren möchten.
Der Bildungsforscher Olaf Köller sagt, warum er positiv überrascht ist vom Startchancen-Verhandlungsergebnis, wie die Wissenschaft zum Erfolg des Programms konkret beitragen und welche Rolle dabei die Ständige Wissenschaftliche Kommission spielen könnte.
Olaf Köller ist Geschäftsführender Wissenschaftlicher Direktor des Leibniz-Instituts für die Pädagogik der Naturwissenschaften und Mathematik (IPN) in Kiel und Ko-Vorsitzender der Ständigen Wissenschaftlichen Kommission (SWK). Foto: IPN/Davids/Sven Darmer.
Herr Köller, die Verhandlungsführer von Bund und Ländern haben sich auf Eckpunkte zum Startchancen-Programm geeinigt. Hat der Bildungsföderalismus herausgeholt, was er aus sich herausholen kann?
Eine Milliarde Euro Bundesgeld pro Jahr ist nicht viel, da muss man sich nichts vormachen, das sind 250.000 Euro pro Schule. Trotzdem finde ich: Bund und Länder haben eine Menge herausgeholt. Ich war positiv überrascht, als ich das Papier gelesen habe. Alle Länder haben sich verpflichtet, Sozialkriterien für die Auswahl ihrer Schulen zu bestimmen. Auch diejenigen, die bislang keinen eigenen Sozialindex haben. Einigkeit herrscht über das wichtigste Ziel: Die Zahl derjenigen, die die Mindeststandards in den Kernfächern nicht erreichen, soll in zehn Jahren halbiert werden. Für schlau halte ich es, dass man nicht mit allen 4000 Schulen auf einmal beginnt, sondern mit 1000. Dadurch wird es wahrscheinlicher, dass der Einstieg überhaupt noch zum Schuljahr 2024/25 gelingt. Besonders erfreulich ist schließlich, dass Bund und Länder den Erfolg des Programms nicht nur behaupten, sondern messen lassen wollen.
"Es war absehbar, dass, wenn man den Königsteiner Schlüssel aufgibt, ein anderer Mechanismus sicherstellt, dass kein Land zu kurz kommt."
Stört Sie, dass das Bundesgeld zu großen Teilen weiter per Gießkanne auf die Länder verteilt wird? Und widerspricht das nicht dem immer wieder behaupteten Paradigmenwechsel?
Es war absehbar, dass alle Länder ordentlich etwas abhaben wollen und dass, wenn man schon den Königsteiner Schlüssel aufgibt, jetzt ein anderer Mechanismus sicherstellt, dass kein Land zu kurz kommt. Darum ist der eigentliche Paradigmenwechsel für mich ein anderer: dass Bund und Länder sich zu einer wissenschaftlichen Begleitung und Evaluation des Programms verpflichtet haben, und zwar mit explizitem Bezug auf ein Impulspapier, das wir als Ständige Wissenschaftliche Kommission (SWK) vergangenes Jahr vorgelegt haben. Wir haben viele große bildungspolitische Reformen erlebt in den Jahrzehnten nach Pisa 2000, von der Einführung der Ganztagsschulen über G8 bis zurück nach G9, doch hat es fast immer und in fast allen Ländern an der Bereitschaft gefehlt, mit harten Indikatoren die Wirkung dessen zu überprüfen, was man da beschlossen hat. Genau das passiert jetzt mit dem Startchancen-Programm, ausgestattet mit einem eigenen Evaluationsbudget. Das ist der Paradigmenwechsel. Wenn es denn so kommt und die Länder nicht vor ihrem eigenen Mut zur Empirie zurückschrecken.
Aber was genau kommt denn? Die Eckpunkte sprechen von einem "verbindlichen Berichtswesen", von "wissenschaftlicher Begleitung" und "Evaluation", die getrennt voneinander laufen sollen.
Ich habe mich auch gefragt, wie es genau gemeint ist. Persönlich würde ich wissenschaftliche Begleitung als formative Evaluation begreifen, bei der man schaut, für welche der ergriffenen pädagogischen Maßnahmen es Evidenz gibt und wie sie in den Schulen implementiert werden. Man kann dann auch die Schulen bei der Auswahl und Implementation wirksamer Programme unterstützen. Während das, was im Papier als Evaluation bezeichnet wird, vermutlich summativ verstanden wird: Man misst nach einer bestimmten Zeit, welche Kompetenzstände Schülerinnen und Schülern erreicht haben.
An der Stelle bleibt das Papier ziemlich vage. Was empfehlen Sie der Bildungspolitik?
So vage ist das gar nicht. Durch die Fokussierung auf die Basiskompetenzen, den Bezug zu den Bildungsstandards und die Halbierung der Risikogruppe in zehn Jahren haben Bund und Länder sich selbst den entscheidenden Benchmark gesetzt. Und zugleich das Instrument zu dessen Messung impliziert: den IQB-Bildungstrend, den das Institut zur Qualitätsentwicklung im Bildungswesen für die Klassenstufen vier und neun entwickelt hat. Wir müssen also das Rad an der Stelle nicht neu erfinden. Es eignet sich aber auch keine andere vorhandene Methodik, die vielleicht von einzelnen Bundesländern angewandt wird – weil nur der Testaufgabenpool des Bildungstrends so eng und valide auf die Erfüllung der Bildungsstandards abzielt. Ein Vorgehen könnte daher sein, dass das IQB im Frühjahr 2025 eine sogenannte Null-Messung an den dann ausgewählten ersten 1000 Startchancen-Schulen durchführt, in Deutsch, Mathe und vielleicht noch Englisch. Und zwar sowohl in Klasse vier als auch in den Klassenstufen neun und zehn, je nachdem, wann die Sekundarstufe I im jeweiligen Land und in der jeweiligen Schulart endet. Nach fünf Jahren wird die Messung in den gleichen Klassenstufen zum ersten Mal wiederholt, nach zehn Jahren zum zweiten Mal.
Diese Art der Messung würde bedeuten, dass sich keine Aussagen über einzelne Schülerkarrieren treffen ließen.
Ein Ansatz bei der Evaluation des Startchancen-Programms wäre tatsächlich eine Trenderfassung der Schulen mit Feststellung der Leistungsniveaus der Schülerinnen und Schüler als Ganzes. Für alles andere bräuchte man eine Längsschnittstudie, bei der dieselben Kinder bzw. Jugendlichen immer wieder getestet würden. Das halte ich in der Größenordnung, über die wir bei den Startchancen sprechen, nicht für realistisch. Sehr wohl wäre es aber ein zusätzlicher Erkenntnisgewinn, kleinere Stichproben von Schülerinnen und Schüler so, wie Sie das sagen, über einen längeren Zeitraum zu begleiten.
"Es wird auf jeden Fall
recht uneinheitlich zugehen."
Apropos Größenordnung der Evaluation: Was passiert mit den 3000 Schulen, die später dazu kommen?
Ich würde davon abraten, alle 4000 Schulen gleichermaßen evaluieren zu wollen, das wäre zu aufwändig und wohl ebenfalls zu teuer. 1000 Schulen bieten einen großen Ausschnitt, sind für das IQB eine zusätzliche Herkulesaufgabe, aber vermutlich handelbar, und eine Vorbereitungszeit von anderthalb Jahren erscheint realistisch. Ein weiterer Vorteil der Nullmessung wäre, dass so geprüft würde, ob die Länder mit ihren eigenen Sozialkriterien jeweils die richtigen Schulen erwischt haben: nämlich diejenigen mit den besonders leistungsschwachen Schülerinnen und Schülern – oder ob hier einzelne Länder noch einmal nachsteuern müssen. Es ist ja kein Naturgesetz, dass sozial benachteiligte Schülerinnen und Schüler grundsätzlich geringe Kompetenzniveaus aufweisen.
Erwarten Sie eine stark unterschiedliche Treffsicherheit – je nachdem, ob die Länder schon etablierte Sozialindizes haben?
Es wird auf jeden Fall recht uneinheitlich zugehen. Diejenigen Länder, die bereits Programme für benachteiligte Schüler und Schulen betreiben, werden versuchen, die Schulen aus ihren Programmen auch in die Startchancen zu bringen. Und Länder, die noch keinen Sozialindex haben, müssen erst einen Algorithmus entwickeln, von dem sie nicht wissen, wie er sich auswirkt. Schließlich wird es Unterschiede geben zwischen Ländern mit einem hohen Anteil sozial benachteiligter Schülerinnen und Schüler und anderen, die eine geringere Armutsdichte aufweisen. All das könnte durch die Nullmessung ermittelt werden – unter der Voraussetzung, dass sie mit Fragebögen zum sozialen und familiären Hintergrund der Schülerinnen und Schüler begleitet werden, wie das IQB das beim Bildungstrend bereits tut.
Was aber bedeuten die Ergebnisse, die bei der wiederholten Messung nach fünf oder zehn Jahren herauskommen? Wer sagt, dass die festgestellte Verbesserung oder Verschlechterungen der Kompetenzen an einer Startchancen-Schule etwas mit dem Programm zu tun hat?
Eine berechtigte Frage – weshalb die wissenschaftliche Begleitung im Sinne formativen Assessments so wichtig ist. Wir brauchen regelmäßig erhobene Daten, wie an jeder untersuchten Schule die drei Säulen des Programms konkret umgesetzt werden, wobei mir die Baumaßnahmen noch am wenigsten ausschlaggebend erscheinen. Aber wie genau wird die Interaktion zwischen Lehrkräften, Förderkräften, Sozialarbeitern und Schülerinnen/Schülern gestaltet? Werden nur Maßnahmen etabliert, für deren Qualität es empirische Evidenz gibt? Werden zwar Förderkräfte eingestellt, müssen diese aber Vertretungs- statt Förderstunden geben? Dann, das wissen wir, würde ihre Wirkung verpuffen.
Gehen wir also davon aus, dass sich bei der richtigen Kombination von wissenschaftlicher Begleitung und Evaluation nach fünf oder zehn Jahren ein Zusammenhang herstellen lässt zwischen den ergriffenen Maßnahmen und der Entwicklung der Schülerkompetenzen, was folgt daraus?
Das ist doch klar: Nach fünf Jahren muss die Politik bei einigen Schulen nachsteuern, und das konsequent. Vermutlich werden viele Schulen nach fünf Jahren noch weit von dem Ziel der Halbierung entfernt sein. Hoffentlich wird es auch Standorte geben, an denen man positive Effekte sieht – die sich dank der Kopplung von formativer und summativer Evaluation auf die Maßnahmen des Programms zurückführen lassen. Die Politik wird sich Gedanken machen müssen, wie sie mit denjenigen Schulen verfahren will, die über Jahre Geld bekommen haben, ohne dass es vorangeht. Sicherlich wird man dann verstärkt über neue Zielvereinbarungen sprechen müssen, mit einer verstärkten Kooperation zwischen Schulen und Schulaufsicht, damit auch diese Schulen die Früchte des Programms ernten. Das wäre zumindest meine Empfehlung.
"Es wäre furchtbar, wenn das Geld nicht bei den Richtigen ankäme und nicht die gewünschten Effekte hätte."
Die sie als wer aussprechen? Als Chef des IPN Leibniz-Institut für die Pädagogik der Naturwissenschaften und Mathematik – oder als einer der Vorsitzenden der SWK?
Ich vermute, vieles von dem, was ich hier im Interview gesagt habe, wird von den meisten Bildungsforscherinnen und Bildungsforschern in Deutschland geteilt werden. Aber nichts davon ist abgestimmt mit den übrigen 15 Mitgliedern der SWK. Letzteres auch deshalb nicht, weil wir als Ständige Wissenschaftliche Kommission bislang gar nicht explizit nach unseren konkreten Ideen zur Evaluation des Startchancen-Programms gefragt oder beauftragt worden sind.
Würden Sie gern beauftragt werden?
Natürlich würde ich mir wünschen, dass die Bildungsforschung eingebunden und um Rat gefragt wird. Nicht, weil wir auf irgendwelche zusätzlichen Forschungsgelder aus sind, sondern weil wir ein genuines Interesse daran haben, den Bund und die Länder in ihrem Vorhaben zu unterstützen. Der Bund will insgesamt zehn Milliarden Euro einsetzen, die Länder, in welcher Form auch immer, zehn weitere Milliarden dazu geben. Es wäre furchtbar, wenn das Geld nicht bei den Richtigen ankäme und nicht die gewünschten Effekte hätte. Die SWK ist allerdings eine Kommission der Kultusministerkonferenz, sie stimmt dementsprechend auch ihr Programm mit der KMK ab. Gleichwohl könnten KMK und BMBF sich zusammentun und uns in die Diskussion um eine wissenschaftliche Begleitung beziehungsweise Evaluation einbinden. Ich kann mir vorstellen, dass die SWK dann eine Stellungnahme erarbeiten und darin ausbuchstabieren würde, wie eine wissenschaftliche Begleitung, eine Evaluation und ein Monitoring des Startchancen-Programms aussehen könnte. Um das mit Leben zu erfüllen, was das Eckpunktepapier als ambitioniertes Ziel ausgegeben hat.
Kostenfreien Newsletter abonnieren
In eigener Sache: Bitte unterstützen Sie meine Arbeit
Nutzerzahlen und Finanzierung: Wie steht es um den "Wiarda-Blog"?
Es ist weithin bekannt, dass 'Post-Truth' noch im Jahr der amerikanischen Präsidentschaftswahl 2016 vom Oxford English Dictionary zum "Wort des Jahres" gewählt wurde. Angesichts der bedrohlichen Konsequenzen einer grundlegenden Autoritäts- und Legitimitätskrise von Wissenschaft und Journalismus, in Anbetracht weiters einer durch die Deregulierung von Informationsströmen in den neuen Medien und durch 'Echo-Kammern' beförderten epistemischen Tribalisierung der Öffentlichkeit sind seitdem unterschiedliche Reaktionen zu beobachten. Zum einen wird der Ausweg aus diesen Entwicklungen in der Restitution der Autorität von Wissenschaft und einer geteilten epistemischen Basis des öffentlichen Diskurses gesucht; ein Versuch, der allerdings dadurch erschwert wird, dass solchen Rettungsversuchen insbesondere von linker Seite häufig die notwendige epistemologische Grundlage fehlt. Auf der Basis postmoderner Theorie, die das demokratisch-egalitäre Prinzip gleichsam in die Epistemologie einführte, lässt sich nur denkbar schwer für den Vorrang wissenschaftlicher Weltbeschreibung vor anderen, defizitären Überzeugungssystemen streiten.[1] Dies ist jedoch nicht der Weg, den Ilan Zvi Baron in seinem aktuellen Buch How to save politics in a post-truth era? Thinking through difficult times wählt. Bei Post-Truth handelt es sich für Baron nicht um eine Auswucherung, die sich durch Fact-Checking, durch institutionelle Vorkehrungen zur wissenschaftlichen Supervision von Legislatur oder breitenwirksamen Aktivismus in der Art des March for Science bewältigen ließe. Sich in der postfaktischen Ära zu orientieren – und dazu möchte Baron mit seinem Buch Beihilfe leisten – bedeutet, über den Horizont defensiver Maßnahmen angesichts einer vom Aufbrechen epistemischer Rahmen profitierenden Politik hinaus zu blicken. An der in die Krise geratenen liberal-rationalistischen Konzeption des Politischen, an der Idee informierter Entscheidungen der Angehörigen einer gemeinsamen epistemischen "Hintergrundkultur" (John Rawls), muss nicht weiter festgehalten werden. Der Titel von Barons Buch legt bereits das Programm offen: Es geht nicht um eine Rettung der Wahrheit, sondern darum, nach einer Periode der Depolitisierung wieder einen festen Stand im Politischen einzunehmen, politisches Denken und Handeln neu zu erlernen. Dementsprechend widmen sich die beiden ersten Kapitel der Kritik liberaler politischer Theorie und des liberalen Mythos darüber, worum es in der Politik geht ("liberal myth about what politics is about"), sowie der in den Augen des Autors verfehlten Antworten auf die epistemische Krise, die letztendlich selbst Ausdruck einer grundlegenderen Krise des politischen Denkens seien (The end of politics; Unlearning how we think). Wissen in den Diskurs einzuspeisen, um damit dem Zirkulieren von Falschinformationen beizukommen; diese Reaktion betrachtet Baron nämlich als symptomatisch für die liberale Unfähigkeit, sich der Herausforderung politisch denkend zu nähern. Die Bewältigung der Postfaktizität verlange jedoch die Einnahme eines anderen Blickpunktes als jenen von Administration und Staat. Dies ist die Stoßrichtung der Losung "Unlearning how we think". Die Warnungen vor einem epistemischen Anarchismus, die Rufe nach einer Stärkung wissenschaftlicher Politikberatung oder nach Fact-Checking werden nach Baron von einem Standpunkt aus getätigt, der um die institutionelle Verwaltung von Wahrheit als Ressource für den Entscheidungsfindungsprozess besorgt ist und dabei der Vorstellung einer apolitischen Wissensproduktion anhängt. Dies verfehle aber nicht nur den stets politischen Charakter allen Wissens, sondern verhindere auch letztlich jede erfolgreiche politische Gegenmaßnahme auf das Voranschreiten postfaktischer Politik. Eine administrative Perspektive auf Post-Truth bleibt bei der Bekämpfung der Folgen stehen. Es gelte aber, die tieferliegenden Motive für die gegenwärtigen Angriffe auf die alten Autoritäten zu verstehen. Nur so könne man sich einer reinen Defensivposition entwinden, die allein unzureichend sei, um den Gefahren postfaktischer Politik entgegenzuwirken. Anders als jene Stimmen, die angesichts des Post-Truth-Phänomens eine Revision poststrukturalistischer oder postmoderner Theorie empfehlen oder letztere gar zu den Ursachen der gegenwärtigen Misere rechnen, empfiehlt Baron eine Vertiefung in den post-nietzscheanischen Kosmos (S. 76) und in postmodernes und poststrukturalistisches Denken (S. 154), hält nachdrücklich an den jüngst schwer in Verruf geratenen "identity politics" fest (S. 118ff) und setzt auf das narrative Paradigma (S. 52) in der Politikwissenschaft. Politik will Baron als Bedeutungsstiftung verstanden wissen, und ihr wichtigstes Mittel dazu seien Narrative. Diese erst machen Evidenzen "bedeutsam" ("meaningful", S. 81); Bedeutung sei es aber, was im politischen Streit zum Sieg führe, nicht Evidenz (S. 73). Die Entwicklung eines Evidenzen wie jene der Klimaforschung in sich integrierenden und zugleich mehrheitsfähigen politischen Narrativs sei die vorrangige Notwendigkeit (S. 87). Dies erfordere aber, ein Verständnis der Wahl- und Abstimmungsergebnisse der jüngsten Vergangenheit zu gewinnen und zu erkennen, weshalb das Bedeutungsangebot jener, die mit den alten faktensichernden Institutionen brechen, seine gegenwärtige Attraktivität gewinnen konnte. Making sense of the results lautet dementsprechend das dritte Kapitel in Barons Buch. Seine knappen Ausführungen zum Ausgang der Präsidentschaftswahlen in den USA 2016 und zum Brexit-Referendum sind einleuchtend. Sie laufen auf die These zu, dass diese als ein "vote for nothing" (S. 110) zu verstehen seien; als eine destruktiv-zynische Reaktion auf eine kontinuierliche Abfolge scheiternder Regierungen, die am Ende schlechte Politik als unabwählbar erschienen ließen (S. 137), und als Ausdruck eines Anti-Intellektualismus, der im "traditionellen Wissen" eine Stütze des 'status quo' ausmacht und es daher ablehnt (S. 27). Entscheidend sei, dass Politik sich vom Leben der Bürgerinnen und Bürger entfernt hat, dass sie für diese gleichgültig und schließlich durch ein "Vertrags-Management" ("contract-management", S. 141) ersetzt wurde. Wer sich an diesem Management zu wessen Gunsten beteiligen darf und soll sei dabei eine Frage, die nicht mehr verhandelt werde (ebd.). In Saving Politics, dem vierten und letzten Kapitel, in dem das Versprechen des Buchtitels eingelöst werden soll, weist Baron zuerst in die Richtung, in die die Politikwissenschaft zu gehen habe, und skizziert einen methodologischen Ansatz. Überraschenderweise ist es Martin Heidegger, bei dessen "hermeneutischer Phänomenologie" (S. 190) Baron ansetzt. Vom Existenzphilosophen Heidegger könne gelernt werden unserer Welt zu begegnen; eine Begegnung, die nicht nur jene Bedeutungen enthält, die wir ihr geben, sondern auch die Fähigkeit, die Weltdeutungen anderer zu interpretieren (S. 158). Erst unter dieser Voraussetzung könne es gelingen, ein Narrativ zu entwickeln, zu dem auch jene Gruppen Zugang finden können, die gegenwärtig in das Lager des anti-intellektuellen Populismus abdriften. Die Ausführungen zur politikwissenschaftlichen Neuorientierung brechen jedoch bei diesen abstrakt bleibenden Andeutungen stehen. Am Ende seines Buches widmet Baron sich der Frage der politischen Verantwortung. Die zuvor ausgeführten Begriffe des Verstehens und der Interpretation sind auch zentral für Barons Konzept von Verantwortung. Überraschend und enttäuschend ist dabei jedoch, dass seine Überlegungen hier gänzlich in das Feld der Ethik schwenken und sein Buch, das mit dem Anspruch antrat, das Wiedererlernen politischen Denkens zu unterstützen, mit der Formulierung von moralischen Ansprüchen gegenüber Bürgerinnen und Bürgern endet. Baron geht sogar so weit, Trump- und Brexit-Wähler bei der Gewissensprüfung anzuleiten. Politische Verantwortung bedeute, nicht nur für die eigenen Entscheidungen Rechenschaft zu tragen, sondern sich bewusst zu sein, dass unsere Entscheidungen uns in einem weiteren Spektrum gesellschaftlicher und politischer Folgen verstricken (S. 186). Dementsprechend seien etwa Wähler misogyner und/oder rassistischer Politiker mit der Frage zu konfrontieren, ob das unterstützte politische Narrativ wirklich mit dem eigenen Selbstverständnis und dem Umgang, den man pflegen möchte, vereinbar ist. Man könne nicht einen misogynen Politiker unterstützen und zugleich behaupten, man sei kein Sexist und lehne Sexismus ab. Wer dies tut, der unterliege einer Selbsttäuschung (S. 186). Noch gewichtiger als das mangelnde Verantwortungsbewusstsein des einfachen Wählers sei aber jenes der politischen Repräsentanten, von denen zu fordern sei, dass sie "fair" mit Evidenzen umgehen, ohne den "Prozess der Wissensproduktion zu unterminieren" (S. 196). Barons Forderungen nach einer neuen Verantwortungskultur und -ethik sind sicher berechtigt, doch sie sind mit Blick auf eine politische Reaktion auf Post-Truth wenig hilfreich. Es ist beinahe erstaunlich, mit welcher Selbstverständlichkeit Baron eben jene traditionell für den Intellektuellen und Gelehrten reservierte Position des Wächters über die demokratische Debatte und des Lehrers demokratischer Tugenden bezieht, deren Autorität sich gegenwärtig im Zustand massiver Erosion befindet. Insofern Baron in den Duktus der moralischen Ansprüche fällt ("what we need is…"), unterläuft ihm genau jener Fehler, den er der liberalen Tradition vorwirft; nämlich eine Vernachlässigung des Kontextes der eigenen Wissensproduktion und damit auch Sprecherposition. Interessanter ist das Barons Buch durchziehende Plädoyer für ein Abgehen von der Fokussierung auf eine institutionelle und staatliche Regulierung der Wirklichkeitsreferenz und der Gedanke, dass die Autorität wissenschaftlicher Evidenzen gleichsam nur von unten her zu restaurieren sei. Dazu sei ein neues Narrativ vonnöten, denn erst ihre Integration in ein sinnstiftendes Narrativ ermächtige die Fakten: Mit Bedeutung (meaning) gewinne man Wahlen und Referenden und damit politische Macht, nicht mit Fakten (S. 73). Bedeutung erhalten Fakten aber erst durch Narrative. Fakten sind also nicht mehr anzurufende Bezugsgrößen politisch-narrativer Bedeutungsstiftung, die den Rahmen definieren würden, was als sinnvolle Erzählung gelten kann und was nicht. Ihr autoritativer Status ist vielmehr Effekt von Narrativen. Akzeptiert man dies als Prämisse von Politik im postfaktischen Zeitalter, stellt sich als primäre Herausforderung nicht die Rettung der Restautorität von Institutionen und Evidenzen, sondern die Überbietung der Kraft des politischen Gegennarrativs. Baron reklamiert mit dieser Emphase auf das Narrativ für sich eine genuin politische Perspektive in Abgrenzung zu der für das liberale Denken zentralen Sorge um die Sicherung des demokratischen Rahmen- und Regelwerks. Man kann sie als realistisch bezeichnen, denn sie vernachlässigt nicht die Basis politischer Macht, auf die eine Rettung der Institutionen und der Evidenzen angewiesen ist. Attraktive politische Narrative sind nämlich, wenn schon nicht hinreichende, so doch notwendige Bedingung für den Machtgewinn im demokratischen Wettkampf. Dabei steht jedoch die Möglichkeit im Raum, dass gegenwärtig gerade der Bruch mit bisher allgemeinen, akzeptierten Evidenzen, mit dem etablierten, von den traditionellen Wissenschaften bestimmten epistemischen Rahmen der politischen Debatte einen entscheidenden Vorteil im Wettbewerb der politischen Narrative darstellt. So argumentiert Bruno Latour in seinem Buch Où atterir, dass angesichts der massiven Kosten, den die Bekämpfung des Klimawandels in ökonomischer, aber auch kultureller Hinsicht den Bevölkerungen des sogenannten Westens kosten würde, und des damit verbundenen kollektiven Stresses eine Politik Auftrieb erhält, die eine geistige Verabschiedung von der belastenden Realität und die lustvolle Illusion anbietet, nicht auf dem gemeinsamen Planeten als prekärer menschheitlicher Existenzgrundlage leben zu müssen[2] – zumindest so lange, bis die Evidenz der begonnenen Katastrophe dorthin durchdringt, wo man sich von wissenschaftlichen Daten nicht beirren lassen wollte. Darüber hinaus stellt sich die Frage, wie es um den demokratischen Wettkampf der Narrative unter den Bedingungen von Post-Truth eigentlich steht. Was bedeutet es für diesen Wettkampf, wenn ein allgemeiner und verbindlicher Referenzrahmen verloren geht, die Narrationen also nicht nur an unterschiedliche Identitätskonzepte und Wertvorstellungen appellieren, sondern letztlich gegeneinander abgedichtete Kosmen entwerfen? Diskussion und Öffentlichkeit bleiben letztlich auch bei Baron die Medien der von ihm geforderten Politik der konkurrierenden Narrative. Diskussion verlangt jedoch ein Mindestmaß an Gemeinsamkeit des Bewusstseins von Herausforderungen und somit einen Grundbestand gemeinsamer Weltreferenz, die gegenwärtig entlang der Bruchlinien sich polarisierender Gesellschaften zerfallen. Die Alternative ist aber die Wiederkehr von Glaubenskämpfen, in der das Bekenntnis zu 'alternativen Faktenquellen' an die Stelle der Diskussion tritt und in der einer durch neue Medien intensivierten Kommunikation innerhalb von Gesinnungsgemeinschaften die kontinuierliche Entwertung der Suche nach Verständigung mit Außenstehenden gegenübersteht. Der "Glaube an Öffentlichkeit und Diskussion"[3] steht (nicht zum ersten Mal) auf dem Spiel. Von diesem "demokratischen Glauben"[4] aber hängt ab, in welcher Form sich der Kampf der Narrative vollzieht, der nach Baron aufzunehmen ist. Die Frage ist nicht allein, ob es politischen Kräften gelingen kann, den Fakten treue hegemoniale Erzählungen zu entwickeln bzw. zu verteidigen, sondern ob es demokratischen Gesellschaften gelingt, angesichts der herrschenden, von außen tatkräftig beförderten Fliehkräfte[5] die Selbstrepräsentation als diskutierende Gemeinwesen aufrecht zu erhalten. Es wäre die Frage nach den Ressourcen zu stellen, auf die demokratische Diskussion angewiesen ist, und nach den Wegen, diese Ressourcen vor ihrem Verfall zu bewahren. Demokratische Autorität als Autorität von Institutionen, Verfahrensweisen und ethischen Normen ist als eine solche Ressource anzusehen, und die Frage nach ihrer Legitimierung, Konstituierung und Erhaltung würde zur Frage nach einer Art Erneuerung des Gesellschaftsvertrags führen, nach einer Übereinkunft über die Form der Politik, der man sich bei abweichenden Interessen und Überzeugungen verpflichtet sieht. Die Konstituierung demokratischer Autorität würde, hier ist an Baron anzuschließen, ebenfalls auf ein sinnstiftendes Narrativ angewiesen sein. Diese Erzählung aber würde eine sein, die nicht den Zweck hat, eine Gruppe, ein politisches Projekt oder eine Ideologie gegenüber einer Gegenpartei auszuzeichnen, sondern von den Gefahren handeln, die dem politischen Konflikt als solchem immanent sind, den potentiellen Spiralen der Eskalation und den Verhärtungen der Fronten. Dabei aber wäre entscheidend, ob in den Gesellschaften der Gegenwart noch ausreichend historische Sensibilität und Urteilsfähigkeit vorhanden ist, die das Verstehen einer solchen Erzählung voraussetzen würde. [1] Vgl. Albrecht Koschorke: Die akademische Linke hat sich selbst dekonstruiert. Es ist Zeit, die Begriffe neu zu justieren. NZZ, 18.4.2018, Online: https://www.nzz.ch/feuilleton/die-akademische-linke-hat-sich-selbst-dekonstruiert-es-ist-zeit-die-begriffe-neu-zu-justieren-ld.1376724 (zuletzt aufgerufen am 8. 8. 2018). [2] Bruno: Latour: Où atterir? Comment s'orienter en politique. Paris 2017. Auf deutsch erschienen als: Bruno Latour: Das terrestrische Manifest. Berlin 2018, S. 53. [3] Carl Schmitt: Die geistesgeschichtliche Lage des heutigen Parlamentarismus. 4. Auflage. Berlin 1969, S. [4] Isolde Charim: "Der demokratische Glaube". In: Jörg Huber, Gesa Ziemer, Simon Zumsteg (Hg.): Archipele des Imaginären. Wien 2009, S. 77-84. [5] Ein aktuelles und bezeichnendes Beispiel ist die Förderung von Dissens in der gegenwärtigen Impfdebatte durch russische Trollaktivitäten, die in einer große mediale Aufmerksamkeit erhaltenden Studie von Forschern der George Washington University aufgearbeitet wurde; siehe David A. Broniatowski u. a.: "Weaponized Health Communication: Twitter Bots and Russian Trolls Amplify the Vaccine Debate". In: American Journal of Public Health. Online vor Drucklegung veröffentlicht am 23. 8. 2018, URL: https://ajph.aphapublications.org/doi/ 10.2105/AJPH.2018.304567 (zuletzt aufgerufen am 26. 8. 2018).
Aus der Einleitung: Umweltpolitik globalisiert sich und internationaler Klimaschutz ist eine der größten globalen Herausforderungen im 21. Jahrhundert. Die globale Umwelt wird jenseits ihrer Kapazität zur Selbsterneuerung genutzt und ist damit zur knappen Ressource geworden. Die befürchtete weltweite Klimaerwärmung durch die Nutzung der Erdatmosphäre als Deponie für Treibhausgase ist nur ein Beispiel. Globale Umweltmedien sind unteilbar. Eine Aneignung des physischen Besitzes oder dessen Verteidigung gegen Eingriffe anderer ist nicht möglich. Globale Umweltgüter sind dadurch gekennzeichnet, dass alle Völker an ihnen partizipieren und unter ihrer kollektiven Zerstörung leiden. Hierin besteht die "Tragödie der Allmende": Die gemeinsame Umwelt wird gemeinsam geschädigt, weil die Gewinne ihrer Nutzung privat anfallen, während die Nutzungskosten von allen Ländern getragen werden müssen. Im Falle der Umweltverschmutzung gilt kein Ausschlussprinzip und so tritt in der internationalen Umweltpolitik das Phänomen des Trittbrettfahrer-Verhaltens auf: Ergreifen einige Staaten Maßnahmen zum Umweltschutz, profitieren alle davon. Trittbrettfahrer haben daher keinen Anreiz selbst Kosten für Maßnahmen zu übernehmen. In der Folge kommt ein wirksamer internationaler Umweltschutz erst gar nicht zustande. Umweltprobleme sind daher nur national lösbar. In den meisten Industrieländern konnten die drängendsten Umweltprobleme wie etwa Boden und Wasser auf meist nationaler Ebene gelöst werden, da so durch staatlichen Zwang umweltschädliches Handeln verboten werden kann. Ein solcher Zwang ist auf internationaler Ebene nicht durchsetzbar. Es gibt keine internationale Macht, die Umweltschutzmaßnahmen gegenüber den Staaten durchsetzen kann. Die Vereinten Nationen wären hier zwar als oberste Umweltschutzinstanz denkbar, aber ihnen fehlt die Legitimation. Globalen Umweltproblemen muss daher nicht mit Zwang, sondern mit Anreizen begegnet werden. Die Spieltheorie gibt Erklärungen, wie ein solches stabiles internationales Umweltschutzabkommen anreizverträglich ausgestaltet sein sollte. Die Public-Choice-Theorie erklärt das Zustandekommen der unterschiedlichen Positionen und den daraus resultierenden Konflikten in den Verhandlungen in der internationalen Umweltpolitik. In dieser Arbeit greife ich mit der Betrachtung der internationalen Klimapolitik ein konkretes globales Umweltproblem heraus und untersuche, welchen Beitrag die Spieltheorie und die Public-Choice-Theorie zur Erklärung der Entwicklung der internationalen Klimapolitik leisten. Zunächst wird in Kaptitel 2 der Klimawandel und das Erkennen des Klimawandels als Problem beschrieben und der Weg der internationalen Klimapolitik mit ihren Ergebnissen nachgezeichnet. Der Abschnitt 3 stellt den Beitrag der Spieltheorie zur Erklärung der Entwicklung der internationalen Klimapolitik dar. Dem theoretischen Hintergrund über die hier relevanten Elemente der Spieltheorie in Abschnitt 3.1 folgt die Heranführung an eine stabile Klimaschutzvereinbarung in Kapitel 3.2. Dort erfolgt eine spieltheoretische Beschreibung der Konfliktpotentiale eines internationalen Klimaschutzvertrages, um dann Lösungskonzepte für ein aus Sicht der Spieltheorie stabiles und anreizverträgliches Klimaschutzabkommen darzulegen. Das Kapitel 3.3 zeigt schließlich den Beitrag der Spieltheorie zur Erklärung der Entwicklung der internationalen Klimapolitik. In einer spieltheoretischen Analyse der internationalen Klimapolitik wird dargelegt, dass die spieltheoretisch herausgearbeiteten Lösungsansätze aus Kapitel 3.2 in den Ergebnissen der internationalen Klimaverhandlungen zu finden sind und auch einzelne Positionen von Akteuren in der Klimapolitik spieltheoretisch erläutert werden können. Die Public-Choice-Theorie hingegen ist keine normative Theorie, sondern eine erklärende. Daher ist die Herangehensweise, um den Beitrag der Public-Choice-Theorie zur Erklärung der Entwicklung der internationalen Klimapolitik darzustellen, eine andere. Eine normative Erarbeitung wie im Fall der Spieltheorie in Kapitel 3.2 wird also nicht durchgeführt. Der Abschnitt 4.1 beschreibt den theoretischen Hintergrund der Public-Choice-Theorie. In Abschnitt 4.2 werden die unterschiedlichen Staaten und Staaten-Gruppen als Akteure in der internationalen Klimapolitik festgestellt, um anschließend in Kapitel 4.3 die Konfliktlinien in der internationalen Klimapolitik zu skizzieren. Der Abschnitt 4.4 stellt den Beitrag der Public-Choice-Theorie zur Erklärung der internationalen Klimapolitik dar. Mit dem Hintergrund der Kapitel 4.2 und 4.3 werden die Positionen der Akteure in der internationalen Klimapolitik mit dem Public-Choice-Modell aus Kapitel 4.1 verglichen. Dieser Vergleich zeigt den Beitrag der Public-Choice-Theorie zur Erklärung der Entwicklung der internationalen Klimapolitik.Inhaltsverzeichnis:Inhaltsverzeichnis: I.Abbildungsverzeichnis5 II.Tabellenverzeichnis5 III.Abkürzungsverzeichnis5 1.Einleitung7 2.Klimawandel und internationale Klimapolitik9 2.1Ursachen für den Klimawandel und seine Folgen9 2.2Der Weg von der Erkenntnis des Klimaproblems zur Erkenntnis der Notwendigkeit des Handelns11 2.3Stationen internationaler Klimapolitik12 2.4Eckpunkte und Ergebnisse aus den Klimaverhandlungen17 2.4.1Eckpunkte der Klimaverhandlungen17 2.4.2Das Kyoto-Protokoll - Reduktionspflichten18 2.4.3Das Kyoto-Protokoll - Maßnahmen und Bestimmungen19 3.Der Beitrag der Spieltheorie zur Erklärung der Entwicklung der internationalen Klimapolitik21 3.1Theoretischer Hintergrund21 3.1.1Gefangenendilemma und Nash-Gleichgewicht21 3.1.2Chicken-Game25 3.1.3Tit-for-Tat-Strategie27 3.1.4Coase-Theorem28 3.2Eine stabile Klimaschutzvereinbarung29 3.2.1Konfliktpotentiale eines internationalen CO2-Vertrags aus dem Blickwinkel der Spieltheorie29 3.2.1.1Kooperation versus Nichtkooperation31 3.2.1.2Gefangenen- und Freifahrerdilemma33 3.2.1.3Effizienz- und Verteilungsaspekte35 3.2.1.4Vertragsverletzung und -Stabilität40 3.2.1.5Superspiele und Hyperspiele42 3.2.2Koalitionsbildung bei internationalen Umweltverhandlungen44 3.2.2.1Beschreibung eines Koalitionsmodells44 3.2.2.2Der Prozess der Koalitionsbildung als Zahlenbeispiel45 3.2.3Spieltheoretische Lösungskonzepte48 3.2.3.1Interne Partizipations- und Stabilisierungsanreize49 3.2.3.2Externe Partizipations- und Stabilisierungsanreize50 3.2.3.3Effizienz52 3.3Spieltheoretische Analyse der internationalen Klimapolitik52 3.3.1Kooperationsentscheidungen53 3.3.2Vertragsgestaltung58 3.3.2.1Effizienz- und Verteilungsaspekte58 3.3.2.2Issue-Linkage59 3.3.2.3Sanktionen60 3.4Fazit zu Kapitel 361 4.Beitrag der Public-Choice-Theorie zur Erklärung der Entwicklung der internationalen Klimapolitik62 4.1Theoretischer Hintergrund.62 4.1.1Wähler63 4.1.2Verbände64 4.1.3Politiker64 4.1.4Bürokraten65 4.2Konfliktparteien in der internationalen Klimapolitik66 4.2.1Die Europäische Gemeinschaft67 4.2.2Die USA und die JUSSCANZ- und UMBRELLA-Staaten70 4.2.3Die Entwicklungsländer73 4.2.4Nicht-Regierungs-Organisationen77 4.2.4.1Umweltorganisationen und Wissenschaft78 4.2.4.2Emittentenverbände und Gewerkschaften79 4.2.4.3Klimaschutzindustrie- und Dienstleistungsverbände80 4.3Die Konfliktlinien in der internationalen Klimapolitik81 4.4Analyse der Positionen und der Konfliktlinien der internationalen Klimapolitik aus Sicht der Public-Choice-Theorie82 4.4.1Wähler und Öffentlichkeit82 4.4.2Verbände und Nicht-Regierungsorganisationen85 4.4.3Politiker88 4.4.4Bürokraten91 4.5Fazit zu Kapitel 492 5.Fazit93 IV.Literaturverzeichnis95Textprobe:Textprobe: Kapitel 3.1.3, Tit-for-Tat-Strategie: Die zugrunde liegende Taktik hinter dieser Strategie kann mit dem Motto "wie du mir, so ich dir" beschrieben werden. Es handelt sich also um eine Strategie im Falle eines Mehr-Perioden-Spiels. Ein Spieler, der sich dieser Strategie bedient, wir immer das tun, was sein Gegner gerade getan hat. Allerdings ist, wenngleich das aus dem Namen nicht hervorgeht, der Spieler zu Beginn auf jeden Fall kooperativ. Es handelt sich also um eine freundliche Strategie. Wenn zwei Tit-for-Tat-Spieler aufeinandertreffen kooperieren sie immer. "Tit-for-Tat" wurde als erfolgreiche Strategie im wiederholten Gefangenendilemma bekannt, in dem zwei Gefangene gedrängt werden, den jeweils anderen zu beschuldigen. Das Ergebnis hierzu wurde bereits in 3.1.1 erläutert. Werden die Gefangenen wiederholt vor diese Entscheidung gestellt und ist beiden die jeweils vorherige Entscheidung des anderen bekannt, gibt es verschiedene Strategien, um das Spiel erfolgreich zu durchlaufen. "Tit-for-Tat" ist dabei eine der erfolgreichsten. In diesem Spiel bedeutet das, dass einer der Gefangenen generell kooperativ in das Spiel geht und dem anderen Teilnehmer hilft, indem er schweigt. Sollte der andere Gefangene nun nicht schweigen, rächt sich der "Tit-for-Tat"-Spielende in der folgenden Runde, indem er auch nicht schweigt. Allerdings ist er bereit, sofort zu vergessen, wenn sich der Mitspieler bessert und wieder kooperativ spielt. In der nächsten Runde wird er auch wieder kooperativ spielen. So kann man in einem Spiel über mehrere Runden zwar nie besser abschneiden als der eigene Gegenspieler, aber der maximale Rückstand ist dafür verhältnismäßig klein. Wenn der andere ebenfalls Tit-for-Tat spielt, entsteht kein Rückstand. In einem Spiel mit mehreren Mitspielern dagegen schneidet man in vielen Fällen besser ab, als Spieler mit anderen Strategien, da sich dort Kooperation bezahlt macht, die Tit-forTtat-Strategie sich aber zugleich nicht ausbeuten lässt. Überträgt man diese Strategie auf internationale umweltpolitische Vereinbarungen wie z.B. Emissionsreduktionen, so lässt sich als Beispiel für eine Antwort auf nicht kooperatives Verhalten des Gegenspielers eine Bestrafung durch Re-Optimierung seiner Reduktionsmenge anführen. Die verbleibenden kooperierenden Staaten sind hierbei berechtigt, ihre Emissionsmengen an die neuen Gegebenheiten anzupassen, also zu erhöhen. Steigt die aggregierte gleichgewichtige Emission der verbliebenen Koalitionäre in diesem Prozess, so ist darin eine "Bestrafung" des vertragsbrüchigen Koalitionsmitglieds zu sehen, denn dieser leidet ja auch unter der Emissionsausweitung. Allerdings wird der defektionierende Staat wieder in die Koalition aufgenommen, wenn er ausreichend "Buße" getan hat. Dies kann er durch Entrichtung einer Strafzahlung oder entsprechend überobligatorische Emissionsvermeidungsmaßnahmen tun. Kapitel 3.1.4, Coase-Theorem: Ronald Coase entwickelte einen Ansatz über die Internalisierung von externen Effekten durch Verhandlungen zwischen den beteiligten Akteuren einer Externalität, die in diesem Fall die Verschmutzung der Erdatmosphäre darstellt. Das Coase-Theorem basiert im Marktsystem der vollkommenen Konkurrenz auf der Annahme der Nichtexistenz von Transaktionskosten. Den Akteuren muss die Möglichkeit gegeben werden, in Verhandlungen zu treten, um so zu einer für beide Seiten vorteilhaften Übereinkunft zu gelangen. Hierzu bedarf es keiner staatlichen Eingriffe in das Preissystem, sondern lediglich der eindeutigen Zuordnung der Eigentumsrechte, mit denen die externen Effekte verbunden sind. Bezogen auf die internationale Klimapolitik sind hier Verschmutzungsrechte an der Erdatmosphäre gemeint. Coase beschreibt zwei polare Ansätze zur Verhandlungslösung: Zum einen die Laissez-faire Regel (Nichthaftungsregel): Bei Fehlen von gesetzlichen Regelungen haftet der Schädiger nicht für seinen verursachten Schaden. Er kann seine Aktivität auf beliebigem Niveau ausüben. Um dem Schädiger zu einer Reduktion des externen Effektes zu bewegen, muss der Geschädigte ihn bestechen. Zum zweiten die Verursacherregel (Haftungsregel): Liegen die Eigentumsrechte hingegen beim Geschädigten, ist es dem Verursacher nicht gestattet, eine Aktivität aufzunehmen, von der externe Effekte ausgehen. Will der Schädiger dennoch eine Aktivität aufnehmen, so muss er an den Geschädigten eine Kompensationszahlung für die Duldung des externen Effektes leisten. Die Verhandlungen zwischen den beiden Akteuren führen stets zu einer pareto-optimalen Ressourcenallokation. Diese Aussage wird als Effizienzthese des Coase-Theorems bezeichnet. Es spielt für die Optimalität keine Rolle, bei wem die Eigentumsrechte liegen. Die pareto-optimale Menge der den externen Effekt auslösenden Aktivität wird da sein, wo die Grenzkosten der Vermeidung des externen Effekts dem "Grenzleid" des Geschädigten bzw. den Grenzkosten der Beseitigung des externen Effekts entsprechen. Kapitel 3.2. Eine stabile Klimaschutzvereinbarung: Der Beitrag der Spieltheorie zur Erklärung der Entwicklung der internationalen Klimapolitik ist hauptsächlich in den Entscheidungsproblemen der einzelnen souveränen Staaten als Spieler in diesem Feld zu sehen. So stehen diese Spieler vor der Entscheidung über den Beitritt in das internationale Klimaregime. Im Falle des Beitritts stehen die Staaten dann vor der Entscheidung über die Einhaltung der mit dem Beitritt eingegangenen Verpflichtungen. Auch die Ausgestaltung des Kyoto-Protokolls und seiner Mechanismen lassen durch spieltheoretische Ansätze erklären. Zunächst werden potentielle Konfliktpotentiale eines internationalen Klimaschutzvertrages spieltheoretisch analysiert. Mit der Beschreibung der Koalitionsbildung zu internationalen Umweltverträgen wird dann an eine theoretische Klimavereinbarung herangeführt, die durch Ex-Ante- und Ex-Postanreize so vertragsstabil ist, dass die von den Unterzeichnern übernommenen Vertragspflichten auch von opportunistischen Staaten erfüllt werden . Johannes Heister beschreibt einen solchen Vertrag als internationalen CO2-Vertrag, der mit einem Klimaabkommen mit CO2-Reduktionszielen vergleichbar ist. Dieses Konstrukt mit seinen theoretisch herausgearbeiteten Anreizen und Sanktionsmechanismen dann auf inhaltliche Übereinstimmung mit den Ergebnissen der internationalen Klimapolitik verglichen, um zu sehen, welchen erklärenden Beitrag die Spieltheorie auf diesem Feld leistet. Kapitel 3.2.1, Konfliktpotentiale eines internationalen CO2-Vertrags aus dem Blickwinkel der Spieltheorie: Es ist anzunehmen, dass viele Verträge zwischen souveränen Staaten erst gar nicht zustande kommen, weil sie nicht durchsetzbar sind, so dass der Welt mögliche Wohlfahrtsgewinne verloren gehen. Das gilt auch für internationale Umweltverträge wie einem internationalen Klimaabkommen. Globale Umweltprobleme, wie der (menschgemachte) Klimawandel zeichnen sich im allgemeinen durch das Vorliegen dauerhafter, globaler Externalitäten aus, deren Beherrschung die multiliberale Zusammenarbeit (fast) aller souveräner Staaten erfordert. Die Erdatmosphäre kann als globales Umweltmedium aufgefasst werden, welches von allen Ländern gemeinsam genutzt wird. Die Nutzung der Atmosphäre als Aufnahmemedium für CO2-Emisionen durch einzelne Länder verschlechtert die Klimabedingungen auch für alle anderen Länder der Erde. CO2-Emissionen sind daher, unabhängig vom Ort des Geschehens, ein "öffentliches Übel" für die gesamte Völkergemeinschaft. Sie produzieren externe Kosten, die nicht vom Verursacher, sondern von dritten Ländern getragen werden. Die Staaten vernachlässigen die von ihnen verursachten externen Kosten in der individuellen Kosten-Nutzen-Rechnung. Sie vergleichen lediglich die Verminderung der Umweltschäden durch die eigenen Reduktionsanstrengungen, welche sie beeinflussen können, mit ihren individuellen Reduzierungskosten, wobei die Emissionen aller übrigen Länder als gegeben hingenommen werden. Die externen Kosten von CO2-Emissionnen haben ihr Gegenstück im externen Nutzen klimaschützender Maßnahmen. Einseitige Reduzierungsmaßnahmen durch ein einzelnes Land können daher als Produktion und Bereitstellung eines internationalen öffentlichen Gutes aufgefasst werden, da die Vorteile aus einer verminderten atmosphärischen CO2-Konzentration allen Ländern als ein externer Nutzen zufließen, ohne dass diese dafür eine Gegenleistung erbringen müssen. Aus der Theorie der öffentlichen Güter ist aber bekannt, dass die unkoordinierte, individuelle Bereitstellung öffentlicher Güter suboptimal bleibt. Das Gleiche gilt für den Klimaschutz, wenn die Staaten ihn ausschließlich im Eigeninteresse betreiben. Darüber hinaus kann der externe Nutzen einzelne Länder sogar dazu veranlassen, ihre Klimaschutzbemühungen zurückzufahren, da das Problem weniger dringlich geworden ist, nachdem andere reduziert haben. Aus diesen Gründen kann es - von einem rein nationalen Gesichtspunkt aus betrachtet - im Interesse der meisten Länder sein, ihre CO2-Emissionen nicht oder nur wenig zu reduzieren. Folglich bleiben die Klimaschutzbemühungen aller Länder weit unterhalb des globalen Optimums, welches erreicht würde, wenn jedes Land die globalen externen Effekte seiner nationalen Energie- und CO2-Politiken bei der Festsetzung seiner Emissionsziele berücksichtigt. Zur Überwindung des nichtkooperativen Verhaltens souveräner Staaten, die nur ihren eigenen Nutzen maximieren, und zur Implementierung von CO2-Politiken, die den größtmöglichen Nettonutzen stiften, ist es erforderlich, einen internationalen Koordinationsmechanismus einzurichten. Wegen des Fehlens einer zentralen Autorität muss dieser Mechanismus so beschaffen sein, dass er die Klimaschutzbemühungen eines jeden Staates mit den reziproken Bemühungen aller anderen Staaten so verknüpft, dass erhaltener und bereitgestellter Nutzen einander bedingen. Eine solche Verknüpfung kann ein internationaler CO2-Vertrag sein, der eine kooperative CO2-Strategie festlegt, und die erlaubten Emissionen für jede Vertragspartei oder einen äquivalenten Allokationsmechanismus so spezifiziert, dass der globale Nettonutzen maximiert bzw. die Summe aus globalen Klimaschäden und Reduzierungskosten minimiert wird. Es ist auf jeden Fall darauf zu achten, dass die vereinbarte CO2-Reduzierung effizient, d.h. zu den global geringst möglichen Kosten, erfolgt. Aus der Tatsache, dass souveräne Staaten freiwillig kooperieren müssen, ergeben sich im Vergleich zur nationalen Umweltpolitik zwei weitere Restriktionen: Die Verteilung der Nettogewinne muss sich so ergeben, dass sich kein Staat durch die kooperative Klimapolitik schlechter stellt als ohne sie. Weiter sind Vorkehrungen zu treffen, die den CO2-Vertrag vor Vertragsverletzungen durch opportunistische Staaten schützen. Im Rahmen des folgenden Modells von Heister lassen sich die angesprochenen Punkte gut darstellen.
Die Inhalte der verlinkten Blogs und Blog Beiträge unterliegen in vielen Fällen keiner redaktionellen Kontrolle.
Warnung zur Verfügbarkeit
Eine dauerhafte Verfügbarkeit ist nicht garantiert und liegt vollumfänglich in den Händen der Herausgeber:innen. Bitte erstellen Sie sich selbständig eine Kopie falls Sie diese Quelle zitieren möchten.
Die "VolkswagenStiftung" reagiert auf eine Studie zu veränderten Wissenschaftskulturen und zieht Konsequenzen für ihr Fördergeschäft. Ein Interview über mehr Gerechtigkeit auf dem akademischen Arbeitsmarkt, neue Forderungen an Antragsteller und ein Hinterfragen geltender Bewertungssysteme.
Henrike Hartmann ist stellvertretende Generalsekretärin und leitet die Abteilung Förderung der "VolkswagenStiftung". Georg Schütte ist Generalsekretär und führt die Geschäftsstelle der Stiftung.
Fotos: Nico Herzog/ Philip Bartz, jeweils für VolkswagenStiftung.
Frau Hartmann, Herr Schütte, die "VolkswagenStiftung" hat eine Studie "Wissenschaftskulturen in Deutschland" in Auftrag gegeben, deren Ergebnisse jetzt veröffentlicht werden. Grundlage waren Fokusgruppen, Interview und Workshops mit Wissenschaftlern aller Karrierestufen und Wissenschaftsexperten aus dem In- und Ausland. Bevor wir über deren Inhalte sprechen: Ich hätte gedacht, als größter privater Forschungsförderer in Deutschland kennen Sie die Wissenschaftslandschaft auch ohne Studie in- und auswendig.
Georg Schütte: Sozialwissenschaftliche Forschung bietet immer den Vorteil, Aussagen, die man als gegeben hinnimmt, noch einmal kritisch zu hinterfragen. Wir waren motiviert durch eine Studie, die im Jahr 2020 von den Kolleginnen und Kollegen des Welcome Trust in Großbritannien durchgeführt wurde, Titel: "What researchers think about the culture they work in." Wir wollten wissen: Was kommt dabei raus, wenn wir dieselbe Frage in Deutschland stellen? Gibt es verbreitete Annahmen über unser Wissenschaftssystem, die sich, wenn man mit Wissenschaftlerinnen und Wissenschaftlern spricht, als längst überholt herausstellen? Es ging uns um das stille Wissen, das alle Insider in sich tragen, aber nur selten nach außen artikulieren.
Und, gibt es solche Annahmen?
Schütte: Und ob. Das zeigte sich, noch bevor wir die Studie überhaupt gestartet hatten, in den Gesprächen, die wir mit den Mitgliedern unseres Beraterkreises geführt haben. Schon da wurde uns klar: Wir reden nicht nur über eine Wissenschaftskultur im Wandel, wir reden über viele Wissenschaftskulturen, die abhängig von den einzelnen Disziplinen geprägt sind von jeweils ganz eigenen Regeln, Annahmen, Standards und Verhaltensweisen.
Das ist noch nicht wirklich überraschend.
Schütte: Ja, aber wie genau unterscheiden sich diese disziplinären Kulturen, entwickeln sie sich auseinander oder aufeinander zu? Da haben wir tief hineingeschaut und festgestellt, dass sich aus den Besonderheiten der einzelnen Fächer durchaus Schlussfolgerungen für allgemeine, gemeinsame Problemlagen ziehen lassen. Ein Beispiel: In den Geisteswissenschaften werden Doktorandenstellen mit einem Umfang von 65 oder 75 Prozent als gängig angesehen und man meint, dass die Stelleninhaber gleichwohl Vollzeit arbeiten sollen. In den Technikwissenschaften oder in der Informatik werden dagegen 100-Prozent-Stellen angeboten. Begründung: weil der Arbeitsmarkt außerhalb der Wissenschaft, Stichwort Konkurrenz, das eben so erfordere. Diese auffällige Diskrepanz zwischen den Fächern wurde nicht groß hinterfragt. Unsere Schlussfolgerung als Stiftung aber lautet: Gleicher Lohn für gleiche Arbeit. Hier sehen wir unsere Aufgabe als Forschungsförderer: Wie können wir dazu beitragen, einen akademischen Arbeitsmarkt zu schaffen, der gerade zu Karrierebeginn gerecht ist und fächerunabhängig hinreichende Zukunftsaussichten bietet?
"Die Bereitschaft zur Selbstausbeutung und dazu, schlechte Arbeitsbedingungen in Lehre und Forschung als gegeben zu akzeptieren, ist geschwunden"
Henrike Hartmann: Das war für uns von Anfang an das Ziel hinter der Studie: Wir wollten nicht nur herausfinden, wie es um die Wissenschaftskulturen in Deutschland bestellt ist, wir wollten Konsequenzen für unser Förderhandeln ableiten. Was in der Befragung klar herauskommt, ist der grundlegende Wechsel des Selbstverständnisses zwischen früheren Wissenschaftlergenerationen und der heutigen. Früher wurde Wissenschaft als Berufung gesehen, heute als Beruf. Die Bereitschaft zur Selbstausbeutung und dazu, schlechte Arbeitsbedingungen in Lehre und Forschung als gegeben zu akzeptieren, ist geschwunden.
Und was bedeutet das für die "VolkswagenStiftung"?
Schütte: Wir haben zwei konkrete Konsequenzen gezogen. Erstens: Wir wollen verstärkt semi-stabile Forschungsgruppen unterstützen, also Teams, deren Mitglieder sich teilweise aus den Inhabern von Dauerstellen rekrutieren. Diese wechseln nur für die Laufzeit ins Projekt und werden nur so lange aus den Projektmitteln bezahlt. Oft heißt es in den Universitäten, die Anforderung, Drittmittel einzuwerben, liege quer zu dem Ziel, die Befristungsquote unter den Mitarbeitern zu senken. Darauf reagieren wir. Zweitens wollen wir die bereits laufende Debatte über die Bewertungssysteme in der Wissenschaft befördern.
Bleiben wir zuerst bei den, wie Sie es nennen, "semi-stabilen" Teams. Wie wollen Sie mehr davon an die Hochschulen bekommen?
Schütte: Indem wir alle, die Fördergelder bei uns beantragen, stärker in die Verantwortung nehmen. Mit jedem Förderantrag muss künftig nicht nur ein Stellenkonzept eingereicht werden, sondern auch überzeugend begründet und dargelegt werden, wie und warum einzelne Personen auf welcher Qualifikationsstufe dauerhaft beschäftigt werden oder nicht und welche Perspektiven es für Beschäftigte auf Projektstellen gibt. Wir wollen so einen Denkprozess anstoßen.
Hartmann: Wenn ein Doktorand eingestellt wird für ein Projekt, passiert das oft nicht aus einer inhaltlichen Begründung heraus, sondern weil Postdocs teurer sind. Wir verlangen nun aber, dass genau begründet wird, ob und wie eine bestimmte Beschäftigung zur Weiterqualifizierung der vorgesehenen Person passt. Bei Postdoc-Stellen wollen wir genauso wissen: Ist die geplante Aufgabe wirklich ein sinnvoller Start in eine wissenschaftliche Karriere hinein? Wie sieht es mit der Betreuung aus? Erhält jemand Fertigkeiten, die ihm oder ihr auch den nichtakademischen Arbeitsmarkt weiterhelfen? Oder wird da jemand speziell für den akademischen Markt qualifiziert – und wenn ja, wie steht es um seine Anschlussoptionen? Klar ist der Postdoc auch selbst für sein Fortkommen verantwortlich. Aber wer übernimmt Mitverantwortung für seine Zukunft? Und wie wird das im Projekt abgebildet?
"Begründet aus euren Fachkulturen heraus, welche Stellenkonstellationen und Perspektiven ihr für junge Wissenschaftlerinnen und Wissenschaftler schaffen wollt."
Ziemlich viele Fragen, die auf einen gemeinsamen Mindeststandard bei den akademischen Karrierewegen abzielen. Wie aber passt ein gemeinsamer Standard für alle zu der zuvor von Ihnen betonten Unterschiedlichkeit der Wissenschaftskulturen? Haben Sie keine Angst vor einem Gleichmacherei-Vorwurf?
Schütte: Ich kann da keinen Widerspruch erkennen, weil wir auf einer übergeordneten Ebene argumentieren und den einzelnen Fachgebieten keine Vorschriften machen, wie es zu sein hat. Wir stellen aber die Anforderung: Begründet aus euren Fachkulturen heraus, welche Stellenkonstellationen und Perspektiven ihr für junge Wissenschaftlerinnen und Wissenschaftler schaffen wollt. Für einige Disziplinen mag das stärker eine neue Herangehensweise sein als für andere.
Und für einige Fächer erhöhen Sie so womöglich entscheidend die Barrieren für einen Antrag um Fördergelder der "VolkswagenStiftung".
Hartmann: Das kann schon sein. Aber für uns darf nicht die absolute Zahl der Anträge entscheidend sein, sondern dass sie wirklich durchdacht sind im Interesse aller Beteiligten. Wenn dann im Ergebnis der eine oder die andere entscheidet, dass sie unseren Bedingungen nicht entsprechen können, hilft das zur Klärung.
Die Aufrufe, dass die Hochschulen aus Drittmitteln mehr Dauerstellen schaffen sollen, hörte man zuletzt häufiger, auch aus der Politik. Bei den verantwortlichen Kanzlern lösen solche Appelle mitunter Kopfschütteln aus. Das würde man ja gern, sagen sie, aber die konkreten Verwendungsvorschriften, das Kleingedruckte, lasse genau das meist nicht zu.
Schütte: Wir versuchen, in unserer Förderung möglichst ohne Kleingedrucktes auszukommen. Das heißt natürlich, dass wir auch riskante Forschungsprojekte ermöglichen. Die Hochschulen und Wissenschaftseinrichtungen sollen Freiräume zum Ausprobieren haben. Aus Dingen, die nicht klappen, lernt man. Allerdings muss man, wenn es um Menschen geht, besonders vorsichtig sein und darf nicht zu weit ins Risiko gehen. Das ist das Spannungsfeld, und das versuchen wir zu bearbeiten.
Hartmann: Das entspricht dem Selbstverständnis der Stiftung, Impulse zu geben, Strukturbildung zu betreiben. Das umfasst zwangsläufig nicht nur die Forschung selbst, sondern auch die administrativen Vorgänge drumherum. Das Ziel ist zu zeigen, dass es auch anders gehen kann.
"Viele Fragestellungen. Die Studie ermutigt uns, sie weiter anzugehen."
Sie sprachen vorhin von der zweiten Schlussfolgerung, die Debatte über die Bewertungssysteme in der Wissenschaft zu befördern. Was haben Sie vor?
Hartmann: Wir haben nicht nur vor, wir machen bereits. Wir haben eine Ausschreibung gestartet, um das Wissen über die vorhandenen Bewertungssysteme und ihre Funktionsweisen zu erhöhen. Die Anträge liegen jetzt auf dem Tisch, und sie zeigen eine erfreuliche Vielfalt mit diversen nationalen und internationalen Konsortien, die sich mit allen Dimensionen von Bewertung beschäftigen wollen: vom Publikationswesen über die Frage, welche Themen besonders gut laufen, bis hin zum Umgang mit Wissenschaftspreisen. Wir gehen jetzt in die Begutachtung, in einem halben Jahr wissen wir, wer in die Förderung kommt. Die Resonanz auf die Ausschreibung zeigt schon einmal die Relevanz der Frage.
Schütte: Das war eine glückliche Koinzidenz. Wir hatten die Ausschreibung gestartet, bevor die Ergebnisse der Studie vorlagen. Beides passt jetzt sehr gut zusammen. Wir müssen, das wird aus der Studie sehr deutlich, fragen: Wie wird Reputation zugeschrieben in der Wissenschaft? Wie werden Erfolge und Misserfolge gemessen, und wie ist das System organisatorisch und prozedural aufgestellt, um mit der Vielfalt der Anträge noch qualitativ angemessen umzugehen? Also viele Fragestellungen. Die Studie ermutigt uns, sie weiter anzugehen.
Zur Wahrheit gehört, dass auch die "VolkswagenStiftung" dieses Bewertungssystem durch die Vielzahl von Antragsverfahren und Begutachtungen weiter füttert. Viele Wissenschaftler fühlen sich durch das ständige Begutachtetwerden, aber auch durch das ständige Begutachten überlastet.
Hartmann: Weshalb wir schon länger gegensteuern. Neu ist, dass alle Begutachtenden bei uns an einer Verlosung teilnehmen. Als Gewinn gibt es 25mal 10.000 Euro Fördergeld zum Aufbau und zur Pflege internationaler Wissenschaftskooperationen.
Damit ändern Sie nicht das System, sondern verschaffen sich lediglich einen Vorteil im Konkurrenzkampf um die zu wenigen Gutachter.
Hartmann: Dieser Vorwurf wäre berechtigt, wenn wir einfach die Honorare für alle erhöhen würden und dadurch den Wettbewerb der Förderer anheizen würden. Genau das tun wir aber nicht. Sondern wir greifen bewusst die verbreitete Kritik auf, die Arbeit, die Begutachtende leisten, werde nicht ausreichend gesehen. Durch die Verlosung machen wir sie sichtbar. Und durch die vorgegebene Verwendung der Gelder profitiert nicht ein einzelner, die begutachtende Person, sondern, wenn es weise eingesetzt wird, eine Gruppe von Wissenschaftlern, darunter auch die am Beginn ihrer Karriere. Aber zugegebenermaßen handelt es sich um ein Experiment. Wir machen das jetzt für ein Jahr und vergleichen dann die Quote der Ab- bzw. Zusagen potenzieller Gutachter mit der Zeit vor der Verlosung. Bislang ist die Resonanz, die wir bekommen, positiv.
Das mit dem Verlosen machen Sie bei der "VolkswagenStiftung" an anderer Stelle schon länger. Bei manchen Ausschreibungen wählt die Jury zunächst nur die allerbesten Vorhaben aus, die übrigen brauchbaren Anträge gehen in einen Topf, und aus dem wird nach dem Zufallsprinzip eine weitere Anzahl zur Förderung gezogen. Hat sich das bewährt?
Hartmann: Nach anfänglicher Kritik und Zurückhaltung hat sich in der Community die Erkenntnis durchgesetzt, dass Losverfahren in bestimmten Ausschreibungen durchaus sinnvoll sein können. Inzwischen wurde die Idee von vielen Förderern aufgegriffen, auch großen öffentlichen wie dem FWF in Österreich oder dem Schweizer Nationalfonds.
"Manchmal besteht unser Lernen auch darin, etwas Neues wieder zu lassen."
In welchen Situationen sind Losverfahren denn sinnvoll?
Hartmann: Immer da, wo die Gefahr besteht, dass die Peer-Review-Begutachtung allein unkonventionelle und risikoreiche Projektanträge benachteiligen könnte.
Aus einer ähnlichen Motivation haben Sie vor Jahren auch sogenannte Förderjoker eingeführt. Die ermöglichen es einzelnen Jurymitgliedern, ein Projekt für die Förderung durchzusetzen, auch wenn die Mehrheit der Gutachter nicht dafür ist.
Hartmann: Und da haben wir gemischte Erfahrungen gemacht, abhängig von den Disziplinen. In den Lebenswissenschaften hat sich der Förderjoker bewährt, um neues Forschungsterrain zu erschließen, mit sogenannten High-Risk-High-Gain-Anträgen. Wo also das Risiko eines Scheiterns sehr hoch ist, der mögliche Ertrag aber eben auch. Anders sieht es in den diskursintensiven Wissenschaften aus, da haben wir erlebt, dass über den Förderjoker Schulenstreits ausgetragen wurden. Das schafft unnötig Kontroversen, weshalb wir den Förderjoker in diesen Wissenschaften nicht mehr einsetzen. Manchmal besteht unser Lernen auch darin, etwas Neues wieder zu lassen.
Kostenfreien Newsletter abonnieren
In eigener Sache: Bitte unterstützen Sie meine Arbeit
Nutzerzahlen und Finanzierung: Wie steht es um den "Wiarda-Blog"?
Die Inhalte der verlinkten Blogs und Blog Beiträge unterliegen in vielen Fällen keiner redaktionellen Kontrolle.
Warnung zur Verfügbarkeit
Eine dauerhafte Verfügbarkeit ist nicht garantiert und liegt vollumfänglich in den Händen der Herausgeber:innen. Bitte erstellen Sie sich selbständig eine Kopie falls Sie diese Quelle zitieren möchten.
"Deutschlands wirtschaftliches und politisches Gewicht verpflichtet uns, im Verbund mit unseren europäischen und transatlantischen Partnern Verantwortung für die Sicherheit Europas zu übernehmen, um gemeinsam Menschenrechte, Freiheit, Demokratie, Rechtsstaatlichkeit und Völkerrecht zu verteidigen" (Angela Merkel: Bundesministerium der Verteidigung 2016, S. 6) Obwohl Angela Merkel nicht mehr Bundeskanzlerin ist, sind die Leitlinien, die im Weißbuch 2016 für die Außen- und Sicherheitspolitik Deutschlands festgelegt wurden, weiterhin elementar – oder nicht? Aber wie lässt sich ihre Aussage im Jahr 2022 verorten? Zeigt Deutschland Verantwortung für die EU, transnationale Partnerschaften und Völkerrecht? In diesem Beitrag soll das Verhältnis zwischen Deutschland und den Vereinten Nationen (VN) in den Blick genommen werden: Mit dem Wegfall des West-Ost-Konflikts, der Dekolonialisierung, dem Beitritt weiterer Staaten und der Veränderung des Krieges hin zu "Neuen Kriegen" (Hippler 2009, S. 3-8) ergeben sich neue Handlungsfelder und Herausforderungen, die die Vereinten Nationen in den Blick nehmen müssen.Je nach Ansicht fällt der größten Weltorganisation eine mehr oder weniger bedeutende Rolle in der internationalen Politik zu (vgl. Gareis & Varwick 2014, S. 295). Allerdings sind maßgeblich die Mitgliedsstaaten für das Gelingen der Vereinten Nationen und für die notwendigen Reformen zuständig, da sie als "klassische intergouvernementale Organisation" (ebd., S. 295) bezeichnet werden können.Die Forschungsfrage lautet daher, wie sich die deutsche Außen- und Sicherheitspolitik international, im Rahmen der VN, verortet. Die deutsche Politik formuliert hierfür Ziele, die noch genauer zu untersuchen sind. Als eine Maßnahme, um die Zielerreichung zu gewährleisten, kann der MINUSMA-Einsatz in Mali angesehen werden, unter deutscher Beteiligung und von den Vereinten Nationen geführt. Es wird herausgearbeitet, inwiefern die deutsche Partizipation als Erfolg angesehen werden kann. Hierfür wird zuerst der theoretische Rahmen der Internationalen Beziehungen - der Grundzustand der Anarchie - erklärt und weitere Prämissen der VN, des VN-Peacekeepings, der historischen Rahmung der deutschen Außen- und Sicherheitspolitik sowie der Einsatz selbst beschrieben, um am Ende zu einer elaborierten Aussage kommen zu können. 1. Theoretische Rahmung – Grundzustand AnarchieGareis und Varwick (2014, S. 67) konstatieren einen allgemeinen Anforderungswunsch an die VN, die eine 'Lücke' in der Ordnung der Internationalen Beziehungen füllen sollen. Aber von welcher 'Lücke' wird hier gesprochen? In der Politikwissenschaft gibt es verschiedene Ansätze, um die Beziehungen zwischen Staaten und das Wirken von internationalen Organisationen zu beschreiben. Die Prämisse bildet der Grundzustand von Anarchie, der wie folgt definiert werden kann: "Unter Anarchie wird in diesem Zusammenhang die für Kooperationschancen folgenreiche Struktur der Herrschaftslosigkeit bzw. der Nichtexistenz einer den Staaten übergeordneten, zentralen Autorität mit Handlungskompetenz verstanden" (Gareis & Varwick 2014, S. 67) Es gibt verschiedene Denkschulen, die den Grundzustand unterschiedlich gewichten und bewerten (vgl. Schimmelfennig, S. 63ff). Darunter sind zum Beispiel der Realismus, der Idealismus, der Institutionalismus und der Konstruktivismus zu nennen (vgl. Gareis & Varwick 2014, S. 71). Um das Verhältnis zwischen den VN und Deutschland erklären zu können, ist es hilfreich, zu überlegen, an welcher Denkschule sich die Sicherheits- und Außenpolitik Deutschlands (schwerpunkt- und situationsbezogen) orientiert. Die Ansätze sind in ihrer Gesamtheit in diesem Beitrag nicht zu würdigen, daher werden einzelne Hauptdifferenzen geklärt, um für die Beantwortung der Forschungsfrage eine Richtlinie geben zu können. Die Beschreibung erfolgt idealtypisch: Im Realismus ist der Grundzustand besonders präsent und hauptsächlich staatliche Akteure sind für die Internationalen Beziehungen verantwortlich. Die Staaten haben ein starkes Eigeninteresse, das sich aus der Unsicherheit des Grundzustandes speist, und handeln nach eigenen Machterhaltungsvorstellungen. "In dieser Sichtweise erfüllen internationale Organisationen lediglich aus der Souveränität und den Interessen ihrer Mitglieder abgeleitete Funktionen" (ebd., S. 68). Damit wären Handlungsfelder und Möglichkeiten eng an die Vorgaben der Staaten gekoppelt. Frieden wird als Sicherheit-Erhalten verstanden und bedeutet, dass die Nationalstaaten durch Machtsicherung ihre Souveränität gewährleisten können. (vgl. ebd., S. 68 & 71) Im Idealismus soll der anarchische Grundzustand durch "Kooperationsformen" (ebd., S. 68) geregelt werden. Die Friedenssicherung läuft über einen stetigen Prozess über eine "universelle Gemeinschaft" (ebd., S. 69), die für alle Vorteile bringen kann. Damit wäre das Ziel, Konflikte nicht mehr mit Gewalt lösen zu müssen, anders als im Realismus, wo Krieg als natürliche Form besteht, durch die normative Regelung des Grundzustandes möglich. Internationale Organisationen können mit ihren Regelungen die Realisierung von Frieden darstellen. Damit sind nicht nur Staaten als Akteure zu sehen und statt Machterhaltungsvorgaben ist das Handeln auf ein Gemeinwohl konzentriert. (vgl. ebd., S. 69 & 71) In der Tradition des Institutionalismus sind internationale Kooperationen deutlich wahrscheinlicher als im Realismus. Außerdem ist ihr Einfluss auf Staaten bedeutend höher einzuschätzen. Demnach helfen sie zum Beispiel, Informationen über andere Staaten zu sammeln und können so beim Aufbau von Vertrauen mitwirken. (vgl. ebd., S. 69f) Die "Interdependenz" (Schimmelfennig 2010, S. 93) zwischen den Staaten wird als hoch angesehen und bedarf internationaler Regelwerke, die die Kooperationsmöglichkeiten regulieren. In diesem Sinne sind Staaten an friedlichen Lösungen interessiert und halten Krieg für nicht gewinnbringend bzw. sehen Machtkonzentration als weniger produktiv an als das Streben nach Gewinnen. Dadurch ist der Grundzustand der Anarchie zwar nicht auflösbar, allerdings soll im Laufe der Zeit eine Zivilisierung stattfinden. (vgl. ebd., S. 90) Der Konstruktivismus sieht den Grundzustand der Anarchie nicht als gegeben, sondern als eine Konstruktion von Wirklichkeit an. Dadurch ist es möglich, diesen Zustand zu verändern / aufzuheben. Damit sind die Akteure selbst für den Grundzustand verantwortlich. (vgl. Gareis & Varwick 2014, S. 70) Damit lautet eine Kernhypothese des Konstruktivismus: "Je größer die Übereinstimmung der Ideen von internationalen Akteuren und je stärker damit Gemeinschaft zwischen ihnen ist, desto höher ist die Wahrscheinlichkeit von Frieden und internationaler Kooperation" (Schimmelfennig 2010, S. 185) Es wären bspw. Staaten gemeint, die eine freundschaftliche Beziehung pflegen und unabhängig von Machtkonzentration Vertrauen aufbauen. (vgl. ebd., S. 184f) In den Denkschulen sind relativ konkrete Vorstellungen gegeben, wie eine internationale Organisation Einfluss und Machtkonzentration entwickeln kann oder sollte oder bereits beinhaltet. Die Vereinten Nationen können auf einen Blick als größte Organisation im internationalen Spektrum angesehen werden, denn sie haben aktuell 193 Mitgliedsstaaten (Stand 2022) (vgl. Die Vereinten Nationen im Überblick: Deutsche Gesellschaft für die Vereinten Nationen e. V., o. J.).2. Die Vereinten Nationen Bevor über die VN auf manche Aspekte schwerpunktmäßig eingegangen werden kann, ist knapp zu klären, was eine internationale Organisation wie die VN darstellt. Hierbei orientiert sich dieser Beitrag an Gareis und Varwicks (2014, S. 295) Konstruktion von einer "klassische[n] intergouvernementale[n] Organisation", deren Reformfähigkeit und Erfolge maßgeblich von den Mitgliedsstaaten abhängen – also auch von Deutschland. Es werden prinzipiell keine Souveränitätsrechte an die Organisation abgegeben, mit der Ausnahme, dass der Sicherheitsrat Zwangsmaßnahmen zur Friedenswahrung durchsetzen kann (vgl. ebd., S. 72).2.1 Grundlegende Kennzeichen der Vereinten Nationen Die Grundlagen der Vereinten Nationen können an zwei Hauptfaktoren exemplarisch aufgezeigt werden: Erstens ist der Friedensbegriff nicht nur als Abwesenheit von Krieg definiert, er schließt vielmehr das Wohlergehen der Menschen in den Staaten ein und geht somit über das Nationalstaats-Denken hinaus (positiver Friedensbegriff). Das zweite Konzept ist das System kollektiver Sicherheit, dadurch soll der erhöhte Druck, von allen Staaten bei einer Aggression automatisch angegriffen oder anderweitig verurteilt zu werden, die Friedensbedrohung reduzieren. (vgl. Gareis & Varwick 2014, S. 19-22 & 87-92) Dass das System der kollektiven Sicherheit nicht bedingt greift oder einigen Herausforderungen unterworfen ist, liegt bspw. an den neuen Kriegsformen (vgl. Hippler 2009, S. 3f). Gleichzeitig kann die aktuelle Invasion Russlands in die Ukraine (vgl. u.a. Russlands Angriff auf die Ukraine: Beckmann 2022) herangezogen werden, dass die Mechanismen bspw. für Supermächte weitere Schwierigkeiten in der Praxis aufzeigen (vgl. Gareis & Varwick 2014, S. 89f). 2.2 Generalversammlung und Sicherheitsrat – wichtigste Gremien der VN Die Vereinten Nationen sind mittlerweile zu einer undurchsichtigen Ansammlung an offiziellen und inoffiziellen Strukturen geworden und sind unter dem Begriff VN-System sehr weit zu fassen (vgl. Gareis & Varwick 2014, S. 21f). Allerdings sind nach wie vor zwei von sechs Hauptorganen hervorzuheben:In der Generalversammlung (GV) sitzen alle Mitgliedsstaaten und sind nach dem Prinzip der Gleichberechtigung mit jeweils einer Stimme ausgestattet. Hauptcharakteristikum ist, dass die Generalversammlung ein Forum für Gespräche bietet und somit als größtes Austauschforum auf der Welt bezeichnet werden kann. In sechs Hauptausschüssen vollzieht sich die meiste Arbeit der Generalversammlung, auf die hier nicht weiter eingegangen werden soll. Entscheidend ist der Unterschied zum Sicherheitsrat: Die GV hat keinen Sanktionskoffer parat und kann lediglich Empfehlungen aussprechen. (vgl. ebd., S. 45-47) Der Sicherheitsrat besteht aktuell aus 15 Mitgliedsstaaten, wobei zwischen ständigen und nichtständigen Mitgliedern differenziert werden muss. Die ständigen Mitglieder sind die sogenannten 'Big Five' und setzen sich aus Frankreich, Großbritannien, USA, Russland und China zusammen. Sie werden nicht wie die nichtständigen Mitgliedsstaaten von der Generalversammlung im Zwei-Jahres-Zyklus gewählt.Verkürzt dargestellt nimmt der Sicherheitsrat Aufgaben wie Friedensmissionen, Ausschüssen o. Ä. wahr. Die ständigen Mitgliedsstaaten haben historisch bedingt ein Veto-Recht, das eine große Rolle spielt und mehrfach zur Lähmung des SR führte. Der Sicherheitsrat ist das mächtigste Hauptorgan der Vereinten Nationen und ist berechtigt, zur Friedenssicherung weitreichende Sanktionen und militärische Maßnahmen zu ergreifen. (vgl. ebd., S. 47-49) 2.3 Das VN-Peacekeeping aus historischer Perspektive Die Geschichte der VN ist überaus vielschichtig und kann hier nur in den Grundzügen wiedergegeben werden. Im Jahr 1945 wurde die Charta von 51 Staaten unterzeichnet. In den ersten Jahren ihrer Arbeit (1945-1954) mussten organisatorische und strukturelle Systeme aufgebaut werden, die im West-Ost-Konflikt zugleich erste Einschränkungen erfuhren. Die erste große Herausforderung des kollektiven Sicherheitssystems betraf den Korea-Krieg: Nordkorea fiel 1950 in Südkorea ein und der Sicherheitsrat wurde durch Russland blockiert. Daraufhin entstand in der Generalversammlung die Uniting for Peace-Resolution, die Empfehlungen und militärische Interventionen beinhaltete, sollte der SR seiner Aufgabe, den Weltfrieden zu sichern, nicht nachkommen. Die erste inoffizielle Blauhelmmission stellt die UNTSO-Mission dar, die die Überwachung eines Waffenstillstandes 1948 zwischen Israel und arabischen Staaten beinhaltete. (vgl. ebd., S. 27-30 & 127) In den darauffolgenden 19 Jahren (1955-1974) verschob sich das Mächtegleichgewicht maßgeblich durch die Dekolonisation und die Entstehung unabhängiger Staaten im Süden. Hervorzuheben ist die Suez-Krise, in der der ägyptische Präsident Gamal Abdel Nasser 1956 den Suez-Kanal verstaatlichte. Großbritannien, Israel und Frankreich gingen ungeachtet der Ablehnung des SR militärisch dagegen vor, verhinderten gleichzeitig mit ihren Vetos eine Deeskalation der Lage. Auf Grundlage der Uniting for Peace-Resolution wurde wieder versucht, den Konflikt auszusetzen und einen Waffenstillstand einzufordern. Die GV beschloss daraufhin die Etablierung der United Nations Emergency Force (UNEF I), um zwischen den Konfliktparteien eine neutrale Zone aufzubauen. Die Blauhelme nahmen hier ein erweitertes Aufgabenspektrum wahr und erhielten bspw. Kontrolle über Hoheitsgebiet. "Damit wurde das wohl bedeutendste Friedenssicherungsinstrument der Vereinten Nationen, die Blauhelmeinsätze, ins Leben gerufen" (ebd., S. 31). (vgl. ebd., S. 27-30 & 128) Im "Nord-Süd-Konflikt (1975-1984)" (ebd., S. 32) versuchten die VN weiterhin, in einigen Konflikten aktiv mit Blauhelmeinsätzen zu vermitteln und zeigten sich angesichts der Invasion der Sowjetunion in Afghanistan (1979) als handlungsunfähig. (vgl. ebd., S. 32f) Die letzte Phase reicht bis heute und beginnt ab dem Jahr 1985. Die Annäherung der beiden Großmächte USA und Sowjetunion und der Zerfall der Sowjetunion ergab Handlungsspielraum im SR. Allerdings entzündete sich auch eine Reihe an neuen Konfliktherden: "Innerhalb von rund 25 Jahren stieg die Zahl der Friedensmissionen von 14 auf nunmehr 68" (ebd., S. 33). Nötige Reformen rückten zuletzt durch den USA geführten Irakkrieg und die Terroranschläge am 11. September vermehrt in den Fokus. (vgl. ebd., S. 33-35) 2.4 Typologisierung und Reformansätze Wie in der historischen Rahmung aufgezeigt, entstand das Peacekeeping, weil das kollektive Sicherheitssystem nicht funktionsfähig war. Die Blauhelmeinsätze sind praxisnahe Formen zur Sicherung des Friedens, die sich zwischen dem Souveränitätsanspruch und den Zielen der VN bewegen. Die Ausgestaltung der Friedensmissionen sind vielfältig: Die VN typologisieren die Einsätze in vier Generationen:In der ersten Generation sind Einsätze hauptsächlich "zur Beobachtung und Überwachung von bereits beschlossenen Friedens- bzw. Waffenstillstandsabkommen […]" (Gareis & Varwick 2014, S. 126) gemeint. Missionen der zweiten Generationen sind durch "ein erweitertes Aufgabenspektrum" (ebd.) ausgezeichnet und meinen Einsätze nach 1988. In der dritten Generation liegt der Fokus nicht nur auf Friedenserhaltung sondern auch auf dessen Erzwingung. Zum Schluss kommen in der vierten Generation nicht-militärische administrative Funktionen hinzu.Jede Generation erforderte Anpassungen und ein mühsames Lernen, sodass die Bilanz des VN-Peacekeeping sehr gemischt ausfällt. Neuere Bestrebungen zielen daher darauf ab, aus den vergangenen Fehlern zu lernen. Zum Beispiel soll das Peacekeeping nur noch mit realistischem Mandat stattfinden und die individuelle, komplexe Konfliktsituation angemessen darstellen. Außerdem ist zu gewährleisten, dass die Blauhelme gut ausgerüstet sind und unter den Aspekten eines robusten Mandats alle neuen Perspektiven der Friedenssicherung wahrnehmen können. Diese beinhalten vereinfacht dargestellt die Konfliktvermeidung, das Konfliktmanagement und die Konfliktnachsorge. (vgl. ebd., S. 124-151) Nachfolgend ist zu klären, inwiefern sich der MINUSMA-Einsatz darin einfügt und welche Rolle Deutschland in dem Entwicklungsprozess des VN-Peacekeeping und des Einsatzes spielt.3. United Nations Multidimensional Integrated Stabilization Mission in Mali (MINUSMA) Der MINUSMA-Einsatz der Vereinten Nationen ist als Peacekeeping-Mission der vierten Generation zu charakterisieren. 3.1 Strukturelle Rahmung des MINUSMA-Einsatzes Das Departement of Peacekeeping Operations (DPKO) ist für die Umsetzung und Planung der Blauhelmmissionen verantwortlich. Mit Stand 2022 sind insgesamt 15 Einsätze zu verzeichnen (DPKO: Deutsche Gesellschaft für die Vereinten Nationen e.V., o. J.). Die Mission in Mali gehört zu den jüngsten Einsätzen und begann im April 2013 (vgl. Gareis & Varwick 2014, S. 141).Sie gründet sich auf die Resolution 2100 (vgl. Security Council Establishes Peacekeeping Force for Mali Effective 1 July: United Nations 2013) vom 25. April und die Resolution 2164 (vgl. Security Council: United Nations 2014) des Sicherheitsrates und hat multidimensional den Schutz der Zivilisten, die Gewährleistung der Menschenrechte, die Etablierung einer Staatsmacht, die Stabilisierung der Region durch den Aufbau eines Sicherheitsapparates und die Aufrechterhaltung der politischen Dialogfähigkeit und Konsultation als Aufgabe formuliert (vgl. MINUSMA Fact Sheet: United Nations 2022).Damit stehen auch militärische Interventionen zur Verfügung und es kann von einem robusten Mandat gesprochen werden, das lediglich als Ausnahme die aktive Terroristenbekämpfung ausschließt (vgl. Mali: Konopka 2022). Stand November 2021 befinden sich insgesamt 18.108 Menschen im Einsatz und davon sind 13.289 dem militärischen Personal zuzuordnen (vgl. MINUSMA Fact Sheet: United Nations 2022). Dazu kommen zivile Einsatzkräfte und bspw. Polizeiausbildende (vgl. ebd.).Die größten teilnehmenden Länder mit militärischem Personal sind mit 1440 Chad, mit 1119 Bangladesch, Ägypten mit 1072 und auf Platz 10 folgt Deutschland mit 531 Angehörigen (vgl. ebd.). Die Verluste an Menschenleben werden bisher auf 260 (Stand 2021) beziffert (vgl. ebd.). Die Finanzierung wird über die Generalversammlung jährlich geregelt und betrug zwischen 2021 und 2022 1.262.194.200 Dollar (vgl. ebd.).Neuere Zahlen der Bundeswehr (Stand Februar 2022) geben an, dass Deutschland mit über tausend Soldatinnen und Soldaten in Mali im Einsatz ist (vgl. Personalzahlen der Bundeswehr: Bundeswehr 2022). Die Zahl stellt sich als irreführend heraus, weil die Bundeswehr alle Beteiligten zusammenzählt, auch die, die bspw. in Nachbarländern an Schlüsselstellen der Infrastruktur beschäftigt sind (vgl. Mali: Konopka 2022).Die aktuelle Resolution der VN (2584) trat am 29. Juni 2021 in Kraft und ist bis zum 30. Juni 2022 gültig (vgl. Mali – MINUSMA: Bundeswehr 2022). Durch das Ablaufen des Mandats in diesem Jahr ist die Forschungsfrage darauffolgend auszuweiten, inwiefern Deutschland sich weiterhin an der Mission beteiligen wird. Zuerst sollte aber kurz auf die Situation Malis eingegangen werden, um zu klären, warum Deutschland und viele weitere Staaten überhaupt intervenieren. 3.2 Mali – eine von Gewalt geplagte Region Die gesamte Komplexität dieser Krisenregion kann hier nicht dargestellt werden. Allerdings sind einige Aspekte zu nennen, um die Verortung und die Herausforderungen des Peacekeepings zu verdeutlichen. In Nordmali begann 2012, um die politische Unabhängigkeit zu gewährleisten, ein gewaltsames Vorgehen gegen die malische Regierung. Als fragiles Bündnis kamen dschihadistische Kämpfende hinzu, die jedoch nach den ersten Eroberungen der nordmalischen Städte 2013 die Oberhand gewannen.Der Süden Malis war ebenfalls von einem Militärputsch geschwächt und die malische Regierung bat um internationale Hilfe. Frankreich folgte der Bitte und eröffnete die Operation Serval. Afrikanische Länder griffen unter der Mission AFISMA ein. Den alliierten Kräften gelang schnell die Rückeroberung der Städte im Norden. Allerdings ging daraus eine asymmetrische Kriegsführung hervor, die die vom Sicherheitsrat legitimierten Einsatztruppen besonders in den Fokus der Attacken der Dschihadisten stellt.Ein Friedensvertrag von 2015 umfasste bspw. nicht alle Konfliktparteien. Im Allgemeinen ist eine Verschlechterung der Gesamtsituation zu verzeichnen, da Dschihadisten mittlerweile versuchen, auch die Nachbarländer Niger und Burkina Faso zu destabilisieren und sich die Gewalt besonders um Zivilisten zentriert. (vgl. Mali: Konopka 2022) Im Zentrum dieses Kapitels soll die asymmetrische Kriegsführung, auch unter dem Aspekt der 'Neuen Kriege' bekannt, und somit die problematische Lage der Mission im Mittelpunkt stehen. Die Kernfrage ist bereits auf das weitere Engagement Deutschlands ausgeweitet worden und ist realitätsnah zu prüfen: In Afghanistan gelang keine Stabilisierung eines afghanischen Staates. Hier kam nach jahrzehntelangen erfolglosen Gefechten die Terrorgruppe Taliban 2021 an die Macht, als allen voran die USA den Rückzug aus der Krisenregion vollzogen (vgl. Nach 20 Jahren: bpb 2021). 4. Die deutsche Außenpolitik – Schwerpunktsetzung VN Die deutsche Sicherheits- und Außenpolitik ist sehr komplex und selbst ein kursorischer Überblick kann hier nicht geleistet werden. Durch die Darstellung diverser Aspekte ist jedoch eine Verortung möglich. 4.1 Historische Perspektive der deutschen Sicherheits- und Außenpolitik Deutschland blickt auf eine bewegte Geschichte zurück. Ab 1945 wurde die Bundesrepublik enormen Veränderungen durch die Besatzungsmächte unterworfen. Während die DDR unter der UdSSR keine wirklich eigene Außenpolitik entwickelte, gelang es Westdeutschland allmählich, politische Spielräume zurückzugewinnen und eigene Ziele zu vertreten (vgl. Gareis 2021, S. 57). In der Zeit vor der Wiedervereinigung sind einige "konstante Handlungsmuster" (ebd., S. 58) zu erkennen, die bis heute ihre Wichtigkeit beibehalten haben. Darunter sind besonders vier Punkte zu nennen:"die Westintegration, durch welche die Bundesrepublik ihren Platz in den europäischen und transatlantischen Strukturen fand und einnahm die Entspannungs- und Ostpolitik, durch die sie ihre friedens- und stabilitätspolitische Handlungsspielräume erweitern konnte die Offenheit für einen breit angelegten, globalen Multilateralismus mit dem Ziel einer verlässlichen rechtlichen Verregelung und Institutionalisierung des Internationalen Systems die selbstgewählte Kultur der Zurückhaltung in machtpolitischen, insbesondere militärischen Angelegenheiten" (ebd., S. 58) Hervorzuheben sind die anfänglichen Bemühungen der deutschen Außenpolitik, um Frankreich von ihrer skeptischen Sichtweise auf die Wiederbewaffnung und Wiederaufnahme der deutschen Souveränität nach dem Zweiten Weltkrieg abzubringen. Die Bemühungen mündeten bspw. 1963 im Élysée-Vertrag, der die enge Partnerschaft merklich vorantrieb und als "deutlicher […] Motor der europäischen Integration" (ebd., S. 65) zu sehen ist.Eine Verankerung in Internationale Beziehungen vollzog sich somit bereits früh mit den Bemühungen Deutschlands, sich in Europa und in die NATO zu integrieren. In den Zeiten vor der Wiedervereinigung konnte Deutschland dennoch nicht gänzlich zu seinem Selbstvertretungsanspruch finden. Die Integration in internationale Organisationen, die die Machtkonzentration des teilnehmenden Landes einschränken können, wurde zwar innenpolitisch heftig diskutiert, kollidierte jedoch mit realen Erweiterungen der Souveränitätsansprüche Deutschlands und formte somit die Erfahrung dieser Ordnungen.Der Multilateralismus ist eine logische Konstante, weil der Wunsch nach Regeln im Internationalen System die eigene Sicherheit erhöhen soll und im Falle Deutschlands auch politische Freiheiten bedeutete. Das Engagement kann als ernsthaft beschrieben werden, weil die Bemühungen auch mit der Erreichung der eigenen Staatssouveränität bspw. in den Vereinten Nationen und dem europäischen Einigungsprozess nicht nachließ – im Gegenteil intensiviert stattfindet. (vgl. ebd., S. 57f & 61-65 & 70f) 4.2 Deutschlands Außen- und Sicherheitspolitik im 21. Jahrhundert - Verortung Im 21. Jahrhundert sind eine neue Vielzahl an nicht-staatlichen Akteuren, weitere Unwägbarkeiten und multidimensionale Problemfelder mit einer höheren Unsicherheit im Internationalen System verbunden, die die Zuverlässigkeit von internationalen Partnern einschränkt. Diese Problematik wird bspw. u. a. durch das Erstarken des Rechtspopulismus, dem Rückgang liberal-demokratischer Regierungen seit 2005, der neuen Risikobewertung und Qualität des transnationalen Terrorismus begründet. (vgl. Gareis 2021, S. 89f) Als aktuelle Referenz kann das Weißbuch 2016 die Sicherheitsinteressen Deutschlands aufzeigen. Darin sind, bedingt bspw. durch die russische Aggression gegenüber der Ukraine, wieder vermehrt nationale Interessen vertreten, die den Schutz der Bürger*innen und die Integrität der Souveränität Deutschlands ins Blickfeld nehmen. Allerdings sind auch internationale Bestrebungen zur vertiefenden Weiterarbeit in der Entwicklungspolitik, dem Völkerrecht und der partnerschaftlichen Zusammenarbeit in allen wichtigen Internationalen Organisationen wie NATO, EU und VN zu nennen. (vgl. Gareis 2021, S. 105)4.2 Deutschland und die Vereinten Nationen Ein ernsthafter Beitrag zur strategischen (Neu-)Kalibrierung der Sicherheits- und Außenpolitik, die in ihren anfänglichen vier Konstanten (s.o.) auch Diskontinuitäten erfuhr, ist die Münchner Sicherheitskonferenz im Jahr 2014 hervorzuheben, in der das Engagement für internationale Organisationsformen, die einen supranationalen Ordnungsrahmen darstellen können - wie die EU, NATO und VN - verstärkt in den Mittelpunkt gestellt worden. Die Konstante der 'Zurückhaltung' bricht also weiter auf und zeigt das "Leitmotiv der aktiven Übernahme größerer Verantwortung für Frieden und Internationale Sicherheit in einem umfassenden Ansatz […]" (Gareis 2021, S. 92) auf. (vgl. ebd., S. 91f) Für Deutschland stellen die Vereinten Nationen das Höchstmaß für Multilateralismus und Institutionalismus dar. Bestrebungen in den VN waren von der Gründung an ein wichtiges Anliegen der Bundesrepublik, um auf die internationale Bühne zurückkehren zu können. Insgesamt kann das Engagement Deutschlands in den VN als hoch angesehen werden: Aktuell ist Deutschland der viertgrößte Beitragszahler, unterhält über 30 VN-Organe im Land und ist um einen ständigen Sitz im Sicherheitsrat bemüht und mindestens durch die häufige Wiederwahl (zuletzt 2019/20 – damit zum sechsten Mal) und eindeutigen Wahlergebnissen um einen nichtständigen Sitz als international anerkannt zu bezeichnen. Das Interesse beider Akteure ist als interdependent zu bezeichnen: Die VN brauchen in diesen schwierigen Zeiten einflussreiche Staaten und Deutschland hingegen internationale Kooperationsmöglichkeiten in vielfältigen Ressorts. (vgl. ebd., S. 193f) Deutschland beteiligte sich gleich nach der Wiedervereinigung an VN-Peacekeeping-Einsätzen – allerdings mit unbewaffneten Zivilkräften. Anfang des 21. Jahrhunderts stellte Deutschland nicht nur zivile sondern auch militärische Einheiten zur Verfügung. Das Engagement kann in ihren Anfängen als bescheiden beschrieben werden. Insgesamt bevorzugt Deutschland vom VN-mandatierte Einsätze, die anschließend von der EU oder NATO ausgeführt werden. Der MINUSMA-Einsatz ist somit eine Ausnahme und der zweitgrößte Auslandseinsatz der Bundeswehr. Der afrikanische Raum ist aufgrund seiner Fluchtbewegungen zu einem wichtigen sicherheitspolitischen Raum geworden. (vgl. ebd., S. 203f) Allerdings sind die Gründe für den Einsatz in Mali weiter auszuführen, da die Argumentation möglicher Fluchtbewegungen Lücken aufweist. (vgl. Mali: Konopka 2020) 5. Deutschland und der MINUSMA-Einsatz In den vorherigen Kapiteln sind die Bezüge der deutschen Sicherheits- und Außenpolitik zu den Vereinten Nationen bereits angeschnitten worden. Als Nächstes ist der MINUSMA-Einsatz aus einer politischen Perspektive unter Einbezug der Ziele Deutschlands zu charakterisieren und ein Ausblick auf das Ergebnis dieser Intervention zu geben. Die Bewertung des Einsatzes ist entscheidend, um den deutschen Einsatz nachzuvollziehen. 5.1 Motive für die Beteiligung am MINUSMA-Einsatz Die Intervention und Beteiligung Deutschlands am MINUSMA-Einsatz scheint sich nicht auf die Bekämpfung von Fluchtursachen zu beschränken (vgl. Mali: Konopka 2020 & Kaim 2021, S. 31). Weitere Motive sind aus Kapitel 4 abzuleiten und könnten, kombiniert aus dem Wunsch humanitäre Hilfe leisten zu wollen und die Position der Vereinten Nationen - und sich selbst im Internationalen System und den Multilateralismus - zu stärken, eine Begründungslage bieten. Sie wirkt jedoch unpräzise und bedarf genauerer Beschreibungen: Wie bereits beschrieben, ist Frankreich bereits 2013 dem Hilfegesuch der malischen Regierung gefolgt und musste anhand der realen Bedingungen ihre Ziele anpassen: Deutschland sollte dem engen Bündnis- und EU-Partner unter die Arme greifen. Die Bundesregierung gab zunächst lediglich unbewaffneten Kapazitäten Platz, ehe das Mandat langsam auf aktuell 1100 Soldat*innen aufgestockt wurde.Deutschland schien dabei die Vertiefung der Kooperation von EU-Staaten wie Frankreich und den Niederlanden als geeignete Gelegenheit. Ebenfalls ließ der Friedensvertrag auf weitere Stabilität im Land hoffen. Außerhalb der Bemühungen um die Partnerschaft ist für den Autor Konopka die Bewerbung Deutschlands für den nichtständigen Sitz im Sicherheitsrat (2019/20) ausschlaggebend gewesen.Die anfängliche Konzentration auf die europäische Mission EUTM Mali ging mit einer deutlichen Ausweitung auf die VN-Peacekeeping-Mission über. Außerdem, so der Autor, wäre Deutschland in der Bringschuld gegenüber den Teilnehmenden gewesen, da die Bundesrepublik in weiteren Missionen kaum bis gar keine Präsenz vorzuweisen hatte (bspw. EUMAM RCA oder EUTM RCA). (vgl. Mali: Konopka 2020) Kaim (2021) von der Stiftung Wissenschaft und Politik spricht von einem typischen Muster der deutschen Auslandseinsatzbereitschaft, erst durch Bündnisanfragen Einsatzkräfte zu mobilisieren. Aus dieser Sicht ist primär der Versuch, einen "europäischen Fußabdruck" (ebd., S. 12) im internationalen System zu hinterlassen, anzusehen. Allerdings wird auch hervorgehoben, wie die Bewerbung um den nichtständigen Sitz im Sicherheitsrat eine Intensivierung der deutschen Sicherheits- und Außenpolitik in den VN und besonders im afrikanischen Raum beinhaltete. (vgl. ebd., S. 12-20) Dadurch sind sechs Hauptmotive auszumachen, davon greifen manche weniger als andere: 1. Die Bündnistreue zu Frankreich 2. Die Ausgangslage durch die Münchner Sicherheitskonferenz (2014) 3. Das erweiterte Engagement Deutschlands in den VN 4. Der Versuch, eine europäische Handlungsfähigkeit zu demonstrieren. 5. Die regionale Sicherheit in Mali zu gewährleisten 6. Terrorismusbekämpfung und die Eindämmung von Fluchtbewegungen (vgl. ebd., S. 27-31) Die Punkte 4, 5 und 6 sind als Hauptmotivlage nachrangig einzusortieren; Punkt 5 wird anhand der deutlichen Zunahme an Instabilität den MINUSMA-Einsatz generell und die deutsche Beteiligung gezielt infrage stellen. 5.2 Bewertung des Einsatzes Die bisherige Bewertung des Einsatzes ist auf Grundlage der festgestellten Motive zu leisten, die eine detaillierte Rahmengebung vorgeben. In die Bewertung fließen themenbedingt erste wichtige Aspekte für das Abschlusskapitel ein. 5.2.1 Die Bündnistreue zu Frankreich Die Unterschiede in der strategischen Bewertung des Einsatzes der beiden Länder zeigt deutlich auf: Während Frankreich mehr militärisches Engagement erwartet und die Terrorbekämpfung in den Fokus stellt, steht die Bundesregierung der Friedenssicherung unter VN-Mandat näher, die die Terroristenbekämpfung explizit ausschließt. Festzuhalten wäre, dass die unterschiedlichen Herangehensweisen in Mali zwischen Frankreich und Deutschland differente Zielvorstellungen aufweisen und das gemeinsame Handeln konterkarieren. (vgl. Kaim 2021, S. 27f) Daraus ist ebenso die Frage zu stellen, ob die Bundesregierung das auslaufende Mandat (vgl. Mali: Konopka 2020) ausweiten, beibehalten oder beenden wird. 5.2.2 Die Ausgangslage durch die Münchner Sicherheitskonferenz Deutschland ist bis heute im MINUSMA-Einsatz tätig (2013-2022) und ist dem Bündnis- und langjährigen EU-Partner Frankreich nachgekommen (vgl. Mali: Konopka 2020). Das Engagement ist bis jetzt ausgeweitet worden und von einer anfänglichen Symboltruppe stehen im direkten Einsatzgebiet in Mali ca. 500 (vgl. MINUSMA Fact Sheet: United Nations 2022) und im erweiterten Einsatz ca. 1000 Soldat*innen (vgl. Personalzahlen der Bundeswehr: Bundeswehr 2022).Die Steigerung der Fachkräfte im MINUSMA-Einsatz ist als Intensivierung zu werten (vgl. Kaim 2021, S. 28). Dies kann als Beleg für die vertiefende Arbeit international angesehen werden, wie es zuvor auf der Münchner Sicherheitskonferenz 2014 skizziert wurde. Allerdings wären andere Erweiterungen der Tätigkeitsfelder im internationalen Raum und besonders in internationalen Organisationen denkbar und beinhalten nicht zwangsläufig die Intensivierung des MINUSMA-Einsatzes – gleichzeitig bietet das Einsatzgebiet ein robustes Mandat, also internationale Legitimierung, die für deutsche Auslandseinsätze mitentscheidend ist und einen multilateralen Raum, den die Sicherheits- und Außenpolitik favorisiert (vgl. ebd.).5.2.3 Das erweiterte Engagement Deutschlands in den VN Politisch und militärisch dürfte die Beteiligung Deutschlands am MINUSMA-Einsatz die Vereinten Nationen stärken (vgl. Kaim 2021, S. 28). Bei dieser Beteiligung ist mitunter auch deutlich, dass Deutschland nicht altruistisch, sondern auch im Sinne der im Kapitel 4.2 festgelegten Interdependenzen für den Erhalt der eigenen Sicherheit im Internationalen System handelt.Die Idee eines ständigen Sitzes im Sicherheitsrat gilt als unwahrscheinlich sowie der Reformvorschlag der 'Gruppe der Vier' (mit deutscher Beteiligung), der von den vielen Vorschlägen zur Veränderung des Sicherheitsrates zwar als angemessen erscheint, aber dennoch u. a. an den Veto-Mächten bisher scheiterte (vgl. Gareis & Varwick 2014, S. 308-311). Somit bleibt Deutschland lediglich die Kandidatur im SR als nichtständiges Mitglied, dem die Bundesregierung mit ähnlicher Argumentation und Engagement vermutlich in der nächstmöglichen Amtszeit nachkommen wird (vgl. Kaim 2021, S. 29). 5.2.4 Der Versuch, eine europäische Handlungsfähigkeit zu demonstrieren Die europäische Handlungsfähigkeit kann bereits unter Punkt 5.2.1 als inkonsequent bezeichnet werden. Außerdem sind europäische Kräfte an eigenen Missionen vor Ort gebunden und stellen im MINUSMA-Einsatz nicht die meisten Einsatzkräfte zur Verfügung (vgl. Kaim 2021, S. 29 & MINUSMA Fact Sheet: United Nations 2022). Von einer geschlossenen oder klaren europäischen Einheit kann nicht gesprochen werden, jedoch von einer klaren Beteiligung Deutschlands am Einsatz. 5.2.5 Die regionale Sicherheit in Mali zu gewährleisten Seit dem Friedensabkommen 2015 hat sich die Lage stetig verschlechtert und stellt die VN-Friedensmission insgesamt infrage. (vgl. Kaim 2021, S. 30) Weitere Problemfelder stellen gerade die Alleingänge der europäischen Länder an der MINUSMA-Mission dar, die bspw. auf die typischen Blauhelme und auf die VN-Farbgebung bei Fahrzeugen verzichten. Außerdem sind europäische Kräfte vornehmlich in als sicher geltende Einsätze gebunden und in anderen Stützpunkten als die restlichen Länder wie bspw. Ägypten untergebracht. (vgl. Mali: Konopka 2020) Das stellt die VN-geführte Friedensmission auch vor interne Probleme und kann die Handlungsfähigkeit sowie Moral der teilnehmenden Länder beeinträchtigen.5.2.6 Terrorismusbekämpfung und die Eindämmung von FluchtbewegungenDie Mission ist unter den Aspekten von Fluchtbewegungen bereits als vernachlässigbar (zumindest für Fluchtbewegungen nach Europa) klassifiziert worden (vgl. Kaim 2021, S. 30f). Außerdem wird wegen der Destabilisierung des Landes sogar mit weiteren Flüchtenden zu rechnen sein. Weiterhin ist die dynamische Situation in Mali undurchsichtig und schwer zu charakterisieren, inwiefern der Terrorismus Deutschland bedroht (vgl. ebd.) und inwiefern Dschihadisten mittlerweile als Hauptproblem angesehen werden können, wenn die malischen Sicherheitskräfte immer mehr in den Fokus von Korruption und Destabilisierung rücken (vgl. Mali: Konopka 2020). 5.3 Ausblick – Bleibt Deutschland im MINUSMA-Einsatz? Die Motive sowie deren Zielerreichung sind größtenteils als Fehlschlag zu werten und stellen als größten Erfolg die Arbeit in der internationalen Organisation, den Vereinten Nationen, heraus. (vgl. Kaim 2021, S. 31f) Dass nicht alle Ziele erreicht werden können, liegt mitunter an der multidimensionalen und dynamischen Situation vor Ort und an der Herausforderung, die den 'Neuen Kriegen' (vgl. Hippler 2009, S. 3-8) und das VN-Peacekeeping in der vierten Generation (vgl. Gareis & Varwick 2014, S. 119-127) kennzeichnen. Somit hängt das Engagement Deutschlands im MINUSMA-Einsatz von vielen Faktoren ab, die bspw. die öffentliche Meinung über Auslandseinsätze und die Beschaffenheit und Einsatzfähigkeit der Bundeswehr nach Etatkürzungen einschließen (vgl. Kaim 2021, S. 32). Wie die Einsatzkosten zeigen (s. Kapitel 3), sind das insgesamt beträchtliche Summen, die die Staatengemeinschaft – und anteilig Deutschland – aufbringen müssen.Während die Stiftung Wissenschaft und Politik noch von größeren Hürden diesbezüglich ausgeht (vgl. ebd.), ist durch den Einmarsch Russlands in die Ukraine ein Paradigmenwechsel mit ungeahnter Tragweite in der deutschen Sicherheits- und Außenpolitik möglich (vgl. Mehrheit unterstützt deutschen Ukraine-Kurs: Tagesschau 2022), der die Fortführung des VN-Peacekeepings neu bewerten wird. 6. Zusammenführung und Interpretation Unter dem Aspekt des VN-Peacekeeping wurden zuerst allgemeine Aspekte umrissen und die Forschungsfrage weiter ausgeweitet. Im Kern geht es um die Frage, wie Deutschland sich im 21. Jahrhundert mit seiner Sicherheits- und Außenpolitik im Internationalen System verortet und inwiefern dies als Erfolg angesehen werden kann. Letzteres ist nur unter bestimmten, einschränkenden Aspekten zu beantworten und ist mithilfe des MINUSMA-Einsatzes zu verorten. Deutschland positioniert sich offen und ernst zu den Vereinten Nationen und folgt dabei historisch gewachsenen Paradigmen und Erfahrungswerten (s. Unterkapitel 4.1): Daraus lassen sich die Bemühungen um einen ständigen oder nichtständigen Sitz im Sicherheitsrat und weiteres internationales Engagement wie im VN-Peacekeeping und somit die Beteiligung in Mali (MINUSMA-Mission) folgerichtig begründen.Deutschland hat ein nationales sicherheitspolitisches Interesse an einer Verregelung des anarchischen Grundzustandes, um die eigene Position darin zu stärken – Unsicherheiten also abzubauen (vgl. Gareis 2021, S. 58). Damit folgt die Politik nicht einer uneingeschränkten Idealismus-Denkschule und zeigt auch zweckrationale Positionen auf. Dennoch ist der MINUSMA-Einsatz in diesem Sinne als Misserfolg zu werten und zeigt besonders in den Bemühungen um Multilateralismus und einer Institutionalisierung des Internationalen Systems, hier in Form der Vereinten Nationen zu interpretieren, erwähnenswerte Erfolge auf (s. Kapitel 5).Die deutsch-französischen Beziehungen hingegen könnten insgesamt unter dem Konstruktivismus Betrachtung finden: Obwohl die strategische Ausrichtung beider Länder nicht immer im selben Verständnis verläuft (s. Kapitel 5), ist sehr wohl ein ernstzunehmender Konflikt zwischen den beiden großen europäischen Staaten nicht anzunehmen und die außerordentliche internationale Kooperation als erwähnenswert anzusehen. Aus der Ausarbeitung tritt ein Dilemma zutage, das wie folgt zu charakterisieren ist: Deutschland als Nationalstaat hat nur begrenzt Ressourcen und Möglichkeiten, die auch interessengeleitet begründet werden müssen. Deswegen ist ein Problem für Deutschland darin zu skizzieren und zu fragen, in welche internationale Organisation sie ihren weiteren Fokus legen wird. VN-mandatierte aber von NATO und EU ausgeführte Friedensmissionen werden bspw. bevorzugt, gleichzeitig wird eine Stärkung der Vereinten Nationen als Ziel formuliert (s. Kapitel 4).Investitionen in allen internationalen Organisationen bringen Deutschland in eine prekäre Situation, wie die Motivlage und die Ausgestaltung des MINUSMA-Einsatzes aufzeigt (s. Unterkapitel 5.2.5). Als Fazit ist festzuhalten, dass der MINUSMA-Einsatz einer oftmals bloßen Rhetorik zur Stärkung multilateraler Beteiligung grundsätzlich entgegenläuft und Deutschland zukünftig als ernstzunehmenden internationalen Akteur kennzeichnen könnte (vgl. Gareis 2021, S. 216). Prinzipiell kann zudem bestätigt werden, dass Deutschland am ehesten seine Fähigkeiten einbringen kann, wenn internationale Legitimation besteht (mit Blick auf das Grundgesetz und der eigenen 'Zurückhaltungs-Konstante'), Bündnis- und beteiligte Partner mit ihren Interessen zumindest kollidieren (vgl. ebd., S. 112) und Multilateralismus als Merkmal auftritt. Daraus lässt sich die Intensivierung in internationale Organisationen ableiten, weil es nachhaltig die Souveränität Deutschlands positiv beeinflussen kann (vgl. ebd.). So kann Gareis (2021, S. 93) zugestimmt werden, wenn er schreibt: "Sicherlich kann auch im Jahr 2020 festgestellt werden, dass Deutschland an seinen Bemühungen um eine Zivilisierung der internationalen Politik durch Regime und Institutionen festhält. Auch ist es seiner Bevorzugung von friedlicher Konfliktbeilegung und Kooperation vor der Machtpolitik sowie schließlich auch seiner grundsätzlichen Bereitschaft zur Übertragung von Souveränitätsrechten weitestgehend treu geblieben – wenngleich die mit dem Zivilmachtkonzept gern verbundene 'Kultur der Zurückhaltung' Ergänzungen durch die Verfolgung stärker nationaler Interessen erfahren hat." Der Ausblick ist jedoch unter der aktuellen Prämisse (s. Unterkapitel 5.3) unter Vorbehalt zu stellen und zeigt deutlich die Unsicherheiten auf, die der Grundzustand der Anarchie treffend formuliert und exemplarisch die angerissene Reformbedürftigkeit der Vereinten Nationen sowie die Handlungsunfähigkeit des Sicherheitsrats hervorhebt. Deutschland wird in jeglichem denkbaren Szenario eine größere Rolle in den Internationalen Beziehungen spielen: "Die Anforderungen an die multilaterale deutsche Außen- und Sicherheitspolitik werden also steigen, und neben dem vielbeschworenen Willen zur Übernahme von 'Verantwortung' wird auch die Bereitschaft zum personellen und finanziellen Engagement wie auch zur Übernahme ungewohnter politischer Risiken wachsen müssen" (Gareis 2021, S. 216) 7. Literatur Beckmann, H. (26.02.2022): Russlands Angriff auf die Ukraine. Europa hat einen neuen Feind. Online: https://www.tagesschau.de/ausland/europa/russland-krieg-europa-101.html [09.03.2022]. Bundesministerium der Verteidigung (2016): Weissbuch 2016. Zur Sicherheitspolitik und zur Zukunft der Bundeswehr. Online: https://www.bmvg.de/resource/blob/13708/015be272f8c0098f1537a491676bfc31/weissbuch2016-barrierefrei-data.pdf [09.03.2022].Bundeswehr (21.02.2022): Personalzahlen der Bundeswehr. Wie lauten die Einsatzzahlen. Online: https://www.bundeswehr.de/de/ueber-die-bundeswehr/zahlen-daten-fakten/personalzahlen-bundeswehr [09.03.2022].Bundeswehr (0. J.): Mali – MINUSMA. Online: https://www.bundeswehr.de/de/einsaetze-bundeswehr/mali-einsaetze/minusma-bundeswehr-un-einsatz-mali [09.03.2022]. Bundeszentrale für politische Bildung (07.06.2021): Nach 20 Jahren: NATO-Truppenabzug aus Afghanistan. Online: https://www.bpb.de/kurz-knapp/hintergrund-aktuell/334345/nach-20-jahren-nato-truppenabzug-aus-afghanistan/ [09.03.2022]. Deutsche Gesellschaft für die Vereinten Nationen e. V. (o. J.): Die Vereinten Nationen im Überblick. Online: https://dgvn.de/un-im-ueberblick [09.03.22].Deutsche Gesellschaft für die Vereinten Nationen e. V. (22.02.2022): Wie geht es weiter mit dem deutschen Engagement in Mali? Online: https://dgvn.de/meldung/wie-geht-es-weiter-mit-dem-deutschen-engagement-in-mali [09.03.22].Deutsche Gesellschaft für die Vereinten Nationen e. V. (o. J.): Hauptabteilung Friedenssicherungseinsätze (DPKO). Online: https://frieden-sichern.dgvn.de/friedenssicherung/organe/un-sekretariat-dpko/ [09.03.22].Gareis, S. B. (2021): Deutschlands Außen- und Sicherheitspolitik: eine Einführung. Stuttgart: UTB. Gareis, S. B. & Varwick, J. (2014): Die Vereinten Nationen. Aufgaben, Instrumente und Reformen. 5. Auflage. Bonn: Barbara Budrich, Opladen & Toronto.Hippler, J. (2009): Wie "Neue Kriege" beenden? Aus: APuZ (46/2009): Neue Kriege. Bpb, S. 3-8. Kaim, M. (2021): Die deutsche Politik im VN-Peacekeeping: eine Dienerin vieler Herren. Berlin: SWP. Konopka, T. (22.02.2022): Mali: Rückzug oder mehr Risiko? Online: https://zeitschrift-vereinte-nationen.de/suche/zvn/artikel/mali-rueckzug-oder-mehr-risiko [09.03.22]. Schimmelfennig, F. (2017): Internationale Politik. 5. Auflage. Stuttgart und Paderborn: UTB.Tagesschau (03.03.2022): Mehrheit unterstützt deutschen Ukraine-Kurs. Online: https://www.tagesschau.de/inland/deutschlandtrend/deutschlandtrend-2925.html [09.03.2022].United Nations (2013): Security Council Establishes Peacekeeping Force for Mali Effective 1 July. Unanimously Adopting Resolution 2100 (2013). Online: https://www.un.org/press/en/2013/sc10987.doc.htm [09.03.2022]. United Nations (2014): Security Council. Resolution 2164 (2014). Adopted by the Security Council at its 7210th meeting, on 25 June 2014. Online: https://www.un.org/en/ga/search/view_doc.asp?symbol=S/RES/2164(2014) [09.03.2022]. United Nations (01.03.2022): MINUSMA Fact Sheet. United Nations Multidimensional Integrated Stabilization Mission in Mali. Online: https://peacekeeping.un.org/en/mission/minusma [09.03.2022].
Wäre die Gegenwart eine andere, hätte im Mai 2020 die achte Ausgabe der Konferenz "Theater und Netz", einer Initiative von nachtkritik.de und der Heinrich-Böll-Stiftung, stattgefunden. Stattdessen ergab sich für Theaterschaffende, Kritiker*innen und Publikum reichlich Gelegenheit, das Verhältnis von Theater und Netz in actu auszuloten: Durch die Ausgangsbeschränkungen befeuert, verlagerte sich das Theatergeschehen in die digitale Experimentierstube. Im Oktober erschien nun der Band Netztheater, der in 21 Beiträgen die Erfahrungen der vergangenen sechs Monate reflektiert –fundiert durch die Expertise der im Format "Theater und Netz" seit 2013 geleisteten Pionierarbeit. Die Kürze der zwei- bis siebenseitigen Beiträge, gepaart mit der Erfahrungsdiversität aus Herstellung, Rezeption und wissenschaftlicher Auseinandersetzung, hat entscheidende Vorteile: Hier wird nicht lange umständlich unter Ausrufung irgendeines "Post-" herumgeredet oder die beliebte Formel strapaziert, Theater müsse "neu gedacht" werden. Die Beitragenden verbindet die gemeinsame Sache und so kommen sie rasch zum Punkt. Als Hybrid aus theoretischen Positionen und reflektierender Praxis bündelt die Publikation praktisch verwertbares und weiterentwickelbares Wissen kompakt und beinahe in Echtzeit. Daher verhandelt diese Rezension die Beiträge nicht chronologisch, sondern führt einander ergänzende Perspektiven zu zentralen Aspekten wie Dramaturgie, Community, Interaktion etc. kommentierend zusammen: Der Band eröffnet mit einem Praxisbericht des geglückten Burgtheater-on-Twitter-Experiments #vorstellungsänderung, das tausende Mittweeter*innen auch abseits des Abopublikums rekrutierte. Projekte wie dieses geben Hoffnung, dass die Theater, die sich im Netz oft als singuläre kulturelle Leuchttürme gebärden, durchaus von den Praktiken der Sozialen Medien profitieren können: Like, share, comment, retweet sind schließlich nichts anderes als digitale Kürzel für gemeinschaftsstiftende Interaktionen, basierend auf Emotion, Zuspruch, Diskussion und Multiplikation. Vielleicht sind in Zukunft ja auch vermehrt offen und öffentlich geführte Dialoge zwischen Theaterhäusern zu erwarten? Netztheater geht davon aus, dass die Suche nach digitalen künstlerischen Ausdrucksformen sich nicht erst daraus ergibt, dass Hygieneregeln und Distanzierungsvorgaben die Modi des Zuschauens kurzfristig verändert haben. Auch tradierte Annahmen über das Publikum sind zu überprüfen. In ihrem kollaborativen Text "Das Theater der Digital Natives" beobachten Irina-Simona Barca, Katja Grawinkel-Claassen und Kathrin Tiedemann, dass die Digitalisierung längst "in Form von Alltagstätigkeiten und Wahrnehmungsweisen" (S.16) im Theater angekommen sei. Das Theater ist kein geschützter Ort, an dem die Zeit stehen geblieben ist. Vielmehr tragen die Zuschauer*innen die Welt, in der sie leben, unweigerlich in ihn hinein. Das betrifft auch Praktiken des Multitaskings bzw. des 'Second Screen', also die Gleichzeitigkeit mehrerer Interfaces und Informationsquellen. Jahrhundertelang war der zentralperspektivische Blick der Barockbühne prägend für die Organisation einer exklusiven Aufmerksamkeit im Theater. Wiewohl es also eine neue Erfahrung für die Theaterhäuser ist, "Nebenbeimedium zu sein" (S. 20), wie Judith Ackermann betont, ist es höchste Zeit, diese 'verstreute' Aufmerksamkeit im Inszenierungsprozess aktiv mitzudenken und gezielt einzusetzen. Dabei ist die Diversität des Publikums inklusive der unterschiedlich ausgeprägten Media Literacy zu beachten, denn nicht alle Zuschauer*innen werden sich augenblicklich z. B. in einer gamifizierten virtuellen Umgebung zurechtfinden: "Indem ich im digitalen Raum Zusatzinformationen – Hintergrundinfos zum Stück, zur Produktion – zu meinen Inszenierungen streue, kann ich zum Beispiel auch dem 'analogen Publikum' einen Mehrwert bieten, der es aber nicht verschreckt." (S. 22) Für eine Dramaturgie des Digitalen ist Aristoteles allenfalls partiell ein guter Ratgeber. Zu viele Komponenten sind neben 'der Story an sich' an der Architektur der Erzählung beteiligt. Einige Elemente des 'klassischen' Storytellings lassen sich psychologisch für den digitalen Raum begründen: Das Überschreiten der 'Schwelle' etwa wird als zentraler Moment markiert, zumal die Spielregeln für das Dahinterliegende noch nicht festgelegt sind – die Verständigung auf "Floskeln, Rollen und Situationen" (S. 71) hat erst zu erfolgen. Friedrich Kirschner, Professor für digitale Medien an der Ernst Busch Berlin, schlägt vor, die zur Vermittlung von "Rollen- und Erlebnissicherheit" (ebd.) dringend nötigen Ausverhandlungsprozesse im Rahmen der jeweiligen Inszenierung ästhetisch zu gestalten. Dabei setzt er auf ein Miteinander, "das im Gegensatz zu den treibenden Kräften der Plattformhalter auf Erkenntnis gerichtet ist; das Handlungsfähigkeit vermittelt anstelle von Determinismus" (S. 73). In diesem Sinne schlägt Ackermann überdies vor, "modular" zu denken, also "leichte Ein- und Ausstiegsmöglichkeiten" zu schaffen, "indem man immer wieder die Möglichkeit gibt dazuzustoßen" (S. 21). Wiederholt wird das Serielle als Chance für neue Theaterformen ausgewiesen, beispielsweise um "durch gemeinsames, geteiltes Wissen über einen langen Zeitraum […] eine Beziehung zu Figuren auf[zu]bauen, sie mit der eigenen Lebensrealität ab[zu]gleichen und mit Freund/innen [zu] diskutieren" (S. 72), wie Kirschner in "Teilhabe als Notwendigkeit: Theater als Raum pluraler Gemeinschaften" schreibt. Um diese Gemeinschaftsbildung ist es auch Christiane Hütter zu tun: Die Community ist das Herzstück des Theaters, weshalb die künstlerische Energie aktuell vor allem darauf zu verwenden sei, "dass Leute wiederkommen, dass sich Routinen und Rituale entwickeln, dass serielle Formate entstehen" (S. 45). Diese Community aufzubauen, "das ist ein Handwerk, das eine Strategie, Zeit und Inhalte benötigt" (S. 30), weiß auch Christian Römer, Referent für Kulturpolitik und Neue Medien der Heinrich-Böll-Stiftung, in seinem Plädoyer "Für ein Theater @home!". Essentieller Bestandteil dieser Strategie, die vorerst noch strategisch auf eine Gemeinschaft "vor der Bezahlschranke" setzen müsse, sei die "Arbeit an der eigenen Identität als Theater im Netz" (ebd.). "Ein Schaufenster in die eigene Vergangenheit stärkt die Bindung des Publikums an 'sein' Theater." (S. 29) Man möchte hinzufügen, dass die "Verbindung zur [eigenen] Geschichte" (ebd.) auch nach Innen identitäts- und strukturbildend wirken und so womöglich die ein oder andere Erschütterung abfangen kann, die die Theaterschaffenden gegenwärtig persönlich und als Gemeinschaft erleben. Wie zugkräftig Selbstmarketing bzw. 'Branding' in Sachen Follower*innenschaft ist, lässt sich beispielsweise bei erfolgreichen Influencer*innen beobachten. Der Dramatiker und Dramaturg Konstantin Küspert zeigt in "Sozialmediale Theaterräume: Die performative Parallelwelt von TikTok" überaus schlüssig auf, welche "Grundelemente theatraler Praxis" in Social-Media-Formaten zu finden sind: "TikToks müssen, um erfolgreich zu sein, praktisch immer eine Pointe haben, meistens überraschend und lustig, und damit grundsätzliche Elemente einer Narration – teilweise regelrechte Fünf-Akt-Strukturen oder Rekontextualisierungen im Miniformat – nachbauen." (S. 26) Auffällig sind auch Praktiken des Samplings, wie sie schon in Hans-Thies Lehmanns Postdramatische[m] Theater, das jüngst seinen zwanzigsten Geburtstag feierte, zu finden sind: Denn auch bei TikToks wird "reinszeniert, kontextualisiert und koproduziert" (ebd.). Aber manchmal ist es gerade das Ähnliche, das trennt. Man stelle sich etwa einen Burgschauspieler auf der Bühne eines Kölner Karnevalsvereines vor. So verlockend wasserdicht die von Küspert angestrengte Gleichung auch anmutet, lässt sich eigentlich nur in der konkreten Anwendung überprüfen, "was vom eigenen Formenrepertoire übersetzbar ist" (S. 84). Der schmerzliche Verlust öffentlicher Orte, zu denen auch das Theater als Raum der gesellschaftlichen Verständigung gehört, zieht sich leitmotivisch durch die Texte des Sammelbandes. "Die Corona-Krise ist eine Krise der Versammlung" (S. 35), bringt Dramaturg Cornelius Puschke diesen Umstand zu Beginn seines "Plädoyer[s] für 1000 neue Theater" auf den Punkt. Dass es sehr wohl auch im Internet Formen von Gemeinschaftsbildung gibt, die sich auf dezentrale Weise organisieren, beobachtet Christiane Hütter mit kritischem Interesse: "QAnon und Konsorten glänzen mit orchestriertem Storytelling, outgesourced an viele, mit einem übergeordneten World-building-Framework, das Inkonsistenzen erlaubt" (S. 41). Eine Aufgabe des Theaters könnte es sein, positive Gegenangebote zu entwerfen, die dieser Sehnsucht nach Gemeinschaft, Austausch und gemeinsamer Erzählung entsprechen. Wie aber können solche Dialog und Austausch befördernden Formate aussehen? Die interdisziplinäre Künstlerin und Game Designerin Christiane Hütter, aus deren Feder insgesamt drei Texte des Bandes und zwei Interviews stammen, entwirft zu diesem Zweck eine "Typologie von Interaktion, Kollaboration und Partizipation" in übersichtlich tabellarischer Form, denn häufig enttäuschten 'interaktive Stücke' durch "Pseudo-Interaktions-Möglichkeiten" oder "asymmetrische Interaktion" (S. 44). Angesichts der pandemiebedingten Einschnitte in die Möglichkeit, durch Handlungen 'stattzufinden', ist es eine der wichtigsten Herausforderungen an Inszenierungsprozesse, die Agency der Zuschauer*innen sinnvoll zu integrieren. Die Nachtkritikerin Esther Slevogt plädiert explizit dafür, die Webseiten der Theater als "Portale in den digitalen Raum" und "Interfaces" (S. 109) zu behandeln. Diese verstehen sich gegenwärtig eher als Sende- denn als Empfangskanäle; die einstigen Gästebücher sind längst in selbstverwaltete Facebook-Gruppen migriert und bilden hier den kulturkritischen Versammlungsort einer recht spezifischen Theaterklientel. Eine Brücke zwischen analog und virtuell, Inszenierungs- und Alltagsgeschehen könnten hybride Formate herstellen. Der Theaterregisseur Christopher Rüping beschreibt Hybridität durchaus als Challenge, weil "sich die kulturellen Praktiken des einen und des anderen so beißen". Eine Inszenierung, die so divergente Rezeptionsbedingungen berücksichtigt, sei entsprechend komplex im Herstellungsprozess und müsste "auf achtzehn Ebenen gleichzeitig" funktionieren: "Interaktivität, die nur im digitalen Raum stattfindet, während ich analog zuschaue und davon ausgeschlossen bin, ist merkwürdig." (S. 94) Zudem ist es auch für Darsteller*innen eine neue Erfahrung, auf die weder Ausbildung noch bisherige Praxis sie angemessen vorbereitet haben. So stellt Ackermann die berechtigte Frage: "Wie kann den Schauspieler/innen das Gefühl vermittelt werden, dass sie keinen Film machen, sondern dass sie mit Personen interagieren, die nicht Teil der performenden Gruppe sind – auch wenn diese Personen nicht physisch kopräsent sind?" (S. 21) 'Gemeinsames Erzählen' prägt die Entstehungsgeschichte unserer Kultur, Gesellschaft und Sozialisation. Keine Entwicklung ohne Kooperation, keine Innovation ohne Vorstellungsvermögen. Netztheater könnte ein System der jahrhundertelangen Professionalisierung von Theater neu in Bewegung bringen, weil es Expertisen unterschiedlicher Provenienz bedarf und den Grundgedanken von Crowdsourcing in Schaffensprozesse integriert. Aber sind wir wirklich bereit für künstlerische Formate mit offenem Ausgang? Widerspricht das nicht dem Prinzip von Inszenierung? Müsste man das Profil der Regie – der ja gerade im deutschen Sprachraum besondere Deutungshoheit zukommt – womöglich neu definieren? Aktionen von Zuschauer*innen, die aktiv am Handlungsverlauf mitschreiben, sind schwer zu antizipieren; die Interventionen von Trollen und Bots brechen unerwartet in den Handlungsverlauf ein. Aber vielleicht ist es angesichts der Erschütterungen von 2020 gar keine dumme Idee, statt vorgefertigter Handlungsbögen flexibel adaptierbare Aktionsmodelle zu entwerfen, mit denen auf den Einbruch des Unvorhergesehen reagiert werden kann. Frank Rieger vom Chaos Computer Club beforscht Mixed-Reality-Projekte bereits seit den 1990er-Jahren. "Hybride Räume, digitale und interaktive Formate" hätten bereits eine lange Geschichte, allerdings gäbe es immer wieder "unrealistische Annahmen über das, was die Technik am Ende leisten können wird" (S. 61). Mitunter behindere aber gerade die entgegengesetzte Annahme die Umsetzung: "Man kriegt ein staatliches Theater für eine große Produktion nur dazu, das auch im digitalen Raum zu machen, wenn die das gleiche Gefühl von ernsthafter Technik haben" (S. 94), weiß Regisseur Christopher Rüping aus eigener Erfahrung. Andere Internetformate bewiesen, dass es nicht immer schweres Gerät erfordert, denn "im digitalen Raum dieses Erlebnis [von Gemeinschaft] zu stiften" sei etwas, das "jedem mittelmäßigen Streamer gelingt" (ebd.). Die Ursache für solche Trugschlüsse sieht Rieger in der Inselexistenz, die viele Theater fristen. Der Branche fehle noch immer eine "breite Kultur des ehrlichen Erfahrungsaustausches, der Diskussion von technischen, inhaltlichen und Projektmanagement-Fehlern" (S. 62), sodass das Rad immer wieder neu erfunden werden müsse. Dem entgegenzuarbeiten beabsichtigt die im vergangenen Jahr gegründete Dortmunder Akademie für Digitalität und Theater. Gemäß ihrer Open-Source-Strategie will sie "Nerdkultur […] ins Theater reinbekommen" (S. 67) und die Erkenntnisse ihrer prototypischen Arbeit in Tutorials, Talks und Wikis zugänglich dokumentieren. In ihrer Auswertung der Netztheaterexperimente des ersten Pandemie-Halbjahres bemerken die Bandredakteur*innen Sophie Diesselhorst und Christian Rakow, dass "das Gros […] piratischen Charakter" hatte. "Es entstammte der Freien Szene oder ging auf Initiativen von Einzel-Künstler/innen zurück, die sich ihre eigene Infrastruktur bauten und einfache technische Lösungen jenseits des Stadttheater-Apparats fanden." (S. 89) Man kann annehmen, dass dieser Innovationsgeist zumindest teilweise der Not geschuldet war. Denn selbst Projekte an etablierten Häusern sind häufig von externen Zusatzförderungen abhängig. Um über den eigenen Guckkasten hinauszudenken, haben einige Theater bereits Kontakt zu freien Künstler*innen und Kollektiven aufgenommen. "Es gibt viele kleine Aufträge von Theatern, die sagen: 'Wir wissen nicht, wie es weitergeht. Wollen Sie etwas ausprobieren?'" (S. 97), schreibt die britische Kritikerin Alice Saville. Diese vorsichtige Kontaktaufnahme birgt die Chance, das Gespräch darüber zu beginnen, wie sich festgefahrene Strukturen künstlerisch und wirtschaftlich öffnen lassen. Eine Möglichkeit wäre, Theater künftig als "Agenturen für das Dramatische" zu denken, wie am 13.11.2020 bei der Onlinetagung "Postpandemisches Theater" vorgeschlagen wurde, die ebenfalls auf die Initiator*innen des Sammelbandes zurückgeht. Für die Pluralität und Interdisziplinarität der Branche steht übrigens auch, dass keine der Autor*innenbiographien einen linearen Verlauf aufweist, geschweige denn sich auf eine einzige Berufsbezeichnung zurückführen ließe. Eine der aktuellen Herausforderungen besteht darin, Jobprofile zu überdenken. In Christiane Hütters Entwurf für ein "Theater der Gegenwart" ändert sich die Organisationsstruktur auch auf der Leitungsebene: "Es geht in Zukunft vor allem auch darum, die Gesamtprozesse zu koordinieren, Projektmanagement zu machen, Herstellungsleitung für Situationen, Care-Arbeit fürs Team." (S.45) Ein Kernanliegen der Publikation ist das Plädoyer für eine 'vierte', digitale Sparte – wobei zu bemerken ist, dass das digitale Theater sich diesen vierten Platz vielerorts mit dem Theater für junges Publikum teilt. Dieser Befund ist symptomatisch, werden doch Digitalität und Jugend oft zusammengedacht. Berücksichtigt man die zeitliche Dimension –"in naher Zukunft wird es nur noch Digital Natives geben" (S. 16) – wird rasch klar, dass es sich um eine voreilige Schlussfolgerung handelt. Die sich andeutende Marginalisierung verheißt wenig Gutes für die so dringend nötigen Finanzierungsstrukturen und Fördermodelle, zumal auch die Verantwortung, diese 'vierte Sparte' zu gestalten, damit demselben Personenkreis zugesprochen wird. Folgerichtig wird immer wieder sachlich bemerkt, dass zum Aufbau einer künstlerischen Infrastruktur tatsächliche Ressourcen in Form von Zeit, Geld und neuen Stellenprofilen am Theater benötigt werden. Einige Häuser haben bereits erste Schritte gesetzt und beschäftigen neben Positionen wie Social Media oder – neudeutsch – Community Management nun auch Programmierer*innen. Das Staatstheater Augsburg, das sich bereits im Frühjahr "einen Namen als VR-Hochburg mit einem umfangreichen Spielplan an Virtual-Reality-Produktionen" (S. 99) machte, hat mit Beginn der Spielzeit 2020/21 Tina Lorenz als "Projektleitung für Digitale Entwicklung" eingestellt; das Schauspielhaus Zürich holte für seine Webserie Dekalog den Designer für Virtuelle Interaktion, Timo Raddatz, ins Boot. Für eine "Digitale Sparte" argumentiert auch Elena Philipp, die die Münchner Kammerspiele, das Staatstheater Augsburg und das Hebbel am Ufer als Case Studies ins Feld führt. Die Nutzung digitaler Technologien beschränkt sich aber naturgemäß nicht nur auf die künstlerische Außenwirkung, sondern bietet auch ganz praktische Lösungen: Produktionsvorgänge –und sogar der ökologische Fußabdruck –können beispielsweise durch 'virtuelle Bauproben', 3D-Modelle und die Nutzung von Extended Reality (XR) wesentlich erleichtert werden. Mit der routinemäßigen Nutzung digitaler Technologien stehen auch neue Inhalte in Aussicht. Derzeit erfahre die Form zu große Aufmerksamkeit, zitiert Philipp Tina Lorenz, die konkrete Vorschläge für inhaltliche Schwerpunkte abseits der tausendsten Neuauflage von Goethe und Schiller macht: "Noch ist das Medium die Message, aber wir müssen Geschichten für das digitale Zeitalter entwickeln, über die Gig Economy, Smart Cities oder darüber, wie Kommunikation, Aktivismus und soziale Bewegungen im 21. Jahrhundert funktionieren." (S. 102) Der Blick der Herausgeber*innen inkludiert auch Länder, deren staatliche Subventionsstrukturen weit weniger privilegiert beschaffen sind als im deutschsprachigen Raum. Alice Saville stellt in ihrem Beitrag "Keine Show ohne Publikum" einige Beispiele aus "Großbritanniens immersive[r] Theaterszene im Lockdown" vor, die ja aufgrund ihrer Organisationsform –weit mehr Touring Companies als feste Ensembletheater –ein gewisses Training in innovativer Raumgestaltung besitzt. Der Stadtplaner und Theaterleiter Trevor Davies berichtet von seinen Erfahrungen mit der hybriden Performancereihe "Wa(l)king Copenhagen", für die 100 Künstler*innen eingeladen wurden "ab dem 1. Mai 2020 über 100 Tage lang 100 kuratierte zwölfstündige Walks […] über stündliche Livestreams digital [zu] übertragen" (S. 54). Und die Kuratorin und Kritikerin Madly Pesti erzählt am Beispiel Estlands, bei dem sich die Einwohnerzahl und die Summe der jährlichen Theaterbesuche entsprechen, von der gelungenen Kooperation von Theaterhäusern und Rundfunk, die auf ein über Jahrzehnte gepflegtes Verhältnis zurückgeht: Da die Rechte der beteiligten Künstler*innen vom Estnischen Schauspielerverband vertreten wurden, konnte eine Sonderregelung für die Dauer des Ausnahmezustands verhandelt werden, um die künstlerischen Arbeiten im kulturellen Webportal des Nationalrundfunks kostenlos zugänglich zu machen. Angesichts des vergleichsweise neuen Terrains muss das Theater sich fragen, was es aus den Erfahrungen anderer Branchen lernen kann. Denkt man beispielsweise an die wirtschaftlichen Nöte des Onlinejournalismus und die mühsame Etablierung von Paywalls, ist es sinnvoll, frühzeitig über Verwertungsmodelle bzw. den Preis von 'gratis' nachzudenken. Es gilt zu prüfen, inwiefern Limitation (zeitlich, kapazitär, Ticketing), Exklusivität (Sonderformate, Blicke hinter die Kulissen, Stichwort Onlyfans) oder Partizipations- und Mitgestaltungsoptionen als wertsteigernde Maßnahmen praktikabel und tragfähig sind. Im Kontext von Big Data ist zudem branchenweit zu diskutieren, wie sich Theaterhäuser zu privatisierten Plattformen, die ja den digitalen Raum dominieren, verhalten sollen. Erschwerend kommt hinzu, dass die ungeklärte Rechtesituation im deutschsprachigen Raum auf Netztheaterexperimente nachgerade innovationsfeindlich wirkt. "Man kann nicht Theater im Internet machen und dann aber straight die Copyright-Gepflogenheiten des Analogen anwenden wollen" (S. 93), spricht die Dramaturgin Katinka Deecke im Interview ein Feld mit raschem Klärungsbedarf an. Wiewohl alle Texte von den Lehren aus spezifischen Best Practices leben – schließlich werden die neuen Ausdrucksformate von Pionieren "des Ausprobierens, Aneignens und Entdeckens" (S. 76) entwickelt – versammelt die Publikation in einem eigenen "Produktionen"-Kapitel gezielt Besprechungen einzelner Projekte. Sinnigerweise stammen diese Texte mehrheitlich von Menschen, die berufsbedingt einen größeren Überblick über die Rezeption der Szene besitzen: Kritiker*innen und Redakteur*innen. So kommt Elena Philipps Untersuchung des "Aufbau[s] von Online-Programmen an Theatern" beispielsweise zu dem Schluss, dass "begleitend zu einer Theaterästhetik" – beispielsweise "für Virtual-Reality-Umgebungen" – auch "das Publikum dafür entwickelt" (S. 101) werden müsse. Der Umgang mit neuer Technologie ist schließlich für alle Beteiligten zunächst eine Terra incognita. Sophie Diesselhorst berichtet vom Online-Zusammenspiel der "Netztheater-Experimente aus Schauspielschulen", etwa der vielbeachteten Produktion Wir sind noch einmal davongekommen der Münchner Theaterakademie August Everding, die sich das Artifizielle des Mediums spielerisch überhöht zunutze machte und vermittels kluger Discord-Regie die Videokästchen in Bewegung setzte. Schade, dass die zitierten Experimente nicht zur Nachschau verlinkt bzw. verfügbar sind. Ein Grund hierfür könnte neben der prinzipiellen Unverfügbarkeit einmalig ausgestrahlter Livestreams sein, dass auch andere Quellen knapp einen Monat nach Erscheinen der Publikation bereits der 'Transitorik' des Internets zum Opfer gefallen sind. "Virtuelle[n] Festivalauftritte[n]" widmet sich Esther Slevogt, allen voran dem Berliner Theatertreffen mit seinen streambegleitenden Sonderformaten, die mittels Chat und Videotelefonie erstmals Fachdiskurse, die sonst wenigen Eingeweihten vorbehalten sind, mitsamt den dazugehörigen Gesichtern im Internet teilten. Für das Festival Radar Ost entwarf das Künstlerduo CyberRäuber ein weboptimiertes 360-Grad-3D-Modell des Deutschen Theaters, innerhalb dessen in verschiedenen 'Räumen', inklusive der Unterbühne, Veranstaltungen im Videoformat eingesehen werden konnten. Rückgriffe auf analoge Formate – die Berliner Volksbühne entschied sich etwa für eine Magazinanmutung bei der Gestaltung ihres Festivals Postwest – können laut Slevogt durchaus inspirierend sein: Als "Transfererleichterung für das Denken immaterieller Räume" genüge mitunter eine simple Lageplanskizze, wie es schon 1995 die Association for Theatre in Higher Education der Universität Hawai'i bewies. Wenn es gilt "Übergangsschleusen von der analogen in die digitale Welt benutzer/innenfreundlich zu gestalten", votiert Slevogt ganz klar für "Pragmatismus" (S. 109). Netztheater räumt mit dem weitverbreiteten Missverständnis auf, dass das Digitale allenfalls ein Substitut für 'das Echte' sei. Es ist an der Zeit, sich von falsch verstandenen Authentizitätsdiskursen und einer Überbetonung der 'leiblichen Ko-Präsenz', die die Theaterwissenschaft – die ja damit eine ganz eigene Agenda vertrat – an das Theater herangetragen hat, zu verabschieden. Netztheater will niemandem etwas wegnehmen. Es will das tradierte Theater keineswegs abschaffen, nicht den intimen Moment der Begegnung zweier Menschen ersetzen. Es sucht vielmehr nach technologisch unterstützten Erzähl- und Interaktionsformaten, in denen solche Begegnungen ebenfalls möglich sind. Das Digitale hat unser Denken bis in seine neurologischen Strukturen hinein verändert, die Art, wie wir kommunizieren und interagieren, wie wir uns organisieren, uns in der Welt verorten. Es hat sich in unser Verhältnis zu unseren Körpern eingeschrieben, unseren Zugang zu Wissen erleichtert und auf Herrschaftswissen basierende Hierarchien abgeschafft oder zumindest verschoben. Die Fülle an Information ist nahezu unnavigierbar geworden, Fake News haben unser Vertrauen in glaubwürdige Quellen erschüttert. Das Internet hat eine Vielzahl von alternativen Wahrheiten und alternativen Realitäten geschaffen. Das ist beängstigend, zumal in Zeiten einer Pandemie. Das 18. Jahrhundert hat das Theater als Laboratorium gedacht und die Bühne als Ort, an dem Probehandeln möglich ist, um etwas über unser Menschsein zu erfahren. Auch das Netztheater ist ein solches Laboratorium, ausgestattet mit den Gerätschaften der Gegenwart, die etwa Aufschluss darüber geben können, wie unsere Wahrnehmung beschaffen ist oder wie sich Aufmerksamkeit organisieren lässt. "Theater ist die Institution mit dem ältesten Wissen über die gesellschaftliche Kraft des Spielens." (S. 15) Philosophie und Soziologie veranschlagen im Spiel die Grundlage unseres Menschseins. Es wäre fatal, die verfügbaren virtuellen Spielzeuge und technischen Gadgets jenen Player*innen zu überlassen, deren Interessen wirtschaftlich, militärisch oder politisch getrieben sind. Indem wir unser über die Jahrtausende gewachsenes Wissen über Theatralität und Inszenierungsformen einsetzen, um spielerisch zu experimentieren, erlernen wir den Umgang damit und finden heraus, welche Weltgestaltung mit ihnen möglich ist. Die Lektüre der Beiträge zeigt deutlich: Die vielfach beschworene Minimaldefinition des Theaters – A geht durch einen Raum während B zuschaut – beinhaltet keinerlei Spezifikation, dass B sich dabei im selben Zimmer befinden muss.
Die Inhalte der verlinkten Blogs und Blog Beiträge unterliegen in vielen Fällen keiner redaktionellen Kontrolle.
Warnung zur Verfügbarkeit
Eine dauerhafte Verfügbarkeit ist nicht garantiert und liegt vollumfänglich in den Händen der Herausgeber:innen. Bitte erstellen Sie sich selbständig eine Kopie falls Sie diese Quelle zitieren möchten.
Die Sondersitzung des Forschungsausschusses zur BMBF-Fördermittelaffäre setzte einen Schlusspunkt. Denn klar ist: So geht es jetzt nicht mehr weiter. Ein paar Schlussfolgerungen.
GUT 105 MINUTEN dauerte die Sondersitzung des Bundestags-Forschungsausschusses zur Fördermittelaffäre (hier der Videomitschnitt). Im Publikum saß die geschasste BMBF-Staatssekretärin Sabine Döring, die bei der Sitzung reden wollte, aber nicht durfte, während ihre frühere Chefin Bettina Stark-Watzinger (FDP) Fragerunde um Fragerunde der Abgeordneten beantwortete. Viel wurde gesagt, teilweise ging es hoch her, doch welche Schlussfolgerungen ergeben sich daraus – für die Aufklärung, für die Arbeit der Ampelkoalition, das Vertrauen in die Ministerin und den weiteren Umgang mit der Affäre?
1. Inhaltlich brachte die Sitzung keine neuen Erkenntnisse
"Ich sage es noch einmal" und "Wie ich bereits wiederholt gesagt habe" waren die Redewendungen, die Stark-Watzinger am häufigsten benutzte. Während die Aussage, die von den Abgeordneten der verschiedenen Fraktionen am häufigsten zu hören war, sinngemäß lautete: "Sie haben die Frage(n) nicht beantwortet."
Dass die Sitzung keine neuen Erkenntnisse brachte, wurde von Stark-Watzinger und der FDP im Ausschuss so erklärt, dass alle in Kritik stehenden Vorgänge im Ministerium bereits mehrfach, transparent und vollumfassend aufgeklärt worden seien.
Während die Opposition, aber mit erstaunlicher Deutlichkeit auch die SPD Lücken in der Darstellung durch die Ministerin kritisierten.
Fest steht: Das vor der Sitzung mit Ampelmehrheit beschlossene Sitzungsprocedere – statt Einzelfragen mehrere Fragerunden, nach denen die Ministerin jeweils alle Fragen am Stück beantwortete – erleichterte Stark-Watzinger bei Bedarf das Ausweichen oder die Beantwortung von Fragen, die so gar nicht gestellt worden waren.
Viel wurde in der Sitzung darüber gestritten, warum die Ministerin dem Ausschuss nicht weitere Unterlagen zur Verfügung gestellt hat und ob sie die Herausgabe der ministeriumsinternen "Wire"-Chats zu Recht als nichtamtliche Kommunikation einstuft und daher verweigert oder nicht.
Klar ist aber auch abgesehen von der "Wire"-Frage, die "FragDenStaat" gerade gerichtlich klären lässt: Der Ausschuss hat keine Einsicht in die vollständigen Originalakten des Ministeriums und kann daher nicht überprüfen, ob ihm wirklich alles Relevante zur Verfügung gestellt worden ist.
Drängend wird die Frage angesichts der öffentlichen Mitteilung von Sabine Döring am Montag, sie sei ihrer Pflicht zur ordnungsgemäßen Aktenführung nachgekommen, "habe den Vorgang dokumentiert und dem BMBF alle zur Verfügung stehenden Unterlagen übergeben. Das schließt die betreffenden Wire-Chat-Verläufe ein. Wire benutze ich privat nicht." Wo ist Dörings Dokumentation, warum wurden diese Akten dem Ausschuss nicht zur Verfügung gestellt?
Im Unterschied dazu hatte das BMBF von Anja Karliczek (CDU) 2019 im Zuge der Batteriefabrik-Affäre dem Ausschuss die tatsächlichen und vollständigen Akten(ordner) zugänglich gemacht.
2. SPD setzt sich ab von der Ministerin, Grüne stellen Bemühungen ein
Oliver Kaczmarek, der SPD-Obmann im Ausschuss, machte gleich zu Beginn der ersten Fragerunde deutlich, dass er keine Lust mehr auf Ablenkungsmanöver der Ministerin habe. Stark-Watzinger hatte in ihren einführenden Worten gesagt: Während der Ausschuss sich erneut mit aus ihrer Sicht längst aufgeklärten und wiederholt erörterten Sachverhalten beschäftige, drehe sich "die Welt um uns herum weiter." Es gehe derzeit um sehr viel, sagte die Ministerin mit Bezug auf den Antisemitismus auch an den Hochschulen.
Kaczmarek konterte: "Wir müssen uns auf das konzentrieren, was tatsächlich hier heute zur Diskussion steht." Er wolle, dass in der Sondersitzung alle Vorwürfe ausgeräumt würden, "damit wir uns auf die anderen Themen konzentrieren können".
Als der Auftritt der Ministerin vorüber war, befand Kaczmarek: "Nach dieser Ausschusssitzung sind wir als Parlament eigentlich so schlau wie vorher. Insbesondere zu den Abläufen, zur Zielsetzung und zur Kommunikation über die rechtliche Prüfung einer Meinungsäußerung von Hochschulprofessor/innen und daraus resultierender Gedanken zur Streichung von Fördermitteln im engsten Führungskreis des Bildungs- und Forschungsministeriums gibt es keine neuen Erkenntnisse. Damit gibt die Ministerin nur zusätzlichen Raum für neue Spekulation." Es gehe um nicht weniger als das vom Grundgesetz geschützte Recht auf Wissenschaftsfreiheit und den Vorwurf der versuchten politischen Einflussnahme. "Umso mehr kann ich nicht verstehen, warum die Ministerin jetzt nicht alles an Akten und Chats zur Verfügung stellt. Wenn es nichts zu verbergen gibt, kann man durch Transparenz den Sachverhalt endlich aufklären."
Eine bissige Ansage des Koalitionspartners, während die Grünen im Anschluss an die Sitzung die Aufklärung faktisch für erledigt erklärten. "Die Ministerin hat uns ihr Wort geben und garantiert, dass in Bezug auf die Fördermittelaffäre nichts Weiteres veranlasst wurde, was Zweifel am Umgang mit der Wissenschaftsfreiheit im BMBF aufkommen lassen könnte", sagte Anja Reinalter, grüne Sprecherin für Bildung, Forschung und Technikfolgenabschätzung, nach der Sitzung. "Diese Versicherung ist für uns die Grundlage gemeinsam nach vorne zu schauen. Wir haben uns als Koalition noch viel vorgenommen, was wir wissenschafts- und bildungspolitisch erreichen wollen."
Hier läuft etwas auseinander in der Ampelkoalition. Welche praktischen wissenschaftspolitischen Folgerungen das in den nächsten Wochen haben wird, bleibt abzuwarten.
3. Es wird persönlich und es wird hakelig
Mehrfach sprach Stark-Watzinger in der Sitzung von unbewiesenen "Unterstellungen und Spekulationen" von "interessierten Kreisen", wobei sie dem CDU-Forschungspolitiker Thomas Jarzombek persönlich vorwarf, falsche Behauptungen aufgestellt zu haben.
Stark-Watzingers Parteikollegin Ria Schröder formulierte noch schärfer: "Auch heute haben Sie wieder versucht, möglichst viel Dreck zu werfen in der Hoffnung, dass etwas hängenbleibt", sagte sie in Richtung von Jarzombek. "Sie gerieren sich wie ein Staatsanwalt, aber haben gar keinen Wahrheitsanspruch."
Dafür erhielt der CDU-Politiker für sein erneut akribisches Nachhaken Anerkennung von der Linken, auch die AfD forderte die Ministerin mit Nachdruck auf, Jarzombeks Fragen zu beantworten (während Vertreter des BSW, wie der Ausschussvorsitzende Kai Gehring mehrfach hervorhob, erneut der Ausschusssitzung fernblieben).
Der GEW-Vizevorsitzende Andreas Keller kommentierte auf X: Stark-Watzinger mauere zur Fördergeldaffäre, halte am "Maulkorb" für Döring fest "und unterstellt der Opposition unlautere Motive."
4. Große Ermüdung und Ernüchterung
Nach der Sondersitzung dürften bei vielen Beobachtern in Politik, Medien und Wissenschaft vor allem zwei Gefühle vorherrschen: Ermüdung und Ernüchterung. Große Ermüdung angesichts der Tatsache, dass die Diskussion über die Fördermittelaffäre sich seit nunmehr fast drei Monaten im Kreis zu drehen scheint. Dass Stark-Watzinger pausenlos behauptet, es sei komplette Transparenz hergestellt, sich zugleich aber weigert, genau diese zu ermöglichen. Was dann zu jenen Spekulationen führt, gegen die sie sich empört verwahrt.
Wäre es nur ihr eigener politischer Schaden, wäre das eine Sache. Doch zieht Stark-Watzingers Vorgehen die wissenschaftspolitische Reputation der gesamten Ampel immer stärker in Mitleidenschaft. Und während sich die SPD offenbar nicht länger von ihr als öffentliches Schutzschild missbrauchen lassen will, streichen die Grünen die Segel, was zusätzlich ernüchtert, aber Stark-Watzinger das Gefühl geben wird, es bald geschafft zu haben.
Aber was eigentlich? Mit an Sicherheit grenzender Wahrscheinlichkeit werden die bereits aktiven Whistleblower im BMBF dafür sorgen, dass am Ende doch die gesamten "Wire"-Chats an die Öffentlichkeit kommen, falls "FragDenStaat" das nicht ohnehin auf juristischem Weg erreicht. Es wird also keine Ruhe einkehren, dafür aber eine konstruktive Bearbeitung der Vorgänge nur noch immer schwieriger.
Denn je länger dieser Schwebezustand bleibt, blicken immer weniger Beobachter durch, was berechtigte Fragen sind und was Aufbauschen durch die Opposition. Eine Ermüdung, die aber eben nicht zum Verebben der Affäre führen wird, sondern nur zu einer noch größeren Ernüchterung. Der Ernüchterung, dass diese Koalition nicht in der Lage ist, die größte wissenschaftspolitische Affäre seit vielen Jahren transparent abzuschließen. Was das über die Amtszeit von Stark-Watzinger für das Standing des BMBF in der Wissenschaftsszene bedeutet? Man wüsste es gern und fürchtet zugleich die Antwort.
5. Jetzt Untersuchungsausschuss – oder das war's mit der konstruktiven Aufklärung
Deshalb trifft jetzt auch die Opposition und vor allem die CDU/CSU eine große Verantwortung. Ganz offenbar sind alle Aufklärungsbemühungen und alles Fragen unter den jetzigen Umständen zum Scheitern verurteilt. Schlicht weil die Ministerin nicht alle Informationen liefern will und es der Opposition umgekehrt nicht gelingt, ihre Vorwürfe ausreichend zu belegen. Und auch, weil der Bundestags-Forschungsausschuss in einer Sackgasse gelandet ist. Die Ampel-Koalitionspartner verweisen auf die rechtlich begrenzten Möglichkeiten zur Aufklärung, die das Gremium hat, weil sie sich nicht auf ein gemeinsames politisches Vorgehen im Umgang mit der Affäre einigen können. Was den SPD-Abgeordneten merklich gegen den Strich geht inzwischen. Doch eines ist klar: Die Möglichkeiten im Forschungsausschuss sind jetzt ausgeschöpft, und die Union muss eine Entscheidung treffen.
Denn an der Stelle haben Stark-Watzinger und die FDP Recht: Weiteres Spekulieren, Implizieren und hartnäckiges Nachfragen unter den jetzigen Bedingungen verursachen nur immer weiteren Schaden am demokratischen Prozess und der Debatte über Wissenschaftsfreiheit. Doch kann die Antwort nicht sein, das Fragen zu lassen, sondern die Bedingungen zu ändern. Durch die Einrichtung eines Untersuchungsausschusses, die die Opposition erzwingen kann und der all die Möglichkeiten zur Aufklärung hat, die jetzt nötig sind. Auch das Recht auf umfassende Akteneinsicht. Dann wird die konstruktive Bearbeitung möglich. Und womöglich der einzige wirkliche Abschluss der Affäre.
Was aber, wenn die Union zu dieser Forderung gar nicht bereit sein sollte, vielleicht weil ihre eigene Fraktionsführung derzeit all ihre Aufmerksamkeit und Ressourcen auf andere politische Projekte fokussiert? Eine Frage, die nur die Union beantworten kann, und das möglichst bald.
Denn sicher ist: Die Sondersitzung des Forschungsausschusses zur BMBF-Fördermittelaffäre setzte einen Schlusspunkt. So geht es jetzt nicht mehr weiter.
Nachtrag am 11. September, 8 Uhr:
Das ging schnell. Wenige Stunden nach Ende der Sitzung erteilte CDU-Wissenschaftspolitiker Thomas Jarzombek einem Untersuchungsausschuss eine Absage. "Wenn die Dinge, um die es hier geht, mündlich passiert und nicht in Akten verschriftlicht sind, würden wir auch in einem Untersuchungsausschuss nicht schlauer werden", sagte er der Süddeutschen Zeitung. "Da kann man sich die Ressourcen am Ende sparen." Dass Jarzombek keinen Nutzen in der Einrichtung eines Gremiums sieht, das genau jene vollständige Herausgabe der Akten verlangen kann, die die CDU/CSU über Wochen als so wichtig dargestellt hatte, erstaunt dann doch. Was ist zum Beispiel mit Unterlagen und Berichten, die Ex-Staatssekretärin Döring nach eigenen Angaben im Nachhinein zu den Akten gegeben haben hat? Bestünde nicht großes Interesse daran, die interne Dokumentation zur Krisenkommunikation des Ministeriums in den vergangenen Wochen einsehen zu können? Auch könnte ein Untersuchungsausschuss mit weitreichenden Befugnissen weitere Zeugen vorladen, die dem nachkommen müssten.
Doch zeigt die rasche Absage durch Jarzombek etwas sehr deutlich: Die Parteispitze der Union hat politisch derzeit andere Prioritäten, wie ihr Verhalten in der Migrationsdebatte allzu deutlich zeigt, und um diese mangelnde Unterstützung für einen Untersuchungsausschuss wissend zieht der eben noch so engagierte Jarzombek lieber selbst den Stecker und hofft jetzt vor allem auf die Arbeit der Gerichte, von FragDenStaat – und möglicherweise auch die Aktionen weiterer Whistleblower. Die SPD habe gefordert, die Wire-Kommunikation einsehen zu können, sagte Jarzombek der Süddeutschen weiter. "Dem schließen wir uns an. Auch das Transparenzportal 'FragDenStaat' hat die Kommunikation angefragt, dazu steht noch ein Gerichtsurteil aus." Wenn das komme, so Jarzombek, könne es nochmal "interessant werden."
Alles in allem gute Nachrichten. Für die aufgeregte Wissenschaftsszene aber wohl eine weitere Ernüchterung. Und womöglich zugleich ein Hinweis, dass in der parlamentarischen Kontrolle eine Lücke existiert zwischen den arg begrenzten Aufklärungskompetenzen eines normalen Fachausschusses und dem Maximal-Instrument Untersuchungssausschuss, dessen Einsatz mit Recht aufgrund des Aufwandes von den Fraktionen nur selten beschlossen wird, im Schnitt etwa dreimal pro Legislaturperiode. Eine Beobachtung, die vielleicht auch einmal eine Debatte wert wäre.
Hinweis: Ich habe meinen Artikel an einer Stelle korrigiert. In einer früheren Fassung hieß es, Stark-Watzinger habe dem SPD-Politiker Kaczmarek zweimal vorgehalten, bei seinen Fragen Vorgänge zu vermischen. Tatsächlich hatte die Ministerin den CDU-Mann Jarzombek angesprochen. Ich bitte um Entschuldigung.
Kostenfreien Newsletter abonnieren
In eigener Sache: So lief der August
Für den Herbst braucht es einen Jahresendspurt. Können wir die Lücke gemeinsam schließen? Ich durch meine Berichterstattung, Sie durch Beiträge, die Ihrem Nutzungsverhalten und finanziellen Möglichkeiten entsprechen?
Wie Sie Blog und Newsletter unterstützen können, erfahren Sie hier...
Die Inhalte der verlinkten Blogs und Blog Beiträge unterliegen in vielen Fällen keiner redaktionellen Kontrolle.
Warnung zur Verfügbarkeit
Eine dauerhafte Verfügbarkeit ist nicht garantiert und liegt vollumfänglich in den Händen der Herausgeber:innen. Bitte erstellen Sie sich selbständig eine Kopie falls Sie diese Quelle zitieren möchten.
Leibniz-Präsidentin Martina Brockmeier über die Verantwortung der Wissenschaft, den Abschied von Publikationsindizes und Karriereperspektiven versus drohenden Stellenabbau.
Die Agrarökonomin Martina Brockmeier war zwischen 2017 und 2020 Vorsitzende des Wissenschaftsrats. Seit Juli 2022 ist sie Präsidentin der Leibniz-Gemeinschaft. Foto: David Ausserhofer.
Frau Brockmeier, ein aktuell beliebtes Buzzword der Wissenschaftspolitik lautet "Impact". Die Wissenschaft soll sich stärker für Wirtschaft und Gesellschaft engagieren und dafür sorgen, dass Forschungsergebnisse zu einem greifbaren Mehrwert für die Allgemeinheit führen. Finden Sie solche Forderungen berechtigt?
Durchaus, zumal wir als Leibniz-Gemeinschaft mit unseren Instituten hier viel zu bieten haben. Gleichzeitig muss aber allen, die die Bedeutung des Transfers wissenschaftlicher Erkenntnisse betonen, klar sein: Angesichts der verschiedenen Leistungsdimensionen von Wissenschaft, angefangen mit der Forschung über die Lehre bis hin zur Bereitstellung wissenschaftlicher Infrastrukturen und dem Transfer, haben wir es mit einer Art Schieberegler oder Mischpult zu tun – wie Manfred Prenzel es immer zu sagen pflegte. Engagieren wir uns in der Wissenschaft in einem Bereich mehr, gehen dafür die anderen Bereiche runter. Darüber müssen wir offen diskutieren, denn bei jedem Wissenschaftler und jeder Wissenschaftlerin kann je nach Anforderung die Schwerpunktsetzung anders aussehen. Wie der Wissenschaftsrat bereits 2013 empfahl, ist entscheidend, dass wir die vier Dimensionen nicht gegeneinander ausspielen oder eine Dimension automatisch höher bewerten als die anderen.
Aber genau so ist es doch bislang. Die Forschungsleistung, ausgedrückt in Publikationszahlen, Indizes und Metriken, zählt stärker für den wissenschaftlichen Karriereerfolg als alles Andere. Im Gegensatz zu allen Sonntagsreden über Lehre, Transfer und "Impact".
Ich stimme Ihnen zu. Exzellente Forschung ist die Basis für alles Weitere und bislang auch die Währung im Wissenschaftssystem, und es bedarf noch einer großen Kraftanstrengung, bis die anderen Leistungsdimensionen auch nur annähernd akzeptiert werden. In einem zweiten, damit verknüpften Diskussionspfad müssen wir aber auch über neue Formen der Forschungsbewertung reden. Weg von Publikationsindizes, die früher absolut ihre Berechtigung hatten, aber heute vielfach Anreize setzen, die wir aus vielerlei Gründen so nicht mehr wollen. Auch, weil sie junge Wissenschaftler und Wissenschaftlerinnen einseitig unter Druck setzen.
Die Leibniz-Gemeinschaft hat in diesem Zusammenhang ein neues Förderformat gestartet, das die Institute zu noch mehr inter- und transdisziplinärer Zusammenarbeit untereinander und mit Akteuren aus Gesellschaft, Politik und Wirtschaft bewegen soll. Wie genau sollen die sogenannten "Leibniz Labs" das schaffen?
Durch eine glückliche Entscheidung von Bund und Ländern können wir zehn Millionen Euro in unsere drei neuen "Leibniz Labs" investieren, in denen sich jeweils Dutzende Institute zusammenfinden, um ihre Wissensbestände miteinander zu teilen und gemeinsam mit gesellschaftlichen Akteuren praxistaugliche Lösungen zu entwickeln. Ein weiteres, übergreifendes Leibniz-Lab-Netzwerk für inter- und transdisziplinäre Exzellenz begleitet die Umsetzung und entwickelt auch eine Toolbox für Wissensintegration und -transfer.
"Es geht immer darum, einen Beitrag
zur Lösung von großen gesellschaftlichen Herausforderungen zu leisten."
Praxistaugliche Lösungen für wen oder was?
Das ist offen und hängt vom Thema ab. Es geht aber immer darum, einen Beitrag zur Lösung von großen gesellschaftlichen Herausforderungen zu leisten. Die Institute konnten sich mit ihren Ideen bewerben, und jetzt gibt es die drei Labore zu "Pandemic Preparedness", zur "Systemischen Nachhaltigkeit" und zu "Umbrüchen und Transformationen". 77 unserer 96 Institute sind an mindestens einem Lab beteiligt. Ich halte das für einen riesigen Erfolg.
Und beim Leibniz Lab "Pandemic Preparedness"...
...bringen 41 unserer Institute ihre Erfahrungen aus der Corona-Pandemie zusammen, um evidenzbasierte Handlungspläne zu entwickeln. Damit die nationalen Gesundheitssysteme widerstandsfähiger werden, damit die Politik informiertere Entscheidungen treffen kann und wir als Gesellschaft insgesamt resilienter werden. Am 16. Mai treffen sich alle Labs zu einem gemeinsamen Auftakt-Meeting. Welche Wege die beteiligten Institute danach gehen, schreiben wir ihnen nicht vor. Aber Vertreter der Gesellschaft werden immer mit dabei sein, und zwischen Wissenschaft und Gesellschaft entstehen völlig neue Fragestellungen und Antworten, die die Institute disziplinenübergreifend bearbeiten werden. Dabei wird es immer auch um neue Formen der Bewertung von Forschungs- und Transferleistungen gehen, die erst im Prozess entstehen. Vieles ist noch offen, und das muss es auch sein.
Ist wirklich vieles offen? Oder ist es vielmehr so, wie Sie selbst vorhin gesagt haben: Wissenschaftlerkarrieren werden über die Forschungsleistung, ausgedrückt über Publikationsmetriken, gemacht, und diese Strukturen scheinen doch sehr festgefahren. Gerade junge Wissenschaftler:innen schaden, wenn sie sich für Lehre, Transfer oder Wissenschaftskommunikation einsetzen, oft ihrem beruflichen Fortkommen im Wissenschaftssystem.
Das stimmt absolut. Darum muss ein erster Schritt darin bestehen, anzuerkennen, dass anwendungsorientierte Forschung einen ebenso wichtigen – und exzellenten – Beitrag zur Wissenschaft leistet wie etwa die Grundlagenforschung, und beide sich überaus erfolgreich in inter- und transdisziplinären Projekten engagieren können. Daraus können ganz unerwartete Dynamiken und Lösungen entstehen, auf die Wissenschaftler und Wissenschaftlerinnen allein wohl nie gekommen wären. Neulich berichtete mir zum Beispiel die Koordinatorin des von der britischen Regierung mitfinanzierten Reallabors "One-Ocean Hub", dass die beteiligten Forscher lange mit dem Misstrauen der betroffenen indigenen Gruppen zu kämpfen gehabt hätten – bis Künstler beide Gruppen in einem Theater zusammengebracht hätten.
Auch die EU-Kommission versucht über die Coalition for Advancing Research Assessment (CoARA) alternative Maßstäbe für die Bewertung wissenschaftlicher Leistungen zu fördern. Doch trotz hunderter Wissenschaftsorganisationen und Hochschulen, die die CoARA-Vereinbarung unterzeichnet haben, macht sich Ungeduld bei den Reformern breit. Woran liegt das?
Die Leibniz-Gemeinschaft gehörte zu den ersten CoARA-Unterzeichern, weil wir unsere Verantwortung im Wissenschaftssystem national und international wahrnehmen wollen. Wir haben als Forschungsorganisation viele Jahrzehnte Erfahrung mit der Evaluierung von Forschung und der wettbewerblichen, aber immer wissenschaftsgeleiteten Vergabe von Forschungsmitteln. Wir sehen es daher als unsere Verpflichtung an, diese Erfahrung weiterzugeben und vor allem auch international zu vergleichen. Andere tun das auch.
"Ein Einbahnstraßendenken in Bezug
auf Publikationsindizes, über das ich
nur noch den Kopf schütteln kann."
Mit einem Mal formulieren Sie sehr vorsichtig. Weil Sie wissen, dass jede echte Veränderung der Forschungsbewertung die geltenden Macht- und Verteilungsmechanismen in der Wissenschaft in Frage stellt? Wenn Sie Impact, Transfer, Wissenschaftskommunikation oder Transdisziplinarität höher bewerten, fließen auch mehr Geld und wissenschaftliche Reputation in diese Bereiche – auf Kosten der klassischen Grundlagenforscher und der Einzeldisziplinen.
Kein Widerspruch. Es gibt in der Wissenschaft teilweise ein Einbahnstraßendenken in Bezug auf Publikationsindizes, über das ich nur noch den Kopf schütteln kann. Angst vor dem Verlust von Einfluss, Macht und Mitteln haben aber auch wissenschaftliche Verlage, wenn die von ihnen aufwändig entwickelten Publikationsindizes plötzlich an Bedeutung verlieren. Auch darum dauern solche Veränderungsprozesse so lange.
Macht womöglich manche deutsche Wissenschaftsinstitution vor allem deshalb bei CoARA mit, um auf der Bremse zu stehen?
Die Frage kann ich nicht beantworten, aber was ich weiß: Unter den aktuell 724 Unterzeichnern befinden sich zahlreiche international führende Universitäten wie die ETH Zürich, die sich aktiv einbringen und offenbar nicht um ihre wissenschaftliche Leistungsfähigkeit besorgt sind. Auch zahlreiche deutsche Exzellenzuniversitäten sind, so scheint mir, aus echter Überzeugung dabei.
Und was antworten Sie all jenen CoARA-Kritikern, die angesichts der Rolle der EU-Kommission als Mitinitiatorin eine einseitige Vereinnahmung der Wissenschaft zugunsten von Politik und Wirtschaft fürchten?
Ich verlasse mich auf die Aussagen, die ich aus den Gremien und der Wissenschaft selbst höre: Die Reform der Forschungsbewertung ist in erster Linie ein wissenschaftsgetriebener Prozess, bei dem die Versuche der politischen Einflussnahme gegen null gehen.
Für die "Leibniz Labs", Sie sagten es vorhin, konnten Sie noch einmal etliche Millionen lockermachen. War das angesichts hoher Tarifabschlüsse, Energiekosten und allgemeiner Inflation auf absehbare Zeit das letzte Mal, dass Sie Luft im Budget hatten?
Ich habe, was unsere Finanzierung als Forschungsgemeinschaft angeht, große Sorgen, wobei noch zwei Kostenfaktoren hinzukommen, die Sie nicht genannt haben. Einerseits der Präventivschutz vor und die Kosten von akuten Cyberattacken, von denen wir zuletzt mehrere hatten, andererseits die notwendigen Investitionen in Klimaneutralität und Nachhaltigkeit. Das sind Aufgaben, für die wir keinerlei Rücklagen haben. Zusätzlich könnten demnächst möglicherweise weitere vier bis fünf Millionen pro Jahr anfallen, wenn bei gemeinsamen Berufungen mit Universitäten nach dem Berliner Modell Umsatzsteuer fällig werden sollte.
"Mehr Sicherheit und bessere Karriereperspektiven gibt es nur mit mehr Geld, nicht mit weniger."
Moment! Der Bundesrechnungshof mahnt immer wieder an, dass die großen Forschungsorganisationen Milliarden nicht verausgabter Mittel vor sich herschieben, die sie nicht fristgerecht ausgegeben haben.
Das klingt immer so, als würden wir grundlos Geld horten. Doch erstens können wir bei Leibniz nur die restlichen Bundesmittel und die einiger Bundesländer ins nächste Jahr übertragen, den Finanzierungsanteil anderer Bundesländer dagegen nicht, weil nicht alle Länder das Wissenschaftsfreiheitsgesetz umgesetzt haben. Zweitens sind rund 80 Prozent der Gelder, die wir in der Leibniz-Gemeinschaft in das nächste Jahr übertragen, für bereits beschlossene Bau- und Investitionsvorhaben bewilligt, und können somit für keinen anderen Zweck eingesetzt werden. Die restlichen 20 Prozent werden gerade durch die rapiden Personalkostensteigerungen abgebaut. So rapide, dass manche Institute trotz Stellenabbau demnächst vor erheblichen Existenzproblemen stehen könnten. Zumal es nicht überall genügend befristete Arbeitsverträge gibt, die man auslaufen lassen könnte. Anderes Anpassungspotential haben wir kaum.
Das ist dann doch ein harter Kontrast. Initiativen wie "#IchbinHanna" fordern besser planbare Wissenschaftskarrieren und mehr Dauerstellen, und Sie sprechen von Sparmaßnahmen ausgerechnet zu Lasten junger Wissenschaftler:innen.
Das ist bestimmt nicht das, was Sie jetzt hören wollen, und ganz sicher ist das nichts, was wir uns wünschen. Aber mehr Sicherheit und bessere Karriereperspektiven gibt es nur mit mehr Geld, nicht mit weniger. Unabhängig von dem, was jetzt oder künftig im Wissenschaftszeitvertragsgesetz steht. Für Wissenschaftseinrichtungen ergibt sich daraus eine doppelte Aufgabe. Wir können und müssen mehr Tenure-Track-Angebote schaffen, die nach transparenten Kriterien in einer Entfristung münden. Gleichzeitig aber tragen alle Vorgesetzten von Postdocs die Verantwortung, diesen so transparent wie möglich ihre Chancen im Wissenschaftssystem aufzuzeigen. Das heißt: Wenn für eine Person – aus welchen Gründen auch immer – ganz offenbar keine Aussicht besteht, dauerhaft im Wissenschaftssystem bleiben zu können, dann muss das dieser Person zum frühestmöglichen Zeitpunkt gesagt werden. Solche Gespräche müssen wir noch viel häufiger führen. Das Mismatch, dass die Zahl der Postdoc die Zahl der Professuren und anderer Dauerstellen um ein Vielfaches übersteigt, werden wir nicht auflösen.
Haben die Leibniz-Institute wirklich schon genug getan in Sachen verlässliche und attraktive Karrierewege?
Die Leibniz-Institute sind, das wissen Sie, unabhängig. Jedes Institut kann und muss für sich selbst entscheiden, wie es die besten Köpfe gewinnen und halten will. Das hat auch viel mit guter Governance und Führungskultur zu tun. Hier ist die Leibniz-Gemeinschaft auch seit einigen Jahren mit der Leibniz-Führungskräfteakademie erfolgreich unterwegs.
"Nature-Artikel versus Risiko eines Missbrauchs von Forschungsergebnissen, das ist keine Wahl, vor der eine Forscherin stehen will."
Würden Sie sich als Leibniz-Präsidentin manchmal wünschen, so durchregieren zu können wie etwa der Präsident der Max-Planck-Gesellschaft mit seinen wirtschaftlich und rechtlich abhängigen Instituten?
Klare Antwort: nein. Die Aushandlungen im gemeinsamen Austausch sind für die Leibniz-Gemeinschaft, ihre institutionelle Struktur und den Charakter ihrer Institute der einzig sinnvolle Weg. Zugleich merken wir, wie die Institute in den vergangenen Jahren enger zusammengewachsen sind, ausgedrückt etwa durch unsere miteinander verabschiedeten Leitlinien gemeinsamen Handelns, die Aussagen zu Verantwortung, Ethik, Integrität und Verantwortung beinhalten. Die Leibniz-Geschäftsstelle bringt alle zusammen über Angebote wie die Leibniz-Verbundforschung, die Führungskräfteakademie, die Postdoc-Netzwerke oder gemeinsame Strategien zur Forschungssicherheit. Angebote, die von immer mehr Instituten wahrgenommen werden, weil sie merken: Gemeinsam sind wir stärker.
Ob die Gestaltung wissenschaftlicher Kooperationen mit Staaten wie China oder der Schutz vor Cyberattacken, Sabotage und Spionage: Die veränderte internationale Lage fordert, Sie haben es gesagt, auch die Wissenschaft heraus. Was bedeutet das konkret?
Einzelne Institute sind mit der Beantwortung der von Ihnen aufgeworfenen Fragen oft zwangsläufig überfordert, weshalb wir als Leibniz-Gemeinschaft auf der übergeordneten Ebene Hilfe zur Selbsthilfe geben. Wir organisieren Workshops zu einzelnen Ländern, zu Russland, zu China, wo es um Exportrestriktionen geht. Wir identifizieren Forschungsfelder, bei denen Wissen abzufließen droht, wir beraten zum Umgang mit Dual Use. Wir alle in der Wissenschaft spüren doch das Spannungsfeld: Auf der einen Seite müssen wir sehr vorsichtig sein, auf der anderen Seite verlangt Wissenschaft nach freiem Austausch. Wissenschaftler und Wissenschaftlerinnen brennen für ihre Forschung, sie wollen ihrer Neugier nachgehen und sich nicht von Sicherheitsbedenken aufhalten lassen. Nature-Artikel versus Risiko eines Missbrauchs von Forschungsergebnissen, das ist keine Wahl, vor der eine Forscherin stehen will.
Viele in der Wissenschaft sind derweil ziemlich genervt von den wiederholten Warnungen der Bundesforschungsministerin, etwa bei ihren China-Kooperationen äußerste Vorsicht walten zu lassen. Erhebt Bettina Stark-Watzinger zu oft den öffentlichen Zeigefinger?
Ich schätze Frau Stark-Watzinger sehr. Sie versucht in schwieriger Lage, in dieser Regierung immer wieder die Interessen der Wissenschaft zu artikulieren und ihr entgegenzukommen. Die Wissenschaft steht in der Verantwortung gemeinsam Forschungssicherheit zu stärken. Zu dieser Selbstorganisation gehört auch, noch sorgfältiger Chancen und Risiken bei der Kooperation mit chinesischen Partnern abzuwägen.
Kostenfreien Newsletter abonnieren
In eigener Sache: Die Unterfinanzierung wächst
Leider war der April wirtschaftlich gesehen ein schlechter Monat für diesen Blog. Bitte helfen Sie durch Ihren Beitrag, dass er für alle kostenfrei zugänglich bleiben kann.
Wie Sie Blog und Newsletter unterstützen können, erfahren Sie hier...
Gegenstand der Studie ist die wirtschaftliche Beurteilung des Zollvereins sowie die statistische Erfassung der wirtschaftlichen Schlüssengrößen.
Nach einer Darlegung der Stärken und Schwächen der Handelsstatistik folgt eine kritische Zusammenstellung älterer Bewertungsversuche der Handelsstatistik, dem eine Berechnung eines Handelsvolumens zu festen Preisen und die Aufstellung eines Preisindexes für den Außenhandel folgen.
Untersuchungszeitraum: Erst ab dem Jahr 1836 kann auf eine zuverlässige Quellenlage zurückgegriffen werden. Da für die Analyse des strukturellen Wandels mindestens ein Zeitraum von 20 Jahren benötigt wird, bietet sich das Jahr 1856 als Schlussjahr an.
Untersuchungsgebiet In die Untersuchung werden neben dem Zollverein auch die Nordseeküste bzw. der Anteil der norddeutschen Zollgebiete am deutschen Handel mit einbezogen. Auf diese Weise erreicht der Autor eine Vergleichbarkeit der Zahlenreihen mit dem späteren Deutschen Reich. Unter Gesamtdeutschland versteht der Autor das Territorium des Deutschen Reiches von 1870 ohne Elsaß-Lothringen und mit Luxemburg ab 1842. Zum Zollverein treten vor allem die drei Hansestädte Hamburg, Bremen und Lübeck. Von den norddeutschen Flächenstaaten werden Hannover, Oldenburg und Schaumburg-Lippe, die bis 1853 den Steuerverein bilden, hinzugezählt. Die sechs wichtigen Zollgebiete Norddeutschlands werden jeweils für sich hinsichtlich des Handelswachstums, des Saldos, der strukturellen Zusammensetzung sowie Herkunft und Bestimmung des Handels analysiert. Um den gesamtdeutschen Außenhandel zu erhalten, wird der direkte Auslandshandel der Einzelstaaten addiert, der binnendeutsche Handel wird ausgelassen. Das Ergebnis wird anschließend mit den ausländischen Handelsstatistiken verglichen. Anschließend wird die Entwicklung des Aussenhandels im weiteren wirtschaftlichen Zusammenhang eingeordnet, um Wechselwirkungen zwischen Aussenhandel und Industrialisierung zu erkennen. Einbezogene Aspekte sind die Produktion, das Nettosozialprodukt sowie die konjunkturelle Entwicklung.
Der Autor verweist auf die Tatsache, dass die Arbeiten von Walter G. Hoffmann zum Außenhandel (1967: Strukturwandlungen im Außenhandel der deutschen Volkswirtschaft seit Mitte des 19. Jh; 1965: Das Wachstum der deutschen Wirtschaft seit Mitte des 19. Jh.) eine andere Fragestellung betrachten als der Autor in seiner Analyse verfolgt. Hoffmann untersucht ausschließlich die Strukturwandlungen des Handelsvolumens während einer sehr langen Zeitreihe von 1836 bis 1955 ohne Rücksicht auf den Wert. Deshalb beschränkt er sich ganz auf das Handelsvolumen des Zollvereins nach Preisen von 1913. Im Unterschied dazu analysiert Borries im Rahmen der Studie die ersten 20 Jahre, womit die Betrachtung des Volumens auf der Basis von 1913 ausgeschlossen ist (Borries 1970, S. 6).
Die Quellen, auf die sich der Autor hauptsächlich stützt, sind in erster Linie die veröffentlichten amtlichen Statistiken der deutschen Zollgebiete. Weiterhin werden wissenschaftliche Arbeiten mit einbezogen.
Handels- und Zollstatistik Die zeitgenössischen Statistiken erfassen den Handel nach Mengen und Werten. Bei der Wertangabe wechseln die Münzeinheiten, hinsichtlich der Mengenangaben kommen unterschiedliche Gewichts-, Hohl- und Stückmaße zur Anwendung. Um die Handelsstatistiken zu verwenden, wurde vom Autor festgelegt, nach welchen einheitlichen Mengen- und Wertangaben die unterschiedlichen Statistiken umgerechnet werden sollen. Weiterhin muß die Erfassungsmethodik der Handelsstatistik des jeweiligen Staates geklärt werden. Zwei Arten des Vollzugs (der Verzollung) sind von den Ländern umgesetzt worden und sind damit in der Handelsstatistiken zu unterscheiden: der Mengenzoll und die damit einhergehende Mengenstatistik und der Wertzoll sowie die damit zusammenhängende Wertstatistik. - Mengenzoll und –statistik Die Zolllisten des Mengenzolls erfassen die zu verzollende Ware unter einem bestimmten Posten des Zolltarifs nach Zentner oder nach Stück. Dabei wird die Warengattung, das Gewicht und bei zollpflichtigen Waren der Zollbetrag eingetragen. Aus diesen Zolllisten ist es möglich, eine reine Mengenstatistik zu erstellen, die jedoch keinerlei Auskunft über den Wert des Handels gibt. Ein weiteres Problem der Mengenstatistik ist die unterschiedlich angewendete Gliederung: je weniger Warensorten der Zolltarif unterscheidet, desto mehr verschiedene Waren müssen unter einer Position zusammengefasst werden. - Wertzoll und –statistik ('reine Wertstatistik') Der Wertzoll ist die andere Methode der Zollerhebung. Für jede Ware ist ein bestimmter Prozentsatz ihres Wertes als Zoll zu zahlen. Da der zu zahlende Anteil bei verschiedenen Waren unterschiedlich sein kann, wird auch hier ein Warenverzeichnis geführt. Die Zuverlässigkeit der Wertlisten hängt von der Zollhöhe, des jeweiligen Strafmaßes und der Ausbildung der Händler und Zöllner ab. Die Wertstatistik sellt jedoch gegenüber der Mengenstatistik einen erheblichen Fortschritt dar, da hier die Kontrollen und die Genauigkeit höher sind. - geschätzte Wertstatistik ('uneigentliche Wertstatistik') Eine zu dieser Zeit häufige Methode der Werteerhebung war die Schätzung. Hierbei geht man von der Mengenstatistik aus und multipliziert für jede Position die Menge mit einem geschätzten Druchschnittswert. Die statistischen Büros ließen die Preise meist durch Sachverständige schätzen, die sich an den Großhandels- und Börsenpreisen anlehnten, wobei entweder für einen langen Zeitraum (= permanente Werte) oder für jedes Jahr neu (laufende Werte) geschätzt wurde. Die Bildung von Jahresdurchschnittswerten ist problematisch, weil die Preise und Mengen vieler Waren im Verlauf des Jahres stark schwanken. Weiterhin ist für die Preisschätzung der Ort (Absendeort, Grenzort, Bestimmungsort) von besonderer Bedeutung, damit Fracht, Versicherung, Gewinn und Zoll einheitlich behandelt werden. Hierbei wurden überwiegend die Preise am Grenzort ohne Zoll (Einfuhr = cif Preise; Ausfuhr = fob Preise) für die Schätzung herangezogen. Das hat zur Folge, dass sich die Preise für eine Ware bei zwei Partnerländern ohne gemeinsame Grenze unterscheiden (z.B. durch die Seefracht) (Borries 1970, S. 8). Das Problem einer durch Schätzung aus der Mengenstatistik erstellten sogenannten Wertstatistik ist, dass die Exaktheit dieser Statistik von der Untergliederung der Warenliste und von der Sorgfalt der Preiserhebung abhängt. In der Praxis wurden Fertigwaren häufig überschätzt und Frankreich setzte seine Ausfuhr ca. um 20% zu hoch an.
Weitere statistische Besonderheiten
Partnerland Überwiegend sind die Wert- und/oder Mengenangaben der Statistiken nach den Partnerländern gegliedert. Hierbei muß der Begriff von 'Partnerland', sowie die Untergliederung der Länder in der jeweiligen Statistik genau beachtet werden. - eine mögliche Gliederung ist die Auflistung nach den Ländern des Grenzübertritts. Der Zollverein hat diese Auflistung nach Grenzländern erst 1845 begonnen, während der Steuerverein diese Art der Auflistung nicht angewendet hat. - die Auflistung des Herkunfts- oder Bestimmungslandes der Waren ist ein komplizierteres Vorhaben, das Herkunfts- und Bestimmungsland nicht immer identisch ist mit Einkaufs- und Verkaufsland. Die Güte einer solchen Erfassung hängt von der Genauigkeit der jeweiligen Deklaration in den Ländern ab. - weiterhin ist eine Auflistung nach Herstellungs- oder Verbrauchsland von Interesse.
Warengruppen Es können folgende Systeme der Wareneinteilung in Gruppen unterschieden werden. Alle diese Schemata geben auf verschiedene Fragen eine Antwort und richten sich entweder nach den Kategorien der volkswirtschaftlichen Aufbringungs- und Verwendungsrechnung oder orientieren sich an dem Grad der Veredelung der Handelsgüter. - Einteilung der Waren nach dem Produktionssektor in solche der Landwirtschaft und in solche des Gewerbes. Hier bildet die Einordnung der Waren des Bergbaus ein Problem. - Eine weitere Möglichkeit ist die Einteilung der Waren nach ihrer Bestimmung: Waren zum Verzehr sowie sonstigen privaten Verbrauch auf der einen Seite und Waren des öffentlichen Verbrauchs (z.B. Waffen) auf der anderen Seite. - Einteilung der Investitionsgüter in denen der Lagerhaltung und der weiteren Verarbeitung, von denen die Gruppe der eigentlichen Investitionen in Produktionsmitteln (z.B. Maschinen, Dünger) getrennt wird. - Gliederung in Waren, die für das Ausland bzw. für das Inland ein Monopol besitzten und solche, die im Inland und Ausland produziert werden. Während für die Nahrungsmittel diese Einteilung gebräuchlich ist, wird sie in den Statistiken nicht auf die Rohstoffe angewendet. - Einteilung der Waren nach der Art der Verarbeitung (Rohprodukte und Fertigwaren), üblich für Waren, die nicht für die Nahrung dienen. In der Praxis überschneiden sich oft die Einteilungskriterien.
Handelsbegriffe Spezialhandel umfaßt die zwischen dem freien Verkehr eines Landes und dem Ausland wirklich ausgetauschten Waren. Generalhandel bezeichnet den Gesamteingang und Gesamtausgang einschließlich der Durchfuhr (in der heutigen Statistik wird die Durchfuhr nicht mit hinzugezählt). Durchfuhrhandel Durchfuhr bezeichnet den Warentransport aus fremden Gebieten durch das analysierte Wirtschaftsgebiet des Zollvereins, ohne dass die Ware im Wirtschaftsgebiet des Zollvereins in den freien Warenverkehr gebracht wird. Neben der direkten Durchfuhr sowie der unverzollten Wiederausfuhr existiert noch ein unkontrollierbarer Teil der Durchfuhr, z.B. wenn bei zollfreien Gütern die Durchgangsabgabe gespart werden soll. "Dazu kommt noch ein umfangreicher Zwischenhandel. Zwischenhandel und Durchfuhr lassen sich aus dem Spezialhandel nicht ausgliedern. In den Hansestädten ist fast aller Handel Durchfuhr oder Zwischenhandel, da die eigene Produktion und der eigene Verbrauch gegenüber dem Gesamtumsatz kaum eine Rolle spielen. Die nicht in der Stadt umgesetzten Waren, die man als 'Transit' bezeichnet, sind wirtschaftlich den übrigen Waren gleichzuachten" (Borries 1970, S. 11).
Der Autor geht folgendermassen vor: "In den folgenden Untersuchungen wird die Durchfuhr getrennt gehalten, allerdings mit Ausnahme der Hansestädte. Wenn man aus dem Handel der einzelnen Zollgebiete den gesamtdeutschen Handel zusammensetzen will, muß man die Durchfuhr zu Einfuhr und Ausfuhr addieren. Oft ist die Durchfuhr eines deutschen Zollgebietes in einem anderen Spezialhandel, das gilt vor allem für die Hansestädte. Für Gesamtdeutschland lassen sich nur für den Generalhandel einigermaßen exakte Angaben machen. Erst von diesem läßt sich auf den Spezialhandel zurückschließen. (Borries 1970, S. 11)"
Für die statistische Darstellung des deutschen Aussenhandels greift der Autor nur in eingeschränktem Ausmaß auch auf ausländischen Quellen zurück. Auch von den deutschen Quellen hat der Autor nur die gedruckten Quellen für seine Datenerhebung herangezogen (also keine handschriftlichen Quellen in den Archiven). Handschriftliche Quellen enthalten keine Informationen über den gesamten Handel, sondern eher über einzelne Bereiche und Wirtschaftszweige.
Die wichtigste Frage der Studie ist die nach dem Wert des Handels. Daher müssen alle Angaben der Handelsstatistik in Werte umgerechnet werden, was jedoch auf Grund der Angaben in den Quellen nur eingeschränkt durchführbar ist.
Ein weiteres Problem stellt die Zusammensetzung des gesamtdeutschen Außenhandels aus dem Außenhandel der einzelnen Zollgebiete dar. "Solange Deutschland noch kein einheitliches Zollgebiet war, war die Freiheit des inneren Marktes nicht ganz hergestellt. Der deutsche Binnenhandel konnte, soweit er eine Zollgrenze überschritt, noch als Außenhandel aufgefaßt werden. Die Handelsstatistiken spiegeln diesen Zustand wider. Die Tatsache der Trennung durch Zollgrenzen hat den Handel sicher beeinflußt, der Binnenhandel blieb kleiner, der Außenhandel wurde größer, als dies bei einem einheitlichen Zollgebiet der Fall gewesen wäre. Die Handelsverbindungen waren durch die faktischen Zustände der Zeit bestimmt, solche Verzerrungen gegenüber dem Modell eines geschlossenen Handelsgebietes lassenn sich nachhträglich nicht korrigieren. Die Gesamtbilanz trägt also einen gewissermaßen fiktiven Charakter, da sie von den besonderen Bedingungen des Binnenhandels, den verschiedenen Zöllen in einzelnen Teilgebieten usw. abstrahiert. Insofern (…) läßt sie sich vor allem nur bedingt mit späteren Angaben für das Deutsche Reich vergleichen. Sie ist aber berechtigt, weil Deutschland gegenüber dem Ausland doch schon eine relative wirtschaftliche Einheit bildete (…). Die faktischen Einzelbilanzen sind neben der Gesamtbilanz nötig, um diese überhaupt zu errechnen, darüber hinaus geben sie auf einzelne Fragen viel genauere Antworten." (Borries 1970, S. 13). Somit stellen die Einzelbilanzen einen gewissen Schutz gegen falsche Schlüsse aus der Gesamtbilanz dar.
Vor diesem Hintergrund weist der Autor ausdrücklich darauf hin, dass die Zuverlässigkeit des Zahlenmaterials nicht überschätzt werden darf. "Für die Abschätzung der Fehlerquellen muß man systematische und zufällige Fehler unterscheiden. Bei systematischen Fehlern ergibt sich eine Fehlerneigung, so läßt der Schmuggel den Handel zu gering, die Einrechnung des Zolles die Einfuhr zu hoch, die Auslassung der Durchfuhrfracht die Generalausfuhr zu niedrig erscheinen. Zufällige Fehler heben sich im statistischen Mittel heraus, das gilt etwa für das Auf- und Abrunden oder für Berechnungs- und Druckfehler. Als zufällig können auch die Fehler angesehen werden, die durch Auslassung der Lagerbewegung usw. entstehen. Systematische Fehler setzen keineswegs immer die Zuverlässigkeit herunter. Das gilt besonders beim Vergleich mehrerer Größen mit gleichem systematischem Fehler. Zeitreihen, die auf gleicher Berechnungsmethode beruhen, sind das beste Beispiel. Selbst wenn sie mit einem erheblichen Fehler belastet sind, ist ihr Index sehr zuverlässig. Zufällige Fehler können umgekehrt im ungünstigsten Falle schwer ins Gewicht fallen (…)." Auf das Saldo können sich systematische Fehler empfindlich auswirken. Der Saldo stellt die Differenz der Aktiva und Passiva dar. "Wenn sich in Einfuhr und Ausfuhr geringe systematische Fehler eingeschlichen haben, (…), kann der Saldo schon völlig verfälscht sein. Die Entwicklung der Saldi im Vergleich mehererer Jahre ist dagegen weit zuverlässiger, falls die Preisannahmen der Jahre auf gleichartigen Quellen beruhen. Systematische Fehler können trotz aller Sorgfalt nicht sicher ausgeschlossen werden und senken die mutmaßliche Zuverlässigkeit der Ergebnisse. Man kann den Verfälschungen jedoch durch den Vergleich möglichst vielseitigen Materials und mehrerer unabhängiger Methoden entgegenwirken." (…) Aus diesem Grund ist besondere Aufmerksamkeit auf den Anmerkungsteil in den Tabellen und in der Studienbeschreibung zu geben, in denen die Werte der Tabellen erläutert werden.
Borries' Ergebnisse im Vergleich zu anderen Studien (vrgl. Borries, S. 240 f.): Die älteren Schätzungen versuchen anhand der reinen Mengenstatistik des Zollvereins, den Wert des Handels anzugeben. Da sie mit unterschiedlichen Methoden arbeiten, können sie vom Autor für seine Studie nicht herangezogen werden. Borries berechnet das Handelsvolumen neu. Seine Ergebnisse weichen von denen Hoffmanns und Junghanns' erheblich ab. Der parallele Gesamtverlauf in allen drei Berechnungen bestätigt jedoch die relative Zuverlässigkeit der Werte. Über einen Preisindex wird aus dem Volumen der laufende Wert für den Durchschnitt von je drei Jahren errechnet. Die Ergebnisse des Autors weichen stark von den Ergebnissen Bondis ab. Der Autor stellt fest, dass Gerhard Bondi vor allem die Gesamtentwicklung ganz anders darstellt, weil seine Werte in den ersten Jahren über den Werten des Autors liegen, und in den letzten Jahren die Werte des Autors unterschreiten. Für die Analyse der Warenstruktur bildet Borries sieben unterschiedliche Warengruppen. Die Nahrungsmittel werden nach ihrer Herkunft in koloniale und europäische eingeteilt, die Halbwaren von den eigentlichen Rohstoffen abgetrennt. Aus den Fertigwaren kann man die Textilien im egneren Sinne ausgliedern. Dazu kommt noch ein Restposten (Sonstiges), der als untypisch nicht naher betrachtet wird. Die Quellenlage erlaubt nicht die tiefergehende Analyse nach einelnen Handelspartnern, ermöglicht aber die Einbeziehung der Durchfuhr Hoffmann hat in seinem Werk 'Das Wachstum der deutschen Wirtschaft …" die Durchfuhr nicht berücksichtigt. Ebenso hat Bondi in "Deuschlands Aussenhandel 1815-1870" die Durchfuhr ausgelassen.
Die Quellenlage der Hansestädte ist im Vergleich zum Zollgebiet Norddeutschlands weit günstiger. Die Hansestädte beginnen erst während des Untersuchungszeitraums, eine umfassende Handelsstatistik zu führen, verfügen aber schon für die Zeit davor über detaillierte Aufzeichnungen.
Zu folgenden Themen sind Zeitreihendaten und zeitreihenfähige Daten zusammengetragen worden:
A. Der Zollverein: Volumen, Werte und Indizes nach Warengruppen und nach Einfuhr, Ausfuhr und Durchfuhr
B. Norddeutschland: Aussenhandel Hamburgs, Bremens und Schleswig-Holsteins; Volumen, Werte, Indizes nach Warengruppen und Handelspartnern
C. Gesamtdeutschland: Ein- und Ausfuhr; Generalhandel, Zwischenhandel, Spezialhandel, Handelswerte
Themen
Datentabellen im Recherche- und Downloadsystem HISTAT (Historische Statistik) (Thema: Außenhandel)
A. Der Zollverein
A1 Zollverein: Bruttozolleinnahmen und Bevölkerung (nach Hübner und Hoffmann) (1834-1856) A2 Zollverein: Zeitgenössische Schätzungen des Handels für die Einfuhr, die Ausfuhr und die Durchfuhr in Talern nach Junghanns und Hübner (1834-1861) A3 Zollverein: Volumen nach Hoffmann und Junghanns, laufende Handelswerte nach Hübner und Bondi (in 1000 Talern) (1836-1856) A4 Zollverein: Korrigiertes Volumen nach v.Borries (1836-1856) A5 Zollverein: Index des Volumens zur Basis 1836 (1836-1856)
A6 Zollverein: Preisindizes A.6.1. Preisindex nach Jacobs-Richter (1834-1856) A.6.2. Zollverein: Preisindex der Warengruppen zur Basis 1836/38; Gewichte und Indizes nach Einfuhr, Ausfuhr und Durchfuhr (1836-1856) A.6.3. Zollverein: Preisindex und Volumen der Warengruppen zur Basis 1836/41 nach v.Borries, Werte des Handels nach Einfuhr, Ausfuhr und Durchfuhr (1836-1856)
A7 Zollverein: Handelswerte A.7.1. Zollverein: Werte in Dreijahresdurchschnitten (in 1000 Talern); Vergleich v. Borries und Bondi (1936-1856) A.7.2. Zollverein: Wert des Handels pro Kopf in Dreijahresdurchschnitten nach Einfuhr, Ausfuhr und Durchfuhr (in Talern) (1836-1856)
A.8 Zollverein: Indizes der Volumina und Werte nach Einfuhr, Ausfuhr und Durchfuhr nach v. Borries (1836/38=100) (1836-1856)
B. Norddeutschland
B1 Hamburg B1.1 Hamburg: Wert des Handels (in MkBco) auf Basis von 1848/50 nach Soetbeer B1.2 Hamburg: Einfuhr und Ausfuhr nach deutschen und ausländischen Handelspartnern nach Soetbeer (in MkBco, exkl. Contanten) B1.3 Hamburg: direkter Seehandel nach Partnerländern nach Soetbeer (in MkBco, exkl. Contanten und Altona) B1.4 Hamburg: direkter Seehandel nach Warengruppen nach Soetbeer (in MkBco, Exkl. Contanten) B1.5 Hamburg: Edelmetallverkehr (in MkBco) nach Soetbeer
B2 Bremen B2.1 Bremen: Wert des Handels (in Talern Gold) auf Basis von 1848/50 nach Rauers (Index: 1848/50 = 100) B2.2 Bremen: Ein- und Ausfuhr nach Deutschland und in das Ausland, Saldi und Wiederausfuhr nach Deutschland in Talern Gold nach Soetbeer B2.3 Bremen: Seehandel nach Partnerländern in Talern Gold nach Soetbeer
B3 Lübeck und Schleswig-Holstein B3.1 Lübeck: Wert des Handels (in MkCrt, exkl. Contanten) B3.2 Schleswig-Holstein: Offizielle Werte des Handels 1834-1856 in Rbtalern nach den Jahresbänden des Statistischen Tabellenwerkes
C. Gesamtdeutschland
C1 Gesamtdeutschland: Einfuhr und Ausfuhr der Zollgebiete (in Mio Talern) nach Berechnungen von v. Borries. C2 Gesamtdeutschland: Direkter Aussenhandel der Zollgebiete (in Mio Talern) nach v. Borries C3 Gesamtdeutschland: Generalhandel, Zwischenhandel, Spezialhandel ohne Zwischenhandel (in Mio Talern); Schätzungen von v. Borries C4 Gesamtdeutschland: Handelsumsatz im Vergleich der Handelsnationen in Mio. Talern C5 Zollverein und Deutsches Reich: Werte des Handels in Mio Talern C6 Zollverein und Deutsches Reich: Anteile der Warengruppen am Handel C7 Preußen: Ausprägung der Münsstätten (Nennwert in Talern)
Schlagwörter [Außenhandel, Warenströme, Warengruppen, Einfuhr, Ausfuhr, Import, Export, Warenstruktur, Handelsbeziehungen, deutsche Handelsstatistik, Außenhandelsstatistik, Deutscher Zollverein, deutsches Zollgebiet, Norddeutschland, Hamburg, Bremen, Deutsches Reich, deutsches Wirtschaftsgebiet, Frühindustrialisierung, Zeitreihendaten, historische Statistik ]
Aus der Einleitung: Die aktuelle politische, soziale und ökonomische Situation in Subsahara-Afrika: Afrika -– was wissen wir über Schwarzafrika, also über das Gebiet südlich der Wüste Sahara? Welche Informationen erreichen uns über Printmedien, Rundfunk, Film und Fernsehen, die uns Auskunft über das Leben und die tägliche Wirklichkeit in den Ländern dieser Region geben. Welche davon sind real und welche durch Antizipation von Interpretationen und Schlussfolgerungen gefärbt und damit möglicherweise nicht vollständig zutreffend? Schwarzafrika - ein unmoderner, weil politisch unkorrekter Begriff, bezieht er sich doch nicht etwa auf geografische Gegebenheiten, sondern nur auf die dunklere Hautfarbe der dort lebenden Menschen und wirkt dadurch sprachlich diskriminierend. Die vorliegende Arbeit bezieht sich in ihren Ausführungen ausschließlich auf diejenigen Staaten, die südlich unterhalb der Sahara-Grenzlinie liegen, und so werden im Folgenden die von einer geografischen Etymologie geprägten Ausdrücke 'Subsahara-Afrika' beziehungsweise 'subsaharisches Afrika' oder 'Afrika südlich der Sahara' verwandt. Die Beschränkung auf diesen Teil des afrikanischen Kontinents und mithin die inhaltliche Aussparung der nordafrikanischen Staaten Ägypten, Lybien, Tunesien, Algerien und Marokko, inklusive des durch Marokko annektierten Gebietes der Westsahara, erfolgt aus folgenden Überlegungen: Zum einen weisen die sechs genannten Länder durch ihre Lage als Mittelmeeranrainer mit entsprechender Anbindung an westliche Standards eine stark durch europäische Strömungen gefärbte Struktur der Staatsführung und Gesellschaftsorganisation auf. Diese hebt sich von denjenigen Strukturen der übrigen Länder Afrikas, eventuell mit Ausnahme einiger weniger Staaten wie zum Beispiel Südafrika, ab. Des Weiteren entspricht diese Gebietsbegrenzung auf das subsaharische Afrika durchaus dem allgemeinen Standard in der einschlägigen Fachliteratur in Forschung und Lehre. Hinzu kommt, dass diese Unterteilung zwischen Nordafrika und SSA dem theoretischen wie praktischen Ansatz der meisten internationalen Organisationen entspricht und in Verbindung mit einem internen und offiziellen Sprachusus als legitime und gebräuchliche Kategorie anerkannt ist. Damit sollen, auch im Rahmen dieser Arbeit, bestimmte Bestrebungen und aktuelle Tendenzen einer panafrikanischen Politik nicht ignoriert werden, die eine Zusammenführung, ein einheitliches, alle afrikanischen Staaten und ihre BürgerInnen integrierendes Agieren und Auftreten, im internen wie im translateralen Kontakt zum Ziel haben. Denn das Engagement, beispielsweise der 'African Union (AU)' , kommt nicht zuletzt der Förderung der Interessen subsaharischer Staaten zugute. Afrika -– was wissen wir tatsächlich über SSA? Hunger und Unterernährung, Kriege und Konflikte, Mangelwirtschaft und Rechtlosigkeit, Krisen und Katastrophen sind nur einige der vielen Stichwörter, die Menschen weltweit in den Sinn kommen, wenn sie nach ihren Vorstellungen von den gesellschaftlichen, politischen und sozialen Realitäten des afrikanischen Kontinents, insbesondere den subsaharischen Bereich betreffend, befragt werden. Ein Gebiet, das durch 52 Einzelstaaten geprägt wird, die zwar diverse übergeordnete Kategorien, wie zum Beispiel Armut und Unterentwicklung, verbinden, die andererseits jedoch ein breites Spektrum unterschiedlichster Potentiale und dementsprechender Chancen und Möglichkeiten abbilden. Das Bild von Afrika, welches in den Köpfen der Menschen, die nicht in Afrika leben, noch weit verbreitet ist, ist oft eindimensional, veraltet, statisch und gleicht mehr einem Klischee denn einem Spiegelbild tatsächlicher Verhältnisse. Denn der afrikanische Erdteil ist vielen Wandlungen unterworfen, die in einem mitunter rasanten Tempo voranschreiten. Diese Veränderungen zielen in Subsahara-Afrika, insbesondere im Hinblick auf politische und gesellschaftliche Kontexte, häufig in diametrale Richtungen: Einerseits sind viele Menschen in diversen subsaharischen Staaten Afrikas nach wie vor, oftmals seit vielen Jahren, der politischen Willkür und den aggressiven Machtansprüchen diktatorischer Staatsführungen oder Militärregimes ausgeliefert, fernab jeglicher rechtsstaatlicher Grundsicherheiten. Wenn nicht alltägliche Repressalien und Rechtlosigkeit einen hohen Tribut fordern, so bedrohen schleichender sozioökonomischer Staatszerfall oder eine lange Tradition zermürbender Kriege und Bürgerkriege, sowie ethnische Konflikte und Verfolgungen, die dort lebenden Menschen an Leib, Leben und in Ihrer Menschenwürde. Die Länder Angola, Mosambik und Sierra Leone oder derzeit auch die schwer umkämpfte sudanesische Region Dafur, die (bürgerkriegs)geplagten Staaten Nigeria, Somalia und die demokratische Republik Kongo sind nur wenige Beispiele einer langen Kette unrühmlicher Fälle autoritärer und gewalttätiger Herrschaftsideologie und mithin untauglicher Staatsführung durch Kriege und bewaffnete Konflikte in der Geschichte afrikanischer Länder. Auf der anderen Seite besteht in manchen, wenn auch anteilig wenigen, Landstrichen des Kontinents durchaus Grund zu berechtigtem Optimismus. Denn in einigen Staaten Afrikas erfuhren in den letzten Jahren Erfolg versprechende Demokratisierungsprozesse eine Stärkung und führen ihre Bürger heraus aus jahrzehntelang andauernden Phasen der politischen Repression. Dementsprechende Reformen führen zu einer Einbindung der Bevölkerung in real existierende Mitbestimmungs- und Wahlmöglichkeiten des alltäglichen sozialen Lebens, die maßgeblich von Pluralität und basisdemokratischen Überzeugungen, wie dem Mehrheits- und Gleichheitsgrundsatz oder dem Prinzip der Gewaltenteilung, geprägt sind. Tatsächliche Volkssouveränität ist in solchen jungen, demokratischen Staaten, in denen Mehrparteiensysteme durch freie, gleiche und geheime Wahlen und vorangegangene, friedliche Revolutionen legitimiert wurden, zum Teil nicht bloß wünschenswerte Fiktion. Die BürgerInnen der Republik Südafrika übernehmen nach dem Ende der Apartheidspolitik durch einen demokratischen Wandlungsprozess und Machtwechsel seit den neunziger Jahren des vergangenen Jahrhunderts - in dieser Hinsicht eine unangefochtene Vorreiterrolle mit entsprechender Vorbildfunktion. Andererseits stehen diese Fortschritte in Richtung Demokratie oftmals, zum Beispiel aufgrund andersartiger politischer Traditionen, nicht auf sicheren Grundpfeilern und bedürfen einer nachhaltigen Konsolidierung. Trotz einer Vielzahl hoffnungsvoller Optionen geben nach wie vor einige übergreifende Aspekte in vielen afrikanischen Ländern Anlass zur Besorgnis. TETZLAFF konstatiert in diesem Zusammenhang vor allem weit verbreitete staatsübergreifende Negativ-Faktoren, wie ökonomische Stagnation und überdauende Armutsverhältnisse, lang anhaltende kriegerische Auseinandersetzungen und politisch motivierte Gewaltbereitschaft, gesundheitliche Bedrohungen, vor allem die epidemische Ausbreitung der Immunschwächekrankheit HIV/Aids sowie zunehmende Entwicklungen in Richtung kollabierender Staatsgefüge und daraus resultierender Machthohlräume. HERRNLEBEN ergänzt und fokussiert die Überblicksdarstellungen der in SSA weit verbreiteten Problematiken um den Aspekt der geringen Lebenserwartung, die seiner Meinung nach '[...] auch eine Folge der immer noch hohen Mütter-, Säuglings und Kindersterblichkeit [ist].' So mangele es circa fünfzig Prozent der afrikanischen Bevölkerung und in einigen Landstrichen auch einem noch höheren Anteil an sauberem Trinkwasser sowie ärztlicher Grundversorgung und erschwinglichen Arzneipräparaten zur medizinischen Therapie der, unter anderem aufgrund dessen, weit verbreiteten Infektionserkrankungen Cholera, Malaria, Typhus, Tuberkulose, Hepatitis B, Lepra, parasitärer Wurmbefall und vor allem AIDS. MAIR konkretisiert insbesondere die sozialen Dimensionen im Katalog der aktuellen, wenn auch nicht immer neuen, Schwierigkeiten des modernen SSA: 'Wachsende Arbeitslosigkeit und Perspektivlosigkeit von Jugendlichen sowie das Anwachsen der städtischen Slums und der Gewaltkriminalität sind die Schattenseiten dieses Wandels.' Weitere derzeitige Problemfelder, die gerade im subsaharischen Afrika die Freude über teilweise zu verzeichnende Erfolge der politischen und wirtschaftlichen Stärkung dämpfen und eine fundamentale Verankerung derselben in den jeweiligen Gesellschaftsstrukturen erschweren, werden an anderer Stelle dieser Arbeit Gegenstände expliziter Betrachtungen sein. Diese sind: Kriege und gewaltsame Konflikte, ein rapider und starker Anstieg der Bevölkerungszahlen, die Tendenz zur regionalen Migration, ein Trend zu Landflucht und Verstädterung, sowie der Faktor der Korruption, und die immense Verbreitung von HIV/Aids. Zusammenfassend lässt sich, ohne nachfolgende Erkenntnisse vorwegzunehmen, festhalten, dass viele der Probleme, mit der sich die Menschen in der Region SSA auseinander zu setzen haben, schwerwiegende Formen und Ausmaße annehmen: weil erstens ihre Fülle beträchtlich ist, zweitens sie bereits längere Zeit andauern und drittens ihnen vielfältige Ursachen zu Grunde liegen. Es scheint offensichtlich: Hilfe für Subsahara-Afrika tut not. Angenommen, dass dem so ist, ergeben sich daraus Fragestellungen, die es zu erörtern gilt. Einige der vielen Fragen, die sich in diesem Zusammenhang auftun, lauten folgerichtig: Wie stellen sich das Ausmaß und die Formen von Armut und Unterentwicklung aktuell konkret dar? Welche Faktoren spielen dabei eine Rolle und inwiefern tragen sie zu der derzeitigen Situation bei? Wie urteilen diverse Entwicklungstheorien über die Fragestellung, wie es zu diesen Schwierigkeiten kam beziehungsweise wer oder was inwiefern und unter welchen politischen, ökonomischen, historischen und entwicklungstheoretischen Vorzeichen dafür verantwortlich ist, dass die meisten Staaten des subsaharischen Afrika nach wie vor zu den 'Least Developed Countries (LLDC)', den am wenigsten entwickelten Ländern der Welt zählen mit entsprechend tiefgreifenden Folgen für die Bevölkerung? Was ist von deren Positionen zu halten? Welchen Bedarf haben die unterentwickelten Länder des subsaharischen Kontinents an Unternehmungen internationaler Entwicklungszusammenarbeit und Entwicklungspolitik? Welche Ansatzmöglichkeiten für derartige Hilfen, welche Potentiale der Entwicklung bieten sich? Welche Maßnahmen internationaler Entwicklungszusammenarbeit und Entwicklungspolitik wurden im Wesentlichen bis dato initiiert und wer hat sie durchgeführt? Wie sind die Wirksamkeit und die Resultate derselben hinsichtlich einer adäquaten Problemlösung in SSA zu bewerten? Welche aktuellen Perspektiven und Möglichkeiten für Entwicklungsförderung und Entwicklungspolitik bieten sich derzeit generell und im Zuge dessen auch für das subsaharische Afrika? Welche Auswirkungen hat die Beantwortung dieser Fragen auf die schlussfolgernden Erkenntnisse nach Art, Inhalt, Umfang und Zielrichtung einer gelungenen, weil effektiven und effizienten, Entwicklungspolitik und Entwicklungsförderung für SSA? Fragen über Fragen, die es zu beantworten gilt. Die vorliegende Arbeit will dazu einen Beitrag leisten und hierzu sowohl die problematische Ausgangslage darstellen und die zugrunde liegenden Kausalzusammenhänge klären, als auch den Status quo der internationalen Bemühungen um eine Lösung der genannten und zu konkretisierenden Defizite erörtern und neue Wege aufzeigen. Dazu wird dem aufmerksamen Leser zunächst ein umfangreicher und breit gefächerter Überblick über die Ausgangslage von Armut und Unterentwicklung in den Ländern südlich der Sahara präsentiert. Zuvor erfolgt jeweils eine begriffliche Bestimmung der Phänomene Armut und Unterentwicklung durch eine inhaltliche Skizzierung ihrer jeweiligen Grundmuster. Besondere Einflussfaktoren von Unterentwicklung in Subsahara-Afrika, wie die Bevölkerungsentwicklung, Migrations- und Urbanisierungstendenzen, die Probleme Hunger und Unterernährung, Kriege und Konflikte, sowie Korruption und HIV/Aids erfahren dabei eine ausführliche Darstellung ihrer aktuellen Ausprägung in afrikanischen Entwicklungsländern. Im Anschluss daran werden diverse Theorien diskutiert, die, jede für sich genommen, beanspruchen, tragfähige Erklärungsmuster für die zugrunde liegenden Kausalzusammenhänge der bestehenden afrikanischen Entwicklungsdefizite zu transportieren und stichhaltig argumentativ zu untermauern. Welche Einwände dependenztheoretische, globalisierungsspezifische, kolonialismus- und neoimperialismuskritische Positionen vorbringen und ob deren Argumentationslinien uneingeschränkt von Bestand sein können, soll die kritische Beurteilung derselben klären. Diesem Abschnitt schließt sich eine Darstellung des Entwicklungsbegriffs und der entwicklungsbezogenen Möglichkeiten und Perspektiven des subsaharischen Raumes an, um anschließend zur Beantwortung der Frage überzuleiten, inwiefern und unter welchen Voraussetzungen Maßnahmen der internationalen Entwicklungspolitik für deren Realisation Sorge tragen können und welche ihrer Handlungsfelder sich demgemäß ergeben. Demgegenüber werden, darauf folgend, bisher praktizierte Handlungsstrukturen der internationalen Entwicklungsförderung und –politik besprochen und einer kritischen Analyse im Hinblick auf den Erfolg der jeweiligen Ansätze unterzogen. In diesem Zusammenhang kommt es ebenso zu einer Beschreibung und anschließenden Beurteilung diverser akteursspezifischer Entwicklungsstrategien, wie der bisherigen deutschen und europäischen Positionen, sowie der erfolgten entwicklungspolitischen Herangehensweisen von Internationalem Währungsfond, der Weltbank, der Welthandelsorganisation und diverser nicht-staatlicher Entwicklungsförderungsorganisationen. Über den Status des historischen und aktuellen Bezugs hinaus, soll ein kritischer Überblick über diverse zukunftsbezogene Überlegungen und Trends der internationalen Entwicklungspolitik die Besprechung ihrer Inhalte abrunden. Die Arbeit schließt mit einem Resümee, das ein Fazit über die Beantwortung der oben genannten Fragestellungen beinhaltet, und einer persönlichen Einschätzung des Verfassers über gelungene, weil aussichtsreiche und effiziente Strukturen einer zeitgemäßen Entwicklungspolitik für das Afrika südlich der Sahara. Letztere stützt sich auf persönliche Vorstellungen und im Zusammenhang der Bearbeitung dieser Thematik gewonnene Erkenntnisse. Die im Rahmen dieser Arbeit verwandten Länder- beziehungsweise Staatenbezeichnungen und die Titulierungen ihrer jeweiligen Staatsangehörigen entsprechen dem Verzeichnis der Staatennamen für den amtlichen Gebrauch in der Bundesrepublik Deutschland, herausgegeben vom Auswärtigen Amt der Bundesrepublik Deutschland. Neben der verwendeten und belegten Literatur wurden für die Anfertigung dieser Arbeit keine weiteren Hilfsmittel benutzt, was an dieser Stelle, mit Verweis auf die eigenhändige Unterschrift des Verfassers am Ende des Haupttextes, an Eides statt versichert wird.Inhaltsverzeichnis:Inhaltsverzeichnis: Abkürzungsverzeichnis5 Verzeichnis der Tabellen und Abbildungen10 1.Prolog – Die aktuelle politische, soziale und ökonomische Situation in Subsahara-Afrika11 2.Armut und Unterentwicklung in Subsahara-Afrika17 2.1Was ist Armut? – Definitionen und Dimensionen von Armut17 2.2Ausmaß und Erscheinungsformen der Armut in Subsahara-Afrika21 2.3Was bedeutet Unterentwicklung? – Maßstäbe und Ausprägungen von Unterentwicklung27 2.4Unterentwicklung im Afrika südlich der Sahara31 2.5Besondere Einflussfaktoren in SSA und ihre Auswirkungen40 2.5.1Bevölkerungsentwicklung40 2.5.2Migration43 2.5.3Verstädterung47 2.5.4Hunger und Unterernährung51 2.5.5Kriege und Konflikte54 2.5.6Korruption57 2.5.7HIV/Aids61 3.Kausalzusammenhänge für Armut und Unterentwicklung in Subsahara-Afrika63 3.1Das Zentrum-Peripherie-Modell als Vertreter der Dependenztheorie63 3.2Kritik65 3.3Der Globalisierungs-Ansatz68 3.4Kritik70 3.5Kolonialismus als Erklärungsmuster für Unterentwicklung in SSA74 3.5.1Exkurs: Die Zeit des Kolonialismus und der Dekolonisation in SSA – Verlauf und Auswirkungen74 3.5.2Folgen der Kolonisation als Erklärungsgrundlage für die aktuelle Existenz von Armut und Unterentwicklung in SSA81 3.6Kritik84 3.7Das Erscheinungsbild eines ökonomischen und politischen Neo-Imperialismus und diesbezüglich potentieller Akteure als Argumentationsgrundlage zur Erklärung aktueller afrikanischer Verhältnisse86 3.8Fazit92 4.Entwicklung und Entwicklungspolitik94 4.1Was ist Entwicklung? – Grundlagen, Ziele und Methoden von Entwicklung94 4.2Welche Entwicklungsdefizite und -chancen prägen die Staaten des subsaharischen Afrika und welche Handlungsfelder internationaler Entwicklungspolitik ergeben sich daraus?97 4.3Die Erscheinungsbilder bisherigerEntwicklungspolitik und Entwicklungsförderung102 4.3.1Klassische humanitäre Hilfen104 4.3.2Strukturanpassungsmaßnahmen108 4.3.3Entwicklungsförderung durch technische und finanzielle Hilfen in Projekten und Programmen112 4.3.4Friedenssicherung und Schutz der Menschenrechte– Förderung von Basiselementen guter Regierungsführung116 4.3.5Initiativen zur Entschuldung122 4.4Die Akteure der Entwicklungspolitik und ihr Vorgehen in SSA129 4.4.1Nationalstaatliche Entwicklungspolitik für SSA am Beispiel Deutschlands129 4.4.2Zu den Entwicklungsstrategien der EU im Hinblick auf SSA – Ein Beispiel supra-nationaler Entwicklungspolitik134 4.4.3IWF, Weltbankgruppe und WTO – Institutionen internationaler Wirtschaftspolitik und ihr Vorgehen im Rahmen internationaler Entwicklungspolitik139 4.4.4NGOs – Gestalt, Funktionen und Tätigkeitsprofile der nichtstaatlichen Organisationen internationaler Entwicklungsförderung144 5.Aktuelle Trends der internationalen Entwicklungspolitik148 5.1Global Governance - Die Forderung nach globaler Strukturpolitik149 5.2Dezentrale Entwicklungsförderung durch lokale Entwicklungszusammenarbeit154 5.3Migration als Faktor für Entwicklung158 6.Zusammenfassung163 7.Persönliche Maßstäbe einer Entwicklungspolitik für Subsahara-Afrika165 Literatur174 Internetquellen181Textprobe:Textprobe: Kapitel 3, Kausalzusammenhänge für Armut und Unterentwicklung in Subsahara-Afrika: 3.1, Das Zentrum-Peripherie-Modell als Vertreter der Dependenztheorie: Unter der Bezeichnung Dependenztheorie sind Entwicklungstheorien summiert, die die Ursache von Armut und Unterentwicklung in den wenig und am wenigsten entwickelten Ländern, so auch in den weitaus meisten Ländern Subsahara-Afrikas in deren Integration in kapitalistische Ökonomiestrukturen erkennen wollen. Insbesondere unterstellen die Anhänger der Dependenztheorie eine strukturelle Abhängigkeit der Entwicklungsländer von den hoch entwickelten Staaten, vor allem den westlichen und inzwischen mitunter auch den fernöstlichen Industrieländern. Nach dem auf der Dependenztheorie aufbauenden so genannten Zentrum-Peripherie-Modell des Norwegers Johan Galtung lässt sich die Welt nicht nach geografischen, sondern vielmehr machtpolitischen Gesichtspunkten, als ein Kreis vorstellen, deren Mittelpunkt die Industriestaaten bilden, wohingegen die wenig entwickelten Regionen am Rand des Kreises abgebildet werden. Industriestaaten gelten demgemäß als 'Zentren', die Entwicklungsländer als 'Peripherie', je nach ihrem jeweiligen Entwicklungsgrad und ihrer mittelbar oder unmittelbar damit in Zusammenhang stehenden allgemeinen, vor allem wirtschaftlichen Potenz. Die Abhängigkeit einzelner Länder der Peripherie von solchen der Zentren beschreibt GALTUNG folgendermaßen recht deutlich: 'Der Grundgedanke ist, dass das Zentrum in der Zentralnation einen Brückenkopf in der Peripherienation hat, und zwar einen gut gewählten: nämlich das Zentrum in der Peripherienation. Dieser Brückenkopf ist so eingerichtet, dass das Zentrum der Peripherie an das Zentrum im Zentrum gebunden ist: mit dem Band der Interessenharmonie. Beide sind miteinander verknüpft, so dass sie zusammen aufsteigen, absteigen, ja sogar zusammen untergehen.' Die 'Theoría Dependencia' geht demzufolge von einer Ungleichverteilung wirtschaftlicher Entwicklungsmöglichkeiten und einer einseitigen Machtausübung seitens der Industrieländer, beispielsweise mittels divergierender Handelsbedingungen oder eines Machtvorsprungs durch Kapitalhäufung, aus. Diese sind nach GALTUNG nichts anderes als eine Form struktureller Gewalt, welche von den Zentren auf die Peripherien ausgeübt wird und an deren Fortbestehen die Industrieländer durchaus interessiert sind, damit die Ungleichverteilung der machtpolitischen Kräfteverhältnisse und Chancen zur Veränderung der jeweiligen Entwicklungsniveaus ebenfalls anhaltend bestehen bleibt. Die Voraussetzungen eines ungleichberechtigten Handels manifestieren sich nach den Erkenntnissen der meisten Dependenztheoretiker, wie zum Beispiel Frank, Prebisch, Galtung, Senghaas u.a. in den folgenden Aspekten: Die Tauschprodukte des Handelsprozesses sind nicht gleichartig. Während die wenig entwickelten Länder Rohstoffe und den Faktor Arbeit einbringen, sind die Industrienationen mit Fertigprodukten und Kapital beteiligt. Eine Erhöhung des Kapitals in den Entwicklungsländern ist kaum realisierbar, allein schon aufgrund der unterschiedlichen 'Terms of trade'. Diese 'Terms of Trade' spiegeln das Verhältnis zwischen Export- und Importgütern wider. Die primär Rohstoffe exportierenden Länder, wie es viele subsaharische Volkswirtschaften verkörpern, sind gegenüber den hoch entwickelten Staaten als Exporteure von industriellen Erzeugnissen schon insofern benachteiligt, als über einen längeren Zeitraum ein Verfall der Rohstoffpreise zu beobachten ist. Aufgrund dessen können unter anderem die afrikanischen Entwicklungsländer eine gleich bleibende Menge von Industrieprodukten und ausländischen Devisen nur dann importieren, wenn die Menge der exportierten Rohstoffe sukzessive ansteigt. Die Industrienationen profitieren einseitig von diesen Zusammenhängen. Eine weitere Facette der strukturellen Abhängigkeit nach den Maßstäben des dependenztheoretischen Zentrum-Peripherie-Modells ist der real oft zu beobachtende Vorgang des Rücktransfers von Kapital, Zinsen und geldwerten Wettbewerbsvorteilen wie Patenten und Lizenzen aus in Entwicklungsländern erzielten Handelserträgen durch multinational operierende Konzerne mit Unternehmenszentralen in den Industrieländern. Dies wiederum führt zu einer Kapitalarmut und letztlich zur Entstehung und Verfestigung der Schuldenkrise in vielen subsaharischen Staaten und anderen Entwicklungsländern weltweit. Einseitige Nutznießer sind die Industriestaaten, deren ohnehin stärkere Kapitalkraft sich dadurch zusätzlich erhöht. Mit Hilfe des Zentrum-Peripherie-Modells lassen sich zwar diverse Zusammenhänge zwischen Unterentwicklung in SSA und struktureller Abhängigkeit schlüssig belegen, doch lassen die Dependenztheorien dennoch wesentliche Faktoren außer Acht, wie die nachfolgende kritische Beurteilung verdeutlicht. 3.2, Kritik: Die oben genannten Argumente der dependenztheoretischen Modelle, vor allem die des Zentrum-Peripherie-Modells, sind auf den ersten Blick in sich kohärent und durchaus schlüssig. Wirtschaftlich potente Länder, deren Produktionskreisläufe industrialisiert sind, besitzen gegenüber Rohstoff exportierenden Ländern tatsächlich deutliche Wettbewerbsvorteile, da Industrieprodukte mit einem weitaus geringeren Aufwand an Basisgütern, Personal, Arbeit und mithin Kapital erwirtschaftet werden können. Das sind altbekannte, ökonomische Realitäten. Ein daraus resultierendes Ungleichverhältnis der Terms of trade, das sich nach und nach zudem weiter verschlechtert, geht tatsächlich zu Lasten der Exportgewinne der wenig entwickelten Länder und ihrer Wirtschaft im Ganzen. Des Weiteren kann nicht geleugnet werden, dass die Kapitalkraft der Industriestaaten die der Entwicklungsländer um ein Vielfaches übersteigt, mit nachhaltig negativen Folgen für die wenig und am wenigsten entwickelten Staaten. Die Summe der Spekulationsgewinne, die in den Börsenzentren der industrialisierten Welt tagtäglich realisiert werden, erreicht Dimensionen, die die Gesamtheit der Handelsgewinne aller exportorientierten Entwicklungsländer in Subsahara-Afrika eines gesamten Jahres bei weitem in den Schatten stellen. Die enge Anbindung einer zahlenmäßig kleinen Gruppe von Wirtschaftsprofiteuren in subsaharischen Ländern, wie zum Beispiel die Petro-Elite im Öl exportierenden Nigeria, an die großen Industriekonzerne der Welt, ist ein weiterer eindrucksvoller Beleg für die sozio-ökonomische Struktur der Dependenz, einer strukturellen Abhängigkeit auf Gedeih und Verderb. Sie stellt quasi eine Verkörperung des Galtungschen Theorems über die satellitenähnliche Verknüpfung der Zentren von Zentralstaat und Peripherienation, mit der Bezeichnung des 'peripheren Kapitalismus', dar. Dennoch lassen Dependenztheoretiker einige Aspekte der Analyse außer Acht, die es zu berücksichtigen gilt. Vor allem dann nämlich, wenn das Faktum von Unterentwicklung in Subsahara-Afrika einzig und allein mit den Theorien funktioneller und struktureller Abhängigkeit belegt wird, gerät die Dependenztheorie mitsamt ihren Modellen an ihre Grenzen. Das Zentrum-Peripherie-Modell sieht, eingebettet in die Annahmen der Theoría Dependencia, die Ursachen der Unterentwicklung ausschließlich in äußeren Faktoren, wie sie die Machtkonzentration und –ausübung durch die Industrieländer darstellt, denen die Entwicklungsstaaten, durch ihre Anbindung an ein kapitalistisches Weltmarktsystem, ausgeliefert sind. Dieses exogene Erklärungsschema ist zu einseitig, um es verallgemeinernd der Gesamtheit aller afrikanischen LDC´s, als Erklärungsgrundlage der dortigen Entwicklungsdefizite, anzudienen, geschweige denn allen Entwicklungsländern dieser Welt. Ebenso ausschlaggebend für die Ausbildung von Unterentwicklung und deren Verfestigung sind Gründe, die in der inneren Struktur eines Landes, einer Gesellschaft, einer Volkswirtschaft selbst zu finden sind, also endogene Faktoren, wie sie einleitend intensiv beschrieben wurden. Es ist offensichtlich, dass innerafrikanische Kriege und Konflikte ebenso Hemmnisse, wenn nicht gar ausschließende Kriterien für eine Entwicklung in Subsahara-Afrika sind, wie Korruption und eine Kapitalkonzentration auf einige wenige politisch Privilegierte. Eine wirtschaftspolitisch schlecht positionierte, undemokratische und vornehmlich an der Erhaltung eigener Macht und wirtschaftlicher Pfründe interessierte Staatsführung, mitsamt einem maroden Verwaltungssystem und dementsprechend lückenhaften infrastrukturellen Gegebenheiten, ist zu einer Initiierung und Steuerung eines nachhaltigen Entwicklungsprozesses nicht in der Lage oder einfach gar nicht daran interessiert. Zwar herrschen in vielen Ländern des afrikanischen Kontinents Strukturen vor, die mitunter ebenfalls von außen, zum Beispiel durch koloniale Politik, wie an anderer Stelle gezeigt werden wird, bedingt wurden. Ein nicht minder wichtiger Teil dieser Strukturen ist jedoch auf ganz individuelle Begebenheiten im geschichtlichen Entstehungsprozess archaischer Gesellschaftsstrukturen der afrikanischen Länder zurückzuführen. Traditionelle Wirtschaftsformen, wie die in Afrika verbreitete Landwirtschaft oder eine Betonung von Familienbeziehungen gegenüber anderen sozialen Rollen- und Gruppensystemen sind weniger einem Einfluss von außen als vielmehr der Interaktion afrikanischer Menschen und ihrer althergebrachten Wertehaltungen, Denk- und Handlungsstrukturen geschuldet. So ist festzuhalten, dass die Ursachen von Unterentwicklung in SSA weder ausschließlich mit den Analysekriterien der exogenen Dependenztheorie noch mit dem Vergleich zwischen Tradition und Moderne, wie ihn die Anhänger der endogenen Modernisierungstheorien in den Mittelpunkt ihrer Konstruktionen über Unterentwicklung stellen, abschließend und zufriedenstellend zu klären sind. Die Wahrheit liegt, wie so oft, dazwischen, deren Auffindung ELSON implizit mit der Aufforderung anregt: 'We do not have to agree with either the interpretation given by orthodox neo-Classical economies theory or the interpretation given by dependency theory.' Leider verhinderte bis dato der Streit der großen Weltideologien 'Kapitalismus' und 'Sozialismus' eine Annäherung, im Sinne eines realitätsnahen Schulterschlusses der Anhänger beider widerstreitender Theoriekonzepte, sehr zum Schaden der betroffenen Entwicklungsländer.