Contre la mondialisation néolibérale
In: Documents: revue du dialogue franco-allemand, Band 62, Heft 4, S. 7-13
ISSN: 0151-0827
38214 Ergebnisse
Sortierung:
In: Documents: revue du dialogue franco-allemand, Band 62, Heft 4, S. 7-13
ISSN: 0151-0827
World Affairs Online
Blog: Web 2.0 - Medienkompetenz - (politische) Bildung
Zielgruppe und Reichweite von TikTok"Die Bundesregierung hasst dich. Sie will dir das wegnehmen, was du dir erarbeitet hast."Das erzählt der AfD-Politiker Maximilian Krah seiner Community auf TikTok, wo er knapp 37.000 Follower hat, seine Videos aber bis zu einer Million Aufrufe haben. Möglich macht das vor allem der Algorithmus und die For-You-Page (FYP) von TikTok. Die Plattform wird als "schärfste (…) Waffe (der AfD) im Kampf um die Meinungsführerschaft" (Korth/Többen/Wald 2024) beschrieben."Same, but different!?" Facebook, Instagram, Snapchat - und jetzt auch noch TikTok. Soziale Medien nehmen eine immer wichtigere Rolle im Leben vieler Menschen ein und haben daher auch einen starken Einfluss auf den Prozess der Meinungsbildung, was in einer Demokratie einerseits positive Aspekte hat, andererseits aber auch ein Gefährdungspotential.Die Menge an Social Media-Kanälen ist groß und deshalb lohnt es sich, einmal zu hinterfragen, was die Plattform TikTok für viele besonders macht, wie sie funktioniert und weshalb sie gerade von Rechtspopulisten besonders gerne für ihre Zwecke genutzt wird.Medien haben zum einen die Funktion des Informationsvermittlers, zum anderen spielen sie eine zentrale Rolle als "vierten Gewalt", da sie der Politik kritisch auf die Finger schauen und diese damit unter eine Art Dauerinspektion stellen."Information ist die Währung der Demokratie" - das wusste schon Thomas Jefferson, dritter Präsident der USA und Verfasser der Unabhängigkeitserklärung, vor über 200 Jahren. Und noch nie in der Menschheitsgeschichte gab es so viele Informationen wie heute; noch nie war es so leicht, an Informationen zu gelangen. Das Internet und somit auch TikTok schafft Informationszugang für (fast) jeden, jederzeit, an jedem Ort und zu jedem Thema. Kein Mensch kann stets jede einzelne Nachricht auf ihre Richtigkeit prüfen, um die Fakten sauber von den Lügen zu trennen. Das nützen manche aus, um uns unbemerkt zu manipulieren und z.B. ihre politischen Ideen mit unlauteren Mitteln durchzusetzen.TikTok ist eine App, in der kurze, meist mit Musik unterlegte Filme zu sehen sind. Die Nutzer können sich Videos ansehen oder auch selbst kurze Videos auf der Plattform präsentieren. Dabei bietet TikTok zwei Möglichkeiten, die angezeigten Filme auszuwählen. Zum einen können die Nutzer Akteuren folgen und so von deren neuen Videos erfahren. Zum anderen wählt die App selbst Videos aus und bietet sie den Nutzenden in einem dauerhaften Strom auf ihrer "For You"-Page (FYP) an. Wer die App nutzt, bekommt Videos gezeigt und entscheidet selbst, oft in ein paar Sekunden, ob man das Video bis zum Ende sieht oder ob durch Wischen das nächste Video dran ist.Bei Facebook, Instagram und Co. geht es darum, sich mit Freunden in Verbindung zu setzen und zu schauen, was andere veröffentlichen und dann selbst Inhalte zu posten. Bei TikTok ist es eher so, dass man sich von neuen Creators inspirieren lässt und dann selbst dazu animiert wird, Content zu erstellen. Nutzer erstellen so Inhalte, über die ein kontinuierlicher Austausch stattfindet: Zentrales Merkmal der TikTok-App ist demnach die Interaktivität (vgl. Kuhn 2022).Die Nutzer können Videos liken, kommentieren und an andere weiterschicken oder die Inhalte selbst weiterverarbeiten und genau diese Aktionen informieren den Algorithmus über Vorlieben der Nutzenden. Auch nicht-öffentliche Direktnachrichten sind möglich. Man stellt sich die Frage: Soll in diesem Umfeld über Politik gesprochen werden?Es handelt sich also grundsätzlich um eine stark musikorientierte Unterhaltungs-App, in der vornehmlich junge Leute sehr kurze Videos sehen. Mindestens 39% der 16- bis 24-Jährigen in Deutschland nutzen die App laut einer Studie der Konrad-Adenauer-Stiftung vom Mai 2023 (Roose 2023).Zwei von fünf der jungen TikTok-Nutzenden informieren sich auf der Plattform über Politik, wobei politische Information eine nachgeordnete Rolle spielt und meist nach ihrem Unterhaltungswert beurteilt wird. Politische Inhalte müssen sehr kurz sein und schnell auffallen. Am ehesten finden laut der Studie politisch wenig Interessierte Politik auf TikTok ansprechend.Die Idee hinter den technischen Funktionen stammt aus China. Das Unternehmen Byte Dance kaufte das (chinesische) soziale Netzwerk musical.ly auf und übernahm Funktionen und Ideen, z.B. mit Musik unterlegte Videos. Daraus entstand 2018 die App "TikTok". Die Nutzerzahl steigt täglich weltweit, mittlerweile sind es fast zwei Milliarden Nutzer, davon 21 Millionen User in Deutschland, vor allem junge Menschen. Während andere soziale Netzwerke an Reichweite verloren haben, gewann TikTok an Reichweite hinzu.Dabei war TikTok als Plattform zunächst nicht daran interessiert, als politische Plattform wahrgenommen zu werden oder sich zu einer solchen zu entwickeln. Es war eher ein Ort für Tanz-Challenges und sogenannte Lip-Sync-Videos. Doch die Möglichkeiten, die TikTok bietet, um politische Inhalte unterhaltend und spielerisch zu vermitteln, haben dazu geführt. Nutzer schauen sich auch Nachrichten an oder reagieren auf politische Ereignisse. Die Grenzen zwischen News und Entertainment auf TikTok verschwimmen dabei immer mehr.Eine der wichtigsten Funktionen von TikTok ist das bereits erwähnte Alleinstellungsmerkmal: Die For You-Page (FYP). Die User bekommen hier ein Video nach dem anderen gezeigt, indem sie scrollen. Die Auswahl des nächsten Videos erfolgt dann automatisch durch den TikTok-Algorithmus. Das macht es den Creators möglich, mit ihren Videos viral zu gehen, obwohl sie oft im Verhältnis gar nicht so viele Follower haben. Jeder Nutzer erhält so ein Programm, das auf die eigenen Vorlieben zugeschnitten sein soll.Zu den demografischen Daten der TikTok-Nutzung kann man sagen, dass im Vergleich zur Gesamtbevölkerung die Nutzung der App bei den unter 20-Jährigen am stärksten ist. Die Plattform konnte in den vergangenen Jahren allerdings über alle Altersgruppen hinweg an Relevanz und Reichweite zulegen (Studie im Auftrag des SWR zu TikTok: Granow/Scolari 2022).Rechtspopulismus und Rechtsextremismus Bevor man nun gezielt auf die Thematik dieses Beitrags "TikTok und Rechtspopulismus" zu sprechen kommt, sollte man diesen Begriff zunächst einmal definieren: Rechtspopulismus ist eine Ausformung des Populismus im Bereich der politischen Rechten.Populisten im allgemeinen nehmen einen allgemeinen Volkswillen an, der politisch nicht repräsentiert ist. Die Meinung der "schweigenden Mehrheit" hat danach keine oder nur eine geringe Chance auf eine Präsenz im öffentlichen Raum. Dem Volk wird hierbei lediglich eine Rolle als machtloses politisches Objekt zugesprochen, dessen Bedürfnisse und Ziele nicht durch politisches Handeln der systemrelevanten Akteure wie Regierung oder Parteien umgesetzt werden.Populismus geht von einem Gegensatz zwischen dem Volk und einer korrupten Elite bzw. einem korrupten politischen System überhaupt aus. Die Elite verfolge eine eigene, gegen die Interessen des Volkes gerichtete politische Praxis. Komplexe sozioökonomische Problemlagen werden dabei auf einfache Ursachen und entsprechende Lösungen reduziert. Populisten stellen sich also als einzig wahre Vertreter des allgemeinen Volkswillens dar, wobei es dabei oftmals Forderungen nach mehr direkter Demokratie gibt.Populismus operiert außerdem mit Feindbildern und schlägt meist autoritäre Lösungen vor (Mediendienst Integration 2024). Er lebt von Polarisierung, die über TikTok gut funktioniert. Populismus ist sozusagen eine bestimmte Art der Anrufung der Gesellschaft und bezeichnet die Methode, wie sich Politiker, Bewegungen und Parteien zum "umworbenen Volk" in Beziehung setzen (Decker 2000).Der Linkspopulismus hat zum Ziel, möglichst viele Bevölkerungsteile an der gesellschaftlichen Reichtumsproduktion und an der politischen Partizipation teilnehmen zu lassen. Es geht dabei um die Einbeziehung (Inklusion) möglichst Vieler an der gesellschaftlichen Teilhabe.Der Rechtspopulismus hingegen hat zum Ausgangspunkt, welche Teile der Bevölkerung eben nicht zum Volk gehören (Exklusion) und somit keinen Anspruch auf politische, soziale und ökonomische Repräsentanz haben. Ausgeschlossen werden diejenigen, die aufgrund ihrer Herkunft oder ihrer Lebensweise als nicht zugehörig zur Nation betrachtet werden und eine Bedrohung darstellen (z.B. Migranten oder Homosexuelle). Die Bedrohung kann dabei beispielsweise in dem Verfall der inneren Sicherheit, der kulturellen Gefährdung, der ungerechten Steuerpolitik der Regierung oder der Globalisierung bestehen. Mit Hilfe des Ausschlusses wird so ein Gesamtwohl für das Volk konstruiert und konstituiert.Außerdem ist der Rechtspopulismus eher als strategisches Konzept zu sehen und nicht als geschlossene Ideologie. Das bedeutet nicht, dass er keine ideologischen Elemente hätte, er präsentiert sich allerdings nicht als ideologisches Gesamtkonstrukt. Bei vielen politischen Inhalten bleibt der Rechtspopulismus eher diffus, wobei gerade in dieser Diffusität sein Erfolg begründet ist, denn so ermöglicht er eine große Projektionsfläche für viele unterschiedliche Gruppen in der Bevölkerung.Rechtspopulisten treten betont bürgerlich auf. Sie vermeiden eindeutig (extrem rechts) konnotierte Begriffe wie "völkisch" oder "Blutabstammung", um so eine erhöhte Akzeptanz in der Bevölkerung zu erreichen. So wird zum Beispiel Rassismus über die Kultur begründet: Statt dem deutschen Volk, das von Ausländern bedroht sei, würde die deutsche bzw. abendländische Kultur durch Einflüsse einer außenstehenden Kultur (also Migranten) zerstört.Rechtspopulistische Agitation greift Stimmungen "aus dem Volk" auf, lenkt sie und schmiedet sie zusammen, letztlich um eigene Ziele und Machtansprüche zu verwirklichen. Er ist dabei schwer zu greifen und anpassungsfähig; genau dies ist seine Stärke. Er wandelt geschickt seine jeweilige Gestalt und nimmt mal die eine, mal die andere Zielgruppe seiner Abwertung ins Visier (Küpper / Zick / Krause 2015).Allerdings kann man auch sagen, dass der Rechtspopulismus als Schnittstelle zwischen extremer Rechte und Rechtskonservatismus fungiert. Er vertritt autoritäre Politikkonzeptionen, ohne jedoch eine völlige Abschaffung des demokratischen bzw. parlamentarischen Systems zu fordern. Direkte Bezüge zur extremen Rechten werden inhaltlich wie personell vermieden.Die Abgrenzung des Rechtspopulismus von der extremen Rechten ist nicht immer trennscharf, schließlich haben beide viele Elemente gemeinsam (z.B. Xenophobie, völkisches Denken, Autoritarismus). Die extreme Rechte wird oft als radikalisierte, extremere Variante des Rechtspopulismus gesehen. Man könnte den Rechtspopulismus aber auch als "Wolf im Schafspelz" ansehen.Im Unterschied zum Rechtsextremismus hat der Rechtspopulismus nicht den Systemsturz, wohl aber eine Einschränkung politischer Partizipation zum Ziel. Gewalt ist beim Rechtspopulismus kein konstituierendes Merkmal. Im Rechtspopulismus besteht eher der Gedanke einer nationalen Erneuerung bzw. einer verstärkten Orientierung auf die Nation, während für die extreme Rechte eine vollständig neue völkische Gesellschaft geschaffen werden soll (Caballero 2016).Außerdem bemüht sich der Rechtspopulismus um ein bürgerliches, seriöses Auftreten und tritt weniger militant auf. Zumindest in der Öffentlichkeit soll nicht der Eindruck einer intensiven Zusammenarbeit mit der extremen Rechten entstehen. Der Grad der Demokratiegefährdung ist allerdings bei beiden Phänomenen gegeben. Es ist von einer funktionalen Arbeitsteilung und Kooperation zwischen Beiden mit wechselseitiger Radikalisierung auszugehen.Zu den wichtigsten Narrativen des Rechtspopulismus gehört die Inszenierung als Opfer und Außenseiter. Vom Gegensatz zwischen "Wir hier unten" und "Die da oben" ausgehend wird das Volk als Opfer begriffen. Dieses werde durch die Eliten betrogen und hätte im bestehenden Parteiensystem keine Chance, seinen Volkswillen auszuüben, wobei auch Verschwörungstheorien eine wichtige Rolle spielen. Rechtspopulismus sieht Migration als Bedrohung von außen und versucht außerdem, die Angleichungen von Lebensverhältnissen zwischen den Geschlechtern rückgängig zu machen oder zumindest wieder einzuschränken. Die Familie wird als Keimzelle der Nation gesehen.(Rechts)Populisten wissen Fake News (Falschmeldungen), Social Bots und Filterblasen für sich zu nutzen, um (politische) Meinungen zu manipulieren und ihre Reichweite zu vergrößern. Social Bots sind Softwareprogramme, die menschliche Verhaltensweisen simulieren, um Internetnutzer gezielt zu täuschen. Bei Filterblasen bekommt der User nur noch eine eingeschränkte bzw. homogene Auswahl an Meinungen und Nachrichten gezeigt, die zu seinen Interessen passt. Dadurch werden andere Meinungen und Ansichten bzw. die Fähigkeit zum kritischen und konstruktiven Diskurs zurückgedrängt oder gehen ganz verloren (vgl. Breyer / Holderried / Schmid / Mutschler 2019).Posts, Tweets oder Wortmeldungen der Rechtspopulisten sollen gezielt Emotionen ansprechen bzw. hervorrufen und provozieren, die Nutzer wütend machen und quasi "wachrütteln". Ein weiteres großes Problem ist auch, dass oft radikale Positionen mit dem Grundrecht auf freie Meinungsäußerung gerechtfertigt werden. Auch als Lehrer muss man sich dann die Frage stellen, ob und wann das Recht auf freie Meinungsäußerung Grenzen hat.Rechtspopulismus und TikTok Weshalb Rechtspopulismus auf TikTok so erfolgreich ist, liegt untere anderem daran, dass der TikTok-Algorithmus polarisierende Inhalte belohnt. Mehr Kommentare bedeuten mehr Interaktion. Und mehr Interaktion bedeutet mehr Reichweite. Aber nicht nur der Algorithmus und die For You-Page sind entscheidend für den Erfolg, sondern natürlich auch der Aufwand, die Mühe und der Einsatz, den z.B. AfD-Politiker betreiben.Grundsätzlich eröffnen neue Medien auch stets neue Möglichkeiten der politischen Manipulation. Nicht zufällig fiel der Aufstieg des Faschismus im frühen 20. Jahrhundert in eine mediale Zeitenwende; und nicht ohne Grund mussten die Demokratien Regeln für den Umgang mit Medien finden, die die Realitätswahrnehmung der potenziell manipulierbaren Massen prägen. Der klassische Faschismus gehörte jedenfalls zu den eifrigsten Nutzern neuer Technologien wie Massenpresse, Film und Radio. Und auch heute ist es unverkennbar, dass sich Rechtspopulisten digitale Medientechnologien wie die sozialen Medien, Messenger-Dienste und bildbasierte Foren gezielt zunutze macht, um ihre Mythen der nationalen Bedrohung zu verbreiten und sich gegenseitig in ihnen zu bestärken (vgl. Filitz / Marcks 2020).Das Gefährdungspotential des Rechtspopulismus für die Demokratie beurteilt Frank Decker (Decker 2006) gemischt. In Form von Oppositionsparteien gehe mittelfristig keine Gefahr für die demokratischen Systeme aus. Er empfiehlt allerdings, die Bevölkerung über plebiszitäre Elemente stärker in die Politik einzubinden, um dem Rechtspopulismus so dabei zuvorzukommen, Volksabstimmungen im eigenen Interesse voranzutreiben.Als Beispiel erfolgreicher Rechtspopulisten kann man den bereits am Anfang zitierten AfD-Politiker Maximilian Krah nennen, der im Wahlkampf für die Europawahl 2024 in seinen Videos der "grünen Politik" die Schuld daran gab, dass Rentner Flaschen sammeln müssen. Er sagte, dass die Grünen "alles, wofür Deutschland steht, abschaffen" und "unser Volk durch Masseneinwanderung ersetzen" wollen. Oder in anderen Videos heißt es: "Echte Männer sind Patrioten, dann klappt's auch mit der Freundin" oder "ARD und ZDF sind linke Propaganda" oder auch "Echte Männer sind rechts". Für jedes Video erntet der 47-jährige Krah ca.1,4 Millionen Klicks. Auch wenn Internetuser ihm in ihren Kommentaren nicht alle Recht geben, spielen genau diese Krah in die Karten: Seine Videos werden so vom Algorithmus noch häufiger ausgespielt. Rechtspopulistische Influencer produzieren am laufenden Band Inhalte, die auf ein größeres Publikum zugeschnitten sind, wobei sie - durch die wechselnde Inszenierung von realweltlichen und virtuellen Erlebnissen - ihr eigenes Leben für andere erlebbar machen. Der Follow-Button fungiert als Eintrittskarte in eine Erlebniswelt, die nicht mehr trennt zwischen politischer Agitation und emotionaler bzw. auch persönlicher Ansprache. Daher radikalisieren die Influencer nicht nur andere Menschen, sie werden häufig auch selbst weiter radikalisiert in ihrem Bemühen, jenen Durst zu befriedigen, der durch Algorithmen fortwährend angeregt wird. Entsprechend müssen im Kampf um Aufmerksamkeit und Sichtbarkeit immer aufsehenerregendere Inhalte produziert werden, um die Fans bei der Stange zu halten (Fielitz / Marcks 2020).Auf TikTok hat die AfD deutlich mehr Reichweite als die restlichen Parteien. Dahinter steckt eine klare Strategie: Rechtspopulisten richten sich mit ihrer Propaganda in kurzen Clips verstärkt an Kinder und Jugendliche, die Gefahr der Indoktrinierung ist groß. Ein Netzwerk aus Influencern dient außerdem als Multiplikator und trägt AfD-Inhalte in verschiedene Subgruppen - beispielsweise die LGBTQ-Community - hinein, ohne direkt mit dem Parteilabel versehen zu sein.Wer den TikTok-Erfolg der AfD auch mit für sich beansprucht, ist Erik Ahrens. Der rechte Aktivist aus dem Umfeld der "Identitären Bewegung" hat für den AfD-Spitzenkandidaten Maximilian Krah eine Reihe von Videos erstellt und "betrieb" nach eigenen Angaben dessen TikTok-Kanal. Ahrens sagte, dass die Videos von allein ihr Publikum fänden. Das sei so, wie man sich 1923 gefühlt haben müsse, als man das Radio für sich entdeckt habe. So fühle er sich heute, wenn er seine TikTok-Accounts anschaue. Ein bewusst gewählter historischer Vergleich? Für den Aufstieg des Nationalsozialismus war das Radio eine zentrale Technologie. "Unsere Botschaft, wie wir sie formulieren, nicht wie die Medien sie framen, nicht wie sie aus zweiter, dritter Hand gefactchecked, debunked ist", beschrieb Ahrens einen Vorzug sozialer Medien.Mit Blick auf die durchschnittliche Nutzungsdauer von TikTok unter 14-19-Jährigen in Deutschland sagte er: "Man hat 90 Minuten am Tag ein Fenster in deren Gehirn, wo man reinsenden kann" (ZDF Nachrichten 2024). Ziel ist es, Propaganda zu verbreiten und Nachwuchs zu rekrutieren, junge Menschen, die noch keine feste moralische Haltung oder politische Meinung haben. Hier entsteht der Erstkontakt mit entsprechendem Gedankengut, Einstellungen und Haltungen.TikTok-Videos des offiziellen Kanals der AfD-Bundestagsfraktion erreichten zwischen Januar 2022 und Dezember 2023 im Schnitt 430.000 Impressionen pro Video. Die FDP kam auf rund 53.000, die restlichen Parteien lagen noch weiter zurück. Die Zahl der Impressionen gibt an, wie häufig der Inhalt Nutzern angezeigt wurde."Andere Parteien überlassen der AfD nicht nur einzelne Plattformen wie TikTok, sondern auch die politischen Emotionen im Land. Es mangelt den anderen Parteien an einer effektiven Social-Media-Kommunikation auf Basis demokratischer Emotionen." (Statistiken in Metzger u.a. 2024).Von den zehn erfolgreichsten Politikern auf TikTok kommen sechs von der AfD, hat der Politikberater Martin Fuchs in einer weiteren Studie erhoben. Der AfD-Landtagsabgeordnete Ulrich Siegesmund aus dem vom Verfassungsschutz als rechtsextrem eingestuften Landesverband Sachsen-Anhalt steht an der Spitze im deutschen Polit-TikTok, gemessen an der Anzahl seiner Follower: Mehr als 404.000 User folgen seinem Account (Stand Mai 2024, Statistik). Er hat sich zunächst nicht als Parteimitglied zu erkennen gegeben und so seine Fanbase erst einmal inkognito aufgebaut. Erst nach Recherchen des ZDF-Formats "Die Da Oben" wurde öffentlich, dass hinter dem Account @mutzurwahrheit90 ein AfD-Politiker steckt.Gefahren für junge NutzerJugendliche oder sogar schon Kinder sind über Apps wie TikTok gut erreichbar und somit ein begehrtes Objekt der Beeinflussung, denn sie sind "permanently online, permanently connected" und können so stets und überall mit rechtsextremistischen Inhalten in Berührung kommen, ohne danach speziell suchen zu müssen. Deshalb sind sie längst zu einer sehr wichtigen Zielgruppe rechtsextremistischer Propaganda geworden und es besteht eine hohe Gefahr der Radikalisierung, nicht zuletzt deshalb, weil sie ihre politische und soziale Identität gerade erst ausbilden. Man erhält auf komplexe Fragen vermeintlich einfache Antworten und fühlt sich als junger Mensch dann dort zugehörig und verstanden.Die einfachen Strukturen und Regeln können ein Gefühl von Überlegenheit und Macht vermitteln und so den eigenen Eintritt in die Szene erleichtern. TikTok ist hierfür besonders geeignet, weil die App relativ einfach zu verstehen ist, vor allem die Bearbeitungsmöglichkeiten.Ein weiteres Problem stellen die Fake News dar in Meinungs- und Erklärvideos oder Erfahrungsberichten mit extremen politischen Ansichten, Verschwörungstheorien oder Hassbotschaften. Wecken diese Interesse bei den Jugendlichen, werden sie gelikt, geteilt oder kommentiert, worauf neue Videos in der Art gezeigt werden und so das Bild nochmals vertieft werden kann. Junge Nutzer werden oft auf subtile Art angesprochen und die Inhalte verharmlost, indem z.B. rechte TikTokerinnen sich schminken und eher beiläufig dabei ihre rechtsextremistische Weltanschauung erzählen.Die größte Gefahr dabei ist, dass die Akteure oft nicht als rechtsextrem zu erkennen sind. Es handelt sich oft um rechte Influencer, die vermeintlichen Lifestyle-Content machen. Ein Beispiel dafür ist die sogenannte Tradwife-Bewegung, also Frauen, die über traditionelle Rollenbilder sprechen und ihre rechten Ideologien scheinbar nebenher einfließen lassen. Sie sprechen über häusliche Tätigkeiten wie Kochen oder Backen und lassen ihre völkischen und nationalistischen Ideen in ihren Content mit einfließen, der auf den ersten Blick harmlos wirkt. Die Jugendlichen hinterfragen das Ganze dann nicht weiter und halten das für normal, im schlimmsten Fall sympathisieren sie dann mit den Influencerinnen (Weichsel 2024).Über die Hauptthemen Migrationsfeindlichkeit, Leugnung der Klimakrise, Verschwörungsideologie, Queerfeindlichkeit und Antifeminismus lassen sich auch noch weitere rechtspopulistischen Influencer nennen, wie z.B. Eingollan, Ketzerderneuzeit, Malischka, AfD-Chefkoch, Heimatliebe_de, Marie-Thérèse Kaiser oder Freya Rosi. Mit Einrichtungs-Inspirationen, Kochrezepten, Beauty-Tipps oder Landschaftsfotos des deutschen Waldes nutzen sie TikTok, um ihr rechtes Weltbild, persönlich und emotional verpackt, beim Publikum zu verbreiten.Die Gefahr, in ein sogenanntes "rabbit hole" (dt. "Kaninchenbau") zu geraten, also nur noch Inhalte zu bestimmten Themenbereichen angezeigt zu bekommen, ist extrem hoch. Immer skandalösere Videos rufen Reaktionen bei den Nutzern hervor und werden dadurch wiederum noch häufiger vom Algorithmus ausgespielt. Ein kritisches Abwägen von Informationen ist auf TikTok dann kaum möglich (Groß 2023).Ein weiteres Thema ist der Jugendschutz: TikTok gibt für die Nutzung ein Mindestalter von 13 Jahren vor. Die Altersprüfung erfolgt einmalig beim Erstellen des Profils, dazu ist jedoch kein Altersnachweis nötig. Gewisse Funktionen (z.B. Sperren bestimmter Features) können von Kindern durch die Angabe eines falschen Geburtsdatums umgangen werden. Nicht zu unterschätzen ist auch das von Amnesty International konstatierte Suchtpotential der TikTok-App (Suki Law 2023: Amnesty-Berichte).TikToks Umgang mit rechtspopulistischen InhaltenDie Plattform hat zuletzt im April 2024 ihre neuen Community-Richtlinien veröffentlicht. Sie enthalten Regeln dazu, was auf TikTok erlaubt ist, und die Zulässigkeitsvoraussetzungen. Um neu auftretende Risiken und potenzielle Schäden anzugehen, werden die Richtlinien fortlaufend aktualisiert. Die Menschenwürde und faires Handeln haben oberste Priorität.Zur herausfordernden Moderation von Inhalten ist zu sagen, dass es TikTok wichtig ist, "die Plattform sicher, vertrauenswürdig und dynamisch zu halten." Deshalb müsse ein Gleichgewicht zwischen der Möglichkeit zur kreativen Entfaltung und der Prävention von Schaden gefunden werden. Dafür wird eine Kombination aus verschiedenen Möglichkeiten bzw. Maßnahmen genutzt:Inhalte, die gegen die Regeln verstoßen, werden laut TikTok entfernt.Inhalte, die nicht für Minderjährige geeignet sind, werden beschränkt.Es wird für die Unzulässigkeit von Inhalten für den Für-dich-Feed gesorgt, wenn diese nicht den Empfehlungsvoraussetzungen von TikTok entsprechen.Falls nötig, werden Warnhinweise oder andere Kennzeichnungen hinzugefügt.Die Inhalte durchlaufen zunächst ein automatisiertes Prüfungsverfahren. Wenn sie als potenzielle Verstöße identifiziert werden, werden sie laut TikTok automatisch innerhalb von 24 Stunden entfernt oder zur weiteren Überprüfung durch die Moderatoren gekennzeichnet.Mutmaßliche Verstöße können aber auch in der App und auf der Webseite gemeldet werden. Die Person, die den Beitrag gepostet hat, soll laut den Richtlinien über die Löschung des Beitrags informiert werden und erhält ggf. auch eine Sperre.Häufig liegen die Videos allerdings an der Grenze zum juristisch Verfolgbaren, müssen also nicht gelöscht werden. Und selbst wenn ein Kanal gesperrt wird, dann kann derjenige sich einfach einen neuen Account erstellen. Die Person kann dann in kürzester Zeit dieselbe Reichweite erzeugen, weil sie in der Zielgruppe schon bekannt ist. Das ist ein großer Kritikpunkt an TikToks Handhabung problematischer Inhalte.Gegenstrategien und PräventionBei der Medienkompetenzförderung junger Nutzer spielen sowohl die Eltern als auch die Schulen eine große Rolle und haben entsprechende Verantwortung. Wichtig bei der Einrichtung eines TikTok-Accounts ist, dass Eltern und Kinder gemeinsam entsprechende Privatsphäre-Einstellungen aktivieren und besprechen. Indem das Konto des Kindes auf "privat" gestellt wird, können nur bestätigte Kontakte die Beiträge des Kindes sehen und mit diesem interagieren. Über die Funktion "Digital Wellbeing" kann die Bildschirmzeit geregelt werden.Mit den Jugendlichen sollte von Seiten der Eltern und der Bildungseinrichtungen über Inhalte gesprochen werden. Es ist wichtig, einen verantwortungsvollen Umgang zu vermitteln, anstatt nur Verbote auszusprechen. Eltern können in der Schule dafür eintreten, dass es mehr medienpädagogische Angebote zu Chancen und Risiken der digitalen Welt gibt.Auch Angebote von etablierten Medien und Organisationen können helfen, jungen Menschen eine kritische Haltung beizubringen. Und diese ist nötig, denn soziale Netzwerke wie TikTok und Co. sind und bleiben fester Teil der Lebensrealität der meisten Kinder und Jugendlichen heute, weshalb der richtige Umgang mit ihnen so wichtig ist.Aber auch die anderen (demokratischen) Parteien müssen handeln und alternative, aufklärende Inhalte auf der Plattform stärken. TikTok und andere Plattformen müssen zu einem wirksamen Vorgehen gegen rechte Inhalte verpflichtet werden.Rechtliche und ethische AspekteGerade in sozialen Netzwerken verhalten sich Menschen im Schutz der Anonymität häufig so, als sei das Internet ein rechtsfreier Raum. Der Staat muss grundsätzlich die freie Äußerung von Meinungen gestatten. Das ordnet schon der erste Absatz des Artikels 10 der Europäischen Menschenrechtskonvention an. Aber schon der zweite Absatz dieses Artikels mahnt, dass "die Ausübung dieser Freiheiten mit Pflichten und Verantwortung verbunden" ist.Die Freiheit, Meinungen zu äußern, kann daher Schranken unterworfen sein, die "in einer demokratischen Gesellschaft notwendig" sind. Deshalb können sich Lügner und Fake-News-Produzenten nicht auf die Meinungsfreiheit berufen.Die Europäische Menschenrechtskonvention erlaubt Staaten nicht nur, solche Äußerungen zu löschen; sie fordert Menschen sogar ausdrücklich auf, die Meinungsfreiheit verantwortungsvoll und pflichtbewusst auszuüben. Darum kann die Holocaustleugnung ebenso wenig auf den Schutz durch die Meinungsfreiheit hoffen wie die Unterstellung, dass der Nachbar ein Serienkiller sei. Unsere offene Gesellschaft soll sich vor jenen schützen können, die sie unterwandern (Horaczek / Wiese 2018, S. 57, 208).Die begrenzte Erfahrung und das begrenzte Bewusstsein der Bevölkerung in Bezug auf Datenschutz verschärfen die ethischen Bedenken. Die Herausforderung besteht darin, die Meinungsfreiheit mit dem Schutz eines beeinflussbaren Publikums in Einklang zu bringen. Dabei tragen vor allem die Plattformbetreiber eine große Verantwortung. Ein weiteres Problem sind auch die unterschiedlichen Standards von Datenschutz in verschiedenen Ländern und der Flickenteppich aus Altersbeschränkungen und Kindersicherheitsgesetzen auf der ganzen Welt (Rau / Kero / Homann / Dinar / Heldt 2022).Ausblick und FazitDie Welt des Internet und der sozialen Medien und damit die TikTok-Welt mit ihren vollkommen neuen Regeln, Strukturen und Dynamiken fordert unsere demokratische Gesellschaft nicht nur in vielerlei Hinsicht heraus, sondern drängt sie regelrecht in einen Konflikt mit den eigenen Normen. Mit erweiterten Kommunikationsmöglichkeiten erweitern sich auch die Möglichkeiten intoleranter Kräfte, wie wir gesehen haben, und können eine Gefahr für Jugendliche und die Demokratie darstellen.Wie können nun in diesem Spannungsfeld Maßnahmen aussehen, die Rechtspopulismus im Netz entgegenwirken, ohne selbst die Demokratie zu schwächen? Klar scheint, dass regulative Eingriffe nötig sind – auch wenn dies einer Gratwanderung gleicht, bei der Vorteile und Probleme der Maßnahmen genau abzuwägen sind, damit sie der Demokratie nicht am Ende mehr schaden als nutzen.LiteraturBreyer, Katharina / Holderried, Anika / Schmid, Alessa / Mutschler / Bela (2019): "Social Media und der Einfluss auf die politische Meinungsbildung; online unter: https://ereignishorizont-digitalisierung.de/.Caballero, Luis (2016): Rechtspopulismus: Inhalte, Funktionen und Akteure; in: Forschungsbericht Forschungsgruppe Rechtspopulismus, Heinrich-Böll-Stiftung.Decker, Frank (2000): Parteien unter Druck. Der neue Rechtspopulismus in den westlichen Demokratien, Leske + Budrich.Fielitz, Maik / Marcks / Holger (2020): Digitaler Faschismus – Die sozialen Medien als Motor des Rechtsextremismus, Dudenverlag.Granow, Viola Carolina / Scolari, Julia (2022): "TikTok – Nutzung und Potenziale der Kurzvideo-Plattform" in: Media-Perspektiven 4/2022; online unter: https://www.ard-media.de/fileadmin/user_upload/media-perspektiven/pdf/2022/2204_Granow_Scolari.pdf.Groß, Denis (2023): "TikTok als Radikalisierungsmotor"; online unter; https://www.belltower.news/algorithmus-tiktok-als-radikalisierung/.Horaczek, Nina / Wiese, Sebastian (2018): "Informiert euch!", Czernin-Verlag.Koall, Carsten (2023): "Wie Rechtspoplisten au TikTok um junge Leute werben", online unter: https://www.morgenpost.de/politik/article23909605 1 /tiktok-afd/.Korth, Dune / Többen, Jens / Wald, Carlotta (2024): "Jung, schnell, witzig, rechts"; Die Zeit 10/2024.Küpper, Beate / Zick, Andreas / Krause, Daniela (2015): Wie rechtspopulistisch ist Deutschland?; in: Wut, Verachtung, Abwertung – Rechtspopulismus in Deutschland (Friedrich-Ebert-Stiftung).Kuhn, Manuel (2022): "Same but different" – TikTok ; online unter : https://www.towa-digital.com/blog-post/same-but-different-tiktok/.Law, Suki (2023): "TikTok: Jugendliche sind schädlichen Inhalten zu Depressionen und Suizid ausgesetzt; online unter: https://www.amnesty.at/presse/amnesty-berichte-zu-tiktok-tiktoks-geschaeftsmodell-als-gefahr-fuer-kinder-und-jugendliche/.Mediendienst Integration (2024); online unter: https://mediendienst-integration.de/desintegration/rechtspopulismus/.Metzger, Nils /Hillje, Johannes / Ahrens, Erik (2024): "AfD hängt alle anderen Parteien auf TikTok ab", online unter: https://www.zdf.de/nachrichten/politik/deutschland/afd-tiktok-erfolg-strategie-jugendliche-100.html.Rau, Jan / Kero, Sandra / Hofmann, Vincent / Dinar, Christina / Heldt, Amélie Pia (2022): "Rechtsextreme Online-Kommunikation in Krisenzeiten"; Hans-Bredow-Institut.Roose, Jochen (2023): "Lohnt Politik auf TikTok?" in: Monitor Wahl- und Sozialforschung Konrad-Adenauer-Stiftung Mai 2023; online unter https://www.kas.de/de/monitor/detail/-/content/lohnt-politik-auf-tiktok.Spier, Tim (2006): "Populismus und Modernisierung" in: Decker, Frank (Hrsg.): Populismus.Weichsel, Michel: "Wie junge Nutzer bei TikTok und Co. subtil radikalisiert werden sollen" (2024); online unter: https://www.sr.de/home/nachrichten/panorama/safer_internet/.
Blog: Rechtspopulismus
1. Einleitung Das Besondere an Wilhelm Heitmeyer ist, dass er uns empirisch erklärt, was wir vorher nur vermutet oder gesagt bekommen haben. Der Sozialwissenschaftler Wilhelm Heitmeyer, Jahrgang 1945, forscht seit Jahrzehnten zu gruppenbezogener Menschenfeindlichkeit und Rechtsextremismus (Universität Bielefeld, o.J.). Bekannt geworden ist er als Gründungsdirektor des Instituts für interdisziplinäre Konflikt- und Gewaltforschung der Universität Bielefeld 1996, wo er bis zu seiner altersbedingten Emeritierung als Direktor fungierte. Seine Langzeitstudie "Deutsche Zustände" zu rechtsextremen Einstellungen in der Gesellschaft und zu gruppenbezogener Menschenfeindlichkeit machen ihn zu einem der "wichtigsten Rechtsextremismus-Forscher der Bundesrepublik" (Laudenbach, 2023).Im folgenden Beitrag soll es um ausgewählte Arbeiten von Heitmeyer gehen. In seinen jüngeren Veröffentlichungen nimmt er die Mechanismen von Krisen und daraus resultierenden Kontrollverlusten als Treiber von autoritären Versuchungen in den Fokus. In Bezug darauf wird in der vorliegenden Arbeit genauer auf Heitmeyers Beitrag zur Erklärung des Erstarkens des "autoritären Nationalradikalismus" eingegangen. Hierunter fällt die Partei "Alternative für Deutschland (AfD)", die den Kern dieses Politiktypus in Deutschland ausmacht.Heitmeyer stellte um die Jahrtausendwende die These auf, der globalisierte Kapitalismus bringe vielfältige Schieflagen mit sich in Form von Desintegration, Abstiegsängsten und Kontrollverlusten. Damals ahnte er noch nichts von den Krisen, die in den folgenden "entsicherten Jahrzehnten" auf uns zukommen und uns vor erhebliche Herausforderungen stellen würden (Heitmeyer, 2018, S. 89).Die aufgestellte These rund um soziale, politische und ökonomische Strukturentwicklungen wurde mit individuellen und kollektiven Verarbeitungsmustern gekoppelt und 2022 um Krisen der "Post-9/11"-Ära und Kontrollverluste als Krisenfolgen erweitert. Diese wiederum bilden einen Nährboden für autoritäre Versuchungen, für sogenannte rechte Bedrohungsallianzen als politische Folgen autoritärer Entwicklungen.Die Ergebnisse der Langzeitstudie eignen sich, um das Aufkommen und Erstarken einer autoritär nationalradikalen Partei wie der Alternative für Deutschland zu beleuchten. Heitmeyer ist es, der durch seine Sozialstrukturanalyse das vielzitierte Fünftel (19,6%) der Bevölkerung empirisch nachweisen konnte, das der rechtspopulistisch eingestellten Gruppe in der Bevölkerung mit Einstellungen der gruppenbezogenen Menschenfeindlichkeit zugeordnet werden kann (Schaefer, Mansel & Heitmeyer, 2002, S. 125 f.).Wahlpolitisch blieben diese Teile der Bevölkerung lange unbedeutend. Die Wähler:innen waren meist keiner Partei zugehörig, sie "vagabundierten" zwischen den Parteien von Wahl zu Wahl oder wählten gar nicht; viele harrten in einer "wutgetränkten Apathie". Bis zu dem Jahr, als die AfD auf die politische Oberfläche trat und ab 2015 eine radikale Entwicklung nahm; ein "politisches Ortsangebot" für diese Teile der Bevölkerung ist gefunden (Heitmeyer, Freiheit & Sitzer, 2021, S. 113 ff.).Im folgenden wird zuerst eine begriffliche Rahmung des Politiktypus des "autoritären Nationalradikalismus" vorgenommen. Zentrale Schemata der Arbeiten von Wilhelm Heitmeyer sollen beleuchtet werden. Nach diesen Ausführungen wird der Blick auf Krisen und Kontrollverluste und ihre Funktion als Treiber autoritärer Entwicklungen gerichtet. Im letzten Schritt geht es um die Ausprägung des autoritären Nationalradikalismus in Form der AfD.2. Der autoritäre NationalradikalismusUm über Heitmeyers Arbeiten zu schreiben, bedarf es einer Konturierung der von ihm verwendeten Begriffe. Im Folgenden werden die Begriffe des Autoritarismus und der dichotomischen Welt- und Gesellschaftsbilder erklärt, um anschließend den politischen Typus des autoritären Nationalradikalismus von Rechtspopulismus und Rechtsextremismus abzugrenzen und entsprechend zu erläutern. 2.1 AutoritarismusDas Legitimations- und Strukturmuster politischer Macht des Autoritarismus gründet auf einer Beziehung zwischen "Machthaber:innen" in Regierungen, Parteien und anderen Organisationen und "Machtunterworfenen". Unter Machthaber:innen versteht man Amts-, Funktions- und Handlungsträger:innen, während Machtunterworfene Mitglieder, Gefolgsleute oder Anhänger:innen sind (Frankenberg & Heitmeyer, 2022, S. 31). Abhängig ist diese Beziehung in der sozialen Praxis von der Autorität der Machthabenden und der Reaktion der Unterworfenen.Autorität kann aus Bewunderung, begeisterter Unterstützung, Respekt, Ehrfurcht oder gleichmütiger Duldung aus freien Stücken zugeschrieben werden und gründet in Anerkennung. Jedoch wird Autorität dann autoritär, "[...] wenn Willfährigkeit aufgenötigt, Unterwerfung durch Täuschung bewirkt, Gehorsam durch Drohung oder handgreifliche Gewalt erzwungen wird" (Frankenberg & Heitmeyer, 2022, S. 32).Eine dominante Rolle spielen Grunderzählungen in der Entwicklung des Autoritären. Hierzu zählen die Bedrohung von Ordnung, die Auflösung von Identitäten, das Zerstören von Hierarchien und Dominanzen, Fantasien vom Untergang des (deutschen) Volkes sowie der Opferstatus aufgrund des Agierens feindlicher Mächte sowohl aus dem Inneren wie von außen (Frankenberg & Heitmeyer, 2022, S. 35). Diese Kennzeichen der Bedrohung, Auflösung, Zerstörung, des Untergangs etc. haben die Funktion, kollektive Ängste zu schüren. Zugleich sollen so Mobilisierungen in Gang gesetzt und autoritäre Bewegungen und Bestrebungen angetrieben werden (Frankenberg & Heitmeyer, 2022, S. 35).Frankenberg & Heitmeyer beschreiben die politische Rhetorik des Autoritären als Diskurslogik, die sich vor allem in Wahlpropaganda und programmatischen Erklärungen zeigt. Diese konstruieren manichäische Weltbilder, weisen eine dichotomische Struktur auf und manifestieren sich auf drei Ebenen, wie die folgende Abbildung zeigt. Häufig anzutreffen sind die Gegensätze von Volk vs. Elite, geschlossene vs. offene Gesellschaft, wir vs. die oder Ungleichwertigkeit vs. Gleichwertigkeit. Abbildung 1: Dichotomische Welt- und Gesellschaftsbilder (Quelle: eigene Darstellung nach Heitmeyer, 2018, S. 248)2.2 Dichotomische Welt- und GesellschaftsbilderDiese Gegensätze laufen auf "Entweder-Oder"-Konflikte hinaus, die sich immer aufs "Ganze" beziehen, da es um "Alles" geht (Heitmeyer, 2022 b, S. 275). Der Streitgegenstand wird der Verhandlung oder dem Kompromiss entzogen, ein "Mehr-oder-Weniger" ist nicht möglich. Die von autoritären Bewegungen, Organisationen und Regimen geführten Konflikte zielen demnach nicht auf Verständigung oder Verhandlungen ab. Es geht um "[...] Entscheidungen zugunsten einer rigiden Machtdurchsetzung und Machtsicherung mit möglichst umfassender Verhaltenskontrolle in allen Lebensbereichen der Gesellschaft und den Institutionen des politischen Systems" (Frankenberg & Heitmeyer, 2022, S. 37).Gesellschaftliche Entwicklungen sind von immer höherer Komplexität und Ambivalenz geprägt. Ebenso nimmt ihre Unübersichtlichkeit zu und sie verändern sich mit zunehmender Geschwindigkeit. In diesem Zuge stehen politische Akteur:innen vor der Herausforderung, ihre Ambitionen und Machtansprüche für die jeweilige Wähler:innenschaft passend aufzubereiten. Hierzu gehört das Anbieten von Welt- und Gesellschaftsbildern, die Unübersichtlichkeit strukturieren, Entschleunigung versprechen und Komplexität reduzieren. Aus diesen Gründen werden von gemäßigten und extremen rechten Bewegungen und Parteien solche Dichotomien verwendet, die das Ordnen der eigenen Gefühlslagen, Erfahrungen und der eigenen Weltsichten erleichtern. 2.3 Populismus und RechtspopulismusPopulismus sieht Heitmeyer als Stil der Mobilisierung, der übergehen kann in eine "machiavellistische Strategie zur Erlangung oder Verteidigung der Macht" und auf marginalisierte Gruppen abzielt. Hinzu kommt häufig eine populistisch etikettierte Rhetorik und schlichte, aber einflussreiche Weltdeutungen, die dazu dienen, Ressentiments zu aktivieren, um eine imaginäre, kollektive Identität zu beschwören. Dies ganz im Sinne eines authentischen Volkes oder "der Nation" gegen Elit:innen, gegen "das System", Minderheiten oder die "Lügenpresse" (Frankenberg & Heitmeyer, 2022, S. 24).Nach Heitmeyer hat sich eine allgemein akzeptierte Definition von Populismus etabliert, wonach eine Bewegung dann als populistisch charakterisiert werden kann, "[...] wenn ihr die Unterscheidung zwischen dem "wahren" Volk einerseits und den ausbeuterischen, dekadenten, volksverräterischen Eliten andererseits zugrunde liegt" (Heitmeyer, 2018, S. 231). Heitmeyer verwendet mittlerweile meist den Begriff autoritär anstelle von populistisch, im Folgenden wird ebenfalls diese Bezeichnung verwendet.Beim Rechtspopulismus prangert Heitmeyer eine "inflationäre Verwendung" ohne wirkliche Trennschärfe an, der keine einheitliche Definition hat, oftmals jedoch als Form des Autoritarismus mit "dünner Ideologie" und als Vergangenheitsorientierung beschrieben wird (Heitmeyer, 2018, S. 231). Im Allgemeinen bezeichnet er den Rechtspopulismus als eine Ergänzung des populistischen Grundprinzips "Volk gegen Elite" um eine nationalistische Rhetorik (Heitmeyer, 2018, S. 232).Zur These der "dünnen Ideologie" führt Heitmeyer an, dass sich populistische bzw. autoritäre Bestrebungen nicht nur durch ihren Politikstil und einer auf Machterwerb zielenden Strategie auszeichnen, sondern durch ein "Set von Ideen" und einem spezifischen Politik- und Demokratieverständnis, also ein Muster zur Deutung der gesellschaftlichen Wirklichkeit anbieten, das sich nicht nur auf Kritik an Elit:innen und demokratischer Repräsentation beschränkt."Mit der ideologischen Kombination und politischen Handlungsagenda von Antielitismus und Antipluralismus, einer Kultur der unmittelbaren Kommunikation, einem xenophoben Nationalismus und dem Phantasma imaginärer Gemeinschaftlichkeit entfernt sich die Beschreibung des Populismus weit von demokratischen grass roots und nimmt die Deutungsangebote aus dem Lager des Autoritarismus an" (Frankenberg & Heitmeyer, 2022, S. 25). 2.4 Autoritärer NationalradikalismusDer Einheitsbegriff des Rechtspopulismus als "catch-all-term" wird nach Heitmeyer der sperrigen Realität nicht gerecht und hat viele alternative Benennungen verkümmern lassen. Zudem werden mit Nutzen dieses Begriffes durch Wissenschaft, Politik und Medien Vernebelungstaktiken der politischen Akteur:innen und Bewegungen bedient, da nicht die genauen ideologischen Komponenten ihrer jeweiligen Programme benannt werden. Das Abbilden der vielfältigen Realität muss auch begrifflich differenziert abgebildet werden, was notwendig ist, um "Gegengifte" zu entwickeln. Daher müssen die Begriffe "sperrig und unpoliert" sein (Heitmeyer, Freiheit & Sitzer, 2021, S. 105).Der autoritäre Nationalradikalismus bewegt sich zwischen dem Rechtspopulismus und dem gewalttätigen Rechtsextremismus bzw. Neonazismus. Anzumerken ist, dass es sich nicht um eine faschistische Gesinnung handelt, da der italienische Faschismus nicht mit dem Nationalsozialismus identisch ist, in dem der Antisemitismus zentral ist (Heitmeyer, Freiheit & Sitzer, 2021, S. 106). Der gewalttätige Rechtsextremismus schreckt viele Wähler:innen oder Sympathisant:innen ab, da er in öffentlichen Räumen situativen Schrecken verbreiten will.Im Gegensatz dazu weist der Rechtspopulismus eine "flache" Ideologie auf und ist mit der dramatisierten Konfliktlinie Volk vs. Elite auf kurzzeitige Erregungszustände ausgerichtet, die über klassische Massenmedien und die sozialen Medien verbreitet werden sollen, wie Abbildung 2 anschaulich darstellt (Heitmeyer, Freiheit & Sitzer, 2021, S. 106). Der autoritäre Nationalradikalismus hingegen zielt auf die destabilisierende Veränderung gesellschaftlicher und politischer Institutionen. Zudem bedient er sich dichotomischer Welt- und Gesellschaftsbilder, um destabilisierende Veränderungen erreichen zu können. Abbildung 2: Die Erfolgsspur des autoritären Nationalradikalismus (Quelle: eigene Darstellung nach Heitmeyer, 2018, S. 236; Heitmeyer, Freiheit & Sitzer, 2021, S. 107)Drei markante Charakteristika des autoritären Nationalradikalismus werden in der Sozialforschung hervorgehoben. Diese werden im folgenden erklärt und in Kapitel 6 auf die AfD bezogen:Das Autoritäre zeigt sich in der Betonung einer hierarchischen sozialen Ordnung, in Forderungen nach rigider Führung politischer Institutionen und in einem fundamentalistischen Verständnis des Agierens und Opponierens auf politischer Ebene ohne Kompromisse. Politik und Gesellschaft sollen also entsprechend einem Kontrollparadigma organisiert werden. Dichotomische Gesellschaftsbilder sind maßgebend und operieren als Grundlage für kämpferisch initiierte "Entweder-oder-Konflikte" (Heitmeyer, Freiheit & Sitzer, 2021, S. 105).Die Betonung der besonderen Stellung des deutschen Volkes bildet das Nationale des autoritären Nationalradikalismus. Formulierungen und Parolen wie "Deutschland den Deutschen" oder "Deutschland zuerst" unterstreichen eine Überlegenheit gegenüber anderen Völkern, Nationen, ethnischen und religiösen Gruppen und eine neue, "deutsche" Vergangenheitsdeutung wird reklamiert (Heitmeyer, Freiheit & Sitzer, 2021, S. 105 f.).Das Radikale, vom ursprünglichen Wortsinn aus dem Lateinischen (radix = Wurzel) her bestimmt, richtet sich gegen die offene Gesellschaft und die liberale Demokratie, die trotz zahlreicher kritikwürdiger Defekte erst durch jahrzehntelange Entwicklungen und Freiheitskämpfe ermöglicht wurden. Ein rabiater und emotionalisierter Mobilisierungsstil wird dazu angewendet, der sich vor allem durch menschenfeindliche Grenzüberschreitungen auszeichnet (vgl. Heitmeyer, Freiheit & Sitzer, 2021, S. 106).Weiterhin ist auf acht Elemente hinzuweisen, die zum Instrumentarium des organisierten autoritären Nationalradikalismus zählen:""Deutsch-Sein" als Schlüsselkategorie und sicherheitsspendender Identitätsanker;Propagandierung dichotomer Weltbilder;Kontrollparadigma als Versprechen einer autoritären sozialen Ordnung;Emotionalisierung gesellschaftlicher Probleme als Kontrollverluste;eskalativer Mobilisierungsstil zur Wiederherstellung von Kontrolle;Forcierung sozialer Vergleichsprozesse zwecks Radikalisierung;Ausnutzen der "Gewaltmembran", um mit bestimmten Begriffen andernorts Gewalt freizusetzen und Legitimationen zu liefern;Konstruktion einer "Opferrolle", um Sympathisanten an sich zu binden und ein Recht auf "Notwehr" zu etablieren" (Heitmeyer, 2018, S. 213-276; Heitmeyer, Freiheit & Sitzer, 2021, S. 111).Diese Elemente sind deshalb wichtig zu nennen, da sie als Grundlage für drei wichtige Ziele dienen, die autoritär nationalradikale Parteien verfolgen:Das Besetzen vakanter politischer Themenräume, die von etablierten Parteien in der Vergangenheit übersehen wurden,das Verschieben des Sagbaren, wobei Heitmeyer auf die Theorie des "Overton-Windows" hinweist, sowie drittensdie Normalisierung von Positionen und dadurch die Schaffung neuer Normalitätsstandards (vgl. Heitmeyer, Freiheit & Sitzer, 2021, S. 111 f.).Der autoritäre Nationalradikalismus wird ab Kapitel 5 ausführlich in Bezug auf die Partei "Alternative für Deutschland" dargestellt, die den Kern des autoritären Nationalradikalismus in Deutschland bildet. 2.5 Rechtsautoritär und rechtsextremDen Bezug von Autoritärem zu Rechtsautoritärem und Rechtsextremem begründen Frankenberg & Heitmeyer damit, dass "für die Übersetzung des Autoritären in die aktuellen gesellschaftlichen und politischen Zustände und Entwicklung [...] eine Fokussierung auf das rechtsautoritäre und rechtsextreme Spektrum angebracht" ist (2022, S. 40).In Ermangelung einer umfassenden Definition von Rechtsextremismus, die die Dimension der Gewalt beinhaltet, hat Heitmeyer ein eigenes Konzept vorgelegt (Frankenberg & Heitmeyer, 2022, S. 40). Dieses akzentuiert die "Kernverbindung" von Ideologie der Ungleichheit und Gewaltakzeptanz. Die Ideologie der Ungleichheit enthält zwei zentrale Dimensionen, wobei die erste gruppenbezogen auf Ungleichwertigkeit ausgerichtet ist und sich später als "gruppenbezogene Menschenfeindlichkeit" ausgeprägt hat:"Sie zeigt sich in Facetten wie nationalistische bzw. völkische Selbstübersteigerung; rassistische Einordnung; soziobiologische Behauptung von natürlichen Hierarchien; sozialdarwinistische Betonung des Rechts des Stärkeren; totalitäre Normverständnisse im Hinblick auf Abwertung des "Anders-Sein" und die Betonung von kultureller Homogenität gegen Heterogenität" (Frankenberg & Heitmeyer, 2022, S. 40 f.).Diese erste Dimension lässt sich als Vorlage für die späteren Studien "Deutsche Zustände" von Wilhelm Heitmeyer verstehen. Die zweite Dimension der Ideologie der Ungleichheit hat sich als lebenslagenbezogen erwiesen und verweist auf Ausgrenzungsforderungen in Form von kultureller, politischer, rechtlicher, ökonomischer sowie sozialer Ungleichbehandlung von Fremden bzw. "Anderen".Die Gewaltakzeptanz haben Frankenberg & Heitmeyer in vier ansteigend eskalierende "Varianten der Überzeugung unabänderlicher Existenz von Gewalt" kategorisiert, hinter denen die Grundannahme steht, dass Gewalt als "normale Aktionsform zur Regelung von Konflikten" und demnach als legitim angesehen würde (2022, S. 41). Insofern überrascht die Tatsache nicht, dass etwa rationale Diskurse oder demokratische Regelungsformen von sozialen und politischen Konflikten abgelehnt und autoritäre oder gar militaristische Umgangsformen und Stile betont werden (Frankenberg & Heitmeyer, 2022, S. 41).Die politikwissenschaftliche Forschung zum Rechtsextremismus sieht Heitmeyer fixiert auf politische Symbole, historisch-politische Bezugnahmen, Parteiprogramme und Wahlerfolge. Jedoch reicht dieser Fokus nicht aus, um den Aufschwung rechter und rechtsextremer Kräfte in der Gesellschaft zu erklären – weshalb der "[..] Blick auf die Zusammenhänge zwischen ökonomischen, sozialen und politischen Strukturentwicklungen, den individuellen und kollektiven Verarbeitungen und den politischen Handlungskonsequenzen, wenn ein entsprechendes Handlungsangebot vorhanden ist", geweitet werden muss (Frankenberg & Heitmeyer, 2022, S. 41).Dies beschreibt das "Analyseschema" (siehe Abbildung 5) im folgenden Kapitel. Fürderhin sollen nicht einzelne Aspekte oder Ereignisse parzelliert betrachtet werden, sondern mittels des "konzentrischen Eskalationskontinuums" die "rechten Bedrohungsallianzen", die bis in die Mitte der Gesellschaft hineinreichen, sichtbar werden. Hierzu hat Heitmeyer 2018 ein weiteres Untersuchungsmodell entwickelt (siehe Abbildung 3). Die beiden Schemata werden folgend beschrieben. Vorangestellt finden sich die zentralen Ausgangspunkte und Thesen von Wilhelm Heitmeyer, auf denen die Schemata beruhen. 3. Heitmeyers Arbeiten: Zentrale Thesen und SchemataWilhelm Heitmeyers Studien knüpften ursprünglich an die mittlerweile vielzitierte Prognose Ralf Dahrendorfs aus 1997 an, dass wir uns "an der Schwelle zum autoritären Jahrhundert" befinden würden, da vieles auf solch eine Entwicklung hindeuten würde (Dahrendorf, 1997; Heitmeyer, 2022 b, S. 256). Dahrendorf wies vor über 25 Jahren auf das verhängnisvolle Zusammenwirken von Ökonomie, politischer Partizipation und sozialer Integration bzw. Desintegration hin und deutete dieses Spannungsverhältnis als eine "Quadratur des Kreises". Heitmeyer fragt in diesem Zusammenhang, "zu wessen Lasten diese Spannungen gehen würden" und "[...] wie sich unter dem Druck der kapitalistischen Kontrollgewinne die individuellen, kollektiven und institutionellen Kontrollverluste auswirken würden" (Heitmeyer, 2022 b, S. 256).Insbesondere die Langzeitstudie "Deutsche Zustände" zur gruppenbezogenen Menschenfeindlichkeit hat ergiebiges Daten- und Analysematerial erbracht, welches Heitmeyer in seinen Arbeiten verwendet (Heitmeyer, 2018, S. 28). Das Projekt mit seinen jährlichen repräsentativen Bevölkerungsbefragungen dient dazu, Langzeitverläufe sichtbar zu machen und eignet sich, um das Aufkommen und Erstarken der autoritär nationalradikalen AfD zu beleuchten.Heitmeyer konnte mit Hilfe der Resultate empirisch Zusammenhänge in zwei Richtungen nachweisen: "für die Unterstützung autoritärer Bewegungen sowie Parteien und gegen verschiedene Gruppen in der Gesellschaft (Frankenberg & Heitmeyer, 2022, S. 55). Je deutlicher man autoritäre Überzeugungen vertritt, desto eher stimme man fremdenfeindlichen und rassistischen Äußerungen zu, abgeschwächt auch Äußerungen zu Antisemitismus, Heterophobie und klassischem Sexismus sowie der These von Etabliertenvorrechten, also sozialer Dominanz in einem Hierarchiengefüge.So kam Heitmeyer auf das oben erwähnte und seither vielzitierte Fünftel der Bevölkerung (19,6%), das Einstellungen zu gruppenbezogener Menschenfeindlichkeit hegt und als "Machtmaterial" für autoritäre Bewegungen, Parteien und Regime zur Etablierung und Sicherung von autoritären gesellschaftlichen und politischen Machtstrukturen dienen kann (Schaefer, Mansel & Heitmeyer, 2002, S. 125 f.; Frankenberg & Heitmeyer, 2022, S. 56). 2001 formulierte Wilhelm Heitmeyer seinen Ausgangspunkt wie folgt:"Die zu verfolgende These geht davon aus, daß [sic] sich ein autoritärer Kapitalismus herausbildet, der vielfältige Kontrollverluste erzeugt, die auch zu Demokratieentleerungen beitragen, so daß neue autoritäre Versuchungen durch staatliche Kontroll- und Repressionspolitik wie auch rabiater Rechtspopulismus befördert werden" (Heitmeyer, 2001, S. 500).Der sogenannte "autoritäre Kapitalismus" entstand durch eine neoliberale Politik rund um die Jahrtausendwende. Weitreichende ökonomische Kontrollgewinne in einerseits gesellschaftlichen Lebensbereichen über soziale Standards von Verdiensten und soziale Absicherung sowie andererseits über Standortentscheidungen waren zu verzeichnen, ergo übergriffig eindringende Prozesse, sodass nun mehr ökonomische Dominanz als Quelle für Kontrolllosigkeit sowie für Anomie gilt.Diese weitreichenden Kontrollgewinne des Kapitals wurden begleitet von ebenso weitreichenden politischen Kontrollverlusten nationalstaatlicher Politik, verbunden mit sozialen Desintegrationsprozessen von Teilen der Bevölkerung. Diese Auswirkungen blieben auf politischer Ebene allerdings solange wahlpolitisch folgenlos, bis ein entsprechendes politisches Angebot auf den Plan trat. In Deutschland erschien dieses Angebot in Form des autoritären Nationalradikalismus der AfD, besonders anschaulich im Jahr 2015 durch die politisch-kulturelle Krise der Flüchtlingsbewegungen und die Spaltung der AfD auf Bundesebene (Heitmeyer, 2022 a, S. 301; Heitmeyer, 2022 b, S. 261).2018 schreibt Heitmeyer, dass sich dies tatsächlich so ereignet hat und sich empirisch nachweisen lässt: "Ein zunehmend autoritärer Kapitalismus verstärkt soziale Desintegrationsprozesse in westlichen Gesellschaften, erzeugt zerstörerischen Druck auf liberale Demokratien und befördert autoritäre Bewegungen, Parteien und Regime" (Heitmeyer, 2018, S. 23). Nachfolgend werden das Modell des konzentrischen Eskalationskontinuums und das Untersuchungsschema beschrieben. 3.1 Konzentrisches EskalationskontinuumMit dem Schema des konzentrischen Eskalationskontinuums soll dargestellt werden, wie autoritäre Eliten auf Legitimation und Partizipation – unter anderem durch die Bürger:innen - angewiesen sind, zumindest so lange, wie sie ein "formales Demokratiesystem westlicher Prägung" aufrecht erhalten wollen oder auch durch soziale, politische und ökonomische Gegenkräfte dazu genötigt werden.Heitmeyer rückt somit die "[...] Entstehung von Eskalationsdynamiken ins Blickfeld, mit denen die zustimmende oder schweigend duldende Beteiligung von erheblichen Teilen der Bevölkerung zu erfassen ist" (Frankenberg & Heitmeyer, 2022, S. 43). Das konzentrische Eskalationskontinuum dient dazu, die Wucht rechter Bedrohungsallianzen herauszukristallisieren und soll helfen, Gewalt, Gewaltstadien und deren Ursachen besser verstehen zu können.Betrachtet werden Einstellungen und Verhaltensweisen einzelner unverbunden nebeneinander lebender Personen sowie formelle Mitgliedschaften in politischen Parteien oder Vereinigungen. Dem Eskalationsmodell zugrunde liegt das Milieukonzept. Heute sind nicht mehr zwingend physische Kontakte notwendig, da Milieubildung auch im virtuellen Raum stattfindet. Heitmeyer weist darauf hin, dass in diesem Zusammenhang durch ein entstehendes "Wir"-Gefühl gleichzeitig eine abwertende, diskriminierende und ausgrenzende "Die"-Kategorie mitgeliefert wird.Das Schema stellt im "Zwiebelmodell" fünf Stufen dar, die als Einstellungsmuster der gruppenbezogenen Menschenfeindlichkeit in Teilen der Bevölkerung zu verstehen sind, die wiederum autoritären Versuchungen nachgeben und somit den Autoritären Nationalradikalismus der AfD in Deutschland, aber auch Fidesz in Ungarn oder der FPÖ in Österreich begünstigen (Heitmeyer, 2022, S. 43). Die jeweiligen eskalierenden Akteur:innengruppen in den Schalen des Modells werden kleiner, während die Gewaltorientierung im Inneren des Modells zunimmt.Als Kernmechanismus und verbindendes Element der Schalen zueinander werden die verschiedenen Legitimationsbrücken genannt. Fürderhin darf nicht unerwähnt bleiben, dass die Ideologie der Ungleichwertigkeit der kleinste gemeinsame Nenner aller Schichten des Eskalationskontinuums ist. Sie dient als Legitimationsfundus für personen- wie gruppenbezogene Diskriminierung, Ausgrenzung und Gewalt (Heitmeyer, Freiheit & Sitzer, 2021, S. 20). Abbildung 3: Konzentrisches Eskalationskontinuum (Quelle: eigene
Darstellung nach Heitmeyer, 2018, S. 356; Heitmeyer, Freiheit &
Sitzer, 2021, S. 59) Nachfolgend werden die Schichten im Spektrum von rechtem Denken bis zum terroristischen Handeln kurz erläutert: Die äußerste Schicht repräsentiert die gesamte Bevölkerung, in der in unterschiedlichem Ausmaß Einstellungen vertreten werden, je nach gesellschaftlicher Debatte, die der gruppenbezogenen Menschenfeindlichkeit zugeordnet werden können. Diese Einstellungen in der Bevölkerung stellen individuelle Positionierungen dar, die parteipolitisch gebunden, "freischwebend" sein oder auch zwischen Parteien "vagabundieren" können. Diejenigen Teile der Bevölkerung mit menschenfeindlichen Einstellungen sympathisieren zwar maßgeblich mit der AfD, sind an sie jedoch nicht zwangsläufig gebunden und können auch andere Parteien präferieren und wählen (Heitmeyer, Freiheit & Sitzer, 2021, S. 60).Das Milieu des autoritären Nationalradikalismus, insbesondere der AfD, das an diese erste Schicht anschließt, präsentiert und propagiert entsprechende Ausgrenzungsstrategien und konstruierte Feindbilder. Die AfD "saugt" die jeweiligen individuellen Einstellungen in der Bevölkerung auf und verdichtet sie zu kollektiven Aussagen, die sie dann wiederum auf die politische Agenda setzt. Sie konzentriert also potenzielle menschenfeindliche Einstellungen in der Bevölkerung, die bereits im Vorfeld durch andere Bewegungen, wie beispielsweise Pegida, verdichtet wurden und bildet für sie den parlamentarischen Arm.Ein weiteres Kennzeichen dieses Milieus ist eine gewisse ideologische Heterogenität, da die Einstellungen von "[...] rechtskonservativen bis hin zu "Übergangspositionen" in das systemfeindliche Milieu des völkischen "Flügels" der AfD" reichen" (Heitmeyer, Freiheit & Sitzer, 2021, S. 62). Zudem bemüht sich die AfD um den Anstrich einer "bürgerlichen" Partei, um anschlussfähig an die Mitte der Gesellschaft zu sein.Im systemfeindlichen Milieu ist man parteipolitisch eindeutig im rechtsextremen Milieu verortet, Bezug genommen wird etwa auf die NPD, was auch für die extremistisch-modernistische Identitäre Bewegung gilt. Gemeint sind also rechtsextremistische Bewegungen und neonazistische Kameradschaften, die sich an einschlägigen historischen Vorbildern orientieren. Die gemeinsame Grundlage stellt die Ideologie der Ungleichwertigkeit dar. In diesem Milieu sind bereits Gewaltattitüden verbreitet, Gewalt wird akzeptiert und zur Ausübung ist man situativ bereit (Heitmeyer, Freiheit & Sitzer, 2021, S. 62). Jedoch lässt man sich in Form von Parteien durchaus darauf ein, vorübergehend am demokratischen System teilzunehmen.An staatliche Vorgaben passt man sich nur aus strategischen Überlegungen an, indem beispielsweise Demonstrationen angemeldet werden; zugleich ist "Systemüberwindung" das zentrale Ziel: "In der "Parteifantasie" arbeitet man auf den "Volksaufstand" hin, mit dem die Vergangenheit wiederhergestellt werden soll. Es ist ein offener und weitgehend öffentlicher Kampf gegen das verhasste System" (Heitmeyer, Freiheit & Sitzer, 2021, S. 64).Diese wenn auch nur vorübergehende Teilnahme am demokratischen System gilt als wesentlicher Unterschied zur vorletzten Schicht, dem klandestinen terroristischen Planungs- und Unterstützungsmilieu. Es schließt jegliche Teilnahme am demokratischen System aus und fasst jede partielle und temporäre Teilnahme als Verrat an der Bewegung auf (Heitmeyer, Freiheit & Sitzer, 2021, S. 64). Dieses Milieu gilt als noch radikaler und agiert im Geheimen, oft mit eindeutiger Gewaltoption oder Gewalttätigkeit. Ziel ist der "Umsturz", wenn nötig mit Waffengewalt, weshalb dieser verdeckte Kampf auch aus dem Untergrund unterstützt wird – hier weist Heitmeyer auf die hohe Zahl untergetauchter rechtsextremistischer Straftäter:innen als aufschlussreiches Indiz hin (Heitmeyer, Freiheit & Sitzer, 2021, S. 64).Den Kern der "Zwiebel" stellen terroristische Zellen oder Einzeltäter:innen dar. Den Unterschied zur vorherigen Eskalationsstufe stellt das alleinige Merkmal des "Grad(s) der Klandestinität und Vernichtungsrealisierung" dar: "Die einen führen zum Schein noch ein "normales" Alltagsleben, die anderen eine Existenz im Untergrund. Sie beschaffen Waffen, erstellen Todeslisten und bereiten sich auf den Tag X vor. Die einen planen die Vernichtungstaten, die anderen setzen sie um" (Heitmeyer, Freiheit & Sitzer, 2021, S. 64).Die fünf Schichten des konzentrischen Eskalationskontinuums werden durch sogenannte "Legitimationsbrücken" zusammengehalten. Diese können dann entstehen, wenn es für gesellschaftliche Entwicklungen keine Lösungen zu geben scheint. Die Entwicklungen werden als Bedrohungen empfunden, für die die "Anderen", beispielsweise Geflüchtete oder Menschen mit anderen Lebensstilen, oder "die da oben", ergo der Staat als Ganzes, demokratische Institutionen oder demokratisch gewählte Entscheidungsträger:innen, verantwortlich gemacht werden. Diese kollektiven Schuldzuweisungen aus Teilen der Bevölkerung können sich dann in gruppenbezogene Menschenfeindlichkeit übersetzen.Zum anderen können sich die Legitimationen aus Verschwörungsideologien, aus Anleihen bei gesellschaftlichen Ordnungen oder historischen ideologischen Konzepten, wie dem Regime des Nationalsozialismus, dessen Ordnung wiederhergestellt werden soll, ergeben. Diese beispielhaft aufgezeigten Legitimationsquellen werden dann im Eskalationskontinuum von den äußeren Schichten weiter nach innen "transportiert (Heitmeyer, Freiheit & Sitzer, 2021, S. 65). Heitmeyer hat vier solcher Legitimationsbrücken jeweils zwischen den Stufen bestimmt, wie die folgende Abbildung zeigt:Abbildung 4: Legitimationsbrücken im Eskalationskontinuum (Quelle: eigene Darstellung nach Heitmeyer, Freiheit & Sitzer, 2021, S. 67)1. Das Einstellungsmuster gruppenbezogener Menschenfeindlichkeit in Teilen der Bevölkerung stellt den Ausgangspunkt dar. Es dient dem autoritären Nationalradikalismus der AfD als Legitimation, entsprechende Feindbilder aufzubauen und zuzuspitzen. Wichtig anzumerken ist, dass auch Menschen mit diesen Einstellungen, die nicht die AfD wählen oder mit ihr sympathisieren, zu diesem Legitimationsfundus beitragen. Sie bestimmen das gesellschaftliche Klima mit, aus dem die AfD ihre politische Legitimation "saugt" (Heitmeyer, Freiheit & Sitzer, 2021, S. 66 f.).2. Führende Vertreter:innen des autoritären Nationalradikalismus der AfD machen von einer "Gewaltmembran" Gebrauch, was bedeutet, dass eine aggressive Rhetorik die trennende Membran zur nächsten Stufe in gewissen Fällen durchdringen kann und den Weg freilegt für autoritär nationalradikale Bewegungen mit weiteren Aufheizungen – psychische Gewaltandrohungen können von gewalttätigen Akteur:innen in physische Gewalt umgesetzt werden, "[...] ohne dass diese Gewalt den sprachlichen Urhebern und Legitimationsbeschaffern direkt zuzurechnen wäre" (Heitmeyer, 2018, S. 271). Durch diese Gewaltmembran werden dem systemfeindlichen Milieu Motive für entsprechende Gewalt geliefert. Zur aggressiven Rhetorik zählen beispielsweise Erzählungen von einem "Bevölkerungsaustausch", Parolen wie "Corona-Diktatur" oder das Beschwören von Untergangsszenarien von Führungskräften der AfD. Auch das Propagieren einer Reinterpretation der deutschen Geschichte insbesondere seitens des völkischen "Flügels" der AfD durch Begriffe wie "Umvolkung" bringt die Gewaltmembran zum Schwingen. Diese Rhetoriken und Untergangsfantasien erzeugen Handlungsdruck (Heitmeyer, Freiheit & Sitzer, 2021, S. 67 f.).3. Das systemfeindliche Milieu ist geprägt von verschiedenen Akteur:innen, die sich auf der Schwelle zur Legitimation offener Gewalt gegen Vertreter:innen des Staates und gegen Minderheiten bewegen. Heitmeyer führt als Beispiel die Partei "Die Rechte" an, die den klandestinen terroristischen Planungsmilieus Motivation und Legitimation liefert (Heitmeyer, Freiheit & Sitzer, 2021, S. 68).4. Im letzten Schritt stehen die klandestinen Planungsmilieus. Diese errichten im Gegensatz zu den vorherigen Eskalationsstufen keine zusätzlichen ideologischen Legitimationsbrücken. Ihr Ziel sind die "Brücken zur Tat" und das Abschirmen terroristischer Akteur:innen gegen staatliche Verfolgung (Heitmeyer, Freiheit & Sitzer, 2021, S. 68).Hieraus resultiert die Schlussfolgerung, dass über verschiedene, eskalierende Stufen jene Teile der Bevölkerung, die explizite autoritäre Einstellungen oder Einstellungen der gruppenbezogenen Menschenfeindlichkeit aufweisen, an politischer Gewalt beteiligt sind; nicht zwangsläufig als Täter:innen im juristischen Sinne, aber als Gehilf:innen und Legitimationshelfer:innen, wie das konzentrische Eskalationskontinuum anschaulich darstellt (Frankenberg & Heitmeyer, 2022, S. 43). Das Modell des konzentrischen Eskalationskontinuums wird in Kapitel 6 in Bezug auf das Auftreten der AfD näher erläutert und an Beispielen untersucht.3.2 Analyseschema2018 hat Heitmeyer ein weiteres Analyseschema eingeführt. Ausgangspunkt für dieses soziologische Analysekonzept ist die Thematik, dass allein das Vorhandensein von autoritären Versuchungen in Teilen der Bevölkerung nicht ausreicht, um die entsprechenden Inhalte dann auch umgesetzt zu sehen. Hierzu ist es notwendig, dass diese Einstellungen in der Bevölkerung zusammen mit autoritären politischen Angeboten wirken. Insofern, formuliert Heitmeyer, "[...] wäre es zu kurz gegriffen, die Entstehung von autoritären Versuchungen nur aus Fehlentwicklungen des politischen Systems erklären zu wollen" (2018, S. 21).Die erste Ebene des Analyseschemas bildet Interdependenzen zwischen dem ökonomischen, sozialen und politischen Bereich ab. Diese sind als strukturelle Entwicklungen gekennzeichnet. Die unter "individuelle Verarbeitung" genannten Punkte sind von großer Bedeutung. Zentral ist hier, wie diese Erfahrungen bzw. Wahrnehmungen der ersten Ebene seitens der Bevölkerung subjektiv und individuell verarbeitet werden. Die individuellen Verarbeitungsmechanismen werden nach der Konzeption von Heitmeyer durch die "gesellschaftliche Integrations- und Desintegrationsdynamik" geprägt. Hierfür sind die folgenden Faktoren und Fragen von besonderer Bedeutung:"Sicherheit oder Unsicherheit der materiellen Reproduktion, der Anerkennung, des Statusaufstiegs, der Statussicherung bzw. des Statusabstieges, und ein Gefühl der Kontrolle über die eigene Biografie.Wird die eigene Stimme bzw. die Stimme der sozialen, ethnischen oder religiösen Gruppe, der Personen sich zugehörig fühlen, von den Regierenden wahrgenommen oder vielmehr ignoriert?Verlässlichkeit oder Erosion sozialer Beziehungen und Anerkennung der eigenen Identität bzw. der Identität der eigenen Gruppe durch Dritte, um emotionale Zugehörigkeit zu sichern" (Heitmeyer, 2018, S. 22).Zentral in Heitmeyers Analyse sind der Kontrollverluste und die Defizite in der Wahrnehmung sowie der subjektive Begriff der Anerkennung. Diese Verarbeitungen haben Auswirkungen auf die Integrations- und Desintegrationsprozesse bzw. auf Anerkennungsverhältnisse, aus welchen im letzten Schritt politische Konsequenzen, also politische Handlungsfolgen, resultieren.Essenziell ist an dieser Stelle die Tatsache, dass die individuellen Verarbeitungen auch als Grund dafür angeführt werden können, weshalb nicht alle Teile der Bevölkerung, die unter einer Art von Desintegrationsdynamik leiden, zwangsläufig für autoritäre Versuchungen anfällig sind und sich wahlpolitisch entsprechend verhalten. Von einer Krisenfolge betroffen zu sein, hat also nicht zwangsläufig das Annehmen eines autoritär nationalradikalen Angebots zur Folge (Heitmeyer, 2022 b, S. 269).Auch die autoritären Bewegungen, Parteien und Regime weisen autoritäre Versuchungen auf, die zu entsprechenden Einstellungen und Entscheidungen führen, die das gesellschaftliche Zusammenleben beeinflussen, da sie Bezug auf die ökonomischen, sozialen und politischen Systeme nehmen (Heitmeyer, 2018, S. 21 f.). Dieses Schema wurde von Heitmeyer mit diversen theoretischen Ansätzen angelegt und ausgefüllt mit empirischen Daten (Heitmeyer, 2022 b, S. 252).Das Theoriegeflecht aus mehreren sich ergänzenden disziplinären Zugängen besteht aus der Theorie Sozialer Desintegration von Anhut & Heitmeyer, der Konflikttheorie von Hirschman, der Theorie kapitalistischer Landnahme von Dörre, der Anomietheorie von Thome und dem kontrolltheoretischen Ansatz aus der Sozialpsychologie von Frey & Jonas. Die für das Analysekonzept wichtigsten Charakteristiken dieser Theorien werden in Heitmeyer 2018 und 2022 b ausführlich erklärt. Die genauere Betrachtung dieser Theorien würde den Rahmen der vorliegenden Arbeit sprengen, weshalb darauf an dieser Stelle verzichtet wird.Abbildung 5: Analyseschema (Quelle: eigene Darstellung nach Heitmeyer, 2018, S. 21)Erfolge rechter Parteien und Bewegungen wären demnach nicht möglich gewesen ohne bestimmte Entwicklungen im sozialen System der Gesellschaft, im politischen System der Demokratie und im ökonomischen System des globalisierten Kapitalismus (Heitmeyer, 2018, S. 16). Durch das vorliegende Analyseschema soll verdeutlicht werden, wie autoritärer Kapitalismus in Zusammenwirken mit sozialen Desintegrationsprozessen und politischer Demokratieentleerung als "Ursachenmuster für die Realisierung autoritärer Sehnsüchte" fungiert (Heitmeyer, 2018, S. 16 f.).Demokratieentleerung meint, dass ein Teil der Bevölkerung das Gefühl hat, nicht mehr wahrgenommen zu werden und gleichzeitig das Vertrauen schwindet, dass die herrschende Politik bzw. die Regierung willens und fähig ist, soziale Ungleichheit zu bekämpfen. Dies mündet bei Teilen der Bevölkerung in ein Gefühl, Bürger:innen zweiter Klasse zu sein (Heitmeyer, Freiheit & Sitzer, 2021, S. 48). Heitmeyer hat 2022 das Analyseschema ergänzt; die Komponenten Krisen und Kontrollverluste wurden entsprechend ausdifferenziert (siehe Abbildung 6). Im Folgenden werden Krisen und Kontrollverluste als besondere Treiber autoritärer Entwicklungen und die dahingehende Erweiterung des Analyseschemas beleuchtet.4. Krisen und Kontrollverluste als Treiber autoritärer EntwicklungenEine Krise wird von Frankenberg & Heitmeyer durch drei Charakteristika definiert. Die bisherigen sozialen, ökonomischen und politischen Routinen zur Bewältigung von Ereignissen greifen nicht mehr und die bis dato vorhandenen Wissensbestände zur Problemlösung reichen nicht aus. Zusätzlich sind die Zustände, wie sie vor diesen Ereignissen herrschten, nicht wieder herstellbar. Darüber hinaus konkurrieren in solch krisenhaften Situationen verschiedene Möglichkeiten zu ihrer Bewältigung, was wiederum anomische Verhaltensunsicherheiten erzeugt (Frankenberg & Heitmeyer, 2022, S. 45).Die Kombination der drei Kriterien legt nahe, dass "Situationen mit notstandsähnlichem Zuschnitt" mit der Erfahrung von Kontrollverlusten verflochten sind (Frankenberg & Heitmeyer, 2022, S. 45; Heitmeyer, 2023, S. 253). Insofern verwundert die Tatsache nicht, wenn die These vertreten wird, dass krisenhaft zugespitzte Entwicklungen und Ereignisse nicht allein, jedoch in besonderem Maße als Treiber und Pfade des Autoritären sowie rechtsextremer Aktivitäten zählen (Heitmeyer, 2022 b, S. 251).Von autoritären Regimen wird in Krisen oder notstandsähnlichen Situationen erwartet, dass sie Sicherheit und die Wiedergewinnung der Kontrolle gewährleisten können (2022, S. 44 f.). Zudem werden die Ereignisse von der Bevölkerung individuell je nach Betroffenheit und auch Resilienz unterschiedlich bearbeitet. Diese Verarbeitung wiederum wird unterschiedlich intensiv und nachhaltig in individuelle Befürchtungen sowie kollektive Ängste übertragen. Somit dienen sie dazu, Vorstellungen von Entsicherungen und Kontrollverlusten zu erzeugen, die sich identifizieren lassen als Treiber autoritärer Bestrebungen (Frankenberg & Heitmeyer, 2022, S. 45 f.).Eine weitere wichtige Unterscheidung in der Konzeption von Krise ist die Unterteilung in zwei Typen von Krise. Der erste Typus, sektorale Krisen, erfasst unterschiedliche Lebensbereiche und Funktionssysteme einer Gesellschaft schlagartig und mit massiven "Funktionsstörungen". Dazu gehören ein zeitlich entzerrtes Auftreten sowie die Lokalisierung in unterschiedlichen Teilbereichen der Gesellschaft. Zudem gab es verschiedene Instrumente, um diese Funktionsstörungen einzudämmen und gravierendere Auswirkungen zu verhindern.In der "Post-9/11"-Ära, in den sogenannten "entsicherten Jahrzehnten" seit Beginn des 21. Jahrhunderts, werden nach Heitmeyer vor allem drei – mit 9/11 als religiös-politische Krise vier - verschärfte Gefahrenlagen als sektorale Krisen identifiziert. Dazu zählt ab 2005 die Einführung von Hartz IV als eine sektorale, soziale Krise für gewisse Teile der Bevölkerung, die mit Statusängsten oder auch mit sozialem Abstieg konfrontiert waren. Weiter ist ab 2008/2009 die weltweite Banken- und Finanzkrise zu nennen, die die "systemrelevante" Finanzökonomie ins Wanken brachte mit Ausstrahlungseffekten auf das Gesamtsystem als ökonomisch-politische Krise. Fürderhin wird die sogenannte "Flüchtlingskrise" 2015/2016 als sozial-kulturelle bzw. kulturell-politische Krise angesehen, die das politisch-administrative System prägte (Frankenberg & Heitmeyer, 2022, S. 46; Heitmeyer, 2022 b, S. 255).Der zweite Typus bezieht sich auf systemische Krisen. Sie erfassen das gesamte Gesellschaftssystem in sich zuspitzenden Gefahrenlagen. Als langsame bzw. schleichende systemische Krise kann die Klimakrise angesehen werden, als "schnelle" systemische Krise die COVID-19 Pandemie. Hier werden die Potenziale für autoritäre Entwicklungen besonders offen sichtbar, da zahlreiche "Einhegungsinstrumente" nicht greifen, wodurch politische, individuell-biografische und kollektive Kontrollverluste auftreten, die politisch instrumentalisiert und mit Verschwörungstheorien und Wahnvorstellungen verbunden werden können (Frankenberg & Heitmeyer, 2022, S. 46 f.). Krisen lösen je nach Gefahrenlage individuelle und kollektive Befürchtungen aus, die sich in der Vorstellung einer "kollektiven Hilflosigkeit" verdichten können.In diesem Zusammenhang stellt sich die Frage nach Krisenängsten, ob und wie sie zu Treibern autoritärer Entwicklungen werden können. Ängste, unabhängig davon, ob eingebildet oder realistisch, ob auf Wissen oder Unwissen beruhend, lassen sich schwerlich von einer politischen Klasse, von Unternehmen oder dem freien Markt abfangen. Je mehr sich Gefahrenlagen häufen und sich Wahrnehmungen von Kontrollverlusten sowie Unsicherheiten ausbreiten, fallen auch Rechtsprechung und Verfassung als Orientierungsmedien aus und auch Wissenschaften können diese nicht mit der Lieferung von Begleitgewissheit neutralisieren.In solchen Situationen "[...] mutieren selbst Realängste, die vor greifbaren, konkreten Gefahren warnen, zu frei flottierenden, allfälligen Befürchtungen, die jede Risikoeinschätzung verhindern und irrationale Rettungsbedürfnisse wecken" (Frankenberg & Heitmeyer, 2022, S. 53). Diese Situationen können dann von autoritären Bewegungen, Organisationen und Regimen ausgebeutet werden, indem zunächst Ängste geschürt und im zweiten Schritt die Anhänger:innen mit wahnhaften Rettungsphantasien "versorgt" werden. Alexander Gaulands Aussage, "Wir werden uns unser Land und unser Volk zurückholen", liefert ein entsprechendes prominentes Beispiel für das Versprechen, die Kontrolle wieder herzustellen (Reuters Staff, 2017; Frankenberg & Heitmeyer, 2022, S. 53; Nickschas, 2023).Eine Annahme von Heitmeyer & Heyder lautet hier, dass die Faktoren der Standortlosigkeit und Kontrollverluste Autoritarismus und gruppenbezogene Menschenfeindlichkeit bestärken. Eine Variante zur Wiederherstellung von Stabilität stellt die Demonstration von Überlegenheit dar, die durch autoritäre Aggression ausgeübt werden kann. Um wirklich Überlegenheit demonstrieren zu können, muss diese möglichst risikoarm sein; dies ist dann gegeben, wenn besonders schwache, machtlose Gruppen als Gegner:innen ausgewählt werden (Heitmeyer & Heyder, 2002, S. 62). Empirisch stehen Abstiegsängste in einem signifikanten Zusammenhang mit einerseits Kontrollverlust-Situationen und andererseits der Abwertung schwacher Gruppen:"Wenn jemandem das eigene Leben außer Kontrolle gerät (oder zu geraten scheint), kann das Panik erzeugen. Zur Panikbekämpfung erfolgt dann eine Selbstaufwertung, die gleichzeitig die Abwertung von ungleichwertig markierten Gruppen bedeutet (Flüchtlinge, Migranten, Langzeitarbeitslose etc.)" (Heitmeyer, 2018, S. 109).Die individuellen Verarbeitungsmuster von Krisen und (gefühlten) Kontrollverlusten lassen sich durch entsprechende autoritäre Angebote von "rechtspopulistischen Mobilisierungsexperten" – mittels scharf konturierter Feindbilder und Kontrollversprechen - politisch aufladen und bedienen zur vermeintlichen "Wiederherstellung von Ordnung" (Heitmeyer, 2018, S. 106).2022 stützt Heitmeyer also die oben erwähnte These von Krisen als besondere Treiber autoritärer Entwicklungen und rechtsextremer Aktivitäten, indem er formuliert, dass der Blick auf Veränderungen in Richtung autoritärer Entwicklungen in gesellschaftlichen und politischen Verläufen geweitet werden soll, die unter verstärktem Einfluss zeitlich verdichteter Krisen stattfinden (Heitmeyer, 2022 b, S. 251). Das soziologische Analysekonzept von 2018 wird entsprechend angepasst um die zwei zentralen Eskalationstreiber Krisen und Kontrollverluste bzw. "Kontrollverluste als Krisenfolgen" (siehe Abbildung 6).Dies geht aus der Abbildung insofern deutlich hervor, als in die Strukturentwicklungen der ökonomischen, sozialen und politischen Dimension "[...] verschiedene Krisen mit unterschiedlichen Auswirkungen "hineingewirkt" und Einfluss genommen haben auf die individuellen psychologischen und sozialen Verarbeitungen, die wiederum mit Kontrollverlusten durchsetzt waren – immer auch je nach Krisenbetroffenheit" (Heitmeyer, 2022 b, S. 252 f.). Hierdurch entstanden durch das generelle Bedürfnis nach Realitätskontrolle Handlungsoptionen, die mehrfach variieren und auch autoritäre Versuchungen bzw. Gefahren beinhalten können.Abbildung 6: Analyseschema, erweitert und angepasst (Quelle: eigene Darstellung nach Heitmeyer, 2018, S. 21; Heitmeyer, 2022 b, S. 254)Fürderhin ist anzufügen, dass sich Kontrollverluste in Krisen verschiedenartig ausdrücken und sich Verhaltensmöglichkeiten zur Realitätskontrolle, also zur Lösung von Problemen, massiv verengen, insbesondere in systemischen Krisen. Individuelle Suchbewegungen setzen ein, um das grundlegende Bedürfnis nach Realitätskontrolle zu befriedigen. Diese Suchbewegungen schließen politische Suchbewegungen nach autoritären Akteur:innen mit ein, die die Wiederherstellung von Kontrolle durch Reduktion der Krisenkomplexität versprechen (Heitmeyer, 2022 b, S. 256).Krisen und Kontrollverluste treten daher als Treiber autoritärer politischer sowie gesellschaftlicher Entwicklungspfade in Erscheinung, da indes eine kritische Masse entstanden ist, die nicht mehr in der Lage ist, ihr zentrale Bedürfnis nach Realitätskontrolle im "bisher gewohnten Maße" zu realisieren. Genau das bieten autoritäre Akteur:innen im Gegensatz zur abnehmenden Kapazität liberaler Demokratien, geeignete Lösungen schnell zu finden und die Kontrolle wiederherzustellen (Heitmeyer, 2022 b, S. 257). Zudem ist diese versprochene Wiederherstellung keine Wiederherstellung des vorhergehenden Prä-Krisenzustandes, "[...] sondern eine autoritäre Veränderung von Kontrolle und damit auch veränderte ökonomische, soziale, kulturelle und politische Verhältnisse" (Heitmeyer, 2022 b, S. 257).Als Indiz sieht Heitmeyer zwei Mechanismen, die besonders hervorstechen: Einerseits die Ambivalenz, dass zahllose Widersprüche zunehmen, und andererseits die Ambiguität, dass zunehmende Komplexität von modernen Gesellschaften gepaart sind mit uneindeutigen Situationen und Zukünften. Ambivalenz- und Ambiguitätstoleranz kristallisieren sich also als unabdingbar heraus, um autoritären Versuchungen nicht nachzugeben."Denn wenn Sitationen [sic] oder auch die Anwesenheit von fremden Menschen als unberechenbar oder unkontrollierbar wahrgenommen werden, dann reagieren Personen, deren Ambiguitätstoleranz niedrig ist, mit vereinfachten Weltsichten oder Stereotypen, um wieder Ordnung, Struktur und Kontrolle zu erreichen" (Heitmeyer, 2018, S. 80).Hinzu tritt das Verschwimmen von gesellschaftlichen Koordinaten, die eigentlich als Vergewisserungen der jeweils eigenen Position in der Gesellschaft dienen, welches die Suchbewegungen nach politischen Akteur:innen aktiviert, die vorgeben, Widersprüche zu lösen, Unklarheiten in Klarheiten verwandeln und Kontrolle wiederherzustellen versprechen (Heitmeyer, 2018, S. 109 ff.; Heitmeyer, 2022 b, S. 258 f.).Hieraus könnte die Folgerung gezogen werden, dass das Potenzial von autoritären Versuchungen in der Moderne angelegt sei: "Ambivalenzen und Ambiguitäten als Grundparadigma der Moderne entfalten unter dem Druck von Krisen und damit verbundenen Kontrollverlusten eine neue Wucht, die ins Autoritäre drängt" (Heitmeyer, 2022 b, S. 259). Beispielsweise ist die erwähnte "Entweder-Oder" Logik im Vergleich zu "Mehr-oder-weniger" darauf angelegt, Ambivalenzen und Ambiguitäten zu beseitigen. "Das Autoritäre dient dann als Strategie zur Reduzierung von ökonomischer, sozialer und politischer Komplexität – und gleichzeitig von Freiheitsräumen" (Heitmeyer, 2022 b, S. 259).Heitmeyers Analysen zeigen, dass die Fähigkeiten zum Aushalten von Ambiguitäten und zum Umgang mit Ambivalenzen über zukünftige soziale, politische und ökonomische Entwicklungspfade in Teilen der Bevölkerung abnehmen. Dies ist passgenau für das Angebot vonseiten der autoritär-nationalradikalen Akteur:innen mit ihren dichotomischen Welt- und Gesellschaftsbildern (siehe Kapitel 2.2); das Angebot eignet sich hervorragend für mobilisierende Ideologien und rhetorische Eskalation (Heitmeyer, 2018, S. 246 f.).Erfolge rechter Parteien und Bewegungen wären demnach also nicht möglich gewesen ohne bestimmte Entwicklungen im sozialen System der Gesellschaft, im politischen System der Demokratie und im ökonomischen System des globalisierten Kapitalismus (Heitmeyer, 2018, S. 16). Konkreter ist es das Zusammenwirken eines autoritären Kapitalismus, sozialer Desintegrationsprozesse und politischer Demokratieentleerung als Ursachenmuster für die "Realisierung autoritärer Sehnsüchte" (Heitmeyer, 2018, S. 17).5. Die Partei "Alternative für Deutschland"Mit der inhaltlichen Neuausrichtung der vormals liberal-konservativen, eurokritischen Partei ab 2015 sowie mit dem immer weiter um sich greifenden Einfluss von rechtsextremistischen Akteur:innen innerhalb der AfD hält Heitmeyer es nicht mehr für angemessen, die AfD als rechtspopulistisch zu "verharmlosen", noch die Partei als vollständig rechtsextrem oder neonazistisch zu bezeichnen (Heitmeyer, 2022 a, S. 302; Heitmeyer, 2022 b, S. 265 f.; Heitmeyer & Piorkowski, 2023). Mit der herkömmlichen Typologie sei die AfD, als Typ einer neuen Partei, nicht zu beschreiben. Ebenso reichen die bisherigen Begriffe und Kategorien nicht aus, um "analytische Klarheit" über Zustand und Entwicklung der AfD zu gewinnen (Heitmeyer, 2018, S. 233).Seit dieser Neuausrichtung zieht die AfD Teile der Bevölkerung an, die unter den oben beschriebenen Krisen Kontrollverluste wahrnehmen oder empfinden und eine Wiedererlangung der Kontrolle forcieren. Das Autoritäre ist dann ein Weg zur Realitätskontrolle. Insofern lässt sich deutlich machen, dass die AfD nicht der Grund für die Entstehung von autoritären Versuchungen in der Bevölkerung ist. Diese autoritären Einstellungsmuster "schlummern" in Teilen der Bevölkerung bereits über einen längeren Zeitraum als Gefahrenpotenzial für die offene Gesellschaft (Heitmeyer, 2018, S. 113):"Ein Zwischenfazit zum Zusammenwirken von strukturellen Entsicherungen und individuellen Verunsicherungen zeigt, dass aufgrund der Krisen und ihrer Verarbeitungen, aufgrund von veränderten Lebensumständen und von Verschiebungen der gesellschaftlichen Koordinaten in entsicherten Zeiten bei Teilen der Bevölkerung ein erheblicher "Vorrat" an gruppenbezogen-menschenfeindlichen Einstellungen existiert, an die autoritäre politische Akteure bloß noch anzuknüpfen brauchten" (Heitmeyer, 2018, S. 117).Dies bedeutet, dass die Erfolgsvoraussetzungen des autoritären Nationalradikalismus der AfD eine längere Vorgeschichte haben, die in den letzten Jahrzehnten geformt und vorangetrieben wurden durch neue Entwicklungen des kapitalistischen Systems. Die Wähler:innen der AfD waren zuvor Wechselwähler:innen oder wählten gar nicht (Heitmeyer, Freiheit & Sitzer, 2021, S. 115). Sie verharrten dann in "wutgetränkter Apathie", was folgenlos blieb für die Politik, da diese Teile der Bevölkerung keinen wahlpolitischen Ausdruck fanden.Dieser in der Bevölkerung existierende Autoritarismus, der laut Heitmeyer "[...] vagabundierte, mal auf diese, mal auf jene im Bundestag vertretene Partei setzte oder aber gar nicht offen zutage trat, sondern in der politischen Apathie verharrte [...]" (2018, S. 237), hat durch das Aufkommen der Partei "Alternative für Deutschland" und ihren autoritären Nationalradikalismus ein neues politisches "Ortsangebot" bekommen. Hinsichtlich des oben beschriebenen Zwischenfazits lässt sich konstatieren, dass es der AfD offensichtlich gelungen ist, "[...] Personen aus ihrer individuellen Ohnmacht herauszuholen und mit kollektiven Machtfantasien auszustatten. Dazu gehört es auch, gruppenbezogen-menschenfeindliche Einstellungen zu kanalisieren und gegen schwache Gruppen zu richten" (Heitmeyer, Freiheit & Sitzer, 2021, S. 116).In diesen Prozessen ist die Ideologie der Ungleichwertig eingelagert und wird genutzt, um sich selbst aufzuwerten durch Abwertung und Ausgrenzung der vermeintlich "Anderen". Für die sogenannte "rohe Bürgerlichkeit" entstehen neue Anschlussmöglichkeiten. Unter diesem Begriff verbirgt sich keine soziale Klassenzugehörigkeit, sondern es handelt sich um eine verachtende Haltung gegenüber Schwächeren, geäußert in einer rabiaten Rhetorik und gepaart mit einer Ideologie, in der bestimmte Gruppen als ungleichwertig angesehen werden, während sich die eigentlichen autoritären Haltungen hinter einer dünnen Schicht zivilisiert-vornehmen, also bürgerlichen äußeren Umgangsformen, verbergen (Heitmeyer, 2018, S. 310; Heitmeyer, 2022 b, S. 273).6. Der autoritäre Nationalradikalismus der AfDSo folgert Heitmeyer, dass die AfD vorrangig für jenes Publikum attraktiv ist, "[...] das sich einerseits von den flachen Sprüchen rechtspopulistischer Akteure, die nur auf schnelle Erregungszustände fixiert sind, nichts verspricht, und sich andererseits von der Brutalität des Rechtsextremismus distanziert, um seine Bürgerlichkeit zu unterstreichen" (Heitmeyer, 2018, S. 235). Er weist zurecht auf ihre "bürgerliche Patina" hin, die die AfD für viele gesellschaftliche Gruppen wählbar macht (Heitmeyer & Piorkowski, 2023).Vor diesem Hintergrund überrascht der empirische Befund nicht, dass die bereits benannten 19,6 % der Bevölkerung mit Einstellungen zu gruppenbezogener Menschenfeindlichkeit sich selbst in der "politischen Mitte" einordnet, weshalb sich die "bürgerliche Patina" für die AfD als unentbehrlich erweist (Schaefer, Mansel & Heitmeyer, 2002, S. 132 f.).Die neue begriffliche Rahmung dient dazu, unterschiedliche inhaltliche und formale Ebenen zusammenzufassen, wie prägende Einstellungsmuster, der Mobilisierungsstil sowie zentrale programmatische Aussagen zu "bewegenden Themen" (Heitmeyer, 2018, S. 234). Daher ordnet Heitmeyer die AfD als autoritäre nationalradikale Partei ein, die gleichzeitig als Kern des autoritären Nationalradikalismus in Deutschland fungiert. Im Folgenden wird das Agieren der Partei als Protagonistin des autoritären Nationalradikalismus anhand der in Kapitel 2.4 erklärten Charakteristika erläutert:Als autoritär wird sie charakterisiert, da das Kontrollparadigma grundsätzlich ihre Vorstellungen von Politik sowie Gesellschaft durchzieht. Beispiele sind Forderungen nach einer streng hierarchisch organisierten sozialen Ordnung sowie nach rigider Führung in politischen Institutionen. Auch beruht das Verständnis von Politik und Gesellschaft wesentlich auf den Kategorien "Kampf und Konflikt", womit dichotomische Gesellschaftsbilder und strenge Freund-Feind-Schemata einhergehen (Heitmeyer, 2018, S. 234).Als national wird sie aufgrund der "[...] Betonung der außerordentlichen Stellung des deutschen Volkes" bezeichnet (Heitmeyer, 2018, S. 234). Hinzu kommt auch die Beanspruchung einer "neuen deutschen" Vergangenheitsdeutung sowie eines Überlegenheitsanspruchs gegenüber anderen Nationen oder ethnischen und religiösen Gruppen (Heitmeyer, 2018, S. 235).Das radikale Moment liegt in der Bekämpfung der offenen Gesellschaft und dem Ziel, die liberale Demokratie grundlegend umzubauen. Somit positioniert sich die Partei gegen zwei zentrale politisch-gesellschaftliche Errungenschaften. Hierzu dient ein rabiater und emotionalisierter Mobilisierungsstil der AfD, der mit menschenfeindlichen Grenzüberschreitungen arbeitet (Heitmeyer, 2018, S. 235).Die AfD hat die Destabilisierung gesellschaftlicher und politischer Institutionen zum Ziel, was entscheidend für die Erfolgsgeschichte der Partei ist, es geht um Militär, Polizei, Gerichte, Gewerkschaften, Rundfunkräte, politische Bildung, Theater oder auch Feuerwehrverbände (Heitmeyer, Freiheit & Sitzer, 2021, S. 107). Hierin besteht nach Heitmeyer die eigentliche Gefahr. Das Fiasko rund um die Wahl des Ministerpräsidenten in Thüringen 2020 zeigt, dass mittlerweile auch das parlamentarische System von der forcierten Destabilisierung betroffen ist (Heitmeyer, Freiheit & Sitzer, 2021, S. 107). Der autoritäre Nationalradikalismus der AfD und das Agieren der Partei soll im folgenden exemplarisch an zwei Krisen der vergangenen Jahre behandelt werden.Die Fluchtbewegungen ab 2015 bezeichnete Alexander Gauland als "Geschenk" für seine Partei, die AfD (Decker, 2022). In der Tat diente sie AfD und PEGIDA, um Personen, die vorrangig unter Anerkennungsdefiziten litten, mittels dichotomischer Weltbilder und der Emotionalisierung sozial-kultureller Probleme zu instrumentalisieren. Der anhaltende Erfolgsmechanismus von Parteien und Bewegungen wie AfD und PEGIDA besteht demnach darin, Anerkennungsprobleme zu bearbeiten und so Selbstwirksamkeit erfahren zu lassen. Als (potenzielle) Wähler:in würde man wahrgenommen werden und dies ließ Handlungsbereitschaften entstehen, die einerseits autoritäre Ausrichtungen entwickelten und andererseits themengebunden immer wieder neu aktiviert werden können (Heitmeyer, 2022 b, S. 275). Dies ist bei dem bereits genannten "Entweder-Oder"-Mechanismus der Fall, da es um "Alles" geht und Kompromisse von vornherein ausschließt.Weiter führt Heitmeyer aus, dass die Verbindungen von einem systemischen Krisentypus, wie beispielsweise der COVID-19-Pandemie, mit einer "Entweder-Oder"-Konfliktstruktur gesellschaftliche Entwicklungen begünstigen, die zwar nicht die Gesellschaft spalten, jedoch asymmetrisch polarisieren zwischen einer Bevölkerungsmehrheit und einer Minderheit (Beispiel: Geimpfte vs. Impfgegner:innen). In solchen Konstellationen enthüllt sich das Zusammenwirken und gemeinsame Auftreten der aufgeführten Mechanismen als äußerst gewaltanfällig (Heitmeyer, 2022 b, S. 275 f.).Im Jahr 2015 war der "Kampf um die Opferrolle" ein zentraler Mechanismus der AfD, um die Mobilisierung gegenüber Geflüchteten und staatlicher sowie gesellschaftlicher Integrationspolitik voranzubringen. Entsprechend entstanden Kampfbegriffe wie "Umvolkung" oder das Propagieren des "Untergangs der deutschen Kultur". Die Opferrolle kann nach Heitmeyer als Schlüsselkategorie interpretiert werden, "[...] denn wer [sich] in der öffentlichen Wahrnehmung glaubhaft als Opfer darstellen kann, schafft damit eine zentrale "moralgetränkte" Kategorie, um Widerstand als Notwehrrecht einschließlich Gewalt zu legitimieren" (Heitmeyer, 2022 b, S. 266). Insofern gilt der Opferstatus als eines der wichtigsten Instrumente, um Anhänger:innen an sich zu binden.Im Verlauf der COVID-19-Pandemie verkehren sich die Verhältnisse in den digitalen Medien, auf radikalisierten Demonstrationen und in der öffentlichen Debatte, was auch darauf zurückzuführen ist, dass der Mechanismus einer veränderten "Täter-Opfer"-Konstruktion sich ausbreitet. Neue Gelegenheitsstrukturen und Mobilisierungsaktivitäten werden in Figuren von "Freiheitskämpfern" ausgebaut und radikalisiert.Während der sogenannten "Flüchtlingskrise" waren es vor allem männliche Geflüchtete, die in der öffentlichen Wahrnehmung als bedrohliche Täter, die Verbrechen wie Vergewaltigungen und Tötungen begehen, dargestellt wurden. Staatliche Institutionen ließen sie "gewähren" im Sinne einer bevorstehenden "Umvolkung" (Heitmeyer, 2022 b, S. 266). In der COVID-19-Krise trat der Staat als Haupttäter auf: Die Bevölkerung wurde in den Lockdown getrieben, massiven Freiheitsbeschränkungen unterworfen und Ungeimpfte – ob Gegner:in oder nur Zweifelnde – wurden durch eine "Corona-Diktatur" in die Knie gezwungen.In diesem Strukturwandel wirken Verschwörungstheorien passgenau auf ideologische Konzeptionen ein, die an Krisen sowie an Kontrollverluste andockt. Verschwörungstheorien bilden hier als quasi-religiöses, glaubensbasiertes Kampfinstrument eine Art Ersatzlösung für die in der Moderne verloren gegangenen Gewissheiten und markieren gleichzeitig Feindgruppen für autoritäre politische "Lösungen", meist auch antisemitisch aufgeladen.Im Sinne des angeführten konzentrischen Eskalationskontinuums sind es unter anderem solche Parolen und Kampfbegriffe, die als begrifflich "notwehrrelevante" Legitimationsbrücken dienen. So wurden während der COVID-19-Pandemie von parlamentarisch einflussreichen Positionen weitere eskalationsorientierte Handlungsweisen beflügelt (Heitmeyer, 2022 b, S. 267). Die bisher aufgeführten Mechanismen und Strukturen fungieren demnach also als Bestandteile von Radikalisierungsprozessen. Diese wiederum bilden die Voraussetzungen für das Aufkommen von physischer Gewalt, von Körperverletzungen bis hin zu rechtsterroristischen Vernichtungstaten. Um diese Wirkung aufzuzeigen, soll folgend das Agieren der AfD anhand des oben beschriebenen Eskalationskontinuums verdeutlicht werden.In den "Schalen" des "Zwiebelmusters" wird, wie oben erläutert, die Gewaltorientierung größer, während die eskalierenden Akteur:innengruppen kleiner werden. Als Kernmechanismus werden die verschiedenen Legitimationsbrücken angeführt. In der äußersten, der größten Schale, finden sich feindbildliche autoritäre Einstellungsmuster in Teilen der Bevölkerung gegenüber dem Staat als Ganzes und generell demokratischer Politik. Diese liefern die entsprechenden Legitimationen für das Auftreten und Agieren des autoritären Nationalradikalismus der AfD.Zu Beginn der Pandemie forderte die AfD zunächst besonders harte Maßnahmen zur Eindämmung der Ausbreitung, sie blieb bei ihrem Stil der Emotionalisierung politischer und sozialer Probleme inklusive dem autoritären Kontrollparadigma. Da hiermit keine Zustimmungserweiterungen von potenziellen Wähler:innen gewonnen werden konnten, wurde eine radikale Richtungsänderung ins Gegenteil vollzogen. Dies führt Heitmeyer an, um zu verdeutlichen, "[...] dass es der Partei nicht um sachbegründete Prinzipien, sondern um opportunistische Nutzenkalküle zur Ausbreitung von Zustimmungen bzw. Verfestigungen der Wählerschaft geht – und um die Straße" (Heitmeyer, 2022 b, S. 276). Insofern mussten Parolen geprägt werden, wie der Begriff der "Corona-Diktatur", dem Selbststilisieren als "Freiheitskämpfer:innen" oder dem Verbreiten von Verschwörungsideologien wie des "Great Resets" (Siggelkow, 2023).So trat die AfD im Herbst und Winter 2021/2022 als wesentlicher Treiber der Corona-Proteste auf und baute gleichzeitig mit diesen Parolen, wie bereits ab 2015 in Zusammenhang mit der Krise um die Flüchtlingsbewegungen, gezielt Legitimationsbrücken für ohnehin schon mit Gewalt operierende rechtsextremistische Gruppen (Heitmeyer, 2022 b, S. 277). Diese Gruppierungen können sich durch diese Parolen auf eine Art gewaltlegitimierendes "Notwehrrecht" berufen, um gegen eine "Diktatur" zu agieren, verbunden mit "Umsturzfantasien".Heitmeyer führt weiter aus, dass diese Gruppen sich öffentlich in Demonstrationen bewegen und gleichzeitig klandestine rechtsterroristische Kleingruppen bedienen, "[...] die unter anderem aus Misserfolgen gegen die staatlichen Ordnungsmächte dann Legitimationen zum Umsturz des Systems ziehen" (Heitmeyer, 2022 b, S. 277). Aus diesem Mechanismus eröffnet sich, was Heitmeyer durch das konzentrische Eskalationskontinuum eindrucksvoll darstellen kann, dass schlussendlich Teile der Bevölkerung durch die verschiedenen "Schalen" hindurch zu den Legitimationslieferant:innen zählen, auf die sich Gewaltakteur:innen berufen, wenn sie sich auf "das Volk" beziehen (Heitmeyer, 2022 b, S. 277).Die Mechanismen verweisen insgesamt auf Bedrohungen der liberalen Demokratie und der offenen Gesellschaft. Weiter führt Heitmeyer an, dass staatliche Kontrollapparate sowie die Politik samt Appellen oder Ankündigungen der "wehrhaften Demokratie" nicht in der Lage sind, mehrere dieser Mechanismen in ihren Wirkungen "in den Griff zu bekommen". Die aufgezeigten Mechanismen, die bereits während der Krise der Flüchtlingsbewegungen und der Corona-Pandemie gewirkt haben, sind etabliert und werden auch weiterhin wirken.Die so genannte "3K-Trias" - Krisen, Konfliktstruktur und Kontrollverluste - gilt mittlerweile als etabliert und wirkt als wirkungsvoller Zusammenhang für autoritäre Entwicklungen. Die zukünftigen Krisenthemen werden wechseln, jedoch bleiben die gesellschafts- und demokratiezerstörerischen Mechanismen bestehen und können durch autoritär-nationalradikale Akteur:innen immer wieder neu themenbezogen aktiviert und emotional aufgeladen werden (Heitmeyer, 2022 b, S. 277).7. Fazit & AusblickHeitmeyers Arbeiten bilden einen Meilenstein in der empirischen Forschung zu Einstellungen gruppenbezogener Menschenfeindlichkeit und zu rechten Einstellungen in der Bevölkerung. Er wies bereits zu Beginn seiner Studien im Jahr 2001 darauf hin, dass ein globalisierter Kapitalismus zu politischen und sozialen Kontrollverlusten führen könne, die mit Demokratieentleerung und einem Erstarken des rabiaten Rechtspopulismus einhergehen.Anhand der Ergebnisse seiner langjährigen Forschung, unter anderem der Langzeitstudie zu den "deutschen Zuständen", konnte er empirisch nachweisen, dass knapp 20 % der Bevölkerung autoritäre Einstellungen haben (Schaefer, Mansel & Heitmeyer, 2002, S. 125 f.). Diese Einstellungen "schlummerten" in diesen Bevölkerungsteilen und fanden politisch bis zum Aufkommen der AfD keine sonderliche Beachtung. Sie "vagabundierten" zwischen den Parteien - meist zwischen den Volksparteien CDU/CSU und der SPD - oder verharrten in einer "wutgetränkten Apathie" und machten von ihrem Wahlrecht keinen Gebrauch (Schaefer, Mansel & Heitmeyer, 2002, S. 127 f.).Die strukturellen Ursachen des autoritären Kapitalismus, also Transformationsprozesse in ökonomischen Strukturen samt den Krisen in der "Post-9/11"-Ära führen zu Veränderungen im sozialen Bereich, wie individuelle Verarbeitungsprozesse der Krisenfolgen in Form von Abstiegsängsten oder Anerkennungsverlusten, also soziale Desintegrationserfahrungen bzw. Desintegrationsgefährdungen. In Kombination mit den damit einhergehenden Kontrollverlusten sehnen sich Teile der Bevölkerung nach einem krisensicheren, kollektiven kulturell-politischen Identitätsanker und nach der "Wiederherstellung der Ordnung" (Heitmeyer, 2022 a, S. 325). Dies schafft günstige Gelegenheitsstrukturen für die AfD, die sich 2015 inhaltlich radikal neu ausrichtete und als autoritär nationalradikales Angebot wahlpolitisch von diesen Entwicklungen profitierte. Durch ihre Fokussierung auf die kulturelle Dimension hat die Partei die Möglichkeit erhalten, "[...] soziale Kontrollverluste in Versprechungen zur Wiederherstellung von politischer Kontrolle zu übersetzen" (Heitmeyer, 2022 a, S. 325).Die Frage nach dem weiteren Verlauf liegt auf der Hand. Hier spricht Heitmeyer von "Zukünften" in einer Zeit, in der viele Menschen auf tiefgreifende Verunsicherungen seit 2001 mit einer Sehnsucht nach Ordnung, Kontrolle und Sicherheit reagiert haben, die von dem autoritären Nationalradikalismus der AfD bedient wird (Heitmeyer, Freiheit & Sitzer, 2021, S. 281). Zu den Entsicherungen der sozialen Zustände der letzten Jahrzehnte gesellt sich nun eine "Unübersichtlichkeit möglicher Zukünfte". Klar ist, dass die Routinen zur Bewältigung politischer, ökonomischer und sozialer Probleme und Krisen nicht länger funktionieren und es kein Zurück zu den Zuständen davor geben wird.Nach Heitmeyer muss die Frage nach der Resilienz demokratischer Einstellungen und Gegenevidenzen zum grassierenden Autoritarismus auf der Ebene der Akteur:innen angesetzt werden, bei der Bürger:innenschaft. Jedoch beschreibt er sie, die in Krisen sonst durchaus wehrhaft und spontan auf Herausforderungen reagierten und heute mehr denn je gefragt seien, als erschöpft, auch wenn in der Mehrheit der europäischen Staaten bisher nur eine Minderheit der autoritären Versuchung vollends nachgibt (Heitmeyer, Freiheit & Sitzer, 2021, S. 282; Heitmeyer, 2022 b, S. 277).Dennoch haben sich quer durch die Altersgruppen und unabhängig von der sozialen Lage unterschiedliche Teile der Bevölkerung "[...] statistisch signifikant und im Erscheinungsbild deutlich autoritären Versuchungen nachgegeben [...]" (Frankenberg & Heitmeyer, 2022, S. 74). Ebenso erschöpft seien auch die politischen Eliten, die eigentlich Visionen und Ideen für individuelle und gesellschaftliche Zukünfte, die Freiheit spenden und Sicherheit verheißen, entwickeln sollten. Es benötigt also mehr visionäre und zukunftssichernde Gesellschafts- und Politikvorstellungen gepaart mit neuen Beteiligungsformen, die von den Bürger:innen wahrgenommen werden (Heitmeyer, 2022 b, S. 278).Aktuelle empirische Befunde zu weiteren demokratischen Fortschritten geben wenig Anlass zu Optimismus (Frankenberg & Heitmeyer, 2022, S. 73 f.). Insofern folgert Heitmeyer, dass sich der Höhenflug autoritärer Politikangebote weiter fortsetzen wird, insofern sich der autoritäre Nationalradikalismus nicht selbst (von innen) zerlegt und es kein massives politisches Umsteuern mit gravierenden wirtschaftspolitischen Reformen gibt, wofür derzeit keine Anzeichen bestehen (Heitmeyer, 2018, S. 368). Nach Heitmeyer müssten aus den folgenden Punkten ökonomische, soziale und politische Konsequenzen gezogen werden:"Der finanzialisierte Kapitalismus verfolgt weiter ungehindert seine globale Landnahme, ohne Rücksicht auf die gesellschaftliche Integration.Die nationalstaatliche Politik ist angesichts der ökonomischen Abhängigkeit nicht willens oder in der Lage, soziale Ungleichheit konsequent zu verringern.Ein Fortschreiten der sozialen Desintegration ist angesichts von Prozessen wie der Digitalisierung sehr wahrscheinlich.Kulturelle Konflikte entlang konfessioneller und religiöser Grenzen werden nicht dauerhaft befriedet; vielmehr ist davon auszugehen, dass sie – auch im Zusammenhang mit Migrationsbewegungen – immer wieder angefacht werden.Sozialgeografische Entwicklungen wie Abwanderung und das ökonomische Abdriften ganzer Regionen gehen ungebremst weiter" (Heitmeyer, Freiheit & Sitzer, 2021, S. 283 f.).Die aufkommenden Probleme dieser auf Dauer gestellten Faktoren können von autoritär nationalradikalen Parteien und Bewegungen als "Signalereignisse" für sich ausgebeutet werden. Sie stellen also "stabile" günstige Voraussetzungen für ein weiteres Erstarken des autoritären Nationalradikalismus der AfD dar (Heitmeyer, Freiheit & Sitzer, 2021, S. 284). Es ist mittelfristig nicht abzusehen, dass die Themen, die die AfD mit ihrer eskalativen Rhetorik bearbeitet, in absehbarer Zukunft von der Bildfläche verschwinden werden.Zudem weisen die Strukturen der AfD und des sie unterstützenden Milieus mittlerweile einen hohen Organisations- und Institutionalisierungsgrad auf. Insofern ist davon auszugehen, dass die autoritär nationalradikalen Parteien und Bewegungen öffentliche Debatten weiterhin maßgeblich prägen und so das soziale Klima innerhalb der Gesellschaft dauerhaft in Richtung von mehr Aggressivität verschieben werden.Die Bedrohungen für die liberale Demokratie und die offene Gesellschaft durch den globalisierten Kapitalismus, durch Desintegrationsprozesse und dem autoritären Nationalradikalismus sind offensichtlich. Es hängt also viel von der Kraft konfliktbereiter und widerspruchstrainierter Gegenbewegungen ab, die für die offene Gesellschaft eintreten und sich nicht mit den Normalitätsverschiebungen, die aktuell bereits ablaufen, abfinden wollen (Heitmeyer, 2018, S. 372).LiteraturverzeichnisDahrendorf, R. (14. 11 1997). Die Globalisierung und ihre sozialen Folgen werden zur nächsten Herausforderung einer Politik der Freiheit. Von zeit.de: https://www.zeit.de/1997/47/thema.txt.19971114.xml/komplettansicht abgerufen am 21.10. 2023.Decker, F. (02. 12 2022). Etappen der Parteigeschichte der AfD. Von bpb.de: https://www.bpb.de/themen/parteien/parteien-in-deutschland/afd/273130/etappen-der-parteigeschichte-der-afd/ abgerufen am 21.10. 2023.Frankenberg, G., & Heitmeyer, W. (2022). Autoritäre Entwicklungen. Bedrohungen pluralistischer Gesellschaften und moderner Demokratien in Zeiten der Krisen. In G. Frankenberg, & W. Heitmeyer (Hg.), Treiber des Autoritären: Pfade von Entwicklungen zu Beginn des 21. Jahrhunderts (S. 15-86). Frankfurt a. M.: Campus Verlag GmbH.Heitmeyer, W. (2001). Autoritärer Kapitalismus, Demokratieentleerung und Rechtspopulismus. Eine Analyse von Entwicklungstendenzen. In D. Loch, & W. Heitmeyer (Hg.), Schattenseiten der Globalisierung (S. 497-534). Frankfurt a. M.: Suhrkamp Verlag, 1. Auflage.Heitmeyer, W. (2018). Autoritäre Versuchungen. Berlin: Suhrkamp Verlag.Heitmeyer, W. (2022 a). Autoritärer Nationalradikalismus (2018). In K. Möller (Hg.), Populismus. Ein Reader (S. 300-328). Berlin: Suhrkamp Verlag, 1. Auflage.Heitmeyer, W. (2022 b). Krisen und Kontrollverluste - Gelegenheitsstrukturen für Treiber autoritärer gesellschaftlicher Entwicklungspfade. In G. Frankenberg, & W. Heitmeyer (Hg.), Treiber des Autoritären: Pfade von Entwicklungen zu Beginn des 21. Jahrhunderts (S. 251-280). Frankfurt a. M.: Campus Verlag GmbH.Heitmeyer, W., & Heyder, A. (2002). Autoritäre Haltungen. Rabiate Forderungen in unsicheren Zeiten. In W. Heitmeyer (Hg.), Deutsche Zustände. Folge 1 (S. 59-70). Frankfurt a. M.: Suhrkamp Verlag, 1. Auflage.Heitmeyer, W., & Piorkowski, C. (09. 10 2023). "Autoritärer Nationalradikalismus". Von bpb.de: https://www.bpb.de/themen/deutschlandarchiv/522277/autoritaerer-nationalradikalismus/ abgerufen am 21.10. 2023.Heitmeyer, W., Freiheit, M., & Sitzer, P. (2021). Rechte Bedrohungsallianzen. Bonn: Sonderausgabe für die Bundeszentrale für politische Bildung.Laudenbach, P. (09. 07 2023). Die Gründe des Aufstiegs der AfD: Soziologe Wilhelm Heitmeyer im Interview. Von sueddeutsche.de: https://www.sueddeutsche.de/kultur/wilhelm-heitmeyer-afd-analyse-1.6012038?reduced=true abgerufen am 21.10. 2023.Nickschas, J.-B. (06. 02 2023). Zehn Jahre AfD: Zunehmend radikal. Von tagesschau.de: https://www.tagesschau.de/inland/innenpolitik/afd-zehn-jahre-103.html abgerufen am 21.10. 2023.Reuters Staff. (24. 09 2017). Gauland kündigt an - "Wir werden Regierung jagen". Von reuters.com: https://www.reuters.com/article/deutschland-wahl-afd1-idDEKCN1BZ0QJ abgerufen am 21.10. 2023.Schaefer, D., Mansel, J., & Heitmeyer, W. (2002). Rechtspopulistisches Potential. Die "saubere Mitte" als Problem. In W. Heitmeyer (Hg.), Deutsche Zustände. Folge 1 (S. 123-135). Frankfurt a. M.: Suhrkamp Verlag, 1. Auflage.Siggelkow, P. (16. 01 2023). Verschwörungsmythen: Klaus Schwab, das WEF und der "Great Reset". Von tagesschau.de: https://www.tagesschau.de/faktenfinder/wef-schwab-101.html abgerufen am 21.10. 2023.Universität Bielefeld. (o.J.). Prof. Dr. Wilhelm Heitmeyer. Von ekvv.uni-bielefeld.de: https://ekvv.uni-bielefeld.de/pers_publ/publ/PersonDetail.jsp?personId=21765 abgerufen am 21.10. 2023.
Blog: Nachhaltigkeit, Postwachstumsgesellschaft und das gute Leben
Die stetig fortschreitende Urbanisierung ist eine der prägenden Entwicklungen unserer Zeit. Mit einer immer größeren Bevölkerung, die sich in Städten niederlässt, haben sich urbane Gebiete zu den Knotenpunkten unserer Gesellschaft entwickelt. Sie sind Treffpunkt für Innovationen, Wirtschaftswachstum und kulturellen Austausch.Doch mit dieser enormen Verdichtung der Bevölkerung in städtischen Ballungsräumen geht auch eine Reihe komplexer Herausforderungen einher. Städte stehen vor einem wachsenden Druck, die Bedürfnisse ihrer Bürgerinnen und Bürger zu erfüllen, aber auch gleichzeitig ökologische und soziale Nachhaltigkeit sicherzustellen (vgl. Etezadzadeh 2015, S. 1ff.).In diesem Kontext hat sich das Konzept der "Smart City" in den letzten Jahren als zukunftsweisender Ansatz erwiesen. Die Smart City stellt eine strategische Herangehensweise dar, die auf Technologie und Innovation setzt, um Städte intelligenter, nachhaltiger und lebenswerter zu gestalten. Der Kerngedanke besteht darin, städtische Ressourcen effizienter zu nutzen und gleichzeitig die Lebensqualität der Bürger*innen zu erhöhen (vgl. Etezadzadeh 2015, S. 7f.). Eine Smart City nutzt moderne Technologien, wie künstliche Intelligenz (KI) und Big Data-Analysen, um urbane Prozesse zu optimieren.Trotz des Potenzials zur Förderung einer nachhaltigen Stadtentwicklung gibt es jedoch auch einige Herausforderungen, mit denen sich die Städte konfrontiert sehen. Datenschutz und Privatsphäre sind wichtige Anliegen, insbesondere angesichts der Vielzahl von Daten, die in einer Smart City erfasst werden. Die Finanzierung solcher umfassenden städtischen Transformationen kann ebenfalls ein Hindernis darstellen. Des Weiteren stellt die Einbeziehung der Bürgerschaft eine komplexe Aufgabe dar.Die folgende Arbeit befasst sich mit dem Konzept Smart City und fragt nach den damit zusammenhängenden Chancen und Herausforderungen. Welche Chancen bietet das Konzept für eine nachhaltige Stadtentwicklung? Um ein vertieftes Verständnis für die Smart City als einen richtungsweisenden Ansatz zur Bewältigung der städtischen Herausforderungen im Hinblick auf eine nachhaltige Stadtentwicklung zu erlangen, wird die Stadt Freiburg im Breisgau herangezogen, die als ein Beispiel für eine intelligente und nachhaltige Stadtentwicklung und Stadtplanung steht.Warum Smart City?Mit dem Eintritt in das neue Jahrtausend hat sich eine bedeutende Entwicklung abgezeichnet: Das Zeitalter der Städte hat begonnen, und erstmalig in der Geschichte der Menschheit wohnt die Mehrheit der Weltbevölkerung in städtischen Gebieten. Dieser Wandel ist eng mit einem Anstieg der Weltbevölkerung verbunden. Im Jahr 1950 lebte weniger als ein Drittel der Weltbevölkerung in urbanen Gebieten. Seit 2007 ist dieser Anteil auf mehr als die Hälfte angestiegen. Laut Berechnungen der Vereinten Nationen werden bis zum Jahr 2050 voraussichtlich etwa zwei Drittel der Weltbevölkerung in Städten leben (vgl. bpb 2017, o.S.).Mit dem Zuwachs der urbanen Bevölkerung rücken vermehrt Potenziale und Herausforderungen hinsichtlich der Städte im globalen Entwicklungsprozess in den Fokus, darunter die Bekämpfung von Armut, die Integration marginalisierter Gruppen, das Wirtschaftswachstum sowie die Verwirklichung von Klima- und Entwicklungszielen. Der anhaltende Trend zur Urbanisierung erfordert spezifisch angepasste und nachhaltige Ansätze für die Gestaltung von urbanen Siedlungen (vgl. Jaekel 2015, S. 2f.).Durch dieses Wachstum entstehen jedoch auch Risiken. Mit dem rapiden Anstieg der Bevölkerungszahlen geht eine Zunahme des motorisierten Verkehrs einher. Dies führt u.a. zur Verkehrsstauung und verstärkten Lärm- und Schadstoffemissionen. Gleichzeitig kommt es zur Verschmutzung von Böden und Gewässern und vermehrter Bebauung landwirtschaftlicher Flächen (vgl. Weiland 2018, o.S.).Außerdem weisen Städte einen erhöhten Bedarf an Ressourcen wie z.B. Wasser, Energie und Rohstoffe für Gewerbe, Haushalte und Verkehr auf. Städte tragen damit überproportional zur Nutzung vorhandener Ressourcen bei, zu steigenden CO2-Emissionen und gelten damit als ein Verursacher der globalen Klimaerwärmung (vgl. Weiland 2018, o.S.). Natürliche Lebensräume und die Artenvielfalt sind gefährdet, wodurch die Städte gleichzeitig ihre eigene Lebensgrundlage zerstören (vgl. Etezadzadeh 2015, S. 7). Dabei sind es insbesondere die Städte, die"das Potenzial [haben], durch ihre Dichte und Struktur klima- und ressourcenschonend zu wirtschaften und durch geeignete Maßnahmen den Schutz der lebendigen Umwelt zu fördern" (Etezadzadeh 2015, S. 5).Städte spielen demnach eine entscheidende Rolle im Kontext des ökologischen Fortschritts und des Klimaschutzes. Eine auf Umweltbewusstsein basierende Stadtentwicklung kann wesentlich zur nachhaltigen Nutzung von Ressourcen beitragen. Dabei stellt das Konzept der Smart City einen Ansatz dar, diese Schwierigkeiten anzugehen (vgl. LpB BW 2022, o.S.). Das Konzept Smart CityFür die genannten urbanen Herausforderungen im Hinblick auf die Entwicklungen der letzten Jahrzehnte gibt es verschiedene Ansätze, Konzepte und Lösungsmodelle, welche unter dem Begriff "Smart City" firmieren. Grundsätzlich wird Smart City als ganzheitlicher Lösungsansatz gesehen, bei dem eine Vielzahl von Akteuren beteiligt sind. Dabei gibt es keine einheitliche Definition des Begriffs."Aus der Erkenntnis, dass den Herausforderungen einer Stadt mit einem umfassenden Ansatz begegnet werden muss, entstand die Idee der intelligenten Stadt" (Hadzik 2016, S. 10).Das Konzept der Smart City integriert verschiedene Bereiche des urbanen Lebens: die soziale und bauliche Infrastruktur, Verkehr, Mobilität, Energie, Nachhaltigkeit, Dienstleistungen, Politik, aber auch die generelle Stadtentwicklung und ihre Planung (vgl. Hadzik 2016, S. 10). Einen zentraler Bestandteil der Welt der Smart City stellt die Verwendung von digitaler Technologie dar. Hier sehen sich die Städte dem Anspruch gegenüber, digitale Instrumente adäquat einzusetzen und damit für effizientere und nachhaltigere Prozesse zu sorgen. Durch deren Einsatz sollen intelligente Lösungen für das urbane Leben geschaffen werden (vgl. Etezadzadeh 2015, S. 46f.). Zwar gibt es keine einheitliche Vorstellung davon, was "Smart City" ist und sein soll, jedoch ist"den meisten Ansätzen […] gemein, dass man unter 'Smart City' den Einsatz neuer Informations- und Kommunikationstechnologien (IKT) zum Zwecke einer integrierten Stadtentwicklung versteht" (Hoppe 2015, S. 5).Dadurch stellen Klimaschutz, die Steigerung der Lebensqualität für Bewohner*innen, wachsende Partizipation, Inklusion und Effizienz von Ressourcen übergeordnete Ziele dar, welche mithilfe dieser Technologien erreicht werden sollen (vgl. Hoppe 2015, S. 5). Vor diesem Hintergrund sollen "smarte" Lösungen die Antwort hinsichtlich einer Optimierung urbaner Prozesse sein (vgl. Libbe 2019, S. 2). Der Unterschied zwischen einer "normalen" Stadt und einer Smart City liegt demnach darin, dass eine Smart City durch Digitalisierung"effizienter, nachhaltiger und fortschrittlicher sein [soll]. Das kann die Infrastruktur betreffen, Gebäude, Mobilität, Dienstleistungen oder die Sicherheit" (LpB BW 2022, o.S.).Es hat sich gezeigt, dass der Smart City- Ansatz nicht als fertige Lösungsstrategie betrachtet werden und auch nicht als vollständig ausgearbeitetes Modell angesehen werden kann (vgl. Jaekel 2015, S. 31), sondern vielmehr als eine Reihe von Entwicklungsstrategien (vgl. LpB 2022, o.S.). Es lassen sich jedoch verschiedene Bausteine identifizieren.Bausteine einer Smart CityNach Steinbrecher, Salg und Starzetz (2018, S. 2) lassen sich sechs Bereiche der Smart City ausmachen: Smart Economy, Smart People, Smart Governance, Smart Mobility, Smart Environment, Smart Living.Smart Economy: Das Ziel der Smart Economy besteht darin, die umfangreichen Innovationsmöglichkeiten von Städten zu nutzen, um wirtschaftliche Herausforderungen und Veränderungen erfolgreich zu bewältigen. Hierbei sollen die reichhaltigen Daten- und Informationsressourcen von Städten eingesetzt werden, um bestehende Wirtschaftszweige zu stärken, z.B. durch die Optimierung von Produktions- oder Dienstleistungsprozessen. Gleichzeitig soll die Entstehung neuer Wirtschaftszweige gefördert werden, etwa durch die Entwicklung digitaler Angebote für Bürger*innen und Unternehmen.Smart People: Für die Umsetzung aller digitalen und "smarten" Anwendungen ist es erforderlich, dass die Bürger*innen und Unternehmen über digitale Fähigkeiten verfügen, um die vorhandenen Angebote nutzen oder sogar weiterentwickeln zu können. Der Bereich "Smart People" bezieht sich darauf, das Ziel zu verfolgen, die digitalen Kompetenzen der Menschen so zu fördern und auszubauen, dass die aktiv an der Gestaltung ihrer Stadt, der Wirtschaft und der Umwelt teilhaben und mitwirken können.Smart Governance: Smart Governance strebt danach, eine engere Verbindung zwischen Bürgern und Verwaltung herzustellen. Dieses Konzept zielt darauf ab, die Abläufe und Interaktionen innerhalb der Verwaltung zu optimieren und die Kommunikation zwischen der Verwaltung und den Bürgern zu verbessern. Dies erfordert nicht nur den Einsatz von Informations- und Kommunikationstechnologien (IKT), sondern auch die Entwicklung neuer Methoden, um eine tiefere Beteiligung der Bürger zu ermöglichen und innovative Wege für digitale Bürgerbeteiligung zu schaffen.Smart Mobility: Der Transportsektor trägt maßgeblich zum Energieverbrauch und den Emissionen von Treibhausgasen bei. Außerdem sind andere Umweltauswirkungen wie Lärm und Luftverschmutzung stark mit dem Verkehr verknüpft. Eine effiziente Mobilitätsstrategie zielt darauf ab, die negativen Auswirkungen des Verkehrssektors zu reduzieren, während sie den hohen Mobilitätsanforderungen der modernen Gesellschaft gerecht wird. Smart Mobility strebt an, Lösungen zu entwickeln, die von IKT unterstützt werden und die Umweltbelastung und Lärmbelästigung signifikant verringern. Dies beinhaltet die Weiterentwicklung bewährter Transportkonzepte, wie autonome und emissionsfreie Verkehrslösungen, sowie die Optimierung des Verkehrsflusses durch Echtzeit-Verkehrsleitsysteme. Darüber hinaus kann auch die Integration alternativer Mobilitäts- und Stadtplanungskonzepte, wie z.B. die Förderung einer "Stadt der kurzen Wege", die idealerweise ohne motorisierten Verkehr auskommt, Teil einer Smart Mobility-Strategie sein.Smart Environment: Im Bereich des Smart Environment lassen sich intelligente Ansätze zur Verringerung des Energie- und Ressourcenverbrauchs verorten. Dazu gehört u.a. die Verbesserung der Überwachung und Steuerung von Umweltbedingungen, beispielsweise durch kontinuierliche Überwachung der Luft- oder Wasserqualität. Diese Herangehensweise erfordert gleichzeitig eine verstärkte Nutzung erneuerbarer Energiequellen. IKT-basierte Anwendungen und Infrastrukturen wie Smart Grids spielen hierbei eine entscheidende Rolle, da sie dazu beitragen, das Angebot und die Nachfrage von Energie effizienter aufeinander abzustimmen.Smart Living: Dieser Bereich zielt darauf ab, IKT-basierte Anwendungen stärker einzubinden und damit zu einer Verbesserung der Lebensqualität der Bürger*innen beizutragen. Dies kann z.B. durch einen höheren Komfort bei der Bedienung drahtlos vernetzter Haushaltsgeräte, wie der Kaffeemaschine oder der Heizung, geschehen (vgl. Steinbrecher, Salg, Starzets 2018, S. 2).Im Folgenden werden konkrete Handlungsfelder und Anwendungsbereiche des Konzepts Smart City betrachtet, wobei der Fokus insbesondere auf die Umsetzung in der Stadt Freiburg im Breisgau liegt. Welche Ideen, Innovationen und Anwendungen konnten in Freiburg bisher realisiert werden und was plant die Stadt weiter in Richtung Smart City? Um ein umfassendes Bild der Thematik zu erlangen, werden im Anschluss die damit zusammenhängenden Chancen und Herausforderungen für die Transformation urbaner Räume durch das Konzept der Smart City dargestellt. Chancen von Smart City-Konzepten – die Stadt Freiburg im Breisgau"Gutes Zusammenleben, saubere Luft angenehmes Stadtklima, emissionsarme Mobilität, Raum für Fußgänger, attraktiv für Kreative und Engagierte, Unternehmen und Gäste. Sicherer Alltag, freundliche und offene Quartiere, in denen wir gerne leben" (vgl. Digitalstrategie Freiburg, S. 1).Im Folgenden wird die Stadt Freiburg zur Betrachtung herangezogen und danach gefragt, wie diese die Inhalte und Prinzipien des Konzepts Smart City konkret umsetzt. Welche Chancen und Herausforderungen ergeben sich dabei für Freiburg, aber auch für andere Städte auf dem Weg in die "smarte" Richtung? Das folgende Video gibt einen Überblick über die (digitalen) Ziele der Stadt (digital.freiburg 2019: https://www.youtube.com/watch?v=3clTSCU1NjY) Freiburg ist eine der zahlreichen Städte in Deutschland, die damit begonnen haben, bestimmte Maßnahmen bezüglich des Feldes der "smarten" Stadtplanung und Stadtentwicklung anzugehen. Dabei haben die Städte Freiburg, Mannheim, Aalen und Heidenheim in Baden-Württemberg im Jahr 2020 beim Bundeswettbewerb "Smart Cities made in Germany" eine Förderung für digitale Zukunftsprojekte erhalten (vgl. LpB BW 2022, o.S.).Freiburg hat eine Digitalstrategie entwickelt hinsichtlich der Frage, wie Digitalisierung helfen kann, die Stadt nach den Vorstellungen der Menschen zu entwickeln. Diese digitale Agenda besteht aus insgesamt sechs Themenfeldern. Jedes Themenfeld umfasst Maßnahmen und Ziele, welche die Entwicklung der Stadtgesellschaft im Blick haben. Die Digitalisierungsstrategie beschreibt das Freiburg der nächsten sechs Jahre und zielt auf das Jahr 2025 ab (vgl. Digitalstrategie Freiburg, S. 6).Digitalstrategie Freiburg: https://digital.freiburg.de/digitalstrategie Im Folgenden werden die sechs Themenfelder der Strategie und einige damit zusammenhängende Maßnahmen betrachtet, um ein umfassenderes Bild der Smart City Freiburg gewinnen zu können.1. Lebenswelten. Familie. GesundheitDigitales Nachbarschaftsnetzwerk: Freiburg entwickelt unter dem Namen "Soziale Nachbarschaft und Technik" (SoNaTe) aktuell ein digitales Kommunikationsnetzwerk. Dabei sollen soziale Nachbarschaften in Kommunen und Regionen gestärkt werden. Das Ziel ist die lokale Verbindung von Menschen, Gruppen, Organisationen und Unternehmen, aber auch die Vereinfachung des Zugangs zu Kommunikation, Dienstleistungen, Infrastruktur und Freizeitangeboten. Die Plattform als Alternative zu etablierten sozialen Medien soll bundesweit eingesetzt werden und die Teilhabe ihrer Nutzer*innen gewährleisten.Online-Vermittlung von Räumen in der Stadt: Die Stadt arbeitet in Zusammenarbeit mit verschiedenen Kooperationspartnern daran, ein Online-Tool zur Vermittlung von Räumlichkeiten zu entwickeln. Dieses Tool soll dazu beitragen, die gemeinsame und effiziente Nutzung von städtischen Räumen, Hallen und Vereinsräumen zu fördern. Darüber hinaus wird es dazu beitragen, das vielfältige Engagement von städtischen Initiativen besser sichtbar zu machen.Digitale Unterstützung bei Feuerwehr und Rettungsdienst: Die Integrierte Leitstelle (ILS) in Freiburg befindet sich derzeit in der Entwicklungs- und Testphase als Pilotstandort für eine fortschrittliche Handyortung namens AML (Advanced Mobile Location) im Falle eines Notrufs über Smartphones. Zusätzlich unterstützt die ILS Freiburg die Ersthilfe-App namens "FirstAED", die dazu dient, die nächstgelegenen Ersthelfer zu alarmieren. In Zukunft soll die ILS Freiburg eine automatisierte "Nächste-Rettungsmittel-Strategie" einführen, die auf GPS-Ortung direkt aus dem Einsatzleitsystem der ILS Freiburg basiert. Gleichzeitig wird im Rahmen des Landesprojekts "Leitstelle Baden-Württemberg" ein vernetzungsfähiges Einsatzleit- und Kommunikationssystem aufgebaut. Parallel dazu wird der Ausbau von vernetzten, GPS-gesteuerten Ampelvorrangschaltungen und bevorzugten Strecken vorangetrieben, die auch von Fahrzeugen der Freiwilligen Feuerwehren genutzt werden können (vgl. Digitalstrategie Freiburg, S. 19ff.).2. Gesellschaft. Ethik. VertrauenBürgerschaftliche Beteiligung mit digitalen Mitteln: Um sicherzustellen, dass die Bürgerinnen und Bürger von Freiburg effektiv und einheitlich an städtischen Angelegenheiten teilnehmen können, wurde ein IT-gestütztes Instrument eingeführt. Die Website "mitmachen.freiburg.de" bietet verschiedene Beteiligungsmodule an, die je nach Art des Projekts flexibel eingesetzt werden können. Die Online-Beteiligung wird aktiv ausgebaut und soll als Standardmethode neben den traditionellen analogen Beteiligungsformaten etabliert werden. Zusätzlich soll die formelle Beteiligung der Bürger*innen bei der Bauleitplanung durch den Einsatz digitaler Tools vereinfacht und verbessert werden. In Zukunft wird die Stadtverwaltung verschiedene Formen der Beteiligung anbieten, die im Einklang mit dieser Digitalisierungsstrategie stehen (vgl. Digitalstrategie Freiburg, S. 31).3. Bildung. Kultur. WissenschaftIndustrie 4.0-Labor-Walter-Rathenau-Gewerbeschule: Im Mai 2018 wurde ein Labor eingerichtet, das mit digital gesteuerten Produktionsmodulen wie Industrierobotern und Automatisierungssystemen ausgestattet ist. Ziel war es, intelligente Produktionsprozesse zu entwickeln und Schulungen auf der Grundlage realer Industriestandards durchzuführen. Dieses Labor ist äußerst flexibel, da seine Komponenten und Schnittstellen denen in der Industrie gleichen. Es kann problemlos an aktuelle Entwicklungen und neue Industriestandards angepasst werden. Die Einrichtung des Industrie 4.0-Labors erfolgte in enger Abstimmung mit den Anforderungen der Wirtschaft und wurde speziell auf den Schulbetrieb abgestimmt. Die Finanzierung für dieses Labor erfolgte ausschließlich aus dem städtischen Haushalt.Museen Digital: Die Planungen für das "Museum der Zukunft" umfassen die Erwägung neuer Ausstellungsformate im Kontext der Digitalisierung. Dabei werden innovative digitale Vermittlungswege sowie die Nutzung von Social Media in Betracht gezogen. Ein Hauptziel besteht darin, den Besucherinnen und Besuchern einen einfachen und unmittelbaren Zugang zu Informationen und den Dienstleistungen der Museen zu ermöglichen. Die Ausstellungsinhalte sollen durch vielfältige multimediale und interaktive Vermittlungsformate lebendiger erlebbar gemacht werden. Dies könnte den Einsatz von Technologien wie Augmented Reality, 3D-Visualisierungen und sogar spielerische Elemente wie Gaming-Formate einschließen. Eine zentrale Grundlage für die digitale Vermittlung ist eine umfangreiche Museumsdatenbank, die als Wissensspeicher dient und die digitale Sammlung erweitert. Auf dieser Basis kann die Museumsdatenbank in einem weiteren Schritt mit den physischen Ausstellungsobjekten verknüpft werden, um die reale Ausstellung um Informationen zu Entstehungsprozessen, Techniken, Materialien und Geschichte zu bereichern (vgl. Digitalstrategie Freiburg, S. 43ff.).4. Digitale StadtverwaltungDigitaler Posteingang, Digitale Akten- und Vorgangsverwaltung: Die Einführung der elektronischen e-Akte ist bereits weit fortgeschritten und bildet das Fundament für die Digitalisierung in der Verwaltung. Sie eröffnet die Möglichkeit zur Effizienzsteigerung von Arbeitsabläufen und ermöglicht flexibleres Arbeiten, unabhängig von Zeit und Ort. Dies hat zur Folge, dass Informationen und Dokumente nicht mehr in vielfacher Ausführung und in verschiedenen Medien an verschiedenen Orten aufbewahrt werden müssen. Die Einführung der e-Akte ermöglicht sogenannte "medienbruchfreie" Prozesse und verbessert die Dienstleistungen für Bürgerinnen und Bürger. Die positiven Auswirkungen der e-Akte erstrecken sich somit über die internen Verwaltungsabläufe hinaus.Digitale Stadt- und Bauplanung: Wie viele Großstädte in Deutschland steht auch Freiburg vor der Herausforderung, schnell neuen und bezahlbaren Wohnraum zu schaffen, der gleichzeitig umweltfreundlich und nachhaltig ist. Um diesem Bedarf gerecht zu werden, sollen Bauplanung und baurechtliche Verfahren mithilfe digitaler Werkzeuge vereinfacht werden. Aktuell werden die baurechtlichen Aspekte in der gesamten Stadt digital erfasst. Gleichzeitig werden neue Bauprojekte in einem standardisierten digitalen Format entwickelt (XPlanung/XBau). Dieser Ansatz ermöglicht nicht nur eine digitale Beteiligung aller Betroffenen in den verschiedenen Phasen des Planungsprozesses, sondern ebnet auch den Weg für digitale Bauanträge. Durch teilautomatisierte digitale Prüfungen wird die Zeitspanne von der Antragstellung bis zur Genehmigung verkürzt. Zusätzlich werden aus den verfügbaren digitalen Informationen dreidimensionale Pläne (ein "digitaler Zwilling") erstellt, die umfassende Analyse- und Berichtsoptionen für die Stadtentwicklung bieten. In diesem Zusammenhang ermöglicht eine detaillierte digitale Darstellung von Gebäudemodellen (Building Information Modeling - BIM) die Verknüpfung von Entwurfsvisualisierungen, Baufortschritt, Genehmigungsverfahren und Gebäudemanagement.Service Management für digitale Bürger*innenanfragen: In Zukunft sollen alle digitalen Anfragen von Bürger*innen in ein zentrales Ticketsystem geleitet werden. Dieses System soll einen einheitlichen, zentral gesteuerten Bearbeitungsprozess bieten. Die verschiedenen Dienststellen und Ämter sollen in dieses Ticketsystem integriert werden und können darüber den gesamten Kommunikationsprozess abwickeln. Die Nutzung von Automatisierung, die Möglichkeit zur Überwachung, Steuerung und Auswertung innerhalb dieses Systems soll die Servicequalität bei der Beantwortung der Anfragen verbessern (vgl. Digitalstrategie Freiburg, S. 57ff.).5. Arbeit. Wirtschaft. TourismusNetzausbau: Masterplan digitale Infrastruktur: Um die Grundlage für den Netzausbau zu schaffen, soll ein Masterplan "digitale Infrastruktur für Freiburg" als Ausbaustrategie erstellt werden, was auch Gigabit-Breitband, 5G sowie Sensorik-Netzwerke einschließen soll. Zusätzlich soll für den Mobilfunk ein koordinierter, aber auch strahlungsmindernder Ausbau in Kooperation mit den Anbietern geschaffen werden (vgl. Digitalstrategie Freiburg, S. 72).6. Netze. Energie. VerkehrIntermodale Verkehrsplattform/App: Die bestehende ÖPNV-Auskunft namens "VAG mobil" sowie der digitale Vertrieb über "MobilTicket" und den "VAG-Online-Shop" werden um neue multimodale Funktionen erweitert. Egal an welchem Ort sich Kunden der VAG in Freiburg gerade befinden, die App zeigt auf einer Karte nicht nur Haltestellen mit Live-Abfahrtszeiten für Busse und Bahnen, sondern auch sämtliche "Sharingpoints" für Fahrzeuge und Fahrräder an. In einem ersten Schritt wurden verfügbare Mietfahrräder des Fahrradverleihsystems "FRELO" in die "VAG mobil"-App integriert, inklusive Buchung, Nutzung und Abrechnungsfunktionen.Umweltsensitives Verkehrsmanagement: Der Luftreinhalteplan sieht vor, dass bei Überschreitung bestimmter Schadstoffwerte an der Messstelle Schwarzwaldstraße die Menge des Verkehrs aus dem Osten, der über die B 31 in die Stadt einfährt, reguliert werden soll. In diesem Kontext wird derzeit untersucht, ob es sinnvoll ist, die bestehende Verkehrssteuerung zu einem umfassenden Verkehrsleitsystem für Freiburg auszubauen. Ein solches System könnte dazu verwendet werden, sicherzustellen, dass nur eine angemessene Anzahl von Fahrzeugen in das Stadtgebiet oder in bestimmte Stadtteile einfährt, die dort ohne größere Störungen bewältigt werden können. Es würde auch die Möglichkeit bieten, auf hohe Schadstoffbelastungen, beispielsweise bei ungünstiger Witterung, und auf akute Verkehrsstörungen wie Baustellen, Unfälle oder Veranstaltungen gezielt zu reagieren.Ausbau öffentliches WLAN: Ein kostenfreies WLAN an Verwaltungsstandorten und öffentlichen Einrichtungen sowie in Bussen und Stadtbahnen soll ausgebaut werden.Belegungserfassung und Leitsystem für P&R-Parkplätze: Durch die Installation von Belegungssensoren an den P+R-Anlagen wird die Belegung effizienter gestaltet und die unerlaubte Nutzung durch Dauerparker*innen oder Fremdparker*innen verringert. Dies ermöglicht es Besuchern und Pendlern, Echtzeitinformationen über die Auslastung der P+R-Parkplätze online über die städtische Website, die App "VAG mobil" und dynamische Wegweiser zu erhalten. Diese Daten werden ähnlich wie im bestehenden Parkleitsystem der Innenstadt verarbeitet. Das Ziel ist es, den Verkehr innerhalb der Stadt zu reduzieren, indem Berufspendler und Besucher leichter freie P+R-Plätze am Stadtrand finden können, um von dort auf den öffentlichen Nahverkehr oder das städtische Fahrradverleihsystem umzusteigen. Darüber hinaus wird durch die Integration weiterer Parkhäuser in das bestehende Echtzeit-Parkleitsystem in der Innenstadt vermieden, dass Parkplatzsuchende unnötige Autofahrten unternehmen müssen.In Anbetracht der vorangegangenen Entwicklungen und Maßnahmen, die in Freiburg im Kontext der Smart City-Initiative geplant und umgesetzt werden, wird deutlich, dass die Stadt aktiv bestrebt ist, intelligente Lösungen zur Bewältigung der heutigen und zukünftigen urbanen Herausforderungen zu implementieren. Freiburg setzt dabei auf Digitalisierung und Technologie, um die Lebensqualität der Bürger*innen zu steigern und gleichzeitig umweltfreundlichere, effizientere und nachhaltigere Stadtstrukturen zu schaffen. Dies zeigt sich in verschiedenen Aspekten, z.B. darin, dass Freiburg grundsätzlich den Anspruch hat, die Menschen in den Fokus der Digitalisierung zu stellen, damit diese den Prozess der Digitalisierung aktiv mitgestalten können, was im Hinblick auf die Einrichtung der Online-Beteiligungsplattform "mitmachen.freiburg" deutlich wird (Mitmachen.Freiburg: https://mitmachen.freiburg.de/stadtfreiburg/de/home). Darüber hinaus investiert die Stadt in die Entwicklung digitaler Plattformen und Services, die den Zugang der Bürger*innen zu städtischen Dienstleistungen verbessern. Im Bereich des Verkehrs und der Mobilität trägt Freiburg mit der Einführung von intelligenten Verkehrssystemen, der Optimierung des Nahverkehrs sowie im Rahmen des Belegungssystems für P+R Parklätze dazu bei, den Verkehr in der Stadt effizienter und nachhaltiger zu gestalten.Zusammenfassend lässt sich sagen, dass die Stadt Freiburg auf unterschiedliche Weise in Richtung Smart City moderne Technologien und digitale Lösungen einsetzt, um die Lebensqualität zu steigern, Umweltbelastungen zu reduzieren und die Stadt insgesamt effizienter und nachhaltiger zu gestalten. Die zuvor genannten Beispiele der verschiedenen Themenfelder haben gezeigt, dass Tendenzen im Hinblick auf Konzepte und Bereiche der Smart City geplant, umgesetzt und auch funktionieren können. Trotzdem stehen Städte wie Freiburg vor einigen Herausforderungen bei der Implementierung und Umsetzung von Strategien und Plänen im Sinne von Smart City.Herausforderungen für Smart CitiesDW Shift (2020): https://www.youtube.com/watch?v=VRRPy-yEKRM Smart Cities stehen vor einer Reihe von Herausforderungen, während sie sich bemühen, technologische Lösungen zur Verbesserung der Lebensqualität, Nachhaltigkeit und Effizienz in städtischen Gebieten zu implementieren. Dazu gehören die Aspekte Sicherheit, Datenschutz und Privatsphäre, Inklusion und Chancengleichheit sowie finanzielle Aspekte.Das Konzept der Smart City sieht in verschiedenen Teilbereichen das Sammeln einer Fülle von Daten vor. Hierbei gilt es zu beachten, dass Digitalisierung dem Menschen dienen sollte und die Implementierung von Smart City-Elementen nicht eine übermäßige Überwachung der Bürger*innen voraussetzt. Dabei stellen die Sicherheit und die Privatsphäre der Bürger*innen zentrale Punkte dar, die es zu beachten und zu berücksichtigen gilt (vgl. LpB BW 2022, o.S.).Die Landeszentrale für politische Bildung Baden-Württemberg (2022, o.S.) führt an, dass sich eine Smart City an den Grundsätzen der Digitalcharta des Wissenschaftlichen Beirats der Bundesregierung orientieren sollte. Hierzu gehört in erster Linie die Wahrung der Menschenwürde im Digitalen. Darüber hinaus gilt, dass jeder Mensch das Recht auf Identität, Datenschutz und Privatsphäre hat. An dieser Stelle stellt sich bei dieser großen Menge an gesammelten Daten die Frage, was mit den gesammelten Daten passiert, wer darauf Zugriff hat und was damit gemacht wird (vgl. Stöckl 2022, o.s.). Unter einer Unsicherheit im Hinblick auf Datenschutz und Privatsphäre kann die Effizienz von Smart Cities leiden sowie das Vertrauen in öffentliche Behörden, was die Einrichtung von ausreichendem Datenschutz und Transparenz zu einer zentralen Herausforderung macht (vgl. Stöckl 2022, o.S.).Eine weitere Herausforderung für Smart Cities ist die Gewährleistung von Inklusion und Chancengleichheit. Es wird davon ausgegangen, dass digitale Infrastrukturen für alle Menschen zugänglich sein und überdies gleiche Chancen für gesellschaftliche Teilhabe und Entfaltung bieten sollten. Das stellt die Städte vor Schwierigkeiten, da es immer technikaffine und weniger technikaffine Menschen sowie Menschen unterschiedlichen Alters mit unterschiedlichen Fähigkeiten geben wird. Somit sollte im Idealfall bei der Digitalisierung der Städte darauf geachtet werden, dass beispielsweise nicht-technikaffine Bürger*innen keine Nachteile oder Ausgrenzung erfahren. Es stellt sich demnach die Frage, ob es sinnvoll ist, z.B. den Kauf von Parktickets oder Bahnfahrkarten ausschließlich über Smartphones zur Verfügung zu stellen, da nicht alle Menschen ein Smartphone besitzen (vgl. LpB BW 2022, o.S.). Somit ist die Gewährleistung, dass die Vorteile der Digitalisierung niemanden abhängen oder zurücklassen, mitunter eine der größten Herausforderungen für eine Smart City (vgl. Stöckl 2022, o.S.).Was als weitere zentrale Herausforderung hinzukommt, mit der jede Stadt zwangsläufig konfrontiert wird, wenn es um die Planung und Umsetzung von Anwendungen und Strategien hinsichtlich des Smart City-Konzeptes geht, ist der Aspekt der Finanzierung. Für eine erfolgreiche Finanzierung müssen verschiedene Finanzierungsinstrumente und -strategien herangezogen werden, wozu öffentliche sowie private Akteure gehören. Die Planung und Durchsetzung von Geldern hinsichtlich der Einrichtung von Smart City muss von den Städten demnach ausreichend durchdacht und organisiert werden (vgl. Hinterberger et. al. 2015, S. 4).FazitARTE (2023): Retten Städte die Welt? https://www.youtube.com/watch?v=dUkrIDg0_8c Smart Cities bieten eine Vielzahl von Chancen und Möglichkeiten, die die Lebensqualität der Bürgerinnen und Bürger verbessern, die Effizienz städtischer Dienstleistungen steigern und zur nachhaltigen Entwicklung beitragen können. Folgende Schlussfolgerungen konnten aus der Betrachtung der Smart City Freiburg gezogen werden:Smart City-Technologien können die Lebensqualität in städtischen Gebieten erheblich steigern. Dies umfasst eine bessere Luftqualität, weniger Verkehrsstaus, sauberes Wasser, sichere Straßen und öffentliche Plätze sowie den Zugang zu hochwertigen Bildungs- und Gesundheitseinrichtungen. Sie können zusätzlich die Effizienz städtischer Dienstleistungen steigern, was den effizienten Einsatz von Energie, Wasser und Ressourcen, die Optimierung des öffentlichen Verkehrs und die Verbesserung der Verwaltung inkludiert.Einen weiteren Aspekt stellt die Bürgerbeteiligung dar. Smart City-Initiativen können die Beteiligung der Bürgerinnen und Bürger am städtischen Leben fördern. Das schließt die Möglichkeit ein, Feedback zu geben, an Entscheidungsprozessen teilzunehmen und städtische Dienstleistungen zu personalisieren. Zusätzlich können intelligente Verkehrsmanagementsysteme und vernetzte Verkehrslösungen dazu beitragen, den Verkehrsfluss zu optimieren, Staus zu reduzieren und die Sicherheit im Straßenverkehr zu erhöhen. Insgesamt bieten Smart Cities die Möglichkeit, Städte lebenswerter, nachhaltiger und effizienter zu gestalten und die Lebensqualität der Menschen zu verbessern. Durch die Integration von Technologie und Innovation können viele der heutigen urbanen Herausforderungen angegangen werden.Die Betrachtung der verschiedenen Themenfelder und Maßnahmen der Smart City Freiburg im Rahmen ihrer Digitalstrategie konnte aufzeigen, dass sich zwar viele Ideen bereits in der Planung und Entwicklung befinden, es aber an einigen Stellen noch an technischen Strukturen oder Fachkräften fehlt, die die Entwicklung und Durchsetzung vorantreiben würden.Trotz der Möglichkeiten und Chancen sind Smart Cities mit einigen Herausforderungen konfrontiert, darunter finanzielle Herausforderungen, denn die Entwicklung und Implementierung der Initiativen erfordern die nötige Technologie, Infrastruktur und Fachkräfte. Eine Stadt muss demnach Finanzierungsquellen finden, um diese Projekte umzusetzen bzw. aufrechtzuerhalten.Als weiterer Punkt wurde der Datenschutz genannt. Die Erhebung von Daten in einer Smart City erfordert Datenschutz- und Sicherheitsmaßnahmen. Die Stadt muss sicherstellen, dass mit den Daten der Bürger*innen sorgsam umgegangen wird und dass sie vor Sicherheitsrisiken geschützt sind. Eine weitere Herausforderung besteht darin, sicherzustellen, dass alle Bürger*innen von den Smart City-Lösungen profitieren können. Dies erfordert Maßnahmen, um sicherzustellen, dass die Technologie für alle zugänglich ist, unabhängig von ihrem sozioökonomischen Status oder ihrer technischen Affinität.Es hat sich gezeigt, dass die Einbeziehung der Bürger*innen in den Prozess der Smart City-Gestaltung entscheidend ist, jedoch auch eine Herausforderung darstellt. Die Stadt muss Mechanismen entwickeln, um die Meinungen und Bedenken der Bevölkerung zu berücksichtigen und transparente Entscheidungsprozesse zu gewährleisten, wie man am Beispiel der Stadt Freiburg sehen konnte. Die Betrachtung der Stadt Freiburg zeigt, dass die Herausforderungen, vor denen Städte bei der Umsetzung von Smart City-Initiativen stehen, vielfältig sind und eine sorgfältige Planung und strategische Herangehensweise erfordern. Eine ganzheitliche Betrachtung unter Berücksichtigung von finanziellen, technischen, sozialen und ökologischen Aspekten ist entscheidend für den Erfolg.QuellenARTE (2023): Retten Städte die Welt? Video: https://www.youtube.com/watch?v=dUkrIDg0_8c (zuletzt aufgerufen: 10.09.2023)Bundeszentrale für politische Bildung (bpb) (2017): Verstädterung, online unter: https://www.bpb.de/kurz-knapp/zahlen-und-fakten/globalisierung/52705/verstaedterung/ (zuletzt aufgerufen: 10.09.2023)Digitalstrategie der Stadt Freiburg, online unter: https://digital.freiburg.de/digitalstrategie (zuletzt aufgerufen: 10.09.2023)DW Shift (2020): Smart City: How do you live in a Smart City? Future Smart City Projects. Surveillance or Utopia? Video: https://www.youtube.com/watch?v=VRRPy-yEKRM (zuletzt aufgerufen: 10.09.2023)Etezadzadeh, Chirine (2015): Smart City- Stadt der Zukunft? Die Smart City 2.0 als lebenswerte Stadt und Zukunftsmarkt. Springer Vieweg. Wiesbaden.Hadzik, Tobias (2016): Smart Cities. Eine Bestandsaufnahme von Smart City- Konzepten in der Praxis. Epubli Ebooks. 3. Auflage.Hinterberger, Robert/ Kopf, Thomas/ Linke, Alexander/ Stühlinger, Lukas (2015): Finanzierungshandbuch Smart Cities. Smart Finance for Smart Cities. Wien, online unter: https://www.klimafonds.gv.at/wp-content/uploads/sites/16/Smart-FinanceFinanzierungshandbuch.pdf (zuletzt aufgerufen: 10.09.2023).Hoppe, Klaus (2015): Der Smart City- Ansatz. Chancen und Herausforderung für Städte und Gemeinden. Klima-Bündnis. Arbeitsgruppe Energieversorgung 2050, online unter: https://klaushoppe-consulting.de/wp-content/uploads/2018/06/1_Der_Smart_Cities_Ansatz.pdf (zuletzt aufgerufen: 10.09.2023)Jaekel, Michael (2015): Smart City wird Realität. Wegweiser für neue Urbanitäten in der Digitalmoderne. Springer Vieweg. Wiesbaden.Landeszentrale für politische Bildung Baden-Württemberg (lpB) (2022): Smart City- die Stadt der Zukunft? Technologie in der nachhaltigen Stadtentwicklung, online unter: https://www.lpb-bw.de/smart-city#c56712 (zuletzt aufgerufen: 10.09.2023).Libbe, Jens (2019): Lost in Transformation: Rezension zu 'Smart City. Kritische Perspektiven auf die Digitalisierung in Städten' von Sybille Bauriedl und Anke Strüver (Hg.). Soziopolis: Gesellschaft beobachten, online unter: https://www.ssoar.info/ssoar/handle/document/82404 (zuletzt aufgerufen: 10.09.2023)Mitmachen. Freiburg: https://mitmachen.freiburg.de/stadtfreiburg/de/home (zuletzt aufgerufen: 10.09.2023)Stadt Freiburg (2019): digital.freiburg. Video: https://www.youtube.com/watch?v=3clTSCU1NjY (zuletzt aufgerufen: 10.09.2023)Steinbrecher, Johannes/ Salg, Julian/ Starzetz, Julia (2018): Viele bunte Smarties?! Die Smart City als Lösung kommunaler Herausforderungen? KfW Research. Fokus Volkswirtschaft. Nr. 204, online unter: https://www.kfw.de/PDF/Download-Center/Konzernthemen/Research/PDF-Dokumente-Fokus-Volkswirtschaft/Fokus-2018/Fokus-Nr.-204-April-2018-Smart-Cities.pdf (zuletzt aufgerufen: 10.09.2023)Stöckl, Benedikt (2022): 'Smart Cities' bergen Chance, aber auch Risiken für gesellschaftlichen Zusammenhalt. Euractiv, online unter: https://www.euractiv.de/section/innovation/news/smart-cities-bergen-chancen-aber-auch-risiken-fuer-gesellschaftlichen-zusammenhalt/ (zuletzt aufgerufen: 10.09.2023)Weiland, Ulrike (2018): Stadt im Klimawandel. Bundeszentrale für politische Bildung (bpb), online unter: https://www.bpb.de/themen/stadt-land/stadt-und-gesellschaft/216883/stadt-im-klimawandel/ (zuletzt aufgerufen: 10.09.2023)
In: http://orbilu.uni.lu/handle/10993/30996
Overview and introduction "Which organizational forms produce science? Expansion, diversity, and cooperation in Germany's higher education and science system embedded within the global context, 1900-2010". Already the title of my dissertation manifests an approach that examines the topic of the development of scientific productivity in the German higher education and science landscape from different perspectives: levels, dimensions, and an extensive timeframe. Deriving from and contributing to the international research project "Science Productivity, Higher Education, Research and Development, and the Knowledge Society" (SPHERE), my research focuses on the investigation of the influence of higher education development and science capacity-building on scientific knowledge production, globally, comparatively, and considerable depth for Germany, a key science producer for well over a century. Focusing mainly on the different structures and institutional settings of the German higher education and science system, the dissertations shows how these affected and contributed to the long-term development of scientific productivity worldwide. The historical, comparative, and in-depth analyses are especially important in light of advancing globalization and internationalization of science, stronger networks of scientists worldwide, and the emergence of the "knowledge society". The research design combines macro- and meso-level analyses: the institutionalized and organizational settings in which science is produced. Since information about single authors was limited in availability, extensive micro-level analyses were not possible here, yet the research articles analyzed were all written and published by individuals working in organizations, which are in the center of analysis here. By reference to the dimensions expansion, diversity, and cooperation, I elaborated the frame of my investigation, and sorted my research questions, including country, organizational field and form, and organizational levels. The structure of this work (see outline) addresses these themes and the observed timeframe spans the years from 1900 to 2010 – more than a century (see section 1.2). My main goal was to investigate how and why scientists publish their research results in peer-reviewed journal articles. The point is to emphasize the importance of scientific findings/discoveries, because non-published results are non-existent for the scientific community. From the ways and in which formats scientists publish their work, we can deduce how science is organized (within and across disciplines). My dissertation analyzes publications in peer-reviewed journals, because they are the most important format – alongside patents in applied fields – to disseminate new knowledge in science, technology, engineering, mathematics, and health (hereafter STEM+ fields). Articles not only record new knowledge, but also contribute to the reputation of researchers and their organizations. Journal publications in reputable journals with peer-review have become the "gold standard" measure of scientific productivity. Within the last several decades, the scientization of many dimensions of societal life proceeded, and the generation of new knowledge increasingly became the focus of political, economic, and social interests – and research policymaking. Therefore, it is important to identify the institutionalized settings (organizations/organizational forms) in which science can best be produced. Here, the diverse types of organizations that produce science – mainly universities, research institutes, companies, government agencies and hospitals – were identified and differences and similarities of these organizational forms were analyzed on the basis of their character, goals, tasks, and the kinds of research their members produce. In a first step, I show why I structured my work at the interface of higher education research, science studies, and bibliometrics (see chapters 2 and 5). Analyzing publications is still the key task of bibliometrics, but the results are used by many other actors as well: higher education managers, politicians, and scientists themselves to make claims about the quality of science, to compare each other, or to influence the structure, organization, and output of the higher education and science system. While it is difficult to make direct statements about the quality of research on the basis of simply counting the number of research articles a scientist publishes, the quality of journals is used as a proxy to compare across disciplines. To measure quality, other parameters are necessary. Thus, here statements focus on the quantity of science produced, not on the intrinsic quality of the analyzed research articles, the specific research achievements of individual scholars, organizations or organizational forms, or even countries. Nevertheless, output indicators elaborated here definitely show the huge expansion of scientific production and productivity, the stability of the research university over time as the most important science producer in Germany, but also rising differentiation and diversification of the organizational forms contributing to overall scientific output. Furthermore, the start of a considerable and on-going rise in national and international collaborations can be dated to the early 1990s. The chapter about the multidisciplinary context (see chapter 2) discusses the relationship between higher education research and science studies in Germany as well as the special position of scientific knowledge in comparison to other forms of knowledge. Scientific knowledge is generated, distributed, and consumed by the scientific community. To get an overview about the most important studies in the field, and to contextualize my work within the already existing empirical studies, I describe the current state of research in chapter 3. Research questions Section 1.2 provides a detailed description of my research questions: Which organizational forms produce science? 1. How has worldwide and European scientific productivity developed between 1900 and 2010 in comparison? 2. How has the German higher education and science system been embedded in the global developments of higher education and science over time? 3. How has scientific productivity in Germany developed between 1900 and 2010? 4. Among all science-producing organizational forms, what do the key organizational forms contribute to scientific productivity? 5. Which organizational forms provide the best conditions for scientific productivity? 6. Which single organizations produce the most research in Germany? 7. What is the impact of increasing internationalization of research on national and international cooperation, measured in publications in scientific journals? Theoretical framework Theoretically (see chapter 4), I apply a neo-institutional (NI) framework to explore and explain both the tremendous expansion of higher education and science across the world and considerable differences across time and space in the institutional settings, organizational forms, and organizations that produce scientific research in Germany. Sociological NI focuses on understanding institutions as important in guiding social action and shaping processes of social development. Such an approach emphasizes the development, functioning, and principles of institutions. Milestones in NI describe the nexus of organization and society supposing that organizational structures express myths and reflect ideals institutionalized in their environment. While capturing, copying, and asserting these, structural similarity (institutional isomorphism) between organizations in society will be established. The concept of "organizational field" emphasizes relationships between organizations within an environment. Organizational fields (communities) consist of all relevant organizations. In section 4.1.2 I discuss the differences between institutions and organizations and the difficulty of a distinction of the terms, especially in German-speaking sociology, which does not distinguish clearly between these terms. Fundamentally, NI approaches differ in the dimensions or pillars and levels of analysis they privilege (see figure 5, p. 80), but they share fundamental principles and the theoretical framework. Thus NI is particularly suitable for a multi-level analysis of scientific productivity across time and space. The historical development of the German higher education and science system must analyzed considering also global developments, because on the one hand it had an enormous impact on the development of other systems worldwide, and, on the other hand, global trends affect the on-going institutionalization and organization(s) of science in Germany. Intersectoral and international cooperation is growing and becoming increasingly important, leading to diverse networks within and between higher education and science systems worldwide. The classical, national case study is hardly longer possible, because macro units like countries are highly interdependent, embedded in global, regional and local relationships, such that borders between the global and the national dimension are increasingly blurred. Nevertheless, countries are units with clearly defined boundaries and structures, thus they can be handled as units to compare. The theoretical perspectives and different levels of analysis addressed here are displayed in Figure 5. I apply the "world polity" approach as a broader lense with which to make sense of the truly global arena of higher education and science (macro level). The focus of this perspective is on global and international structures and processes, which developed over time. Through this perspective, I explore global diffusion and formal structures of formal principles and practical applications. Combining historical and sociological institutionalism helps to focus on developments and processes over time on the meso level, to explain how institutions have developed and change(d). The concepts of "critical junctures" and path dependencies are useful to explain these processes over time. To describe the transformation of knowledge production over the entire twentieth century, and to analyze different organizational forms that produce science in Germany, two prevalent theoretical concepts are discussed: Mode 1 versus Mode 2 science, and the Triple-Helix model to describe the relationship between science, industry and state. In "The New Production of Knowledge" Michael Gibbons and his colleagues describe the transformation of knowledge from an academic, disciplinary, and autonomous – "traditional" – organization of science (Mode 1) with a focus on universities as the key organizational form, to a more applied, transdisciplinary, diverse, and reflexive organization of science (Mode 2) that features a more diverse organization of science, relying on a broader set of organizations producing knowledge. Within the literature, debates center on whether this new model has replaced the old, and which of these models best describes the contemporary organization of science (here: the STEM+ fields). In turn, the Triple-Helix model preserves the historical importance of the universities. This approach assumes that future innovations emerge from a relationship between universities (production of new knowledge), industry (generation of wealth), and state (control). Data and methods In these analyses, only peer reviewed journal publications were used – as the best indicator for measuring the most legitimated, authoritative produced science. This focus enabled an investigation of publications in-depth and over a 110 year timeframe. Research articles in the most reputable, peer-reviewed, and internationally reputable journals are the gold standard of scientific output in STEM+. The data I used is based on a stratified representative sample of published research articles in journals in STEM+-fields. My measure relies on the key global source for such data, the raw data from Thomson Reuters' Web of Science Science Citation Index Expanded (SCIE) (the other global database is Elsevier's Scopus, which also indexes tens of thousands of journals), which was extensively recoded. Methodologically, my approach is based on a combination of comparative institutional analysis across selected countries and historically of the German higher education and science system, and the systematic global evaluation of bibliometric publication data (see chapter 6). The SCIE includes more than 90 million entries (all types of research), mainly from STEM+-fields. I focus on original research articles, because this type of publication contains certified new knowledge. The SPHERE dataset covers published research articles from 1900 to 2010. From 1900 to 1970, we selected data in 5-year-steps in the form of a stratified representative sample. From 1975 onwards full data is available for every year. Depending on the research question, either five or ten-year steps were analyzed. A detailed description of the sampling and weighting of the data can be found in chapter 6. In consideration of the criteria above, I analyzed 17,568 different journals (42,963 journals were included into the database if we count the same journals in different years), and a total of 5,089,233 research articles. To prepare the data for this research, it had to be extensively cleaned and coded. Very often our international research team found missing information on the country level and/or on the level of organizations/organizational forms. From June 2013 to December 2015, research in the archives of university libraries was necessary to manually add missing information, particularly organization location and author affiliations. In the field of bibliometrics, we find different methods to count publications. In this work, I mainly apply the "whole count" approach (see table 1, p. 126). This decision is based on the assumption that every author, organization, or country contributed equally to a publication. An overestimation of publications can't be precluded, because research articles are counted multiple times, if a paper is produced in co-authorship, which has been rising worldwide over the past several decades. The absolute number of publications (worldwide, Europe, Germany) is based on a simple counting of research articles (without duplicates, in cases of co-authored articles). Summary of the most important results The empirical part of my work is divided into three parts. In the following sections, I will present the most important findings. The global picture – higher education and science systems in comparison The central question of my research project was "which organizational forms produce science"? For a better understanding and classification of the results of my case study, I embedded the German higher education and science system into the European and global context. I answered the questions "how did the worldwide and European scientific productivity developed between 1900 and 2010 in comparison", and "how was/is the German higher education and science system embedded in global developments of higher education and science over time" as follows: First, I show that the worldwide scientific growth followed a pure exponential curve between 1900 and 2010 (see figures 3 and 10; pp. 50, 147) – and we can assume that this strong upward trend continues today. The massive expansion of scientific production had and still has a tremendous influence on societal developments, beyond simply economic and technical developments, but rather transforming society. I show that higher education and science systems worldwide exhibit communalities, which have led to similar developments and expansion of scientific productivity. The comparison of important European countries (Germany in comparison with Great Britain, France, Belgium and Luxembourg) uncovered the contribution of the development and spread of modern research universities and the extraordinary and continued rise in publication output (see section 7.2; Powell, Dusdal 2016, 2017a, 2017b in press). Within the global field of science, three geographical centers of scientific productivity have emerged over the twentieth century: Europe, North America, and Asia. Their relative importance fluctuates over time, but today all three centers continue to be the key regions in the production of scientific research in STEM+ journals. Especially in Asia, the growth rates have risen massively in recent years (Powell et al. 2017 in press). Second, I investigated that all countries worldwide invest more into research and development (R&D) (figure 9, p. 140). These investments have a clear impact on the scientific productivity of nations, yet there are important differences between countries in absolute production and productivity rates. Alongside direct investments in R&D or the application of patents in STEM+-fields that influence the expansion of science, the capacity for producing more knowledge fundamentally depends on rising student enrolments, a growing number of researchers, the widening of research activities into various arenas of society, the development of products, and the (re-)foundation of universities (Powell, Baker, Fernandez 2017 in press). As part of the higher education expansion and massification during the 1960s and 70s, the numbers of researchers and students rose tremendously. The growth of scientific publications thus results from the on-going institutionalization of higher education and science systems worldwide. The growth of publications is also explained by the steady growth in the number of researchers working within these growing – and increasingly interconnected – systems. Third, I could reject the argument of Derek J. de Solla Price that the pure exponential growth of scientific literature has to flatten or would slow-down several decades after the advent of "big science" (see paragraph 2.4; figure 4 and 10; p. 53, 147). Although radical historical, political, economical, and technical events (see figure 11, p. 150) led to punctual short-term decreases in publication outputs, the long-term development of universities and other organizational forms producing science led to sustained growth of scientific publications, with the numbers of publications rising unchecked over the long twentieth century. In 2010, the worldwide scientific productivity in leading STEM+ journals was about one million articles annually. Fourth, I could show that the absolute numbers have to be put into perspective and standardized in relation to the investments in R&D, the size of the higher education and science systems, the number of inhabitants (see figure 12, p. 159), and the number of researchers (table 3, p. 162; figure 13, p. 164). The initial expansion of scientific publications in STEM+-fields is based on a general growth of higher education and science systems. The different institutional settings and organizational forms that produce science have an impact on scientific productivity. The selected country case studies – Germany, Great Britain, France, Belgium and Luxembourg – demonstrate that systems with strong research universities are highly productive; they seem to provide conditions necessary for science. As a result, not only the number and quality of researchers is important, but also the institutional and organizational settings in which they are employed. Fifth, in international comparison, Germany continues to contribute significantly to scientific productivity in STEM+ fields. With an annual growth rate of 3.35%, Germany follows the United States and Japan. In 2014, German governments invested €84.5 billion in R&D – 2.9% of overall GDP. The EU-target of 3% by 2020 was barely missed. In 2010, Germany produced 55,009 research articles (see table A5). In comparison to Great Britain, France, Belgium and Luxemburg, Germany still leads in scientific output in Europe –comparing just the absolute numbers. The size of the country itself and the institutionalization of the higher education and science systems influence publication outputs, of course, with these absolute numbers in relation to other key indicators showing a different picture. Standardized by the number of inhabitants, Germany published less articles per capita than Belgium and Great Britain. The number of researchers amounted to 327,997 (FTE) in 2010. The ratio of inhabitants to scientists was 1,000:4. Among these countries studied in-depth, Luxembourg and Great Britain had more researchers per capita than did Germany. The interplay of the organizational forms of science in Germany between 1900 and 2010 On the basis of the analysis of the global and European contexts, and development of worldwide scientific productivity over time in chapter 7, I started the in-depth case study of Germany. Bridging this overview and the following in-depth analyses is a chapter on the institutionalization of the German higher education and science system (see chapter 8). Here, I described the most important institutions and organizations and the organizational field – universities, extra-university research institutes and universities of applied sciences. Furthermore, I discussed the differences between West and East Germany during their division (1945–1990). Summarizing the most important results shows that the development of publications in Germany follows global and European trends (on a lower scale) (see figure 16, p. 208). Over time, Germany experienced pure exponential growth of scientific publications and a rising diversity of organizational forms that contribute to scientific productivity (see sections 9.1 and 9.3). I answered the following three research questions: "how has the scientific productivity in Germany developed between 1900 and 2010", "among all science producing organizational forms, what do the key organizational forms contribute to scientific productivity", "which organizational forms provide the best conditions for scientific productivity", and "which single organizations are the most research intense in Germany"? First, the growth curve of scientific publications in Germany turns out as expected – it shows pure exponential graph, comparable with the worldwide and European development of scientific productivity between 1900 and 2010. Here, too, cataclysmic events such as the two world wars and the Great Depression as well as reunification had only short-term (negative) impact (figure 11, p. 150) on scientific productivity, without even a medium-term slow-down or flattening of the curve. By 2010, the total number of publications in STEM+ fields by researchers in German organizations topped 55,000 in one year alone. Second, a detailed examination and comparison of the development of scientific productivity in West Germany and East Germany between 1950 and 1990 showed that the growth rate of Germany (altogether) was based mainly on steady growth of scientific publications in West Germany (see figure 17, p. 211). The growth curve of the former GDR was quite flat and proceeded on a very low level. As a result, I conclude that the GDR's higher education and science system, based on its academy model, did not provide conditions for scientific productivity as optimally as did the BRD. Third, a detailed analysis of the "key classical" organizational forms of science – universities and extra-university research institutes – show that universities were and are the main producers of scientific publications in STEM+ from 1975 to 2010 (see figure 18, p. 217). On average, university-based researchers produced 60% of all articles and defended their status against other organizational forms, which leads to the rejection of the Mode 2 hypothesis. Non-university publications reached an average of 40%. But that does not mean that other organizational forms were not producing science as well. The percentage share of articles is ultrastable and shows only marginal variations. The thesis that the proportion of university publications should decrease over time can be rejected for the period from 1975 to 2010. This suggests that scientific productivity of universities is actually rising, since despite decreasing financial support (R&D) in favor of extra-university research institutes, the universities produced more research articles with less resources over time. Fourth, although not only scientists within universities and research institutes publish their research in scientific journals, jointly these organizational forms have produced more than three-quarters of all research articles since 1980. Already in the earlier years, they produced a large number of scientific articles. Other organizational forms also generate scientific knowledge (for an extensive description of the organizational form matrix, see table 4, pp. 222f.). Especially scientists in firms, government agencies, and hospitals publish articles in peer-reviewed journals in STEM+ (see figures 19 and 20; pp. 220, 246). Indeed, the universities have been the driving force of scientific productivity for more than a century. With their specific orientation to basic research and their linkage of research and teaching, they provide conditions that facilitate the production of science. Universities are among the oldest institutions with a high degree of institutionalization. All other organizational forms (academies, associations, infrastructures, laboratories, military, museums and non-university education) were identified in the dataset played only a minor role and were summarized in the category "further types". Fifth, the analysis of the ten most research-intensive single organizations in Germany in the year 2010 confirmed the results. Only universities and institutes were part of this group. A summary of publications of single institutes under their umbrella organizations shows that the institutes of the Max Planck Society and of the Helmholtz Association are the leading science producers in Germany, outpacing the scientific productivity of universities, but only when aggregating the contributions of dozens of individual institutes (see table 5, p. 259f). An analysis of single institutes shows that these research institutes cannot compete with universities, because of their size and the number of researchers. The Charite – Universitätsmedizin Berlin, a hybrid organization, is another leading science producer in Germany. National and international cooperation of scientific research Finally, increasing internationalization of research has impacted on national and international cooperation. leading to collaboratively-written publications in scientific journals. Through advancing globalization, national and international scientific cooperation increased in volume and importance. International cooperation in STEM+ is facilitated by the reputation of the research organization and of the co-authors, higher visibility within the scientific community and more possibilities for interdisciplinary research as well as better or more specialized facilities. Today, more than a third of all research articles worldwide are produced in scientific collaboration; only around a quarter are single-authored articles. In contrast to Humboldt's principle "in Einsamkeit und Freiheit" (in loneliness and freedom), research is no longer done by one scientist, but is much more likely the result of collaboration. Research networks are increasingly important, and researchers share their common interests on a research question, publishing their results in joint publications. Researchers, organizations, and indeed countries differ in the ways they organize their research and thus how they enable research and collaboration. This depends on location, size, higher education and science system, the organizational field and organizations. Here, varying patterns of scientific cooperation were presented, showing a massive increase in scientific collaboration in (inter)national co-authorships over time. Until the 1990s, researchers in all investigated countries (France, Germany, Great Britain, USA, Japan, China, Belgium, Luxembourg) published their research articles mainly as single-authored papers. Only since the 1990s have co- and multi-authored publications risen (considerably): In 2000, only a third of all publications were published by one author. In 2010, the proportion reached its lowest level with only one-fifth of all papers single-authored (see table 6, pp. 279f). Countries differ considerably in their amount of collaboratively-written research articles. References Powell, J. J. W. & Dusdal, J. (2016). Europe's Center of Science: Science Productivity in Belgium, France, Germany, and Luxembourg. EuropeNow, 1(1). http://www.europenowjournal.org/2016/11/30/europes-center-of-science-science-productivity-in-belgium-france-germany-and-luxembourg/. Last access: 13.12.2016. Powell, J. J. W. & Dusdal, J. (2017a): Measuring Research Organizations' Contributions to Science Productivity in Science, Technology, Engineering and Math in Germany, France, Belgium, and Luxembourg. Minerva, (). Online first. DOI:10.1007/s11024-017-9327-z. Powell, J. J. W. & Dusdal, J. (2017b in press). The European Center of Science Productivity: Research Universities and Institutes in France, Germany, and the United Kingdom. IN Powell, J. J. W., Baker, D. P. & Fernandez, F. (Hg.) The Century of Science: The Worldwide Triumph of the Research University, International Perspectives on Education and Society Series. Bingley, UK, Emerald Publishing. Powell, J. J. W., Baker, D. P. & Fernandez, F. (2017 in press). The Century of Science: The Worldwide Triumph of the Research University, International Perspectives on Education and Society Series. Bingley, UK, Emerald Publishing. Powell, J. J. W., Fernandez, F., Crist, J. T., Dusdal, J., Zhang, L. & Baker, D. P. (2017 in press). The Worldwide Triumph of the Research University and Globalizing Science. IN Powell, J. W., Baker, D. P. & Fernandez, F. (Hg.) The Century of Science: The Worldwide Triumph of the Research University, International Perspectives on Education and Society Series. Bingley, UK, Emerald Publishing. ; Überblick und Einleitung Bereits der Titel meiner Dissertation "Welche Organisationsformen produzieren Wissenschaft? Expansion, Vielfalt und Kooperation im deutschen Hochschul- und Wissenschaftssystem im globalen Kontext, 1900-2010" verspricht, dass sich dem Thema der Entwicklung wissenschaftlicher Produktivität in Deutschland aus verschiedenen Perspektiven (Analyseebenen, Dimensionen und Zeitrahmen) genähert werden soll. Eingebettet in das international vergleichende Forschungsprojekt Science Productivity, Higher Education, Research and Development, and the Knowledge Society (SPHERE) rückt meine Dissertation die Analyse des Einflusses der Hochschulentwicklung und der wissenschaftlichen Kapazitätsbildung auf die wissenschaftliche Wissensproduktion in den Vordergrund. Es interessiert mich, wie die im deutschen Hochschul- und Wissenschaftssystem vorherrschenden Strukturen und institutionellen Settings die langfristige Entwicklung wissenschaftlicher Produktivität beeinflusst und verändert haben. Besonders vor dem Hintergrund einer voranschreitenden Globalisierung und Internationalisierung der Wissenschaft, einer weltweiten Vernetzung von Wissenschaftlern und der Herausbildung einer Wissensgesellschaft. Die Annäherung an den Forschungsgegentand erfolgt auf der Makro- und Mesoebene: den institutionalisierten und organisationalen Settings, in denen Wissenschaft produziert wurde und wird. Da Informationen zu einzelnen Autoren nicht zur Verfügung standen, können keine Aussagen auf der Mikroebene getroffen werden, wenngleich Publikationen natürlich immer von Individuen verfasst werden und nicht von den hier untersuchten Ländern oder Organisationsformen und Einzelorganisationen. Anhand der Dimensionen Expansion, Vielfalt und Kooperation wird der Untersuchungsrahmen abgesteckt und eine Ordnung der Fragestellung vorgenommen, an denen die Struktur der Arbeit ausgerichtet ist. Der Zeitrahmen der Arbeit umfasst die Jahre 1900 bis 2010, also mehr als ein Jahrhundert (siehe Abschnitt 1.2). Ziel dieser Arbeit ist es darzulegen, warum Wissenschaftler ihre Ergebnisse in Form von Zeitschriftenartikeln publizieren. Es geht unter anderem darum, die Wichtigkeit wissenschaftlicher Erkenntnisse hervorzuheben, da nicht publizierte Ergebnisse für die Wissenschaft nicht existieren und sich aus der Art und Weise, wie publiziert wird, die Organisation der Forschung innerhalb und übergreifend einer Disziplin oder eines Fachs ableiten lässt. In den in dieser Arbeit untersuchten Fächergruppen Mathematik, Ingenieur-, Natur- und Technikwissenschaften sowie Medizin (im Folgenden angelehnt an die englische Abkürzung STEM (Science, Technology, Engineering and Mathematics) plus Medicine als STEM+ bezeichnet) spielen Publikationen in peer reviewed Zeitschriften eine wichtige Rolle – neben Patenten in den angewandteren Fächergruppen sind sie heutzutage das wichtigste Publikationsformat. Sie dienen nicht nur der Dokumentation generierten Wissens, sondern sind auch ein Anzeiger für die Reputation eines Forschers und dienen der Messung wissenschaftlicher Produktivität. Zeitschriftenpublikationen in hochklassigen Zeitschriften, die einem peer review Verfahren unterliegen, können als gold standard zur Messung wissenschaftlicher Produktivität herangezogen werden. In den letzten Jahrzehnten kam es zu einer zunehmenden Verwissenschaftlichung vieler gesellschaftlichen Teilbereiche und die Generierung wissenschaftlichen Wissens rückte immer weiter ins Zentrum des politischen und wirtschaftlichen Interesses, unabhängig davon, wo es produziert wurde. Aus diesem Grund werden die Orte und institutionellen Settings (Organisationen, Organisationsformen) wissenschaftlicher Produktivität (hauptsächlich Universitäten, außeruniversitäre Forschungsinstitute, Unternehmen, Behörden und Ressortforschungseinrichtungen und Krankenhäuser) identifiziert und voneinander abgegrenzt. Indem ihre Gemeinsamkeiten und Unterschiede anhand ihrer Aufgaben und Ziele sowie der Art der Forschung diskutiert werden. In einem ersten Schritt lege ich dar, warum ich diese Arbeit an der Schnittstelle zwischen Hochschul- und Wissenschaftsforschung und der Bibliometrie angelegt habe (siehe Kapitel 2 und 5). Publikationsanalysen werden zwar immer noch als Hauptaufgabe der Bibliometrie gesehen, aber ihre Ergebnisse werden auch von anderen Akteuren wie Hochschulmanagern, Politikern und Wissenschaftlern genutzt, um einerseits Aussagen über die Qualität der Wissenschaft zu treffen, aber auch um sich miteinander zu vergleichen oder steuernd in die Struktur und Organisation einzugreifen und Aussagen über den Output des Hochschul- und Wissenschaftssystems zu treffen. Direkte Aussagen über die Qualität der Forschung auf Basis der Anzahl an Zeitschriftenartikeln, die ein Wissenschaftler publiziert, können nicht getroffen werden, es kann aber über die Qualität einer Zeitschrift (Impactfactor) ein Proxi gebildet werden, mit dessen Hilfe Vergleiche zwischen Disziplinen getroffen werden können. Um wissenschaftliche Produktivität zu messen, müssten ergänzende Parameter hinzugezogen werden. Aus diesem Grund werden in dieser Arbeit lediglich Aussagen über die Quantität wissenschaftlicher Produktivität getroffen, nicht aber über die Qualität der untersuchten Zeitschriftenartikel, die Forschungsleistung einzelner Wissenschaftler, Organisationen oder Organisationsformen und einzelner Länder. Nichtdestotrotz zeigen Indikatoren zur Messung wissenschaftlichen Outputs eine große Expansion wissenschaftlicher Produktivität, eine Stabilität der Universitäten im Zeitverlauf und die Wichtigkeit Deutschlands als Wissensschaftsproduzent sowie eine steigende Differenzierung und Diversifizierung der Organisationsformen. Zudem können die 1990er Jahre als Startpunkt steigender nationaler und internationaler Kooperationen gesehen werden. In Kapitel 2 zum multidisziplinären Kontext der Arbeit zeige ich, in welcher Beziehung sich die Hochschul- und Wissenschaftsforschung in Deutschland zueinander befinden. Wissenschaftliches Wissen nimmt eine Sonderstellung im Vergleich zu anderen Wissensformen ein, da es unter bestimmten Bedingungen, die von der wissenschaftlichen Gemeinschaft selbst bestimmt werden, generiert und verbreitet wird. Um einen Überblick über die wichtigsten Studien innerhalb meines Feldes zu bekommen, und um meine Arbeit in den empirischen Kontext zu rücken, beschreibe ich in Kapitel 3 dieser Arbeit den aktuellen Forschungsstand. Forschungsfragen Abschnitt 1.2 stellt einen detaillierten Überblick über die dieser Arbeit zugrunde liegenden Forschungsfragen bereit: Welche Organisationsformen produzieren Wissenschaft? 1. Wie hat sich die wissenschaftliche Produktivität weltweit und im europäischen Vergleich zwischen 1900 und 2010 entwickelt? 2. Wie war/ist das deutsche Hochschul- und Wissenschaftssystem in die globalen Entwicklungen der Hochschulbildung und Wissenschaft im Zeitverlauf eingebettet? 3. Wie hat sich die wissenschaftliche Produktivität in Deutschland zwischen 1900 und 2010 entwickelt? 4. Unter allen Wissenschaft produzierenden Organisationsformen, was tragen die "klassischen" Formen zur wissenschaftlichen Produktivität bei? 5. Welche Organisationsformen stellen die besten Bedingungen für wissenschaftliche Produktivität bereit? 6. Welche Einzelorganisationen gehören zu den forschungsstärksten in Deutschland? 7. Welchen Einfluss hat die zunehmende Internationalisierung der Forschung auf nationale und internationale Kooperationen in Form von Publikationen in Zeitschriftenartikeln? Theoretischer Rahmen Theoretisch (siehe Kapitel 4) basiert meine Arbeit auf einem neu-institutionellen (NI) Ansatz zur Untersuchung und Erklärung der Expansion des Hochschulwesens und der Wissenschaft weltweit. Trotz des allgemeinen Wachstums wissenschaftlicher Produktivität bestehen beträchtliche Unterschiede zwischen den institutionellen Settings, Organisationsformen und einzelner Organisationen, die maßgeblich zur wissenschaftlichen Produktivität beitragen. Der soziologische NI konzentriert sich auf das Verständnis von Institutionen und Organisationen. Institutionen sind ein wichtiger Baustein, um soziales Handeln und Prozesse der Gesellschaftsentwicklung zu verstehen. Organisationen und Institutionen stehen in einer wechselseitigen Beziehung zueinander. Die zentralen Annahmen des NI wurden von Walter Powell, Paul DiMaggio und Richard Scott formuliert. Meilensteine: der Zusammenhang von Organisation und Gesellschaft und die Annahme, dass formale Organisationsstrukturen Mythen zum Ausdruck bringen, die in ihrer gesellschaftlichen Umwelt institutionalisiert sind. Indem Organisationen diese Mythen erfassen, kopieren und zeremoniell zur Geltung bringen, werden Strukturähnlichkeiten (Isomorphien) zwischen Organisationen und der Gesellschaft hergestellt. Das Konzept der "organisationalen Felder" dient der Beschreibung der Beziehung zwischen verschiedenen Organisationen und beinhaltet alle relevanten Organisationen, die sich mit ihrer gesellschaftlichen Umwelt auseinander setzen. In Abschnitt 4.1.2 werden die Unterschiede zwischen den Begriffen Institutionen und Organisationen diskutiert, da diese besonders in der deutschsprachigen Soziologie nicht trennscharf genutzt werden. Grundsätzlich unterscheiden sich Ansätze institutioneller Theorie in ihrer Anwendungsebene, sie sind aber durch ihren Überbau miteinander verschränkt. Folglich ist der NI als theoretische Basis besonders gut geeignet, um eine Mehrebenenanalyse der wissenschaftlichen Produktivität zeit- und ortsübergreifend durchzuführen. Die historische Entwicklung des deutschen Hochschul- und Wissenschaftssystems kann nicht ohne eine Berücksichtigung der globalen Entwicklungen durchgeführt werden, da es einerseits einen enormen Einfluss auf die Entwicklung anderer Systeme weltweit hatte/hat und andererseits globale Entwicklungen die Institutionalisierung und Organisation der Wissenschaft in Deutschland beeinflussen. Intersektorale und internationale Kooperationen sind im Zeitverlauf angewachsen, werden immer wichtiger und führen zu ausgeprägten Netzwerken innerhalb und zwischen Hochschul- und Wissenschaftssystemen weltweit. Aufgrund einer zunehmenden Verzahnung einzelner Länder und den damit einhergehenden Wechselwirkungen zwischen den unterschiedlichen Analyseebenen (makro, meso, mikro) ist eine klassische, nationalstaatliche Analyse nicht mehr zielführend. Nichtsdestotrotz können Länder als vergleichbare Einheiten gesehen werden, da sie über klar definierte Grenzen und Strukturen verfügen. Die unterschiedlichen theoretischen Perspektiven und Analyseebenen werden in Abbildung 5 genauer beschrieben. Der theoretische Ansatz der "Weltkultur" bietet eine breitere Linse des soziologischen NI auf die globale Arena. Der Fokus liegt auf globalen und internationalen Strukturen und Prozessen, die sich über lange Zeit entwickelt haben. Mit Hilfe dieser Perspektive können globale Diffusion und formale Strukturen der Entkopplung von formalen Grundsätzen und praktischer Anwendung erklärt werden. Zusammen nehmen der historische und soziologische Institutionalismus zeitliche Entwicklungen und Prozesse in den Blick, die erklären, wie Institutionen entstehen und sich verändern. Die Konzepte critical junctures und Pfadabhängigkeit sollen helfen diese Prozesse auf der Mesoebene zu verstehen. Um die Transformation der Wissensproduktion im Zeitverlauf des 20. Jahrhunderts zu verstehen und um zu analysieren, welche Organisationsformen an der Produktion wissenschaftlichen Wissens beteiligt waren, werden zwei theoretische Konzepte herangezogen: Modus 1 versus Modus 2 Wissenschaft und das Triple-Helix Modell zur Beschreibung der Beziehung zwischen Wissenschaft, Industrie und Staat. In The New Production of Knowledge beschreiben Michael Gibbons und seine Kollegen den Wandel der Wissenschaft von einer akademischen, disziplinären und autonomen, traditionellen, Organisation der Wissenschaft (Modus 1) mit einem Schwerpunkt auf Universitäten als wichtigste Organisationsform, hin zu einer anwendungsorientierteren, transdisziplinären, diversen und reflexiven Organisation der Wissenschaft (Modus 2), die eine diversere Organisation der Wissenschaft unterstützt und auf einem breiteren organisationalen Setting der Wissensproduktion beruht. Innerhalb der Literatur wird diskutiert, ob das neue Modell das alte ersetzen soll und welches der Modelle die gegenwärtige Organisation der Wissenschaft am besten beschreibt. Im Gegensatz hierzu bleibt beim Triple-Helix Modell die historische Rolle der Universitäten erhalten. Der Ansatz geht davon aus, dass zukünftige Innovationen aus einer Beziehung von Universitäten (Wissensproduktion), Industrie (Generierung von Wohlstand) und dem Staat (Kontrolle) resultieren. Daten und Methoden In dieser Arbeit werden ausschließlich Publikationen in peer reviewed Zeitschriften als Kennzeichen wissenschaftlicher Produktivität herangezogen. Dieser Schwerpunkt ermöglicht mir eine tiefgreifende Analyse von Publikationen über einen Zeitraum von mehr als einem Jahrhundert. Zeitschriftenartikel in hochklassigen und möglichst internationalen Journalen bilden den gold standard wissenschaftlichen Outputs in den hier untersuchten Mathematik, Ingenieur-, Natur- und Technikwissenschaften sowie der Medizin (STEM+). Meine Daten basieren auf einem stratifizierten, repräsentativen Sample (siehe ausführlich Kapitel 6) publizierter Zeitschriften, die als Rohdaten aus Thomson Reuters Web of Science Science Citation Index Expanded (SCIE) zur Analyse zur Verfügung stehen (eine vergleichbare Datenbank stellt Elseviers Scopus bereit). Methodologisch wird eine Kombination aus einer vergleichenden institutionelle Analyse ausgewählter Länder, eine historische Untersuchung des deutschen Hochschul- und Wissenschaftssystems und eine systematische, globale Auswertung bibliometrischer Publikationsdaten angestrebt. Der SCIE umfasst mehr als 90 Millionen Einträge (gespeichert werden nahezu alle Typen wissenschaftlichen Outputs), hauptsächlich aus den oben genannten Fächergruppen. Diese Arbeit beschränkt sich auf originale Zeitschriftenartikel (Originalmitteilungen), da lediglich dieser Publikationstyp zertifiziertes und neues Wissen enthält. Der SPHERE Datensatz umfasst publizierte Zeitschriftenartikel aus den Jahren 1900 bis 2010. Von 1900 bis 1970 wurden die Daten in 5-Jahres-Schritten mittels einer geschichteten Zufallsstichprobe ausgewählt. Ab 1975 stehen die Daten vollständig und ab 1980 in Jahresschritten zur Verfügung. Abhängig von der untersuchten Fragestellung werden die Daten in 5-Jahres- oder 10-Jahres-Schritten analysiert. Eine detaillierte Beschreibung des Samplings und der Gewichtung der Daten kann den Abschnitten 6.2.2 und 6.8 entnommen werden. Unter Berücksichtigung dieser Kriterien werden 17.568 unterschiedliche Zeitschriften (42.963 Zeitschriften, wenn dieselbe Zeitschrift in unterschiedlichen Jahren mehrfach berücksichtigt wird) und 5.089.233 Forschungsartikel untersucht. Um die Daten für die Analyse aufzubereiten muss eine intensive Vorarbeit geleistet werden. Sie werden umfassend (nach-)kodiert und bereinigt. Besonders häufig sind Fehler oder fehlende Informationen auf Ebene der Länder und/oder der Organisationen/Organisationsformen, in denen die Forschung betrieben wurde. Im Zeitraum von Juni 2013 bis Dezember 2015 habe ich die Originalzeitschriften und -artikel in Online-Zeitschriftendatenbanken oder Archiven verschiedener Universitätsbibliotheken eingesehen, begutachtet und mit Hilfe einer Excel-Tabelle katalogisiert und fehlende Informationen, wenn vorhanden, ergänzt. In der Bibliometrie werden verschiedene Vorgehensweisen diskutiert, wie Publikationen gezählt werden können. Die Analysen dieser Arbeit basieren hauptsächlich auf der whole count Methode (siehe Tabelle 1). Die Entscheidung basiert auf der Annahme, dass jeder Autor, jede Organisation, oder jedes Land gleichermaßen zu einer Publikation beigetragen hat. Folglich kann es zu einer Verzerrung bzw. Überschätzung der Ergebnisse kommen, da Zeitschriftenartikel mehrfach gezählt werden, wenn sie in Form von Forschungskooperationen publiziert wurden. Um die absolute Anzahl an Publikationen (weltweit, Europa, Deutschland) zu ermitteln, wird die Gesamtzahl an Artikeln pro Jahr (ohne Duplikate) berechnet. Zusammenfassung der wichtigsten Ergebnisse Der empirische Teil meiner Arbeit ist in drei Teile untergliedert. Die folgenden Abschnitte fassen die jeweils wichtigsten Ergebnisse zusammen. The Global Picture – Hochschul- und Wissenschaftssysteme im Vergleich Im Mittelpunkt meiner Dissertation steht die Frage, welche Organisationsformen Wissenschaft produzieren. Um die Ergebnisse der detaillierten Fallstudie einordnen und bewerten zu können, erfolgt zunächst eine Einbettung in den globalen und europäischen Kontext. Die forschungsleitenden Fragen, wie hat sich die wissenschaftliche Produktivität weltweit und im europäischen Vergleich zwischen 1900 und 2010 entwickelt und wie war/ist das deutsche Hochschul- und Wissenschaftssystem in die globalen Entwicklungen der Hochschulbildung und Wissenschaft im zeitverlauf eingebettet, wird folgendermaßen beantwortet: In einem ersten Schritt wird gezeigt, dass das weltweite wissenschaftliche Wachstum zwischen 1900 und 2010 exponentiell verlief und dieser Trend vermutlich bis heute anhält (siehe Abbildungen 3 und 10, S. 50, 147). Die massive Ausdehnung wissenschaftlichen Wissens hatte und hat auch heute noch einen großen Einfluss auf gesellschaftliche Entwicklungen, die nicht auf den wirtschaftlichen und technischen Fortschritt beschränkt sind. Ich werde darstellen, dass Hochschul- und Wissenschaftssysteme weltweite Gemeinsamkeiten aufweisen, die zu einer ähnlichen Entwicklung und Ausweitung wissenschaftlicher Produktivität geführt haben. Im Vergleich wichtiger europäischer Länder (Deutschland im Vergleich mit Großbritannien, Frankreich, Belgien und Luxemburg), kann gezeigt werden, dass zwischen der weltweiten Ausweitung der Wissenschaft, dem Anstieg an Publikationen und der Expansion von modernen Forschungsuniversitäten ein Zusammenhang besteht (siehe Abschnitt 7.2; Powell, Dusdal 2016, 2017a; 2017b im Druck). So wurde ein globales Feld der Wissenschaft aufgespannt, das als übergeordneter Rahmen fungiert. Drei geografische Zentren wissenschaftlicher Produktivität werden im Zeitverlauf identifiziert: Europa, Nordamerika und Asien. Sie haben zu unterschiedlichen Zeitpunkten an Bedeutung gewonnen oder verloren, doch zum heutigen Zeitpunkt tragen sie alle zur wissenschaftlichen Produktivität in den untersuchten Fächergruppen bei. Allerdings sind besonders in Asien die Wachstumsraten massiv angestiegen (Powell et al 2017 im Druck). Zweitens investieren alle Länder weltweit in Forschung und Entwicklung (FuE) (siehe Abbildung 9, S. 140). Diese Investitionen haben einen Einfluss auf ihre wissenschaftliche Produktivität. Zwischen einzelnen Ländern sind zum Teil große Unterschiede in der absoluten Publikationszahl und der relativen wissenschaftlichen Produktivität feststellbar. Nicht nur Investitionen in FuE tragen zur Expansion der Wissenschaft bei, sondern auch die Anmeldung von Patenten, höhere Studierendenzahlen, eine gestiegene Anzahl an Forschern, die Ausweitung von Forschungsaktivitäten in viele gesellschaftliche Teilbereiche, die Entwicklung von Forschungsprodukten und Neugründungen von Universitäten (Powell, Baker, Fernandez 2017 im Druck). Im Zuge der Hochschulexpansion und der Massifizierung der Hochschulbildung in den 1960er und 70er Jahren sind besonders die Studierendenzahlen und die Anzahl der Wissenschaftler extrem angestiegen. Es kam also zur Ausweitung des kompletten Hochschul- und Wissenschaftssystems und nicht nur zu einer Erhöhung der Anzahl an Publikationen. Im Umkehrschluss kann ein Teil des Anstiegs wissenschaftlicher Publikationen auf eine steigende Anzahl an Wissenschaftlern zurückgeführt werden. Drittens kann die von Derek J. de Solla Price aufgestellte These, dass das exponentielle Wachstum wissenschaftlicher Literatur irgendwann abflachen müsse, wiederlegt werden (siehe Abschnitt 2.4; Abbildungen 4 und 10, S. 53, 147). Obwohl einschneidende historische, politische, wirtschaftliche und technologische Ereignisse sowie Ereignisse bezogen auf die Hochschulen und Wissenschaft (siehe Abbildung 11, S. 150) kurzfristig zu einer Verringerung der Publikationszahlen geführt haben, wurde die Wachstumskurve nicht nachhaltig beeinflusst. Im Jahr 2010 wurden weltweit fast eine Million Zeitschriftenartikel in den Natur- und Technikwissenschaften sowie der Medizin publiziert. In Abschnitt 7.2.2 zeige ich, dass die Anzahl der publizierten Zeitschriftenartikel im Verhältnis zu den Ausgaben für FuE, der Größe der Hochschul- und Wissenschaftssysteme und der Anzahl der Einwohner (siehe Abbildung 12, S. 159) und Wissenschaftler (siehe Tabelle 3, S. 162; Abbildung 13, S. 164) relativiert werden müssen. Die anfängliche extreme Expansion der wissenschaftlichen Publikationen in den Mathematik, Ingenieur-, Natur- und Technikwissenschaften sowie der Medizin basiert auf einem allgemeinen Wachstum der Hochschul- und Wissenschaftssysteme (siehe oben). Unterschiedliche institutionelle Settings und Organisationsformen, in denen Wissenschaft produziert wird, haben einen Einfluss auf die wissenschaftliche Produktivität. Anhand der ausgewählten Fallbeispiele (Deutschland, Großbritannien, Frankreich, Belgien und Luxemburg) werde ich darlegen, dass Hochschul- und Wissenschaftssysteme, die über forschungsstarke Universitäten verfügen, höchst produktiv sind. Es kommt also nicht nur darauf an, wie viele Wissenschaftler innerhalb eines Systems beschäftigt werden, sondern auch darauf, in welchen institutionellen Settings sie arbeiten. Fünftens, im internationalen Vergleich trägt Deutschland immer noch erheblich zur wissenschaftlichen Produktivität in den untersuchten Fächern bei. Mit einer Wachstumsrate von 3,35% Prozent folgt Deutschland den USA und Japan. Im Jahr 2014 wurden in Deutschland 84,5 Mrd./€ für FuE von der Regierung bereitgestellt. Dies entspricht einem Anteil von 2,9 Prozent des BIP. Somit wurde der EU-Richtwert von 2020 von 3 Prozent lediglich knapp verfehlt. Im Jahr 2010 wurden in Deutschland insgesamt 55.009 Zeitschriftenartikel in den STEM+-Fächern publiziert (siehe Tabelle A5 im Anhang). Im Vergleich der absoluten Zahlen mit Großbritannien, Frankreich, Belgien und Luxemburg nimmt das Land die Spitzenposition ein. Die Größe des Hochschul- und Wissenschaftssystems hat somit einen Einfluss auf die Publikationsleistung. Werden die Zahlen in einem nächsten Schritt mit anderen Schlüsselindikatoren in Beziehung gesetzt, verändert sich die Leistung der miteinander verglichenen Systeme zum Teil erheblich. Gemessen an der Einwohnerzahl werden in Deutschland weniger Zeitschriftenartikel publiziert als in Belgien oder Großbritannien. Die Anzahl der beschäftigten Wissenschaftler betrug in Deutschland im selben Jahr 1000:4. Nur in Luxemburg und Großbritannien ist das Verhältnis von Wissenschaftlern zur Einwohnerzahl größer. Das Zusammenspiel der Organisationsformen der Wissenschaft in Deutschland von 1900 bis 2010 Auf Basis der Analysen zum globalen und europäischen Kontext der Entwicklung wissenschaftlicher Produktivität im Zeitverlauf (siehe Kapitel 7) folgt eine tiefgreifende, institutionelle Analyse des deutschen Hochschul- und Wissenschaftssystems (siehe Kapitel 8). Sie dient als Ein- und Überleitung zur detaillierten empirischen Auswertung der Daten zum deutschen Hochschul- und Wissenschaftssystem. Hier werden die wichtigsten Institutionen und Organisationen sowie das organisationale Feld der Wissenschaft (Universitäten, Fachhochschulen, außeruniversitäre Forschungseinrichtungen) vorgestellt. Zudem diskutiere ich die Unterschiede zwischen Ost- und Westdeutschland zur Zeit des geteilten Deutschlands (1945-1990). Eine Zusammenfassung der wichtigsten Ergebnisse zeigt, dass die Entwicklung der Publikationszahlen in Deutschland dem weltweiten und europäischen Trend (im kleineren Umfang) folgt (siehe Abbildung 16, S. 208). Es kam sowohl zu einer Expansion des wissenschaftlichen Wissens in Form eines exponentiellen Anstiegs an Publikationen, als auch zu einer Erhöhung der Vielfalt wissenschaftlicher Produktivität im Zeitverlauf (siehe Abschnitte 9.1 und 9.3). Die folgenden vier Forschungsfragen werden beantwortet: Wie hat sich die wissenschaftliche Produktivität in Deutschland zwischen 1900 und 2010 entwickelt? Unter allen Wissenschaft produzierenden Organisationsformen, was tragen die "klassischen" Formen zur wissenschaftlichen Produktivität bei? Welche Organisationsformen stellen die besten Bedingungen für wissenschaftliche Produktivität bereit? Welche Einzelorganisationen gehören zu den forschungsstärksten in Deutschland? Wie oben beschrieben, verläuft das Wachstum wissenschaftlicher Produktivität in Deutschland zwischen den Jahren 1900 und 2010 exponentiell. Die Kurve ist vergleichbar mit der weltweiten und europäischen Entwicklung, wenn auch in kleinerem Umfang. Zwar hatten auch hier verschiedene Ereignisse, wie der Zweite Weltkrieg, die Weltwirtschaftskrise oder die Wiedervereinigung, einen kurzfristigen Einfluss, allerdings kam es zu keiner Verlangsamung oder Abflachung des Wachstums (siehe Abbildung 11, S. 150). Bis ins Jahr 2010 wuchs die Anzahl der publizierten Zeitschriftenartikel in Deutschland auf 55.009 an. Zweitens, zeigt eine detaillierte Betrachtung der wissenschaftlichen Produktivität Westdeutschlands im Vergleich zu Ostdeutschland, dass der Anstieg der gesamtdeutschen Publikationszahlen auf einem Anstieg der Zahlen in Westdeutschland basiert (siehe Abbildung 17, S. 211). Zwischen 1950 und 1990 verlief die Kurve der wissenschaftlichen Produktivität in der DDR flach und auf einem niedrigen Niveau. Hieraus kann geschlossen werden, dass das Hochschul- und Wissenschaftssystem der DDR, aufbauend auf seinem Akademiemodell, keine guten Bedingungen für wissenschaftliche Forschung bereitgestellt hat. Drittens, zeigt die detaillierte Analyse der "klassischen" Organisationsformen der Wissenschaft, Universitäten und außeruniversitäre Forschungsinstitute, dass Universitäten im Zeitraum von 1975 bis 2010 in den STEM+-Fächern die Hauptproduzenten wissenschaftlicher Zeitschriftenartikel waren und sind (siehe Abbildung 18, S. 217). Im Untersuchungszeitraum beträgt der prozentuale Anteil der universitätsbasierten Forschung im Mittel 60 Prozent. Somit verteidigen sie ihren Status als wichtigste Organisationsform gegenüber anderen. Die Modus 2 Hypothese, dass es im Zeitverlauf zu einem Absinken des prozentualen Anteils der Universitäten kommen muss, wird verworfen. Der Anteil der Nicht-Universitäten liegt hingegen im Durchschnitt bei 40 Prozent. Obwohl die Richtigkeit der folgenden Aussage nicht empirisch überprüft werden kann, wird davon ausgegangen, dass es sich tatsächlich sogar um einen Anstieg wissenschaftlicher Produktivität der Universitäten im Zeitverlauf handelt. Unter Berücksichtigung einer Verschiebung der zur Verfügung stehenden finanziellen Mittel für FuE zugunsten der außeruniversitären Forschungsinstitute haben die Universitäten im Zeitverlauf mit weniger Forschungsgeldern immer mehr wissenschaftliche Zeitschriftenartikel publiziert. Viertens, obwohl nicht nur Wissenschaftler innerhalb von Universitäten und Forschungsinstituten Zeitschriftenartikel veröffentlichen, haben diese beiden Organisationsformen zusammen mehr als drei Viertel aller Publikationen seit den 1980er Jahren verfasst. Aber auch schon in den Jahren zuvor ist ihr gemeinsamer Anteil sehr hoch. Zu den wichtigsten Wissenschaftsproduzenten gehören neben ihnen die (Industrie-)Unternehmen, Behörden und Ressortforschungseinrichtungen und Krankenhäuser (für eine ausführliche Beschreibung der Matrix der Organisationsformen siehe Tabelle 4, S. 222f und Abbildungen 19 und 20, S. 220, 246). Dennoch sind die Universitäten die treibende Kraft wissenschaftlicher Produktivität seit mehr als einem Jahrhundert. Mit ihrer speziellen Ausrichtung auf Grundlagenforschung stellen sie die besten Bedingungen für wissenschaftliche Forschung bereit und gehören zu den ältesten Institutionen mit einem hohen Institutionalisierungsgrad. Universitäten sind widerstandsfähig gegenüber Veränderungen und critical junctures haben keinen negativen Einfluss auf ihre wissenschaftliche Produktivität. Alle anderen im Datensatz gefundenen oder aus der Theorie abgeleiteten Organisationsformen (Akademien, Vereine/Gesellschaften, wissenschaftliche Infrastrukturen, Laboratorien, Militär, Museen und nichtuniversitäre Bildungseinrichtungen) spielen nur eine untergeordnete Rolle und wurden in der Gruppe "sonstige" Organisationsformen zusammengefasst. Fünftens, eine Auswertung der zehn forschungsstärksten Einzelorganisationen Deutschlands im Jahr 2010 bestätigt die oben beschriebenen Ergebnisse, da lediglich Universitäten und außeruniversitäre Forschungsinstitute dieser Spitzengruppe zugehören. Eine Zusammenfassung der Publikationen der Institute unter ihrer Dachorganisation zeigt, dass die Institute der Max-Planck-Gesellschaft und der Helmholtz-Gemeinschaft maßgeblich zur Produktion wissenschaftlichen Wissens in Deutschland beitragen. Sie übertreffen zusammengezählt die Publikationstätigkeit einzelner Universitäten bei weitem (siehe Tabelle 5, S. 259f). Eine Einzelauswertung der Institute zeigt aber auch, dass sie allgemein genommen, aufgrund ihrer Größe und der Anzahl der Wissenschaftler, nicht mit den Universitäten konkurrieren können. Zudem gehört die hybride Organisation, die Charité – Universitätsmedizin Berlin zu den führenden zehn Wissenschaftsproduzenten im deutschen Hochschul- und Wissenschaftssystem. Nationale und internationale Kooperationen wissenschaftlicher Forschung Im letzten empirischen Kapitel der Arbeit wird auf der Makroebene die Frage beantwortet, welchen Einfluss die zunehmende Internationalisierung der Forschung auf nationale und internationale Kooperationen in Form von Publikationen in wissenschaftlichen Zeitschriften hat. Durch die voranschreitende Globalisierung und Internationalisierung haben nationale und internationale Kooperationen stark zugenommen. Zu den wichtigsten Gründen für (internationale) Kooperationen in den Mathematik, Ingenieur-, Natur- und Technikwissenschaften sowie der Medizin zählen unter anderen die Reputation der Forschungsorganisation und der Mitautoren, eine höhere Sichtbarkeit innerhalb der wissenschaftlichen Gemeinschaft, mehr Möglichkeiten für interdisziplinäre Forschung oder auch eine bessere Ausstattung der Labore. Heute sind bereits ein Drittel aller Forschungsartikel weltweit das Ergebnis wissenschaftlicher Kooperationen und lediglich ein Viertel wird von einem Autoren verfasst. Übertragen auf die Organisation der Forschung bedeutet der von Humboldt geprägte Leitsatz "in Einsamkeit und Freiheit", dass wissenschaftliche Forschung nicht mehr in alleiniger Verantwortung eines Wissenschaftlers durchgeführt wird, sondern das Ergebnis von Kooperationen ist. Netzwerke werden immer wichtiger, um gemeinsame Interessen zu teilen, an einer Fragestellung zu arbeiten sowie die aus der Forschung gewonnenen Erkenntnisse gemeinsam zu publizieren. Wissenschaftler, Organisationen und Länder unterscheiden sich dahingehend, wie sie ihre Forschung organisieren und folglich auch darin, wie sie ihre wissenschaftliche Zusammenarbeit gestalten. Diese Wege sind abhängig von der geografischen Lage und Größe des Hochschul- und Wissenschaftssystems, dem organisationalen Feld und den Einzelorganisationen. In dieser Arbeit werden unterschiedliche Muster wissenschaftlicher Zusammenarbeit präsentiert. Die Ergebnisse zeigen einen massiven Anstieg wissenschaftlicher Kooperationen in Form von gemeinsamen Publikationen im Zeitverlauf. Bis in die 1990er Jahre hinein publizierten die Wissenschaftler in den hier untersuchten Länder (Frankreich, Deutschland, Großbritannien, USA, Japan, China, Belgien und Luxemburg) hauptsächlich in Alleinautorenschaft. Erst danach kam es zu einem Anstieg an Kooperationen: Im Jahr 2000 wurden lediglich 37 Prozent aller Artikel von einem Autor verfasst. Im Jahr 2010 erreichte der Anteil einen Tiefststand von lediglich einem Fünftel Alleinautorenschaften (siehe Tabelle 6, S. 279f). Allerdings unterschieden sich die Länder hinsichtlich ihres Anteils an Ko-Autorenschaften zum Teil deutlich voneinander. Literatur Powell, J. J. W. & Dusdal, J. (2016). Europe's Center of Science: Science Productivity in Belgium, France, Germany, and Luxembourg. EuropeNow, 1(1). http://www.europenowjournal.org/2016/11/30/europes-center-of-science-science-productivity-in-belgium-france-germany-and-luxembourg/. Zugriff: 13.12.2016. Powell, J. J. W. & Dusdal, J. (2017a): Measuring Research Organizations' Contributions to Science Productivity in Science, Technology, Engineering and Math in Germany, France, Belgium, and Luxembourg. Minerva, (). Online first. DOI:10.1007/s11024-017-9327-z. Powell, J. J. W. & Dusdal, J. (2017b im Druck). The European Center of Science Productivity: Research Universities and Institutes in France, Germany, and the United Kingdom. IN Powell, J. J. W., Baker, D. P. & Fernandez, F. (Hg.) The Century of Science: The Worldwide Triumph of the Research University, International Perspectives on Education and Society Series. Bingley, UK, Emerald Publishing. Powell, J. J. W., Baker, D. P. & Fernandez, F. (2017, im Druck). The Century of Science: The Worldwide Triumph of the Research University, International Perspectives on Education and Society Series. Bingley, UK, Emerald Publishing. Powell, J. J. W., Fernandez, F., Crist, J. T., Dusdal, J., Zhang, L. & Baker, D. P. (2017, im Druck). The Worldwide Triumph of the Research University and Globalizing Science. IN Powell, J. W., Baker, D. P. & Fernandez, F. (Hg.) The Century of Science: The Worldwide Triumph of the Research University, International Perspectives on Education and Society Series. Bingley, UK, Emerald Publishing.
BASE
Blog: Menschenrechtsbildung
"Wenn über das Grundsätzliche keine Einigkeit besteht, ist es sinnlos, miteinander Pläne zu schmieden." – Konfuzius (551-479 v.Chr.).Der grundsätzliche universelle Geltungsanspruch der Menschenrechte besagt, dass die Menschenrechte jedem Menschen auf der Welt zustehen. Die Allgemeine Erklärung der Menschenrechte aus dem Jahr 1948 drückt das folgendermaßen aus: "Jeder hat Anspruch auf alle in dieser Erklärung verkündeten Rechte und Freiheiten, ohne irgendeinen Unterschied, etwa nach Rasse, Hautfarbe, Geschlecht, Sprache, Religion, politischer oder sonstiger Anschauung, nationaler oder sozialer Herkunft, Vermögen, Geburt oder sonstigem Stand […]" (UN-Vollversammlung 1948, Artikel 2). Jedoch ist dieser universelle Geltungsanspruch der Menschenrechte in der Realität häufig noch ein Ideal. Mit der Deklaration von Bangkok, die einige südostasiatische Staaten Anfang der 1990er Jahre unterzeichneten, wurde er sogar explizit in Frage gestellt. Was ist die Sichtweise dieser südostasiatischen Staaten auf die Universalität der Menschenrechte und wie begründen sie diese? Wie könnten Perspektiven für einen interkulturellen Menschenrechtsdialog aussehen?
In diesem Beitrag werden die Menschenrechte durch eine Definition und einen Abschnitt zur Geschichte kurz vorgestellt. Anschließend wird die Debatte um Universalität und (Kultur-)Relativismus erläutert, welche überleitet zur "asiatischen Perspektive" auf die Menschenrechte und zu den "asiatischen Werten". Abschließend werden die Kritik und Perspektiven für einen interkulturellen Dialog aufgegriffen.Menschenrechte – eine Definition
Zerstörung, Elend, menschliches Leid und der Völkermord an den europäischen Juden führten in "dramatischer Weise die Notwendigkeit eines wirksamen Schutzes grundlegender Menschenrechte durch verbindliche internationale Normen und kollektive Mechanismen" vor Augen (Gareis/Varwick 2014, S. 179).
Die Idee, dass jedem Menschen, "unabhängig seines Geschlechts, Alters, seiner Religion oder seiner ethnischen, nationalen, regionalen oder sozialen Herkunft, angeborene und unveräußerliche Rechte zu eigen sind, die sich aus seinem Menschsein ableiten", verfestigte sich und führte am 10. Dezember 1948 zur Allgemeinen Erklärung der Menschenrechte (Gareis/Varwick 2014, S. 179).
Erstmals wurde in einem internationalen Dokument festgehalten, dass jedem Menschen wegen "grundlegender Aspekte der menschlichen Person" grundlegende Rechte zugesprochen werden. Diese Rechte sind unveräußerlich und vorstaatlich, was bedeutet, dass der Staat sie nicht vergeben kann, denn jeder Mensch hat sie aufgrund der "biologischen Zugehörigkeit zur menschlichen Gattung" inne (Human Rights 2018). Dem Staat obliegt es, diese Rechte zu schützen.
Menschenrechte besitzen demnach vier Merkmale: Sie sind universell (alle Menschen sind Träger dieser Rechte), egalitär (eine ungleiche Verteilung dieser Rechte ist ausgeschlossen), individuell (der Träger der Menschenrechte ist ein individueller Mensch, keine Gruppe) und kategorial (wer der menschlichen Gattung angehört, besitzt sie automatisch) (vgl. Lohmann 2010, S. 36).
Die Erklärung der Menschenrechte aus dem Jahr 1948 ist keine rechtlich bindende Resolution. Doch auch wenn sie rechtlich nicht bindend ist, hat sie "moralische Wichtigkeit bekommen" (Human Rights 2012). Sie wird dem Gewohnheitsrecht zugeordnet, was bedeutet, dass sie sowohl allgemein anerkannt als auch angewendet und deswegen als verbindlich angesehen wird (vgl.: Human Rights 2012). Sie ist das "weltweit am meisten verbreitete und am meisten übersetzte internationale Dokument" (Gareis/Varwick 2014, S. 179) und dient als Grundlage für zahlreiche Abkommen (vgl. Maier 1997, S. 39).
Juristisch können die Menschenrechte wie folgt definiert werden: "Internationale Menschenrechte sind die durch das internationale Recht garantierten Rechtsansprüche von Personen gegen den Staat oder staatsähnliche Gebilde, die dem Schutz grundlegender Aspekte der menschlichen Person und ihrer Würde in Friedenszeiten und im Krieg dienen" (Human Rights 2012).
Seit 1948 haben sich die Menschenrechte weiterentwickelt, und es hat sich etabliert, von den Menschenrechten in drei Generationen zu sprechen. Zur ersten Generation gehören "die klassischen bürgerlichen und politischen Freiheits- und Beteiligungsrechte" wie das Recht auf Leben, Freiheit und Sicherheit oder das Verbot von Folter (Krennerich 2009). Die zweite Generation der Menschenrechte umfasst wirtschaftliche, soziale und kulturelle Menschenrechte, so beispielsweise das Recht auf Bildung, Teilhabe, aber auch auf Freizeit und Erholung. Die dritte Generation der Menschenrechte "bezeichnen allgemeine, noch kaum in Vertragswerken konkretisierte Rechte wie etwa das Recht auf Entwicklung, Frieden oder saubere Umwelt" (Krennerich 2009). Alle drei Generationen "sollten gleichberechtigt nebeneinander bestehen" (Barthel, zitiert nach Hamm 1999, S. 23).
Der Gedanke der angeborenen Rechte, die ein Mensch qua Menschsein besitzt, ist jedoch älter als die Erklärung der Menschenrechte aus dem Jahr 1948 und die Vereinten Nationen selbst.
Eine kurze Geschichte der Menschenrechte
Der Ursprung der Menschenrechte geht auf das antike Griechenland zurück. Der "revolutionäre Gedanke der Stoiker, der beschreibt, dass alle Menschen gleich sind", wurde durch die im 18. Jahrhundert entstandene Naturrechtslehre weiter gefestigt (vgl.: Müller 2017, 03:06-03:20). Die "überlieferten konkreten Freiheiten der Ständegesellschaft wurden dort in eine allgemeine Freiheit des Menschen umgedacht" (Maier 1997, S. 11). Wegweisend war, dass diese Rechte nun allen Menschen zugesprochen wurden und diese Rechte Ansprüche an den Staat stellten (vgl. Maier, 1997 S. 11f). Denn "[er sollte] nicht tun dürfen, was ihm beliebt, [und] in substantielle Bezirke individueller Freiheit nicht […] eingreifen dürfen" (Maier 1997, S. 12). Als vorstaatliche Rechte kann der Staat diese nur akzeptieren, nicht aber verleihen.
Die Idee der unveräußerlichen Menschenrechte kulminierte schließlich in der Unabhängigkeitserklärung der 13 britischen Kolonien 1776 in Nordamerika (zentrales Dokument: Virginia Bill of Rights) und fand schließlich 1789 in der Französischen Revolution (zentrales Dokument: Déclaration des Droits de l'Homme et du Citoyen) in Europa ihren Durchbruch. Diese Dokumente legten den Grundstein für die modernen Menschenrechte, die nun als Grundrechte in zahlreichen Verfassungen verankert sind. Schließlich, im Jahr 1966, wurden die ersten völkerrechtlich bindenden Menschenrechtsabkommen durch die Vereinten Nationen verabschiedet (vgl.: Wagner 2016).
Besonders eindrücklich zeigt die Geschichte der Menschenrechte, dass ihre Idee auf "konkrete Unrechtserfahrungen der Menschen des Okzidents zurückgehen" (Tetzlaff 1998, S. 60). Darauf, nämlich dass die Menschenrechte 'im Westen' ihren Ursprung haben und individualistisch geprägt seien, bezieht sich im Wesentlichen die Kritik an ihnen. Diese Kritik zieht auch in Zweifel, ob die Menschenrechte universell sind. (Kultur-)Relativismus vs. Universalismus
Verfechter des Universalismus verstehen die Menschenrechte als unveräußerliche, angeborene Rechte eines jeden Menschen. "Niemand kann, mit Bezug auf welche Eigenschaft auch immer, von der Trägerschaft ausgeschlossen werden" (Lohmann 2010, S. 37). Ausgeschlossen ist hierbei auch die "ungleiche Verteilung" der Rechte (vgl. Lohmann 2010, S. 37). So muss der Staat seinen Pflichten nachkommen und für die Einhaltung, Wahrung und Durchsetzung der Menschenrechte sorgen.
Jedoch werden die Menschenrechte, wie sie 1948 verabschiedet wurden, in ihrem universellen Gültigkeitsanspruch von vielen Ländern und Kulturen auf der Welt nicht akzeptiert. Der (Kultur-) Relativismus in seiner extremen Form sieht die Menschenrechte als nicht vollständig übertragbar und "nur relativ zu einem bestimmten Kultursystem 'begründbar'" (Lohmann 2009). Manche Staaten gehen sogar so weit und verstehen die Menschenrechte als ein westliches Produkt, das "dem Osten" aufoktroyiert wurde. Auch seien die Menschenrechte nicht, wie der universalistische Anspruch behauptet, unabhängig von Zeit, Raum und kulturellem Hintergrund gültig. Sie seien aus der europäisch-nordamerikanischen Aufklärung entstanden, abendländisch geprägt und somit nicht in dieser Form in anderen Kulturkreisen anwendbar. Zudem sei ihre "weltweite Propagierung Ausdruck einer Mentalität der Einmischung, welche die Tradition des Kolonialismus mit anderen Mitteln fortsetze" (Hilpert 2019, S. 230). Tatsächlich sei "das Menschenrechtsverständnis in erster Linie abhängig von dem Menschenbild in einer spezifischen Kultur […], wonach es keinen Standard gibt, der unabhängig von bestimmten sozialen Lebensformen wäre" (Pohl 2002, S. 7).
Von (Kultur-)Relativisten konkret kritisiert werden häufig die "individuelle Selbstbestimmung, die körperliche Unversehrtheit, das Vorrangverhältnis zwischen Individuum zur Gemeinschaft, die Gleichheit von Männern und Frauen, die religiöse Toleranz und die Einschätzung demokratischer Mitbestimmung" (Lohmann 2010, S. 41).
Zum anderen wird bemängelt, dass bei der Verabschiedung der Allgemeinen Erklärung der Menschenrechte im Jahr 1948 die westlichen Länder dominierten, während die meisten Länder des Globalen Südens noch unter kolonialer Herrschaft standen. Viele Staaten werfen dem Westen sogar "moralischen Chauvinismus" (Pollis/Schwab 2006, S. 68), "Ideologismus" und eine "quasi-religiöse" Auslegung der Menschenrechte vor (Pohl 2002, S. 7).
Genau an diese Dichotomie, Universalismus und (Kultur-)Relativismus, knüpfte die 1993 vorgelegte Deklaration von Bangkok an, welche von vielen (süd-)ostasiatischen Ländern unterzeichnet wurde. Bevor die Wiener Menschenrechtskonferenz im Jahr 1993 begann, zweifelten diese Länder die Universalität der Menschenrechte an und legten eine "asiatische Perspektive" auf die Menschenrechte und sogenannte "asiatische Werte" vor.
Die asiatische Perspektive auf die (Universalität der) Menschenrechte und 'asiatische Werte'
Die ,asiatische Sicht' auf die Menschenrechte und die 'asiatischen Werte' werden im Grunde kulturrelativistisch begründet. Im folgenden Abschnitt werden die 'asiatischen Werte' zeitgeschichtlich eingeordnet und näher erläutert.
Die zeitgeschichtliche Einordnung der 'asiatischen Werte'
Die Kontroverse, dass sich die Menschenrechte in (Südost-)Asien anders entwickelt hätten, spitzte sich Anfang der 1990er Jahre zu und erlangte mit der Verabschiedung der Deklaration von Bangkok weltumspannende Beachtung. Die Gründe für den Ausbruch dieser Debatte sind vielfältig. Zum einen genoss 'der Westen', vor allem die Europäische Union und die Vereinigten Staaten, zu dieser Zeit beispielloses politisches und ökonomisches Selbstbewusstsein. Der Ost-West-Konflikt war beendet, die Demokratie und der Kapitalismus schienen 'die' Erfolgsmodelle zu sein, die "das Ende der Geschichte" einläuteten (Fukuyama 1992). Die Globalisierung schritt unaufhaltsam voran, während der Kommunismus in vielen osteuropäischen Ländern in sich zusammenbrach. Zudem gewann die Idee des politischen und wirtschaftlichen Liberalismus mehr und mehr an Bedeutung.
In dieser Zeit gingen die Vereinigten Staaten und viele Mitgliedsstaaten der EU auf die Forderung vieler Menschenrechtsorganisationen ein, die Menschenrechte und die Demokratie in anderen Ländern zu verbreiten. Die Regierung unter Präsident Bill Clinton ging sogar so weit und erklärte sowohl die Verbreitung der Menschenrechte als auch der Demokratie zu einer der drei Säulen der US-amerikanischen Außenpolitik (vgl.: Barr 2000, S. 313). Allerdings missbilligte insbesondere China den menschenrechtlichen Druck vieler westlicher Staaten, der durch das Massaker von Tiananmen im Jahr 1989 und Chinas Tibet-Politik stetig zunahm.
Hinzu kam, dass viele ostasiatische Staaten, allen voran China, Malaysia, Japan, Hongkong, Taiwan, Singapur und Südkorea, als 'ostasiatische Wirtschaftswunder' bezeichnet wurden (vgl.: Ernst 2009). Diese wirtschaftliche Prosperität ließ ein "neues Selbstbewusstsein und eine neue politische Elite entstehen, die vom 'Westen' das Recht auf einen eigenen entwicklungspolitischen Weg einforderte und die Vormachtstellung der alten Industriestaaten Europas und Nordamerikas herausforderte" (Ernst 2009). Darüber hinaus sahen sie in der Rolle des starken Staates eine wichtige "Erklärungsvariable" für den wirtschaftlichen Erfolg (Heinz 1995, S. 11).
Die Bestimmtheit, mit der die Europäische Union und die Vereinigten Staaten um die Durchsetzung der Menschenrechte in Asien rangen, wurde von (ost-)asiatischen Ländern als Versuch verstanden, ,Asien' ,dem Westen' unterwürfig zu halten. Zudem wurde die Kritik als "Einmischung, irrelevant und kulturfremd abgewehrt" (Heinz 1995, S. 12).Schließlich, im Vorfeld der Wiener Menschenrechtskonferenz im Jahr 1993, "bestritten [unter anderem] die Regierungen Indonesiens, Singapurs und Chinas die Universalität der Menschenrechte" (Heinz 1995, S. 16). Stattdessen müssten die jeweiligen wirtschaftlichen, sozialen und politischen Bedingungen betrachtet werden, weil sie nur anhand derer verwirklicht werden könnten (vgl.: Heinz 1995, S. 15f). Deshalb wurden sogenannte 'asiatische Werte' vorgestellt.
Was sind 'asiatische Werte'?
'Asiatische Werte' beschreiben eine (kultur-)relative Sicht auf die Menschenrechte, die in den frühen 1990er Jahren von asiatischen Politiker*innen und Wissenschaftler*innen vorgestellt und von 34 Staaten verabschiedet wurden. Sie umfassen im Groben die Bereiche Politik, Wirtschaft und Kultur (vgl.: Tai 2005, S. 34). Federführend bei der Debatte waren Lee Kuan Yew, der damalige Premierminister von Singapur, und Mahathir bin Mohamad, der damalige Premierminister von Malaysia. Sie, die 'asiatischen Werte', sollen eine Anpassung zum aus asiatischer Sicht "westlichen Modell der Menschenrechte" darstellen (Henders 2017). Die regionale Bezeichnung 'Asien/asiatisch' bezieht sich in diesem Zusammenhang eher auf (Süd-) Ostasien beziehungsweise pazifisch-Asien als auf den Nahen oder Mittleren Osten. Das bedeutet auch, dass sich die 'asiatischen Werte' hauptsächlich auf die "konfuzianische Kultur" stützen und weniger vom Islam oder dem Hinduismus geprägt sind (Ernst 2009).
Allerdings lehnen die ostasiatischen Länder die Menschenrechte nicht grundsätzlich ab. Schließlich haben einige dieser Länder, darunter China, die Allgemeine Erklärung der Menschenrechte 1948 verabschiedet und bekräftigten 1993 in Wien nochmals ihren Einsatz für Prinzipien, die in der Erklärung enthalten sind (vgl.: Tay 1996, S. 751). Sie plädierten mit der Deklaration von Bangkok stattdessen für nationale und regionale Unterschiede in der Schwerpunktsetzung und auch in der praktischen Umsetzung der Menschenrechte (vgl.: Tay 1996 S. 751f).
Befürworter der 'asiatischen Werte' bestanden zudem darauf, dass sie nicht nur durch den wirtschaftlichen Erfolg, den die ostasiatischen Staaten in den Jahrzehnten vor der Wiener Menschenrechtskonvention 1993 erlebt hatten, legitimiert würden, sondern auch maßgeblich für diesen Erfolg verantwortlich seien. Darüber hinaus müsse die wirtschaftliche Entwicklung bei ökonomisch aufstrebenden Ländern über allem stehen; bürgerliche und politische Rechte sollten den ökonomischen und sozialen Rechten deswegen untergeordnet sein (vgl.: Henders 2017).
Bisher wurde keine offizielle "umfassende, verbindliche Liste" vorgestellt (Heinz 1995, S. 25), aber häufig genannte 'asiatische Werte', die bei der Wiener Menschenrechtskonvention 1993 vorgelegt wurden, waren: "Disziplin, harte Arbeit, eine starke Führungskraft" (Tai 2005, S. 34ff), "Sparsamkeit, akademischer Erfolg, die Balance zwischen individuellen und gemeinschaftlichen Bedürfnissen, Respekt vor Autorität" (Henders 2017) und ein starker, stabiler Staat (Barr 2000, S. 310). Darüber hinaus wird "nationales Teamwork", die Erhaltung einer "moralisch sauberen Umwelt" (das Magazin 'Playboy' wird in Singapur beispielsweise nicht verkauft) und keine absolute Pressefreiheit für zentral erachtet (Heinz 1995, S. 26).
Die asiatische Perspektive auf die Universalität der Menschenrechte
Im Diskurs um die ,asiatische Perspektive' haben sich mehrere häufig genannte Argumente herausgebildet. Einige davon sollen näher beschrieben werden, nämlich die Behauptungen, dass Rechte kulturspezifisch seien, die Gemeinschaft in Asien über dem Individuum stehe, dass Rechte ausschließlich den jeweiligen Staaten oblägen und dass soziale und ökonomische Rechte über zivilen und politischen Rechten ständen.
Rechte sind kulturspezifisch
Die Idee der Menschenrechte entstand bereits in der Antike auf dem europäischen Kontinent und entwickelte sich schließlich unter bestimmten sozialen, ökonomischen, kulturellen und politischen Bedingungen ebendort und in Nordamerika (vgl.: Li 1996, S. 19). Die Umstände, die die Umsetzung der Menschenrechte voranbrachten, könnten aber nicht auf diese Art auf Südostasien übertragen werden. So beschreibt China in seinem 1991 veröffentlichten Weißbuch, dass sich aufgrund des eigenen historischen Hintergrunds, des Sozialsystems und der jeweiligen ökonomischen Entwicklung die Länder in ihrem Verständnis und ihrer Auslegung der Menschenrechte unterscheiden würden (vgl.: Weißbuch 1991, Vorwort). Das ist eine Haltung, welche auch 1993 auf der Menschenrechtskonferenz in Wien nochmals bekräftigt wurde (vgl.: Li 1996, S.19).
Die Gemeinschaft steht über dem Individuum
Die südostasiatischen Länder insistierten, dass die Bedeutung der Gemeinschaft in asiatischen Ländern nicht mit dem Primat des Individuums vereinbar sei, worauf die Vorstellung der Menschenrechte beruht (Li 1996, S. 19). Zudem stünden Pflichten über Rechten (vgl.: Nghia 2009, S. 21). Dies seien auch die entscheidenden Faktoren, die 'Asien' fundamental vom 'Westen' unterschieden. Die Menschenrechte seien von Natur aus individualistisch geprägt, was nach (süd-)ostasiatischer Auffassung eine Bedrohung für den (süd-)ostasiatischen sozial-gemeinschaftlichen Gesellschaftsmechanismus darstellen könnte. Als Begründung für diese Behauptung führten die (süd-)ostasiatischen Staaten den Zusammenbruch vieler Familien, die Drogenabhängigkeit und die hohe Zahl an Obdachlosen im 'Westen' an (vgl.: Li 1996, S. 20).
Soziale und ökonomische Rechte stehen über zivilen und politischen Rechten
Zentral bei der ,asiatischen Auslegung' der Menschenrechte waren die Priorisierung der Gemeinschaft gegenüber der Individuen und die Suche nach dem Konsens im Gegensatz zum Konflikt. Dominanz und Autorität würden nicht limitiert oder gar als suspekt betrachtet, sondern gälten im Gegenteil als vertrauens- und förderungswürdig (vgl.: Tay 1996, S. 753ff). Die asiatische Auslegung, so wurde argumentiert, lege den Fokus auf ökonomische und soziale Rechte, die durch ein starkes wirtschaftliches Wachstum und Wohlstand legitimiert würden, worauf Asiat*innen Wert legten und was ihnen wichtig sei. So proklamiert das Weißbuch der chinesischen Regierung aus dem Jahr 1991, dass "sich sattessen und warm kleiden die fundamentalen Bedürfnisse der chinesischen Bevölkerung seien, die lange unter Hunger und Kälte leiden mussten" (Weißbuch 1991, Kapitel I). Wohlstand könne nur effizient erreicht werden, wenn die Regierenden autorisiert seien, die politischen Rechte ihrer Bürger*innen zu limitieren, um wirtschaftlichen Wohlstand zu garantieren (Li 1996, S. 20).
Die wirtschaftliche Entwicklung müsse deswegen bei ökonomisch aufstrebenden Ländern über allem stehen; zivile und politische Rechte sollten den ökonomischen und sozialen Rechten untergeordnet sein (vgl.: Henders, 2017). Implizit schwingt bei dieser Behauptung mit, dass erst alle basalen Bedürfnisse und eine stabile politische Ordnung sichergestellt werden müssten, um politische und bürgerliche Rechte zu implementieren (vgl.: Li 1996, S. 20f). Befürworter der Idee der asiatischen Perspektive erachten es somit für wichtig, den Staat als Oberhoheit zu sehen (vgl.: Henders 2017).
Rechte sind die Angelegenheit der jeweiligen Staaten
Das Recht eines Staates zur Selbstbestimmung schließe den Zuständigkeitsbereich der Menschenrechte mit ein. So seien Menschenrechte innenpolitische Angelegenheiten, in die sich andere Staaten oder Organisationen nicht einzumischen hätten (vgl.: Li 1996, S. 20). "Die Bestrebung des Westens, auch bei Entwicklungsländern einen universellen Geltungsanspruch der Menschenrechte durchzusetzen, sei versteckter kultureller Imperialismus und ein Versuch, die Entwicklung [wirtschaftlich aufstrebender Länder] zu behindern" (Li 1996, S. 20).
Kritik an der asiatischen Perspektive Generell wurde bemängelt, dass nicht einfach über 'asiatische' Werte geredet werden könne, weil es die einzelnen asiatischen Länder simplifiziere, stereotypisiere und sie um ihre Vielfalt bringe (vgl.: Henders 2017). Des Weiteren seien die genannten Werte nicht alleinig in Asien zu finden, sondern hätten auch in anderen Teilen der Welt Gültigkeit (vgl.: Tai 2005, S. 35). Tatsächlich, so wurde argumentiert, gebe es keine ,asiatischen Werte', denn der Begriff sei mit "seiner Allgemeinheit und Undifferenziertheit ein Konstrukt, das ganz bestimmten Zielen dienen soll" (Schreiner 1996, S. 57). Außerdem seien nur mächtige Politiker*innen leitender Teil der Debatte gewesen; die Argumente seien weder in die Gesellschaft getragen noch philosophisch (fort-)geführt worden.
Die einzelnen 'asiatischen' Argumente gegen die Universalität der Menschenrechte wurden jedoch auch einzeln kritisiert. Einige Kritiker*innen stellten die Ansicht der Kulturspezifizität in Frage. Das Argument impliziere, dass soziale Normen, die in anderen Ländern und Kulturkreisen ihren Ursprung hatten, in der asiatischen Kultur keine Anwendung finden sollten oder könnten. Kapitalistische Märkte und die Konsumkultur, welche ebenfalls außerhalb der asiatischen Länder entstanden sind, konnten jedoch sehr wohl von asiatischen Kulturen aufgenommen werden (vgl.: Li 1996, S. 20). Die schwerfällige Akzeptanz und Umsetzung der Universalität der Menschenrechte könne somit nicht ausschließlich auf ihre kulturelle Herkunft zurückgeführt werden.
Die zweite Behauptung, dass Asiat*innen die Gemeinschaft über das Individuum stellten, würde als kulturelles Argument missbraucht werden, um aufzuzeigen, dass unveräußerliche Rechte eines Einzelnen sich nicht mit der Idee von asiatischen Gesellschaften verstünden. Kritiker*innen der ,asiatischen Perspektive' sahen hier die Gefahr der generellen Verdammung der Rechte des Einzelnen. Dabei würden individuelle Freiheiten den asiatischen Gemeinschaftswerten nicht generell oppositionell gegenüberstehen. Vielmehr seien grundlegende Rechte, wie eine Versammlungs- und Meinungsfreiheit sowie Toleranz, wichtig für eine Gemeinschaft (vgl.: Li 1996, S. 21).
Beim dritten Argument, welches die südostasiatischen Länder vorlegten, kritisierten viele Verfechter*innen der Universalität der Menschenrechte, dass die nationale ökonomische Entwicklung nicht gleichzusetzen sei mit der ökonomischen Absicherung (sozio-)ökonomisch benachteiligter Gruppen einer Gesellschaft. Nationales ökonomisches Wachstum garantiere schließlich nicht automatisch Rechte für ökonomisch benachteiligte Mitglieder einer Gesellschaft. Stattdessen würden sich politisch-zivile und sozial-ökonomische Rechte bedingen und nur effektiv wirken, wenn alle vier Ebenen garantiert werden könnten (vgl.: Li 1996, S. 22).
Abschließend wurde kritisiert, dass die vorgebrachten Argumente, insbesondere die Forderung der Nichteinmischung in innerstaatliche Angelegenheiten, als Vorwand für einen illiberalen und autoritären Regierungsstil verwendet werden würden. Zudem sollten diese Argumente die Schwäche des wirtschaftlichen Entwicklungsmodells der asiatischen Länder verschleiern (vgl.: Henders 2017). Das sind beides Kritikpunkte, die während der asiatischen Wirtschaftskrise 1997/1998 weitgehend bestätigt wurden und zur Verabschiedung der asiatischen Erklärung der Menschenrechte im Jahr 1998 führten.
Was ist mit 'asiatischen Werten' passiert?
Der Dialog über die in der Deklaration von Bangkok vorgestellten 'asiatischen Werte' begleitete staatliche und nicht-staatliche Akteure sowie Wissenschaftler*innen bis in die 1990er Jahre hinein. Als im Jahr 1997 eine Wirtschafts- und Finanzkrise Asien ereilte, wurde es jedoch nicht nur still um die 'asiatischen Werte', sie wurden nun sogar "als Ursache der Krise gedeutet" (Ernst 2009). Insbesondere die staatliche Intervention und die starken Familienwerte wurden als Verursacher genannt (vgl.: Ernst 2009). Um den wirtschaftlichen Anschluss an den industriellen 'Westen' nicht zu verlieren, waren Menschenrechtsorganisationen in Südostasien bemüht, den Menschenrechtsschutz bottom-up durchzusetzen. Die Asiatische Menschenrechtscharta, die die 'asiatischen Werte' ablehnt, wurde 1998 von Menschenrechtsorganisationen in Kwangju, Südkorea, verabschiedet. Sie ist auch ein Versuch, asiatische Regierungen bei Menschenrechtsverstößen zukünftig in die Verantwortung nehmen zu können.
Seit dem Ausbruch der asiatischen Wirtschaftskrise ist die Debatte um 'asiatische Werte' nahezu versiegt. Gleichwohl werden interkulturelle Dialoge über die Menschenrechte weiter geführt.
Zwischen Kulturrelativismus und Universalismus – Perspektiven für einen Dialog
Eine globale Durchsetzung der Menschenrechte bleibt nach wie vor ein Ideal, ebenso wie deren uneingeschränkte Einhaltung. Die ostasiatischen Länder sind nur ein Beispiel von vielen, denn Kritik an der Universalität der Menschenrechte kommt auch aus anderen Ländern und von anderen Religionen. Dabei hat die Forderung nach weltweiter Umsetzung der Menschenrechte nicht an Dringlichkeit verloren. Wie kann aber ein Dialog über die Menschenrechte oder gar ein Konsens vorangebracht werden?
Bei dieser Problematik ist es wichtig zu bedenken, dass die Menschenrechte kein starres System sind, sondern auch nach ihrer Verabschiedung im Jahr 1948 weiterentwickelt wurden. Zudem hat die Idee der Menschenrechte zwar primär in der Zeit der europäisch-amerikanischen Aufklärung ihre Wurzeln, konnte ihre volle Durchsetzungskraft jedoch erst in der Moderne entfalten (vgl.: Bielefeldt 1999, S. 59f). Insbesondere im Hinblick auf das Argument der Nichtumsetzbarkeit der Menschenrechte in kulturell anders geprägten Regionen "wäre es verfehlt, den Begriff der 'Aufklärung' auf eine bestimmte Epoche der europäischen Geschichte zu verkürzen" (Bielefeldt 1999, S. 60). Schließlich muss es auch für andere Kulturen möglich sein, "humane Anliegen der eigenen Tradition in moderner Gestalt in den Menschenrechten wiederzuerkennen" (Bielefeldt 1999, S. 61).
Aufgrund dessen sprechen sich viele Wissenschaftler*innen für eine Adaption der Menschenrechte aus. Die US-amerikanische Politikwissenschaftlerin Alison Dundes Renteln, beispielsweise, "möchte am Begriff universaler Menschenrechte durchaus festhalten, ihn zugleich aber auf interkultureller Basis inhaltlich neu bestimmen […], indem sie nach einem weltweit gemeinsamen Nenner in den Wertorientierungen unterschiedlicher Kulturen sucht" (Bielefeldt 1999, S. 45f). Der kanadische Philosoph Charles Taylor spricht sich für einen "ungezwungenen Konsens" aus, der anderen kulturellen Normen Verständnis entgegenbringt (Taylor 1999, S. 124). Der Dialog über die Menschenrechte zwischen Asien und 'dem Westen' solle sich global ausweiten und eine Auseinandersetzung über eine Übereinstimmung an Normen, die menschliches Verhalten und politisches Handeln leiten sollten, starten. Dieser Grundkonsens auf der Basis der Menschenrechte soll bindend sein, darf sich aber in seiner Begründung unterscheiden (vgl.: Carnegie Council 1996). Der deutsche Philosoph Georg Lohmann vertritt wiederum die Position, dass der "Universalismus" nicht zwingend eine "Einheitskultur darstellt oder in einer solchen resultiert" (Lohmann 2009). Für ihn sind Universalismus und Relativismus auch keine Gegensätze; er sieht im Partikularismus das Gegenteil zum Universalismus. Deshalb ist er der Ansicht, dass ein "verwirklichter und rechtlich wie politisch konkretisierter universeller Menschenrechtsschutz die Möglichkeiten einer kulturellen Vielfalt der Menschen erweitern wird" (Lohmann 2009). Kulturelle Vielfalt ist hier aber nicht mit Willkür gleichzusetzen. Unterscheiden muss man zwischen "Besonderheiten, die mit dem Universalismus der Menschenrechte kompatibel sind und solchen, die ihm widersprechen" (Lohmann 2009). "Strikter" soll der Universalismus bei negativen Pflichten agieren, so zum Beispiel beim Verbot von Folter (Lohmann 2009). Bei positiven Pflichten, wie beispielsweise bei Leistungsrechten, kann der Universalismus lockerer angewendet werden und mehrere, kulturell unterschiedliche Auslegungen zulassen (vgl.: Lohmann 2009). Ein interkultureller Dialog und die Suche nach einem Konsens bedeuten jedoch nicht, dass "die Menschenrechte [völlig neu überdacht und] bereits bestehende international vereinbarte Standards und Konventionen […] abgetan werden sollen. Das wäre gefährlich" (Utrecht 1995, S. 11). Für eine strikte Durchsetzung ideal, so konkludiert Lohmann, "wäre ein gut etabliertes Rechtssystem, in dem die Menschenrechte individuell eingeklagt und mit Hilfe staatlicher Gewalten auch durchgesetzt werden können" (Lohmann 2013, S. 19).
Fazit
Viele (süd-)ostasiatische Länder brachten im Jahr 1993 mit der Deklaration von Bangkok kulturrelativistische Argumente hervor, mit denen sie ihre Sichtweise auf die Universalität der Menschenrechte aufzeigten und rechtfertigten. Eine zentrale Begründung war hier, dass das "individualistische Rechtsverständnis" der Menschenrechte nicht mit dem asiatischen Gemeinschaftsverständnis vereinbar sei (Tetzlaff 2002, S. 5). Ebenso waren die Kulturspezifität von Rechten und das Primat des wirtschaftlichen Wohlstands Teil der Begründung. Auseinandersetzungen darüber fanden bis weit in die 1990er Jahre hinein viel Gehör und Gegenrede.
Erst mit der asiatischen Wirtschafts- und Finanzkrise 1997/1998 wurde es still um die 'asiatischen Werte'.
Was von der Debatte allerdings bleibt, ist die Diskussion über den Universalismus und den (Kultur-) Relativismus, für die der Menschenrechtsrat (MRR) der Vereinten Nationen in Genf eine Plattform bietet.
Bei allen Vorschlägen und Denkanstößen, die eine kulturelle Sensibilität und Variabilität ermöglichen sollen, ist der interkulturelle Dialog zentral. Fraglich bleibt jedoch, wie gut sich eine Diskussion über Normen auf der Basis der Menschenrechte und deren anschließende Durchsetzung in autoritär geführten Staaten durchsetzen lässt (vgl.: Carnegie Council 1996). Denn schließlich sagte schon Konfuzius (551 v. Chr. bis 479 v. Chr.), dass es sinnlos sei, miteinander Pläne zu schmieden, wenn über das Grundsätzliche keine Einigkeit bestehe.
Literatur Amnesty International (o. A.): Einführung in die Menschenrechte. (o. D.) Abrufbar unter: https://www.amnesty.ch/de/themen/menschenrechte/zahlen-fakten-und-hintergruende/einfuehrung-in-die-menschenrechte#was%20sind%20MR (zuletzt aufgerufen am 31.08.2020).Barr, Michael D.: Lee Kuan Yew and the "Asian Values" Debate. In: Asian Studies Review, Band 24, Ausgabe 3 (September 2000). S. 309-334. Verfügbar unter: http://www.cafefle.org/texteskkkmg-icc_articles/13_Singapore_26p-Pol%20copie.pdf (zuletzt aufgerufen am 05.09.2020).Bell, Daniel A.: The East Asian Challenge to Human Rights: Reflections on an East West Dialogue. In: Human Rights Quarterly, Band 18, Ausgabe 3 (1996). S. 641-667. Verfügbar unter: http://faculty.smcm.edu/jwschroeder/Web/ETHR1002/Global_Jutice_Readings_files/13.BellEastAsianChallenge.pdf (zuletzt aufgerufen am 05.09.2020).
Bielefeldt, Heiner: Universale Menschenrechte angesichts der Pluralität der Kulturen. In: Hans-Richard Reuter (Hrsg.): Ethik der Menschenrechte. Zum Streit um die Universalität einer Idee I. Tübingen: Mohr Siebeck 1999. S. 11-43.
Carnegie Council (o. A.): A Proposal for an "Unforced Consensus". Human Rights Dialogue 1.5 (Summer 1996): "Cultural Sources of Human Rights in Asia". Erschienen am 05.06.1996 beim Carnegie Council for Ethics in International Affairs. Abrufbar unter: https://www.carnegiecouncil.org/publications/archive/dialogue/1_05/articles/525 (zuletzt aufgerufen am 09.09.2020).
Chan, Benedict S. B.: Are International Human Rights Universal? – East-West Philosophical Debates on Human Rights to Liberty and Health. In: Metaphysics of Human Rights 1948-2018: On the Occasion of the 70th Anniversary of the UDHR. Wilmington: Vernon Press 2019. S. 135-152.Chiam, Sou: Asia's Experience in the Quest for a Regional Human Rights Mechanism. In: Victoria University of Wellington Law Review, Band 40, Ausgabe 1 (2009). S. 127-148.Verfügbar unter: https://ojs.victoria.ac.nz/vuwlr/article/download/5382/4709 (zuletzt aufgerufen am 06.09.2020).Dallmayr, Fred R.: "Asian Values" and Global Human Rights. In: Philosophy East and West, Band 52, Ausgabe 2 (April 2002). S. 173-189. Verfügbar unter: http://faculty.smcm.edu/jwschroeder/Web/ETHR1002/Global_Jutice_Readings_files/14.dallmayr.pdf (zuletzt aufgerufen am 05.09.2020).Davis, Michael C.: Human Rights in Asia: China and the Bangkok Declaration. In: Buffalo Journal of International Law, Band 2, Ausgabe 2, Article 3 (1996). S. 215-230.Verfügbar unter: https://digitalcommons.law.buffalo.edu/bjil/vol2/iss2/3 (zuletzt aufgerufen am 08.09.2020).Ernst, Sonja: Die Debatte um asiatische Werte. Rückblick und Bilanz. Erschienen am 12. Oktober 2009 in der Bundeszentrale für politische Bildung. Abrufbar unter: https://www.bpb.de/internationales/weltweit/menschenrechte/38715/asiatische-werte?p=all (zuletzt aufgerufen am 05.09.2020).
Fukuyama, Francis: Das Ende der Geschichte. München: Kindler 1992.
Galtung, Johan: Menschenrechte – anders gesehen. Frankfurt am Main: Suhrkamp 1994.
Gareis, Sven Bernhard/Varwick, Johannes: Die Vereinten Nationen. Aufgaben, Instrumente und Reformen. 5. Aufl. Opladen: Verlag Barbara Budrich 2014.Hamm, Brigitte: Empirische Analysen über politische Menschenrechte – Perspektiven für den internationalen Schutz der Menschenrechte. In: INEF Report, Heft 36 (1999). Duisburg: Gerhard-Mercator-Universität 1999. Verfügbar unter: http://edoc.vifapol.de/opus/volltexte/2013/4570/pdf/report36.pdf (zuletzt aufgerufen am 04.09.2020).
Heidelmeyer, Wolfgang (Hrsg.): Die Menschenrechte. 3. erneuerte und erweiterte Aufl. Paderborn: Schöningh 1982.Heinz, Wolfgang S.: Gibt es ein asiatisches Entwicklungsmodell? Zur Diskussion über 'asiatische Werte'. In: Berichte / BIOst, Ausgabe 55 (1995). Köln: Bundesinstitut für ostwissenschaftliche und internationale Studien 1995. Verfügbar unter: https://nbn-resolving.org/urn:nbn:de:0168-ssoar-42151 (zuletzt aufgerufen am 06.09.2020). Henders, Susan J.: Asian Values. Erschienen am 25. September 2017 in der Encyclopaedia Britannica. Abrufbar unter: https://www.britannica.com/topic/Asian-values (zuletzt aufgerufen am 31.08.2020).
Hilpert, Konrad: Ethik der Menschenrechte. Zwischen Rhetorik und Verwirklichung. Paderborn: Schöningh 2019.
Hoffmann, Johannes (Hrsg.): Universale Menschenrechte im Widerspruch der Kulturen. Das eine Menschenrecht für alle und die vielen Lebensformen. Frankfurt am Main: Verlag für interkulturelle Kommunikation 1994.Human Rights (o. A.): Definitionen. Erschienen am 11.12.2012. Abrufbar unter: https://www.humanrights.ch/de/ipf/grundlagen/einsteiger-innen/was-sind-menschenrechte/ (zuletzt aufgerufen am 31.08.2020).Human Rights (o. A.): Was heißt "Universalität der Menschenrechte"? Erschienen am 10. Oktober 2018. Abrufbar unter: https://www.humanrights.ch/de/ipf/archiv/themen/universalitaet/heisst-universalitaet-menschenrechte (zuletzt aufgerufen am 31.08.2020).Krennerich, Michael: Zehn Fragen zu Menschenrechten. Erschienen am 12. Oktober 2009 in der Bundeszentrale für politische Bildung. Abrufbar unter: https://www.bpb.de/internationales/weltweit/menschenrechte/38627/zehn-fragen (zuletzt aufgerufen am 31.08.2020). Li, Xiaorong: Asian Values and the Universality of Human Rights. In: Report from the Institute for Philosophy and Public Policy, Band 16, Ausgabe 2 (Frühling 1996). Maryland. S. 18-28.
Lohmann, Georg: Kulturelle Besonderung und Universalisierung der Menschenrechte. In:
Gerhard Ernst, Stephan Sellmaier (Hrsg.): Universelle Menschenrechte und partikulare Moral. Stuttgart: Kohlhammer 2010. S. 33-48.
Lohmann, Georg: Kulturelle Menschenrechte und der Kampf gegen Ungerechtigkeit. In: Johannes Ebert/Ronald Grätz (Hrsg.): Menschenrechte und Kultur. Göttingen: Steidl 2014. S. 19-28.Lohmann, Georg: Universelle Menschenrechte und kulturelle Besonderheiten. Erschienen am 12.10.2009 in der Bundeszentrale für politische Bildung. Abrufbar unter: https://www.bpb.de/internationales/weltweit/menschenrechte/38709/universelle-menschenrechte (zuletzt aufgerufen am 09.09.2020).Lohmann, Georg: Werden die Menschenrechte überschätzt? In: zfmr, Ausgabe 2 (2013). S. 9-24.
Lohmann, Georg: Zur Verständigung über die Universalität der Menschenrechte. Eine Einführung. In: Günter Nooke, Georg Lohmann, Gerhard Wahlers (Hrsg.), Gelten Menschenrechte universal? Begründungen und Infragestellungen. Freiburg, Basel, Wien: Herder 2008. S. 47-60.
Maier, Hans: Wie universell sind Menschenrechte? Freiburg im Breisgau: Verlag Herder 1997.Müller, Ragnar: Pharos e.V. Stuttgart/Sarajevo: Pharos e.V. Menschenrechte Dr. Ragnar Müller. Veröffentlicht am 09.12.2017 auf YouTube. Abrufbar unter: https://www.youtube.com/watch?v=sbaLtEMcCXo&t=191s (zuletzt abgerufen am 04.09.2020). Nghia, Hoang: The "Asian Values" Perspective of Human Rights: A Challenge to Universal Human Rights. Hanoi: Vietnamese Institute for Human Rights 2009. Verfügbar unter: https://papers.ssrn.com/sol3/papers.cfm?abstract_id=1405436 (zuletzt aufgerufen am 06.09.2020).Pohl, Karl-Heinz: Zwischen Universalismus und Kulturrelativismus. Menschenrechte und interkultureller Dialog mit China. In: Occasional Papers, Arbeitsgemeinschaft Menschenrechte Trier, Ausgabe 5 (Februar 2002). Verfügbar unter: https://www.humanrights.ch/cms/upload/pdf/070108_pohl_universalitaet.pdf (zuletzt aufgerufen am 06.09.2020).
Pollis, Adamantia und Schwab, Peter: Human Rights: A Western Construct with Limited Applicability. In: Christine M. Koggel: Moral and Political Theory. Moral Issues in Global Perspective I. 2. Aufl. Peterborough: Broadview Press 2006. S. 60-72.Schreiner, Klaus H.: Asiatische Werte kontra Menschenrechtsimperialismus? (Rück-)Blick auf eine Debatte. In: Südostasien Informationen, Band 11, Ausgabe 4 (1995). S. 56-57.
Tai, Pak Chong: Das Verhältnis der asiatischen Werte zur Idee der Menschenrechte. In: Reinhard C. Meier-Walser/Anton Rauscher (Hrsg.): Die Universalität der Menschenrechte. München: Hanns-Seidel-Stiftung e.V. 2005. S. 27-39.Tay, Simon S.C.: Human Rights, Culture, and the Singaporean Example. In: McGill Law Journal, Band 41 (1996). S. 743-780.
Taylor, Charles: Conditions of an Unforced Consensus on Human Rights. In: Bauer, Joanne/Bell, Daniel (Hrsg.): The East Asian Challenge for Human Rights, Cambridge: Cambridge University Press 1999. S. 124-144.Tetzlaff, Rainer: Modernisierung und Menschenrechte aus politikwissenschaftlicher Sicht. Zur Begründung einer relativen Universalität der Menschenrechte. In: Jahrbuch für christliche Sozialwissenschaften, Band 39 (1998). S. 54-82.Tetzlaff, Rainer: Über den Nutzen kultureller Eigentümlichkeiten: Das produktive Spannungsverhältnis zwischen universellen Menschenrechten und asiatischen Werten. In: Deutsche Gesellschaft für Vereinte Nationen (Hrsg.), Ausgabe 85 (2002). S. 5-12.UN-Vollversammlung: Allgemeine Erklärung der Menschenrechte. Die Vereinten Nationen, 217 (III) A, Paris: 1948. Artikel 2. Verfügbar unter: https://www.un.org/depts/german/menschenrechte/aemr.pdf (zuletzt aufgerufen am 16.09.2020).Utrecht, Artien: Asiatische Werte wieder in der Menschenrechtsdebatte. Beobachtungen und Anmerkungen zu einer internationalen Menschenrechtskonferenz in Kuala Lumpur. In: Südostasien Informationen, Band 11, Ausgabe 1 (1995). S. 10-11.
Van Ness, Peter (Hrsg.): Debating Human Rights. Critical Essays from the United States and Asia. London: Routledge 1999. Wagner, Beate: 50 Jahre UN-Menschenrechtspakte. Erschienen am 04.03.2016 in der Bundeszentrale für politische Bildung. Abrufbar unter: https://www.bpb.de/apuz/222193/50-jahre-un-menschenrechtspakte?p=all (zuletzt aufgerufen am 16.09.2020).Weißbuch: Embassy of the People's Republic of China in the Republic of Lithuana. Human Rights in China. White Paper of the Government. Erschienen 1991. Abrufbar unter: http://lt.chineseembassy.org/eng/zt/zfbps/t125236.htm (zuletzt aufgerufen am 03.09.2020). Zitat:
Zitate.eu: Zitate von Konfuzius. 2020. Abrufbar unter: https://www.zitate.eu/autor/konfuzius-zitate/9928 (zuletzt abgerufen am 10.09.2020).
A) Motivation und Problemstellung Der Computer ist heute eines der wichtigsten Hilfsmittel beim Entwurf und der Entwicklung von Fahrzeugen. Zunächst wurde er von Konstrukteuren für das Computer Aided Design (CAD) von virtuellen Fahrzeugmodellen eingesetzt. Inzwischen ist er in vielen anderen Bereichen der Fahrzeugentwicklung unentbehrlich geworden: der Entwicklungszyklus von Automobilen ist durch die Computer-gestützte numerische Simulation substanziell verkürzt worden. An virtuellen Prototypen gewonnene Ergebnisse können zunächst optimiert und anschließend am realen Prototypen validiert werden. Untersuchungen der Fahrdynamik, des Crash-Verhaltens, der Innenraumakustik und der Außenhautumströmung sind nur einige Anwendungsfelder, in denen Computer-basierte Technologien zur Senkung der Entwicklungskosten beitragen. Nach den Vorgaben aus dem Design wird ein Konstruktionsmodell erstellt; die erzeugten CAD-Daten beschreiben die Fahrzeugkomponenten anhand parametrischer Flächen und zusätzlicher Materialinformationen. Um die Daten in numerischen Simulationen verwenden zu können, müssen die Flächenbeschreibungen zunächst diskretisiert werden. Für die Strukturmechaniksimulation wird das CAD-Modell daher in ein Finite-Element-Modell umgewandelt, das dann zum größten Teil aus drei- und viereckigen Schalenelementen besteht. Das Finite-Element-Modell wird in einem Vorverarbeitungsschritt aufbereitet und mit zusätzlichen Daten ergänzt, bevor es dem Simulationsprogramm als Eingabedaten übergeben wird. Nach der meist sehr zeitintensiven Simulation, die für Gesamtfahrzeugmodelle mehrere Tage in Anspruch nehmen kann, liegen als Ergebnis große Datenmengen vor. Diese können aufgrund ihres Umfangs und ihrer Komplexität nur mit ausgereiften Visualisierungswerkzeugen ausgewertet werden. Die Erkenntnisse aus der Simulationsanalyse fließen an den Konstrukteur zurück. So schließt sich der Zyklus, der den virtuellen Prototypen solange iterativ verbessert, bis alle Zielgrößen erreicht werden. Bereits Anfang der achtziger Jahre wurden Strukturanalysen mit Hilfe numerischer Simulation anhand einfacher Balkenmodelle durchgeführt. Die Modellkomplexität geht mit der Leistungssteigerung der Hardware und der Weiterentwicklung der Simulationssoftware einher: die Modellgröße hat sich seitdem alle drei Jahre mehr als verdoppelt. Der Notwendigkeit, dem Entwicklungsingenieur entsprechende Visualisierungswerkzeuge zur Verfügung zu stellen, wurde bisher von den Herstellern der Simulationssoftware mit eigenen Lösungen begegnet. Anfangs entstanden einfache Darstellungsanwendungen, die das Fahrzeug als Gittermodell zeichneten, ohne einen räumlichen Eindruck zu vermitteln; die Applikationen wurden weiterentwickelt, entsprechen jedoch heute in der Regel nicht mehr dem, was im Bereich der Softwareentwicklung und vor allem der Visualisierung Stand der Technik ist. Der Fortschritt durch wissenschaftliche Forschung in der Computergraphik und die Weiterentwicklung der Hardware, insbesondere der Graphiksubsysteme, lässt die Lücke zwischen dem, was in der Visualisierung möglich ist, und dem, was in kommerziellen Produkten zur Datenanalyse angeboten wird, immer größer klaffen. Zudem ist die Wissenschaft im Bereich der angewandten Informatik stets bemüht, Einsatzgebiete zu identifizieren, in denen neu entwickelte Methoden evaluiert und verbessert werden können. Eine enge Zusammenarbeit zwischen Ingenieuren und Wissenschaftlern erscheint daher als sehr vielversprechend und zwingend notwendig. Die vorliegende Arbeit ist im Rahmen einer engen Kooperation mit der Berechnungsabteilung der BMW-Gruppe entstanden. Sie hat zum Ziel, den bestehenden Fahrzeugentwicklungsprozess im Umfeld der Strukturmechaniksimulation zu analysieren und durch Adaption neuer Methoden der Computergraphik aus anderen Bereichen sowie durch Entwicklung neuer Visualisierungstechniken und Interaktionsmechanismen zu beschleunigen. Eine Evaluation der eingesetzten Konzepte soll anhand einer prototypischen Applikation vorgenommen werden. Bisher wurde in der Visualisierung im Bereich der Strukturmechaniksimulation auf Basis von vierseitigen Schalenelementen nur wenig geforscht. Für die Analyse von Crash-Simulationsergebnissen müssen große, zeitabhängige Datensätze effizient verarbeitet werden. Dabei soll die Netzstruktur des Finite-Element-Modells erhalten bleiben, ohne dass dabei auf hohe Interaktionsraten verzichtet werden muss. Eine schnelle Datenaufbereitung spielt dabei eine ebenso wichtige Rolle, wie die Navigation durch das virtuelle dreidimensionale Fahrzeugmodell mit Hilfe der an einem Standardarbeitsplatz vorhandenen Eingabegeräte. Die Weiterentwicklung der Simulationscodes hat es ermöglicht, Teilstrukturen mit Randbedingungen zu versehen, so dass nun Berechnungen an Teilmodellen vorgenommen werden können. In der Karosserieberechnung werden anstatt homogen vernetzter Gesamtmodelle seitdem unabhängig voneinander vernetzte Bauteile zu virtuellen Fahrzeugmodellen zusammengesetzt. Der Netzanschluss benachbarter Bauteile wird nun nicht mehr über das aufwändige Abgleichen und Nutzen gemeinsamer Randknoten hergestellt; stattdessen überlappen die Bauteilnetze in Flanschbereichen, wo sie durch neu entwickelte Verbindungselemente aneinander gebunden werden. Dies hat unter anderem den Vorteil, dass einzelne Bauteile durch Varianten ausgetauscht werden können, ohne dass die Umgebung neu vernetzt werden muss. Wichtige Entscheidungen müssen bereits in der frühen Phase eines Fahrzeugprojektes aufgrund der durch numerische Simulation gewonnenen Erkenntnisse getroffen werden. Das setzt voraus, dass die bis dahin verfügbaren Konstruktionsdaten in rechenbare Simulationsmodelle umgesetzt werden können. Durch die unabhängige Vernetzung einzelner Bauteile und den unterschiedlichen Konstruktionsstand der verschiedenen Fahrzeugkomponenten kommt es nach der Zusammenführung häufig zu Berührungen und Durchdringungen der Bauteilnetze im diskretisierten Finite-Element-Modell. Diese müssen zunächst detektiert und beseitigt werden, da sie ansonsten die Simulationsergebnisse verfälschen würden. Darüber hinaus müssen die Bauteilnetze miteinander durch Verbindungselemente verbunden werden. Da die Konstruktionsdaten in der frühen Phase jedoch keine vollständigen Verbindungsdaten beinhalten, muss der Berechnungsingenieur den Datensatz mit entsprechender Information aufbereiten. Die Vorverarbeitung von Eingabedaten für den Simulationsprozess nimmt angesichts steigender Variantenrechnungen und einer halbwegs automatisierten Standardauswertung der Simulationsergebnisse gegenüber der Nachbearbeitung einen immer höheren Stellenwert ein. Derartige Ergänzungen der Simulationsmodelle mussten bisher mit Hilfe eines Text-Editors direkt an den Eingabedateien vorgenommen werden. Netzfehler und fehlende Anbindungen zwischen Bauteilen konnten lediglich durch Anrechnen des Modells entdeckt werden. Dazu wurde der Simulationsprozess gestartet und nach einiger Zeit wieder abgebrochen. Durch die Analyse der bis dahin berechneten Zwischenergebnisse werden derartige Unzulänglichkeiten des Eingabemodells sichtbar. Vorweggenommene Konsistenzprüfungen machen zeitaufwändige Anrechnungen überflüssig. Weiteres Prozessoptimierungspotenzial liegt in der Integration und Angleichung verschiedener Werkzeuge. Eine enge Kopplung des Simulationsprozesses an die Vor- und Nachbearbeitung der Daten durch ein und dieselbe Applikation, die sowohl Ein- als auch Ausgabedaten verarbeiten kann, schafft die Grundlage für eine schnelle Iteration im Optimierungsprozess und trägt zur angestrebten Reduzierung der vom Ingenieur zu bedienenden Vielzahl von Applikationen bei. In Zeiten fortschreitender Globalisierung und Fusionierung, aber auch durch zunehmendes Outsourcing der Teilmodellerstellung an darauf spezialisierte Dienstleistungsunternehmen steigt der Kommunikationsbedarf über räumliche Grenzen hinweg zusammenarbeitender Entwicklungsteams. Kostenintensive Besprechungen, zu denen sich alle Beteiligten an einem Ort zusammenfinden müssen, können nur durch Verbesserung der bereits vorhandenen Fernkommunikationsinfrastruktur reduziert werden. Da auf die gemeinsame Betrachtung der Modelldaten als Diskussionsgrundlage bei Besprechungen nicht verzichtet werden kann, bietet sich eine netzwerkbasierte Kopplung entfernter Arbeitsplätze an, um kleinere Besprechungstermine durch Telefonate mit zeitgleicher kooperativer Visualisierungssitzung am Arbeitsplatzrechner ersetzen zu können. Ein weiterer Aspekt befasst sich mit der Absicherung der Zuverlässigkeit von Simulationsergebnissen. Um eine Aussage darüber machen zu können, welche Modifikation der Fahrzeugstruktur das simulierte Verhalten positiv beeinflusst hat, müssen zunächst alle Einflussfaktoren, die auf die Simulation wirken, analysiert werden. Dies geschieht in Stabilitätsanalysen, in denen anhand gleicher Eingabedaten die Streuung der Simulationsergebnisse gemessen und die Ursache dafür erforscht wird. Durch konstruktive Maßnahmen soll in Ursprungsbereichen maximaler Streuung das Modell dahingehend modifiziert werden, dass gleiche Eingabedaten zu annähernd gleichen Simulationsresultaten führen. Ziel dieser Arbeit ist, das Pre- und Postprocessing von Strukturmechaniksimulation im Fahrzeugentwicklungsprozess bezüglich neuer Funktionalität und Leistungsfähigkeit durch die Einbeziehung neuer Graphiktechnologien sowie durch die Entwicklung neuer Visualisierungsalgorithmen signifikant voranzubringen. B) Beiträge dieser Arbeit Da die Arbeit in enger Zusammenarbeit mit der Karosserieberechnungsabteilung der BMW-Gruppe entstand und die Forschungsergebnisse direkt von den Ingenieuren an alltäglichen Problemstellungen eingesetzt werden sollten, mussten zunächst Voraussetzungen für eine erhöhte Akzeptanz bei den Anwendern geschaffen werden. Dazu gehören vor allem kurze Ladezeiten der Daten, eine intuitiv zu bedienende Benutzerschnittstelle sowie komfortable Funktionalität, die es ermöglicht, die Aufgaben schneller zu lösen als mit anderen Applikationen. Die Analyse der zu verarbeitenden zeitabhängigen Simulationsdaten und der zum Einlesen zur Verfügung gestellten Bibliothek führte zu einer geeigneten internen Datenstruktur, die eine effiziente Datenaufbereitung erlaubt und damit zu geringeren Start-up-Zeiten führt als bei vielen kommerziell verfügbaren Visualisierungswerkzeugen. Ferner resultiert aus der Evaluation verschiedener Szenengraphbibliotheken unter Berücksichtigung der Rechnerplattform im Anwenderumfeld die Entscheidung zu Cosmo3D / OpenGL Optimizer. Durch die Datenstrukturen und Funktionalitäten der Bibliothek bleibt der Ressourcenbedarf im Zusammenspiel mit einem optimierten Szenengraph-Design im Rahmen dessen, was auf einem Standard-Arbeitsplatzrechner zur Verfügung steht. Zur Beschleunigung der Bildsynthese werden bereits bekannte Verfahren zur Optimierung polygonaler Modelle für die Weiterverarbeitung in der OpenGL Pipeline mit adaptierten Algorithmen verglichen, die unter Berücksichtigung der zugrunde liegenden Daten Quadrilateralstreifen maximaler Länge bilden. Zusätzlich wird der Einsatz verschiedener Detailstufen im CAE-Umfeld untersucht und eine Lösung zur deutlichen Steigerung der Bildwiederholrate während der Navigation durch das Finite-Element-Modell präsentiert. Durch die Entwicklung und Evaluation Textur-basierter Visualisierungsverfahren werden deren Vorzüge anhand verschiedener Beispiele aus dem Berechnungsumfeld verdeutlicht. Daraus lässt sich die Notwendigkeit ableiten, Standard-Arbeitsplatzrechner in Zukunft mit entsprechender Graphik-Hardware auszustatten, um von den Möglichkeiten moderner Visualisierungsalgorithmen profitieren zu können. Im Rahmen der vorliegenden Arbeit wurde die Möglichkeit geschaffen, nach dem interaktiven Zusammenführen der Modellkomponenten aus verschiedenen Datenquellen auftretende Netzfehler zu visualisieren und selektiv zu beheben. Dazu kommen auf hierarchischen Datenstrukturen basierende Algorithmen zum Einsatz. Verbunden mit Methoden zur Darstellung und interaktiven Modifikation von Verbindungselementen sowie der Detektion fehlerhafter Schweißpunktdaten wird die Grundlage geschaffen, um Finite-Element-Modelle für die Crash-Simulation effizient aufzubereiten und die Modellerstellung für Variantenrechnungen stark zu vereinfachen. Speziell auf die Bedürfnisse der Berechnungsingenieure zugeschnittene Interaktions- und Navigationsmechanismen sowie frei bewegliche Clip-Objekte erleichtern den Umgang mit den Modelldaten. Durch die Entwicklung dreidimensionaler Selektionsobjekte und eine effiziente Schnittkraftberechnung steht die Kraftflussvisualisierung mit Hilfe dynamischer Kraftflussröhren nun auch als interaktives Analysewerkzeug im Postprocessing zur Verfügung. Die Berechnung der notwendigen Größen im Batch-Betrieb und die anschließende Zwischenspeicherung in einem eigenen Dateiformat ermöglicht die Standardauswertung von festgelegten Kraftflussverläufen im Anschluss an die Simulation. Dies trägt weiterhin zur Beschleunigung und Automatisierung der Nachverarbeitung bei. Mit der Entwicklung eines Bild- beziehungsweise Filmgenerators konnte mit Ergebnissen dieser Arbeit zur Entwicklung eines Integrationswerkzeuges für die Ablaufsteuerung und das Datenmanagement in der Karosserieberechnung beigetragen werden. Es werden zwei Lösungen für Szenarien einer kooperativen Sitzung mit mehreren Rechnern präsentiert. Die Ergebnisse zeigen auf, wie zeitaufwändige Treffen zwischen Ingenieuren durch Telefonate mit gleichzeitiger kooperativer Visualisierungssitzung ersetzt werden können. Das vorgestellte Verfahren zur Stabilitätsanalyse von Simulationsprozessen hilft, Ursprünge von Instabilitäten aufzudecken und die Aussagekraft der Simulationsergebnisse verbesserter Modelle zu erhöhen. Durch diese Arbeit ist eine prototypische Visualisierungsplattform für die Vor- und Nachbereitung von Strukturmechanikdaten namens crashViewer entstanden. Das objektorientierte Softwaredesign des Prototypen erlaubt die Integration weiterer Datenformate sowie die Implementierung neuer Algorithmen zu deren Evaluation im produktiven Einsatz in der Karosserieberechnung, aber auch in anderen CAE-Bereichen. C) Gliederung der Arbeit Im Folgenden wird ein Überblick über den Aufbau dieser Arbeit gegeben, woraus der Zusammenhang der Kapitel untereinander hervorgeht. Kapitel 2 motiviert die Entwicklung einer in die Simulation integrierten Vor- und Nachverarbeitungsapplikation. Zu Beginn führt das Kapitel in das breite Feld der digitalen Fahrzeugentwicklung ein. Das Umfeld der Crash-Simulation wird detaillierter betrachtet, wodurch ein Fundament für ein besseres Verständnis der darauffolgenden Kapitel geschaffen wird. Kapitel 3 gibt einen Überblick zu den Grundlagen der interaktiven Computergraphik und der Visualisierung. Darüber hinaus werden die der Crash-Simulation zugrunde liegenden Daten beschrieben, indem zunächst die Strukturen, aus denen sich ein Gesamtfahrzeugmodell im Allgemeinen zusammensetzt, erläutert werden und anschließend auf die Datenformate der Simulationseingaben beziehungsweise der Simulationsergebnisse eingegangen wird, um die breite Spanne der zu verarbeitenden Daten zu beleuchten. Kapitel 4 präsentiert ein effizientes Szenengraph-Design für zeitabhängige Finite-Element-Modelle mit invarianter Topologie. Dazu werden die notwendigen Grundlagen der verwendeten Graphikbibliotheken vermittelt und Erweiterungsmöglichkeiten diskutiert. Kapitel 5 erläutert die Architektur des im Rahmen dieser Arbeit entstandenen Prototypen und gibt einen Überblick über entwickelte Interaktionsmechanismen zur effizienten Datenanalyse. Kapitel 6 diskutiert verschiedene Verfahren zur Darstellungsbeschleunigung. Während sich die Quadrilateralstreifengenerierung und die Simplifizierung mit der Optimierung der modellierten Geometrie für eine effiziente Verarbeitung in der Graphik-Hardware auseinandersetzt, zeigt der letzte Teil dieses Kapitels, wie durch den Einsatz von Texturen zusätzliche Geometrieverarbeitung überflüssig wird. Kapitel 7 stellt spezielle Funktionalitäten für die Vorverarbeitung von Eingabemodellen vor. Außer der in verschiedenen Bereichen eingesetzten Distanzvisualisierung wird das interaktive Modifizieren von Schweißpunktdaten und die Parameterübertragung zwischen inkompatiblen Gittern erläutert. Kapitel 8 veranschaulicht Konzepte für die Nachverarbeitung von Simulationsergebnissen. Es werden Techniken zur Visualisierung skalarer und vektorieller Größen präsentiert. Darüber hinaus werden die interaktive Kraftflussvisualisierung und die Darstellung von Instabilitäten in Simulationsergebnissen betrachtet. Die CORBA-basierte Erweiterung zum gemeinschaftlichen Arbeiten räumlich getrennter Anwender, sowie die Batch-basierte Bild- und Film-Generierung von Strukturmechanikdaten schließen die Vorstellung der im Rahmen dieser Arbeit neu entwickelten Methoden ab. Kapitel 9 stellt die Ergebnisse dieser Arbeit in einen Kontext. An Beispielen aus dem produktiven Entwicklungsprozess werden die erzielten Fortschritte verdeutlicht und die Akzeptanz bei den Anwendern kritisch beleuchtet. Abschließend wird ein Überblick über weiterführende Arbeiten gegeben, die auf den vorliegenden Ergebnissen basieren. ; This thesis presents visualization techniques and interaction concepts that have been developed for the pre- and post-processing of structural mechanics. This work was done in cooperation with the crash simulation department of the BMW Group. The automotive industry's main goal is ensuring its share of a global market, which is becoming ever more competitive and dynamic. On the one hand, product quality has to be increased in relation to fuel consumption, weight, and passive safety. On the other hand the development process needs to be streamlined in order to reduce development costs and time to market. These objectives are hoped to be achieved by making extensive use of virtual prototyping. The vehicle development process has completely changed during the past two decades. In the early eighties finite element analysis found its way into the simulation of structural mechanics in the German automotive industry. Initially developed for military purposes, in 1983 a group of engineers of several automotive companies started feasibility studies based on finite element models containing less than 5,000 beam elements. Seven years later productive results of finite element analysis in structural mechanics started to influence car body development. In the second half of the nineties important project decisions were made during the early phase of the development process based on a deeper insight into crash behavior provided by crash-worthiness simulation results. Today, numerical simulation is an indispensable part of the computer aided product development chain in the automotive industry. After the design of a new car model is completed, a digital model is constructed by means of computer aided design (CAD). In a meshing step the created parametric surfaces defined by spline curves are discretized. The results describe the geometry of the car body by finite elements, for crash simulation mainly three- or four-sided shells but also beams and volumetric elements. The finite element model is completed, for example, with material properties, contact information, and boundary conditions. This is done in a preprocessing step. Once the simulation input data is available, the whole model is handed over to the simulation process which takes about one or two days using massive parallel processing. The deformation is recorded in a large result file. Commonly, the first 120 milliseconds of a crash are simulated and each two-thousandth time step is stored. A time step of less than one microsecond leads to a result file containing more than sixty snapshots. Typically, physical data such as acceleration, velocity, displacement, and forces per nodes or thickness, stress, strain, and other energies per element are recorded. During post-processing the information is analyzed in order to evaluate crash-worthiness. The feedback provided for the construction department closes the loop when all goals set for the car body structure have been attained. The virtual car body development in the pre- and post-processing of crash simulation divides into two main phases: (1) In the concept phase, new ideas are discussed and evaluated in order to reach a priority objective like minimizing car body weight. Only few people per car project are involved for a period of 12 to 18 months in this first stage. (2) After the basic decisions have been made regarding new concepts, a second phase follows which compromises all other fields to refine those concepts with respect to other objectives coming from the area of stability, dynamic or NVH. This phase requires many engineers from different departments for a period of more than 30 months to optimize the product. The later undesirable properties are revealed the higher the cost will be for the then necessary changes. Until the late nineties transitions between adjacent car body parts were modeled as two finite element meshes that share common nodes at the border. Each time a car body part was replaced by an optimized variant in order to enhance the crash behavior either the whole car model had to be re-meshed or border nodes had to be adapted manually. Therefore, preparing such variant models was a very time consuming task. After simulation codes like PAM-CRASH were able to simulate car body connections like for example spotwelds, finite element models became more like their counterparts made of steel. Now, a flange is constructed, along which adjacent car body parts can be connected without sharing common nodes. This allows for an independent meshing of car body parts and therefore for more variant computations. However, independent meshing lead to mesh penetration or even perforation in flange areas when inhomogeneous meshes are assembled. Thus, a new task arose for preprocessing where those mesh errors have to be removed in order to avoid error-prone simulation results. On the post-processing side, large time-dependent data sets require dedicated visualization methods that help the engineers to interpret the huge amount of data at interactive frame rates. Therefore, finite element meshes need to be prepared for an optimized processing in the graphics pipeline. Typical types of data that have to be visualized are scalar values, vectors, tensors or any combination thereof. In 1997, when most of the commercial visualization tools provided by solver companies as add-on to the simulation software could no longer provide state-of-the-art graphics, a demand arose for new visualization techniques available for productive use. Besides, the growing throughput caused by an increasing number of car body variants and the acceleration of computation hardware allowing more optimization cycles, made it necessary to automate as much processing steps as possible. The growing outsourcing of development tasks to suppliers and the number of merges in the automotive industry, which entail cooperation of corresponding departments at different sites, require a client-server-solution for cooperative work. Finally, the simulation community is concerned about the validity of their results compared to real crash-tests. It is important to detect and minimize the sources of scattering in the results originated by the simulation model or process. This is also a precondition for stochastic simulation, which is used in order to optimize the crash behavior by varying input parameters. The goal of this thesis is to provide solutions to some of the issues just stated. First of all, the applicability of different scene graph APIs is evaluated for large time-dependent data sets. APIs such as Performer or Cosmo3D / OpenGL Optimizer have been developed to take advantage of multiprocessing. Those APIs can perform model optimization during scene graph creation and benefit from multiprocessing using frustum culling and occlusion culling while traversing the scene graph to increase frame and interaction rates. Because of the large time-dependent databases and the limited memory of the workstations an efficient scene graph design is very important in order to handle the complex data interdependencies and to achieve high rendering speed. While five years ago the models consisted of about 250,000 finite elements with nearly the same number of nodes, today the size of the models has almost quadrupled. Since the element topology does not change in crash simulation, the connectivity of the finite elements needs to be stored just once. An index set representing the topology is shared across the sub-graphs of all time steps. A Gouraud shaded surface requires to do the edge detection on the state where geometry is deformed most, which is in general the last one. In order to minimize memory consumption, the index set is used for both coordinates and normals. Therefore, coordinates at vertices with multiple normals need to be added once per normal. Other scene graph nodes, e.g. the one specifying the appearance, can also be shared. Handling triangular elements as degenerate quadrilaterals allows to represent a mesh of three- and four-sided shell elements in one scene graph node. The prototype application named crashViewer, which was implemented to evaluate the methods developed in this thesis, uses Cosmo3D / OpenGL Optimizer for historical reasons: this bundle had been presented as predecessor of the 1997 announced Fahrenheit project, which was aborted two years later. Nevertheless, the proposed scene graph design allows to visualize 60 time steps of a model containing half a million elements and the same number of nodes with a memory consumption of 360 MB (flat-shaded) or 970 MB (Gouraud-shaded), provided that a crease angle of 20 degree leads to 40% more normals than vertices. One basic requirement for an interactive visualization application is that the frame rate does not fall below an acceptable minimum threshold. What "acceptable" means depends on data and experience with other tools. Generally speaking, visualization data should be rendered as fast as possible. For this reason, one aim of this work is to point out methods to optimize the finite element meshes' rendering acceleration. Two approaches are examined: (1) concatenation of adjacent elements to reduce data redundancy during geometry processing and (2) mesh simplification to remove information that does not significantly influence the shape of a car body part. Although OpenGL Optimizer provides a tri-stripper (opTriStripper) that is able to convert any polygonal mesh into strips of triangles, it is not applicable in this field because the original mesh structure should still be visible in wireframe mode. Hence, a quadrilateral stripper was developed, which analyses the mesh structure and generates many parallel bands of maximum length. As a matter of fact, quad-strips are not as versatile as tri-strips because each turn costs two extra vertices. However, compared to opTriStripper's reduction to 63.5% the proposed bandification algorithm reduces the number of referenced vertices to 54% of an unstripped representation averaged over 3,274 car body parts. Depending on the availability of vertex arrays the bandification leads to a rendering speed-up factor of about 4.5 without and 1.7 with vertex arrays in comparison to the unstripped geometry. In order to achieve even higher frame rates during camera interaction, a two-stage level-of-detail concept is developed. In addition to a fine level displaying the original mesh resolution, which is essential for the visualization in pre- and post-processing of structural mechanics simulation, a second level with coarse triangles is used as intermediate model for camera movement. Each time the user modifies the view, a previously simplified mesh is rendered until the camera parameters are no longer changed. Then the finer level of detail is displayed. An simplification algorithm was implemented which uses the one-sided Hausdorff distance as an error measure and which is compared to the Successive Relaxation Algorithm provided by OpenGL Optimizer as opSRASimplify. Aside from the interface opSRASimplify, which turns out to be unsuitable for getting an optimal decimated mesh with respect to a predetermined error tolerance, the resulting mesh quality is not as high as with the new HECSimplify simplifier. Breaking the error criterion can be avoided by defining an appropriate cost function for opSRASimplify, which causes less triangles to be removed compared to HECSimplify. If the decimation target is specified to achieve the same level of reduction, then the resulting triangle mesh contains gaps and the model appears distorted. Different car body models are reduced to 9-18% of the original number of triangles applying HECSimplify. This leads to a rendering speed-up factor of between 3.4 and 6.7. There is a trade-off between rendering speed and memory consumption. HECSimplify only applies half-edge collapses to the polygonal mesh. These operations just modify the topology, not the vertex coordinates. Therefore, the original and the reduced mesh are able to refer to the same set of coordinates. On the one hand, coordinate set sharing requires less memory, on the other hand the speed-up factor of a model that could be reduced to 9% of the original triangles is far away from 11. Both modules, the quad-stripper and the simplifier, are embedded into the Cosmo3D / OpenGL Optimizer framework by providing corresponding action objects and new scene graph nodes. Furthermore, the scene graph API was extended by several other new objects to overcome the restrictions with line picking or to provide new functionality. For example, the csClipGroup node enables the user to control a freely movable clip-plane, which affects only the underlying scene graph. This provides better insight into heavily deformed car body structures. Another form of clipping that is developed within this thesis uses one-dimensional RGBA texture maps in order to hide geometry that should not be displayed under certain conditions. This visualization method can be used, for example, to mask out those model regions that do not correspond to a given critical value range. In combination with distance values to adjacent car body parts the rendering can be restricted to potential flange regions of the model. For that purpose, first of all the parameter has to be transformed into a texture coordinate with respect to the specified parameter range. Then, a color scale is defined as a texture map. Using the GL_DECAL environment the color coding can be limited to regions of certain value ranges. Using the same mechanism in the GL_MODULATE environment with the alpha-test enabled allows for clipping the geometry where the corresponding values map into texture regions with an alpha component set to be fully transparent. This technique facilitates the accentuation of critical structures, because the user is able to interactively modify the texture map or the texture lookup table, if an index texture is used to control the visualization. As stated above, the most important change in finite element modeling for crash simulation was the introduction of independently meshed car body parts. Since the assembly of such inhomogeneous meshes may include perforations or penetrations, for example, caused by a shifted discretization along curved flanges, there was a growing demand for an interactive method to detect and remove this kind of mesh errors. Perforating regions can be detected by applying collision detection to the finite element model. Efficient collision detection as proposed by Gottschalk et al. requires hierarchical sub-structuring of the car body model. Consequently, in this study, each car body part is subdivided by a bounding volume tree (BVT). Different bounding volume types are tested: spheres, axis-aligned (AABB), and object-oriented bounding boxes (OBB). For perforation detection, where computation-intensive element-element-intersection tests are necessary at the lowest BVT level, OBBs turn out to be most efficient because they are very tight positioned around the element structure. Hence, downward traversals in the BVT can be terminated early because any one of 15 separating axes that defines a plane disjoining both volumes can be found. In order to detect penetrating nodes the minimum node-element-distances need to be computed. The BVT traversal algorithm is adapted appropriately. Children of a BVT node are visited only if their distance falls below a specified maximum distance of interest. Penetrating node-element-pairs are collected in a list for subsequent visualization. Using an interface to the original PAM-CRASH algorithm for penetration removal it is possible to provide the desired interactive mechanism that allows the engineers even to restrict mesh modification to selected car body parts. This is a big advantage over starting the simulation until initial forces move penetrating nodes apart from penetrated elements and restoring the computed mesh modification in the input data deck. First, the interactive method gives direct feedback and the engineers do not have to switch tools. Second, during the optimization of the car body structure by replacing single car body parts by variants this procedure enables the engineers to keep everything but the variant part fixed. Thus, only the nodes of the incoming part are aligned to its neighborhood and the confined modification makes it easier to compare the results of two simulations runs. What is more, the bounding volume hierarchy provides beneficial effects on many other tasks in pre- and post-processing of crash-worthiness simulation. It can be used to detect and follow flanges automatically or to spot flange regions that have only been inadequately connected. A basic task is the verification of connecting elements. For example, a spotweld must not exceed a maximum distance to those parts it should connect. Otherwise, a pending spotweld may suspend the simulation run delaying the development process and raising costs. In this study, several criteria for the validation of connecting elements are elaborated. Erroneous spotweld elements are emphasized by different colors and/or geometry. The engineers are successively guided to each problematic connection. Without this feature it would not be possible to find these model errors in such a short time. Furthermore, a method is developed that enables the computation engineers to effectively add missing connection information by means of spotwelds to the input model. Thus, it becomes even practicable to start with crash-worthiness simulations before detailed connection data is available from CAD data. One aim in virtual vehicle development is to combine the results of several areas in numerical simulation. In order to map the real development chain closely onto the virtual one, material properties influencing preliminary steps like forming have to be considered. For example, a deep-drawn blank sheet has a lower thickness in areas of high curvature than in other areas. As long as the material of a car body in crash simulation is assumed to be constant the before mentioned manufacturing influences cannot be properly represented. A hardware-based method is developed in this thesis for the efficient mapping of any type of data between incompatible meshes that are geometrically congruent. It utilizes the transformation and interpolation capability of the graphics subsystem. Element identifiers of one mesh are color-coded. For each element of the other mesh the view matrix is set up appropriately and the visible part of the first mesh is rendered. The colors that represent the element IDs can be read back into main memory. After the correlation between elements is finished in graphics hardware, the values are finally transfered in software. The post-processing of crash-worthiness simulation results necessitates the handling of large data sets. Since a binary result file may contain 2 GB of data but an engineer's workstation often is limited to 1 GB of main memory these boundary conditions need to be considered while designing data structures and algorithms of visualization software for this application area. On the other hand, interactivity and high rendering performance is a precondition to obtain acceptance by the user. The required tool should provide interaction mechanisms that assist the user in exploring and navigating through the data. Mainly, it should help to interpret the data by making the invisible visible. Besides an effective scene graph design, in this study, the internal data structures of the developed prototype application have been implemented with memory consumption in mind. Parameter transfer in post-processing is done state by state very fast by pointer-based data structures. The extensive use of texture mapping enhances the rendering performance. Visualization techniques are proposed that use textures for the direct mapping of scalar values onto the car body geometry, for the animated display of vector data, and for the visual discretization of the finite element mesh in the form of a wireframe texture map. All these approaches spare the transformation stage of the graphics pipeline additional processing of vertex-based data. For example, the traditional display method for shaded geometry with visible element borders is two-pass rendering, which halves the frame rate. The application of a black-bordered luminance texture, which is white inside, onto each geometric primitive balances the load between geometry and texture unit. Also, the encoding of a vector's direction by applying an animated texture onto a line reduces geometry load and leaves the underlying structure mostly visible in contrast to conventional vector visualization with arrows. Force flux visualization, first presented by Kuschfeldt et al. gives an overview over which components of the car body model absorb or transfer forces. It is necessary to detect and to understand the force progression within the car body structure. For example, the longitudinal structures within the front part of a car body play an important role for increasing the ability of the body to absorb forces in a frontal crash. Force flux visualization enables the engineers to design car components with an optimal crash behavior. This technique was made available for interactive daily use in crash simulation analysis. Providing a dedicated interaction mechanism, the prototype application allows to interactively define a trace-line along which the force flux can be visualized. For each section plane positioned in small intervals perpendicular along the trace-line the simulated node forces are accumulated. The resampling is accelerated by utilization of the bounding volume hierarchy. Each section force sum is then represented by color and radius of one ring of a tube around the trace-line. The dynamic trace-line definition aligns the force tube to the deforming structure of the analyzed car body part, for example, a longitudinal mounting. The specified trace-lines can be stored in order to precompute force tubes off line. This can be done by another prototype application in batch processing after simulation has finished. During a visualization session the precomputed values can be directly converted into time dependent force tube representations. The decoupling of time consuming computation and the interactive visualization further accelerates the analysis of crash-worthiness simulation. Starting multiple simulation runs with the same input data deck will produce different results. The scattering in results has to be minimized in order to be able to evaluate the influence of structure modifications. This work presents a method to detect and visualize instabilities of the simulation. The above stated texture-based visualization points out sources of instability and helps the engineers to determine if a branching is caused by the model structure or if it was originated by the solver. The pros and cons of different measurement functions are discussed. Furthermore, a CORBA-based synchronization of multiple viewers displaying different data sets is presented. This allows to analyze the simulation results of one run in direct comparison to those of other runs. It is very useful to view the differences in crash behavior of multiple car body models on one workstation. Moreover, this functionality can be used in combination with a telephone call to supersede a meeting between a computation engineer and his external supplier. The visualization is done locally on each client. Providing that data and software is available at each participating client, the only data that have to be transferred during a cooperative session are the events triggered at the steering master-client and propagated to one or more slave-clients. A master token decides which participant is able to send generated events to the other instances. This mechanism avoids conflicting camera control when multiple users try to modify their view at the same time. Another approach describes how an image-based client-server model can be used in this context. After a frame has been rendered on the server, it is encoded to reduce the amount of data. The encoded image stream is transferred to any client that is able to decode and display. There are less requirements for the client but the connection needs to provide a certain bandwidth. This scenario can also be used for remote visualization. The prototype crashViewer can be connected to a Java applet running inside a web-browser. Finally, a method for standardized analysis of crash-worthiness simulation is presented. A batch-processing prototype application has been developed to generate digital movies using a predetermined camera path. The contributions of this thesis aim at further acceleration of the virtual vehicle development process, for example, by introducing new interaction mechanisms, making extensive use of hierarchical data structures, using hardware-accelerated visualization techniques, and providing solutions for process automation.
BASE
Burnout, Zeitarbeit, Digital Natives - dies sind längst keine bloßen Schlagwörter mehr, sondern eine Wirklichkeit, die Führungskräfte täglich vor neue Herausforderungen stellt. Denn wenn Fachkräfte kaum zu finden sind, Teams nur auf Zeit bestehen und Mitarbeiter und Chefs stärkerem Druck denn je ausgesetzt sind, helfen die alten Rezepte nicht mehr weiter. Unternehmerin und Leadership-Expertin Maren Lehky zeigt anhand vieler Beispiele, mit welchen Strategien Sie diesen Veränderungen als Manager souverän begegnen. Dies ist das Handbuch für eine neue Generation von Führungskräften.
In: IMPULSE
»Der Faktor Mensch bestimmt den Unternehmenserfolg« – die zentrale Managementerkenntnis wird in kaum einem Unternehmen umgesetzt. Jörg Knoblauch spricht Klartext: Wer im Vertrauen auf das Bauchgefühl neue Mitarbeiter auswählt, wer sich darauf verlässt, dass sich die Fehlbesetzung noch zum Performer entwickeln wird, wer unter Personalentwicklung nur das jährliche Mitarbeitergespräch versteht, der darf sich nicht wundern, wenn sein Team in eine Abwärtsspirale gerät. Knoblauch zeigt, warum das Personalmanagement in die Unternehmensführung gehört und warum es ein entscheidender Wettbewerbsvorteil ist, wenn Mitarbeiterauswahl, -förderung und -führung oberste Priorität bekommen.