Die Inhalte der verlinkten Blogs und Blog Beiträge unterliegen in vielen Fällen keiner redaktionellen Kontrolle.
Warnung zur Verfügbarkeit
Eine dauerhafte Verfügbarkeit ist nicht garantiert und liegt vollumfänglich in den Händen der Herausgeber:innen. Bitte erstellen Sie sich selbständig eine Kopie falls Sie diese Quelle zitieren möchten.
In the Art of War, Chinese military strategist Sun Tzu said, "if you know neither the enemy nor yourself, you will succumb in every battle." This nugget of wisdom is as perceptive today as it was over 2,000 years ago. And it does not bode well for America.We clearly don't know our adversaries. We've been caught flat-footed, repeatedly, in recent years, from Russia's invasion of Ukraine, the almost instantaneous collapse of the Afghanistan government that we'd spent two decades supporting, to the recent Hamas attacks destabilizing the Middle East.The biggest question mark of all is if and when China might transition from nibbling on the margins of Asia to taking a big bite in the form of Taiwan. Perhaps even more worrisome, and far less excusable, is the fact that we don't know ourselves. In a world growing less stable by the day, the disconnect between our policymakers in Washington and the American public is frightening. While prominent national security experts of both parties seem to be coalescing around maximalist approaches toward the conflicts in Ukraine and Gaza, and lobbying for a more confrontational stance toward China, the American public appears largely tuned out, instead focused on challenges closer to home, like paying bills, raising children, and navigating polarizing domestic politics. The disconnect between rhetoric and reality is breathtaking. On one hand Washington issues commitments to helping reclaim all Ukrainian territory, the "total destruction" of Hamas, and a robust defense of Taiwan. On the other hand the American public is either disengaged from (or divided on) these issues, our weapons stockpiles are shrinking, military recruitment numbers plunging, the deficit is ballooning, and the economy is uncertain.Meanwhile, the country continues to fracture along red and blue lines. Could we still unite in a time of war? It depends. If Russian paratroopers descended on Colorado like the 1984 cult classic Red Dawn, yes, I'm confident we'd come together and repel the existential threat of a foreign invasion. But am I convinced, in this toxic political climate, that farm boys from Kansas, warehouse workers from the Rust Belt, and college students from the Pac-12 would race to recruiting offices to help Taiwan repel a Chinese invasion? Or to deploy to the Middle East to dive into what looks like an intractable conflict with complicated roots dating back at least 75-years? Not really.It is also worth asking if America has the stomach for casualty numbers that would almost certainly dwarf the 7,057 U.S. servicemembers killed in action post-9/11 in a Great Power war. Russia continues to fight in Ukraine despite estimates of over 100,000 killed in just the past few years. We can't assume China wouldn't have a similar tolerance for heavy losses too.Despite these concerns, national security officials and foreign policy luminaries persist in advancing strategic postures that may require U.S. troops to deploy in greater numbers to three theaters (even if these deployments are under the guise of "deterrence") . (While the principle of deterrence is sound in theory, the danger lies in assuming that appearing to be a superior force on paper will obviate the need to ever actually fight, overlooking the fact that credibility requires a willingness and capacity to do just that. Which brings us back to Sun Tzu. Can we answer the willingness and capacity question about ourselves with any degree of confidence? Have we ever taken it seriously?)Right now it seems like our strategy — to the extent we have one — is being developed in a vacuum, with little concern for minor details like who will fight, and with what degree of national commitment. This reflects, in part, a persistent tendency, to which we keep returning since the days of Robert McNamara's "Whiz Kids" of the Vietnam era, to view conflict as a technocratic exercise where victory and defeat are largely dependent on the amount, and quality, of sophisticated high-dollar weaponry. But as our experiences in Vietnam and Afghanistan should have taught us, collective will and resolve also matter. A lot. We must not overestimate (or fail to even consider) ours. Wars are still fought by people. And, to date, there has been no effort to secure the buy-in of the American public.We need to really ask: How many young Americans would volunteer to strap on a ruck, grab an M4, and go fight one of these distant wars if an adversary calls what they may see as a bluff? We must first accept that these would not be conflicts that could be handled by cobbling together the same people from a volunteer force and deploying them countless times over decades like we did during the "Global War on Terror." In fact, it is almost impossible to envision a scenario where our deterrent is credible, or where we could prevail in a world war, absent a draft.While a draft invokes images of Vietnam it may be time to revisit its upsides in the context of today's disconnect between citizen and military and citizen and government.At the most basic level, a draft would solve the personnel shortages we are struggling with. I'm aware that military leaders fear that a draft would hurt the professionalism of today's force. However, the lowering of recruiting requirements, as well offering big signing bonuses to impressionable high school students, is already diminishing standards. It would also serve as a powerful unifying force, bringing together young people of different races, belief systems, and geographic backgrounds in shared national service. This would help unify a generation that has experienced little but corrosive fragmentation for years. And since Americans would have skin in the game, a draft would also force politicians to abandon vapid, cliché-ridden rhetoric, and be forced to either convince Americans we need to be on wartime footing, or tone down their bellicose talk and develop creative and less militaristic strategies, starting with our approach to Ukraine, China, and now the Middle East.Finally, it would signal to the world that we are serious about a strong national defense. The perception would no longer be that we are a country in decline, anesthetized by popular culture and unwilling to sacrifice. Unfortunately, there seems to be no appetite for such a call to service on the part of the same leaders and pundits lobbying for a muscular, militarized foreign policy. It is remarkable to witness swaggering commitments to the potential use of force against Great Power adversaries on Capitol Hill but absolutely no willingness to discuss the national sacrifice that it would require. And so, if we conclude a draft won't happen, we'd be better off addressing the massive disconnect between Washington rhetoric and the extent of Americans' willingness to fight now, as opposed to after our leaders talk us into another, and possibly far more calamitous, war.
Maritime shipping is considered as the most eco-friendly and fuel-efficient method of transport in ton-miles terms and moves about 90% of the worldwide trade (UNCTAD, 2020) [1]. The third GHG study (IMO, 2014) [2] estimates that shipping accounts for approximately 2.2% of the global anthropogenic CO2 emissions, addressing a 0.5% decrease from the second GHG study measures (IMO, 2009) [3]. However, the sector has seen increasing pressure, through new guidelines to improve its environmental performance, especially considering its commitment to harmful contamination emissions on human wellbeing. Sea transport represents 5–8% of the worldwide SOx emissions (Eyring et al., 2005) [4], and around 15% for NOx (Corbett et al., 2007) [5], while PM emissions from transportation close to coastlines and ports have been connected to fatalities attributed to respiratory health issues. The IMO is regulating the greatest sulfur limits in fuel through the changed MARPOL Annex VI, which additionally assigned sulfur emission control areas (SECA) where more tight limits apply. Current SECAs incorporate the Baltic Sea, the North Sea, the North American Emission control area (ECA) that broadens 200NM from the US and Canadian coasts, and the US Caribbean ECA. The last two ECAs have likewise set limitations on PM and NOx emissions. The first results of the SECAs on emissions limitation show critical enhancements. In relevant literature, there has been no recent update on the portion of sea transport in SOx emissions, and the most recent solid estimate is in the previously mentioned investigation of Eyring et al., back in 2005. On a later publication, Zis and Psaraftis (2018) [6] utilized information from the Organisation for Economic Co-operation and Development (OECD) on its part nations and assessed those SOx emissions from all transportation modes represented 3.5% in 2015. Taking into account that road transport represented 0.48%, the portion of maritime transportation in SOx emissions has been radically diminished since 2005. Notwithstanding the introduction of SECAs, as of January 2010 the European Union (EU) set a sulphur limit of 0.1% for ships berth in EU ports with stays longer than 2 h, as well as when sailing on inland waterways [7]. European Commission has advanced the further arrangement of shorepower to its part states through an authority suggestion [8]. Port authorities all throughout the planet have launched initiatives that advance utilization of low-sulfur fuel in their proximity, with the port of Singapore being a notable example under the Green Ship and Green Port programs offering monetary incentives for clean practices that reduce CO2 and SOx emissions. At last, the ports of Los Angeles and of Long Beach have presented voluntary speed reduction programs (VSRP) in their proximity in return for a decrease of port disbursements accounts and are moving towards making the use of shorepower for ocean going ships mandatory. Concerning guidelines focusing on sulfur outflows, ship owners can consent by one or the other changing to ultra-low sulphur fuels like Marine Gas Oil (MGO) or investing in scrubber systems that treat the exhaust gases to remove SOx and PM emissions hence permitting the utilization of Heavy Fuel Oil (HFO). Additionally, to adapt to guidelines on emissions at ports a vessel can either utilize cleaner fuel or, on the other hand, be retrofitted to get shorepower if the port has cold ironing facilities. Thusly, to address ecological regulation the shipowners have to pay to obtain abatement technology or increase their operating costs by utilizing cleaner yet more expensive fuel. Which option of the above mentioned is more cost-effective for the shipowner depends on various factors, including ship type, ship size, regulations affecting the waters in which the ship sails, and ports of call. Simultaneously, the choice of a port to put resources into innovations that permit the arrangement of shorepower relies upon a few variables, which stem from emissions decrease strategies, and the entrance pace of the innovation in the calling ships. The last decades the demand of energy is being increased continuously. The massive use of different types of non-renewable sources of energy has led to very important problems in the earth, as global warming, by the production of big amounts of greenhouse gases (GHGs) [52]. Nitrogen oxides (NOx), carbon monoxide (CO) and carbon dioxide (CO2) are some of the elements that are being produced by the burning process of marine diesel engines and pollute the atmosphere. This fact is a result of the use of Heavy Fuel Oil (HFO) in vessels' engines which is preferred by the shipowners especially for economy reasons [53]. New technologies concerning alternative sources of energy have started to provide new environmental standards by reducing the emissions of harmful for the environment gases as CO2. More than the 80% of the harmful emissions in the atmosphere are related to carbon [54]. Consequently, decarbonization constitutes on of the biggest environmental problems and despite the fact that the efficiency in terms of energy in the maritime transport has been increased significantly, shipping industry has the responsibility of almost 940 million tons of CO2 emissions in the atmosphere per year. Taking into consideration the continuously increase of the global fleet we can easily understand that these emissions are going to reach a higher level in the next few years [55]. The use of alternative fuels seems to be the only solution for the environment and European Union has already include in her White Paper on Transport their introduction [56]. More specifically, in 2016, European Union has already released a «Strategy for liquefied natural gas and gas storage» in order to highlight the advantages and the potential of the use of LNG to all members of the Union. Moreover, in October 2014, the executive committee of the European Union obliged 139 ports in Europe to act appropriate in order to have the possibility to offer bunkering facilities for LNG until 2020 [59]. Additionally, the effort to control the pollution emissions was strengthen by the International Maritime Organization (IMO) through the introduction of new regulations. More specifically, International Convention for the Prevention of Pollution from Ships (MARPOL) was embraced by the IMO which also adopted amendments to MARPOL Annex VI (Resolution MEPC.203 (62)) through the introduction of an energy efficiency design index in order to reduce the CO2 emissions [54, 61]. This paper discusses the possibility of different types of fuels or technological investments to be used as marine fuels from the perspective of shipowners, terminal operators, and regulatory bodies while considering the extent of ecological improvement that can provide. The first section of this paper presents a concise literature review of relevant research in port emissions as well as regulations that are used nowadays, which are imposed by the International Maritime Organization (IMO). The subsequent section presents an analysis and evaluation of different types of fuels which should appraise the new ecological equilibrium following the established environmental and safety regulations. In the last part, the benefits and drawbacks of its kind of fuel are widely expressed.
The recent engagements of many national governments backed by the United Nations push for introducing more and more renewable energy in the power systems in an attempt to mitigate global warming. Most of the renewable sources other than hydro power, such as wind turbines (except directly connected) or solar PV systems, depend on Power Electronics (PE) converters for their interconnection with the grid. Thus, the PE-based sources are becoming more and more prevalent in the current power systems and bring brand-new features in the grid. We observe this tendency both at the distribution level where the decentralized production units such as residential solar PV are gaining popularity, and at the transmission level as well where large energy sources such as Offshore Wind Farms (OWF) start to be interconnected with the grid using High-Voltage Direct Current (HVDC) technology.This PhD thesis addresses some of the future grid challenges of replacing existing Synchronous Generators (SG) by PE-based interfaces and focuses more specifically on Voltage Source Converters (VSC) and their associate control strategies. This work focuses on the transmission grid level and investigates the control of VSCs interfacing renewable sources in hybrid power systems where PE and SG coexist.In the first part of the work, the different ancillary services provided by SGs are listed and an overview of the existing VSC-based solutions is given, including the so-called grid-following and grid-forming controls. These two approaches are compared in terms of performances and constraints. Next, these types of controls are studied regarding the maximum allowable limit of PE and their interactions with nearby SGs in hybrid systems. It was shown that switching the VSC control mode from grid-following to grid-forming mode can allow a higher penetration rate of PE-based sources, even though some interactions with the remaining SGs must be taken care of.In the second part of this work, we focus on the application of grid-forming control to Modular Multilevel Converters (MMC) for the integration of OWF in AC grids. The impacts of the DC-grid dynamics on the behavior of the grid-forming controlled MMC are assessed when the station must ensure the stability of the DC grid at the same time. In this context, a method is also proposed to estimate the energy requirements of the MMC submodules to provide AC-grid related synthetic inertia. The corresponding control proposed is compatible with the state-of-the-art grid-forming control and is validated by simulations in a multi-machine system. To complement, a control solution that enhances the AC/DC support of such stations based on a MIMO-oriented Model Predictive Control (MPC) is proposed. It shows a better handling of the MMC internal energy as well as robustness against parameter uncertainties when compared to the existing SISO-based dual PI structure that relies on a theoretical decoupling between the AC and DC dynamics.Finally, the proposed MPC-based control is applied to a real MMC. It is validated using an experimental setup which involves a mockup of an MMC of 6 kVA and 60 submodules. The grid-forming control and the proposed MPC are implemented into an Opal RT target and tested with success in real-time conditions to validate the approach developed in this thesis. ; La plupart des sources renouvelables, telles que le solaire photovoltaïque ou l'éolien, dépendent de convertisseurs à base d'Electronique de Puissance (EP) pour leur raccordement au réseau électrique. Par conséquence, ces interfaces à base d'EP deviennent de plus en plus dominantes dans les réseaux actuels et font évoluer les caractéristiques des réseaux existants. Cette tendance s'observe au niveau des réseaux de distribution, où la production décentralisée telle que les panneaux solaires photovoltaïques résidentiels se développe rapidement. C'est également le cas au niveau du réseau de transport où d'importantes sources d'énergie telle que les Fermes Eoliennes Offshore (FEO) commencent à être interconnectés au réseau grâce à la technologie de Haute Tension à Courant Continu (HVDC).Cette thèse de doctorat s'adresse à certains des futurs défis du réseau dans lequel les Générateurs Synchrones (GS) des centrales thermiques traditionnelles sont remplacés par des sources à base d'EP. Ce travail se concentre plus spécifiquement sur la technologie des Convertisseurs Source de Tension (VSC) et de leurs commandes associées. En outre, le contrôle de ces convertisseurs et leurs impacts au niveau de réseaux hybrides, où l'EP et les GS coexistent, sont étudiés.Dans la première partie de ce manuscrit, les différents services systèmes fournis par les GS sont listés et un état de l'art des stratégies de contrôle du VSC existantes est donné, en incluant les notions de suiveurs (grid-following) et de formeurs (grid-forming) du réseau. Ces deux types de contrôles sont comparés du point de vue de leur capacité à apporter au réseau des services similaires à ce que les GS pouvaient apporter. Ensuite, le rôle de ces deux contrôles est étudié afin de déterminer le taux de pénétration maximal en EP tel que le réseau reste stable ainsi que les problèmes d'interactions potentielles avec les GS dans le cas d'un réseau hybride de référence. Il a pu être démontré que passer d'un contrôle type grid-following au grid-forming permet d'améliorer le taux de pénétration maximal des VSC dans le réseau, même si dans ce dernier cas des interactions avec les GS existent et devront être prises en compte pour permettre l'intégration massive d'EP dans le réseau.Dans la seconde partie de ce manuscrit, l'accent est mis sur l'application du grid-forming aux Convertisseurs Modulaires Multi-niveaux (MMC) dédiés à l'intégration de FEO dans les réseaux AC et l'impact des dynamiques du réseau DC sur la réponse de la station MMC contrôlée en grid-forming, quand le convertisseur doit également assurer la stabilité de la tension DC. Dans ce contexte, une méthode est proposée pour estimer les besoins en énergie des sous-modules du MMC pour fournir au réseau AC un support inertiel. Un contrôle associé à cet usage est proposé. Sa compatibilité avec le grid-forming issu de l'état de l'art est également validée dans un grand réseau multi-machines et multi-convertisseurs. Dans un second temps, une solution de contrôle basée sur une approche multivariable est finalement proposée pour améliorer le support des réseaux AC et DC qu'interconnecte le MMC. Cette solution, basée sur la synthèse d'une Commande Prédictive à base de Modèle (MPC), montre une meilleure gestion de l'énergie interne du MMC que la structure classique qui utilise des correcteurs PI et qui repose sur des hypothèses de découplages entre les grandeurs AC et DC. La robustesse du MPC face aux variations paramétriques du système est également démontrée par simulation.Enfin, dans un dernier temps, la stratégie basée sur le MPC proposée pour opérer le MMC est validée en utilisant un banc expérimental qui inclut une maquette physique de 6 kVA d'un MMC de 60 sous-modules. Le contrôle grid-forming ainsi que le MPC proposé sont implémentés dans une cible Opal RT et testés avec les contraintes temps réel et permettent de valider l'approche développée dans ces travaux de thèse.
Effective map use in the field is based on orientation in two spaces: in a physical or geographical space and in a representational, graphic space. When using a map the wayfinding process includes the identification of the user's geographical position in the field (starting point), the identification of the target and planning the route's connecting the two points. However, the initial direction of the user is very rarely the orientation of the map, so the problem of navigation with maps is the translation of the representational space into the user's actual situation. In other words, the projected or actual movement path during navigation must be transformed from one reference frame to the other. Spatial reference frame is a key issue in cartography and geovisualization. The transformation of the human subjects' body-centred, egocentric reference system into an object-centred, allocentric reference system is a complex task. Maps are cognitive tools, traditionally representing large configurational spaces in visual, graphic form (Török 2019). They offer computational advantage over internal, human memory representation, organized into smaller spatial units. Apart from personal experience, learning from maps is a common practice (Meilinger et al. 2015). Supported by ubiquitous map services, prior to visiting unfamiliar places people consult maps to familiarize themselves, and this spatial learning results in memory structures with map-oriented reference frames. In modern societies the massive use of cartographic visualization in spatial thinking underlines the importance of modern cognitive cartographic research, resulting in new insights and consequences well beyond topographic map use (Zentai et al. 2006). Learning from maps influence the structure of the cognitive map. Increasing map use in modern information societies has strong effects on all spatial aspects of the human mind. Recent geo-visualizations, most importantly mobile navigational applications display maps with dynamic, head-up orientation and support the user by turn-by-turn voice navigation. Unfortunately, this practice does not support survey knowledge acquisition, cognitive map building and spatial memory training. The negative effect is decreasing navigational, or more generally spatial, ability of users of GPS navigational services. While the change of reference frame demands higher memory load for the human brain, the cost is compensated by the maintenance and development of human cognitive abilities. The North-is-up reference frame on cartographic maps is actually a rather modern cultural convention. However, we can trace its origin back to the astronomical-geometrical worldview of ancient Greek cosmology. The priority of north was adopted by Hellenic geography and became a classic tradition after the rediscovery of the 2nd c. work, a manual on making a map of the world by Ptolemy . He described the construction of the map in a geometric reference frame, in a north-oriented geographical coordinate system. Map making based on this new concept of geometric space had substantial influence on human spatial thinking from the Renaissance period on. Modern cartography is an Enlightenment project, and from the 19th century maps became common objects in European societies. In the 20th century cartographers and generations of map users were trained in geography with north-oriented maps, atlases – even globes were displayed with north on top. The representational history of cities in European cartography a case where cognitive cartographic issues strongly influenced cartographic practice and the importance of different reference frames is demonstrative. The modern city view as a new genre appears in the late 15th century and cities views were already popular at the time the Nuremberg Chronicle was printed with numerous illustrations (1493). However, how it is perhaps best exemplified by Sebastian Münster's German Cosmography (from 1544) while maps were oriented north or south, the cities were given in perspective . In the Chronicle Buda, the capital of the Kingdom of Hungary, is represented from the east, while Münster included another woodcut, a view of the city from the south. After the long period of the Turkish occupation new representations of the former Hungarian capital were constructed by military engineers in connection with the siege of Buda (1686), representing the campaign's target from military point of view. The cities Buda and Pest, stretching along the Danube, even in the 19th century they were represented with the river as a horizontal axis in landscape format views and maps. The significant change of the orientation of the city maps is the late 19th century, more specifically the period when topographic maps of the third military survey of the Austro-Hungarian Monarchy became available. From this time on the historic material demonstrates that maps of Budapest (from 1872) are almost exclusively north-oriented. As a result of this process, generations learned geography from north oriented maps and school atlases. After our virtual reality experiments exploring spatial learning and navigation (Török et al. 2018), in the present field experiment we tested the interaction of local and global reference frames, the sense of geographical North in a sample of young adults. We created an ecologically valid experimental setting by selecting a special location at ELTE university campus in Budapest. In an enclosed vista space , positioned near the river Danube and heading an easterly direction, our participants were asked first to point to North. With good visibility of the river, a major, structural landmark in the configuration of the city we were interested how the misleading direction of the Danube influenced their directional sense. While the general course of the river is north-south, at the site of the experiment the river course changes to northwest-southeast, with a deviation of 30–40° from true north. We expected that the direction of the only visible global landmark, and, of course all the local landmarks, would result in similar pointing errors. In the first test series they were asked to point/draw toward salient urban landmarks in the city, that is in environmental space . In the second test series they pointed towards important cities in a large, geographical space. Finally, they once again indicated the direction of true North in the same geographic space. Our results are consistent with previous research (Frankenstein et al. 2012) that the participants had a clear sense of geographical North learned from maps, moreover, contradicting our expectations, the misleading course of the Danube and local geometry had little effect on the overall high accuracy of pointing to North. However, a few result deviated from the average and suggested high individual differences, presumably due to different spatial thinking strategies of participants. Test subjects living longer in Budapest had a much better sense of North, supporting the importance of learned components in this directional knowledge. Our experiment in the physical world resulted in supporting evidence that North is present in human cognitive map as the cardinal direction for orientation. The implications of the results of our experiment should be considered relevant when designing new maps and user interfaces. Another important result, our experiment suggest that local and global reference frames are not separate systems, but structured hierarchically and integrated in spatial orientation tasks. Although egocentric view may support direct scene recognition and object identification cartographers should construct navigational maps with geographic reference frame as well, especially in the case of extensive and complex environmental/geographical spaces, because these are still learned first from north oriented maps . The long tradition of paper maps, the history of cartography has a lasting effect of human understanding of the physical and virtual worlds.
Effective map use in the field is based on orientation in two spaces: in a physical or geographical space and in a representational, graphic space. When using a map the wayfinding process includes the identification of the user's geographical position in the field (starting point), the identification of the target and planning the route's connecting the two points. However, the initial direction of the user is very rarely the orientation of the map, so the problem of navigation with maps is the translation of the representational space into the user's actual situation. In other words, the projected or actual movement path during navigation must be transformed from one reference frame to the other. Spatial reference frame is a key issue in cartography and geovisualization. The transformation of the human subjects' body-centred, egocentric reference system into an object-centred, allocentric reference system is a complex task. Maps are cognitive tools, traditionally representing large configurational spaces in visual, graphic form (Török 2019). They offer computational advantage over internal, human memory representation, organized into smaller spatial units. Apart from personal experience, learning from maps is a common practice (Meilinger et al. 2015). Supported by ubiquitous map services, prior to visiting unfamiliar places people consult maps to familiarize themselves, and this spatial learning results in memory structures with map-oriented reference frames. In modern societies the massive use of cartographic visualization in spatial thinking underlines the importance of modern cognitive cartographic research, resulting in new insights and consequences well beyond topographic map use (Zentai et al. 2006). Learning from maps influence the structure of the cognitive map. Increasing map use in modern information societies has strong effects on all spatial aspects of the human mind. Recent geo-visualizations, most importantly mobile navigational applications display maps with dynamic, head-up orientation and support the user by turn-by-turn voice navigation. Unfortunately, this practice does not support survey knowledge acquisition, cognitive map building and spatial memory training. The negative effect is decreasing navigational, or more generally spatial, ability of users of GPS navigational services. While the change of reference frame demands higher memory load for the human brain, the cost is compensated by the maintenance and development of human cognitive abilities. The North-is-up reference frame on cartographic maps is actually a rather modern cultural convention. However, we can trace its origin back to the astronomical-geometrical worldview of ancient Greek cosmology. The priority of north was adopted by Hellenic geography and became a classic tradition after the rediscovery of the 2nd c. work, a manual on making a map of the world by Ptolemy. He described the construction of the map in a geometric reference frame, in a north-oriented geographical coordinate system. Map making based on this new concept of geometric space had substantial influence on human spatial thinking from the Renaissance period on. Modern cartography is an Enlightenment project, and from the 19th century maps became common objects in European societies. In the 20th century cartographers and generations of map users were trained in geography with north-oriented maps, atlases – even globes were displayed with north on top. The representational history of cities in European cartography a case where cognitive cartographic issues strongly influenced cartographic practice and the importance of different reference frames is demonstrative. The modern city view as a new genre appears in the late 15th century and cities views were already popular at the time the Nuremberg Chronicle was printed with numerous illustrations (1493). However, how it is perhaps best exemplified by Sebastian Münster's German Cosmography (from 1544) while maps were oriented north or south, the cities were given in perspective. In the Chronicle Buda, the capital of the Kingdom of Hungary, is represented from the east, while Münster included another woodcut, a view of the city from the south. After the long period of the Turkish occupation new representations of the former Hungarian capital were constructed by military engineers in connection with the siege of Buda (1686), representing the campaign's target from military point of view. The cities Buda and Pest, stretching along the Danube, even in the 19th century they were represented with the river as a horizontal axis in landscape format views and maps. The significant change of the orientation of the city maps is the late 19th century, more specifically the period when topographic maps of the third military survey of the Austro-Hungarian Monarchy became available. From this time on the historic material demonstrates that maps of Budapest (from 1872) are almost exclusively north-oriented. As a result of this process, generations learned geography from north oriented maps and school atlases. After our virtual reality experiments exploring spatial learning and navigation (Török et al. 2018), in the present field experiment we tested the interaction of local and global reference frames, the sense of geographical North in a sample of young adults. We created an ecologically valid experimental setting by selecting a special location at ELTE university campus in Budapest. In an enclosed vista space, positioned near the river Danube and heading an easterly direction, our participants were asked first to point to North. With good visibility of the river, a major, structural landmark in the configuration of the city we were interested how the misleading direction of the Danube influenced their directional sense. While the general course of the river is north-south, at the site of the experiment the river course changes to northwest-southeast, with a deviation of 30–40° from true north. We expected that the direction of the only visible global landmark, and, of course all the local landmarks, would result in similar pointing errors. In the first test series they were asked to point/draw toward salient urban landmarks in the city, that is in environmental space. In the second test series they pointed towards important cities in a large, geographical space. Finally, they once again indicated the direction of true North in the same geographic space. Our results are consistent with previous research (Frankenstein et al. 2012) that the participants had a clear sense of geographical North learned from maps, moreover, contradicting our expectations, the misleading course of the Danube and local geometry had little effect on the overall high accuracy of pointing to North. However, a few result deviated from the average and suggested high individual differences, presumably due to different spatial thinking strategies of participants. Test subjects living longer in Budapest had a much better sense of North, supporting the importance of learned components in this directional knowledge. Our experiment in the physical world resulted in supporting evidence that North is present in human cognitive map as the cardinal direction for orientation. The implications of the results of our experiment should be considered relevant when designing new maps and user interfaces. Another important result, our experiment suggest that local and global reference frames are not separate systems, but structured hierarchically and integrated in spatial orientation tasks. Although egocentric view may support direct scene recognition and object identification cartographers should construct navigational maps with geographic reference frame as well, especially in the case of extensive and complex environmental/geographical spaces, because these are still learned first from north oriented maps. The long tradition of paper maps, the history of cartography has a lasting effect of human understanding of the physical and virtual worlds.
En este trabajo tenemos como objetivo la transmisión de una propuesta formativa y de investigación, el Curso de Ingreso a las Carreras de Licenciatura y Profesorado en Psicología de la Facultad de Psicología UNLP, que implementamos este año, para el planteo de discusiones reflexivas, que lo colocan como un proyecto político ligado al objetivo de inclusión, permanencia y desarrollo responsable de la formación en la universidad pública. El Curso Introductorio último alojó 1700 ingresantes, las estrategias realizadas abordaron tanto el problema de la masividad como el de la heterogeneidad de la población estudiantil, alumnos de muy distinta procedencia, preparación y expectativas de su carrera de grado. Partimos de una propuesta metodológica con una concepción del alumno con la capacidad de desarrollar conciencia de la constructividad histórica, reflexiva y crítica, respecto de su propia formación universitaria. Consideramos una definición de la historia que analiza el pasado permitiendo una reflexión del presente, posibilitando una transformación del futuro (Talak, 2003; Vezzetti, 1998). Aplicamos esta manera de entender la historia a las trayectorias educativas de cada alumno en su recorrido formativo. Conceptualizamos cómo pensamos al alumno universitario, porque en nuestra forma de categorizar al otro y a nosotros mismos establecemos posibilidades de interacción, que favorecen, limitan y producen formas de relación, maneras de organizar el mundo y lo que hacemos en él (Danziger, 1997; Rose, 1996). Desde las dinámicas propuestas esperamos, que cada alumno crezca en la consciencia de: que tiene una historia con su educación, que está construyendo su propia historia con la profesión, que va a ser partícipe del discurso académico y de una cultura institucional específica. Proponemos al estudiante una manera de ser activo en su cotidiano desde el inicio de su formación, destacando la importancia de su opinión, mediante la participación en la expresión fundada en las producciones académicas, en la voz y el voto en las contribuciones en el claustro estudiantil, en la construcción de pensamiento crítico y en la calidad de los vínculos, que introducen un clima de intercambio entre futuros colegas basada en el respeto y el diálogo. Entendemos que se trata de un proyecto que es también político, porque tiene un objetivo institucional a instalar, esta concepción de estudiante universitario no está previamente establecida. Sino que la proponemos como una meta explícita a construir desde la institución Facultad de Psicología UNLP, tomando la responsabilidad de generar dispositivos específicos para facilitar la transformación hacia la construcción de este posicionamiento subjetivo del alumno. Este objetivo involucra a diferentes sectores de la institución para acompañar y generar las condiciones que den continuidad a la constitución de este proyecto. Diseñamos prácticas áulicas con complejidad progresiva que suponen mediación del docente (Sullivan Palincsar, y Brown, 1996), ejercicio en la cultura discursiva disciplinar desde una alfabetización académica, (Carlino, 2005, 2008; Nogueira, 2010) dentro de políticas de inclusión en la universidad pública. Suponemos que es desde la interacción mediada docente desde los inicios, que pueden internalizarse estos formatos propios del nivel universitario, ya con materiales específicos de la disciplina. Articulamos las propuestas de trabajo práctico en contextos concretos, cercanos y situados, que estimulan los intereses y expectativas que tiene el estudiante respecto de la carrera y la profesión (Malagrina 2011; Pittard y Martlew 2000; Talak, Malagrina y otros, 2011). Contemplamos algunas estrategias de investigación como contraparte de la misma concepción de construcción participativa y permanente. Consideramos los resultados de las prácticas a través de las evaluaciones (Carlino 2005, 2008), pero también fomentamos maneras de interrogar los saberes sobre la concepción del estudiante, la integralidad de la formación y las responsabilidades en las trayectorias, que organizan las prácticas: una encuesta aplicada a toda la población del ingreso, y actividades que fomentan la reflexión en la construcción cooperativa de este imaginario con los profesores del grado y áreas institucionales de la Facultad y Universidad. En esta comunicación planteamos preguntas que fomentan el desarrollo cooperativo y reflexivo de la integralidad de la formación académica; y presentamos y analizamos algunos resultados de la encuesta y actividades especiales con la comunidad académica para explorar esta tarea investigativa. Consideramos que los espacios de reflexión inter-cátedras permitirán evitar abordajes fragmentarios y disociados de la educación universitaria, construyendo un modelo crítico y colaborativo que reúna las distintas voces de la comunidad académica. Esperamos contribuir a sensibilizar y enriquecer la discusión sobre el seguimiento de las trayectorias estudiantiles, la exploración de las trayectorias accidentadas y la prevención del abandono universitario como preocupación de la comunidad académica. Pretendemos aportar estrategias de sensibilización y participación de la comunidad universitaria sobre el proyecto educativo integral de nuestra Facultad. Así, favorecer la socialización de las estrategias en la enseñanza y la conciencia de formación de subjetividad de los futuros psicólogos en la facultad, revisar el imaginario en la formación de grado y actualizarlo respecto de las nuevas demandas sociales como la Ley de Salud Mental. ; In this paper we aim to transmission of a training and research proposal, the Course Admissions Career and Teaching Degree in Psychology, Faculty of Psychology UNLP, we implemented this year to raise of thoughtful discussions, it placed as a political project linked to the goal of inclusion, retention and responsible development of training in the public university. The last Introductory Course 1700 stayed entrants, both strategies carried addressed the problem of the massive as the heterogeneity of the student population, students of very different origins, preparation and expectations of their undergraduate studies. We start from a methodological proposal with a view of the student with the ability to develop awareness of the historical, reflective and critical about their own university education constructiveness. We consider a definition of history that analyzes the past allowing reflection of this, enabling a transformation of the future (Talak, 2003; Vezzetti, 1998). We apply this way of understanding the history of educational trajectories of each student in their learning journey. We conceptualize how we think the university student, because in our way of categorizing other and establish ourselves interaction possibilities that favor, limit and produce forms of relations, ways of organizing the world and what we do in it (Danziger, 1997; Rose, 1996). From the dynamic proposals we hope that each student grow in the awareness of: having a history with their education, which is building its own history with the profession, which will be part of academic discourse and a specific institutional culture. We propose the student a way to be active in their daily since the beginning of their training, stressing the importance of their opinions by participating in the expression based on academic productions, voice and vote in student contributions cloister in the construction of critical thinking and the quality of the links, which introduce a climate of exchange between future colleagues based on respect and dialogue. ; Trabajos libres: Enseñanza de la Psicología ; Facultad de Psicología
In: Jan , Y 2012 , ' Quality-driven model-based design of multi-processor accelerators : an application to LDPC decoders ' , Doctor of Philosophy , Electrical Engineering , Eindhoven . https://doi.org/10.6100/IR732195
The recent spectacular progress in nano-electronic technology has enabled the implementation of very complex multi-processor systems on single chips (MPSoCs). However in parallel, new highly demanding complex embedded applications are emerging, in fields like communication and networking, multimedia, medical instrumentation, monitoring and control, military, etc., which impose stringent and continuously increasing functional and parametric demands. The high demands of these applications cannot be satisfied by systems implemented using general purpose processors (GPP). For these applications increasingly complex and highly optimized application-specific MPSoCs are required to perform real-time computations to extremely tight schedules, when satisfying high demands regarding the energy, area, cost and development efficiency. High-quality MPSoCs for these applications can only be constructed through adequate usage of efficient application-specific system architectures exploiting more adequate concepts of computation, storage and communication, as well as, usage of efficient design methods and electronic design automation (EDA) tools for synthesizing the actual high-quality hardware platforms implementing the architectures. Some of the representative examples of these highly-demanding applications include the based-band processing in wired/wireless communication (e.g. the upcoming 4G wireless systems), different kinds of encoding/decoding in communication, image processing and multimedia, 3D graphics, ultra-high-definition television (UHDTV), and encryption applications, etc. These applications require to perform complex computations with a very high throughput, while at the same time demanding low energy and low cost. The decoders of the low density parity check (LDPC) codes, adopted as an advance error-correcting scheme in the newest wired/wireless communication standards, like IEEE 802.11n, 802.16e/m, 802.15.3c, 802.3an, etc., for applications as digital TV broadcasting, mm-wave WPAN, etc., can serve as a representative example of such applications. These standards, for instance, the IEEE 802.15.3c specifies as high as 5~6 Gbps throughput for the upcoming wireless communication systems. For the realization of the so high throughput as several Gbps massively parallel hardware multi-processors are indispensable. These modern complex applications involve massive parallelism of various kinds (e.g. task, data and functional, etc) and complex interrelationships among the data and computing operations. Therefore, an adequate accelerator design for such applications requires a careful exploration and exploitation of various kinds of parallelism and resolution of complex interrelationships between the data and computing operations. The accelerator design for such kind of applications has to involve adequately combined micro- and macro-architecture design for the processors, and the corresponding adequate memory and communication architectures design. Since the processor's micro-/macro-architecture and the memory and communication architectures are strongly interrelated and cannot be designed in separation, complex mutual tradeoffs have to be resolved among the processor parallelism at the two levels, and the corresponding memory and communication architectures, as well as, among the performance, area and power consumption. For the design of hardware accelerators high-level-synthesis (HLS) methods and tools are often used. However, the HLS methods and tools only support the micro-architecture synthesis of a single processing unit, while not taking into account the macro-architecture, memory and communication synthesis and not accounting for the relationships and tradeoffs among these design aspects, what is necessary in the design of hardware accelerators for highly-demanding applications. To address the issues highlighted above and to resolve the mutual tradeoffs effectively and efficiently, a novel quality-driven model-based hardware multi-processor design method is proposed in this thesis and related design space exploration (DSE) tool that jointly consider the processor, memory and communication architectures, and the possible mutual tradeoffs among them. For the high-throughput requirements that demand massively parallel hardware multi-processor architectures, the communication and memory have usually a dominating influence on all the most important architecture quality aspects, such as delay, area and power consumption. Although some research results on the memory and communication architectures can be found in the literature, these results are for programmable on-chip multi-processor systems that utilize the time-shared communication resources, such as shared buses or Network on Chip (NoC), which are not adequate to sustain the multi-Gbit bandwidth required for the high-end massively parallel hardware multi-processors. Therefore, the research reported in this thesis was especially focused on the memory and communication issues, and proposed several promising generic scalable communication and memory architectures to satisfy the required data transfer bandwidth of the high-end hardware accelerators. In its scope several generic hierarchical partitioned communication and memory architectures were proposed, as well as, their application method to the memory and communication design of massively parallel accelerators that ensure the scalability when applied to massively parallel hardware multi-processors. The proposed novel design method makes it possible to perform an effective and efficient exploration and exploitation of the various tradeoffs between the processing parallelism at the micro- and macro-architecture level, and the corresponding memory and communication architectures, as well as, among the area, performance and power consumption, to arrive at high-quality accelerator architectures. Several novel scheduling, processing parallelism exploration, and the memory and communication architecture exploration strategies are incorporated into the proposed architecture DSE framework. To analyze and evaluate the proposed design methodology and its related DSE framework, a series of extensive case studies are performed through implementing and applying the methodology for several industrial strength applications of the LDPC decoding for the latest communication system standards. These case studies involved extensive architecture synthesis experiments with the LDPC decoder designs for IEEE 802.15.3c LDPC codes. In particular, the results of our experiments clearly demonstrate that neither the fully serial nor the fully parallel micro-architectures are adequate to satisfy the ultra-high performance requirements. The extreme fully serial or fully parallel micro-architectures are also not appropriate from the viewpoint of area and power consumption. To satisfy the ultra-high or ultra-low performance requirements, the combined micro-/macro-architecture exploration is necessary which explores and exploits various partially parallel architecture combinations. The results of the experiments performed confirmed that without considering the micro- and macro-architecture design, as well as, processor, communication and memory architecture design in combination, it is very difficult to arrive at an adequate high-quality multi-processor accelerator. They confirmed that our design methodology adequately supports the design of complex multi-processor accelerators, while taking into account the numerous complex tradeoffs. To our knowledge, despite a more than a decade of research on the hardware accelerators for the highly-demanding applications no similar holistic quality-driven design approach has been proposed. In this thesis, we take into account all the design components jointly as a single design task, as well as, consider the mutual tradeoffs among them and among different design objectives. Finally, using our method, it is possible to implement various high-quality multi-processor accelerators for the highly-demanding applications (e.g. LDPC decoders of practical importance for the newest upcoming wireless communication standards) with a limited human designer effort and in a short time.
Actual importance of study. At the beginning of the 2020s developed world countries and countries which are the leaders of world economic development faced up the challenges of radical structural reformation of social production (from industry to service system) which is based on digitalization. Digital technologies in world science and business practice are considered essential part of a complex technological phenomenon like 'Industry 4.0'. Digitalization should cover development of all business processes and management processes at micro-, meso- and microlevels, processes of social production management at national and world economy levels. In general, in the 21st century world is shifting rapidly to the strategies of digital technologies application. The countries which introduce these strategies will gain guaranteed competitive advantages: from reducing production costs and improved quality of goods and services to developing new sales market and making guaranteed super-profits. The countries which stand aside from digitalization processes are at risk of being among the outsiders of socio-economic development. Such problem statement highlights the actual importance of determining the directions, trends and strategic priorities of social production digitalization. This issue is really crucial for all world countries, including Ukraine which is in midst of profound structural reformation of all national production system. Problem statement. Digital economy shapes the ground for 'Industry 4.0', information, It technologies and large databases become the key technologies. The main asset of 'Industry 4.0' is information, the major tool of production is cyberphysical systems that lead to formation the single unified highly productive environmental system of collecting, analyzing and applying data to production and other processes. Cyberphysical systems provides 'smart machines' (productive machines, tools and equipment which are programmed) integration via their connection to the Internet, or creation special network, 'Industrial Internet' (IIoT) which is regarded as a productive analogue of 'Internet of Things' (IoT) that is focused on the consumers. 'Internet of Things' can be connected with 'smart factories' which use 'Industrial Internet' to adjust production processes quickly turning into account the changes in costs and availability of resources as well as demand for production made. One of the most essential tasks for current economics and researchers of systems and processes of organization future maintenance of world production is to determine the main strategic priorities of social production digitalization. Analysis of latest studies and publications. Valuable contribution to the study of the core and directions of strategic priorities concerning social production digitalization was made by such foreign scientists as the Canadian researcher Tapscott D [1], foreigners Sun, L., Zhao, L [2], Mcdowell, M. [3] and others. Yet, the study of issues concerning social production digitalization are mainly done by the team of authors as such issues are complicated and multihierarchical. Furthermore, the problem of social production digitalization is closely linked to the transition to sustainable development, which is reflected in the works by Ukrainian scholars like Khrapkin V., Ustimenko V., Kudrin O., Sagirov A. and others in the monograph "Determinants of sustainable economy development" [4]. The edition of the first in Ukraine inter-disciplinary textbook on Internet economy by a group of scientists like Tatomyr I., Kvasniy L., Poyda S. and others [5] should also be mentioned. But the challenges of social production digitalization are constantly focused on by theoretical scientists, analytics and practitioners of these processes. Determining unexplored parts of general problem. Defining strategic priorities of social production digitalization requires clear understanding of prospective spheres of their application, economic advantages and risks which mass transition of social production from traditional (industrial and post-industrial)to digital technologies bear. A new system of technological equipment (production digitalization, Internet-economy, technology 'Industry 4.0', NBIC- technologies and circular economy) has a number of economic advantages for commodity producers and countries, as well as leads to dramatical changes in the whole social security system, changes at labour market and reformation the integral system of social relations in the society. Tasks and objectives of the study. The objective of the study is to highlight the core and define the main strategic priorities of social production digitalization, as they cause the process of radical structural reformation of industrial production, services and social spheres of national economy of world countries and world economy in general. To achieve the objective set in the article the following tasks are determined and solved: - to define the main priorities of digital technologies development, which is radically modify all social production business processes; - to study the essence and the role of circular economy for transition to sustainable development taken EU countries as an example; - to identify the strategic priorities of robotization of production processes and priority spheres of industrial and service robots application; - to define the role of NBIC-technologies in the process of social production structural reformation and its transition to new digital technologies in the 21st century. Method and methodology of the study. While studying strategic priorities of social production digitalization theoretical and empirical methods of study are used, such as historical and logical, analysis and synthesis, abstract and specific, casual (cause-and-effect) ones. All of them helped to keep the track of digital technologies evolution and its impact on structural reformation of social production. Synergetic approach, method of expert estimates and casual methods are applied to ground system influence of digital technologies, 'Industry 4.0' and their materialization as 'circular economy' on the whole complicated and multihierarchical system of social production in general. Basic material (the results of the study). Digital economy, i.e. economy where it is virtual but not material or physical assets and transactions are of the greatest value, institutional environment in which business processes as well as all managerial processes are developed on the basis of digital computer technologies and information and communication technologies (ICT), lies as the ground for social production digitalization. ICT sphere involves production of electronic equipment, computing, hardware,.software and services. It also provides various information sevices. Information Technology serves as a material basis for digital economy and digital technologies development. Among the basic digital technologies the following ones play the profound role: technology 'Blockchain', 3D priniting, unmanned aerial vehicles and flying drones, virtual reality (VR). Augmented reality (AR), Internet of Things (IoT), Industrial Internet of Things (IIoT), Internet of Value (IoV) which is founded on IT and blockchain technology, Internet of Everything (IoE), Artificial Intelligence (AI), neuron networks and robots. These basic digital technologies in business processes and management practices are applied in synergy, complexity and system but not in a single way. System combination of digital technologies gives maximal economic effect from their practical application in all spheres of social production-from industry to all kinds of services. For instance, in education digital technologies promote illustrating and virtual supplement of study materials; in tourism trade they promote engagement of virtual guides, transport and logistics security of tourist routes, virtual adverts and trips arrangements, virtual guidebooks, virtual demonstration of services and IT brochures and leaflets. Digital technologies radically change gambling and show businesses, in particular, they provide virtual games with 'being there' effect. Digital technologies drastically modify the retail trade sphere, advertisement and publishing, management and marketing, as well as provide a lot of opportunities for collecting unbiased data concerning changes in market conditions in real time. Digital technologies lie as the basis for 'circular economy', whose essence rests with non-linear, secondary, circular use of all existing natural and material resources to provide the production and consumption without loss of quality and availability of goods and services developed on the grounds of innovations, IT-technology application and 'Industry 4.0'. Among priorities of circular economy potential applications the following ones should be mentioned: municipal services, solid household wastes management and their recycling, mass transition to smart houses and smart towns, circular agriculture development, circular and renewable energy, The potential of circular economy fully and equally corresponds to the demands for energy efficiency and rational consumption of limited natural resources, so it is widely applied in EU countries while transiting to sustainable development. In the 21st century processes of social production robotization draw the maximal attention of the society. There is a division between industrial and service robots which combine artificial intelligence and other various digital technologies in synergy. Industrial robots are widely used in production, including automotive industry, processing industry, energetic, construction sectors and agriculture Services are applied in all other spheres and sectors of national and world economies –from military-industrial complex (for instance, for mining and demining the areas, military drones) to robots-cleaners (robots-vacuum cleaners), robots-taxis, robots engaged in health care service and served as nurses (provide the ill person with water, tidy up, bring meals). Social production robotization is proceeding apace. According to "World Robotic Report 2020", within 2014 – 2019 the total quantity of industrial robots increased by 85 %. By 2020 in the world the share of robots in the sphere of automated industrial production had comprised 34 %, in electronics – 25%, in metallurgy – 10 %. These indicators are constantly growing which results in structural reformation of the whole system of economic and industrial processes, radical changes in world labour market and the social sphere of world economy in general. Alongside with generally recognized types of digital technologies and robotization processes, an innovation segment of digital economy – NBIC – technologies (Nanotechnology, Biotechnology, Information technology, Cognitive Science) are rapidly spread. Among the priorities of NBIC-technologies development the special place belongs to interaction between information and cognitive technologies. As a material basis for its synergy in NBIC-technologies creation of neuron networks, artificial intelligence, artificial cyber brain for robots are applied. It is estimated as one of the most prospective and important achievements of digital economy which determines basic, innovational vector of social production structural reformations in the 21st century. The sphere of results application. International economic relations and world economy, development of competitive strategies of national and social production digitalization of world economy in general. Conclusions. Digital technologies radically change all spheres of social production and social life, including business and managerial processes at all levels. Digital technologies are constantly developing and modifying, that promotes emergence of new spheres and new business activities and management. 21st century witnessed establishing digital economy, smart economy, circular economy, green economy and other various arrangements of social production which are based on digital technologies. Social production digitalization and innovative digital technologies promotes business with flexible systems of arrangement and management, production and sales grounded on processing large Big Data permanently, on the basis of online monitoring in real time. Grounded on digital technologies business in real time mode processes a massive Big Data and on their results makes smart decisions in all business spheres and business processes management. Radical shifts in social production digitalization provides businesses of the states which in practice introduce digital technologies with significant competitive advantages - from decrease in goods and services production cost to targeted meeting of specific needs of consumers. Whereas, rapid introduction of digital technologies in the countries-leaders of world economic development results in a set of system socio-economic and socio-political challenges, including the following: crucial reformatting the world labour market and rise in mass unemployment, shift from traditional export developing countries' specialization, breakups of traditional production networks being in force since the end of the 20th century, so called 'chains of additional value shaping', breakups of traditional cooperation links among world countries and shaping the new ones based on 'Industry 4.0' and 'Industrial Internet'. Socio-economic and political consequences of radical structural reformation of all spheres in national and world economy in the 21st century, undoubtedly, will be stipulated with the processes of social production digitalization. It will require further systemic and fundamental scientific studies on this complicated and multi hierarchical process.
Dottorato di ricerca in Storia d'Europa, società, politica, istituzioni (xix-xx) ; L'obbiettivo di questo lavoro è tracciare una storia istituzionale dell'università, inquadrandola nel più generale contesto sociale ed economico che determinò le politiche formative del paese dall'immediato dopo guerra, passando per gli anni dell'espansione economica e quelli successivi della stagnazione, giungendo fino ai primi anni ottanta. La ricerca ha seguito due direttive: da un lato l'evoluzione dell'università determinata dalla politica istituzionale e i cambiamenti della struttura universitaria, dall'altro lo stravolgimento del ruolo sociale dell'università, determinato dal passaggio dal modello liberale di università d'elitè funzionale alla formazione di una ristretta classe dirigente, a indispensabile strumento per la formazione di numerose e ampie categorie di forza lavoro in un paese avviato verso la completa industrializzazione, verso l'enorme sviluppo del settore terziario e in un contesto di profonda urbanizzazione e in generale di superamento dei rapporti sociali dei decenni precedenti alla guerra. La prima traccia di ricerca è stata sviluppata su due categorie di fonti principali: da un lato il dibattito politico-parlamentare intorno ai progetti di legge (le aperture degli accessi del '61 e specialmente del '69, le liberalizzazioni dei piani di studio dello stesso anno, i provvedimenti sulla docenza degli anni settanta), alle indagini conoscitive (quella promossa dal ministro Gonella nel '47 e quella varata da Medici e conclusa con Gui ministro tra il '63 e il '65), alle proposte di riforma (i progetti n. 2.314 del '65, n. 612 del '69, l'elaborazione della "Bozza Cervone" fra '77 e '78), alla regolazione dell'assetto giuridico ed economico del personale docente, ai piani di finanziamento e sviluppo dell'università; dall'altro attraverso lo studio del dibattito interno e fra i partiti utilizzando come fonti i periodici ad essi vicini o attenti al tema ("Riforma della Scuola" e "Rinascita" per il PCI, "Scuola e Città" e "Il Ponte" per il PSI, "La Discussione" e "Tuttoscuola" per la DC, in seguito riviste come "Universitas", ecc.), oltre che atti di convegni e pubblicazioni curate dai protagonisti dell'epoca. Nella ricerca, un ampio spazio è dato al tema della pianificazione scolastica (animato dagli studi di tecnici dell'economia e della formazione), strettamente connessa al dibattito sulla pianificazione economica sviluppatosi prevalentemente negli anni del centrosinistra. La seconda traccia di studio, quella relativa ai cambiamenti sociali e culturali causa ed effetto dell'espansione dell'utenza universitaria, è stata analizzata attraverso lo studio di fonti inconsuete per la storiografia tradizionale, come gli studi di sociologia e di scienze della formazione sviluppatisi a partire dagli anni settanta, i quali fecero largo uso delle cifre sistematizzate da ISTAT e CENSIS sistematizzate nelle tabelle statistiche che completano il presente lavoro. Analizzare l'evoluzione delle componenti sociali ha significato anche indagare le vicende legate alla docenza universitaria, al suo ruolo rispetto al dibattito politico, alle richieste portate avanti e alle funzioni assunte all'interno delle facoltà di fronte ai profondi cambiamenti descritti. Per quanto riguarda gli estremi cronologici della ricerca, la scelta di interrompere la ricerca alla prima metà degli anni '80 risponde all'analisi più complessiva che si fa di quel periodo della storia politica ed economica non soltanto italiana, le cui successive vicende di riforma dell'università rappresentano a mio avviso l'emblema del netto cambio di fase vissuto dalla politica e dalla società anche per quanto riguarda l'istruzione superiore. La suddivisione in capitoli rispecchia invece più fedelmente le fasi della politica universitaria. Nel primo capitolo si fa il punto sull'eredità dell'apparato normativo ereditato dal fascismo e sulle effettive possibilità che si aprirono o meno alle forze politiche per inaugurare una nuova fase, mettendo in luce anche le prime strategie d'intervento abbozzate dai principali partiti nel corso degli anni '50. Nel secondo capitolo sono affrontate le previsioni scolastiche e i progetti di riforma ad esse più o meno legate: dagli studi della SVIMEZ in poi (influenzati da quelli più ampi condotti dall'OCSE), la programmazione scolastica e le previsioni sullo sviluppo economico del paese assunsero un ruolo determinante per la politica di riforma di scuola e università, politica che nei primi anni sessanta si concretizzò nell'istituzione della scuola media unica (1962), nelle prime aperture dell'università ai diplomati di istituti e soprattutto nella prima vera proposta di riforma dell'università, quella di Luigi Gui del 1966, l'unica inserita in un progetto organico di riforma di tutta l'istruzione, il Piano Gui, dichiaratamente ispirato dagli studi di previsione (anche se non sempre coerente con essi). Con il terzo capitolo si affronta la lunga discussione dentro e fuori il Parlamento in merito al più ambizioso progetto di riforma del periodo, il n. 612, sostenuto dai socialisti proprio mentre l'esperienza dei governi di centrosinistra andava esaurendosi nei primi anni settanta; dello stesso periodo (1969) è l'apertura degli accessi all'università a qualsiasi tipologia di diplomato e le liberalizzazioni dei piani di studio, veri spartiacque della storia dell'università italiana. Il terzo capitolo si chiude infine con l'analisi dei "provvedimenti urgenti" del 1973, emblema di un modello di sviluppo dell'università fortemente precario, sintomo dell'incapacità di riformare e investire seriamente nella qualità dell'istruzione universitaria a vantaggio di una strategia prettamente quantitativa. Le tematiche affrontate nel quarto e ultimo capitolo sono invece determinate dall'inedita fase politica vissuta dal paese dalla metà degli anni settanta, caratterizzata dall'avvicinamento fra maggioranza e opposizione fino alla creazione dei governi di "solidarietà nazionale", nati ufficialmente per far fronte a crisi economica e terrorismo politico. Mentre l'attenzione sulla riforma universitaria andava velocemente calando (nonostante un ennesimo dibattito durato anni in Parlamento su un altro complesso progetto di riforma, la "bozza Cervone"), si verificarono gli ultimi cambiamenti sostanziali della struttura accademica attraverso l'ultimo capitolo del riformismo per decreti, tramite il quale furono istituiti i dipartimenti e le figure di ricercatore e docente associato nei primi anni ottanta. Chiude il lavoro l'Appendice Statistica in cui sono raccolte le cifre dell'università italiana (studenti, docenti, rapporti quantitativi e distribuzione, finanziamenti) dal 1946 al 1985. ; The aim of this study is tracing an istitutional history of university, by focusing in the wider social and economic context that determined the higher education policies after Second World War – spanning from the economic espansion years and the later stagnation to the early eighties. The research follows two main paths: on the one hand the university evolution and change of structure as determined by institutional factors; on the other hand the revolutionized social role of universities over the period under investigation. Indeed, the passage from a liberal model of élite universities – destined to the education of ruling classes – to a mass university – an essential instrument in training numerous labor force categories – took place in a rapidly and profoundly changing context. At that time Italy was headed towards full industrialization, was experiencing a massive development of the third sector and mass urbanization. In general, Italy was overcoming the social relations of the decades before Second world war. The First research line was developed on the basis of two main sources. On the one hand I analyzed the political-parliamentary debate on Education Bill proposals (the opening of the access of 1961 and especially of 1969, the curriculum liberalizations of the same year, the measures on univerity teaching in the seventies), on the investigations (the one proposed by Minister Gonella in 1947, launched from Minister Medici and concluded by Gui which was Education Minister from 1963 to 1965), on the various reform proposals of the analyzed decades (projects n. 2.314 of '65, n. 612 of '69, the elaboration of the "Bozza Cervone" between '77 and '78) and about the regulation of the legal and economic framework of higher education teachers and the plans of university funding and development. On the other hand, I studied the internal party debates by employing periodicals close to political parties or particularly sensitive to higher education issues ("Riforma della Scuola" and "Rinascita" for the communist party PCI, "Scuola e Città" and "Il Ponte" for the socialist party PSI, "La Discussione" and "Tuttoscuola" for the Christian democrat party DC, for more recent years periodical such as "Universitas", etcetera). Furthermore I used as sources conference proceedings and pubblications edited by the key actors of the debate. In the research I gave a significant space to the scholastic planning issue. This debate was strictly connected to the one on the economic planning of the country, developed mostly in the center-left wing years. The second part of the study, as said above, focuses on the social and cultural changes which were cause and consequences of the widening of the university students. This was analyzed through the study of source that are unusual to the tradition historiography, such as sociology or higher education studies which were developed from the 1970s and largely employed ISTAT and CENSIS data and researches. I have rationalized these studies in the statistics tables present in this thesis. The analysis of the evolution of social components regarded also university teaching activity issues, its role in relation to the political debate, and the role of teaching staffs within faculties in the profoundly changing circumstances described above. For what concerns the historical time range of this work, the choice to stop in the early eighties answers to a more general analysis of a chapter of the political and economic history that started in that eighties, not only in Italy. In my opinion, the following sequence of events regarding higher education reforms represent the symbol of the clear and abrupt phase change that politics and society experienced at that time. The thesis is organized as follows. The first chapter takes stock of the legislation inherited from the fascism and of the first debates on university in the Assemblea Costituente and in the Parliament, sheding light on the first intervention strategies of major political parties during the fifties. The second chapter addresses the forecasts on school attendendence and the consequent projects of reform. On the basis of first studies of SVIMEZ – influenced by the broader ones of OCSE – the education planning and the forecasts on the country development played a crucial role for the reform policies of schools and universities. Policies embodied in the early sisxties by the institution of the scuola media unica in 1962, by the first opening of access to professional high school graduates; and, in particolar, in 1966 by the first real proposal of university reform, the Piano Gui of Luigi Gui, the only one included in an integral reform plan of all education levels and explicitely inspired from the educational planning studies. The third chapter focuses on the long discussion – inside an outside the Parliament – concernig the most ambitiuos reform project of the period, the n. 612. The latter, while the experience of the center-left wing goverments were extinguishing, was backed by the socialists. However, the socialist were responsabile for the actual watershed in Italian university history, the opening of university accesses to any category of high school graduated students. Lastly, the third chapter ends with the analysis of 1973's "provvedimenti urgenti", emblem of a model of university development heavily based on precarious work. A synthom of the incapacity both in reforming and in seriously invest in education quality, favoring only quantitative strategies. While, in the fourth and last chapter, focuses on the second halph of the seventies a complete new political phase for the country, characterized by the approach between the parliamentary majority (hold by Christian democrat) and the communist opposition until the creation of natonal solidarity governments, ufficially borned to tackle the economic crisic and political terrorism. In the early eighties, while the attention on university reforms was rapidly decreasing, the last substantial change to the academic structure were made after those of 1969. During the last chapter of the "reformism by decrees", the departments and the roles of researcher and associate professor were established. The statistical appendix ends the thesis. Covering a time window that goes from 1946 to 1985, it reports all data on students, teachers, funding and their distribution in the ltalian
Regionaler Wirtschaftlicher Integration (RWI) liegt ein doppelter Zielkonflikt ("trade-off") zugrunde. Zum einen besteht dieser trade-off auf räumlicher Ebene da es sich um eine politische und ökonomische Organisationseinheit zwischen dem Lokalen und Globalen handelt. Zum anderen besteht ein trade-off da sowohl Liberalisierungsansätze innerhalb der Region als auch das Aufrechterhalten (oder gar Erweitern) von Protektionismus gegen die Außenwelt Teil von regionalen Ansätzen sind. Darüber hinaus ist RWI ein facettenreiches, polymorphes und idiosynkratisches Phänomen, das (potentiell) eine Vielzahl unterschiedlicher Politkfelder und Politikschlagrichtungen enthält. Traditionell wird RWI nach der Klassifizierung von Balassa (1961) in Präferenzabkommen (PTAs), Freihandelsabkommen (FTAs), Zollunionen (CUs) Gemeinsame Märkte (CMs), Währungsunionen (MUs) und ggf. Politische Unionen (PUs) eingeteilt und meist auch eine zeitliche Abfolge in dieser Reihenfolge unterstellt. In Wahrheit finden solche Prozesse teilweise parallel und in vielen Fällen unvollständig statt. Daher erscheint es sinnvoller, in vier verschiedene Kategorien an Politikfeld0ptionen zu unterschieden, nämlich • Präferentielle Liberalisierung von Güterhandel; • Präferentielle Liberalisierung anderer Produktionsfaktoren; • Koordinierung & Harmonisierung von Regularien und Institutionen; • Koordinierung und gemeinsame Verausgabung von öffentlichen Mitteln. Ein solch vielgestaltiges und janusköpfiges Phänomen bezieht seine Rechtfertigung aus einer großen Anzahl an unterschiedlichen theoretischen Schulen. Wir diskutieren diese Schulen in dieser Arbeit in drei separaten Kapiteln zum Neo-Klassischen Ansatz, zu Ansätzen der Politischen Ökonomie sowie zu Heterodoxen Ansätzen. Dabei lassen sich fünf Gruppen von Effekten unterscheiden. Diese sind • Allokationseffekte; • Akkumulationseffekte; • Lokationseffekte; • Levellingeffekte; • Und Gouvernanz-Effekte. Bei der Analyse von RWI sind darüber hinaus Imperfektionen zu beachten, die insbesondere in Afrika eine entscheidende Rolle spielen. Dies bezieht sich insbesondere auf die teilweise sehr schwache Implementation von beschlossenen RWI Maβnahmen, die sich z.B. im "Spaghetti Bowl" Phänomen, politischen Widerständen auf nationaler Ebene, administrativen Schwächen und massiven Deckungslücken in den Budgets der regionalen Behörden niederschlagen. Auch die Dominanz der Informalität in der Wirtschaft wirft Fragen zur potentiellen Wirkungsmächtigkeit von RWI auf. Während solche "Papiertiger"-Phänomene grundsätzliche Fragen an der Ernsthaftigkeit der jeweiligen Regionalvorhaben aufwerfen, kann die Präsenz solcher Hürden auch Grund für Optimismus sein da die empirisch bislang beobachteten, relativ geringen Wohlfahrtseffekte zu einem substantiellen Anteil auf die geringe Implementierungstiefe zurückgeführt werden können und nicht zwangsläufig ein Beleg für die Ineffektivität von RWI per se gesehen werden muss. Mit anderen Worten, eine wirkliche empirische Überprüfung des Erfolgs oder Versagens von RWI in Entwicklungsländern könnte erst stattfinden, wenn es tatsächlich ordnungsgemäß umgesetzt würde. Der bekannteste und am umfangreichsten entwickelte Ansatz zur Analyse der Effekte von RWI ist fraglos der Neo-klassische Ansatz, der sich grundlegend und ausschlieβlich mit der auf Viner zurückgehenden Gegenüberstellung von Handelsschaffung und Handelsumlenkung. Wir zeigen, dass die neoklassischen empirischen Methoden und Resultate trotz Tausender Studien wenig robust sind und zu einem Gutteil arbiträr gewählt sind. Kleinste Änderungen in Modell-Parametern, der empirischen Strategie oder den Datenquellen führen zu stark abweichenden Resultaten. Grundsätzlich scheint Handelsumlenkung weniger stark ausgeprägt zu sein als Handelsschaffung, der Netto-Effekt für die Regionen scheint also aus dieser Perspektive in den allermeisten Fällen positiv zu sein (dies zeigen sowohl Sekundärstudien als auch eigene Berechnungen). Es gibt sowohl Gewinner als auch Verlierer innerhalb der Regionen. Allerdings scheinen diese nicht wie vom Neoklassischen Ansatz vorhergesagt, durch die anfängliche ökonomische Machtverteilung vorherbestimmt zu sein. Dennoch bleibt die axiomatische Inferiorität von RWI zwischen Entwicklungsländern gegenüber multilateraler Liberalisierung (sowie Nord-Süd Integration und unilateraler Liberalisierung) intakt, solange die Analyse auf diese Perspektive beschränkt bleibt. Dies wirft die Frage auf, warum es dann sein kann, dass Regionalintegration so weit verbreitet ist – sowohl die Analysen aus Politökonomischer Sicht als auch jene aus Heterodoxer Sicht versuchen jeweils Antwort auf dieses scheinbare Rätsel zu geben. Darüber hinaus mündet eine unvoreingenommen und holistische Analyse von Regionalintegration innerhalb des Neoklassischen Ansatzes in einer fundamentale Erkenntnis, die überraschenderweise nur selten in der Literatur diskutiert wird. Ein näherer Blick auf die jeweiligen Schätzungen offenbart, dass selbst die optimistischsten Berechnungen in Größenordnungen enden, die absolut vernachlässigbar sind im Verhältnis zu generellen Wachstumsdynamiken, da es sich bei den Effizienzgewinnen aus Allokationseffekten um Einmal-Effekte in Höhe von unter einem Prozent des BIP handelt. Dies trifft interessanterweise nicht nur auf RWI zu, sondern auch für eine mögliche allumfassende multilaterale Liberalisierung. Diese eklatante Bedeutungslosigkeit der allokationsbedingten Handelsschaffung von sowohl RWI als auch multilateraler Liberalisierung wirft in unseren Augen mehr Fragen bezüglich der Zweckdienlichkeit des Neoklassischen Ansatzes auf, als bezüglich des Entwicklungs- und Wachstumspotentials von Regionalintegration. Allerdings stellt sich die Frage, warum dieser Analyse dann ein solch großer Raum beigemessen wird. Der Hauptgrund scheint, wie in vielen anderen Bereichen der Volkswirtschaft auch, weniger der Umstand zu sein, dass die Einsicht fehlt, dass diese Analysen die Realität nur unzureichend ab- und nachbilden, sondern vielmehr, dass von vielen Autoren mehr Wert auf eine elegante, mathematisch raffinierte und zumindest scheinbar klar quantifizierte und eindeutige Ergebnisse liefernde Methode setzen wollen als auf eine, bei der die Disziplin methodisch bestenfalls in den Anfangsschuhen steckt, Datengrundlagen in substantiellem Umfang fehlen und Ungewissheiten aufgrund der Komplexität kaum abschließend überwunden werden können. An zweiter Stelle folgt in Bezug auf Popularität und Anzahl an Studien ein spieltheoretischer Ansatz der Politischen Ökonomie. Hierbei wird der Frage nachgegangen, warum Regionalintegration betrieben wird, obwohl der Neoklassische Ansatz (scheinbar) nachweist, das seine multilaterale Lösung zu präferieren wäre. Als Grund wird hierbei der Einfluss von Lobbyisten und anderen Interessengruppen angenommen. Die Diskussion widmet sich im weiteren Verlauf fast ausschließlich der Frage, ob eine solcherart zustande gekommene Regionalintegration weitere, multilaterale Liberalisierungsschritte beflügelt und behindert. Allerdings ist der Erkenntnisgewinn aus den unzähligen Studien und Modellen äußerst überschaubar. Andere wichtige Ansätze für die Analyse von RWI erhalten deutlich weniger Aufmerksamkeit in der wissenschaftlichen Diskussion, obwohl diese heterodoxen Ansätze, die den Fokus auf dynamische Effekte und Strukturwandel legen, in der öffentlichen Debatte eine nicht unbedeutende Rolle spielen. Diesen Ansätzen ist gemein, dass sie einen Fokus auf Marktversagen und Externalitäten legen. Das Triumvirat der Neuen Handelstheorie, der Neuen der Diskussionen, wobei zusätzlich einige Keynesianische Einflüsse, der Neue Institutionalismus (sowie praxisorientierte Aspekte der Öffentlichen Finanzen) und einige radikalere Ansätze mit Ökonomischen Geografie und der Neuen Endogenen Wachstumstheorie bildet hierbei den Kern Fokus auf Arbeitsmärkte und Entwicklungsfallen eine Rolle spielen. Heterodoxe, dynamische Effekte sind sehr komplex und divers und die theoretische und empirische Anwendung auf Regionalismus ist nur sehr schwach entwickelt. Einige heterodoxe Argument ändern die Resultate der Neoklassischen Theorie nur in beschränktem Umfang und zeigen sowohl Vorteile und Nachteile von regionalen und multilateralen Liberalisierungsschritten. Einige andere heterodoxe / dynamische Effekte treten entweder ausschließlich bei RWI auf oder zu einem deutlichen geringeren Maβe auch im Gefolge von Multilateralismus und Nord-Süd Integration. Einige davon haben unserer Einschätzung nach tatsächlich das Potential, die Neoklassischen Argumente zur Dominanz von multilateralen Lösungen komplett ins Gegenteil zu verkehren. Leider ist die empirische Analyse von dynamischen Effekten jedoch sehr schlecht entwickelt. Dennoch erscheinen Schätzungen aufgrund von dynamischen Modellen "sufficiently specified to suggest that the benefits behind the dynamics of integration are potentially large" (Develin & French-Davis, 1998:20). Die Komplexität der heterodoxen Effekte impliziert, dass komplizierte Entscheidungen zur Auswahl von spezifischen Maβnahmen getroffen werden müssen. Auch wenn Regionalismus dynamische Effekte auslösen kann, ist dies keineswegs ein Automatismus, der aus jeglichen regionalen Anstrengungen entspringt. Rodrik's Kommentar zu Industriepolitik paraphrasierend, sollte daher in Zukunft weniger der Frage nachgegangen werden, ob Regionalismus unter Entwicklungsländern eine gute Politikwahl ist, sondern eher, wie Regionalismus ausgebildet werden muss, um erfolgreich Entwicklungsimpulse geben zu können.:1. Introduction 1.1 Regional economic integration: a multi-faceted phenomenon and double trade-off 1.2 Economic theories with application to economic regionalism 1.2.1 Stock-taking of theoretical frameworks 1.2.2 Attempt at a categorisation of potential effects 1.2.3 Structure and approach 1.2.4 Justification and limitations 2. Historical sketch and typical phenomena of African regionalism 2.1 Historical sketch: regionalism in Africa and beyond 2.2 Paper tigers, spaghetti bowl and informality 2.2.1 Illusionary regionalism: the political economy of signing, but not implementing regionalism 2.2.1.1 Concealed political resistance 2.2.1.2 Institutional weaknesses 2.2.1.3 The spaghetti bowl 2.2.1.4 Is regionalism virtual or real? 2.2.2 Regionalism and the informal sector 3. Neo-classic perspectives: is regionalism doomed to failure? 3.1 Neo-classical economics: trade diversion and absolute losses 3.1.1 The destructive effects of trade diversion 3.1.2 Some criticisms on the trade creation / trade diversion calculus 3.2 Winners and losers 3.3 Economic regionalism as a futile undertaking: no way out of the poverty trap? 3.3.1 Size 3.3.2 Homogeneity 3.3.3 Preference erosion 3.4 Empirics I: do RECs promote trade? 3.4.1 Regional trade volumes, shares, intensities and their development 3.4.2 The gravity model 3.4.2.1 Results of the gravity model 3.4.2.2 Factors for the variety and unreliability of the gravity model 3.4.3 Alternative methodological approaches 3.4.3.1 Panel approach 3.4.3.2 Matching estimator 3.4.3.3 REC depth differentiation 3.4.3.4 Bayesian Model Averaging 3.4.3.5 CGE: pseudo empirics or 'could' African RECs promote trade? 3.5 Empirics II: do RECs hurt their members? 3.5.1 Gravity and trade diversion 3.5.2 CGE and welfare effects 3.5.3 Finger-Kreinin index of similarity 3.5.4 ROI and RCA 3.6 Empirics III: winners and losers 3.7 Empirics IV: are African RECs ill-suited for regionalism? 3.7.1 Size 3.7.2 Homogeneity 3.7.2.1 Homogenous Africa? 3.7.2.2 A short digression: Linder or H-O? 3.7.3 Preference erosion 3.8 Empirics V: A closer look at NC aspects for the EAC 3.8.1 Computable General Equilibrium (CGE) 3.8.2 Descriptive statistics on absolute and relative trade growth 3.8.3 Finger-Kreinin index 3.8.4 Revealed comparative advantage approach 3.8.5 Disaggregated effects 3.8.6 Effects of disaggregated changes in preferential margins on relative trade growth 3.8.7 EAC: regional gains or losses? 3.8.8 EAC: winners and losers 3.9 Synopsis: The limits of regionalism or the limitations of NC approaches? 3.9.1 Empirical results 3.9.2 Insufficiency and arbitrariness of empirical instruments 3.9.3 Gains from regionalism in perspective (I): contribution to GDP 3.9.4 Gains from regionalism in perspective (II): extra-regional alternatives 3.9.4.1 North-South integration as alternative? 3.9.4.2 Unilateralism and multilateralism as better alternatives? 3.9.5 The need for looking beyond the Neoclassical Framework 4. Political economy: non-welfare oriented reasons for regionalism and implementation issues 4.1 Framing the 'stepping stone vs. stumbling block' debate: Larry Summers vs. Jagdish Bhagwati 4.1.1 Endogenous bloc formation 4.1.2 Endogenous protection 4.1.3 Institutional and negotiation aspects 4.1.4 Forgone gains vs. political feasibility – a case for 'open regionalism' 4.2 Empirics and synopsis: Regionalism and multilateralism – friends or foes? 5. Heterodox perspectives: what role for regionalism in development and structural change? 5.1 Regionalism as anti-globalism vs. regionalism as tool for structural change 5.2 Relaxed assumptions 5.2.1 Economies of scale 5.2.2 Imperfect competition and product differentiation 5.2.3 Trade costs, factor (im)mobility, diminishing returns and congestion 5.2.4 Technology, skills and (tacit) knowledge 5.2.5 Sector / goods heterogeneity and firm heterogeneity 5.2.6 Dynamism and endogeneity of factors 5.2.7 Non-clearing labour markets 5.2.8 Transaction costs 5.2.9 The importance of the short-run 5.3 Heterodox models and regionalism: catching-up and structural change? 5.3.1 Non-NC allocation effects 5.3.1.1 Love for variety 5.3.1.2 Competition-induced producer rent reductions and rent transfers 5.3.2 Levelling effects and adjustment costs in the short run 5.3.2.1 Is there a case for regionalism as a levelling force? 5.3.2.2 Is regionalism alleviating adjustment costs? 5.3.3 Location and accumulation effects 5.3.3.1 Competition and challenge-response increases in efficiency 5.3.3.2 Trade and investment: is there a case for tariff-jumping FDI? 5.3.3.3 Liberalisation and learning by doing: is there a case for infant industry protection? 5.3.3.4 Protection and competition: is there a case for regional industrial policy? 5.3.3.5 Winners and losers: is there a case for regional compensation? 5.3.3.6 Missing liberalization from the West in a dishonest debate: a case for tit-for-tat? 5.3.3.7 Limits of liberalization and creating a flat world 5.3.3.8 Trade costs vs. agglomeration: a case for regionalisation in the long run? 5.3.4 Governance effects: regionalism and governance/public spending 5.3.4.1 Regionalism as window of opportunity: does regionalism improve governance? 5.3.4.2 Signalling 5.3.4.3 Bargaining position 5.3.4.4 Regionalism and harmonisation: transaction costs and levelling the playing field 5.3.4.5 Regional public spending: regional public goods and economies of scale 5.4 Some attempts at empirical strategies for heterodox approaches 5.4.1 Literature review: heterodox empirical results and their discontents 5.4.1.1 Allocation effects: love for variety and producer rents 5.4.1.2 Levelling effects and adjustment costs 5.4.1.3 Accumulation and location effects 5.4.1.4 Governance effects 5.4.2 Heterodox effect approximations for the EAC 5.4.2.1 Regional export growth and export share growth 5.4.2.2 Directions of trade in the EAC 5.4.2.3 Sectoral disaggregation (I): CIP rankings 5.4.2.4 Sectoral disaggregation (II): Manufacturing exports and technology content 5.4.2.5 Sectoral disaggregation (III): Manufacturing exports and intra-regional trade 5.4.2.6 Sectoral disaggregation (IV): 'complexity' and diversification 5.4.2.7 Sectoral disaggregation (V): diversification and new trade 5.4.2.8 Foreign Direct Investment 5.4.2.9 Governance effects in the EAC: protocols vs. functional cooperation 5.5 Synopsis: are heterodox dynamic effects the saviours of regionalism? 6. Conclusion 6.1 Insights from and debunking of the NC framework 6.2 Insights from and debunking of the political economy framework 6.3 Insights from and current limitations of the heterodox framework Annex Bibliography
Die Inhalte der verlinkten Blogs und Blog Beiträge unterliegen in vielen Fällen keiner redaktionellen Kontrolle.
Warnung zur Verfügbarkeit
Eine dauerhafte Verfügbarkeit ist nicht garantiert und liegt vollumfänglich in den Händen der Herausgeber:innen. Bitte erstellen Sie sich selbständig eine Kopie falls Sie diese Quelle zitieren möchten.
Wie sich die neue KMK-Präsidentin die Kultusministerkonferenz der Zukunft vorstellt – und was passieren muss, damit diese Vision Realität wird: ein Interview mit Christine Streichert-Clivot über Lehren aus Pisa, Reformen im Lehramtsstudium, die bildungspolitische Bilanz der Ampel – und den Umgang mit Transformation als Leitthema.
Christine Streichert-Clivot, 43, ist SPD-Politikerin und seit 2019 saarländische Ministerin für Bildung und Kultur. Foto: Ministerium für Bildung und Kultur Saarland/Holger Kiefer.
Frau Streichert-Clivot, am 1. Januar 2024 hat das Saarland turnusmäßig die Präsidentschaft der Kultusministerkonferenz übernommen. Sie führen die nächsten zwölf Monate lang die Geschicke des deutschen Bildungsföderalismus. Was lässt sich da als zweitkleinstes Bundesland eigentlich ausrichten?
In der KMK haben jeder Minister und jede Ministerin unabhängig von der Größe ihres Bundeslandes das gleiche Stimmrecht, und ich glaube, dass ich als Kultusministerin des Saarlandes sogar einen Vorteil habe. Wir führen die gesamte Bildungslandschaft aus dem Ministerium heraus, wir haben keine nachgeordneten Behörden, das heißt: Der Draht in die Praxis hinein könnte enger kaum sein. Wir erfahren immer sofort, was los ist, und wo besonderer Unterstützungsbedarf besteht. Das macht uns agiler, und diese Agilität möchte ich in die KMK einbringen inmitten ihres spannenden Transformationsprozesses, den ich in diesem Jahr gern führen und zu einem Ergebnis bringen möchte. Also: Ich freue mich auf das Jahr, natürlich bedeutet die Präsidentschaft viel Arbeit, aber auch eine ausgesprochene Ehre. Zumal ich den Austausch mit meinen Kolleginnen und Kollegen immer als sehr inspirierend erlebe.
Traditionell hat jede KMK-Präsidentschaft ein Leitthema. Was wird das Ihre sein?
Die Bildungslandschaft steht vor einer Vielzahl komplexer und miteinander verflochtener Probleme, die eine ganzheitliche und kooperative Herangehensweise erfordern. Deshalb haben wir als Saarland uns für die Präsidentschaft auch kein fokussiertes Einzelthema gesetzt, sondern eine Leitidee für zukünftiges bildungspolitisches Handeln formuliert: "Bildung in Zeiten des Wandels - Transformation aktiv gemeinsam gestalten". In einer Zeit, in der sich die KMK genauso im Umbruch befindet wie unser Bildungssystem genauso, in der wir an verschiedenen Stellen ansetzen müssen und nicht das eine Rezept, die eine Lösung existiert, kann es für mich nur eine Leitidee geben: der mutige Umgang mit Transformation.
"Der entscheidende gemeinsame Kompass muss bei allen Veränderungen immer der Blick der Kinder und Jugendlichen sein."
Klingt so richtig wie abstrakt. Was bedeutet das praktisch?
Wenn wir unsere Schulen durch die Zeit der Transformation leiten wollen, geht das nur gemeinsam mit den politischen Ebenen in den Ländern, Kommunen und dem Bund und in enger Zusammenarbeit mit anderen Fachkonferenzen. Weitere wichtige Themen, die die KMK im kommenden Jahr begleiten werden, sind unter anderem der allgemeine Fachkräftemangel, der nicht nur die Schulen, sondern auch die Hochschulen fordert, die Lehrkräftegewinnung und –qualifizierung, die digitale Transformation des Lehrens und Lernens und die pädagogische Weiterentwicklung von digital gestützten Lehr- und Lernprozessen, auch im Umgang mit Künstlicher Intelligenz an Schulen. Wir werden uns aber auch an der anstehenden und dringend nötigen Weiterentwicklung und Reform der KMK messen lassen müssen. Die Transformation betrifft uns als ganze Gesellschaft in all unseren Teilen. Der entscheidende gemeinsame Kompass muss bei allen Veränderungen immer der Blick der Kinder und Jugendlichen sein.
Was macht Sie optimistisch, dass Ihre Kolleginnen und Kollegen diesen Anspruch teilen?
Wir sind die einzige Ministerkonferenz, die sich der Durchleuchtung durch eine Organisationsberatung gestellt hat. Aus einer Unzufriedenheit mit dem Zustand der KMK und der Langsamkeit ihrer Entscheidungen heraus. Mit dem Wunsch, viel stärker als bislang die politisch relevanten Themen zu setzen und Lösungen bereitzustellen. Optimistisch macht mich auch, dass wir schon entscheidende Schritte in die Richtung gemacht haben. Vor allem durch die Einrichtung der Ständigen Wissenschaftlichen Kommission (SWK), die bereits jetzt mit ihren Gutachten, Impulsen und Papieren die bildungspolitische Debatte prägt.
Was muss sich als erstes ändern in der KMK?
Erstens hat die KMK eine viel zu große Zahl an Gremien, zum Teil ohne Einsetzungsbeschluss, die ein Eigenleben entwickelt haben in den vergangenen Jahren. Diese Gremien binden sehr viele Mitarbeiterinnen und Mitarbeiter in den Landesministerien und im KMK-Sekretariat. Da müssen wir ran, zumal das Gutachten von "Prognos" gezeigt hat, dass all diese Gremien untereinander kaum vernetzt sind, es kommt also zu Dopplungen, zu nicht abgestimmten Entscheidungen. Wenn die KMK ein wirkmächtiger Think Thank der Bildungspolitik werden soll, sind das die wichtigsten Stellschrauben, an die wir ranmüssen.
Was heißt für Sie "Think Tank"?
Wir müssen das Rad nicht in jedem Bundesland neu erfinden. Wir brauchen eine Stelle, die einerseits die Zusammenarbeit der Länder effektiver organisiert und andererseits transparent macht, welche bildungspolitischen Projekte in welchen Ländern gut laufen. Für ersteres brauchen wir ein langfristiges Arbeitsprogramm, das über Jahre und mehrere KMK-Präsidentschaften hinwegreicht. Für zweiteres brauchen wir eine KMK-Verwaltung, deren Mitarbeiterinnen und Mitarbeiter bereit und in der Lage sind, die Bildungspolitik der Länder zu begleiten und auszuwerten, anstatt in der Betreuung zu vieler Gremien festzustecken.
Braucht es ein Arbeitsprogramm, das über mehrere Präsidentschaften hinwegreicht, oder braucht es eine Präsidentschaft, die über mehrere Jahre dauert? Führung erfordert Erfahrung und Zeit.
Ich finde es zu früh, diese Frage zu beantworten. Fakt ist, dass die gegenwärtige Regelung die Möglichkeiten einer Präsidentschaft, langfristig zu wirken, stark einschränkt. Und ich beobachte bei vielen meiner Kolleginnen und Kollegen die Bereitschaft, längerfristig Verantwortung zu übernehmen, und sei es erstmal für einen Teilbereich, wie wir es heute schon etwa im Rahmen der länderübergreifenden Vorhaben beim Digitalpakt praktizieren.
"Oft würde es ja schon reichen, wenn wir die KMK-Beschlüsse, die wir haben, so umsetzen, dass sie auf Dauer greifen."
Eine andere Frage, bei der Sie und Ihre Kolleginnen gern im Allgemeinen bleiben, ist die nach den künftigen Abstimmungsmodalitäten. Muss die KMK nicht endlich weg vom Einstimmigkeitsprinzip bei allen wichtigen Fragen – weil sonst allzu oft nicht die beste Lösung gewinnt, sondern die, die am wenigsten wehtut?
Richtig ist, dass wir zuerst über die Struktur unserer Zusammenarbeit und unserer künftigen Agenda als KMK sprechen und zu einem Ergebnis kommen sollten, bevor wir darüber reden, ob wir einander häufiger überstimmen sollten. Sonst verzetteln wir uns und verschwenden Energie und Ressourcen, die wir gerade dringend für die inhaltliche Arbeit brauchen. Oft würde es ja schon reichen, wenn wir die Beschlüsse, die wir haben, so umsetzen, dass sie auf Dauer greifen. Zumal regelmäßige Mehrheitsentscheidungen derart stark in die Bildungshoheit der einzelnen Länder eingreifen würden, dass wir Bildungsminister uns jedes Mal mit unserem Kabinett und der Mehrheit in den Landtagen abstimmen müssten. Ob das probat wäre?
Welches sind denn die Themen, die Ihres Erachtens auf der längerfristigen Agenda der KMK oben stehen sollten?
Mit am zentralsten sind für mich die Schlussfolgerungen, die wir aus den jüngsten Pisa-Ergebnissen ziehen. Die Studie hat erneut offengelegt, dass es einen starken Zusammenhang zwischen dem Bildungserfolg der Kinder und Jugendlichen und ihrer Herkunft gibt, wobei ich darunter viel mehr verstehen würde als nur die Frage nach ihrer Migrationserfahrung. Es geht um die sozioökonomische Situation der Familien, die soziale Schere hat sich in den vergangenen Jahren weiter geöffnet in Deutschland. Dass darüber hinaus die Pandemie eine Rolle bei der massiven Verschlechterung gespielt hat, beantwortet noch nicht die Frage, was genau da passiert ist. Für mich besteht hier wiederum ein enge Verbindung zu der sozialen Schieflage. Ein Großteil der Kinder ist gut durch die Zeit der Schulschließungen gekommen, aber bei vielen anderen fehlte die Unterstützung, sie haben starke seelische Belastungen erlitten.
Was bedeutet das für die Zukunft?
Was es jedenfalls nicht bedeutet: dass wir auf die zunehmende Heterogenität und Diversität reagieren, indem wir versuchen, die Klassen und Schulen wieder homogener zu machen. Der Hinweis, dass es vor allem Länder mit weniger diverser Bevölkerung seien, die bei Pisa bessere Leistungen erreicht haben, mag berechtigt sein oder nicht, wenn wir jetzt stärker aufteilen, stärker gliedern, wie einige Lehrerverbände es fordern, verstärken wir die Ungerechtigkeiten weiter.
Aber was dann?
Wir haben im Saarland mit dem Ausbau von Schulsozialarbeit und Sprachförderung die Unterstützung unserer Schulen massiv verstärkt, wir haben die Einrichtung multiprofessioneller Teams gesetzlich verankert. Das sind Erfahrungen, die ich in der KMK einbringen kann. Das ist übrigens auch der Grund, warum ich die begonnene enge Verzahnung zwischen KMK und Jugend- und Familienministerkonferenz (JFMK) 2024 fortsetzen möchte, unter anderem mit einer gemeinsamen Sitzung der Präsidien. Wir haben viele gemeinsame Themen, mit Blick auf multiprofessionelle Teams, auf den Ganztag und die Fachkräftegewinnung in den Kitas. Da ist viel Musik drin, ich werde mit Bremens Kinder- und Bildungssenatorin Sascha Karolin Aulepp, die nächstes Jahr der JFMK vorsitzt, dort weitermachen, wo unsere Vorgänger Katharina Günther-Wünsch und Steffen Freiberg aufgehört haben. Darüber hinaus, glaube ich, sollten wir als Konsequenz aus Pisa häufiger den Schülerinnen und Schülern zuhören, wie sie ihren Unterricht erleben.
"Sich einfach zurückzulehnen und zu sagen, Mädchen seien halt weniger an Mathe interessiert und wer keine mathematische Grundbildung erhält, hat selbst schuld, bringt uns nicht weiter."
Was meinen Sie damit?
Pisa bietet auch dazu wichtige Erkenntnisse. Es stellt sich beim Blick auf Angaben der Jugendlichen sehr schnell die Frage, ob der Mathematikunterricht, wie er in den meisten Schulen erteilt wird, noch zeitgemäß ist. Bietet er die Lebensorientierung, die Schülerinnen und Schüler sich wünschen? Wie muss er ablaufen, damit Mädchen sich genauso angesprochen fühlen? Sich einfach zurückzulehnen und zu sagen, Mädchen seien halt weniger an Mathe interessiert und wer keine mathematische Grundbildung erhält, hat selbst schuld, bringt uns nicht weiter. Weshalb die Weiterentwicklung der Lehrkräftebildung nicht zufällig das nächste große Thema auf unserer Agenda als KMK ist.
Aber geht es bei der wirklich vorrangig um besseren Unterricht? Oder beruht die plötzliche Reformdynamik vor allem auf dem Kalkül der Kultusminister, möglichst schnell möglichst viele Lehrkräfte gegen den Mangel zu produzieren?
Den Eindruck habe ich nicht. Natürlich muss jedes Land erstmal schauen, selbst genug Lehrkräfte zu haben. Darum brauchen wir auch kurzfristige Strategien gegen den Fachkräftemangel, der nicht nur die Schulen betrifft, weshalb wir mit vielen anderen gesellschaftlichen Bereichen um die gleichen Köpfe konkurrieren. Andererseits müssen wir aber grundsätzlich schauen, wie wir die Lehrerbildung praxisorientierter machen, um genau den lebensweltlichen Bezug zu den Schülerinnen und Schülern zu erreichen, der im Unterricht oft eben nicht da ist. Und so hilfreich das kürzlich veröffentlichte Gutachten der SWK zur Zukunft der Lehrkräftebildung war, genau an der Stelle haben wir mit den Experten einen offenen Diskussionspunkt.
Eine recht euphemistische Umschreibung dafür, dass die SWK die Begeisterung der Kultusminister für die Einführung eines dualen Studiums überhaupt nicht teilt.
Es erscheint vorstellbar, dass wir dazu in der KMK bald eine Beschlusslage hinbekommen. Und ich glaube, dass sich der Konflikt mit der SWK ein Stückweit erledigt, wenn wir uns von den Begrifflichkeiten lösen. Was ich unter einem dualen Studium verstehe, eine stärkere Praxisorientierung schon ab dem ersten Semester, wird von etlichen Wissenschaftlern geteilt. Da hat sich in den vergangenen Jahren schon viel getan mit Praktika und Praxissemestern. Aber wir stellen fest, dass die Studierenden sich noch mehr wünschen, sie wollen die unmittelbare Konfrontation mit dem Schulalltag. Mit der praxisintegrierten Ausbildung der Erzieherinnen gibt es längst gute Vorbilder.
Der SWK geht es aber um die tiefe wissenschaftliche Fundierung – die die Studierenden sich übrigens genauso wünschen.
Die SWK fürchtet, es könnten sich durch einen zu frühen Praxiseinsatz ungute Arbeitsstrategien verfestigen, bevor sie theoretisch hinterfragt werden konnen. Für mich ist das aber vor allem eine Frage der Organisation und der geeigneten Umsetzung.
"Im Saarland diskutieren wir jetzt die Etablierung von Ausbildungsschulen , ähnlich wie es Lehrkrankenhäuser für angehende Mediziner gibt."
Vor allem ist es eine Frage der Betreuung. Die Realität sieht vielerorts so aus, dass schon Lehramtsstudierende als Vertretungskräfte in den Schulen arbeiten, ohne jedes Coaching – wenn doch Bildungswissenschaftler warnen, dass Praxiseinsatz ohne umfangreiche Anleitung pädagogisch wertlos ist.
Es ist aber genau, wie Sie sagen: Diese Frage stellt sich nicht erst mit der Debatte ums duale Studium. Das Problem beginnt, sobald die jungen Fachkräfte, die eigentlich noch in Ausbildung sind, zur Abdeckung von Personallücken eingesetzt werden. Verschärft wird es, wenn gleichzeitig Betreuungspersonen fehlen. Schon im Referendariat ist eine angemessene Begleitung immer wieder aufs Neue eine Herausforderung, viele Fachseminarleiter wünschen sich einen stärkeren und verbindlicheren Austausch mit den Schulen. Weshalb wir im Saarland jetzt die Etablierung von Ausbildungsschulen diskutieren, ähnlich wie es Lehrkrankenhäuser für angehende Mediziner gibt. Das sind Standorte, wo es Mentorinnen gibt, die mit Studierenden und Referendaren zusammenarbeiten, sie im unmittelbaren Austausch begleiten. Dann und nur dann kann ein duales Studium funktionieren – bis hin zu einer Variante mit einem bezahlten Einsatz bereits zu Beginn des Studiums. An den Grundschulen in meinem Bundesland spüre ich da eine große Offenheit, an den weiterführenden Schulen weniger, wenn man beispielsweise die ablehnende Position des Philologenverbandes betrachtet. Aber die Debatte müssen wir trotzdem führen. Und sie zusammendenken mit der Reform der dritten Phase, der verstärkten berufsbegleitenden Weiterqualifizierung von Lehrerinnen und Lehrern.
Die noch mehr von Schulen und Universitäten abverlangen würde.
Die aber lohnen würde. Ich gebe Ihnen ein Beispiel. Im Saarland haben wir dieses Schuljahr das Fach Informatik eingeführt, flächendeckend an allen weiterführenden Schulen ab Klasse sieben. Die dafür nötigen Informatiklehrer finden wir nicht auf dem Arbeitsmarkt, weil erstens Informatiker anderswo deutlich mehr verdienen können als in den Schulen und weil zweitens mit jedem Bundesland, das Informatik als Schulfach etabliert, die Konkurrenz zunimmt. Darum haben wir mit der Universität des Saarlandes eine neues Weiterbildungsprogramm auf die Beine gestellt, bei dem Lehrerinnen und Lehrer Informatik als drittes Fach hinzustudieren können. Das ermöglicht uns, Schritt für Schritt den Bedarf zu decken.
Die SWK schlägt als weitere Maßnahme die Einführung von Assistenzlehrkräften vor – im Sinne eines neuen Berufsbildes, aber auch als Entlastung der Kollegien.
Aktuell haben wir im Saarland keine Assistenzlehrkräfte, ich bin bei der Frage mit Blick auf mögliche Konflikte auch sehr zurückhaltend. Am Ende führt das zu unterschiedlichen Bezahlstrukturen unter dem Dach einer Schule. Wir sollten eher schauen, ob es andere Möglichkeiten gibt, die Kollegien zu unterstützen, etwa durch eine Ausweitung der systemischen Unterstützung im Rahmen ganztägiger, inklusiver Schulen. Als zusätzliche professionelle Struktur an den Schulen. Das gehört zu dem, was ich mir unter multiprofessionellen Teams vorstelle.
Zu denen auch die Systemadministratoren gehören würden, über deren Einsatz in Schulen seit dem Digitalpakt verstärkt diskutiert wird. Apropos Digitalisierung: Im Jahr 2 nach dem Auftauchen von ChatGPT hätte man denken können, dass Sie das Thema Künstliche Intelligenz zum Thema Ihrer Präsidentschaft machen.
Das ist Teil der Transformation, über die ich am Anfang gesprochen habe. So wichtig digitale Souveränität und digitale Mündigkeit als Zukunftskompetenzen sind, so besorgt beobachte ich, wie etwa skandinavische Länder den Rückzug aus der Digitalisierung in den Schulen verkünden. Das würde bei uns die digitale Spaltung in der Schülerschaft weiter vertiefen. Wir statten im Saarland alle Schülerinnen und Schüler ab Klasse drei mit eigenen digitalen Endgeräten aus, fertig konfiguriert mit den nötigen Inhalten. Wir reden nicht mehr von digitalen Schulbüchern in PDF-Format, sondern von einer Vielfalt von Diagnoseinstrumenten für eine Individualisierung des Lernfortschritts mit paralleler Rückmeldung an die Lehrkräfte. Was zeigt, dass es um weit mehr geht als die Potenziale von Large Language Models wie ChatGPT. Und um völlig neue Herausforderungen. Woher weiß ich noch, dass mein Gegenüber in der Videokonferenz echt ist und nicht durch eine Software generiert? Oder wenn ich auf Facebook die immer gleichen Bilder zum Konflikt zwischen Israel und Palästina angeboten bekomme, warum ist das so? Alles Fragen, auf die unsere Schulen die Kinder vorbereiten müssen. Sie werden in einer Welt leben, die nach ganz anderen Gesetzen funktioniert als unsere heutige. Wir müssen ihnen die Instrumente gegeben, diese Welt kritisch zu begleiten und im besten Falle gestalten zu können.
Mit dem "Wir" meinen Sie die Bundesländer, weil sie die Bildungshoheit haben?
Die Zukunft der Bildungspolitik liegt in der Zusammenarbeit zwischen Bund, Ländern und Kommunen, weshalb gerade beim Digitalpakt, diesem großen kommunalen Unterstützungsprogramm, die Fortsetzung so wichtig ist. Ohne den Digitalpakt I wären viele Investitionen in die Digitalisierung unserer Schulen nicht möglich gewesen. Er endet im Juni 2024, und natürlich haben wir uns als Länder ein klares Signal des Bundes gewünscht, dass es unmittelbar mit dem Digitalpakt II weitergeht. Stattdessen bekamen wir die Ansage, dass es frühestens 2025 etwa wird. Wenn ich mir jetzt die Entwicklungen der vergangenen Wochen anschaue, bin ich sehr gespannt, wie es der Bundesbildungsministerin gelingen wird, das Programm im Haushalt zu platzieren. Gelingt ihr das nicht, werden viele neue im Digitalpakt I entstandene Strukturen in den Kommunen kaputtgehen. Einfach, weil die meisten Länder die Ausgaben nicht allein stemmen können. Der Bund hat eine Mitverantwortung, dass in den Schulen aller Bundesländer eine gleichwertige digitale Infrastruktur besteht.
"Digitalpakt und Startchancen sind die zwei Programme, die am Ende über bildungspolitische Bilanz von Ministerin Stark-Watzinger entscheiden werden."
Wäre es dann nicht die Verantwortung der Länder, wie vom Bund gefordert 50 Prozent der Finanzierung beizusteuern?
Der Bund hat erst im Laufe des Jahres 2023 seine Strategie geändert und will plötzlich überall und einseitig weg von den alten Finanzierungsschlüsseln. Darüber wird zu verhandeln sein, so wie wir beim Startchancen-Programm darüber verhandelt haben – auch über die Eigenleistungen der Länder, die dann angerechnet werden. Wenn wir im Saarland alle Schüler mit Endgeräten ausstatten, stemmen wir viel selbst – das sollte der Bund anerkennen. Und wenn wir über eine Fifty-Fifty-Finanzierung reden, wäre es übrigens umgekehrt angebracht, dass der Bund sich auf eine langfristige Lösung einlässt. Wir können nicht immer von einer Programmverlängerung in die nächste gehen. Wir brauchen einen höheren Grad an Verbindlichkeit.
Es gibt Länder, vor allem mit CDU-geführten Kultusministerien, die ein Junktim machen wollen zwischen Startchancen-Programm und Digitalpakt. Die sagen: Auch wenn es zeitnah eine Startchancen-Verwaltungsvereinbarung gibt, werden wir die nur ratifizieren, wenn es Sicherheit beim Digitalpakt gibt.
Dafür habe ich großes Verständnis. Der Digitalpakt ist ein Infrastrukturprogramm: Wenn der Digitalpakt nicht fortgeführt werden kann, dann wird die Infrastruktur auf kommunaler Ebene darunter leiden. Deshalb schauen wir als Länder natürlich beim Startchancenprogramm auch auf die Entwicklung des Digitalpakts. Sieht der Bund hier seine Aufgaben nach Auslaufen des Programms seine Aufgabe als erledigt an oder bekennt er sich zu seiner Verpflichtung einer Anschlussfinanzierung? Vor dem Hintergrund des jüngsten Verfassungsgerichtsurteils schauen wir als Kultusministerinnen und Kultusminister genau hin, ob sich das Bekenntnis für die Fortführung des Digitalpakts auch in den Zahlen in der Bundeshaushaltsplanung ablesen lässt.
Der Entwurf der Startchancen-Verwaltungsvereinbarung, die der Bund für November angekündigt hatte, ließ derweil bis zwei Tage vor Weihnachten auf sich warten.
Ich will dem Bund da nichts unterstellen, das BMBF hat mit den Ländern gemeinsam äußerst intensiv in der gemeinsamen Arbeitsgruppe an dem Programm gearbeitet. Aber natürlich ist es sehr bedauerlich dass es so lange gedauert hat, denn ein Beginn zum August 2024 wird jetzt zu einer extremen Herausforderung. Ich erinnere nur an den Entwurf der Vereinbarung zu den Ganztagsschulen, die über Monate zwischen Bundesfamilienministerium und den Ländern hin- und herging. Unsere Ministerien müssen den Vorschlag des Bundes jetzt in kürzester Zeit bewerten und dabei trotzdem gründlich sein, wir müssen auf politischer Ebene sehr schnell zu einer Einschätzung kommen, ob wir auf dieser Grundlage weitermachen können. Darum hatten wir ja so viel Wert darauf gelegt, möglichst früh den Entwurf zu erhalten. Nun ist es, wie es ist. Und wir müssen zweigleisig fahren: mit dem Bund verhandeln und parallel bereits schauen, welche Schulen wir für das Programm vorschlagen wollen. Das geht aber nur teilweise. Ich kann nicht mit den Schulen ins Gespräch gehen über die einzelnen Säulen des Programms, ohne zu wissen, ob diese Säulen dann auch so kommen. Wir arbeiten also mit angezogener Handbremse und müssen doch mit aller Kraft dafür kämpfen, dass wir zum nächsten Schuljahr pünktlich starten können.
Die Ampelkoalition in Berlin ist mit großen bildungspolitischen Ambitionen in die Legislaturperiode gestartet. Hat sie geliefert?
Die Antwort ist offen. Ich erwarte, dass das BMBF bei Digitalpakt und Startchancen liefert. Das sind die zwei Programme, die am Ende über bildungspolitische Bilanz von Ministerin Stark-Watzinger entscheiden werden.
Kostenfreien Newsletter abonnieren
In eigener Sache: Blog-Finanzierung
Wie dieser Blog finanziell aufgestellt ist, warum er Ihre Unterstützung braucht – und welche Artikel im November am meisten gelesen wurden.
Mención Internacional en el título de doctor ; The world population growth and its derived demands encourage the search and commissioning of eco-friendly, sustainable and long-lasting resources. In this regard, the field of Materials Science and Engineering is committed to the investigation and production of materials able to withstand harsh operating conditions without compromising the environment or their nominal properties. These severe working scenarios – such as high temperature, wear or corrosive applications – fit in different sectors, like power generation (fusion nuclear reactors), mining or aeronautics. A broad branch of this type of materials correspond to hardmetals or cemented carbides, metal-ceramic composites comprised by a predominant net of tungsten carbide (WC) particles embedded in a cobalt (Co) binder. This combination has been strongly rooted to the industry due to its outstanding properties, especially regarding hardness and toughness, two valuable properties in the niche of cutting tools. However, the relatively recent inclusion of W and Co in European and American critical raw materials and toxicity lists – REACH and NTP – have driven the study of alternative materials. In this sense, there exist two approaches: the partial or total substitution of Co, and seeking for a WC competitor as ceramic phase. With respect to the binder phase, iron (Fe) based alloys have proven to be excellent candidates as Co substitutes. Moreover, the addition of alloys such as chromium (Cr), nickel (Ni) or aluminium (Al) has demonstrated to improve oxidation and corrosion resistance of these materials, among other properties. Concerning the substitution of the ceramic phase, materials based in titanium carbonitride – Ti(C,N) –, also referred to as cermets, have arisen as very promising options, on the basis of providing advantages like high wear resistance or chemical stability. The combination of both strategies implies a challenge, but also the most sustainable option. In this regard, Ti(C,N)-Fe15Ni cermets have attained dense samples with a homogeneous microstructure, evidencing excellent metal-ceramic wettability. Moreover, the development of a core-rim structure in the carbide has been avoided, thus approaching the biphasic configuration of hardmetals. The present thesis has continued with this investigation line, proposing a flexible and systematic methodology with which to ease the task of designing and producing alternative hard materials. This method integrates the tools for thermodynamic simulation, validation and experimental processing. The inclusion of new alloying elements – Cr and Al – and different compositions have been evaluated, comparing the roles of WC and Ti(C,N). Furthermore, the effects exerted by the processing route have been carefully assessed, as the final properties of the material greatly depend on this decisive parameter. These attributes are also influenced by the final microstructure which, at the same time, is affected by the processing step or material composition, as well as other factors. This synergy among parameters and the characterisation of their effects on the material have enabled to attain an optimum combination of composition, microstructure and mechanical properties. Materials have been characterised in terms of their density, final composition – X-ray spectroscopy and X-ray diffraction at room/high temperature – microstructure, magnetic properties, corrosion resistance or mechanical properties, among other techniques. With respect to their mechanical evaluation, it is worth highlighting the performance of massive nanoindentation analyses, with which the intrinsic hardness of each constituent phase could be extracted. ; El incremento de la población mundial y las demandas derivadas en consecuencia impulsan los esfuerzos en investigación hacia la búsqueda y puesta en servicio de recursos ecológicos, sostenibles y duraderos. En este sentido, el campo de la Ciencia e Ingeniería de Materiales tiene por compromiso el estudio y la producción de materiales que puedan brindar una prestación en condiciones extremas sin comprometer el medio ambiente, garantizando el mantenimiento de sus propiedades en todo momento. Estos escenarios de servicio severos – por ejemplo, alta temperatura, desgaste o trabajo en ambientes corrosivos – tienen aplicación en diversos campos, tales como la generación de energía (reactores nucleares de fusión), la minería o la aeronáutica. Una amplia rama de estos materiales corresponde a los metales duros o carburos cementados, unos materiales compuestos metal-cerámicos formados por una red predominante de partículas de carburo de wolframio (WC) embebidas en una matriz de cobalto (Co). Esta combinación ha estado fuertemente arraigada a la industria gracias a sus excelentes propiedades, sobre todo en cuanto a dureza y tenacidad, altamente valorables en el nicho de las herramientas de corte. Sin embargo, la inclusión en los últimos años del W y el Co en la lista europea de materias primas críticas y en programas toxicológicos tanto europeos como norteamericanos – REACH y NTP – han dirigido los estudios hacia la búsqueda de materiales alternativos. En este aspecto, existen dos estrategias: la sustitución parcial o total de la matriz metálica, y el cambio del WC por otra fase cerámica. Respecto a la matriz, las aleaciones base hierro (Fe) han demostrado ser claras opciones como competidoras del Co. Además, la adición de aleantes como el cromo (Cr), el níquel (Ni) o el aluminio (Al) ha manifestado una evidente mejora en cuanto a la resistencia a oxidación y corrosión de estos materiales, entre otras propiedades. En cuanto a la sustitución de la fase cerámica, los materiales basados en carbonitruro de titanio – Ti(C,N) –, también denominados cermets, se han establecido como excelentes candidatos, gracias a ventajas como su alta resistencia al desgaste o estabilidad química. La combinación de ambas estrategias supone un reto, pero también la opción más sostenible. En este sentido, los cermets Ti(C,N)-Fe15Ni han demostrado alcanzar muestras densas con microestructuras homogéneas, evidenciando una excelente mojabilidad metal-cerámica. Además, se ha evitado la evolución de una estructura de tipo core-rim en el carburo, aproximándose así a la configuración bifásica de los carburos cementados. En esta tesis se ha continuado con dicha línea de investigación, proponiendo una metodología flexible y sistemática para el diseño y producción de materiales duros alternativos con la que facilitar esta tarea. Este método aúna las herramientas de simulación termodinámica, validación y procesamiento experimental. Se ha estudiado la adición de nuevos elementos – Cr y Al – y diferentes composiciones, comparando los roles del WC y el Ti(C,N). Además, se han enfocado los esfuerzos en la evaluación de los efectos provocados por la ruta de procesamiento, un importante parámetro del que dependen en gran medida las propiedades finales del material. Al mismo tiempo, éstas también están altamente influenciadas por la microestructura final, que a su vez se ve afectada por el procesado o la composición, además de otros factores. Esta sinergia entre parámetros y la caracterización de sus efectos en el material han permitido llegar a una óptima combinación de composición, microestructura y propiedades mecánicas. Los materiales se han caracterizado en base a su densidad, composición final – espectroscopía de rayos-X y difracción de rayos-X a temperatura ambiente/alta –, microestructura, propiedades magnéticas, resistencia a corrosión o propiedades mecánicas, entre otras técnicas. Respecto a la evaluación mecánica, cabe destacar los análisis de nanoindentación masiva con los que se han extraído los valores intrínsecos de dureza de cada una de las fases constituyentes. ; This Doctoral Thesis was a collaboration between Universidad Carlos III de Madrid – Grupo de Tecnología de Polvos (GTP) – and Universidad Politècnica de Catalunya – Centro de Integridad Estructural, Fiabilidad y Micromecánica los Materiales (CIEFMA). This investigation was financed by the Spanish Government (Agencia Estatal de Investigación) through the projects MAT2015-70780-C4-P and PID2019-106631GB-C41/C43, and grant BES-2016-077340 (FPI-2016), as well as the Regional Government of Madrid through the programmes MULTIMAT-CHALLENGE – ref. S2013/MIT-2862 – and ADITIMAT – ref. S2018/NMT-4411. ; Programa de Doctorado en Ciencia e Ingeniería de Materiales por la Universidad Carlos III de Madrid ; Presidente: Daniele Mari.- Secretario: José Manuel Sánchez Moreno.- Vocal: Ana María de Oliveira e Rocha Seno
Die forschungsleitende Fragestellung, die der vorliegenden Arbeit zugrunde liegt, geht auf die Überlegungen des Gartentheoretikers Christian Cay Lorenz Hirschfeld zurück, der um 1780 seine Zeitgenossen zur Einführung eines deutschen Gartenstils aufrief. Obwohl der Appell bis in die 1820er Jahre ein beachtliches Medienecho unter dem garteninteressierten Laien- und Fachpublikum hervorrief, geriet diese Debatte ab der Mitte des 19. Jahrhunderts fast vollständig in Vergessenheit, so dass der Deutsche Garten aktuell ein Forschungsdesiderat darstellt, das weder seitens der Geschichtswissenschaft oder der Kunstgeschichte noch in der Landschaftsarchitektur oder der Gartendenkmalpflege vertiefende Betrachtung fand. Auf diesem Befund aufbauend, untersucht die Arbeit mit den Methoden der Geschichts- und Landschaftswissenschaft die theoretische und praktische Entwicklung eines eigenständigen deutschen Gartenstils im 18. und frühen 19. Jahrhundert. Verschiedene gartenhistorische Entwicklungsstufen werden dabei aus unterschiedlichen Perspektiven betrachtet mit dem Ziel, den Quellenbegriff "Deutscher Garten" hinsichtlich seiner Entstehung, Etablierung und Verbreitung zu dechiffrieren sowie seine Übertragungsprozesse und strategien von der Konstruktion in die faktische Anwendung offenzulegen. Diese Überführung des deutschen Gartenstils in die Praxis wird beispielhaft an sächsischen Gartenanlagen nachgewiesen. Unter Zuhilfenahme der von Burbulla vorgenommenen Typologisierung nationaler Gartenstile wird die Kontroverse um eine zielgerichtete Inszenierung des Deutschen Gartens als politische Landschaft thematisiert. Zu diesem Zweck werden deutschsprachige Quellen der Gartenkunst inhaltlich untersucht und in ihren historischen Entstehungskontext eingeordnet. Daraus resultiert die Möglichkeit, die Aussagen der Verfasser hinsichtlich Bedürfnissen, Zukunftsängsten sowie Wert- und Weltvorstellungen zu hinterfragen, die in der Vorstellung vom Garten als Sinnbild für den 'Charakter der Nation' mündeten. Die Gestaltungsvorschläge zum Deutschen Garten wiesen dabei eine auffällige Homogenität auf, waren besonders durch die Mode der Natürlichkeit sowie eine bürgerlich-protestantische Werteorientierung geprägt und fanden ihren Ausdruck in einer spezifischen Form nützlich-schöner Gartengestaltung. In der Bearbeitung dieses Zusammenhangs führt die Arbeit die literarisch vorgeprägten Weltbilder aufklärungsaffiner Kreise und die Patriotismusforschung mit den Ansätzen der Gartengeschichtsschreibung zusammen. Denn insbesondere durch die literarischen Bewegungen der Empfindsamkeit sowie des Sturm und Drang wurden nationale Sujets zum zentralen Inhalt gefühlsbetonter Literatur- und Geschichtserzählung. Zur Steigerung des Interesses und zur vertiefenden Wirkung dieser Diskurse erfolgte die Einbettung des Erzählten häufig in Natur- und Gartenbilder, woraus sich der Konnex für eine Überführung nationaler Themen in die Gartenkunst ergab. Die permanente Rückbindung zeitgenössischer aufklärerischer Debatten an die Natur bzw. an eine natürliche Ordnung der Dinge machte den Garten gleichzeitig zur Projektionsfläche naturrechtsphilosophischer Kontroversen, die sich in einem breiten Spektrum naturverehrender und naturreligiöser Zeichensetzungen ausdrückten. Darauf aufbauend werden im zweiten Teil der Arbeit gestalterische Merkmale herausgearbeitet, die die Inszenierung des Deutschen Gartens als Ort kollektiven Erinnerns und identitätsstiftenden Handelns ermöglichen. Die Gestaltungscharakteristika werden bezüglich ihrer normativen, symbolischen und traditionellen Bedeutung hinterfragt und hinsichtlich ihrer Funktionen und ihrer gartenkünstlerischen Umsetzbarkeit analysiert. Anschließend werden die Bestandteile zueinander in Beziehung gesetzt und der Deutsche Garten als Symbol einer gesellschaftlichen und politischen Wertegemeinschaft thematisiert. Daran anknüpfend erfolgt eine Betrachtung der Breitenwirkung des Konzepts des Deutschen Gartens. Ist dieser anfänglich als konstruierter und abgeschlossener Privatraum entstanden, so bedarf es bei der Untersuchung der Praxisbeispiele insbesondere der Analyse der soziokulturellen Hintergründe der jeweiligen Gartenbesitzer. Dabei werden neben hinterlassenen Akten, Briefen, Tagebuchaufzeichnungen, Plänen und Abbildungen vor allem familiäre und berufliche Lebensumstände, Standeszugehörigkeit, Religion sowie die Mitgliedschaft in ökonomischen, patriotischen und gemeinnützigen Sozietäten oder freimaurerische Kontexte in die Betrachtung einbezogen. Auf diese Weise wird die Trägerschicht des Deutschen Gartens untersucht und nach ihren Ambitionen zur Errichtung eines Gartens im deutschen Stil befragt. Der Garten wird damit auch als eigenständiger Rechts - und Sozialraum im Rahmen der Grundherrschaft thematisiert. Der Aufbau der Arbeit folgt dem Konzept des Ineinandergreifens von Theorie und Praxis, wobei folgende Fragenkomplexe bearbeitet werden: Zum einen wird herausgearbeitet, welche gartenkünstlerischen Vorbildmodelle bei der Konstruktion des Deutschen Gartens zur Verfügung standen und auf welche Orientierungs- und Begründungssysteme diese rekurrierten. Diesbezüglich kann aufgezeigt werden, dass der Deutsche Garten ein mehrdeutiges Konzept darstellt, in das politische Ordnungsvorstellungen ebenso wie vielschichtige Transzendenzbezüge projiziert wurden, die wiederum ihre Legitimation im Rückgriff auf die Ideen der Ursprünglichkeit der Natur bzw. des Naturzustandes fanden. Der Inszenierung des Naturzustandes oblag daher auch für den Deutschen Garten eine besondere Bedeutung. Diese nährte sich aus dem öffentlichen Diskurs, der die geometrische Gestaltung des Barockgartens als Manifestation eines denaturierten und höfisch geprägten Lebensstils festschrieb, während in der scheinbaren Ungezwungenheit des Landschaftsgartens die Einswerdung des Menschen mit der Natur postuliert wurde. Gefragt wird daher, in welcher Weise besagte Auseinandersetzung die äußere Gestaltung und innere Konnotation eines deutschen Gartenstils beeinflusst hat. Bildete die Natur im Deutschen Garten die Basis für ein kollektives Identifikationskonzept und für gemeinsinnstiftende Gestaltungsideen? Wie sollten diese Konzepte und Ideen aussehen und welche Inhalte und Werte sollten transportiert werden? Zum Zweiten werden mittels vergleichender Analyse zahlreicher zeitgenössischer Publikationen Gestaltungsvorschläge auf ihre Konsistenz, Persistenz und Rezeption geprüft. Von besonderem Interesse ist dabei der Nachweis charakteristischer Gestaltungsmuster und Wesensmerkmale, die den deutschen Gartenstil von anderen nationalen Gartenformen unterscheiden sollten. Konnten diese Merkmale, einschließlich ihrer zugewiesenen Bedeutung, den massiven Veränderungen der gesellschaftspolitischen Zeichensysteme der Sattelzeit standhalten? Oder konnte ein Überdauern nur mittels selektiver Anpassung der Inhalte durch Erweiterung, Erneuerung oder auch Dezimierung einzelner gestalterischer Merkmale gewährleistet werden? Drittens wird nach Beweggründen und Initiativen gefragt, die eine Überführung des Deutschen Gartens aus der Theorie in die Praxis möglich machten. Die erarbeiteten Gestaltungsmerkmale und inhalte des Deutschen Gartens werden an vier exemplarisch ausgewählten Gartenanlagen nachgewiesen. Diese zwischen 1747 und 1822 auf sächsischem Gebiet entstandenen Landschaftsgärten in Altdöbern, Röhrsdorf, Machern und Lützschena werden vor dem Hintergrund ihrer historischen Entwicklung auf das Vorhandensein von Gestaltungsschwerpunkten untersucht. Konnte der Deutsche Garten seinem Anspruch als Abbild eines neuen, freiheitlichen Ordnungsmodells, das eine kollektive Identifikationsmöglichkeit für alle 'Deutschen' bereitstellte, gerecht werden? Die begrenzte Zugänglichkeit der Gärten lässt ebenso wie die abgeschiedene Lage außerhalb der Städte am oben definierten Allgemeingültigkeitsanspruch zweifeln. Daher wird weiterführend die Auswirkung eines deutschen Gartenstils auf die Gestaltung öffentlicher Grünanlagen am Beispiel der Konzeption von Stadtgärten wie dem Großen Garten in Dresden ab 1813 oder von Kuranlagen wie den Tharandter Promenaden ab 1793 untersucht. Abschließend wird die Frage erörtert, ob der ideelle Anspruch des Deutschen Gartens überdauern konnte und inwieweit die heutige Wahrnehmung und Gestaltung von Grünanlagen von der historischen Entwicklung beeinflusst wird.:1 Vorwort 1.1 Forschungsstand 1.2 Zielstellung der Arbeit 1.3 Quellenmaterial Teil A 2 Der Deutsche Garten – ein theoretisches Konstrukt? 2.1 Von der Insel auf den Kontinent. Die Erfolgsgeschichte des Landschaftsgartens im Alten Reich 2.1.1 Das Konstrukt des Deutschen Gartens in der Literatur des 18. und 19. Jahrhunderts 2.1.2 Die Aufwertung des Gartens als Ergebnis einer sich wandelnden Naturanschauung 2.1.3 Von der Nützlichkeit der schönen Natur 49 2.2 I. Phase (1730–1750): Übernahme des insularen Gartenmodells und allgemeine 'Anglophilie' 2.2.1 Die moralische Wochenschrift "Der Patriot" als Vermittler eines deutschen Gartengeschmacks 2.2.2 Die Überführung des Gartenbildes ins zeitgenössische Diskursfeld bei Gottscheds "Der Biedermann" 2.3 II. Phase (1750–1780): Hinwendung zum "National-Geschmack" – kritische Auseinandersetzung mit französischen und englischen Einflüssen im Alten Reich 2.3.1 Die Mode des Natürlichen 2.3.2 Das Natürliche als Inbegriff des 'guten Geschmacks' 2.3.3 Kritik am Barock 2.3.4 Hinwendung zur Natürlichkeit und Empfindsamkeit 2.3.5 Entwicklung eines neuen Kunstverständnisses 2.3.6 Zusammentreffen von Adel und Bürgertum in der Mode der Empfindsamkeit 2.3.7 Kultur als Angleichungsprozess 2.3.8 Kritik an der Empfindsamkeit anhand von Gartenmetaphern 2.3.9 Auf der Suche nach dem Mittelweg 2.3.10 Abgrenzung zu den englischen und französischen Vorbildern 2.3.11 Die Konjunktur des 'Deutschen' und ihr Einfluss auf die Gartenkunst 2.4 III. Phase (1780–1800): Positionierung des Deutschen Gartens mit dem Leitmotiv "nützlich und schön" 2.4.1 Hirschfeld und die Idee vom Deutschen Garten als Mittelweg 2.4.2 Schiller und der Deutsche Garten – ein Garten für "Auge, Herz und Verstand" 2.4.3 Der Naturgarten – ein Deutscher Garten 2.4.4 Der Deutsche Garten – ein bürgerlicher Garten bei Sickler 2.4.5 Der "interessierende Garten" – ein Deutscher Garten bei Grohmann 2.4.6 Der Deutsche Garten – ein englisch-deutsches Lustwäldchen bei Christ 2.5 Fazit 3 Der Weg der Ökonomik in die deutsche Gartenkunst 3.1 Vorbilder für das ästhetisch-ökonomische Garten-Konzept 3.2 Landesherrliche Vorbilder der ästhetisch-ökonomischen Aufklärung 3.3 Die Anlage von Obstgärten und Baumschulen als Mittel zur Landesverbesserung 3.3.1 Ökonomische Aufklärung und ihr Stellenwert für den deutschen Gartenstil 3.3.2 Das sächsische Rétablissement und seine Auswirkungen auf eine ökonomische Gartengestaltung 3.3.3 Baumschulen und Fruchtbaumfelder als Merkmal nützlich-schöner Gartenkunst in Theorie und Praxis 3.3.4 Gestaltungskonventionen beim Anlegen einer Baumschule im Landschaftsgarten 3.3.5 Ökonomisch-ästhetische Gartenkunst 3.4 Fazit 4 Patriotik als Gestaltungsmittel im Deutschen Garten 4.1 Theoretische Grundlagen zum Garten als Freiheitssymbol 4.2 Die Freiheit der Germanen als Grundlage patriotischer Gartengestaltung 4.2.1 Der Friedrichsgrund ein "Hermannsthal"? 4.2.2 Hermann – ein Held für jedermann 4.2.3 Die Hermannseiche im Seifersdorfer Tal 4.3 Formen patriotischer Gartengestaltung 4.3.1 Patriotische Erinnerungs- und Ehrendenkmäler im Deutschen Garten 4.3.2 Der Deutsche Garten als Ausgangspunkt bürgerlicher Denkmalskultur 4.3.3 Bauliche Überreste – die Gotik als Nationalsymbol 4.4 Fazit 5 Naturverehrung als Gestaltungsmittel 5.1 Ästhetische Naturbetrachtung als Gestaltungsgrundlage 5.2 Auswirkung des Ästhetikdiskurses auf die Gartenkunst 5.3 Die Freiheit des Menschen als Resultat ästhetischer Naturerfahrung 5.4 Naturtranszendierung am Beispiel der nützlich-schönen Gartenanlage des Johann Gottlob Quandt in Dittersbach 5.5 Naturverehrung und Naturtranszendenz als Ausdrucksmittel 5.6 Fazit Teil B 6 Am Anfang war Altdöbern – erste Tendenzen eines deutschen Gartenstils 6.1 Schloss- und Parkanlage in Altdöbern – eine Materialsammlung 6.2 Carl Heinrich von Heineken als Gelehrter 6.3 Der Landschaftsgarten Altdöbern vor der Ära Heineken 6.4 Carl Heinrich von Heineken und der Landschaftsgarten Altdöbern 6.4.1 Erste Phase der Heineken'schen Umgestaltung – der Francke-Plan 6.4.2 Zweite Phase der Umgestaltung unter Heineken – der Sparing-Plan 6.4.3 Heinekens Rückzug auf sein Landgut nach Altdöbern 6.5 Fazit 7 Der Röhrsdorfer Grund – ein frühes Beispiel nützlich-schöner Gartenkunst 7.1 Der Röhrsdorfer Grund – eine Materialsammlung 7.2 Ökonomische Elemente im Röhrsdorfer Schlossgarten 7.3 Anreicherung des Röhrsdorfer Grundes mit patriotischen und naturverehrenden Komponenten ab 1771 7.4 Der Röhrsdorfer Grund unter dem Einfluss freimaurerischen Gedankengutes 7.5 Fazit 8 Der Landschaftsgarten zu Machern – ein Garten ganz nach Hirschfelds Geschmack? 8.1 Die frühen Jahre des Carl Heinrich August von Lindenau und seine Verbindungen zum Freimaurertum 8.2 Der Landschaftspark in Machern – eine Materialsammlung 8.3 Gartengestaltung – frühe Phase unter Heinrich Gottlieb von Lindenau 8.4 Ökonomische Parkgestaltung unter Carl Heinrich August von Lindenau 8.5 Patriotische Einflüsse im Landschaftsgarten zu Machern (1790–1797) 8.6 Die Pyramide im Landschaftspark Machern – Synthese aus familiär-adliger Erinnerungskultur und naturverehrenden Elementen 8.7 Die Ritterburg – lebendige Vergegenwärtigung mittelalterlicher Ideale 8.8 Fazit 9 Der Landschaftsgarten in Lützschena – eine späte Form des deutschen Gartenstils 9.1 Maximilian Speck von Sternburg 9.2 Der Landschaftsgarten Lützschena 9.2.1 Die Familie Speck von Sternburg auf Lützschena 9.2.2 Das Mustergut Lützschena 9.3 Die vollendete Verflechtung nützlich-schöner Gartenkunst 9.4 Ökonomik in Lützschena 9.5 Patriotische Elemente im Landschaftsgarten Lützschena 9.6 Naturverehrung im Landschaftsgarten Lützschena 9.7 Et in Lützschena ego 9.8 Fazit 10 Zwischen Garten und Natur – der Einfluss des deutschen Gartenstils auf städtische und stadtnahe Kulturlandschaften 10.1 Die Erschließung der 'schönen Landschaft' 10.2 Die Übertragung des deutschen Gartenstils auf die Kurorte des Dresdner Umlands am Beispiel Tharandts 10.2.1 Die Tharandter Promenaden – Ökonomik, Patriotik und Naturverehrung im 'Naherholungsgebiet' 10.2.2 Ökonomik in den Tharandter Promenaden 10.2.3 Patriotische Einflüsse auf die Gestaltung der Tharandter Promenaden 10.2.4 Naturverehrung in den Tharandter Promenaden 10.3 Der Einfluss des deutschen Gartenstils auf die Gestaltung der Volksgärten am Beispiel des Großen Gartens in Dresden nach 1813 10.3.1 Neukonzeption des Großen Gartens nach den Befreiungskriegen 10.3.2 Umgestaltung des Großen Gartens 10.3.3 Der Große Garten als Vergnügungsort 10.4 Einfluss des deutschen Gartenstils auf private Stadtgärten am Beispiel des Flotow'schen Stadtgartens 10.5 Fazit 11 Zusammenfassende Schlussbetrachtung und Ausblick Quellen und Literaturverzeichnis Ungedruckte Quellen Gedruckte Quellen Literatur Abbildungen Abkürzungsverzeichnis Erklärung zur selbständigen Anfertigung der Dissertation
The present impacts from coastal storms and high tides grow significantly over time due to SLR even over the relatively short period to 2060. Hydrodynamic model simulations of storm surge with and without sea level rise scenarios show that although flooding and inundation increases with increasing subtidal forcing and higher sea level, dissipation of the tide and storm surge in the estuary channel somewhat limits the maximum inundation that might otherwise be expected in the back marsh areas. The estuary is dominated by high marsh, which lies high in the intertidal zone and by 2060 it will convert to mostly low marsh unless it can build very rapidly (greater than 5 mm/year). The marsh supports fisheries and many charismatic birds, some marsh dependent, and provides a culturally significant view-scape across the estuary. The Sea Level Affecting Marsh Model (SLAMM) was used to predict habitat changes due to 0.73 m SLR by 2060 under different accretion rates and levels of protection for developed areas that became intertidal. Although the relative amounts of high marsh and low marsh varied dramatically, the overall marsh area remained within 5% of the current levels and mostly increased if marsh accretion rates exceeded 2 mm/year. Limited areas of intertidal flats supporting shellfish exist in present day, but in the near future culturally important recreational shellfish areas will convert to open water. However, areas that are currently low marsh will drown and may provide future shellfish areas. The open water harbor is important for boating, access to coastal waters and recreational fishing. Currently, the open water area is small, but may double in size by 2060 and the greater tides relative to the marsh elevation will create a different feel for the estuarine landscape in the future because high tides will regularly cover larger areas of the marsh with seawater. Outside of the estuary on the oceanfront, beaches and dunes support tourism and intensive recreational use as well as federally protected nesting shorebirds (piping plover, least tern). Most of the outer beach is exposed to Gulf of Maine waters. Where there are existing floodwalls, rising sea levels will worsen the storm danger and damage to the integrity of the walls. Unless walls are raised, storms will also transport massive amounts of beach sediments over the walls and across the barrier system. Beaches will have less width and steep ramping to the walls will severely decrease the value of the beach for tourism. In areas with dune systems, very little change is predicted for this area because the dynamic equilibria of the dune-beach system will allow the beach to build in elevation as sea level rises and wind-driven dune building will continue. Bedrock outcrops (at Plaice Cove, Great Boars Head and the inlet) help reduce landward erosion. The socio-economic impacts result in more people flooded as sea level rises, particularly of socially vulnerable populations, and more anchor institutions flooded. Residents presently living in the most socially vulnerable census blocks were 8.6 times more likely to be located in the flood zone, compared to those living in blocks with low social vulnerability. Under climate change,census blocks with high percentages of the population living in poverty were 17.7 times more likely to be located in the flood zone. This analysis more likely reflects the winter/spring population than the summer population. The estimated annual expected value damages in the present are approximately $0.90 M. In 2060 with SLR they are $4.8 M. Using a 7 % discount rate, the present expected value of these damages between 2018 and 2060 is approximately $27 M. There are many sources of possible error in this value due to missing data, and not including damages to infrastructure, human mortality and morbidity, lost business (particularly recreation), and other cascading and multiplier events. We also do not include the value of ecosystem services. The adaptation goal focused on protecting the socio-economic systems of the barrier beach areas. Engineering approaches that only use hard structures or grey solutions may weigh the communities down with severe debt, result in long term damage to the environment and degrade the charm and attractiveness of the area to tourists. On the other hand, allowing over-wash and marsh migration everywhere will reduce the number of people and tourists that benefit from the beaches and dunes, shellfish flats, marinas, fishing and marshes. Because marshes of limited area do not significantly decrease storm surge and there is limited wave activity on the western, inland side of the barrier beaches, the marshes may not directly contribute to reducing the flooding on the western side of the barrier beaches. Regional solutions such as building a berm or a floodwall (smaller footprint limits direct marsh losses) to limit land loss will prevent marsh migration. Flood protection berms to protect all residential development bordering the estuary will result in significant marsh loss. Individual site flood management actions such elevating buildings must be employed there. The most expensive adaptations are needed on the coastal side where the beach-dune system has been replaced by an armored shoreline (seawalls) designed for pedestrians and automobiles, but not beach goers. These walls need to be fortified; their expansion opens an opportunity to provide alternate transportation pathways that are safe (bike lane), green space, and a more attractive promenade (increasing ecosystem/cultural services for residents and visitors). The beaches need to be nourished to provide sandy areas at high tide (especially in the northern areas) to better support the tourism industry. The two oceanfront sections without walls or dune systems were especially vulnerable; these could benefit from green adaptation solutions that construct and maintain sacrificial dunes at relatively low cost. Residential areas landward of existing dune fields were deemed the best protected and only required low cost adaptation decisions (e.g., building sand barriers at beach access cuts and maintaining dune health). Heavily used roads that cross marshes on causeways will need to be raised. Although more expensive, roadways elevated above the marsh surface will reduce impacts from direct filling and provide better tidal exchange. Thus throughout the HSE, there are limited reasonable green options for coastal flood management here. The present value adaptation costs in 2018 including capital and maintenance costs discounted at 7 % is approximately $149 M. This adaptation cost is more than the previously estimated damage avoided cost or benefit of $27 M. Because, as noted earlier, this benefit estimate is significantly underestimated due to data and methodological limitations, we cannot really state this project is not cost-effective; it actually may be cost effective. A lower discount rate would also increase it cost-effectiveness. Adaptation would mitigate some of the direct impacts to social vulnerable populations, but in some areas would require towns investing in the protection of their individual residents instead of being part of a possibly less costly regional solution. The adaptation plan could provide important public health benefits through the addition of the green elevated walkway (in place of current parkingspaces) along the floodwall. We met with several local non-governmental (NG) and mixed governmental and NG organizations over the grant lifetime. They generally support our findings. One possible troubling possibility is that 75% of respondents of one relatively small, but representative, sample agreed that convincing residents to support flood protection measures that may benefit home-owners in the flood zone, at the perceived 'expense' of those residents who do not live in the flood zone, is a significant challenge to municipal adaptation planning and emergency preparedness. In response to the statement, "Residents generally would be receptive to implementing the green/gray strategies presented", 43% disagreed, 14% were neutral, and 43% agreed. As described above, the marshes themselves are not major contributors to present and future flood protection in the area. They are, of course, valuable for other reasons. Examples include habitat, runoff treatment, recreation, tourism, and carbon storage. An estimate of the annual values of these services in HSE are approximately $370 M under present and future SLR conditions. Thus, their preservation should be a priority.
An unambiguous assessment of the results of changes in the post-communist political regime of Ukraine is hardly possible. The political system of this country has experienced both periods of democratic expectations & democratic setbacks during the last fifteen years. For example, in 1990-1994, before the first competitive parliamentary elections, there was a clear fragmentation among the old (communist) political elite in Ukraine; the country's first democratic constitution was adopted in 1996. However, after Leonid Kuchma was elected President in 1994, authoritarian tendencies gradually recrudesced, "oligarchic" clans took hold of the country's political system, & the elections were increasingly blatantly manipulated & rigged to the advantage of the ruling elite. This cycle of political development recurred ten years later. Manipulations of the results of the 2004 presidential election raised a massive protest among the inhabitants of Ukraine, which was symbolically dubbed the "Orange Revolution." A new influx of democratic expectations forced the ruling elite to concede to re-running the second round of Ukraine's presidential election, which was won by the opposition. However, the political crisis which struck the new government in September 2005 & the mutual accusations of corruption raised by the former "revolutionary" comrades-in-arms -- President Viktor Yushchenko & former Prime Minister Yuliya Tymoshenko -- raised new questions regarding the vitality of the democratic processes in Ukraine. The main question examined in this article is therefore whether the vacillation of Ukraine's political regime is not a regular, permanent condition. Having two main aims -- (1) to construct a theory of Ukraine's post-soviet political transformation, & (2) to disclose the possibilities of democracy consolidation in this country -- the article starts with making some "corrections" to the transitologist approach to regime change. Firstly, it is argued that political transformation theories should have a shared concept of democracy, irrespective of the number or type of the stages of democratization distinguished. The experience of post-communist countries shows that formal procedural democratic criteria are insufficient in order to characterize a political system as democratic. Secondly, traditional theories of regime change focus mostly on the analysis of the behavior of the main political actors (the political elite) & their decisions (agreements). The structural conditions (eg., the characteristics of socio-economic development) should be also included into theoretical thinking about regime change. Thirdly, the analysis of elites & their agreements is sufficiently developed to explain how & when the transition to democracy occurs. However, the democratic consolidation stage has remained somewhat mystified by 'transitologists.' The article argues that an assumption should probably be made that the behavior of political elite factions competing in the political system is always rational & self-interested, ie., democracy (or any other form of political regime) becomes "the only game in town" only if & when it is mostly advantageous for the political elite functioning in that system. Taking into account the above mentioned "corrections" to the transitologist approach, in the article, there is produced a model for analyzing post-soviet regime transformations. The model consists of three main explanatory variables: (1) the structure of political elite, (2) the 'rules of game' prevalent in the system, & (3) the strategies of political elite aiming at gaining business and/or mass support. Consequently, various interrelations of these variables may produce four possible ideal-type outcomes of regime change -- (1) democracy, (2) 'democracy with adjectives,' (3) zero-sum game (a very unstable option when political regime may be temporarily democratic but is at a huge risk of downfall), (4) authoritarianism. In post-soviet countries, it is not enough to examine the structure of political elite & the institutions in order to predict the consolidation of one or another form of political regime. 'Building politicians' "alliances" with business & (or) mobilizing mass support may negate any such predictions & produce additional (regressive, in terms of democratization) impulses to further regime change. The very possibilities of the political elite to form "alliances" with business & (or) to mobilize the masses are mostly determined by the structural characteristics of the country. Thus, the analysis of the latter may not also be omitted in examining post-soviet transitions. Political regime in Ukraine, which beginning of 1990s started evolving as a probable liberal democracy or at least 'democracy with adjectives,' after 1998 Verkhovna Rada elections moved to the situation of the zero-sum game. Such transition was conditioned by two factors. First, the changes within political elite structure -- the communist camp, which occupied an important, although not the most important place in the pluralist political elite structure in 1994-1998, became an anti-systemic political force after the adoption of the 1996 Constitution. For these reasons, only two opposing elite factions (oligarchs-"centrists" vs. national democrats) remained in the political system of Ukraine after the 1998 elections, the ideological confrontation of which was constantly increasing & became particularly acute at the outset of the "Orange Revolution" in 2004. Second, the fact that the business class in Ukraine was forming with the "assistance" of politicians allowed the political elite to build an alliance with business community already in 1994-1996 & maintain these tight clientelist relations even after the privatization period was over. When at the end of 2004 the national democrats gathered mass support & became virtually equal or even more influential than the so-called "centrists," who traditionally draw support from business structures, the zero-sum game in Ukraine became especially acute. Such it remains by now, even after the Orange revolution is over. In more than ten years of independence the business community of Ukraine has consolidated its positions in the Verkhovna Rada & accumulated control over almost all national TV channels & other media outlets, as well as separate industrial regions. Therefore even anti-oligarchically disposed government cannot ignore this power. The ruling elite that cares about its survival & political success is forced to co-ordinate its decisions with the interests of various business clans. On the other hand, since Ukraine's business class consists of several competing clans, any government decisions that seek to limit the political influence of business groups immediately affect the interests of competing business clans. The government cannot remain neutral in principal. Any attempts of the supposed "deoligarchisation" will only result in provoking sharper disagreements between business groups because the curtailment of the positions of one clan will open new prospects for the strengthening of the influence of its competitors. It may be argued that for these reasons there will always be at least one (and, most likely, the strongest one) oligarchic political camp supported by an "alliance" with business. In other words, Ukraine's political regime does not have any chance to be consolidated in the liberal democracy perspective. Another structural characteristic of Ukraine is the politically unorganized working class. At least several competing political forces claim to represent the workers' interests -- the Communist Party of Ukraine, the Socialist Party of Ukraine, & the Progressive Socialist Party of Ukraine. The internal competition among the left-wing forces encourages at least one of them (the Communist Party of Ukraine, the Progressive Socialist Party) to take a radical, anti-systemic position in order that potential supporters may distinguish it from other leftist parties. Therefore, it is likely that the political system of Ukraine will preserve a left-wing segment that will not wield much power but will propagate an anti-systemic ideology without "communicating" with other political forces. Due to its anti-systemic nature it will not be able to participate in the government of the state & the votes of the left-wing voters (comprising the basis for mass support) will probably be collected by the national democrats. This circumstance enables predicting that the zero-sum game will remain very intensive in Ukraine in the future as well. Thus, the permanent instability of the state & both -- democracy & authoritarianism -- in Ukraine (a zero-sum game) may actually be considered to be its consolidated political regime form. Adapted from the source document.