Resource dependence and measurement technology: international and domestic influences on energy sector development in Armenia and Georgia
In: Central Asian survey, Band 33, Heft 4, S. 482-499
ISSN: 0263-4937
309 Ergebnisse
Sortierung:
In: Central Asian survey, Band 33, Heft 4, S. 482-499
ISSN: 0263-4937
World Affairs Online
Allein durch die zunehmende Nutzung erneuerbarer Energien werden nationale und internationale Klimaziele und energiepolitische Ziele nicht umsetzbar sein. Für eine Realisierung der Energiewende ist auch das Definieren und Umsetzen von energieeffizienten Maßnahmen unumgänglich. Daher werden im Rahmen dieser Arbeit Ansätze entwickelt, die eine energetische Bewertung komplexer industrieller Prozesse ermöglichen. Durch das Anwenden des Physikalischen Optimums (PhO), das ein auf den physikalischen Gesetzen basierender Referenzwert ist, wird eine gezielte Optimierung der Prozesse hin zu besagtem Grenzwert möglich. Zur Weiterentwicklung der methodischen Anwendung des PhOs definiert die Arbeit zunächst energietechnische Begriffe für dessen Anwendung, um einen einheitlichen Sprachgebrauch und vor allem eine einheitliche Anwendung der Methode zu gewährleisten. Durch das Einführen der bilanziellen Methode wird erstmals ein systematisches Vorgehen zur Definition des PhOs geschaffen, das auf energetischen Bilanzen basiert. Dies ermöglicht eine einheitliche, nachvollziehbare, objektive und reproduzierbare Definition von physikalisch begründeten Grenzwerten. Die bilanzielle Methode baut auf der Unterscheidung zwischen vermeidbaren und unvermeidbaren Verlusten auf und wird im Rahmen der Arbeit wiederholt angewendet und verifiziert. Durch eine Unterscheidung zwischen vermeidbaren und unvermeidbaren Verlusten können indirekte PhO-Faktoren bestimmt werden. Sie ermöglichen eine gezielte Prozessoptimierung, da in ihnen die optimierbaren Prozessverluste definiert sind. Zur Bewertung komplexer Prozesse ist zuerst der nötige Detailgrad festzulegen. Die Arbeit schlägt ein Vorgehen vor, das für eine Effizienzbewertung relevante Subprozesse identifiziert. Die einzelnen Subprozesse können mit Hilfe der bilanziellen Methode gekoppelt werden, um einen Gesamt-PhO-Faktor des Prozesses zu ermitteln. Dieser kann sowohl auf Planungs- als auch auf Bestandsprozesse angewendet werden. Zur Bewertung unterschiedlicher Prozessphasen wird ein systematisches Vorgehen zur Definition entsprechender Kennzahlen vorgeschlagen. Eine Anwendung der bilanziellen Methode bei unzureichender Messtechnik kann anhand eines Bottom-Up-Vorgehens ermöglicht werden. Da durch das Eingliedern erneuerbarer Energiequellen eine zeitliche und räumliche Diskrepanz zwischen Energiebereitstellung und Energienutzung entstehen kann, gewinnt der Einsatz energetischer Speicher zunehmend an Bedeutung. Auf Basis der bilanziellen Methode wird ein Vorgehen entwickelt, mit dem verschiedene Speichertechnologien hinsichtlich ihrer Effizienz bewertet werden können. Das Vorgehen wird anhand eines Druckluftspeichers, eines Kondensators und eines thermischen Speichers validiert. Da anhand der Exergie die Qualität einer Energie bewertet werden kann und sie die maximale Arbeitsfähigkeit beschreibt, ist eine Abgrenzung vom PhO zur Exergie erforderlich. Im Rahmen dieser Arbeit wird daher anhand verschiedener technischer Prozesse eine Einordnung bzw. Abgrenzung vom PhO zur energetischen und exergetischen Prozessbewertung durchgeführt. Stichpunkte: Prozess, Bewertung, Effizienz, Energie, Exergie, Grenzwert, Physikalisches Optimum, Optimierung ; Solely by increasing the use of renewable energies, national and international climate and energy political targets cannot be achieved. Defining and implementing energy-efficient measures is essential to realize the energy transition. Within the scope of this work, approaches are developed to evaluate the energy efficiency of complex industrial processes. By applying the Physical Optimum (PhO), which is a reference value based on the laws of physics, a targeted optimization of processes towards said limit value becomes possible. To further develop the methodological application of the PhO, the thesis initially defines energy-related terms for the application of the PhO. Thus a uniform use of language and, above all, a uniform application of the method is ensured. The balancing method is introduced for the first time. It is a systematic approach which defines the PhO based on energy balances and therefore enables a uniform, comprehensible, objective and reproducible definition of limiting values. The balancing method builds on the distinction between avoidable and unavoidable losses and is constantly applied and verified within the scope of this work. By distinguishing between avoidable and unavoidable losses, indirect PhO-factors can be determined. They allow a targeted process optimization since the process losses that can be optimized are defined by them. To evaluate complex processes, the necessary level of detail must be determined at first. This work proposes an approach that identifies sub-processes relevant for an efficiency evaluation. The individual subprocesses can be combined using the balancing method to determine an overall PhO-factor for the process. This can be applied to both planned and existing processes. In order to evaluate different process phases, a systematic method is proposed for defining appropriate performance indicators. An application of the balancing method in case of insufficient measurement technologies can be realized by means of a bottom-up approach. Since the integration of renewable energy sources can lead to a temporal and geographical discrepancy between energy supply and energy use, the use of energy storage systems is becoming increasingly important. Based on the balancing method, a method is developed to evaluate different storage technologies regarding their efficiency. The procedure is validated based on a compressed-air energy storage unit, a capacitor and a thermal energy storage unit. Since exergy can be used to evaluate the quality of energy and describes the maximum working capability, it is necessary to distinguish between PhO and exergy. In the context of this work, a classification respectively a differentiation from PhO to energetic and exergetic process evaluation is carried out based on different technical processes. Keywords: process, evaluation, efficiency, energy, exergy, limit value, Physical Optimum, optimization
BASE
Das Eigentum am Grund und Boden wird im Grundbuch und im Liegenschaftskataster nachgewiesen und dokumentiert. Die aufgrund der historischen Entstehung und Entwicklung inhomogenen Nachweise des Liegenschaftskatasters sind stetig verbessert worden. Die zur Lösung dieses Grundproblems des Liegenschaftskatasters ergriffenen Optimierungsmaßnahmen konzentrierten sich in Nordrhein-Westfalen bislang vor allem auf die technische Erhebung der Geobasisdaten des Liegenschaftskatasters (einheitlicher geodätischer Raumbezug, SAPOS ® , Koordinatenkataster) und auf die Führung der Geobasisdaten des Liegenschaftskatasters (Digitalisierung von Liegenschaftsbuch und Liegenschaftskarte, ALKIS ® ), während hingegen die rechtliche Erhebung in Form der Feststellung und Abmarkung von Grundstücksgrenzen bisher nicht Gegenstand von eingehenden Optimierungsmaßnahmen war. Die Arbeit nimmt daher eine bisher fehlende Gesamtanalyse des nordrhein-westfälischen Grenzfeststellungs- und Abmarkungsverfahrens aus Sicht der Gesetzgebung, der Rechtsprechung und der Fachliteratur vor. Die Untersuchung aus Sicht der Gesetzgebung stellt die rechtsgeschichtliche Verfahrensentwicklung im Gebiet des heutigen Landes Nordrhein-Westfalen (Rheinprovinz, Westfalen, Lippe) chronologisch ab 1815 dar. Es folgt eine systematische Auswertung der zur Grenzfeststellung ergangenen Rechtsprechung und eine chronologische Darstellung der zur Grenzfeststellung veröffentlichten – geodätischen und juristischen – Fachliteratur. Zudem wird das nordrhein-westfälische Verfahren mit den Regelungen der übrigen Bundesländer verglichen. Im Ergebnis ist festzuhalten, dass die Feststellung und Abmarkung von Grundstücksgrenzen sich im Wesentlichen noch an den Grundsätzen orientiert, wie sie schon zu Beginn des 20. Jahrhunderts kodifiziert waren (Anerkennung, Beurkundung, Grenztermin, Abmarkung). Daraus ergeben sich Problemfelder, die sich vor allem in der Anerkennung als verfahrensbestimmender Voraussetzung, in der Urkundenredundanz und in fehlenden Möglichkeiten zur Flurstücksbestimmung ohne Liegenschaftsvermessung äußern. Das bestehende Verfahren wird daher in der Art weiterentwickelt, dass die vorhandenen Problemfelder beseitigt und die bestehenden Optimierungsansätze (Koordinatenkataster) ausreichend Berücksichtigung finden. Es wird nachgewiesen, dass auf die verfahrensbestimmenden Anerkennungserklärungen weitestgehend verzichtet werden kann. Auf den Grundsätzen der Nichtförmlichkeit und der Katastermäßigkeit wird ein Verfahrensmodell vorgeschlagen, das aus den Komponenten Grenzfeststellung, Grenzfestlegung( svertrag) und/oder Abmarkung besteht. Die Abmarkung wird als optionales, antragsbezogenes Verfahren ausgestaltet. Unter bestimmten Voraussetzungen erlaubt das Modell auch eine Flurstücksbestimmung ohne Liegenschaftsvermessung, wie sie vor allem in Neubaugebieten sinnvoll zum Einsatz kommen kann. Neben der rechtlichen Ausgestaltung des Modells sind weitere Anpassungen in der Dokumentation und der Festlegung der größten zulässigen Abweichungen bei Grenzuntersuchungen erforderlich. Die bestehende Urkundenredundanz wird durch die Einführung eines Liegenschaftsrisses beseitigt. Die größten zulässigen Abweichungen bei Grenzuntersuchungen werden teilweise neu abgeleitet und damit Unzulänglichkeiten in den derzeitigen Grenzwerten behoben. Insbesondere werden erstmals Grenzwerte für geometrische Bedingungen (Geradlinigkeit, Rechtwinkligkeit) unter Berücksichtigung der damaligen Messtechnik formuliert. Abschließend werden rechtliche, zeitliche und wirtschaftliche Auswirkungen des Modells aufgezeigt. ; The recognition and determination of boundaries : A contribution to the development of real estate cadastre in the state North Rhine-Westphalia in past, present and future The ownership of real estate is demonstrated and documented in real estate register and real estate cadastre. The inhomogeneous documentation of cadastral surveying based on historical development has been steadily improved. The optimization measures taken to solve this problem of real estate cadastre concentrated in North Rhine-Westphalia until now primarily on the technical cadastral surveying (uniform coordinate system, SAPOS ® , cadastre of coordinates) and the keeping of the cadastre (digitizing of real state register and cadastral plan, ALKIS ® ) while on the other hand the legal cadastral surveying in form of the administrative method of boundary determination and marking was not subject of optimization measures. The thesis takes a till now missing analysis of the North Rhine-Westphalian administrative method of boundary determination and marking from the view of legislation, jurisdiction and bibliography. The investigation of the legislation view describes the historical development of the administrative methods in the territory of the today's state North Rhine-Westphalia (Rhine Province, Westphalia, Lippe) since 1815. A systematic evaluation of the jurisdiction and a chronological presentation of the – geodetic and legal – bibliography follows. The North Rhine-Westphalian administrative method of boundary determination and marking is also compared with those of the other states of Germany. As a result the administration method of boundary determination and marking still based on the principles as they existed since the beginning of the 20th century (recognition, certification, date of marking, marking). This results in problems which manifest themselves in the absolutely necessary recognition of the result of delimitation of boundaries, the redundancy of documents and the missing opportunities of subdivision of a parcel without cadastral surveying. Therefore the existing administration method is developed in a way that existing problems will be eliminated and the present optimization measures of real estate cadastre (cadastre of coordinates) will sufficiently be considered. The possibility of dispensation with the until now absolutely necessary recognition of boundaries has been proven. A procedure consisting of the components determination of boundaries, boundary recognition agreement and/or marking is proposed on the principles of non-formality and cadastre. The marking is designed as an optional, application-related process. Under certain conditions the model allowed a subdivision of parcels without cadastral surveying, especially for using in new building areas. In addition to the legal formation of the model further adjustments are necessary to the documentation and the determining of maximum permissible deviations. The existing redundancy of documentation is eliminated by the introduction of a cadastral field sheet. The maximum permissible deviations are partly derived new; the imperfections of the today's limits are corrected. Especially limits for geometric conditions (straightness, orthogonality) are formulated with consideration of the historical measurement technology for the first time. Legal, temporal and economic effects of the model will be demonstrated finally.
BASE
Das Eigentum am Grund und Boden wird im Grundbuch und im Liegenschaftskataster nachgewiesen und dokumentiert. Die aufgrund der historischen Entstehung und Entwicklung inhomogenen Nachweise des Liegenschaftskatasters sind stetig verbessert worden. Die zur Lösung dieses Grundproblems des Liegenschaftskatasters ergriffenen Optimierungsmaßnahmen konzentrierten sich in Nordrhein-Westfalen bislang vor allem auf die technische Erhebung der Geobasisdaten des Liegenschaftskatasters (einheitlicher geodätischer Raumbezug, SAPOS®, Koordinatenkataster) und auf die Führung der Geobasisdaten des Liegenschaftskatasters (Digitalisierung von Liegenschaftsbuch und Liegenschaftskarte, ALKIS®), während hingegen die rechtliche Erhebung in Form der Feststellung und Abmarkung von Grundstücksgrenzen bisher nicht Gegenstand von eingehenden Optimierungsmaßnahmen war. Die Arbeit nimmt daher eine bisher fehlende Gesamtanalyse des nordrhein-westfälischen Grenzfeststellungs- und Abmarkungsverfahrens aus Sicht der Gesetzgebung, der Rechtsprechung und der Fachliteratur vor. Die Untersuchung aus Sicht der Gesetzgebung stellt die rechtsgeschichtliche Verfahrensentwicklung im Gebiet des heutigen Landes Nordrhein-Westfalen (Rheinprovinz, Westfalen, Lippe) chronologisch ab 1815 dar. Es folgt eine systematische Auswertung der zur Grenzfeststellung ergangenen Rechtsprechung und eine chronologische Darstellung der zur Grenzfeststellung veröffentlichten – geodätischen und juristischen – Fachliteratur. Zudem wird das nordrhein-westfälische Verfahren mit den Regelungen der übrigen Bundesländer verglichen. m Ergebnis ist festzuhalten, dass die Feststellung und Abmarkung von Grundstücksgrenzen sich im Wesentlichen noch an den Grundsätzen orientiert, wie sie schon zu Beginn des 20. Jahrhunderts kodifiziert waren (Anerkennung, Beurkundung, Grenztermin, Abmarkung). Daraus ergeben sich Problemfelder, die sich vor allem in der Anerkennung als verfahrensbestimmender Voraussetzung, in der Urkundenredundanz und in fehlenden Möglichkeiten zur Flurstücksbestimmung ohne Liegenschaftsvermessung äußern. Das bestehende Verfahren wird daher in der Art weiterentwickelt, dass die vorhandenen Problemfelder beseitigt und die bestehenden Optimierungsansätze (Koordinatenkataster) ausreichend Berücksichtigung finden Es wird nachgewiesen, dass auf die verfahrensbestimmenden Anerkennungserklärungen weitestgehend verzichtet werden kann. Auf den Grundsätzen der Nichtförmlichkeit und der Katastermäßigkeit wird ein Verfahrensmodell vorgeschlagen, das aus den Komponenten Grenzfeststellung, Grenzfestlegung( svertrag) und/oder Abmarkung besteht. Die Abmarkung wird als optionales, antragsbezogenes Verfahren ausgestaltet. Unter bestimmten Voraussetzungen erlaubt das Modell auch eine Flurstücksbestimmung ohne Liegenschaftsvermessung, wie sie vor allem in Neubaugebieten sinnvoll zum Einsatz kommen kann. Neben der rechtlichen Ausgestaltung des Modells sind weitere Anpassungen in der Dokumentation und der Festlegung der größten zulässigen Abweichungen bei Grenzuntersuchungen erforderlich. Die bestehende Urkundenredundanz wird durch die Einführung eines Liegenschaftsrisses beseitigt. Die größten zulässigen Abweichungen bei Grenzuntersuchungen werden teilweise neu abgeleitet und damit Unzulänglichkeiten in den derzeitigen Grenzwerten behoben. Insbesondere werden erstmals Grenzwerte für geometrische Bedingungen (Geradlinigkeit, Rechtwinkligkeit) unter Berücksichtigung der damaligen Messtechnik formuliert. Abschließend werden rechtliche, zeitliche und wirtschaftliche Auswirkungen des Modells aufgezeigt. ; The recognition and determination of boundaries : A contribution to the development of real estate cadastre in the state North Rhine-Westphalia in past, present and future The ownership of real estate is demonstrated and documented in real estate register and real estate cadastre. The inhomogeneous documentation of cadastral surveying based on historical development has been steadily improved. The optimization measures taken to solve this problem of real estate cadastre concentrated in North Rhine-Westphalia until now primarily on the technical cadastral surveying (uniform coordinate system, SAPOS ® , cadastre of coordinates) and the keeping of the cadastre (digitizing of real state register and cadastral plan, ALKIS ® ) while on the other hand the legal cadastral surveying in form of the administrative method of boundary determination and marking was not subject of optimization measures. The thesis takes a till now missing analysis of the North Rhine-Westphalian administrative method of boundary determination and marking from the view of legislation, jurisdiction and bibliography. The investigation of the legislation view describes the historical development of the administrative methods in the territory of the today's state North Rhine-Westphalia (Rhine Province, Westphalia, Lippe) since 1815. A systematic evaluation of the jurisdiction and a chronological presentation of the – geodetic and legal – bibliography follows. The North Rhine-Westphalian administrative method of boundary determination and marking is also compared with those of the other states of Germany. As a result the administration method of boundary determination and marking still based on the principles as they existed since the beginning of the 20th century (recognition, certification, date of marking, marking). This results in problems which manifest themselves in the absolutely necessary recognition of the result of delimitation of boundaries, the redundancy of documents and the missing opportunities of subdivision of a parcel without cadastral surveying. Therefore the existing administration method is developed in a way that existing problems will be eliminated and the present optimization measures of real estate cadastre (cadastre of coordinates) will sufficiently be considered. The possibility of dispensation with the until now absolutely necessary recognition of boundaries has been proven. A procedure consisting of the components determination of boundaries, boundary recognition agreement and/or marking is proposed on the principles of non-formality and cadastre. The marking is designed as an optional, application-related process. Under certain conditions the model allowed a subdivision of parcels without cadastral surveying, especially for using in new building areas. In addition to the legal formation of the model further adjustments are necessary to the documentation and the determining of maximum permissible deviations. The existing redundancy of documentation is eliminated by the introduction of a cadastral field sheet. The maximum permissible deviations are partly derived new; the imperfections of the today's limits are corrected. Especially limits for geometric conditions (straightness, orthogonality) are formulated with consideration of the historical measurement technology for the first time. Legal, temporal and economic effects of the model will be demonstrated finally.
BASE
Historisch wird die Arbeit von zwei Daten her begrenzt, von den ersten hör-physiologischen Experimenten seit 1850, und von den massenwirksamen akustischen Inszenierungen der 1930er Jahre in "real auditory perspective". Die Arbeit beginnt in Kapitel I mit dem tragischen Fall des Regisseurs und langjährigen Psychiatrie-Patienten Antonin Artaud, der die Sprache zugunsten von Lauten, Gebärden und Schreien verlässt. Seine Experimente zum Theater geben zu einer ersten Korrektur von Bildlichkeit Anlass. In Kapitel II wird der Vorrang der Bildlichkeit grundsätzlich in Frage gestellt, die Differenz von Bild und Klang wissenschaftshistorisch auseinandergesetzt, und ein "acoustic turn" zur Welt vorbereitet. Die Untersuchungen des Physiologen und Akustikers Hermann von Helmholtz sind hier maßgeblich, denn sie beeinflussen die Technische Akustik von ihren Anfängen her. Das Kapitel III schließlich untersucht im transatlantischen Vergleich die technischen Bedingungen nach 1900. Die Beschallungsanlage hat nun die Fähigkeit, alltäglich in den Dienst genommen zu werden, und auch politischen Manipulationen diensthaft zu sein. ; Historically the work is framed by two dates, by the physiological experiments of hearing and the mise en scène of a massed and sonic attack in so called "real auditory perspective" of the 1930s. The first chapter starts with the tragedic and long living psychiatric case Antonin Artaud, who moves away from clarity of sounds to phones, gestures and crying. Such experiments give cause for a fundamental rethinking of meaning in the sense of picture, and leads to the second chapter which argues in more detail for the lap of our sonic understanding of the world. This way speeds up to an "acoutic turn" by a retour to the biological grounds of sonic perception. The physiological and acoustic inquiries of Hermann von Helmholtz fit here to the ground for him being starting point of what will later be called "technische Akustik". The third chapter bridges Europe´s early Telefunken-years with the United States and their chief acousticians at the legendary Bell Laboratories, and seeks finally for light in scientific amnesia against progress and control, or what the germans call "Betriebsamkeit" and "Gestell." (Heidegger)
BASE
Begründet durch aktuelle meist umweltbedingte politische Vorschriften besteht die Notwendigkeit, die zurzeit etablierten Kältemittel (FKWs, z. B. R134a) in Kompressionswärmepumpen und -kälteanlagen zeitnah durch alternative Substanzen, vor allem mit geringerem Treibhauspotenzial, zu ersetzen. Neben Verbindungen der Fluorolefinwasserstoffe zeigen besonders die natürlichen Kältemittel diesbezüglich ein hohes Potenzial. Auch vorangetrieben durch diese Problematik haben ebenfalls zeotrope Gemische wieder an Aktualität gewonnen, wobei die Grundüberlegungen hierzu bereits lange bekannt sind. Aus thermodynamischer Sicht führt die gezielte Nutzung des Temperaturgleits zeotroper Gemische zu verringerten Exergieverlusten, vor allem in den Wärmeübertragern, und somit zu einer Steigerung der Anlageneffizienz. Entsprechend diesen theoretischen Überlegungen ist dann ein zeotropes Gemisch, bei adäquater Auswahl, stets signifikant effizienter als ein Reinstoff; der Vorteil beispielsweise für Isobutan/Propen beträgt bis zu 25,7 %. Dieser deutliche Vorteil ist in Experimenten zumeist nicht zu beobachten, was bereits einige vorangegangene Studien gezeigt haben. Grundsätzlich werden durch den Einsatz eines zeotropen Gemisches neben den Wärmeübertragern auch alle weiteren Anlagenkomponenten z. T. maßgeblich beeinflusst, wobei deren verändertes Prozessverhalten in Abhängigkeit vom Gemisch nach aktuellem Stand der Forschung bislang nicht vollständig verstanden ist. Hier setzt die vorliegende Arbeit an und verfolgt das Ziel, allgemeine sowie grundlegende physikalische Effekte zeotroper Gemische und deren Wirkung auf einzelne Komponenten sowie den Gesamtprozess zu analysieren. Konkret werden im Rahmen dieser Arbeit vornehmlich natürliche Kältemittel aus der Stoffgruppe der Kohlenwasserstoffe, nämlich Isobutan (R600a), Propan (R290) und Propen (R1270), betrachtet. Diese Fluide sind zum einen als Reinstoffe vielversprechend, um die bisherigen FKWs zu ersetzen, sind aber auch als binäre zeotrope Fluidgemische interessant. Im betrachteten Temperaturbereich existiert hier eine Vielzahl potenzieller Mischungen mit großer Variationsbreite der Stoffeigenschaften, woraus das Potenzial resultiert, auch allgemeingültige Erkenntnisse, gelöst von den konkreten Stoffen, zu gewinnen. Vergleichend werden auch die Reinstoffe DME, R152a und R134a untersucht, nicht jedoch in Gemischen. Die experimentellen Untersuchungen der Reinstoffe und der zeotropen Gemische Isobutan/Propen, Isobutan/Propen, Isobutan/Pentan und n-Butan/Propen erfolgen in einer Wasser/Wasser-Kompressionswärmepumpe, welche eigens für das vorliegende Forschungsvorhaben konzipiert, aufgebaut und in Betrieb genommen wurde. Der betrachtete Temperaturbereich orientiert sich an dem Anwendungsfall der Speisung einer Fußbodenheizung. Durch die Ausstattung mit umfassender Messtechnik können nicht nur gängige Prozess- und Bewertungsgrößen gemessen werden, sondern vor allem kann auch der gesamte Prozess im Detail analysiert werden, insbesondere einzelne Zustände, Temperaturverläufe in den Wärmeübertragern, Verdichterwirkungsgrade, Exergieverluste etc. Grundsätzlich werden sämtliche Gemische, insofern dies möglich ist, über dem gesamten Zusammensetzungsbereich betrachtet. Neben dem Einfluss des Fluids bzw. Fluidgemisches werden auch typische Eingriffs- und Regelmöglichkeiten solcher Anlagen systematisch variiert, wie z. B. die Verdampfungs- und Kondensationstemperaturen oder die Verdichterdrehzahl, wobei die äußeren Randbedingungen soweit wie möglich konstant gehalten werden. Generell zeigen die hier erzielten Ergebnisse, dass zwischen Mischungen und Reinstoffen ein vergleichbares Anlagenverhalten festzustellen ist. Aus der Analyse der Reinstoffe geht zunächst hervor, dass entsprechend den deutlichen Unterschieden in den thermodynamischen Stoffeigenschaften der verschiedenen Verbindungen auch deutliche Unterschiede im Anlagenverhalten zu finden sind. Hinsichtlich der Leistungszahl, volumetrischen Heizleistung sowie tatsächlich gemessene Heizleistung sind die Fluide Propan und Propen besonders vielversprechend. Weiterhin zeigt diese Analyse bereits auf, dass die fluidspezifische Verdichtereffizienz maßgebend für eine hohe Leistungszahl ist, wobei der jeweilige globale Verdichterwirkungsgrad z. T. auf das spezifische Volumen am Verdichtereintritt sowie das resultierende Druckverhältnis zurückzuführen ist. Bezüglich der Gemische konnte im Vergleich zum effizienteren Reinstoff maximal eine Verbesserung der Leistungszahl um 13 % beobachtet werden, wobei in manchen Gemischsystemen die Leistungszahl im Vergleich zum besseren Reinstoff sogar deutlich abnimmt. Die experimentell beobachteten nur relativ geringen Verbesserungen der Leistungszahlen gegenüber den thermodynamischen Grundüberlegungen sind begründet in der Gemischabhängigkeit der Verdichterwirkungsgrade und Druckverluste in den Wärmeübertragern; dies wird in bisherigen Untersuchungen zumeist nicht berücksichtigt. Die energetischen sowie auch exergetischen Analysen zeigen deutlich, dass die Verluste in den Wärmeübertragern nur zu einem kleinen Teil zu den Gesamtverlusten beitragen und dass die Effizienz der Gesamtanlage durch die Effizienz des Verdichters dominiert wird. Als übergreifendes Ergebnis folgt hieraus, dass selbst bei bestmöglicher Ausnutzung des Temperaturgleits das Potenzial zeotroper Gemische zur Erhöhung der Leistungszahl limitiert ist und nur zum Tragen kommt, wenn die Mischung nicht zu einer stark verringerten Verdichtereffizienz führt. ; Based on the actual political and environmental regulations, there is a great need to replace the currently established refrigerants (HFCs, e. g. R134a) in vapour compression heat pumps and refrigeration systems with alternative substances with lower global warming potentials in a timely manner. Besides hydrofluoroolefins, particularly natural refrigerants have a high propensity to replace HFCs in the near future. Due to the environmental problems of current refrigerants and regulations forcing the phase-out of these refrigerants there is renewed interest in zeotropic mixtures. Although the basic considerations in favour of them have been known for a long time, from a thermodynamic point of view, the temperature glide of zeotropic mixtures leads to a reduced exergy loss in the heat exchangers, and hence to an increase in the coefficient of performance (COP). According to these theoretical considerations, a zeotropic mixture should always be more efficient than a pure fluid. Particularly, when the mixture is adequately selected, it leads to a significant improvement of the COP, up to 25.7% in the case of the mixture Isobutane/Propene. However, such significant improvements are not observed in experiments as shown in some previous studies. Zeotropic mixtures do not only influence the heat exchangers but also all other system components. The mixture dependencies of the different components are not well understood in the literature and are seldom addressed. Thus, the present thesis analyses zeotropic mixture dependencies of individual components as well as their impact on the entire process. This work focuses on experimental investigation of the hydrocarbons isobutane (R600a), propane (R290)) and propene (R1270) as refrigerants. While natural fluids are promising alternatives as pure substances to replace the previously used HFCs, they are also interesting components for designing binary zeotropic mixtures. In the investigated temperature range, the fluid properties can be varied widely by systematically varying the mixture composition. These mixtures are used to gain some general insight in the fluid-cycle interaction, independent of the specific pure fluids. Also, for comparison reasons the pure fluids DME, R152a, and R134a are investigated. The experimental investigations of pure fluids and zeotropic mixtures isobutane/propane, isobutane/propene, isobutane/pentane, and n-butane/propene are carried out in a water/water vapour compression heat pump which was specially designed, built, and commissioned for this work. The considered temperature range is comparable to feeding an underfloor heating system. In order to measure not only the common process and evaluation variables but also analyse the entire process in detail (individual states, temperature profiles in the heat exchangers, compressor efficiencies, exergy losses, etc.), the setup is equipped with comprehensive measurement equipment. A broad composition range is investigated. In addition to the influence of the fluid or zeotropic mixture, the usual operating and control possibilities of such plants, like the evaporation and condensation temperatures or compressor speed, are also varied systematically, whereas the external boundary conditions are kept constant as far as possible. In general, mixtures and pure substances behave similarly in heat pumps. Already from the analysis of pure fluids significant differences in plant performance characteristics are found, which are caused by the significant differences in the thermodynamic properties of the various investigated fluids. With respect to the COP the fluids propane and propene are particularly promising. Furthermore, this analysis already shows that the fluid-specific compressor efficiency is decisive for a high COP, whereas the respective global compressor efficiency depends partially on the specific volume at the compressor inlet as well as on the resulting pressure ratio. While the usage of some zeotropic mixtures in comparison with the better performing pure fluids improved the COP by up to 13%, a significant decrease in the COP was observed with other zeotropic mixtures. Compared to the basic thermodynamic considerations, the experimentally observed small improvements in COPs are a result of the composition dependence of the compressor efficiency and pressure losses in the heat exchangers, which counteract the heat exchanger improvements; both aspects are commonly neglected in theoretical investigations. The energetic and exergetic analyses show clearly that the losses in the heat exchangers only account for a small proportion of the total losses and that the efficiency of the overall system is mainly dominated by the compressor efficiency (global compressor efficiency). Summarizing, even with the best possible use of the temperature glide, the potential of zeotropic mixtures to increase efficiency is severely limited and can only be exploited if compressor efficiency is not negatively affected by the composition variation at the same time.
BASE
Ziel dieser Arbeit ist es, eine Methode zu beschreiben, mit deren Hilfe die in einem Untersu-chungsgebiet freigesetzten Emissionen von Luftverunreinigungen durch Messungen in der Außenluft bestimmt werden können. Mit Hilfe von Vertikal- und Horizontalprofilmessungen konnten die Konzentrationsverteilungen im Luv und Lee von Emissionsquellen bestimmt werden. Die Messergebnisse wurden verwendet, um aus den Konzentrationsdifferenzen zu-sammen mit Messergebnissen von meteorologischen Parametern die Massenströme der be-trachteten Luftverunreinigungen zu berechnen und eine Massenbilanz für ein Untersuchungs-gebiet aufzustellen. Auf diese Weise konnten die in den Untersuchungsgebieten freigesetzten Emissionen messtechnisch bestimmt und gleichzeitig durchgeführte Emissionsmodellrech-nungen validiert werden. Die Validierung ist wichtig, da Emissionsmodellierungen in der Luftreinhaltung immer häufiger eingesetzt werden. Einerseits gehen die modellierten Emissi-onen als Eingangsdaten in die immer häufiger verwendeten Ausbreitungsmodellierungen ein, andererseits werden sie auch für Emissionsminderungsszenarien verwendet. Aufgrund der sehr weitreichenden politischen und finanziellen Folgen der Verwendung dieser Emissionsda-ten, ist eine Überprüfung der Richtigkeit der berechneten Emissionen unumgänglich. In dieser Arbeit wurden die Ergebnisse von zwei Experimenten zur Beschreibung der Bilan-zierungsmethode herangezogen. Im ersten Projekt wurde erstmals die Bilanzierung aller frei-gesetzten Luftverunreinigungen einer ganzen Stadt durchgeführt. Es wurden über mehrere Monate Konzentrationsmessungen in und um Augsburg vorgenommen. Die vertikale und ho-rizontale Verteilung der Luftverunreinigungen und der meteorologischen Parameter wurden im Luv und Lee der Stadt mit Hilfe von drei Fesselballonmesssystemen, einem ferngesteuer-ten Luftschiff, zwei Messflugzeugen und weiterer Messtechnik bestimmt. Für den gleichen Zeitraum wurde ein zeitlich, räumlich und stofflich hochaufgelöstes Emissionskataster für die Stadt erstellt. Anschließend wurden die gemessenen und bilanzierten Emissionen mit den mo-dellierten Emissionen verglichen und somit das Emissionsmodell validiert. Die Fesselballon- und Luftschiffmessungen wurden vom IFK bzw. mit Unterstützung des IFK durchgeführt. Die großen Vorteile von Fesselballon- und Luftschiffmessungen haben sich auch bei diesem Experiment bewährt. Allerdings hat sich im Projekt EVA auch herausgestellt, dass eine Stadt wie Augsburg mit ihren ca. 255.000 Einwohnern eine horizontal sehr ausgedehnte Abgasfahne besitzt, die es gilt messtechnisch möglichst komplett zu erfassen. Für eine Stadt dieser Größe reichten die Fesselballon- und Luftschiffmessungen alleine nicht aus, um die ca. 9 km breite Abgasfahne in ausreichender Messdichte zu erfassen. Die Kombination dieser beiden Messsysteme mit Flugzeugmessungen hat sich jedoch zur Erfassung der gesamten Abluftfahne sehr gut bewährt. Der Vergleich der messtechnisch bestimmten mit den model-lierten NOx-Emissionen ergab für die meisten Daten, die sich für eine Auswertung eigneten, eine Übereinstimmung, wenn auch die modellierten Emissionen stets über den auf Messungen beruhenden lagen. Allerdings waren die Unsicherheiten, die sowohl bei den Messungen als auch bei den Berechnungsmethoden und den Emissionsmodellierungen anzusetzen waren, teilweise hoch. Im zweiten Projekt fanden intensive Messungen und Untersuchungen an einer Autobahn statt. Der Vergleich der über die Vertikalprofilmessungen bestimmten NOx-Emissionsfaktoren mit den NOx-Emissionsfaktoren, die über das Emissionsmodell bestimmt wurden, ergab deutliche Abweichungen. Besonders für den Schwerverkehr (HDV) lagen die gemessenen Emissions-faktoren zwischen 20 und fast 100 % über den modellierten Emissionsfaktoren, die auf dem Handbuch für Emissionsfaktoren (HBEFA Version 1.2) basierten. Aufgrund dieser Erkennt-nisse wurden die Emissionsfaktoren für den Schwerverkehr (HDV) angepasst und liegen nun in der aktuellen Version 2.1 entsprechend höher. Der Vergleich der VOC-Emissionsfaktoren ergab sehr gute Übereinstimmung für die Komponenten BTX – Benzol, Toluol, Xylole - da für diese Komponenten den Emissionsmodellen genügend Messdaten zugrunde liegen. Für weitere VOC-Komponenten traten teilweise sehr große Abweichungen zwischen den gemes-senen und den modellierten Emissionsfaktoren auf, wobei die gemessenen Emissionsfaktoren grundsätzlich höher ausfielen als die modellierten. Die Abweichungen lagen für manche Komponenten im Bereich von Faktor sechs bis 20! Der Grund ist in der dünnen Datenlage für die für die Emissionsmodellierung zur Verfügung stehenden VOC-Emissionsfaktoren zu su-chen. Alle Partikel-Emissionsfaktoren, die im Projekt BAB II bestimmt wurden, lagen in der gleichen Größenordnung wie die zum Vergleich verfügbaren Literaturwerte. Für die aktive Partikeloberfläche lagen die im Projekt BAB II ermittelten Werte etwas über den Literatur-werten, für alle anderen berechneten und verglichenen Partikelparameter lagen die im Projekt BAB II ermittelten Emissionsfaktoren innerhalb der maximalen und minimalen Vergleichs-werte. Der Vergleich der Emissionsfaktoren von Rußpartikeln ergab eine sehr gute Übereinstimmung sowohl im direkten Vergleich der Messergebnisse mit den Ergebnissen der Emissions-modellierung im Projekt BAB II als auch im Vergleich mit Literaturwerten. ; The purpose of my thesis is to describe a method which allows for the determination of pol-lutant emissions within a particular area under investigation through ambient air measure-ments. The concentration distributions of sources of emission on the windward and lee side were defined through vertical and horizontal profile measurements. On the basis of the con-centration differences from these results and in combination with meteorological parameters, mass flows of the examined air pollutants were calculated and a mass balance was established. This is how the emissions within the area under investigation could be determined meteorologically and model calculations of the emissions, conducted simultaneously, were validated. This validation is important as emission models are used more and more frequently in the field of air pollution control. On the one hand, modelled emissions are included as input data into the more and more common dispersion models and on the other hand, they are needed for emission reduction scenarios. As the political and financial consequences of using these emission data are significant, it is inevitable to verify the accuracy of the calculated emissions. This thesis uses the results of two experiments to describe the balancing method. In the first project, the balancing of all emitted air pollutants was conducted for the first time for a whole city. Concentration measurements had been carried out for several months in and around Augsburg. The vertical and horizontal distribution of air pollutants and of meteorological pa-rameters was determined on the city's windward and lee side by means of three tethered bal-loon measurement systems, a remote controlled airship, two aircrafts and further measurement equipment. For the same time period, an emission inventory was established for the city in a high temporal, spatial and substantial resolution. The measured and balanced emissions were then compared with the modelled results, and thus validated the emission model. The tethered balloon and airship measurements were carried out or supported by the IFK. The big advantages of conducting measurements with a tethered balloon or an airship have shown themselves in this experiment as well. What the EVA project has also shown, however, is that a city like Augsburg with a population of about 255,000 has a horizontally very broad exhaust gas plume, which is to be measured as completely as possible. For such a big city, tethered balloon and airship measurements were not enough to gather sufficient measurements for the determination of an exhaust gas plume of 9 km. What has proven itself for the determination of the complete plume, however, is the combination of these two measurement systems with aircraft measurements. The comparison of measured NOx emissions with modelled ones gave equal results for most data which were suitable for an analysis, although the modelled values were constantly higher than the measured ones. But the instabilities for both the measurements and the calculation methods and emission models have partially been significant. In the second project, extensive measurements and analyses were carried out along a motor-way. The comparison of the NOx emission factors determined through vertical profile meas-urements with the NOx emission factors determined through an emission model revealed sig-nificant deviations. The deviations for heavy traffic were particularly important, with the measured emission factors being 20 % to almost 100 % higher than the modelled emission factors based on the Manual for Emission Factors (Handbuch für Emissionsfaktoren, HBEFA, Version 1.2). Following these results, the emission factors for heavy traffic have been read-justed upwards in the current version (2.1). The comparison of the VOC emission factors gave a very high consistency for the BTX components - benzene, toluene and xylene - as sufficient measurement data have been available for the emission models there. Other VOC components partly showed significant deviations between the measured and the modelled emission factors, with the measured factors lying principally higher than the modelled ones. The deviations for some components were six to 20 times higher! The reason for this is the fact that the data for the VOC emission factors available for the emission models have not been sufficient. All particle emission factors, which were determined in the BAB II project, were about the same scale as the reference values. The values for the active particle surface, determined in the BAB II project, were slightly higher than the reference values. For all other calculated and compared particle parameters, the emission factors determined in the BAB II project stayed within the maximum and minimum reference values. The comparison of the emission factors of soot particles gave a very high consistency both in the direct comparison of the measurements with the results from the emission models of the BAB II project and in their comparison with reference values.
BASE
The paper evaluates the quality of the German national accounting data (GDP and its use-side components) as measured by the magnitude and dispersion of the forecast/ revision errors. It is demonstrated that government consumption series are the least reliable, whereas real GDP and real private consumption data are the most reliable. In addition, early forecasts of GDP, private consumption, and investment growth rates are shown to be systematically upward biased. Finally, early forecasts of all the variables seem to be no more accurate than na¨ıve forecasts based on the historical mean of the final data.
BASE
Precipitation is a crucial driver for many environmental processes and exhibits a high spatiotemporal variability. The traditional, widely-used point-scale measurements by rain gauges are not able to detect the spatial rainfall distribution in a comprehensive way. Throughout the last decades, weather radars have emerged as a new measurement technique that is capable of providing areal precipitation information with high spatial and temporal resolution and put precipitation monitoring on a new level. However, radar is an indirect remote sensing technique. Rain rates and distributions are inferred from measured reflectivities, which are subject to a series of potential error sources. In the last years, several operational national radar data archives exceeded a time series length of ten years and several new radar climatology datasets have been derived, which provide largely consistent, well-documented radar quantitative precipitation estimate (QPE) products and open up new climatological application fields for radar data. However, beside uncertainties regarding data quality and precipitation quantification, several technical barriers exist that can prevent potential users from working with radar data. Challenges include for instance different proprietary data formats, the processing of large data volumes and a scarcity of easy-to-use and free-of-charge software, additional effort for data quality evaluation and difficulties concerning data georeferencing. This thesis provides a contribution to improve the usability of radar-based QPE products, to raise awareness on their potentials and uncertainties and to bridge the gap between the radar community and other scientific disciplines which are still rather reluctant to use these highly resolved data. First, a GIS-compatible Python package was developed to facilitate weather radar data processing. The package uses an efficient workflow based on widely used tools and data structures to automate raw data processing and data clipping for the operational German radar-based and gauge-adjusted QPE called RADOLAN ("RADar OnLine Aneichung") and the reanalysed radar climatology dataset named RADKLIM. Moreover, the package provides functions for temporal aggregation, heavy rainfall detection and data exchange with ArcGIS. The Python package was published as an Open Source Software called radproc. It was used as a basis for all subsequent analyses conducted in this study and has already been applied successfully by several scientific working groups and students conducting heavy rainfall analysis and data aggregation tasks. Second, this study explored the development, uncertainties and potentials of the hourly RADOLAN and RADKLIM QPE products in comparison to ground-truth rain gauge data. Results revealed that both QPE products tend to underestimate total precipitation sums and particularly high intensity rainfall. However, the analyses also showed significant improvements throughout the RADOLAN time series as well as major advances through the climatologic reanalysis regarding the correction of typical radar artefacts, orographic and winter precipitation and range-dependent attenuation. The applicability of the evaluation results was underpinned by the publication of a rainfall inter-comparison geodataset for the RADOLAN, RADKLIM and rain gauge datasets. The intercomparison dataset is a collection of precipitation statistics and several parameters that can potentially influence radar data quality. It allows for a straightforward comparison and analysis of the different precipitation datasets and can support a user's decision on which dataset is best suited for the given application and study area. The data processing workflow for the derivation of the intercomparison dataset is described in detail and can serve as a guideline for individual data processing tasks and as a case study for the application of the radproc library. Finally, in a case study on radar composite data application for rainfall erosivity estimation, RADKLIM data with a 5-minute temporal resolution were used alongside rain gauge data to compare different erosivity estimation methods used in erosion control practice. The aim was to assess the impacts of methodology, climate change and input data resolution, quality and spatial extent on the R-factor of the Universal Soil Loss Equation (USLE). Moreover, correction factors proposed in other studies were tested with regard to their ability to compensate for different temporal resolutions of rainfall input data and the underestimation of precipitation by radar data. The results clearly showed that R-factors have increased significantly due to climate change and that current R-factor maps need to be updated by using more recent and spatially distributed rainfall data. The radar climatology data showed a high potential to improve rainfall erosivity estimations, but also a certain bias in the spatial distribution of the R-factor due to the rather short time series and a few radar artefacts. The application of correction factors to compensate for the underestimation of the radar led to an improvement of the results, but a possible overcorrection could not be excluded, which indicated a need for further research on data correction approaches. This thesis concludes with a discussion of the role of open source software, open data and of the implementation of the FAIR (Findable, Accessible, Interoperable, Re-usable) principles for the German radar QPE products in order to improve data usability. Finally, practical recommendations on how to approach the assessment of QPE quality in a specific study area are provided and potential future research developments are pointed out. ; Niederschlag ist ein wesentlicher Antrieb vieler Umweltprozesse und weist eine hohe räumliche und zeitliche Variabilität auf. Die traditionellen, weit verbreiteten punktuellen Messungen mit Ombrometern sind nicht in der Lage, die räumliche Niederschlagsverteilung flächendeckend zu erfassen. Im Laufe der letzten Jahrzehnte hat sich mit dem Wetterradar eine neue Messtechnik etabliert, die in der Lage ist, flächenhafte Niederschlagsinformationen mit hoher räumlicher und zeitlicher Auflösung zu erfassen und die Niederschlagsüberwachung auf ein neues Niveau zu heben. Radar ist jedoch eine indirekte Fernerkundungstechnik. Niederschlagsraten und -verteilungen werden aus gemessenen Reflektivitäten abgeleitet, die einer Reihe von potenziellen Fehlerquellen unterliegen. In den letzten Jahren überschritten mehrere nationale Radardatenarchive eine Zeitreihenlänge von zehn Jahren. Es wurden mehrere neue Radarklimatologie-Datensätze abgeleitet, die weitgehend konsistente, gut dokumentierte Radarprodukte zur quantitativen Niederschlagsschätzung liefern und neue klimatologische Anwendungsfelder für Radardaten eröffnen. Neben Unsicherheiten bezüglich der Datenqualität und der Niederschlagsquantifizierung gibt es jedoch eine Vielzahl technischer Barrieren, die potenzielle Nutzer von der Verwendung der Radardaten abhalten können. Zu den Herausforderungen gehören beispielsweise unterschiedliche proprietäre Datenformate, die Verarbeitung großer Datenmengen, ein Mangel an einfach zu bedienender und kostenloser Software, zusätzlicher Aufwand für die Bewertung der Datenqualität und Schwierigkeiten bei der Georeferenzierung der Daten. Diese Dissertation liefert einen Beitrag zur Verbesserung der Nutzbarkeit radarbasierter quantitativer Niederschlagsschätzungen, zur Sensibilisierung für deren Potenziale und Unsicherheiten und zur Überbrückung der Kluft zwischen der Radar-Community und anderen wissenschaftlichen Disziplinen, die der Nutzung der Daten immer noch eher zögerlich gegenüberstehen. Zunächst wurde eine GIS-kompatible Python-Bibliothek entwickelt, um die Verarbeitung von Wetterradardaten zu erleichtern. Die Bibliothek verwendet einen effizienten Workflow, der auf weit verbreiteten Werkzeugen und Datenstrukturen basiert, um die Rohdatenverarbeitung und das Zuschneiden der Daten zu automatisieren. Alle Routinen wurden für die operationellen deutschen RADOLAN-Kompositprodukte ("RADar OnLine Aneichung") und den reanalysierten Radarklimatologie-Datensatz (RADKLIM) umgesetzt. Darüber hinaus bietet das Paket Funktionen für die zeitliche Datenaggregation, die Identifikation und Zählung von Starkregen sowie den Datenaustausch mit ArcGIS. Das Python-Paket wurde als Open-Source-Software namens radproc veröffentlicht. Radproc bildet die methodische Grundlage für alle nachfolgenden Analysen dieser Studie und wurde zudem bereits erfolgreich von mehreren wissenschaftlichen Arbeitsgruppen und Studenten zur Analyse von Starkregen und zeitlichen Aggregierung von Radardaten eingesetzt. Des Weiteren wurden in dieser Arbeit die Entwicklung, Unsicherheiten und Potentiale der stündlichen RADOLAN- und RADKLIM-Kompositprodukte im Vergleich zu Ombrometerdaten analysiert. Die Ergebnisse haben gezeigt, dass beide Radarprodukte die Gesamtniederschlagssummen und inbesondere Niederschläge hoher Intensität tendenziell unterschätzen. Die Analysen zeigten jedoch auch signifikante Verbesserungen im Verlauf der RADOLAN-Zeitreihe sowie deutliche Qualitätsverbesserungen durch die klimatologische Reanalyse, insbesondere im Hinblick auf die Korrektur typischer Radarartefakte, orographischer und winterlicher Niederschläge sowie der entfernungsabhängigen Abschwächung des Radarsignals. Die Anwendbarkeit der Auswertungsergebnisse wurde durch die Veröffentlichung eines Geodatensatzes zum Niederschlagsvergleich für die RADOLAN-, RADKLIM- und Ombrometer-Datensätze untermauert. Der Vergleichsdatensatz ist eine Sammlung von Niederschlagsstatistiken sowie verschiedener Parameter, die die Qualität der Radardaten potenziell beeinflussen können. Er ermöglicht einen einfachen Vergleich und eine Analyse der verschiedenen Niederschlagsdatensätze und kann die Entscheidung von Anwendern unterstützen, welcher Niederschlagsdatensatz für die jeweilige Anwendung und das jeweilige Untersuchungsgebiet am besten geeignet ist. Der Workflow für die Ableitung des Vergleichsdatensatzes wurde ausführlich beschrieben und kann als Leitfaden für individuelle Datenverarbeitungsaufgaben und als Fallstudie für die Anwendung der radproc-Bibliothek dienen. Darüber hinaus wurde eine Fallstudie zur Anwendung von Radar-Komposits für die Abschätzung der Erosivität des Niederschlags durchgeführt. Dazu wurden RADKLIM-Daten und Ombrometerdaten mit einer zeitlichen Auflösung von 5 Minuten verwendet, um verschiedene Methoden zur Abschätzung der Niederschlagserosivität zu vergleichen, die in der Erosionsschutzpraxis Anwendung finden. Ziel war es, die Auswirkungen der Methodik und des Klimawandels sowie der Auflösung, Qualität und der räumlichen Ausdehnung der Eingabedaten auf den R-Faktor der Allgemeinen Bodenabtragsgleichung zu bewerten. Darüber hinaus wurden von anderen Studien vorgeschlagene Korrekturfaktoren im Hinblick auf ihre Fähigkeit getestet, unterschiedliche zeitliche Auflösungen von Niederschlagsdaten und die Unterschätzung des Niederschlags durch Radardaten zu kompensieren. Die Ergebnisse haben deutlich gezeigt, dass die R-Faktoren aufgrund des Klimawandels erheblich zugenommen haben und dass die aktuellen R-Faktor-Karten unter Verwendung neuerer, flächendeckender und räumlich höher aufgelöster Niederschlagsdaten aktualisiert werden müssen. Die Radarklimatologiedaten zeigten ein hohes Potenzial zur Verbesserung der Abschätzung der Niederschlagserosivität, aber aufgrund der vergleichsweise kurzen Zeitreihe und einiger Radarartefakte auch gewisse Unsicherheiten in der räumlichen Verteilung des R-Faktors. Die Anwendung von Korrekturfaktoren zur Kompensation der Unterschätzung des Radars führte zu einer Verbesserung der Ergebnisse, allerdings konnte eine mögliche Überkorrektur nicht ausgeschlossen werden, wodurch weiterer Forschungsbedarf bezüglich der Datenkorrektur aufgezeigt wurde. Diese Arbeit schließt mit einer Diskussion der Rolle von Open-Source-Software, frei verfügbarer Daten und der Umsetzung der FAIR-Prinzipien (Findable, Accessible, Interoperable, Re-usable) für die deutschen Radar-Produkte zur Verbesserung der Nutzbarkeit von Radarniederschlagsdaten. Abschließend werden praktische Empfehlungen zur Vorgehensweise bei der Bewertung der Qualität radarbasierter quantitativer Niederschlagsschätzungen in einem bestimmten Untersuchungsgebiet gegeben und mögliche zukünftige Forschungsentwicklungen aufgezeigt.
BASE