Iterationsverfahren für die Hammerstein'sche Gleichung -- Zur Existenz Verallgemeinerter Lösungen Nichtlinearer Anfangswertaufgaben -- Approximative Kompaktheit Verallgemeinerter Rationaler Funktionen -- Einige Bemerkungen zum Verallgemeinerten Kolmogoroffschen Kriterium -- Optimierungen Mittels Matrixalgorithmischer Methoden (MAM) -- Funktionalanalytische Beziehungen bei Verallgemeinerungen des Vialzentrum-Problems -- Ein Modifiziertes Newtonsches Verfahren -- Über ein Eindeutigkeitskriterium bei der Tschebyscheff-Approximation mit Regulären Funktionensystemen -- Beste approximation mit Potenzen Verallgemeinerter Bernsteinoperatoren -- Charakterisierung und Konstruktion Einer Besten Approximation in einer Konvexen Teilmenge eines Normierten Raumes -- Über die Erweiterungen der Verfahren von Grammel und Galerkin und deren Zusammenhang -- Functional Analysis for Computers -- Zur Frage Optimaler Fehlerschranken bei Differenzenverfahren -- Beste Approximation von Elementen eines Nuklearen Raumes -- Der Existenzsatz für das Tschebyscheffsche Approximations-Problem mit Exponentialsummen.
Zugriffsoptionen:
Die folgenden Links führen aus den jeweiligen lokalen Bibliotheken zum Volltext:
Main description: Ausgehend von den mehr oder minder offensichtlichen Mängeln der Theorie rationaler Erwartungen und ihrer Verfeinerungen, wie z. B. den ökonomisch rationalen Erwartungen oder dem adaptiven Lernen, stellt Frank Trosky eine Alternative vor: die heterogenen Erwartungen. Diese sind seit den 90er Jahren Diskussionsgegenstand in der Wechselkurstheorie. Durch die Verallgemeinerung eines entsprechenden vermögenspreistheoretischen Wechselkursmodells und seiner Anwendung auf den Geldmarkt leitet er interessante Implikationen für die Geldpolitik ab. Mittels Simulationen des Modells mit verschiedenen Parameterwerten und verschiedenen in das Modell integrierten geldpolitischen Strategien zeigt er, dass chaotische Zinsentwicklungen im Modell möglich sind und unter welchen Voraussetzungen sie auftreten. Auf Basis der Simulationen wird die optimale Geldpolitik im Modellzusammenhang ermittelt. Anschließend prüft Trosky mit Hilfe ökonometrischer und mathematischer Verfahren und an Hand stilisierter Fakten, ob in der Realität chaotische Entwicklungen auf dem Geldmarkt auftreten. Als Ergebnis ist festzuhalten, dass chaotische Entwicklungen im Zinsverlauf nicht auszuschließen sind. Abschließend überträgt er die modelltheoretischen Implikationen soweit möglich auf die Realität und diskutiert die generelle Aussagekraft von Zinsprognosen auf Basis der empirischen Ergebnisse.
Zugriffsoptionen:
Die folgenden Links führen aus den jeweiligen lokalen Bibliotheken zum Volltext:
Ausgehend von den mehr oder minder offensichtlichen Mängeln der Theorie rationaler Erwartungen und ihrer Verfeinerungen, wie z. B. den ökonomisch rationalen Erwartungen oder dem adaptiven Lernen, stellt Frank Trosky eine Alternative vor: die heterogenen Erwartungen. Diese sind seit den 90er Jahren Diskussionsgegenstand in der Wechselkurstheorie. Durch die Verallgemeinerung eines entsprechenden vermögenspreistheoretischen Wechselkursmodells und seiner Anwendung auf den Geldmarkt leitet er interessante Implikationen für die Geldpolitik ab. Mittels Simulationen des Modells mit verschiedenen Parameterwerten und verschiedenen in das Modell integrierten geldpolitischen Strategien zeigt er, dass chaotische Zinsentwicklungen im Modell möglich sind und unter welchen Voraussetzungen sie auftreten. Auf Basis der Simulationen wird die optimale Geldpolitik im Modellzusammenhang ermittelt. Anschließend prüft Trosky mit Hilfe ökonometrischer und mathematischer Verfahren und an Hand stilisierter Fakten, ob in der Realität chaotische Entwicklungen auf dem Geldmarkt auftreten. Als Ergebnis ist festzuhalten, dass chaotische Entwicklungen im Zinsverlauf nicht auszuschließen sind. Abschließend überträgt er die modelltheoretischen Implikationen soweit möglich auf die Realität und diskutiert die generelle Aussagekraft von Zinsprognosen auf Basis der empirischen Ergebnisse.
Zugriffsoptionen:
Die folgenden Links führen aus den jeweiligen lokalen Bibliotheken zum Volltext:
Minimalisierung Durch Anlegung Eines Gravitationsfeldes -- Eine Kombination des Branch-and-Bound-Prinzips und der Dynamischen Optimierung an einem Beispiel aus der Produktionsplanung -- Über die Numerische Lösung Nichtlinearer Optimierungsprobleme bei Vorhandensein Gewisser Invarianzeigenschaften -- Zur Numerischen Behandlung Restringierter Optimierungsaufgaben mit der Courantschen Penalty-Methode -- Linear Decomposition of a Positive Group-Boolean Function -- Rundungsfehler in der Linearen Optimierung -- Über Ein Kontrollproblem in der Wärmeleitung -- On the Type of a Polynomial Relative to a Line — A Special Case -- Ein Optimierungsproblem aus der Kristallographie -- Über die Konvergenzordnung Gewisser Rang-2-Verfahren zur Minimierung von Funktionen -- Ein Direkter Ansatz zur Lösung Verschiedener Kontrollprobleme -- Über Eine Nomographische Methode für Optimierungsaufgaben -- A Problem Associated with the Practical Application of Conjugate Gradient and Variable Metric Methods to an Optimal Control Problem with Bounded Controls -- A Note on the Slater-Condition -- Über die Konvergenz des Davidon-Fletcher-Powell Verfahrens.
Zugriffsoptionen:
Die folgenden Links führen aus den jeweiligen lokalen Bibliotheken zum Volltext:
Die im März 2021 vom Kinderrechte-Ausschuss der UN verabschiedete '25. Allgemeine Bemerkung zu den Rechten von Kindern im digitalen Umfeld' betont in Art. 2 die Dynamik, die von der Digitalen Transformation ausgeht und Wirkung auf den Alltag von Kindern entfaltet. Künstliche Intelligenz (KI)1 wird hier als eines der charakterisierenden Elemente dieser Entwicklung genannt.2 Was aber kann diese Technologie für ein gutes Aufwachsen von Kindern und Jugendlichen mit digitalen Medien leisten? Stellt sie die Entscheidungen ihrer Algorithmen über die Wünsche und Bedürfnisse der Anwender*innen wie 'HAL9000', der Computer im Film '2001: A Space Odyssey', dessen Zitat wir uns im Titel bedient haben? Ob, wo und gegebenenfalls wie KI zu mehr Sicherheit beitragen und mehr Teilhabe junger Menschen ermöglichen kann, soll im Überblick behandelt werden. 1 Der Begriff der 'Künstlichen Intelligenz' (KI) beschreibt grob eine Vielzahl von technisch-mathematischen Verfahren, die in Form von Softwareanwendungen für Problemlösungen eingesetzt werden, die klassischerweise Menschen vorbehalten waren. Besonders bekannte Einsatzgebiete von KI sind Formen maschinellen Lernens, Sprachverarbeitung (Natural Language Processing) und neuere Formen des sogenannten Deep Learnings. 2 www.ohchr.org/EN/HRBodies/CRC/Pages/
Den Abschluss einer Verfahrensvalidierung zur Bestimmung von Gefahrstoffen in der Luft an Arbeitsplätzen bildet die Berechnung der erweiterten Messunsicherheit des Messverfahrens, die gleichzeitig final überprüft, ob das Verfahren nach DIN EN 482 und der Technischen Regel für Gefahrstoffe (TRGS) 402 geeignet ist. Um die Messunsicherheit überhaupt berechnen zu können, müssen im Vorfeld alle relevanten Einflussfaktoren auf den Messwert erfasst werden. Diese umfassen Faktoren aus der Probenahme, der Verfahrensvalidierung und der Analytik. Im zweiten Teil dieses Artikels (Gefahrstoffe – Reinhaltung der Luft 83, Nr. 5-6/2023) wurden bereits alle Einflussfaktoren aus externen Quellen (z. B. Normen) mit ihren Standardabweichungen beschrieben. In diesem dritten Teil wird die Liste der Einflüsse um die Faktoren aus der Validierung ergänzt, das heißt um die Berechnung der Standardabweichungen von Kalibrierung und Wiederfindung sowie der Drift des Messgeräts. Zu allen Einflüssen werden die zugehörigen Sensitivitätskoeffizienten berechnet. Mit allen Termen wird Schritt für Schritt ein verfahrensspezifisches, mathematisches Modell zur Berechnung der kombinierten Standardabweichung und der erweiterten Messunsicherheit aufgebaut. Zum Schluss wird eine Möglichkeit aufgezeigt, wie diese mathematischen Modelle einfach und mit wenig Aufwand mithilfe der kostenlosen Softwareanwendung "Messunsicherheitsservice-Tool" (MUST) berechnet werden können, die kostenlos von der Internetseite des Instituts für Arbeitsschutz der Deutschen Gesetzlichen Unfallversicherung (IFA) bezogen werden kann. Anhand eines Beispiels – eines Messverfahrens mit Extraktionsschritt – wird gezeigt, welche Faktoren die größten Anteile an der Messunsicherheit haben. Dies kann unter anderem einen wichtigen Beitrag zum besseren Verständnis des Messverfahrens und zur Verbesserung einzelner Prozessschritte leisten.
Autonome Waffensysteme bzw. Waffensysteme mit autonomen Funktionen - sogenannte Lethal Autonomous Weapon Systems (LAWS) - sind Waffen, die keine menschliche Intervention für die Auswahl und Bekämpfung des Ziels benötigen. Ermöglicht wird dies durch neuere Entwicklungen bei Sensortechnik, Rechenleistung und Softwarefähigkeiten. Besonders relevant sind hierbei mathematische Verfahren, die häufig unter dem Begriff "künstliche Intelligenz" zusammengefasst werden. Anja Dahlmann und Marcel Dickow beleuchten die Debatte um die Regulierung von LAWS auf internationaler, europäischer und nationaler Ebene und leiten daraus Handlungsempfehlungen für Bundestag und Bundesregierung ab. Dabei haben sie drei Perspektiven im Blick: die technologisch-operationale, die rechtliche und die ethische. Die Autorin und der Autor argumentieren, dass die Bundesregierung, um ihrem Anspruch auf internationale Ächtung von LAWS gerecht zu werden, zunächst den Begriff "menschliche Kontrolle" ausdifferenzieren sollte, beispielsweise in einem Strategiedokument des Bundesministeriums der Verteidigung. Ziel sollte sein, eine Regulierung von Entwicklung und Einsatz von LAWS zu ermöglichen - und zwar auf internationaler Ebene - und damit das Thema militärische Robotik politisch handhabbar zu machen. Der völkerrechtliche Verhandlungsrahmen zur Regulierung von LAWS ist derzeit die Waffenkonvention der Vereinten Nationen. Ein Gemeinsamer Standpunkt der EU-Mitgliedsstaaten, welcher die menschliche Kontrolle einfordert oder - besser noch - Vorschläge zu deren Ausgestaltung macht, könnte einen entscheidenden Einfluss auf die Verhandlungen haben. (Autorenreferat)
Autonome Waffensysteme bzw. Waffensysteme mit autonomen Funktionen - sogenannte Lethal Autonomous Weapon Systems (LAWS) - sind Waffen, die keine menschliche Intervention für die Auswahl und Bekämpfung des Ziels benötigen. Ermöglicht wird dies durch neuere Entwicklungen bei Sensortechnik, Rechenleistung und Softwarefähigkeiten. Besonders relevant sind hierbei mathematische Verfahren, die häufig unter dem Begriff "künstliche Intelligenz zusammengefasst werden. Anja Dahlmann und Marcel Dickow beleuchten die Debatte um die Regulierung von LAWS auf internationaler, europäischer und nationaler Ebene und leiten daraus Handlungsempfehlungen für Bundestag und Bundesregierung ab. Dabei haben sie drei Perspektiven im Blick: die technologisch-operationale, die rechtliche und die ethische.Die Autorin und der Autor argumentieren, dass die Bundesregierung, um ihrem Anspruch auf internationale Ächtung von LAWS gerecht zu werden, zunächst den Begriff "menschliche Kontrolle" ausdifferenzieren sollte, beispielsweise in einem Strategiedokument des Bundesministeriums der Verteidigung. Ziel sollte sein, eine Regulierung von Entwicklung und Einsatz von LAWS zu ermöglichen - und zwar auf internationaler Ebene - und damit das Thema militärische Robotik politisch handhabbar zu machen.Der völkerrechtliche Verhandlungsrahmen zur Regulierung von LAWS ist derzeit die Waffenkonvention der Vereinten Nationen. Ein Gemeinsamer Standpunkt der EU-Mitgliedsstaaten, welcher die menschliche Kontrolle einfordert oder - besser noch - Vorschläge zu deren Ausgestaltung macht, könnte einen entscheidenden Einfluss auf die Verhandlungen haben.
In dem vorliegenden Buch werden zunächst die Projektfinanzierung und das Experten-Cashflow-Modell definiert und beschrieben. Bevor vergleichend auf existierenden Forschungserkenntnissen eingegangen wird, schließt sich eine theoretische Betrachtung aus der mathematischen Sicht an. Darauf folgt die Definition des Normalcopula-Ansatzes, welcher ausführlich anhand vieler Beispiele erklärt wird. Es wird eine Methode zur Cashflow Analyse entwickelt und umgesetzt, mit der man zwei beliebig verteilte Zufallsvariablen addieren bzw. subtrahieren kann, die miteinander gemäß Spearmans Korrelationskoeffizienten korreliert sind. Anschließend wird ein Projektfinanzierungsrating für das quantitative Modul mittels eines Experten-Cashflow-Modells aufgebaut. Der Copula-Ansatz ist ein aktuelles Forschungsthema in vielen anderen Gebieten, wie z.B. Risikomanagement, Versicherungsmathematik und Modellierung von Aktienkursen. Auf dem Gebiet CF-basierte Ratigverfahren, wie z.B. dem Projektfinanzierungsrating, ist die Copula-Methode zur Cashflow Analyse neu. Verfolgt werden hierbei Umsetzungsmöglichkeiten in einem Experten-Cashflow-Modell. Dieses Buch soll eine Basis dazu legen.Andriy Hvozdetskyy, wurde 1984 in Winnitsa geboren. Sein Studium der Mathematik auf Diplom an der Hochschule Darmstadt schloss der Autorin im Jahre 2010 erfolgreich ab. Bereits während des Studiums sammelte der Autor umfassende praktische Erfahrungen in der Bankbranche, im Bereich Adressrisiko-Controlling, Rating und Kreditbepreisung. Bereits während Studium und Praktikum entwickelte der Autor ein besonderes Interesse an die Ratingsentwicklung. Der Autor arbeitete im Rahmen seines Praktikums ein halbes Jahr in einer Bank, um die Besonderheiten der Methodiken und praktische Anwendung der Mathematik im Betrieb kennen zu lernen. Seine Tätigkeit bei der Bank motivierte ihn, sich der Thematik des vorliegenden Buches zu widmen.
Inhaltsangabe:Einleitung: Was haben so verschiedene Großprojekte wie aufwendige Kinofilme (z.B.'Batman'), neue Waffensysteme (z.B. der Jäger 90) oder große Bauvorhaben (z.B. die Stadien für die Fußball-Weltmeisterschaft in Italien) gemeinsam? Die Gesamtkosten liegen in der Regel um ein Vielfaches über den geplanten Kosten und auch der geplante Zeitpunkt der Fertigstellung wird häufig deutlich überschritten. Muß das so sein? In nun mehr als dreißig Jahren wurden zahlreiche Methoden und Modelle zur Analyse von Projektrisiken entwickelt. Inzwischen existiert eine kaum überschaubare Menge von Publikationen auf diesem Gebiet. Das Ziel der vorliegenden Arbeit ist deshalb die Sichtung des vorhandenen Materials sowie die Klassifikation der entwickelten Verfahren, wobei jeweils charakteristische Modelle vorgestellt und kritisch betrachtet werden sollen. Prinzipiell lassen sich zwei Typen von Risikoanalyse-Verfahren unterscheiden: solche, die zur Unterstützung strategischer Unternehmensentscheidungen dienen, und solche, die taktische Entscheidungen unterstützen. In der vorliegenden Arbeit werden die Risikoanalyse-Verfahren nach ihrem Konzept in Top-down- und In Bottom-up-Verfahren unterschieden. Die Bottom-Up-Verfahren lassen sich noch dahingehend unterscheiden, ob sie sich nach dem Ablaufplan oder dem Strukturplan des Projekts orientieren. Gang der Untersuchung: Die vorliegende Arbeit gliedert sich in drei größere Teile. Im ersten Abschnitt wird das Thema projektorientierte Risikoanalyse eingegrenzt und die Grundlagen sowie das notwendige Begriffsgerüst vorgestellt. Außerdem wird eine Übersicht über die bisher entwickelten Methoden und Verfahren zur Risikoanalyse erstellt und versucht, erkennbare Tendenzen aufzuzeigen. Im zweiten Abschnitt werden die Bottom-up-Verfahren behandelt. In diese Kategorie fallen die meisten der bisher entwickelten Modelle zur Analyse von Projektrisiken. Sie kommen gewöhnlich erst nach der Auftragserteilung zum Einsatz, da sie einen mehr oder weniger tief gegliederten Projektstrukturplan voraussetzen und einen enormen Bedarf an Eingabedaten haben. Ohne allzusehr vorzugreifen läßt sich sagen, daß diese Verfahren in der Praxis so gut wie nicht angewendet werden. Ein Hauptgrund für die mangelnde Akzeptanz ist, daß die Modelle sehr komplex und schwierig sind und die Ergebnisse für den Projektmanager meist schwer nachvollziehbar sind. Die Menge der vorhandenen Literatur auf diesem Gebiet ist dementsprechend sehr hoch, wobei allerdings einige Einschränkungen zu machen sind: - Viele Verfahren bauen auf denselben Grundlagen auf, beispielsweise auf älteren Verfahren wie PERT. - In den letzten Jahren hat sich auf diesem Gebiet nicht mehr viel getan. - Der Schwerpunkt der Forschung und Entwicklung und damit auch der Veröffentlichung liegt eindeutig in den USA, wobei meistens das Verteidigungsministerium der Auftraggeber ist, was sich behindernd auf die Beschaffung von Literatur auswirkt. - Die meisten Veröffentlichungen stammen von den Firmen, von denen die Verfahren entwickelt wurden, so daß keine allzu kritische Betrachtung erwartet werden darf, da die Unternehmen ihre Verfahren schließlich verkaufen wollen. - Vergleichende Übersichten über verschiedene vorhandene Verfahren gibt es praktisch überhaupt nicht. Die vorliegende Arbeit soll versuchen, eine solche Übersicht zu geben und die bisher entwickelten Verfahren mit ihren charakteristischen Merkmalen, Voraussetzungen, ihren Vorteilen und Nachteilen vorstellen. Dabei sollen die für den Projektmanager wichtigen Fragen beantwortet werden, z.B. wann und für weiche Projekte kann ein Verfahren eingesetzt werden, oder weiche Projektziele werden modelliert? Im dritten Abschnitt werden die Top-down-Verfahren behandelt. Diese Verfahren werden hauptsächlich bereits in der Vor-Auftrags-Phase angewendet, d.h. die Projektstruktur muß nicht bis in alle Einzelheiten bekannt sein. Die Verfahren kommen also unter Umständen schon zur Anwendung, bevor eine Entscheidung über die Durchführung eines Projekts gefallen ist. Da diese Verfahren immer größere Bedeutung erlangen, bildet dieser Teil den Schwerpunkt der vorliegenden Arbeit. Leider gibt es zur Zeit noch sehr wenige fertige Top-down-Verfahren und entsprechend wenig brauchbare Literatur, weshalb hauptsächlich Ideen, Konzepte und Hilfsmittel vorgestellt werden. Es ist jedoch damit zu rechnen, daß sich in naher Zukunft auf diesem Gebiet einiges bewegen wird. Inhaltsverzeichnis: Einleitung1 TEIL I: PROJEKTORIENTIERTE RISIKOANALYSE 1.Einleitung5 2.Definitionen6 2.1.Ungewißheit / Unsicherheit6 2.2.Risiko7 3.Risikomanagement9 3.1.Risikoplanung11 3.2.Risikokontrolle12 3.3.Risikoüberwachung12 3.4.Einige 'Grundregeln' des Risikomanagements13 3.5.Vergleich von Risikomanagement und 'normalem' Management14 4.Risikoanalyse17 4.1.Risikoidentifikation20 4.1.1.RES20 4.1.2.Gewinnung von Informationen über die relevanten Risiken22 4.1.3.Kategorisieren der Risiken22 4.2.Risikobewertung25 4.2.1.Einheitliche Bewertungsbasis27 4.2.2.Zuordnung von Informationsquellen und Bewertungsmaßstäben28 4.2.3.Bewertung der Einflüsse durch die beteiligten Personen, Techniken und Verfahren29 4.2.4.Reduzierung der Ungewißheiten30 4.2.5.Methoden zur Expertenbefragung32 4.3.Risikoverarbeitung34 4.3.1.Simulation36 4.3.2.Mathematische Verfahren37 5.Bewertung von Risikoanalyse und Risikomanagement39 5.1.Kosten von Risikoanalyse und Risikomanagement39 5.2.Vorteile von Risikoanalyse und Risikomanagement41 5.3.Was Risikoanalyse und Risikomanagement nicht können42 6.Modelle und Verfahren zur Risikoanalyse45 6.1.Ansätze zur Klassifikation der Modelle und Verfahren47 6.1.1.Scaling-Verfahren und Dekompositions-Verfahren47 6.1.2.Deterministische und Wahrscheinlichkeits-Verfahren48 6.1.3.Optimierungs- und Beschreibungs-Verfahren48 6.1.4.Analytische und Simulations-Verfahren49 6.1.5.Statische und dynamische Verfahren49 6.1.6.Strategische und taktische Verfahren49 6.1.7.Ablauf- und strukturorientierte Verfahren50 6.2.System zur Modell-Klassifizierung50 6.3.Raster zur Modell-Bewertung52 6.3.1.Modell-'Steckbrief'52 6.3.2.Anwendungsspektrum52 6.3.3.Voraussetzungen, Annahmen, Eingabedaten, Ausgabedaten53 6.3.4.Aufwand54 6.3.5.Güte des Verfahrens54 6.3.6.Das Bewertungsraster57 TEIL II: BOTTOM-UP-VERFAHREN ZUR RISIKOANALYSE 1.Einleitung59 2.Strukturplan-orientierte Verfahren61 2.1.Das RAND-Verfahren62 2.2.Das Stochastic Aggregation Model (SAM)64 2.3.Probabilistic Event Analysis (PEA)67 2.4.Die Risk Factor Method (RFM)71 2.5.Das Successive Principle oder Lichtenberg-Verfahren75 2.6.Zusammenfassung81 3.Ablaufplan-orientierte Verfahren zur Analyse von Terminrisiken82 3.1.Die Program Evaluation and Review Technique (PERT)83 3.2.Die Graphical Evaluation and Review Technique (GERT)85 3.3.Das Programm PREDICT 200089 3.4.Die Stochastic Time and Resource Constraints Technique (STARC)91 3.5.Zusammenfassung94 4.Ablaufplan-orientierte Verfahren zur Analyse von Termin- und Kostenrisiken96 4.1.Das Verfahren PERT/COST97 4.2.ARTEMIS Sytem's Probabilistic Analysis of Networks (PAN)100 4.3.Die Risk Information System and Network Evaluation Techniques (RISNET I und II)103 4.4.Zusammenfassung105 5.Ablaufplan-orientierte Verfahren zur Analyse von Termin-, Kosten- und Leistungsrisiken107 5.1.Die Venture Evaluation and Review Technique (VERT)107 5.2.Die Verfahren Total Risk Assessing Cost Estimate (TRACE) und TRACE for Production (TRACE-P)110 5.3.Das Verfahren PROMAP V*113 5.4.Das Risk Assessment and Management Program (RAMP)114 5.5.Das Cost Performance Analysis (CPA) Model117 5.6.Zusammenfassung118 6.Zusammenfassende Bewertung der Bottom-up-Verfahren120 6.1.Übersicht über die vorgestellten Bottom-up-Verfahren122 6.2.Vergleichende Bewertung der Bottom-up-Verfahren123 6.3.Gründe für das Scheitern der Bottom-up-Verfahren126 6.3.1.Präsentation der Verfahren126 6.3.2.Kosten der Verfahren126 6.3.3.Eingabedaten der Verfahren127 6.3.4.Komplexität der Verfahren128 6.3.5.Güte der Verfahren128 6.3.6.Aufwand der Verfahren129 6.3.7.Ausgabedaten der Verfahren129 6.3.8.Psychologische Gründe129 6.3.9.Anwendungszeitpunkt der Verfahren130 6.4.Fazit130 TEIL III: TOP-DOWN-VERFAHREN ZUR RISIKOANALYSE 1.Einleitung132 2.Entscheidungsbaum-Verfahren133 3.Multiobjektive Entscheidungsverfahren136 4.Szenario-Verfahren137 4.1.Die Projektumgebung137 4.2.Die Stakeholder139 4.3.Die Strategic Impact and Assumptions-Identification Method (SIAM) for Project, Program and Policy Planning141 4.3.1.Ausgangsdaten und Ergebnisse des SIAM-Verfahrens142 4.3.2.Die Prozedur des SIAM-Verfahrens143 4.3.3.Bewertung des SIAM-Verfahrens146 4.4.Der Multi-Attribute-Multi-Party (MAMP) Approach148 4.4.1.Die Prozedur des MAMP-Verfahrens149 4.4.2.Bewertung des MAMP-Verfahrens151 5.Das Konzept von Franke153 5.1.Risikoidentifikation und –dokumentation153 5.2.Risikobewertung155 5.3.Risikoverarbeitung und –selektion156 5.4.Bewertung des Konzepts von Franke157 6.Das Konzept von Dobelke161 6.1.Projekt-Vorselektion162 6.2.Projekt-Beurteilung163 6.3.Bewertung des Konzepts von Dobelke164 7.Das Konzept von Schnorrenberg167 7.1.Expertensysteme zur Angebotsentscheidung168 7.2.Expertensysteme zur Risikoanalyse169 7.3.Bewertung des Konzepts von Schnorrenberg171 8.Zusammenfassende Bewertung der Top-down-Verfahren174 8.1.Vergleichende Bewertung der vorgestellten Top-down-Verfahren175 8.2.Fazit und Ausblick178 8.2.1.Verbesserung der Risikoidentifikation179 8.2.2.Methodische Verbesserungen180 8.2.3.Beseitigung der Akzeptanzprobleme181 Literaturverzeichnis182
Cover -- Titel -- Vorwort -- Inhaltsübersicht -- Fall 1 -- Teilbereiche und Grundbegriffedes betrieblichen Rechnungswesens -- Fall 2 -- Begriffsabgrenzung "Aufwand" und "Kosten" -- Fall 3 -- Begriffsabgrenzung "Zweckaufwand" und "Neutraler Aufwand" -- Fall 4 -- Einzel- und Gemeinkosten sowie variable und fixe Kosten -- Fall 5 -- Aufstellung einer Wertetabelle -- Fall 6 -- Formen möglicher Gesamtkostenverläufe -- Fall 7 -- Fixe Kosten: Nutz- und Leerkosten -- Fall 8 -- Kostenrechnungssysteme -- Fall 9 -- Personalkosten -- Fall 10 -- Erfassung von Materialverbrauchsmengen -- Fall 11 -- Erfassung und Bewertung von Materialverbrauchsmengen -- Fall 12 -- Ermittlung der kalkulatorischen Abschreibungen -- Fall 13 -- Kalkulatorische Abschreibung und Nutzungsdauer -- Fall 14 -- Ermittlung der kalkulatorischen Zinsen -- Fall 15 -- Ermittlung des kalkulatorischen Unternehmerlohnes -- Fall 16 -- Ermittlung der kalkulatorischen Miete -- Fall 17 -- Ermittlung des kalkulatorischen Gewährleistungswagnisses -- Fall 18 -- Buchhalterische Erfassung der kalkulatorischen Kosten -- Fall 19 -- Abgrenzungsrechnung -- Fall 20 -- Eigenfertigung oder Fremdbezug -- Fall 21 -- Ermittlung der handels- und steuerrecht-lichen Herstellungskosten der am Bilanzstichtag vorhandenen Bestände an fertigen Erzeugnissen auf der Grundlage eines einstufigen Betriebsabrechnungs-bogens (BAB) -- einführender Fall ohne innerbetriebliche Leistungsverrechnung -- Fall 22 -- Verteilung der primären Gemeinkosten auf die Kostenstellen und Ermittlung der Gemeinkostenzuschlagssätze im ein-stufigen Betriebsabrechnungsbogen (BAB) -- zweiter einführender Fall ohne innerbetriebliche Leistungsverrechnung -- Fall 23 -- Innerbetriebliche Leistungsverrechnung mithilfe des Anbau-,Stufenleiter- und mathematischen Verfahrens -- Fall 24 -- Innerbetriebliche Leistungsverrechnungmithilfe des Kostenartenverfahrens
Zugriffsoptionen:
Die folgenden Links führen aus den jeweiligen lokalen Bibliotheken zum Volltext:
Tagung über Numerische Behandlung von Differentialgleichungen 20. bis 25. Juni 1966 -- Monte-Carlo-Methoden zur Lösung elliptischer Randwertprobleme -- Zur Frage der Verallgemeinerung des Äquivalenzsatzes von P.D. Lax -- Optimierungsprobleme numerischer Methoden -- Ein Charakteristikenverfahren für instationäre Strömungen entlang bewegter Wände -- Stabilitätskriterien in Abhängigkeit von den Normen für die Startwerte -- Neue Lie-Reihen-Methode -- Defekterfassung bei gewöhnlichen und partiellen Differentialgleichungen -- Ein neues Runge-Kutta-ähnliches Verfahren -- Zur Konvergenz des Ritzschen Verfahrens und der Fehlerquadratmethode I -- Einheitliche Herleitung einer umfassenden Klasse von Interpolationsformeln und Anwendung auf die genäherte Integration von gewöhnlichen Differentialgleichungen -- Ein Rekursionsverfahren zur Lösung linearer Differentialgleichungssysteme mit singulären Koeffizientenmatrizen -- Fehlerschranken für die genäherte Lösung von Rand- und Eigenwertaufgaben bei gewöhnlichen Differentialgleichungen durch Differenzenverfahren -- Zur Fehlererfassung bei der numerischen Integration von gewöhnlichen Differentialgleichungssystemen erster Ordnung mit speziellen Zweipunktverfahren -- Stabilitätsbereiche bei Diskretisierungsverfahren für Systeme gewöhnlicher Differentialgleichungen -- Über Konvergenzbereiche von Differenzapproximationen bei quasilinearen hyperbolischen Anfangswertproblemen -- Wärmeleitung in Systemen mit mehreren Komponenten -- Zur numerischen Behandlung der Randwertaufgaben für elliptische Systeme -- Lösungsschranken beim Differenzenverfahren zur Potentialgleichung -- Tagung über Numerische Analysis insbesondere Approximationstheorie vom 13. bis 19. November 1966 -- Zur stetigen Abhängigkeit der Menge der besten Approximierenden eines Elementes in einem normierten reellen Vektorraum -- Rationale Tschebyscheff-Approximation differenzierbarer Funktionen -- A Note on Nonlinear Approximation Theory -- Approximationen durch Umordnungen von Lie-Reihen -- Über nichtlineare Approximationen in linearen normierten Räumen -- Über ein Kriterium von Kolmogoroff bei der Approximation von Funktionen -- Optimal Approximation and Error Bounds in Normed Spaces -- Anwendungen einer Fehlerschranken-Arithmetik -- Extrapolation bei monoton zerlegbaren Operatoren -- On best L2 Spline Approximations -- Monotonie-Aussagen bei quasilinearen elliptischen Differentialgleichungen und anderen Problemen -- Approximation with Singular Integrals of the Jackson Type -- Über Potenzen von verallgemeinerten Bernsteinoperatoren -- Über verallgemeinerte numerische Integrationen -- Diskretisierung bei Tschebyscheff-Approximation mit verallgemeinerten rationalen Funktionen -- Lösungsschranken bei elliptischen Differentialgleichungen.
Zugriffsoptionen:
Die folgenden Links führen aus den jeweiligen lokalen Bibliotheken zum Volltext:
Einführung -- Allgemeine Sätze über Wiener-Hopf-Gleichungen -- Das Galerkinsche Verfahren und Projektionsverfahren zur Lösung Linearer Gleichungen -- Projektionsverfahren zur Lösung der Wiener-Hopf-Gleichung und ihres Diskreten Analogons -- Wiener-Hopf-Gleichungen mit Unstetigen Funktionen -- Paarige Gleichungen -- Projektionsverfahren zur Lösung Paariger Gleichungen -- Wiener-Hopfsche Integro-Differenzengleichungen -- Gleichungssysteme.
Zugriffsoptionen:
Die folgenden Links führen aus den jeweiligen lokalen Bibliotheken zum Volltext: