1. Stochastische Modelle -- 2. Population und Stichproben -- 3. Das Histogramm -- 4 Anteile und Wahrscheinlichkeiten -- 5. Zufallsvariablen -- 6. Wichtige Verteilungen -- 7. Wahrscheinlichkeiten von Ereignissen -- 8. Mittelwert, Varianz und andere Kennzahlen -- 9. Erwartungen -- 10. Das Aufstellen stochastischer Modelle durch theoretische Überlegungen -- 11. Das Anpassen von Modellen an Daten -- 12. Stochastische Modelle als Approximation -- 13. Das Schätzen von Parametern -- 14. Konfidenzintervalle -- 15. Das Überprüfen von Modellen -- 16. Aussagen über Hypothesn und Irrtumswahrscheinlichkeiten -- 17. Der klassische Signifikanztest -- 18. Paare von diskreten Zufallsvariablen -- 19. Paare von stetigen Zufallsvariablen -- 20. Voraussagen bei Abhängigkeit -- 21. Unabhängigkeit -- Weiterführende Literatur -- Übungen -- Tabellen -- Literatur zu den Beispielen.
Zugriffsoptionen:
Die folgenden Links führen aus den jeweiligen lokalen Bibliotheken zum Volltext:
'Kennzahlen spielen in der Beschreibung von Daten eine wichtige Rolle, wobei der Mittelwert als Lageparameter die beliebteste Kennzahl ist. Die Aussagekraft des arithmetischen Mittels sinkt allerdings gravierend, wenn die Verteilung etwa U-förmig oder allgemeiner, mehrgipfelig ist. Klassierte Daten lassen sich auch in Histogrammen darstellen. Ob aus ihrer Darstellung aber auf die der Population zugrunde liegende Verteilung geschlossen werden kann, hängt häufig von der gewählten Intervalleinteilung ab. Keines der gängigen Statistik-Lehrbücher beschreibt einen für die Frage nach der Unimodalität angemessenen Test. Überraschend ist auch, daß keines der großen Statistikpakete einen solchen Test anbietet. Alles, was man findet, sind Tests, bei denen die Anpassung an eine fest vorgegebene Verteilung vorgenommen wird. Um die grundsätzliche Wichtigkeit der Thematik in das Blickfeld der empirischen Sozialwissenschaften zu rücken, beschrieben die Autoren einen wenig bekannten Test auf Unimodalität, den sogenannten DIP-Test. Anhand von Skalenwerten wird das Vorgehen erläutert.' (Autorenreferat)
Intro -- 1 Die Sony alpha 6100 kennenlernen -- 1.1 Die Bedienungselemente in der Übersicht -- 1.2 Bildkontrolle über Sucher und Monitor -- 1.3 Informationsanzeigen umschalten -- Die Ansichtsoptionen aktivieren oder deaktivieren -- 1.4 LCD-Anzeige im Wiedergabemodus -- 1.5 Die alpha 6100 gekonnt bedienen -- 1.5.1 Tasten und Räder für den direkten Zugriff -- 1.5.2 Schnelleinstellungen über das Quick-Navi-Menü -- 1.5.3 Das umfangreiche Kameramenü -- 1.6 Datenbankdatei, Ordnersystem und Formatierung -- Besondere Eigenschaften der Sony alpha 6100 -- 2 Das richtige Fotoprogramm für Ihr Motiv -- 2.1 Dateiformat, Bildgröße und Seitenverhältnis -- 2.1.1 Die Bildgrößen der alpha 6100 -- 2.1.2 Qualitäten und Bildgrößen in der Übersicht -- 2.1.3 Das Seitenverhältnis ändern -- 2.2 Sofort startklar mit der Vollautomatik -- 2.3 Die SCN-Programme im Einsatz -- 2.4 Spontan reagieren mit der Programmautomatik (P) -- 2.5 Bildgestaltung mit der Blendenpriorität (A) -- 2.6 Mit der Zeitpriorität (S) zum kreativen Schärfeeffekt -- 2.7 Besondere Situationen manuell meistern (M) -- 2.8 Feuerwerksaufnahmen mit Langzeitbelichtung (BULB) -- 2.9 Schwenk-Panorama für beeindruckende Weitsichten -- 2.10 Bildvergrößerung mit dem Digitalzoom -- Menschen vor der Kamera -- 3 Optimal belichten mit der Sony alpha 6100 -- 3.1 Verwacklungen vermeiden mit und ohne Bildstabilisator -- 3.2 Bildqualität und Sensorempfindlichkeit -- 3.2.1 ISO-Wert und ISO-Automatik situationsbezogen einstellen -- 3.2.2 Das Bildrauschen unterdrücken -- Fotografieren mit der Multiframe-RM -- 3.2.3 Rauschminderung bei Langzeitbelichtung -- 3.3 Motivabhängige Belichtungsmessung -- 3.3.1 Multi, das Allround-Talent -- 3.3.2 Präzisionsarbeit mit der Spotmessung -- Die Belichtung zwischenspeichern -- 3.3.3 Mittenbetonte Messung und Durchschnittsmessung -- 3.4 Die Belichtung mit dem Histogramm kontrollieren.
Zugriffsoptionen:
Die folgenden Links führen aus den jeweiligen lokalen Bibliotheken zum Volltext:
This paper substantially extends the limited available evidence on existence and extent of downward nominal wage rigidity in the European Union and the Euro Area. For this purpose we develop an econometric multi-country model based on Kahn?s (1997) histogram-location approach and apply it to employee micro data from the European Community Household Panel (ECHP) for twelve of the EU?s current member states. Our estimates for the degree of downward nominal wage rigidity on the national as well as the EU-wide level point to marked downward nominal wage rigidity within the European Union.
Résumé Le 8 octobre 2000 et pour la deuxième fois, les élections pour le renouvellement des conseils provin¬ciaux se sont déroulées en même temps que les élections commu¬nales. Le pouvoir provincial bénéficie d'une stabilité importante. Cependant en 2000 d'importants mouvements de voix sont enregistrés. Ils se traduisent, comme aux élections législatives de 1999, par un nouveau progrès de l'extrême droite en Flandre et par sa quasi-disparition du côté francophone ; par une montée des écologistes ; par un recul de la famille socialiste sauf dans les provinces de Hainaut et de Limbourg ; et par un recul important de la famille sociale chrétienne, qui cesse d'être globalement la première famille politique au niveau provincial au profit de la famille libérale. À l'issue des élections d'octobre 2000, une homogénéité s'observe dans la composition des coalitions : alliances PS - Fédération PRL FDF MCC dans l'ensemble des provinces wallonnes ; alliances CVP - VLD - SP dans toutes les provinces flamandes, à l'exception de la Flandre occidentale, où le VLD n'est pas partie prenante. Les résultats du scrutin provincial du 8 octobre 2000 sont analysés par province. L'examen privilégie le poids respectif des formations politiques en présence et les majorités mises en place dans les conseils provinciaux. Chaque fois, deux séries de données sont fournies. La première donne les résultats en pourcen¬tage des voix des six dernières élections provinciales. La seconde donne la répartition politique des conseillers provinciaux pour toutes les élections d'une période de trente-cinq ans (1965-2000) avec indication des par¬tis en coa¬lition. Des commentaires sur la hiérarchie des partis dans chacune des provinces de même que sur l'évolution de l'implantation des partis dans les différents cantons et districts électoraux accompagnent ces données. Des histogrammes permettent de visualiser des compa¬raisons entre les élections provinciales (1994 et 2000) et les élections de la Chambre des représentants (1995 et 2000) pour l'ensemble des provinces, y compris le Brabant flamand.
Es wurden drei vermoorte Maare in der Südlichen Vulkaneifel bzw. in den nächst benachbarten Kleinlandschaften pollenanalytisch untersucht. Aus dem Vergleich der Pollenspektra der Oberflächenproben mit der heutigen Vegetation der Umgebung wurden Schlüsse auf die Pollenausstreuung der festgestellten Pflanzenarten gezogen und diese mit den Ergebnissen anderer Forscher verglichen. Von den GRAMINEEN-Pollen dieser Oberflächenproben wurden Treppendiagramme gezeichnet und daraus sowie aus der neueren Literatur der Schluß gezogen, daß man die Grenze des Getreidetypus in azetolysiertem Material bei einem höheren Wert als 37 u annehmen muss. Bis zu einer näheren Prüfung wurden vorläufig 43 u als Grenzwert verwendet. Die Zählergebnisse wurden in Diagrammen dargestellt und durch einige Angaben im Text ergänzt und erläutert. Zwei Profile aus dem Schalkenmehrener Maar wurden in einem kombinierten Histogramm zusammengefaßt. Die Zeit von vier verschiedenen Vulkanausbrüchen, deren Ursprung mit Hilfe petrographischer Methoden bestimmt wurde, konnte im absoluten Zeitmaß ziemlich genau festgelegt werden. Pollen verschiedener wärmeliebender Arten im Tuffstaubmaterial. der Maarausbrüche wurde als sekundärer Pollen gedeutet. Pollenkörner aus diesen Schichten wiesen eigentümliche Beschädigungen verschiedenen Grades auf, die als Folgen von Hitzeeinwirkung angesehen wurden. Während der Ausbrüche und insbesondere nach ihnen entwickelte sich eine typische an ARTEMISIA und SALIX reiche Pioniervegetation auf den frischen Tuffstaubböden in verschiedenen Phasen. Sie wurde mit rezenter Vegetation in einigen Gebieten der subarktischen und arktischen Zone verglichen, jedoch nur in der Kalkvegetation des öländischen Alvars größere Ähnlichkeit mit jener gefunden. Die spät- und nacheiszeitliche Vegetationsentwicklung wurde in einer Tabelle übersichtlich zusammengefaßt. Im Text werden folgende besondere Ergebnisse und Probleme diskutiert. In späteiszeitlichen und frühpostglazialen Proben fanden sich vereinzelte Getreidetypen. Sie wurden als Pollen polyploider Wildgräser gedeutet, die auf "schwierigen" Standorten und im subarktischen Klima häufiger gewesen sein dürften. Aus der genetischen u.a. Literatur wurden einige Angaben zur Stütze der Hypothes beigebracht. Für den spätglazialen BETULA-Gipfel wurde eine großklimatische (ozeanisches Klima) oder lokale, edaphische bzw. sukzessionsbiologische Erklärung erwogen, Die kulturenzeigenden Arten wurden in vier Gruppen zusammengefaßt: 1. Zeiger für Ackerbau, 2. Zeiger für Wiesen und Weiden, 3. Für Äcker, Wiesen und Weiden gemeinsame Gattungen, 4. Zeiger für Waldschläge und Ödland. Für die lokale Erlen Birken-Zeit der Zone IX wurden verschiedene mögliche Ursachen diskutiert. Die Ergebnisse aus der Zeit menschlicher Einwirkungen auf die Vegetation wurden mit vorgeschichtlichen und geschichtlichen Daten und Funden aus dem Gebiet verglichen und sehr gute Übreinstimmung gefunden. Der Beginn des Ackerbaus müßte für etwa 3000 vor Chr. angenommen werden, einige Anzeichen aus der Zeit vorher genügen nicht zur sicheren Bestimmung der Anwesenheit des Menschen. In der Folge treten Hunsrück-Eifel-I-Kultur, Römerzeit, Völkerwanderung, Frankenansiedlung, Karolingische Rodungsperiode, Dreißigjähriger Krieg und die jüngste Waldbauzeit im Diagramm durch verschiedene entsprechende Anzeichen deutlich in Erscheinung. Für die Einfuhr des Buchweizens wurde mit etwa 1100 n.Chr. ein früheres Datum wahrscheinlich gemacht, als man es bisher annahm. Um das Schalkenmehrener Maar wurde eine Kartierung der nach pflanzensoziologischen Gesichtspunkten rekonstruierten natürlichen Vegetation im Umkreis von 3-5 km durchgeführt. Mit Hilfe einer deduktiv gefundenen Formel des Pollenniederschlags bestimmter Waldflächen in bekannten Entfernungen wurde das Pollenspektrum berechnet, das auf Grund der Vegetationsverteilung auf der Vegetationskarte zu erwarten wäre. Ein Vergleich mit dem Durchschnittsspektrum aus der Zone XI bzw. X ist in einer Tabelle angegeben. Danach wäre FAGUS im ursprünglichen Waldbild dieses Gebietes stärker vertreten gewesen, als sich auf Grund pflanzensozialogischer Annahmen für den heutigen natürlichen Wald ergibt. Unsere Diagramme wurden mit solchen aus z.T. höher, z.T. tiefer gelegenen Nachbarlandschaften verglichen und mit einem kurzen Hinweis auf die Möglichkeiten der absoluten Datierung nach dem Pollendiagramm die Arbeit geschlossen.
Kenntnisse der Wirtschaftsstatistik sind für ein erfolgreiches Wirtschaftsstudium unerlässlich. Erfahrungsgemäß tun sich Studierende aber gerade damit schwer. Das Buch legt deshalb besonderen Wert auf Verständlichkeit: Definitionen sind mit Beispielen versehen und jedes Kapitel endet mit einer Zusammenfassung. Die zahlreichen Prüfungstipps beruhen auf Erkenntnissen aus der Korrektur von über 10.000 Klausuren. Im Buch finden sich alle Themen, die Bachelorstudierende der Wirtschaftswissenschaften kennen sollten. Dazu zählen u. a. die Darstellung von Datensätzen, die Wahrscheinlichkeitsrechnung, Lage- und Streuungsparameter, die lineare Regression, Indizes, diskrete und stetige Verteilungsmodelle, das Schätzen von Parametern, Konfidenzintervalle sowie die statistischen Tests: Gaußtest, t-Test, Chi-Quadrat-Unabhängigkeitstest und Chi-Quadrat-Anpassungstest. Das Lehrbuch richtet sich an Studierende der Betriebs- und Volkswirtschaftslehre.
Zugriffsoptionen:
Die folgenden Links führen aus den jeweiligen lokalen Bibliotheken zum Volltext:
Eine Einführung in die Statistik für das SoziologiestudiumDas Lehrbuch beinhaltet alle wichtigen Themenbereiche der statistischen Grundausbildung: von der Beschreibung einzelner Variablen bis zur multivariaten Analyse. Es vermittelt anschaulich den aktuellen Stand der sozialwissenschaftlichen Statistikausbildung und enthält Kurzporträts der wichtigsten multivariaten Verfahren, Datensätze und Datenarchive. Neu aufgenommen wurde ein Kapitel zur multiplen Korrespondenzanalyse.Der schnelle Einstieg in das Fach steht dabei im Vordergrund: Zahlreiche Abbildungen, Tabellen, Definitionen und Beispiele erleichtern das Lernen. Weiterführende kommentierte Literaturhinweise und ein Register runden das Buch ab. Die Einführung eignet sich für Studierende der Soziologie, aber auch der Politik- oder Kommunikationswissenschaft, um das methodische Rüstzeug zu erwerben, das an Universitäten verlangt wird.
Zugriffsoptionen:
Die folgenden Links führen aus den jeweiligen lokalen Bibliotheken zum Volltext:
Einführung in die Statistik: für die soziologische Grundausbildung sowie die benachbarten Fächer. - Das Lehrbuch beinhaltet alle wichtigen Themenbereiche der statistischen Grundbildung: von der Einführung in die Grundbegriffe bis zur multivariaten Analyse. - Es vermittelt anschaulich den aktuellen Stand der sozialwissenschaftlichen Statistikausbildung. - Es enthalt Kurzportrats der wichtigsten multivariaten Verfahren, Datensätze und Datenarchive. Lehrbücher mit einem klaren Konzept: - zahlreiche Abbildungen und Tabellen veranschaulichen den Lernstoff - Definitionen und Beispiele erleichtern das Lernen - geeignet für die Prüfungsvorbereitung - mit weiterführenden kommentierten Literaturhinweisen und Register
Zugriffsoptionen:
Die folgenden Links führen aus den jeweiligen lokalen Bibliotheken zum Volltext:
To ensure both good data center service performance and reasonable power consumption, a detailed analysis of the behavior of these systems is essential for the design of efficient optimization algorithms to reduce energy consumption. This thesis fits into this context, and our main work is to design dynamic energy management systems based on stochastic models of controlled queues. The goal is to search for optimal control policies for data center management, which should meet the growing demands of reducing energy consumption and digital pollution while maintaining quality of service. We first focused on the modeling of dynamic energy management by a stochastic model for a homogeneous data center, mainly to study some structural properties of the optimal strategy, such as monotony. Afterwards, since data centers have a significant level of server heterogeneity in terms of energy consumption and service rates, we have generalized the homogeneous model to a heterogeneous model. In addition, since the data center server's wake-up and shutdown are not instantaneous and a server requires a little more time to go from sleep mode to ready-to-work mode, we have extended the model to the purpose of including this server time latency. Throughout this exact optimization, arrivals and service rates are specified with histograms that can be obtained from actual traces, empirical data, or traffic measurements. We have shown that the size of the MDP model is very large and leads to the problem of the explosion of state space and a large computation time. Thus, we have shown that optimal optimization requiring a MDP is often difficult or almost impossible to apply for large data centers. Especially if we take into account real aspects such as server heterogeneity or latency. So, we have suggested what we call the greedy-window algorithm that allows to find a sub-optimal strategy better than that produced when considering a special mechanism like threshold approaches. And more importantly, unlike the MDP approach, this algorithm does not require the complete construction of the structure that encodes all possible strategies. Thus, this algorithm gives a strategy very close to the optimal strategy with very low space-time complexities. This makes this solution practical, scalable, dynamic and can be put online. ; Pour garantir à la fois une bonne performance des services offerts par des centres de données, et une consommation énergétique raisonnable, une analyse détaillée du comportement de ces systèmes est essentielle pour la conception d'algorithmes d'optimisation efficaces permettant de réduire la consommation énergétique. Cette thèse, s'inscrit dans ce contexte, et notre travail principal consiste à concevoir des systèmes de gestion dynamique de l'énergie basés sur des modèles stochastiques de files d'attente contrôlées. Le but est de rechercher les politiques de contrôle optimales afin de les appliquer sur des centres de données, ce qui devrait répondre aux demandes croissantes de réduction de la consommation énergétique et de la pollution numérique tout en préservant la qualité de service. Nous nous sommes intéressés d'abord à la modélisation de la gestion dynamique de l'énergie par un modèle stochastique pour un centre de données homogène, principalement pour étudier certaines propriétés structurelles de la stratégie optimale, telle que la monotonie. Après, comme des centres de données présentent un niveau non négligeable d'hétérogénéité de serveurs en termes de consommation d'énergie et de taux de service, nous avons généralisé le modèle homogène à un modèle hétérogène. De plus, comme le réveil (resp. l'arrêt) d'un serveur de centre de données n'est pas instantané et nécessite un peu plus de temps pour passer du mode veille au mode prêt à fonctionner, nous avons étendu le modèle dans le but d'inclure cette latence temporelle des serveurs. Tout au long de cette optimisation exacte, les arrivées et les taux de service sont spécifiés avec des histogrammes pouvant être obtenus à partir de traces réelles, de données empiriques ou de mesures de trafic entrant. Nous avons montré que la taille du modèle MDP est très grande et conduit au problème de l'explosion d'espace d'états et à un temps de calcul important. Ainsi, nous avons montré que l'optimisation optimale nécessitant le passage par un MDP est souvent difficile, voire pratiquement impossible pour les grands centres de données. Surtout si nous prenons en compte des aspects réels tels que l'hétérogénéité ou la latence des serveurs. Alors, nous avons suggéré ce que nous appelons l'algorithme greedy-window qui permet de trouver une stratégie sous-optimale meilleure que celle produite lorsqu'on envisage un mécanisme spécial comme les approches à seuil. Et plus important encore, contrairement à l'approche MDP, cet algorithme n'exige pas la construction complète de la structure qui encode toutes les stratégies possibles. Ainsi, cette algorithme donne une stratégie très proche de la stratégie optimale avec des complexités spatio-temporelles très faibles. Cela rend cette solution pratique, évolutive, dynamique et peut être mise en ligne.
Kenntnisse der Deskriptiven Statistik gehören für Bachelorstudierende der BWL und VWL zu den Kernkompetenzen.Auf kompakte Art und Weise stellt das Buch deshalb die relevanten Fachtermini vor und vermittelt das Wichtigste zur Verteilung, Kerndichteschätzung, Maßzahlen sowie der Korrelations- und Regressionsrechnung. Auch die Konzentrationsmessung sowie Preis- und Mengenindizes werden erklärt. Übungen mit Lösungen, Musterklausuren und ein Formelteil runden das Buch ab.
Zugriffsoptionen:
Die folgenden Links führen aus den jeweiligen lokalen Bibliotheken zum Volltext: