Faktorenanalysen sind ein elementarer Bestandteil der sozialwissenschaftlichen Forschung. Als dimensionsreduzierendes Verfahren dienen sie häufig dazu, wenige, theoretisch gut interpretierbare Konstrukte auszumachen, die den Zusammenhang zwischen einer Vielzahl beobachtbarer Variablen statistisch erklären. Sie spielen somit zugleich bei der Operationalisierung nicht direkt messbarer Größen (wie z.B. Intelligenz) eine zentrale Rolle. Dieses Buch bietet eine Einführung in die Theorie der Faktorenanalyse mit Anwendungsbeispielen. Neben den klassischen Themen der Faktorwertschätzung und der Anpassung konfirmatorischer Modelle werden auch Fragen der Populationsinvarianz und Testfairness behandelt. Ferner wird auf die spezielle Rolle eindimensionaler Modelle eingegangen. Der Fokus liegt dabei auf einem exakten Verständnis der zentralen Begriffe und Modellterme, da wohl kaum ein weiteres statistisches Verfahren derart verbreitete Missverständnisse und Fehlinterpretationen generieren kann. Insbesondere vor dem aktuellen Hintergrund einer Replikationskrise ist ein wirkliches Verständnis statistischer Verfahren gegenüber ihrer bloßen Anwendung unerlässlich. Die ausführliche Darlegung der theoretischen Begriffe in diesem Buch soll daher der notwendigen kritischen Auseinandersetzung des Forschers mit dem Verfahren dienen und insbesondere einer kochrezeptartigen Anwendung vorbeugen.
Zugriffsoptionen:
Die folgenden Links führen aus den jeweiligen lokalen Bibliotheken zum Volltext:
'Faktorenanalyse ist ein Oberbegriff für eine Vielzahl von Techniken zur Strukturierung von multivariaten Daten. In der vorliegenden Arbeit werden die wichtigsten Verfahren vorgestellt, sowie Möglichkeiten und Probleme bei deren Anwendung diskutiert. Die grundlegende Annahme bei der Faktorenanalyse ist, daß verschiedene Meßoperationen, die einen gemeinsamen Kontext bilden, auf eine dritte nicht direkt meßbare (latente) Größe zurückzuführen sind. Das Ziel ist, diese Größe, die üblicherweise als Faktor, Dimension oder Achse bezeichnet wird, zu isolieren und mit Hilfe von beobachtbaren (manifesten) Variablen zu beschreiben. Mit der Faktorenanalyse soll eine Vielzahl von Variablen auf wenige Faktoren reduziert werden, mit denen dann einen Beschreibung der 'Realität' möglich ist.' Nach einigen Anwendungsbeispielen diskutiert der Autor das 'Hauptkomponentenmodell mit Korrelationsmatrix; Kanonischer Zerlegung; Bestimmung der Ladungsmatrix; Bestimmung der Faktorenzahl'. Zugleich werden auch Probleme und Unstimmigkeiten des Modells angesprochen. Zum Schluß werden kurz weitere Verfahren der Faktorenanalyse, außerdem 'Korrespondenzanalyse und multidimensionale Skalierung' als Alternativen behandelt. (prn)
Dieses Buch führt ein in die grundlegenden Ansätze des Clusterns, Segmentierens und der Faktorextraktion. Kapitel 1 behandelt die Familie der Clusteranalysen. Darin vorgestellt werden u.a. hierarchische, partitionierende, sowie das TwoStep Cluster-Verfahren. Kapitel 2 behandelt die Gruppe der Faktorenanalysen. Zuerst wird in das Grundprinzip und dann in die Varianten der Faktorenanalyse (z.B. Alpha, Hauptfaktoren, Hauptkomponenten), die wichtigsten Extraktions-, wie auch Rotationsmethoden (z.B. orthogonal vs. oblique) eingeführt. Kapitel 3 stellt die Diskriminanzanalyse vor. Weitere Kapitel stellen Möglichkeiten des Clusterns und Segmentieren mit CLEMENTINE vor, u.a. Entscheidungsbäume und ausgewählte Cluster-Knoten.
Zugriffsoptionen:
Die folgenden Links führen aus den jeweiligen lokalen Bibliotheken zum Volltext:
Die Faktorenanalyse ist ein mathematisch recht aufwendiges Verfahren, das ohne elementare Kenntnis der Matrizen- und Differentialrechnung kaum zu verstehen ist. So bleibt z.B. häufig unklar, wie die analytische Aufgabe der 'Faktorenextraktion' mit der mathematischen Theorie der Eigenwerte und Eigenvektoren verbunden ist. Diese Verständnislücken erschweren in der Regel eine Entscheidung zwischen verschiedenen Modell- und Verfahrensalternativen und sie führen zu Fehlinterpretationen der Ergebnisse, wie sie im Computerausdruck vorliegen. Der vorliegende Beitrag will helfen, derartige Verständnisprobleme zu überwinden. Es werden daher nur die Grundzüge der explorativen (deskriptiven) Faktorenanalyse erläutert. (pmb)
The present study aims at disclosing a methodological prejudice which has misled factor analysis since its beginning. Simple structure, the guiding principle for factor rotation (Thurstone, 1935/1947), is regarded as a questionable dogma. The Thurstone principle impedes the discovery of latent sources of variance on which manifest empirical variables are based. This criticism is elucidated by theoretical considerations and by verbatim quotations of critical authors. The present calamity of factorial research is deemed to be due to general flaws of methodical reasoning. One-sided mathematical formalization in the discipline has lost its objectives by ignoring ordinary sources of knowledge and linguistic processing. The problem of simple structure cannot be solved by circumplex- and structural equation procedures which suffer from the same flaws as simple structure modelling. A paradigm change is overdue. An alternative factor transformation modeling complex structures is demanded, it will be delineated in chapter 2. This chapter is a sequel of chapter 1 (Ertel, 2009) in which varimax, the procedure of factor rotation commonly used to generate simple structure, is replaced with varimin. Varimin aims at manifesting interacting aspects of latent structural components. The model of complexity which is outlined by initial factor extractions is optimized. The new method raises a number of issues of which five are discussed at length. Are varimin factors interpretable Can latent sources of covariance, being complex already by initial solutions, be rendered more complex? Have simple structure solutions in common practice not been tolerable, to say the least? Varimin factor loadings are often bipolar. How to interpret the bipolarity of varimin factors? Does varimin reveal contributions of variance originating from methodical sources? Ten empirical applications of varimin transformation serve as examples. Particular features of transformation to complex structure, revealing latent sources of covariance (by varimin), are compared with pertinent results obtained from transformations to simple structure (by varimax). Varimax will remain useful merely for clustering objectives. Attention is also drawn to limitations of the methodical innovation. Eighteen matrices with intercorrelations of eight subtest variables of the intelligence test I-S-T, widely used in Germany, were subjected to principal component analysis, the resulting factors were rotated by varimin towards optimal complex structure. The 18 varimin solutions were aggregated, two factors resulted: Varimin-F1 represented a general factor g ('general or basic intelligence'), varimin-F2 represented an achievement-modifying factor, obviously dependent on preceding educational training and learning ('learning assets', l). The validity of varimin-F1, general intelligence, was ascertained by high correlations between g and test scores of general intelligence, operationalized by culture-free tests CFT und FRT. The interpretation of varimin-F2 found support by significant correlations with learning-dependent school grades and scores in orthography and arithmetic. The 18 PCA-factors were also transformed by varimax to simple structure. This transformation caused a splitting up of initial g into two seemingly separate factors, called 'fluid' and 'crystallized' intelligence by convention. In addition, differences between varimax F1 (fluid) and F2 (crystallized) regarding correlations with external criteria (general intelligence vs. school grades, training scores in orthography and arithmetic) which should have emerged were missing. The aggregate of varimax results yielded an unexpected third factor with considerable weight which, however, turned out to be an artifact of simple structure. Apparently, simple structure modelling of intelligence test data blends general intelligence with learning effects. Rotation of intelligence data to simple structure does not reveal, as it should, independent c - Ein fataler Fehler der konventionellen Psychometrie wird in dieser Monographie aufgedeckt. Das Prinzip der Einfachstruktur, an dem sich seit den Anfängen der Faktorenanalyse alle Varianten der Rotation extrahierter Faktoren ausgerichtet haben, geht an der empirischen Realität vorbei. Das "Simple Structure"-Prinzip zwingt die Variablen einer multivariaten Untersuchung in ein monokausales Korsett und hindert sie daran, die tatsächlich vorliegende Komplexität latenter Komponenten zu entfalten. Dies ist der Grund, warum faktorenanalytische Ergebnisse durchweg theoretisch fruchtlos blieben und eher Unbehagen als Zufriedenheit mit sich brachten. Mit den später entwickelten konfirmatorischen Verfahren, die am realitätsfremden Ideal der Einfachstruktur festhielten, wurde keine Wende erzielt. Eine Wende aber stellt sich ein, sobald man sich dazu entschließt, bei der Rotation von Faktoren das scheinbar unverzichtbare Prinzip der Einfachstruktur aufzugeben und mehrfaktorielle Komplexität der Variablen unbeschränkt zuzulassen. Dazu dient in der statistischen Praxis das vom Verfasser entwickelte Rotationsverfahren Varimin. Die Ergebnisse von Varimin-Analysen, die in diesem Buch beschrieben werden, übertreffen die Ergebnisse von Einfachstruktur-Analysen (Varimax) an Deutbarkeit, Stabilität, und - scheinbar paradoxerweise – sogar auch an Einfachheit.