Extraktionsmethode in der Faktoranalyse

From Teachwiki
Jump to: navigation, search

Extraktionsmehtode in der Faktoranalyse[edit]

Einleitung[edit]

Um Daten besser zu analysieren, wird ein Verfahren gesucht, das die Variablen unter anderen gemäß ihrer korrelativen Beziehungen möglichst in wenige, voneinander unabhängige Variablengruppen ordnet. Denn, mit Hilfe eines solchen Ordnungsschemas kann man entscheiden, welche Variablen gemeinsame und welche verschiedene Informationen erfassen. Ein Verfahren, das dies leistet wird als Faktoranalyse bezeichnet. Es wird untersucht, ob sich unter den betrachteten Variablen Gruppen von Variablen befinden, denen jeweils eine komplexe Hintergrundvariable wie zum Beispiel "Intelligenz" oder "Aufmerksamkeit" zugrunde liegt. Solche Hintergrundvariablen werden im Rahmen der Faktorenanalyse als Faktoren bezeichnet. Dies sind hypothetische Größen, die die Korrelationen möglichst einfach erklären sollen.

Mathematisches Model der Faktoranalyse[edit]

Die \ p standardisierten Beobachtungsvariablen x^*_{i} ist gleich:

x^*_{i}=\frac{x_{i}-\mu_{i}}{\sigma_{i}}, \qquad i=1,\dots, p

Die werden in der FA durch Linearkombinationen mit  \ m unkorrelierten Faktorvariablen y_{1},...,y_{n},\mathrm{\left(m \leq p\right)} plus  \ p unkorrelierte Variablen e_{1},\dots,e_{p}: Also

x^*_{i}= \lambda_{i1}y_{1}+\lambda_{i2}y_{2}+...+\lambda_{im}y_{m} + e_{i},\qquad i=1,...,p \qquad (1)
Die \ y_{i} sind künstliche nicht beobachtbare Variablen oder latente Variablen, kurz Faktoren gennant. In Matrixschreibweise heißt (1)

X^*=\Lambda \cdot Y + E.\qquad (2)

Dabei haben wir \ p- bzw. \ m-dimensionalen Zufallsvektoren  X^* = \left( x^*_{1}, ..., x^*_{p}\right)^T, 
 
Y = \left(y_{1}, ..., y_{p}\right)^T, 
E = \left(e_{1}, ..., e_{p}\right)^T

eingeführt, sowie die p \times m-Matrix

\Lambda = \left(\lambda_{ij}\right) = \left(\lambda^{T}_{1}, ..., \lambda^{T}_{p}\right)^T

der Koeffizienten. Für die Variablen \ y_{i}und \ e_{i} setzt man


E\left(y_{j}\right) = E\left(e_{i}\right) = 0, \qquad \qquad Var\left(y_{i}\right) = 1,

Cov\left(y_{j},y_{j^\prime}\right) = Cov\left(e_{i},e_{i\prime}\right) = 0 
für j\neq j^\prime, i \neq i^\prime, \qquad Cov\left(y_{i},e_{i}\right) = 0 \qquad (3)


vorraus. Man schreibt zur Abkürzung \psi_{i} = Var\left(e_{i}\right) und nennt

\Lambda die Faktormatrix,

\lambda_{i,j} die Faktorladungen,

e_{i}  die merkmalspezifische Variable,

\psi_{i} merkmalspezifische Varianz.

Die Korrelation zwischen der standardisierten Beobachtungsvariablen \ x_{i^*} und der Fakorvariablen \ y_{j} berechnet sich zu  \lbrack \epsilon_{j} j-ter m-dimensionaler Einheitsvektor \rbrack

Cov\left(x^*_{i},y_{j}\right) = \lambda^{T}_{i} Cov\left(y_{j},y_{j}\right) \epsilon_{j} = \lambda_{i,j},
so dass die Faktorladungen \ \lambda_{ij} gerade den \left(linearen\right) Zusammenhang zwischen den Beobachtungs- und Faktorvariablen angeben, also den Einfluss des j-ten Faktors auf das i-te Merkmal beschreiben.

Für die Elemente \rho_{ii^\prime} = Cov\left(x^*_{i\prime},x^*_{i}\right) der zugrunde liegenden Korrelationsmatrix \ P rechnet man unter (1) und (2), dass \rho_{ii^\prime} = \lambda^{T}_{i} \cdot  \lambda_{i^\prime} + \delta_{ii^\prime}\cdot \psi_{i} , also dass

\rho_{ii^\prime} = \sum_{j = 1}^{m}\lambda_{ij} \lambda_{i^\prime j} , \left(i \neq i^\prime\right), \qquad \rho_{ii} \equiv 1 = \sum_{j = 1}^{m}\lambda^{2}_{ij} + \psi_{i} \qquad (4)

Man setzt \rho_{ii} \equiv 1 = h^{2}_{i} + \psi_{i}

an, und nennt h^{2}_{i}=\sum_{j = 1}^{m}\lambda^{2}_{ij}, \qquad i = 1, \dots, p

die Kommunalitäten.

Die Gleichung (4) wird wie folgt interpretiert: die Korrelationsstruktur der \ p Beobachtungsvariablen wird durch die \ m Faktoren vollständig, die Varianzstruktur nur zum Teil, nämlich über die Kommunalitäten "erklärt". Für den restlichen Teil der Varianz stehen die \ pmerkmalspezifischen Variablen \ e_{i}. Mit Hilfe der \left(p, p\right) Diagonalmatrix \Psi = Diag\left(\psi_{i}\right) schreibt sich (4) in Matrizenform so:

P = \Lambda \cdot \Lambda^T + \Psi \qquad (5)

Die Gleichungen (2) und (5) stellen das mathematische Modell der Faktoranalyse dar, sie sind mit den Gleichungen

X^* = \Lambda \cdot Y \qquad \mbox{und} \qquad R = \Lambda \cdot \Lambda^T \qquad(6)

der Hauptkomponentenanalyse zu vergleichen. In diesem Sinne reduzieren sich im Fall  \ p = m ,  \ e = 0, \  \psi = 0 die Gleichungen (2) und (5) auf(6) .

Methoden der Faktorextraktion[edit]

Um das Ziel der Reduzierung der Variablen auf möglichst wenige Faktoren hat die Faktoranalyse bei der Faktorextraktion eine Reihe von Methoden. Diese sind: Hauptkomponenten, Hauptachsenmethode, Maximum Likelihood, ungewichtete kleinste Quadrate, verallgemeinerte kleinste Quadrate, Alpha-Faktorisierung und Image-Faktorisierung. In folgenden werden wir eine kurze Beschreibung aller gennanten Verfahren abgeben und uns im Laufe der Arbeit mit ein paar Verfahren näher beschäftigen.


Die Hauptkomponentenanalyse wird verwendet, um unkorrelierte Linearkombinationen der beobachteten Variablen zu bilden. Die erste Komponente besitzt den größten Varianzanteil. Nachfolgende Komponenten erklären stufenweise kleinere Anteile der Varianz. Die Faktoren sind alle miteinander unkorreliert. Die Hauptkomponentenanalyse wird zur Ermittlung der Anfangslösung der Faktorenanalyse verwendet. Sie kann verwendet werden, wenn die Korrelationsmatrix singulär ist.


Die Maximum-Likelihood-Methode erzeugt Parameterschätzer und zwar nur die, bei denen die Wahrscheinlichkeit am größten ist, daß sie die beobachtete Korrelationsmatrix erzeugt haben. Sie setzt aber voraus, dass der Verteilungstyp der Grundgesamtheit bekannt ist und hier sogar, dass eine Normalverteilung vorliegt.


Die Hauptachsen-Faktorenanalyse ist eine Methode aus der ursprünglichen Korrelationsmatrix, bei der die auf der Diagonalen befindlichen quadrierten Korrelationskoeffizienten(=1) als Anfangsschätzer der Kommunalitäten verwendet werden. Diese Faktorladungen werden benutzt, um neue Kommunalitäten zu schätzen, welche die alten Schätzer auf der Diagonalen ersetzen. Die Iterationen werden so lange fortgesetzt, bis die Änderungen in den Kommunalitäten von einer Iteration zur nächsten das Konvergenzkriterium der Extraktion erfüllen.


Die Alpha-Faktorisierung betrachtet die Variablen in der Analyse als eine Stichprobe aus einer Grundgesamtheit aller potentiellen Variablen. Dies vergrößert die Alpha-Reliabilität der Faktoren.


Die Image-Faktorisierung basiert auf der Imagetheorie. Der gemeinsame Teil einer Variablen - partielles Image genannt - ist als ihre lineare Regression auf die verbleibenden Variablen definiert, und nicht als eine Funktion von hypothetischen Faktoren.


Bei der Methode ungewichteten kleinsten Quadrate haben wir eine Faktorextraktionsmethode, welche die Summe der quadrierten Differenzen zwischen der beobachteten und der reproduzierten Korrelationsmatrix unter Nichtberücksichtigung der Diagonalen minimiert.

Die Verallgemeinerte Methode der kleinsten Quadrate ist eine eingestufte Form der kleinsten Quadrate. Dabei wird die Matrix der Summe der quadrierten Differenzen multipliziert mit der matrix der beobachteten Kovarianz oder Korrelation minimiert.

Wir werden uns in unserer Arbeit auf 4 Methoden konzentrieren, nämlich: Image-Faktorisierung, Alpha-Faktorisierung, ungewichtete kleinste Quadrate und verallgemeinerte kleinste Quadrate. Wir werden die Unterschiede dieser Verfahren analysieren und sehen, wie SPSS mit diesen verschiedenen Verfahren arbeitet.

Image Faktorisierung[edit]

Die Image-Analyse (Guttman1953) sucht nicht nach dem kommunalen Anteil der Daten, der von unbekannten hypothetischen gemeinsamen Faktoren erklärt wird. Die gemeinsame Varianz einer Variable ist definiert als denjenige Varianzanteil, der potentiell durch multiple Regression von allen anderen Variablen der Variablenpopulation vorhergesagt werden kann. Dieser wird als das 'Image' der Variablen bezeichnet. Es ist also eine Abbildung der Variablen durch die anderen Variablen. Der übrige Teil der Varianz, der nicht vorhergesagt werden kann wird 'Anti-Image' genannt.

Das Image ist derjenige Teil  \ G = \Lambda . y der Variablen, der jeweils durch die gemeinsamen Faktoren erklärt wird. Der durch \ G reproduzierte Anteil \ R der Korrelationsmatrix R entspricht der reduzierten Korrelationsmatrix. Anhand von Eigenwerte und Eigenvektoren der reduzierten Korrelationsmatrix werden dem Image die ersten kHauptkomponenten entnommen mit der Ladungsmatrix  \ \Lambda.

Für die konkrete Durchführung einer Image-Analyse haben wir nur eine begrenzte Variablenzahl zur Verfügung. Die Schätzung des Images einer Variablen aufgrund einer Stichprobe wird als Partial Image der Variablen bezeichnet. Die ursprünglichen Messwerte \ x^*einer Variablen \ i werden durch vorhergesagte Werte \ y_{j} ersezt, die man aufgrund der multiplen Regressionsgleichung zwischen der Variablen \ i und den übrigen \ p-1 Variablen bestimmt. Es wird eine Korrelationsmatrix aus der vorhergesagten Werte gebildet und daraus werden Faktoren nach der Hauptachsenmethode extrahiert.

Berechnung des Images[edit]

Um \ G zu erhalten, ist für jede Variable \ x_{i}, i= 1, \cdots, pdie Regression von  \ x_{i} auf die übrigen Variablen  \ y_{j},  j \neq i auszuführen. Das Image \ G_{i} von \ X_{i} ist die Linearkombination der Datenvektoren \ X_{j}, die dem Datenvektor \ X_{i} am nächsten kommt. Wir haben

X_{i} = \sum_{j = 1, j\neq i}^{m}\beta_{ij} X_{j} + e_{i}, \qquad E^{T}_{i}E_{i} = min!
G_{i} = \sum_{j = 1, j\neq i}^{m}\beta_{ij} X_{j}

Die Regressionsaufgabe kann als Regression auf sämtliche Datenvektoren X = \left(X_{1}, \cdots, X_{p}\right)

mit der Nebenbedingung \  \beta_{ij} = 0 behandelt werden.

X_{i} = X\beta_{i} + E_{i}, \qquad \beta_{ii} = 0,\qquad E^{T}_{i}E_{i} = min! \qquad \qquad \qquad \qquad \qquad \Leftrightarrow \left(X_{i} - X\beta_{i}\right)^{T}\left(X_{i} - X\beta_{i}\right) = min, \qquad \beta_{ii} = 0.

Mit Langrange - Multiplikator berechnet man

L = X^{T}_{i}X_{i} - 2\beta^{T}_{i}X^{T} X_{i} + \beta^{T}_{i}X^{T} X \beta_{i} + 2 \lambda_{i}\beta_{ii} = min, \qquad \beta_{ii} = 0; \qquad \qquad \qquad \qquad \qquad \Rightarrow\frac{\delta L}{\delta \beta_{i}}  = -2X^{T} X_{i} + 2X^{T} X \beta_{i}+ \left(0, ..., 0, 2\lambda_{i}, 0, ..., 0 \right)^T =  0; \qquad \beta_{ii} = 0

\qquad \qquad \qquad \qquad \qquad \Rightarrow X^{T} X\beta_{i} = X^{T} X_{i} +  \left(0, ..., 0, \lambda_{i}, 0, ..., 0 \right)^T =  0; \qquad \beta_{ii} = 0;\qquad i = 1, \cdots, p

zusammen.

 X^{T} XB = X^{T} X + \Lambda, \qquad diagB = 0, \qquad R \ = \ X^{T}X

oder

 B = R^{-1}\left(R + \Lambda\right) = I + R^{-1}\Lambda, \qquad diag B = 0

mit  B = \left(\beta_{1}, \cdots, \beta_{p}\right), \qquad \Lambda = diag(\lambda_{1}, \cdots, \lambda_{p}).

\Lambda \ = \ -(diag R^{-1})^{-1} ist eine eindeutige Lösung. \ \Lambda muss so gewählt werden, dass diag\left(R^{-1}\Lambda\right) = -\texttt{\textbf{I}} gilt.

B = I - R^{-1} \left(diag\left(R^{-1}\right)\right)^{-1}, \qquad D =diag\left(R^{-1}\right) \qquad (7)

Somit erhalten wir für Image und Antiimage

G = XB = X\left(I- R^{-1}D^{-1}\right), E = X - G = X - X\left(I- R^{-1}D^{-1}\right) = XR^{-1}D^{-1}. \qquad(8)


Ihre Kovarianzprodukte lauten:

G^{T} G = B^{T} X^{T} XB =\left(I- R^{-1}D^{-1}\right)^{T} \left(I- R^{-1}D^{-1}\right)

   \qquad  \qquad          = R - 2D^{-1} + D^{-1}R^{-1}D^{-1},

 \qquad             E^{T} E = D^{-1}R^{-1}RR^{-1}D^{-1}

mit der Beziehung

 \qquad G^{T} G = R - 2D^{-1} + E^{T} E.

Daraus resultiert die Korrelationsmatrix R:

 \qquad R = G^{T} G - E^{T} E + 2D^{-1}.
Da Image und Antiimage zusammen korrelieren, wird anstelle des Image G das vielfach um die Korrelationen von Antiimage und Ausgangsdaten normalisierte Image  \qquad GD^{1/2} einer Hauptkomponentenanalyse unterzogen. Aus der daraus enstandenen Matrix  \qquad D^{1/2}G^{T}GD^{1/2} werden die Eigenwerte und Eigenvektoren berechnet und damit die Ladungsmatrix \Lambda bestimmt. Danach ergibt sich für die Einzelrestkovarianzmatrix
V = diag\left(R - \Lambda \Lambda^{T}\right)

Alpha Faktorisierung[edit]

Bei der Alpha Faktorisierung wird das Konzept der Generalizierbarkeit verwendet. Danach berechnet man für die Generalisierbarkeit einer Linearenkombination  \qquad x't der Zufallsvariablen x  \in  R^p den empirischen Wert

\alpha = \frac{p}{p-1}\left(1 - \frac{t'Ht}{t'R_{h}t}\right) , \qquad(9)
wobei \qquad H die Diagonalmatrix der Kommunalitäten und  \qquad R_{h} die reduzierte Korrelationsmatrix bezeichnen. Wir suchen nach der Linearkombination  \ Xt der standardisierten Datenvektoren mit dem maximalen Generalisierbarkeitskoeffizient alpha, um diesen Vektor zum ersten Faktor zu erklären und zu finden.

\alpha = \frac{p}{p-1}\left(1 - \frac{t'Ht}{t'R_{h}t}\right) = max_{t} \ \Leftrightarrow

 \beta  =  \frac{t'Ht}{t'R_{h}t} = max_{t} \Rightarrow

\frac{\partial \beta}{\partial t} \ = \ 2 \ \frac{\left(t'Ht\right)R_{h}t - \left(t'R_{h}t\right)Ht}{\left(t'Ht\right)^2}\  =  \ 2 \ \frac{R_{h}t - \beta Ht}{t'Ht} \ = \ 0\ \Leftrightarrow


\left(R_{h} - \beta H\right)t = 0.

Dies führt mit \ s = Ht auf das Eigenwertproblem \left(H^\frac{-1}{2}R_hH^\frac{-1}{2} - \beta I \right)s \qquad (10)

der Matrix

H^{-1/2}R_hH^{-1/2} = \left(I-V\right)^{-1/2}\left(R-V\right)\left(I-V\right)^{1/2},
\alpha = \frac{p}{p-1}\left(1 - \frac{1}{\beta}\right)
die Generalisierbarkeit.

Wir erhalten mit dem zugehörigen Eigenvektor \ s_{1} die gesuchte Linearkombination mit der größten Generalisierbarkeit. Der erste Faktor erhält man durch Normierung und die übrigen Faktoren mit Hilfe von Eigenwerte und Eigenvektoren.

 \ F = ZTB^{-1/2} = ZH^{-1/2}SB^{-1/2},

T = \left(t_{1} \cdots t_{p}\right),

 S = \left(s_{1} \cdots s_{p}\right),

B = \left(\beta_{1} \ddots \beta_{p}\right) \qquad (11)
mit der Ladungsmatrix
 \qquad L = H^{-1/2}SB^{-1/2} .

Die ersten \qquad k Faktoren sind hiermit bei der \alpha-Faktorisierung:

 F^{(k)} = F_{1} \cdots F_{k}

 \ L^{(k)} = H^{-1/2}S^{(k)}B^{(k)-1/2}

 S^{(k)} = \left(s_{1} \cdots s_{k}\right)

B^{(k)} = \left(\beta_{1} \ddots \beta_{p}\right)

Wir notieren somit,dass man muss vor der Durchführung einer alpha-Faktorisierung eine Schätzung der Kommunalitäten vornehmen muss und die Anzahl der Faktoren, die man extrahieren möchte festlegen.

Ungewichtete kleinste Quadrate[edit]

Berechnung des Schätzers[edit]
Der kleinste Quadratschätzer muss so bestimmt werden, dass die Summe der Quadrierten Abweichungen der Zufallsvariablen von Ihrem Erwartungswert ein Minimum ergibt. Es ist also eine Minimierung der Nichtdiagonalelemente des Residiums
R - \left(\Lambda \Lambda^{T} + V\right).

Ein Schätwert für \ V ergibt sich nach Berechnung der Faktormatrix \ \Lambda. Für diese Berechnung muss die linear Optimierungsaufgabe

\sum_{i, j = 1; \ i\ < \ j}^{p}\left(r_{i,j}- \sum_{m = 1}^{k} \lambda_{im} \lambda_{jm}\right)^{2} \rightarrow min_{L \ \in \ R^{p, k}}


mit der Nebenbedingung:
h^{2}_{i}=\sum_{m = 1}^{k}\lambda^{2}_{im} \ \leq \ 1, \qquad i = 1, \dots, k.
Die Optimierungsaufgabe ist numerisch zu lösen und man erhält dann eine LadungsmatrixL = \  L_{min}. Daraus folgt, dass
V_{min} = diag\left(R - \Lambda_{min}\Lambda_{min}^{T}\right).


Es gibt ein Zusammenhang mit der Hauptfaktoranalyse, denn dort besitzen die ersten  \ k Komponenten von  \ R -V_{min} die Ladung \ L_{min}. Die Methode der kleinsten Quadratschätzung ist also eine spezielle Lösung der Hauptfaktorenanalyse.

Verallgemeinerte kleinste Quadrate[edit]

Die Minimierungsaufgabe: \sum_{i, j = 1; \ i\ < \ j}^{p}\left(r_{i,j}- \sum_{m = 1}^{k} \lambda_{im} \lambda_{jm}\right)^{2} \cdot \ \rho _{ij}^{-1}\rightarrow min_{L \ \in \ R^{p, k}} ist zu lösen, wobei  \left(\rho^-1\right)_i,j=1, \cdots p die inverse der Korrelationsmatrix ist \ \left(P^{''}\right). Wie bei der kleinsten Quadratsschätzung gilt die gleiche Nebebedingung und die Ladungsmatrix und der Schätzwert sind genauso zu ermitteln.

Zusammenfassung[edit]

Alle Verfahren verfolgen das Ziel, gegeben eine Korrelationsmatrix R

1. eine Anzahl von faktoren k

2. den linearen Zusammenhang zwischen Variablen und Faktoren

3. die Diagonalmatrix der durch die Ladungsmatrix nicht erfaßten Einzeilrestvarianzen zu berechnen.

Der Hauptpunkt der Unterschied zwischen die verschiedenen Verfahren bezieht sich aus Punkt 2. Die Berechung von der Ladungsmatrix wird unterschiedlich gelöst. Die Hauptkomponentenmethode und die Imageanalyse können nur Aussagen über die vorliegenden Daten machen, sie sind lediglich Datenmanipulierend.

Die Alpha und die ML-Faktorenanalyse schätzen hingegen die Faktoren ausgehend von der Stichprobe für die Population.

Beispiel mit SPSS[edit]

Der im Rahmen dieser Arbeit verwendete Datensatz „Cars.sav“ aus dem SPSS Datenbank enthält als Variablen : Verbrauchtsmenge pro mile, Dimension der Auto, die PS Stärke, das Gewicht, Motor Drehzahl, Jahr, Zylinderanzahl, Filter und Herkunft verschiedener Marken und Modelle der Auto. Die Variablen eins bis 5 sind skalierte Variablen. Die 6.und die 8. sind ordinale Daten und die 7. Variable ist eine nominale Daten. Im einzelnen sind die Variablen wie folgt definiert:

  • 1. mpg Miles per Gallon
  • 2. engine Engine Displacement (cu. inches)
  • 3. horse Horsepower
  • 4. weight Vehicle Weight (lbs.)
  • 5. accel Time to Accelerate from 0 to 60 mph (sec)
  • 6. year Model Year (modulo 100)
  • 7. origin Country of Origin
  • 8. cylinder Number of Cylinders

Ziel:

  • Untersuchung der Zusammenhänge zwischen den Faktoren und den anderen Variablen
  • Vergleich der Analyse mit den verschiedenen Extraktionsmethoden

Die Analyse der Varianz (Tabelle 1.1) hat ergeben, dass 3 Faktoren über 92% der Varianz erklären und mit 4 Faktoren sind bis 96% der Varianz erklärt. Variance.jpg

Die Komunalitäten weisen unterschiedliche Stärke , die geladen wurden. Wir merken dass die meisten Faktoren sehr hohe Kommunalitäten weisen. Nur das Herstellungsjahr und Motordrehzahl wird mit kleinen Komunalität bei allen Methoden. Auffallend ist, dass wir bei der Verbrauchsmenge bei der Image- und Alpha Faktorisierung einen geringen Wert haben.

Variablen Hauptachsen Methode Verallgemeinerte kleinste Quadrate Maximun Likelihood Methode Alpha Faktoranalyse Image Faktorisierung
Verbrauchsmenge ,839 ,999 ,999 ,679 ,670
Dimension ,951 ,953 ,952 ,939 ,897
PS Stärke ,906 ,977 ,982 ,986 ,875
Gewicht ,928 ,999 ,999 ,656 ,875
Motor Drehzahl ,631 ,674 ,656 ,657 ,890
Herstellungsjahr ,492 ,516 ,477
Zylenderanzahl ,932 ,999 ,999

Tabelle 1.2: Komunalitäten mit den verschiedenen Methoden


In der folgenden Tabelle werden wir die verschiedenen Werte der Faktorladung sehen. Mit einer Analyse über die Faktorenladungen werden wir sehen, welche Faktoren zuerst geladen werden mit welcher Extraktionsmethode.

Faktoren Erster Zweiter Dritter Vierter
Verbrauchsmenge -,652 ,131 ,736 -,123
Dimension ,859 -,369 -,280 ,031
PS Stärke ,679 -,618 -,314 ,186
Gewicht ,914 -,195 -,258 ,243
Motor Drehzahl -,267 ,741 ,214 ,014
Herstellungsjahr -,117 ,219 ,645 ,027
Zylenderanzahl ,829 -,318 -,262 -,183

Tabelle 1.2: Rotierte Faktormatrix für Verallgemeinerte kleinste Quadrate


Faktoren Erster Zweiter Dritter Vierter
Verbrauchsmenge -,649 ,126 ,738 -,134
Dimension ,855 -,371 -,286 ,038
PS Stärke ,670 -,625 -,323 ,196
Gewicht ,911 -,199 -,260 ,251
Motor Drehzahl -,262 ,733 ,225 ,012
Herstellungsjahr -,116 ,207 ,648 ,021
Zylenderanzahl ,890 -,322 -,270 -,175

Tabelle 1.2: Rotierte Faktormatrix für Maximun Likelihood Methode

Faktoren Erster Zweiter Dritter
Verbrauchsmenge -,749 -,342 -,032
Dimension ,865 ,423 -,102
PS Stärke ,715 ,682 ,104
Gewicht ,971 ,230 ,047
Motor Drehzahl -,230 -,777 ,014

Tabelle 1.2: Rotierte Faktormatrix für Alpha Faktorisierung


Faktoren Erster Zweiter Dritter
Verbrauchsmenge -,747 -,335 ,010
Dimension ,856 ,406 ,006
PS Stärke ,744 ,567 ,002
Gewicht ,894 ,300 ,004
Motor Drehzahl -,272 -,696 ,000

Tabelle 1.2: Rotierte Faktormatrix für Image Faktorisierung

Ich habe nur die rotierten Matrix dargestellt denn, sie sind etwa besser zu interpretieren. Bei der generalizierten kleinsten Quadrate können wir als 1. Faktor Leistung, als zweites das Jahr verallgemeinern. Das 3. Faktor ist nicht interpretierbar. Der 4. Faktor ist die Beschleunigung. Bei der Maximum Likelihood Method ist der 2. Faktor ist der Beschleunigung und der 4. Faktor ist nicht interpretierbar. Die Alpha Faktorisierung hat offenbar mit 25 Iterationen nicht geschafft, eine Faktormatrix darzustellen. Die Image Faktorisierung ist der 2. Faktor auf Beschleunigung gegen Leistung. Der 3. ist nicht interpretierbar. Die Hauptachsenmethode hat nach 25 Iterationsschritte keine Faktormatrix darstellen können.

References[edit]

  • L.Fahrmeier, A.Hamerle (1984), Multivariate statistische Verfahren, Walter de Gruyter, Berlin New York
  • P. Kline (1994), An Easy Guide to factor analysis, Routeledge, London New York
  • W. Voß (1997), Praktische Statistik mit SPSS, Hanser, München Wien
  • Bortz (1999), Statistik für Sozialwissenschaftler, 5. Auflage, Springer Verlag, Berlin
  • W. Härdle, L.Simar, (2003), Applied Multivariate Statistical Analysis, Springer Verlag, Heidelberg
  • H. Pruscha(2006), Statistisches Methodenbuch,Springer, Berlin Heidelberg

Kommentare[edit]

  • Deutsch etwas hakelig
  • Mathematisch etwas ungenau, z.B. was ist X ?
  • Hauptkomponentenmethode: Welche Varianz ist gemeint ?
  • Hauptachsenmethode: Ungenau beschrieben; wie ist das Kriterium der Konvergenz ?
  • Verallgemeinerte Methode der kleinsten Quadrate: Ich verstehe nicht, was da optimiert wird.
  • Image Faktorisierung: Erst wird von Hauptkomponenten gesprochen, dann von Hauptachsen; was nun ?
  • Alpha Faktorisierung: Bezeichnung Xt ?
  • Ungewichtete kleinste Quadrate: Was genau ist der Unterschied zu Hauptkomponentenanalyse ?
  • Was bedeutet denn "datenmanipulierend" ?
  • Beispiel mit SPSS
    • Warum fliessen Informationen, wie das Modelljahr oder Herkunftsland in die FA ein ?
    • Bennennung der Variablen uneinheitlich
    • Faktorinterpretation ist inkorrekt
    • Warum wurden nicht mehr als 25 Iterationen verwendet ?
  • Was ist nun die Schlussfolgerung aus den verschiedenen Methoden ?