Faktorenanalyse mit SPSS und Mplus

Aus Teachwiki
Wechseln zu: Navigation, Suche

Verwendete Daten

Der verwendete Datensatz resultiert aus einem Fragebogen der Annedore-Leber-Schule. Neben Fragen zum Alter, Geschlecht, Schulabschluss, zur Sprache und zum jeweiligen Unterrichtsfach beantworten die Schüler 55 Fragen zu verschiedenen Bereichen ihrer Schule. Der Datensatz besteht aus 410 Beobachtungen. Die 55 Fragen sind unterteilt in die folgenden zehn Skalen:

  1. Unterstützung der Lehrer
  2. Interesse der Lehrer
  3. diagnostische Kompetenz der Lehrkraft
  4. emotionale Beziehung
  5. Binnendifferenzierung
  6. Straffheit der Unterrichtsführung
  7. Zeitmanagement
  8. Selbstkompetenz der Schüler
  9. Handlungskompetenz der Schüler
  10. Einstellung der Schüler zur Schule

Die Variablen sind ordinalskaliert und können die Ausprägungen

  • 1 = "'ja"'
  • 2 = "'eher ja"'
  • 3 = "'eher nein"'
  • 4 = "'nein"'

annehmen.

Den Ausgangspunkt bildet eine große Anzahl an Variablen. Vor der Analyse ist nicht bekannt, ob und wie die einzelnen Variablen zusammenhängen. Mittels explorativer und konfirmatorischer Faktorenanalyse wird untersucht, ob Zusammenhänge bestehen, inwiefern die Variablen latente Strukturen bilden und wie diese Konstrukte interpretiert werden können. Da die Art und Anzahl der Faktoren zunächst nicht bekannt ist, führen wir die explorative Faktorenanalyse durch. Innerhalb dieser Analyse wird untersucht, ob zwischen den Variablen Zusammenhänge existieren und ob die Variablen Konstrukte bilden. Diese latenten Konstrukte werden in einem Modell formuliert. Hypothesen bzgl. der zugrunde liegenden Faktorenstruktur werden innerhalb die konfirmatorischen Faktorenanalyse geprüft, um eine Aussage über die Struktur der Daten zu machen.

Explorative Faktorenanalyse

Einführung in die Faktorenanalyse

Ziel der explorativen Faktorenanalyse ist, nicht messbare Strukturen aufzudecken, die hinter einer Reihe von beobachtbaren Variablen vermutet werden. Die Voraussetzungen der Faktorenanalyse sind unabhängige Beobachtungen, metrisch skalierte Variablen, die approximativ normalverteilt sein sollen und ein möglichst großer Stichprobenumfang n. Die Idee der Faktorenanalyse sei, dass man jede standardisierte Variable Z_j als Linearkombination der zugrundeliegenden Faktorwerte F_q und der Faktorladungen a_{jq} schreiben kann

Z_j=a_{j1}F_1+ \ldots +a_{jq}Fq+ \ldots +a_{jQ}F_Q=\sum_{q=1}^Q a_{jq}F_q \qquad j=1, \ldots ,m.

Es wird angenommen, dass es Q Faktoren F_q \ (q=1,...,Q) gibt, wobei Q<m und die Anzahl Q der Faktoren unbekannt ist. Gemeinsame Faktoren sollen unkorreliert sein und jeder gemeinsame Faktor soll auf mindestes zwei Variablen wirken. Da eine Variable kaum vollständig durch die gemeinsamen Faktoren erklärt werden kann, bleibt für jede Variable ein Einzelrestfaktor U_j. Weitere Annahmen für das Modell der Faktorenanalyse sind, dass diese Einzelrestfaktoren sowohl untereinander als auch mit den gemeinsamen Faktoren unkorreliert sind. Nach Rönz (2000) kann man die gegebenen Annahmen im folgenden Modell zusammenfassen

Z=FA^T+UE

wobei

Z_{(n\times m)} die Matrix der standardisierten Beobachtungswerte z_{ij} mit j=1,...,m und i=1,...,n,
F_{(n\times Q)} die Matrix der Faktorwerte der gemeinsamen Faktoren,
A_{(Q\times n)}^T die transponierte Matrix der Faktorladungen der gemeinsamen Faktoren,
U_{(n\times m)} die Matrix der Faktorwerte der Einzalrestfaktoren und
E_{(n\times m)} die Diagonalmatrix mit den Faktorladungen der Einzelrestfaktoren auf der Hauptdiagonalen sind.

Da die Matrizen bis auf Z alle unbekannt sind, ist das Modell in dieser Form nicht lösbar. Schritt für Schritt werden die einzelnen Matrizen nacheinander geschätzt.

Zunächst wird die Korrelationsmatrix R bestimmt. Deren Werte auf der Haupdiagonalen

r_{jj}=Cov(Z_j,Z_j)=Var(Z_j)=1

sind. Die Werte neben der Haupdiagonalen sind die Bravais-Pearson-Korrelationskoeffizienten zwischen den Variablen

r_{jk}=\frac{Cov(Z_j,Z_k)}{Var(Z_j)Var(Z_k)} \qquad j,k=1,\ldots ,m.

Die Korrelationsmatrix bildet den Ausgangspunkt der Faktorenanalyse. Gemeinsame Faktoren existieren nur für Variablen, die stark miteinander korreliert sind. Variablen, die geringe Korrelationen mit anderen Variablen aufweisen, können evtl. unberücksichtigt bleiben. Das Fundamentaltheorem der Faktorenanalyse

R=AA^T+EE

besagt, dass sich die Korrelationsmatrix R aus den Faktorladungen a_{jq} der gemeinsamen Faktoren und den Faktorladungen e_j der Einzelrestfaktoren berechnen lässt. Also ist a_{jq}^2 der Erklärungsbeitrag des Faktors F_q an der Varianz der Variablen Z_j. Die Kommunalitäten h_j^2 sind die Summe der Varianzbeiträge der gemeinsamen Faktoren

h_j^2=\sum_{q=1}^Q a_{jq}^2 \qquad j=1,...,m.

Die Anzahl der gemeinsamen Faktoren ist unbekannt und soll möglichst klein sein. Auch wenn die gemeinsamen Faktoren die Varianz einer Variablen gut erkären, bleibt ein Einzelrestfaktor, der den verbleibenden Teil der Varianz jeder Variablen ausmacht. Die Matrix R wird um den Einfluss der Einzelrestfaktoren bereinigt, um die Struktur der Faktoren und deren Interpretation zu vereinfachen. Die reproduzierte Korrelationsmatrix R_h ergibt sich aus

R-EE=AA^T=R_h.

Da für diese Gleichung unendlich viele Lösungen existieren, wird sie mit Hilfe eines Extraktionsverfahrens geschätzt. Das von uns verwendete Verfahren ist die Hauptkomponentenmethode. Es wird von einem Modell ausgegangen, bei dem keine Einzelrestfaktoren existieren. Die Varianz einer Variablen wird vollständig durch gemeinsame Faktoren erklärt. Da weniger Faktoren als Variablen extrahiert werden, wird der fehlende Teil der Varianz einer Variablen auf fehlende gemeinsame Faktoren zurückgeführt.

Zur Bestimmung der Faktorwerte der gemeinsamen Faktoren werden die Eigenwerte \lambda_q \ (q=1,...,Q) der Matrix R_h berechnet. Der Eigenwert eines Faktors gibt an, wie groß der Erklärungsbeitrag des jeweiligen Faktors and der Varianz aller Variablen ist. Verschiedene Kriterien helfen, die Anzahl der zu extrahierenden Faktoren festzulegen. Dazu zählt das Kaiser-Kriterium, das Faktoren mit Eigenwerten größer als Eins auswählt, und die Varianzprozentanteile, die angeben, wieviel Prozent der Gesamtvarianz durch die extrahierten Faktoren erklärt werden kann. Als weitere Orientierung kann man den Screeplot heranziehen. In dieser Grafik werden die nach der Größe sortierten Eigenwerte dargestellt. Ein Knick im Verlauf trennt die zu extrahierenden Faktoren.

Die Faktorenwertematrix F enthält die Faktorwerte f_{jq} und wird aus aus den standardisierten Beobachtungswerten Z und der Matrix der Faktorladungen A bestimmt

F=ZA(A^T A)^{-1}.

Durch Drehung des Koordinatensystems der Faktoren können die Faktorladungen erhöht werden. Die Rotation sollte so erfolgen, dass eine Interpretation der Faktoren möglichst einfach wird. Die Zuordnungen der Variablen ändert sich dadurch nicht. Die Anwendung verschiedener Rotationsmethoden ist notwendig, da die Faktorenextraktion kein eindeutiges Ergebnis liefert, sondern unendlich viele äquivalente Lösungen. Eine eindeutige Lösung ergibt sich erst, wenn durch das Zusatzbedingungen ein Koordinatensystem festgelegt wird. Mit Hilfe der Rotationsmethoden sucht man eines der Koordinatensysteme in dem gemeinsamen Faktorenraum. Die Faktorladungsmatrix beschreibt den Zusammenhang zwischen Variablen und Faktoren. Die Faktoren hat man mit Hilfe z.B. der Hauptkomponentenmethode identifiziert. Durch die Transformation der Faktoren sind die Ergebnisse besser interpretierbar. Eine orthogonale Transformation auf orthonormierte Faktoren angewendet ergibt wieder orthonormierte Faktoren. Bei einer nichtorthogonalen (obliquen Transformation) werden auch abhängige Faktorvariablen zugelassen.

Varimax-Methode

Bei der Varimax-Methode versucht man Faktoren herzustellen, die einige Variablen hoch, in den anderen aber sehr niedrig geladen sind. Der Name kommt daher, dass bei dieser Methode die Varianz der Ladungsquadrate maximiert werden soll. Die Maximierung geschieht iterativ. Die Methode liefert gute Ergebnisse, wenn die Daten Gruppenfaktoren zugrunde liegen und keine Generalfaktoren vorliegen. Gruppenfaktoren sind Faktoren, die nur einen Teil der Variablen erklären. Generalfaktoren bestimmen jede Variable mit.


L =
\begin{pmatrix}
x &  &  & x & x\\
x &  &  & x &  \\
x &  &  & x & x\\
  & x&  & x & x \\
  & x&  & x & x\\
  & x&  & x & x \\
  & x&  & x & x\\
  &  & x& x & x \\
  &  & x& x & x\\
\end{pmatrix}

Die ersten drei Spalten der Matrix L zeigen einen Gruppenfaktor und die letzten beiden Spalten einen Generalfaktor.

Promax-Methode

Die Promax-Rotation verbessert das Ergebnis einer orthogonalen Varimax-Rotation durch eine oblique Transformation. Bei dieser Rotation sollen die Ladungsquadrate noch näher an 1 bzw. 0 gebracht werden.

Oblimin

Die Methode ist eine weitere nichtorthogonale Methode. Unter dem Oberbegriff Oblimin werden verschieden Kriterien zusammengefasst, die eine Minimierung der 4. Momente von Faktorenladungen zum Ziel haben.

Anwendung der explorativen Faktorenanalyse auf die gegebenen Daten

Die explorative Faktorenanalyse wird zunächst in SPSS durchgeführt. Dabei werden alle m=55 Variablen des Datensatzes in die Analyse aufgenommen. Nach dem Auschließen von Beobachtungen mit fehlenden Werten, bleiben noch n=296 Fälle in der Analyse.

Von den Voraussetzungen der explorativen Faktorenanalyse ist lediglich die des großen Stichprobenumfanges erfüllt. Die Beobachtungen sind nicht unabhängig, da Schüler einer Schule befragt wurden, die außerdem in Klassen aufgeteilt sind und somit gleichen Einflüssen ausgesetzt sind und sich gegenseitig absprechen konnten. Die Voraussetzung der metrischen Skalierung ist ebenfalls nicht erfüllt. Die Variablen sind ordinalskaliert. Die Voraussetzung der Normalverteilung baut auf metrischen Daten auf und ist nicht gegeben.

Trotz Verletzung der Voraussetzungen führen wir eine explorative Faktorenanalyse mit den gegebenen Daten durch, da wir hinter den ordinalskalierten Variablen latente Strukturen vermuten. Aus den Resultaten der explorativen Faktorenanalyse wird das Modell für die konfirmatorische Faktorenanalyse formuliert.

Ergebnisse aus SPSS

Das in SPSS ausgegebene Kaiser-Meyer-Olkin-Maß liefert ein Gesamtmaß zur Einschätzung der Angemessenheit der Stichprobe für die Durchführung der Faktorenanalyse und berechnet sich nach der folgenden Formel

KMO=\frac{\sum_{j\neq k} \sum r^2_{jk}}{\sum_{j\neq k} \sum r^2_{jk}+\sum_{j\neq k} \sum r^2_{jk}}.

Es nimmt Werte im Intervall [0;1] an. Wenn das KMO-Maß genügend groß ist (>0.8), ist die Durchführung der Faktorenanalyse mit den gegebenen Daten sinnvoll. Für den Test über die Angemessenheit der Stichprobe liefert SPSS den folgenden Output:

	KMO and Bartlett's Test
	Kaiser-Meyer-Olkin Measure of Sampling Adequacy.	,909
	Bartlett's Test of Sphericity	Approx. Chi-Square	7641,620
 							df	1485
 							Sig.	,000

Mit KMO=0.909 ist das Maß genügend groß. Das Ergebnis des Bartlett-Tests soll hier nicht betrachtet werden da der Test die Normalverteilung der Daten voraussetzt.

Weiterhin wird in SPSS die Anti-Image-Matrix ausgegeben. Die Werte auf der Diagonalen der Anti-Image-Korrelationsmatrix MSA_j (measure of sampling asequacy) liefern für jede Variable ein Maß für die Angemessenheit der Stichprobe

MSA_j=\frac{\sum_{j\neq k} r^2_{jk}}{\sum_{j\neq k} r^2_{jk}+\sum_{j\neq k} p^2_{jk}}.

Dabei sind r^2_{jk} die linearen Korrelationen zwischen den Variablen X_j und X_k und die p^2_{jk} sind die partiellen Korrelationen. Wenn dieser Wert für eine Variable einen Wert <0.5 annimmt, sollte die Variable aus der Analyse ausgeschlossen werden. Ab einem MSA_j\geq 0.6 gilt die Variable als brauchbar und MSA_j>0.8 ist ein guter Wert für die Angemessenheit der Variable. Die MSA_j der gegebenen Variablen sind alle >0.5. Fünf Werte liegen zwischen 0.5 und 0.7, die anderen sind alle >0.7, was uns zu der Schlussfolgerung führt, keine der Variablen aus der Analyse auszuschließen.

Der SPSS Output 'Total Variance Explained' (Tabelle 1) beinhaltet zunächst unter 'Initial Eigenvalues' die Eigenwerte \lambda_q, den Anteil der Varianz des Faktors an der Varianz aller Variablen und die kumulierte Summe der Varianzen der Faktoren an der Gesamtvarianz für jeden gemeinsamen Faktor. Unter 'Extraction Sums of Squared Loadings' stehen diese Werte noch einmal für die nach dem Kaiser-Kriterium extrahierten Faktoren.

Tabelle1: Erklärte Varianz
  Initial Eigenvalues Extraction Sums of Squared Loadings
Component Total % of Variance Cumulative% Total % of Variance Cumulative%
1 14,563 26,478 26,478 14,563 26,478 26,478
2 3,389 6,161 32,639 3,389 6,161 32,639
3 2,459 4,471 37,111 2,459 4,471 37,111
4 2,333 4,242 41,352 2,333 4,242 41,352
5 1,915 3,481 44,834 1,915 3,481 44,834
6 1,815 3,301 48,134 1,815 3,301 48,134
7 1,482 2,694 50,828 1,482 2,694 50,828
8 1,327 2,412 53,240 1,327 2,412 53,240
9 1,235 2,246 55,485 1,235 2,246 55,485
10 1,183 2,152 57,637 1,183 2,152 57,637
11 1,131 2,057 59,694 1,131 2,057 59,694
12 1,095 1,990 61,684 1,095 1,990 61,684
13 1,019 1,852 63,536 1,019 1,852 63,536
14 0,978 1,777 65,314      
\vdots \vdots \vdots \vdots \vdots \vdots \vdots
55 0,143 0,260 100      

Nach dem Kaiser-Kriterium werden 13 Faktoren extrahiert, die zusammen 63.536% der Varianz aller Variablen erklären. An dem Erklärungsbeitrag eines Faktors ist zu erkennen, dass der 1. Faktor mit 26.478% die mit Abstand größte Varianz aufweist. Die anderen Faktoren haben alle eine Varianz von weniger als 10%. Für die Interpretation der Faktoren sind 13 zu extrahierende Faktoren sehr viel. Es liegt also bei den Faktorladungen, wie viele Faktoren extrahiert werden. Der Screeplot (Abbildung 1) zeigt einen eindeutigen Knick bei drei Faktoren. Kleinere Knicke kann man noch bei fünf und sieben Faktoren ablesen.

Abbildung 1: Screeplot

Ergebnisse mit Mplus

Das Programm Mplus bietet die Möglichkeit eine explorative Faktorenanalyse für ordinal skalierte Variablen durchzuführen. Muthén und Muthén empfehlen hierfür die Methode WLSMV (weighted least squares mean and variance adjusted). Zunächst einmal werden Beobachtungen mit fehlenden Werten werden nicht in der Analyse berücksichtigt. Aufgrund der Ergebnisse in SPSS wird die Faktorenanalyse mit 7 Faktoren durchgeführt.

Teststatistiken

Chi-Quadrat-Test

Der Chi-Quadrat-Test testet die Nullhypothese, dass eine vorgegebene Anzahl von Faktoren die Daten vollständig erklären. Das Maß entspricht einer Likelihood-Ratio-Teststatistik, die in der Nullhypothese testet, dass die modelltheoretische Kovarianz-Matrix \Sigma der empirischen Kovarianz-Matrix S entspricht. Es berechnet sich als \chi^2=(n-1)F(S,\Sigma). Mit F als Funktion des Minimums. Für sieben Faktoren ergibt sich:

  CHI-SQUARE VALUE             304.563
  DEGREES OF FREEDOM               149
  PROBABILITY VALUE             0.0000

Die Nullhypothese wird abgelehnt, d.h., sieben Faktoren reichen nicht aus, um die Daten vollständig zu erklären. Es sei an dieser Stelle aber darauf hingewiesen, dass der Test empfindlich gegenüber großen Stichproben ist und auf die Nichteinhaltung der Normalverteilung empfindlich reagiert.

RMSEA (Root Mean Square Error of Approximation)

Dieser Index testet ebenfalls, ob das Modell die Daten hinreichend gut approximiert und ist robust gegenüber großen Stichproben. Er berechnet sich durch

\sqrt{\frac{\chi^{2}/df-1}{N-1}}

mit

  • N = Stichprobengröße
  • \chi^{2} = Chi-Quadrat-Wert des zu testenden Modells
  • df = Freiheitsgrade des zu testenden Modells

Für sieben Faktoren ergibt sich der Wert 0.059. Da der Wert <0.06, ist das Modell zufriedenstellend spezifiziert. Zum Vergleich: Bei fünf Faktoren ergibt sich ein Wert von 0.071<0.08, d.h., das Modell wäre in diesem Fall gerade noch ausreichend spezifiziert. Root Mean Square Residual: Dieser Index ist ein Maß für die Abweichung der empirischen Varianz-/Kovarianzgrößen von den theoretischen modellbasierten Größen. Er berechnet sich

RMR=\sqrt{2\sum^{n}_{i=1}\sum^{i}_{j=1}\frac{(s_{ij}-\sigma_{ij})}{n(n+1)}}.

Hierbei ist n die Anzahl der Variablen. Für sieben Faktoren ergibt sich der Wert 0.0497. Da der Wert <0.05 ist, ist das Modell vollständig bestätigt. Liegt der Wert unter 0.10 sagt man, das Modell sei tendentiell bestätigt und liegt der Wert über 0.10, wird das Modell abgelehnt.

Interpretation der Faktorenladungen

Für die Interpretation der Faktoren schaut man sich die Ladungen der einzelnen Variablen an. Besonders von Interesse sind Ladungen a_{jq} mit |a_{jq}|>0.5. Mit Hilfe der Ladungen möchte man herausfinden, welche Variablen mit welchen Faktor verwandt sind und welche Variablen gemeinsam von einem Faktor bestimmt werden. Zunächst wird die unrotierte Ladungsmatrix bestimmt. Diese ist schwer zu interpretieren, da sich nur bei den ersten drei Faktoren Ladungen >0.5 finden und bei den anderen vier Faktoren die Ladungen sehr klein werden. Als nächstes wird die varimax-rotierte Ladunsmatrix betrachtet. Da die Varimax-Rotation eine orthogonale Rotation ist, bleibt die Unkorreliertheit der Faktoren erhalten und das Modell ist leicht zu interpretieren, da die Ladungen als bivariate Korrelation zwischen den Variablen und den Faktoren betrachtet werden können. Tabelle 2 enthält die Ladungen aus SPSS und Mplus für die Varimax-Rotation, wobei nur die Ladungen, die > 0.5 sind, angezeigt werden. Das s und m hinter dem Faktor steht für SPSS bzw. Mplus.

Tabelle 2: Vergleich Varimax-Rotation
  1s 1m 2s 2m 3s 3m 4s 4m 5s 5m 6s 6m 7s 7m
f0101                 0.787          
f0102   0.706                        
f0103   0.563             0.680          
f0104                            
f0105   0.650                        
f0106       -0.718         0.671          
f0201 0,663     -0.746                    
f0202 0,686     -0.584                    
f0203 0,568     -0.715                    
f0204 0,640     -0.631                    
f0205 0,620                          
f0206       -0.606                    
f0207 0,609     -0.588                    
f0208 0,512     -0.686                    
f0209 0,665     -0.597                    
f0301 0,547     -0.650                    
f0302 0,562     -0.558                    
f0303       -0.648                    
f0304 0,587     -0.518                    
f0305       -0.640                    
f0306 0,622     -0.541                    
f0401       -0.542                    
f0402 0,508     -0.710                    
f0403 0,635                          
f0501                            
f0502                     0,668      
f0503                     0,592      
f0504                         0,526  
f0505 0,524                          
f0506                     0,503      
f0507                         0,549  
f0601                   -0.555        
f0602                            
f0603         0,561                  
f0604         0,617     0.508            
f0605         0,579     0.607            
f0606       -0.575                    
f0607      -0.518                    
f0608                   -0.619        
f0609         0,561                  
f0610         0,511         0.589        
f0611           0.714             0,696  
f0701     0,695     0.779                
f0702     0,725     0.590                
f0703     0.589     0.579                
f0704     0,627     0.654                
f0705     0,696     0.506                
f0706     0,533     0.554                
f0707     0,555     0.574                
f0708     0,521     0.618                
f0709     0,617                     0.890
f0801             0,868             0.859
f0802             0,831             0.810
f0803             0,813             0.710
f0804   0.572         0,720              

Wie man in Tabelle 2 sieht, bestehen zwischen den Ladungen in SPSS und Mplus zum Teil große Unterschiede. So werden z.B. beim ersten Faktor bei SPSS die Variablen alle positiv geladen, während beim vergleichbaren 2. Faktor bei Mplus die Variablen alle negativ laden. Ähnlichkeiten ergeben sich beim Faktor 1 bei Mplus und Faktor 5 bei SPSS, Faktor 2 bei SPSS und Faktor 3 bei Mplus und Faktor 4 bei SPSS und Faktor 7 bei Mplus. Bei beiden Lösungen hat man aber das Problem, dass bei einigen Faktoren keine Ladungen >0.5, so z.B. beim 4.Faktor bei SPSS und beim 6. Faktor bei Mplus. Aus diesem Grund haben wir uns die Ladungen der promax-rotierten Lösung angeschaut (Tabelle 3). Die Promax-Rotation ist eine oblique Transformation, d.h., es werden Korrelationen zwischen den Faktoren zugelassen. Das Problem bei obliquen Transformationen ist, das die Faktorladungsmatrix (in SPSS die pattern matrix) schwer interpretierbar ist, da die Ladungen nicht mehr den Korrelationen zwischen Variablen und Faktoren entsprechen. Daher wählt man für die Interpretation die Strukturmatrix (in SPSS structure matrix), die die Korrelationen enthält. Bei einer orthogonalen Roation sind die pattern matrix und die structure matrix identisch.

Tabelle 3: Vergleich Promax-Rotation
  1s 1m 2s 2m 3s 3m 4s 4m 5s 5m 6s 6m 7s 7m
f0101                 0.798          
f0102   0.734                        
f0103   0.601             0,695          
f0104                 0,689          
f0105   0.635                        
f0106       -0.768         0,694          
f0201 0,725     -0.783                    
f0202 0,769     -0.603                    
f0203 0,629     -0.741                    
f0204 0,714     -0.703 0,538                  
f0205 0,627                          
f0206       -0.706                    
f0207 0,624     -0.532                    
f0208 0,662   0,583 -0.778 0,553                  
f0209 0,680    -0.592                    
f0301 0,637   0,598 -0.685                    
f0302 0,618     -0.555                    
f0303 0,525     -0.670                    
f0304 0,678       0,581                  
f0305 0,564   0,531 -0.641                    
f0306 0,697   0,523 -0.527                    
f0401 0,551                          
f0402 0,670   0,516 -0.709 0,697                  
f0403 0,738   0,537 -0.542 0,502                  
f0501                       0.693    
f0502                     0,668 0.587    
f0503                     0,605      
f0504       -0.513                 0,562  
f0505 0,535                          
f0506                     0,546      
f0507                         0,526  
f0601                   -0.686        
f0602         0,544                  
f0603         0,650                  
f0604         0,677     0.515            
f0605         0,676     0.624            
f0606                            
f0607 0,661   0,602   0,664                  
f0608 0,579       0,609         -0.704        
f0609                         -0,516  
f0610         0,636         0.660        
f0611           0.802             0,662  
f0701     0.802     0.883                
f0702     0,775    0.600                
f0703     0,661     0.582                
f0704     0,702     0.718                
f0705     0,736                      
f0706     0,639     0.509                  
f0707     0,619     0.502                
f0708     0,614     0.565                
f0709 0,507                       0.895
f0801             0,881             0.857
f0802             0,865             0.800
f0803             0,843             0.686
f0804   0.641         0,780              

Die Schätzungen für die Ladungsmatrix ähneln sich bei der Promax-Rotation stark. Ein Vorteil gegenüber der Varimax-Rotation ist, dass sich bei der Promax-Rotation bei jedem Faktor mindestens zwei Variablen finden, die hoch, d.h., mit einem Wert >0.5, laden. Dass zwischen den Faktoren Korrelationen bestehen, kann man der Tabelle 4 (SPSS) bzw. Tabelle 5 (Mplus) entnehmen.

Tabelle 4: Faktorkorrelationen SPSS
Component 1 2 3 4 5 6 7
1 1            
2 0,628 1          
3 0,561 0,490 1        
4 0,226 0,248 0,308 1      
5 0,182 0,118 0,132 0,268 1    
6 0,204 0,173 0,343 0,180 0 1  
7 -0,351 -0,269 -0,268 -0,216 -0,177 0,069 1

Auch hier unterscheiden sich die Ergebnisse in den beiden Programmpaketen. Während bei SPSS eine hohe Korrelation zwischen dem Faktor 1 und den Faktoren 2 und 3 sowie zwischen dem Faktor 2 und 4, wird bei Mplus nur bei dem Faktor 2 und 4 eine hohe Korrelation ausgegeben. Dieses Ergebnis im Mplus würde gegen die Verwendung der Promax-Rotation sprechen.

Tabelle 5: Faktorkorrelationen Mplus
Component 1 2 3 4 5 6 7
1 1            
2 -0.236 1          
3 0.267 -0.557 1        
4 0.012 -0.254 0.262 1      
5 -0.347 0.403 -0.418 -0.128 1    
6 -0.169 -0.125 -0.073 0.258 0.260 1  
7 0.121 -0.219 0.116 0.068 -0.104 0.147 1

Im letzten Schritt haben wir noch die olique Oblimin-Transformation mit dem Paramter 0.3 in SPSS durchgeführt. Eine Interpretation der Ladungsmatrix aufgrund ihrer Ladungen, die >0.5, zeigt die folgende Variablengruppierungen auf.

1. Der erste Faktor lädt folgende Variaben hoch

  • Lehrer ermutigt mich (0.764)
  • wenn ich wählen könnte, würde ich gern bei dem Lehrer haben (0.727)
  • Lehrer hat Geduld mit mir (0.72)
  • Lehrer hilft mir (0.704)
  • Lehrer lobt mich (0.698)
  • Lehrer nimmt sich Zeit (0.685)
  • Lehrer bemerkt, wenn sich meine Leistungen verändern (0.664)
  • Lehrer achtet auf entspanntes Arbeitsklima (0.645)
  • Lehrer interessiert sich für uns (0.641)
  • Lehrer weckt Interesse für Unterricht (0.641)
  • Lehrer geht so voran, dass ich dazu lerne (0.630)
  • Lehrer betrachtet uns als Partner (0.628)
  • Lehrer traut mir was zu (0.626)
  • Lehrer weiß, was ich leiste (0.623)
  • Lehrer bemerkt, wenn ich etwas nicht verstanden habe (0.613)
  • Lehrer gibt regelmäßig Rückmeldungen (0.559)
  • gehe mit Problemen zum Lehrer (0.556)
  • Lehrer erarbeitet zügig die Unterrichtsinhalte (0.553)
  • verbessern Schüler ihre Leistungen, werden sie gelobt (0.545)
  • Lehrer weiß, bei welchen Aufgaben ich Schierigkeiten habe (0.523)

Betrachtet man die sieben Variablen mit den höchsten Ladungen, so spiegeln diese, die Einschätzung der Schüler über die persönliche Zuwendung des Lehrers wieder. Man kann diesen Faktor also als Beziehung Lehrer-Schüler bezeichnen.

2. Der zweite Faktor teilt hohe Ladungen mit folgenden Variablen:

  • empfehle Freunden, an diese Schule zu gehen (-0.881)
  • würde wieder zu dieser Schule gehen (-0.855)
  • bin stolz, Schüler dieser Schule zu sein (-0.839)
  • ich fühle mich wohl an dieser Schule (-0.757)

Dieser Faktor umfasst genau die Fragen, die Auskunft über die allgemeine Einstellung zur Schule geben sollen. Da diese anders gelagert sind als die restlichen Fragen, bilden sie zusammen einen Faktor 'Einstellung zur Schule'.

3. Faktor 3 besitzt hohe Ladungen mit den Variablen

  • Lehrer hält Pausen selten pünktlich ein, weil es kein Pausenklingeln gibt (0.703)
  • Lehrer hält Pausenzeiten genau ein (-0.522)
  • fühle mich oft überfordert (0.513)
  • für Bearbeitung reicht Zeit oft nicht aus (0.510)

Dieser Faktor spiegelt zum einem die Pausenzeit wieder, wobei die Ladungen der ersten beiden Variablen unterschiedliche Vorzeichen haben, da die Fragen, genau das entgegengesetzte ausdrücken. Zum anderen spiegelt er die Überforderung der Schüler wieder. Daher könnte man diesen Faktor Pausen-Arbeit-Faktor nennen.

4. Folgende Variablen zeigen beim 4. Faktor hohe Ladungen:

  • mit Gelerntem fühle ich mich im Alltagsleben sicherer (-0.778)
  • mit Gelerntem kann ich Alltagsprobleme besser lösen (-0.747)
  • Unterricht hilft mir, mich kritisch mit dem Alltag auseinander zu setzen (-0.728)
  • mit Gelerntem kann ich Anforderungen im Berufsfeld bewältigen (-0.717)
  • bin sicherer im Umgang mit Menschen (-0.696)
  • kann mich durch Gelerntes an Gesprächen aktiv und kompetent beteiligen (-0.675)
  • Unterricht trägt dazu bei, dass ich meine Meinung frei äußere (-0,640)
  • kann Gelerntes auch anwenden (-0.627)
  • Lehrer geht so voran, dass ich dazu lerne (-0.619)
  • bin mit Gelerntem gut auf die Prüfungen vorbereitet (-0.612)
  • Lehrer weiß, was ich leiste (-0.594)
  • Lehrer weckt Interesse für Unterricht (-0.593)
  • wenn ich wählen könnte, würde ich gern bei dem Lehrer haben (-0.552)
  • Lehrer gibt regelmäßig Rückmeldungen (-0.545)
  • Lehrer lobt mich (-0.533)
  • Lehrer achtet auf entspanntes Arbeitsklima (-0.533)
  • Lehrer erarbeitet zügig die Unterrichtsinhalte (-0.510)
  • Lehrer ermutigt mich (-0.504)

Auffällig bei diesem Faktor ist, dass alle Ladungen ein negatives Vorzeichen haben. Der erste Teil der Variablen beschreibt, wie Schüler das Gelernte verarbeiten und nutzen können. Den vierten Faktor könnte man somit als Alltagsfaktor bezeichen. Der zweite Teil der Variablen ist bereits beim ersten Faktor vorgekommen, hier aber mit positiven Vorzeichen. Diese Doppelung von Variablen ist durch die oblique Transformation möglich.

5. Der Faktor 5 lädt folgende Variablen hoch:

  • Schüler unterstützen sich gegenseitig (0.800)
  • fühle mich in Klasse wohl (0.709)
  • auf Mitschüler ist Verlass (0.699)
  • Mitschüler helfen anderen auch ohne Aufforderung (0.683)

Die vier Variablen des Faktors 5 beschreiben die gegenseitige Hilfe der Schüler und das somit positive Klassenklima. Der Faktor kann als Selbsthilfefaktor bezeichnet werden.

6. Der Faktor 6 teilt hohe Ladungen mit den Variablen:

  • Lehrer achtet darauf, dass Schüler aufpassen (-0.665)
  • Lehrer greift bei Unruhe ein (-0.663)
  • Lehrer fordert Beteiligung am Unterricht (-0.617)
  • Lehrer achtet auf entspanntes Arbeitsklima (-0.592)
  • Lehrer achtet darauf, dass Aufgaben in Ruhe beendet werden (-0.560)
  • Lehrer geht so voran, dass ich dazu lerne (-0.538)
  • Lehrer geht schnell voran, deswegen muss ich immer aufpassen (-0.514)

Auch bei diesem Faktor sind die Vorzeichen der geschätzten Ladungen alle negativ. Die Variablen mit den hohen Ladungen beschreiben den allgemeinen Unterrichtsablauf und die Lernumgebung. Man könnte diesen Faktor als 'Schaffen einer Lernumgebeung' bezeichnen.

7. Beim letzten Faktor laden folgende Variablen hoch:

  • Lehrer stellt unterschiedlich schwere Aufgaben (-0.654)
  • Lehrer verlangt von leistungsstarken Schülern deutlich mehr (-0.611)
  • bei Fragen etc. wartet Lehrer bis sich leistungsschwächere melden (-0.518)

Die drei Variablen mit Ladungen >0.5 beschreiben alle, wie der Lehrer auf die unterschiedlichen Bedürfnisse der Schüler eingeht. Zusammengefasst kann dieser Faktor als Differenzierungsfaktor umschrieben werden.

Konfirmatorische Faktorenanalyse

Im Gegensatz zur explorativen Faktorenanalyse findet bei der konfirmatorischen Faktorenanalyse keine Datenreduktion statt, sondern man untersucht die Übereinstimmung eines theoretischen Modells mit dem empirischen Daten. Hierbei laden die Indikatoren nur auf einen Faktor und nicht wie bei der explorativen Faktorenanalyse auf mehrere Faktoren gleichzeitig. Eigentlich sollten mit den Ergebnissen der explorativen Faktorenanalyse latente Konstrukte für die konfirmatorische Faktorenanalyse gebildet werden. Das Problem, welches sich bei der praktischen Durchführung ergab, ist, dass für jedes der gefundenen Ergebnisse, das Verfahren in Mplus nicht konvergiert. Hierbei wurden pro Berechnung 10000 Durchläufe gemacht und das Konvergenzkriterium von 0.05 bis 0.00005 variiert. Aus diesem Grund haben wir uns entschlossen, ein Modell anhand der inhaltlichen Zusammenhänge zu kosntruieren und zu testen und hierbei die Ergebnisse soweit wie möglich zu berücksichtigen. Die Durchführung in Mplus erfolgt mit 4 Konstrukten.

  1. Das erste Konstrukt umfasst die beobachteten Variablen aus Frageblock 2, 3 und 4. Dieser beschäftigt sich mit der Kompetenz des Lehrers und der Beziehung zwischen Lehrer und Schüler. Wie oben beschrieben wird in der explorativen Faktorenanalyse der erste Faktor hauptsächlich von diesen Variablen geladen. Die verwendeten Variablen sind F0201, F0202-F0205, F0207-F0403 und F0505.
  2. Das zweite Konstrukt befasst sich mit Frageblock 7. Dieser beschäftigt sich mit der Frage, inwiefern die Schüler das Gelernte im Alltag und im Berufsleben anwenden können. Es wurden alle Variablen aus dem Block 7 verwendet. In der oblimin-rotierten Lösung entspricht dies Faktor 4 ohne die bereits verwendeten Variablen, die Variablen nur auf ein Konstrukt laden können.
  3. Das dritte Konstrukt umfasst die beobachteten Variablen aus dem Frageblock 8. Dieser befasst sich mit der Einstellung zu Schule und entspricht in der explorativen Faktorenanalyse dem Faktor 2. Es werden die Variablen F0801-F0804 verwendet.
  4. Im vierten Konstrukt finden sich die Variablen aus dem Frageblock 6 (F0603-F0607, F0610). Dies entspricht in etwa dem Faktor 6 in der von uns angegeben Lösung.

Die Fragen aus dem Block 5 bilden nach unserer Hypothese kein gemeinsames Konstrukt, das die Variablen auf unterschiedliche Faktoren laden. In der Abbildung 2 sieht man zwei der verwendeten Konstrukte als Pfaddiagramm abgebildet.

Abbildung 2: Pfaddiagramms

In den Kreisen stehen die latenten Variablen Einstellung zur Schule (Einstellung) und Straffheit der Unterrichtsführung (Straffheit). In den Quadraten stehen die beobachteten Variablen, die aufgrund der explorativen Analyse den latenten Variablen zugeordnet wurden. Über den Quadraten befinden sich die Kreise für die Fehlerterme. Die Fehlerterme sind untereinander unabhängig. Zwischen den latenten Variablen besteht des Weiteren noch eine Korrelation, welches durch den Doppelpfeil symbolisiert wird. Jeweils ein Pfad zwischen der beobachteten Variablen und der latenten Variablen wird mit einer 1 fixiert. Dies bedeutet, dass eine Veränderung um 1 in der beobachteten Variablen mit einer Veränderung um 1 in der latenten Variablen einhergeht.

Teststatistiken

Chi-Quadrat Test

Dieser Test ist ein erstes Maß für die Gesamtanpassung des Modells. Es wird die Annahme geprüft, ob das Modell die Daten gut beschreibt. Die Likelihood-Quotienten-Teststatistik ist bei Gültigkeit der Nullhypothese asymptotisch \chi^2-verteilt. Je größer der Wert der Teststatistik, umso eher ist die Nullhypothese abzulehnen. Für das oben beschriebene Konstrukt ergibt sich der Wert 1503.492 und der Wahrscheinlichkeitswert (p-Wert) 0.0000. Die Nullhypothese wird verworfen, da der Wert der Teststatistik sehr groß ist und der p-Wert kleiner als 0.05 ist. Der Test ist zum einen empfindlich gegenüber großen Stichproben. Mit wachsendem Stichprobenumfang wächst die Wahrscheinlichkeit H_0 zu verwerfen. Ein weiterer kritischer Punkt im Zusammenhang mit der \chi^2-Teststatistik ist die Nichteinhaltung der Normalverteilungsanahme. Bei nichtnormalverteilten Daten, z.B. mit erheblicher Schiefe, ist die \chi^2-Verteilung im allgemeinen eine schlechte Approximation für die Likelihood-Quotienten-Teststatistik.

TLI/ CFI

Der Tucker-Lewis-index (TLI) gibt die Differenz zwischen dem zu testenden Modell und dem hypothetischen Modell an. Im hypothetischen Modell bestehen zwischen den Variablen keinerlei Abhängigkeiten. Dieser Index ist weniger sensitiv gegenüber einfachen Modellspezifikation und der Verletzung der Verteilungsannahme. Der TLI wird durch folgende Formel berechnet

TLI=\frac{\chi^{2}_{0}/df_{0}-\chi^{2}_{1}/df_{1}}{\chi^{2}_{0}/df_{0}-1}

mit

  • \chi^{2}_{0} = Chi-Quadrat-Wert des Nullmodells
  • df_0 = Freiheitsgrade des Nullmodells
  • \chi^{2}_{1} = Chi-Quadrat-Wert des zu testenden Modells
  • df_1 = Freiheitsgrade des zu testenden Modells

In diesem Beispiel liegt der Index bei TLI=0.571. Bei einem guten Modell liegt der Index über 0.95.

Auch der Comparative-Fit-Index (CFI) vergleicht das gegebene Modell mit einem Modell, in dem die Variablen unkorreliert sind. Er ist unabhängig von der Stichprobengröße und relativ robust gegen die Verletzung der Verteilungsannahme. Aber der Index ist abhängig von der Modellkomplexität, d.h., sparsam besetzte Modelle werden schlechter bewertet. Der CFI ist auf einem Intervall von 0 (keine Übereinstimmung mit den Daten) und 1 (volle Übereinstimmung mit den Daten) normiert. Er wird durch folgende Formel berechnet:

CFI=1-\frac{max[(\chi^{2}_{1}-df_1),0]}{max[(\chi^{2}_{0}-df_0),(\chi^{2}_{1}-df_1),0]}

mit den Bezeichnungen wie beim TLI. In diesem Beispiel liegt der Index bei CFI=0.393. Ein Wert >0.8 wäre akzeptabel und ein Wert >0.95 kennzeichnet ein gutes Modell. Beide Indizes zeigen ein schlechtes Modell an.

RMSEA/SRMR

Der Root Mean Square Error Of Approximation (RMSEA) prüft, ob das Modell die Daten hinreichend gut approximiert. Dieser Index hängt ebenfalls von der Modellkomplexität ab, d.h., je komplexer das Modell ist, um so größer der RMSEA. Berechnet wird er durch

\sqrt{\frac{\chi^{2}/df-1}{N-1}}

mit

  • N = Stichprobengröße
  • \chi^{2} = Chi-Quadrat-Wert des zu testenden Modells
  • df = Freiheitsgrade des zu testenden Modells.

Der Wert 0.232 zeigt in diesem Beispiel eine schlechte Anpassung an, da Werte \leq 0.05 ein gute Modellanpassung anzeigen und Werte \leq 0.08 eine akzeptable Modellanpassung.

SRMR steht für Standardized Root Mean Square Residual. Es wird die standadisierte Abweichnung der beobachteten von der geschätzten Abweichnung bestimmt. Dieser Index hängt nicht von der Stichprobengröße ab und sollte unter 0.11 liegen. Auch dieser Index zeigt mit 0.203 eine schlechte Modellanpassung.

Ergebnisse

Nachfolgend werden die Ergebnisse von Mplus der einzelnen Konstrukte ausgewertet. In der ersten Spalte sieht man die geschätzten Koeffizienten für jede Variable. In der zweiten Spalte stehen die Standardfehler und in der dritten Spalte steht das Ergebnis der Division von geschätzter Parameter durch dazugehörigen Standardfehler. Die letzten beiden Spalten sind standardisierte Koeffizienten für jeden geschätzten Parameter im Modell. Diese verwendet man, wenn die Variablen unterschiedlich skaliert sind

1. Konstrukt: Lehrer-Schüler-Beziehung

    LEHRER   BY
    F0201              1.000    0.000      0.000    0.797    0.797
    F0202              0.800    0.051     15.710    0.637    0.637
    F0203              0.997    0.049     20.433    0.794    0.794
    F0204              0.749    0.051     14.828    0.597    0.597
    F0205              0.700    0.056     12.576    0.558    0.558
    F0207              0.957    0.045     21.083    0.763    0.763
    F0208              0.810    0.054     14.938    0.645    0.645
    F0209              0.858    0.052     16.415    0.683    0.683
    F0301              0.854    0.048     17.641    0.681    0.681
    F0302              0.761    0.049     15.648    0.606    0.606
    F0303              0.928    0.052     17.717    0.739    0.739
    F0304              0.844    0.048     17.537    0.673    0.673
    F0305              0.909    0.040     22.453    0.724    0.724
    F0306              0.787    0.050     15.884    0.627    0.627
    F0401              0.969    0.048     20.034    0.772    0.772
    F0402              1.026    0.051     20.215    0.818    0.818
    F0403              0.518    0.064      8.037    0.412    0.412
    F0505              0.542    0.064      8.499    0.432    0.432

Wie man sieht, sind die Werte der geschätzten Parameter alle recht hoch. Der Parameter für die Frage F0201 war mit 1 im Programmaufruf gesetzt worden. Die geschätzten Koeffizienten geteilt durch ihre Standardfehler testen die Nullhypothese, dass der geschätzte Koeffizient gleich Null ist. Da alle Werte größer als 1,96 (kritischer Wert Z_{1-0.05/2} der standardisierten Normalverteilung) wird die Nullhypothese auf dem Niveau 0.05 für alle Variablen verworfen. Dies bedeutet, dass die verwendeten Variablen einen signifikanten Beitrag zum Konstrukt Lehrerunterstützung leisten.

2. Konstrukt: Handelskompetenz der Schüler

    HANDEL   BY
    F0701              1.000    0.000      0.000    0.720    0.720
    F0702              0.896    0.060     14.890    0.644    0.644
    F0703              0.958    0.058     16.587    0.689    0.689
    F0704              0.955    0.053     17.998    0.687    0.687
    F0705              0.940    0.062     15.104    0.676    0.676
    F0706              0.819    0.070     11.764    0.590    0.590
    F0707              0.914    0.065     13.965    0.658    0.658
    F0708              1.045    0.061     17.004    0.752    0.752
    F0709              1.045    0.060     17.456    0.752    0.752

Auch bei diesem Konstrukt sind die geschätzten Koeffizienten alle relativ hoch. Die Hypothese, dass der Koeffizient Null ist, wird für alle Variablen abgelehnt. Damit leisten die verwendeten Variablen einen signifikanten Beitrag zum Konstrukt Handelskompetenz der Schüler.

3. Konstrukt: Einstellung zur Schule

    EINSTELL BY
    F0801              1.000    0.000      0.000    0.934    0.934
    F0802              0.887    0.036     24.345    0.828    0.828
    F0803              0.859    0.038     22.723    0.803    0.803
    F0804             -0.205    0.141     -1.448   -0.191   -0.191		

Der Parameter für die Frage F0801 wurde wieder mit 1 gesetzt. Die geschätzten Parameter für die Fragen F0802 und F0803 sind beide relativ hoch und haben einen statistisch signifikanten Einfluss auf das Konstrukt Einstellung zur Schule. Der dritte Koeffizient nimmt einen relativ kleinen und negativen Wert an und die Nullhypothese, dass der Koeffizient Null ist, kann nicht verworfen werden.

4. Konstrukt: Straffheit der Unterrichtsführung

    STRAFF   BY
    F0603              1.000    0.000      0.000    0.594    0.594
    F0604              1.163    0.108     10.791    0.690    0.690
    F0605              0.358    0.097      3.703    0.212    0.212
    F0606              1.506    0.131     11.507    0.894    0.894
    F0607              1.293    0.127     10.164    0.768    0.768
    F0610             -0.146    0.113     -1.290   -0.087   -0.087

In der ersten Zeile steht bei dem Wert für den geschätzten Parameter wieder eine 1, da dieser Wert vorgegeben ist. Die Parameter der Fragen F0604, F0605, F0606 und F0607 haben einen statistisch signifikanten Einfluss auf das Konstrukt Straffheit der Unterrichtsführung. Der Koeffizient für die Frage F0610 nimmt den Wert -0.146 an und die Nullhypothese, dass der Koeffizient Null ist, kann nicht verworfen werden.

Neben den Ergebnissen für die einzelnen Konstrukte werden in Mplus die Korrelation zwischen den Konstrukten untersucht.

LEHRER   WITH
HANDEL             0.439    0.036     12.229    0.766    0.766
EINSTELL           0.292    0.043      6.744    0.393    0.393
STRAFF             0.402    0.041      9.827    0.850    0.850

HANDEL   WITH
EINSTELL           0.560    0.032     17.398    0.833    0.833
STRAFF             0.304    0.036      8.514    0.711    0.711

EINSTELL WITH
STRAFF             0.225    0.039      5.810    0.406    0.406

Die Korrelation zwischen den vier Konstrukten ist signifikant verschieden von Null. Zum Schluss werden in Mplus noch für jede Variale die Varianz und die Größe R^2 ausgegeben. Im Fall von metrischen Variablen würde diese Größe als proportioneller Anteil der Varianz an der Gesamtvarianz interpretiert werden. Leider ist dies bei kategoriellen Daten nicht möglich.

Literatur

Kommentare

  • Einführung in die Faktorenanalyse: Die Daten müssen nicht unbedingt normalverteilt sein.
  • KMO etc. ist kritisch zu sehen: Die Daten sind nicht metrisch. Ohne Begründung nicht akzeptierbar.
  • Ergebnisse mit Mplus
    • Sie haben ordinale Daten, was soll die Aussage zur Empfindlichkeit beim Chi^2 zur Normalverteilung? Zumal bei der Umsetzung von ordinalen Daten auf metrische Daten die NV-Annahme einfliesst.
    • Wie gross sind zu große Stichproben ?
  • Interpretation der Faktorenladungen
    • Verschiedene Vorzeichen bei allen Ladungen eines Faktors sind unproblematisch!
    • Oblimin-Transformation: Warum 0.3 ?
    • 4. Faktor: Was haben die Fragen des 1. Faktors und des 4. Faktors miteinander zu tun ?
    • Sehr schön die Erkärung der Indizes CLI, TLI, ...
  • Ergebnisse
    • Unklar in den Tabellen: Welche Spalte ist was ?
    • Wo sehe ich die Korrelationen ? Was bedeuten die anderen Spalten ?