Analyse zur Schülerzufriedenheit an einer Berliner Schule für Sonderpädagogik

From Teachwiki
Jump to: navigation, search

Idee und Vorgehen[edit]

Diese Arbeit entstand im Rahmen des Seminars Applied Quantitative Methods im Sommersemester 2006 in Zusammenarbeit der Wirtschaftswissenschaftlichen und Pädagogischen Fakultät an der Humboldt Universität zu Berlin unter der Mitwirkung von Ph.D. Hlavka[1], Dr. Klinke [2] und Frau Dr. Troitschanskaia[3].

Ziel dieser Arbeit ist es den von Frau Dr. Troitschanskaia bereitgestellten Daten einerseits mithilfe ausgewählter statistischer Verfahren zu analysieren und andererseits die statistischen Verfahren auf ihre Fähigkeiten hin zu überprüfen Zusammenhänge in den Daten aufzuzeigen.

Im Rahmen dieser Arbeit stehen (im Geiste dieses Seminars) die Anwendungsorientierung der statistischen Methoden in einem stärkeren Fokus, als die theoretische Auseinandersetzung mit den zugrundeliegenden Verfahren. Dennoch werden in dieser Arbeit wesentliche Probleme aufgezeigt und diskutiert.

Datengrundlage[edit]

Der von Frau Dr. Troitschanskaia bereitgestellte Datensatz repräsentiert die Ergbenisse einer Befragung von 410 Schülern der Berufsschule Annedore-Leber [4] mit sonderpädagogischer Aufgabe in Berlin Neukölln Ortsteil Britz.

Der Fragebogen umfasst Soziodemografische Faktoren (Alter, Geschlecht, Sprache, Schulabschluss, Unterrichtsfach) sowie 55 Fragen zur Schülerzufriedenheit.

Da die Anteil der fehlenden Werte für die Soziodemografischen Fragen für die ersten 4 Fragen über 85% liegt und die Variable Unterricht nur Information über den Ort der Befragung gibt werden diese Variablen für die weitere Analyse nicht verwendet.

Die 55 Fragen zur Schülerzufriedenheit wurden zur Analyse von 10 wesentlichen Konstrukten verwendet:

  1. Unterstützung der Lehrer
  2. Interesse der Lehrer
  3. Diagnostische Kompetenz der Lehrkraft
  4. Emotionale Beziehung
  5. Binnendifferenzierung
  6. Straffheit der Unterrichtsführung
  7. Zeitmanagement
  8. Selbstkompetenz der Schüler
  9. Handlungskompetenz der Schüler
  10. Einstellung der Schüler zur Schule

Die Variablen sind absteigend ordinalskaliert mit den Ausprägungen:

  • 1 = "ja"
  • 2 = "eher ja"
  • 3 = "eher nein"
  • 4 = "nein"
  • 999 = fehlender Wert

Zur einfacheren Interpretation, insbesondere der deskriptiven Analyse, wurde die Skala invertiert wodurch sich die aufsteigende ordinale Kodierung ergab:

  • 1 = "nein"
  • 2 = "eher nein"
  • 3 = "eher ja"
  • 4 = "ja"
  • 999 = fehlender Wert

Sinn einer solchen Umkodierung ist im Allgemeinen eine einfachere Interpretation einzelner Variablen bzw. deren Ausage, da nun eine höhere Ausprägung einen höheren Grad der Zustimmung und nicht wie vorher einen geringen impliziert.

Anm: Für die Faktorenanalyse macht dieses Vorgehen keinen Unterschied (mit Ausnahme der Umkodierung einzelner Fragen), da hierbei die Korrelation bzw. Kovarianz als Grundlage dient.

Um diese Prozedur konsistent beizubehalten, sollten im Allgemeinen negativ definierte Aussagen ( also z.B. "Ich bin nicht stolz Schüler dieser Schule zu sein." anstelle von "Ich bin stolz Schüler dieser Schule zu sein." entsprechend umkodiert werden. Da die uns vorliegenden Fragen nahezu ausnahmslos positiv definiert sind (wahrscheinlich um die Befragten nicht zu überfordern) wurde zur Vereinfachung darauf verzichtet.

Hohe Zustimmungswerte zu einer Aussage implizieren also eine Hohe Zustimmung zur Frage und nicht zur Aussage selbst.

Deskriptive Analyse[edit]

Die ordinalskalierten Antworten begrenzen die Zahl die strenge Anwendung der deskriptiven Anwendungsmethoden, so ist z.B. kein Mittelwert, Median oder Standardabweichung interpretierbar, da die Abstände der Variablen untereinander nicht interpretierbar sind. Aus dem selben Grund lassen sich streng genommen auch keine Konfidenzintervalle bilden.

Um dennoch eine Vorstellung über wesentliche Aspekte der Antworten zu entwickeln wurde der zulässige Parameter Modus in der unten liegende Tabelle durch den Mittelwert und Median sowie die Standardabweichung ergänzt. Ferner wurde die Zahl der Fälle ohne fehlende Werte und die Gesamtstichprobenanzahl dargestellt.

Mittelwert und Median vermitteln den Eindruck, dass die Befragten tendenziell höhere Werte angekreuzt haben. Die meistens sehr geringe Standardabweichung scheint darauf hinzudeuten, dass die Schüler ähnlich geantwortet haben, also die einzelnen Fragen homogen beantwortet wurden, was für die kommenden Analysen positiv zu bewerten ist. Dennoch sind diese Aussage mit Vorsicht zu geniesen, da sie aus statistischer Sicht im engeren Sinne nicht zulässig sind. die geringe Anzahl der fehlenden Werte ist für die kommende Analyse ebenfalls als positiv zu bewerten.

Die Werte für den Modus stützen zumindest die Aussage über die Mehrheitliche Zustimmung zu den zu beantwortenden Aussagen.

Anm.: dies ist nicht weiter verwunderlich, da wie schon erwähnt die Fragen nahezu ausnahmslos positiv definiert sind (diesmal im Sinne der Befragten, also auf Dinge, welche sein sollten) und somit eher eine Zustimmung als eine Ablehnung implizieren.

Frage Mittelwert Median Modus Standardabweichung Valide N Total N
Schüler unterstützen uns gegenseitig 3,18 3 3 0,73 409 410
schadenfroh bei Fehlern 2,07 2 2 0,90 408 410
auf Mitschüler ist verlaß 3,04 3 3 0,82 403 410
Mitschüler helfen anderen auch ohne Aufforderung 3,07 3 3 0,83 406 410
bin mir selbst überlassen 2,01 2 1 0,96 406 410
fühle mich in Klasse wohl 3,26 3 4 0,88 407 410
Lehrer hat Geduld mit mir 3,43 4 4 0,72 408 410
Lehrer ermutigt mich 3,11 3 3 0,83 407 410
Lehrer betrachtet uns als Partner 2,94 3 3 3,71 392 410
Lehrer hilft mir 3,51 4 4 0,70 404 410
Lehrer interessiert sich für uns 2,54 3 3 1,05 407 410
Lehrer fragt nach Kritik an seinem Unterricht 2,34 2 2 1,11 407 410
Lehrer traut mir was zu 3,31 3 4 0,73 405 410
Lehrer weckt Interesse für Unterricht 3,00 3 3 0,90 397 410
Lehrer nimmt sich Zeit 3,21 3 4 0,92 404 410
Lehrer weiß, was ich leiste 3,13 3 3 0,75 407 410
Lehrer bemerkt, wenn ich etwas nicht verstanden haben 3,01 3 3 0,87 406 410
Lehrer weiß, bei welchen Aufgaben ich Schwierigkeiten habe 2,79 3 3 0,87 403 410
Lehrer bemerkt, wenn sich meine Leistungen verändern 3,38 4 4 0,80 407 410
Lehrer gibt regelmäßig Rückmeldung 2,62 3 3 0,98 404 410
Lehrer lobt mich 2,73 3 3 0,93 404 410
gehe mit Problemen zum Lehrer 2,40 2 1 1,10 408 410
Lehrer achtet auf entspanntes Arbeitsklima 3,19 3 4 0,87 406 410
wenn ich wählen könnte, würde ich gern bei dem Lehrer haben 3,16 4 4 1,03 406 410
erhalte neue Aufgaben, wenn ich fertig bin 2,84 3 3 0,96 405 410
Lehrer stellt unterschiedlich schwere Aufgaben 2,24 2 2 1,01 405 410
Lehrer verlangt von leistungsstarken Schülern deutlich mehr 2,38 2 2 0,95 400 410
fühle mich oft überfordert 1,97 2 1 0,94 402 410
verbessern Schüler ihre Leistungen, werden sie gelobt 2,81 3 3 0,94 395 410
bei Fragen etc. wartet Lehrer bis sich leistungsschwächere melden 2,88 3 3 0,95 394 410
für Bearbeitung reicht Zeit oft nicht aus 2,10 2 1 1,02 396 410
Lehrer fordert pünktliches Erscheinen 3,71 4 4 0,61 403 410
Lehrer kommt selbst immer pünktlich 3,14 3 4 0,99 402 410
Lehrer fordert Beteiligung am Unterricht 3,49 4 4 0,73 402 410
Lehrer greift bei Unruhe ein 3,29 3 4 0,80 401 410
Lehrer achtet darauf, dass Schüler aufpassen 3,17 3 3 0,83 402 410
Lehrer geht schnell voran, deshalb muss ich immer aufpassen 2,79 3 3 0,90 398 410
Lehrer geht so voran, dass ich dazu lerne 3,17 3 3 0,86 403 410
Lehrer erarbeitet zügig die Unterrichtsinhalte 2,98 3 3 0,90 399 410
Lehrer hält Pausenzeiten genau ein 3,37 4 4 0,83 397 410
Lehrer achtet darauf, dass Aufgaben in Ruhe beendet werden 3,35 4 4 0,80 401 410
Lehrer hält Pausen selten pünktlich ein, weil es kein Pausenklingeln gibt 1,96 1 1 1,14 403 410
mit Gelerntem kann ich Alltagsprobleme besser lösen 2,64 3 3 0,93 403 410
mit Gelerntem fühle ich mich im Alltagsleben sicherer 2,64 3 3 0,92 405 410
kann mich durch Gelerntes an Gesprächen aktiv u kompetent beteiligen 2,93 3 3 0,82 403 410
bin sicherer im Umgang mit Menschen 2,72 3 3 0,96 402 410
Unterricht hilft mir, mich kritisch mit dem Alltag auseinander zu setzen 2,63 3 3 0,97 404 410
Unterricht trägt dazu bei, dass ich meine Meinung frei äußere 3,09 3 3 4,87 405 410
kann Gelerntes auch anwenden 3,19 3 3 0,77 404 410
bin mit Gelerntem auf Prüfung gut vorbereitet 3,03 3 3 0,86 400 410
mit Gelerntem kann ich Anforderungen im Berufsfeld bewältigen 3,02 3 3 0,81 401 410
empfehle Freunden an diese Schule zu gehen 2,66 3 3 1,05 403 410
würde wieder zu dieser Schule gehen 2,71 3 3 1,09 406 410
bin stolz, Schüler dieser Schule zu sein 2,44 2 3 1,03 401 410
fühle mich wohl an dieser Schule 2,90 3 3 1,00 406 410

Das mögliche Problem von Fragebogenermüdung durch gleichartig gestellte Fragen kann in dem analysierten Datensatz nicht beobachtet werden, da einerseits die Anzahl der nichtbeantworteten Fragen nicht zunimmt und die Antworten (wie eine Analyse des Error Bar Charts zeigt) untereinander zum Ende sogar heterogener werden. Ferner stützt der Error Bar Chart auf den ersten Blick die These homogener Antworten der Schüler in Bezug auf die einzelnen Fragen.

Interessant ist in diesem Zusammenhang die Antwort auf die Frage "Lehrer betrachtet uns als Partner" welche nach dem optischen Eindruck des Error Bar Charts zu polarisieren scheint da die Antworten stark streuen.

Dennoch ist auch hierbei wieder die Interpretationsfähigkeit des Error Bar Charts begrenzt, da die Konfidenzintervalle und Mittelwerte, welche der Abbildung zugrundeliegen ein metrisches Skalenniveau vorraussetzen.

Abbildung 1: Errorbarchart der 55 Variablen mit 95% Konfidenzintervall

Anwendung der explorative Faktorenanalyse[edit]

Die Faktoranalyse wird in der Praxis häufig verwendet um

  1. Die Anzahl der Variablen zu reduzieren
  2. Homogene Gruppen bzw. latente Variablen zu identifizieren

Die Faktorenanalyse basiert auf der Zerlegung der Kovarianz- (für die Hauptkomponentenmethode) bzw. Korrelationsmatrix (für das Hauptachsenverfahren). Zu theoretischen Aspekten dieser beiden Extraktionsverfahren und den entsprechenden verwendeten Begriffen sei hierbei auf Faktorenanalyse und Hauptkomponentenanalyse verwiesen.

Die Natur der im weiteren Verlauf generierten Faktoren wird eine latente Struktur vermuten lassen, weshalb alternative Rotationsmethoden und im nächsten Kapitel Strukturgleichungsmodelierungen zum Einsatz kommen.

Die Eigenschaft der Faktorenanalyse als hypothesengenerierendes Verfahren wollen die Autoren sich in dieser Arbeit zunutze machen, um eine Hypothese als Grundlage für die spätere konfirmatorische Faktorenanalyse im Rahmen einer Strukturgleichungsmodelierung zu generieren.

Probleme dieser Prozedur liegen in den teilweise nicht erfüllten Annahmen an die Variablen:

1. unabhängige Beobachtungen erfüllt
2. großer Stichprobenumfang wird als erfüllt angesehen (N=296 später N=337)
3. metrisch skalierte Variablen definitiv nicht erfüllt
4. approximativ normalverteilte Variablen definitiv nicht erfüllt

In der Praxis wird hierbei häufig eine Quasimetrik für ordinal skalierte Variablen unterstellt, jedoch ist dafür i.A. eine Anzahl von 5 Kategorien als Minimum zu betrachten (Die Annahme normalverteilter Variablen ist hierdurch dennoch nicht unbedingt gewährleistet). Als alternativer Ansatz wäre ein underlying variable approach sinnvoll, da dieser die polychorische Korrelation als Grundlage verwendet. Da aber die Verteilungen der Variablen nicht bekannt sind, verschieden erscheinen und zudem nicht symmetrisch sind, wäre ein solcher Ansatz mit einem nicht zu vertretenen Aufwand bzw. Annahmen verbunden, bei geringerem Erkenntnisgewinn, welcher somit dem Ansatz dieser Arbeit nach Meinung der Autoren nicht vorzuziehen ist, insbesondere da dieses Verfahren nicht in SPSS implementiert ist.

Dem ungeeeigneten Skalenniveau wird in dieser Arbeit dahingehend Rechnung getragen, dass in Anlehnung an die Arbeit von Pari-Schatz [5] nur die stärksten Faktoren und höchsten Faktorwerte für die weitere Analyse verwendet werden, da das Verfahren der Faktoranalyse bis zu einem gewissen Grade robust auf die Verletzung der Annahmen ist.

Der in der folgenden Abbildung dargestellte Bartlett Test prüft ob die Stichprobe aus einer Grundgesamtheit entstammt, in der die Variablen untereinander unkorreliert sind. Die Nullhypothese lautet also auf Unkorreliertheit der Variablen in der Erhebungsgesamtheit, was in unserem Falle abgelehnt wird.

Das Kaiser-Meyer-Olkin Kriterium Measure of Sampling adequacy basiert auf der Anti-Image Korrelationsmatrix (welche die unabhängigen Anteile jeder Variable durch eine multiple Regression durch die übrigen Variablen darstellt) und zeigt an, in welchem Umfang die Variablen zusammengehören. Ein Wert von 0,9 wird von den Autoren des Testes als "Erstaunlich" angesehen.

Beide Test implizieren somit eine gute Anwendbarkeit der Faktorenanalyse, da sie sehr hohe Werte aufweisen (das unzulängliche Skalenniveau der Variablen wird hierbei außen vor gelassen).

Der folgende Screeplot mit makiertem Kaiser-Kriterium und dem gewählten Cut zeigt ein sogenanntes Ellenbogenkriteriumwelches als ein Kriterium für die Anzahl der zu extrahierenden Faktoren gelten kann. Außerdem ist der Abfall nach dem 4 Faktor durchaus gut erkennbar.

Abbildung 2: Screeplot der Faktorenanalyse über alle 55 Fragen

Mit der Hilfe des Kaiser-Kriteriums werden insgesamt 13 Faktoren extrahiert (Varianzaufklärung ~52%). (Auf eine Darstellung wird im Sinne der übersichtlichkeit verzichtet)

Neben dem typischen Bild eines starken Globalfaktors (siehe unten Faktor 1) kann die Existenz der 10 zugrundeliegenden Konstrukte nicht nachgewiesen werden, da die dafür jeweils relevanten Fragen nicht homogen auf jeweils den gleichen Faktor laden. (Dies ist wenn überhaupt für Faktor 2 bis 5 der Fall und kann leider nicht überprüft werden, da den Autoren bis zum Ende der Abgabefrist dieser Arbeit keine entsprechende Codierungsliste vorlag.)

Für die weitere Analyse wird entsprechend der Darstellung im Screeplot die Anzahl von 4 wesentlichen Faktoren ausgewählt.

Extrahierter Faktor aufgeklärte Varianz über alle Variablen (~32%)
1. Engagement des Lehrers 13,7%
2. Unterrichtsbezug zum Alltag 8,3%
3. Zufriedenheit mit Schule 5,6%
4. Kollektivgüte der Mitschüler 4,3%

Für diese 4 Faktoren werden nur die Variablen für die weiteren Analysen verwendet welche nach einer Varimax-Rotation(welche orthogonal ist und daher die besten Ergebnisse für eine Interpretation liefern sollte) Faktorwerte von über 0,49 haben.

(Auf eine Darstellung wird im Sinne der Übersichtlichkeit verzichtet.)

Es verbleiben 26 Variablen im Datensatz und die Stichprobenanzahl für die weitere Analyse erhöht sich auf N=337 und die Aufklärung der 4 Faktoren innerhalb dieser 26 Variablen steigt von ca. 32% auf ca. 50%. Die auf den Erklärungsanteil bezogen nahe beieinanderliegenden Faktoren 2 und 3 haben nun eine umgekehrte Reihenfolge der Wichtigkeit. Aufgrund des nicht geeeigneten Skalenniveaus und der nun höheren Anzahl von einbezogenen Fällen kann dieses Ergebnis nicht als belastbar betrachtet werden.

Für die Variablengruppen wurde ferner eine Reliabilitätsanalyse durchgeführt, deren Ergebnisse in folgender Tabelle dargestellt werden und eine weitere Analyse mit diesen Variablen rechtfertigt. (Auf eventuelle Reduktionsmöglichkeiten der Variablen innerhalb der Grupppen wurde im Sinne der verbleibenden Freiheitsgrade pro Konstrukt verzichtet.)

Extrahierter Faktor Anzahl der wesentlichen Variablen erklärte Varianz über 26 Variablen (~50%) std. Cronbachs Alpha
1. Engagement des Lehrers 13 21,6% 0,908
2. Zufriedenheit mit Schule 4 10,8% 0,888
3. Unterrichtsbezug zum Alltag 5 10,6% 0,823
4. Kollektivgüte der Mitschüler 4 7,2% 0,773


Ergebnisse der unrotierten Lösung[edit]

In der folgenden Abbildung der Faktorladungen der unrotierten Lösung wurden zur Übersichtlichkeit Faktorladungen die kleiner als 0,35 sind unterdrückt. Bei der unrotierten Lösung erkennen wir ganz klar einen Hauptfaktor auf den fast alle Variablen laden. Dieser erklärt etwa 32% der Gesamtvarianz in den verbleibenden Daten (alle vier Faktoren etwa die Hälfte der Gesamtvarianz).

Abbildung 3: Faktorenmatrix der unrotierten Lösung der ausgewählten Variablen

Ergebnisvalidierung mit Hilfe von Rotationsmethoden[edit]

Anwendung der orthogonalen Varimax Rotation[edit]

In der folgenden Faktorenmatrix wurden Werte Kleiner 0,35 aus Vereinfachungsgründen unterdrückt. Die Varimax Rotation verbessert die Interpretierbarkeit des Ergebnisses sichtbar. Nun ist es möglich 4 Faktoren sinnvoll zu interpretieren. Wie bereits erwähnt, sind nun die Variablen zu den Faktoren in einem höheren Maße getrennt als es bei der unrotierten Lösung der Fall war. Es fällt auf, dass bis auf den ersten Faktor die Variablen aus den gleichen Frageblöcken stammen (für Faktor 2 Block 8, Faktor 3 Block 7 und Faktor 4 Block 1).

Abbildung 4: Faktorenmatrix der rotierten Lösung der ausgewählten Variablen (Varimax)

Die folgende Abbildung zeigt nochmals die gefundenen Faktoren und deren entsprechende Variablen als Error Bar Chart. Es fällt in diesem Zusammenhang auf, dass die einzelnen Variablen bis auf einige Ausnahmen in ähnlichen Bereichen vorzufionden sind, was ihre Ausprägung anbelangt. Ob dieser Fakt auf das jeweilige latente Konstrukt zurückzuführen ist oder durch den Fragebogen bedingt ist (die Fragen kommen dort in Blöcken und aufeinanderfolgend vor), kann in diesem Falle nicht klar festgestellt werden.

Abbildung 5: Ausgewählte Faktoren und Errorbarchart der 26 Variablen mit 95% Konfidenzintervall

Anwendung der Obliquen Rotationsmethode OBLIMIN[edit]

Die Annahme vertretend, dass die latenten Konstrukte Ursache für die Struktur der Antworten ist, wird im folgenden die Hypothese verfolgt, dass die Faktoren miteinander in Beziehung stehen könnten. Durchaus läßt die Natur bzw. Bedeutung der unter der Varimax-Rotation gefundenen Faktoren einen solchen Schluß zu. Um der genannten Hypothese nachzugehen wurde von den Autoren die OBLIMIN Rotation durchgeführt (welche eine Oblique bzw. nicht-orthogonale Rotationsmethode darstellt).

Weitere Informationen zu nicht orthogonalen Rotationsmethoden finden sich in der Arbeit Oblique_Rotation_Methods_in_Factor_Analysis. Es sei hier nur zum Verständnis erwähnt, dass mit steigenden OBLIMIN Parameter (welcher ein Delta des Abstandes zur orthogonalen Lösung darstellt) der Winkel der Faktoren zunehmend veränderbar wird gegenüber einer orthogonalen Lösung, wodurch in unserem Beispiel, wie in folgender Abbildung deutlich wird, die Korrelationen der Faktoren untereinander zunimmt. (Der maximal mögliche Parameterwert von 0,8 führte zu keiner Konvergenz, der maximale Parameter, welcher in unserer Dezimalschrittfolge noch konvergierte betrug 0,6.)

Abbildung 6: Korrelationsmatrix der rotierten Lösung (für verschiedene Oblimin Parameter)

Für den letzten konvergierenden Paramter sind die Korrelationen zwar ähnlich hoch, wie bei dem Paramterewert 0,5, aber einige Werte haben nun ein anderes Vorzeichen. Dies macht deutlich, dass die Interpretierbarkeit der Ergebnisse Obliquer Rotationsmethoden vorsichtig erfolgen sollte.

Abbildung 7: Korrelationsmatrix der rotierten Lösung (für Oblimin Parameter 0,6)

Die Sensitivitätsanlyse im folgenden Kapitel soll diese Veränderungen der Ergebnisse am Beispiel des Faktors eins durch geänderte Paramterwerte deutlich machen.

Sensitivitätsanalyse des OBLIMIN Parameters[edit]

Die Ergebnisse eines solchen Vorgehens sind mit Vorsicht zu geniesen, wie die folgenden Grafiken deutlich machen. Für die durchgeführten Rotationen erhält man nun zwei interpretierbare Matrizen, eine für die Faktorladungen und eine für die Korrelationen der Variablen mit den Faktoren. In der orthogionalen Rotation waren diese identisch und vereinigten sich in den oben dargestellten Faktorenmatrix.

Es wird aus der folgenden Abbildung deutlich, dass mit steigendem Oblim-Paramter die Faktorladungen für den Faktor 1 (grün) sich insbesondere gegen Ende stark verändern. Insbesondere die ab Parameter 0,5 sichtbaren Faktorwerte der Variablen eigentlich anderer Faktoren zeigen Zusammenhänge auf, welche vorher verborgen waren. So scheinen einige Variablen anderer Faktoren zumindest in einem gewissen Maße von dem latenten Konstrukt des Faktors 1 abhängig.

Abbildung 8: Sensitivitätsanalyse der Faktorenmatrix(für verschiedene Oblim Parameter)


Das die besprochenen Ergebnisse mit Vorsicht zu geniesen sind wird in der folgenden Abbildung deutlich. Zwar hatten einige Variablen des vierten Faktors (blau) in der vorhergehenden Abbildung einen Zusammenhang ab einem gewissen Oblim-Parameter angezeigt, aber die Korrelation diese Variablen mit diesem Faktor sinkt gleichzeitig, was aus folgender Grafik ersichtlich wird.

Interessant ist ferner, dass die Variablen des ersten Faktors (grün) an Korrelation mit dem ersten Faktor verlieren wenn die Faktoren zunehmend miteinander in Beziehung stehen dürfen. Dies liegt zwar auf der Hand, da durch dieser Verfahren ein höherer Grad von unschärfe entsteht als es bei der Varimax-Methode der Fall ist, macht aber vor allem deutlich, dass eine Interpretation der Ergebnisse und der Beziehungsstruktur der latenten Konstrukte untereinander wenigstens mit Vorsicht zu geniesen ist oder gar davon abgeraten werden sollte.


Abbildung 9: Sensitivitätsanalyse der Strukturmatrix(für verschiedene Oblim Parameter)

Da die vorgestellte Methodik nicht in der Lage war bei der Analyse der latenten Konstrukte klare Ergebnisse zu liefern, wird im Folgenden der Versuch unternommen durch dieselbe zugrundeliegende latente Struktur, welche bisher dargestellt wurde, ein Modell einer konfirmatorische Faktorenanalyse zu erzeugen um auf die Interaktionen der latenten Konstrukte schließen zu können.

Strukturgleichungsmodelle[edit]

Da der Wikipedia-Artikel zu diesem Thema zum Zeitpunkt der Erstellung dieser Arbeit eher rudimentärer Natur ist (Kausalanalyse Strukturgleichungsmodellierung), halten wir es für gegeben auf wesentliche Aspekte (und auf teilweise theoretischer Ebene) diese Methodik in allgemeiner Natur einzugehen, ohne den Anspruch auf Vollständigkeit zu beanspruchen, sondern um dem Leser mit den Grundlagen vertraut zu machen.

Definition und Abgrenzung[edit]

Strukturgleichungsmodelle sind statistische Verfahren zur Prüfung von exante aufgestellten oder vermuteten Modellen. Dabei werden Methoden der konfirmative Faktorenanalyse, der Pfadanalyse und der Regressionsanalyse verbunden. Wenn mit Hilfe eines Datensatzes Kausalitäten überprüft werden, so spricht man von einer Kausalanalyse. Da dieses Verfahren konfirmatorisch ist, sollte man sich jedoch von vornherein darüber im Klaren sein welche Indikatoren (gemessene Variablen) auf welche latente Fakoren (d.h nicht messbare Variablen) wirken. Dazu sollte man z.B eine Theorie aus Sozialwissenschaft oder Psychologie verfolgen. Das Besondere von Strukturgleichungsmodellen im Rahmen der Kausalanalyse ist, dass auch Zusammenhänge zwischen den latenten Faktoren überprüft werden können.

Kausalanalyse[edit]

In der Kausalanalyse kommen verschiedene Modelle zusammen, das Struktur- (beschreibt den Zusammenhang zwischen den Konstrukten) das eigentliche Strukturgleichungsmodell und das Messmodell der exogenen Variablen und der endogenen Variablen. Im eigentlichen Strukturmodell müssen nur die Beziehungen zwischen den latenten Variablen in Form linearer Gleichungen abgebildet (vgl. auch Annahmen) werden. Zur Berechnung der sog. Dependenzstrukturen müssen die latenten Variablen zuvor jeweils mit Hilfe ihrer Messmodelle bestimmt werden. Die Schätzung des Strukturmodells erfolgt dann mit einer multiplen Regressionsanalyse.

Abbildung 10: Pfaddiagramm eines plausiblen Beispiels. Bei der Konfirmatorischen Analyse werden hier die Korrelationen \lambda31,\lambda \lambda,\lambda weggelassen.

Messmodell in Matrixschreibweise (Beispiel rechts) 
\begin{bmatrix}
x_{1} \\ 
x_{2} \\ 
x_{3} \\ 
x_{4}
\end{bmatrix}
_{px1}=
\begin{bmatrix}
\lambda _{11} & 0 \\ 
\lambda _{21} & 0 \\ 
0 & \lambda _{32} \\ 
0 & \lambda _{42}
\end{bmatrix}
\begin{bmatrix}
\xi _{1} \\ 
\xi _{2}
\end{bmatrix}
_{sx1}+
\begin{bmatrix}
\delta _{1} \\ 
\delta _{2} \\ 
\delta _{3} \\ 
\delta _{4}
\end{bmatrix}
_{px1}

Zerlegung der Varianzen und Kovarianzen in Strukturgleichungen

Strukturgleichungsmodelle bestehen aus unabhängigen latenten auch als exogen bezeichnet Variablen und abhängig latenten auch als endogene Variablen bezeichnet, die durch gerichtete Wechselwirkungen (Richtungspfeile=Regressionsgewichte) oder ungerichtete Wechselwirkungen (Doppelpfeile=Korrelation) untereinander verbunden sind, sowie Fehlertermen, die zur Modellierung der nicht erklärten Varianz der Variablen dienen. Die Fehlerterme sind als unkorreliert anzunehmen.

Annahmen[edit]

  • Linearität in den Daten
  • multivariate Normalverteilung
  • ausreichend große Stichprobe muss vorhanden sein N>300
  • bei nicht metrischen Daten mindestens 4-5 Abstufungen

Konfirmatorische Faktorenanalyse (vgl. Backhaus)[edit]

Hypothesenbildung[edit]

Getestet wird letztendlich die Nullhypothese das unser Modell, das wir aufgestellt haben, die in der Kovarianzmatrix zusammengefassten Varianzen und Kovarianzen gut erklären kann. Wir können unser Modell frei wählen. Man sollte sich aber wie bereits beschrieben, auf eine wissenschaftlich begründete These stützen.

Spezifikation eines Modells und Erstellung eines Pfaddiagramms[edit]

Die grafische Umsetzung der Hypothesen erfolgt anhand eines Pfaddiagrammes mit einer Software wie AMOS oder LISREL oder EQS. Die durch das Pfaddiagramm dargestellten Strukturen können dann in das lineares Gleichungsssystem überführt werden. Die Software AMOS generiert die Gleichungssysteme selbstständig, wobei andere Programme eine explizite mathematische Formulierung verlangen. Ein vollständiges Strukturgleichungsmodell besteht aus drei Matrizen Gleichungen zwei für die Meßmodelle (ein Meßmodell für die latenten endogenen Variablen und ein Meßmodell für die latenten exogenen Variablen) und eine für das Strukturmodell. Die Koeffizienten zwischen zwei Variablengruppen \lambda_xund \lambda_y für die Meßmodelle sowie \lambda für das Strukturmodell.

Parameterschätzung[edit]

Reichen die Informationen die freien Parameter zu schätzen, so ist das Modell identifiziert. Das Mehrgleichungsmodell muss eindeutig lösbar sein. D.h die Anzahl der Gleichungen muss mindestens so gross sein wie die Zahl der zu schätzenden Parameter. Die s=[p*(p+1)/2] Informationsteile der Varianz-Kovarianzmatrix sollten durch t<s Modellparameter erklärbar sein. Genau identifizierte Modelle (df=0) sind aus dieser Perspektive nutzlos, da sie lediglich eine "Reformulierung" der Beobachtungen darstellen. Als Fausregel gilt ausserdem, dass die empirische Korrelationsmatrix postiv definit sein sollte um die nötigen Matrizenoperationen durchführen zu können.

Die Kovarianzstruktur

Die gesuchten Modellparameter (Faktorladungen, Varianzen der latenten Variablen, Kovarianzen der latenten Variablen, Varianzen der Messfehler) werden aus den Varianzen und Kovarianzen der manifesten Variablen geschätzt. Damit die Varianz der latenten Variablen identifizierbar wird, muss eine Faktorladung auf 1 gesetzt werden. z.B \lambda=1 in Abbildung 10.

Vorgehensweise
  • Schätzung der freien Parameter (Ladungen und Fehlervarianzen)
  • Berechnung der Residualmatrix
  • Modelltestung \chi^2-Test und Modell Fit

Verwendete Schätzverfahren[edit]

  • Maximum Likelihood (ML)
  • Unweighted Least Square (ULS)
  • Generalized Least Squares (GLS)
  • Asympthotical Distribution Free (ADF oder WLS)

Bei praktischen Untersuchungen, wo Annahmen wie multivariate Normalverteilung selten erfüllt sind, sollte man möglichst ML oder GLS verwenden. Da die Parameterschätzungen für einen hinreichend grossen Stichprobenumfang asymptotisch unverzerrt (geringe/keine Über - oder Unterschätzungen), konsistent (Parameter konvergieren gegen wahre Populationswerte) und asymptotische effizient (Varianz nimmt mit steigendem N ab) sind. ADF stellt zum Beispiel keine Anforderungen an die zugrundeliegende Verteilung, eignet sich aber nur wenn der Datensatz keine fehlenden Werte enthält, oder um diese auf geeignete Weise bereinigt wurde. Vgl. [6]

Modellevaluation (vgl. Hu und Bentler)[edit]

Der \chi^2 Test hängt nicht nur von der Anpassungsgüte der geschätzten Kovarianzmatrix an die empirische ab, sondern auch von der Stichprobengrösse und ist damit leicht manipulierbar. Mit wachsender Stichprobengrösse wächst die Wahrscheinlichkeit die Nullhypothese zu verwerfen. Je grösser ist also der \chi^2 Wert und umso schlechter die Anpassung des Modells an die Daten. Es benötigt also weitere robustere Kriterien zur Evaluation eines geschätzten Modells.

Modellmodifikationen[edit]

Eine Modellstruktur läßt sich dadurch vereinfachen, daß bisher spezifizierte Parameter wieder aus dem Modell ausgeschlossen werden, wenn damit der Modellfit verbessert wird. Ein gutes Kriterium dazu ist der Modifikationsindex. Er gibt an, um wieviel Einheiten der \chi^2 Wert sinken würde, wenn wir eine Variable freisetzen würden. Eine solche Vorgehensweise entpricht aber eher einem "Herumdoktoren" und Variablen sollten auch nur aufgrund theoretischer Überlegungen entfernt werden.

Absolute Fit Indizes[edit]

Root-Mean-Square-Error-of-Aproximation (RMSEA) Cut-Off <0.6, McDonalds-Centrality-Index (MC)

Diese Indizes sind sehr sensitiv gegenüber falsch spezifizierten Ladungen. Sie sind auch sehr sensitiv gegenüber komplexeren Modellspezifikationen. Ein Nachteil ist das bei zu kleinen Stichproben N<250 zu oft richtige Modelle verworfen werden.

RMSEA=\sqrt{\frac{\hat{C}-df}{(n-g)*df}}

Wobei \hat{C} Minimalwert der Diskrepanzfunktion des aktuelle Modells g Anzahl der Gruppen im Normalfall 1


Standardized-Root-Mean-Square-Residual (SRMR) (Cut-Off<0.11) Der SRMR ist sensitiv gegenüber einfachen Modellspezifikationen. Ein Vorteil ist das er wenig sensitiv gegenüber einer kleineren Stichprobengrösse ist.

Relative Fit Index[edit]

Tucker-Lewis-Index (TLI);, Comparative-Fit-Index (CFI), Relative-Noncentrality-Index Die genannten Indizes sind moderat sensitiv gegenüber einfachen Fehlspezifikationen. Ein Vorteil ist vorallem eine geringe Sensitivität gegenüber Verteilungsverletzungen und dem Stichprobenumfang. Mit Ausnahmen von TLI können die genannten Indizes dadurch auch bei kleinerem Stichprobeumfang für ML Schätzungen eingesetzt werden. Müssen in AMOS fehlende Werte geschätzt werden, so sind diese Fit-Indizes jedoch nicht sehr geeignet. In diesem Falle sollte auf den RMSEA Index zurückgegriffen werden.

CFI=1-\frac{\max (\hat{C}-df;0)}{\max (\hat{C}_{b}-df_{b};0)}

Wobei \hat{C} Minimalwert der Diskrepanzfunktion des aktuelle Modells und \hat{C}_b Minimalwert der Diskrepanzfunktion eines Basismodells

Pfadmodell mit Amos[edit]

Neben der Software AMOS besitzen noch die Software LISREL und EQS die Möglichkeit Pfadmodelle zu visualisieren und Modifikationen grafisch vorzunehmen. AMOS liefert dann alle zu schätzenden Werte. AMOS ist nach kurzer Einarbeitungszeit sehr gut bedienbar und erfreut sich in vielen wissenschaftlichen Fragestellungen wachsender Beliebtheit. Da uns die Ergebnisse der explorativen Faktorenanalyse sehr plausibel erschienen und uns keine weiteren sozialwissenschaftliche Theorien zu der Befragung bekannt war, haben wir alle Variablen und Konstrukte in AMOS umgesetzt.

Abbildung 11:Screenshot unseres Amos Modells

Ergebnisse[edit]

Die geschätzten Faktorladungen mit AMOS sind wie zu erwarten, fast genau gleich der rotierten Varimax Lösung der explorativen Faktorenanalyse. Unser Modell ergibt aber einen \chi^2 Wert von 604 und die Nullhypothese wird von AMOS auf jedem Signifikanzniveau verworfen.

Abbildung 12:Faktorladungen

Bei Praktischen Anwendungen geht man davon aus, dass ein Modell gut ist, wenn das Verhältnis \chi^2/df< 2,5 gilt (vgl. Backhaus). Unser Ergebnis ist mit 2,35 noch als gutes Modell zu betrachten. Wir müssen aber auf andere Fit Indizes schauen. Der Vorteil bei AMOS ist, dass man nicht alle Cut-off Werte im Kopf haben muss. Das erstellte Modell wird in der Ausgabe als "Default", das bestmöglichste als "Saturated" und das schlechteste als "Independence" bezeichnet. Wir können an allen Indizes sehen, dass unser Modell den verschiedenen Gütekriterien gerecht wird. Das Ergebnis was uns aber eigentlich interessiert, sind die Korrelationen der latenten Konstrukte untereinander. Dort können wir feststellen, dass vorallem der erste und der zweite Faktor mit 0,62 sehr stark miteinander korreliert sind. Es wird von den Schülern empfunden, dass vorallem engagierte Lehrer einen praxisbezogenden Untericht gestalten. Das wiederum fördert die Zufriedenheit mit der Schule. (Faktor zwei mit drei Korrelation 0,42). Da es sich um eine berufsbildende Schule für Sonderpädagogik handelt können wir festhalten, dass von den Schülern vorallem engagierte Lehrer die einen praxisbezogenden Unterricht halten Wert gelegt wird. Zufriedenheit mit der Schule und Kollektivgüter der Mitschüler spielen für sich eine weitere, aber untergeordnete Rolle. Man kann daraus schliessen, dass es den Schülern sehr wichtig ist, etwas aus dem Unterricht in den Alltag mitzunehmen und eventuell ihre Berufschancen zu erhöhen. Aus der deskriptiven Analyse sieht man, dass die Annedore-Leber-Schule in diesen Bereichen recht gute Bewertungen erhielt. (Zustimmung fast überall "eher ja")









Abbildung 13:Modellfit
Abbildung 14:Korrelation der Faktoren untereinander

















Abbildung 15:Korrelation der Faktoren untereinander

Fazit[edit]

Die Arbeit macht deutlich, dass die Anwendung von Faktoranalysen auch bei ungeeignetem Skalenniveau bis zu einem gewissen Grad sinnvoll interpretierbare Ergebnisse zu liefern in der Lage ist. Für die Identifikation einzelner Konstrukte und ihre Interpretierbarkeit leistet die explorative Faktorenanalyse in Zusammenhang mit den entsprechenden Rotationsmethoden zufriedenstellende Ergebnisse.

Für die Analyse von eventuellen Zusammenhängen der Konstrukte untereinander ist diese Methodik jedoch als unzureichend anzusehen. Hierfür bietet die konfirmatorische Faktorenanalyse, obgleich für einen anderen Zweck entwickelt, eine mögliche Alternative.

Die Ergebnisse für den hier verwendetetn Datensatz zeigen, dass die Überprüfung latenter Strukturen der Identifikation von latenten Konstrukten stets folgen sollte, wenn eine theoretische Hypothese dies rechtfertigt.

Eine rein Datengetriebene Analyse ist in diesem Umfeld abzulehnen, da in Daten häufig Abhängigkeiten entdeckt werden welche so nicht standhaft sind.

Als Beispiel soll an dieser Stelle der bekannte Zusammenhang zwischen der "Heimkehr" der Storche und den Geburtenzahlen dienen, welcher von der reinen Datenbetrachtung einen Zusammenhang impliziert, aber wissenschaftstheoretisch nicht standhaft ist, weil der Zusammenhang besser durch die intermediäre Variable Jahreszeit zu erklären ist.

Literatur[edit]

  • Backhaus, Erichson, Weiber, Plinke: Multivariate Analysemethoden. Springer Berlin Heidelberg, 9. Auflage 2000 [7]
  • Härdle, Simar Applied Multivariate statistical Analysis Springer Berlin Heidelberg, 2003 [8]
  • Rönz, B.: Skript Computergestützte Statistik II, 2000
  • Hu und Bentler (1998,1999) Verwendung von globalen Fit-Indizes ergänzt durch Fan,Thompson,Wang (1999)
  • Baltes-Götz, Bernhard: Analyse von Strukturgleichungsmodellen mit Amos 5.0
  • Ramseier von Trub, Erich: Motivation als Ergebnis und als Determinante schulischen Lernens, Dissertation, Zürich, 2004

Kommentare[edit]

  • Deskriptive Analyse: Ist hier die Anwendung von Mittelwert und Standardabweichung gestattet?
  • Anwendung der explorative Faktorenanalyse
    • Warum ist die Annahme unabhängiger Beobachtungen erfüllt?
    • Die Bequemlichkeit bzw. Unbequemlichkeit für die Autoren kann kein Massstab sein, welche Verfahren angewendet werden. Die Anwendung von Verfahren für metrische Variablen auf ordinale Daten bedarf immer der Absicherung, dass diese Approximation erlaubt ist!
    • Abbildung oft unleserlich
    • Was ist denn -52%? Sind ca. 52% gemeint?
    • Warum denn Faktorwerte (Faktorladungen ?) von mehr als 0,49?
  • Anwendung der Obliquen Rotationsmethode OBLIMIN: Was ist der richtige Wert für delta ?
  • Konfirmatorische Faktorenanalyse: Warum sollte man die ML Methode benutzen, wenn die Normalverteilungsannahme nicht erfüllt ist ? Wäre GLS da nicht besser ?
  • Pfadmodell mit Amos: Aus der Theorie weiss man, dass Befragte eher positiv antworten als negativ; daher eventuell auch die positiven Antworten.
  • Meine These: Eine reine theoriegetriebene Datenanalyse ist in diesem Umfeld abzulehnen, da den Daten Abhängigkeiten aufgezwungen werden welche so nicht vorhanden sind.
  • Auch dem letzten Satz kann ich nicht zustimmen, denn es gibt einen Zusammenhang zwischen Störchen und Geburten! Statistik liefert Ihnen keine Interpretation des Zusammenhangs, erst die Miss- oder Fehlinterpretation des Zusammenhangs ist problematisch.