ANOVA

From Teachwiki
Jump to: navigation, search

Error creating thumbnail: File missing
Please do not cite work from this wiki, since these are mainly students theses which may contain errors!
Error creating thumbnail: File missing

Dieser Artikel wurde in der deutschsprachigen Wikipedia erstellt und in das teachwiki importiert und bearbeitet. Hierbei wurden Änderungen am Artikel von unterschiedlichen Autoren gemacht. Die Versionsgeschichte und Autorenschaft dazu ist im entsprechenden Artikel der deutschsprachigen Wikipedia zu finden.

Als Varianzanalyse bezeichnet man eine große Gruppe datenanalytischer und mustererkennender statistischer Verfahren, die zahlreiche unterschiedliche Anwendungen zulassen. Ihnen gemeinsam ist, dass sie Varianzen und Prüfgrößen berechnen, um Aufschlüsse über die hinter den Daten steckenden Gesetzmäßigkeiten zu erlangen. Die Varianz einer oder mehrerer metrischer Zielvariable(n) (abhängiger Variablen) wird dabei durch den Einfluss einer oder mehrerer kategorieller Einflussvariablen (Faktoren bzw. unabhängiger Variablen) erklärt. Je nachdem, ob eine oder mehrere Zielvariablen vorliegen, unterscheidet man zwei Formen der Varianzanalyse:

  • die univariate Varianzanalyse, nach der englischen Bezeichnung analysis of variance auch als ANOVA bezeichnet
  • die multivariate Varianzanalyse, nach der englischen Bezeichnung multivariate analysis of variance auch als MANOVA bezeichnet


Begriffe[edit]

  • Zielvariable (abhängige Variable)
    • Die metrische Zufallsvariable, deren Wert durch die kategorialen unabhängigen Variablen erklärt werden soll. Die abhängige Variable enthält Messwerte, sie muss metrisch sein.
  • Einflussvariable (Faktor, Treatment, Treatmentfaktor, unabhängige Variable)
    • Die kategoriale Variable (= Faktor bzw. Treatment, Treatmentfaktor), die die Gruppen vorgibt, kann ein beliebiges Skalenniveau aufweisen. (Wenn eine stetige Einflussvariable vorliegt, ist für die Interpretation die Klassierung notwendig).
    • Die Kategorien eines Faktors heißen dann Faktorstufen. Diese Bezeichnung ist nicht identisch mit jener bei der Faktorenanalyse. Der Einfluss der Faktstufen wird schließlich im Laufe der Analyse überprüft. Ein Faktor muss mindestens 2 Ausprägungen (Faktorstufen) haben.
  • Je nachdem, ob ein oder mehrere Faktoren (Treatments / unabhängige Variablen) vorliegen, unterscheidet man zwischen einfaktorieller (einfacher) und mehrfaktorieller (multipler) Varianzanalyse, wobei bei der einfaktoriellen Varianzanalyse die unabhängige Variable p>1 unterschiedliche Stufen bzw. Merkmalsausprägungen besitzen kann.
  • Je nachdem, ob pro jede Faktorausprägung (Gruppe) gleiche Anzahl der Beobachtungen vorliegt , unterscheidet man vom balancierten Fall (in jeder Gruppe ist die gleiche Zahl der Beobachtungen) oder unbalancierten Fall (jede Gruppe hat unterschiedliche Anzahl der Beobachtungen).

Grundidee der Varianzanalyse[edit]

Die Verfahren untersuchen, ob (und gegebenenfalls wie) sich die Erwartungswerte der metrischen Zufallsvariablen in verschiedenen Gruppen (auch Klassen) unterscheiden. Mit den Prüfgrößen des Verfahrens wird getestet, ob die Varianz zwischen den Gruppen größer ist als die Varianz innerhalb der Gruppen. Dadurch kann ermittelt werden, ob die Gruppeneinteilung sinnvoll ist oder nicht bzw. ob sich die Gruppen signifikant unterscheiden oder nicht.

Wenn sie sich signifikant unterscheiden, kann angenommen werden, dass in den Gruppen unterschiedliche Gesetzmäßigkeiten wirken. So lässt sich beispielsweise klären, ob das Verhalten einer Kontrollgruppe mit dem einer Experimentalgruppe identisch ist. Ist beispielsweise die Varianz einer dieser beiden Gruppen bereits auf Ursachen (Varianzquellen) zurückgeführt, kann bei Varianzgleichheit geschlossen werden, dass in der anderen Gruppe keine neue Wirkungsursache (z.B. durch die Experimentalbedingungen) hinzukam.

Siehe auch: Diskriminanzanalyse, Bestimmtheitsmaß

Bedeutung der Varianzanalyse[edit]

Die Varianzanalyse spielt in der Wissenschaft eine wesentliche Rolle. Sie kann als die wissenschaftlich fundierte Form der Kausalattribuierung (Ursachenzuschreibung) angesehen werden, welche Menschen in naiver Weise ständig im Alltag betreiben und dabei Häufigkeiten und Variabilität von Handlungen oder Vorgängen auf mutmaßliche Gründe zurückführen. Alltagsvorgänge, die oft gemeinsam auftreten oder unter Umgebungsveränderungen in ähnlicher Weise variieren/kovariieren, werden als kausal miteinander im Zusammenhang stehend interpretiert. So kann die Häufigkeit (Intensität, Art und Weise usw.), mit der eine Person ihre Hände wäscht, mit der Häufigkeit in Bezug gesetzt werden, mit der sie schmutzige Tätigkeiten ausführt (z.B. Automechaniker). Im Alltag wird dann naiv der Fehlschluss gezogen, dass eine Person, die gerade ihre Hände wäscht, zuvor eine Verschmutzung hatte, die als Grund für das Händewaschen angesehen wird (eine sog. Abduktion). Diese Ursachenzuschreibung kann jedoch falsch sein, da es auch andere Gründe für Händewaschen gibt.

Der statistischen Varianzanalyse kommt deshalb eine wesentliche Rolle zu, da sie das Alltagsdenken in konsequenter Form fortsetzt. Viele andere multivariate Verfahren setzen das Alltagsdenken nicht fort, sondern basieren auf künstlich entwickelten Modellannahmen.

Die statistische Signifikanz einer ermittelten Gruppeneinteilung lässt sich anhand der F-Verteilung testen. Die Werte in dieser Verteilung sind die Prüfgröße der Varianzanalyse.

Beispiele für die Anwendung der Varianzanalyse sind die Untersuchung der Wirksamkeit von Medikamenten in der Medizin und die Untersuchung des Einflusses von Düngemitteln auf den Ertrag von Anbauflächen in der Landwirtschaft.

Voraussetzungen der Varianzanalyse[edit]

Die Anwendung jeder Form der Varianzanalyse ist an Voraussetzungen gebunden, deren Vorliegen vor jeder Berechnung geprüft werden muss. Erfüllen die Datensätze diese Voraussetzungen nicht, so sind die Ergebnisse unbrauchbar. Die Voraussetzungen sind je nach Anwendung etwas unterschiedlich, allgemein gelten folgende:

Die Überprüfung erfolgt mit anderen Tests außerhalb der Varianzanalyse, die allerdings heute standardmäßig in Statistik-Programmen als Option mitgeliefert werden. Die Normalverteilung kann beispielsweise für jede Variable mit dem Shapiro-Wilk-Test überprüft werden. Wenn diese Voraussetzungen nicht erfüllt sind, bieten sich verteilungsfreie, nicht-parametrische (verteilungsfreie) Verfahren an, die robust sind, aber geringere Teststärke besitzen.

Einfaktorielle Varianzanalyse[edit]

Bei einer einfaktoriellen Varianzanalyse untersucht man den Einfluss einer unabhängigen Variable (Faktor/Treatment) mit m verschiedenen Ausprägungen auf eine abhängige Variable, welche die Messwerte enthält und metrisch ist.

Mathematisches Modell[edit]

Das Modell der einfaktoriellen Analyse kann man mit Hilfe der Effekte bzw. Wirkung, die das Treatment/Faktor verursacht, darstellen:

Y_{j,i} = \mu + \alpha_{j} + \varepsilon_{j,i},\quad j=1,\dots,m,\ i=1,\dots,n_{j}

  • Y_{j,j} \,: Zielvariable; annahmegemäß in den Gruppen normalverteilt
  • m \, Anzahl der Faktorstufen des betrachteten Faktors
  • n_{j}\,: Stichprobenumfänge für die einzelnen Faktorstufen
  •  \mu \,: Mittelwert der Gesamtstichprobe (Gesamtmittelwert)
  •  \alpha_{j}\,: Effekt der j-ten Faktorstufe
  • \varepsilon_{j,i}\,: Störvariablen, unabhängig und normalverteilt mit Erwartungswert 0 und gleicher Varianz.

Beispiel[edit]

Eine mögliche Fragestellung, die sich mit Hilfe der einfaktoriellen Varianzanalyse untersuchen ließe: Ein Englischlehrer möchte überprüfen, welche der 4 von ihm im Unterricht eingesetzten Lehrmethoden (unabhängige Variable bzw. Faktor X) am besten zum Lernerfolg der Schüler beiträgt. Jeder Methode werden zufällig 5 Schüler zugewiesen und unterrichtet. Am Ende schreiben die Schüler einen Test, dessen Punktzahl (unabhängige Variable bzw. Zielvariable Y \,) den Erfolg der Lehrmethode angeben wird'. (Bortz 2005) Folgende Tabelle enthält die Ergebnisse des Experiments:

Beobachtung pro Gruppe Methode 1 X_1 Methode 2 X_2 Methode 3 X_3 Methode 4  X_4
1 2 3 6 5
2 1 4 8 5
3 3 3 7 5
4 3 5 6 3
5 1 0 8 2

Die unabhängige Variable X (Lehrmethode) hat 4 unterschiedliche Ausprägungen (Faktorstufen X_i \,:  X_1 \,, X_2 \,, X_3 \,, X_4 \, ). Jeder Faktorstufe wurden zufällig n_j=5 \, Versuchspersonen (Schüler) zugewiesen. Insgesamt wurden im Experiment n_j*4=5*4=20 \, Beobachtungen registriert.

Hypothesen[edit]

Die Nullhypothese einer einfaktoriellen Varianzanalyse lautet:

  • H_0:\mu_1 = \mu_2 = \dots=\mu_i=\dots = \mu_m

Die Alternativhypothese lautet:

  • H_1:\, Es existiert mindestens ein Paar\mu_i \neq \mu_j, i, j, so dass  i \neq j.

Die Nullhypothese besagt demnach, dass zwischen den Mittelwertparametern der Gruppen \mu_i (die den Faktorausprägungen bzw. Faktorstufen entsprechen) kein Unterschied besteht (sie sind gleich). Die Alternativhypothese besagt, dass zwischen mindestens zwei Mittelwertparametern ein Unterschied besteht. In unserem Beispiel könnte man die Hypothesen auf folgende Weise interpretieren:

  • H_0 \,: Zwischen den verschiedenen Lehrmethoden X_1 \,, X_2 \,,  X_3 \,, X_4 \, gibt es keinen Unterschied im Bezug auf Lernerfolg.
  • H_1 \,: Zwischen den verschiedenen Lehrmethoden  X_1 \,, X_2 \,,  X_3 \,, X_4 \, gibt es mindestens einen Unterschied im Bezug auf Lernerfolg.

Da wir 4 unterschiedliche Lehrmethoden (Faktorstufen) haben, wissen wir bei der Annahme der Alternativhypothese nicht genau, welche Lehrmethoden sich voneinander unterscheiden. Es könnte sein, dass jede Methode einen unterschiedlichen Einfluss auf den Lernerfolg hat, es könnte aber auch sein, dass nur eine Methode sich signifikant von den drei anderen Methoden unterscheidet. Um herauszufinden, welche Gruppen (Lehrmethoden) sich voneinander unterscheiden, muss man die Post-Hoc-Tests anwenden.

Alternativ lassen sich die Hypothesen der Varianzanalyse aus der Sicht der Effekte darstellen (Mathematisches Modell ):

  • H_0 : \alpha_1=\dots=\alpha_j=\dots=\alpha_m=0
  • H_1:\, Es existiert mindestens ein Paar  \alpha_j\neq \alpha_k, j\neq k

Wir testen also die Behauptung der Nullhypothese, dass alle Effekte \alpha_j \,, die durch die Wirkung des Faktors entstanden sind, Null sind, d.h., dass es keine Unterschiede zwischen den Faktorstufen/Gruppen gibt. Bei der Ablehnung der Nullhypothese wissen wir, dass es mindestens zwei unterschiedliche Effekte \alpha_j \, und \alpha_k \, gibt, die sich voneinander unterscheiden.

Voraussetzungen[edit]

  • Die abhängige Variable  Y \, muss ein metrisches Skalenniveau aufweisen. Der Faktor (unabhängige Variable) darf ein beliebiges Skalenniveau einnehmen. (Wenn die unabhängige Variable stetig ist, ist es jedoch sinnvoll, diese zu klassieren).
  • Der Faktor hat m verschiedene Faktorstufen, jede Faktorstufe bildet unterschiedliche Grundgesamtheit.
  • Die Fehlerkomponenten müssen normalverteilt sein. Fehlerkomponenten bezeichnen die jeweiligen Varianzen (Gesamt-, Treatment- und Fehlervarianz). Die Gültigkeit dieser Voraussetzung setzt gleichzeitig eine Normalverteilung der Messwerte in der jeweiligen Grundgesamtheit voraus.
  • Die Fehlervarianzen müssen zwischen den Gruppen (also den m Faktorstufen) gleich bzw. homogen sein (Homoskedastizität). Diese Voraussetzung kann mit dem Levene-Test überprüft werden.
  • Die Messwerte bzw. Faktorstufen müssen unabhängig voneinander sein.

Teststatistik und Berechnung[edit]

Die Teststatistik der Varianzanalyse basiert auf dem Prinzip der Varianzzerlegung. Wir betrachten die Gesamtabweichung der Messwerte vom Gesamtmittelwert und versuchen herauszufinden, welcher Anteil dieser Variation auf den Faktor (in unserem Beispiel Lehrmethode) zurückzuführen ist.


Beobachtung Faktorstufe
1 \dots j \, \dots  m \,
1 \, Y_{1,1} \, \dots Y_{j,1} \, \dots Y_{m,1} \,
\vdots \vdots \ddots \vdots \ddots \vdots
i \, Y_{1,i} \, \dots Y_{j,i} \, \dots  Y_{m,i} \,
\vdots \vdots \ddots \vdots \ddots \vdots
n_j \, Y_{1,n_{i}} \, \dots Y_{1,n_{j}} \, \dots Y_{m,n_{m}} \,
Gruppenmittelwert \bar{Y}_1 \, \dots \bar{Y}_j \, \dots \bar{Y}_m \,
Gesamtmittelwert \bar{Y}
Prinzip der Varianzzerlegung[edit]

Die Gesamtabweichung setzt sich aus der erklärten Abweichung und der nichterklärten Abweichung zusammen.

  • Die Gesamtabweichungen (Y_{j,i}-\bar{Y}) sind definiert als die Differenzen zwischen den Messwerten Y_{j,i} \, (Wert der Beobachtung) und dem Gesamtmittelwert über alle Beobachtungen \bar{Y}=\frac{\sum_{j=1}^m \sum_{i=1}^{n_j} Y_{j,i}}{n}
  • Die erklärten Abweichungen (\bar{Y}_{j} - \bar{Y}) oder Abweichungen zwischen den Gruppen sind die Differenzen zwischen den Gruppenmittelwerten der jeweiligen Gruppe/Faktorstufe \bar{Y}_j=\frac{\sum_{i=1}^{n_j}Y_j}{n_j} und dem Gesamtmittelwert (\bar{Y}).
  • Die nichterklärten Abweichungen (Y_{j,i}-\bar{Y}_j) oder Abweichungen innerhalb der Gruppe sind die Differenzen zwischen den Messwerten und Gruppenmittelwerten.
Zustandekommen der erklärten und nicht erklärten Abweichungen

Im Weiteren summiert man die quadrierten Abweichungen von den Gruppenmittelwerten bzw. vom Gesamtmittelwert, so dass man die gesamte Varianz zerlegt:


Gesamte Varianz (Sum of Squares Total / SS_t \,) = erklärte Varianz (Sum of Squares between groups / SS_b \, / Treatmentvarianz) + nichterklärte Varianz (Sum of Squares within groups SS_w \, / Fehlervarianz)

\sum_{j=1}^{m}\sum_{i=1}^{n_j}(Y_{j,i}-\bar{Y})^2=\sum_{j=1}^m(\bar{Y}_j-\bar{Y})^2+\sum_{j=1}^m \sum_{i=1}^{n_j}(Y_{j,i}-\bar{Y}_j)^2


  • Gesamtvarianz SS_t=\sum_{j=1}^{m}\sum_{i=1}^{n_j}(Y_{j,i}-\bar{Y})^2

Bei der Berechnung der Varianzanalyse berechnet man zunächst die beobachtete Gesamtvarianz in allen Gruppen. Dazu fasst man alle Messwerte aus allen Gruppen zusammen, errechnet den Gesamtmittelwert und die Gesamtvarianz.

  • Treatmentvarianz / erklärte Varianz SS_b=\sum_{j=1}^m(\bar{Y}_j-\bar{Y})^2

Man ermittelt den Varianzanteil der Gesamtvarianz, der allein auf den Faktor zurückgeht. Wenn die gesamte beobachtete Varianz auf den Faktor zurückginge, dann müssten alle Messwerte in einer Faktorstufe gleich sein - dann dürften nur Unterschiede zwischen den Gruppen bestehen. Da alle Messwerte innerhalb einer Gruppe die gleiche Faktorausprägung aufweisen, müssten sie folglich alle den gleichen Wert haben, da der Faktor die einzige varianzgenerierende Quelle wäre. In der Praxis werden sich aber auch Messwerte innerhalb einer Faktorstufe unterscheiden. Diese Unterschiede innerhalb der Gruppen müssen also von anderen Einflüssen stammen (entweder Zufall oder sogenannten Störvariablen).

  • Um nun auszurechnen, welche Varianz allein auf die Ausprägungen des Faktors zurückgeht, stellt man seine Daten für einen Moment gewissermaßen „ideal“ um: Man weist allen Messwerten innerhalb einer Faktorstufe den Mittelwert der jeweiligen Faktorstufe zu. Somit macht man alle Werte innerhalb einer Faktorstufe gleich, und der einzige Unterschied besteht nun noch zwischen den Faktorstufen. Nun errechnet man mit diesen „idealisierten“ Daten erneut die Varianz. Diese kennzeichnet die Varianz, die durch den Faktor zustande kommt ("Treatment-Varianz").
  • Teilt man die Treatmentvarianz durch die Gesamtvarianz (\eta^2=\frac{SS_b}{SS_t}), erhält man den relativen Anteil, der auf den Faktor zurückzuführenden Varianz. Diesen Wert nennt man \eta^2 \,. Er ist nach dem gleichen Prinzip wie das Bestimmtheitsmaß R^2 \, bei der Regressionsanalyse konstruiert.
  • Fehlervarianz / nichterklärte Varianz SS_w=\sum_{j=1}^m \sum_{i=1}^{n_j}(Y_{j,i}-\bar{Y}_j)^2. Zwischen der Gesamtvarianz und der Treatmentvarianz besteht in aller Regel eine Diskrepanz - die Gesamtvarianz ist größer als die Treatmentvarianz. Die Varianz, die nicht auf den Faktor (das Treatment) zurückzuführen ist, bezeichnet man als Fehlervarianz. Diese beruht entweder auf Zufall oder anderen, nicht untersuchten Variablen (Störvariablen).
  • Die Fehlervarianz lässt sich berechnen, indem man die Daten erneut umstellt: Man errechnet für jeden einzelnen Messwert dessen Abweichung vom jeweiligen Gruppenmittelwert seiner Faktorstufe. Daraus berechnet man erneut die gesamte Varianz. Diese kennzeichnet dann die Fehlervarianz.
  • Eine wichtige Beziehung zwischen den Komponenten (SS_b \, und SS_w \,) ist die Additivität der Quadratsummen.

F-Test[edit]

Anschließend führt man einen F-Test durch, bei dem die Schätzung der erklärten Varianz/Treatmentvarianz (erklärte Varianz dividiert durch die Anzahl der Freiheitsgrade) ins Verhältnis zu der Schätzung der nicht erklärten Varianz/Fehlervarianz gestellt wird. (Beide Schätzungen sind nach dem Prizip der korrigierten Stichprobenvarianz konstruiert.) Dieser Test ist die Teststatistik der Varianzanalyse.


F=\frac{SS_b/m-1}{SS_w/n-m}=\frac{\sum_{j=1}^m(\bar{Y}_j-\bar{Y})^2/m-1}{\sum_{j=1}^m \sum_{i=1}^{n_j}(Y_{j,i}-\bar{Y}_j)^2/n-m}

Mit dieser Teststatistik wird die Alternativhypothese geprüft, dass mindestens zwei Mittelwertparameter (\mu_i \, bzw. \mu_j \,) sich voneinander unterscheiden. Wenn das wirklich der Fall ist, wird die Varianz zwischen den Gruppen (SS_b \,) größer als die Varianz innerhalb der Gruppen (SS_w \,) sein. Wenn man die Erwartungswerte von SS_b \, und SS_w \, betrachten, kann man feststelen, dass bei Gültigkeit der Nullhypothese der Varianzanalyse gleichzeitig gilt, dass Treatment- und Fehlervarianz gleich sein müssen. Mit einem F-Test kann man die Nullhypothese überprüfen, dass zwei Varianzen gleich sind, indem man den Quotienten aus ihnen bildet.

Ablehungsbereich der Nullhypothese

Bei der Gültigkeit von H_0 \, folgt die Teststatistik F einer F-Verteilung mit df_1=m-1 \, und df_2=n-m \, Freiheitsgraden. (Dabei sind m die Anzahl der Faktorstufen/Gruppen und n die Anzahl der Messwerte.) H_0 \, wird auf dem vorgegebenen Signifikanzniveau abgelehnt, wenn F_{emp}>F_{df_1,df_2;1-\alpha} \,. In Tabellen der F-Verteilung kann man dann den entsprechenden F-Wert mit entsprechenden Freiheitsgraden nachschlagen und liest ab, wieviel Prozent der F-Verteilungsdichte dieser Wert „abschneidet“. Einigen wir uns beispielsweise vor der Durchführung der Varianzanalyse auf ein Signifikanzniveau von 5 %, dann müsste der F-Wert mindestens 95 % der F-Verteilung auf der linken Seite abschneiden. Ist dies der Fall, dann haben wir ein signifikantes Ergebnis und können die Nullhypothese auf dem 5 %-Niveau verwerfen.

Beispiel einer einfaktoriellen Varianzanalyse[edit]

Beispielfragestellung[edit]

Eine mögliche Fragestellung, die sich mit Hilfe der einfaktoriellen Varianzanalyse untersuchen ließe: Ein Englischlehrer möchte überprüfen, welche der 4 von ihm im Unterricht eingesetzten Lehrmethoden (unabhängige Variable bzw. Faktor X) am besten zum Lernerfolg der Schüler beiträgt. Jeder Methode werden zufällig 5 Schüler zugewiesen und unterrichtet. Am Ende schreiben die Schüler einen Test, dessen Punktzahl (unabhängige Variable bzw. Zielvariable Y) den Erfolg der Lehrmethode angeben wird (Bortz 2005). Folgende Tabelle enthält die Ergebnisse des Experiments:

Beobachtung pro Gruppe Methode 1 X_1 Methode 2 X_2 Methode 3 X_3 Methode 4  X_4
1 2 3 6 5
2 1 4 8 5
3 3 3 7 5
4 3 5 6 3
5 1 0 8 2

Die unabhängige Variable X (Lehrmethode) hat 4 unterschiedliche Ausprägungen (Faktorstufen X_i\,:  X_1\,, X_2\,, X_3 \,, X_4 \, ). Jeder Faktorstufe wurden zufällig n_j=5 \, Versuchspersonen (Schüler) zugewiesen. Insgesamt wurden im Experiment n_j*4=5*4=20 \, Beobachtungen registriert.

Hypothesesformulierung[edit]

In unserem Beispiel könnte man die Hypothesen auf folgende Weise aufstellen:

  • H_0 \,: Zwischen den verschiedenen Lehrmethoden X_1 \,, X_2 \,,  X_3 \,, X_4 \, gibt es keinen Unterschied im Bezug auf Lernerfolg.
  • H_1 \,: Zwischen den verschiedenen Lehrmethoden  X_1 \,, X_2 \,,  X_3 \,, X_4 \, gibt es mindestens einen Unterschied im Bezug auf Lernerfolg.

Da wir 4 unterschiedliche Lehrmethoden (Faktorstufen) haben, wissen wir bei der Annahme der Alternativhypothese nicht genau, welche Lehrmethoden sich voneinander unterscheiden. Es könnte sein, dass jede Methode einen unterschiedlichen Einfluss auf den Lernerfolg hat, es könnte aber auch sein, dass nur eine Methode sich signifikant von den drei anderen Methoden unterscheidet. Um herauszufinden, welche Gruppen (Lehrmethoden) sich voneinander unterscheiden, muss man die Post-Hoc-Tests anwenden.

Beispielberechnung einer einfaktoriellen Varianzanalyse[edit]

Wir führen die Varianzanalyse für die Beispielfragestellung mit dem Englischlehrer durch, die bereits am Anfang vorgestellt wurde. Beiliegende Tabelle enthält Messwerte Y_{j,i} \, des Experiments ergänzt um die Gruppenmittelwerte \bar{Y}_j und dem Gesamtmittelwert \bar{Y}. Wir können leicht erkennen, dass bei der Anwendung unterschiedlicher Lehrmethoden die mittleren Testergebnisse pro Methode \bar{Y}_j von einander abweichen. Diese Abweichung könnte jedoch auch im Bereich der natürlichen Schwankungen liegen. Um zu prüfen, ob die Unterscheidung signifikant ist, wird der F-Test durchgeführt. Bei der Berechnung nehmen wir an, dass die Testergebnisse normalverteilt sind und pro Gruppe (Lehrmethode) die gleiche Varianz aufweisen. Die zu testende Hypothese lautet:

  • H_0 \,: Zwischen den verschiedenen Lehrmethoden M1, M2, M3, M4 gibt es keinen Unterschied im Bezug auf Lernerfolg.

Beobachtung M1 M2 M3 M4
1 2 3 6 5
2 1 4 8 5
3 3 3 7 5
4 3 5 6 3
5 1 0 8 2
\bar{Y}_j 2 3 7 4
\bar{Y} 4
  • Wir berechnen zuerst die Treatmentvarianz SS_b=\sum_{j=1}^m \sum_{i=1}^{n_j}(\bar{Y}_{j}-\bar{Y})^2.

Da in jeder Gruppe (Lehrmethode) die gleiche Anzahl der Beobachtungen zugewiesen worden ist, kann man die Berechnung vereinfachen: SS_b=\sum_{j=1}^m n_j(\bar{Y}_{j}-\bar{Y})^2=5*((2-4)^2+(3-4)^2+(7-4)^2+(4-4)^2)=70

Fehlervarianz SS_w=\sum_{j=1}^m \sum_{i=1}^{n_j}(Y_{j,i}-\bar{Y}_j)^2 berechnet man auf folgende Weise: SS_w={((2-2)^2+(1-2)^2+(3-2)^2+(1-2)^2)) +((3-3)^2+(4-3)^2 \dots =30}

  • Um die Teststatistik F zu berechnen muss man für die SS_b und SS_w Schätzungen berechnen. Diese ermittelt man durch Division von SS_b und SS_w durch die entsprechende Anzahl der Freiheitsgrade (df).
ANOVA-Ergebnis
Anzahl der Freiheitsgrade für SS_b \, ist df_1=m-1=4-1=3  \,;
Anzahl der Freiheitsgrade für SS_w \, ist df_2=n-m=4*5-4=16 \,
  • Jetzt kann man den empirischen Wert des F-Tests berechnen:

F_{emp}=\frac{SS_b/df_1}{SS_w/df_2}=\frac{70/3}{30/16}=12,44
Die empirische Größe des F-Tests vergleicht man anschließend mit der theoretischen Größe der F-Verteilung an der Stelle F_{df_1, df_2; 1-\alpha}=F_{(m-1), (n-m); 1-\alpha} \,. Der Wert der F-Verteilung für gegebene Freiheitsgrade (F-Quantil) kann in einer Fisher-Tafel (Tabelle mit F-Verteilung) nachgeschlagen werden. Dabei muss noch ein gewünschtes Signifikanzniveau (die Irrtumswahrscheinlichkeit) angegeben werden. Angenommen, dass wir unsere Nullhypothese zu einem Signifikanzniveau von \alpha=0,05 \, prüfen möchten, dann suchen wir nach dem Wert F_{(3;16;0,95)} \, aus der Tabelle der F-Verteilung, F_{(3;16;0,95)}=3,24\,. Jetzt vergleichen wir diesen Wert mit dem empirischen Wert des F-Tests:

F_{emp}=12,41 > F_{(3;16;0,95)}=3,24 \,

Da 12,41>3,24 \, ist, kann die Nullhypothese bei den vorliegenden Werten abgelehnt werden. Es konnte also statistisch nicht bewiesen werden, dass die verschiedenen Lehrmethoden gleich im Bezug auf Testergebniss sind.

Post-Hoc-Tests[edit]

Bei der Verwerfung der Nullhypothese, liefert die Varianzanalyse also weder Aufschluss darüber, zwischen wie vielen noch zwischen welchen Faktorstufen ein Unterschied besteht. Wir wissen dann nur mit einer bestimmten Wahrscheinlichkeit (siehe Signifikanzniveau), dass mindestens zwei Ausprägungen einen bedeutsamen Unterschied aufweisen. Man kann nun fragen, ob es zulässig wäre, mit verschiedenen t-Tests jeweils paarweise Einzelvergleiche zwischen den Mittelwerten durchzuführen. Vergleicht man mit der Varianzanalyse nur zwei Gruppen (also zwei Mittelwerte), dann führen t-Test und Varianzanalyse zum gleichen Ergebnis. Liegen jedoch mehr als zwei Gruppen vor, ist die Überprüfung der globalen Nullhypothese der Varianzanalyse über paarweise t-Tests nicht zulässig - es kommt zur sogenannten Alphafehler-Kumulierung. Aus diesem Grund ist es möglich, nach einem signifikanten ANOVA-Ergebnis anhand multipler Vergleichstechniken zu überprüfen, bei welchem Mittelwertspaar der oder die Unterschiede liegen. Um diese Unterschiede zu identifizieren wurde eine Reihe von so genannten Post-hoc-Test entwickelt, mit dessen Hilfe man genauer die Unterschiede zwischen verschiedenen Faktorstufen quantifizieren könnte. Der Vorteil dieser Verfahren liegt darin, dass sie den Aspekt der Alphainflation berücksichtigen. Zu diesen Testverfahren zählen folgende Tests:

Zweifaktorielle ANOVA[edit]

Die zweifaktorielle Varianzanalyse berücksichtigt zur Erklärung der Zielvariablen zwei Faktoren (Faktor A und Faktor B).

Beispiel[edit]

Diese Form der Varianzanalyse ist z. B. bei Untersuchungen angezeigt, welche den Einfluss von Rauchen und Kaffeetrinken auf die Nervosität darstellen wollen. Rauchen ist hier der Faktor A, welcher in zwei Ausprägungen (Faktorstufen) unterteilt werden kann: raucht gerade und raucht gerade nicht. Der Faktor B kann der Kaffeegenuss in einer bestimmten Situation sein. Die Nervosität ist die abhängige Variable. Zur Durchführung der Untersuchung werden die Raucher in zwei Gruppen geordnet, wobei eine der Gruppen Kaffee getrunken hat. Jede dieser beiden Gruppen wird ihrerseits in zwei Hälften geteilt, von denen eine Zigaretten zu rauchen bekommt. Dabei wird die Messung der Nervosität durchgeführt, die metrische Daten liefert.

Mathematisches Modell[edit]

Das Modell (für den Fall mit festen Effekten) in Effektdarstellung lautet: Y_{ijk} = \mu + \alpha_{i} + \beta_{j}+ (\alpha\beta)_{ij} + \varepsilon_{ijk}, \quad

\varepsilon_{ijk}~N(0,\sigma^2), \quad i=1,...,I, \quad j=1,...,J, \quad k=1,...,K

  • Y_{ijk} \,: Zielvariable; annahmegemäß in den Gruppen normalverteilt
  • I: Anzahl der Faktorstufen des ersten Faktors (A)
  • J: Anzahl der Faktorstufen des zweiten Faktors (B)
  • K: Anzahl der Beobachtungen pro Faktorstufe (hier für alle Kombinationen von Faktorstufen gleich)
  • \alpha_i  \,: Effekt der i-ten Faktorstufe des Faktors A
  • \beta_j \,: Effekt der j-ten Faktorstufe des Faktors B
  • (\alpha \beta)_{ij} \,: Interaktion (Wechselwirkung) der Faktoren auf der Faktorstufenkombination (i,j). Die Interaktion beschreibt einen besonderen Effekt, der nur auftritt, wenn die Faktorstufenkombination (i,j)

vorliegt. \varepsilon_{ijk} \,: Störvariablen, unabhängig und normalverteilt mit Erwartungswert 0 und gleichen Varianzen.

Mehrfaktorielle ANOVA mit mehr als zwei Faktoren[edit]

Auch mehrere Faktoren sind möglich. Allerdings steigt der Datenbedarf für eine Schätzung der Modellparameter mit der Anzahl der Faktoren stark an. Auch die Darstellungen des Modells (z.B. in Tabellen) werden mit zunehmender Anzahl der Faktoren unübersichtlicher. Mehr als drei Faktoren können nur noch schwer dargestellt werden.

Quellen[edit]

Literatur[edit]

  • Backhaus u.A.: Multivariate Analysemethoden. Eine anwendungsorientierte Einführung. Springer, 2006. ISBN 3-540-27870-2
  • Bortz, Jürgen: Statistik für Human und Sozialwissenschaftler. Springer, 2005. ISBN 3-540-21271-X
  • Rönz, Bernd: Computergestützte Statistik I. Skript., Humboldt-Universität zu Berlin, 2001
  • Fahrmeir u.A. (Hrsg): Multivariate statistische Verfahren. Walter de Gruyter, 1996. ISBN 3-11-013806-9
  • Fahrmeir u.A.: Statistik - Der Weg zur Datenanalyse. Springer, 1999
  • Hartung/Elpelt: Multivariate Statistik: Lehr- und Handbuch der angewandten Statistik. Oldenbourg, 1999. ISBN 3-486-25287-9

Siehe auch[edit]

Links[edit]