Testen auf Normalverteilung

From Teachwiki
Jump to: navigation, search
Error creating thumbnail: File missing
Please do not cite work from this wiki, since these are mainly students theses which may contain errors!
Error creating thumbnail: File missing

Dieser Artikel wurde in der deutschsprachigen Wikipedia erstellt und in das teachwiki importiert und bearbeitet. Hierbei wurden Änderungen am Artikel von unterschiedlichen Autoren gemacht. Die Versionsgeschichte und Autorenschaft dazu ist im entsprechenden Artikel der deutschsprachigen Wikipedia zu finden.

Normalitätstests vergleichen charakteristische Merkmale der modellhaften (multivariaten) Standardnormalverteilung, die als Maßstäbe dienen, mit der Verteilung einer Stichprobe. Die Tests unterscheiden sich unter anderem in der Hinsicht, welche Maßstäbe als Vergleichskriterium herangezogen werden.

Der typische Einsatzbereich von Normalitätstests umfasst die Fragestellung, ob die vorhandenen Daten durch eine (multivariate) Normalverteilung gut modellierbar sind, eine Information, die die Wahl der weiterführenden Analysemethoden beeinflußen sollte. Die Frage mit welcher Wahrscheinlichkeit die Daten aus einer normalverteilten Grundgesamtheit stammen, könnte auch im Vordergrund sein.

Testen auf univariate Normalität[edit]

Zur Überprüfung univariater Normalität existieren mindestens vierzig Tests bzw. Modifikationen einzelner Tests. Zunächst erfolgt eine kurze, unvollständige Kategorisierung:

  • Tests basierend auf der Untersuchung von Schiefe und Wölbung: Der historisch älteste Ansatz zum Testen auf Normalität bedient sich dem Momentenvergleich. So werden das dritte und vierte Moment der empirischen Verteilungsfunktion ermittelt und mit den Momenten einer Normalverteilung verglichen. (Schiefe gleich 0, Kurtosis gleich 3) Die Tests, die zu dieser Gruppe gehören, (z.B. der D'Agostino-Pearson-Test und der Jarque-Bera-Test) unterscheiden sich hinsichtlich der Weise in der die Schiefe- und Kurtosis-Eigenschaften der Stichprobe zusammengefasst werden.
  • Tests basierend auf der empirischen Verteilungsfunktion: Weitere Testverfahren untersuchen die Differenzen zwischen der empirischen Verteilungsfunktion und der hypothetischen Normalverteilungskurve. Während die Testentscheidung beim Kolmogorow-Smirnow-Test anhand der maximalen Differenz zwischen den Funktionen getroffen wird, setzen der Anderson-Darling-Test und der Cramér-von-Mises-Test eine Kombination aller Differenzen ein.
  • Regressions- und Korrelationstests: Regressionstests (z.B. der Shapiro-Wilk-Test) konzentrieren sich auf die Steigung der Regressionsgerade, die sich ergibt wenn die Ordnungsstatistiken der Stichprobe den theoretischen Werten unter Normalität gegenübergestellt werden. Korrelationstests messen die Stärke der linearen Abhängigkeit. Ein Beispiel wäre der D'Agostino-Test (1971/2).

Monte-Carlo-Studien zeigen, dass es keinen einzelnen Test gibt, der für alle Situationen die höchste Teststärke aufweist. So variiert die empirische Teststärke jedes Normalitätstests in Abhängigkeit von Stichprobengröße, tatsächlicher Verteilung und anderen Faktoren wie Ausreißern und Bindungen. Eine insgesamt große Teststärke zeichnen den Shapiro-Wilk-Test und den Anderson-Darling-Test (Modifikation von Stephens) aus, weswegen sie stellenweise als Benchmark für andere Normalitätstests herangezogen werden. Weitere Studien beweisen die niedrige Sensitivität vom Chi-Quadrat-Test als Normalitätstest und raten von seinem Gebrauch in dieser Testsituation ab. Category:Navigationsleiste Normalverteilungstests

Testen auf multivariate Normalität[edit]

Zahlreiche Methoden der multivariaten Analyse gehen von einer multivariaten Normalverteilung der Daten aus. Die Konsequenzen einer Annahmeverletzung hängen jedoch von der Art der einzelnen Analyse ab. Die multivariate Verfahren zum Beispiel, die auf einer Untersuchung der Kovarianz-Matrix beruhen, reagieren empfindlich gegenüber nichtlineare Abhängigkeit zwischen den einzelnen Zufallsvariablen. Bei dieser bestimmten Art der Abweichung von multivariater Normalität wäre die Kovarianz zweier Zufallsvariablen schicht ein schlechter Indikator deren tatsächlicher Relation.

Die zahlreichen möglichen Abweichungen von der multivariaten Normalität begünstigen die Entstehung einer ganzen Palette von Testverfahren. Die Wahl des Testverfahrens sollte sowohl von a priori Wissen über Abweichungen als auch von den potentiellen Konsequenzen dieser Abweichungen geleitet werden. Empfehlenswert ist die erstmalige graphische Analyse der Daten, die Hinweise auf Nichtnormalität und Ausreißer liefern könnte.

Das simultane Testen aller Zufallsvariablen könnte eine Nichtnormalität verschleiern, die lediglich eine Teilmenge der Zufallsvariablen betrifft: Das Auffinden solcher Abweichungen erfordert ein gezieltes Testen. Da die Überprüfung aller möglichen Teilmengen oft einen enormen Rechenaufwand mit sich zieht, beschränkt man sich auf die Analyse von Teilmengen, die "im Verdacht" stehen. Das Steuern der Alphafehler-Kumulierung erweist sich als unproblematisch, solange die untersuchten Teilmengen wenig Interdependenzen aufweisen.

Demnächst werden lediglich ein Bruchteil der existierenden Testverfahren präsentiert. Alle überprüfen die Nullhypothese von einer multivariaten Normalverteilung.

  • Multivariate Normalität der Daten setzt die univariate Normalität jeder Zufallsvariable voraus. Falls die univariate Normalität der Randverteilungen durch die entsprechenden Testverfahren verworfen wird, wird die Nullhypothese einer multivariaten Normalverteilung auch verworfen. Man achte auf die Anpassung des globalen Signifikanzniveaus.
  • Charakteristische Merkmale aller Randverteilungen könnte man auch zu einer einzigen Teststatistik zusammenschweißen. Dieser Ansatz ist die Grundlage sowohl des Royston's H-Tests als auch des im folgenden beschriebenen Testverfahrens von Small (1980). Man teste die Nullhypothese, dass p Zufallsvariablen multivariat normalverteilt sind. Die p x 1 dimensionalen Vektoren v_1 und v_2 fassen die Wölbung- und Kurtosiswerte der Randverteilungen zusammen. Diese Vektoren können zu den Vektoren w_1 und w_2 transformiert werden, dessen Komponenten approximativ standardnormalverteilt sind. Die Kovarianz-Matrizen von w_1 und w_2, U_1 und U_2, haben asymptotisch Nichtdiagonalelemente von respektiv {\rho_{ i,j }}^3 und {\rho_{ i,j }}^4, wobei {\rho_{ i,j }} die Kovarianz zwischen X_i und X_j darstellt und aus der Stichprobe geschätzt wird. Die Teststatistiken
 Q_1={w_1}^{'}{U_1}^{-1}{w_1}
und
 Q_2={w_2}^{'}{U_2}^{-1}{w_2}
sind beinahe unabhängig voneinander und unter der Nullhypothese approximativ {\chi_{p}}^2 verteilt. Beim Royston's H-Test und dem Small-Test ist eine Anpassung des globalen Signifikanzniveaus nicht nötig, die Verfahren sind jedoch relativ unsensibel bezüglich Nichtnormalität einzelner Zufallsvariablen. Auf eine univariate Überprüfung der Randverteilungen sollte nicht verzichtet werden.
  • Mardia's Test basiert auf die multivariate Momente der p dimensionalen Stichprobe. Folgende Maßzahlen kommen zum Einsatz:
 b_{1,p} = n^{-2}{\sum_{i,j=1}^n}{r_{i,j}}^3  (Wölbung) und
 b_{2,p} = n^{-1}{\sum_{i=1}^n}{r_{i,i}}^2  (Kurtosis), wobei
 r_{i,j}=(x_i - \bar x)'\hat\Sigma^{-1} (x_j - \bar x) \Big]^3 die Mahalanobis-Distanz zum Mittelwert der Stichprobe  \bar x darstellt. Wie im univariaten Fall sind beide Maßzahlen notwendig um Abweichungen aufzufinden.  b_{1,p} und  b_{2,p} werden selten als Teststatistiken benutzt, das die Perzentilen der Nullverteilung extrem schwierig zu errechnen sind (Tabellen mit kritischen Werten im zweidimensionalen Fall für ausgewählte Stichprobenumfänge und Signifikanzniveaus wurden von Marvia (1974) veröffentlicht). Stattdessen werden die transformierte Variablen W( b_{1,p}), W( b_{2,p}) gebildet, die approximativ standardnormalverteilt sind. Daraus erwacht folgende, unter Nullhypothese {\chi_{2}}^2 verteilte Teststatistik:
{S_w}^2 = W^2(b_{1,p}) + W^2(b_{2,p})

Ähnlich dem univariaten Fall, existiert kein Testverfahren, das die höhste Teststärke gegenüber allen Alternativen aufweist. Foster's Studie bestätigt Mardia's {S_w}^2 und Small's Omnibustest basierend auf Q_1 und Q_2 als durchaus empfehlenswerte Verfahren. Weitere empfehlenswerte Optionen wären der Cox-Small-Test (der die Nichtlinearität der Regression zwischen zwei Zufallsvariablen untersucht) und der BHEP-Test (der die Norm der Distanz zwischen den empirischen und theoretischen charakteristischen Funktionen berechnet). Für eine detaillierte Untersuchung von Testverfahren auf multivariate Normalverteilung sei auf Henze (2002) verwiesen.

Literatur zum Abschnitt "Testen auf univariate Normalität"[edit]

  • R.B. D'Agostino: Departures from Normality, Tests for, Encyclopedia of statistical sciences, Band 3
  • R.B. D'Agostino: An omnibus test of normality for moderate and large size samples, Biometrika, 1971, 58, 2, S. 341-348
  • R.B. D'Agostino: Small sample probability points for the D test of normality., Biometrika, 1972, 59, S. 219-21
  • G.R. Green, Y.A.S. Hegazy: Powerful Modified-EDF Goodness-of-Fit Tests, Journal of the American Statistical Association, 1976, 71, S. 204-209
  • E.S. Pearson, R.B. D'Agostino, K.O. Bowman: Test for Departure from Normality: Comparison of Powers., Biometrika, 64, S. 231-246
  • E.M. Saniga, J.A. Miles: Power of some standard goodness-of-fit tests of normality against asymmetric stable alternatives, Journal of the American Statistical Association, 1979, 74, S. 861-865
  • E. Seier: Comparison of Tests for Univariate Normality, Department of Mathematics. East Tennessee State University, 2002
  • S.S. Shapiro, M.B. Wilk, H.J. Chen: A comparative study of various tests for normality, Journal of the American Statistical Association, 1968, 63, S. 1343-1372
  • M.A. Stephens: EDF Statistics for Goodness of Fit and Some Comparisons, Journal of the American Statistical Association, 1974, 69, S. 730–737
  • B. Yazici, S. Yolacan: A comparison of various tests of normality, Journal of Statistical Computation and Simulation, 77(2), 2007, pp. 175-183

Literatur zum Abschnitt "Testen auf multivariate Normalität"[edit]

  • L. Baringhaus, N. Henze: A consistent test for multivariate normality based on the empirical characteristic function, Metrika, 1988, 35, S. 339–348
  • D.R. Cox, N.J.H. Small: Testing Multivariate Normality, Biometrika, 1978, 65, S. 263-272
  • J.K. Foster: Tests of Multivariate Normality, 1981, University of Leeds, U.K.
  • T.W. Epps, L.B. Pulley: A test for normality based on the empirical characteristic functio, Biometrika 1983, 3, S. 723–726
  • N. Henze: Invariant tests for multivariate normality: a critical review, Statistical papers, 2002, 43, S. 467–506
  • K.V. Mardia: Measures of multivariate skewness and kurtosis with applications, Biometrika, 1970, 57, S. 519–530
  • K.V. Mardia: Multinormality, Mardia's Test of, Encyclopedia of statistical sciences, Band 8
  • J. P. Royston: Some Techniques for Assessing Multivarate Normality Based on the Shapiro- Wilk W, Journal of the Royal Statistical Society, Applied Statistics, 1983, S. 121-133
  • N. J. H. Small: Marginal Skewness and Kurtosis in Testing Multivariate Normality, Journal of the Royal Statistical Society, Applied Statistics, 1980, 29, S. 85-87
  • N. J. H. Small: Multivariate Normality, Testing for, Encyclopedia of statistical sciences, Band 8