Pseudo-Bestimmtheitsmaß

From Teachwiki
Jump to: navigation, search
Error creating thumbnail: File missing
Please do not cite work from this wiki, since these are mainly students theses which may contain errors!
Error creating thumbnail: File missing

Dieser Artikel wurde in der deutschsprachigen Wikipedia erstellt und in das teachwiki importiert und bearbeitet. Hierbei wurden Änderungen am Artikel von unterschiedlichen Autoren gemacht. Die Versionsgeschichte und Autorenschaft dazu ist im entsprechenden Artikel der deutschsprachigen Wikipedia zu finden.

Im Falle einer linearen Regression beschreibt das Bestimmtheitsmaß den erklärten Anteil der Variabilität (Varianz) einer abhängigen Variablen Y durch ein statistisches Modell. Bei einem nominalen oder ordinalen Skalenniveau von Y existiert jedoch kein Äquivalent, da man die Varianz und damit ein R^2 nicht berechnen kann. Mit Hilfe der Maximum-Likelihood-Schätzung lassen sich jedoch allgemeinere Regressionsmodelle schätzen. Für diese wurden verschiedene Pseudo-Bestimmtheitsmaße (abk. Pseudo-R^2, engl.: pseudo R-squareds) vorgeschlagen.

Das Pseudo-Bestimmtheitsmaß[edit]

Pseudo-Bestimmtheitsmaße sind so konstruiert, dass sie den verschiedenen Interpretationen (z.B. erklärte Varianz, Verbesserung gegenüber dem Nullmodell oder als Quadrat der Korrelation) des Bestimmtheitsmaßes genügen. Sie sind dem R^2 in der Hinsicht ähnlich, dass dessen Werte ebenfalls im Intervall von 0 und 1 liegen und ein höherer Wert einer besseren Anpassung des Modells an die Daten entspricht.


Likelihood basierte Maße[edit]


  • Maddalas (Cox & Snells)
R^2_{Maddala}=1-\left(\frac{L_0}{L_1}\right)^{2/n},   L_{0} - Nullmodell, L_{1} - Modell mit erklärenden Variablen
R^2_{Maddala}= [0,1)

Vergleicht das Verhältnis der Werte L_0 der Wert der Likelihoodfunktion, in dem die völlige Unabhängigkeit aller Variablen angenommen wird (Nullmodell oder Intercept-Modell) und L_1 der Likelihoodfunktionen unter Kenntnis des Zusammenhanges zwischen Y und X_i (volles Regressionsmodell). Je geringer dieses Verhältnis, desto größer die Verbesserung des ganzen Modells gegenüber dem Nullmodell. Maddalas Pseudo-R^2 kann auch bei perfekter Vorhersage nie den Wert 1 erreichen.


  • Nagelkerke / Cragg & Uhlers
R^2_{Nagelkerke}=\frac{1-\left(\frac{L_0}{L_1}\right)^{2/n}}{1-L_0^{2/n}},   L_{0} - Nullmodell, L_{1} - Modell mit erklärenden Variablen
R^2_{Nagelkerke}=(0,1]

Nagelkerkes erweitert Maddalas, sodass durch eine Reskalierung ein möglicher Wert von 1 erreicht werden kann, wenn das vollständige Modell eine perfekte Vorhersage mit einer Wahrscheinlichkeit von 1 trifft. D.h. die aufgenommenen erklärenden Variablen verbessern entscheidend die Anpassung an die beobachteten Daten. Allerdings wird der Wertebereich nur verschoben, denn bei keiner Verbesserung des vollständigen Modells gegenüber dem Nullmodell ist Nagelkerkes Pseudo-R^2 größer 0.


Nagelkerke gab auch allgemeine Bedingungen für ein Pseudo-Bestimmtheitsmaß an:

  1. Ein Pseudo-Bestimmtheitsmaß sollte mit dem Bestimmtheitsmaß R^2 übereinstimmen, wenn beide berechnet werden können.
  2. Es sollte ebenfalls mit der Maximum-Likelihood-Schätzung des Modells maximiert werden.
  3. Es sollte, zumindest asymptotisch, unabhängig vom Stichprobenumfang sein.
  4. Die Interpretation sollte die durch das Modell erklärte Variabilität von Y sein.
  5. Es sollte zwischen Null und Eins liegen. Bei einem Wert von Null sollte es keine Aussage über die Variabilität von Y machen; bei einem Wert von Eins, sollte es die Variabilität von Y vollständig erklären.
  6. Es sollte keine Maßeinheit besitzen.


Log-Likelihood basierte Maße[edit]


  • McFaddens
R^2_{McFadden}=1-{\ln L_1 \over \ln L_0},   L_{0} - Nullmodell, L_{1} - Modell mit erklärenden Variablen
R^2_{ McFadden}=[0,1)

Das Verhältnis der logarithmierten der Werte L_1 und L_0 der Likelihoodfunktion (Wahrscheinlichkeiten) spiegelt den Grad der Verbesserung des vollständigen Modells mit Prädiktoren gegenüber dem Nullmodell wider. Ein Modell mit einem größeren McFaddens hat eine größere Wahrscheinlichkeit gegenüber einem anderen mit einem geringerem Wert für den jeweiligen Datensatz.

Daumenregel: Wenn 0.2<R^2_{ McFadden}<0.4, dann hat das Modell einen ausgezeichneten Fit.


  • McFaddens (korrigiert)
R^2_{McFadden_{korr.}}=1-{\ln L_1 - K \over \ln L_0}

Das korrigierte McFaddens bewertet die Anzahl der Prädiktoren für die Anpassungsgüte eines Modells. Ähnlich dem [[Bestimmtheitsmaß#Das korrigierte Bestimmtheitsmaß \bar R^2 |korrigierten Bestimmtheitsmaß]] verringern zu viele Prädiktoren, die dem Modell nicht genügend beitragen, die Effektivität eines Modells und schlagen sich negativ im korrigierten McFaddens Pseudo-R^2 nieder. Somit sind Werte kleiner 0 möglich.


  • Aldrich / Nelsons
R^2_{AldrichNelson}=1-\frac{2*(ln L_1 - L_0)}{2*(ln L_1 - L_0) + c*n}, c = 1 (Probit-Modell), 3.29 (Logit-Modell)
R^2_{AldrichNelson}=[0,1)

Aldrich / Nelsons setzt den Likelihood-Quotienten ins Verhältnis, der die Rate von Nullmodell und Alternativmodell bei eingetretenem Ereignis angibt. Es hat eine obere Grenze von weit unter 1.


Korrelations-basierte Maße[edit]


  • Lave / Efrons
R^2_{Lave}= 1-\frac{\displaystyle \frac{1}{n} \sum_{i=1}^n (Y_i-\hat{P}_i)^2}{\displaystyle \frac{1}{n} \sum_{i=1}^n (Y_i-\bar{Y})^2}

Lave / Efrons kann man ähnlich dem normalen Bestimmtheitsmaß als Quadrat der Korrelation und als erklärte Variabilität interpretieren. Es werden die quadrierten Residuen aufsummiert, wobei \hat{P}_i eine vom Modell vorhergesagte Wahrscheinlichkeit für Y_i=1 ist, welche die diskrete abhängige Variable in eine stetige überführt.


auf der erklärten Variation basierend[edit]


  • McKelvey & Zavoinas
R^2_{McKelvey}=1-\frac{\hat {V}ar(\hat {y}^*)}{\hat {V}ar(\hat {y}^*) + Var(e)}
R^2_{McKelvey}=[0,1]

McKelvey & Zavoinas ist strukturell dem normalen Bestimmtheitsmaß nachempfunden. Es wird die geschätzte erklärte Quadratsumme der Regression mit der geschätzten erklärten und unerklärten Quadratsumme von Regression und Fehler ins Verhältnis gesetzt.


Vergleichbarkeit[edit]

Die Werte der verschiedenen Pseudo-Bestimmtheitsmaße können innerhalb eines Modells stark variieren. Somit können unterschiedliche Maße zwischen verschiedenen Datensätzen nicht miteinander verglichen und unabhängig interpretiert werden. Als beste Approximation hat sich McKelvey & Zavoinas erwiesen[1]; Laves, McFaddens, Nagelkerkes unterschätzen das "wahre" R^2 einer OLS-Schätzung für ein Modell mit latenten Variablen stark.


Beispiel[edit]

Ein Wäscheklammerproduzent möchte seine neuartigen Wäscheklammern auf den Markt bringen und deswegen vorab die Wahrscheinlichkeit eines Kaufes berechnen. Er berät sich mit seinem Geschäftspartner, der ein Statistikprogramm besitzt. Dieser nimmt an, dass der Kauf nur von einem Attribut abhängt, dem Preis X_{Preis}. Der aggregierte Einfluss auf die Kaufentscheidung soll eine lineare Beziehung haben, Z = b_{0} + b_{1}*X_{Preis}, auch Logit genannt. Der Wäscheklammerproduzent hingegen glaubt eher, dass die Kaufabsicht vom Preis, der Farbe und der Größe abhängt:Z = b_{0} + b_{1}*X_{Preis} + b_{2}*Y_{Farbe} + b_{3}*W_{Groesse}. Mittels Marktforschungsdaten sind die Modell-Parameter b_{0}, b_{1}, b_{2} und b_{3} nach der Maximum-Likelihood-Schätzung vom Computer iterativ ermittelt worden. Allerdings fragt sich nun der Wäscheklammerproduzent, welche Modellhypothese die Realität besser wiedergibt und auf welche man weitere Überlegungen stützen sollte. Zur Einschätzung der Anpassungsgüte der angenommenen Modelle an die vorhandenen Daten sollen verschiedene Pseudo-Bestimmtheitsmaße benutzt werden. Diese lassen sich die beiden Geschäftspartner vom Statistikprogramm ausgeben.


Pseudo-R^2
Goodness-of-Fit Measures    Modell 1 (b_{0},b_{1})    Modell 2 (b_{0}, b_{1}, b_{2}, b_{3})   
McFadden R2 0.307 0.445
McFadden Adj R2 0.273 0.389
Cragg-Uhler (Nagelkerke) 0.436 0.578
McKelvey & Zavoina 0.519 0.643
Efron / Lave R2 0.330 0.472

Da die Pseudo-Bestimmtheitsmaße für Modell 2 durchweg höher sind, d.h. das dieses Modell die Marktforschungsdaten besser abbildet, entscheidet man sich für dieses und schätzt damit die Kaufwahrscheinlichkeit bzw. den möglichen Marktanteil.


Siehe auch[edit]


Weblinks[edit]


Literatur[edit]

  • Aldrich, J. H., Nelson, F. D. (1984), "Linear Probability, Logit, and probit Models", Sage University Press, Beverly Hills.
  • Cragg, J.G., Uhler, R. (1970), "The Demand for Automobiles", Canadian Journal of Economics 3, pp. 386-406.
  • Hagle, T. M., Mitchell II, G. E. (1992), "Goodness-of-Fit Measures for Probit and Logit", American Journal of Political Science 36, pp. 762-784.
  • Maddala, G.S. (1983), "Limited-dependent and Qualitative Variables in Econometrics", Cambridge University Press.
  • McFadden, D. (1973), "Conditional Logit Analysis of Qualitative Choice Behavior", Frontiers in Econometrics, pp.105-142.
  • McKelvey, R., Zavoina, W. (1975), "A Statistical Model for the Analysis of Ordinal Level Dependent Variables", Journal of Mathematical Sociology 4, pp. 103-120.

Einzelnachweise[edit]

  1. Veall, Zimmermann (1996), "Pseudo-R2 Measures for Some Common Limited Dependent Variable Models", Sonderforschungsbereich 386, Paper 18


Kategorie: Statistik Kategorie: Ökonometrie