Der Wilcoxon-Vorzeichen-Rang-Test ist ein nichtparametrischer statistischer Test. Er prüft anhand zweier gepaarter Stichproben die Gleichheit der zentralen Tendenzen der zugrundeliegenden (verbundenen) Grundgesamtheiten. Im Anwendungsbereich ergänzt er den Vorzeichentest, da er nicht nur die Richtung (d. h. das Vorzeichen) der Differenzen, sondern auch die Höhe der Differenzen zwischen zwei gepaarten Stichproben berücksichtigt.[1]

Der Wilcoxon-Vorzeichen-Rang-Test wurde von dem Chemiker und Statistiker Frank Wilcoxon (1892–1965)[2] im Jahr 1945 vorgeschlagen und durch Sidney Siegels Lehrbuch Nonparametric Statistics for the Behavioural Sciences populär.

Hypothesen und Voraussetzungen

Bearbeiten

Für den Test bzgl. der beiden Mediane   und   gibt es drei mögliche Hypothesenpaare:

  1. zweiseitig:   vs.  .
  2. einseitige:   vs.   bzw.   vs.  .

Eine Voraussetzung ist, dass die Stichprobenvariablen  

 

unabhängig, identisch verteilt, stetig und symmetrisch sind. Die letzte Voraussetzung wird jedoch oft vernachlässigt. Wenn die Verteilung stetig ist, treten keine Bindungen auf. In der Praxis ist das häufig nicht der Fall. Es müssen Korrekturen durchgeführt werden und es ist nicht mehr möglich die Verteilung der Prüfgröße exakt zu bestimmen.[3]

Teststatistik

Bearbeiten

Zunächst wird für die Teststatistik der Rang   der absoluten Differenzen berechnet:

 

Die Teststatistik   berechnet sich als das Minimum der negativen und der positiven Rangsummen:

 

Dabei bezeichnet   die Indikatorfunktion.

Im Fall, dass eine oder mehrere Differenzen   sind, gibt es zwei Möglichkeiten:

  1. Die zugehörigen Rangwerte werden zur Hälfte   und zur Hälfte   zugeordnet.[4]
  2. Die Beobachtungen fließen nicht in den Test ein, d. h.,   muss korrigiert werden. Eine größere Anzahl von gleichen Beobachtungswerten deutet allerdings auf die Gültigkeit der Nullhypothese hin.

Unter Annahme der Nullhypothese ist die Teststatistik approximativ normalverteilt, als Faustregel ist die Approximation durch die Normalverteilung für   nützlich:

 .

Außerdem sollte für   noch eine Stetigkeitskorrektur durchgeführt werden

 .

Für Werte kleiner gleich 50 liegen die kritischen Werte auch tabelliert vor.[5]

Kritische Werte für  , die unterschritten werden müssen um die Nullhypothese abzulehnen
  n
zweiseitig einseitig 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 25 30 35 40 45 50
0,1000 0,0500 0 2 3 5 8 10 13 17 21 25 30 35 41 47 53 60 100 151 213 286 371 466
0,0500 0,0250 0 2 3 5 8 10 13 17 21 25 29 34 40 46 52 89 137 195 264 343 434
0,0200 0,0100 0 1 3 5 7 9 12 15 19 23 27 32 37 43 76 120 173 238 312 397
0,0100 0,0050 0 1 3 5 7 9 12 15 19 23 27 32 37 68 109 159 220 291 373
0,0050 0,0025 0 1 3 5 7 9 12 15 19 23 27 32 60 98 146 204 272 350
0,0010 0,0005 0 1 2 4 6 8 11 14 18 21 45 78 120 172 233 304

Bindungen bei den Rängen

Bearbeiten

Im Fall, dass Bindungen bei den Rängen der   auftreten (d. h., mehrere absolute Differenzen den gleichen Rang bekommen), werden jeder Differenz die Mittelwerte der entsprechenden Ränge zugeordnet (siehe Beispiel unten).

Sei   die Menge aller auftretenden Ränge, mit   für  . Bezeichnet   die Anzahl der Beobachtungen mit dem Rang  , so gilt

 

und für die Approximation

 

Lässt man den Korrekturfaktor weg, so ist der Test zu konservativ, d. h., er entscheidet zu oft für die Nullhypothese.

Beispiel

Bearbeiten

Ein Beispiel für dessen Anwendung: Ein statistisch versierter Bauer möchte feststellen, ob Rinder Heu oder Stroh vorziehen. Er teilt eine Fläche in zwei Bereiche ein, zwischen denen die Tiere frei hin und her wechseln können. Im einen Bereich bietet er den fünf Rindern Stroh resp. im anderen Heu an. Jede halbe Stunde notiert er, wie viele Tiere sich in welchem Bereich aufhalten, und erhält n = 6 Paare von Stichproben.

Das Ergebnis seiner Beobachtungen ist eine Tabelle incl. Differenzen aus den Werten:

Tiere beim Heu Tiere beim Stroh Differenz
4 1 +3
3 2 +1
2 3 −1
5 0 +5
5 0 +5
3 2 +1
Beitrag zu
Differenz Rang    
+1 2 2
+1 2 2
−1 2 2
+3 4 4
+5 5,5 5,5
+5 5,5 5,5
19 2

Rang: Die drei 1er Werte müssten die Ränge 1 bis 3 belegen, da sie aber gleichwertig sind, wird der Mittelwert ihrer Ränge eingetragen, also (1+2+3)/3=2. Bei den 5er Werten ebenso: (5+6)/2=5,5.

Dann werden die Differenzen nach der Größe geordnet (das Vorzeichen wird dabei nicht berücksichtigt); und jeder Differenz wird ein Rang zugeordnet – die größte Differenz erhält den höchsten Rang. Sind mehrere Differenzen gleichrangig, wird jedem Wert der durchschnittliche Rang zugeordnet.

Die Rangsumme der positiven Differenzen beträgt   und die Rangsumme der negativen Differenzen beträgt  , also

 .

Zweiseitiger Test

Beim zweiseitigen Test mit

  (Rinder mögen Heu und Stroh gleich) vs.
  (Rinder bevorzugen eine Sorte)

kann die Nullhypothese zum Signifikanzniveau   bzw.   nicht abgelehnt werden. Denn

  • aus der Tabelle oben ergibt sich für   und   ein kritischer Wert von  . Da der Prüfwert   nicht kleiner als der kritische Wert ist, kann die Nullhypothese nicht abgelehnt werden bzw.
  • aus der Tabelle oben ergibt sich für   und   ein kritischer Wert von  . Da der Prüfwert   nicht kleiner als der kritische Wert ist, kann die Nullhypothese nicht abgelehnt werden.

Einseitige Tests

Auch bei den einseitigen Tests mit

Nullhypothese   Alternativhypothese  
Linksseitig   (Rinder mögen Heu mehr oder beide Sorten gleich)   (Rinder mögen Stroh mehr)
Rechtsseitig   (Rinder mögen Stroh mehr oder beide Sorten gleich)   (Rinder mögen Heu mehr)

können die Nullhypothesen nicht abgelehnt werden. Denn

  • aus der Tabelle oben ergibt sich für   und   ein kritischer Wert von  . Da der Prüfwert   nicht kleiner als der kritische Wert ist, kann die Nullhypothese nicht abgelehnt werden bzw.
  • aus der Tabelle oben ergibt sich für   und   ein kritischer Wert von  . Da der Prüfwert   nicht kleiner als der kritische Wert ist, kann die Nullhypothese nicht abgelehnt werden.

Approximation mit der Normalverteilung beim zweiseitigen Test

Berechnet man – als Näherung – daraus den normalverteilten z-Wert:

 

Aus der Standardnormalverteilungstabelle ergeben sich für den zweiseitigen Test

  • für   kritische Werte von  . Da der Prüfwert   im Intervall   liegt, kann die Nullhypothese nicht abgelehnt werden.
  • für   kritischer Werte von  . Da der Prüfwert   nicht im Intervall   liegt, kann die Nullhypothese abgelehnt werden.

Damit haben die Rinder zu einem 10 % Signifikanzniveau eine Vorliebe für eine der beiden Sorten.

Dies scheint ein Widerspruch zu sein zu dem Ergebnis aus dem exakten zweiseitigen Test. Jedoch ist der mittels der angegebenen Formel berechnete z-Wert nur eine Näherung und nur für einen Stichprobenumfang   zuverlässig!

Für die Approximation spielt es bei zweiseitigen Test keine Rolle, ob in der Formel der Wert   oder   (oder das Minimum von beiden) eingesetzt wird, denn es folgt

 .

D. h., die Testentscheidung wäre die gleiche.

Vergleich mit dem Vorzeichentest

Bearbeiten

Fünf Stichproben tragen ein positives Vorzeichen (+), eine ein negatives (-). Gemäß der Tabelle der kritischen Werte (MacKinnon, 1964) kann man bei diesem Beispiel lediglich von p < 0,5 ausgehen (d. h. weniger als 50 Prozent Irrtumswahrscheinlichkeit). Hätten alle sechs Stichproben das gleiche Vorzeichen, läge p zwischen 0,02 und 0,1 – hier wurde also eindrücklich gezeigt, dass das Verfahren von Wilcoxon besonders bei kleineren Stichproben-Umfängen brauchbare Resultate liefert.

Literatur

Bearbeiten
  • Sidney Siegel: Nichtparametrische statistische Methoden. Verlag Dietmar Klotz, Eschborn b. Frankfurt am Main 2001, ISBN 3-88074-102-6.
  • Sidney Siegel: Nonparametric statistics for the behavioral sciences. McGraw-Hill, New York 1988, ISBN 0-07-057357-3.

Einzelnachweise

Bearbeiten
  1. Jürgen Bortz, Gustav A. Lienert, Klaus Boehnke: Verteilungsfreie Methoden in der Biostatistik. 3. Auflage. Springer Verlag, 2008, S. 256, 259.
  2. Frank Wilcoxon: Individual Comparisons by Ranking Methods. In: Biometrics Bulletin. Band 1, Nr. 6, 1945, S. 80–83. JSTOR:3001968
  3. Joachim Hartung: Statistik Lehr- und Handbuch der angewandten Statistik ; [mit zahlreichen durchgerechneten Beispielen]. 15., überarb. und wesentlich erw. Auflage. München 2009, ISBN 978-3-486-59028-9.
  4. Leonard A. Marascuilo, Maryellen McSweeney: Nonparametric and Distribution-free Methods for the Social Sciences. Brooks/Cole Publishing, 1977, ISBN 0-8185-0202-9.
  5. Jürgen Bortz, Gustav A. Lienert, Klaus Boehnke: Verteilungsfreie Methoden in der Biostatistik. 3. Auflage. Springer Verlag, Berlin 2010, S. 729.