Korrelationskoeffizient nach Bravais-Pearson

Maß für den Zusammenhang zweier Merkmale
(Weitergeleitet von Steigers Z-Test)

Der Korrelationskoeffizient nach Bravais-Pearson, auch Produkt-Moment-Korrelation,[A 1] ist ein Maß für den Grad des linearen Zusammenhangs zwischen zwei mindestens intervallskalierten Merkmalen, das nicht von den Maßeinheiten der Messung abhängt und somit dimensionslos ist. Er kann Werte zwischen und annehmen. Bei einem Wert von (bzw. ) besteht ein vollständig positiver (bzw. negativer) linearer Zusammenhang zwischen den betrachteten Merkmalen. Wenn der Korrelationskoeffizient den Wert 0 aufweist, hängen die beiden Merkmale überhaupt nicht linear voneinander ab. Allerdings können diese ungeachtet dessen in nichtlinearer Weise voneinander abhängen. Damit ist der Korrelationskoeffizient kein geeignetes Maß für die (reine) stochastische Abhängigkeit von Merkmalen. Das Quadrat des Korrelationskoeffizienten stellt das Bestimmtheitsmaß dar. Der Korrelationskoeffizient wurde erstmals vom britischen Naturforscher Sir Francis Galton (1822–1911) in den 1870er Jahren verwendet. Karl Pearson lieferte schließlich eine formal-mathematische Begründung für den Korrelationskoeffizienten.[1] Da er von Auguste Bravais und Pearson populär gemacht wurde, wird der Korrelationskoeffizient auch Pearson-Korrelation oder Bravais-Pearson-Korrelation genannt.

Je nachdem, ob der lineare Zusammenhang zwischen zeitgleichen Messwerten zweier verschiedener Merkmale oder derjenige zwischen zeitlich verschiedenen Messwerten eines einzigen Merkmals betrachtet wird, spricht man entweder von der Kreuzkorrelation oder von der Kreuzautokorrelation (siehe auch Zeitreihenanalyse).

Korrelationskoeffizienten wurden mehrfach – so schon von Ferdinand Tönnies – entwickelt, heute wird allgemein jener von Pearson verwendet.

Definitionen

Bearbeiten

Korrelationskoeffizient für Zufallsvariablen

Bearbeiten

Konstruktion

Bearbeiten

Als Ausgangspunkt für die Konstruktion des Korrelationskoeffizienten für zwei Zufallsvariablen   und   betrachtet man die beiden standardisierten (auf die Standardabweichung bezogenen) Zufallsvariablen   und  . Die Kovarianz dieser standardisierten Zufallsvariablen ergibt sich aus dem Satz für lineare Transformationen von Kovarianzen zu

 .

Der Korrelationskoeffizient lässt sich als die Kovarianz der standardisierten Zufallsvariablen   und   auffassen.[2]

Definition

Bearbeiten

Für zwei quadratisch integrierbare Zufallsvariablen   und   mit jeweils positiver Standardabweichung   bzw.   und Kovarianz   ist der Korrelationskoeffizient (Pearsonscher Maßkorrelationskoeffizient) definiert durch:

 .

Dieser Korrelationskoeffizient wird auch Korrelationskoeffizient der Grundgesamtheit genannt. Durch die Definitionen der stochastischen Varianz und Kovarianz lässt sich der Korrelationskoeffizient für Zufallsvariablen auch wie folgt darstellen:[3]

 

wobei   den Erwartungswert darstellt.

Ferner heißen   unkorreliert, falls   gilt. Für positive   und   ist das genau dann der Fall, wenn   ist. Sind   unabhängig, so sind sie auch unkorreliert, die Umkehrung gilt im Allgemeinen nicht.

Schätzung

Bearbeiten

Im Rahmen der induktiven Statistik ist man an einer erwartungstreuen Schätzung   des Korrelationskoeffizienten der Grundgesamtheit   interessiert. Daher werden in die Formel des Korrelationskoeffizienten der Grundgesamtheit erwartungstreue Schätzer der Varianzen und der Kovarianz eingesetzt. Dies führt zum Stichprobenkorrelationskoeffizienten:

 

Empirischer Korrelationskoeffizient

Bearbeiten

Sei   eine zweidimensionale Stichprobe zweier kardinalskalierter Merkmale mit den empirischen Mitteln   und   der Teilstichproben   und  . Weiterhin gelte für die empirischen Varianzen   und   der Teilstichproben  . Dann ist der empirische Korrelationskoeffizient – analog zum Korrelationskoeffizienten für Zufallsvariablen, nur dass man statt der theoretischen Momente nun die empirische Kovarianz und die empirischen Varianzen verwendet – definiert durch:[4]

 
 
Verschiedene Werte des Korrelationskoeffizienten

Hierbei ist   die Summe der Abweichungsquadrate und   die Summe der Abweichungsprodukte.

Mithilfe der empirischen Kovarianz   und den empirischen Standardabweichungen

  und  

der Teilstichproben   und   ergibt sich die folgende Darstellung:

 

Sind diese Messreihenwerte z-transformiert, das heißt,  , wobei   die erwartungstreue Schätzung der Varianz bezeichnet, gilt auch:

 

Da man in der deskriptiven Statistik nur den Zusammenhang zwischen zwei Variablen als normierte mittlere gemeinsame Streuung in der Stichprobe beschreiben will, wird die Korrelation auch berechnet als

 .

Da sich die Faktoren   bzw.   aus den Formeln herauskürzen, ergibt sich in beiden Fällen der gleiche Wert des Koeffizienten.

Eine „Vereinfachung“ der obigen Formel zur leichteren Berechnung einer Korrelation lautet wie folgt:[5]

 

Diese Transformation der Formel ist aber numerisch instabil und sollte daher nicht mit Gleitkommazahlen verwendet werden, wenn die Mittelwerte nicht nahe null sind.[6]

Beispiel

Bearbeiten
 
Streudiagramm mit Mittelwerten und dem Wert des Korrelationskoeffizienten

Für die elf Beobachtungspaare   sind die Werte in der unten stehenden Tabelle in der zweiten und dritten Spalte gegeben. Die Mittelwerte ergeben sich zu   und   und damit können die vierte und fünfte Spalte der Tabelle berechnet werden. Die sechste Spalte enthält das Produkt der vierten mit der fünften Spalte und damit ergibt sich  . Die beiden letzten Spalten enthalten jeweils die Quadrate der vierten und fünften Spalte und es ergibt sich   und  .

Damit ergibt sich für die Korrelation  .

               
1 10,00 8,04 1,00 0,54 0,54 1,00 0,29
2 8,00 6,95 −1,00 −0,55 0,55 1,00 0,30
3 13,00 7,58 4,00 0,08 0,32 16,00 0,01
4 9,00 8,81 0,00 1,31 0,00 0,00 1,71
5 11,00 8,33 2,00 0,83 1,66 4,00 0,69
6 14,00 9,96 5,00 2,46 12,30 25,00 6,05
7 6,00 7,24 −3,00 −0,26 0,78 9,00 0,07
8 4,00 4,26 −5,00 −3,24 16,20 25,00 10,50
9 12,00 10,84 3,00 3,34 10,02 9,00 11,15
10 7,00 4,82 −2,00 −2,68 5,36 4,00 7,19
11 5,00 5,68 −4,00 −1,82 7,28 16,00 3,32
  99,00 82,51 55,01 110,00 41,27
Alle Werte in der Tabelle sind auf zwei Stellen nach dem Komma gerundet!

Eigenschaften

Bearbeiten

Mit der Definition des Korrelationskoeffizienten gilt unmittelbar

  •   bzw.  
  •  
  •  

Dabei sind   und   reelle Zahlen (mit   wegen der definitorisch vorausgesetzten Positivität der Varianz von  ) und   ist die Signumfunktion.[A 2]

Aus der Cauchy-Schwarzschen Ungleichung folgt

  •  .

Man erkennt:

  •   fast sicher genau dann, wenn  

Das lässt sich zum Beispiel durch Lösen der Gleichung   einsehen. In dem Fall ist   und  .

Sind die Zufallsgrößen   und   stochastisch voneinander unabhängig, dann gilt:

  •  

Der Umkehrschluss ist allerdings nicht zulässig, denn es können Abhängigkeitsstrukturen vorliegen, die der Korrelationskoeffizient nicht erfasst. Für die multivariate Normalverteilung gilt jedoch: Die Zufallsvariablen   und   sind genau dann stochastisch unabhängig, wenn sie unkorreliert sind. Wichtig ist hierbei die Voraussetzung, dass   und   gemeinsam normalverteilt sind. Es reicht nicht aus, dass sowohl   als auch   normalverteilt sind.

Voraussetzungen für die Pearson-Korrelation

Bearbeiten

Der Korrelationskoeffizient nach Pearson erlaubt Aussagen über statistische Zusammenhänge unter folgenden Bedingungen:

Skalierung

Bearbeiten

Der Pearsonsche Korrelationskoeffizient liefert korrekte Ergebnisse bei intervallskalierten und bei dichotomen Daten. Für niedrigere Skalierungen existieren andere Korrelationskonzepte (z. B. Rangkorrelationskoeffizienten).

Normalverteilung

Bearbeiten

Für die Durchführung von standardisierten Signifikanztests über den Korrelationskoeffizienten in der Grundgesamtheit müssen beide Variablen annähernd normalverteilt sein. Bei zu starken Abweichungen von der Normalverteilung muss auf den Rangkorrelationskoeffizienten zurückgegriffen werden. (Alternativ kann man auch, falls die Verteilung bekannt ist, angepasste (nichtstandardisierte) Signifikanztests verwenden.)

Linearitätsbedingung

Bearbeiten

Zwischen den Variablen   und   wird ein linearer Zusammenhang vorausgesetzt. Diese Bedingung wird in der Praxis häufig ignoriert; daraus erklären sich mitunter enttäuschend niedrige Korrelationen, obwohl der Zusammenhang zwischen   und   bisweilen trotzdem hoch ist. Ein einfaches Beispiel für einen hohen Zusammenhang trotz eines niedrigen Korrelationskoeffizienten ist die Fibonacci-Folge. Alle Zahlen der Fibonacci-Folge sind durch ihre Position in der Reihe durch eine mathematische Formel exakt determiniert (siehe die Formel von Binet). Der Zusammenhang zwischen der Positionsnummer einer Fibonacci-Zahl und der Größe der Zahl ist vollkommen determiniert. Dennoch beträgt der Korrelationskoeffizient zwischen den Ordnungsnummern der ersten 360 Fibonacci-Zahlen und den betreffenden Zahlen nur 0,20; das bedeutet, dass in erster Näherung nicht viel mehr als   der Varianz durch den Korrelationskoeffizienten erklärt werden und 96 % der Varianz „unerklärt“ bleiben. Der Grund ist die Vernachlässigung der Linearitätsbedingung, denn die Fibonacci-Zahlen wachsen progressiv an: In solchen Fällen ist der Korrelationskoeffizient nicht korrekt interpretierbar.

Es wurden viele Alternativen entwickelt, die ohne die Annahme der Linearität auskommen (siehe [7] und die dort zitierten Referenzen für einen Überblick). Sie alle teilen die wichtige Eigenschaft, dass ein Wert von null Unabhängigkeit impliziert. Dies veranlasste einige Autoren[7][8], deren routinemäßige Verwendung zu empfehlen, insbesondere der Distanzkorrelation[9][10]. Eine weitere prominente Alternative ist die Transinformation. Ein wichtiger Nachteil der Alternativen ist dass sie, wenn sie verwendet werden, um zu testen, ob zwei Variablen miteinander assoziiert sind, im Vergleich zur Pearson-Korrelation tendenziell eine geringere Teststärke haben, wenn die Daten einer multivariaten Normalverteilung folgen[7]. Dies ist eine Implikation des "No free lunch" Theorems. Um alle Arten von Beziehungen zu erkennen, müssen diese Maße an anderen Beziehungen an Teststärke einbüßen, insbesondere im wichtigen Sonderfall einer linearen Beziehung mit gaußschen Marginalverteilungen, für die die Pearson-Korrelation optimal ist. Ein weiteres Problem betrifft die Interpretation. Während die Pearson-Korrelation für alle Werte interpretierbar ist, können die alternativen Maße in der Regel nur an den Extremen sinnvoll interpretiert werden[11].

Signifikanzbedingung

Bearbeiten

Ein Korrelationskoeffizient > 0 bei positiver Korrelation bzw. < 0 bei negativer Korrelation zwischen   und   berechtigt nicht a priori zur Aussage, es bestehe ein statistischer Zusammenhang zwischen   und  . Eine solche Aussage ist nur gültig, wenn der ermittelte Korrelationskoeffizient signifikant ist. Der Begriff „signifikant“ bedeutet hier „signifikant von Null verschieden“. Je höher die Anzahl der Wertepaare   und das Signifikanzniveau sind, desto niedriger darf der Absolutbetrag eines Korrelationskoeffizienten sein, um zur Aussage zu berechtigen, zwischen   und   gebe es einen linearen Zusammenhang. Ein t-Test zeigt, ob die Abweichung des ermittelten Korrelationskoeffizienten von Null auch signifikant ist.

Bildliche Darstellung und Interpretation

Bearbeiten
 
Verschiedene Punktwolken zusammen mit dem für sie jeweils berechenbaren Pearson’schen Korrelationskoeffizienten. Man beachte, dass Letzterer zwar die Streuung der Punktwolke sowie die generelle Richtung der linearen Abhängigkeit von   und   widerspiegelt (obere Zeile), nicht aber deren Steilheit (mittlere Zeile). Verläuft die Punktwolke beispielsweise exakt waagerecht (mittleres Bild), kann aufgrund von   gar kein Korrelationskoeffizient berechnet werden. Da der Pearson’schen Korrelationskoeffizienten ein Maß für lineare Abhängigkeit ist, werden nichtlineare Abhängigkeiten (untere Zeile) mit Hilfe dieses Koeffizienten nicht erfasst.

Sind zwei Merkmale vollständig miteinander korreliert (d. h.  ), so liegen alle Messwerte in einem 2-dimensionalen Koordinatensystem auf einer Geraden. Bei einer perfekten positiven Korrelation ( ) steigt die Gerade. Wenn die Merkmale perfekt negativ miteinander korreliert sind ( ), sinkt die Gerade. Besteht zwischen zwei Merkmalen eine sehr hohe Korrelation, sagt man oft auch, sie erklären dasselbe.

Je näher der Betrag von   bei 0 liegt, desto kleiner der lineare Zusammenhang. Für   kann der statistische Zusammenhang zwischen den Messwerten nicht mehr durch eine eindeutig steigende oder sinkende Gerade dargestellt werden. Dies ist z. B. der Fall, wenn die Messwerte rotationssymmetrisch um den Mittelpunkt verteilt sind. Dennoch kann dann ein nichtlinearer statistischer Zusammenhang zwischen den Merkmalen gegeben sein. Umgekehrt gilt jedoch: Wenn die Merkmale statistisch unabhängig sind, nimmt der Korrelationskoeffizient stets den Wert 0 an.

Korrelation: Koinzidenz oder Kausalzusammenhang

In der Monographie „Kontrazeption mit Hormonen“ von Hans-Dieter Taubert und Herbert Kuhl (Abteilung für gynäkologische Endokrinologie, Zentrum der Frauenheilkunde und Geburtshilfe der J.W. Goethe-Universität), die 1981 im Georg Thieme Verlag Stuttgart erschien, wurde das Problem der Bedeutung von Korrelationen bei medizinischen Studien angesprochen. Es ist bekannt, dass Korrelationen (z. B. zwischen Hormondosierungen oder -serumkonzentrationen und dem Auftreten bestimmter Erkrankungen), die bei solchen Untersuchungen ermittelt werden, häufig als Beleg für einen Kausalzusammenhang interpretiert werden. Unabhängig von den zahlreichen methodischen Problemen solcher Studien werden selbst offensichtlich fragwürdige Ergebnisse gerne von den Medien kolportiert.

In dem Abschnitt „Aussagekraft verschiedener Untersuchungskonzepte“ wurde auf den Seiten 207–208 (in der 2. Auflage von 1995 auf den Seiten 239–240) als Beispiel die Bedeutung einer extrem engen Korrelation zwischen der Zahl der Storchenpaare und der Geburtenzahl in der Bevölkerung in Baden-Württemberg in dem Zeitraum zwischen 1966 und 1975 diskutiert. Aus den Daten über die kontinuierliche Abnahme der Storchenpopulation, die dem Journal für Ornithologie von 1979 entnommen wurden und dem Rückgang der Geburtenrate, der sich aus den Zahlen des Statistischen Jahrbuchs der Bundesrepublik Deutschland ergab, wurden

  • die Regressionsgerade mit   und
  • der Korrelationskoeffizient mit   berechnet ( ).

Das Ergebnis ist in Abb. 46 auf S. 208 (bzw. in Abb. 60 auf S. 240 der 2. Auflage 1995) dargestellt. In dem begleitenden Text ist u. a. zu lesen: „Grundsätzlich sollten alle Aussagen über vermutete Zusammenhänge zwischen der Anwendung hormonaler Kontrazeptiva und dem Auftreten bestimmter Erkrankungen aus dem Blickwinkel erfolgen, dass die Wahrscheinlichkeit einer zufälligen Koinzidenz mit der Häufigkeit der Vergleiche steigt. So konnte mit Hilfe kontrollierter prospektiver Untersuchungen in vielen Fällen nachgewiesen werden, dass sich die Häufigkeit bestimmter Erkrankungen bei Einnahme von Ovulationshemmern nicht von der in der Gesamtbevölkerung unterscheidet. Andererseits bedeutet selbst eine hoch signifikante Korrelation zwischen zwei Parametern noch keinen Kausalzusammenhang, auch wenn dieser plausibel erscheint. Dies sei anhand der Beobachtung demonstriert, dass die Zahl der Storchenpaare in Baden-Württemberg von 67 im Jahre 1965 auf 15 im Jahre 1975 abnahm und gleichzeitig die Geburtenzahl in diesem Bundesland von 159.000 auf 97.000 zurück ging (s. Abb.). Zwischen beiden Parametern wurde eine Korrelation ermittelt, die hoch signifikant ( ) ist. Trotzdem wäre es voreilig, daraus zu schließen, dass für den Geburtenrückgang die Abnahme der Storchenpopulation kausal verantwortlich ist.“ Übrigens ist zur Frage der Plausibilität anzumerken, dass diese grundsätzlich vom aktuellen Kenntnisstand abhängig ist.

 

Der Korrelationskoeffizient ist kein Indiz eines ursächlichen (d. h. kausalen) Zusammenhangs zwischen den beiden Merkmalen: Die Besiedlung durch Störche im Südburgenland korreliert zwar positiv mit der Geburtenzahl der dortigen Einwohner, doch das bedeutet noch keinen „kausalen Zusammenhang“, trotzdem ist ein „statistischer Zusammenhang“ gegeben. Dieser leitet sich aber aus einem anderen, weiteren Faktor ab, wie dies im Beispiel durch Industrialisierung oder der Wohlstandssteigerung begründet sein kann, die einerseits den Lebensraum der Störche einschränkten und andererseits zu einer Verringerung der Geburtenzahlen führten. Korrelationen dieser Art werden Scheinkorrelationen genannt.

Der Korrelationskoeffizient kann kein Indiz über die Richtung eines Zusammenhanges sein: Steigen die Niederschläge durch die höhere Verdunstung oder steigt die Verdunstung an, weil die Niederschläge mehr Wasser liefern? Oder bedingen sich beide gegenseitig, also möglicherweise in beiderlei Richtung?

Ob ein gemessener Korrelationskoeffizient als groß oder klein interpretiert wird, hängt stark von der Art der untersuchten Daten ab. Bei psychologischen Untersuchungen gelten Werte ab   als kleine,   als mittlere und   als große Effekte.[12][13]

Das Quadrat des Korrelationskoeffizienten   nennt man Bestimmtheitsmaß. Es gibt in erster Näherung an, wie viel Prozent der Varianz (d. h. des Streuungsquadrats), der einen Variable durch die Varianz der anderen Variable erklärt werden können. Beispiel: Bei   werden 9 % ( ) der gesamten auftretenden Varianz im Hinblick auf einen statistischen Zusammenhang erklärt.

Allgemeiner empirischer Korrelationskoeffizient

Bearbeiten

Der empirische Pearson-Korrelationskoeffizient bedingt, wie oben erwähnt, einen linearen Zusammenhang, um brauchbare Werte zu liefern. Es existiert jedoch auch ein allgemeiner empirischer Korrelationskoeffizient, der für jede beliebige Funktion   brauchbare Werte liefert:

 

Der Bruch unter der Wurzel entspricht dem empirischen Bestimmtheitsmaß  . Für den Spezialfall einer linearen Funktion   geht der allgemeine empirische Korrelationskoeffizient   wieder in den empirischen Pearson-Korrelationskoeffizienten   über.

Fisher-Transformation

Bearbeiten

Empirische Korrelationskoeffizienten sind nicht normalverteilt. Vor der Berechnung von Konfidenzintervallen muss daher erst eine Korrektur der Verteilung mit Hilfe der Fisher-Transformation vorgenommen werden. Wenn die Daten   und   aus einer zumindest annähernd bivariat normalverteilten Grundgesamtheit stammen, dann ist der empirische Korrelationskoeffizient   rechtssteil unimodal verteilt.

Die Fisher-Transformation des Korrelationskoeffizienten   lautet dann

 

  ist annähernd normalverteilt mit der Standardabweichung   und Mittelwert

 

wobei   hier für den Korrelationskoeffizienten der Grundgesamtheit steht. Die auf Basis dieser Normalverteilung errechnete Wahrscheinlichkeit, dass der Mittelwert von den beiden Grenzen   und   umschlossen wird beträgt

 

und wird sodann retransformiert zu

 

Das  -Konfidenzintervall für die Korrelation lautet sodann

 .

Konfidenzintervalle von Korrelationen liegen in aller Regel unsymmetrisch bezüglich ihres Mittelwerts.

Test des Korrelationskoeffizienten / Steigers Z-Test

Bearbeiten

Folgende Tests (Steigers Z-Test)[14] können durchgeführt werden, wenn die Variablen   und   annähernd bivariat normalverteilt sind:

  vs.   (zweiseitige Hypothese)
  vs.   (rechtsseitige Hypothese)
  vs.   (linksseitige Hypothese)

Die Teststatistik

 

ist standardnormalverteilt (  ist die Fisher-Transformation, siehe vorherigen Abschnitt).

Im Spezialfall der Hypothese   vs.   ergibt sich die Teststatistik als t-verteilt mit   Freiheitsgraden:

 

Matthews Korrelationskoeffizient

Bearbeiten

Betrachtet man zwei binäre Variablen X und Y, so ist der Pearson-Korrelationskoeffizient dieser Variablen

 

und kann direkt aus der Konfusionsmatrix berechnet werden, wobei in der 2×2 Konfusionsmatrix

y = 1 y = 0 total
x = 1      
x = 0      
total      

n11, n10, n01, n00, die nicht negativen absoluten Häufigkeiten der Beobachtungen sind (deren Summe die Zahl der Beobachtungen n ist). Dieser Wert ist auch als Mathews Korrelationskoeffizient (MCC) bekannt und kann unter Umständen numerisch schneller berechenbar sein.

Partieller Korrelationskoeffizient

Bearbeiten

Die partielle Korrelation kontrolliert den Einfluss von Störvariablen.

Robuste Korrelationskoeffizienten

Bearbeiten

Der Korrelationskoeffizient nach Pearson ist empfindlich gegenüber Ausreißern. Deswegen wurden verschiedene robuste Korrelationskoeffizienten entwickelt, z. B.

Quadrantenkorrelation

Bearbeiten

Die Quadrantenkorrelation ergibt sich aus der Anzahl der Beobachtungen in den vier vom Medianenpaar bestimmten Quadranten. Dazu zählt man, wie viele der Beobachtungen in den Quadranten I und III liegen ( ) bzw. wie viele sich in den Quadranten II und IV befinden ( ). Die Beobachtungen in den Quadranten I und III liefern jeweils einen Beitrag von   und die Beobachtungen in den Quadranten II und IV von  :

 

mit der Signumfunktion  , der Zahl   der Beobachtungen sowie den Medianen   und   der Beobachtungen. Da jeder Wert von   entweder  ,   oder   ist, spielt es keine Rolle, wie weit eine Beobachtung von den Medianen entfernt ist.

Über die Quadrantenkorrelation kann mit Hilfe des Median-Tests die Hypothesen   vs.   überprüft werden. Ist   die Zahl der Beobachtungen mit  ,   die Zahl der Beobachtungen mit   und  , dann ist folgende Teststatistik Chi-Quadrat-verteilt mit einem Freiheitsgrad von

 .

Schätzung der Korrelation zwischen nicht-metrischen Variablen

Bearbeiten

Die Schätzung der Korrelation mit dem Korrelationskoeffizienten nach Pearson setzt voraus, dass beide Variablen intervallskaliert und normalverteilt sind. Dagegen können die Rangkorrelationskoeffizienten immer dann zur Schätzung der Korrelation verwendet werden, wenn beide Variablen mindestens ordinalskaliert sind. Die Korrelation zwischen einer dichotomen und einer intervallskalierten und normalverteilten Variablen kann mit der punktbiserialen Korrelation geschätzt werden. Die Korrelation zwischen zwei dichotomen Variablen kann mit dem Vierfelderkorrelationskoeffizienten geschätzt werden. Hier kann man die Unterscheidung treffen, dass bei zwei natürlich dichotomen Variablen die Korrelation sowohl durch das Chancenverhältnis als auch durch den Phi-Koeffizient berechnet werden kann. Eine Korrelation aus zwei ordinal- oder einer intervall- und einer ordinal-gemessenen Variablen ist mit dem Spearman’schen Rho oder dem Kendall’schen Tau berechenbar.

Multipler Korrelationskoeffizient

Bearbeiten

Der multiple Korrelationskoeffizient ist eine multivariate Verallgemeinerung des Korrelationskoeffizienten nach Bravais-Pearson.

Probleme

Bearbeiten

Das Anscombe-Quartett zeigt Datensätze mit exakt gleichem Korrelationskoeffizient, aber sehr unterschiedlichem Verhalten. Auch andere Probleme sind in der Literatur bekannt[15].

Siehe auch

Bearbeiten

Literatur

Bearbeiten
Bearbeiten

Anmerkungen

Bearbeiten
  1. Der Name Produkt-Moment-Korrelation für den Korrelationskoeffizienten für Zufallsvariablen rührt daher, dass   die auf das Produkt der Varianzen – die im Sinne der Stochastik Momente darstellen – von   und   bezogene Kovarianz ist.
  2. Für alle   und   gilt:
     

Einzelnachweise

Bearbeiten
  1. Franka Miriam Brückler: Geschichte der Mathematik kompakt. Das Wichtigste aus Analysis, Wahrscheinlichkeitstheorie, angewandter Mathematik, Topologie und Mengenlehre. Springer-Verlag, 2017, ISBN 978-3-662-55573-6, S. 116.
  2. L. Fahrmeir, R. Künstler u. a.: Statistik. Der Weg zur Datenanalyse. 8. Auflage. Springer 2016, S. 326.
  3. Bayer, Hackel: Wahrscheinlichkeitsrechnung und mathematische Statistik, S. 86.
  4. Torsten Becker u. a.: Stochastische Risikomodellierung und statistische Methoden. Springer Spektrum, 2016. S. 79.
  5. Jürgen Bortz, Christof Schuster: Statistik für Human- und Sozialwissenschaftler. 7. Auflage. Springer-Verlag GmbH, Berlin / Heidelberg / New York 2010, ISBN 978-3-642-12769-4, S. 157.
  6. Erich Schubert, Michael Gertz: Numerically stable parallel computation of (co-)variance. ACM, 2018, ISBN 978-1-4503-6505-5, S. 10, doi:10.1145/3221269.3223036 (acm.org [abgerufen am 26. November 2021]).
  7. a b c Julian D. Karch, Andres F. Perez-Alonso, Wicher P. Bergsma: Beyond Pearson’s Correlation: Modern Nonparametric Independence Tests for Psychological Research. In: Multivariate Behavioral Research. 4. August 2024, doi:10.1080/00273171.2024.2347960.
  8. Noah Simon, Robert Tibshirani: Comment on "Detecting Novel Associations In Large Data Sets" by Reshef Et Al, Science Dec 16, 2011. 2014, S. 3, doi:10.48550/arXiv.1401.7645, arxiv:1401.7645.
  9. G. J. Rizzo Székely, N. K. Bakirov: Measuring and testing independence by correlation of distances. In: Annals of Statistics. 35. Jahrgang, Nr. 6, 2007, S. 2769–2794, doi:10.1214/009053607000000505, arxiv:0803.4101.
  10. G. J. Székely, M. L. Rizzo: Brownian distance covariance. In: Annals of Applied Statistics. 3. Jahrgang, Nr. 4, 2009, S. 1233–1303, doi:10.1214/09-AOAS312, PMID 20574547, PMC 2889501 (freier Volltext), arxiv:1010.0297.
  11. Matthew Reimherr, Dan L. Nicolae: On Quantifying Dependence: A Framework for Developing Interpretable Measures. In: Statistical Science. 28. Jahrgang, Nr. 1, 2013, S. 116–130, doi:10.1214/12-STS405.
  12. Jacob Cohen: A power primer. In: Psychological Bulletin. Band 112, Nr. 1, 1992, ISSN 1939-1455, S. 155–159, doi:10.1037/0033-2909.112.1.155 (apa.org [abgerufen am 26. November 2021]).
  13. Jacob Cohen: A power primer. (PDF; 800 kB) In: personal.kent.edu. 1991, abgerufen am 26. November 2021 (englisch).
  14. J. H. Steiger: Tests for comparing elements of a correlation matrix. 1980. Psychological Bulletin, 87, 245–251, doi:10.1037/0033-2909.87.2.245.
  15. Aggarwal, Rakesh, and Priya Ranganathan. "Common pitfalls in statistical analysis: The use of correlation techniques." Perspectives in clinical research 7.4 (2016): 187. https://www.ncbi.nlm.nih.gov/pmc/articles/PMC5079093/