Die Stichprobenkovarianz oder empirische Kovarianz (oft auch einfach Kovarianz (von lateinisch con- = „mit-“ und Varianz von variare = „(ver)ändern, verschieden sein“)) ist in der Statistik eine nichtstandardisierte Maßzahl für den (linearen) Zusammenhang zweier statistischer Variablen. Die korrigierte Stichprobenkovarianz ist eine erwartungstreue Schätzung der Kovarianz einer Grundgesamtheit mittels einer Stichprobe.

Ist die Kovarianz positiv, dann gehen kleine Werte der einen Variable überwiegend einher mit kleinen Werten der anderen Variable und gleichfalls für große Werte. Für eine negative Kovarianz ist das genau umgekehrt.

Definition

Bearbeiten

Ist   eine Datenreihe (Stichprobe) zweier statistischer Variablen   und  , dann ist die Stichprobenkovarianz definiert als „durchschnittliches Abweichungsprodukt

 

mit den arithmetischen Mitteln   und   der Datenreihen   und  .

Die Stichprobenkovarianz misst die gemeinsame Streuung („Mitstreuung“) der Beobachtungsdaten einer Stichprobe. Dabei wird die mittlere Abweichung der Beobachtungsdaten von den Mittelwerten   berechnet.

Korrigierte Stichprobenkovarianz

Bearbeiten

Um aus einer Stichprobe eine Schätzung der unbekannten Kovarianz   der Grundgesamtheit zu erhalten, wird die korrigierte Stichprobenkovarianz genutzt:

 

Bei einer einfachen Zufallsstichprobe haben die Stichprobenvariablen   und   die Kovarianz  . Unter Annahme einer zweidimensionalen Normalverteilung der Stichprobenvariablen   und mit Hilfe der Maximum-Likelihood-Methode ergibt sich die Schätzfunktion

 .

Es stellt sich jedoch heraus, dass der Erwartungswert   ist, d. h. die Schätzfunktion   ist nicht erwartungstreu (also verzerrt) für  .

Die korrigierte Stichprobenkovarianz ist jedoch unverzerrt. Im Rahmen der induktiven Statistik wird daher immer die korrigierte Stichprobenkovarianz verwendet.

Auswahl der Berechnungsformel

Bearbeiten

Der Kovarianz   kann, gemäß ihrer Definition, mit der Gleichung

 

aus einer Datenreihe berechnet werden. Diese Formel wird verwendet, wenn die Werte   und   einen vollständigen Datensatz beschreiben und die wahren Mittelwerte   und   der beiden Zufallsvariablen bekannt oder ausreichend bekannt sind. Oft liegt jedoch nur eine Stichprobe mit einer reduzierten Anzahl von Messwerten vor, mit denen die Kovarianz nur geschätzt werden kann. Wenn dabei die Mittelwerte aus dem arithmetischen Mittel gebildet werden, liefert die obige Formel systematisch zu kleine Werte. Daher verwendet man insbesondere bei sehr wenigen Messwerten die Formel der korrigierten Stichprobenkovarianz

 

welche die Kovarianz zumindest erwartungstreu schätzt.

In manchen Fällen sind einzelne Messwerte der Stichprobe unterschiedlich über- oder unterrepräsentiert oder die Messwerte haben unterschiedliche Auftrittswahrscheinlichkeiten. In einem solchen Fall kann mit der erweiterten Formel

 

jedem Messwert zum Ausgleich ein individuelles Gewicht   zugeordnet werden. Wenn die Gewichte zur Korrektur von relativen Häufigkeiten verwendet werden, dann ist die erwartungstreue Normierung

 

zu verwenden. Bei Gewichten, die eine Wahrscheinlichkeit angeben, mit der das Wertepaar in einer Stichprobe zu finden ist, muss dagegen mit

 

normiert werden. Die Mittelwerte   und   werden dabei mit den jeweiligen Gewichten gebildet:

 ,  .

Eigenschaften

Bearbeiten

Siehe auch: Kovarianz (Stochastik)#Eigenschaften und Rechenregeln

Beziehung zur Varianz

Bearbeiten

Die Kovarianz ist eine Erweiterung der Varianz, denn es gilt

  •   bzw.
  •  .

Dabei ist   und   die empirischen Varianzen mit passendem Vorfaktor. Das heißt, die Varianz ist die Kovarianz einer Variable mit sich selbst.

Verschiebungssatz

Bearbeiten

Der Verschiebungssatz liefert eine alternative Darstellung der Kovarianz

  •  .
  •  .

Diese Formeln ermöglichen in vielen Fällen eine einfachere Berechnung der Kovarianz. Bei numerischer Rechnung muss dabei allerdings auf unerwünschte Stellenauslöschung bei der Subtraktion großer Zahlen geachtet werden.

Symmetrie und Linearität

Bearbeiten

Die Kovarianz ist linear und symmetrisch, d. h. es gilt:

Symmetrie
Beim Vertauschen der Rollen von   und   ergibt sich der gleiche Wert für die Kovarianz:
  •   bzw.
  •  
Linearität
Wird eine der Variablen einer linearen Transformation unterzogen, z. B.  , so gilt
  •   bzw.
  •  
Wegen der Symmetrie ist die Kovarianz auch im zweiten Argument linear.

Die Linearität der Kovarianz hat zur Folge, dass die Kovarianz von der Maßeinheit der Variablen abhängt. So erhält man beispielsweise die zehnfache Kovarianz, wenn man anstatt   die Variable   betrachtet. Da diese Eigenschaft die absoluten Werte der Kovarianz schwer interpretierbar macht, betrachtet man häufig stattdessen den maßstabsunabhängigen Korrelationskoeffizienten.

Beispiele

Bearbeiten

Beispiel 1

Bearbeiten

Die folgende Grafik zeigt für 21 verschiedene Datensätze jeweils das Streudiagramm zusammen mit der Kovarianz   und der Korrelation   des Datensatzes. Die erste Reihe zeigt sieben Datensätze mit unterschiedlich starkem linearen Zusammenhang, wobei die Korrelation   von +1 über 0 nach −1 geht. Da die Kovarianz ein nicht-standardisiertes Maß ist, geht sie von +2 auf Null bis auf −2. D.h., wenn es keinen linearen Zusammenhang gibt, dann ist die Kovarianz genauso Null wie die Korrelation. Das Vorzeichen der Kovarianz zeigt die Richtung des Zusammenhangs an; jedoch zeigt sie nicht die Stärke des Zusammenhangs.

Noch deutlicher wird es in der zweiten Zeile, wo alle sieben Datensätze einen perfekten linearen Zusammenhang haben. Doch die Kovarianz   nimmt ab auf Null und wird dann negativ. Die Korrelation   ist für diese Datensätze entweder +1 oder −1 (bzw. undefiniert). Die dritte Zeile zeigt schließlich, dass sowohl die Kovarianz als auch die Korrelation Null ist, obwohl ein deutlicher Zusammenhang zwischen beiden Variablen sichtbar ist. D.h. die Kovarianz misst nur den linearen Zusammenhang und nicht-lineare Zusammenhänge werden nicht erkannt.

 
Kovarianz   und Korrelation   für unterschiedliche Datensätze.

Beispiel 2

Bearbeiten

In einer Schule soll überprüft werden, ob es einen Zusammenhang gibt zwischen der Anzahl der unterrichteten Stunden der Lehrer am Tag und der Anzahl der getrunkenen Tassen Kaffee. Es wurden zehn Datenpaare erhoben und ausgewertet (so nicht durchgeführt, nur der Anschauung halber!):

Nummer 1 2 3 4 5 6 7 8 9 10
Anzahl Stunden ( ) 5 6 8 4 6 6 5 7 5 4
Anzahl Tassen ( ) 2 1 4 1 2 0 2 3 3 1

Die Kovarianz wird nun folgendermaßen berechnet:
a.) Zunächst wird das arithmetische Mittel beider Variablen ermittelt:

  und  

b.) Die Kovarianz wird nun berechnet über:  

 
 

Da die Kovarianz größer als null ist, ist für diese Stichprobe ein positiver Zusammenhang zwischen der Anzahl der Unterrichtsstunden und der Anzahl der Tassen Kaffee ersichtlich. Ob dies auf die Grundgesamtheit, hier das Lehrerkollegium, generalisierbar ist, hängt von der Qualität der Stichprobe ab.

Stichproben-Kovarianzmatrix

Bearbeiten

Gegeben ist eine Datenmatrix

 

mit   Stichproben zu   Variablen, das heißt: in Reihe   ist die Stichprobe  . Die Stichproben-Kovarianzmatrix wird in diesem Fall die Dimension   besitzen.

Eine Schätzung der Kovarianzmatrix in der Grundgesamtheit   erhält man, indem man die Varianzen und Kovarianzen in der Grundgesamtheit   und   durch die empirischen Varianzen und empirischen Kovarianzen (ihre empirischen Gegenstücke)   und   ersetzt (sofern die  -Variablen Zufallsvariablen darstellen schätzen die die Parameter in der Grundgesamtheit). Diese sind gegeben durch[1][2]

  und  .

Dies führt zur Stichproben-Kovarianzmatrix  :

 .

Zum Beispiel sind   und   gegeben durch

  und  ,

mit dem arithmetischen Mittel

 .

Beispiel

Bearbeiten

Bei 10 Datenpunkten seien jeweils die Werte   und   gemessen worden:

 
Messwerte
   
1,0 1,41
2,0 1,56
2,0 2,19
4,0 2,79
5,0 3,04
6,0 2,23
9,0 3,74
9,0 3,84
9,0 2,80
13,0 4,18

Die Berechnung des geschätzten Mittelwertes ergibt:  ,  ,   ;  ,  .

Daher ist die Stichprobenkovarianzmatrix  .

In Bezug auf den Mittelpunkt   der Punktwolke kann im Diagramm eine Konzentrationsellipse eingezeichnet werden. Die Punkte auf dem Rand der Ellipse sind also durch folgende Menge gegeben:

 .

Siehe auch

Bearbeiten

Einzelnachweise

Bearbeiten
  1. Ludwig Fahrmeir, Thomas Kneib, Stefan Lang, Brian Marx: Regression: models, methods and applications. Springer Science & Business Media, 2013, ISBN 978-3-642-34332-2, S. 648.
  2. Rencher, Alvin C., und G. Bruce Schaalje: Linear models in statistics., John Wiley & Sons, 2008., S. 156.