In der Stochastik gibt es neben der üblichen mathematischen Notation und den mathematischen Symbolen folgende häufig verwendete Konventionen:
Zufallsvariablen werden in Großbuchstaben geschrieben:
X
{\displaystyle X}
,
Y
{\displaystyle Y}
etc.
Realisierungen einer Zufallsvariablen werden mit den entsprechenden Kleinbuchstaben geschrieben, z. B. für die Beobachtungen in einer Stichprobe :
x
1
,
x
2
,
…
,
x
n
{\displaystyle x_{1},x_{2},\ldots ,x_{n}}
.
Für die Bezeichnung von Wahrscheinlichkeitsfunktionen und Wahrscheinlichkeitsdichten werden Kleinbuchstaben benutzt, z. B.
f
(
x
)
{\displaystyle f(x)}
.
Für die Bezeichnung von Verteilungsfunktionen werden Großbuchstaben benutzt, z. B.
F
(
x
)
{\displaystyle F(x)}
.
Speziell die Wahrscheinlichkeitsdichte der Standardnormalverteilung wird die Bezeichnung
φ
(
z
)
{\displaystyle \varphi (z)}
und für die Verteilungsfunktion
Φ
(
z
)
{\displaystyle \Phi (z)}
benutzt.
Griechische Buchstaben (z. B.
θ
,
β
{\displaystyle \theta ,\beta }
) werden benutzt, um unbekannte Parameter (Parameter der Grundgesamtheit) zu bezeichnen.
Eine Schätzfunktion wird häufig mit einem Zirkumflex über dem entsprechenden Symbol bezeichnet, z. B.
θ
^
{\displaystyle {\hat {\theta }}}
(gesprochen: Theta Dach ).
Das arithmetische Mittel wird mit
x
¯
{\displaystyle {\bar {x}}}
bezeichnet (gesprochen:
x
{\displaystyle x}
quer ).
Im Folgenden sei stets ein Wahrscheinlichkeitsraum
(
Ω
,
Σ
,
P
)
{\displaystyle (\Omega ,\Sigma ,P)}
gegeben. Darin ist der Ergebnisraum
Ω
{\displaystyle \Omega }
eine beliebige nichtleere Menge ,
Σ
{\displaystyle \Sigma }
eine σ-Algebra von Teilmengen von
Ω
{\displaystyle \Omega }
, die
Ω
{\displaystyle \Omega }
enthält, und
P
{\displaystyle P}
ein Wahrscheinlichkeitsmaß auf
Ω
.
{\displaystyle \Omega .}
Axiome:
Jedem Ereignis
A
∈
Σ
{\displaystyle A\in \Sigma }
wird eine Wahrscheinlichkeit
P
(
A
)
{\displaystyle P(A)}
zugeordnet, so dass gilt:
0
≤
P
(
A
)
≤
1
{\displaystyle 0\leq P(A)\leq 1}
,
P
(
Ω
)
=
1
{\displaystyle P(\Omega )=1\,}
,
für paarweise disjunkte Ereignisse
A
1
,
A
2
,
…
{\displaystyle A_{1},A_{2},\dots }
gilt
P
(
A
1
∪
A
2
∪
…
)
=
P
(
A
1
)
+
P
(
A
2
)
+
…
{\displaystyle P(A_{1}\cup A_{2}\cup \dots )=P(A_{1})+P(A_{2})+\dots }
Rechenregeln: Aus den Axiomen ergibt sich:
P
(
∅
)
=
0
{\displaystyle P(\emptyset )=0}
Für
A
⊂
B
{\displaystyle A\subset B}
gilt
P
(
B
∖
A
)
=
P
(
B
)
−
P
(
A
)
{\displaystyle P(B\setminus A)=P(B)-P(A)}
, insbesondere
P
(
A
)
≤
P
(
B
)
{\displaystyle P(A)\leq P(B)}
Für das Gegenereignis
A
¯
=
Ω
∖
A
{\displaystyle {\overline {A}}=\Omega \setminus A}
gilt
P
(
A
¯
)
=
1
−
P
(
A
)
{\displaystyle P({\overline {A}})=1-P(A)}
P
(
A
∪
B
)
=
P
(
A
)
+
P
(
B
)
−
P
(
A
∩
B
)
{\displaystyle P(A\cup B)=P(A)+P(B)-P(A\cap B)}
Laplace-Experimente
P
(
A
)
=
|
A
|
|
Ω
|
=
Anzahl der günstigen Ergebnisse
Anzahl der möglichen Ergebnisse
{\displaystyle P(A)={\frac {|A|}{|\Omega |}}={\frac {\text{Anzahl der günstigen Ergebnisse}}{\text{Anzahl der möglichen Ergebnisse}}}}
Bedingte Wahrscheinlichkeit
P
(
A
|
B
)
=
P
B
(
A
)
=
P
(
A
∩
B
)
P
(
B
)
{\displaystyle P(A\vert B)=P_{B}(A)={\frac {P(A\cap B)}{P(B)}}}
Satz von Bayes :
P
(
B
|
A
)
=
P
(
B
)
P
(
A
|
B
)
P
(
B
)
P
(
A
|
B
)
+
P
(
B
¯
)
P
(
A
|
B
¯
)
{\displaystyle P(B\vert A)={\frac {P(B)P(A\vert B)}{P(B)P(A\vert B)+P({\overline {B}})P(A\vert {\overline {B}})}}}
Unabhängigkeit :
Zwei Ereignisse
A
,
B
{\displaystyle A,B}
sind unabhängig
⇔
P
(
A
∩
B
)
=
P
(
A
)
⋅
P
(
B
)
{\displaystyle \Leftrightarrow P(A\cap B)=P(A)\cdot P(B)}
Fakultät : Anzahl der Möglichkeiten beim Ziehen aller
n
{\displaystyle n}
Kugeln aus einer Urne (ohne Zurücklegen):
n
!
=
n
⋅
(
n
−
1
)
⋅
(
n
−
2
)
⋅
⋯
⋅
3
⋅
2
⋅
1
=
n
⋅
(
n
−
1
)
!
{\displaystyle n!=n\cdot (n-1)\cdot (n-2)\cdot \dots \cdot 3\cdot 2\cdot 1=n\cdot (n-1)!}
wobei
0
!
=
1
!
=
1
{\displaystyle 0!=1!=1}
ohne Wiederholung(von n Elementen)
(
a
,
b
,
c
)
{\displaystyle (a,b,c)}
mit Wiederholung(von r + s + … + t = n Elementen, von denen jeweils r , s … t nicht unterscheidbar sind)
(
a
,
a
,
b
)
{\displaystyle (a,a,b)}
Permutation
(
a
,
b
)
≠
(
b
,
a
)
{\displaystyle (a,b)\neq (b,a)}
n
!
{\displaystyle ~n!~}
(
r
+
s
+
…
+
t
)
!
r
!
⋅
s
!
⋅
…
⋅
t
!
=
n
!
r
!
⋅
s
!
⋅
…
⋅
t
!
{\displaystyle {\frac {(r+s+\ldots +t)!}{r!\cdot s!\cdot \ldots \cdot t!}}={\frac {n!}{r!\cdot s!\cdot \ldots \cdot t!}}}
Binomialkoeffizient „n über k “
(
n
k
)
=
n
!
k
!
(
n
−
k
)
!
{\displaystyle {n \choose k}={n! \over k!(n-k)!}}
Anzahl der Möglichkeiten beim Ziehen von
k
{\displaystyle k}
Kugeln aus einer Urne mit
n
{\displaystyle n}
Kugeln:
ohne Wiederholung (ohne Zurücklegen)(siehe Hypergeometrische Verteilung )
(
a
,
b
,
c
)
{\displaystyle (a,b,c)}
{
a
,
b
,
c
}
{\displaystyle \{a,b,c\}}
mit Wiederholung (mit Zurücklegen)(siehe Binomialverteilung )
(
a
,
a
,
b
)
{\displaystyle (a,a,b)}
{
a
,
a
,
b
}
{\displaystyle \{a,a,b\}}
Variation
(
a
,
b
)
≠
(
b
,
a
)
{\displaystyle (a,b)\neq (b,a)}
(
n
k
)
⋅
k
!
=
n
!
(
n
−
k
)
!
{\displaystyle {n \choose k}{\cdot k!}={\frac {n!}{\left(n-k\right)!}}}
n
k
{\displaystyle ~n^{k}~}
Kombination
{
a
,
b
}
=
{
b
,
a
}
{\displaystyle \{a,b\}=\{b,a\}}
(
n
k
)
=
n
!
(
n
−
k
)
!
⋅
k
!
{\displaystyle {n \choose k}={\frac {n!}{{\left(n-k\right)!}\cdot k!}}}
(
(
n
k
)
)
=
(
n
+
k
−
1
k
)
=
(
n
+
k
−
1
)
!
(
n
−
1
)
!
⋅
k
!
{\displaystyle \left(\!\!{n \choose k}\!\!\right)={n+k-1 \choose k}={\frac {\left(n+k-1\right)!}{\left(n-1\right)!\cdot k!}}}
Eine Funktion
f
{\displaystyle f}
heißt Wahrscheinlichkeitsfunktion einer diskreten Zufallsvariablen
X
{\displaystyle X}
, wenn folgende Eigenschaften erfüllt sind:
Für alle
x
∈
Z
{\displaystyle x\in \mathbb {Z} }
gilt
f
(
x
)
≥
0
{\displaystyle f(x)\geq 0}
∑
x
∈
Z
f
(
x
)
=
1
{\displaystyle \sum _{x\in \mathbb {Z} }f(x)=1}
Für die zugehörige Zufallsvariable gilt dann:
P
(
X
=
x
)
=
f
(
x
)
{\displaystyle P(X=x)=f(x)}
Eine Zufallsgröße
X
{\displaystyle X}
und deren Verteilung heißen diskret, falls die Funktion
f
(
x
)
=
P
(
X
=
x
)
{\displaystyle f(x)=P(X=x)}
die Eigenschaft (2) hat. Man nennt
f
(
x
)
{\displaystyle f(x)}
die Wahrscheinlichkeitsfunktion von
X
{\displaystyle X}
.
E
(
X
)
=
μ
=
∑
x
∈
Z
x
⋅
f
(
x
)
{\displaystyle E(X)=\mu =\sum _{x\in \mathbb {Z} }\,x\cdot f(x)}
E
(
g
(
X
)
)
=
∑
x
∈
Z
g
(
x
)
⋅
f
(
x
)
{\displaystyle E(g(X))=\sum _{x\in \mathbb {Z} }\,g(x)\cdot f(x)}
V
(
X
)
=
σ
2
=
∑
x
∈
Z
(
x
−
μ
)
2
⋅
f
(
x
)
{\displaystyle V(X)=\sigma ^{2}=\sum _{x\in \mathbb {Z} }\,(x-\mu )^{2}\cdot f(x)}
Eine Funktion
f
{\displaystyle f}
heißt Dichte(-Funktion) einer stetigen Zufallsvariablen
X
{\displaystyle X}
, wenn folgende Eigenschaften erfüllt sind:
Für alle
x
∈
R
{\displaystyle x\in \mathbb {R} }
gilt
f
(
x
)
≥
0
{\displaystyle f(x)\geq 0}
∫
−
∞
+
∞
f
(
x
)
d
x
=
1
{\displaystyle \int \limits _{-\infty }^{+\infty }f(x)\mathrm {d} x=1}
Für eine stetige Zufallsgröße gilt dann:
P
(
a
≤
X
≤
b
)
=
∫
a
b
f
(
x
)
d
x
{\displaystyle P(a\leq X\leq b)=\int \limits _{a}^{b}f(x)\mathrm {d} x}
Eine Zufallsgröße
X
{\displaystyle X}
und deren Verteilung heißen stetig, falls es eine geeignete Dichtefunktion
f
{\displaystyle f}
mit dieser Eigenschaft gibt. Die Funktion
f
{\displaystyle f}
heißt Dichte(Funktion) von
X
{\displaystyle X}
.
Für die Wahrscheinlichkeit gilt
P
(
X
=
a
)
=
0
{\displaystyle P(X=a)=0\,}
für alle
a
∈
R
{\displaystyle a\in \mathbb {R} }
P
(
a
≤
X
≤
b
)
=
P
(
a
<
X
≤
b
)
=
P
(
a
≤
X
<
b
)
=
P
(
a
<
X
<
b
)
{\displaystyle P(a\leq X\leq b)=P(a<X\leq b)=P(a\leq X<b)=P(a<X<b)}
Erwartungswert und Varianz sind gegeben durch
E
(
X
)
=
μ
=
∫
−
∞
+
∞
x
⋅
f
(
x
)
d
x
{\displaystyle E(X)=\mu =\int \limits _{-\infty }^{+\infty }x\cdot f(x)\mathrm {d} x}
E
(
g
(
X
)
)
=
∫
−
∞
+
∞
g
(
x
)
⋅
f
(
x
)
d
x
{\displaystyle E(g(X))=\int \limits _{-\infty }^{+\infty }g(x)\cdot f(x)\mathrm {d} x}
V
(
X
)
=
σ
2
=
∫
−
∞
+
∞
(
x
−
μ
)
2
⋅
f
(
x
)
d
x
{\displaystyle V(X)=\sigma ^{2}=\int \limits _{-\infty }^{+\infty }(x-\mu )^{2}\cdot f(x)\mathrm {d} x}
Erwartungswert, Varianz, Kovarianz, Korrelation
Bearbeiten
Für den Erwartungswert
E
(
X
)
{\displaystyle E(X)}
, die Varianz
V
(
X
)
{\displaystyle V(X)}
, die Kovarianz
Cov
(
X
,
Y
)
{\displaystyle \operatorname {Cov} (X,Y)}
und die Korrelation
ϱ
(
X
,
Y
)
{\displaystyle \varrho (X,Y)}
gelten:
E
(
a
X
+
b
)
=
a
E
(
X
)
+
b
{\displaystyle E(aX+b)=aE(X)+b}
E
(
X
+
Y
)
=
E
(
X
)
+
E
(
Y
)
{\displaystyle E(X+Y)=E(X)+E(Y)}
, allgemein
E
(
∑
i
=
1
n
X
i
)
=
∑
i
=
1
n
E
(
X
i
)
{\displaystyle E(\sum _{i=1}^{n}X_{i})=\sum _{i=1}^{n}E(X_{i})}
Für unabhängige Zufallsvariablen
X
i
{\displaystyle X_{i}}
gilt:
E
(
∏
i
=
1
n
X
i
)
=
∏
i
=
1
n
E
(
X
i
)
{\displaystyle E(\prod _{i=1}^{n}X_{i})=\prod _{i=1}^{n}E(X_{i})}
V
(
X
)
=
E
(
(
X
−
E
(
X
)
)
2
)
=
E
(
X
2
)
−
E
(
X
)
2
{\displaystyle V(X)=E((X-E(X))^{2})=E(X^{2})-E(X)^{2}}
V
(
a
X
+
b
)
=
a
2
V
(
X
)
{\displaystyle V(aX+b)=a^{2}V(X)}
Für unabhängige Zufallsvariablen
X
i
{\displaystyle X_{i}}
gilt:
V
(
∑
i
=
1
n
X
i
)
=
∑
i
=
1
n
V
(
X
i
)
{\displaystyle V(\sum _{i=1}^{n}X_{i})=\sum _{i=1}^{n}V(X_{i})}
Cov
(
X
,
Y
)
=
E
(
(
X
−
E
(
X
)
)
(
Y
−
E
(
Y
)
)
)
=
E
(
X
Y
)
−
E
(
X
)
E
(
Y
)
{\displaystyle \operatorname {Cov} (X,Y)=E((X-E(X))(Y-E(Y)))=E(XY)-E(X)E(Y)}
Cov
(
X
,
Y
)
=
Cov
(
Y
,
X
)
{\displaystyle \operatorname {Cov} (X,Y)=\operatorname {Cov} (Y,X)}
Cov
(
X
,
X
)
=
V
(
X
)
{\displaystyle \operatorname {Cov} (X,X)=V(X)}
Cov
(
a
X
+
b
,
Y
)
=
a
Cov
(
X
,
Y
)
{\displaystyle \operatorname {Cov} (aX+b,Y)=a\operatorname {Cov} (X,Y)}
Cov
(
X
1
+
X
2
,
Y
)
=
Cov
(
X
1
,
Y
)
+
Cov
(
X
2
,
Y
)
{\displaystyle \operatorname {Cov} (X_{1}+X_{2},Y)=\operatorname {Cov} (X_{1},Y)+\operatorname {Cov} (X_{2},Y)}
V
(
X
+
Y
)
=
V
(
X
)
+
V
(
Y
)
+
2
Cov
(
X
,
Y
)
{\displaystyle V(X+Y)=V(X)+V(Y)+2\operatorname {Cov} (X,Y)}
ϱ
(
X
,
Y
)
=
Cov
(
X
,
Y
)
V
(
X
)
V
(
Y
)
{\displaystyle \varrho (X,Y)={\frac {\operatorname {Cov} (X,Y)}{{\sqrt {V(X)}}{\sqrt {V(Y)}}}}}
Tschebyschow-Ungleichung :
P
(
|
X
−
E
(
X
)
|
≥
α
)
≤
V
(
x
)
α
2
{\displaystyle P(|X-E(X)|\geq \alpha )\leq {\frac {V(x)}{\alpha ^{2}}}}
Gegeben ist ein
n
{\displaystyle n}
-stufiger Bernoulli-Versuch (d. h.
n
{\displaystyle n}
mal dasselbe Experiment, unabhängig voneinander, mit nur zwei möglichen Ausgängen und konstanten Wahrscheinlichkeiten) mit der Erfolgswahrscheinlichkeit
p
{\displaystyle p}
und der Misserfolgswahrscheinlichkeit
q
=
1
−
p
{\displaystyle q=1-p}
. Die Wahrscheinlichkeitsverteilung der Zufallsgröße
X
{\displaystyle X}
: Anzahl der Erfolge heißt Binomialverteilung .
Die Wahrscheinlichkeit für
k
{\displaystyle k}
Erfolge berechnet sich nach der Formel:
P
(
X
=
k
)
=
(
n
k
)
⋅
p
k
⋅
q
n
−
k
{\displaystyle P(X=k)={\binom {n}{k}}\cdot p^{k}\cdot q^{n-k}}
Erwartungswert :
μ
=
E
(
X
)
=
n
⋅
p
{\displaystyle \mu =E(X)=n\cdot p}
Varianz :
σ
2
=
V
(
X
)
=
n
⋅
p
⋅
q
{\displaystyle \sigma ^{2}=V(X)=n\cdot p\cdot q}
Standardabweichung :
σ
=
σ
(
X
)
=
V
(
X
)
=
n
⋅
p
⋅
q
{\displaystyle \sigma =\sigma (X)={\sqrt {V(X)}}={\sqrt {n\cdot p\cdot q}}}
(Wahrscheinlichkeiten von Umgebungen des Erwartungswertes bei Binomialverteilungen)
Zwischen dem Radius einer Umgebung um den Erwartungswert und der zugehörigen Wahrscheinlichkeit der Umgebung gelten folgende Zuordnungen (falls
σ
>
3
{\displaystyle \sigma >3}
):
Radius der Umgebung
Wahrscheinlichkeit der Umgebung
1σ
0,68
2σ
0,955
3σ
0,997
Wahrscheinlichkeit der Umgebung
Radius der Umgebung
0,90
1,64σ
0,95
1,96σ
0,99
2,58σ
Hat die Zufallsvariable
X
{\displaystyle X}
eine Verteilung mit Erwartungswert
E
(
X
)
=
μ
{\displaystyle E(X)=\mu }
und Standardabweichung
σ
{\displaystyle \sigma }
, dann wird die standardisierte Variable
X
∗
{\displaystyle X^{*}}
definiert durch
X
∗
=
X
−
μ
σ
.
{\displaystyle X^{*}={\frac {X-\mu }{\sigma }}.}
Die standardisierte Variable
X
∗
{\displaystyle X^{*}}
hat den Erwartungswert 0 und die Standardabweichung 1.
Gegeben sei eine Binomialverteilung mit großem Stichprobenumfang
n
{\displaystyle n}
≥ 100 und kleiner Erfolgswahrscheinlichkeit
p
≤
0
,
1
{\displaystyle p\leq 0,1}
. Mithilfe von
μ
=
n
⋅
p
{\displaystyle \mu =n\cdot p}
kann man dann näherungsweise die Wahrscheinlichkeit für
k
{\displaystyle k}
Erfolge berechnen:
P
(
X
=
0
)
≈
e
−
μ
{\displaystyle P(X=0)\approx e^{-\mu }}
P
(
X
=
k
)
≈
μ
k
⋅
P
(
X
=
k
−
1
)
{\displaystyle P(X=k)\approx {\frac {\mu }{k}}\cdot P(X=k-1)}
Die Beziehungen lassen sich zusammenfassen zu:
P
(
X
=
k
)
≈
μ
k
k
!
⋅
e
−
μ
{\displaystyle P(X=k)\approx {\frac {\mu ^{k}}{k!}}\cdot e^{-\mu }}
Gilt für die Verteilung einer Zufallsgröße
X
{\displaystyle X}
P
(
X
=
k
)
=
μ
k
k
!
⋅
e
−
μ
{\displaystyle P(X=k)={\frac {\mu ^{k}}{k!}}\cdot e^{-\mu }}
Sei
X
{\displaystyle X}
eine binomialverteilte Zufallsgröße mit
σ
>
4
{\displaystyle \sigma >4}
(brauchbare Näherung besser
σ
>
9
{\displaystyle \sigma >9}
). Die Wahrscheinlichkeit für genau und höchstens
k
{\displaystyle k}
Erfolge lässt sich näherungsweise berechnen durch:
P
(
X
=
k
)
≈
1
σ
⋅
φ
(
k
−
μ
σ
)
{\displaystyle P(X=k)\approx {1 \over \sigma }\cdot \varphi \left({k-\mu \over \sigma }\right)}
P
(
X
≤
k
)
=
F
X
(
k
)
≈
φ
(
k
−
μ
σ
)
{\displaystyle P(X\leq k)=F_{X}(k)\approx \varphi \left({k-\mu \over \sigma }\right)}
Die Dichte(Funktion)
φ
{\displaystyle \varphi }
(auch als Glockenkurve bekannt) der Standardnormalverteilung ist definiert durch:
φ
(
x
)
=
1
2
π
e
−
1
2
x
2
{\displaystyle \varphi (x)={\frac {1}{\sqrt {2\pi }}}\,\mathrm {e} ^{-{\frac {1}{2}}x^{2}}}
und die Verteilungsfunktion
Φ
{\displaystyle \Phi }
durch:
Φ
(
z
)
=
∫
−
∞
z
φ
(
x
)
d
x
{\displaystyle \Phi (z)=\int \limits _{-\infty }^{z}\varphi (x)dx}
Näherungsformeln für eine diskrete Verteilung unter Anwendung der Kontinuitätkorrektur:
P
(
X
=
k
)
≈
Φ
(
k
+
0
,
5
−
μ
σ
)
−
Φ
(
k
−
0
,
5
−
μ
σ
)
{\displaystyle P(X=k)\approx \Phi \left({\frac {k+0{,}5-\mu }{\sigma }}\right)-\Phi \left({\frac {k-0{,}5-\mu }{\sigma }}\right)}
P
(
X
≤
k
)
≈
Φ
(
k
+
0
,
5
−
μ
σ
)
{\displaystyle P(X\leq k)\approx \Phi \left({\frac {k+0{,}5-\mu }{\sigma }}\right)}
P
(
a
≤
X
≤
b
)
≈
Φ
(
b
+
0
,
5
−
μ
σ
)
−
Φ
(
a
−
0
,
5
−
μ
σ
)
{\displaystyle P(a\leq X\leq b)\approx \Phi \left({\frac {b+0{,}5-\mu }{\sigma }}\right)-\Phi \left({\frac {a-0{,}5-\mu }{\sigma }}\right)}
In einer Grundgesamtheit vom Umfang
N
{\displaystyle N}
seien zwei Merkmalsausprägungen vom Umfang
K
{\displaystyle K}
bzw.
N
−
K
{\displaystyle N-K}
vertreten. Eine Stichprobe vom Umfang
n
{\displaystyle n}
werde genommen. Dann nennt man die Verteilung der Zufallsgröße
X
{\displaystyle X}
: Anzahl der Exemplare der 1. Merkmalsausprägung in der Stichprobe einer hypergeometrischen Verteilung .
Die Wahrscheinlichkeit, dass in der Stichprobe vom Umfang
n
{\displaystyle n}
genau
k
{\displaystyle k}
Exemplare der 1. Merkmalsausprägung sind, ist:
P
(
X
=
k
)
=
(
K
k
)
⋅
(
N
−
K
n
−
k
)
(
N
n
)
{\displaystyle P(X=k)={{\binom {K}{k}}\cdot {\binom {N-K}{n-k}} \over {\binom {N}{n}}}}
N
{\displaystyle N}
= Anzahl der Elemente,
K
{\displaystyle K}
= Anzahl der positiven Elemente,
n
{\displaystyle n}
= Anzahl der Ziehungen,
k
{\displaystyle k}
= Anzahl der Erfolge.
Sei
p
=
K
N
{\displaystyle p={\tfrac {K}{N}}}
der Anteil, mit dem die 1. Merkmalsausprägung in der Gesamtheit vorkommt, dann gilt:
μ
=
E
(
X
)
=
n
⋅
p
=
n
⋅
K
N
{\displaystyle \mu =E(X)=n\cdot p=n\cdot {\frac {K}{N}}}
σ
2
=
V
(
X
)
=
n
⋅
p
(
1
−
p
)
N
−
n
N
−
1
=
n
⋅
K
N
(
1
−
K
N
)
N
−
n
N
−
1
{\displaystyle \sigma ^{2}=V(X)=n\cdot p(1-p){\frac {N-n}{N-1}}=n\cdot {\frac {K}{N}}\left(1-{\frac {K}{N}}\right){\frac {N-n}{N-1}}}
Gegeben ist ein Bernoulli-Versuch mit Erfolgswahrscheinlichkeit
p
{\displaystyle p}
.
Die Verteilung der Zufallsgröße
W
{\displaystyle W}
: Anzahl der Stufen bis zum ersten Erfolg heißt geometrische Verteilung .
Es gilt:
P
(
W
=
k
)
=
p
⋅
q
k
−
1
{\displaystyle P(W=k)=p\cdot q^{k-1}}
(Erfolg genau beim
k
{\displaystyle k}
-ten Versuch)
P
(
W
>
k
)
=
q
k
{\displaystyle \,P(W>k)=q^{k}}
(
k
{\displaystyle k}
Misserfolge hintereinander bzw. der erste Erfolg kommt erst nach dem
k
{\displaystyle k}
-ten Versuch)
P
(
W
≤
k
)
=
1
−
q
k
{\displaystyle P(W\leq k)=1-q^{k}}
(Erfolg spätestens beim
k
{\displaystyle k}
-ten Versuch bzw. bis zum
k
{\displaystyle k}
-ten Versuch tritt mindestens ein Erfolg ein)
Der Erwartungswert ist
E
(
W
)
=
1
p
{\displaystyle E(W)={\frac {1}{p}}}
Die unzähligen weiteren speziellen Verteilungen können hier nicht alle aufgeführt werden, es sei auf die Liste univariater Wahrscheinlichkeitsverteilungen verwiesen.
Unter gewissen Approximationsbedingungen können Verteilungen auch durcheinander approximiert werden um Berechnungen zu vereinfachen. Je nach Lehrbuch können die Approximationsbedingungen etwas unterschiedlich sein.
Nach
Von
B
(
n
,
p
)
{\displaystyle B(n,p)}
P
o
(
λ
)
{\displaystyle Po(\lambda )}
N
(
μ
,
σ
)
{\displaystyle N(\mu ,\sigma )}
Diskrete Verteilungen
Binomialverteilung
B
(
n
,
p
)
{\displaystyle B(n,p)}
--
n
>
10
,
p
<
0
,
05
{\displaystyle n>10,p<0{,}05}
,
λ
:=
n
p
{\displaystyle \lambda :=np}
n
p
(
1
−
p
)
≥
9
{\displaystyle np(1-p)\geq 9}
,
μ
:=
n
p
,
σ
2
:=
n
p
(
1
−
p
)
{\displaystyle \mu :=np,\sigma ^{2}:=np(1-p)}
Hypergeometrische Verteilung
H
y
p
(
N
,
M
,
n
)
{\displaystyle Hyp(N,M,n)}
n
N
<
0
,
05
{\displaystyle {\frac {n}{N}}<0{,}05}
p
:=
M
N
{\displaystyle p:={\frac {M}{N}}}
n
>
10
{\displaystyle n>10}
,
M
N
<
0
,
05
{\displaystyle {\frac {M}{N}}<0{,}05}
,
λ
:=
n
M
N
{\displaystyle \lambda :=n{\frac {M}{N}}}
n
M
N
(
1
−
M
N
)
≥
9
{\displaystyle n{\frac {M}{N}}\left(1-{\frac {M}{N}}\right)\geq 9}
μ
:=
n
M
N
,
σ
2
:=
n
M
N
(
1
−
M
N
)
N
−
n
N
−
1
{\displaystyle \mu :=n{\frac {M}{N}},\sigma ^{2}:=n{\frac {M}{N}}\left(1-{\frac {M}{N}}\right){\frac {N-n}{N-1}}}
Poisson-Verteilung
P
o
(
λ
)
{\displaystyle Po(\lambda )}
--
λ
>
9
{\displaystyle \lambda >9}
,
μ
:=
λ
,
σ
2
:=
λ
{\displaystyle \mu :=\lambda ,\sigma ^{2}:=\lambda }
Stetige Verteilungen
Chi-Quadrat-Verteilung
χ
n
2
{\displaystyle \chi _{n}^{2}}
n
>
30
{\displaystyle n>30}
μ
:=
n
,
σ
2
:=
2
n
{\displaystyle \mu :=n,\sigma ^{2}:=2n}
Studentsche t-Verteilung
t
n
{\displaystyle t_{n}}
n
>
30
{\displaystyle n>30}
μ
:=
0
,
σ
2
:=
1
{\displaystyle \mu :=0,\sigma ^{2}:=1}
Normalverteilung
N
(
μ
,
σ
)
{\displaystyle N(\mu ,\sigma )}
--
Bei dem Übergang von einer diskreten Verteilung zu einer stetigen Verteilung kommt auch noch eine Stetigkeitskorrektur (wenn
σ
2
≤
9
{\displaystyle \sigma ^{2}\leq 9}
oder
n
≤
60
{\displaystyle n\leq 60}
) in Betracht
P
(
a
≤
X
diskret
≤
b
)
≈
P
(
a
−
0
,
5
≤
X
stetig
≤
b
+
0
,
5
)
{\displaystyle P(a\leq X_{\text{diskret}}\leq b)\approx P(a-0{,}5\leq X_{\text{stetig}}\leq b+0{,}5)}
und insbesondere
P
(
X
diskret
=
a
)
≈
P
(
a
−
0
,
5
≤
X
stetig
≤
a
+
0
,
5
)
{\displaystyle P(X_{\text{diskret}}=a)\approx P(a-0{,}5\leq X_{\text{stetig}}\leq a+0{,}5)}
.[ 1]
Das
α
{\displaystyle \alpha }
-Level ist der Wert einer Wahrscheinlichkeitsverteilung für den gilt:
F
(
x
α
)
=
α
{\displaystyle F(x_{\alpha })=\alpha }
. Es gibt eine Standardnotation für einige häufig verwendete Verteilungen:
z
α
{\displaystyle z_{\alpha }}
oder
z
(
α
)
{\displaystyle z(\alpha )}
für die Standardnormalverteilung
t
α
,
ν
{\displaystyle t_{\alpha ,\nu }}
oder
t
(
α
,
ν
)
{\displaystyle t(\alpha ,\nu )}
für die t-Verteilung mit
ν
{\displaystyle \nu }
Freiheitsgraden
χ
α
,
ν
2
{\displaystyle \chi _{\alpha ,\nu }^{2}}
oder
χ
2
(
α
,
ν
)
{\displaystyle \chi ^{2}(\alpha ,\nu )}
für die Chi-Quadrat-Verteilung mit
ν
{\displaystyle \nu }
Freiheitsgraden
F
α
,
ν
1
,
ν
2
{\displaystyle F_{\alpha ,\nu _{1},\nu _{2}}}
oder
F
(
α
,
ν
1
,
ν
2
)
{\displaystyle F(\alpha ,\nu _{1},\nu _{2})}
für die F-Verteilung mit
ν
1
{\displaystyle \nu _{1}}
und
ν
2
{\displaystyle \nu _{2}}
Freiheitsgraden
Arithmetisches Mittel:
x
¯
=
1
n
∑
i
=
1
n
x
i
=
x
1
+
x
2
+
⋯
+
x
n
n
{\displaystyle {\bar {x}}={\frac {1}{n}}\sum _{i=1}^{n}{x_{i}}={\frac {x_{1}+x_{2}+\cdots +x_{n}}{n}}}
Median
Modus
empirische Varianz :
s
2
=
1
n
∑
i
=
1
n
(
x
i
−
x
¯
)
2
=
1
n
(
∑
i
=
1
n
x
i
2
)
−
x
¯
2
{\displaystyle s^{2}={\frac {1}{n}}\sum \limits _{i=1}^{n}\left(x_{i}-{\bar {x}}\right)^{2}={\frac {1}{n}}\left(\sum \limits _{i=1}^{n}x_{i}^{2}\right)-{\bar {x}}^{2}}
empirische Standardabweichung :
s
=
s
2
=
1
n
∑
i
=
1
n
(
x
i
−
x
¯
)
2
{\displaystyle s={\sqrt {s^{2}}}={\sqrt {{\frac {1}{n}}\sum \limits _{i=1}^{n}\left(x_{i}-{\bar {x}}\right)^{2}}}}
Empirische Kovarianz :
s
x
y
=
1
n
∑
i
=
1
n
(
x
i
−
x
¯
)
(
y
i
−
y
¯
)
=
1
n
(
∑
i
=
1
n
x
i
y
i
)
−
x
¯
y
¯
,
{\displaystyle s_{xy}={\frac {1}{n}}\sum _{i=1}^{n}{(x_{i}-{\bar {x}})(y_{i}-{\bar {y}})}={\frac {1}{n}}\left(\sum _{i=1}^{n}x_{i}y_{i}\right)-{\bar {x}}{\bar {y}},}
Empirischer Korrelationskoeffizient :
r
x
y
=
s
x
y
s
x
⋅
s
y
=
∑
(
x
i
−
x
¯
)
(
y
i
−
y
¯
)
∑
(
x
i
−
x
¯
)
2
∑
(
y
i
−
y
¯
)
2
{\displaystyle r_{xy}={\frac {s_{xy}}{s_{x}\cdot s_{y}}}={\frac {\sum (x_{i}-{\bar {x}})(y_{i}-{\bar {y}})}{\sqrt {\sum (x_{i}-{\bar {x}})^{2}\sum (y_{i}-{\bar {y}})^{2}}}}}
Gleichung der Regressionsgeraden einer linearen Einfachregression :
y
=
a
x
+
b
{\displaystyle y=ax+b}
mit
a
=
s
x
y
s
x
2
=
∑
(
x
i
−
x
¯
)
(
y
i
−
y
¯
)
∑
(
x
i
−
x
¯
)
2
{\displaystyle a={\frac {s_{xy}}{s_{x}^{2}}}={\frac {\sum (x_{i}-{\bar {x}})(y_{i}-{\bar {y}})}{\sum (x_{i}-{\bar {x}})^{2}}}}
b
=
y
¯
−
a
x
¯
{\displaystyle b={\bar {y}}-a{\bar {x}}}
,
wobei
x
¯
{\displaystyle {\bar {x}}}
und
y
¯
{\displaystyle {\bar {y}}}
die arithmetischen Mittel bedeuten.
Mittelwert
Zwei Zahlen
Allgemein
Modus
Ausprägung mit höchster Häufigkeit
Median (Zentralwert)
Sofern
x
1
,
…
,
x
n
{\displaystyle x_{1},\dotsc ,x_{n}}
sortiert sind:
x
¯
m
e
d
=
{
x
(
n
+
1
2
)
,
n
ungerade,
1
2
(
x
(
n
2
)
+
x
(
n
2
+
1
)
)
,
n
gerade.
{\displaystyle {\bar {x}}_{\mathrm {med} }={\begin{cases}x_{({\frac {n+1}{2}})},&n{\text{ ungerade,}}\\{\frac {1}{2}}\left(x_{({\frac {n}{2}})}+x_{({{\frac {n}{2}}+1})}\right),&n{\text{ gerade.}}\end{cases}}}
Arithmetisches Mittel
a
+
b
2
{\displaystyle {\frac {a+b}{2}}}
x
¯
a
r
i
t
h
m
=
1
n
∑
i
=
1
n
x
i
=
x
1
+
x
2
+
⋯
+
x
n
n
{\displaystyle {\bar {x}}_{\mathrm {arithm} }={\frac {1}{n}}\sum _{i=1}^{n}{x_{i}}={\frac {x_{1}+x_{2}+\dotsb +x_{n}}{n}}}
Geometrisches Mittel
a
b
{\displaystyle {\sqrt {ab}}}
x
¯
g
e
o
m
=
∏
i
=
1
n
x
i
n
=
x
1
⋅
x
2
⋯
x
n
n
{\displaystyle {\bar {x}}_{\mathrm {geom} }={\sqrt[{n}]{\prod _{i=1}^{n}{x_{i}}}}={\sqrt[{n}]{x_{1}\cdot x_{2}\dotsm x_{n}}}}
Harmonisches Mittel
2
1
a
+
1
b
{\displaystyle {\frac {2}{{\frac {1}{a}}+{\frac {1}{b}}}}}
x
¯
h
a
r
m
=
n
∑
i
=
1
n
1
x
i
=
n
1
x
1
+
1
x
2
+
⋯
+
1
x
n
{\displaystyle {\bar {x}}_{\mathrm {harm} }={\frac {n}{\sum \limits _{i=1}^{n}{\frac {1}{x_{i}}}}}={\frac {n}{{\frac {1}{x_{1}}}+{\frac {1}{x_{2}}}+\dotsb +{\frac {1}{x_{n}}}}}}
Quadratisches Mittel
a
2
+
b
2
2
{\displaystyle {\sqrt {\frac {a^{2}+b^{2}}{2}}}}
x
¯
q
u
a
d
r
=
1
n
∑
i
=
1
n
x
i
2
=
x
1
2
+
x
2
2
+
⋯
+
x
n
2
n
{\displaystyle {\bar {x}}_{\mathrm {quadr} }={\sqrt {{\frac {1}{n}}\sum _{i=1}^{n}{x_{i}^{2}}}}={\sqrt {{x_{1}^{2}+x_{2}^{2}+\dotsb +x_{n}^{2}} \over n}}}
Im Allgemeinen werden in der Statistik unbekannte Parameter der Grundgesamtheit oder eines Modells mit griechischen Buchstaben (z. B.
θ
,
β
{\displaystyle \theta ,\beta }
) bezeichnet.
Das arithmetische Mittel in der Grundgesamtheit:
μ
{\displaystyle \mu }
.
Die Varianz in der Grundgesamtheit:
σ
2
{\displaystyle \sigma ^{2}}
.
Den Anteilswert einer dichotomen Variablen in der Grundgesamtheit:
π
{\displaystyle \pi }
.
Der Achsenabschnitt
β
0
{\displaystyle \beta _{0}}
und die Steigung
β
1
{\displaystyle \beta _{1}}
im einfachen linearen Regressionsmodell
Y
i
=
β
0
+
β
1
x
i
+
U
i
{\displaystyle Y_{i}=\beta _{0}+\beta _{1}x_{i}+U_{i}}
.
Eine Schätzfunktion für einen unbekannten Parameter wird häufig durch einen Großbuchstaben der Parameterbezeichnung aus der beschreibenden Statistik bezeichnet. Die Schätzfunktion ergibt sich aus den Stichprobenvariablen
X
1
,
…
,
X
n
{\displaystyle X_{1},\ldots ,X_{n}}
.
↑ Yates, F. (1934). Contingency Tables Involving Small Numbers and the χ2 Test . Supplement to the Journal of the Royal Statistical Society 1(2): 217–235. JSTOR Archive for the journal