Messung der Wahrscheinlichkeit
Bernoulli- Verteilung
In diesem Abschnitt werden wir ein wichtiges Ergebnis der Statistik diskutieren, nämlich die Formel von Bernoulli. Diese Formel wird uns dann in die Lage versetzen, eine Methode zur Bestimmung von Wahrscheinlichkeiten zu diskutieren. Gegeben sei ein Versuch V. Wir interessieren uns nur für das Ereignis $X$ und das dazu komplementäre Ereignis $\overline{X}$. Wir schreiben für die Wahrscheinlichkeiten
\begin{displaymath}
P(X) = p, \; \; \; P(\overline{X}) = 1-p.
\end{displaymath} (1)

Wir führen den Versuch n- mal aus und fragen nach der Wahrscheinlichkeit, daß bei n- maliger Ausführung des Versuches k- mal das Ereignis $X$ eintritt und (n-k)- mal das Ereignis $\overline{X}$. Diese Wahrscheinlichkeit bezeichnen wir mit $B(p,n;k)$. Für n=1 gilt offenbar

\begin{displaymath}
B(p,1;0) = 1-p, \; \; \; B(p,1;1) = p.
\end{displaymath}

Dieses entspricht genau der Annahme, die wir oben gemacht haben. Bei mehrmaliger Ausführung ist das Eintreten des Ereignisses $X$ unabhängig von den Ereignissen der vorhergehenden Versuche. Für n=2, d.h. bei zweimaliger Ausführung des Versuches, gibt es 4 Möglichkeiten, siehe Tabelle 1.

Tabelle 1: Wahrscheinlichkeiten für das Ereignis $X$ bei zweimaliger Durchführung eines Versuches.
Möglichkeit 1. Versuch 2. Versuch k Wahrscheinlichkeit
         
1 $\overline{X}$ $\overline{X}$ 0 $(1-p)^{2}$
2 $\overline{X}$ $X$ 1 $p(1-p)$
3 $X$ $\overline{X}$ 1 $p(1-p)$
4 $X$ $X$ 2 $p^{2}$

Die Wahrscheinlichkeiten für das Eintreten der Möglichkeiten $\nu$ $(\nu=1,2,3,4)$ bei 2 Versuchen ist in der rechten Spalte der Tabelle aufgeführt. Hieraus ergibt sich

\begin{displaymath}\begin{array}{lll}
B(p,2;0) &=& (1-p)^{2} \\
B(p,2;1) &=& 2p(1-p) \\
B(p,2;2) &=& p^{2}
\end{array} \end{displaymath}

Dieses können wir schreiben als

\begin{displaymath}
B(p,2;k) = \left( \begin{array}{c} 2 \\ k \end{array} \right) p^{k}
(1-p)^{2-k}.
\end{displaymath}

Durch Induktion erhält man die allgemeine Formel von Bernoulli:
\begin{displaymath}
B(p,n;k) = \left( \begin{array}{c} n \\ k \end{array} \right) p^{k}
(1-p)^{n-k}.
\end{displaymath} (2)

Wir könnten den soeben diskutierten Sachverhalt auch folgendermaßen ausdrücken. Unser Versuch $V$ besteht aus n Einzelversuchen $V_{i}$ $(i=1,2,...,n)$. Wir definieren die Ereignisse $E_{k}$ dadurch, daß wir sagen, $E_{k}$ ist eingetreten, wenn bei n Einzelversuchen k- mal das Ereignis $X$ eintritt. Die Ereignisse $E_{k}$ $(k=0,1,2,...,n)$ sind paarweise unvereinbar, sind also ein Satz von Elementarereignissen. Wir ordnen jedem Elementarereignis $E_{k}$ eine Wahrscheinlichkeit $B(p,n;k)$ zu. Diese kann gemäß (2) durch die Wahrscheinlichkeit $p=P(X)$ für das Auftreten des Ereignisses $X$ im Einzelversuch ausgedrückt werden.

Wir prüfen die Normierung der Bernoulli- Formel gemäß

\begin{displaymath}
\sum_{k=0}^{n} B(p,n;k) =
\sum_{k=0}^{n} \left( \begin{arra...
...\\ k \end{array}\right) p^{k} (1-p)^{n-k} = (p+(1-p))^{n} = 1.
\end{displaymath}

Die Berechnung der Formel ist am einfachsten mit Hilfe der Rekursionen
$\displaystyle B(p,n;k+1)$ $\textstyle =$ $\displaystyle \left( \frac{n-k}{k+1} \right) \left( \frac{p}{1-p} \right)
B(p,n;k),$ (3)
$\displaystyle B(p,n;k-1)$ $\textstyle =$ $\displaystyle \left( \frac{k}{n-k+1} \right) \left( \frac{1-p}{p} \right)
B(n,p;k).$ (4)

Für nicht zu große Werte von n kann man mit $k=0$ als Startwert der Rekursion beginnen,

\begin{displaymath}
B(p,n;0) = (1-p)^{n}.
\end{displaymath}

Für $n \geq 100$ dagegen sollte man mit demjenigen k- Wert als Startwert beginnen, bei dem die Bernoulli- Verteilung ihr Maximum annimmt. Es ist nicht schwer zu ,,raten'', daß das Maximum in der Nähe des Wertes $k_{max} \approx np$ liegt. $k_{max}$ kann natürlich nicht exakt bei $np$ liegen, da $k$ eine ganze Zahl und $np$ im allgemeinen eine reelle Zahl ist. Für einen beliebigen Wert von $k$ berechnet man die Bernoulli- Formel am besten über den Logarithmus. Es ist
\begin{displaymath}
ln B(p,n;k) = \sum_{i=k+1}^{n} ln(i) - \sum_{i=1}^{n-k} ln(i)
+ k ln(p) +(n-k) ln(1-p).
\end{displaymath} (5)

In einem Programm berechnen wir zunächst den Funktionswert für $k_{max}=INT(np)$, wobei INT eine Systemfunktion ist, die die größte ganze Zahl liefert mit $k_{max} \leq np$. Für diesen $k$- Wert berechnen wir die Bernoulli- Formel mit Hilfe von (5). Alle weiteren Funktionswerte werden dann mit der Rekursion (3) und (4) berechnet. Die Zahlenwerte dieser Rechnung sind für $n=20$ und $p=0.2$ in der zweiten Spalte von Tabelle 2 aufgelistet. Die übrigen Spalten dieser Tabelle enthalten Ergebnisse von approximativen Formeln, die uns im folgenden beschäftigen werden.

Die Rekursionsformel ist zwar gut für die Programmierung geeignet, dagegen ist sie unbrauchbar für analytische Rechnungen, da $k$ zunächst nur für gerade Zahlen definiert ist. Eine Interpolationsformel für reelle Zahlen erhält man mit Hilfe der Stirlingschen Formel

\begin{displaymath}
x! \approx \sqrt{2 \pi x} (\frac{x}{e})^{x} .
\end{displaymath} (6)

Hiermit erhalten wir

\begin{displaymath}
\left( \begin{array}{c} n \\ k \end{array} \right) \approx
\...
...\pi n}} (\frac{k}{n})^{-k-0.5}
(1-\frac{k}{n})^{-(n-k)-0.5}
\end{displaymath}

und

\begin{displaymath}
B^{(1)}(p,n;k) \approx \frac{1}{\sqrt{2 \pi n p(1-p)}}
(\frac{k}{np})^{-k-0.5} (\frac{n-k}{n(1-p)})^{-(n-k)-0.5}.
\end{displaymath}

Mit Hilfe eines zweiten kurzen Programms haben wir diese approximative Darstellung der Bernoulli- Formel programmiert. In Tabelle 2 vergleichen wir die Werte der Approximation mit denjenigen der exakten Formel (2) für $n=20$ und $p=0.2$. Die Approximation ist für mittlere und große k- Werte relativ gut, versagt dagegen völlig für kleine k- Werte. Insbesondere darf man die Approximation nicht für kleine Werte von $n$ verwenden.


Tabelle: Berechnung der Bernoulli- Verteilung für $n=20$ und $p=0.2$.
k $B(n,p;k)$ $B^{(1)}(n,p;k)$ $B^{(2)}(n,p;k)$ $B^{(3)}(n,p;k)$
         
0 0.011529 0.002300 0.026263 0.018306
1 0.057646 0.062527 0.071392 0.054652
2 0.136909 0.142754 0.141979 0.119372
3 0.205364 0.211283 0.206578 0.190755
4 0.218199 0.223016 0.219901 0.223016
5 0.174560 0.177736 0.171259 0.190755
6 0.109100 0.110822 0.097581 0.119372
7 0.054550 0.055327 0.040678 0.054652
8 0.022161 0.022455 0.012406 0.018306
9 0.007387 0.007481 0.002768 0.004486
10 0.002031 0.002057 0.000452 0.000804
11 0.000462 0.000468 0.000054 0.000106
12 0.000087 0.000088 0.000005 0.000010
13 0.000013 0.000014 0.000000 0.000001
14 0.000002 0.000002 0.000000 0.000000


Da uns die Bernoulli- Formel hauptsächlichst in der Nähe ihres Maximums interessiert, führen wir die folgenden Parameter- und Variablen- Transformationen ein:

$\displaystyle a = np$     (7)
$\displaystyle \sigma=\sqrt{np(1-p)}$     (8)
$\displaystyle x = k-a$     (9)

Dann ist
\begin{displaymath}
B^{(1)}(p,n,;a+x) = \frac{1}{\sqrt{2 \pi \sigma^{2}}}
(1+\frac{x}{a})^{-a-x-0.5} (1-\frac{x}{n-a})^{-n+a+x-0.5}
\end{displaymath} (10)

Das Maximum dieser reellen Funktion ist, wie man leicht zeigen kann, bei $x_{max}=0$ oder, wie wir oben schon vermutet haben, bei einem k- Wert mit $\vert np-k_{max}\vert \leq 1$. Der Funktionswert im Maximum ergibt sich zu

\begin{displaymath}
B^{(1)}(b,n;a) = \frac{1}{\sqrt{2 \pi \sigma^{2}}}
= \frac{1}{\sqrt{2 \pi np(1-p)}}.
\end{displaymath}

Eine weitere Approximation kann eingeführt werden durch

\begin{displaymath}
ln B^{(1)}(p,n;a+x) = -\frac{1}{2} ln(2 \pi \sigma^{2})
-(a...
...(1+ \frac{x}{a})
-(n-a+ \frac{1}{2} -x) ln(1-\frac{x}{n-a}) .
\end{displaymath}

Wir entwickeln nach Potenzen von x und erhalten

\begin{displaymath}
ln B^{(1)}(p,n;a+x) \approx - \frac{1}{2} ln(2 \pi \sigma^{2...
...2 \sigma^{2}}
(1- \frac{p^{2}+(1-p)^{2}}{\sigma^{2}}) + .....
\end{displaymath}

Für $x \leq \sigma$ erhalten wir die zweite Approximation
\begin{displaymath}
B^{(2)}(p,n;a+x) = \frac{1}{\sqrt{2 \pi \sigma^{2}}}
e^{-(x-x_{0})^{2}/(2 \sigma^{2})}
\end{displaymath} (11)

mit $x_{0}=p-\frac{1}{2}$ Wie man durch numerisches Rechnen leicht zeigen kann, spielt der $x_{0}$- Term im allgemeinen keine Rolle, sodaß wir auch
\begin{displaymath}
B^{(3)}(p,n;a+x) = \frac{1}{\sqrt{2 \pi \sigma^{2}}}
e^{-x^{...
...frac{1}{\sqrt{2 \pi \sigma^{2}}}
e^{-(k-a)^{2}/(2 \sigma^{2})}
\end{displaymath} (12)

setzen können. Diese letzteren Funktionen $B^{(2)}$ und $B^{(3)}$ nennt man auch Gauß- Funktionen. Für große Werte von n und k- Werte in der Nähe des Maximums ( $k \approx k_{max}$) geht also die Bernoulli- Verteilung in die Gauß- Verteilung über.

$B^{(2)}$ und $B^{(3)}$ sind für n=20 und p=0.2 in Tabelle 2 aufgelistet. Wie man sieht, sind diese Approximationen symmetrisch um den wahrscheinlichsten Wert $k_{max} \approx a$. Daher können diese Funktionen die Bernoulli- Verteilung nicht in den unsymmetrischen Ausläufern für große und kleine $k$- Werte beschreiben. Besser stimmen die Bernoulli- Verteilung und die Gaußsche Approximation $B^{(3)}$ für große Werte von n überein.

Simulation der Bernoulli- Verteilung
Wir können jetzt die Bernoulli- Verteilung durch eine sogenannte Simulation bestimmen. Dazu führen wir den Versuch V, der uns zur Definition der Bernoulli- Verteilung geführt hat, im Ereignisraum unseres Zufallszahlen- Generators durch. Wir bezeichnen den einmaligen Aufruf des Generators als Einzelversuch $V_{i}$. Dieser Aufruf liefert uns eine Zahl im Intervall [0,1]. Wir definieren das Ereignis $X$ durch

\begin{displaymath}
X = ,,Zufallszahl \; \leq \; p \; \leq \; 1 \; '' .
\end{displaymath}

Da die vom Generator erzeugten Zufallszahlen gleichverteilt sind, ist dann offenbar die Wahrscheinlichkeit im Einzelversuch durch

\begin{displaymath}
P(X) = p
\end{displaymath}

gegeben. Wir führen n derartige Einzelversuche $V_{i}$ aus, indem wir den Generator n- mal aufrufen. Wir zählen die Anzahl $k_{X}(n)$ der Versuche, in denen das Ereignis $X$ eingetroffen ist. Dieses ergibt dann den Gesamtversuch V. Wir definieren wie bisher als Meßwert der Wahrscheinlichkeit im Versuch V

\begin{displaymath}
\bar{p} = \frac{k_{X}(n)}{n}.
\end{displaymath}

Die einmalige Ausführung des Versuches V liefert natürlich auch nur einen Wert $k_{X}(n)$ bzw. $\bar{p}$. Führen wir nun den Versuch V beliebig häufig aus, z.B. M- mal, so erhalten wir bei jedem Versuch eine Zahl $k_{X}^{j}(n)$ $(j=1,2,...,M)$. Wir bezeichnen die Häufigkeit eines möglichen $k$- Wertes in den M Versuchen mit $K$. Die Zahlen $K$ sollten dann nach der Bernoulli- Formel verteilt sein, d.h.

\begin{displaymath}
B(p,n;k) \approx \frac{K}{M}.
\end{displaymath}

Für die Übungen haben wir ein einfaches Java Programm geschrieben, das diesen soeben beschriebenen Sachverhalt simuliert.

Tabelle: Simulationsprogramm und Berechnung der Bernoulli- Verteilung für n=20 und p=0.2.
  M $10^{2}$ $10^{4}$ $10^{6}$ $10^{8}$ $M \to \infty$
k            
             
0   0.02 0.0100 0.011586 0.011551 0.011529
1   0.04 0.0601 0.057492 0.057612 0.057646
2   0.21 0.1448 0.137091 0.136897 0.136909
3   0.18 0.2007 0.205006 0.205387 0.205364
4   0.16 0.2158 0.218123 0.218143 0.218199
5   0.22 0.1679 0.174831 0.174634 0.174560
6   0.10 0.1123 0.109178 0.109095 0.109100
7   0.05 0.0526 0.054584 0.054544 0.054550
8   0.02 0.0254 0.022207 0.022156 0.022161
9     0.0085 0.007345 0.007387 0.007387
10     0.0017 0.001986 0.002031 0.002031
11     0.0002 0.000471 0.000461 0.000462
12       0.000085 0.000087 0.000087
13       0.000012 0.000013 0.000013
14       0.000003 0.000002 0.000002


Simulationsrechnungen beanspruchen im allgemeinen sehr hohe Rechenzeiten, da die Genauigkeit der Ergebnisse von der Anzahl M der simulierten Versuche V abhängt. Für die Ergebnisse in Tabelle 3 wurden bis zu $M=10^{8}$ Versuche durchgeführt, um die Bernoulli- Verteilung für n=20 und p=0.2 zu simulieren. Der Vergleich mit den exakten Werten aus Tabelle 2 zeigt, daß wir mit dieser bereits relativ großen Zahl M von Versuchen erst eine Übereinstimmung in der vierten Nachkommastelle erreicht haben. Man sollte also, wenn immer es geht, zunächst versuchen, Probleme analytisch zu lösen. Erst wenn man klar erkannt hat, daß es keine analytische Lösung gibt, sollte man auf eine Simulation zurückgreifen. Und auch innerhalb der Simulation können Teilaspekte analytisch gelöst werden. Die Optimierung von analytischen Problemlösungen und Lösungen mit Hilfe einer Simulation ist das Hauptanliegen dieses Tutorials. Wir werden später eine Simulation der Bernoulli- Verteilung kennenlernen, die wesentlich schneller in der Rechenzeit ist.

Fehler Integral und Standard Abweichung
$B(p,n;k)$ gibt also, um es noch mal zu sagen, die Wahrscheinlichkeit an, in n Versuchen k-mal das Ereignis $X$ zu finden, wenn $p=P(X)$ die Wahrscheinlichkeit für das Ereignis $X$ im Einzelversuch ist. Im allgemeinen interessiert man sich nicht dafür, wie groß die Wahrscheinlichkeit für ein bestimmtes $k$ ist, sondern dafür, wie groß die Wahrscheinlichkeit dafür ist, daß $k$ in einem Intervall von $k_{1}$ bis $k_{2}$ liegt. In diesem Fall muß man die Wahrscheinlichkeiten für das Intervall $[k_{1},k_{2}]$ addieren. Dieses ergibt dann tatsächlich die Gesamtwahrscheinlichkeit, da, wie wir oben ausgeführt haben, $B(p,n;k)$ die Wahrscheinlichkeiten von Elementarereignissen $E_{k}$ sind und somit $E_{i} \cdot E_{k} = 0$ für $i \neq k$. Daher können wir schreiben

\begin{displaymath}
B(p,n;k_{1} \leq k \leq k_{2}) = \sum_{k_{1} \leq k \leq k_{2}} B(p,n;k)
\end{displaymath} (13)

Interessieren wir uns insbesondere für ein symmetrisches Intervall um den wahrscheinlichsten Wert $k_{max} \approx a$,
\begin{displaymath}
a-x \leq k \leq a+x,
\end{displaymath} (14)

dann gilt
\begin{displaymath}
B(p,n,;a-x \leq k \leq a+x) = \sum_{a-x \leq k \leq a+x} B(p,n;k)
\end{displaymath} (15)

Mit Hilfe der Approximation $B^{(3)}$ können wir schreiben

\begin{displaymath}
B^{(3)}(p,n;a-x \leq k \leq a+x) = \frac{1}{\sqrt{2 \pi \sig...
...}}
\sum_{\vert \xi \vert \leq x} e^{- \xi^{2}/(2 \sigma^{2})}.
\end{displaymath}

Wir ersetzen die Summe durch ein Integral und ersetzen die Integrationsvariable $\xi$ durch $y$ mit Hilfe der Substitution $\xi = \sqrt{2} \sigma y$. Weiterhin drücken wir die Variable $x$ durch Vielfache des Parameters $\sigma$ aus, $x = \eta \sigma$. Nach kurzer Rechnung ergibt sich
\begin{displaymath}
B^{(3)}(p,n;a- \eta \sigma \leq k \leq a + \eta \sigma )
\a...
..._{0}^{\eta/\sqrt{2}} e^{-y^{2}} dy
= E(\frac{\eta}{\sqrt{2}}).
\end{displaymath} (16)

Das rechts stehende Integral nennt man das Fehler- Integral und den Parameter $\sigma$ die Standard- Abweichung. Das Fehler- Integral wird häufig geschrieben als $E(\eta /\sqrt{2})$. Mit diesen Definitionen erhalten wir die Aussage:
Satz: Die Wahrscheinlichkeit dafür, daß in $n$ Einzelversuchen $k$-mal das Ereignis $X$ eintritt, und $k$ nicht mehr als $\eta \sigma$ vom wahrscheinlichsten Wert $a=np$ abweicht, ist in der Gaußschen Approximation unabhängig von n und p und durch $E(\eta /\sqrt{2})$ gegeben.


Tabelle: BASIC- Programm und Berechnung des Fehler- Integrals für $n=100$ und $p=0.2$.
$\eta$ $B(p,n;a- \eta \sigma \leq k \leq a + \eta \sigma)$ $B^{(3)}(p,n;a- \eta \sigma \leq k \leq a + \eta \sigma)$
     
0.5 0.467744 0.382925
1.0 0.740141 0.682689
1.5 0.897255 0.866386
2.0 0.967405 0.954500
2.5 0.991607 0.987581
3.0 0.998173 0.997300
3.5 0.999645 0.999534
4.0 0.999938 0.999937


Wir vergleichen den exakten Ausdruck $B(p,n;a- \eta \sigma \leq k \leq a + \eta \sigma)$ mit der approximativen Formel $B^{(3)}(p,n;a - \eta \sigma \leq k \leq \eta \sigma)$ in Tabelle 4.

Messung der Wahrscheinlichkeit
Nach diesen Betrachtungen sind wir in der Lage, die Wahrscheinlichkeit $p=P(X)$ für das Eintreffen des Ereignisses $X$ im Einzelversuch $V_{i}$ experimentell zu messen. Hierzu führen wir den Versuch $V_{i}$ mit jeweils demselben Bedingungskomplex n- mal aus und zählen die Häufigkeit $k_{X}(n)$ des Eintreffens des Ereignisses $X$ in n Versuchen. Der wahrscheinlichste Wert $k_{max}$ liegt in der Nähe von $a=pn$. Wir definieren daher als Meßwert:

\begin{displaymath}
\bar{p} = \frac{k_{X}(n)}{n}.
\end{displaymath} (17)

Wir schreiben den gemessenen Wert in der Form
\begin{displaymath}
\bar{p} = \frac{a}{n} + \frac{\eta}{n} \sigma
= p + \frac{\eta}{\sqrt{n}} \sqrt{p(1-p)},
\end{displaymath} (18)

wobei es fast sicher ist, daß $\vert\eta\vert \leq 3$ ist (siehe Tabelle 4). Im vorigen Ausdruck ist $p$ der axiomatisch postulierte Wert (oder auch der sogenannte wahre Wert) der Wahrscheinlichkeit. Wir lösen diese Gleichung nach $p$ auf und erhalten

\begin{displaymath}
p = \frac{1}{1+\frac{\eta^{2}}{n}} \left( \bar{p} + \frac{\e...
...}} \sqrt{\bar{p} (1-\bar{p})
+ \frac{\eta^{2}}{4n}} \right).
\end{displaymath}

Vernachlässigen wir Terme mit $\eta^{2}/n$, so folgt

\begin{displaymath}
p = \bar{p} - \frac{\eta}{\sqrt{n}} \sqrt{\bar{p}(1-\bar{p})}.
\end{displaymath}

$\eta$ kann positive wie negative Werte annehmen, sodaß wir auch schreiben können
\begin{displaymath}
p = \bar{p} \pm \frac{\vert\eta\vert}{\sqrt{n}} \sqrt{\bar{p}(1-\bar{p})}.
\end{displaymath} (19)

Als Fehler der Messung bezeichnet man im allgemeinen die einfache Standard- Abweichung, d.h. für $\vert\eta\vert=1$. Wir können also sagen:
Mit einer Wahrscheinlichkeit von $68\%$ ist der wahre Wert der Wahrscheinlickeit durch
\begin{displaymath}
p = \bar{p} \pm \frac{1}{\sqrt{n}} \sqrt{\bar{p}(1-\bar{p})}
\end{displaymath} (20)

gegeben, wobei $\bar{p}$ der gemessene Wert ist.

Approximiert man noch $\overline{p}^{2} \approx 0$ und beachtet (17), dann folgt auch

\begin{displaymath}
p = \frac{1}{n} \left( k_{X}(n) \pm \sqrt{k_{X}(n)} \right).
\end{displaymath} (21)

Dieses beweist das bekannte Gesetz, daß der Fehler einer Zählrate durch die Wurzel der Zählrate gegeben ist.

Poisson- Verteilung
Die Gaußschen Approximationen beschreiben die Bernoulli- Verteilung nicht besonders gut für extrem kleine p- Werte. Schon für p=0.2 und n=20 hatten wir signifikante Abweichungen bei kleinen k- Werten beobachtet (siehe Tabelle). Um für $p \rightarrow 0$ eine meßbare Häufigkeit zu erhalten, muß in diesem Fall eine sehr große Zahl von Versuchen durchgeführt werden ( $n \rightarrow \infty$). Wir nehmen also an, daß zwar

\begin{displaymath}
p \approx 0 \; \; und \; \; n \gg 1,
\end{displaymath} (22)

daß aber das Produkt aus beiden weder verschwindet noch beliebig groß wird, d.h.
\begin{displaymath}
a = pn \neq 0.
\end{displaymath} (23)


Tabelle: Vergleich der exakten Bernoulli- Verteilung und der Poisson- Approximation für n=200 und p=0.02.
$k$ $B(p,n;k)$ $B^{(4)}(p,n;k)$
     
0 0.017588 0.018316
1 0.071788 0.073263
2 0.145773 0.146525
3 0.196347 0.195367
4 0.197349 0.195367
5 0.157879 0.156293
6 0.104716 0.104196
7 0.059277 0.059540
8 0.029160 0.029770
9 0.012696 0.013231
10 0.004949 0.005292
11 0.001744 0.001925
12 0.000561 0.000642
13 0.000165 0.000197
14 0.000045 0.000056
15 0.000011 0.000015
16 0.000003 0.000004


Wir schreiben die Bernoulli- Formel in der Form

\begin{displaymath}
B(p,n;k) = \frac{(1-\frac{1}{n})(1-\frac{2}{n}) \cdot \cdot \cdot
(1-\frac{k-1}{n})}{k!} a^{k} (1-\frac{a}{n})^{n-k},
\end{displaymath}

Im Limes $n \rightarrow \infty$ gilt

\begin{displaymath}
\lim_{n \to \infty} (1-\frac{a}{n})^{n-k} = e^{-a}
\end{displaymath}

und daher
\begin{displaymath}
B^{(4)}(p,n;k)= B(p, n \to \infty ;k) = e^{-a} \frac{a^{k}}{k!}.
\end{displaymath} (24)

Dieses ist eine Poisson- Verteilung und $B^{(4)}$ nennt man die Poisson- Approximation für kleine $p$- Werte. Für n=200 und p=0.02 werden die Funktionswerte der Bernoulli- Verteilung und der Poisson- Approximation in Tabelle 5 miteinander verglichen. Wir beobachten eine relativ gute Übereinstimmung für den gesamten Wertebereich.

Ein Java Applet

Für alle Leser, die sich bis hierhin durchgequält haben, jetzt noch zur Belohnung ein Applet zum Spielen. Dargestellt ist ein Kartenspiel mit 52 Karten. Ein Versuch besteht aus 100 Ziehungen einer zufälligen Karte. Die Karte wird nach der Ziehung wieder in den Kartenstapel zurückgelegt. Im Auswahlmenu Choose können Sie auswählen, welche Spielkarten als Kopie auf der rechten Seite des Fensters abgelegt werden sollen. Falls Sie nur die Herzdamen wählen, ist die Erfolgschance pro Zug also $P = 1/52 = 0,0192$, bei 100 Ziehungen erwarten Sie also im Mittel 1,9 Herzdamen. In diesem Fall erhalten Sie eine Poisson- Verteilung. Bei Wahl aller Damen erhöht sich die Erfolgschance pro Zug auf $P = 4/52 = 0,077$, wir erwarten also etwa 7,7 Damen in 100 Ziehungen. Dieses ergibt eine typische Binominalverteilung. Akzeptieren wir alle roten Karten, so ist $P=0,5$ und man kann die Binominalverteilung durch eine Normalverteilung approximieren. Die Geschwindigkeit der Animation können Sie im Menu Speed steuern.

Aufgaben

Aufgabe 1: In einer Maschinenhalle arbeiten 10 Maschinen. Die Wahrscheinlichkeit dafür, daß eine Maschine im Laufe des Tages ausfällt, sei $p=5 \%$. Die Maschinen mögen unabhängig voneinander arbeiten. Wie groß ist die Wahrscheinlichkeit dafür, daß mindestens noch 5 Maschinen am Ende des Tages arbeiten?

Aufgabe 2: Bei der Familienplanung wünscht man sich im allgemeinen genauso viele Jungens wie Mädchens. Aus der Gesamtbevölkerungsstatistik weiß man, daß im Mittel von 100 Kindern 55 Jungens und 45 Mädchen geboren werden. Wie groß sind die Wahrscheinlichkeiten dafür, bei 4 Kindern genau
a) 4 Jungens;  
b) 3 Jungens, 1 Mädchen;
c) 2 Jungens, 2 Mädchen;
d) 1 Junge, 3 Mädchen;
e)   4 Mädchen;

zu bekommen?

Aufgabe 3: In einem zur Aussenwelt hermetisch abgeriegelten Gasvolumen $V$ befinden sich $n$ Atome. Für jedes einzelne Atom ist die Aufenthaltswahrscheinlichkeit über das gesamte Gasvolumen gleich groß und nicht von der Position der übrigen Atome abhängig.
a) Wie groß ist die Wahrscheinlichkeit dafür, bei einer Messung der Anzahlen der Atome genau $k$ Atome in der einen und $n-k$ Atome in der anderen Hälfte des Gasvolumens zu finden?
b) Bei einer zweiten Messung der Atomzahlen bringen Sie eine kleine Sonde mit dem Volumen $V_{s} \ll V$ in das Gasvolumen. Berechnen Sie mit Hilfe eines Computer- Programms die Wahrscheinlichkeitsverteilung der zu erwartenden Meßwerte für $V=1 m^{3}$, $n=10^{20}$ und $V_{s}= 1 mm^{3}$.

Aufgabe 4: In einer radioaktivenn Quelle befinden sich zur Zeit $t=0$ genau $N_{0}$ radioaktive Atome. Der Zerfall dieser Atome ist unabhängig voneinander und die Wahrscheinlichkeit dafür, daß ein bestimmtes Atom zur Zeit $t$ noch nicht zerfallen ist, ist durch

\begin{displaymath}
P(t) = e^{-at}
\end{displaymath}

gegeben.
a) Wie groß ist die Wahrscheinlichkeit dafür, zur Zeit $T$ genau $N_{0}/2$ noch nicht zerfallende Atome vorzufinden?
b) Angenommen, Sie bestimmen zur Zeit $T$ die Anzahl der noch nicht zerfallenden Atome $N(T)$ durch eine Messung. Geben Sie für diese Messung den Fehler als Funktion des Parameters $a$ an.



Harm Fesefeldt
2005-03-16