Wahrscheinlichkeit
Relative Häufigkeit
Realisiert sei ein bestimmter Bedingungskomplex K oder, wie wir im folgenden kürzer sagen werden, ein bestimmter Versuch V oder ein bestimmtes Experiment E. $X$ sei ein mögliches Ereignis dieses Versuches. Der Bedingungskomplex sei so kompliziert, daß wir beim Ereignis $X$ von einem zufälligen Ereignis sprechen können. Wird der gleiche Versuch mit jeweils demselben Bedingungskomplex n- mal ausgeführt, so tritt in einigen dieser Ausführungen das Ereignis $X$ ein, in anderen Ausführungen dagegen nicht. Wir definieren:
Tritt bei n- maliger Ausführung des Versuches V das zufällige Ereignis $X$ k- mal ein, so nennen wir
\begin{displaymath}
k = k_{X}(n)
\end{displaymath} (1)

die Häufigkeit des Ereignisses X bei n Versuchen. Das Verhältnis
\begin{displaymath}
h_{X}(n) = \frac{k_{X}(n)}{n}
\end{displaymath} (2)

heißt relative Häufigkeit des Ereignisses X bei n Versuchen.
Offenbar gilt

\begin{displaymath}
\begin{array}{ccc}
0 \leq & k & \leq n \\ 0 \leq & h_{X}(n) & \leq 1
\end{array}\end{displaymath}

Für eine hinreichend große Zahl $n$ von Versuchen stabilisiert sich $h_{X}(n)$ in der Nähe einer konstanten Zahl, die wir mit $P(X)$ bezeichnen und Wahrscheinlichkeit des Ereignisses X nennen. In der modernen Statistik wird die Existenz der Zahl $P(X)$ allerdings als Axiom eingeführt. Dieses ist sinnvoll, da man eine unendliche Anzahl von Versuchen nicht durchführen kann.
Axiom 1: Jedem zufälligen Ereignis X kann man eine Wahrscheinlichkeit P(X) zuordnen.
In der Realität kennt man die Zahl $P(X)$ natürlich niemals exakt, man kann ihr höchstens durch Messung der relativen Häufigkeit beliebig nahe kommen. Wir postulieren daher:
Axiom 2: Für große Versuchszahlen n ist die relative Häufigkeit $h_{X}(n)$ stabil, und zwar gilt
\begin{displaymath}
h_{X}(n) \approx P(X) \geq 0 .
\end{displaymath} (3)

Axiom 3: Für ein sicheres Ereignis I ist stets
\begin{displaymath}
h_{I}(n) = P(I) = 1,
\end{displaymath} (4)

unabhängig von n. Für das unmögliche Ereignis 0 ist
\begin{displaymath}
h_{0}(n) = P(0) = 0 ,
\end{displaymath} (5)

unabhängig von n.
Axiom 4: Die Wahrscheinlichkeit der Summe $X_{1}+X_{2}$ zweier unvereinbarer Ereignisse $X_{1}$ und $X_{2}$ ist gleich der Summe der Wahrscheinlichkeiten der Summanden,

\begin{displaymath}
P(X_{1}+X_{2}) = P(X_{1}) + P(X_{2}) \; \; f''ur \; \; X_{1} \cdot X_{2} = 0.
\end{displaymath} (6)

Das letzte Axiom kann man sich leicht an Hand der relativen Häufigkeiten klarmachen. Seien $X_{1}$ und $X_{2}$ zwei unvereinbare Ereignisse, d.h. treten $X_{1}$ und $X_{2}$ niemals gemeinsam als Ereignisse eines Versuches auf, und tritt $X_{1}$ $k_{1}-$ mal sowie $X_{2}$ $k_{2}-$ mal auf, so tritt das Ereignis $X_{1}+X_{2}$ offenbar $(k_{1}+k_{2})-$ mal auf.

\begin{displaymath}
k_{X_{1}+X_{2}}(n) = k_{1} + k_{2} = k_{X_{1}}(n) + k_{X_{2}}(n).
\end{displaymath}

Nach Division durch n erhalten wir

\begin{displaymath}
h_{X_{1}+X_{2}}(n) = h_{X_{1}}(n) + h_{X_{2}}(n).
\end{displaymath}

Die Einführung dieser 4 Axiome als Grundlage der Statistik verdanken wir dem russischen Mathematiker Kolmogoroff.

Wahrscheinlichkeitsalgebra
Nachdem wir jedem Ereignis eine Wahrscheinlichkeit zugeordnet haben, können wir versuchen, die Ereignisalgebra des vorherigen Abschnitts auf eine Wahrscheinlichkeitsalgebra zu übertragen. Ein derartiges Beispiel ist schon in Axiom 4 aufgetreten. Wir weisen noch einmal darauf hin, daß wir hierbei in einer Gleichung verschiedene Verknüpfungen mit demselben Symbol ,,+'' bezeichnet haben. In der Verknüpfung $X_{1}+X_{2}$ handelt es sich um das OR der binären logischen Algebra, aud der rechten Seite der Gleichung bedeutet das ,,+'' Zeichen die normale Addition der arithmetischen Algebra. Dieser Umstand muß im folgenden immer beachtet werden.

Die im vorangehenden verwendete Definition der Wahrscheinlichkeit ist im strengen Sinne nur für endliche Ereignisräume gültig. Man kann aber auch in abzählbaren und überabzählbaren Ereignisräumen eine Wahrscheinlichkeit definieren, sodaß unsere Axiome gültig bleiben. Dieses ist ein Problem der Maßtheorie, daß wir hier nicht weiter verfolgen können.

Elementarereignisse sind definitionsgemäß unvereinbar, daher gilt für

\begin{displaymath}
X = \sum_{\nu=1}^{m} E_{i_{\nu}}
\end{displaymath} (7)

die Formel
\begin{displaymath}
P(X) = \sum_{\nu=1}^{m} P(E_{i_{\nu}})
\end{displaymath} (8)

und für das sichere Ereignis
\begin{displaymath}
P(I) = 1 = \sum_{\nu=1}^{n} E_{\nu}
\end{displaymath} (9)

Die wichtigste Aussage der Wahrscheinlichkeitsalgebra ist in dem folgenden Satz zusammengefaßt:
Satz: Für die Summe und Differenz zweier beliebiger Ereignisse gilt allgemein
$\displaystyle P(X_{1}+X_{2})$ $\textstyle =$ $\displaystyle P(X_{1})+P(X_{2})-P(X_{1} \cdot X_{2})$ (10)
$\displaystyle P(X_{1}-X_{2})$ $\textstyle =$ $\displaystyle P(X_{1})-P(X_{1} \cdot X_{2})$ (11)

Zum Beweis schreiben wir $X_{1}$ und $X_{1}+X_{2}$ als Summe unvereinbarer Ereignisse:

\begin{displaymath}\begin{array}{lll}
X_{1}+X_{2} &=& X_{2} + X_{1} \cdot \overl...
...X_{1} \cdot X_{2} + X_{1} \cdot \overline{X}_{2}.
\end{array} \end{displaymath}

Daraus folgt mit Axiom 4:

\begin{displaymath}\begin{array}{lll}
P(X_{1}+X_{2}) &=& P(X_{2}) + P(X_{1} \cdo...
... \cdot X_{2}) + P(X_{1} \cdot \overline{X}_{2}) .
\end{array} \end{displaymath}

Auflösen der zweiten Gleichung nach $P(X_{1} \cdot \overline{X}_{2})$ und Einsetzen in die erste Gleichung ergibt

\begin{displaymath}
P(X_{1}+X_{2}) = P(X_{1}) + P(X_{2}) - P(X_{1} \cdot X_{2}).
\end{displaymath}

Zum Beweis der Differenz- Gleichung zerlegen wir $X_{1}$ wiederum wie eben in unvereinbare Ereignisse,

\begin{displaymath}
X_{1} = X_{1} \cdot X_{2} + X_{1} \cdot \overline{X}_{2}
\end{displaymath}

und schreiben, gemäß der Definition für die Subtraktion von Ereignissen,

\begin{displaymath}
X_{1} - X_{2} = X_{1} \cdot \overline{X}_{2}.
\end{displaymath}

Daraus folgt sofort

\begin{displaymath}
P(X_{1}) = P(X_{1} \cdot X_{2}) + P(X_{1} - X_{2})
\end{displaymath}

und

\begin{displaymath}
P(X_{1}-X_{2}) = P(X_{1}) - P(X_{1} \cdot X_{2}).
\end{displaymath}

Damit ist der Satz bewiesen. Aus dem Beweis dieses Satzes lernen wir, daß man nur die Wahrscheinlichkeitsaddition von OR- verknüpften, unvereinbaren Ereignissen zu postulieren braucht (Axiom 4). Die allgemeine Formel (10) kann man dann mit den Ergebnissen der Ereignisalgebra herleiten.

Wir hatten im vorherigen Kapitel alle möglichen verschiedenen, disjunktiv verknüpften, logischen Funktionen zwischen zwei beliebigen Ereignissen hergeleitet. In der folgenden Tabelle 1 geben wir die zugehörigen Formeln für die Wahrscheinlichkeiten an, und zwar ausgedrückt durch $P(X_{1})$, $P(X_{2})$ und $P(X_{1} \cdot X_{2})$. Es sollte dem aufmerksamen Leser keine Schwierigkeiten bereiten, diese Formeln nachzurechnen.


Tabelle 1: Disjunktive Verknüpfungen zwischen Ereignissen und zugehörige Wahrscheinlichkeit
Verknüpfung mit AND, OR and NOT Wahrscheinlichkeit
$Y = f_{D}(X_{1},X_{2})$ $P(Y)$
   
0 0
$X_{1} \cdot X_{2}$ $P(X_{1} \cdot X_{2})$
$\overline{X}_{1} \cdot X_{2}$ $P(X_{2}) - P(X_{1} \cdot X_{2})$
$X_{2}$ $P(X_{2})$
$X_{1} \cdot \overline{X}_{2}$ $P(X_{1}) - P(X_{1} \cdot X_{2})$
$X_{1}$ $P(X_{1})$
$X_{1} \cdot \overline{X}_{2} + \overline{X}_{1} \cdot X_{2}$ $P(X_{1}) +P(X_{2}) - 2 P(X_{1} \cdot X_{2})$
$X_{1}+X_{2}$ $P(X_{1})+P(X_{2})-P(X_{1} \cdot X_{2})$
$\overline{X_{1}+X_{2}}$ $1-P(X_{1})-P(X_{2})
+P(X_{1} \cdot X_{2})$
$\overline{X}_{1} \cdot \overline{X}_{2} + X_{1} \cdot X_{2}$ $1-P(X_{1})-P(X_{2})
+P(X_{1} \cdot X_{2})$
$\overline{X}_{1}$ $1-P(X_{1})$
$\overline{X}_{1} + X_{2}$ $1-P(X_{1})+P(X_{1} \cdot X_{2})$
$\overline{X}_{2}$ $1-P(X_{2})$
$X_{1}+\overline{X}_{2}$ $1-P(X_{2})+P(X_{1} \cdot X_{2})$
$\overline{X_{1} \cdot X_{2}}$ $1-P(X_{1} \cdot X_{2})$
1 1

Beispiel
In der Wahrscheinlichkeitsrechnung geht man immer davon aus, daß gewisse Grundwahrscheinlichkeiten, im allgemeinen die Wahrscheinlichkeiten für die Elementarereignisse, vorgegeben sind. Dieses nennt man die Wahrscheinlichkeits- Verteilung. Aufgabe der Statistik ist dann die Berechnung der Wahrscheinlichkeiten von beliebigen Ereignissen. Wir diskutieren noch einmal das Würfelspiel. Da keine Augenzahl gegenüber einer anderen bevorzugt ist, müssen die 6 Elementarereignisse $E_{\nu} = \nu $ $(\nu = 1, 2, ....,6)$ als gleich wahrscheinlich angenommen werden, d.h.

\begin{displaymath}
P(E_{\nu}) = \frac{1}{6}, \; \; \nu = 1,2,...,6.
\end{displaymath}

Wir definieren 2 beliebige Ereignisse durch

\begin{displaymath}\begin{array}{lll}
X_{1} &=& ,,Augenzahl \; ist \; gerade'' \...
...&=& ,,Augenzahl \; ist \; durch \; 3 \; teilbar''.
\end{array} \end{displaymath}

Diese Ereignisse können wir mathematisch exakt schreiben als

\begin{displaymath}\begin{array}{lll}
X_{1} &=& E_{2} + E_{4} + E_{6} \\
X_{2} &=& E_{3} + E_{6}.
\end{array} \end{displaymath}

Für die Wahrscheinlichkeiten erhalten wir

\begin{displaymath}\begin{array}{lll}
P(X_{1}) &=& P(E_{2}) + P(E_{4}) + P(E_{6}...
...\
P(X_{2}) &=& P(E_{3}) + P(E_{6}) = \frac{1}{3}.
\end{array} \end{displaymath}

Ferner ist

\begin{displaymath}
X_{1} \cdot X_{2} = E_{6}, \; \; \; P(X_{1} \cdot X_{2}) = \frac{1}{6}
\end{displaymath}

und daher

\begin{displaymath}\begin{array}{lll}
P(X_{1}+X_{2}) &=& P(X_{1}) + P(X_{2}) - P...
...X_{2}) = \frac{1}{2} - \frac{1}{6}
= \frac{1}{3}.
\end{array} \end{displaymath}

Diese Ergebnisse hätte man natürlich auch mit dem ,,gesunden Menschenverstand'' schließen können.

Bedingte Wahrscheinlichkeit
Wir führen wiederum einen Versuch V aus und betrachten 2 Ereignisse $X$ und $Y$, die nicht unvereinbar sein sollten, d.h. $X \cdot Y \neq 0$. Die relativen Häufigkeiten seien $k_{X}(n)$ und $k_{Y}(n)$. Ferner sei $k_{X \cdot Y}(n)$ die Häufigkeit des Ereignisses $X \cdot Y$ bei n Versuchen. Interessiert man sich jetzt nicht für alle n Versuche, sondern nur für diejenigen Versuche, bei denen das Ereignis $Y$ eingetreten ist, dann kann man nach der Häufigkeit des Ereignisses $X$ fragen, aber nur für diejenigen Ereignisse, bei denen das Ereignis $Y$ eingetreten ist. Dieses nennt man eine bedingte Häufigkeit, die offenbar durch

\begin{displaymath}
\frac{k_{X \cdot Y}(n)}{k_{Y}(n)}
\end{displaymath} (12)

gegeben ist. Die relative bedingte Häufigkeit ist entsprechend
\begin{displaymath}
h_{X\vert Y}(n) = \frac{h_{X \cdot Y}(n)}{h_{Y}(n)}
= \frac{k_{X \cdot Y}(n)}{k_{Y}(n)}.
\end{displaymath} (13)

Die bedingte Wahrscheinlichkeit wird definiert durch
\begin{displaymath}
P(X\vert Y) = \frac{P(X \cdot Y)}{P(Y)} .
\end{displaymath} (14)

Man sagt:
$P(X\vert Y)$ ist die bedingte Wahrscheinlichkeit des Ereignisses $X$ unter der Bedingung, daß das Ereignis $Y$ eingetreten ist.

Beispiel
Als Beispiel betrachten wir noch einmal das Würfelspiel mit den Ereignissen

\begin{displaymath}\begin{array}{lll}
X_{1} &=& ,,Augenzahl \; ist \; gerade'' \...
...&=& ,,Augenzahl \; ist \; durch \; 3 \; teilbar''.
\end{array} \end{displaymath}

Die bedingte Wahrscheinlichkeit $P(X_{2}\vert X_{1})$ ist

\begin{displaymath}
P(X_{2}\vert X_{1}) = \frac{1/6}{1/2} = \frac{1}{3},
\end{displaymath}

und kann interpretiert werden als Wahrscheinlichkeit für das Würfeln einer 6 unter der Bedingung, daß eine gerade Zahl, d.h. eine 2, 4 oder 6, gewürfelt wurde. Diese Wahrscheinlichkeit ist offenbar $\frac{1}{3}$.

Unabhängigkeit von Ereignissen
Im allgemeinen ist $P(X\vert Y)$ von $P(X)$ verschieden. Ist aber $P(X\vert Y)=P(X)$, so gilt

\begin{displaymath}
P(X \cdot Y) = P(X) \cdot P(Y).
\end{displaymath} (15)

Wir können für diesen Spezialfall die AND Verknüpfung von Ereignissen auf die arithmetische Multiplikation ihrer Wahrscheinlichkeiten übertragen. Man kann die Unabhängigkeit zweier Ereignisse nicht im Venn- Diagramm veranschaulichen, da die Definition der Unabhängigkeit den Begriff der Wahrscheinlichkeit voraussetzt.
Sind $X_{1}, X_{2},....,X_{n}$ Ereignisse eines Ereignisraumes $I$ und gilt für die Wahrscheinlichkeiten
\begin{displaymath}
P(X_{i_{1}} \cdot X_{i_{2}} \cdot \cdot \cdot \cdot X_{i_{s}...
..._{1}}) \cdot P(X_{i_{2}}) \cdot \cdot \cdot \cdot P(X_{i_{s}})
\end{displaymath} (16)

für jede Kombination von Ereignissen mit beliebigen Indizes $(1 \leq i_{1} < i_{2} < ..... < i_{s} \leq n)$, so heißen die Ereignisse $X_{1}, X_{2},....,X_{n}$ voneinander unabhängig.
Man muß insbesondere die Begriffe ,,unabhängig'' und ,,unvereinbar'' klar trennen. Unvereinbare Ereignisse $X_{1}$ und $X_{2}$ waren dadurch definiert, daß $X_{1} \cdot X_{2} = 0$ und damit $P(X_{1} \cdot X_{2})=0$ ist. Unabhängige Ereignisse $X_{1}$ und $X_{2}$ sind dagegen durch die Beziehung $P(X_{1} \cdot X_{2}) = P(X_{1}) \cdot P(X_{2})$ definiert.

Beispiel
In einem von außen nicht einsehbaren Behälter befinden sich 20 Lose für eine Verlosung. Die Lose sind aufgeteilt in Nieten und Gewinne, z.B. 2 Gewinne auf 8 Nieten. Die Lose sind in 2 verschiedenen Farben gefärbt, z.B. rot und blau. Für jede Farbe ist die gleiche Anzahl von Nieten und Gewinnen vorhanden, sodaß sich insgesamt 4 Gewinne und 16 Nieten in dem Behälter befinden. In diesem Beispiel hat offenbar das Ziehen eines Gewinnes nichts mit dem Ziehen einer bestimmten Farbe zu tun. Das Ereignis ,,Ziehen eines Gewinnes'' und das Ereignis ,,Ziehen der Farbe Rot'' sind unabhängig voneinander, aber nicht unvereinbar, denn es befinden sich ja 2 Gewinne mit der Farbe Rot im Behälter. Offenbar ist die Unabhängigkeit in diesem Beispiel nur beim ersten Zug gewährleistet, d.h. solange noch alle Lose im Behälter sind. Beim zweiten Zug ist von einer Farbe ein Los weniger im Behälter. Falls dieses bereits gezogene Los ein Gewinn mit der Farbe Blau war, erhöht sich damit die Gewinnchance beim zweiten Zug, wenn man ein rotes Los zieht. Ziehen der Farbe Rot und Ziehen eines Gewinnes sind nicht mehr unabhängig voneinander. Beim ersten Zug hätten wir folgende mögliche Ereignisse:

\begin{displaymath}
X_{1} = ,,Niete'', \; \; X_{2} = ,,Gewinn'', \; \; X_{3} = ,,Rot'', \; \;
X_{4} = ,,Blau''
\end{displaymath}

Offentsichtlich gilt

\begin{displaymath}
P(X_{1}) = \frac{8}{10}, \; P(X_{2}) = \frac{2}{10}, \;
P(X_{3}) = P(X_{4}) = \frac{1}{2}.
\end{displaymath}

Die Ereignisalgebra ist durch

\begin{displaymath}\begin{array}{lllll}
X_{1}+X_{2} &=& X_{3}+X_{4} &=& I \\
X_{1} \cdot X_{2} &=& X_{3} \cdot X_{4} &=& 0
\end{array} \end{displaymath}

charakterisiert. $X_{1}$ und $X_{2}$ sind von $X_{3}$ und $X_{4}$ unabhängig, d.h.

\begin{displaymath}\begin{array}{lllll}
P(X_{1} \cdot X_{3}) &=& P(X_{1}) \cdot ...
... \cdot X_{4}) &=& P(X_{2}) \cdot P(X_{4}) &=& 1/10
\end{array} \end{displaymath}

In dem folgenden kleinen Applet haben wir dieses Spielchen programmiert. Die Lose sind im oberen Behälter als Kugeln dargestellt. Sie können die Farbe der Kugeln erkennen, nicht aber die Eigenschaft ''Niete'' oder ''Gewinn''. Beim Ziehen eines Gewinns fällt die Kugel nach unten aus dem Behälter heraus. Nach jedem Zug können Sie verschiedene Fragen über die Wahrscheinlichkeiten beim nächsten Zug beantworten. Das Applet sagt Ihnen, ob Ihre Antwort richtig oder falsch war.

Beispiel
Ein zweites Beispiel ist für die folgenden Betrachtungen wichtig. Gegeben sei ein Versuch V. Dieser kann als Ergebnis ein zufälliges Ereignis $X$ liefern. Wir führen den Versuch zweimal aus. Bei der ersten Ausführung ist das Versuchsergebnis entweder $X_{1}=X$ oder $X_{1}=\overline{X}$. Bei der zweiten Ausführung ist wiederum das Ergebnis entweder $X_{2}=X$ oder $X_{2}=\overline{X}$. Die Ereignisse $X_{1}$ und $X_{2}$ sind voneinander unabhängig. Bei der zweiten Ausführung des Versuches kommt es nicht darauf an, welchen Ausgang der erste Versuch hatte, d.h.

\begin{displaymath}\begin{array}{lllll}
P(X_{2}\vert X_{1}) &=& P(X_{1}\vert X_{...
..._{2}) &=& P(X_{1}) \cdot P(X_{2}) &=& (P(X))^{2}.
\end{array} \end{displaymath}

Führen wir den Versuch n- mal aus, so gilt entsprechend

\begin{displaymath}
P(X_{1} \cdot X_{2} \cdot \cdot \cdot \cdot X_{n})
= P(X_{1}) \cdot P(X_{2}) \cdot \cdot \cdot \cdot P(X_{n}) = (P(X))^{n}.
\end{displaymath}

Diese Unabhängigkeit eines bestimmeten Ereignisses bei mehrmaliger Ausführung ein- und desselben Versuches mögen Glücksspieler oft nicht glauben. Wenn man beim Würfeln 3- mal hintereinander die Augenzahl 6 gewürfelt hat, so ist die Chance, beim vierten Wurf wiederum eine 6 zu würfeln, genauso groß wie beim ersten Wurf. Allgemeiner, das Würfeln irgendeiner Augenzahl beim (k+1)- ten Wurf hängt nicht davon ab, was man in den ersten k Versuchen gewürfelt hatte.

Übungen:

Aufgabe 1: Beim Kartenspiel 'Skat' werden an 3 Mitspieler je 10 Karten verteilt. 2 Karten werden in den sogenannten 'Topf' gelegt. Das Spiel besteht also insgesamt aus 32 Karten.
a) Wie groß ist die Wahrscheinlichkeit dafür, daß ein bestimmter Mitspieler alle vier Buben erhält?
b) Einer der Mitspieler möge bereits 2 Buben haben und hat sich entschlosssen, einen Grand zu spielen. Er darf die 2 Karten aus dem Topf aufnehmen. Wie groß ist die Wahrscheinlichkeit dafür, daß mindestens ein weiterer Bube im Topf liegt?

Aufgabe 2: Beweisen Sie die Formel

\begin{displaymath}
P(X_{1} \cdot X_{2} \cdot ..... \cdot X_{n}) = P(X_{1}) P(X_...
..... P(X_{n} \vert X_{1} \cdot X_{2} \cdot .....
\cdot X_{n-1}).
\end{displaymath}

Aufgabe 3: In einer Telefonzentrale erfolgen im Zeitintervall $t$ $n$ Anrufe mit einer Wahrscheinlichkeit

\begin{displaymath}
P_{t}(n) = \frac{(at)^{n}}{n!} e^{-at} ,
\end{displaymath}

wobei $a$ eine Konstante ist. Unter der Annahme, daß die Anzahl der Anrufe in zwei benachbarten Zeitintervallen unabhängige Ereignisse sind, bestimme man die Wahrscheinlichkeit dafür, daß in einem Zeitintervall $2t$ genau $m$ Anrufe erfolgen.

Aufgabe 4: Ein Würfelspiel bestehe aus dem gleichzeitigen Werfen dreier gleicher Würfel.
a) Wie gross ist die Wahrscheinlichkeit dafür, dass alle Würfel bei einem Wurf die gleiche Augenzahl zeigen ?
b) Wie gross ist die Wahrscheinlichkeit für das Würfeln einer ''Strasse'', d.h. dass auf den Würfeln aufeinanderfolgende Zahlen erscheinen, z.B 2 3 4 oder 1 2 3 u.a. ?

Aufgabe 5: Das Würfelspiel der vorherigen Aufgabe ist im folgenden Applet dahingehend erweitert worden, dass jeder Spieler bis zu dreimal würfeln darf. Sobald ein Würfel die Augenzahl 1 zeigt, darf dieser Würfel beiseite gelegt werden. Ziel des Spieles ist es, möglichst viele Einsen zu würfeln.
a) Wie gross ist die Wahrscheinlichkeit dafür, in den drei Würfelrunden eine Eins, zwei Einsen oder drei Einsen zu würfeln ?
b) Wie viele Würfelrunden müsste man in diesem Spiel durchführen, um mit 95$\%$ Wahrscheinlichkeit 3 Einsen zu erhalten ?




Harm Fesefeldt
2005-01-07