Zufällige Prozesse
Definition des zufälligen Prozesses
Das Beispiel der Vielfachstreuung im vorherigen Abschnitt führt uns direkt zum Begriff des zufälligen Prozesses. Wir gehen daher jetzt einen Schritt weiter und diskutieren zufällige Prozesse. Ein zufälliger Prozeß wird vollkommen analog zur Definition der zufälligen Veränderlichen eingeführt. Gegeben sei ein Ereignisraum mit endlich vielen oder abzählbar unendlich vielen Elementarereignissen $E_{\nu}$. Wir ordnen jedem Elementarereignis $E_{\nu}$ eine Funktion $x^{(\nu)}(t)$ zu. Diese Zuordnung kann, ähnlich wie bei der Abbildung der Ereignisse auf eine zufällige Veränderliche, durch die Zuordnung
\begin{displaymath}
x^{(\nu)}(t) = \psi(E_{\nu},t)
\end{displaymath} (1)

beschrieben werden. Man schreibt auch hier symbolisch:
\begin{displaymath}
x(t) = \psi(E,t).
\end{displaymath} (2)

Man muß also klar unterscheiden: Eine zufällige Veränderliche wurde definiert durch eine Abbildung des Ereignisraumes auf eine Teilmenge der reellen Zahlen, ein zufälliger Prozeß wird definiert durch eine Abbildung des Ereignisraumes auf eine Menge von Funktionen.

Einfache Beispiele von zufälligen Prozessen sind:

\begin{displaymath}
x(t) = u_{0} sin(\omega t - \phi) ,
\end{displaymath} (3)

wobei $u_{0}$ eine zufällige Veränderliche ist. Ein solchen Prozess können wir im ersten Applet studieren. Öffnen Sie hierzu das Auswahlmenu Process und wählen Sie Process1. Weiterhin öffnen Sie das Fenster View. Es erscheint ein Bildschirm, auf dem ein Strom mit zufälligen Werten für $u_{0}$, $\omega$ und $\phi$ gezeigt wird. In dem Auswahlfenster Plot haben Sie die Möglichkeit, zu 4 verschieden Zeiten Time1, Time2, Time3 und Time4 sich die Verteilung des Stromes anzeigen zu lassen. Diese Zeiten sind auf dem Bildschirm als rote Linien dargestellt. Man erhält ersichtlich zu allen Zeiten die gleiche Verteilung. Auf die Verteilungen mit den Bezeichnungen Correlation 1 und CorrelationFunction werden wir noch am Ende dieses Abschnittes zurückkommen.

Allgemeiner kann ein Prozess auch durch

\begin{displaymath}
x(t) = \sum_{\nu=1}^{n} u_{\nu} f_{\nu}(t) ,
\end{displaymath} (4)

dargestellt werden, wobei die $u_{\nu}$ die Komponenten eines zufälligen Vektors $\vec{u} = (u_{1}, u_{2}, ....,u_{n})$ sind und die $f_{\nu}$ irgendwelche $n$ Funktionen sind.

In den beiden vorhergehenden Beispielen konnten wir den zufälligen Prozeß $x(t)$ als gegeben ansehen, wenn die Dichtefunktion der zufälligen Veränderlichen $u_{0}$ in (3) bzw die Dichtefunktion des zufälligen Vektors $\vec{u}$ in (4) bekannt sind. Zufällige Prozesse sind aber im allgemeinen nicht so einfach darstellbar wie in den beiden obigen Beispielen. Wir verallgemeinern daher und sagen:
Ein zufälliger Prozeß $x(t)$ ist als gegeben anzusehen, wenn für beliebige Zeiten $t$ die Dichtefunktionen $p_{t}(x)$ der zufälligen Veränderlichen $x$ bekannt sind. Hierbei können die $p_{t}(x)$ für verschiedene Zeiten $t$ durchaus verschiedene Dichtefunktionen sein.

Um es nochmal mit anderen Worten zu sagen: Bei einem Versuch können endlich viele oder abzählbar unendlich viele Funktionen $x(t)$ als Ergebnis des Versuches auftreten. Handelt es sich hierbei um zufällige Ereignisse, so nennen wir $x(t)$ einen zufälligen Prozeß. Wir führen jetzt einen Zeitschnitt ein und betrachten $x(t)$ zu einer festen Zeit $t_{1}$. $x(t_{1})$ ist dann eine zufällige Veränderliche mit der Dichtefunktion $p_{t_{1}}(x)$. Wir betrachten den zufälligen Prozeß als gegeben, wenn die Dichtefunktionen $p_{t_{1}}(x)$ für beliebige Zeiten $t_{1}$ bekannt sind.

Die weitere Untersuchung von zufälligen Prozessen basiert damit weitgehend auf der Untersuchung der zufälligen Veränderlichen $x(t_{1})$ mit der Dichtefunktion $p_{t_{1}}(x)$ für beliebige, aber feste Zeiten $t_{1}$.

Beispiele Zwei einfache Beispiele sollen das Gesagte verdeutlichen. Bei der im vorherigen Abschnitt behandelten Vielfachstreuung beim Durchgang von Teilchen durch Materie können wir die Strecke $Z$ auch durch die Zeit $t$ ersetzen, bei konstanter Geschwindigkeit $v$ ist dann $Z = v t$ und die Dichtefunktion zur Zeit $t$ lässt sich schreiben als:

\begin{displaymath}
p_{t}(\Theta, X) = \frac{\sqrt{3}}{\pi c v t}
e^{-2(\Theta^{2}/c -3 \Theta X/c v t + 3 X^{2}/c v^{2} t^{2})}
\end{displaymath} (5)

Im folgenden Applet zeigen wir noch einmal die Dichtefunktionen bei verschiedenen Strecken $Z_{1}$ und $Z_{2}$ bzw Zeiten $t_{1}$ und $t_{2}$. Öffnen Sie hierzu zunächst im rechten Auswahlfenster die Wahl x1-x2. Im Hauptfenster sehen Sie dann die Korrelation der Abweichungen der Teilchenbahn von der geradliniegen Bahn bei den Zeiten $t_{1}$ und $t_{2}$. Zusätzlich werden zwei Fenster geöffnet, in denen die Verteilung der Abweichungen selbst gezeigt wird. Beide sind normal verteilt, die Verteilung bei $t_{1}$ ist offensichtlich schmaler als die Verteilung bei $t_{2}$.

Ein weiteres Beispiel ist der Rauschstrom an einem Widerstand. Bei konstanter Spannung ist der Strom bekanntlich durch $I = U/R$ gegeben. Durch Instabilität des Netzes und durch Temperaturschwankungen erhält man allerdings einen statistisch schwankenden Strom,

\begin{displaymath}
I(t) = I_{0} + i(t),
\end{displaymath} (6)

wobei wir den Rauschprozess durch die Dichtefunktion
\begin{displaymath}
p_{t}(i) = \frac{1}{\sqrt{2 \pi} \sigma} e^{-i^{2}/2\sigma^{2}}
\end{displaymath} (7)

darstellen können. Insgesamt erhält man in diesem Fall als Dichtefunktion des Stromes $I$:
\begin{displaymath}
p_{t}(I) = \frac{1}{\sqrt{2\pi} \sigma} e^{-(i-I_{0})^{2}/2\sigma^{2}}.
\end{displaymath} (8)

In unserem schon bekannten Applet starten Sie jetzt den Prozess Process 2. Die Dichtefunktion ist normal verteilt und hängt nicht von der Zeit ab. Legen wir statt der Gleichspannung allerdings eine Wechselpannung an, so wird die Dichtefunktion sehr wohl von der Zeit abhängen. Die Berechnung solcher Prozesse müssen wir auf ein späteres Kapitel verschieben, da uns noch die mathematischen Grundlagen fehlen.

Führen wir jetzt in Verallgemeinerung des eben gesagten $n$ Zeitschnitte $t_{1}, t_{2}, ..., t_{n}$ ein und betrachten die $n$ zufälligen Veränderlichen $x(t_{1}), x(t_{2}), ..., x(t_{n})$, so bilden diese einen zufälligen Vektor $\vec{x} = (x(t_{1}), x(t_{2}), ..., x(t_{n}))$. Wir benutzen die folgenden symbolischen Schreibweisen,

\begin{displaymath}
x_{\nu} \equiv x_{\nu}(t_{\nu}) \equiv x(t_{\nu}) , \; \; \; \nu=1,2,...,n,
\end{displaymath}

und schreiben die Dichtefunktion des zufälligen Vektors $\vec{x}$ als

\begin{displaymath}
p_{t_{1}, t_{2}, ..., t_{n}}(x_{1}, x_{2}, ..., x_{n}).
\end{displaymath}

Wir können dann sagen:
Ein zufälliger Prozeß $x(t)$ ist als gegeben anzusehen, wenn die Verteilungsfunktionen $p_{t_{1}, t_{2}, ..., t_{n}}(x_{1}, x_{2}, ..., x_{n})$ für beliebige Zeiten $t_{1}, t_{2}, ..., t_{n}$ und für beliebige natürliche Zahlen $n$ bekannt sind.

Momente
Im Sinne der vorherigen Ausführungen definieren wir als gewöhnliches Moment der Ordnung $j=\sum_{\nu=1}^{n} j_{\nu}$ den Mittelwert

$\displaystyle <x_{1}^{j_{1}} x_{2}^{j_{2}} \cdot \cdot \cdot x_{n}^{j_{n}} >$ $\textstyle \equiv$ $\displaystyle <x^{j_{1}}(t_{1}) x^{j_{2}}(t_{2}) \cdot \cdot \cdot x^{j_{n}}(t_{n}) >$ (9)
  $\textstyle =$ $\displaystyle \int_{-\infty}^{\infty} dx_{1} dx_{2} \cdot \cdot \cdot dx_{n}
x_...
...cdot \cdot x_{n}^{j_{n}}
p_{t_{1}, t_{2}, ..., t_{n}}(x_{1}, x_{2}, ..., x_{n})$  

und als zentrales Moment den Mittelwert
$\displaystyle <(x_{1}$ $\textstyle -$ $\displaystyle <x_{1}>)^{j_{1}} \cdot \cdot \cdot (x_{n}-<x_{n}>)^{j_{n}}>$  
  $\textstyle \equiv$ $\displaystyle <(x(t_{1})-<x(t_{1})>)^{j_{1}} \cdot \cdot \cdot (x(t_{n})-<x(t_{n})>)^{j_{n}}>$ (10)
  $\textstyle =$ $\displaystyle \int_{-\infty}^{\infty} dx_{1} dx_{2} \cdot \cdot \cdot dx_{n}
(x...
... (x_{n}-<x_{n}>)^{j_{n}}
p_{t_{1}, t_{2}, ..., t_{n}}(x_{1},x_{2}, ..., x_{n}).$  

Die Definitionen für Varianzen, Kovarianzen sowie alle Rechenregeln für die allgemeinen Momente sind vollkommen identisch zu denen des vorgerigen Kapitels über zufällige Veränderliche und brauchen daher nicht wiederholt zu werden.

Stationäre zufällige Prozesse
In der Praxis hat man es im allgemeinen nur mit einer sehr eingeschränkten Klasse von Prozessen zu tun. Wir definieren:
Ein zufälliger Prozeß heißt stationär, wenn für beliebige Zeiten $t_{1}, t_{2}, ..., t_{n}$ und für ein beliebiges Zeitintervall $\Delta t$ gilt:

\begin{displaymath}
p_{t_{1}+\Delta t, t_{2}+\Delta t, ..., t_{n}+\Delta t}(x_{1...
...{n}) = p_{t_{1}, t_{2}, ..., t_{n}}(x_{1}, x_{2}, ..., x_{n}).
\end{displaymath} (11)

Man kann also, ohne die Dichtefunktion zu ändern, einen $n$- dimensionalen Schnitt durch einen stationären zufälligen Prozeß zeitlich beliebig verschieben, wenn dabei nur die einzelnen zeitlichen Abstände erhalten bleiben. Wichtig ist in (11) also, daß das Zeitintervall $\Delta t$ für alle $t_{\nu}, \nu=1,2,...,n$ dasselbe ist. Als Gegenbeispiel sei unser Applet über Vielfachstreung genannt. Die zweite Variable ist hier der Ablenkwinkel $\Theta$. Die gemeinsamen Dichtefunktion hängt wird in beiden Variablen breiter, wenn man in der Zeit von $t$ nach $t+\Delta t$ geht. Unser Rauschstrom dagegen ist stationär.

Der stationäre Prozeß ist ein Sonderfall des periodischen Prozesses, zu dessen Definition man gelangt, wenn der Verschiebungsparameter $\Delta t$ durch $mT$ ersetzt wird. $T$ ist die Periodendauer des Prozesses und $m$ eine natürliche Zahl.
Ein zufälliger Prozeß heißt periodisch mit der Periodendauer $T$, wenn für eine beliebige natürliche Zahl $m$ gilt:

\begin{displaymath}
p_{t_{1}+mT, t_{2}+mT, ..., t_{n}+mT}(x_{1}, x_{2}, ..., x_{n}) =
p_{t_{1}, t_{2}, ..., t_{n}}(x_{1}, x_{2}, ..., x_{n}).
\end{displaymath} (12)

Ein Sonderfall der stationären Prozesse sind die normalen Prozesse. Wir definieren:
Ein zufälliger Prozeß $x(t)$ heißt normal, wenn für beliebige Zeiten $t_{1}, t_{2}, ..., t_{n}$ gilt:
\begin{displaymath}
p_{t_{1}, t_{2}, ..., t_{n}}(x_{1}, x_{2}, ..., x_{n}) =
\f...
...mu=1}^{n}
A_{\nu \mu} (x_{\nu}-<x_{\nu}>)(x_{\mu}-<x_{\mu}>)}.
\end{displaymath} (13)

Wir hatten die $n$- dimensionale Normalverteilung im vorherigen Unterkapitel bereits kurz diskutiert. Die Matrix $A$ ist hierbei die inverse Matrix der Kovarianzmatrix,

\begin{displaymath}
(A^{-1})_{\nu\mu} = Cov(x_{\nu},x_{\mu}) = <(x_{\nu}-<x_{\nu}>)
(x_{\mu}-<x_{\mu}>)>.
\end{displaymath}

Korrelationsfunktion
Bei einem Schnitt durch einen stationären Prozeß $x(t)$ an der Stelle $t_{1}$ erhalten wir eine eindimensionale Veränderliche $x(t_{1}) \equiv x_{1}(t_{1}) \equiv x_{1}$, für deren Dichtefunktion nach (11) gilt:

\begin{displaymath}
p_{t_{1}}(x_{1}) = p_{t_{1}+\Delta t}(x_{1}).
\end{displaymath} (14)

Wählen wir speziell $\Delta t = - t_{1}$, so folgt
\begin{displaymath}
p_{t_{1}}(x_{1}) = p_{0}(x_{1}).
\end{displaymath} (15)

Daher: Bei einem stationären Prozeß sind alle eindimensionalen Dichtefunktionen $p_{t_{1}}(x_{1})$ unabhängig von der speziellen Wahl von $t_{1}$. Für die zweidimensionale Dichtefunktion gilt entsprechend
\begin{displaymath}
p_{t_{1},t_{2}}(x_{1},x_{2}) = p_{t_{1}+\Delta t, t_{2}+\Delta t}(x_{1},x_{2}).
\end{displaymath} (16)

Setzen wir wieder $\Delta t = - t_{1}$, so gilt
\begin{displaymath}
p_{t_{1},t_{2}}(x_{1},x_{2}) = p_{0, t_{2}-t_{1}}(x_{1},x_{2}).
\end{displaymath} (17)

Daher: Bei einem stationären Prozeß sind alle zweidimensionalen Dichtefunktionen $p_{t_{1},t_{2}}(x_{1},x_{2})$ nur von der Zeitdifferenz $t_{2}-t_{1}$ abhängig. Wir lassen im folgenden den Nullindex weg und schreiben daher
\begin{displaymath}
p_{t_{1},t_{2}}(x_{1},x_{2}) = p_{t_{2}-t_{1}}(x_{1},x_{2}).
\end{displaymath} (18)

Wir betrachten jetzt das normale Moment zweiter Ordnung

\begin{displaymath}
<x(t_{1}) x(t_{2})> \equiv <x_{1}(t_{1}) x_{2}(t_{2})>
= \i...
...nfty} dx_{1} dx_{2} x_{1} x_{2}
p_{t_{2}-t_{1}}(x_{1},x_{2}).
\end{displaymath} (19)

Da die Dichtefunktion nur von $t_{2}-t_{1}$ abhängt, können wir setzen
\begin{displaymath}
<x(t_{1}) x(t_{2})> = s(t_{2}-t_{1}).
\end{displaymath} (20)

Man nennt $s(t_{2}-t_{1})$ die Korrelationsfunktion des zufälligen Prozesses $x(t)$. Man beachte, daß $s(t_{2}-t_{1})$ nicht mit der exakten Definition eines Korrelationskoeffizienten übereinstimmt. Besser wäre die Bezeichnung ,,Momentenfunktion zweiter Ordnung''. In der technischen Literature hat sich aber der Ausdruck ,,Korrelationsfunktion'' fest eingebürgert.

Für die Korrelationsfunktion ergeben sich folgende vier Grundeigenschaften:

$\displaystyle s(0)$ $\textstyle =$ $\displaystyle <x^{2}(t_{1})> \; \; > 0 ,$ (21)
$\displaystyle s(t_{2}-t_{1})$ $\textstyle =$ $\displaystyle s(t_{1}-t_{2}) = s(\Delta t) = s(-\Delta t) ,$ (22)
$\displaystyle \vert s(\Delta t)\vert$ $\textstyle \leq$ $\displaystyle s(0) ,$ (23)
$\displaystyle \sum_{\nu,\mu=1}^{n} s(t_{\nu}-t_{\mu}) a_{\nu} a_{\mu}$ $\textstyle \geq$ $\displaystyle 0.$ (24)

Die Beweise überlassen wir dem Leser. Aus diesen 4 Eigenschaften läßt sich der grundsätzliche Verlauf der Korrelationsfunktion, wie in Abb.1 gezeigt, herleiten. Dieses Bild haben wir als Screenshot aus unserem Applet gewonnen, wobei wir den Prozess Process 1 und den Plot CorrelationFunction ausgewählt haben. Die schwarz dargestellten Bereiche stellen hierbei negative Werte dar.

Abbildung 1: Grundsätzlicher Verlauf der Korrelationsfunktion. Die schwarz dargestellten Werte sind negative Zahlen.

Integral zufälliger Prozesse
Das Integral über einen zufälligen Prozeß $x(t)$,

\begin{displaymath}
y(t) = \int_{0}^{t} d\tau f(\tau) x(\tau)
\end{displaymath} (25)

ergibt einen anderen zufälligen Prozeß $y(t)$. Die zwei wichtigsten Regeln sind:
1. In (25) darf die Mittelwertbildung unter dem Integral ausgeführt werden:
\begin{displaymath}
<y(t)> = \int_{0}^{t} d\tau f(\tau) <x(\tau)> .
\end{displaymath} (26)

2. Ist $x(t)$ ein normaler Prozeß, so ist auch $y(t)$ ein normaler Prozeß.
Der Beweis der zweiten Behauptung erfordert die Einführung der erzeugenden Funktionen und muß daher auf ein späteres Kapitel verschoben werden.

Aufgaben

Aufgabe 1: Gegeben sei ein stationärer normaler Prozeß $x(t)$ mit verschwindendem Mittelwert und der Korrelationsfunktion

\begin{displaymath}
s(\Delta t) = A^{2} e^{-\alpha \vert\Delta t\vert} (cos(\bet...
...lta t)
- \frac{\alpha}{\beta} sin(\beta \vert\Delta t\vert)).
\end{displaymath}

Wie groß ist die Wahrscheinlichkeit dafür, daß $x(t)$ einen Wert annimmt, der größer als $a$ ist?
Als Zahlenwerte nehmen Sie: $A=1$, $a=0.5$, $\alpha=10^{4} s^{-1}$, $\beta=10^{5} s^{-1}$.

Aufgabe 2: Ein experimenteller Versuch gibt zu Beginn eines konstanten Zeitintervalls $T$ einen Puls mit konstanter Amplitude $E$ ab. Die Pulslänge $\delta$ sei mit der Dichtefunktion

\begin{displaymath}
p(\delta) = \frac{2}{T} (T-\delta), \; \; \; 0 \leq \delta \leq T,
\end{displaymath}

verteilt. Wie groß ist die Wahrscheinlichkeit dafür, daß sowohl bei $t=t_{1}(0 \leq t_{1} \leq T)$ als auch bei $t=t_{1}+2T$ der Amplitudenwert $E$ beobachtet wird? Die Richtigkeit Ihrer Lösung können Sie im Applet prüfen, wenn Sie den Prozess Process 3 und den Plot Correlation 1 auswählen. Gezeigt wird dann die gesuchte Funktion

\begin{displaymath}
P[X(t_{1})=E, X(t_{1}+2T)=E] = (1 - t_{1}/T)^{4}.
\end{displaymath}





Harm Fesefeldt
2005-03-16