Book a Demo!
CoCalc Logo Icon
StoreFeaturesDocsShareSupportNewsAboutPoliciesSign UpSign In
Download

📚 The CoCalc Library - books, templates and other resources

132934 views
License: OTHER
1
%-----------------------------------------------------------------------------
2
\chapter{Einleitung}
3
%-----------------------------------------------------------------------------
4
Wir betrachten folgendes grundlegendes Modell: Kunden kommen zu
5
zufÀlligen Zeiten $T_{1} < T_{2} < \dots <T_{n} < \dots$ im System an,
6
wobei $T_{n}$
7
die \index{Ankunftszeit}Ankunftszeit des $n$-ten Kunden bezeichnet.
8
9
Ein oder mehrere Bediener arbeiten die Schlange ab und fĂŒr jeden Kunden
10
wird eine bestimmte \index{Bedienzeit}\enquote{Bedienzeit} benötigt. Es sei $x_{n}$ die Bedienzeit
11
des $n$-ten Kunden.
12
Die Reihenfolge der Bedienung der Kunden wird durch
13
die sogenannte \index{Disziplin}\enquote{Disziplin} der Warteschlange bestimmt.Wir nehmen meistens
14
FCFS (First Come First Serve) an. Andere Möglichkeiten wÀren LCFS (Last
15
Come First Serve) oder \enquote{PrioritÀten}.
16
17
Folgende Annahmen werden getroffen:
18
\begin{enumerate}
19
\item Die $x_{n}$ sollen unabhÀngig und identisch verteilt sein.
20
\item $t_{n}$ ist die $n$-te \index{Zwischenankunftszeit}Zwischenankunftszeit also $t_{n}= T_{n} -
21
T_{n-1}$, $T_{0}=0$ (Die Zeit zwischen der Ankunft des $n$-ten und des
22
$(n-1)$-ten Kunden). Die $t_{n}$ sind auch unabhÀngig und identisch
23
verteilt.
24
\end{enumerate}
25
Wir verwenden folgende \index{Warteschlangen!Kurznotation}Kurznotation fĂŒr
26
Warteschlangen: $A/B/s$.
27
28
$A \dots$ Verteilung der Zwischenankuftszeiten $t_{n}$, wobei $a$ die Dichte
29
von $t_{n}$ ist. \\
30
$B \dots$ Verteilung der Bedienzeiten $x_{n}$ wobei $b$ die Dichte von
31
$x_{n}$ ist. \\
32
$s \dots$ Anzahl der Bediener \index{Server}(Server).
33
34
\begin{minipage}{\textwidth}
35
Kurznotationen fĂŒr Verteilungen sind:\\
36
$M$ $\dots$ \index{Verteilung!Exponential-}Exponentialverteilung (\enquote{memoryless}). \\
37
\end{minipage}
38
Dichtefunktion:
39
\begin{displaymath}
40
f(x) = \lambda e^{-\lambda x} \qquad x\geq 0.
41
\end{displaymath}
42
$E_{n}$ $\dots$ \index{Verteilung!Erlang-}Erlangverteilung: Die Summe von $n$ unabhÀngigen
43
Exponentialverteilungen.\\
44
Dichtefunktion:
45
\begin{displaymath}
46
f(x)=\frac{\lambda^{n}x^{n-1}}{(n-1)!}e^{-\lambda x} \qquad x\geq 0.
47
\end{displaymath}
48
$H$ $\dots$ \index{Verteilung!Hyperexponentelle}Hyperexponentielle Verteilung: Die Mischung von unabhÀngigen
49
Exponentialverteilungen. Wir haben $p_{1} \dots p_{n}$, $p_{i} \geq 0$,
50
und
51
$\sum_{i=1}^{n} p_{i} = 1$, $\lambda_{1} \dots \lambda_{n} \geq 0$. \\
52
Dichtefunktion:
53
\begin{displaymath}
54
f(x)=\sum_{i=1}^{n} p_{i} \lambda_{i} e^{-\lambda_{i}x}.
55
\end{displaymath}
56
$D$ $\dots$ \index{Verteilung!Deterministische}Deterministisch: Ein fixer Wert wird angenommen. \\
57
$G$ $\dots$ \index{Verteilung!Allgemeine}\enquote{General}: Allgemeine Verteilung (alles, was nicht vorher erwÀhnt
58
wurde).
59
60
Die Sonderstellung der Exponentialverteilung ist begrĂŒndet durch ihre
61
GedÀchtnislosigkeit. Falls nÀmlich etwa eine Wartezeit
62
exponentialverteilt ist, und wir schon t Zeiteinheiten gewartet haben, so
63
ist die Verteilung der restlichen Wartezeit gegeben durch
64
\begin{eqnarray*}
65
\PP(\mbox{restliche Wartezeit} \geq x \mid \mbox{schon $t$
66
gewartet}) = \\
67
= \PP(T \geq t+x \mid T \geq t) = \frac{\PP(T \geq t+x)}{\PP(T\geq t)} ~.
68
\end{eqnarray*}
69
Angenommen $T$ sei exponentialverteilt $\Rightarrow$ $\PP(T \geq t) =
70
e^{-\lambda t}$ $\Rightarrow$
71
\begin{displaymath}
72
\frac{\PP(T \geq t+x)}{\PP(T \geq t)} = \frac{e^{-\lambda
73
(t+x)}}{e^{-\lambda
74
t}}= e^{-\lambda x},
75
\end{displaymath}
76
also unabhÀngig davon, wie lange wir schon vorher gewartet haben.
77
78
Es gibt abgeleitete GrĂ¶ĂŸen, die das Verhalten der Warteschlange
79
beschreiben wie:
80
\begin{enumerate}
81
\item $w_{n}$ $\dots$ \index{Wartezeit}Wartezeit des $n$-ten Kunden.
82
\item $z_{n} = w_{n} + x_{n} \dots$ Zeit, die der $n$-te Kunde im System
83
verbringt.
84
\item $N_{t}$ $\dots$ Anzahl der Kunden, die zum Zeitpunkt $t$ im System
85
sind ($=$ wartende + eventuell die, die gerade bedient werden).
86
\end{enumerate}
87
Es gibt einige Fragen, die uns interessieren:
88
\begin{enumerate}
89
\item Die Verteilungen von $w_{n}$, $z_{n}$, $N_{t}$.
90
\item Gibt es Grenzverteilungen fĂŒr $n \rightarrow \infty$ bzw. $t
91
\rightarrow \infty$ (d.h. pendelt sich das Verhalten der Schlange auf
92
einen stationÀren Zustand ein?) und Bestimmung der Grenzverteilungen.
93
\item Erwartungswerte der Grenzverteilungen in 2.
94
\item AbschĂ€tzungen fĂŒr 3.
95
\end{enumerate}
96
Die Aufgaben sind hier in abnehmender Schwierigkeit geordnet. Leider sind
97
die genauen Verteilungen 1. nicht leicht zu bestimmen, also beschrÀnken
98
wir uns meist auf 2. ; im ganz allgemeinen Fall wird es sogar notwendig
99
sein, nur AbschÀtzungen zu betrachten.
100
%-----------------------------------------------------------------------------
101
\chapter{Erste Resultate}
102
\section{Eine Rekursion fĂŒr die Wartezeit}
103
%----------------------------------------------------------------------------
104
Wir wollen nun die Wartezeit des $(n+1)$-ten Kunden durch die des $n$-ten
105
Kunden ausdrucken. Dazu ist
106
\begin{enumerate}
107
\item $T_{n} \ldots $ die Ankunftszeit des $n$-ten Kunden.
108
\item $T_{n} + w_{n} \ldots$ die Zeit, wenn der $n$-te Kunde bedient wird.
109
\item $T_{n} + w_{n} + x_{n} \ldots$ die Zeit wenn der $n$-te Kunde geht.
110
Ab jetzt kann der $(n+1)$-te bedient werden.
111
\item $T_{n+1} = T_{n} + t_{n+1} \ldots$ Ankuftszeit des $(n+1)$-ten
112
Kunden.
113
\end{enumerate}
114
Falls $T_{n+1} < T_{n} + w_{n} + x_{n}$,
115
dann ist $w_{n+1} = T_{n+1} + w_{n} + x_{n} - T_{n+1} = w_{n} + x_{n} -
116
t_{n+1}$. Falls $T_{n+1} \geq T_{n} + w_{n} + x_{n}$ ist $w_{n+1} = 0$.
117
Also
118
\begin{displaymath}
119
w_{n+1}= \max (w_{n}+x_{n}-t_{n+1}, 0) =: (w_{n} + x_{n} - t_{n+1})_{+} ~.
120
\end{displaymath}
121
Sei $u_{n} = x_{n} - t_{n+1}.$ Die $u_{i}$ sind unabhÀngig und
122
identisch verteilt.
123
\begin{eqnarray*}
124
\Rightarrow w_{n} &=& \max (w_{n-1}+ u_{n-1}, 0) = 0 \\
125
\Rightarrow w_{n} &=& \max (0, u_{n-1} + \max (w_{n-2} + u_{n-2}, 0)) = \\
126
&=& \max (0, u_{n-1}, u_{n-1} + u_{n-2} + w_{n-2}) = \dots\\
127
&=& \max (0, u_{n-1}, u_{n-1} + u_{n-2}, \cdots , u_{n-1} + u_{n-2} +
128
\cdots + u_{1}) ~.
129
\end{eqnarray*}
130
Also ist die Verteilung von $w_{n}$ dieselbe wie die von $\tilde w_{n}$ mit
131
\begin{displaymath}
132
\tilde w_{n} = \max (0, u_{1}, u_{1} + u_{2}, \cdots, u_{n-1}+ u_{n-2} +
133
\cdots + u_{1}) ~.
134
\end{displaymath}
135
Offensichtlich ist $\tilde w_{n}$ eine monoton nichtfallende Folge, also
136
existiert
137
\[ \tilde w = \lim_{n \rightarrow \infty} w_{n}. \]
138
Falls $\E u > 0$, dann geht $u_{1}+ \cdots + u_{n-1}$ $\rightarrow
139
\infty$, also auch $\tilde w$. Falls $\E u < 0$, dann geht $u_{1}+ \cdots
140
+ u_{n-1}$ $\rightarrow -\infty$, also ist fĂŒr $n>n_{0}$ $u_{1}+ \cdots +
141
u_{n-1} <0 $, was bedeutet daß nur die ersten Glieder in der Definition
142
von $\tilde w_{n}$ wichtig sind; also ist $\tilde w$ endlich. Falls $\E
143
u = 0$, ist können wir den einfachen Fall $D/D/1$ betrachten. In diesem
144
Fall ist $w_{n}=0$, also ist das Verhalten stationÀr. Leider ist das der
145
einzige Fall; sobald $A$ oder $B$ nicht degenerierte Verteilungen haben,
146
kann $\tilde w_{n}$ nicht gegen eine endliche Zufallsvariable
147
konvergieren, weil etwa nach dem zentralen Grenzwertsatz fĂŒr $n$ groß
148
genug
149
\begin{displaymath}
150
\PP(\tilde w_{n} > a \sqrt{n.{\bf Var}(u)}) \geq 1- \Phi(a)- \epsilon > 0 ~.
151
\end{displaymath}
152
Somit ist fĂŒr jedes $n$
153
\begin{displaymath}
154
\PP(\tilde w > a \sqrt{n.{\bf Var}(u)}) \geq 1- \Phi(a)- \epsilon ~,
155
\end{displaymath}
156
also
157
\begin{displaymath}
158
\PP(\tilde w = \infty) \geq 1- \Phi(a)- \epsilon ~.
159
\end{displaymath}
160
Es bleibt uns also fĂŒr stationĂ€res Verhalten (außer im Trivialfall \\
161
$D/D/1$) die Bedingung
162
\begin{displaymath}
163
\E (u) < 0 \Leftrightarrow \E (x) < \E (t) \Leftrightarrow \rho=
164
\frac{\E (x)}{\E (t)} < 1 ~.
165
\end{displaymath}
166
Wir bezeichnen den Kehrwert von $\E (t)$ als die \index{Ankunftsrate}\enquote{Ankunftsrate} $\lambda =
167
\frac{1}{\E (t)}$ und $\mu = \frac{1}{\E (x)}$ als die \index{Bedienrate}\enquote{Bedienrate}. Es
168
sind dies die Anzahl von Kunden, die in einem langen Zeitraum
169
durchschnittlich pro Zeiteinheit ankommen bzw. bedient werden, falls
170
ununterbrochen
171
bedient wird. Mit diesen Bezeichnungen ist $\rho = \frac{\lambda}{\mu}$ \index{Auslastung}(Auslastung)
172
und die Bedingung fĂŒr stationĂ€res Verhalten wird zu $ \lambda < \mu$ bzw.\
173
$\rho<1$.
174
%--------------------------------------------------------------------------
175
\section{Der Satz von Little}
176
%---------------------------------------------------------------------------
177
Wir nehmen jetzt an, daß in unserer Schlange stationĂ€res Verhalten
178
herrscht; wir wollen eine Beziehung zwischen der Ankuftsrate, der mittleren
179
Anzahl der Kunden im System und der mittleren Aufenthaltsdauer finden.
180
Dazu nehmen wir an, daß wir jeden Kunden fĂŒr die Zeit, die er im System
181
verbringt, bezahlen mĂŒssen. Die Summe, die insgesamt zu bezahlen ist,
182
berechnet sich als $T \E (N)$, da zu jedem Zeitpunkt durchschnittlich $\E
183
(N)$
184
Kunden anwesend sind. Andererseits bekommt jeder Kunde durchschnittlich
185
$\E (z)$ bezahlt. In der Zeit $T$ kommen $\lambda T$ Kunden an, also ist
186
die
187
zu bezahlende Summe auch gleich $\lambda T \E (z)$.
188
189
Beide Gleichungen sind nicht vollstÀndig exakt, weil in beiden FÀllen
190
noch zufÀllige Schwankungen dazukommen, und weil bei der zweiten
191
Gleichung auch nicht berĂŒcksichtigt wurde, daß einige Kunden noch nach
192
$T$ bleiben. Diese Fehler sind aber von kleineren Ordnung als $T$. Wir
193
haben also
194
\begin{displaymath}
195
T \E (N) = \lambda T \E (z) + o(T) ~.
196
\end{displaymath}
197
Dividieren wir durch $T$ und $T \rightarrow \infty$ gibt
198
\begin{displaymath}
199
\E (N) = \lambda \E (z) ~,
200
\end{displaymath}
201
d.h. Mittlere Anzahl = Ankuftsrate $*$ Mittlere Aufenthaltsdauer. Wendet
202
man dieses Ergebnis auf den Server allein an, ergibt sich, daß die
203
Mittlere Anzahl der Kunden, die gerade bedient werden =
204
\begin{displaymath}
205
\lambda \E (x) = \frac{\lambda}{\mu} = \rho ~.
206
\end{displaymath}
207
Da aber höchstens 1 Kunde bedient wird, ist das gleich der
208
Wahrscheinlichkeit, daß der Server besetzt ist, oder der Auslastung des
209
Servers.
210
%---------------------------------------------------------------------------
211
\chapter{Warteschlangensysteme}
212
\section{Die Schlange $M/M/1$}
213
%---------------------------------------------------------------------------
214
Im Folgenden gehen wir von der \enquote{FCFS}-Disziplin aus.
215
Um die zukĂŒnftige Entwicklung einer Warteschlange bestimmen zu können,
216
benötigen wir 3 Angaben zur Zeit $t$.
217
\begin{enumerate}
218
\item Die Anzahl $N_{t}$ der anwesenden Kunden.
219
\item Die Zeit, die seit der letzten Ankunft vergangen ist.
220
\item Die Zeit, die seit dem Beginn des letzten Bedienvorgangs vergangen
221
ist (falls dieser noch andauert).
222
\end{enumerate}
223
Die letzten beiden Angaben sind notwendig, damit wir die Verteilung der
224
verbleibenden Zeit bis zur nÀchsten Ankunft bzw. bis zum Ende des
225
Bedienvorganges bestimmen können. FĂŒr den Fall $M/M/1$ sind diese
226
Angaben nicht notwendig, weil diese Verteilungen wegen der
227
GedÀchtnislosigkeit der Exponentialverteilung nicht von der schon
228
verstrichenen Zeit abhĂ€ngen. Deshalb genĂŒgt uns $N_{t}$ zur Beschreibung
229
des Systems.
230
231
Wir betrachten jetzt die Anzahl der Kunden zur Zeit $t+ \Delta t$, wenn
232
die Anzahl zur Zeit t bekannt ist. Die Anzahl kann sich in folgender Weise
233
Ă€ndern:
234
\begin{enumerate}
235
\item Es kann gar nichts geschehen.
236
\item Es kann genau ein Kunde aufkommen.
237
\item Es kann genau ein Kunde fertig werden.
238
\item Es kann mehr als ein Ereignis (Ankunft, gehen) auftreten.
239
\end{enumerate}
240
Die Wahrscheinlichkeit, daß mindestens ein Kunde im Intervall $(t, t+ \Delta t)$
241
ankommt, ist $1-e^{-\lambda \Delta t} = \lambda \Delta t + o (\Delta t)$.
242
Ebenso ist die Wahrscheinlichkeit, daß ein Kunde fertig wird $\mu \Delta
243
t + o(\Delta t)$. Die Wahrscheinlichkeit fĂŒr 4. ist, wie man leicht
244
einsieht, $o(\Delta t)$. Das gibt fĂŒr 1. die Wahrscheinlichkeit $1 -
245
(\lambda + \mu) \Delta t + o(\Delta t)$. Falls die Schlange leer ist,
246
fallen natĂŒrlich die Summanden mit $\mu$ weg (es kann ja niemand gehen).
247
Somit gilt fĂŒr
248
\begin{eqnarray*}
249
p_{n}(t) &=& \PP (N_{t} = n) \\
250
p_{n}(t+ \Delta t) &=& \mu \Delta t . p_{n+1}(t) + (1 - (\lambda +
251
\mu) \Delta t) p_{n}(t) + \\
252
& &+ \lambda \Delta t p_{n-1}(t) + o(\Delta t)
253
\qquad [n \geq 1] \\
254
p_{0}(t + \Delta t) &=& \mu \Delta t . p_{1}(t) + (1 - \lambda \Delta t)
255
p_{0}(t) + o(\Delta t) ~.
256
\end{eqnarray*}
257
Wenn man $p_{n}(t)$ auf die linke Seite bringt und durch $\Delta t$
258
dividiert und $\Delta t \rightarrow 0$ lĂ€ĂŸt, ergibt sich
259
\begin{eqnarray*}
260
p'_{n}(t) &=& \mu p_{n+1}(t)-(\lambda + \mu) p_{n}(t)+ \lambda p_{n-1}(t)
261
\\
262
p'_{0}(t) &=& \mu p_{1}(t)- \lambda p_{0}(t) ~.
263
\end{eqnarray*}
264
Diese Gleichungen lassen sich etwa mit Hilfe von Transformationen lösen,
265
aber das Ergebnis ist nicht besonders schön. Wir beschrÀnken uns daher
266
jetzt und in der Folge auf die Bestimmung der stationÀren Lösung. Diese
267
ist natĂŒrlich dadurch gekennzeichnet, daß $p_{n}(t)$ nicht von der Zeit
268
$t$ abhÀngt, also $p'_{n}(t)=0$. Das ergibt die Gleichungen
269
\begin{eqnarray*}
270
\mu p_{n+1}-(\lambda +\mu) p_{n} + \lambda p_{n-1} &=& 0 \\
271
\mu p_{1} - \lambda p_{0} &=& 0 ~.
272
\end{eqnarray*}
273
Durch Induktion erhalten wir daraus
274
\begin{displaymath}
275
\mu p_{n+1} - \lambda p_{n} = 0 ~,
276
\end{displaymath}
277
oder
278
\begin{displaymath}
279
p_{n+1} = \frac{\lambda}{\mu} p_{n} = \rho p_{n} ~.
280
\end{displaymath}
281
Also ist
282
\begin{displaymath}
283
p_{n} = \rho^{n}p_{0}
284
\end{displaymath}
285
und wegen $\sum_{n=0}^{\infty} p_{n} = 1$
286
\begin{displaymath}
287
p_{0} = 1- \rho
288
\end{displaymath}
289
und
290
\begin{displaymath}
291
p_{n} = \rho^{n} (1- \rho) ~.
292
\end{displaymath}
293
Die Anzahl der Kunden im System ist also geometrisch verteilt. Aus dieser
294
Verteilung können wir jetzt die Verteilungen von $w$ und $z$ bestimmen.
295
Die Zeit im System $z$, falls bei der Ankunft $n$ Personen anwesend sind,
296
ist die Summe von $(n+1)$ exponentialverteilten Zufallsvariablen (die
297
Bedienzeiten der $n$ anwesenden + die der neu hinzugekommenen), hat also
298
die Dichte
299
\begin{displaymath}
300
f_{z}(u|N_{t}=n) = \frac{u^{n}}{n!} \mu^{n+1} e^{- \mu u} \qquad [u>0] ~.
301
\end{displaymath}
302
Die unbedingte Dichte ergibt sich also zu
303
\begin{eqnarray*}
304
f_{z}(u) &=& \sum_{n}^{} \PP(N_{t}=n).f_{z}(u|N_{t}=n) = \\
305
&=& \sum_{n}^{} (1- \rho) \rho^{n}. \frac{u^{n}}{n!} \mu^{n+1} e^{- \mu
306
u} = \\
307
&=& (1- \rho) e^{- \mu(1- \rho)u} \qquad [u>0] ~.
308
\end{eqnarray*}
309
$z$ ist also exponentialverteilt mit Parameter
310
\begin{displaymath}
311
\mu (1- \rho) = \mu - \lambda ~.
312
\end{displaymath}
313
Die Verteilung von $w$ ist gemischt: $\PP (w=0) = 1- \rho$, und die
314
bedingte Verteilung von $w$ unter der Bedingung $[w>0]$ ist wieder eine
315
Exponentialverteilung mit Parameter $\mu - \lambda$.
316
%----------------------------------------------------------------------------
317
\section{Das System $M/G/1$}
318
%------------------------------------------------------------------------------
319
Jetzt benötigen wir zusĂ€tzlich zu $N_{t}$ die Information ĂŒber die
320
schon verbrauchte Bedienzeit. Die einfachste Methode besteht darin, das
321
System nur in solchen Zeitpunkten zu betrachten, an denen die verbrauchte
322
Bedienzeit bekannt ist (und zwar = 0), nÀmlich die Zeitpunkte $T_{n}$, in
323
denen der n-te Kunde das System verlĂ€ĂŸt. Es sei $N_{n}$ die Anzahl der
324
Kunden, die dann im System verbleiben. Es gilt: Falls $N_{n}=0$, so muß
325
zuerst gewartet werden, bis ein neuer Kunde ankommt; wenn dieser Kunde
326
geht, sind noch genau die Kunden da, die wÀhrend seiner Bedienzeit
327
angekommen sind; bezeichnet man $M_{n}$ als die Anzahl der Kunden, die
328
wÀhrend der Bedienzeit des $n$-ten Kunden ankommen, so gilt
329
\begin{displaymath}
330
N_{n+1} = M_{n} ~.
331
\end{displaymath}
332
Falls $N_{n} \not= 0$ ist
333
\begin{displaymath}
334
N_{n+1} = N_{n} - 1 + M_{n} ~.
335
\end{displaymath}
336
Zusammengefaßt ergibt sich:
337
\begin{displaymath}
338
N_{n+1} = (N_{n} - 1)_{+} + M_{n} ~.
339
\end{displaymath}
340
Wir suchen eine stationÀre Lösung; es sei also $\PP (N_{n}=k)=p_{k}$
341
unabhÀngig von $n$. Die erzeugende Funktion von $N_{n}$ ist
342
\begin{displaymath}
343
P^{*}(z) = \sum_{}^{}p_{k}z^{k} ~.
344
\end{displaymath}
345
Die erzeugende Funktion von $(N_{n}-1)_{+}=$
346
\begin{eqnarray*}
347
= p_{0} + \sum_{k=1}^{\infty} p_{k} z^{k-1} &=& p_{0}+ \frac{\hat P
348
(z) - p_{0}}{z} = \\
349
&=& \frac{\hat P(z) - p_{0}(1-z)}{z} ~.
350
\end{eqnarray*}
351
Mithilfe der Transformationen (Anhang A) ergibt sich die erzeugende Funktion von $M_{n}$
352
(die AnkĂŒnfte bilden ja einen Poisson - Prozeß) als
353
\begin{displaymath}
354
\tilde B (\lambda(1 - z)) ~,
355
\end{displaymath}
356
wobei $B$ die Verteilung der Bedienzeit (mit Dichte $\beta$) ist. Wir
357
erhalten also
358
\begin{displaymath}
359
P^{*}(z) = \frac{(P^{*}(z) - p_{0}(1-z))}{z} \tilde B (\lambda(1-z)) ~,
360
\end{displaymath}
361
also
362
\begin{displaymath}
363
P^{*}(z) = \frac{p_{0}(1-z) \tilde B ( \lambda (1-z))}{ \tilde B (
364
\lambda(1-z)) - z} ~.
365
\end{displaymath}
366
Hier ist noch $p_{0}$ zu bestimmen, und zwar aus der Bedingung $P^{*}(1) =
367
1$. Es ergibt sich $p_{0} = 1 - \rho$ und
368
\begin{displaymath}
369
P^{*}(z) = \frac{(1- \rho)(1-z) \tilde B ( \lambda (1-z))}{ \tilde B (
370
\lambda(1-z)) - z} ~,
371
\end{displaymath}
372
eine sogenannte \index{Pollaczek - Khinchin Formel}Pollaczek - Khinchin Formel. Die Anzahl der Kunden, die der $n$-te
373
Kunde zurĂŒcklĂ€ĂŸt, ist genau die Anzahl der Kunden, die ankommen
374
wĂ€hrend er im System ist (d.h. wĂ€hrend $z_{n}$), d.h. fĂŒr die
375
$L$-Transformierte $ \tilde Z (t)$ der Verteilung von $z$ gilt:
376
\begin{displaymath}
377
\tilde Z (\lambda(1-z)) = P^{*}(z) ~,
378
\end{displaymath}
379
also
380
\begin{displaymath}
381
\tilde Z (t) = \frac{(1- \rho)t \tilde B (t)}{t + \lambda \tilde B (t) -
382
\lambda} ~.
383
\end{displaymath}
384
Auch das nennt man eine Pollaczek - Khinchin Formel. FĂŒr die Wartezeit
385
gilt
386
(wegen $z_{n} = w_{n} + x_{n}$)
387
\begin{displaymath}
388
\tilde Z (t) = \tilde W (t) \tilde B(t) ~,
389
\end{displaymath}
390
also
391
\begin{displaymath}
392
\tilde W (t) = \frac{(1- \rho)t}{t + \lambda \tilde B (t) - \lambda} ~.
393
\end{displaymath}
394
FĂŒr die Erwartungswerte ergibt sich:
395
\begin{eqnarray*}
396
\E (N) &=& \rho + \frac{\lambda^{2} \E x^{2}}{2(1- \rho)} \\
397
\E (Z) &=& \frac{1}{\mu} + \frac{\lambda \E x^{2}}{2(1 - \rho)} \\
398
\E (W) &=& \frac{\lambda \E x^{2}}{2(1 - \rho)} ~.
399
\end{eqnarray*}
400
%------------------------------------------------------------------------------
401
\section{Das System $G/M/1$}
402
%------------------------------------------------------------------------------
403
Jetzt betrachten wir analog zum vorigen Kapitel das System zu den Zeiten
404
$T_{n}$, wo der $n$-te Kunde ankommt. $N_{n}$ sei die Anzahl der
405
anwesenden Kunden, die der $n$-te Kunde vorfindet.
406
\begin{displaymath}
407
N_{n+1} = N_{n}+1-\mbox{Anzahl der Kunden, die wÀhrend $t_{n+1}$ gehen.}
408
\end{displaymath}
409
FĂŒr $n>0$ gilt, wenn wir $p_{k}= \PP (N_{n}=k)$ (stationĂ€r!) setzen:
410
\begin{displaymath}
411
p_{k} = \sum_{j=k-1}^{\infty} p_{j} q_{j+1-k} \qquad [k \geq 1] ~,
412
\end{displaymath}
413
wobei
414
\begin{displaymath}
415
q_{s} = \PP (\mbox{ $s$ Kunden gehen wÀhrend
416
$t_{n+1}$)} =
417
\end{displaymath}
418
\begin{eqnarray*}
419
= \PP (\mbox{wÀhrend $t_{n+1}$ treten genau $s$ Ereignisse eines Poissons
420
-} \\
421
\mbox{Prozesses mit Rate $\mu$ auf)} ~. & &
422
\end{eqnarray*}
423
Die Gleichung fĂŒr $k=0$ ist ĂŒberflĂŒssig, da sie aus den Gleichungen
424
fĂŒr $k>0$ und der Beziehung $\sum_{}^{} p_{k}=1$ gefolgert werden kann.
425
Man kann zeigen, daß diese Gleichung eine eindeutige Lösung besitzt.
426
Falls nun $(p_{k})$ eine Lösung ist, ist auch
427
\begin{displaymath}
428
\tilde p_{k} = \frac{p_{k+1}}{1-p_{0}}
429
\end{displaymath}
430
eine Lösung. Es muß also
431
\begin{displaymath}
432
\tilde p_{k} = p_{k} ~,
433
\end{displaymath}
434
somit
435
\begin{displaymath}
436
p_{k+1} = p_{k}(1-p_{0})
437
\end{displaymath}
438
und
439
\begin{displaymath}
440
p_{k} = p_{0}(1-p_{0})^{k} =
441
\sigma^{k}(1- \sigma) \qquad [ \sigma := 1 - p_{0}] ~.
442
\end{displaymath}
443
Setzt man das in die Gleichung fĂŒr $k=1$ ein, ergibt sich
444
\begin{displaymath}
445
\sigma = \sum_{j=0}^{\infty} \sigma^{j} q_{j} = \tilde A (\mu(1-\sigma))
446
~.
447
\end{displaymath}
448
Falls $\rho < 1$, gibt es genau eine Lösung $\sigma \in (0,1)$. Dann ist
449
$N$ geometrisch verteilt mit Parameter $\sigma$. Wie fĂŒr die Schlange
450
$M/M/1$ ergibt sich die Verteilung der Zeit $z$ im System als
451
Exponentialverteilt mit Parameter $\mu(1- \sigma)$; die Wartezeit $w$ hat
452
$\PP (w=0)= 1 - \sigma$ und die bedingte Verteilung von $w$ unter $[w>0]$
453
ist wieder dieselbe Exponentialverteilung wie die von $z$.
454
%---------------------------------------------------------------------------
455
\section{Das System $G/G/1$}
456
%---------------------------------------------------------------------------
457
Hier sind beide Verteilungen - die der Zwischenankunftszeiten und die der
458
Bedienzeiten - allgemeine Verteilungen. Der Trick der vorigen beiden
459
Kapitel funktioniert jetzt nicht mehr gut. Um beide Zeiten zu
460
kontrollieren, mĂŒĂŸten wir das System nun zu den Zeitpunkten betrachten,
461
in denen ein Kunde das leere System betritt; diese Zeitpunkte sind aber zu
462
selten, um vernĂŒftig damit zu arbeiten. Statt dessen gehen wir von der
463
Rekursion fĂŒr die Wartezeiten aus:
464
\begin{displaymath}
465
w_{n+1} = (w_{n} + u_{n})_{+} ~.
466
\end{displaymath}
467
Das bedeutet fĂŒr die Verteilungsfunktion $W(.)$ von $w$
468
\begin{displaymath}
469
W(x) = \PP (w_{n+1} \leq x) = \left\{
470
\begin{array}{lc}
471
\PP (w_{n} + u_{n} \leq x) & x \geq 0 \\
472
0 & x < 0
473
\end{array} \right. ~.
474
\end{displaymath}
475
Die Wahrscheinlichkeit $\PP (w_{n}+ u_{n} \leq x)$ berechnet sich als
476
\begin{displaymath}
477
\PP (w_{n} + u_{n} \leq x) = \int_{- \infty}^{\infty} W(x-u) c(u) du ~,
478
\end{displaymath}
479
wobei $c(u)$ die Dichte von $u_{n} = x_{n} - t_{n+1}$ ist. Falls in der
480
Gleichung fĂŒr $W(x)$ die Fallunterscheidung nicht auftreten wĂŒrde, wĂ€re
481
sie leicht durch Transformationen zu lösen. Wir erreichen dies durch
482
einen Kunstgriff: Wir setzen
483
\begin{displaymath}
484
Y(x) = \left\{
485
\begin{array}{lc}
486
\int_{- \infty}^{\infty} W(x-u)c(u) du & x< 0 \\
487
0 & x \geq 0
488
\end{array} \right. ~.
489
\end{displaymath}
490
Dann ist
491
\begin{displaymath}
492
W(x) + Y(x) = \int_{-\infty}^{\infty} W(x-u) c(u) du ~.
493
\end{displaymath}
494
Wir bezeichnen jetzt die Laplace - Transformierte von $W$ mit $\Phi (t)$,
495
und die von $Y$ mit $\Phi^{-}(t)$. Durch partielle Integration zeigt man,
496
daß
497
\begin{displaymath}
498
\Phi (t) = \frac{1}{t} \tilde W(t)
499
\end{displaymath}
500
gilt. FĂŒr die Transformationen ergeben sich die Formeln
501
\begin{displaymath}
502
\Phi (t) + \Phi^{-}(t) = \Phi (t) \tilde C (t) = \Phi (t) \tilde A (-t)
503
\tilde B (t) ~,
504
\end{displaymath}
505
oder
506
\begin{displaymath}
507
\frac{\Phi^{-}(t)}{\Phi (t)} = \tilde A (-t) \tilde B (t) -1 ~.
508
\end{displaymath}
509
Wir nehmen an, daß $\tilde A(t)$ fĂŒr $t \geq -D$ existiert. (Das ist
510
gleichbedeutend damit, daß $\PP (t_{n} \geq x)$ wie $e^{-Dx}$ fĂ€llt).
511
Dann existiert $\tilde A (-t) \tilde B (t) - 1$ fĂŒr $0 \leq t \leq D$;
512
Ferner existiert $\Phi (t)$ fĂŒr $t >0$ und $t \Phi (t)$ ist in $\Re (t)
513
\geq 0$ regulĂ€r und beschrĂ€nkt; $\Phi^{-}(t)$ existiert fĂŒr $t \leq D$
514
und in $\Re (t) < D$ ist $t\Phi^{-}(t)$ regulÀr und beschrÀnkt. Wir
515
versuchen 2 Funktionen $\Psi^{+}$ und $\Psi^{-}$ zu finden, die folgendes
516
erfĂŒllen:
517
\begin{enumerate}
518
\item $\frac{\Psi^{+}(t)}{\Psi^{-}(t)} = \tilde A(-t) \tilde B(t) -1$ ~ ~\index{Spektralzerlegung}(Spektralzerlegung).
519
\item $\frac{\Psi^{+}(t)}{t}$ ist fĂŒr $\Re(t)>0$ regulĂ€r und beschrĂ€nkt
520
und hat dort keine Nullstellen.
521
\item $\frac{\Psi^{-}(t)}{t}$ ist fĂŒr $\Re (t) < D$ regulĂ€r und
522
beschrÀnkt und hat dort keine Nullstellen.
523
\end{enumerate}
524
Dann gilt
525
\begin{displaymath}
526
\frac{\Phi^{-}(t)}{\Phi (t)} = \frac{\Psi^{+}(t)}{\Psi^{-}(t)} \qquad
527
0< \Re (t) < D ~,
528
\end{displaymath}
529
oder
530
\begin{displaymath}
531
\Phi^{-}(t) \Psi^{-}(t) = \Psi^{+}(t) \Phi (t) \qquad 0< \Re (t) < D ~.
532
\end{displaymath}
533
Die linke Seite ist fĂŒr $\Re (t) < D$ regulĂ€r und beschrĂ€nkt, die
534
rechte Seite fĂŒr $\Re (t) > 0$. Es ist dadurch also eine Funktion
535
bestimmt, die in der ganzen Ebene regulÀr und beschrÀnkt ist. Nach dem
536
Satz von \index{Satz!LIOUVILLE}LIOUVILLE muß eine solche Funktion konstant sein. Es gilt also
537
\begin{displaymath}
538
\Phi (t) = \frac{K}{\Psi^{+}(t)} ~,
539
\end{displaymath}
540
und
541
\begin{displaymath}
542
\tilde W (t) = \frac{Kt}{\Psi^{+}(t)} ~.
543
\end{displaymath}
544
Es bleibt die Konstante $K$ zu bestimmen. Sie folgt wieder aus
545
\begin{displaymath}
546
\tilde W (0) = 1 \qquad \mbox{zu} \qquad
547
K = \frac{\Phi^{+}(t)}{t} \Bigg \bracevert_{t=0} = (\Phi^{+})^{'}(0) ~.
548
\end{displaymath}
549
{\bf Beispiel: $M/M/1$}
550
\begin{displaymath}
551
A = M_{\lambda}: \quad \tilde A(t) = \frac{\lambda}{\lambda + t}, \quad
552
B = M_{\mu}: \quad \tilde B(t) =\frac{\mu}{\mu +t}
553
\end{displaymath}
554
\begin{eqnarray*}
555
\frac{\Psi^{+}(t)}{\Psi^{-}(t)} &=& \tilde A(-t) \tilde B(t)-1 =
556
\frac{\lambda \mu}{(\lambda - t)(\mu + t)} - 1 = \\
557
&=& \frac{t(\mu - \lambda + t)}{(\lambda - t)(\mu + t)}. \\
558
\Psi^{+}(t) &=& \frac{t(\mu -\lambda + t)}{(t + \mu} \\
559
\Psi^{-}(t) &=& (\lambda - t) \\
560
\Phi (z) &=& \frac{\Psi^{+'}(0)}{\Psi^{+}(z)} =
561
\frac{(\mu - \lambda)(\mu +t)}{\mu t(\mu - \lambda + t)} =
562
\frac{1}{t} - \frac{\lambda}{\mu(\mu - \lambda + t)} \\
563
\Psi^{+'}(0) &=& \frac{\Psi^{+}(t)}{t} \Bigg \bracevert_{t=0} =\frac{\mu -
564
\lambda}{\mu} \\
565
F(x) &=& 1 - \rho e^{-(\mu - \lambda)x} \quad \mbox{fĂŒr} \quad x \geq 0
566
\end{eqnarray*}
567
also die Verteilung der Wartezeit aus dem ersten Kapitel.
568
569