Book a Demo!
CoCalc Logo Icon
StoreFeaturesDocsShareSupportNewsAboutPoliciesSign UpSign In
Download

📚 The CoCalc Library - books, templates and other resources

132934 views
License: OTHER
1
2
%-----------------------------------------------------------------------------------------------------------------
3
\chapter{Abschätzungen und Näherungen}
4
%-----------------------------------------------------------------------------------------------------------------
5
\section{Abschätzungen}
6
%------------------------------------------------------------------------------------------------------------------
7
Die Ergebnisse des vorigen Abschnittes sind deswegen etwas unbefriedigend, weil die angestrebte Zerlegung nur in
8
Spezialfällen möglich ist. Im allgemeinen Fall müssen wir uns darauf beschränken, Abschätzungen und
9
näherungsweise Lösungen zu finden.
10
11
Wir gehen wieder von unserer Rekursionsgleichung aus:
12
\[w_{n+1} = (w_{n}+u_{n})_{+} \]
13
Wir führen eine neue Zufallsvariable $y_{n}$ ein, die den entsprechenden Negativteil darstellt:
14
\[y_{n} = (w_{n}+u_{n})_{-} ~ ~ ~ ~ ~ ((x)_{-} := (-x)_{+}) ~. \]
15
Damit erhalten wir
16
\[ w_{n+1}-y_{n} = w_{n}+u_{n} ~.\]
17
Das gibt für die Erwartungswerte:
18
\[\E(w_{n+1})-\E(y_{n}) = \E(w_{n})+\E(u_{n}) ~.\]
19
Für $n$ $\rightarrow$ $\infty$ ergibt sich
20
\[-\E(y) = \E(u) = \E(x) - \E(t) \qquad \mbox{oder} \qquad \E(y) = \E(t) - \E(x) ~.\]
21
Leider haben wir keine Beziehung für die Wartezeit (Anmerkung: in den letzten Gleichungen steht nur eine Beziehung für die Verteilungen).
22
23
Als nächstes quadrieren wir die Ausgangsgleichung
24
\[ w_{n+1}^{2}+y_{n}^{2}-2w_{n+1}y_{n}=w_{n}^{2}+2w_{n}u_{n}+u_{n}^{2} ~.\]
25
Wegen \( (x)_{+}(x)_{-} = 0 \) ist \( w_{n+1}y_{n} = 0 ~,\) also
26
\[w_{n+1}^2 + y_{n}^2 = w_{n}^2+2w_{n}u_{n}+u_{n}^2 ~.\]
27
Wenn wir wieder die Erwartungswerte berchnen und \(n \rightarrow \infty \) gehen lassen, so ergibt sich
28
\begin{eqnarray*}
29
\E(w^{2})+\E(y^{2})&=&\E(w^{2})+2\E(wu)+\E(u^{2}) = \\
30
&=&\E(w^{2})+2\E(w)\E(u)+\E(u^{2}) \\
31
\end{eqnarray*}
32
($w_{n}$ und $u_{n}$ sind ja unabhängig).
33
34
Schließlich haben wir
35
\[\E(w) = \frac{\E(u^{2})-\E(y^{2})}{-2\E(u)} \qquad [\E(u) \mbox{ ist ja negativ}] ~.\]
36
Wir erhalten eine obere Abschätzung, wenn wir $\E(y^{2})$ nach unten abschätzen. Dazu verhilft uns die Ungleichung
37
\[\E(y^{2}) \geq (\E(y))^{2} = (\E(u))^{2} \qquad \mbox{also }\]
38
\[\E(w^{2}) \leq \frac{{\bf Var}(u)}{-2\E(u)} = \frac{{\bf Var}(x)+{\bf Var}(t)}{-2\E(u)} ~.\]
39
Für eine obere Abschätzung für $\E(y^{2})$ beachten wir, daß
40
\[y=(w+u)_{-} \leq (u)_{-} \quad \mbox{da} \quad w \geq 0 ~.\]
41
Wegen$ \quad u^{2} = ((u)_{+}-(u)_{-})^{2} = ((u)_{+})^{2}+((u)_{-})^{2} \quad $erhalten wir
42
\[\E(w) \geq \frac{(\E((u)_{+}))^{2}}{-2\E(u)} ~.\]
43
Ein weiterer Weg, eine untere Abschätzung zu finden ist folgender:
44
\[\E(w_{n+1}) = \E(w_{n}+u_{n})_{+} = \E[\E((w_{n}+u_{n})_{+}\vert w_{n})] ~.\]
45
Wenn wir für die Verteilungsfunktion von $u_{n}$
46
\[C(y)=\PP(u_{n} \leq y) \]
47
setzen, erhalten wir
48
\[\E((w_{n}+u_{n})_{+} \vert w_{n} = y) = \int_{-y}^{\infty}(u+z)dC(z) = \int_{-y}^{\infty}(1-C(z))dz =: g(y) ~.\]
49
Also
50
\[\E(w_{n+1}) = \E(g(w_{n}))\]
51
$g$ ist konvex ($g'$ ist monoton), also können wir die JENSEN'sche Ungleichung anwenden:
52
\[\E(g(w_{n})) \geq g(\E(w_{n}))~.\]
53
Für $n \rightarrow \infty$ ergibt sich
54
\[\E(w) \geq g(\E(w)) ~.\]
55
Wir betrachten die Gleichung
56
\[g(y) = y ~.\]
57
Die Funktion $y-g(y)$ hat die Ableitung $G(-y) \geq 0$, ist also monoton.\\
58
Weiters ist $g(0) = \E((u_{n})_{+}) > 0 \mbox{ falls } W(u_{n} > 0) > 0$ ist (andernfalls ist $w = 0$).\\
59
Für $n \rightarrow \infty$ ist $g(y) \rightarrow \E(u) < 0$, es gibt also eine eindeutig bestimmte Lösung $y_{0}$, für die $g(y_{0}) = y_{o}$, und
60
\[\E(w) \geq g(y_{o}) ~.\]
61
62
%------------------------------------
63
\section{Näherungen}
64
%------------------------------------
65
\bigskip
66
Ähnlich wie die Abschätzungen des vorigen Kapitels sollen uns die Näherungen dieses Abschnittes dazu dienen, ungefähre Aussagen über das qualitative
67
Verhalten einer Warteschlange zu treffen. Eine Möglichkeit besteht darin, die auftretenden Verteilungen durch solche zu ersetzen, für die wir exakte Ergebnisse
68
kennen. Dazu können wir etwa folgende Klassen von Verteilungen verwenden:
69
\begin{enumerate}
70
71
\item {\bf Verteilungen mit rationaler Laplacetransformation}
72
73
Man kann jede Verteilung durch Verteilungen mit rationalen Laplacetransformationen annähern. Für diese Verteilungen kann \\
74
man die Spektralzerlegung für $G/G/1$ \enquote{leicht} durchführen: \\
75
man findet die Nullstellen von Zähler und Nenner und ordnet sie, je nachdem in welcher Halbebene sie liegen, entweder
76
der Funktion $\Psi^{+}$ oder $\Psi^{-}$zu.
77
78
\item {\bf Diskrete Verteilungen}
79
80
Ähnlich wie unter $1.$ kann man jede Verteilung durch eine diskrete Verteilung annähern. Das folgende Beispiel zeigt, wie die diskreten Verteilungen behandelt
81
werden können:\\
82
Es sei
83
\begin{eqnarray*}
84
\PP(t_{n}=1)=a, \quad \PP(t_{n}=2)=1-a \\
85
\PP(x_{n}=1)=b, \quad \PP(x_{n}=2)=1-b
86
\end{eqnarray*}
87
[$b>a$].
88
89
Für $u_{n}=x_{n}-t_{n+1}$ ergibt sich:
90
\begin{eqnarray*}
91
\PP(u_{n}=-1)&=&b(1-a) \\
92
\PP(u_{n}=1)&=&a(1-b) \\
93
\PP(u_{n}=0)&=&ab+(1-a)(1-b) ~.
94
\end{eqnarray*}
95
Für die stationäre Verteilung der Wartezeit $w$ ergibt sich die Rekursion
96
\begin{eqnarray*}
97
p_{k}&=&a(1-b)p_{k-1}+(ab+(1-a)(1-b))p_{k}+b(1-a)p_{k+1} \\
98
p_{0}&=&(a(1-b)+ab-(1-a)(1-b))p_{0}+b(1-a)p_{1} ~.
99
\end{eqnarray*}
100
Wir erhalten
101
\begin{eqnarray*}
102
p_{k}&=&p_{0}\left( \frac{a(1-b)}{b(1-a)}\right)^{k} \\
103
p_{0}&=&1-\frac{a(1-b)}{b(1-a)}=\frac{b-a}{b(1-a)} ~.\\
104
\end{eqnarray*}
105
Falls wir mehr als zwei mögliche Werte für $x$ bzw. $t$ haben, müssen wir eine Rekursion höherer Ordnung lösen; dazu sind bekanntlich die Nullstellen des
106
charakteristischen Polynoms zu bestimmen. Auch hier, ebenso wie im im vorigen Abschnitt, reduziert sich also das Problem auf die Lösung einer algebraischen
107
Gleichung. Diese Lösung ist für hohe Polynomgrade nur numerisch möglich. Dies und die Tatsache, daß man nicht genau weiß, wie eine \enquote{gute} Näherung zu
108
wählen
109
ist, reduziert die Brauchbarkeit dieser beiden Näherungen.
110
111
\item {\bf Approximation für starke Auslastung (\enquote{Heavy traffic approximation})}
112
113
Wir betrachten den Fall $\rho \approx 1$. \\
114
Ausgangspunkt unserer Betrachtungen ist die Spektralzerlegung der $G/G/1$:
115
\[\frac{\Psi^{+}(s)}{\Psi^{-}(s)}=\tilde A (-s)\tilde B (s)-1 ~.\]
116
Für $s \rightarrow 0$ erhalten wir daraus die Entwicklung
117
\begin{eqnarray*}
118
\frac{\Psi^{+}(s)}{\Psi^{-}(s)}&=&(\E(t)-\E(x))s+\frac{s^{2}}{2}\E((x-t)^{2})+o(s^{2})= \\
119
&=&(1-\rho)s\E(t)+\frac{s^{2}}{2}\E((x-t)^{2})+o(s^{2})= \\
120
&=&(1-\rho)s\E(t)+\frac{s^{2}}{2}({\bf Var}(x)+{\bf Var}(t)+ \\
121
&+&(1-\rho)^{2}(\E(t))^{2}) + o(s^{2}) ~.
122
\end{eqnarray*}
123
Für $\rho \approx 1$ ist $(1-\rho)^{2}(\E(t))^{2}$ zu vernachlässigen, also
124
\begin{eqnarray*}
125
\frac{\Psi^{+}(s)}{\Psi^{-}(s)}&\approx&(1-\rho)s\E(t)+\frac{s^{2}}{2}({\bf Var}(x)+{\bf Var}(t))+o(s^{2}) \approx \\
126
&\approx&s(s-s_{0}) \frac{{\bf Var}(x)+{\bf Var}(t)}{2} ~.
127
\end{eqnarray*}
128
129
$\Psi^{+}(s)$ ist in der Nähe von $0$ stetig, also haben wir
130
\[\Psi^{+}(s) \approx Cs(s-s_{o})\]
131
mit
132
\[s_{0}=-\frac{2(1-\rho)\E(t)}{{\bf Var}(x)+{\bf Var}(t)} \]
133
und
134
\[C=\Psi^{-}(0)\frac{{\bf Var}(x)+{\bf Var}(t)}{2} ~. \]
135
Wir erhalten daraus
136
\[\Phi(s) \approx -\frac{s_{0}}{s(s-s_{0})}=\frac{1}{s}-\frac{1}{s-s_{0}} ~.\]
137
Also ergibt sich für die Verteilungsfunktion der Wartezeit
138
\[ F(y) \approx 1 - e^{-y\frac{2\E(t)(1-\rho)}{{\bf Var}(x)+{\bf Var}(t)}} ~.\]
139
Die Wartezeit ist also näherungsweise exponentialverteilt mit Mittel
140
\[\E(w)=\frac{{\bf Var}(x)+{\bf Var}(t)}{2\E(t)(1-\rho)} ~.\]
141
Dieses Ergebnis kann man als \index{Satz!Zentraler Grenzwertsatz für Warteschlangen}\enquote{zentralen Grenzwertsatz} für Warteschlangen betrachten.
142
143
Das Mittel dieser Exponentialverteilung haben wir bereits als obere
144
Abschätzung für die mittlere Wartezeit erhalten.
145
146
\item{\bf Die Flussapproximation}
147
148
Diese Näherung geht von einer einfachen Idee aus:\\
149
Wir ersetzen die Ankünfte und Bedienvorgänge durch konstante Ströme von $\lambda$ bzw. $\mu$ Kunden
150
pro Zeiteinheit. In unserem Standardmodell $(\lambda < \mu)$ ergibt sich aus dieser Näherung natürlich, daß die
151
Schlange stets leer ist, was offensichtlich nicht sehr brauchbar ist.
152
153
Für zwei Fälle gibt diese Approximation aber doch interessante Resultate:
154
\begin{enumerate}
155
\item Falls $\mu < \lambda$ ist, wächst die Anzahl der Kunden im System um $(\lambda - \mu)$ Kunden pro Zeiteinheit.
156
\item Falls $\lambda < \mu$ ist, und falls die Anzahl der Kunden groß ist, kann man die Zeit, bis das System wieder leer ist, mit Hilfe dieser
157
Näherung berechnen.
158
\end{enumerate}
159
160
\item{\bf Die Diffusionsnäherung}
161
162
Dies ist wie die vorige Näherung eine Approximation durch einen kontinuierlichen Prozeß. Diesmal wird auch die Varianz betrachtet.
163
164
Es sei $N_{a}(u)$ die Anzahl der Kunden, die bis zur Zeit $t$ ankommen.\\
165
Es gilt die Beziehung
166
\[ N_{a}(u) \geq n \Leftrightarrow T_{n} \geq u \]
167
$T_{n}$ ist, wie üblich, die Ankunftszeit des $n$-ten Kunden.
168
169
Aus dem Gesetz der großen Zahlen folgt:
170
\[ T_{n} \approx n\E(t) ~.\]
171
Das impliziert
172
\[N_{a}(u) \approx \lambda u ~. \]
173
Der zentrale Grenzwertsatz gibt uns
174
\[\PP(T_{n} \leq n\E(t)+z\sqrt{n{\bf Var}(t)}) = \Phi (z) ~. \]
175
Daraus ergibt sich für großes n
176
\begin{eqnarray*}
177
& &\PP(N_{a}\geq\lambda u + y\sqrt{u}) = \\
178
& & ~ ~=\PP(T_{\lambda u + y\sqrt{u}} \leq u) = \\
179
& & ~ ~=\PP(T_{\lambda u + y\sqrt{u}} \leq \E(t)(\lambda u + y\sqrt{u}) - y\E(t)\sqrt{u} ) = \\
180
& & ~ ~=\PP(T_{\lambda u + y\sqrt{u}} \leq \E(t)(\lambda u + y\sqrt{u}) - \\
181
& & ~ ~ ~ ~ ~- y\sqrt{(\E(t))^{3}(\lambda u + y\sqrt{u})})=\\
182
& &~ ~=\PP(T_{\lambda u + y\sqrt{u}} \leq \E(t)(\lambda u + y\sqrt{u}) - \\
183
& & ~ ~ ~ ~ ~-\frac{y}{\sqrt{\lambda ^{3}{\bf Var}(t)}}\sqrt{{\bf Var}(t)(\lambda u + y\sqrt{u})}) \\
184
& &~ ~=1 - \Phi(\frac{y}{\sqrt{\lambda ^{3}{\bf Var}(t)}}) ~.
185
\end{eqnarray*}
186
$N_{a}(u)$ ist also näherungsweise normalverteilt mit Mittel $u\lambda$ und Varianz $u\lambda^{3}{\bf Var}(t)$. Genauso erhält man für die Anzahl $N_{b}(u)$
187
der
188
Kunden, die während der Zeit $u$ bedient werden (wenn die Schlange nicht leer ist) eine näherungsweise Normalverteilung mit Mittel $\mu u$ und Varianz
189
$\mu^{3}u{\bf Var}(x)$. Wir nehmen jetzt an, daß diese Werte durch kontinuierliche Beiträge zustande kommen, d.h. die \enquote{Anzahl} der Ankünfte (bzw.
190
Bedienvorgänge)
191
in der kurzen Zeit $\Delta u$ soll normalverteilt mit Mittel $\lambda\Delta u$ (bzw. $\mu\Delta u$) und Varianz $\lambda^{3}\Delta u{\bf Var}(t)$ (bzw.
192
$\mu^{3}\Delta
193
u{\bf Var}(x)$) sein. Die Anzahl der Ankünfte bzw. Bedienvorgänge über disjunkten Intervallen sollen natürlich unabhängig sein. Die Änderung der Anzahl der
194
Kunden
195
im System während der Zeit $\Delta u$ ist dann normalverteilt mit Mittel $\Delta u(\lambda - \mu)$ und Varianz $\Delta u\sigma^{2}$ mit $\sigma^{2} =
196
\lambda^{3}{\bf Var}(t) + \mu^{3}{\bf Var}(x)$.\\
197
(Die letzte Beziehung gilt natürlich nur, wenn die Anzahl der Kunden im System $> 0$ ist).
198
199
Es sei nun
200
\[F(x,u) = \PP(N(u) \leq x) ~.\]
201
Wir stellen eine Gleichung für $F(x,u+\Delta u)$ auf, dabei sei $X(\Delta u)$ die Änderung der Kunden während $\Delta u$:
202
\begin{eqnarray*}
203
F(x,u+\Delta u)&=&\PP(N(u+\Delta u) \leq x) = \\
204
&=&\PP(N(u)+X(\Delta u) \leq x) = \\
205
&=&\PP(N(u) \leq x - X(\Delta u)) = \\
206
&=&\E(F(x-X(\Delta u),u)) = \\
207
&=&\E(F(x,u)-F_{x}(x,u)X(\Delta u) + \\
208
& &+ \frac{1}{2}F_{xx}(x,u)X(\Delta u)^{2} + o(\Delta u)) = \\
209
&=&F(x,u)-F_{x}(x,u)\E(X(\Delta u)) + \\
210
& &+\frac{1}{2}F_{xx}(x,u)(\E(X(\Delta u)^{2})) + o(\Delta u) = \\
211
&=&F(x,u)-F_{x}(x,u)\Delta u(\lambda-\mu) + \\
212
& &+\frac{1}{2}F_{xx}(x,u)\sigma^{2}\Delta u + o(\Delta u) ~.
213
\end{eqnarray*}
214
Wenn man $F(x,u)$ nach links bringt, durch $\Delta u$ dividiert, und $\Delta u \rightarrow 0$ gehen läßt, ergibt sich
215
\begin{eqnarray*}
216
F_{u}(x,u)&=&(\mu - \lambda)F_{x}(x,u) + \frac{1}{2}\sigma^{2}F_{xx}(x,u) \qquad (x \geq 0) \\
217
& & \\
218
F(x,0)&=&1 \qquad (x \geq 0) \\
219
F(x,0)&=&0 \qquad (x < 0) \\
220
F(0,u)&=&0 \qquad (u > 0) ~.
221
\end{eqnarray*}
222
Die Anfangsbedingung ergibt sich aus der Forderung, daß das System zur Zeit $0$ leer sein soll, und die Randbedingung daraus, daß die Anzahl der Kunden nicht
223
negativ sein darf.
224
225
Man kann sehr leicht die Lösung der Gleichung ohne Randbedingung finden, indem man die Laplace-Transformation anwendet:
226
\[G(z,u)=\int_{-\infty}^{\infty} e^{-xz}F(x,u)\diff x ~.\]
227
Wir erhalten nach einigen partiellen Integrationen:
228
\[G_{u}(z,u) = (\mu-\lambda)zG(z,u)+\frac{1}{2}\lambda^{2}z^{2}G(z,u) ~, \]
229
also
230
\[ G(z,u) = G(z,0)e^{\frac{1}{2}\sigma^{2}z^{2}+(\mu - \lambda)z} \]
231
und, da $G(z,0)=\frac{1}{z}$
232
\[G(z,u) = \frac{1}{z}e^{\frac{1}{2}\sigma^{2}uz^{2}+(\mu - \lambda)zu} ~.\]
233
Die Inversion der Laplace-Transformation liefert
234
\[F(x,u)=\Phi\left(\frac{x+(\mu - \lambda)u}{\sqrt{\sigma^{2}u}}\right) ~. \]
235
Um die Gleichung mit der Randbedingung zu lösen, suchen wir zuerst die stationäre Verteilung. Diese ergibt sich aus der obigen Gleichung, wenn $F(x,u)$ nicht
236
von $u$ abhängt. Dann ist natürlich die Ableitung nach $u = 0$, und wir erhalten:
237
\[ F'_{0}(x)(\mu - \lambda)+\frac{1}{2}\sigma^{2}F''(x)=0 ~. \]
238
Diese Gleichung hat die allgemeine Lösung
239
\[F(x) = C_{1}+C_{2}e^{\frac{2(\lambda - \mu)}{\sigma^{2}}x} ~. \]
240
Da $F(0) = 0$ und $F(\infty) = 1$ sein soll, erhalten wir
241
\[F(x) = 1-e^{\frac{2(\lambda - \mu)}{\sigma^{2}}x} ~. \]
242
Es ergibt sich also wieder eine Exponentialverteilung für die Wartezeit. Für $\rho \rightarrow 1$ stimmt diese Verteilung in erster Näherung mit der aus
243
Abschnitt $3.$ überein. Mit etwas mehr Arbeit kann man die folgende Lösung der partiellen Differentialgleichung erhalten:
244
\[F(x,u)=\Phi\left(\frac{x+u(\mu - \lambda)}{\sqrt{\sigma^{2}u}}\right)-e^{\frac{2(\mu - \lambda)}{\sigma^{2}}x}\Phi\left(\frac{-x+u(\mu -
245
\lambda)}{\sigma^{2}}\right) ~.\]
246
\end {enumerate}
247
%------------------------------------------------------------------------------------
248
\chapter{Time-Sharing}
249
%------------------------------------------------------------------------------------
250
Wir wollen jetzt unsere Kenntnisse auf eine Analyse von Fragen anwenden, die bei Time-sharing Anwendungen auftreten. \\
251
Wir betrachten den einfachsten Fall, daß nur eine CPU vorhanden ist, die \enquote{gleichzeitig} mehrere Programme bearbeiten muß.
252
Dazu wird jeweils eines der wartenden Programme ausgewählt, in den Hauptspeicher geladen, eine kurze Zeit (die sog. \index{Zeitscheibe}\enquote{Zeitscheibe}) gerechnet,
253
aus dem
254
Hauptspeicher entfernt, und das Spiel mit dem nächsten Programm fortgesetzt. Jedes Programm braucht eine bestimmte \index{Rechenzeit}Rechenzeit $x$, und sobald
255
diese Zeit (in
256
Form von einzelnen Zeitscheiben) abgearbeitet ist, verläßt das Programm das System. Da wir keine a-priori Information über die Rechenzeit eines Programmes
257
voraussetzen, können wir die Jobs nur aufgrund der schon verbrauchten Rechenzeit klassifizieren, und die Auswahl des nächsten Programms nach dieser verbrauchten
258
Rechenzeit treffen. Dabei können wir verschiedene Ziele verfolgen:
259
260
\begin{enumerate}
261
\item kurze Programme sollen möglichst schnell erledigt werden. Dadurch wird die Anzahl der Programme im System klein gehalten, was den Verwaltungsaufwand
262
reduziert; außerdem ist es psychologisch ungünstig, wenn ein Kunde auf ein 2-Sekunden-Programm eine Stunde warten muß.
263
\item eine möglichst \enquote{gerechte} Verteilung wäre eine, bei der die Zeit, die ein Job im System verbringt, proportional zur Rechenzeit ist; nur dann ist es nicht
264
möglich, durch Aufteilen eines langen Programmes in mehrere kürzere bzw. durch Zusammenfassen mehrere kürzere Programme einen Zeitgewinn zu erzielen.
265
\end{enumerate}
266
267
Wir machen folgende Annahmen:
268
\begin{enumerate}
269
\item Die Ankünfte erfolgen nach einem Poissonprozeß mit Rate $\lambda$, die Rechenzeiten sind unabhängig mit Verteilungsfunktion $B$ (wir haben also eine
270
$M/G/1$-Situation) mit Dichte $b$.
271
\item Die Zeitscheibe nehmen wir als infinitesimal an; weiters nehmen wir an, daß wir die Zeit zum Austauschen vernachlässigen können.
272
\item Wir betrachten nur die stationären Verteilungen.
273
\end{enumerate}
274
$N(u)$ sei die mittlere Anzahl von Jobs, deren verbrauchte Rechenzeit $\leq u$ ist. Dazu möge eine Dichte $n(u)$ existieren, sodaß
275
\[N(u)=\int_{0}^{u}n(s)ds \]
276
ist.
277
278
$T(u)$ sei die Zeit, die im Durchschnitt vergeht, bis ein Job $u$ Sekunden Rechenzeit bekommt. \\
279
$W(u)$ sei die Wartezeit eines Jobs mit $u$ Sekunden Rechenzeit, also
280
\[W(u) = T(u) - u ~. \]
281
Wir betrachten die Jobs, die schon zwischen $u$ und $u+\Delta u$ Sekunden gerechnet haben, als eine eigene Warteschlange. Hier kommen alle Jobs durch, deren
282
Rechenzeit $\geq u$ ist. Die Ankunftsrate in dieser Schlange ist also $\lambda(1-B(u))$.\\
283
Die mittlere Aufenthaltsdauer ist $T(u+\Delta u) - T(u)$, und die mittlere Anzahl von Jobs in dieser Schlange ist $\approx n(u)\Delta u$. \\
284
Mithilfe des Satzes von Little ergibt sich die Beziehung
285
\[n(u)=\lambda (1-B(u))\frac{\diff T(u)}{\diff u} ~. \]
286
Wir betrachten die folgende Strategien:
287
\begin{enumerate}
288
\item {\bf FCFS} (\enquote{Batch})
289
\item {\bf LCFS} (prä-emptiv): ein Job, der das System betritt, wird sofort bearbeitet (ein eventuell laufender Job wird dazu unterbrochen); wenn ein Job fertig
290
ist, wird der zuletzt unterbrochene weiterbearbeitet.
291
\item {\bf \index{Round Robin}Round Robin (RR)}: alle Jobs, die im System sind, werden der Reihe nach bearbeitet (abwechselnd).
292
\item Es wird jeweils der Job bearbeitet, der am wenigsten Rechenzeit verbraucht hat.
293
\end{enumerate}
294
Es sollte Strategie 4 kurze Jobs am meisten bevorzugen, 1 am wenigsten, 2 und 3 sollten dazwischen liegen.
295
296
\begin{enumerate}
297
\item Kennen wir von früher; hier ist die Wartezeit $W(u)$ konstant, und zwar ist
298
\[W(u) = \frac{\lambda \E(x^{2})}{2(1-\rho)} \]
299
und
300
\[T(u) = u + \frac{\lambda \E(x^{2})}{2(1-\rho)} ~. \]
301
\item Hier ist $T(u)$ leicht zu bestimmen. Denn $T(u)$ ist gleich der Rechenzeit $u$ plus der Summe der Rechenzeiten aller Programme, die während $T(u)$
302
ankommen.
303
Während $T(u)$ kommen $\lambda T(u)$ Programme an, jedes bringt im Schnitt $\E(x)$ Sekunden Rechenzeit mit, also gilt
304
\[T(u) = u + \lambda T(u)\E(x)=u + \rho T(u) ~,\]
305
also
306
\[T(u)=\frac{u}{1-\rho} ~. \]
307
Wir haben also ein \enquote{gerechtes} Verfahren gefunden.
308
\item Wenn sich $N$ Programme im System befinden, bekommt ein bestimmtes Programm $\frac{1}{N}$ der gesamten Rechenzeit. \\
309
Daher ist $\diff T(u) = N \diff u$. Da nur gerechnet wird, wenn das System nicht leer ist, ergibt sich:
310
\[ T(u)=u\E(N \mid N \not= 0)=Cu, \]
311
also wieder ein \enquote{gerechtes} System. Um $C$ zu bestimmen, betrachten wir den Fall $u \rightarrow \infty$. Wenn $u$ groß ist, werden die meisten Jobs, die während
312
$T(u)$ ankommen, auch noch während $T(u)$ das System verlassen. Für großes $u$ ist also das Verhalten ähnlich wie im vorigen Fall, und wir erhalten wieder
313
\[T(u)=\frac{u}{1-\rho} ~. \]
314
\item Wenn wir ein Programm betrachten, das genau $u$ Sekunden Rechenzeit benötigt, dann sehen wir, daß für $T(u)$ von der Rechenzeit aller anderen Programme
315
nur der Teil von Bedeutung ist, der kleiner als $u$ ist. Aus der Sicht dieses Programmes können wir also $x$ durch $(x \land u)$ ersetzen, und die
316
Verteilungsfunktion $B$ durch:
317
\[
318
B_{u}(y) = \left\{
319
\begin{array}{lc}
320
B(y) & y<u \\
321
1 & y \geq u
322
\end{array} \right. ~.
323
\]
324
$W(u)$ setzt sich jetzt zusammen aus der restlichen Rechenzeit aller Programme, die vor unserem Programm angekommen sind, plus der Summe der Rechenzeiten von
325
allen Programmen, die während $T(u)$ ankommen. Der erste Teil ist im Mittel gleich der Wartezeit in $M_{\lambda}/B_{u}/1$, also gleich
326
\[W_{u}=\frac{\lambda \E((x \land u)^{2})}{2(1-\rho _{u})} \]
327
mit
328
\[\rho _{u}=\lambda \E(x \wedge u) ~.\]
329
Für den zweiten Teil ergibt sich
330
\[\lambda T(u)\E(x \wedge u) = T(u)\rho _{u} ~.\]
331
Wir bekommen die Gleichung
332
\[T(u)=u+W_{u}+\rho _{u}T(u) ~, \]
333
also
334
\[T(u)=\frac{u+W_{u}}{1-\rho_{u}} ~. \]
335
Für $u \rightarrow 0$ ergibt sich
336
\[T(u) \approx u ~, \]
337
für $u \rightarrow \infty$
338
\[T(u) \approx \frac{u}{1-\rho} ~. \]
339
\end{enumerate}
340
341
%-------------------------------------------------------------------------------------------
342
\chapter{Prioritäten}
343
%----------------------------------------------------------------------------------------------
344
Wir betrachten den Fall, daß es mehrere \index{Klassen}Klassen von Kunden gibt, die von unserem System unterschiedlich behandelt werden. Genauer gesagt soll es
345
$p > 0$ Klassen
346
von Kunden geben. Die Kunden aus Klasse $i$ kommen nach einem Poissonprozeß mit Rate $\lambda_{i}$ an und benötigen eine Bedienzeit mit Verteilungsfunktion
347
$B_{i}$ (wir betrachten also wieder eine $M/G/1$-Situation). Weiters sei
348
\begin{eqnarray*}
349
\lambda &=& \sum_{i=1}^{p}\lambda _{i} \\
350
B(y) &=& \frac{1}{\lambda}\sum_{i=1}^{p}\lambda _{i}B_{i}(y) \\
351
\rho _{i} &=& \lambda _{i}\int ydB_{i}(y) \\
352
\rho &=& \lambda \int ydB(y) ~.
353
\end{eqnarray*}
354
Es gibt jetzt eine ganze Reihe von Möglichkeiten, Disziplinen zu definieren, die eine Klasse gegebüber anderen bevorzugen. Wir sprechen von unterschiedlichen
355
{\bf \index{Prioritäten}Prioritäten}.
356
357
Die Disziplinen, die wir untersuchen, sollen folgende Eigenschaften haben:
358
\begin{enumerate}
359
\item {\bf Nicht-prä-emptiv}: Ein einmal begonnener Bedienvorgang wird ohne Unterbrechung zu Ende geführt.
360
\item {\bf Arbeitserhaltend}: Niemand, der wartet, wird weggeschickt, ohne bedient zu worden zu sein.
361
\end{enumerate}
362
Weiters soll immer, wenn das System nicht leer ist, bedient werden.
363
364
%-------------------------------
365
\section{Ein Erhaltungssatz}
366
%------------------------------
367
368
$U_{t}$ sei die unverrichtete Zeit im System, d.h. die Zeit, die benötigt wird, um alle anwesenden Kunden fertig zu bedienen. Offensichtlich ist die Verteilung
369
von $U_{t}$ unabhängig von der Disziplin: \\
370
$U_{t}$ wächst mit jeder Ankunft eines Kunden um seine Bedienzeit an, und fällt pro Sekunde um $1$ Sekunde, solange $U_{t}>0$ ist. Die stationäre Verteilung
371
von $U_{t}$ entspricht der Verteilung der Wartezeit eines zufällig ankommenden Kunden bei der FCFS-Disziplin. \\
372
Insbesondere ist
373
\[\E(U) = \frac{\lambda \E(x^{2})}{2(1-\rho)} ~ \]
374
wobei $x$ nach der Funktion $B$ verteilt ist.
375
376
Wir berechnen jetzt $\E(U)$ auf eine andere Art. Dazu bezeichnen wir mit $W_{i}$, $i=1, \dots , p$, die mittlere Wartezeit eines Kunden mit Priorität $i$, und
377
mit
378
$N_{i}$ die Anzahl der Kunden aus der $i$-ten Prioritätsgruppe in der Warteschlange.
379
380
$\E(U)$ setzt sich jetzt aus folgenden Beiträgen zusammen:
381
\begin{enumerate}
382
\item $W_{0}$: die mittlere restliche Bedienzeit für den Kunden, der gerade bedient wird.
383
\item Die Summe der mittleren Bedienzeiten für alle Kunden, die sich in der Warteschlange befinden.
384
\end{enumerate}
385
Um $W_{0}$ zu bestimmen, stellen wir fest, daß $W_{0}$ gleich der Zeit ist, die ein zufällig ankommender Kunde warten muß, bis der Kunde fertig ist, der gerade
386
bedient wird. Mit Wahrscheinlichkeit $(1-\rho)$ findet der ankommende Kunde das System leer vor. Falls der Server besetzt ist, kann man die Verteilung der
387
restlichen Bedienzeit folgendermaßen bestimmen: \\
388
Wir betrachten eine große Anzahl $n$ von unabhängigen Variablen mit Verteilung $B$. Ihre Summe ist nach dem Gesetz der großen Zahlen $\approx n\E(x)$. Wenn wir
389
in dem Intervall der Länge $n\E(x)$ einen Punkt zufällig wählen, ist die Chance, daß wir bis zum Ende des Teilintervalls, in das der zufällig gewählte Punkt
390
fällt, einen Abstand zwischen $u$ und $u+\Delta u$ haben, gleich $\frac{\Delta u}{n\E(x)}$ mal der Anzahl der Intervalle mit Länge $> u$, also
391
\[ \approx \frac{\Delta u}{n\E(x)}n(1-B(u)) ~. \]
392
Für $n \rightarrow \infty$ ergibt sich für die Verteilung der restlichen Wartezeit die Dichte
393
\[f(u)=\frac{1-B(u)}{\E(x)} ~. \]
394
Schließlich ist
395
\[W_{0}=\rho \int_{0}^{\infty}uf(u)du = \frac{\rho \E(x^{2})}{2\E(x)}=\frac{\lambda \E(x^{2})}{2} ~. \]
396
Die Summe der Bedienzeiten der Kunden in der Warteschlange ergibt sich natürlich aus der Summe der gesamten Bedienzeiten der Kunden in den einzelnen Gruppen.
397
Es sind im Schnitt $N_{i}$ Kunden aus der $i$-ten Gruppe anwesend. Für jeden wird im Schnitt eine Bedienzeit $\E(x_{i})$ ($x_{i}$ soll eine $ZV$ mit Verteilung
398
$B_{i}$ sein) benötigt. \\
399
Damit gilt
400
\[\E(U)=W_{0}+\sum_{i=1}^{p}\E(x_{i})N_{i}=\frac{W_{0}}{1-\rho} ~. \]
401
Nach Little gilt $N_{i}=\lambda_{i}W_{i}$, also schließlich
402
\[ \sum_{i=1}^{p}\rho_{i}W_{i}=\frac{\rho W_{0}}{1-\rho}=\frac{\lambda \rho \E(x^{2})}{2(1-\rho)} ~.\]
403
Dieses Ergebnis zeigt, daß wir eine Gruppe nur bevorzugen können, indem eine andere Gruppe größere Wartezeiten in Kauf nehmen muß.
404
405
%----------------------------------------------------
406
\section{Eine Methode zur Bestimmung der Wartezeit}
407
%----------------------------------------------------
408
409
Wir betrachten einen Kunden aus der Gruppe $i$, der das System betritt: \\
410
$N_{ij} \dots$ mittlere Anzahl der Kunden aus Gruppe $j$, die unser Kunde im System antrifft, und die vor ihm bedient werden (ausgenommen der Kunde, der eventuell
411
gerade bedient werden, wenn unser Kunde ankommt). \\
412
$M_{ij} \dots$ mittlere Anzahl der Kunden aus Gruppe $j$, die während der Wartezeit unseres Kunden ankommen und vor ihm bedient werden. \\
413
Damit gilt
414
\[W_{i}=W_{0}+\sum_{j=1}^{p}(N_{ij}+M_{ij})\E(x_{j}) ~. \]
415
Wir verwenden diesen Zugang für die einfachste Disziplin: \\
416
Jeder Kunde aus Gruppe $i$ wird vor allen Kunden aus Gruppe $i-1$ bedient, und innerhalb einer Gruppe wird nach $FCFS$ gearbeitet. \\
417
Dann ist
418
\begin{eqnarray*}
419
N_{ij}&=&0 \qquad j<i \\
420
M_{ij}&=&0 \qquad j \leq i ~.
421
\end{eqnarray*}
422
Für $j \geq i$ ist
423
\[N_{ij}=N_{j}=\lambda _{j}W_{j} ~. \]
424
Für $j>i$ ist $M_{ij}$ die Anzahl der Kunden aus Gruppe $j$, die im Mittel während $W_{i} = \lambda _{j}W_{i}$ ankommen.
425
426
Wir erhalten
427
\begin{eqnarray*}
428
W_{i}&=&W_{0}+\sum_{j=i}^{p}\rho _{j}W_{j}+\sum_{j=i+1}^{p}\rho_{j}W_{i} = \\
429
&=&W_{0} + W_{i}\sum_{j=i}^{p}\rho_{j} + \sum_{j=i+1}^{p}\rho_{j}W_{j}
430
\end{eqnarray*}
431
oder
432
\[W_{i}(1-\sum_{j=i}^{p}\rho_{j})=W_{0}+\sum_{j=i+1}^{p}\rho_{j}W_{j} ~. \]
433
Wir schreiben
434
\[\sigma_{j} = \sum_{j=i}^{p}\rho_{j} \]
435
und erhalten
436
\[W_{i-1}(1-\sigma_{i-1})=W_{i}(1-\sigma_{i})+\rho_{i}W_{i}=W_{i}(1-\sigma_{i+1}) ~, \]
437
und schließlich
438
\[W_{i}=\frac{W_{0}}{(1-\sigma_{i})(1-\sigma_{i+1})} ~. \]
439
440
%----------------------------------------------------------------------------
441
\begin{appendix}
442
\chapter{Transformationen}
443
%----------------------------------------------------------------------------
444
Für unsere Untersuchungen benötigen wir die folgenden Transformationen:
445
\begin{enumerate}
446
\item Die erzeugende Funktion oder \index{erzeugende Funktion}$z$ - Transformierte: Falls $p_{n}$, $n
447
\geq 0$ eine diskrete Verteilung ist, nennen wir
448
\begin{displaymath}
449
P^{*}(z) = \sum_{}^{} p_{n} z^{n}
450
\end{displaymath}
451
die erzeugende Funktion von $(p_{n})$. Falls $X$ die Verteilung $(p_{n})$
452
hat, so gilt
453
\begin{displaymath}
454
P^{*}(z) = \E (z^{X}) ~.
455
\end{displaymath}
456
$P^{*}(z)$ existiert jedenfalls für $|z|<1$. Bekanntlich kann man aus
457
$P^{*}$ eindeutig $(p_{n})$ bestimmen:
458
\begin{displaymath}
459
p_{n} = \frac{1}{n!} P^{*^{n}} (0) ~.
460
\end{displaymath}
461
\item Die Laplace - Transformierte: Falls $f(x)$, $x \geq 0$ eine
462
Dichtefunktion ist, d.h.
463
\begin{displaymath}
464
f \geq 0 \qquad \mbox{und} \qquad \int_{0}^{\infty} f(x)\diff x = 1 ~,
465
\end{displaymath}
466
heißt
467
\begin{displaymath}
468
\hat F(t) = \int_{0}^{\infty} e^{-xt} f(x) \diff x
469
\end{displaymath}
470
die \index{Laplace - Transformierte}Laplace - Transformierte von $f$. Dieses Integral ist für $t \geq 0$
471
endlich, und es gibt auch hier eine eindeutige Beziehung zwischen $\hat F$
472
und $f$. Falls $X$ mit der Dichte $f$ verteilt ist, ist
473
\begin{displaymath}
474
\hat F(t) = \E (e^{-Xt}) ~.
475
\end{displaymath}
476
Diese Beziehung kann man auch verwenden, um die Laplace - Transformierte
477
für nicht stetige Verteilungen zu definieren.
478
\end{enumerate}
479
Es bestehen folgende Eigenschaften der Transformationen:
480
\begin{enumerate}
481
\item $P^{*}(z)$ ist regulär für $|z| \leq 1$.
482
\item $ \hat F(z)$ ist regulär für $ \Re (z) \geq 0$. Falls $X$ eine
483
Verteilung $(p_{n})$ hat, ist
484
\begin{displaymath}
485
\E(X) = (P^{*})^{'}(1) ~.
486
\end{displaymath}
487
Falls $X$ Dichte $f$ hat, ist
488
\begin{displaymath}
489
\E(X) = -\hat F^{'}(0) ~.
490
\end{displaymath}
491
\item Falls $X$, $T$ unabhängig sind, ist die Transformierte der Summe
492
das Produkt der Transformierten.
493
\item Weiters sei $N_{t}$ ein \index{Poissonprozeß}Poissonprozeß (d.h. eine Folge von
494
Ereignissen, wobei die Zeit zwischen zwei Ereignissen nach $M_{\lambda}$
495
verteilt ist. $N_{t}$ ist die Anzahl dieser Ereignisse im Intervall
496
$[0,t])$. Für eine zufällige Zeit $T$ wollen wir die Anzahl $N_{T}$ von
497
Ereignissen in $[0,T]$ bestimmen. Falls $T=t$ ist, ist diese Anzahl
498
Poisson - verteilt mit Parameter $\lambda t$:
499
\begin{displaymath}
500
\PP (N_{T} = n | T = t) = \frac{(\lambda t)^{n}}{n!} e^{- \lambda t} ~,
501
\end{displaymath}
502
also ist
503
\begin{displaymath}
504
\PP (N_{T} = n) = \E \left[ \frac{( \lambda
505
T)^n}{n!} e^{- \lambda T} \right] ~.
506
\end{displaymath}
507
Die erzeugende Funktion ist
508
\begin{eqnarray*}
509
\hat \PP(z) &=& \sum_{}^{} \PP(N_{T} = n) z^{n} = \\
510
&=& \E \left[ \sum_{}^{} e^{-\lambda T} \frac{(\lambda z T)^{n}}{n!}
511
\right] = \\
512
&=& \E (e^{- \lambda (1-z)T}) = \\
513
&=& \tilde F (\lambda(1-z)) ~,
514
\end{eqnarray*}
515
falls $T$ mit Dichte $f$ verteilt ist.
516
\end{enumerate}
517
%------------------------------------------------------------------------------
518
\end{appendix}
519
520