David Gamarnik, and John Tsitsiklis. 6.436J Fundamentals of Probability. Fall 2008. Massachusetts Institute of Technology: MIT OpenCourseWare, https://ocw.mit.edu. License: Creative Commons BY-NC-SA.
Lecture 20. The Bernoulli and Poisson Processes
stochastic process(確率過程)の議論をする準備ができた.
discrete-time stochastic processは共通したprobability space (Ω,F,P)上のrandom variableの列{Xn}である. あるいは,n,ωを引数に取る関数Xで,任意のnにXn:ω↦Xn(ω)というrandom variableということであって,またω∈Ωを固定したときにはnの関数(“time function”,とか “sample path”, “trajectory”という)と見ることも出来る.
1. The Bernoulli Process
Bernoulli processではXn∼Ber(p)で,全てがi.i.d.である.Sn=X1+...+Xnとすると,Sn∼bin(n,p)であって
pSn(k)=(nk)pk(1−p)n−k, E[Sn]=np var(Sn)=np(1−p)
である.ただしpSnはPMFとする.
またT1を最初に試行が成功するまでの試行数とすると,Tn∼geom(p)であって,
pT1(k)=(1−p)k−1p,E[T1]=1/p
である.
1.1 Stationarity and Memorylessness
Bernoulli processには特有の構造が有る.
Bernoulli process {Xn}を考える.ある自然数mを固定して,Yn=Xm+nとすると,{Yn}は{Xn}と同じdistributionを持ったBernoulli processである. より厳密には,(Y1,...,Yk)は(X1,...,Xk)と同じdistributionを持っている.この性質をstationarity(定常)性という.
また,より強い性質も成り立つ.X1,...,Xmの値が与えられても,{Yn}は変化しない.形式的には
P((Xn+1,Xn+2,...)∈A|X1,...,Xn)=(1)P((Xn+1,Xn+2,...)∈A)=(2)P((X1,X2,...)∈A)
である.(1)の等式をmemoryless(無記憶)性という.(2)の等号はstationarity propertyの言い換えである.
1.2 Stopping Times
1.1では観測を始める時刻をmに固定して議論したが,観測を始める時間がまた確率的に決まる場合を考える.Nは非負整数値をとるrandom variableとして,{Yn}をYn=XN+nを議論する. {Yn}は一般に{Xn}と同じパラメータのBernoulli processではない. 例えばN=min{n|Xn+1=1}とするとP(Y1=1)=P(XN+1=1)=1≠pである.この不等号はNをXN+1の実現値が決まってから,すなわち”未来を見て”決めたことに起因している.
一方Nがcausallyに決まるとき,つまり過去か現在のprocessのみから決まるとき,形式的には
Definition 20-1
Nがstopping timeである
⇔ 任意のnについて,{N=n}というeventが起きるか否かが,X1,...,Xnの顕れに寄ってのみ決まる
またこのとき,任意のnにhnという関数があって,
IN=n=hn(X1,...,Xn)
が成立する.
として,Nがstopping timeであるときにはmemorylessnessより強い性質を持つ.
P((XN+1,XN+2,...)∈A|N=n,X1,...,Xn)=P((Xn+1,Xn+2,...)∈A)=P((X1,X2,...)∈A)
したがってNがstopping timeであれば{Yn}はまたBernoulli processである.
1.3 Arrival and Interarrival Times
Yk=min{n|Sn=k},Y0=0はkth arrival timeといい, kth interarrival timeをTk=Yk−Yk−1とする.
T1=Y1はgeometricで,またstopping timeだから,(XT1+1,XT1+2,...)もまたBernoulli processである. T2はもとのprocessのsecond interarrival timeだが(XT1+1,XT1+2,...)のfirst arrival timeであって,よってT2はgeometricである.さらに,新しいprocessは(X1,..,XT1)と独立であって,T2もまた(X1,...,XT+1)と独立である.特にT2はT1とも独立である.
上の段落の議論を繰り返すと,Tkはi.i.d. geometricであることがわかる.結果,Ykはkのi.i.d. geometricの和だから,St=X1+⋯Xtとして,
P(Yk=t)=P(St−1=k−1∧Xt=1)=P(St−1=k−1)⋅P(Xt=1)=(t−1k−1)pk−1(1−p)t−kp=(t−1k−1)pk(1−p)t−k
である.このYkのPMFをPascal PMFという.
1.4 Marging and Splitting of Bernoulli Processes
{Xn}と{Yn}は独立なBernoulli processで,パラメータはそれぞれp,qとする. {Zn}を,Xn,Ynの”merged” processとして,Zn=max{Xn,Yn}と定義する.
P(Zn=1)=1−P(Xn=0,Yn=0)=1−P(Xn=0)P(Yn=0)=1−(1−p)(1−q)
だから,Zn∼Ber(p+q−pq)であって,{Zn}はまたBernoulli processとなる.
また,{Zn∼Ber(p)}というprocessを”Splitting”するprocessも考えられる.Zn=1となったらコインを投げ(Ber(q)),その結果を記録していく仮定を考える.
形式的には{Un∼Ber(q)}として
Xn=Zn⋅Un, Yn=Zn⋅(1−Un)
とする.{Xn}はパラメータpqのBernoulli processであり,{Yn}はパラメータp(1−q)のBernoulli processである. {Xn},{Yn}はdependentである.特に
P(Xn=1|Yn=1)=0≠pq=P(Xn=1)である.
2. The Poisson Process
Poisson processはBernoulli processの連続時間への近似と考えることが出来る.時刻0から観測を初めて,時刻tまでに起きた成功の回数をrandom variableとする.つまり,N(0)=0とし,N(t)を(0,t]の間の成功の回数とすると,Nはpoisson過程である.
あるωを固定して,N(t)を時刻tにおけるNの現れとする.これはtで成功しているならその点で不連続であり,右連続である:limτ↓tN(τ)=N(t).
Bernoulli processと同様にいくつかのrandom variableを定義する.
Y0=0, Yk=min{t|N(t)=k}, Tk=Yk−Yk−1
さらにP(k;t)=P(N(t)=k)とする.
λ>0として,Poisson processは以下の性質によって定義される.
(a)
互いに素な区間たちがあって,その中で成功が起こる回数はindependentである.形式的には,
0<t1<...<tkで,N(t1),N(t2)−N(t1),...,N(tk)−N(tk−1)はindependentである.これはBernoulli processの試行の独立性の近似である.
(b)
ある区間における成功の回数のdistributionはλと区間の長さのみによって決まる.形式的には,t1<t2ならば
P(N(t2)−N(t1)=k)=P(N(t2−t1)=k)=P(k;t2−t1)
である.
(c)
okという関数があって,
limδ↓0ok(δ)δ=0
かつ任意のδ>0に
P(0;δ)=1−λδ+o1(δ)P(1;δ)=λδ+o2(δ)∞∑k=2P(k;δ)=o3(δ)
である
okはテイラー展開の2次以降の項を捉えるために導入される.
2.1 The Distribution of N(t)
λとt>0を固定して,P(k;t)のclosed form expressionを考える.(0,t]という区間を,同じ区間に複数の成功がないように細かく区切って,Bernoulli processで近似する.
大きなnを一つ選び,δ=t/nとする.[0,t]を長さδごとに区切り,n個の”slot”をつくる. 少なくとも1つの成功があるslotにある確率は
p=1−P(0;δ)=λδ+o(δ)=λtn+o(1/n)
である.ただしo(δ)/δ→0である.
kを固定して,以下のeventたちを定義する.
A: (0,t]でちょうどk回成功する
B: ちょうどk個のslotがそれぞれ1つ以上の成功をもつ
C: 少なくとも1角slotが2つ以上の成功を持つ.
A,BはCが起きない限り一致する.
B⊂A∪B, A⊂B∪C
であって
P(B)−P(C)≤P(A)≤P(B)+P(C)
が成立する.ここで
P(C)≤n⋅o3(δ)=(t/δ)o3(δ)
右辺はn→∞⇔δ→0で0に収束するから,P(A)はn→∞でP(B)に収束する.
成功があったslotの個数はbinomial distributionに従い,そのパラメータはn=n,p=λt/n+o(1/n)であって,
P(B)=(nk)(λtn+o(1/n))k(1−λtn+o(1/n))n−k
が成立する. n→∞とすると,Lec.6と同様の計算で,右辺はPoisson PMFに収束し,
P(k;t)=(λt)kk!e−λt
が成立する.これは(t)がλtをパラメータとするPoisson random variableであることを示している.またE[N(t)]=var(N(t))=λtである.
2.2 The distribution of Tk
Bernoulli processと同様に, interarrival times Tkがi.i.d. でexponentialなrandom variableであることを示す.
2.2.1 First argument
P(T1>t)=P(N(t)=0)=P(0;t)=e−λt
である.これはexponentila CDFだから,
fT1(t)=λe−λt
とPDFが得られる.
t1,t2>0, δ<t2, またδは十分小さい正数とする.このとき十分狭い区間では複数個の成功は起こらないという仮定のもとで
P(t1≤T1≤t1+δ,t2≤T2≤t2+δ)∼P(0;t1)⋅P(1;δ)⋅P(0;t2−t1−δ)⋅P(1;δ)=e−δt1λδe−δ(t2−δ)λδ
両辺をδ2で割ってδ↓0とすれば
fT1,T2(t1,t2)=λe−λt1λe−λt2, t1,t2>0
を得る.よってT1,T2はindependentで,同じexponential distributionをもつ. 繰り返して,{Tk}はi.i.d.で,共通したパラメータλをもつexponential distributionに従う.
2.2.2 Second Argument
簡単のため,λ=1とする.0<s≤tとして,
P(Y1≤s,Y2≤t)=P(N(s)≥1,N(t)≥2)=P(N(s)=1)P(N(t)−N(s)≥1)+P(N(s)≥2)=se−s(1−e−(t−s))+(1−e−s−se−s)=−se−t+1−e−s
両辺を微分して,
fY1,Y2(s,t)=∂2∂t∂sP(Y1≤s,Y2≤t)=e−t, 0≤s≤t
が成立する.よって,Y2=tを決めると,Y1は(0,t)上uniformである.すなわち,2回目の成功が起きるまでの時刻,1回目の成功が起きうる時刻は同様に確からしい.
T1=Y1,T2=Y2−Y1とすると,
fT1,T2(t1,t2)=fY1,Y2(t1,t1+t2)=e−t1e−t2
である.
2.2.3 Alternative Definition of the Poisson Process
T1,T2,...はi.i.d. でλを共通のパラメータpのexponential distributionをもつとする. 成功した時刻T1,T1+T2,T1+T2+T3,...を記録していくとして,この定義はまたPoisson processの定義(a),(b),(c)を導く.
2.3 The Distribution of Yk
Ykはk個のexp(λ)のi.i.d.なrandom variableの和だから,PDFは畳み込みを繰り返して構成できる. PDFのもう一つの導出方法を述べる.
小さな区間で2つ以上成功する可能性を無視すると,
P(y≤Yk≤y+δ)=P(k−1;y)P(1;δ)=λk−1(k−1)!yk−1e−λyλδ
両辺をδで割ってδ↓0とし,
fYk(y)=λk−1(k−1)!yk−1e−λyλ, y>0
が言える.これを自由度kのGammaかErlang(アーラン) distributionという.
他の導出に,y≥0に,{Yk≤y}というeventが
{number of arrivals in the interval [0, y] is at least k}
というeventと同じであることを考えれば,CDFは
FYk(y)=P(Yk≤y)=∞∑n=kP(n,y)=1−k−1∑n=0P(n,y)=1−k−1∑n=0(λy)ne−λyn!
であって,YkのPDFはこれを微分することで得られる.
fYk(y)=ddyFYk(y)=λkyk−1e−λy(k−1)!
0 件のコメント:
コメントを投稿