Processing math: 100%

2017年8月15日火曜日

MIT OCW, Fundamentals of Probability 22日目 Markov Chain I

David Gamarnik, and John Tsitsiklis. 6.436J Fundamentals of Probability. Fall 2008. Massachusetts Institute of Technology: MIT OpenCourseWare, https://ocw.mit.edu. License: Creative Commons BY-NC-SA.

Lecture 23. Markov Chains

23.1 Introduction

Definition 23-1

{Xn}n1がMarkov chain
X(Ω)=Xはたかだか可算集合で,
P(Xn=xn|Xn1=xn1,Xn2=xn2,...,X1=x1)=P(Xn=xn|Xn1=xn1)
Xをstatesといい,Xn=sXなら,{Xn}nにおいてstate sをとる という. 特に無限であると言わない場合,|X|<の場合を考える.このときX={1,...,N}として一般性を失わない.

Proposition 23-1

Markov chain {Xn}n1について,
(a) 任意のs,x1,...,xnXmNについて,
P(Xn+m=s|Xn1=xn1,Xn2=xn2,...,X1=x1)=P(Xn+m=s|Xn1=xn1)

(b) 任意のx1,...,xnXk{1,...,n}について,
P(Xn=xn|Xn1=xn1,...,X1=x1|Xk=xk)=P(Xn=xn,Xn1xn1,...,Xk+1=xk+1|Xk=xk)P(Xk1=xk1,...,X1=x1|Xk=xk)

23.2 Examples

random walkはMarkov chainの一つである.
サイコロを繰り返しふって,Xnn回の試行で過去出た出目6の回数とする. このときP(Xn=x+1|Xn1=x)=1/6,P(Xn=x|Xn1=x)=5/6であり,またyx,x+1なら P(Xn=y|Xn1=x)=0である.これは右へ進む確率1/6,その場にとどまる確率1/6のrandom walkとみなせる.

23.3 Homogeneous Finite State Markov Chain

Definition 23-2

Markov chain {Xn}がhomogeneousである
n P(Xn+1=y|Xn=x)=P(X2=y|X1=x)

p(x,y)=P(Xn+1=y|Xn=x)と書くようにすると,N×N行列P=(pi,j)という行列ができる.これを{Xn}のtransition matrixという. jpi,j=1である. 任意の行について,その行の要素の和が1であり,全ての要素が非負な行列を stochastic matrixという.
さて,
P(Xn+2=j|Xn=i)=1kNP(Xn+2=j|Xn+1=k,Xn=i)P(Xn+1=k|Xn=i)=1kNP(Xn+2=j|Xn+1=k)P(Xn+1=k|Xn=i)=1kNpk,jpi,k
だから,P2(i,j)成分(p(2)i,jと書く)は,{Xn}を1つ飛ばしにしたMarkov chainのtransition matrixと考えることが出来る. 同じ論法でrNに,Prr1飛ばしのMarkov chainのtransition matrixである. Prrでの振る舞いを理解するのは大切である. Markov chainの多くを占めるクラスで,jのみによってlimrpri,jが存在することを後で見る.この性質をmixingという.
ejRNj番目の標準基底ベクトルを表すことにする.またeを全ての要素が1であるN次元ベクトルとする. X0=iとすると, Xnのprobability vectorはeTiPnであり,X0がprobability vector μによって決まるなら, Xのprobability vectorはμTPnになる.

23.4 Stationary Distribution

X={1,2},p1,1,=p1,2=1/2,p2,1=1,p2,2=0という単純なMarkov chainを考える. μ1=P(X0=1)=2/3,μ2=P(X0=2)=1/3なるμ=(μ1,μ2)Tからn=0でのstateが生成されるとき,P(X1=1)=(1/2)P(X0=1)+P(X0=2)=2/3,P(X1=2)=1P(X1=1)=1/3.
よってP(X0=i)=P(X1=i)   i=1,2で,X0,X1は同じ分布を持つと言える.これは任意のnも言える.

Definition 23-2

probability vector π=(πi),1iNstationary distribution
P(X0)=πiと初期状態を決めると1iN,1n,  P(Xn=i)=πi

さらにこのとき(Markov chain{Xn}にsteady stateがあって,初期状態がそれによって決められたとき){Xn}steady stateにあるという.

定義から,πがsteady stateである必要十分条件は,πi0,πi=1かつ
i  πi=1kNpk,iπk
が成り立つことである. これはベクトル形式で書くと
πT=πTP
である.

Theorem 23-4

X<なMarkov chainは少なくとも1つのstationary distributionをもつ.

proof. 略 linear programming(線形計画法)の知識が必要らしい・・・ あとで確率論的な証明を与える.

23.5 Classification of States, Rucurrennt and Transient States

state 有限, homogeneousなMarkov chainがtransition matrix Pを持っているとき, 有向グラフが作れる.
ノード集合V=X, pi,j>0なるi,jVはedge集合の元;(i,j)Eとする. iからjへ至るpathがあるときijとコミュニケートする(i communicates with j)といい,ijと書く. これはnp(n)i,j>0ということである. ijだがjiでないというのは,chainがiから始まってjに至ると,再びiに戻ることはほとんど必ずないということである.

Definition 23-5

iXtransient
ijだがjiなるjXが存在する

iがtransientでないとき,recurrentであるという.
ij,jiなるときijと書く.この関係は同値関係である.recurrent statesは同値類R1,...,Rrに分割でき,Tをtransient stateの集合とすると,
X=TR1...Rrと,互いに素な集合の和集合として書ける.

0 件のコメント:

コメントを投稿