Loading [MathJax]/jax/output/HTML-CSS/jax.js

2017年9月3日日曜日

Markov Chains and Monte Carlo Methods 03日目

Ioana A. Cosma and Ludger Evers, Markov Chains and Monte Carlo Methods
http://users.aims.ac.za/~ioana/notes.pdf
CC-by-nc-sa 2.5
http://creativecommons.org/licenses/by-nc-sa/2.5/za/legalcode

1.4 Ergodic theorems

Makrov chainを観測して,そのstationary distributionを推測する方法とその条件を考える. IIDな確率変数の列では大数の法則が観測した値の平均によって期待値を推測することが正当化される一方,Markov chainではErgodic theorems (エルゴード性に関する諸定理)によって似たような主張が出来る. これらはMarkov Chain Monte Carlo(MCMC) を正当化する根拠でも有る.

Theorem 1.30 (Ergodic Theorem) 証明略

Xμ-irreducibleかつrecurrentなRd上の Markov chainで,stationary distribution μをもつとする. このときg:RdRがあって,確率1で
limt1tti=1g(Xi)Eμ[g(X)]=Sg(x)fμ(x)dx
がほとんどすべての初期値X0=xに成立する. また,XがHarris-recurrentであればこれは任意の初期値X0=xで成立する.

左辺はgの時間的な平均であり,右辺はgの空間的な期待値と考えることが出来る.
ex. 1.17はrecurrenceやirreducible性がth. 1.30の仮定に必要であることの例である.

Example 1.17

S={1,2}でtransition matrix K=(1001)をもつdiscrete Markov chainを考える.
任意のμがstationary distributionであり,さらにこのchainはirreducibleでもrecurrentでもない. μ=(α,1α)Tならば任意のt
P(Xt=1)=α,P(Xt=2)=1α
が成立する. 一方sample pathはただ(1, 1, 1,…)か(2, 2, 2,…)しかありえず,どちらを一つだけ得たとしてもαXtについての推測はできない. このchainはSをexploreできないためであり,様々な推測をするには複数のsample pathが必要となる.

0 件のコメント:

コメントを投稿