2017年9月8日金曜日

Markov Chains and Monte Carlo Methods 08日目

Ioana A. Cosma and Ludger Evers, Markov Chains and Monte Carlo Methods
http://users.aims.ac.za/~ioana/notes.pdf
CC-by-nc-sa 2.5
http://creativecommons.org/licenses/by-nc-sa/2.5/za/legalcode

もしかして: chap.3 いらない?

Chapter 4. The Gibbs Sampler

4.1 introduction

importance samplingではから直接サンプリングせずにを求めたが,性質の良いinstrumental ditributionをみつけるのは特に高次元に置いて困難になる. この章で議論するサンプリング法は,がstationary distributionであるようなMarkov chainを設計することが最終目標である. こうした技術を総称してMarkov Chain Monte Carlo (MCMC)とよぶ. をサンプルを生成したいdistributionとして,が,をstationary distributionにもつMarkov chainであるようにする. このときは従属で,の極限での正確なサンプルとなる. 
からサンプリングをすることが困難でも,full conditional distributions

が全てのについて効率的にサンプリングできるとき,Gibbs sampler が使える.
記述がまちまちだが,Gibbs samplerによって生成される列はあるMarkov chainの一つのrealizationつまりsample pathである

4.2 Algorithm

Algorithm 4.1 ((Systematic sweep) Gibbs sampler)

から初めて,
1, を取る

j, をとる

p.  をとる
を繰り返す.

Gibbs samplerはreversible でない. Liu et al.(1995)はreversibleなchainを返すアルゴリズムを開発した.

Example 4.2 (Random sweep Gibbs sampler)

から初めて,
1. から,(例えばuniformで) を選んで,
2. をとって,すべてのとする.

4.3 The Hammersley-Clifford Theorem

Gibbs samplerの基礎であるfull conditionalはjoint distributionを一意に決定するという著しい特徴が有る(Hammersley and Cliford).

Definition 4.1 (Positivity condition)

density とmarginal density をもつ分布とがpisitivityをもつ

positivityは,joint distribution の台がの台たちのデカルト積であるということである.

#### Theorem 4.2 (Hammersley-Clifford)

がpositivityをみたし,joint densityはとする. このとき任意のに,

proof.


であって,に置き換えても成立する.

したがって

よって成立. positivity conditionが分母がでないことを保証する.

Hammersley-Cliffford theoremはjoint probability distributionの存在を,任意のconditionの選び方にも保証するわけではない. このような問題はBayesian modelingで,prior distributionの設定に問題が有る時によく起きる.例えば
とする. Hammersley-Cliffordから

しかしは無限であって,がPDFとなるような分布は存在しない.

4.4 Convergence of the Gibbs sampler

が実際にGibbs sampler(この節ではalg. 4.1とする)で生成されるMarkov chainのstationary distributionであることを確かめる. まず,Gibbs samplerによって生成されるtransition kernelを議論する.

Lemma 4.3

Gibbs samplerのtransition kernelは

proof.

Proposition 4.4 証明略

はたしかに生成されるMarkov chainのstationary distributionである.

以上, Gibbs samplerが生成するMarkov chainはをstationary distributionにもつことが言えた. Theorem 1.19では,Markov chain がstationary distributionに収束する十分条件がirreducibleかつaperiodicであることを見たが,Gibbs samplerが生成するMarkov chainがこれを満たすかは議論の余地が有るし,実際満たさない.

Example 4.3 (Reducible Gibbs sampler)


とし,上一様分布のPDFとする.このとき,なる初期値から開始したGibbs samplerはfig. 4.2のように,の点のみを取り出してしまう.

これは生成されたMarkov chainがirreducibleでないために起きる. 次の命題はGibbs samplerの生成するMarkov chain のirreducibilityの十分条件を与える. より弱い条件の十分な命題もある(Robert and Casella, 2004, Lemma 10.11)

Proposition 4.5

がpositivity conditionを満たすとき,Gibbs samplerはirreducibleかつrecurrentなMarkov chainを生成する.

proof.

を満たすとする.

が,positivityよりconditional densityが正の値であることから言える.よってstrongly f-irreducibleで, prop. 1.28から,Markov chainはまたrecurrentである.

さらに,エルゴード性の帰結としてTh. 4.6が得られる.

Theorem 4.6

Gibbs sampler によって生成されるMarkov chainがirreducibleかつrecurrentであるとき,可積なについて

がほとんどすべての初期値で成立する.

これがを,生成した一つのMarkov chainの平均によって推測することを正当化する.

Example 4.6


について,をGibbs samplerによって計算する.
marginal distributionはである
conditional distibution は正規分布の多項式表現から


よってGibbs samplerが,
1. を取る.
2. を取る.

を繰り返してMarkov chain を生成する.
とするとき,fig.4.4はひとつのsample pathの例である. さらにTh. 4.6により,からまでの平均によって推測できる. を横軸として平均をプロットしたのがfig. 4.3である.
enter image description here
enter image description here

Markov性からは従属であり,普通は正の相関を持つ. の相関が大きいほどMarkov chainはゆっくりと動く(slowly mixingという). Gibbs samplerにおいても, が正であれ負であれ強く相関しているときにはそのような現象が見られる. ex.4.5はその例である.

Example 4.5 (Sampling from a highly correlated bivariate Gaussian)

4.4 の例で,ただにした場合に,である. このときGibbs samplerはslower mixingで,fig. 4.5,からわかるとおり,収束が非常に遅い.

enter image description here

0 件のコメント:

コメントを投稿