2017年9月7日木曜日

Markov Chains and Monte Carlo Methods 07日目

Ioana A. Cosma and Ludger Evers, Markov Chains and Monte Carlo Methods
http://users.aims.ac.za/~ioana/notes.pdf
CC-by-nc-sa 2.5
http://creativecommons.org/licenses/by-nc-sa/2.5/za/legalcode

3.3 Importance sampling

rejection samplingでは,target のかわりにinstrument からサンプリングし,に合致しなそうなサンプルを棄却することでからのサンプリングを行った. importance samplingではからのサンプルを重み付けしてからのサンプリングを実現する. impotrance samplingの最も重要な基礎は

なる全てのに成立することである. これはまた,任意の可測関数に,

と一般化出来る.
があって,が存在するとき

が大数の強法則から言える. だから

つまり

で近似できる.
だが,の総和は必ずしもではないので,self-normalized

を正当化でき,以下のアルゴリズムが導かれる.

Algorithm 3.2 (Impotrance sampling)

なるを選んで,
1.
(i) を生成する
(ii) とする
2.

あるいは

を返す.

Theorem 3.3 (Bias and Variance of Importance Sampling)

(a)
(b)
(c)
(d)

proof.

(a)
(b)
(c, d) 略

この定理から,は不偏だが分散が大きく,は不偏でないが分散がより小さいことがわかる. さらに,とすると

だから,がわからなくともは計算できる.
はsupportの条件を満たせば良いが,普通の分散を有限にするように選ぶ.これは以下の2つの条件のどちらかが成立すればよい.
- ・・・・ はrejection samplingにも使える
- がコンパクトで,上有界

さらにが最良である,すなわちが最小になるようなの選び方を考える.

Theorem 3.4 (Optimal proposal) 証明略

を最小にする

で与えられる.

Corollary

importance samplingはsuper-efficientである. すなわちTh. 3.4 によるを使うと,から直接サンプリングしたときの分散よりも小さくなる.

のnormalisaton constantを知らなければならず,またからのサンプリングが難しいことも有るので,に近い別のをinstrumental として使うことが有る.

Example 3.5 (Computing )

は自由度3のt分布(とする)に従うとして,をMonte Carlo methodで計算する. 以下の3つの方法が考えられる.
- X_1,…,X_nをから直接サンプリングし, で推測する
- (Cauchy分布に同値)をinstrumentalにしてimportance samplingする.
- をinstrumental にしてimportance samplingする.このとき

2つのinstrumentalとtargetのグラフはfig. 3.4の通り.

enter image description here

0 件のコメント:

コメントを投稿