ラベル 数学 の投稿を表示しています。 すべての投稿を表示
ラベル 数学 の投稿を表示しています。 すべての投稿を表示

2017年9月9日土曜日

Markov Chains and Monte Carlo Methods 10日目

Ioana A. Cosma and Ludger Evers, Markov Chains and Monte Carlo Methods
http://users.aims.ac.za/~ioana/notes.pdf
CC-by-nc-sa 2.5
http://creativecommons.org/licenses/by-nc-sa/2.5/za/legalcode

Gibbs samplerが終わったし後は流れで

Chapter 7. State-space models and the Kalman filter algorithm

7.1 Motivation

現実世界では,観測は時間的に離散的な列で行われて,その観測が行われるたびに以前の観測たちから興味有る対象の量()を推測することになる. これをon-line inferenceという. 観測データがと時刻に沿って与えられて,各時刻で興味有る対象を推測することを考える. の事前分布によって変化するようなモデルをDynamic Modelという.
Dynamic modelの例には,レーダーによる観測からの飛行機の監視(場所,速度を推測する)やノイズの有る音声データからの発話の認識(発音された単語を推測する) などがある. これらの問題を扱うのに適した方法の一つがSequential Monte Carlo (SMC)である. SMCはiterativeではないMCMCの一種で,におけるの分布をapproximate sampleで表現し,それをにおける分布の表現で再利用する.

7.2 State-space models

SSMでは,根底となり,観測できないMarkov process(state process) と,観測される過程(observation procss)からなる.
observation:
hidden state:
はノイズを表す変数で,は既知である. が初期状態の分布とする. state processはだからMarkov chainである. さらにすなわちの分布はそれ以前の観測値と独立である(fig. 7.1).

を表し,も同様である. 簡単のためとの依存関係の記述を省略してなどと書く.

7.2.1 Inference problems in SSMs


またBayesの定理から,

が成立する.
- からのサンプルを取ることをfilgeringという
- からのサンプルを取ることをsmoothingという
これらについて議論する.

filtering, smoothingはともにの扱いやすさが問題となる. ほとんどのSSMでは,この分布はnormalizing constantしかわからない.その例外が
- transitionとobservationが離散的である場合(Hidden Markov modelという)には,再帰的なアルゴリズムが使える
- 関数が線形であり,ノイズが正規分布である時(linear Gaussian SSMという),これを解くアルゴリズムをKalman filterという.

2017年9月8日金曜日

Markov Chains and Monte Carlo Methods 09日目

Ioana A. Cosma and Ludger Evers, Markov Chains and Monte Carlo Methods
http://users.aims.ac.za/~ioana/notes.pdf
CC-by-nc-sa 2.5
http://creativecommons.org/licenses/by-nc-sa/2.5/za/legalcode

Gibbs samplerが終わったし後は流れで

Chapger 5. The Metropolis-Hastings algorithms

Gibbs samplerを使うにはfull conditionalsから効率よくサンプリングできなければならなかった. また,に強い相関が有るとき,収束が遅くなるという欠陥が有る. これを克服するのがMetropolis-Hastings法である. rejection samplingのように,新しいによって決まる局地的な分布に従って受理または棄却し,得られたをあるMarkov chainのpathと考える.

Algorithm 5.1 (Metropolis-Hastings)

を初期値として,
1. をとる.
2.
を計算する.
3. 確率とし,そうでなければとする.

Lemma 5.2

Metroplis-Hastingsのtransition kernelは

ここではDirac-mass とする.

Proposition 5.3

Metropolis-Hastingsはdetailed balance

をみたす.したがっては生成されるMarkov chainのstationary distributionであり,しかもMarkov chainはreversibleである.

さらに,chainがirreducibleかつaperiodicならばMarkov chainは任意のinitial distributionでstationary distributionに収束する.

Theorem 5.5 (Ergodic theorem)

Metropolis-Hastingsによって生成されるMarkov chainがirreducibleであるとき,可測な

が任意の初期値に成立する.

5.3 The random walk Metropolis algorithm

Metropolis-Hastingsの特別な場合に,random walk Metropolisがある. Metropolis-Hastingsにおける提案分布を,に変えた場合である. ただしは対称性をもつ分布とする(i.e. ). このとき,が対称性より言えるから,

つまり
#### Algorithm 5.2 (Random walk Metropolis)

を初期値として,以下をに繰り返す
1. をとって,
2.
3. 確率とし,そうでなければとする.

Example 5.2 (Bayesian probit model)

帝王切開による出産の際の感染の有無の調査(table 1)
enter image description here
人の患者のうちの感染数を推測する.
を仮定する.
ただし, のCDFとする.
のprior distributionにはを使う. のposterior densityは

random walk Metropolis を使ってこのposterior からサンプリングを行う. 初期値を適当に決めて,
1. を計算する
2. を計算する
3. 確率, そうでなければとする.

を繰り返す. とする.
table 5.2 とfig. 5.3が50000サンプルを取ったときの一つの結果である. ただし最初の10000サンプルは排除している.

enter image description here

5.4 Choosing the proposal distribution

Metropolis-Hastingsの効率はproposal distribution の選び方に強く依存している. から離れたところに山をもっているのが望ましいし,またが大きいことが望ましい. この二つは相反する要求である.
経験的に,1か2次元のモデルでは受理率は1/2程度がよく,3次元以上のモデルでは1/4程度が良いと知られている.

Markov Chains and Monte Carlo Methods 08日目

Ioana A. Cosma and Ludger Evers, Markov Chains and Monte Carlo Methods
http://users.aims.ac.za/~ioana/notes.pdf
CC-by-nc-sa 2.5
http://creativecommons.org/licenses/by-nc-sa/2.5/za/legalcode

もしかして: chap.3 いらない?

Chapter 4. The Gibbs Sampler

4.1 introduction

importance samplingではから直接サンプリングせずにを求めたが,性質の良いinstrumental ditributionをみつけるのは特に高次元に置いて困難になる. この章で議論するサンプリング法は,がstationary distributionであるようなMarkov chainを設計することが最終目標である. こうした技術を総称してMarkov Chain Monte Carlo (MCMC)とよぶ. をサンプルを生成したいdistributionとして,が,をstationary distributionにもつMarkov chainであるようにする. このときは従属で,の極限での正確なサンプルとなる. 
からサンプリングをすることが困難でも,full conditional distributions

が全てのについて効率的にサンプリングできるとき,Gibbs sampler が使える.
記述がまちまちだが,Gibbs samplerによって生成される列はあるMarkov chainの一つのrealizationつまりsample pathである

4.2 Algorithm

Algorithm 4.1 ((Systematic sweep) Gibbs sampler)

から初めて,
1, を取る

j, をとる

p.  をとる
を繰り返す.

Gibbs samplerはreversible でない. Liu et al.(1995)はreversibleなchainを返すアルゴリズムを開発した.

Example 4.2 (Random sweep Gibbs sampler)

から初めて,
1. から,(例えばuniformで) を選んで,
2. をとって,すべてのとする.

4.3 The Hammersley-Clifford Theorem

Gibbs samplerの基礎であるfull conditionalはjoint distributionを一意に決定するという著しい特徴が有る(Hammersley and Cliford).

Definition 4.1 (Positivity condition)

density とmarginal density をもつ分布とがpisitivityをもつ

positivityは,joint distribution の台がの台たちのデカルト積であるということである.

#### Theorem 4.2 (Hammersley-Clifford)

がpositivityをみたし,joint densityはとする. このとき任意のに,

proof.


であって,に置き換えても成立する.

したがって

よって成立. positivity conditionが分母がでないことを保証する.

Hammersley-Cliffford theoremはjoint probability distributionの存在を,任意のconditionの選び方にも保証するわけではない. このような問題はBayesian modelingで,prior distributionの設定に問題が有る時によく起きる.例えば
とする. Hammersley-Cliffordから

しかしは無限であって,がPDFとなるような分布は存在しない.

4.4 Convergence of the Gibbs sampler

が実際にGibbs sampler(この節ではalg. 4.1とする)で生成されるMarkov chainのstationary distributionであることを確かめる. まず,Gibbs samplerによって生成されるtransition kernelを議論する.

Lemma 4.3

Gibbs samplerのtransition kernelは

proof.

Proposition 4.4 証明略

はたしかに生成されるMarkov chainのstationary distributionである.

以上, Gibbs samplerが生成するMarkov chainはをstationary distributionにもつことが言えた. Theorem 1.19では,Markov chain がstationary distributionに収束する十分条件がirreducibleかつaperiodicであることを見たが,Gibbs samplerが生成するMarkov chainがこれを満たすかは議論の余地が有るし,実際満たさない.

Example 4.3 (Reducible Gibbs sampler)


とし,上一様分布のPDFとする.このとき,なる初期値から開始したGibbs samplerはfig. 4.2のように,の点のみを取り出してしまう.

これは生成されたMarkov chainがirreducibleでないために起きる. 次の命題はGibbs samplerの生成するMarkov chain のirreducibilityの十分条件を与える. より弱い条件の十分な命題もある(Robert and Casella, 2004, Lemma 10.11)

Proposition 4.5

がpositivity conditionを満たすとき,Gibbs samplerはirreducibleかつrecurrentなMarkov chainを生成する.

proof.

を満たすとする.

が,positivityよりconditional densityが正の値であることから言える.よってstrongly f-irreducibleで, prop. 1.28から,Markov chainはまたrecurrentである.

さらに,エルゴード性の帰結としてTh. 4.6が得られる.

Theorem 4.6

Gibbs sampler によって生成されるMarkov chainがirreducibleかつrecurrentであるとき,可積なについて

がほとんどすべての初期値で成立する.

これがを,生成した一つのMarkov chainの平均によって推測することを正当化する.

Example 4.6


について,をGibbs samplerによって計算する.
marginal distributionはである
conditional distibution は正規分布の多項式表現から


よってGibbs samplerが,
1. を取る.
2. を取る.

を繰り返してMarkov chain を生成する.
とするとき,fig.4.4はひとつのsample pathの例である. さらにTh. 4.6により,からまでの平均によって推測できる. を横軸として平均をプロットしたのがfig. 4.3である.
enter image description here
enter image description here

Markov性からは従属であり,普通は正の相関を持つ. の相関が大きいほどMarkov chainはゆっくりと動く(slowly mixingという). Gibbs samplerにおいても, が正であれ負であれ強く相関しているときにはそのような現象が見られる. ex.4.5はその例である.

Example 4.5 (Sampling from a highly correlated bivariate Gaussian)

4.4 の例で,ただにした場合に,である. このときGibbs samplerはslower mixingで,fig. 4.5,からわかるとおり,収束が非常に遅い.

enter image description here

2017年9月7日木曜日

Markov Chains and Monte Carlo Methods 07日目

Ioana A. Cosma and Ludger Evers, Markov Chains and Monte Carlo Methods
http://users.aims.ac.za/~ioana/notes.pdf
CC-by-nc-sa 2.5
http://creativecommons.org/licenses/by-nc-sa/2.5/za/legalcode

3.3 Importance sampling

rejection samplingでは,target のかわりにinstrument からサンプリングし,に合致しなそうなサンプルを棄却することでからのサンプリングを行った. importance samplingではからのサンプルを重み付けしてからのサンプリングを実現する. impotrance samplingの最も重要な基礎は

なる全てのに成立することである. これはまた,任意の可測関数に,

と一般化出来る.
があって,が存在するとき

が大数の強法則から言える. だから

つまり

で近似できる.
だが,の総和は必ずしもではないので,self-normalized

を正当化でき,以下のアルゴリズムが導かれる.

Algorithm 3.2 (Impotrance sampling)

なるを選んで,
1.
(i) を生成する
(ii) とする
2.

あるいは

を返す.

Theorem 3.3 (Bias and Variance of Importance Sampling)

(a)
(b)
(c)
(d)

proof.

(a)
(b)
(c, d) 略

この定理から,は不偏だが分散が大きく,は不偏でないが分散がより小さいことがわかる. さらに,とすると

だから,がわからなくともは計算できる.
はsupportの条件を満たせば良いが,普通の分散を有限にするように選ぶ.これは以下の2つの条件のどちらかが成立すればよい.
- ・・・・ はrejection samplingにも使える
- がコンパクトで,上有界

さらにが最良である,すなわちが最小になるようなの選び方を考える.

Theorem 3.4 (Optimal proposal) 証明略

を最小にする

で与えられる.

Corollary

importance samplingはsuper-efficientである. すなわちTh. 3.4 によるを使うと,から直接サンプリングしたときの分散よりも小さくなる.

のnormalisaton constantを知らなければならず,またからのサンプリングが難しいことも有るので,に近い別のをinstrumental として使うことが有る.

Example 3.5 (Computing )

は自由度3のt分布(とする)に従うとして,をMonte Carlo methodで計算する. 以下の3つの方法が考えられる.
- X_1,…,X_nをから直接サンプリングし, で推測する
- (Cauchy分布に同値)をinstrumentalにしてimportance samplingする.
- をinstrumental にしてimportance samplingする.このとき

2つのinstrumentalとtargetのグラフはfig. 3.4の通り.

enter image description here

2017年9月6日水曜日

Markov Chains and Monte Carlo Methods 06日目

Ioana A. Cosma and Ludger Evers, Markov Chains and Monte Carlo Methods
http://users.aims.ac.za/~ioana/notes.pdf
CC-by-nc-sa 2.5
http://creativecommons.org/licenses/by-nc-sa/2.5/za/legalcode

assignment 1

Q and A

2.

答案.

(a) 数学的帰納法を使う.で確かに成立.
m=mで成立を仮定し,での成立を示すのはを使えばたやすい.
(b) stationary distributionをとすると,が成り立つから,
を解く.
その解は. の要素は全て非負で和が1になることを考えれば,求めるdistibutionは.
(c) detailed-balanceを満たしていることを見れば良い.
だから,たしかに成立.

3.

(a, b)
それぞれ(recurrent, period=2), (transient, aperiodic), (transient, aperiodic), (transient, aperiodic)

4.

(a) 任意のについて,を満たすようなが有ることを示せば良い. 定義よりから示せた.
((1): からに遷移する確率, (2): からに遷移する確率)
(b) (i)recurrence

が一つのcommunicating classだから,がrecurrentであることを示せば十分である.
であって,
だからすなわちrecurrent. 以上より示せた.

(ii) aperiodicity

から,.GCDは1であり,aperiodic. これが全てのに成立する.

(c) transition matrixは

である. stationaryなを計算する.
を解けばよい.




であって,ゆえに.
だから,.以上より.
stationary が示せた.

6.

(a)
(1): から他のstateに遷移する確率
(2): 回,からに遷移する確率
(b) を示す.


よって示せた.

8.

def Wright_Fisher(a, b):
    path = [a]
    tn = a + b #2N
    xt = a
    for i in range(1000):
        xt = np.random.binomial(tn, xt/tn)
        path.append(xt)

    return path

Markov Chains and Monte Carlo Methods Computer Practical 1. Markov chains

Ioana A. Cosma and Ludger Evers, Markov Chains and Monte Carlo Methods
http://users.aims.ac.za/~ioana/notes.pdf
CC-by-nc-sa 2.5
http://creativecommons.org/licenses/by-nc-sa/2.5/za/legalcode
Q and A

task1

def m_trans(K, m):
    # A, Bがnp.array型のときA * BやA**nはアダマール積として扱われるので,
    # np.matrix型に変換する.
    K = np.matrix(K)
    return K**m

m_trans(np.array([[0.9, 0.1], [0.3, 0.7]]), 3)

->

matrix([[ 0.804,  0.196],
        [ 0.588,  0.412]])

task2

def dist_t(K, t, lambda_0):
    return np.transpose(lambda_0).dot(m_trans(K, t))

# phone lineの例で,stationary distributionを試すと
dist_t(np.array([[0.9, 0.1], [0.3, 0.7]]), 100, np.array([0.75, 0.25]))

->

matrix([[ 0.75,  0.25]])

task3

def stationary(K):
    K = np.matrix(K)
    dim = len(K)
    b = np.zeros(dim+1)
    b[dim] = 1

    up = np.transpose(K - np.matrix(np.identity(dim)))
    mu = np.linalg.lstsq(np.array(np.concatenate((up, [np.ones(dim)]))), b)
    print(mu[0])


stationary(K)

->

[ 0.75  0.25]

task4

t = np.linspace(0, 25)
a = np.random.uniform()
init = np.array([a, 1-a])
def pow_generator(K): # Kのべき乗を生成するジェネレータ
    K = np.matrix(K)
    tmp = np.identity(len(K))
    while True:
        tmp = K.dot(tmp)
        yield tmp

gen = pow_generator(K)
process = [np.array(init.dot(next(gen)))[0] for t in range(25)]

plt.plot(process, marker=".")
plt.ylim([0, 1])
plt.show()

->
enter image description here

task5

def sample_path(K, init, tau):
    states = list(range(len(init))) # ここではstateは0から番号を付ける
    x0 = np.random.choice(states, p=init)
    path = [x0]
    tmp = x0

    for i in range(tau):
        suc = np.random.choice(states, p=K[tmp])
        tmp = suc
        path.append(suc)

    return path

plt.plot(sample_path(K, [0.5, 0.5], 100))
plt.show()

->
enter image description here

task6

path = sample_path(K, [0.5,0.5],20000)
avg = []
for i in range(1, 100):
    avg.append(np.average(path[: 200 * i]))
plt.plot(avg)
plt.show()

->
enter image description here

Markov Chains and Monte Carlo Methods 05日目

Ioana A. Cosma and Ludger Evers, Markov Chains and Monte Carlo Methods
http://users.aims.ac.za/~ioana/notes.pdf
CC-by-nc-sa 2.5
http://creativecommons.org/licenses/by-nc-sa/2.5/za/legalcode

Chapter 3. Fundamental Concepts: Transformation, Rejectino, and Reweighting

3.1 Transformation methods

の現れを生成する(サンプリングする)方法はすでに見た. CDF をもつ分布からサンプリングする方法を考える. transformation methodはそのようなアルゴリズムのひとつのクラスであって,transformation methodの最も単純なアルゴリズムがInversion Methodで,generalized inverse(一般化逆関数) を用いる.

Theorem 3.1 (Inversion Method)

として,はあるCDFとする. のCDFはまたである.

proof.

だから,

Example 3.1 (Exponential distribution)

パラメータのexponential distribution()のCDFはであって,. inversion methodから,これでからの現れを写像すればからのサンプリングを行える.

Inversion Methodはinverse CDFが効率的に計算できる分布に対してのみ効率が良いアルゴリズムである. 例えば正規分布はCDFもその逆関数も解析的に書けない. しかし,generalised inverseでない変換によって欲しい分布を実現する方法も有る.

Example 3.2 (Box-Muller Method for Sampling from Gaussian)

,IIDとする. この2つの実数の組を平面上の点と考えるとその極座標について,は独立で,である.

が成立するから,を使って

で$X_1, X_2の現れが得られる.

transformation methodは,目的とする分布以外の,扱いやすい分布からサンプリングを行い,そのサンプルたちを目的とする分布のサンプルとなるように変換する技術である. 多くの場合,そのような変換をclosed formで得ることはできず,そのような場合,目的とする分布に似ているが実は異なる分布からサンプリングを行い,不合理なサンプルを棄却することで目的とする分布のサンプリングを行う方法が有る. これをrejection samplingといい,次節であつかう.

3.2 Rejection Sampling

rejection samplingは,instrumental distributionからサンプリングし,目的の分布の点ではなさそうなサンプルを棄却する. 目的分布のPDF は既知とする. rejection samplingの根底には,

がある. を,における一様分布の,による周辺分布と考えるのである. fig. 3.2はその概略図である.
enter image description here

Example 3.3 (Sampling from a Beta distribution)



ただし,はGamma関数である. のPDFはをmodeとする単峰なグラフを持つ(fig. 3.2).
fig.3.2の影の部分からサンプルを取るには, ex.2.1と2.2でみたのと同じ技術を使う. つまり,明るいグレーの四角形に一様にサンプルの候補を置き,影になっている部分のみをサンプルとして保存するのである.
形式的には,から独立にサンプリングし,となるようなの組のみをサンプルとする.

は,の組が,という条件のもとでサンプルになる条件付き確率である.

ex.3.3の例では,BetaのPDFが短径に覆われることを利用したが,PDFが性の値を取るrange(support, 台という)が非有界な分布にはそのまま適用できない. しかしそのようなを,より簡単なによってとして抑えることでrejection samplingを実現できる.をproposal distribution(提案分布)という.

Algorithm 3.1 (Rejection sampling)

任意のが成り立つようなを与えられたとき,からのsampleを以下のようにして得る.
1. を得る.
2. を,確率

で受理して,受理しないときには1にもどる

proof.

を,棄却を考えずにから得たの集合とする.

さらに, が取りうる値全ての集合とするとで,
を代入すれば

よってこのアルゴリズムで生成された値たちの密度は(が一様なら).

Remark 3.2

について,しかわかっていないときには

によってrejection samplingを行える.

Example 3.4 (Rejection sampling from the using a Cauchy proposal)

とCauchy distributionのPDFはそれぞれ

であって,とすれば,が言える. (fig.3.3)
一方で,をproposal distributionとしてCauchy distributionをrejection samplingすることはできない. なるが存在しないためである.

2017年9月5日火曜日

Markov Chains and Monte Carlo Methods 04日目

Ioana A. Cosma and Ludger Evers, Markov Chains and Monte Carlo Methods
http://users.aims.ac.za/~ioana/notes.pdf
CC-by-nc-sa 2.5
http://creativecommons.org/licenses/by-nc-sa/2.5/za/legalcode

2.1 What are Monte Carlo Methods?

  • Stochastic integration
    積分をシミュレーションで近似する
  • Monte Carlo tests
    p値をシミュレーションで近似する
  • Markov Chain Monte Carlo(MCMC)
    興味有る分布に収束するMarkov chainを構成する

2.2 Introductory examples

Example 2.1 (A raindrop experiment for computing )

をMonte Carloによって推測する. ある雨粒が落ちる位置の確率変数を,,とする. ある正方形に一様に雨粒が落ちると仮定して,その中の単位円にも一様に雨粒が落ちる. がiidでuniformally distribution ,に従うとする.

これはと同じ.
個のraindropに対して,単位円に落ちる個数のr.v.をとするとはbinomialである.つまり

を最尤法での推定値は. よって.
law of large numbersによって,がほとんど必ずに収束する. 中心極限定理によって,例えばとしてとすれば,で近似できる. よってであって,の95%信頼区間は

さらにの95%信頼区間は.
以上やってきたことは
- をある期待値として表現した
- 代数的な表現を,それのsample approximationに書き換えた. そのsample approximationが収束することを大数の法則で保証し,CLTによって収束の測度を議論した.

Example 2.2 (Monte Carlo Integration)


をMonte Carlo integrationすることを考える.だから,上ののグラフはに収まる. またraindrop experimentを考える. だから

分子はのグラフの面積で,分母はの面積である. 個の雨粒を落としてに落ちる確率がなとき,信頼区間は

だから,収束の早さは. 一方Riemann積分の速度は.
Monte Carloの場合の収束の早さは次元に依存しない一方で,他の決定論的な積分評価の場合は次元の増加とともに収束が遅くなっていくので,高次元な関数の積分でMonte Carloは威力を発揮する.

Example 2.3 (Buffon’s needle)

3本の間隔の平行な直線で平面が区切られていて,長さの針を落とすとき,その針が直線と交わる確率はどれほどだろうか?

解答 (Buffon, 1777)

針が直線との角度で着地したとき,針が直線と交わる針の一端と直線の距離が以下(fig. 2.5(a)). したがって

さらに上一様分布していると仮定すると

Lazzarini,1901はの場合に,1808本の針を使ってを算出した. これは非常に良い近似である. 力学的にMonte Carlo法を行うのは非常に時間がかかるが,電子計算機の到来によってこの欠点は克服された. しかし,例からわかるように,それぞれの実験での確率変数の現れがたしかにもとの分布から生成されていなければならないので,乱数の生成が重要になってくる.

2.4 Pseudo-random numbers

ここではの現れを生成するpseudo-random number generator(RNG)を考える. これには以下の性質が必要である.
- RNGの生成する値は独立である
- RNGの生成する値はにまんべんなく分布する

以下にlinear congruential generator(線形合同法)の概要を述べる. linear congruential generatorは上で述べた性質をあまり満たしていないので実践すべきではない.

Algorithm 2.1 (Conguruential pseudo-RNG)

  1. を選ぶ

  2. とする.

これは明らかに決定論的なアルゴリズムで,それぞれのパラメータを一致させれば完全に一致する出力をおこなう. また, 生成される値は,次元空間の点と考えることで,次元立方体のテント見ることが出来る. これらの点は有限の-しばしばごく小さい数の-超平面に乗っていて,したがってまんべんなく分布していると見ることができない(fig. 2.6, fig. 2.7).
enter image description here
よりよいpseudo-RNGには,例えばMarsaglia and Zaman(1991)やMatsumoto and Nishimura(1998)がある.

2017年9月3日日曜日

Markov Chains and Monte Carlo Methods 03日目

Ioana A. Cosma and Ludger Evers, Markov Chains and Monte Carlo Methods
http://users.aims.ac.za/~ioana/notes.pdf
CC-by-nc-sa 2.5
http://creativecommons.org/licenses/by-nc-sa/2.5/za/legalcode

1.4 Ergodic theorems

Makrov chainを観測して,そのstationary distributionを推測する方法とその条件を考える. IIDな確率変数の列では大数の法則が観測した値の平均によって期待値を推測することが正当化される一方,Markov chainではErgodic theorems (エルゴード性に関する諸定理)によって似たような主張が出来る. これらはMarkov Chain Monte Carlo(MCMC) を正当化する根拠でも有る.

Theorem 1.30 (Ergodic Theorem) 証明略

-irreducibleかつrecurrentな上の Markov chainで,stationary distribution をもつとする. このときがあって,確率1で

がほとんどすべての初期値に成立する. また,がHarris-recurrentであればこれは任意の初期値で成立する.

左辺はの時間的な平均であり,右辺はの空間的な期待値と考えることが出来る.
ex. 1.17はrecurrenceやirreducible性がth. 1.30の仮定に必要であることの例である.

Example 1.17

でtransition matrix をもつdiscrete Markov chainを考える.
任意のがstationary distributionであり,さらにこのchainはirreducibleでもrecurrentでもない. ならば任意の

が成立する. 一方sample pathはただ(1, 1, 1,…)か(2, 2, 2,…)しかありえず,どちらを一つだけ得たとしてもについての推測はできない. このchainはをexploreできないためであり,様々な推測をするには複数のsample pathが必要となる.

2017年9月2日土曜日

Markov Chains and Monte Carlo Methods 02日目

Ioana A. Cosma and Ludger Evers, Markov Chains and Monte Carlo Methods
http://users.aims.ac.za/~ioana/notes.pdf
CC-by-nc-sa 2.5

1.3 General state space Markov chains

の場合の議論を始める. より一般的な場合にも定義できるのだが,ここではとする.

Definition 1.23 (Markov chain)

はdiscrete time stochastic processで, state spaec とする. がMarkov property を満たす

ただしの可測集合族とする.
以後,Markov chainはhomogeneousとする.すなわち によらない. このときtransition kernel によって

として得られる. というのはが与えられたときののconditional probability densityである. def. 1.8におけるというのはdiscrete spaceにおけるconting measureであって,(1.3)の式に合致する.
さらに

だから,-step transiton kernelは

であり,

と簡潔に書ける.

Example 1.15 (Gaussian random walk on )

上のrandom walkを

とすると,

と同値. と独立とし, とすれば,

よってはMarkov chainであり,しかも

である.ただしである.したがって.
-step transition kernelは(1.3)によって計算できるが,非常に複雑になる. それよりも

を利用すれば,が成立して,

したがって

-step kernelとして得られる.

Definition 1.24 (Irreducibility)

上の分布が与えられて, Markov chain -irreducibleである


が任意のなると任意のに成立するようなが存在するとき-irreducibleといい,特に任意ので成立するときstrongly -irreducibleという.

Example 1.16 (Gaussian random walk (continued))

ex. 1.15でを見た. が任意のnullでないに成立するから,これは任意のcontinuous distributionにstrongly irreducibleである.

periodicity, recurrence, そしてtransienceのような概念をが連続的なMakov chainに導入するため, atomssmall setsのような概念を導入する必要があって,これらはこのノートの範囲を超えるので,recurrenceのみを一般化する.
section 1.2.3で定義したの場合のrecurrenceとは,全てのstateがそれを初期のstateとしたとき,平均して無限回訪れられることであった. が連続である場合には,あるstate一点ではなく,stateの集合たちを考えることになる. として,が訪れられる回数をあらわす. expected valueを考えると

である. recurrenceをMarkov chain全体に定義する前に,集合のrecurrenceを定義する.

Definition 1.25 (Recurrence)

(a) がMarkov chain においてrecurrentである
任意の

(b) Markov chain がrecurrent

(i) はある分布に対して-irreducibleであって,かつ
(ii) 任意のはrecurrent

定義より,recurrent setとは平均して無限回訪れられる集合であって,より強い命題に,その集合が無限回訪れられる確率が1であるというのがある. この強い性質によって定義できるrecurrenceをHarris Recurrenceという.

Definition 1.26 (Harris Recurrence)

(a) にHarris-recurrentである

(b) Markov chain がHarris-recurrent

(i) はある-irreducible
(ii) 任意のはHarris-recurrent

Harris recurrenceはrecurrenceを導くことは明らかで,discreteの場合2つは一致する.
どちらの概念も成立を証明することは非常に困難だが,あるMarkov chainがirreducibleで唯一のstationary distributionをもつならばrecurrentであるという命題を主張する. その前に,stationaryを定義する.

Definition 1.27 (Stationary distribution)

分布PDFをもつ分布がtransition kernel をもつのstationary distibutionである

Proposition 1.28 (証明略)

-irreducible Markov chainで,を唯一のstationary distibutionにもつなら,はrecurrentである.

また,def. 1.27によってstationarityを確かめるのは困難なので,discreteの場合と同様により簡単な十分条件を定義する.

Definition 1.29 (Detailed balance)

transition kernel がdistribution にdetailed balanceである

theorem 1.22と同様に,によってdetailed balanceなMarkov chain はtime-reversibleでのstational distibutionである.

2017年8月31日木曜日

Markov Chains and Monte Carlo Methods 01日目

Ioana A. Cosma and Ludger Evers, Markov Chains and Monte Carlo Methods
http://users.aims.ac.za/~ioana/notes.pdf
CC-by-nc-sa 2.5
http://creativecommons.org/licenses/by-nc-sa/2.5/za/legalcode

Chapter 1. Markov Chains

1.1 Stochastic processes

Markov chain は無記憶性という特別な性質を持つ確率過程の一種である. Markov chainをよく学ぶため,まずはStochastic processの概念を形式的に定義する.

Definition 1.1 (Stochastic process)

がstochastic processである
という,を添字集合とした確率変数の集合であって,domainとrangeは共通である. は”time”(時刻)で,は”state space”(状態空間)と呼ばれる.

には様々な集合が考えられるが,我々が当面扱うのはが離散的な集合である場合(stochastic processes in discrete time)で,例えばの場合である. ほかにはのような連続時間における過程やのような空間的な過程を考えることもある.
また,がどのような集合かも問題で,が離散的な集合であれば(がr.v.として離散的であれば),このような過程を離散過程(discrete process)という.

Definition 1.2 (Sample path)

について,におけるsample path という.

ならばsample pathは点列で,ならばsample pathはなる関数である.
fig.1.1はsample pathの例である.
figure 1.1
stochastic processはのそれぞれの分布のみではなく,それらの依存関係によっても特徴づけられる. この依存関係の構造はprocessのfinite-dimentional distributionsによって表現できる.すなわち

という具合である. であればjoint distibution function(同時分布)は

と記述できる.



を満たすとき,のfinite dimentional distribution functionはconsistentであるという.
stochastic process について,がfinite dimentional distributionsによって完全に記述できるか否かについての部分的な答えが以下の定理である.

Theorem 1.3 (Kolmogorov)

はconsistent なfinite-dimensional distribution functionの族とする. このとき,以下を満たすprobability spaceとstochastic process が存在する.

この定理から,あるprocessのfinite-dimensional distributionsを与えれば,そのprocessを特徴づけられる(本当か?). ただし,あるfinite-dimensional distributionsによって特徴づけられるは一意ではない. しかし,そのdistributionsはたかだか可算個のr.v.によるeventの全てに確率を一意に割り当てることができて,この講義の範囲ではそれで十分である.

1.2 Discrete Markov chains

1.2.1 Introduction

この節ではMarkov chainのうち,とくにであるときを考える. これをdiscrete Markov processと呼ぶことはすでに述べた(の時も含むが,深くは考えない). discrete Markvo processではとして一般性を失わない.

Definition 1.4 (Discrete Markov chain)

はdiscrete stochastic processで,しかも時間についてもdiscreteとする.
がMarkov chain (with discrete state space)

またこの性質をMarkov propertyという.

この定義は,ある時刻における状態がその直前の時刻における状態のみによって決まる(確率的)ということの定式化である.

Proposition 1.5

Markov propertyが成立する
任意のについて

Example 1.1 (Phone line)

電話線が使われている状態(1とする)と使われていない状態(0とする)があって,毎分この電話線を監監視する過程のstochastic processを考える. がMarkov chainと仮定する. すなわち,これまでどれほど長く電話をしていても1分間後にその電話が切れている確率は変わらず,同様にどれほど長く電話がかかってこなかったとしても1分後に電話がかかってきている確率は変わらない仮定する. Markov assumptionはが同じ分布であることを要求しないので,(は昼頃), (は深夜)というふうに,時刻によって利用のパターンが異なるモデルにも適用できる.

Example 1.2 (Random walk on )

から始まるrandom walkという確率過程を考える. 全ての時刻で,次の時刻に今あるstateにとどまるか,+1進むか,-1進むかを確率的に選ぶ過程である. 現在あるstateにかかわらず,そのstateにとどまる確率を, -1進む確率を, 進む確率をとする.である.
を,任意のに成立するr.v. によって

と記述する.このとき

であることは明らかである.さらに

が成り立つから,はMarkov chainである.

Markov chainの分布は初期分布によって完全に定まる.さらに*transition probabilitiesを と定めると,以下の命題が成立する.

Proposition 1.6

discrete Markov chain について,

proof.

この証明の1つめの等号は全てのr.v.の組に成立するが,2つ目の等号が成立するのはMarkov chain特有である.
Homogeneous Markov chainという更に特別なクラスはによってが変化せず,非常に扱いやすい.以下,全てのMarkov chainはhomogeneousとする.

Definition 1.7 (Homogeneous Markov Chain)

Markov chain がhomogeneous
というによらない実数が,任意のに存在する.

Definition (initial distribution)

initial distributionをと書く.の組によってhomogeneous Markov chainの分布は完全に定まる(後述).

Definition 1.8 (Transition kernel)


という行列をhomogeneous Markov chain のtransition kernelとかtransition matrixという.
が成立する.

Example 1.3 (Phone line(continued))



とするとき,transition kernelは

となる. transition probabilityを有向グラフを使って表現することが有る. Markov graphという. この例のMarkov graphはfig. 1.4のようになる.

Example 1.4 (Random walk on (continued))

前に挙げたrandom walkのhomogeneous Markov chainのtransition kernelは行,列ともに無限大のToeplitz matrix(テープリッツ行列)で,具体的には

という形をしている.

Definition 1.9 (m-step transition kernel)

homogeneous Markov chain について,-step transition kernelという.

Proposition 1.10

をhomogeneous Markov chainとすると,
i.
ii.
が成立する.

proof.

i. を示す.

ゆえにがたしかに成立し,帰納法によりである.
ii.

Example 1.5 (phone line(continued))


のm-step transition kernelは

1.2.2 Classificaton of states

Definition 1.11 (classification of states)

(a) あるがあって,が成り立つときを導くといい,と書く.
(b) であるときはcommunicateするといい,と書く.このときは同値関係である.

に同値関係を入れられたから,で同値類別できる. ある同値類の全ての元で他のの元に出るpathが無いとき(), はclosedであるという. ある同値類の元は様々な性質を共有していることをあとで示す.

Example 1.6


をtransition kernelにもつMarkov chainのMarkov graphはfig. 1.5のとおりである. が見て取れて,同値類別はであり,特にのみがclosedである.

figure 1.5

Definition 1.12 (Irreducibility)

の全ての元が互いにcommunicateするときはirreducibleであるという.

phone lineの例とrandom walkの例はreducibleであり,example 1.6はirreducibleである. ところで,ex. 1.6において,から再びに至るのは,から,から,からというステップを踏まなければならないので,
である. このような振る舞いをperiodicityという.

Definition 1.13 (Period)

(a) のperiod

と定める. periodを持たないstateも存在する.
(b) なら,aperiodicという.
(c) なら,periodicという.

Example 1.7 (Ex. 1.6 continued)

すでに述べたようにである. 同様にである.
まただから,.すなわちはaperiodicである.
ある同値類(以後,communicateによる同値類をcommunicating classか,単にclassという)においてperiodを共有しているのは偶然ではない.

Proposition 1.14

(a) あるclassの全ての元はperiodを共有する.
(b) irreducible chainでは全ての元はperiodを共有する.

1.2.3 Recurrence and transience

ex. 1.6のMarkov chainを辿り続けると,そのうちを往復するだけになる. このような振る舞いを定式化するため, number of visits in state :

を導入する. 初期値がであるときの条件付き期待値は

この値が有限か無限かによってstateを分類する.

Definition 1.15 (Recurrence and transience)

(a) がrucurrent

(b) がtransient

すなわち,がa.s.無限回訪れられるというのがrecurrentで,a.s.有限回訪れられるというのがtransientである.
prop. 1.14から,あるcommunication classの元たちはrecurrentであるか否かを共有する.

Proposition 1.16

あるcommunicating classにおいて,全ての元がrecurrentであるか,全ての元がtransientであるかのどちらかが成立する.

proof.

ならば,からに至る長さのpathがあり,からに一有る長さのpathがある. すなわちである.
とすると,

((1): からに行って,さらに後にまたに戻って,そこからに戻るという確率)
よってもまたtransientである.
またがrecurrentであるとき,

から,もrecurrent.

Proposition 1.17

(a) closedでないclassはtransient
(b) 有限かつclosedなclassはrecurrent

Example 1.8 (ex.16, 1.7 continued)

ex.1.6において,はclosedでないからtransient.
一方は有限かつclosedなのでrecurrent.

1.2.4 Invariant distribution and equilibrium

invariant distributionを導入して,Markov chainの長期的な振る舞いを調べる.

Definition 1.18 (Invariant distribution)

上のprobablility distributionとする. またがMarkov chainでtransition kernel をもつとする. invariant distribution (stationary distibution)

さらにこのとき,右からを掛けることで,

が成立する.したがってprop. 1.10より

が任意のに成立する. つまり,の分布は時刻によって変化しない.

Example 1.9 (Phone line (continued))


のstationary distributionを見つける.
を変形して,.よってのeigenvector(固有ベクトル)であって,ただし確率の公理からのそれぞれの要素は非負で,総和は1である.これを解くと,である.
Markov chainは必ずしもstationary distributionを持たない.上のrandom walkがその例である.

Example 1.10 (Random walk on Z (continued))


であることはすでに言った.の唯一の解だが,は無限次元のベクトルなので正規化できない.

ある種のMarkov chainは長期的にはstationary distributionに至る.

Theorem 1.19 (convergence to equilibrium)

がirreducibleかつaperiodicなMarkov chainで,stationary distribution をもつとする.このとき

が任意のに成立する.

proof. (sketch)

のinitial distribution, transition kernelをそれぞれ, とする. initial distribution (stational)とtransition matrix をもつ新しいMarkov chain を定める. またが初めてに同時に到達する時刻の確率変数をとする.すなわち

さらにであり,また新しいprocess

によって定める. の概略はfig.1.6のようになる. はinitial distribution をもち,transition kernel である. したがっては常に同じ分布を持つ.すなわちである.
のinitial distributionはstationaryなので,である. においてであって,ゆえに

Example 1.11 (Phone line (continued))

phone lineの例で,だから,.

Example 1.12

Theorem 1.19におけるaperiodicityの仮定が必須であることを示す.
, とする. これは明らかにirreducibleだがperiod 2である. stationary distibutionはだが,これは決定論的な過程だから,明らかにはこれに収束しない.

1.2.5 Reversibility and detailed balance

のように,現在(あるいは過去)を条件にした未来の状態の確率を論じてきたが,今度は逆に未来の状態を条件にした過去あるいは現在の状態の確率を議論する.

のように条件付き確率の前後が交換できるのはBayesの定理の教えるところである.
chainを逆に辿っていくような新しいMarkov chainの定義を動機づける.

definition 1.20 (Time-reversed chain)

について,をMarkov chainとする. とすると,のtime-reversed chainという.

である.

がhomogeneousでもがhomogeneousとは限らない.
しかし,のinitial distributionがstational であれば,が任意のに実数として決まって,

が成立するから,はhomogeneousである.

Example 1.13(Photo line(cont.))

すでに挙げた例で,
だから, 式(1.2)により

以上よりこの例ではは同じtransition probabilityをもつ. このようなchainはtime-reversibleであるという.

time-reversible であるか否かを判別する基準を導入する.

Definition 1.21 (Detailed balance, 詳細釣り合い条件)

transition kernel がdistribution によってdetailed balanceを満たす

detailed balanceは後で学ぶMarkov Chain Monte Carlo(MCMC)の議論でも極めて重要な役割を果たす. detailed balanceを満たすはstationary distributionであり,これはdef. 1.19の定義よりも扱いやすいことが多い.

Theorem 1.22

はMarkov chainで,そのtransition matrix をはdetailed balanceをによって満たすとする.このとき
(i) のstationary distributionである.
(ii) がinitial distributionであれば,はtime-reverisbleである.

proof.

(i)仮定より

((1): distributionの定義 (2): detailed balanceの定義)
よって確かにだから,はstationary distributionである.
(ii) のtime-reversalとする.

(1): 式1.2 (2): detailed balanceの定義
よって確かにはtransition matrixを共有する

一方,stationary distributionを持つからと行ってtime-reversibleであるとは限らない.

Example 1.14

.

というMarkov chainを考えると,stationary distributionは. Markov graphはfig.1.7の通り.
enter image description here
(1.2)からtime-reversed chain のtransition matrixが

と得られるが,これはと異なる行列である.