2017年9月9日土曜日

Markov Chains and Monte Carlo Methods 10日目

Ioana A. Cosma and Ludger Evers, Markov Chains and Monte Carlo Methods
http://users.aims.ac.za/~ioana/notes.pdf
CC-by-nc-sa 2.5
http://creativecommons.org/licenses/by-nc-sa/2.5/za/legalcode

Gibbs samplerが終わったし後は流れで

Chapter 7. State-space models and the Kalman filter algorithm

7.1 Motivation

現実世界では,観測は時間的に離散的な列で行われて,その観測が行われるたびに以前の観測たちから興味有る対象の量(x)を推測することになる. これをon-line inferenceという. 観測データがy1,y2,...,yt,...と時刻tに沿って与えられて,各時刻で興味有る対象xtを推測することを考える. xtの事前分布p(xt)tによって変化するようなモデルをDynamic Modelという.
Dynamic modelの例には,レーダーによる観測からの飛行機の監視(場所,速度を推測する)やノイズの有る音声データからの発話の認識(発音された単語を推測する) などがある. これらの問題を扱うのに適した方法の一つがSequential Monte Carlo (SMC)である. SMCはiterativeではないMCMCの一種で,t1におけるxの分布をapproximate sampleで表現し,それをtにおける分布の表現で再利用する.

7.2 State-space models

SSMでは,根底となり,観測できないMarkov process(state process) {Xt}と,観測される過程(observation procss){Yt}からなる.
observation: yt=a(xt,ut)g(|xt,ϕ)
hidden state: xt=b(xt1,vt)f(|xt1,θ)
u,vはノイズを表す変数で,ϕ,θは既知である. p(x1)が初期状態x1の分布とする. state processはp(xt|x1,...,xt1)=p(xt|xt1)=f(xt|xt1,θ)だからMarkov chainである. さらにp(yt|x1:t,y1:t1)=p(yt|xt)=g(yt|xt,ϕ)すなわちytの分布はxtそれ以前の観測値と独立である(fig. 7.1).

x1:tx1,...,xtを表し,y1:tも同様である. 簡単のためθϕとの依存関係の記述を省略してf(|xt1),g(|xt)などと書く.

7.2.1 Inference problems in SSMs

p(x1:t,y1:t)=p(x1)g(y1|x1)ti=2p(xi,yi|x1:t1,y1:t1)=p(x1)g(y1|x1)ti=2f(xi|xi1)g(yi|xi)


またBayesの定理から,
p(x1:t|y1:t)p(x1:t|y1:t1)g(yt|xt)=p(x1:t1|y1:t1)f(xt|xt1)g(yt|xt)

が成立する.
- p(xt|y1:t)からのサンプルを取ることをfilgeringという
- p(x1:t|y1:t)からのサンプルを取ることをsmoothingという
これらについて議論する.

filtering, smoothingはともにp(x1:t|y1:t)の扱いやすさが問題となる. ほとんどのSSMでは,この分布はnormalizing constantしかわからない.その例外が
- transitionとobservationが離散的である場合(Hidden Markov modelという)には,再帰的なアルゴリズムが使える
- 関数a,bが線形であり,ノイズut,vtが正規分布である時(linear Gaussian SSMという),これを解くアルゴリズムをKalman filterという.

0 件のコメント:

コメントを投稿