Ioana A. Cosma and Ludger Evers, Markov Chains and Monte Carlo Methods
http://users.aims.ac.za/~ioana/notes.pdf
CC-by-nc-sa 2.5
http://creativecommons.org/licenses/by-nc-sa/2.5/za/legalcode
Gibbs samplerが終わったし後は流れで
Chapter 7. State-space models and the Kalman filter algorithm
7.1 Motivation
現実世界では,観測は時間的に離散的な列で行われて,その観測が行われるたびに以前の観測たちから興味有る対象の量(x)を推測することになる. これをon-line inferenceという. 観測データがy1,y2,...,yt,...と時刻tに沿って与えられて,各時刻で興味有る対象xtを推測することを考える. xtの事前分布p(xt)がtによって変化するようなモデルをDynamic Modelという.
Dynamic modelの例には,レーダーによる観測からの飛行機の監視(場所,速度を推測する)やノイズの有る音声データからの発話の認識(発音された単語を推測する) などがある. これらの問題を扱うのに適した方法の一つがSequential Monte Carlo (SMC)である. SMCはiterativeではないMCMCの一種で,t−1におけるxの分布をapproximate sampleで表現し,それをtにおける分布の表現で再利用する.
7.2 State-space models
SSMでは,根底となり,観測できないMarkov process(state process) {Xt}と,観測される過程(observation procss){Yt}からなる.
observation: yt=a(xt,ut)∼g(⋅|xt,ϕ)
hidden state: xt=b(xt−1,vt)∼f(⋅|xt−1,θ)
u,vはノイズを表す変数で,ϕ,θは既知である. p(x1)が初期状態x1の分布とする. state processはp(xt|x1,...,xt−1)=p(xt|xt−1)=f(xt|xt−1,θ)だからMarkov chainである. さらにp(yt|x1:t,y1:t−1)=p(yt|xt)=g(yt|xt,ϕ)すなわちytの分布はxtそれ以前の観測値と独立である(fig. 7.1).
x1:tでx1,...,xtを表し,y1:tも同様である. 簡単のためθやϕとの依存関係の記述を省略してf(⋅|xt−1),g(⋅|xt)などと書く.
7.2.1 Inference problems in SSMs
p(x1:t,y1:t)=p(x1)g(y1|x1)t∏i=2p(xi,yi|x1:t−1,y1:t−1)=p(x1)g(y1|x1)t∏i=2f(xi|xi−1)g(yi|xi)
またBayesの定理から,
p(x1:t|y1:t)∝p(x1:t|y1:t−1)g(yt|xt)=p(x1:t−1|y1:t−1)f(xt|xt−1)g(yt|xt)
が成立する.
- p(xt|y1:t)からのサンプルを取ることをfilgeringという
- p(x1:t|y1:t)からのサンプルを取ることをsmoothingという
これらについて議論する.
filtering, smoothingはともにp(x1:t|y1:t)の扱いやすさが問題となる. ほとんどのSSMでは,この分布はnormalizing constantしかわからない.その例外が
- transitionとobservationが離散的である場合(Hidden Markov modelという)には,再帰的なアルゴリズムが使える
- 関数a,bが線形であり,ノイズut,vtが正規分布である時(linear Gaussian SSMという),これを解くアルゴリズムをKalman filterという.
0 件のコメント:
コメントを投稿