2017年9月9日土曜日

Markov Chains and Monte Carlo Methods 10日目

Ioana A. Cosma and Ludger Evers, Markov Chains and Monte Carlo Methods
http://users.aims.ac.za/~ioana/notes.pdf
CC-by-nc-sa 2.5
http://creativecommons.org/licenses/by-nc-sa/2.5/za/legalcode

Gibbs samplerが終わったし後は流れで

Chapter 7. State-space models and the Kalman filter algorithm

7.1 Motivation

現実世界では,観測は時間的に離散的な列で行われて,その観測が行われるたびに以前の観測たちから興味有る対象の量()を推測することになる. これをon-line inferenceという. 観測データがと時刻に沿って与えられて,各時刻で興味有る対象を推測することを考える. の事前分布によって変化するようなモデルをDynamic Modelという.
Dynamic modelの例には,レーダーによる観測からの飛行機の監視(場所,速度を推測する)やノイズの有る音声データからの発話の認識(発音された単語を推測する) などがある. これらの問題を扱うのに適した方法の一つがSequential Monte Carlo (SMC)である. SMCはiterativeではないMCMCの一種で,におけるの分布をapproximate sampleで表現し,それをにおける分布の表現で再利用する.

7.2 State-space models

SSMでは,根底となり,観測できないMarkov process(state process) と,観測される過程(observation procss)からなる.
observation:
hidden state:
はノイズを表す変数で,は既知である. が初期状態の分布とする. state processはだからMarkov chainである. さらにすなわちの分布はそれ以前の観測値と独立である(fig. 7.1).

を表し,も同様である. 簡単のためとの依存関係の記述を省略してなどと書く.

7.2.1 Inference problems in SSMs


またBayesの定理から,

が成立する.
- からのサンプルを取ることをfilgeringという
- からのサンプルを取ることをsmoothingという
これらについて議論する.

filtering, smoothingはともにの扱いやすさが問題となる. ほとんどのSSMでは,この分布はnormalizing constantしかわからない.その例外が
- transitionとobservationが離散的である場合(Hidden Markov modelという)には,再帰的なアルゴリズムが使える
- 関数が線形であり,ノイズが正規分布である時(linear Gaussian SSMという),これを解くアルゴリズムをKalman filterという.

0 件のコメント:

コメントを投稿