Processing math: 100%

2017年8月5日土曜日

MIT OCW, Fundamentals of Probability 16日目 特性関数

Lecture 16. Characteristic Functions

1. Equivalence of the Tree Definitions of the Multivariate Normal Distribution

1.1 The definitions

Lec.15の定義を再掲する.

Definition 16-1

Xnondegenerate (multivariate) normal distributionをもつ

fX(x)=1(2π)n|detV|exp[xμ)V1(xμ)T2]
と,joint PDFが書ける.ここでμは実ベクトルで,Vはpositive definateである.

Definition 16-2

X(multivariate) normal distributionをもつ

X=DW+μ
と,行列Dと実ベクトルμ,各要素がN(0,1)に従う確率ベクトルWで書ける.

Definition 16-3

X(multivariate) normal distributionをもつ
任意の実ベクトルaについて,aTXがnormalである.

これらの定義が同値であることを証明する.

2. Proof of Equivalence

Lec.15で, def 16-2であればdef 16-3が成立することを学んだ.

Theorem 15-1(再掲)

def 16-2の意味でX=(X1,...,Xn)がmultivariate normalで,μ=(μ1,...,μn)とすると
(d) |D|0であるとき,V=DDT=cov(X,X)によってdef 16-1の意味でもnondegenerate multivariate normalである.

proof.

μ=0と仮定する. X=DWD1が存在するとき,Lec.10 2-1から
fX(x)=fW(D1w)|detD|
と書ける.WiN(0,1)でi.i.d.だから
fW(w)=1(2π)nexp[12wTw]
で,したがって
fX(x)=1(2π)n|detDDT|exp(12(D1)TD1x)

そこで,

Theorem 16-1

(a) Xがdef 16-1を満たすとき, def 16-2も満たす
(b) Xがdef 16-3を満たすとき, def 16-2も満たす と示せば良い

proof.

(a)
仮定のもとで,Vはpositive definateなので,D2=VとなるsymmetricなDがあって(Spectral Decomposition), (detD)2=det(D2)=det(V)>0から, Dは可逆. W=D1(Xμ)とすると,E[W]=0で,さらに
cov(W,W)=E[D1(Xμ)(Xμ)TD1]=D1E[(Xμ)(Xμ)T]D1=D1VD1=I
したがってWiたちはdef 16-1の意味でnormalでかつcovariance matrixが単位行列だからindependentである.
(b)
仮定のもとで,V=cov(X,X)として,これは対称行列だから

3. Whitening of a Sequence of Normal Random Variables

Xがmultivariate normal vectorとして,基底変換によってW=(W1,...,Wn)をつくるとき,様々な作り方が考えられるが,
W1=X1W2=X2E[X2|X1]W3=X3E[X3|X1,X2]Wn=XnE[Xn|X1,...,Xn1]
とすることが出来る.ただし
(a) Wiはそれぞれ, (X1,...,Xi1)をもとにXiから得られる新しい情報と考えることができる.Wiたちをinnovationsという.
(b) conditional expectationは線形写像だから,WiXiの線形写像と考えることが出来る. 下三角行列Lを使ってW=LXと書ける.これはWiX1,...,Xiによって決定されるということであって,これをXからWへの変換はcausalであるという.また,L1もまた下三角行列だから,causally invertibleという.この関係をwhitening filterと呼ぶことが有る.
(c) Wiたちはそれぞれ独立で,これはE[(XE[X|Y)])Y]=0から言える. またここからWiX1,...,Xi1はuncorrelatedであることが言えて,さらにW1,...,Wi1ともuncorrrelated.normalだからuncorrelated => independent. varianceが0でなければ,varianceが1となるように出来る.
(d) Wのcovariance matrix Bは対角行列で,cov(X,X)=L1B(L1)T. B(L1B1/2)(B1/2(L1)T)と,下三角行列と上三角行列に分解することをCholesky factorizationという.

4. Introduction to Characteristic Functions

moment generating function MX(s)をすでに定義したが,s0MX(s)=のような場合には意味を持たない(Cauchy distributionを思い出せ). そこでsを複素数s=it,i=1,tRと考えて,
ϕX(t)=E[eitX]
と定める. XがPDF fをもつcontinuous random variableとすると,
ϕX(t)=eitxf(x)dx
が成立する.eitXはcomplex-value random variableであるが,三角関数での表示を思い出せば
ϕX(t)=E[cos(tX)]+iE[sin(tX)]
として計算できる.さらに
(a) |eitX|1が任意のtに成立するから,ϕX(t)は必ず定義されて,しかも|ϕX(t)|1である.
(b) moment generating fucntionの主要な性質はcharacteristic functionと共通する.

Theorem 16-2

(a) Y=aX+bとすると,ϕY(t)=eitbϕX(at)
(b) X,YがindependentならϕX+Y(t)=ϕX(t)ϕY(t)
(c) X,Yがindependentで,Zが確率pXに等しく,確率1pYに等しいとき,
ϕZ(t)=pϕX(t)+(1p)ϕY(t)

(c) Inversion theorem 同じcharacteristic functionをもつrandom variableがあるとき,分布も同じ
(d) XがmultivariateなときϕX(t)=E[eitTX]でcharacteristic functionを定めて,(c)はこれでも成立
(e) Xがcontinuous でPDFがfXとすると,
fX(x)=12πlimTTTeitxϕX(t)dt
Xが微分可能な点xで成立する.
(f) dominated convergence theoremを,定数関数1に支配される複素数の実部と仮部にそれぞれ使って,
XnXa.s.がなら,任意のtR
limϕXn(t)=limE[eitXn]=E[limeitXn]=E[eitX]=limϕX(t)
(g) E[|X|k]<ならば
dkdtkϕX(t)|t=0=ikE[Xk]

2017年8月2日水曜日

MIT OCW, Fundamentals of Probability 15日目 モーメント母関数2

David Gamarnik, and John Tsitsiklis. 6.436J Fundamentals of Probability. Fall 2008. Massachusetts Institute of Technology: MIT OpenCourseWare, https://ocw.mit.edu. License: Creative Commons BY-NC-SA.
[TOC]

Lecture 14. Moment Generating Functions

2. Sum of a Random Number of Independent Random Variables

X1,X2,...をi.i.d. なrandom variableの列とする.meanはμ, varianceはσ2とする.Nを非負整数をとる別のrandom variableとする. Y=NI=1Xiとし,Yの様々な統計量を考える.
まず
E[Y]=E[E[Y|N]]=E[Nμ]=E[N]E[X]
さらに, law of total varianceによって
var[Y]=E[var(Y|N)]+var(E[Y|N])=E[Nσ2]+var(Nμ)=E[N]σ2+μ2var(N)
またE[exp(sY)|N=n]=MnX(s)=exp(nlogMX(s))だから,
MY(s)=exp(nlogMX(s))P(N=n)=MN(logMX(s))

Example

Xiはexp(λ)に従う独立なrandom variableとする.またNgeo(p)とすると
MY(s)=elogMX(s)p1elogMX(s)(1p)=pλ/(λs)1λ(1p)/(λs)=λpλps
MN(s)=np(1p)n1esn
このように,YM(s)はパラメータλpのexponential random variableのmoment generating functionと一致する.
cf.

Xexp(λ)とすると,
MX(s)=0esxλeλx=λ0ex(sλ)=λ[1sλex(sλ)]0=λλs

inversion theoremからYexp(λp).exponential random variableの有限和はexponential出ないことを考えると驚くべき結果である. 後にPoisson processの視点から直感的な説明を与える.

3. Transfroms Associated wtih Joint Distributions

X,Yにjoint distribution(joint PDF)があるとき,MX(s)MY(s)が導ける.これはmarginal distribution の変換で,もう一方のrandom variableとの関係性を保存しない. X,Yの関係を保存する変換を述べる. X1,...,Xnについて,s1,...,snを実数のパラメータとすると,associated multivariate transformn変数関数
MX1,...,Xn(s1,...,sn)=E[es1X1+...+snXn)]
と定める.