David Gamarnik, and John Tsitsiklis. 6.436J Fundamentals of Probability. Fall 2008. Massachusetts Institute of Technology: MIT OpenCourseWare, https://ocw.mit.edu. License: Creative Commons BY-NC-SA.
Lecture 6. Discrete random variables and their expectations
1. A Few Useful Random Variables
Xの値域がたかだか可算であるときrandom variable Xをdiscrete random variableといい,そのPMF(probability mass function) pX:R∋x↦P(X=x)∈[0,1]は,Xと一対一に対応するのだった.以下は特に重要なPMFたちである.
(a) Discrete uniform
a,b∈Z,a<bに,
pX(k)={1/(b−a+1), k∈{a,a+1,...,b}0otherwise
(b) Bernoulli
p∈[0,1]に,
pX(1)=p,pX(0)=1−p
(本文ではpX(0)=p,pX(1)=1−pなのだが,過去に出てきたコイントスの例だと1で表,0で裏を表すようにしていたし,(c)の解説では表の場合の確率をpとしていた.おそらく誤植だろう.)
(c) Binomial
n∈N,p∈[0,1]に,
pX(k)=(nk)pk(1−p)n−k
binomial random variableは,表が出る確率pのコイントスをn回繰り返してk回表が出る確率を表している.
(d) Geometric
0<p≤1として,
pX(k)=(1−p)k−1p, k∈N
geometric random variableは表が出る確率pのコイントスでk回目に初めて表が出る確率を表している.
(e) Poisson
λ>0に,
pX(k)=e−λλkk!
Poisson random variableはbinomial random variableの極限と考えることが出来る.
(f) Power law(冪乗則)
α>0に,
pX(k)=1kα−1(k+1)α
ここで
P(X≥k)=1kα
が成立する.
Notation
上で定義したPMFをそれぞれdU(a,b),Ber(p),Bin(n,p),Geo(p),Pois(λ),Pow(α)と略記することにする.またXが例えばdU(a,b)が定めるPMFを持つとき,X∼dU(a,b)と書くように,∼という記号を導入する.また,Xd=Y
によって,XとYが同じPMFを持つことを示すとする.
1.1 Poisson distribution as a limit of the binomial
Poisson distributionははbinomial distributionのn
を大きく,p
を小さくした極限で,例えばある年での事故件数のような稀な事象のモデルを作るときによく使われる.この場合λはその稀な事象の平均件数を表している.
Proposition 6-1.(Binomial convergence to Poisson)
Xn=Bin(n,λ/n)がすべてのnに成立し,XΔ=Pois(λ)とする.このときn→∞によってXnのPMFはXのPMFに収束する.つまり,
∀k limn→∞P(Xn=k)=P(X=k)
proof.
P(Xn=k)=n(n−1)⋯(n−k+1)nkλkk!(1−λn)n−k
kを固定してn→∞とすると,j∈{1,...,k}で
n−k+jn→1,(1−λn)−k→1,(1−λn)n→e−λ
よってlimn→∞P(Xn=k)→e−λλkk!=P(X=k)
2. Joint, Marginal, And Conditional PMFs
2.1 Marginal PMFs
X,Yは同じprobability spaceのrandom variableとする.それぞれのprobability lawがPMF pX,pYによって書けるとき,これらをmarginal PMFとよぶ.(ようするにただのPMF)
2.2 Joint PMFs
pX,Y(x,y)=P(X=x,Y=y)
で定義されるpX,Y:R2→[0,1]をX,Yのjoint PMFという.より一般に,{Xi}Ni=1というrandom variableたちがあるとき,これらのjoint PMFは
pX1,...,xN(x1,...,xN)=P(X1=x1,...,XN=xN)
で定義される.random variableのベクトルX=(X1,...,XN)を定義して,上のjoint PMFを単にpX(x)と書くことが有る.
X,Yのjoint PMFは,XとYによって決められるeventの確率を決めることが出来る.例えば,Aを(x,y)がある性質を満たす集合とすると,
P((X,Y)∈A)=∑(x,y)∈ApX,Y(x,y)
が成立する.ところで,marginal PMFによって,X,Yのmarginal PMFを計算できる.
pX(x)=∑ypX,Y(x,y),pY(y)=∑xpX,Y(x,y)
である.
2.3 Conditional PMFs
X,Yが同じprobability spaceのdiscrete random variableであって,joint PMFはpX,Yであるとする.このときXとYのconditional PMFを,
pX|Y(x|y):=P(X=x|Y=y) if P(Y=y)>0
によって定める.定義より
pX|Y(x|y)=pX,Y(x,y)pY(y)
である.
Independence of Random Variables
3.1 Independence of general random variables
random variable X,Yがindependent(独立)とは,一方の値が決まってももう一方の値の分布が変わらないということである.形式的には
Definition 6-1 (Independence of random variables)
(a) X1,...,Xnを同じprobability spaceのrandom variableとする.
P(X1∈B1,...,Xn∈Bn)=P(X1∈B1)⋯P(Xn∈Bn)
が任意のBorel subsetたちB1,...,Bnになりたつとき,{Xi}n1はindependent(独立)であるという.
(b) {Xs|s∈S}の独立性は,その任意の有限部分集合の独立性と同値とする.
Proposition 6-2
任意の{x1,...,xn}⊂Rn, {s1,...,sn}⊂Sに,{Xsi≤xi}ni=1というeventたちがindependentなら,{Xs}s∈Sもまたindependent.
(event A,Bがindependent ⇔P(A∩B)=P(A)P(B))
proof. 略
random variable X1,...,Xnのjoint CDFを,
FX1,...,Xn(x1,...,xn):=P(X1≤x1,...,Xn≤xn)
と定める.prop.2の観点から,{Xi}n1の独立性は
∀x1,...,xn FX1,...,Xn(x1,...,xn)=FX1(x1)⋯FXn(xn)
と同値である.
3.2 Independence of Discrete Random Variables
有限個のdiscrete random variableの独立性はjoint PMFがmarginal PMFの積になることと同値である.
Theorem 6-1
X,Yはdiscrete random variableとする.以下は同値
(a) X,Yは独立
(b) ∀x,y∈Rに,{X=x}と{Y=y}というeventは独立
(c) ∀x,y∈RにpX,Y(x,y)=pX(x)pY(y)
(d) ∀x,y∈Rに,pY(y)>0ならpX|Y(x|y)=pX(x)
proof.
(a⇒b)
定義より明らか
(b⇔c)
{X=x},{Y=y}が独立⇔∀x,y P(X=x,Y=y)=P(X=x)P(Y=y)⇔∀x,y pX,Y(x,y)=pX(x)pY(y)
(c⇒d)
明らか
(c⇒a)
仮定のもとで,任意のBorel set A,Bに
P(X∈A,Y∈B)=∑x∈A,y∈BP(X=x,Y=y)=∑x∈A,y∈BpX,Y(x,y)=∑x∈A,y∈BpX(x)pY(y)=(∑x∈ApX(x))(∑y∈BpY(y))=P(X∈A)P(Y∈B)
Theorem 6-2
X,Yが独立なdiscrete random variableとする.g,h:R→Rを任意の関数とする.このときg(X),g(Y)というrandom varibaleは独立である
3.3 Examples
Example
X1,...,Xnを,同じパラメータpをもつBernoulli random variableたちとする.X=X1+⋯+Xnとすると,Xは(n,p)のbinomial random variableである.
Example
X,Yを,それぞれ(n,p),(m,p)のパラメータを持つ独立なbinomial random variableとする.Z=X+Yとすると,Zはパラメータ(n+m,p)をもつbinomial random variableである.
Example
確率pで表が出るコイントスをn回行う.Xを表が出た回数として,Y=n−Xとすると,Yは裏が出た回数のrandom variableである.P(X=0)=(1−p)n,P(Y=0)=pnであるが,P(X=0,Y=0)=0≠P(X=0)P(Y=0)から,X,Yは独立でない.
一方で,コイントスの回数もまたランダムであるとき,表が出る回数のrandom variableと裏が出る回数のrandom variableは独立になる.NをパラメータλのPoisson random variableとすると,conditional PMF pX|N(⋅|n)は(n,p)のbinomialであって,Y=N−Xとすると,X,Yは独立となる.(次定理)
Theorem 3. (Splitting of a Poisson random variable)
上の条件のもとでX,Yは独立であり,Xd=Pois(λp),Yd=Pois(λ(1−p)) である.
0 件のコメント:
コメントを投稿