2017年9月6日水曜日

MIT OCW, Machine Learning 11日目 宿題3

Rohit Singh, Tommi Jaakkola, and Ali Mohammad. 6.867 Machine Learning. Fall 2006. Massachusetts Institute of Technology: MIT OpenCourseWare, https://ocw.mit.edu. License: Creative Commons BY-NC-SA.

assigmnemt 3
Q and A

1.

答案.

(b)
(c)
(1)の不等号を示せなければならなのだが,模範解答でも定性的に言及されただけだからもう明らかでいいと思う
(d)
がtraining errorを0にするというのは,任意のが成り立つということ. を生成するを生成するは独立で,だから,がtraining errorを0にする確率は. (1): 各サンプルの生成の独立性
も同様で,足し合わせると求める確率が得られる.
(e)
においてのtraining error とする.
を考える()
だから,training setから番目を引いてもから選ばれるestimatorは変わらず.のまま. したがってが任意ので成立.
よって
これはのtraining errorがの時も同じ. よって示せた.

模範解答.

(a)
r.v. が同じdistributionをもつとき,であるのを利用する.これは

からわかる.
がそれぞれr.v.の集合であっても成立する. とする.ただしでtrainし,を識別子, 個のtraining dataでを識別する. は同じdistributionを持つから,与えられた四季が成立する.
(f)
training error をとすると,classifierは回間違える. ある次元においてtraining errorが以下である時,すなわち間違いがせいぜいであるとする.間違いの回数をとおくと,間違いの起こる場合の数は通りで,まさにそこで間違いが起こる確率は. よってtraining errorが未満である確率は

errorが以上である確率はで,次元全てがそうである確率は.これが以下であれば少なくとも1つの次元でerrorが未満となる. よって
を解くと,

2.

答案.

(a)

(d) marginal likelihoodが減少し始めるとき

模範解答.

(b) 与えられた式は間違いに対して確率0を割り当ててしまう.

とする.

0 件のコメント:

コメントを投稿