2017年8月24日木曜日

MIT OCW, Machine Learning 08日目 カーネル

Rohit Singh, Tommi Jaakkola, and Ali Mohammad. 6.867 Machine Learning. Fall 2006. Massachusetts Institute of Technology: MIT OpenCourseWare, https://ocw.mit.edu. License: Creative Commons BY-NC-SA.

Lecture 6.

Active Learning (cont)

というlinear modelについて,最尤法で推測されるパラメータのMSEは

となることから,をうまく設計することで少ないexampleからよりよい推測を行うことをactive learningといった. の設計で最も単純な方法は,があるときに,が最少になるようにを選ぶという操作を繰り返すというのがある. すでにがあって,とする. の行に新たに加えることを考える.


を最小化するを考える.

であって,を考えれば

が成立する. (は実数で,traceはその実数そのもの)
任意のだから,どのようなを加えたとしてもMSEは減少するが,減少量が最大であるようなを求めたい.

の大きさはの最大の固有値が上限である. 言い換えると,新しいexampleによってパラメータ空間からせいぜい1つだけ自由度を減じることが出来る. に制限がなければ,の最大の固有値に対応する固有ベクトルに平行な長さ無限のベクトルをとするのだが,という制限が有る場合には,最大固有値に対応する固有ベクトルと平行でながさのベクトルをとする. ほかにもに制限が有る場合には,もその制限を考慮することになる.

これまでMSEを推定量の良さの基準としてきたが,今度はvarianceを考える.

よって,が最大になるようながよいが,これはMSEを小さくするようなと同じである.
(MSEを小さくしつつvarianceを小さくすることが対立することを言いたいのかと思ったら,varianceを大きくしたいらしい・・・)

Non-linear Predictions, Kernels

の非線形な写像に対する像に対してこれまで議論してきた方法が使える.例えばというlinear modelが有るとき,を含む高次元のベクトルに写像してquadratic(二次) modelが得られ,を含む高次元のベクトルに写像するとthird order modelが得られる.
のような感じである.の意味は後で見る.
新しいpolynomial regression modelは

となる. 高次元空間に写像してから線形回帰するわけだが,このときregularizationを行わないとoverfittingが起きることが多い.(figure 2)
!

が多次元の場合も,

というふうにしてより高次元な空間に写像できる.
高次元な空間への変換は計算コストが膨大になることが有るが,を直接計算せずとも,例えば

のように,と,を暗黙に表現する計算が簡単なが存在することが有る(存在するようにを定めたのである). ではなく計算が簡単なを使うように問題を書き換えることを考える.

Lecture 7.

Linear Regression and Kernels

を外したモデルはの推測は

の最適化問題である. 前節で述べたとおり,ではなくでこの最適化問題を表現する.
regularizationによってに圧縮され,のtraining feature vectorと関係ない次元はになる. よってこの問題の解はの張る空間の元である.
proof.

局地の条件を考えると


を満たして,最適解である.


が成立するから,だけで決まる.
Gram行列

によってベクトルで書くと

そして解は

が得られたら,

によって,新しいexample に対してresponseの推測が計算できる.ここでkernel functionという.

Kernels

以上で, regularized linear regressionをkernel formに変形できた. kernel function を変えることで,例えば任意の次数のpolynomial expansionが実現できるし,polynomial expansion以外のを高次元に写した像を使ったlinear regressionも実現できる.
実現される高次元への写像の種類によってを分類することが有る.例えば
- Polynomial kernel


- Radial basis kernel

polynomial kernelは,を二項展開したときの各項へと写す写像を考えたときのkernel functionで, radial basis kernelは無限次元空間への写像のkernel functionである. radial basis functionはの近さを表していると考えることが出来る.

0 件のコメント:

コメントを投稿