Loading [MathJax]/jax/output/HTML-CSS/jax.js

2018年9月21日金曜日

普通のGPUとP100を同時に使う

環境:
OS: CentOS 7.5
マザーボード: Supermicro X10DRG-OT±CPU
マザーボード内蔵GPU: ASPEED AST2400 BMC
外部GPU(pic-e): Nvidia Tesla P100

上記の環境にNvidia driver等をインストールしてCUIで利用していたのだが,GUIが必要になったのでその手順を記す.
単にGnome DesktopをインストールしただけではXがうまく起動してくれなかったので,結局 OSごとインストールし以下の手順でGUIを使えるようになった.

  1. CentOSインストール時にGnome Desktop環境を同時にインストール
    インストール後起動すると,内蔵GPUによってXが立ち上がる.
  2. nouveau無効化 参考: # NVIDIAのドライバをインストールする, @kkk627, Qiita
  3. nvidia-driverインストール
    この時点で再起動すると,guiは立ち上がらない.
  4. /etc/X11/xorg.confを削除, /etc/X11/xorg.conf.x/99-nvidia.confのすべての行をコメントアウト. これらのファイルは2.の段階では存在していなかったので,nvidia driverをインストールするときに生成されたらしい.これらを2.以前の状態に戻すことで,GUI環境を利用できるようになった.
  5. Gnome環境がなぜか非常に不安定になったので,Mateに切り替えたところ,あからさまに不安定な挙動をすることはなくなった.

2018年8月4日土曜日

論文読み 2018, Semi-convolutional Operators for Instance Segmentation

元ネタ: Novotny et al. Semi-convolutional Operators for Instance Segmentation

インスタンスセグメンテーションやバウンディングボックスでない物体検出のため,Semi-convolutionを提案する.

RCNNやYolo, SSDといった物体検出器は,物体がありそうな領域のproposalを計算し,さらにそこからその物体によくあるバウンディングボックスの座標を計算する(Propose and Verify, P&V)のだが,バウンディングボックスはほとんどの場合物体の位置のあらい近似だし,そこから改めて物体の詳細な位置を計算するには手間がかかる.そのため,画像のすべてのピクセルについて,"同じ物体に属するピクセルには同じ色をつけ,異なる物体に属するピクセルには異なる色をつける"という方法(Instance Coloring, IC)がより適していると考えられる.この定性的な優位性にかかわらずICがよい性能を示さないのはCNNのtranslation invarianceによるものと考え,translation variantなSemi-convolutionを提案する.

Instance Coloringを行う(理想的な)CNNΦは,Xを画像の集合,L
ラベルの集合,Ωを画像の中のピクセルの集合),S=(S1,...)をインスタンスごとのラベルの集合,M>0として,
u,vΩ:{Φu(x)Φv(x)1M,k:u,vSkΦu(x)Φv(x)1+M,otherwise
と定式化できる.しかしCNNはtransformation invariantなので,画像の中に同じインスタンスのレプリカがあると,それらを同じインスタンスであるとしてしまう.
そのためtransformation variantな操作ΨΦu(x)=f(ϕu(x),u)と定め,semi-convolutional operatroと呼ぶことにする.f:L×ΩL:はmixing functionだが,単純に
Ψu(X)=Φu(x)+u,ϕu(x)L=R2
とすることができる.このとき,
uSk,Ψu(x)+u=ck
が成立する定数ckが存在する.ckはインスタンスkのセントロイドと考えることができ,またΨはピクセルuからckへのdisplacementを計算する関数と考えることができる(fig.1).


figure 1.

もちろんラベル空間Lは二次元では足りないし,より高度な出力を同時にしたいことも多いので,より高次元な出力ができるよう,
Ψu(x)=ˆu+Φu(x),ˆu=[ux,uy,0,...,0]TRd
などと,ゼロパッディングを施すことになる.

学習の際のlossは
L(Φx,S)=SSΨu(x)1SSSΨu(x)
として定式化する.

2018年6月22日金曜日

論文読み 2015, Simultaneous Deep Transfer Across Domains and Tasks

元ネタ: Tzeng and Saenko, Simultaneous Deep Transfer Across Domains and Tasks, 2015, ICCV 2015


figure 1. Deep Domain Confusionのダイアグラム

Tzengの前の論文では,source domain での分類と並行して,sourceとtargetに対して生成する表現が似てくるように学習させるため,confusion loss
MMD(Xs,XT)=1XsxSXSϕ(xs)1XTxtXTϕ(xt)
をも最適化するように学習させた(fig.1).しかしdomain同士の表現が似ていてもそれぞれの内部でdecision boundaryが似ているかは別の話だから,この論文では表現の構造のみならずsource domainのラベルの構造をtarget domainに変換する.変換にはtarget domainにいくつかラベル付きの点が必要だから,unsupervised domain adaptationに直接適用することはできない.


figure 2. Simultaneous Deep Transferのダイアグラム

domain confusionによって表現を似せる

インプットからfc7までを,表現を生成するネットワークGとし,Gの出力する表現θreprがsource domainから来たのかtarget domainから来たのか区別するネットワークfcDを構成する.fcDは通常のnegative log likelihoodによって最適化する.つまり損失関数は
LD(xS,xT,θrepr;θD)=d{source, target}1[yD=d]logqd
ただしθDはfcDの重みで,qdはfcDの結果のlogit.

さらにfcDを騙すようにGを最適化する(adversarial learning).損失関数は
Lconf(xS,xT,θD;θrepr=d1Dlogqd

sourceからtargetへのクラス構造のadaptation

通常ニューラルネットワークの(Kクラスの)クラス分類では,最終層にK個のニューロンを配置し,その出力にsoftmaxをかけてそのargmaxに対応するクラスをそのネットワークの推測とするわけだが,ここではsoftmaxの出力そのものに様々な操作を行っていく.
特に,あるクラスに対応するデータ点全てのsoftmaxの出力の平均を"soft label"と定義する(fig.3).ただし通常のsoftmaxはピークが強調されすぎるので,softmaxの温度τを高くする.
softmax(k)τ(x)=exp(x(k)/τ)jexp(x(j)/τ)

figure 3. soft label概念図

これによってsource domainにおける各くらすにおけるsoft labelが計算できる.これらのsoft labelに対して,ラベル付きのtarget domainの点{xT,yT}に対して損失関数を
Lsoft(xT,yT;θrepr,θC)=il(yT)ilogpi
とする.ただしpxTに対するsoft activation, liはsource domainのクラスiに対応するsoft label,
この損失というのはtargetのsoft activationとsourceのsoft labelの,targetクラスにおけるcross-entropyに等しい(fig.4).

figure 4. soft loss

以上のlossを最適化する.


結果

論文読み 2014, Deep Domain Confusion: Maximizating for Domain Invariance

元ネタ: Tzeng et al. Deep Domain Confusion: Maximizing for Domain Invariance, 2014
図表は特に断りがない限りこの論文から引用

Domain adaptationのメソッド.ネットワークがsource domainとtarget domainに共通する表現を学習し,かつsource domainで優れた分類モデルとなるようにすれば,target domainにおいても優れた分類を行えるはずである(fig.1).
そこで,source, target domainにおける表現ϕの距離をMaximum Mean Discrepancy(MMD)と定義しdomain (confusion) lossとよび,classification lossとの和を最適化する.ϕをネットワークとして

MMD(Xs,XT)=1XsxSXSϕ(xs)1XTxtXTϕ(xt)


figure 1. domain confusion概念図

Deep domain confusionでは,fc_adapt層以外のパラメータを共有するネットワークを2つ用意し,ラベルのついたデータ店に対してのみclassification loss を計算し,さらにすべてのデータ点でdomain lossを計算し,その和を最適化する.(fig.2).
fc_adaptはそれぞれのネットワークで異なり,source domainとtarget domainの違いを吸収する.

figure 2. Deep Domain Confusion 概念図(破線はパラメータの共有を意味する)

このメソッドはadversarial learningとして見ることもできる(らしいSaito et al, 2017).
conv1 - fc7をgenerator, fc_adaptをdiscriminator(critic), fc8をclassifierとして,discriminatorがsource domain, target domainを区別できないようにgeneratorを学習すると同時に,classifierが正しくクラス分類を行うように学習するのである(fc_adaptをdomain lossが大きくなるように学習していないのが気になるところだ).