筋肉DeepLearning

体育会系が筋肉で実装するDeepLearning

アニメ顔の認識を完全コピーのコードで実装してみた(ごめんなさい)

基本的に以下のものを使う。

www.mathgram.xyz

準備

anacondaとopencvをインストールしておく。

condaで環境を作る

conda create 環境名
source activate 環境名

これでjupyter notebookで超簡単にjupyterを起動できる。
今まで、環境作ってなかったけど、これからは絶対作ろう...

chainer install

chainerのインストールもする

pip install chainer

画像の判断

残りはgithubをご覧ください。
コピーですが一応ipynbファイルとかは自分で作っています...

間違い

これは顔かどうか認識するのは、opencvでできる...
顔の分類に機械学習が使われているので、今回やった内容は無意味だった...

ということは、顔認識とふわっと思っていたけど、対象物が顔かどうかは今までの技術で大丈夫だったのか(泣く)
顔のが誰かを認識するのが最近の機械学習で精度が上がってきたことなんだ。
ただ、一方で今までそうと判断できていなかったものの判断はより正確にできるようになった。
自動運転でいうの認識のように。
こんなことはみんなわかっていたのか...

AWSのGPUへアクセスする

GPUAWSとか高くて怖い...
けど、勇気を振り絞って起動させてみる。
起動させないと何もはじまらない!(根性論)

それに、みんなやってるし、udacityでも紹介してるし、そんな高くないんじゃないか?
DenseRegとかGPUしか対応していないcaffe使ってそうだし、これはもうGPU使うしかない!(まだココです...)

EC2の制限の承認申請

このリンクから、EC2の制限をあげる。
今回はg2.2xlarge。
怖い...
f:id:yoheitaonishi:20180410002014p:plain

制限緩和のリクエストを押す。

f:id:yoheitaonishi:20180410002203p:plain

これを入力した。
2日ぐらいまたないといけないらしい(実際1日程度で許可がおりました)。

インスタンスの作成

まずは、インスタンスの作成からコミュニティAMIを選択し、udacityで検索する。
(今回はudacityのものでやりますが、普通にubuntuとかでいいと思う)
f:id:yoheitaonishi:20180414171506p:plain

GPUインスタンスの作成で検索し承認を申請していたg2.2xlargeを選択する。
f:id:yoheitaonishi:20180414171705p:plain

f:id:yoheitaonishi:20180414171809p:plain

ストレージを16GBにするようにと書いてあったのだが、できなかったので32GBで。
f:id:yoheitaonishi:20180414171938p:plain

f:id:yoheitaonishi:20180414172222p:plain

セキュリティグループの修正。
ローカルのJupyterからアクセスできるようにする。
f:id:yoheitaonishi:20180414172052p:plain

アクセスしてみる

ssh carnd@ipアドレス -i 秘密鍵

Welcome to Ubuntu 16.04.2 LTS (GNU/Linux 4.4.0-75-generic x86_64)

無事にログインできました!

特に使わない時は停止しておく。
そうしないとお金がかかります!

ここで別のサイトをみていると停止していてもお金が発生するみたいなので、今回は一回削除して、必要な時にささっと立てて使おうと思います。

qiita.com

値段

udacityからの無料枠で$100分付与されたのでそれを使ってだいたいどれぐらい値段がかかるかみよう。

なぜか以下のページには、g2.2xlargeの項目がない...

aws.amazon.com

無料でできるやつもあるらしい

qiita.com