メモ

記録

vggnet 敗れる?

昨日

oichan.hatenablog.com

過学習してしまったcnnの構造をどうにか過学習しないようにしようと、
vggnetを採用し、実行しました。あまりうまく行きませんでした 原因としては、

  • 画像の少なさ
  • cnn設計が浅い

vggnetの論文とかを読んだわけではないので浅いです。
僕の浅い理解では、畳み込み層とプーリング層をめちゃくちゃ積み重ねればめっちゃ学習できそうじゃね?みたいなノリのものだと思ってます。
どんどん細かいところの特徴を学習できそうな気がするので、おかしいことをやっているわけではなさそう
tf_learnのsample codeにあるvggnetでは、(畳み込み+畳み込み+プーリング)を5つしてから全結合をしています。

github.com

ただし、その分計算が増えてしまうので、僕の実行環境でできそうな4つの積み重ね+全結合で実行していきます。 また、DropOutを使ってみたかったので、全結合層の後だけでなく、(畳み込み+畳み込み+プーリング)のあとにDropOutを追加してみました。(これが良くなかったかも?)
数値的には、昨日の値とほとんど変わりませんでした。が、グラフを見る感じ、収束しているように思えなかったので、epochを上げてみようと考えています。
あと、(畳み込み+畳み込み+プーリング)の後のdropoutをなくして実行してみます。
これでうまく行かない感じだと、いよいよ画像の追加が必要になってくる気がする…