今回は、複数記事に跨いで書いていきます。
機械学習を勉強し始めてから歴が浅いのですが、少しづつ分かってきたところで、
せっかくだからアプリケーション化したいなと思いました。
学習方法として、完璧に理解する前に目の前で動くものを作ってから、徐々に細かい部分まで、理解していくことが効果的だと思っています。
そこで、pix2pixの細かいモデル部分は理解しきれていないが、アプリケーション化するまでのプロセスを書いていきます。
記事は下記の3部構成です。
・pix2pixを使って検証データを出力
・学習モデルを保存して、外部のnewデータでpix2pixで変換
・学習モデルを使って、generatorにpredictで画像生成
・Webアプリケーションへ組み込む
今回、超絶に参考にさせて頂いたのが下記でpix2pixのコードを紹介してくれている方のコードを参考にしました。
githubのソースはこちらです。
https://github.com/tommyfms2/pix2pix-keras-byt
■pix2pixを使って検証データを出力
今回は、特段プログラムを追加する必要がありません。
上記のgithub上で指定されている通り進めていけば問題ありません。
( 1 ):上記のgithubからデータをDownload or cloneしてください。
( 2 ):フォルダ内の一番上の階層(pycacheと同列)にimagesフォルダーを追加
(フォルダ名は何でもいいですが、コマンドでの指定する名称も変える必要が出てくるので、ひとまずimagesでいきましょう。)
( 3 ):imagesフォルダーの中に画像を格納
(これは、pix2pixのモデルを学習するための画像です。)
( 4 ):ターミナルを使って、
pix2pix-keras-byt-masterまで移動します。
( 5 ):ターミナルで、
python img2h5.py -i images/ -o datasetimages -t canny
※ここで、データセットが作成されます。
( 6 ):ターミナルで、
python pix2pix.py -d datasetimages.hdf5
※figuresフォルダーが作成されて、ここにトレーニングデータと、検証データとの両方がepoch毎に出力されます。
以上です。
それでは、次回は学習モデルを保存して、外部のnewデータでpix2pixで予測データを出力を書いていきたいと思います。