SONY Neural Network Console でジェスチャー認識【後編】

今回は、先回作ったプログラムでジェスチャーデータを作成し、ジェスチャー認識をさせてみます

こんにちは cedro です。

これは、SONY Neural Network Console でジェスチャー認識【前編】の続編です。

先回は、スマホに内蔵されている加速度センサーを使ってジェスチャーデータを作成するプログラムを作成しました。

今回は、そのプログラムを使ってジェスチャーデータを作成し、Neural Network Consoleジェスチャー認識をさせてみたいと思います。

 

ジェスチャーデータの作成

それでは、早速ジェスチャーデータの作成に入ります。

 

これが、今回のジェスチャーです。アルファベット26文字がそれぞれ一筆書きになっています。

 

この一筆書きを、スマホを持った手で空中で行って、その時のスマホ加速度センサーの値を記録して、ジェスチャーデータとします。
*写真で、もう片方に持っているスマホは自撮り用です。

使用するのは、スマホDropbox(PCとの共有用)です。作成手順は以下の通りです。

 

1)スマホブラウザ https://cedro3.github.io/gesture/ を開きます。すると、上記の様なジェスチャーレコーダが表示され、プログラムが動き出します。

2)「測定開始」ボタンを押して、ジェスチャーの記録を開始します。約0.02秒に1回加速度センサー(x,y,z) の3つの値をローカルストレージに記録します。

3)「停止」ボタンを押して、ジェスチャーの記録を終了します。

4)「データ・ダウンロード」を押すと、ローカルストレージのデータをCSVファイルで書き出しスマホ内に保存します。CSVファイル120行で固定(超えた分は削除、不足分は0データで埋める)です。

5)2)から4)を繰り返します。

6)一区切りついたら、ファイルマネージャーで、ローカルストレージから必要なCSVファイルを選択し、Dropboxに入れます。

7)ファイルマネージャーで、ローカルストレージのファイルを削除します。

8)2)に戻ります。

プログラムは、AndroidiPhoneの両方で動きますが、iPhoneだと4)の時に、毎回 Dropbox を選び、ファイル名を付けてから保存するので少々面倒です。両方持っている方は、Androidの方がおすすめです。

*なお、プログラムの詳細は、前回のブログを参照下さい。

 

これが「A」CSVファイルで、120行×3列です。この場合、62行目で測定が終了したので、63~120行までは「0」が埋まっています。

最初、立ってジェスチャーをやっていたのですが、どうしても膝を動かしながらのオーバーアクションになってしまいます(笑)。良い運動になりますが(笑)。

なので、立ってやるのは途中で止め、椅子に座ったままでやるジェスチャーに変更しました。こっちの方がジェスチャーがコンパクトになって、良いと思います。

アルファベット1文字づつフォルダーを計26個作り、1つのフォルダーにCSVファイルを20個づつ入れます。トータルで、26×20=520データを作成します。

1文字当たりデータが20個と手抜きですいません(笑)。

各フォルダーにCSVファイルを格納したら、学習・評価ファイルが簡単に作れるように、0.csv~19.csvリネームしておきます。

これを学習用70%、評価用30%に振り分けて、学習ファイル評価ファイルを作成します。

 

学習ファイル、評価ファイルはこんな感じになります。作成を完了したら、両方とも Neurak Network Console に登録します。

 

学習ファイルNeural Network Console に読み込ませると、こんな感じ。この3つのグラフは「A」のジェスチャー波形で、x,y,z の3つの加速度センサーの値の時系列変化が読み取れます。

なお、スマホでCSVファイルを作る時にデータは正規化済みなので、Image Normalization のチェックは外しておいて下さい。

さあ、それでは、Neural Network Console で動かしてみましょう。

 

3つのジェスチャー認識の方法

それでは、Neural Network Console を使って、3つの方法でジェスチャー認識させてみます。

まず、原始的な多層パーセプトロン(MLP)。サンプルプロジェクトは 10_deep_mlpを流用します。

 

サンプルは2値分類なので、26分類に変更するために、Sigmoid Softmax に、BinaryCrossEntropy CategoricalCrossEntropy に変更します。

そして、Input1,28,28 → 120,3 に、Affine_48 → 32 に、Affine_510 → 26 に変更します。

 

学習画面です。バッチ64エポック100で学習を開始します。6秒で学習完了です。

 

Confusion Matrix です。精度は79.48% 原始的なMLP(Multilayer perceptron)でも、8割くらいのジェスチャー認識ができました。

 

そして、ジェスチャーデータと言えば、時系列データ時系列データと言えばリカレント・ネットワークです。

ということで次は、RNN(Reccurent Neural Network)でやってみます。

 

こんなシンプルなネットワークで大丈夫と思うでしょう?

しかし、2番目にある LSTMユニットは、サンプルプロジェクトにある long_short_term_memory(LSTM)Recurrentinput から RecurrentOutput までを1つにまとめたユニットなので、こう見えて結構中身は濃いんです(笑)。

それにしても、この LSTMユニットは便利ですね。

 

先程と同じく、バッチ64エポック100で学習開始します。2分4秒で学習完了です。RNN系は、学習時間が結構掛かりますね。

 

Confusion Matrix です。精度は88.46%!さすが、時系列データに強いRNNです。MLPと比べて、認識精度が約10%改善しました。

さて、Deep leraning の花形と言えば、CNN(Convolutional Neural Network)です。次は、CNNでやってみます。

 

サンプルプロジェクト のLeNet を流用します。

Input120,3 のデータのままでは、CNNでは扱えないので、Inputの後に、Reshapeレイヤーを入れ、120,3 のデータを 1,20,18リシェイプ(120×3=1×20×18)します。

これによって時系列要素は消えてしまいますが、いわば 20×18画像になりますので、CNNで扱えます。

 

同じく、バッチ64エポック100で学習します。学習時間は12秒。

 

Confusion Matrix です。精度89.74%、さすがディープラーニングの花形CNN系!  LSTM+1.28 上回りました。

今回のジェスチャーデータは空間に書く文字の様なもので、画像の様な性格を持っているので、CNN系にも相性が良いようです。

 

ネットワークをさらに改良すべく、構造自動探索機能を使ってみます。

Global ConfigStructure Search Enable にチェックを入れて学習開始です。

 

20回くらい試行錯誤した結果、これが一番良かったモデル。Dropout が追加され、若干ハイパーパラメーターも調整されています。

 

Confusion Matrix です。精度92.3%!1文字あたり20個という少ないデータながら、このあたりの精度までは簡単に行けるようです。

後は、もっと多層構造にして Batch Normalization を多用すると、もう少し精度UPできると思いますが、それはお好みと言うことで。

では、また。

コメントを残す

メールアドレスが公開されることはありません。 * が付いている欄は必須項目です

日本語が含まれない投稿は無視されますのでご注意ください。(スパム対策)

ABOUTこの記事をかいた人

2017年8月に、SONY Neural Network Console に一目惚れして、ディープラーニングを始めました。初心者の試行錯誤をブログにしています。