ラズパイ7日目②:「左うでを2周回した」とジェスチャー判定
前フレームとの座標遷移とベクトル内積の合わせ技で、「左うでぐるぐる」のジェスチャー判定ができるんじゃないの?
ってことでやってみたらできた!
- Raspberry Pi 3 Model B+
- カメラ:Raspberry Pi Camera B01 (Rev1.3)
- Edge TPU:Google Coral Edge TPU Accelerator vertion 1.0
- 機械学習モデル:Google Coral PoseNet
ラズパイ7日目①:カメラモジュールから動画を撮影してジェスチャーを判定する
今回は、Raspberry Pi + Edge TPU + PoseNet を使ったジェスチャー判定について勉強しました。
- Raspberry Pi 3 Model B+
- カメラ:Raspberry Pi Camera B01 (Rev1.3)
- Edge TPU:Google Coral Edge TPU Accelerator vertion 1.0
- 機械学習モデル:Google Coral PoseNet
Streamの自動字幕機能を使って操作手順や思考を文字化する
仕事で、ベテランの方がテストする時のノウハウ(操作手順や考え方)をまとめることになりまして。
テスト後にヒアリングしてもなかなかよいデータを得られないため、実際のテストに参加させてもらってどうにかノウハウを可視化させよう、ということになりました。
ところが、テストしている横でパチパチPC打つわけにいかん。(テストの邪魔だし手が追いつかない)
「Microsoft Office Streamを使ってはどうか」と上司から提案いただいたので、検証してみました。
ラズパイ6日目②:カメラモジュールから動画撮影してポーズを判定する
Raspberry Pi + Edge TPU + PoseNetで、カメラモジュールで撮影した動画をリアルタイムに姿勢推定させてみます。
さらに、特定のポーズを判定してTerminalに出力するプログラムを作成しました。
- Raspberry Pi 3 Model B+
- カメラ:Raspberry Pi Camera B01 (Rev1.3)
- Edge TPU:Google Coral Edge TPU Accelerator vertion 1.0
- 機械学習モデル:Google Coral PoseNet
Google Coral Edge TPU がさらに小さくなってた
ラズパイ6日目①:Raspberry Pi + Google Edge TPU で姿勢推定する
Coralで公開されている「PoseNet」を使って、写真や動画から姿勢を検出してみます。
Kinectだと「骨格検出」、PoseNetだと「姿勢推定」という言葉で説明されていますが、意味は同じもよう。PoseNet公式に則って「姿勢推定(Pose estimation )」と呼ぶことにします。
- Raspberry Pi 3 Model B+
- カメラ:Raspberry Pi Camera B01 (Rev1.3)
- Edge TPU:Google Coral Edge TPU Accelerator vertion 1.0
- 機械学習モデル:Google Coral PoseNet
Coral のサンプルプロジェクトを覗いてみた
Coral公式サイトにサンプルプロジェクトがいくつか紹介されていたので覗いてみました。
ハードウェア構成、プロジェクトの使い方など細かく解説されていて、ソースもGitHubで公開されています。
coral.ai
中でも気になったのがこちら。
Sorting Marshmallows with AI: Using Coral + Teachable Machine
Raspberry Pi と Edge TPU Accelerator でマシュマロとシリアルの分類器を構築しています。
判定精度を上げるために背景を変更して最適画像を選択できるようにしたり、
LEDライトリング使ってシャッタースピードを向上したり。
アイデアが面白い!