Flow-Developers

Raspberry Pi, Raspbian, python, ROS, IoT, 電子工作, 機械学習, Deep learning, ライフハック

USB型DeepLearningアクセラレータ,"Movidius Neural Compute Stick"をRaspberryPi2で動かしてみた。

はじめに

  • USB型DeepLearningアクセラレータ,"Movidius Neural Compute Stick"をRaspberryPi2で動かしてみました.
  • 基本的な手順はRaspberryPi3と変わりませんが,RaspberryPi2での動いた実績メモです.
  • Caffe modelのコンパイル環境にはUbuntu16.04が必要ですが,コンパイル済みのCaffe model(Graphバイナリ)があれば,Raspbian Jessie(2017-07-05)だけで動ごかせるのがポイントです.その辺を整理して書いてみます.

Movidius Neural Compute Stickとは.

f:id:flow-dev:20170812234951j:plain


Introducing Movidius Neural Compute Stick

MovidiusNCSとRaspberryPi2で動かしてみました。

  • MovidiusNCSとRaspberryPi2,SDKサンプルで動かしてみた事を動画でまとめてみました.
  • CVPR2017で購入したので,現地の状況なども動画に含んでいます.ご参考までに.
  • 2017-08-12現在.日本のRSコンポーネンツでも9900円で購入できそうです.
  • 以下に記載した手順を踏むと,この動画で行っていることができます.
  • 詳細や最新は,Latest version: Movidius™ Neural Compute SDKでご確認ください.(はまりそうなTIPSは細々書いてみました.)


Try Movidius Neural Compute Stick in Raspberry Pi 2

Movidius NCSに必要な,2つの環境.

  • Movidius NCSを使うには,2つの環境が必要となります.
  • 1つ目はCaffe modelをNCS用にコンパイルする環境です.これはUbuntu16.04が必須となります(Raspbian Jessieは今のところ×). 一方でMovidius NCSは不要です.
  • 2つ目はNCS用にコンパイルしたCaffe modelバイナリ(graphと呼ぶ)を実行する環境です.こちらはUbuntu16.04でもRaspbian Jessieでも実行可能です. Movidius NCSは必須です.
  • 今回は,1つ目のCaffe modelをNCS用にコンパイルする環境はRaspberryPi2 + Ubuntu16.04で. 2つ目の実行環境は,RaspberryPi2 + Raspbian Jessie + Movidius NCSで環境を別々に作ってみました.(もちろん分けなくても良いです.また,RaspberryPiではなく,上記OSを準備したPCなら同様に環境構築が可能です)
  • 以下の動画だけ見ると,RaspberryPi2 + Raspbian Jessieのみで全部出来るように見えますが,実はそうではなくて, Caffe modelをNCS用にコンパイルする環境がUbuntu16.04が別途必須なのです.


Getting Started with Neural Compute Stick and Rasbperry Pi 3

① Caffe modelをNCS用にコンパイルする環境を作る(Ubuntu16.04)

1.RaspberryPi2用のUbuntu16.04イメージをここからダウンロード(ubuntu-16.04.3-preinstalled-server-armhf+raspi2.img.xz)して,SDに書き込みます.

2.SDKをダウンロードして解凍します.

wget https://ncs-forum-uploads.s3.amazonaws.com/ncsdk/MvNC_SDK_01_07_07/MvNC_SDK_1.07.07.tgz
tar xvf MvNC_SDK_1.07.07.tgz
tar xvf MvNC_API-1.07.07.tgz
tar xvf MvNC_Toolkit-1.07.06.tgz

3.MvNC_Toolkit-1.07.06をセットアップします.これがCaffe modelをNCS用にコンパイルする環境です.セットアップ完了に3時間はかかったと思います...気長に.(あまりに長すぎて,Caffeのインストール途中で止めてしまい,その後Caffeのビルドが通らなくなったのですが,make cleanしてから,再度./setpu.shすればいけました.)

cd bin
./setup.sh

4.MvNC_API-1.07.07をセットアップします.これがNCS用にコンパイルしたCaffe modelバイナリ(graphと呼ぶ)を実行する環境です.Caffe modelバイナリ(graphと呼ぶ)を生成するために,Ubuntu16.04でCaffe model(Alexnet,Googlenet,Squeezenet,etc)のダウンロードを行い,MvNC_Toolkit-1.07.06に含まれるコンパイラを使ってCaffe modelをコンパイルし,graphを生成します.1点ファイル修正をします.デフォルトのconvert_models.shは,-s 12コンパイルオプションがついておらず,実行速度が半減以下になるので,以下のように書き換えます.(2017-08-12現在. 他のサンプルは,mvNCCompile.pycに対して-s 12コンパイルオプションがついてる場合のあるのですが,なぜかここには付いていない)

convert_models.sh

#!/bin/sh

NCS_TOOLKIT_ROOT='../../bin'
echo $NCS_TOOLKIT_ROOT
python3 $NCS_TOOLKIT_ROOT/mvNCCompile.pyc ../networks/SqueezeNet/NetworkConfig.prototxt -s 12 -w ../networks/SqueezeNet/squeezenet_v1.0.caffemodel -o ../networks/SqueezeNet/graph
python3 $NCS_TOOLKIT_ROOT/mvNCCompile.pyc ../networks/GoogLeNet/NetworkConfig.prototxt -s 12 -w ../networks/GoogLeNet/bvlc_googlenet.caffemodel -o ../networks/GoogLeNet/graph
python3 $NCS_TOOLKIT_ROOT/mvNCCompile.pyc ../networks/Gender/NetworkConfig.prototxt -s 12 -w ../networks/Gender/gender_net.caffemodel -o ../networks/Gender/graph
python3 $NCS_TOOLKIT_ROOT/mvNCCompile.pyc ../networks/Age/deploy_age.prototxt -s 12 -w ../networks/Age/age_net.caffemodel -o ../networks/Age/graph
python3 $NCS_TOOLKIT_ROOT/mvNCCompile.pyc ../networks/AlexNet/NetworkConfig.prototxt -s 12 -w ../networks/AlexNet/bvlc_alexnet.caffemodel -o ../networks/AlexNet/graph
cd ncapi/redist/pi_jessie
sudo dpkg -i *
cd ncapi/tools
./get_models.sh
./convert_models.sh

5.これで,Caffe modelをNCS用にコンパイルする環境作りと,NCS用にコンパイルしたCaffe modelバイナリ(graphと呼ぶ)の生成が完了しました.(ncapi/networks/Googlenetなどにgraphというバイナリファイルが生成出来ていれば成功です)

② NCS用にコンパイルしたCaffe modelバイナリ(graphと呼ぶ)を実行する環境を作る(Raspbian Jessie)

1.RaspberryPi2用のRaspbian JessieイメージをダウンロードしてDDで書き込みます.ここを参考にしました 2.Raspbian Jessieを起動したらapt-getで環境を最新にしておきます.

sudo apt-get upate
sudo apt-get upgrade

3.上記①Caffe modelをNCS用にコンパイルする環境を作るを完了した,ncapiディレクトリ一式を,Raspbian Jessieの実行用環境にフルコピーします.私はWindows環境でTeraTermを使ってssh接続したのちファイルコピーしました.ここを参考に,SCPコマンドを使うとファイルのやり取りが簡単でした. 4.Raspbian Jessie側に,NCS実行環境をインストールします.

cd ncapi/redist/pi_jessie
sudo dpkg -i *

5.SDKのstream_inferサンプルを動かす環境をインストールします.これはUSBカメラを使ったSqueezeNetの1000クラス分類デモを実行できます.(Googlenet等も実行可能です)

sudo apt install gstreamer-1.0
sudo apt install python3-gst-1.0
sudo apt-get install gir1.2-gstreamer-1.0 
sudo apt-get install gir1.2-gst-plugins-base-1.0

6.RaspberryPiで実行用に,ncapi/py_examples/stream_infer/stream_infer.pyを一行書き換えます.

stream_infer.py

#SINK_NAME="xvimagesink"         # use for x86-64 platforms
SINK_NAME="glimagesink" # use for Raspian Jessie platforms

7.Movidius NCSとUSBカメラを接続し,stream_infer.pyを実行すると,リアルタイムでカメラ映像のクラス分類が走ります.(SqueezeNetがper50msくらい,Googlenetがper80msくらいで実行できました.クラス分類の精度の方はまぁこんなものなのでしょうか.結構はっきりした物体じゃないと認識できませんね.

cd ncapi/py_examples/stream_infer/
python3 /stream_infer.py

まとめ

  • USB型DeepLearningアクセラレータ,"Movidius Neural Compute Stick"をRaspberryPi2で動かしてみました.
  • "Movidius Neural Compute Stick"が必要なのはコンパイル済のgraphバイナリを実行するときだけでした(まぁわかれば当たり前ですかね)
  • 次は,SDKサンプル以外のCaffe Modelを実行したり,これを使ったガジェット作りに進みたいと思います.

以上

Windowsですごく簡単にDeep Learningの環境を作る方法!

はじめに

ANACONDAを使えば,WindowsOSでもPython開発環境を簡単に作れる.

  • 今回は,ANACONDAで画像処理とDNNやるときに,かつProxy環境下で使う場合の設定方法についてまとめる.
f:id:flow-dev:20170423115754j:plain


ANACONDAのInstall

ダウンロードはDownload Anaconda Nowから.

  • 今回は,python2.7をベースとした環境構築で記述する.なので, python2.7 versionをダウンロード.
  • このInstallはガイドに従えば簡単.64bit版推奨.
f:id:flow-dev:20170423115750j:plain

ANACONDAのcondaコマンドをproxy環境で使えるようにする.

proxy環境だと,便利なcondaコマンドが使えなくて困る.設定しよう.

usage

proxy_servers:
    http: http://hoge.com:11110
    https: https://hoge.com:11110

PATHを通す

  • C:\Users\hogehoge\AppData\Local\Continuum\anaconda2\ScriptsにPATHを通しておく

python3.5を個別にInstall

tensorflowを使いたいので,python3の環境をInstallする.

usage

  • Anaconda Prompt.exeを管理者権限で実行(なにかinstallする際はこれで)
f:id:flow-dev:20170423115759j:plain
  • 以下実行すれば,python3.5のコアが導入できる.
  • activate py35 / deactivate py35で,環境を有効無効にできる.
conda create -n py35 python=3.5
activate py35
deactivate py35

tensorflowとkerasとsklearn入れる

tensorflowKerassklearnをinstall. * sklearnはデータ前処理で便利なので入れとく.

usage

  • Anaconda Prompt.exeを管理者権限で実行
  • tensorflowはpython3系じゃないと動かないので,activate py35してから.
activate py35
pip install tensorflow
pip install keras
pip install sklearn
  • proxy越しならこんな感じ.(hogeは置き換えて)
activate py35
pip --proxy http://hoge.com:11110 install tensorflow
pip --proxy http://hoge.com:11110 install keras
pip --proxy http://hoge.com:11110 install sklearn

opencv3とdlibをいれる

opencv3Dlibをinstall. * 画像処理をするのと,画像認識系APIとして双方便利. * menpo使うと簡単他にもライブラリまとまってる.

usage

  • Anaconda Prompt.exeを管理者権限で実行
  • python2.7,python3系どっちでも使えるが,今回はpython2.7がベースとして記述する.
conda install -c https://conda.anaconda.org/menpo opencv3
conda install -c https://conda.anaconda.org/menpo dlib


まとめ

  • これで画像処理やDeepleraningをWindowsOSで始める環境が整いました.
  • ここまで出来れば,chainer入れたりとかはadd-onで出来ます.
  • 簡単なんです.

Visual Stadio CodeでC/C++の開発環境を簡単に作る(Windows)

はじめに

f:id:flow-dev:20200204072808p:plain

C/C++環境で困ったこと

Visual Stadio CodeにC/C++ for Visual Studio Codeを導入すれば,C/C++コード検索するための環境はおおよそ整いますが,これだけだと「指定した関数が参照されている先を全て検索する」ができません.. この点だけ、Eclipseより劣るので不便でした.

gtagsの導入で解決

しかし調べてみるとC++Intellisenseと,GNU GLOBAL(gtags)を導入することで,「指定した関数が参照されている先を検索する」が可能になることがわかりました.

設定方法をまとめました

今回はWindows環境で,C++Intellisenseと,GNU GLOBAL(gtags)を導入に関する纏まった情報がなかったので,以下に記述します.

環境の作り方

VisualStadioCodeに拡張機能C++Intellisenseを追加する

f:id:flow-dev:20170109080711j:plain

GNU GLOBAL(gtags)をinstallする

GNU GLOBAL(gtags)とは,C/C++の参照関係を記述したタグファイルを生成するライブラリ. GNU GLOBAL(gtags)が詳しいので,以下はポイントを簡単に.

ターミナルを立ち上げて,gtags.exeを実行する.

  • VisualStadioCodeで,「指定した関数が参照されている先を検索する」を行いたいC/C++コード群のフォルダを開く.
  • VisualStadioCodeから"Ctrl+@"で統合ターミナル(コマンドプロンプト)を起動する.
  • 以下のコマンドで,gtags.exeを利用して,「指定した関数が参照されている先を検索する」ためのタグファイルを生成する.
> gtags.exe -v
  • GPATH, GRTAGS, GTAGSという3つのタグファイルが生成される.
  • [参考]C/C++コードの参照関係を変更したタイミングで,再度gtags.exeを実行する必要がある.

C/C++コード上で.「すべての参照の検索」を実行する.

  • VisualStadioCodeで,「指定した関数が参照されている先を検索する」を行いたいC/C++コードファイルを開く.
  • 任意の関数を反転させて,右クリックまたは,Shift+F12で,すべての参照の検索を実行する.

f:id:flow-dev:20170109080725j:plain

  • gtags.exeでタグファイルが正しく生成されていれば,参照先の一覧が表示される.

エラー(実行できない)時に確認すべき点

  • 任意の関数を反転させて,右クリックまたは,Shift+F12で,すべての参照の検索が出来ない場合は,C++Intellisenseプラグインからhttp://adoxa.altervista.org/global/の導入が出来ていない
  • ※gtags.exeでタグファイルが正しく生成されていなければ,結果がありませんと出る.


参考資料

RaspberryPiにroswwwをinstallするTips

RaspberryPiにroswwwをinstallするTips

  • RaspberryPiにROSをinstallしたのち,rosbridgeとroswwwをinstallすればWebインターフェースを介してRaspberryPi+ROSを制御することができます.
  • RaspberryPi+ROSに接続したカメラの映像をsensor_msg/CompressedImageとし,Webインターフェースに投げて遠隔表示することもコツがわかれば簡単です.
  • 今回はまず,RaspberryPiにroswwwをinstallする方法を書きます.
f:id:flow-dev:20200211092926p:plain

flow-developers.hatenablog.com

roswwをRaspberrypiにinstallするコマンド

# roswwwのUsrageはこちら.
<http://wiki.ros.org/roswww>

# ROSのworkspaceに移動する.
cd ~/ros_catkin_ws/src

# 最新のroswwwを取得する.
git clone  https://github.com/tork-a/roswww.git

# catkin_makeを実行する.
cd ~/ros_catkin_ws 
sudo ./src/catkin/bin/catkin_make_isolated --install --install-space /opt/ros/indigo --pkg roswww
source /opt/ros/indigo/setup.bash

# [TIPS] launchファイルが2か所に同じ名前であるので、どちらかを消す.
/opt/ros/indigo/share/roswww/launch
か
~/ros_catkin_ws/src/roswww/launch
どちらかの
roswww.launch と start_bridge.launch
を消す.※中身は同じですが競合してlaunch実行がErrになるため.

# 最後にサーバー立つか,実行して確認しinstall完了.
roslaunch roswww start_bridge.launch


まとめ

  • 今回はRaspberryPiにroswwwをinstallするTipsを書きました.
  • launchファイルが2か所に同じ名前であるので、どちらかを消す.がポイントです.
  • rosbridgeのinstall方法はまた次回.

Markdownの書き方(レポート作成に必要な6つの記法)

Markdownの書き方(レポート作成に必要な6つの記法)

  • すぐに忘れてしまう,レポート書くのに最低限必要の記法まとめ

見出し

# 見出し1
## 見出し2
### 見出し3
#### 見出し4

見出し1

見出し2

見出し3

見出し4


箇条書き

* 箇条書き
* 箇条書き
* 箇条書き
- 箇条書き
- 箇条書き
- 箇条書き

  • 箇条書き
  • 箇条書き
  • 箇条書き
  • 箇条書き1
  • 箇条書き2
  • 箇条書き3

引用

>引用

引用


コード引用(python)

```python
print 'Hello world'
```

print 'Hello world'

コード引用(bash)

```bash
#!/bin/bash
echo "Hello World !"
exit 0
```

#!/bin/bash
echo "Hello World !"
exit 0

コード引用(cpp)

```cpp
int main(int argc, char *args[])
{
    printf("Hello, world!\n");
    return 0;
}
```

int main(int argc, char *args[])
{
    printf("Hello, world!\n");
    return 0;
}

リンク引用

[flow-developers](http://flow-developers.hatenablog.com/)

<http://flow-developers.hatenablog.com/>

flow-developers

http://flow-developers.hatenablog.com/


画像引用

![logo](http://k.yimg.jp/images/top/sp2/cmn/logo-ns-131205.png)
<div align="center">
<img src="http://k.yimg.jp/images/top/sp2/cmn/logo-ns-131205.png" width=30%><img src="http://k.yimg.jp/images/top/sp2/cmn/logo-ns-131205.png" width=30%>
</div>

logo


テーブル

|左揃え|中央揃え|右揃え|
|:---|:---:|--:|
|align-left|align-center|align-right|
|セルの左揃えです|セルの中央揃えです|セルの右揃えです|

左揃え 中央揃え 右揃え
align-left align-center align-right
セルの左揃えです セルの中央揃えです セルの右揃えです

Markdown環境設定の過去記事はこちらに。 flow-developers.hatenablog.com

以上

pythonでグレースケール→カラーマップ(colormap)変換

グレースケール→カラーマップ(colormap)変換

  • グレースケール→カラーマップ(colormap)変換の汎用的サンプルコードです。
  • 簡単なのでpython以外でも流用可能です。
  • 種々のセンサ出力のカラー化でご活用ください。

Usage

  • 0を中心に+-5を変化終点としたカラーマップ(colormap)
  • RGB(255,255,255)の変化を示すグラフ
  • カラーマップ(colormap)をmatplotlibでカラーバー(colorbar)
  • 用途に応じて範囲等は変更可能な記述としました。

f:id:flow-dev:20161008181320j:plain f:id:flow-dev:20161008171838p:plain

Sample Code

  • サンプルコードをGitHub Gistにuploadしました。


(pandoc不要!)Markdownを簡単きれいにPDF変換する!

はじめに

VisualStudioCodeは、markdownの編集/プレビューも可能な便利なエディタ。

VisualStudioCode

  • しかし、デフォルトではmarkdownをpdf/htmlファイルで出力できない。
  • markdownに興味がない人に、markdwonで書いたドキュメントを渡したい時に困る。
  • 一方で、ググると「pandocを使え」と出てくる。
  • pandocは色々できるけど設定がめんどくさい。 *「もっと簡単に」「まぁ綺麗なフォント」でmarkdownをpdf/htmlファイル出力したいんだよね。
  • markdown-pdfなんてのもあるが、「まぁ綺麗なフォントじゃない」。cssファイルを探す手間とかいらない。
  • なかなか良いのがなかったんですが、ありました!

vscode-markdown-pdfを最高

  • 「もっと簡単に綺麗なフォントでmarkdownをpdf/htmlファイル出力してほしい」
  • このすべてを満たすのがvscode-markdown-pdf

Install

  1. 左下の拡張機能アイコンをクリック
  2. 検索窓にpdfと入力
  3. Markdown PDFをインストールする

f:id:flow-dev:20161006221202j:plain

Usage

2017/2/3追記.画像をたくさん張る場合,各画像をVGA(640x480)くらいにresizeしてからmarkdown->pdfしないとerrで落ちやすい(ver.0.1.5で確認)

  1. Markdown ファイルを開く
  2. 右クリックしてConvert Markdown to PDFを選択するとpdf変換が始まる
  3. ファイル -> 基本設定 -> ユーザ設定settings.json を開く
  4. 以下の設定を変更すると出力フォーマットをpdf , html, png, jpegから選択可能
 // Output format: pdf, html, png, jpeg
    "markdown-pdf.type": "pdf",

* 詳細は公式Readmeで。 vscode-markdown-pdf

pdf/html化したスクリーンショット

  • pdf f:id:flow-dev:20160901143344j:plain

  • html f:id:flow-dev:20160901143335j:plain

  • フォントも色もデフォルトのままでまぁ綺麗。

まとめ



参考文献

vscode-markdown-pdf