Jetson nano:始めました。OSをマイクロSDカードに入れます。

こんにちは Keita_Nakamori @ (´・ω・`)です。

Jetson Nano を入手いたしました。ラズパイの4倍の性能と伺っております。

考えるな!まずやってみろ! の精神で、やっていきます。

OSをマイクロSDカードに入れる

Nvidiaの公式ページに従って、OSをマイクロSDカードに入れていきます。

1.Jetson Nano Developer KitのSDカードイメージを ダウンロード

jetson-nano-sd-r32.2-2019-07-16.zip がダウンロードされます。

2.Windows用のSDメモリカードフォーマッタをダウンロード

SDCardFormatterv5_WinEN.zip がダウンロードされます。

解凍して、インストールしてフォーマッターを起動して、SDカードをクイックフォーマットします。ボリュームラベルは空白でOKです。

3.Etcherをダウンロード

balenaEtcher-Setup-1.5.52.exe がダウンロードされます。

 

この実行ファイルを実行してインストール、および起動します。

OSイメージとして、先程ダウンロードしたjetson-nano-sd-r32.2-2019-07-16.zipを指定します。zipのままでOKです。

マイクロSDカードのドライブを指定します。

FLASHを押すと書き込みが開始されます。20分程度かかりました。そこらへんに転がっていたSDカードリーダーなのでUSB1.0だったかもしれません。

Flash Complete! と表示されれば完了です。

次回

さて、次回はこのマイクロSDカードをJetson Nanoに突っ込んで起動させてみます。

 

購入忘れ物

と、その前に・・・Jetson Nanoの性能をフルに引き出すためには、ACアダプタで5V 4Aを安定的に供給する必要があるとのこと。Amazonでポチりましょう。

 

さらに、このACアダプタを使用する場合は、ジャンパーを短絡させる必要があるとのこと。Amazonでポチりましょう。

 

なんだかアフィリエイターみたいになってしまいましたが。本当に必要なモノなので、ポチってください。

 

 

 

sklearn:サポートベクター分類

sklearnのサポートベクター分類の一般的なやり方です。

線形分類とか

カーネルに操作を加えた分類とか

スクリプト

 

Python: sklearn プリ処理

Sklearnのプリ処理の部分をメモっておきます。

スクリプト

 

Python:matplotlib

可視化の基本 matplotlibです。

貼っておきます。

matplotlib_taxt_for_data_science.html

matplotlib_taxt_for_data_science.ipynb

スクリプト

 

Python : pandas

どーも Keita_Nakamori(´・ω・`)です。pandas の基本操作を一通りやりましたので、置いておきます。

pandas_for_text_of _data_science.html

pandas_for_text_of _data_science.ipynb

べた貼りです。上記のhtmlのほうが見やすいです。

 

MR:mirage solo のパススルー機能を使ってみた

どーもこんにちは、Keita_Nakamori@(´・ω・`)です。

捨てようかどうか迷っているMirage Soloについて、最後にMRをやってみようと思います。

環境

  • Windows10 home
  • Unity 2018.4.4f1
  • GoogleVRForUnity_1.200.0

ヒエラルキー

  • GvrBetaHeadset:新しいです
  • GvrControllerMain
  • GvrEventSystem
  • GvrEditorEmulator
  • GvrBetaControllerPointer:これも新しいです
  • PlayerというEmptyを作って、その中にMain CameraとGvrBetaControllerPointerwを入れておきます。

GvrBetaHeadsetの設定

起動と同時にMRが発動するように、インスペクターでGvrBetaHeadsetスクリプトのグルーバル変数であるInitial Camera Mode を Tone Mapに、Initial Scene TypeをAugmentedに変更します。

カメラの設定とオブジェクト配置

カメラの背景はHolo Lenseと同じく完全透明のSolid color (0,0,0,0)への変更が必要です。

カメラの座標はカメラの親であるPlayerでy=1.5にします。カメラ自体は(0,0,0)です

オブジェクトは1m角の枠とユニティちゃんを配しました。

ではビルドしましょう。やりかたはVRのときと全く同じです。

MRとVR(オブジェクトだけ)を切り替えたいとき

下記サイトを参考に、スクリプトをPlayerに貼り付けます。これで、Appボタンを押せば切り替えられるようになりました。

【Unity(C#)】MirageSoloのシースルーモード導入方法

スクリーンショットを貼っておきます(Volume Down ボタン+ DayDreamボタン(一番下))

スクリプト

念の為、置いておきます。

ViewModeChange.cs

弱点

オブジェクトの前になにも障害物がない状態では問題ないのですが、例えば、手をユニティちゃんの手前にかざすと、隠れるはずのユニティちゃんが隠れてくれません。

ここがホロレンズと違うところで、手はオブジェクトとして認識されているわけではありません。

よって、手はパススルーの背景と同じ扱いをされてしまいますので、手で遮っても、その上にユニティちゃん(オブジェクト)が乗ってくることになります。

このときに盛大な違和感を憶えます。

でも、手をオブジェクトの後ろに回すぶんにはなんの違和感もありませんし、むしろ自然な感じが良いです。

今後

  • パススルー画像をリアルタイムで解析して、
  • 手の動きをオブジェクト化し、
  • ユニティちゃんの手前にかざし、ユニティちゃんが見えなくなるような方法を探る。

そんなことができるでしょうか。

Python : numpy

どーもこんにちは、Keita_Nakamoriです(´・ω・`)

Pythonを色々やってきた中で、何かしらマイルストーン的なものがほしいと思い

Python 3 エンジニア認定データ分析試験

なるものを受けてみようと思っております。

データ分析というからには、numpy , pandas, matplotlib, scikit-learn くらいは出るんだろうなあと漠然と考えていますが、今日はnumpyを学習したので、備忘録に貼っておきます。

numpy_text_for_data_analisys_with_Python.html

numpy_text_for_data_analisys_with_Python.zip