VR:はじめてのOculus quest 開発

こんにちは Keita_Nakamori(´・ω・`)です。

ついに始まりましたOculus quest 開発。やっていきましょう。

開発者モードにする

  1. まずは、Mirage Solo でもやったように、開発者モードに切り替えます。
  2. Oculus の初期セットアップのときにスマホへOculusアプリをインストールしているはずですので、起動しましょう。
  3. スマホ右上の設定ボタンをおして、近くにあるOculus Quest xxxxxxxxxxx がアクティブになっているのでタップすると接続済みになります。
  4. 近くにあるOculus Quest xxxxxxxxxxx>その他の設定>開発者モード をタップしましょう。
  5. スマートフォンにインストールされたOculus アプリからOculus Questの開発者モードを許可します。
  6. このとき、組織名を登録しなくてはなりません。NDAがどうたらとか確認ボタンを押してください。組織名はカッコいい名前をつけてください。管理者とか開発者の名前も登録できるようですが、よくわからないので無視しました。OKボタンとか確認ボタンもないので普通にスルーです。
  7. その後PCとOculus Questを接続すると、Oculus Quest側にUSB接続を許可しますか、というメニューが出るので、OKしましょう。
  8. これでPCからOculus Questのライブラリフォルダにアクセスができるようになりますのでアプリのインストールファイルであるapkファイルをこのルートで設置することができます。が私はやりません!!

Buid and Run してみる

  1. Mirage Solo 用のUnity Project があったので、Oculus Quest用に改造します。
  2. Unityを起動してAssetsStoreからOculus Integrationをダウンロードしインポートします。終わったらなぜかUnity がRestartしました・・・。
  3. Project内にあるAssets/Oculus/VR/Prefabsの中にあるOVRCameraRigをHierarchyに追加し、Main Cameraを削除しておきます。
  4. OVRCameraRigにアタッチされたOVR ManagerのTargetDevicesをQuestに変更します。
  5. ProjectSettingsのPlayerの設定でMinimum API LevelをAndroid4.4(API level 19)に設定します。
  6. ビルドはFaceBookではなくてAndriodのままでOKです
  7. ではBuid and runしてみましょう。

さあ、Oculus Questを覗いてみてください。ひとまず見るだけはできる状態になっているはずです。

 

VR:Mirage Solo で視界共有(画像出力)

えー、Keita_Nakamori(´・ω・)です。

Mirage Solo の画像をみんなで共有するために外部のディスプレイやプロジェクタへ出力する方法を調べてみました。

Chrome Castを使えば出来る

Chromecast 3 または Chome Cast Ultra という、スマホの画面をテレビに無線でミラーリングするデバイスがありまして、これをテレビのHDMI入力に挿して、スマホからWifiで映像を送るというものだそうです。

Amazonで2000円前後のものがありますが、それは最新のものではありませんので注意です。

Mirage Soloも中身がほぼスマホですから使えるというわけであります。

Mirage Solo ディスります

しかし、現在ではスタンドアロンで6DOFといえば、Mirage Soloの独壇場ではありません。Oculous questがすでに発売されており、コントローラーやSDK、ソフトウェアタイトルなど、Mirage Soloは過去の産物となりつつあります。

Mirage Soloもそれに対抗するために開発者向けのキットとして、新しいコントローラーを出していますが、一般に手に入るのはいつになるかわかりませんので絶望しかありません。

よって、今後はVR開発をOculous questでやっていくことにしました。

Oculous quest の画像出力

Oculous quest の画像出力に関しては、scrcpyを使う方法があります。

https://qiita.com/Tomoyuki_Mikami/items/183be9b0698ee00f7fac

https://github.com/Genymobile/scrcpy

または、こちらもChrome Castが使えますので、お好みでどうぞ。

今後のOculous quest VR開発 で参考にしたいサイト

では、今後Oculous Questで VR開発を継続していきます。

Oculus Quest向けアプリの個人開発は可能か? 実機で確かめてみた

 

アリーヴェ デルチ。(´・ω・)

VR:シーンをAppボタンでリセットする

モジュールUnityEngine.SceneManagementを使ってシーンをリセットしてみます。

ごみオブジェクトが溜まりすぎたときは一気に消去できて便利です。

DayDreamコントローラーのAppボタンが押されたとき、シーンがロードされます。

GvrControllerInput.AppButtonDownとSceneManager.LoadScene(0)を使っています。

スクリプト(Reset.cs)

これを、ヒエラルキーのどこでもいいのでCreate Empty してAdd Component>Reset.cs を指定すれば、当該スクリプトが発動します。

以上でございます。(´・ω・`)

VR:オブジェクトの重力落下、衝突、再実体化、破壊

こんにちは、Keita_Nakamori(´・ω・`)です。

今日は、オブジェクトの重力落下、衝突、最実体化、破壊までをやってみましたのでメモっておきます。

モデルの作成

まずはモデルの作成ですが、滑り台とシュートを作っていきました。

それぞれ、Create Emptyし、その中に部品を配置し一つの塊にしました。

その際、今回のモデルは斜面なので、なるべく簡単に調整できるよう、一旦、水平に作成したものをプレハブ化してPrefabsフォルダに保存し、ヒエラルキーへ呼び出したあとに、Rotationで斜面にするというやり方を採用しました。

さらに、後ほど再実体化(Instantiate)するときの出現位置を設定するために、予めプレハブ構成の中に、出現位置としてオブジェクトをひとつ配置しておくことで、指定が簡単になるメリットがありました。(結構重要)

 

重力落下と衝突面の定義

重力の定義は、オブジェクトに対してAdd Component>rigid body でUse GravityをONにすれば重力1Gが定義されます。

  • 質量Mass=0.01kg
  • 進行方向抵抗Drag=0
  • 回転抵抗Angler Drag=0

としました。

衝突面の定義は、オブジェクトに対してAdd Component>Mesh Collider で定義できます。注意ですがここでIs Triggerにチャックを入れてはダメです。これは接触を検知したら別のスクリプトを走らせるためのものなので、逆に接触しなくなります。(非常にわかりにくい。)

MeterialへはPysicalMaterialとして予め作成したPM010を定義しました。

再実体化(Instatiate)

オブジェクトを再出現させるところをやっていきます。

Crate EmptyでGameControllerという名前にして、そこにAdd Componentで再出現スクリプト(Summon.cs)をアタッチする作戦で行きます。

スクリプト(Summon.cs)

DayDreamコントローラーのメインボタンを押すと発動するように作成しました。

GameControllerのインスペクター

スクリプトのおかげで、Summon ObjectとSummon Positionをインスペクターから定義できるようになっているはずです。

Summon Objectには出現位置として使用し、InstatiateするオブジェクトをAssetsのPrefabからドラッグします。ヒエラルキーから持ってくるとうまく再実体化できませんでした。

Summon Psition にはプレハブモデルの中にひとつだけ搬送ワークを設置していますので、それをヒエラルキーからアタッチして座標を取得します。

やってみましょう

ここで問題発生です。オブジェクトが増えるとFPSが極端に下がってしまいます。

オブジェクトの破壊

出現から一定時間後に自動的に破壊されるようにスクリプトを追加します。

スクリプト(TimeLimitObj.cs)

 

オブジェクト自身にインスペクターからAdd Component>TimeLimitObj をアタッチして、Life_timeに例として60(秒)などと入力します。

結果、60秒後には全てのオブジェクトが消滅します。

次回の課題

VR(Mirage Solo)の視界を他者も共有できるようにしたい。

まともな人間のアセットを配置したい・・・

 

MR:mirage solo のパススルー機能を使ってみた

どーもこんにちは、Keita_Nakamori@(´・ω・`)です。

捨てようかどうか迷っているMirage Soloについて、最後にMRをやってみようと思います。

環境

  • Windows10 home
  • Unity 2018.4.4f1
  • GoogleVRForUnity_1.200.0

ヒエラルキー

  • GvrBetaHeadset:新しいです
  • GvrControllerMain
  • GvrEventSystem
  • GvrEditorEmulator
  • GvrBetaControllerPointer:これも新しいです
  • PlayerというEmptyを作って、その中にMain CameraとGvrBetaControllerPointerwを入れておきます。

GvrBetaHeadsetの設定

起動と同時にMRが発動するように、インスペクターでGvrBetaHeadsetスクリプトのグルーバル変数であるInitial Camera Mode を Tone Mapに、Initial Scene TypeをAugmentedに変更します。

カメラの設定とオブジェクト配置

カメラの背景はHolo Lenseと同じく完全透明のSolid color (0,0,0,0)への変更が必要です。

カメラの座標はカメラの親であるPlayerでy=1.5にします。カメラ自体は(0,0,0)です

オブジェクトは1m角の枠とユニティちゃんを配しました。

ではビルドしましょう。やりかたはVRのときと全く同じです。

MRとVR(オブジェクトだけ)を切り替えたいとき

下記サイトを参考に、スクリプトをPlayerに貼り付けます。これで、Appボタンを押せば切り替えられるようになりました。

【Unity(C#)】MirageSoloのシースルーモード導入方法

スクリーンショットを貼っておきます(Volume Down ボタン+ DayDreamボタン(一番下))

スクリプト

念の為、置いておきます。

ViewModeChange.cs

弱点

オブジェクトの前になにも障害物がない状態では問題ないのですが、例えば、手をユニティちゃんの手前にかざすと、隠れるはずのユニティちゃんが隠れてくれません。

ここがホロレンズと違うところで、手はオブジェクトとして認識されているわけではありません。

よって、手はパススルーの背景と同じ扱いをされてしまいますので、手で遮っても、その上にユニティちゃん(オブジェクト)が乗ってくることになります。

このときに盛大な違和感を憶えます。

でも、手をオブジェクトの後ろに回すぶんにはなんの違和感もありませんし、むしろ自然な感じが良いです。

今後

  • パススルー画像をリアルタイムで解析して、
  • 手の動きをオブジェクト化し、
  • ユニティちゃんの手前にかざし、ユニティちゃんが見えなくなるような方法を探る。

そんなことができるでしょうか。

VR:Unity空間内をDayDreamコントローラーで歩く5(できました!)

今日は、キーボードからではなくて、デイドリームコントローラーからの入力を受け取るように改造していきます(´・ω・)

かなり前にSummonFunc()を作ったときにやったのを思い出しながらやってみます。

条件式:if (GvrControllerInput.ClickButtonDown) でコントローラーのボタンがクリックされたことを認識したときに、関数SummonFunc()を実行しています。

関数SummonFunc()は任意のオブジェクトを任意の座標と向きを定義してヒエラルキーに追加(Instantiate)する内容になっています。

変更しましょう:

Gvrのメソドを利用していきましょう。

GvrControllerInput.以下のメソド

  1. AppButtonDown     : アプリケーションボタンを押したとき
  2. HomeButtonDown : ホームボタンを押したとき
  3. ClickButtonDown   : タッチパッドボタンを押したとき
  4. TouchDown               : タッチパッドに触れたとき
  5. TouchPos                    : タッチパッドに触れている位置(Vector2)

if(GvrControllerInput.TouchDown)

  • tpX=0.5,tpY=0.5が中心で
  • 前進はtpY<0.3のときにしよう
  • 後退はtpY>0.7のときにしよう
  • 右を向くのはtpX>0.7のときにしよう
  • 左を向くのはtpX<0.3のときにしよう

もっといい方法があるかもしれないが、まずはこれでやってみよう。

スクリプト:PlayerMover2.cs

デイドリームコントローラーで動きました(´・ω・)

まだまだ、改良は必要ですが、とりあえず動くものはできました。

かれこれ、2日まるまるかかってしまいましたが、大きな前進です!

起動直後になぜか、カメラが動いてしまいます。

後日調整が必要です。

VR:Unity空間内をDayDreamコントローラーで歩く4(まずはキーボードから)

前回は結局 ロコモーションもスクリプトがおかしいですよーと警告が出てどうにもなりませんでした。しかも、ロコモーションアセットを全部消しても、ビルドができなくなるというわけわからん状態になったので、プロジェクトを捨てました。恐ろしいです。ここいらでちゃんとUnity勉強したほうがいいかもしれませんね。

基本に立ち返って、自分でカメラ操作のスクリプトを実装していこうと決意した次第であります。

今回の成果:大きな前進(*´﹃`*)

キーボードのWASDまたは矢印キーでプレイヤー視点を移動することに成功しました。

スクリプト:PlayerMover.cs

動いた、嬉しい。

VR:Unity空間内をDayDreamコントローラーで歩く3(Unity 2019.3.0a5はアカン)

原因が分かりました。

Unity 2019.3.0a5に対して、Unity v1.200.0用GVR SDKの組み合わせは上手くいかないようです。

代わりにUnity 2019.1.5f1を使用することで、Unity v1.200.0用GVR SDKをインポートしても問題なくビルドできます。

プレイヤーセッティングでAPIレベルを変更できない問題も特に発生しません。

いつも通りに戻りました。本当によかった。

改めまして 環境

  • OS                          : Windows 10 Home
  • Unity                    : Unity Hub  > Unity 2019.1.5f1
  • google VR SDK : Unity v1.200.0用GVR SDK
  • ヘッドセット : Mirage Solo

 

UnityでのDaydream(3DoF)コントローラのサポート

説明ページに従ってやっていきます。

Gvrプレハブをヒエラルキーに配置します。

Google VRプレハブのあるシーン

PlayerとMain Camera と GvrControllerPointerの座標設定

Playerの座標は目の高さy=1.4 原点付近に置いたオブジェクトが見える位置z=-3.0にします。

Main Cameraの座標はPayerの座標に一致させたいので、x,y,z =0,0,0 にします。

GvrControllerPointerの座標は左右の目の中心位置よりもy方向に-0.30 , z方向に-0.20とします。腕をくの字90°に曲げた状態を想定しています。

聞き手は右手に設定します。(Gvr Tracked Controller(script) でController Hand=right にする)

次にGvrControllerPinter直下のControllerVisualを設定していきます。

 

 

  いよいよ、念願の歩く設定に入ります。

ロコモーション

テレポーテーション:瞬間移動

トンネリング;1人称視点移動(中心のみ普通の映像で、周囲は暗くなるのでトンネリングというらしい。)

チェイスカメラ:3人称視点

では GitHubからダウンロード

DaydreamElements.unitypackage をダウンロードしてプロジェクトにインポートしましょう。

なんかでた・・・。

 

===再起動したら復活した。===

気を取り直して、やっていきましょう。

====でも 上手くいきません。眠いので以降は明日やります===

 

手動でトンネリングを設定したい場合は、次の手順を実行します。

TunnelingVignetteメインカメラの兄弟としてプレハブのインスタンスを追加します。
スクリプトのインスタンスをFirstPersonTunnelingLocomotionメインカメラの親に追加します。
ではFirstPersonTunnelingLocomotion、スクリプトを参照ドラッグ TunnelingVignetteビネットコントローラのプロパティにします。
プレイヤーを衝突でブロックしたい場合は、メインカメラの親にキャラクターコントローラーを追加します。

Add an instance of the TunnelingVignette prefab as a sibling of the Main Camera.
Add an instance of the script FirstPersonTunnelingLocomotion to the parent of the Main Camera.
In the FirstPersonTunnelingLocomotion script, drag a reference to TunnelingVignette into the Vignette Controller property.
Optionally, add a Character Controller to the parent of the Main Camera if you want the player to be blocked by collisions.

うーん(*´﹃`*) FirstPersonTunnelingLocomotionがコンパイルされていないとこどーとか出て、アタッチできませんぬー。

VR:Unity空間内をDayDreamコントローラーで歩く2(全然無理)

Unity空間内をDayDreamコントローラーで歩くどころではなくなりました。

このUnityバージョンの重大な不具合を見つけました。

環境

  • OS                          : Windows 10 Home
  • Unity                    : Unity Hub  > Unity 2019.3.0a5
  • google VR SDK : Unity v1.200.0用GVR SDK
  • ヘッドセット : Mirage Solo

ビルドできません!!

ビルドしようにも、プレイヤーセッティングが白紙になってしまい何も設定できなくなります。

その場合の解消法としては、一旦プラットフォームをアンドロイドからPCに変更してから、再びアンドロイドに戻すと復活しました。ちなみにRun DeviceはDefault deviceのままでOKです。わざわざLenovo VRにする必要はありませんでした。

引き続き、やっていますが、再ビルドできなくなりました。

プロジェクトを新規に立ち上げてセットアップしましたが、恐ろしい不具合が・・・

APIレベルの変更ができないのです。というか、項目がないのです。

ここでビルドすると、失敗しますが、プレイヤーズセッティングの項目が増えてAPIレベルの変更ができるようになります。

でもビルドは成功しません。意味不明の状態であります。さあ、次はどうしましょうかね。

======ビルド成功した手順=====

  1. 新規プロジェクトを作る
  2. ヒエラルキーにプレーンを作る
  3. シーンをセーブ
  4. プロジェクトをセーブ
  5. ビルドセッティングでまずアンドロイドへプラットホームを変更
  6. プレイヤーセッティングスでカンパニーネームをTiに
  7. XRセッティングスで バーチャルリアリティサポートテッドにチェック
  8. バーチャルリアリティSDKにDayDreamを追加
  9. アザーセッティングスのグラフィックスAPIからVulkanを削除(VRに対応していない旨の傾向が出る)
  10. アザーセッティングスのIdentificationのMinimum API Levelを24にしたいが、この時点ではgetting APIなんちゃらと、薄い字になっていて変更できない。
  11. びるどえんどらーん する。当然失敗するが、Minimum API Levelを19から24へ変更するよう警告がでる。
  12. これによって、Minimum API Levelを24に変更できるようになるので、やる。
  13. 再び、びるどえんどらーん。
  14. Mirage Soloをかぶると自動的にUnity画面が立上り、ゲームが開始される。
  15. 以後、このゲーム画面のまま、再度びるどえんどらーんをすると、自動的に強制停止されて、新しく更新されたゲーム画面に自動的に遷移する。

====== しかーし!!=====

世の中そんなに甘くはありません。

本題であります google VR アセットをインポートして、ビルドした瞬間。またでました。ディナーイのエラー もう google VRは使いたくないので、 Mirage Solo 捨てて、Oculus Quest に乗り換えます。

さようなら、Google

VR:Unity空間内をDayDreamコントローラーで歩く1(見る価値なし)

Unity空間内をDayDreamコントローラーで歩きたいとき ありますよね。

UnityでのDaydream(3DoF)コントローラのサポート

結果:無理でした。別途再チャレンジします。

環境

  • OS                          :Windows 10 Home
  • Unity                    :Unity Hub  > Unity 2019.3.0a5
  • google VR SDK : Unity v1.200.0用GVR SDK
  • ヘッドセット:Mirage Solo

Unityへgoogle VRをインポート

GoogleVRForUnity_1.200.0.unitypackage をダウンロードしてUnity内でAssetsフォルダ直下にインポートします。

Android搭載のUnity用Google VR SDKのクイックスタート

その中に、Hello6DoFControllers の説明があるので リンク先にいってみると404 お探しのページはありません・・・と出てきます。自力でやるしかありません。

ビルドエンドら~ん

画面下のProjectメニューにAssets>GoogleVR>Demos>Scenesが追加されているので、>VideoDemo を試してみましょう。この中に、DayDreamコントローラーで歩く方法が実装されているかもしれないという期待をこめて。

ではシーンにチェックを入れて、プラットフォームをアンドロイドにして、ここで問題発生。

プレイヤーセッティングが白紙・・・。設定できない。

まあ、そこは無視して、ヘッドセットとPCをUSBケーブルで繋いで、さあ ビルドエンドら~ん。※私はMirage Soloでやりますので、USBケーブルをPCとヘッドセットに接続してビルドアンドランしてみます。

上手くいきません。それもそのはず、プレイヤーセッティングをやってませんからね・・・。どうしよう。

今一度プレイヤーセッティングに行ってみると、何故か設定項目が復活していたので、Company Name を入れて(多分頭が大文字にしないとだめ)、Other SettingのGraphics APIsでVulkanを削除、Minimun API Level を24に,XR SettingsのVirtual REality Supportedにチェックをいれて、プラスボタンを押してDayDreamを選択。

いろいろ設定して、ビルドしてみます。

target architecture not specified という警告がでるので、target architectureでarm v7を選択(これしか選べない)

これで上手く行くと思いきや、コンソールにアラートが。

unitygvr.aar is dinied とか言われていますが。じゃあ無理じゃんということで、もうやめます。

ちなみに、シーンをDemosではなくて、起動時のシーンに戻しましたが、同じくディナ~い と言われましたので。もう無理です。完全にはじめからやります。

余談:

いつの間にか、USBケーブル直でできるようになりましたね!しかしなぜか2Dアプリとしてインストールされてしまいます・・・不具合はないですが、気持ち悪いです。