【Vive Pro Eye】開発者フォーラムの話【サンプリング周波数・キャリブレーション・他】
どうも。皆さんViveProEyeの開発は順調でしょうか?
僕は高校数学レベル(極座標)のミスに気付かず、「思い通りに動かない!なんでー!」と1週間進捗がフリーズしておりました( ;∀;)
本記事の中身は
・開発者フォーラムでの話題
・自分がやってて気づいたこと・失敗談
・ViveCOSMOSのはなし
がメインになります。
今回は1つの内容を取り上げるというよりも、前回の記事のラストで書いたような雑記のまとめです<(_ _)>【のはずが、フォーラムの話が想像以上に長くなってしまったのでそれ以外は次回…】
(⇓前回)
開発者フォーラムのはなし
皆さん、HTCの開発者フォーラムは見ていますかね?('ω')
以前、視線の方向ベクトルの始点の話をした際に、SystemOriginはフォーラムの画像見てね、みたいな事をリンク載せて書いたかと思います。
質問も回答も活発…とは言えませんし、会話が噛み合ってないじゃんっていうやりとりも見られますが、開発に関しての情報源がマジでないから見るしかねえ(; ・`д・´)って感じでございます。(主観)
今回は、今までとりあげた、SystemOriginの話やTobiiXRと合わせたらエラーが…みたいな情報以外で、フォーラムで見かけた役立ちそうな情報をいくつかメモしておこうと思います。
①サンプリング周波数を最大まで活用する
ViveProEyeの視線追跡。そのサンプリング周波数はいくつかご存じでしょうか?
いや、まぁ調べずに20万円投資する人は珍しいと思いますが…('ω')
ちなみにMogura等では「90Hz」となっています。
自分がどっかで見た情報だと120Hzなんですよね(どこで見たか忘れた(;´・ω・)
90HzはUnityのUpdate()を通して取得した時…らしい
つまり、Unityの外で出力をキャッチすれば最大120Hzまで取れるという話
サンプルコードも載っております。
僕は試してないですが、細かい動きを見たい人(認知心理学系とか?)は導入してみては?(*‘ω‘ *)
②キャリブレーションの方法を変えたい・自動で行うようにしたい
装着者にキャリブレーションの指示をするにしても、HMDを調節するよう指示を出すにしても、そのHMDの映像がディスプレイでも見えないと、研究者側はどうにもできないわけで。
SDK上では、モニタから叩けるようになってるけど、そのキャリブレーション中の様子は見れない…( ˘•ω•˘ )
心理学系にしてもなんにしても、初見の人に毎回口頭で指示するのも手間なので、IPDとかHMDの位置とかは外から調節してあげたいですよね。
まぁ結論から言えば
「Tobiiとのコラボなんで、それをいじるのは無理よ」
Oh...(゜.゜)
まぁTobiiのシステムをviveが叩いていると考えれば、直接Tobiiの方を叩けるようにすればいいんですけどね…
昨日Tobiiの方のフォーラムを眺めていたら、クイックキャリブレーションなるものがあるとの情報が。精度も多少落ちる…のかな?Unityの外で叩けるみたいなので、どうしても必要な方は試してみては?(そしてその感想聞きたい←)
③ワイヤレスの話
Viveにワイヤレスアダプタというものがあり、これはViveProEyeにも対応しているらしい。
まぁ日本では規制で発売できなかったらしいんですけどね…
ハイスペック+コードレスの時代はあと5年か10年くらいでしょうかね(;´・ω・)?
次回につづきます
コメント等ありがとうございます。開発仲間さんが居ることが分かって嬉しいです!
これからもなにとぞよろしくお願いします(*‘ω‘ *)