うめ研究生のVR開発記

ViveProEyeをUnityで開発したい大学院生です('ω')公式VIVEアンバサダー1期生

【Vive Pro Eye】視線追跡をより正確にするTobii提供のSDKを使って開発【G2OM】

前回から日が開きましたが、皆さん開発は順調でしょうか('ω')

 

今回は、以前の記事で「次はTobiiのSDKかな」みたいなこと言っておきながら放置してた内容をまとめていきます。

 

ぶっちゃけ、内容としては前回までのSRanipal_SDKがあれば、そんなに必要なものでもないかなという印象です。

 

でも精度は向上すると思いますし、開発もこっちの方がやりやすいような気がしてたりしてなかったり…(´・ω・)

(Viveのプログラムもどーせ内部ではTobiiのプログラムを使ってる気がしますし)

 

TobiiのSDKは何が違うのか

使われる方はTobiiのDeveloverとしてアカウント登録をしましょう。

 

特に何があるわけでもなく、簡単に手続き終わります(*'ω'*)

developer.tobii.com

 

ViveのSDKと違う点の1つとして…説明が細かく、丁寧で、優しい!

 

画像や映像をたくさん使って説明してくれてました|д゚)

 

今回は簡単に、特徴やできることをまとめていきます。

英語が読める人や、グーグル先生がついてる人は、公式を見た方が絶対分かりやすいです( ˘•ω•˘ )やはりサンプル映像は神

vr.tobii.com

 

TobiiSDKの最大の売り、G2OM

この部分に魅力を感じなければ、前回までのSRanipal_SDKで十分です('ω')

自分も、こうやってメモ代わりに書いてますが、開発要件を考慮したうえで使ってません(理由は後程)

 

【追記】GazeModifier(後述)は有能かもしれない

 

ほとんどの場合(消費者の嗜好調査とか)には有益なSDKだと思いますよ。

 

さて、Tobii G2OMとはなんなのか

説明を要約すると

「人が何を見ているかは、両目からの光線の交点で判別していました。しかし、骨格やヘッドセットの形、装着のキツさなどの要因に左右されてしまいます。色々制約を設定すれば、精度が上がるでしょうが、設定に知識と経験が必要とされるうえ、難しい。」

 

「そこで、機械学習を用いた補正プログラムを用意しました。」

 

ということで、何百万のデータで学習済みの補正がかかるようになります。

 

公式のページの映像にあるように、実際の視線の衝突判定が広くなっています。

コライダだけを変えるよりも、楽で軽く、対象物の切り替えもスムーズ…だそう(・o・)

 

実際、見られている物体がより正確に取れるという点では導入するべきでしょう。

 

自分は

・コライダの判定を自分で操作出来た方が設計していくうえで便利

・どの物体かではなく、物体上のどこを見ているかが取りたい

ので導入は見送りです(´・ω・)

まぁ、2つ目に関しては、if文で見ている&&物体上の点とすればいい気もしますが。

 

※注意 : SRanipal_SDKより後期の、Unity2018.2.5f1以降のサポートになっていますので気を付けて(1敗)(2018.1.5fでも動いた)

 

TobiiのSDKで出来ること

・視線が向けられているオブジェクトの取得

・視線の起点及び方向ベクトル

・2次元の眼球運動の取得

・3次元の眼球運動の取得

・両目の瞼の開閉具合の取得

・眼の動きから表情の取得

(その他:UIの開発、見ているものを手に取るなど)

 

【追記】

・GazeModifier

 

使い方はほんと、すべて公式がセットアップから、C#スプリントの書き方まで例と図を多用で書いてくれているので、ぜひそっちを参照してくださいな(/・ω・)/