Meta2とLeap MotionでProject North Starモドキを作ってみた – 公益財団法人 九州先端科学技術研究所

Meta2とLeap MotionでProject North Starモドキを作ってみた

こんにちはオープンイノベーション・ラボの吉永です。

今年の春、細かい手や指の動きにリアルタイムに追従しデジタル情報を操作するAR(Augmented Reality/拡張現実感)のデモが話題になりました。
当初その詳細は謎に包まれていましたが、6月になりLeap Motion社という手や指の動きに特化したモーションキャプチャでお馴染みの会社が開発したProject North StarというARヘッドセットであるということが判明しました。

ARデバイス好きの自分としては開発元がわかった時点で早く遊びたいと思い、Leap Motion社のウェブサイトにアクセス!
しかしどこを探しても購入ページはありませんでした。。。
実はこのデバイス、完成品が販売されるのではなく公式サイトの方で設計図がオープンソースで公開されていて、3Dプリンタなどを使って自分で作るというものでした。
工作はあまり得意ではないため、それを知った時点で少し気持ちが萎えました。

でもやっぱり気になるNorth Star。よくよく考えたら、透過型のARヘッドセットと手の動きを計測するデバイスのLeap Motionがあれば同じようにARの中に細かい手の動きを取り入れられるのでは?ということに気づきました。
そこで既に私物で持っていたMeta2というヘッドセットと、Leap Motionを使ってProject North Starモドキを作ってみることに。
作ったと言ってもやったことは非常にシンプルで、Meta2の上にLeap Motion(上の黒くて四角いやつ)を厚手の両面テープで止めただけ。
あとは開発環境にUnityを使用し、Meta2とLeap Motionそれぞれ用のSDKを導入して各デバイスを同時に使用できるようにしました。
※開発者向け情報:meta2からMetaCameraRigプレハブを使用。LeapMotionからCapsuleHandプレハブとLeap XR Service Providerスクリプトを使用。Unityのバージョンは2017.4.5f1

その結果が以下の動画になります。なんかいい感じにできている気がします。
せっかくなので指フレームで画像を操作するといったジェスチャー入力っぽい機能も実現してみました。

さらにもうちょっと遊んでみたくなり、指フレームを使って別の世界をのぞいたり、親指の立ち具合を利用したARライトセーバーのようなものも実現してみました。

またこれらの作品ですが、自分だけで体験するのは勿体ないので10月に広島にある湖畔の里 道の駅 福富で開催された「つくればフェアPlus」で展示して様々な人たちに体験してもらいました。

未だにProject North Starは体験したことはないので比較はできませんが、Meta2 + Leap Motionで自分が思ったものができたので概ね満足です。
ご興味のある方、吉永がオフィスにいればいつでも体験可能なので、ぜひ弊所が運営しているSRP Open Innovation Labにお越しください!もちろん出張デモの依頼も大歓迎です!