SKY NOTE

skymouseが思った事考えた事を記したもの

Pref..
Speech
STOP
Follow..
QR Code
|◀
▶|
QR
×
voice
volume
0
rate
0
pitch
0

Google EarthがLeap Motion(ハンドゼスチャーコントローラー)に対応

Google EarthLeap Motionコントローラーに対応した。

Leap Motionと聞いても何のことやらわからない人も多いことだと思う。そこで、動画を紹介する。

画像を見ると分かる通り、画面の前で手をかざすだけで、画面の地球がくるくる回ったりしている事がわかると思う。これは、センサーで手の動きを感知して、それをタッチパネルの操作のように使えるようにするものだ。センサーの種類としては、kinectに近いが、これは、kinectよりも狭い範囲で、そして、精度が大幅に高い。その様子をもう一つの動画で説明する。

複数の指や手の動きを非常に忠実に再現していることが分かる。どのくらいの精度で読み取っているかというと、以下の動画の37秒目に、手の形をどれだけ立体的に再現できているかが分かる。

どうやら、赤外光を使用しているらしい。一般的に赤外線を使うと、荒い解像度の奥行き情報が手に入るのだが、Leap motionほど高精度ではない。Leap motionは、それを3つの穴から出てくる赤外線で感知し、そのセンサー情報をソフトウェアで解析して、高精度な立体情報として認識しているようだ。

Leap motionは、1秒間に100カウントで立体情報を入手でき、その精度は1/100mm単位であるという。高精度な代わりに、センサ感度領域は狭く(横50cm、奥行き46cm、高さ55cm)しかない。

Leap motion Spec
・カウント数:100カウント/秒(ライトモードは50カウント/秒)
・精度   :1/100mmの精度(ペンの動きも再現できる精度)
・センサ領域:W:500mm H550mm D:460mm
・処理   :ソフトウェア解析(MacBookの20%の負荷:ライトモード時)
・対応機種 :WindowsMacOS XLinux(対応予定)
・価格   :70ドル(約7000円)現在はデベロッパ向けに配布

Kinectなどは、センサー感知情報をある程度、センサー本体が処理しているが、このLeap motionの場合、それをPC側で処理させている。この記事では、処理負荷は、MacBookの20%程度であると言っている。しかし、これはセンサカウント(100回/秒→50回/秒)を半分にしたライトモードによる。なんだか、マルチコアプロセッサの仕事が増えたような気がする。以前、Leap motionの開発者が、どうやって、このような高精度なセンサ精度を実現しているのかと聞かれた所、ソフトウェアによるところが大きいと言っていた。要するにキーテクノロジは、解析アルゴリズムであり、センサー自体は普通のもののようだ。

このインターフェースは、ジョブスが生きていたら真っ先に採用していただろう。そして、プレゼンで、こう言ったと思う。まず、マウスを紹介して、その次にタッチパッド、その次に手だ。みたいな感じで。手そのものがインターフェースになるんだと説明したに違いない。

自分が見る所、Leap motionのセンサ領域が狭いのは、主に2つの理由でそうなっていると考える。まず、ソフトウェア処理なので、領域を広げすぎると実用水準のスピードが出ない。もう一つは、立体情報をステレオ視差を利用して得ていると考えられるため、視差が十分にある領域に限られる事。それを逆に考えれば、処理性能が十分にあり、センサを大型化して視差を広く取れば、より広い領域が感知できるのではないかと考えることも出来る。あくまでも推測だが。現在、Leap motionの処理は、CPUで実現しているようだが、将来的にはGPUを使うんだと思う。見た感じGPUが得意な処理にも見える。

Leap motionを使えば手の動きが、ほぼ完全な形で再現できるので、擬似的に物を触ったり握ったりする事ができるようになる。これに3Dモニタが加われば完璧だ。3D空間のお店で商品を手にとって色々な角度から眺めてみたり、ありとあらゆるものを直感的に持ったり、触ったりすることが出来る。そういうリアルなインターフェースが実現する。3D空間で粘土をいじるようにして、3Dモデルを作成するなんてことも可能だろう。

このインターフェースでできる事は、計り知れない。またセンサ領域が広く取れれば、立体的な写真を作ることが出来るだろう。從來は、精度の粗い奥行き情報しか得られず、実用的ではなかったが、1/100mm水準の制度があれば、色々なものを、このセンサーで測り、立体モデルを生成、その上に写真をテクスチャとして貼れば、完全なる立体モデルが出来る。

Amazonの商品写真を高品質な立体映像にすることも可能に思える。そういう意味では、HTML5OpenGLで、出来た3D Amazonが出来てもおかしくない。SONYのヘッドマウントディスプレイにこのLeap motionのセンサが加われれば、その立体ショッピングモールでを移動しながら、商品を手にとって物を買うなんてことも可能になる未来がすぐそこまで来ていると感じる。そこで自分は考えたのだが、手を歩くように振ると、好きな場所に移動できるというゼスチャーを考えた。そして、クビの動きを感知出来れば、その見ている方向に向けて歩くことになる。素晴らしく直感的だ。これに音声認識が加われば、かなり人間の挙動に近いインターフェースが実現できるだろう。

ゲームも直感的になる。SONYは、プレイステーション4のモニタとして、Leap motion付きの3Dヘッドマウントディスプレイを販売するべきである。(笑)あとMacにも対応して