ページ

2012年6月20日水曜日

二次元のあいつらに三次元的に触れる方法

0 件のコメント:

僕は考える。
スマホが飛ぶ鳥を落とす勢いで普及している現在、次のステップでは、何が起きるのか?

まずは整理しよう。

iPhoneの登場を皮切りに、Android、windows phone(笑)、などのスマホ向けOSが旧来のケータイOSのシェアをどんどんと奪っていった。おかげで、Nokiaはもう瀕死の状態である。

ここで起こったパラダイムの変化は、「通信からエンタメへ」だ。
日本のガラケーが一歩先んじていたパラダイム。

だけれど、スマホ向けOSの持つ技術的優位性は、長年日本が培ってきたビジネスモデルをずたずたにするのには十分だった。

マルチタッチに対応するタッチパネルをケータイに組み込んだこと。
この単純な事実が最もインパクトが大きい。

今までも、タッチパネルの技術をケータイに組み込んだものはあった。DSケータイと呼ばれたアレとかね。黒歴史だよね。

指一本でしか操作出来なかったタッチパネルを、指二本で操作出来るようにした。
指一本の追加。これをどこまで実用的にするかどうかが、日本のケータイ業界の明暗を分けた。

まさに、指先一つでダウンさ。

いや、これが言いたかったわけじゃない。本当にいいたいことは、これから先のことだ。

シングルタッチをマルチタッチに変えるだけで、アプリの幅がグッと広がった。

GPSを搭載していながら、非常に扱いにくかったガラケーの地図アプリの拡大縮小を容易にした。

デジカメ並みの高性能を搭載していながら、きめ細かい修正や閲覧が出来なかったガラケー画像編集の息の根を止めた。

OSの違いによる利便性の向上も大きい。
例えば、通話をしながら写真を撮って、それをメールで送ってすぐに見ることが出来る。

スマホの便利さは記述しだすと枚挙に暇がないが、技術的には指先一つの追加と、タッチパネルの精度向上によるところが最も大きい。

さて、解釈は現実の事実に対してつきまとうもので、結局上記は僕の解釈でしかないのだが、ここから先は僕の考える未来だ。まだ起こっていないが故に解釈の余地のない、妄想と区別のつかない僕の考える未来だ。

2年後、2014年、立体的な操作が可能な、実用的なタッチ(?)パネルが登場する。

試作としてなら既にある。ちょっと僕の最終的なイメージとは違うが。Kinectだ。

Kinectは、平面的に照射される赤外線により対象の動きを判断して、ケーブル不要の3次元的なモーションセンサーになる。

固定点からの対象観測になら、Kinectは十分効果的だ。
例えば、精度は劣るだろうが、3Dゲームの制作現場で使われていたような、モーションアクターの身体のあちこちにつける機器は不要になるだろう。

けれど、これは結局固定点からの観測に過ぎない。
3次元的なタッチパネルを、ケータイみたいな可般式な物体に組み込むことを考えた時、実用性は薄い。
Kinectをケータイに組み込んで同じことをしようとしたとき、ケータイのあちこちから赤外線を照射しないといけないし、仮にKinectの動作に必要な射程距離が超短距離になったところで、「じゃあどうやってボタンとか押すの?」って問題が浮上する。

そう、Kinectは優秀なモーションセンサーたりえるが、無慈悲なタッチパネルキラーにはなりえないのだ。

3次元的なタッチパネルを実装するにあたって取り分け難しい問題は、「ボタンを押す」をどう表現するかだと思う。

平面上のボタンを押すのは簡単だ。
「触れる」ことが押すこととイコールだから。

でも、立体的なボタンを押すのは、「凹ます」必要がある。
アメリカ横断ウルトラクイズをするときに押すあの早押しボタンを考えて欲しい。
立体的な形状を持つボタンを触るだけではなく、地面方向へ押すことで、初めて「押された」と認識されているだろう。

つまり、立体的なボタンを「押す」には、平面的に「触れ」、さらにもう一つの方向に「移動」させることが必要条件になる。

「平面的に触れる」ことと「平面を構成する次元とは別の方向への移動」。

これが立体的なボタンを押す条件だ。

ではどうやればそれをケータイで出来るか?

ここで、前提条件があることに気付く。
ホログラムだ。つまり立体映像。

立体映像を中空に投影し、その映像に対してアクションすることでしか、立体的なボタンを押す術はない。

ここで確認しておくが、立体的なボタンとは言うものの、必ずしも縦・横・奥行きを持っている必要はない。
要するに、平面的な映像であっても、その映像が「奥行きに対して移動した」と認識出来れば良いのだから。

大事なのは、「現実と同じ立体物が投影されること」と「立体物への接触を判断できること」ではなく、「モニターに表示されている二次元映像が任意の距離で表示されること」と「接触を感知すること」だ。
これで、マイノリティ・リポートのようなクールな未来技術ではなく、より実際的な泥臭い技術だということがわかった。

■「モニターに表示されている二次元映像が任意の距離で表示されること」

調べてみると、この手の技術は案外出来てることがわかる。

■「接触を感知すること」

やっぱり本命はこっちか。
ARとしては実現されてるけど、ホログラムとの組み合わせはまだ実例はちょっとしかない。研究試作段階。

この2つを組み合わせることで、「二次元に触れて」「奥行き方向へ移動させる」ことが可能になる。

それが出来れば、あーんなことやこーんなことに利用されるに違いない。

…ぐたぐたと書いたけど、なんで僕がこんなことを考えるようになったかというと、仕事中に「あー、ケータイでコーヒーのプルトップ開けるアプリとか出来るんかなー」と、わけわからんことを疲れた脳で考えたのがきっかけでした。
決してあずにゃんペロペロする方法を考えてたわけじゃないからな!本当だからな!