● GoogleGlassの向こうに見る、その先のインターフェイス(伊與田孝志 )
- コンピュータはデバイスの殻を破るか? -
最近、コンピュータの入出力デバイス/インターフェイスに関する話題がちょいちょい気になります。
・「Google Glass Explorer Edition」、開発者に順次提供へ–予定より早く
・これこそ”クールジャパン”、思わずワクワクする富士通の新技術に国内外から期待の声
どちらも、未来を感じさせる、とてもわくわくする話です。が、これらを単に「すごいね!かっこいいね!」と言ってるだけだと発展性がないので、自分なりに考察・妄想してみます。
・GoogleGlass
・富士通研究所の新技術(面倒なので、以下便宜的に「指キャプチャ」と言っておきます)。
これらを共通の文脈でくくると、
・画面とボタンを介したインターフェイスからの脱却
・リアル世界とコンピュータの融合
というような言い方ができそうです。
スマホが普及して、いつでもどこでも、直感的な操作で高度なコンピュータ処理の恩恵にあずかれるようになった昨今ですが、それは結局まだ、四角い画面のデバイスを通してしか、コンピュータとのコミュニケーションを行なっていない状態のままです。
そんなもんだと思えば、それはそれで十分便利には違いありません。が、ふと現実世界におけるナチュラルなコミュニケーションと比べたとき、これは本当に自然な状態なのだろうか?と疑問が湧きます。
たとえば、地図アプリを見ながら目的地に移動する場合。
画面の地図上に表示された道筋をちょくちょく確認しながら歩く、というのが普通だと思います。
では、道順を知っている知人と一緒に目的地を目指す場合、どんなコミュニケーションを行なっているか。
基本的に、知人に自分の前を歩いてもらい、自分は後ろをついていくでしょう。何かの都合で自分が前になり、間違った方向に進もうとしていたら、知人はポンと肩を叩き「そっちじゃないよ、こっちだよ」と呼び止めてくれるでしょう。
自分の前を歩いてくれる。肩を叩いて呼び止めてくれる。正しい方向を指差してくれる。
画面内で示される「情報」とは違う、こういうちょっとしたサポートが、リアル世界における自然なコミュニケーションではないでしょうか。
コンピュータとのコミュニケーションもこういう自然な形で存在してくれたら、それはスマホの画面をにらみながら歩くより、はるかに自然で素敵な状態のように思えます。すくなくとも、道で通行人に激突するリスクは減るでしょう。
こう考えると、現在のコンピュータとのコミュニケーション方法は、まだかなり不自然なことが多いと気づかされます。
GoogleGlass、指キャプチャ、これらはいずれも、この既存のコンピュータインターフェイスから脱却し、リアル世界の中により自然な形でコンピュータとのコミュニケーションを持ち込む可能性を示すものといえます。
画面とボタンを介したコミュニケーションから脱却して、リアル世界のコミュニケーションルールに踏み込んでくる。そこに我々は「魔法」を感じるし、その魔法性が「未来」を感じさせるのだと思います。
前置き終わり。さて。
・画面とボタンを介したインターフェイスからの脱却
・リアル世界とコンピュータの融合
という文脈からさらに考えていきますと、これからのキモになるは、以下の2つのと切り口ではないかと推測します。(根拠はありません。勝手な推測です。)
1. リアル世界のものを直接操作できる状態
2. 物理的なデバイスを手元に持つ必要なしに、どこでもコンピュータとコミュニケーションできる状態
■1. リアル世界のものを直接操作できる状態
GoogleGlass(というか、眼鏡型デバイス)があれば、たとえばこんなことが実現できそうです。
・部屋の照明に向かってスイッチをひねるジェスチャをすると、照明がつく
・カーテンに向かってスワイプのジェスチャをすると、カーテンが開く
これ、魔法っぽくないですか?
もちろん、照明やカーテンがオンラインでコントロール可能な状態になっていることが大前提です。でもこれは、スマートハウス化の流れを踏まえれば、わりと近い未来に実際にあり得そうな話。
眼鏡型デバイスで操作対象物を視界に捉え、その前で操作ジェスチャをする。そうすると、眼鏡型デバイスは
・画像認識等で操作対象物を特定
・ジェスチャを認識して操作内容を特定
・家庭内LANなどを経由して、操作指示を対象機器に伝達
という処理を行なうイメージ。
画像認識技術について詳しくないので詳細は不明ですが、理屈上はそんなに難しい話じゃないんじゃない?と思います。
この仕組み、単なる仕組み論だけでいえば、眼鏡型デバイスをジェスチャで操作してるだけじゃん、って話ではあります。
が、このシステムを使っている感覚は、眼鏡型デバイスを操作しているのではなく、リアルの対象物を直接操作している感覚になるのではないかと。
この、デバイスという殻を破って、リアル世界と融合する感じが重要なんだと思います。
(カーテンくらい自分で開けろよ…といわれて終わりそうですけど…いや、重要なのはそこではなく。伝わりますかね?)
現実的に突き詰めると、操作に関する情報(操作対象物が的確に判別されているかどうか、操作対象物の状態、操作した結果など)を操作者にフィードバックするために、なにがしかの情報を表示できる必要があるかもしれません。
眼鏡型デバイスの画面上で、AR映像としてサインを表示してやれば、そのあたりも解決しそうです。
(もっとも、現状のGoogleGlassは、視界の一部に画面がかぶるだけで、視界全体にAR映像を重ねられるわけではなさそうなので、そういう使い方には不十分かもしれませんが)
GoogleGlass(眼鏡型デバイス)という方向性は、こんなふうに、コンピュータとのコミュニケーションをリアル世界全体に拡張する可能性に期待が持てます。
(ちなみに、ウェアラブルな新デバイスということで、Appleが開発中という腕時計型デバイスと並べて語られたりしていますが、上記のようなブレイクスルーの可能性の有無で考えると、まったく似て非なるものだと思います。)
(次のページへ続く)
コメント
ワンセグ全番組タイムシフト視聴は視聴率を下げるのか検証してみた〜ガラポンTV視聴ログより
リアルタイムの放送をテレビで視聴する人が増えることは良いことです。 言うまでもなくこれは「視聴率が上がる」ことを意味します。 &nb…
この記事へのコメントはありません。