How it Feels [through Google Glass]
この動画を見ることで、Google Glassを装着したときのイメージが共有できるかと思います。
私たちが実際に生活しているときに見ている映像がメインの映像となり、右上に出ている映像がGoogle Glassを通じてみることのできる情報(カード)ですね。
実際にGoogle Glassを装着すると、この動画と同じような感覚になると思います。
メインの動画、つまり日常で見ている目からの映像に集中していると、Google Glassの情報は装着していると「有る」のはずなのだけれど、意識していないと「無い」ものとなってしまいます。なので、音などの別の刺激(情報)が必要なんだと思います。
ドラゴンボールのスカウターは戦闘能力を図る道具でしたが、センサーによって同じようなことができることも確認できますね。
例えば、最後のほうに出てくるジェリーフィッシュ、つまりクラゲのことですが、センサーでクラゲに関する情報がでてきます。裏のからくりをみると、Wikiにリンクしているだけではありますが、見たことのない昆虫を発見したりした場合に、センサーで検知すると、その情報が出てくることが可能になるようです。
こんな機能があると、学者があちこちの世界を飛び回ることなく、Google Glassを装着した一般人が、スキャンしたら未発見の新種の動物だったなんてことが、明らかになったりするんでしょうね。
それもそんなに未来のことではなく。
Google Glassに対する命令は、すべて「OK.Glass」 の後に、言っています。OK.GLASS の後の命令の言葉(=「呪文」)は、現時点ではGoogleで認識しやすいように改善するので、開発だけをすれば簡単にできるものではないようです。
Take a picture = 写真を取れ、とか、今は呪文のように言っているだけで、タイミングなどはとりあえずなんでしょうけど、技術の改良で、笑った瞬間を取れとか、どこの部分を拡大してとれとか、現在のカメラでもできてきた技術が取り込まれていくんでしょうね。
でも、どれも導入の映像であり、これはスタートのイメージで、Google Glassの発展で、もっとすごい体験もできるようになるんじゃないかと、期待してしまいます。