TechCrunchで発表されたSekai Cameraってどうなん?というメールを頂いた,
TechCrunch Japanese
このコンセプト自体は新しくもなんともない.14年くらい前から日本では暦本先生が有名で「実世界指向」とういうコンセプトで色々な研究がなされている.
参考リンク
カメラで撮影した映像上に,撮影されている対象の情報を重畳表示するというアプリケーションを実現するには,
※そもそも,その対象の情報を誰が提供するのか
※どうやって対象を認識するのか
という大きな課題がある.情報提供の課題は,今回はとりあえずおいとく.
対象を認識する方法は,現状では以下のような手法が考えられる.
1.カメラを使う
・画像処理を使って対象を認識する.QRコードなどの2次元コードを利用する方法も含まれる.2次元コードはコードを貼り付けないといけないので大きなランドマーク等には使えない.画像だけでの物体認識は相当困難であり,実時間かつ実際的な計算量で,Sekai Cameraのデモ並の精度を出せるものは知られていない.
2.RFIDタグを使う
・対象にRFIDなどのタグを付与し,対象が発信する電波を受信して対象を認識する.この手法は,電波が四方からくるため,その対象の場所を詳しく特定することは困難という特徴がある.
3.GPS,ジャイロ,コンパスを使う
・対象の場所と情報を保存したデータベースを用意する.端末の位置と向きを使って,そのデータベースから,ユーザが見ていると考えられる対象の情報を引き出す.IBMの研究所がかなり前に比較的大きなサイズのランドマークや看板に対してこの実験をやっていた.さらに最近ではAndroidのSDKを使って大阪大学の留学生がこの手法を使ったアプリケーションを作っている.
TechCrunchの発表で,Sekai CameraはiPhoneで実装するといっているので,2と3はありえない.3はできると考える人もおられるかもしれないが,iPhoneは地球に対して人がどちらを向いているかを判定することはできないため(電子コンパスがない),3の手法を素直に実現することはできない.また,向きを判定できたとしても対象とiPhoneの距離を測定しないといけない.また,プレゼンターはカメラは使わないと言っており,RFIDはiPhoneには実装されていない.となると,どうやって対象を認識するのか・・・・・不明である.
コンセプトだけなら,掃いて捨てるほど提案されている.この手のアプリケーションは具体的な実装方法が提示されないと何のおもしろみもない.残念ながら,絵に描いた餅の電脳コイル実現プロジェクトだ.
特許があるとプレゼンターは発表している.もしかすると,iPhoneではなくすごいデバイスで実現してくるのだろうか.それとも,こういった従来の課題をひっくり返す実装手法をすでに開発しているのだろうか・・・?