JP5932889B2 - ヘッドマウント型拡張現実映像提示装置及び仮想表示物操作方法 - Google Patents

ヘッドマウント型拡張現実映像提示装置及び仮想表示物操作方法 Download PDF

Info

Publication number
JP5932889B2
JP5932889B2 JP2014118657A JP2014118657A JP5932889B2 JP 5932889 B2 JP5932889 B2 JP 5932889B2 JP 2014118657 A JP2014118657 A JP 2014118657A JP 2014118657 A JP2014118657 A JP 2014118657A JP 5932889 B2 JP5932889 B2 JP 5932889B2
Authority
JP
Japan
Prior art keywords
image
pointer
virtual
display object
virtual display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014118657A
Other languages
English (en)
Other versions
JP2014206990A (ja
Inventor
宗之 大島
宗之 大島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2014118657A priority Critical patent/JP5932889B2/ja
Publication of JP2014206990A publication Critical patent/JP2014206990A/ja
Application granted granted Critical
Publication of JP5932889B2 publication Critical patent/JP5932889B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、ヘッドマウント型の拡張現実映像提示装置に係り、特に、眼前に表示されている仮想表示物をユーザが容易に操作できるヘッドマウント型拡張現実映像提示装置及び仮想表示物操作方法に関する。
拡張現実の映像を提示するソフトウェアが開発され、利用されるようになってきている。例えばカメラ付き携帯電話機用アプリケーションソフトウェアでは、カメラで撮影されたシーンに即した情報(周辺の観光案内等)をネットワーク経由で取得し、この情報の存在を示す仮想表示物(アイコン等)を撮影画像に合成し、携帯電話機の表示画面上に表示する。そして、ユーザが上記仮想表示物をタッチパネル等を用いて表示画面上で選択すると、仮想表示物が拡大し、詳細情報(観光施設の歴史等)を閲覧したり、ローカルの記録領域に情報をコピーしたりできる。また、ユーザ自らが情報を付与した仮想表示物を生成したりすることもできる。
この様な拡張現実の映像を携帯電話機の小さな表示画面に表示しても、見づらいという問題がある。また、臨場感にも欠ける。そこで、携帯電話機にヘッドマウントディスプレイ装置(HMD)を接続し、撮影映像と仮想表示物を表示させることで、ユーザは、臨場感のある大きく見易い映像を見ることが可能となる。
しかし、ヘッドマウントディスプレイ装置を使用すると、ユーザの目が、眼前を覆う表示画面に塞がれてしまい、表示画面中の仮想表示物を携帯電話機で操作することができなくなってしまうという問題が生じる。
この問題を解決するための手段としては、例えば下記の特許文献1に記載されている様に、ユーザの手にジャイロセンサを取り付けて手の位置をヘッドマウントディスプレイ装置が把握し、表示画面に表示されている仮想空間内に手の画像を表示させることで、手の画像を用いて仮想表示物の操作を行うことが考えられる。あるいは、ヘッドマウントディスプレイ装置の表示画面側に赤外線カメラを取り付け、ユーザの視線を感知して操作指示を出すことも可能である。
しかしながら、ジャイロセンサ等のセンサ類や赤外線カメラ等の特別な装置を設ける場合、ヘッドマウントディスプレイ装置のコストが嵩み、大がかりな装置構成になってしまうという問題がある。
特開2003―337962号公報
本発明の目的は、高価なセンサ類などの装置を用いることなく、ヘッドマウントディスプレイ装置に表示された仮想表示物を容易に操作することができるヘッドマウント型拡張現実映像提示装置及びその仮想表示物操作方法を提供することにある。
本発明のヘッドマウント型拡張現実映像提示装置は、ポインタの画像を撮影する撮像手段と、上記ポインタの画像を解析し、ポインタの機能を認識するポインタ機能認識手段と、仮想物データを仮想物データベースから取得する仮想物データ取得手段と、上記撮像手段が撮影したポインタの画像と上記仮想物データをアイコン化した仮想表示物とを合成し合成画像を生成する画像合成手段と、その合成画像を表示するヘッドマウント型表示手段と、上記合成画像中の上記ポインタ画像と上記仮想表示物との距離関係が所定条件を満たしたとき、上記ポインタ機能認識手段によって認識されたポインタの機能に応じて、その仮想表示物に対応する上記仮想物データをダウンロードする制御手段と、を備えるものである。
また、ポインタの画像を撮影する撮像手段と、上記ポインタの画像を解析し、ポインタの機能を認識するポインタ機能認識手段と、仮想物データを仮想物データベースから取得する仮想物データ取得手段と、上記撮像手段が撮影したポインタの画像と上記仮想物データをアイコン化した仮想表示物とを合成した合成画像を生成する画像合成手段と、その合成画像を表示するヘッドマウント型表示手段と、上記合成画像中の上記ポインタの画像と上記仮想表示物との距離関係が所定条件を満たしたとき、上記ポインタ機能認識手段によって認識されたポインタの機能に応じて、その仮想表示物に対応する上記仮想物データに対応したアプリケーションを実行する制御手段と、を備えるものである。
また、ポインタの画像を撮影する撮像手段と、上記ポインタの画像を解析し、ポインタの機能を認識するポインタ機能認識手段と、仮想物データを仮想物データベースから取得する仮想物データ取得手段と、上記撮像手段が撮影したポインタの画像と上記仮想物データをアイコン化した仮想表示物とを合成した合成画像を生成する画像合成手段と、その合成画像を表示するヘッドマウント型表示手段と、上記合成画像中の上記ポインタの画像と上記仮想表示物との距離関係が所定条件を満たしたとき、上記ポインタ機能認識手段によって認識されたポインタの機能に応じて、その仮想表示物に対応する上記仮想物データを、前記仮想物データとは異なる別の仮想物データと置き換える制御手段と、を備えるものである。
本発明の仮想表示物操作方法は、ポインタの画像を撮像手段で撮影し上記撮像手段が撮影したポインタの画像と仮想物データベースから取得した仮想物データをアイコン化した仮想表示物とを合成して合成画像を生成し、この合成画像をヘッドマウント型表示手段に表示させ、上記合成画像中の上記ポインタ画像と上記仮想表示物との距離関係が所定条件を満たしたとき、上記ポインタの機能に応じて、この仮想表示物に対応する上記仮想物データをダウンロードするものである。
また、ポインタの画像を撮像手段で撮影し、上記撮像手段が撮影したポインタの画像と仮想物データベースから取得した仮想物データをアイコン化した仮想表示物とを合成して合成画像を生成し、この合成画像をヘッドマウント型表示手段に表示させ、上記合成画像中の上記ポインタの画像と上記仮想表示物との距離関係が所定条件を満たしたとき、上記ポインタの画像を解析して認識したポインタの機能に応じて、この仮想表示物に対応する上記仮想物データに対応したアプリケーションを実行するものである。
また、ポインタの画像を撮像手段で撮影し、上記撮像手段が撮影したポインタの画像と仮想物データベースから取得した仮想物データをアイコン化した仮想表示物とを合成して合成画像を生成し、この合成画像をヘッドマウント型表示手段に表示させ、上記合成画像中の上記ポインタの画像と上記仮想表示物との距離関係が所定条件を満たしたとき、上記ポインタの画像を解析して認識したポインタの機能に応じて、この仮想表示物に対応する上記仮想物データを、上記仮想物データとは異なる別の仮想物データと置き換えるものである。
本発明によれば、高価なセンサ類などの装置を用いることなく、ヘッドマウント型の表示手段に表示された仮想表示物を直感的に容易に操作することが可能となる。
本発明の一実施形態に係るヘッドマウント型拡張現実映像提示装置の機能ブロック図である。 図1に示す表示画面に表示される画像例を示す図である。 別実施形態に係る指先画像の取り込み例を示す図である。 指先画像をポインタ画像としたときの操作手順を示す図である。 指先画像を用いた操作例の説明図である。 指先画像を用いた別の操作例を説明する図である。 手の画像を用いた別の操作例を説明する図である。 マーカ画像をポインタ画像として取り込む図である。 マーカ画像をポインタ画像としたときの操作手順を示す図である。 マーカ画像を用いた操作例の説明図である。 マーカ画像を用いた別の操作例の説明図である。 点光源画像をポインタ画像として取り込む図である。 点光源画像をポインタ画像としたときの操作手順を示す図である。 点光源画像を用いた操作例の説明図である。 点光源画像を用いた別の操作例を説明する図である。
以下、本発明の一実施形態について、図面を参照して説明する。
図1は、本発明の第1実施形態に係るヘッドマウント型拡張現実映像提示装置の機能ブロック図である。本実施形態のヘッドマウント型拡張現実映像提示装置10は、本装置10を統括制御する中央演算処理装置(CPU)11と、CPU11に接続されたバス12とを備える。
バス12には、カメラ14に接続された撮像制御部15と、メインメモリ16と、カメラ14で撮影された画像信号をデジタル処理する信号処理部17と、撮影レンズ14a及び撮像センサ14bで構成されるカメラ14の位置,姿勢を計測する計測部18と、位置情報を取得するGPS(グローバルポジショニングセンサ)26と、方向情報を取得する地磁気センサ27と、後述する仮想表示物等と撮像センサ14bで撮影され信号処理された映像とを合成する画像合成部19とが接続される。
更に、バス12には、アンテナ20を備える通信制御部21と、詳細は後述するポインタ検出認識部22及びポインタ監視部23と、表示画面部(EVF)24が接続された画像表示制御部25とが接続される。
このヘッドマウント型拡張現実映像提示装置10は、外部のデータベースとの間で通信制御部21を通して通信を行い、仮想物データを取得する。多数の仮想物データ(テキストデータや画像データ等の様々な情報を含む)が格納されている外部のデータベース30には、仮想物データ検索部31と通信制御部32とアンテナ33とが設けられている。
ヘッドマウント型拡張現実映像提示装置10は、撮像センサ14bが撮影した被写体画像の撮影範囲を、GPS26及び地磁気センサ27で取得した情報を基にカメラ位置,姿勢の計測部18で算出する。そして、被写体画像の撮影範囲に対応する方向や位置のデータを、自身の通信制御部21,アンテナ20を通してデータベース30の通信制御部32に送信する。
仮想物データ検索部31は、受信したデータに基づいて被写体画像の撮影範囲に対応する仮想物データをデータベース30を検索して取得し、検索した仮想物データをヘッドマウント型拡張現実映像提示装置10に返送する。
ヘッドマウント型拡張現実映像提示装置10のCPU11は、受信した仮想物データをアイコン化して画像合成部19に渡し、画像合成部19は、このアイコンを、撮像センサ14bが撮影した画像に仮想表示物として合成し表示画面24に表示する。
このヘッドマウント型拡張現実映像提示装置10では、通信制御部21とアンテナ20を内蔵しているが、この2つの機能を、携帯電話機の機能で代用する構成としても良い。
携帯電話機にはカメラが搭載されたものがあるため、ヘッドマウント型拡張現実映像提示装置10の撮像制御部15やカメラ14を、携帯電話機搭載のカメラで代用する構成とすることも可能である。また、GPSセンサ26や地磁気センサ27を携帯電話機搭載のGPSや地磁気センサで代用する構成としても良い。携帯電話機の機能とヘッドマウント型拡張現実映像提示装置10の機能のうち重複する機能(上記の例ではカメラ機能やGPS機能)がある場合、ヘッドマウント型拡張現実映像提示装置10の機能を優先して使用し、特別な指示がユーザから入力されたとき携帯電話機の機能を使用する構成とするのが良い。
図2は、図1に示すヘッドマウント型拡張現実映像提示装置10の表示画面例を示す図である。カメラ14で撮影した風景が画面24に表示されている。CPU11は、拡張現実(AR)アプリケーションソフトウェアを実行し、上記したように仮想物データベース30から取得した仮想物データのアイコンを、夫々仮想表示物(エアタグともいう。)1a,1b,…で表示する。各エアタグ1a,1b,…は、被写体画像中の夫々が対応する建物等の場所毎に表示される。
例えば、ここでユーザがエアタグに付与された情報を閲覧するためには、複数個表示されているエアタグから所望のエアタグを表示画面から選択し、閲覧用のアプリケーションソフトウェアを起動する必要がある。このように所望のエアタグに対して特定の機能を発現させるために、ユーザはエアタグとインタラクションをとる必要がある。
しかし、ユーザがヘッドマウント型拡張現実映像提示装置10を装着すると、ディスプレイ装置(図1の表示画面)24がユーザの目の付近全体を覆うため、ユーザは自身の手元を見ることができない。このため、タッチパネルの様な装置やハードウェアキーを操作することはできない。
そこで、本実施形態では、ユーザの指先の画像をカメラ14又は携帯電話機のカメラで撮影し、この指先の画像を、画面24に表示する。カメラ14で指先を撮影する場合には、ユーザは自身の指先をカメラ14の前方(ヘッドマウント型拡張現実映像提示装置10の前方)に掲げ、指先画像2が風景と同時に写るようにする。そして、次に説明する様に、CPU11は、この指先画像2を用いて、AR用のユーザインタフェース処理に移行する。
図3は、ユーザが自身の指先の画像を携帯電話機のカメラから取り込む様子を示す図である。図1,図2では、カメラ14で風景の画像の指先の画像を取り込んだが、図3では、携帯電話機5付属のカメラで風景の画像と指先の画像を取り込んでいる。そして、携帯電話機5とケーブル接続されたヘッドマウント型拡張現実映像提示装置10のCPU11は、携帯電話機5から送信されてくる画像データを取り込み、表示画面24に表示する。
図4は、ユーザの指先画像をポインタとしてエアタグを操作するユーザインタフェース処理手順の説明図である。先ず、撮影画像を取り込み(ステップS1)、色相を観察して肌色の領域(手,指先)を検出する(ステップS2)。次に、仮想表示物(エアタグ)の配置座標データを取得し(ステップS3)、肌色領域の輪郭とエアタグとの直線距離を算出する(ステップS4)。
これと並行し、前フレームの撮影画像の肌色検出結果(ステップS2a)と今回フレームの肌色検出結果(ステップS2)との差分画像生成し(ステップS5)、肌色領域の動きベクトルを算出する(ステップS6)。
ステップS4とステップS6の後は、ステップS7に進み、これまでの演算結果から操作指示がどの様な操作指示であるかを認識すると共に、操作対象のエアタグを認識する。認識方法に関しては後述する。次のステップS8で、操作対象のエアタグに対して上記操作指示に基づく機能を発現する。つまり、操作指示が消去指示であれば、操作対象のエアタグを消去し、ステップS1に戻る。
ステップS7で、操作対象のエアタグを認識できなかった場合や、操作指示を認識できなかった場合には、ステップS7からステップS1に戻る。
この様なユーザインタフェース処理を行うことで、ジャイロセンサの様な特別な装置を用いることなく、エアタグの操作が可能となる。
図5〜図7は、上述した操作指示の説明図であり、図5(a)は、つかむ動作を示し、図5(b)は、離す動作を示している。肌色領域2のフレーム間差分により肌色領域の増加領域と減少領域を計算し、増加領域の面積が一定未満である状態が一定時間継続し、かつ、図5(a)の左図に示す様に、肌色領域(指先画像)2にエアタグ1が2点以上で接している場合、エアタグ1を「つまんだ」とみなし、以後、図5(a)の右図に示す様に、エアタグ1を指先画像2の移動に追従させて移動させる。あるいは、肌色領域2が一定以上エアタグ1に近いとき「つまんだ」とみなしても良い。
エアタグ1を「つまんだ」状態から(図5(b)左図)、図5(b)の右図に示す様に、肌色領域2を一定以上の速度で移動させると、エアタグ1を「離した」とみなし、エアタグ1を肌色領域2に対して追従させない。
図6は、エアタグ1を廃棄(消去)させる操作指示の説明図である。エアタグ1をつまんだ状態で指先画像2の移動に追従させて移動させ、機能を発現させるアイコン、この場合には廃棄させるゴミ箱アイコン4にエアタグ1を重ねることで、エアタグ1を廃棄する。
図7は、エアタグ1を手で払いのける動作を行う説明図である。手の全体をカメラで写し、肌色領域2が一定以上の速度で移動し、移動した経路途中にエアタグ1が存在した場合、エアタグ1は、肌色領域2の移動速度,方向に応じた速度,向きに吹き飛ぶ様にする。
即ち、肌色領域2の撮像画像フレーム間差分により、肌色領域の増加領域と減少領域を計算し、増加領域の面積が一定以上かつエアタグがその増加領域にある場合はエアタグに対して作用力を生じさせる。若しくは、増加領域の中心座標と減少領域の中心座標を結んだ線分の延長線上かつ減少領域から増加領域に向かう方向にエアタグがある場合はエアタグに対して作用力を生じさせる。
作用力は、以下のパラメータ、即ち、増加領域の面積(大きいほど作用力が大きい)、増加領域の中心座標と減少領域の中心座標を結んだ線分の方向(作用力の力ベクトル)に依存させる。この様なプロセスでユーザのエアタグを払う動作を認識し、エアタグに作用力を与える。
この様に、ユーザは、ジェスチャーの様に自身の手や指先を動作させることで、様々な機能をエアタグに対して発現させることができる。
上述した実施形態では、ユーザが自身の手や指先の画像をポインタとしてエアタグを操作したが、指先等の他に別のものをポインタとして利用することができる。
図8は、スティック状のマーカのカメラ撮影画像をポインタとする例を示している。マーカ6を携帯電話機5のカメラで撮影し、この撮影画像をヘッドマウント型拡張現実映像提示装置10に送り、これをポインタとして使用する。マーカ6には、二次元の幾何学パターンが記載されている。図示する例では、「ダウンロード」を意味するパターン、即ち、箱内にものを取り込む矢印が記載されている。
図9は、図8で示したマーカ画像6をポインタとしてエアタグを操作するユーザインタフェース処理手順の説明図である。先ず、マーカ画像6をカメラから取り込む(ステップS11)。そして、次のステップS12で、マーカ画像6の輝度成分を2値化した後、予め登録しておいたマーカの画像とのテンプレートマッチングによりマーカ画像6の検出,認識を行うと共に、認識したマーカについてカメラとの相対的な位置,姿勢を算出する。
次のステップS13では、エアタグ1の配置座標データを取得し、ステップS14で、マーカ画像6の中心とエアタグ1との距離を算出する。
これと並行してステップS15では前フレームの撮影画像のマーカの位置,姿勢データを保持しておき、ステップS16で、ステップS15で保持しているマーカの位置,姿勢データとステップS12の今回フレームにおけるマーカの位置,姿勢データとの差分からマーカ画像6の動きベクトルを算出する。
そして、このマーカ画像の動きベクトルと、ステップS14で求めたマーカ画像中心とエアタグとの距離とにより、ユーザが操作対象としているエアタグがどのエアタグであるか認識すると共に、操作指示の認識も行う(ステップS17)。
次のステップS18では、ステップS17の認識結果に基づいて操作対象のエアタグに対して機能を発現し、ステップS11に戻る。ステップS17でいずれかの認識が不可となった場合には、ステップS11に戻る。
これにより、特別な装置を用いずに直感的な操作でエアタグを操作することが可能となる。
図10は、マーカ画像6を用いた操作指示の説明図である。エアタグ1をダウンロードしたい場合には、エアタグ1にマーカ画像6を近づけ、一定時間接近させ、あるいは両者を重ねる。これにより、エアタグ1に対応するデータがダウンロードされる。
マーカ画像は平面の台紙の表裏に夫々パターンが描かれており、夫々に異なる機能が関連付けられている。マーカ画像6の裏には、ゴミ箱パターンが描かれており、ゴミ箱パターン側がカメラ側に向けて撮影すると、図11に示す様な状態となる。そして、このゴミ箱パターンを該当エアタグに近づけて一定時間接近させることで、このエアタグを廃棄することができる。
上記例では、マーカの2つのパターンについて述べたが、その他に様々な機能に対応するパターンを用意しておけば、様々な機能を実現できる。マーカは平面の台紙だけでなく、多面体の台紙に複数配置されても良い。また、液晶ディスプレイの様な表示デバイスに様々な機能を示すパターンをユーザの指示で切替表示させる構成としても良い。
この様な構成により、様々な機能をエアタグに対して発現させることが可能となる。
図12は、ポインタとして、スティックの先に取り付けた発光体(LED)をポインタとする例であり、このLED7を携帯電話機のカメラで撮影し、ヘッドマウント型拡張現実映像提示装置10に送る。
図13は、図12で示したLED画像7をポインタとしてエアタグを操作するユーザインタフェース処理手順の説明図である。先ず、LED画像7をカメラから取り込む(ステップS21)。そして、次のステップS22で、LED画像7の輝度成分を2値化した後、LED点光源を検出する。このとき、検出したLED点光源の色成分や発光パターンを認識しても良い。その後、ステップS23でエアタグ1の配置座標データを取得し、ステップS24で、LED点光源7とエアタグ1との距離を算出する。
これと並行してステップS25では前フレームの撮影画像におけるLED点光源の位置を保持し、ステップS26で、今回フレームの撮影画像との差分からLED点光源7の動きベクトルを算出する。この動きベクトルと、ステップS24で求めた距離とにより、ユーザが操作対象としているエアタグがどのエアタグであるか認識すると共に、操作指示の認識も行う(ステップS27)。
次のステップS28では、ステップS27の認識結果に基づいて操作対象のエアタグに対して機能を発現し、ステップS21に戻る。ステップS27でいずれかの認識が不可となった場合には、ステップS21に戻る。
これにより、直感的な操作によりエアタグの操作を行うことができる。
図14,図15は、LED点光源を用いた操作指示の説明図である。本実施形態で用いるLED点光源は、ユーザの指示により発光色を黄色,赤色に変更可能となっており、色毎に発現機能を変えている。色ではなく、発光パターン(例えば点滅速度)を変えて発現機能を変える様にしても良い。色と発光パターンの組合せで発現機能を変えても良い。
LED点光源7の発光色を黄色にし、図14に示す様に、エアタグ1にLED点光源を近づけ、一定時間接近状態を保つ。これにより、このエアタグに対応したアプリケーションソフトが実行される。
LED点光源7の発光色を赤色にし、図15に示すように、エアタグ1にLED点光源を近づけ、一定時間接近状態を保つ。これにより、エアタグが別のエアタグに置き換えられる。
本実施形態によれば、LED点光源を動かすだけで、様々な機能をエアタグに対して発現させることが可能となる。
以上述べた様に、本明細書には以下の事項が開示されている。
開示されたヘッドマウント型拡張現実映像提示装置は、撮像手段と、上記撮像手段に被写体画像の一部としてポインタ画像を撮影させその被写体画像と仮想物データを示す仮想表示物とを合成して合成画像を生成する画像合成手段と、その合成画像を表示するヘッドマウント型表示手段と、上記合成画像中の上記ポインタ画像と上記仮想表示物との距離関係が所定条件を満たしたとき、その仮想表示物に対応する上記仮想物データに対し、上記ポインタ画像に応じた機能を発現させる制御手段と、を備えるものである。
開示されたヘッドマウント型拡張現実映像提示装置は、上記ポインタ画像はマーカの画像であり、そのマーカには、上記仮想物データに対する上記機能の内容を識別する二次元幾何学パターンが表示されているものである。
開示されたヘッドマウント型拡張現実映像提示装置は、上記ポインタ画像は点光源の画像であり、異なる上記機能を上記点光源の発光色または発光パターンで識別するものである。
開示されたヘッドマウント型拡張現実映像提示装置は、上記制御手段は、上記合成画像中の上記ポインタ画像と上記仮想表示物との距離関係が所定条件を満たす状態が一定時間継続したとき、その仮想表示物に対応する上記仮想物データに対し、上記ポインタ画像に応じた機能を発現させるものである。
開示されたデータベースは、上記ヘッドマウント型拡張現実映像提示装置と通信可能であり、上記仮想物データを格納するものである。
開示された仮想表示物操作方法は、撮像手段に被写体画像の一部としてポインタ画像を撮影させその被写体画像と仮想物データを示す仮想表示物とを合成して合成画像を生成し、その合成画像をヘッドマウント型表示手段に表示させ、上記合成画像中の上記ポインタ画像と上記仮想表示物との距離関係が所定条件を満たしたとき、その仮想表示物に対応する上記仮想物データに対し、上記ポインタ画像に応じた機能を発現させるものである。
上記マーカの画像は多面体の画像であり、その多面体の各面に異なる上記二次元幾何学パターンが表示されていてもよい。
上記マーカは表示手段であり、その表示手段に表示する上記二次元幾何学パターンが複数種類用意され切換表示されてもよい。
以上述べた各実施形態によれば、ユーザの目がヘッドマウント型の表示画面で覆われユーザが自身の手元を視認できなくても、特別なセンサ類等なしで合成画像中の仮想表示物を操作することが可能となる。
本発明に係るヘッドマウント型拡張現実映像提示装置は、ヘッドマウントディスプレイ装置で拡張現実映像を表示させている最中に、高価なポインタ装置を用いなくても映像中の仮想表示物を容易に操作することができるため、ヘッドマウント型拡張現実映像提示装置の普及を図るのに有用である。
1,1a,1b 仮想表示物(エアタグ)
2 ユーザの指先画像
5 携帯電話機
6 マーカ画像
7 LED点光源画像
10 ヘッドマウンド型拡張現実映像提示装置
11 CPU
14 内蔵カメラ
19 画像合成部
21 内蔵通信制御部
22 ポインタ検出認識部
23 ポインタ監視部
24 表示画面
26 GPS
27 地磁気センサ
30 仮想物データベース
31 仮想物データ検索部

Claims (6)

  1. ポインタの画像を撮影する撮像手段と、
    前記ポインタの画像を解析し、ポインタの機能を認識するポインタ機能認識手段と、
    仮想物データを仮想物データベースから取得する仮想物データ取得手段と、
    前記撮像手段が撮影したポインタの画像と前記仮想物データをアイコン化した仮想表示物とを合成した合成画像を生成する画像合成手段と、
    該合成画像を表示するヘッドマウント型表示手段と、
    前記合成画像中の前記ポインタの画像と前記仮想表示物との距離関係が所定条件を満たしたとき、前記ポインタ機能認識手段によって認識されたポインタの機能に応じて、該仮想表示物に対応する前記仮想物データをダウンロードする制御手段と、
    を備えるヘッドマウント型拡張現実映像提示装置。
  2. ポインタの画像を撮影する撮像手段と、
    前記ポインタの画像を解析し、ポインタの機能を認識するポインタ機能認識手段と、
    仮想物データを仮想物データベースから取得する仮想物データ取得手段と、
    前記撮像手段が撮影したポインタの画像と前記仮想物データをアイコン化した仮想表示物とを合成した合成画像を生成する画像合成手段と、
    該合成画像を表示するヘッドマウント型表示手段と、
    前記合成画像中の前記ポインタの画像と前記仮想表示物との距離関係が所定条件を満たしたとき、前記ポインタ機能認識手段によって認識されたポインタの機能に応じて、該仮想表示物に対応する前記仮想物データに対応したアプリケーションを実行する制御手段と、を備えるヘッドマウント型拡張現実映像提示装置。
  3. 請求項1又は2記載のヘッドマウント型拡張現実映像提示装置であって、
    前記制御手段は、前記合成画像中の前記ポインタの画像と前記仮想表示物との距離関係が所定条件を満たす状態が一定時間継続したとき、前記ポインタ機能認識手段によって認識されたポインタの機能を発現させるヘッドマウント型拡張現実映像提示装置。
  4. ポインタの画像を撮像手段で撮影し、前記撮像手段が撮影したポインタの画像と仮想物データベースから取得した仮想物データをアイコン化した仮想表示物とを合成して合成画像を生成し、該合成画像をヘッドマウント型表示手段に表示させ、前記合成画像中の前記ポインタの画像と前記仮想表示物との距離関係が所定条件を満たしたとき、前記ポインタの画像を解析して認識したポインタの機能に応じて、該仮想表示物に対応する前記仮想物データをダウンロードする仮想表示物操作方法。
  5. ポインタの画像を撮像手段で撮影し、前記撮像手段が撮影したポインタの画像と仮想物データベースから取得した仮想物データをアイコン化した仮想表示物とを合成して合成画像を生成し、該合成画像をヘッドマウント型表示手段に表示させ、前記合成画像中の前記ポインタの画像と前記仮想表示物との距離関係が所定条件を満たしたとき、前記ポインタの画像を解析して認識したポインタの機能に応じて、該仮想表示物に対応する前記仮想物データに対応したアプリケーションを実行する仮想表示物操作方法。
  6. 請求項4又は5記載の仮想表示物操作方法であって、
    前記合成画像中の前記ポインタの画像と前記仮想表示物との距離関係が所定条件を満たす状態が一定時間継続したとき、前記ポインタの機能を発現させる仮想表示物操作方法。
JP2014118657A 2014-06-09 2014-06-09 ヘッドマウント型拡張現実映像提示装置及び仮想表示物操作方法 Active JP5932889B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014118657A JP5932889B2 (ja) 2014-06-09 2014-06-09 ヘッドマウント型拡張現実映像提示装置及び仮想表示物操作方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014118657A JP5932889B2 (ja) 2014-06-09 2014-06-09 ヘッドマウント型拡張現実映像提示装置及び仮想表示物操作方法

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2010065210A Division JP5564300B2 (ja) 2010-03-19 2010-03-19 ヘッドマウント型拡張現実映像提示装置及びその仮想表示物操作方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2016090435A Division JP2016154044A (ja) 2016-04-28 2016-04-28 ヘッドマウント型拡張現実映像提示装置及びその仮想表示物操作方法

Publications (2)

Publication Number Publication Date
JP2014206990A JP2014206990A (ja) 2014-10-30
JP5932889B2 true JP5932889B2 (ja) 2016-06-08

Family

ID=52120444

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014118657A Active JP5932889B2 (ja) 2014-06-09 2014-06-09 ヘッドマウント型拡張現実映像提示装置及び仮想表示物操作方法

Country Status (1)

Country Link
JP (1) JP5932889B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6999821B2 (ja) * 2018-08-08 2022-02-04 株式会社Nttドコモ 端末装置および端末装置の制御方法
WO2020031493A1 (ja) * 2018-08-08 2020-02-13 株式会社Nttドコモ 端末装置および端末装置の制御方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06301475A (ja) * 1993-04-14 1994-10-28 Casio Comput Co Ltd 位置検出装置
JPH086708A (ja) * 1994-04-22 1996-01-12 Canon Inc 表示装置
US5594469A (en) * 1995-02-21 1997-01-14 Mitsubishi Electric Information Technology Center America Inc. Hand gesture machine control system
JP2000098871A (ja) * 1998-09-28 2000-04-07 Sony Corp 仮想画像立体合成装置、仮想画像立体合成方法、ゲーム装置及び記録媒体
JP3735086B2 (ja) * 2002-06-20 2006-01-11 ウエストユニティス株式会社 作業誘導システム
JP2010026818A (ja) * 2008-07-18 2010-02-04 Geisha Tokyo Entertainment Inc 画像処理プログラム、画像処理装置及び画像処理方法

Also Published As

Publication number Publication date
JP2014206990A (ja) 2014-10-30

Similar Documents

Publication Publication Date Title
JP5564300B2 (ja) ヘッドマウント型拡張現実映像提示装置及びその仮想表示物操作方法
US10198870B2 (en) Information processing apparatus, information processing system, and information processing method
US11557134B2 (en) Methods and systems for training an object detection algorithm using synthetic images
US10489981B2 (en) Information processing device, information processing method, and program for controlling display of a virtual object
US9972136B2 (en) Method, system and device for navigating in a virtual reality environment
EP2972672B1 (en) Detection of a gesture performed with at least two control objects
CN105190482B (zh) 缩放手势的检测
JP5936155B2 (ja) 3次元ユーザインタフェース装置及び3次元操作方法
JP6390799B2 (ja) 入力装置、入力方法、及びプログラム
US8098263B2 (en) Image processing method and image processing apparatus
KR20150135847A (ko) 글래스 타입 단말기 및 이의 제어방법
CN112154402A (zh) 可穿戴设备及其控制方法、识别手势的方法和控制系统
JP6499384B2 (ja) 画像表示装置、画像表示方法、及び画像表示プログラム
CN111095364A (zh) 信息处理装置、信息处理方法和程序
EP3422152A1 (en) Remote operation device, remote operation method, remote operation system, and program
KR101638550B1 (ko) 혼합현실을 이용한 가상현실 시스템 및 그 구현방법
JP5932889B2 (ja) ヘッドマウント型拡張現実映像提示装置及び仮想表示物操作方法
KR20110087407A (ko) 카메라 시뮬레이션 시스템 및 이를 이용한 위치 감지 방법
JP6632298B2 (ja) 情報処理装置、情報処理方法及びプログラム
US20220244788A1 (en) Head-mounted display
JP2016154044A (ja) ヘッドマウント型拡張現実映像提示装置及びその仮想表示物操作方法
CN108401452A (zh) 使用虚拟现实头戴式显示器系统来执行真实目标检测和控制的装置和方法
JP5907034B2 (ja) 作業補助システムおよびプログラム
CN116802593A (zh) 信息处理方法、信息处理装置和非易失性存储介质
JP2021082344A (ja) キャラクタ画像生成装置、キャラクタ画像生成方法及びプログラム

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150717

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150804

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20150828

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151005

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160223

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160308

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160329

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160428

R150 Certificate of patent or registration of utility model

Ref document number: 5932889

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250