JP5564300B2 - ヘッドマウント型拡張現実映像提示装置及びその仮想表示物操作方法 - Google Patents

ヘッドマウント型拡張現実映像提示装置及びその仮想表示物操作方法 Download PDF

Info

Publication number
JP5564300B2
JP5564300B2 JP2010065210A JP2010065210A JP5564300B2 JP 5564300 B2 JP5564300 B2 JP 5564300B2 JP 2010065210 A JP2010065210 A JP 2010065210A JP 2010065210 A JP2010065210 A JP 2010065210A JP 5564300 B2 JP5564300 B2 JP 5564300B2
Authority
JP
Japan
Prior art keywords
image
display object
virtual display
head
virtual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010065210A
Other languages
English (en)
Other versions
JP2011198150A (ja
Inventor
宗之 大島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2010065210A priority Critical patent/JP5564300B2/ja
Publication of JP2011198150A publication Critical patent/JP2011198150A/ja
Application granted granted Critical
Publication of JP5564300B2 publication Critical patent/JP5564300B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、ヘッドマウント型の拡張現実映像提示装置に係り、特に、眼前に表示されている仮想表示物をユーザが容易に操作できるヘッドマウント型拡張現実映像提示装置及びその仮想表示物操作方法に関する。
拡張現実の映像を提示するソフトウェアが開発され、利用されるようになってきている。例えばカメラ付き携帯電話機用アプリケーションソフトウェアでは、カメラで撮影されたシーンに即した情報(周辺の観光案内等)をネットワーク経由で取得し、この情報の存在を示す仮想表示物(アイコン等)を撮影画像に合成し、携帯電話機の表示画面上に表示する。そして、ユーザが上記仮想表示物をタッチパネル等を用いて表示画面上で選択すると、仮想表示物が拡大し、詳細情報(観光施設の歴史等)を閲覧したり、ローカルの記録領域に情報をコピーしたりできる。また、ユーザ自らが情報を付与した仮想表示物を生成したりすることもできる。
この様な拡張現実の映像を携帯電話機の小さな表示画面に表示しても、見づらいという問題がある。また、臨場感にも欠ける。そこで、携帯電話機にヘッドマウントディスプレイ装置(HMD)を接続し、撮影映像と仮想表示物を表示させることで、ユーザは、臨場感のある大きく見易い映像を見ることが可能となる。
しかし、ヘッドマウントディスプレイ装置を使用すると、ユーザの目が、眼前を覆う表示画面に塞がれてしまい、表示画面中の仮想表示物を携帯電話機で操作することができなくなってしまうという問題が生じる。
この問題を解決するための手段としては、例えば下記の特許文献1に記載されている様に、ユーザの手にジャイロセンサを取り付けて手の位置をヘッドマウントディスプレイ装置が把握し、表示画面に表示されている仮想空間内に手の画像を表示させることで、手の画像を用いて仮想表示物の操作を行うことが考えられる。あるいは、ヘッドマウントディスプレイ装置の表示画面側に赤外線カメラを取り付け、ユーザの視線を感知して操作指示を出すことも可能である。
しかしながら、ジャイロセンサ等のセンサ類や赤外線カメラ等の特別な装置を設ける場合、ヘッドマウントディスプレイ装置のコストが嵩み、大がかりな装置構成になってしまうという問題がある。
特開2003―337962号公報
本発明の目的は、高価なセンサ類などの装置を用いることなく、ヘッドマウントディスプレイ装置に表示された仮想表示物を容易に操作することができるヘッドマウント型拡張現実映像提示装置及びその仮想表示物操作方法を提供することにある。
本発明のヘッドマウント型拡張現実映像提示装置は、被写体画像を撮影する撮像手段と、該撮像手段の位置を検出する位置検出手段と、前記撮像手段の撮影方向を検出する方向検出手段と、前記位置検出手段の検出結果及び前記方向検出手段の検出結果から前記被写体画像の撮影範囲を算出する算出手段と、該算出手段が算出した前記撮影範囲を外部のデータベースに送信して該撮影範囲に即した情報の存在を示すデータ(該データを以下「仮想物データ」という。)を該データベースから取得する仮想物データ取得手段と、前記撮像手段に前記被写体画像の一部としてポインタ画像を撮影させ該被写体画像と前記仮想物データを示す仮想表示物とを合成して合成画像を生成する画像合成手段と、該合成画像を表示するヘッドマウント型表示手段と、を備え、前記ポインタ画像は前記ヘッドマウント型表示手段を被ったユーザの手の画像であり、前記手の画像の動きにより該動きに対応した作用力を前記仮想表示物に与えて該仮想表示物の表示位置を制御する制御手段を更に備える。
本発明のヘッドマウント型拡張現実映像提示装置の仮想表示物操作方法は、被写体画像を撮影する撮像手段と、該撮像手段の位置を検出する位置検出手段と、前記撮像手段の撮影方向を検出する方向検出手段と、前記位置検出手段の検出結果及び前記方向検出手段の検出結果から前記被写体画像の撮影範囲を算出する算出手段と、該算出手段が算出した前記撮影範囲を外部のデータベースに送信して該撮影範囲に即した情報の存在を示す仮想物データを該データベースから取得する仮想物データ取得手段と、前記撮像手段に前記被写体画像の一部としてポインタ画像を撮影させ該被写体画像と前記仮想物データを示す仮想表示物とを合成して合成画像を生成する画像合成手段と、該合成画像を表示するヘッドマウント型表示手段とを備えるヘッドマウント型拡張現実映像提示装置の仮想表示物操作方法であって、前記ポインタ画像は前記ヘッドマウント型表示手段を被ったユーザの手の画像であり、前記手の画像の動きにより該動きに対応した作用力を前記仮想表示物に与えて該仮想表示物の表示位置を制御する。
本発明によれば、高価なセンサ類などの装置を用いることなく、ヘッドマウント型の表示手段に表示された仮想表示物を直感的に容易に操作することが可能となる。
本発明の一実施形態に係るヘッドマウント型拡張現実映像提示装置の機能ブロック図である。 図1に示す表示画面に表示される画像例を示す図である。 別実施形態に係る指先画像の取り込み例を示す図である。 指先画像をポインタ画像としたときの操作手順を示す図である。 指先画像を用いた操作例の説明図である。 指先画像を用いた別の操作例を説明する図である。 手の画像を用いた別の操作例を説明する図である。 マーカ画像をポインタ画像として取り込む図である。 マーカ画像をポインタ画像としたときの操作手順を示す図である。 マーカ画像を用いた操作例の説明図である。 マーカ画像を用いた別の操作例の説明図である。 点光源画像をポインタ画像として取り込む図である。 点光源画像をポインタ画像としたときの操作手順を示す図である。 点光源画像を用いた操作例の説明図である。 点光源画像を用いた別の操作例を説明する図である。
以下、本発明の一実施形態について、図面を参照して説明する。
図1は、本発明の第1実施形態に係るヘッドマウント型拡張現実映像提示装置の機能ブロック図である。本実施形態のヘッドマウント型拡張現実映像提示装置10は、本装置10を統括制御する中央演算処理装置(CPU)11と、CPU11に接続されたバス12とを備える。
バス12には、カメラ14に接続された撮像制御部15と、メインメモリ16と、カメラ14で撮影された画像信号をデジタル処理する信号処理部17と、撮影レンズ14a及び撮像センサ14bで構成されるカメラ14の位置,姿勢を計測する計測部18と、位置情報を取得するGPS(グローバルポジショニングセンサ)26と、方向情報を取得する地磁気センサ27と、後述する仮想表示物等と撮像センサ14bで撮影され信号処理された映像とを合成する画像合成部19とが接続される。
更に、バス12には、アンテナ20を備える通信制御部21と、詳細は後述するポインタ検出認識部22及びポインタ監視部23と、表示画面部(EVF)24が接続された画像表示制御部25とが接続される。
このヘッドマウント型拡張現実映像提示装置10は、外部のデータベースとの間で通信制御部21を通して通信を行い、仮想物データを取得する。多数の仮想物データ(テキストデータや画像データ等の様々な情報を含む)が格納されている外部のデータベース30には、仮想物データ検索部31と通信制御部32とアンテナ33とが設けられている。
ヘッドマウント型拡張現実映像提示装置10は、撮像センサ14bが撮影した被写体画像の撮影範囲を、GPS26及び地磁気センサ27で取得した情報を基にカメラ位置,姿勢の計測部18で算出する。そして、被写体画像の撮影範囲に対応する方向や位置のデータを、自身の通信制御部21,アンテナ20を通してデータベース30の通信制御部32に送信する。
仮想物データ検索部31は、受信したデータに基づいて被写体画像の撮影範囲に対応する仮想物データをデータベース30を検索して取得し、検索した仮想物データをヘッドマウント型拡張現実映像提示装置10に返送する。
ヘッドマウント型拡張現実映像提示装置10のCPU11は、受信した仮想物データをアイコン化して画像合成部19に渡し、画像合成部19は、このアイコンを、撮像センサ14bが撮影した画像に仮想表示物として合成し表示画面24に表示する。
このヘッドマウント型拡張現実映像提示装置10では、通信制御部21とアンテナ20を内蔵しているが、この2つの機能を、携帯電話機の機能で代用する構成としても良い。
携帯電話機にはカメラが搭載されたものがあるため、ヘッドマウント型拡張現実映像提示装置10の撮像制御部15やカメラ14を、携帯電話機搭載のカメラで代用する構成とすることも可能である。また、GPSセンサ26や地磁気センサ27を携帯電話機搭載のGPSや地磁気センサで代用する構成としても良い。携帯電話機の機能とヘッドマウント型拡張現実映像提示装置10の機能のうち重複する機能(上記の例ではカメラ機能やGPS機能)がある場合、ヘッドマウント型拡張現実映像提示装置10の機能を優先して使用し、特別な指示がユーザから入力されたとき携帯電話機の機能を使用する構成とするのが良い。
図2は、図1に示すヘッドマウント型拡張現実映像提示装置10の表示画面例を示す図である。カメラ14で撮影した風景が画面24に表示されている。CPU11は、拡張現実(AR)アプリケーションソフトウェアを実行し、上記したように仮想物データベース30から取得した仮想物データのアイコンを、夫々仮想表示物(エアタグともいう。)1a,1b,…で表示する。各エアタグ1a,1b,…は、被写体画像中の夫々が対応する建物等の場所毎に表示される。
例えば、ここでユーザがエアタグに付与された情報を閲覧するためには、複数個表示されているエアタグから所望のエアタグを表示画面から選択し、閲覧用のアプリケーションソフトウェアを起動する必要がある。このように所望のエアタグに対して特定の機能を発現させるために、ユーザはエアタグとインタラクションをとる必要がある。
しかし、ユーザがヘッドマウント型拡張現実映像提示装置10を装着すると、ディスプレイ装置(図1の表示画面)24がユーザの目の付近全体を覆うため、ユーザは自身の手元を見ることができない。このため、タッチパネルの様な装置やハードウェアキーを操作することはできない。
そこで、本実施形態では、ユーザの指先の画像をカメラ14又は携帯電話機のカメラで撮影し、この指先の画像を、画面24に表示する。カメラ14で指先を撮影する場合には、ユーザは自身の指先をカメラ14の前方(ヘッドマウント型拡張現実映像提示装置10の前方)に掲げ、指先画像2が風景と同時に写るようにする。そして、次に説明する様に、CPU11は、この指先画像2を用いて、AR用のユーザインタフェース処理に移行する。
図3は、ユーザが自身の指先の画像を携帯電話機のカメラから取り込む様子を示す図である。図1,図2では、カメラ14で風景の画像の指先の画像を取り込んだが、図3では、携帯電話機5付属のカメラで風景の画像と指先の画像を取り込んでいる。そして、携帯電話機5とケーブル接続されたヘッドマウント型拡張現実映像提示装置10のCPU11は、携帯電話機5から送信されてくる画像データを取り込み、表示画面24に表示する。
図4は、ユーザの指先画像をポインタとしてエアタグを操作するユーザインタフェース処理手順の説明図である。先ず、撮影画像を取り込み(ステップS1)、色相を観察して肌色の領域(手,指先)を検出する(ステップS2)。次に、仮想表示物(エアタグ)の配置座標データを取得し(ステップS3)、肌色領域の輪郭とエアタグとの直線距離を算出する(ステップS4)。
これと並行し、前フレームの撮影画像の肌色検出結果(ステップS2a)と今回フレームの肌色検出結果(ステップS2)との差分画像生成し(ステップS5)、肌色領域の動きベクトルを算出する(ステップS6)。
ステップS4とステップS6の後は、ステップS7に進み、これまでの演算結果から操作指示がどの様な操作指示であるかを認識すると共に、操作対象のエアタグを認識する。認識方法に関しては後述する。次のステップS8で、操作対象のエアタグに対して上記操作指示に基づく機能を発現する。つまり、操作指示が消去指示であれば、操作対象のエアタグを消去し、ステップS1に戻る。
ステップS7で、操作対象のエアタグを認識できなかった場合や、操作指示を認識できなかった場合には、ステップS7からステップS1に戻る。
この様なユーザインタフェース処理を行うことで、ジャイロセンサの様な特別な装置を用いることなく、エアタグの操作が可能となる。
図5〜図7は、上述した操作指示の説明図であり、図5(a)は、つかむ動作を示し、図5(b)は、離す動作を示している。肌色領域2のフレーム間差分により肌色領域の増加領域と減少領域を計算し、増加領域の面積が一定未満である状態が一定時間継続し、かつ、図5(a)の左図に示す様に、肌色領域(指先画像)2にエアタグ1が2点以上で接している場合、エアタグ1を「つまんだ」とみなし、以後、図5(a)の右図に示す様に、エアタグ1を指先画像2の移動に追従させて移動させる。あるいは、肌色領域2が一定以上エアタグ1に近いとき「つまんだ」とみなしても良い。
エアタグ1を「つまんだ」状態から(図5(b)左図)、図5(b)の右図に示す様に、肌色領域2を一定以上の速度で移動させると、エアタグ1を「離した」とみなし、エアタグ1を肌色領域2に対して追従させない。
図6は、エアタグ1を廃棄(消去)させる操作指示の説明図である。エアタグ1をつまんだ状態で指先画像2の移動に追従させて移動させ、機能を発現させるアイコン、この場合には廃棄させるゴミ箱アイコン4にエアタグ1を重ねることで、エアタグ1を廃棄する。
図7は、エアタグ1を手で払いのける動作を行う説明図である。手の全体をカメラで写し、肌色領域2が一定以上の速度で移動し、移動した経路途中にエアタグ1が存在した場合、エアタグ1は、肌色領域2の移動速度,方向に応じた速度,向きに吹き飛ぶ様にする。
即ち、肌色領域2の撮像画像フレーム間差分により、肌色領域の増加領域と減少領域を計算し、増加領域の面積が一定以上かつエアタグがその増加領域にある場合はエアタグに対して作用力を生じさせる。若しくは、増加領域の中心座標と減少領域の中心座標を結んだ線分の延長線上かつ減少領域から増加領域に向かう方向にエアタグがある場合はエアタグに対して作用力を生じさせる。
作用力は、以下のパラメータ、即ち、増加領域の面積(大きいほど作用力が大きい)、増加領域の中心座標と減少領域の中心座標を結んだ線分の方向(作用力の力ベクトル)に依存させる。この様なプロセスでユーザのエアタグを払う動作を認識し、エアタグに作用力を与える。
この様に、ユーザは、ジェスチャーの様に自身の手や指先を動作させることで、様々な機能をエアタグに対して発現させることができる。
上述した実施形態では、ユーザが自身の手や指先の画像をポインタとしてエアタグを操作したが、指先等の他に別のものをポインタとして利用することができる。
図8は、スティック状のマーカのカメラ撮影画像をポインタとする例を示している。マーカ6を携帯電話機5のカメラで撮影し、この撮影画像をヘッドマウント型拡張現実映像提示装置10に送り、これをポインタとして使用する。マーカ6には、二次元の幾何学パターンが記載されている。図示する例では、「ダウンロード」を意味するパターン、即ち、箱内にものを取り込む矢印が記載されている。
図9は、図8で示したマーカ画像6をポインタとしてエアタグを操作するユーザインタフェース処理手順の説明図である。先ず、マーカ画像6をカメラから取り込む(ステップS11)。そして、次のステップS12で、マーカ画像6の輝度成分を2値化した後、予め登録しておいたマーカの画像とのテンプレートマッチングによりマーカ画像6の検出,認識を行うと共に、認識したマーカについてカメラとの相対的な位置,姿勢を算出する。
次のステップS13では、エアタグ1の配置座標データを取得し、ステップS14で、マーカ画像6の中心とエアタグ1との距離を算出する。
これと並行してステップS15では前フレームの撮影画像のマーカの位置,姿勢データを保持しておき、ステップS16で、ステップS15で保持しているマーカの位置,姿勢データとステップS12の今回フレームにおけるマーカの位置,姿勢データとの差分からマーカ画像6の動きベクトルを算出する。
そして、このマーカ画像の動きベクトルと、ステップS14で求めたマーカ画像中心とエアタグとの距離とにより、ユーザが操作対象としているエアタグがどのエアタグであるか認識すると共に、操作指示の認識も行う(ステップS17)。
次のステップS18では、ステップS17の認識結果に基づいて操作対象のエアタグに対して機能を発現し、ステップS11に戻る。ステップS17でいずれかの認識が不可となった場合には、ステップS11に戻る。
これにより、特別な装置を用いずに直感的な操作でエアタグを操作することが可能となる。
図10は、マーカ画像6を用いた操作指示の説明図である。エアタグ1をダウンロードしたい場合には、エアタグ1にマーカ画像6を近づけ、一定時間接近させ、あるいは両者を重ねる。これにより、エアタグ1に対応するデータがダウンロードされる。
マーカ画像は平面の台紙の表裏に夫々パターンが描かれており、夫々に異なる機能が関連付けられている。マーカ画像6の裏には、ゴミ箱パターンが描かれており、ゴミ箱パターン側がカメラ側に向けて撮影すると、図11に示す様な状態となる。そして、このゴミ箱パターンを該当エアタグに近づけて一定時間接近させることで、このエアタグを廃棄することができる。
上記例では、マーカの2つのパターンについて述べたが、その他に様々な機能に対応するパターンを用意しておけば、様々な機能を実現できる。マーカは平面の台紙だけでなく、多面体の台紙に複数配置されても良い。また、液晶ディスプレイの様な表示デバイスに様々な機能を示すパターンをユーザの指示で切替表示させる構成としても良い。
この様な構成により、様々な機能をエアタグに対して発現させることが可能となる。
図12は、ポインタとして、スティックの先に取り付けた発光体(LED)をポインタとする例であり、このLED7を携帯電話機のカメラで撮影し、ヘッドマウント型拡張現実映像提示装置10に送る。
図13は、図12で示したLED画像7をポインタとしてエアタグを操作するユーザインタフェース処理手順の説明図である。先ず、LED画像7をカメラから取り込む(ステップS21)。そして、次のステップS22で、LED画像7の輝度成分を2値化した後、LED点光源を検出する。このとき、検出したLED点光源の色成分や発光パターンを認識しても良い。その後、ステップS23でエアタグ1の配置座標データを取得し、ステップS24で、LED点光源7とエアタグ1との距離を算出する。
これと並行してステップS25では前フレームの撮影画像におけるLED点光源の位置を保持し、ステップS26で、今回フレームの撮影画像との差分からLED点光源7の動きベクトルを算出する。この動きベクトルと、ステップS24で求めた距離とにより、ユーザが操作対象としているエアタグがどのエアタグであるか認識すると共に、操作指示の認識も行う(ステップS27)。
次のステップS28では、ステップS27の認識結果に基づいて操作対象のエアタグに対して機能を発現し、ステップS21に戻る。ステップS27でいずれかの認識が不可となった場合には、ステップS21に戻る。
これにより、直感的な操作によりエアタグの操作を行うことができる。
図14,図15は、LED点光源を用いた操作指示の説明図である。本実施形態で用いるLED点光源は、ユーザの指示により発光色を黄色,赤色に変更可能となっており、色毎に発現機能を変えている。色ではなく、発光パターン(例えば点滅速度)を変えて発現機能を変える様にしても良い。色と発光パターンの組合せで発現機能を変えても良い。
LED点光源7の発光色を黄色にし、図14に示す様に、エアタグ1にLED点光源を近づけ、一定時間接近状態を保つ。これにより、このエアタグに対応したアプリケーションソフトが実行される。
LED点光源7の発光色を赤色にし、図15に示すように、エアタグ1にLED点光源を近づけ、一定時間接近状態を保つ。これにより、エアタグが別のエアタグに置き換えられる。
本実施形態によれば、LED点光源を動かすだけで、様々な機能をエアタグに対して発現させることが可能となる。
以上述べた様に、実施形態のヘッドマウント型拡張現実映像提示装置及びその仮想表示物操作方法は、被写体画像を撮影する撮像手段と、該撮像手段の位置を検出する位置検出手段と、前記撮像手段の撮影方向を検出する方向検出手段と、前記位置検出手段の検出結果及び前記方向検出手段の検出結果から前記被写体画像の撮影範囲を算出する算出手段と、該算出手段が算出した前記撮影範囲を外部のデータベースに送信して該撮影範囲に対応する仮想物データを該データベースから取得する仮想物データ取得手段と、前記撮像手段に前記被写体画像の一部としてポインタ画像を撮影させ該被写体画像と前記仮想物データを示す仮想表示物とを合成して合成画像を生成する画像合成手段と、該合成画像を表示するヘッドマウント型表示手段とを備えるヘッドマウント型拡張現実映像提示装置であって、前記合成画像中の前記ポインタ画像と前記仮想表示物との相互関係が所定条件を満たしたとき該仮想表示物に対する前記ポインタ画像による所要操作が実行されたとして該仮想表示物に対応する前記仮想物データに対し前記所要操作に対応する所要の機能を発現させることを特徴とする。
また、実施形態のヘッドマウント型拡張現実映像提示装置及びその仮想表示物操作方法の前記所定条件は、前記ポインタ画像の動きで決められることを特徴とする。
また、実施形態のヘッドマウント型拡張現実映像提示装置及びその仮想表示物操作方法は、前記ポインタ画像は前記ヘッドマウント型表示手段を被ったユーザの手の画像であり、前記制御手段は前記ポインタ画像の範囲を肌色検出で識別し該肌色の領域のフレーム間差分から該ポインタ画像の動きを認識することを特徴とする。
また、実施形態のヘッドマウント型拡張現実映像提示装置及びその仮想表示物操作方法は、前記手の画像の動きにより該動きに対応した作用力を前記仮想表示物に与えて該仮想表示物の表示位置を制御することを特徴とする。
また、実施形態のヘッドマウント型拡張現実映像提示装置及びその仮想表示物操作方法は、前記手の画像の動きが前記仮想表示物に2点以上で所定時間継続して接していたとき該仮想表示物をつまんだ操作であるとみなし前記ポインタ画像の移動に追従させて該仮想表示物の表示位置を移動させ、該ポインタ画像が該仮想表示物から所定速度以上で移動したとき離す操作であるとみなして該ポインタ画像だけ移動させることを特徴とする。
また、実施形態のヘッドマウント型拡張現実映像提示装置及びその仮想表示物操作方法の前記所定条件は、前記ポインタ画像の二次元幾何学パターンで決められることを特徴とする。
また、実施形態のヘッドマウント型拡張現実映像提示装置及びその仮想表示物操作方法は、前記ポインタ画像はマーカの画像であり、該マーカには、前記仮想物データに対する前記機能の内容を識別する前記二次元幾何学パターンが表示されていることを特徴とする。
また、実施形態のヘッドマウント型拡張現実映像提示装置及びその仮想表示物操作方法は、前記マーカの画像は多面体の画像であり、該多面体の各面に異なる前記二次元幾何学パターンが表示されていることを特徴とする。
また、実施形態のヘッドマウント型拡張現実映像提示装置及びその仮想表示物操作方法は、前記マーカは表示手段であり、該表示手段に表示する前記二次元幾何学パターンが複数種類用意され切換表示されることを特徴とする。
また、実施形態のヘッドマウント型拡張現実映像提示装置及びその仮想表示物操作方法の前記所定条件は、前記ポインタ画像の表示色,表示パターン,表示パターンの変化のうちの少なくとも1つで決められることを特徴とする。
また、実施形態のヘッドマウント型拡張現実映像提示装置及びその仮想表示物操作方法は、前記ポインタ画像は点光源の画像であることを特徴とする。
また、実施形態のヘッドマウント型拡張現実映像提示装置及びその仮想表示物操作方法は、異なる前記機能を前記点光源の発光色又は発光パターンで識別することを特徴とする。
以上述べた各実施形態によれば、ユーザの目がヘッドマウント型の表示画面で覆われユーザが自身の手元を視認できなくても、特別なセンサ類等なしで合成画像中の仮想表示物を操作することが可能となる。
本発明に係るヘッドマウント型拡張現実映像提示装置は、ヘッドマウントディスプレイ装置で拡張現実映像を表示させている最中に、高価なポインタ装置を用いなくても映像中の仮想表示物を容易に操作することができるため、ヘッドマウント型拡張現実映像提示装置の普及を図るのに有用である。
1,1a,1b 仮想表示物(エアタグ)
2 ユーザの指先画像
5 携帯電話機
6 マーカ画像
7 LED点光源画像
10 ヘッドマウンド型拡張現実映像提示装置
11 CPU
14 内蔵カメラ
19 画像合成部
21 内蔵通信制御部
22 ポインタ検出認識部
23 ポインタ監視部
24 表示画面
26 GPS
27 地磁気センサ
30 仮想物データベース
31 仮想物データ検索部

Claims (6)

  1. 被写体画像を撮影する撮像手段と、該撮像手段の位置を検出する位置検出手段と、前記撮像手段の撮影方向を検出する方向検出手段と、前記位置検出手段の検出結果及び前記方向検出手段の検出結果から前記被写体画像の撮影範囲を算出する算出手段と、該算出手段が算出した前記撮影範囲を外部のデータベースに送信して該撮影範囲に即した情報の存在を示すデータ(該データを以下「仮想物データ」という。)を該データベースから取得する仮想物データ取得手段と、前記撮像手段に前記被写体画像の一部としてポインタ画像を撮影させ該被写体画像と前記仮想物データを示す仮想表示物とを合成して合成画像を生成する画像合成手段と、該合成画像を表示するヘッドマウント型表示手段と、を備え、
    前記ポインタ画像は前記ヘッドマウント型表示手段を被ったユーザの手の画像であり、
    前記手の画像の動きにより該動きに対応した作用力を前記仮想表示物に与えて該仮想表示物の表示位置を制御する制御手段を更に備えるヘッドマウント型拡張現実映像提示装置。
  2. 請求項に記載のヘッドマウント型拡張現実映像提示装置であって、前記制御手段は前記手の画像の範囲を肌色検出で識別し該肌色の領域のフレーム間差分から該手の画像の動きを認識するヘッドマウント型拡張現実映像提示装置。
  3. 請求項1又は2に記載のヘッドマウント型拡張現実映像提示装置であって、前記手の画像の動きが前記仮想表示物に2点以上で所定時間継続して接していたとき該仮想表示物をつまんだ操作であるとみなし前記手の画像の移動に追従させて該仮想表示物の表示位置を移動させ、該手の画像が該仮想表示物から所定速度以上で移動したとき該仮想表示物を離す操作であるとみなして該手の画像だけ移動させるヘッドマウント型拡張現実映像提示装置。
  4. 被写体画像を撮影する撮像手段と、該撮像手段の位置を検出する位置検出手段と、前記撮像手段の撮影方向を検出する方向検出手段と、前記位置検出手段の検出結果及び前記方向検出手段の検出結果から前記被写体画像の撮影範囲を算出する算出手段と、該算出手段が算出した前記撮影範囲を外部のデータベースに送信して該撮影範囲に即した情報の存在を示す仮想物データを該データベースから取得する仮想物データ取得手段と、前記撮像手段に前記被写体画像の一部としてポインタ画像を撮影させ該被写体画像と前記仮想物データを示す仮想表示物とを合成して合成画像を生成する画像合成手段と、該合成画像を表示するヘッドマウント型表示手段とを備えるヘッドマウント型拡張現実映像提示装置の仮想表示物操作方法であって、
    前記ポインタ画像は前記ヘッドマウント型表示手段を被ったユーザの手の画像であり、前記手の画像の動きにより該動きに対応した作用力を前記仮想表示物に与えて該仮想表示物の表示位置を制御するヘッドマウント型拡張現実映像提示装置の仮想表示物操作方法。
  5. 請求項に記載のヘッドマウント型拡張現実映像提示装置の仮想表示物操作方法であって、前記手の画像の範囲を肌色検出で識別し該肌色の領域のフレーム間差分から該手の画像の動きを認識するヘッドマウント型拡張現実映像提示装置の仮想表示物操作方法。
  6. 請求項4又は5に記載のヘッドマウント型拡張現実映像提示装置の仮想表示物操作方法であって、前記手の画像の動きが前記仮想表示物に2点以上で所定時間継続して接していたとき該仮想表示物をつまんだ操作であるとみなし前記手の画像の移動に追従させて該仮想表示物の表示位置を移動させ、該手の画像が該仮想表示物から所定速度以上で移動したとき該仮想表示物を離す操作であるとみなして該手の画像だけ移動させるヘッドマウント型拡張現実映像提示装置の仮想表示物操作方法。
JP2010065210A 2010-03-19 2010-03-19 ヘッドマウント型拡張現実映像提示装置及びその仮想表示物操作方法 Active JP5564300B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010065210A JP5564300B2 (ja) 2010-03-19 2010-03-19 ヘッドマウント型拡張現実映像提示装置及びその仮想表示物操作方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010065210A JP5564300B2 (ja) 2010-03-19 2010-03-19 ヘッドマウント型拡張現実映像提示装置及びその仮想表示物操作方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2014118657A Division JP5932889B2 (ja) 2014-06-09 2014-06-09 ヘッドマウント型拡張現実映像提示装置及び仮想表示物操作方法

Publications (2)

Publication Number Publication Date
JP2011198150A JP2011198150A (ja) 2011-10-06
JP5564300B2 true JP5564300B2 (ja) 2014-07-30

Family

ID=44876239

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010065210A Active JP5564300B2 (ja) 2010-03-19 2010-03-19 ヘッドマウント型拡張現実映像提示装置及びその仮想表示物操作方法

Country Status (1)

Country Link
JP (1) JP5564300B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10257494B2 (en) 2014-09-22 2019-04-09 Samsung Electronics Co., Ltd. Reconstruction of three-dimensional video
US11049218B2 (en) 2017-08-11 2021-06-29 Samsung Electronics Company, Ltd. Seamless image stitching
US11205305B2 (en) 2014-09-22 2021-12-21 Samsung Electronics Company, Ltd. Presentation of three-dimensional video

Families Citing this family (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009120984A1 (en) 2008-03-28 2009-10-01 Kopin Corporation Handheld wireless display device having high-resolution display suitable for use as a mobile internet device
US10013976B2 (en) 2010-09-20 2018-07-03 Kopin Corporation Context sensitive overlays in voice controlled headset computer displays
KR20120040573A (ko) * 2010-10-19 2012-04-27 주식회사 팬택 이동식 태그를 이용한 증강 현실 제공 장치 및 방법
JP5684618B2 (ja) * 2011-03-22 2015-03-18 京セラ株式会社 撮影装置および仮想情報表示プログラム
JP5685464B2 (ja) * 2011-03-25 2015-03-18 京セラ株式会社 撮影装置、制御方法および仮想情報表示プログラム
CN109116985A (zh) 2011-05-10 2019-01-01 寇平公司 控制信息显示的方法
JP5202712B2 (ja) * 2011-10-28 2013-06-05 株式会社東芝 表示装置、及び情報送信方法
US8929954B2 (en) * 2012-04-25 2015-01-06 Kopin Corporation Headset computer (HSC) as auxiliary display with ASR and HT input
JP5507773B1 (ja) * 2012-07-13 2014-05-28 太郎 諌山 要素選択装置、要素選択方法、および、プログラム
EP2899618B1 (en) * 2012-09-21 2019-05-15 Sony Corporation Control device and computer-readable storage medium
JP6125785B2 (ja) * 2012-09-27 2017-05-10 京セラ株式会社 表示装置および制御方法
JP6159069B2 (ja) * 2012-09-27 2017-07-05 京セラ株式会社 表示装置
CN104685869B (zh) * 2012-09-27 2018-12-28 京瓷株式会社 显示装置、控制方法
JP5931680B2 (ja) * 2012-09-28 2016-06-08 京セラ株式会社 表示装置、制御方法および制御プログラム
JP5931681B2 (ja) * 2012-09-28 2016-06-08 京セラ株式会社 表示装置、制御方法および制御プログラム
JP5962403B2 (ja) * 2012-10-01 2016-08-03 ソニー株式会社 情報処理装置、表示制御方法及びプログラム
US10444845B2 (en) 2012-12-21 2019-10-15 Qualcomm Incorporated Display of separate computer vision based pose and inertial sensor based pose
US9076257B2 (en) * 2013-01-03 2015-07-07 Qualcomm Incorporated Rendering augmented reality based on foreground object
JP6195893B2 (ja) * 2013-02-19 2017-09-13 ミラマ サービス インク 形状認識装置、形状認識プログラム、および形状認識方法
TWI649675B (zh) * 2013-03-28 2019-02-01 新力股份有限公司 Display device
WO2015030264A1 (ja) * 2013-08-30 2015-03-05 国立大学法人山梨大学 クリック動作検出装置,方法およびプログラム
JP2015119373A (ja) * 2013-12-19 2015-06-25 ソニー株式会社 画像処理装置および方法、並びにプログラム
KR20160021607A (ko) * 2014-08-18 2016-02-26 삼성전자주식회사 배경 화면을 디스플레이하는 방법 및 장치
JP6336930B2 (ja) 2015-02-16 2018-06-06 富士フイルム株式会社 仮想オブジェクト表示装置、方法、プログラムおよびシステム
US10156908B2 (en) * 2015-04-15 2018-12-18 Sony Interactive Entertainment Inc. Pinch and hold gesture navigation on a head-mounted display
JP6125075B2 (ja) * 2016-04-26 2017-05-10 京セラ株式会社 表示装置、制御方法および制御プログラム
JP6125076B2 (ja) * 2016-04-26 2017-05-10 京セラ株式会社 表示装置、制御方法および制御プログラム
WO2018038136A1 (ja) * 2016-08-24 2018-03-01 ナーブ株式会社 画像表示装置、画像表示方法、及び画像表示プログラム
CN110249379B (zh) * 2017-01-24 2024-01-23 隆萨有限公司 使用虚拟或增强现实显示进行工业维护的方法和系统
WO2018198910A1 (ja) * 2017-04-28 2018-11-01 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置、情報処理装置の制御方法、及びプログラム
JP2017208820A (ja) * 2017-06-06 2017-11-24 京セラ株式会社 発注システム
EP3931676A4 (en) * 2019-04-11 2022-04-13 Samsung Electronics Co., Ltd. HEAD MOUNTED DISPLAY DEVICE AND METHOD OF OPERATION THEREOF
JP2020013584A (ja) * 2019-08-09 2020-01-23 株式会社ファイン 仮想現実表示システム、仮想現実表示方法及びコンピュータプログラム
WO2023026700A1 (ja) * 2021-08-26 2023-03-02 株式会社Nttドコモ 表示制御装置
WO2023157653A1 (ja) * 2022-02-18 2023-08-24 ソニーグループ株式会社 情報処理装置及び情報処理方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3311025B2 (ja) * 1991-07-12 2002-08-05 株式会社東芝 情報検索装置
JPH1165431A (ja) * 1997-08-25 1999-03-05 Nippon Telegr & Teleph Corp <Ntt> 景観ラベル付カーナビゲーション装置およびシステム
JP4032776B2 (ja) * 2002-03-04 2008-01-16 ソニー株式会社 複合現実感表示装置及び方法、記憶媒体、並びにコンピュータ・プログラム
JP4298407B2 (ja) * 2002-09-30 2009-07-22 キヤノン株式会社 映像合成装置及び映像合成方法
JP2005250950A (ja) * 2004-03-05 2005-09-15 Nippon Telegr & Teleph Corp <Ntt> マーカ提示用携帯端末および拡張現実感システムならびにその動作方法
JP2007117365A (ja) * 2005-10-27 2007-05-17 Advanced Telecommunication Research Institute International 情報提示装置
JP4883774B2 (ja) * 2006-08-07 2012-02-22 キヤノン株式会社 情報処理装置及びその制御方法、プログラム
JP2009087161A (ja) * 2007-10-01 2009-04-23 Canon Inc 画像処理装置、画像処理方法
JP2010026818A (ja) * 2008-07-18 2010-02-04 Geisha Tokyo Entertainment Inc 画像処理プログラム、画像処理装置及び画像処理方法
EP2157545A1 (en) * 2008-08-19 2010-02-24 Sony Computer Entertainment Europe Limited Entertainment device, system and method

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10257494B2 (en) 2014-09-22 2019-04-09 Samsung Electronics Co., Ltd. Reconstruction of three-dimensional video
US10313656B2 (en) 2014-09-22 2019-06-04 Samsung Electronics Company Ltd. Image stitching for three-dimensional video
US10547825B2 (en) 2014-09-22 2020-01-28 Samsung Electronics Company, Ltd. Transmission of three-dimensional video
US10750153B2 (en) 2014-09-22 2020-08-18 Samsung Electronics Company, Ltd. Camera system for three-dimensional video
US11205305B2 (en) 2014-09-22 2021-12-21 Samsung Electronics Company, Ltd. Presentation of three-dimensional video
US11049218B2 (en) 2017-08-11 2021-06-29 Samsung Electronics Company, Ltd. Seamless image stitching

Also Published As

Publication number Publication date
JP2011198150A (ja) 2011-10-06

Similar Documents

Publication Publication Date Title
JP5564300B2 (ja) ヘッドマウント型拡張現実映像提示装置及びその仮想表示物操作方法
CN110647237B (zh) 在人工现实环境中基于手势的内容共享
US20180096536A1 (en) Information processing apparatus, information processing system, and information processing method
US11557134B2 (en) Methods and systems for training an object detection algorithm using synthetic images
US9972136B2 (en) Method, system and device for navigating in a virtual reality environment
US10489981B2 (en) Information processing device, information processing method, and program for controlling display of a virtual object
EP2972672B1 (en) Detection of a gesture performed with at least two control objects
US10474411B2 (en) System and method for alerting VR headset user to real-world objects
JP6611501B2 (ja) 情報処理装置、仮想オブジェクトの操作方法、コンピュータプログラム、及び記憶媒体
CN107646098A (zh) 用于在虚拟现实中跟踪手持式设备的系统
US20140240225A1 (en) Method for touchless control of a device
JP6390799B2 (ja) 入力装置、入力方法、及びプログラム
WO2014016987A1 (ja) 3次元ユーザインタフェース装置及び3次元操作方法
US8098263B2 (en) Image processing method and image processing apparatus
KR20150135847A (ko) 글래스 타입 단말기 및 이의 제어방법
CN112154402A (zh) 可穿戴设备及其控制方法、识别手势的方法和控制系统
EP3422152A1 (en) Remote operation device, remote operation method, remote operation system, and program
EP3163407A1 (en) Method and apparatus for alerting to head mounted display user
JP6499384B2 (ja) 画像表示装置、画像表示方法、及び画像表示プログラム
JP5932889B2 (ja) ヘッドマウント型拡張現実映像提示装置及び仮想表示物操作方法
JP6834620B2 (ja) 情報表示システム
JP2016154044A (ja) ヘッドマウント型拡張現実映像提示装置及びその仮想表示物操作方法
JP5907034B2 (ja) 作業補助システムおよびプログラム
CN115877941A (zh) 一种头戴式交互设备以及用于头戴式交互设备的交互方法
TW202230088A (zh) 資訊處理方法、資訊處理裝置及非揮發性記憶媒體

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20111216

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120613

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20120914

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20121004

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130220

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130305

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130415

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131008

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131206

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140520

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140616

R150 Certificate of patent or registration of utility model

Ref document number: 5564300

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250