JP6621565B2 - 表示制御装置、表示制御方法、及びプログラム - Google Patents

表示制御装置、表示制御方法、及びプログラム Download PDF

Info

Publication number
JP6621565B2
JP6621565B2 JP2019508457A JP2019508457A JP6621565B2 JP 6621565 B2 JP6621565 B2 JP 6621565B2 JP 2019508457 A JP2019508457 A JP 2019508457A JP 2019508457 A JP2019508457 A JP 2019508457A JP 6621565 B2 JP6621565 B2 JP 6621565B2
Authority
JP
Japan
Prior art keywords
display control
virtual
image
frame
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019508457A
Other languages
English (en)
Other versions
JPWO2018179176A1 (ja
Inventor
知幸 武笠
知幸 武笠
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Rakuten Group Inc
Original Assignee
Rakuten Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Rakuten Inc filed Critical Rakuten Inc
Publication of JPWO2018179176A1 publication Critical patent/JPWO2018179176A1/ja
Application granted granted Critical
Publication of JP6621565B2 publication Critical patent/JP6621565B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/04Architectural design, interior design

Description

本発明は、表示制御装置、表示制御方法、及びプログラムに関する。
近年、カメラが現実空間を撮影した撮影画像と、仮想3次元オブジェクトを示す仮想画像と、を合成することによって、拡張現実を提供する技術が知られている。例えば、専用のマーカを紙などに印刷し、カメラでマーカを撮影することによって、カメラの位置と向きを推定し、仮想空間における仮想視点の制御をする技術も知られている。
また例えば、非特許文献1及び特許文献1には、撮影画像の特徴点の変化に基づいてカメラの現在の位置と向きを推定するSLAM(Simultaneous Localization and Mapping)と呼ばれる技術が記載されている。例えば、拡張現実を提供するコンピュータが、所定のフレームレートで撮影された撮影画像をリアルタイムで表示させ、SLAMを利用してカメラと同じ動きをするように仮想視点を制御することで、マーカを使用しなくても、カメラの位置と向きを推定できる。
Andrew J.Davison, "Real-Time Simultaneous Localization and Mapping with a Single Camera", Proceedings of the 9th IEEE International Conference on Computer Vision Volume 2, 2003, pp.1403-1410
特開2011−159163号公報
しかしながら、従来の技術では、SLAMを利用してカメラの位置と向きを推定する処理を毎フレーム実行する必要がある。この処理は、計算量が多い処理であり、拡張現実を提供するコンピュータの処理負荷が高くなってしまう。このため、低性能のコンピュータでは処理が追いつかず、例えば、仮想画像の更新が間に合わず表示の滑らかさが低下したり、カメラが移動して被写体の見え方が変わっても仮想3次元オブジェクトの見え方が変わらずに不自然になってしまったりする可能性があった。
本発明は上記課題に鑑みてなされたものであって、その目的は、拡張現実を提供するコンピュータの処理負荷を軽減することである。
上記課題を解決するために、本発明に係る表示制御装置は、現実空間で移動可能な撮影手段が所定のフレームレートで撮影した撮影画像を取得する取得手段と、前記撮影画像に基づいて前記撮影手段の現在の位置と向きを推定し、推定結果に基づく仮想視点から仮想3次元オブジェクトを見た様子を示す仮想画像を、前記撮影画像と合成して表示させる第1表示制御手段と、前記第1表示制御手段が表示制御をした後のフレームにおいて、前記撮影手段の移動に関する移動情報に基づいて前記仮想画像を加工し、前記撮影画像と合成して表示させる第2表示制御手段と、を含むことを特徴とする。
本発明の一態様では、前記第1表示制御手段が表示制御をするフレームである第1表示制御フレームは、複数回繰り返し到来し、各第1表示制御フレームの後には、前記第2表示制御手段が表示制御をするフレームである第2表示制御フレームが少なくとも1つ設定される、ことを特徴とする。
本発明の一態様では、前記第2表示制御手段は、前記複数回繰り返し到来する前記第1表示制御フレームのうち、直近の前記第1表示制御フレームからの前記撮影手段の移動に関する前記移動情報に基づいて、当該直近の第1表示制御フレームで生成された前記仮想画像を加工する、ことを特徴とする。
本発明の一態様では、前記第2表示制御手段は、前記撮影画像の特徴点の変化に基づいて前記移動情報を取得する、ことを特徴とする。
本発明の一態様では、前記第2表示制御手段は、前記撮影画像のうち、前記仮想画像の表示位置に対応する領域を前記特徴点の抽出対象とする、ことを特徴とする。
本発明の一態様では、前記第2表示制御手段は、前記撮影手段の位置の変化を検出可能なセンサの検出結果と、前記撮影手段の向きの変化を検出可能なセンサの検出結果と、の少なくとも一方に基づいて前記移動情報を取得する、ことを特徴とする。
本発明の一態様では、前記第1表示制御手段が表示制御をするフレームである第1表示制御フレームは、複数回繰り返し到来し、各第1表示制御フレームの後には、前記第2表示制御手段が表示制御をするフレームである第2表示制御フレームが少なくとも1つ設定され、前記第2表示制御手段は、前記第1表示制御手段による前記撮影手段の位置と向きの推計結果の変化に基づいて前記移動情報を取得する、ことを特徴とする。
本発明の一態様では、前記第2表示制御手段は、前記移動情報に基づいて、加工した前記仮想画像の表示位置を更に決定し、当該表示位置に、加工した前記仮想画像を表示させる、ことを特徴とする。
本発明の一態様では、前記第1表示制御手段は、前記撮影手段の位置の変化を検出可能なセンサの検出結果と、前記撮影手段の向きの変化を検出可能なセンサの検出結果と、の少なくとも一方に更に基づいて、前記撮影手段の現在の位置と向きを推定する、ことを特徴とする。
本発明の一態様では、前記取得手段は、前記撮影手段により撮影された前記撮影画像をリアルタイムで取得し、前記第1表示制御手段は、リアルタイムで取得された前記撮影画像と前記仮想画像とを合成して表示させ、前記第2表示制御手段は、リアルタイムで取得された前記撮影画像と、加工した前記仮想画像と、を合成して表示させる、ことを特徴とする。
本発明の一態様では、前記第1表示制御手段が表示制御をするフレームである第1表示制御フレームは、複数回繰り返し到来し、各第1表示制御フレームの後には、前記第2表示制御手段が表示制御をするフレームである第2表示制御フレームが少なくとも1つ設定され、その数は可変であり、前記表示制御装置は、所定の条件に基づいて、前記第1表示制御フレームが到来する頻度を決定する決定手段、を更に含むことを特徴とする。
本発明の一態様では、前記仮想空間には、複数の前記仮想3次元オブジェクトが配置され、前記仮想3次元オブジェクトごとに、前記第1表示制御フレームが到来する頻度が可変であり、前記決定手段は、前記仮想3次元オブジェクトごとに、当該仮想3次元オブジェクトの位置に基づいて、前記第1表示制御フレームが到来する頻度を決定する、ことを特徴とする。
本発明の一態様では、前記第1表示制御手段は、前記撮影画像よりも大きい前記仮想画像を生成し、前記第2表示制御手段は、前記第1表示制御手段による表示制御では表示されなかった前記仮想画像の部分を加工して表示可能である、ことを特徴とする。
本発明の一態様では、前記現実空間は、部屋の内部であり、前記撮影画像には、前記部屋の内部の様子が撮影されており、前記仮想3次元オブジェクトは、仮想的な家具であり、前記仮想画像は、前記仮想視点から前記仮想的な家具を見た様子を示す画像である、ことを特徴とする。
本発明に係る表示制御方法は、現実空間で移動可能な撮影手段が所定のフレームレートで撮影した撮影画像を取得する取得ステップと、前記撮影画像に基づいて前記撮影手段の現在の位置と向きを推定し、推定結果に基づく仮想視点から仮想3次元オブジェクトを見た様子を示す仮想画像を、前記撮影画像と合成して表示させる第1表示制御ステップと、前記第1表示制御ステップで表示制御が行われた後のフレームにおいて、前記撮影手段の移動に関する移動情報に基づいて前記仮想画像を加工し、前記撮影画像と合成して表示させる第2表示制御ステップと、を含むことを特徴とする。
本発明に係るプログラムは、現実空間で移動可能な撮影手段が所定のフレームレートで撮影した撮影画像を取得する取得手段、前記撮影画像に基づいて前記撮影手段の現在の位置と向きを推定し、推定結果に基づく仮想視点から仮想3次元オブジェクトを見た様子を示す仮想画像を、前記撮影画像と合成して表示させる第1表示制御手段、前記第1表示制御手段が表示制御をした後のフレームにおいて、前記撮影手段の移動に関する移動情報に基づいて前記仮想画像を加工し、前記撮影画像と合成して表示させる第2表示制御手段、としてコンピュータを機能させる。
本発明によれば、拡張現実を提供するコンピュータの処理負荷を軽減することである。
表示制御装置のハードウェア構成を示す図である。 撮影部が現実空間を撮影する様子を示す図である。 撮影画像の一例を示す図である。 撮影画像に仮想画像を合成させる処理の説明図である。 表示制御装置において実現される機能の一例を示す機能ブロック図である。 第1表示制御フレームと第2表示制御フレームの繰り返しパターンの一例を示す図である。 撮影部の位置と向きの推定方法の一例を説明する図である。 移動情報と加工方法との関係の一例を示す図である。 移動情報と加工方法との関係の一例を示す図である。 移動情報と加工方法との関係の一例を示す図である。 移動情報と加工方法との関係の一例を示す図である。 移動情報と加工方法との関係の一例を示す図である。 移動情報と表示位置との関係の一例を示す図である。 表示制御装置において実行される処理の一例を示すフロー図である。 変形例(3)における機能ブロック図である。 変形例(4)の処理内容の説明図である。
[1.表示制御装置のハードウェア構成]
以下、本発明に関わる表示制御装置の実施形態の例を説明する。表示制御装置10は、ユーザに拡張現実を提供するためのコンピュータであり、例えば、携帯電話機(スマートフォンを含む)、携帯情報端末(タブレット型コンピュータを含む)、パーソナルコンピュータ、又はサーバコンピュータ等である。図1は、表示制御装置のハードウェア構成を示す図である。図1に示すように、表示制御装置10は、制御部11、記憶部12、通信部13、操作部14、表示部15、入出力部16、読取部17、撮影部18、及びセンサ部19を含む。
制御部11は、例えば、少なくとも1つのマイクロプロセッサを含む。制御部11は、記憶部12に記憶されたプログラムやデータに従って処理を実行する。記憶部12は、主記憶部及び補助記憶部を含む。例えば、主記憶部はRAMなどの揮発性メモリであり、補助記憶部は、ハードディスクやフラッシュメモリなどの不揮発性メモリである。通信部13は、有線通信又は無線通信用の通信インタフェースであり、ネットワークを介してデータ通信を行う。操作部14は、ユーザが操作を行うための入力デバイスであり、例えば、タッチパネルやマウス等のポインティングデバイスやキーボード等を含む。操作部14は、ユーザの操作内容を制御部11に伝達する。表示部15は、例えば、液晶表示部又は有機EL表示部等である。表示部15は、制御部11の指示に従って画面を表示する。入出力部16は、入出力インタフェースであり、例えば、USBポートを含む。入出力部16は、外部機器とデータ通信を行うために用いられる。読取部17は、コンピュータ読み取り可能な情報記憶媒体を読み取り、例えば、光ディスクドライブやメモリカードスロットを含む。
撮影部18は、静止画又は動画を撮影する少なくとも1つのカメラを含み、例えば、CMOSイメージセンサ又はCCDイメージセンサなどの撮像素子を含む。例えば、撮影部18は、所定のフレームレートで現実空間を連続的に撮影可能である。センサ部19は、表示制御装置10の位置や姿勢などを検出するための種々のセンサを含み、例えば、加速度センサ19A及びジャイロセンサ19Bを含む。加速度センサ19Aは、モーションセンサとも呼ばれるものであり、表示制御装置10の加速度を検出する。加速度センサ19Aの検出方式としては、振動方式、光学的方式、又は半導体方式等の種々の方式を適用可能である。ジャイロセンサ19Bは、ジャイロスコープとも呼ばれるものであり、表示制御装置10の角速度を検出する。ジャイロセンサ19Bの検出方式としては、機械方式、流体方式、光学方式、又は量子方式等の種々の方式を適用可能である。
なお、記憶部12に記憶されるものとして説明するプログラム及びデータは、ネットワークを介して他のコンピュータから供給されるようにしてもよいし、入出力部16又は読取部17を介して、コンピュータ読み取り可能な情報記憶媒体(例えば、USBメモリ、SDカード、又は光ディスク)から供給されるようにしてもよい。また、表示部15及び撮影部18は、表示制御装置10の内部に組み込まれているのではなく、表示制御装置10の外部にあり、入出力部16を介して接続されてもよい。また、表示制御装置10のハードウェア構成は、上記の例に限られず、種々のハードウェアを適用可能である。
[2.表示制御装置が実行する処理の概要]
表示制御装置10は、撮影部18が現実空間を撮影した撮影画像と、仮想3次元オブジェクトを示す仮想画像と、を合成することによって、ユーザに拡張現実を提供する。本実施形態では、部屋の内部が現実空間であり、部屋に配置される仮想的な家具が仮想3次元オブジェクトであり、仮想視点から仮想的な家具を見た様子を示す画像が仮想画像である場合を例に挙げて説明する。即ち、実在しない家具が室内に存在するように見える拡張現実が提供される場合を説明する。
図2は、撮影部18が現実空間を撮影する様子を示す図である。図2に示すように、現実空間RSは部屋の内部であり、ユーザは、表示制御装置10を持って現実空間RSの任意の場所を撮影する。現実空間RSには、家具や家電などが配置されてもよいが、ここでは説明の簡略化のために、家具や家電などが配置されないものとする。
例えば、ユーザは、表示制御装置10を移動させ、撮影部18の位置と向きの少なくとも一方を変えることができる。撮影部18の向きとは、撮影部18の撮影方向(視線方向)又は注視点と同じ意味である。例えば、撮影部18が姿勢を変えたり回転したりすると、撮影部18の向きが変わる。撮影部18の位置と向きは、両方とも同時に変わらなければならないわけではなく、これらの少なくとも一方が可変であればよい。撮影部18の位置と向きの少なくとも一方が変わると、撮影部18の撮影範囲(視野)が変わる。
撮影部18は、所定のフレームレートで現実空間RSを連続的に撮影する。フレームレートは、単位時間あたりの処理回数であり、動画であれば、単位時間あたりの静止画像数(コマ数)である。フレームレートは、固定値であってもよいし、ユーザが指定可能であってもよい。例えば、フレームレートをNfps(N:自然数、fps:Frames Per Second)とすると、各フレームの長さは1/N秒となり、撮影部18は、処理単位であるフレームごとに、現実空間RSを撮影して撮影画像を生成する。
撮影画像は、特にリアルタイムで表示されることなく、撮影画像の個々の静止画データ又は動画データが記憶部12に記録されてもよいが、本実施形態では、リアルタイムで撮影画像が表示される場合を説明する。即ち、本実施形態では、各フレームにおいて、撮影画像を取得する処理と、撮影画像を表示させる処理と、が実行され、撮影画像は、撮影後すぐに表示される。
図3は、撮影画像の一例を示す図である。先述したように、現実空間RSには家具や家電などが配置されないので、図3に示すように、撮影画像G1には、壁、床、及び天井だけが撮影される。なお、本実施形態では、撮影画像G1の左上を原点Osとして、スクリーン座標軸(Xs軸−Ys軸)が設定されるものとする。また、図3に示すP1〜P4は、撮影画像G1から抽出される特徴点である。特徴点の詳細は後述する。
拡張現実が提供されるにあたり、仮想画像は、任意のタイミングで撮影画像G1に合成されるようにしてよい。例えば、撮影画像G1が表示されてすぐに仮想画像が合成されてもよいし、何秒か経過してから仮想画像が合成されてもよいし、ユーザが所定の操作をした場合に仮想画像が合成されてもよい。
仮想画像に表れる仮想3次元オブジェクトは、少なくとも1つのポリゴンから構成される3次元モデルである。仮想3次元オブジェクトは、記憶部12上に構築される仮想空間に配置される。仮想空間における仮想3次元オブジェクトの位置と向きは、予め定められていてもよいし、ユーザが指定可能であってもよい。また、合成される仮想3次元オブジェクトの種類は、予め定められていてもよいが、複数種類の仮想3次元オブジェクトの中から、ユーザが合成したいものを自由に選ぶことができてもよい。
例えば、撮影画像G1が表示された状態で、ユーザが、合成したい仮想3次元オブジェクトを選択した後に、画面上の任意の位置を指定することで、仮想3次元オブジェクトの位置を指定できてもよい。また例えば、ユーザが、仮想3次元オブジェクトを移動させたり向きを変えたりすることができてもよい。他にも例えば、ユーザが、仮想3次元オブジェクトのサイズを指定できてもよい。更に、ユーザが、仮想3次元オブジェクトの色又はテクスチャなどを指定できてもよい。
図4は、撮影画像G1に仮想画像を合成させる処理の説明図である。図4に示すように、拡張現実が提供されるにあたり、仮想的な3次元空間である仮想空間VSが記憶部12に構築される。仮想空間VSには、互いに直交する3つの座標軸(Xw軸−Yw軸−Zw軸)が設定される。これら3つの座標軸は、ワールド座標系の座標軸である。原点Owは、任意の位置であってよく、仮想空間VS内の位置は、3次元座標で表される。
仮想空間VSには、仮想3次元オブジェクトVOが配置され、仮想視点VVが設定される。仮想視点VVは、仮想カメラとも呼ばれるものであり、ビュー座標系の座標軸を定義する。図4では、仮想視点VVの位置をαの符号で示し、仮想視点VVの向きをβの符号で示している。仮想画像G2は、仮想視点VVから仮想3次元オブジェクトVOを見た様子を示す。例えば、仮想画像G2は、仮想3次元オブジェクトVOの各頂点の3次元座標がスクリーン座標系の2次元座標に変換されることで生成される。この変換処理自体は、公知のジオメトリ処理を適用可能である。
図4に示すように、仮想画像G2は、撮影画像G1と合成されることで、実在しない仮想3次元オブジェクトVOが現実空間RSに配置されているような拡張現実が提供される。図4の例では、仮想3次元オブジェクトVOが、撮影部18から見て奥側の壁の手前に配置されているような画面が表示される。
拡張現実のリアリティを高めるためには、ユーザが撮影部18を移動させた場合に、被写体の見え方の変化に合うように、仮想3次元オブジェクトVOの見え方を調整する必要がある。この点、先述したように、仮想3次元オブジェクトVOの見え方を調整するために、例えばSLAMを利用して撮影部18の位置と向きを推定して仮想視点VVを制御する処理を毎フレーム実行すると、この処理は複雑なので、表示制御装置10の処理負荷が高くなってしまう。
そこで、本実施形態では、複雑な処理を毎フレーム実行するのではなく、仮想画像G2を加工するという簡易な処理のフレームを間に挟み、複雑な処理のフレームを間引くことで、拡張現実のリアリティを維持しつつ、表示制御装置10の処理負荷を軽減している。以降、複雑な処理が実行されるフレームを第1表示制御フレームと記載し、簡易な処理が実行されるフレームを第2表示制御フレームと記載し、表示制御装置10の詳細を説明する。
[3.表示制御装置において実現される機能]
図5は、表示制御装置10において実現される機能の一例を示す機能ブロック図である。図5に示すように、本実施形態では、表示制御装置10において、データ記憶部100、撮影画像取得部110、及び表示制御部120が実現される場合を説明する。
[3−1.データ記憶部]
データ記憶部100は、記憶部12を主として実現される。データ記憶部100は、拡張現実を提供するために必要なデータを記憶する。例えば、仮想3次元オブジェクトVOの形状を定義したオブジェクトデータを記憶する。オブジェクトデータには、仮想3次元オブジェクトVOの各頂点の位置関係が格納される。また例えば、仮想3次元オブジェクトVOに色又はテクスチャが設定される場合には、データ記憶部100は、色又はテクスチャを示すデータを記憶してもよい。
また例えば、データ記憶部100は、仮想空間VSの現在の状態を示す仮想空間データを記憶する。仮想空間VSの現在の状態としては、例えば、仮想3次元オブジェクトVOの代表位置、向き(正面方向)、及びポリゴンの頂点の位置が格納されてもよいし、仮想視点VVに関する仮想視点パラメータが格納されてもよい。仮想視点パラメータは、例えば、仮想視点VVの位置、向き、及び画角が格納されてよい。なお、仮想視点VVの向きは、注視点の3次元座標で示されてもよいし、視線方向を示すベクトル情報で示されてもよい。他にも例えば、仮想視点パラメータは、描画領域の境界を示すニアクリップやファークリップを定義する情報を含んでもよい。
なお、データ記憶部100が記憶するデータは、上記の例に限られない。例えば、撮影画像G1を特にリアルタイムで表示させない場合には、データ記憶部100は、個々の撮影画像を示す静止画データ又は動画を示す動画データを記憶してもよい。また例えば、データ記憶部100は、フレームの繰り返しパターンを示すデータを記憶してもよい。
[3−2.撮影画像取得部]
撮影画像取得部110は、制御部11を主として実現される。撮影画像取得部110は、現実空間RSで移動可能な撮影部18が所定のフレームレートで撮影した撮影画像を取得する。先述したように、本実施形態では、現実空間RSが部屋の内部なので、撮影画像G1には、部屋の内部の様子が撮影されていることになる。
現実空間RSで移動可能な撮影部18とは、撮影部18の位置と向きを変更可能であることを意味し、例えば、撮影部18を含む筐体を移動させたり、当該筐体の姿勢を変えたり、当該筐体を回転させたりすることが可能なことを意味する。別の言い方をすれば、撮影部18の撮影範囲(視野)が変更可能であることを意味する。なお、撮影部18は、常に移動し続けなければならないわけではなく、一時的に現在の場所に留まり、位置と向きが変わらないことがあってもよい。
撮影画像取得部110は、撮影部18が生成した撮影画像G1を連続的に取得する。本実施形態では、撮影画像取得部110は、撮影部18により撮影された撮影画像をリアルタイムで取得する。即ち、撮影画像取得部110は、撮影部18が撮影画像G1を生成してすぐに当該撮影画像G1を取得する。撮影画像取得部110は、撮影部18が撮影画像G1を生成した時点から所定時間以内に、当該撮影画像G1を取得する。
なお、撮影画像G1を特にリアルタイムで表示させない場合には、撮影画像取得部110は、データ記憶部100に記憶された静止画データ又は動画データを取得してもよい。また、表示制御装置10以外のコンピュータ又は情報記憶媒体に静止画データ又は動画データが記憶されている場合には、撮影画像取得部110は、当該コンピュータ又は情報記憶媒体から静止画データ又は動画データを取得してもよい。
[3−3.表示制御部]
表示制御部120は、制御部11を主として実現される。表示制御部120は、撮影画像G1と仮想画像G2とを合成して表示部15に表示させる。例えば、表示制御部120は、撮影画像G1に仮想画像G2を重畳表示させる。この場合、表示制御部120は、仮想画像G2のレイヤを、撮影画像G1のレイヤよりも上(手前又は前面)に設定する。また例えば、表示制御部120は、撮影画像G1と仮想画像G2とをアルファブレンドして合成画像を生成してもよい。アルファブレンドは、複数の画像の各々に透明度を設定し、各画像の画素値に透明度を乗じて互いに加算することで1枚の画像を生成する画像合成処理である。
表示制御部120は、第1表示制御部121と第2表示制御部122とを含み、第1表示制御部121は、現在のフレームが第1表示制御フレームである場合に処理を実行し、第2表示制御部122は、現在のフレームが第2表示制御フレームである場合に処理を実行する。
第1表示制御フレームは、1回だけ到来してもよいが、本実施形態では、第1表示制御部121が表示制御をするフレームである第1表示制御フレームは、複数回繰り返し到来し、各第1表示制御フレームの後には、第2表示制御部122が表示制御をするフレームである第2表示制御フレームが少なくとも1つ設定される。第1表示制御フレームは、不定期的に到来してもよいが、ここでは、定期的(周期的)に到来するものとする。第1表示制御フレームと第2表示制御フレームの繰り返しパターンは予め定められており、表示制御部120は、当該繰り返しパターンに基づいて、現在のフレームが第1表示制御フレームであるか第2表示制御フレームであるかを判定する。
図6は、第1表示制御フレームと第2表示制御フレームの繰り返しパターンの一例を示す図である。図6に示すt軸は、時間軸である。ある第1表示制御フレームと次の第1表示制御フレームとの間には、k個(k:自然数)の第2表示制御フレームが設定され、図6の例では、kは2である。第1表示制御フレームと、その後のk個の第2表示制御フレームと、の組み合わせ(フレームの繰り返し単位)を周期と記載すると、図6の例では、1周期は、k+1個のフレームから構成される。
例えば、所定の時点から数えて現在が何フレーム目であるかを示すカウンタ変数を用意しておき、表示制御部120は、カウンタ変数に基づいて、現在のフレームが第1表示制御フレームであるか第2表示制御フレームであるかを判定する。例えば、カウンタ変数をiとすると、表示制御部120は、後述する初期化処理が終了した場合に、カウンタ変数iに初期値(例えば、i=1)をセットする。表示制御部120は、フレーム経過に応じて(即ち、1/N秒ごとに)、カウンタ変数iをカウントアップする。そして、表示制御部120は、カウンタ変数iを1周期の総フレーム数(ここでは、3)で割った余りが所定値(ここでは、1)であれば第1表示制御フレームであると判定し、それ以外の場合は第2表示制御フレームと判定する。
なお、第1表示制御フレームと第2表示制御フレームの時間的な長さは、互いに異なってもよいが、本実施形態では同じとする。即ち、フレームレートをNfpsとすると、本実施形態では、第1表示制御フレームの長さも第2表示制御フレームの長さも1/N秒である。また、1つの周期には、複数の第1表示制御フレームが含まれてもよい。例えば、ある周期において、第1表示制御フレームが2回連続で到来した後に、k個の第2表示制御フレームが到来してもよい。また例えば、ある周期において、1回目の第1表示制御フレームが到来し、k個の第2表示制御フレームが到来した後に、2回目の第1表示制御フレームが到来し、k個の第2表示制御フレームが到来してもよい。このように、1周期に含まれる第1表示制御フレームと第2表示制御フレームの数と順序は任意であってよい。
[3−3−1.第1表示制御部]
第1表示制御部121は、撮影画像G1に基づいて撮影部18の現在の位置と向きを推定し、推定結果に基づく仮想視点VVから仮想3次元オブジェクトVOを見た様子を示す仮想画像G2を、撮影画像G1と合成して表示させる。本実施形態では、第1表示制御部121は、リアルタイムで取得された撮影画像G1と、仮想画像G2と、を合成して表示させる。即ち、撮影画像取得部110が撮影画像G1を取得し、第1表示制御部121が仮想画像G2を生成した後すぐに、これらが合成されて表示される。
例えば、第1表示制御部121は、撮影部18の現在の位置と向きを推定し、推定結果を仮想視点VVの位置と向きに反映させる。これにより、撮影部18が移動した場合に、仮想視点VVは撮影部18と同じように移動する。即ち、仮想視点VVの位置と向きは、撮影部18の位置と向きと同じように変わる。撮影部18の位置と向きの推定方法自体は、公知の視点推定方法を適用可能であり、例えば、SLAMを利用してもよい。
図7は、撮影部18の位置と向きの推定方法の一例を説明する図である。例えば、第1表示制御部121は、撮影画像G1から特徴点Pを抽出し、抽出した特徴点Pを追跡する。なお、特徴点Pは、撮影画像G1に撮影された被写体ROの特徴を示す点であり、例えば、被写体ROの輪郭の一部を示す点であってもよいし、被写体RO内部の点(例えば、中心点)であってもよい。特徴点Pの抽出方法自体は、公知の特徴点抽出アルゴリズムに基づいて実行されてよく、例えば、輪郭抽出処理により検出した被写体ROの輪郭上の点を特徴点Pとしてもよいし、輪郭線同士が所定角度以上で交差する点を特徴点Pとしてもよい。
例えば、第1表示制御部121は、連続的に取得される撮影画像G1の特徴点群の変化に基づいて、特徴点群に対応する3次元座標群(3次元マップ)を取得する。3次元座標群は、三角測量を利用して取得すればよい。例えば、図7に示すように、撮影部18が被写体ROに対して右方向に移動した場合、被写体ROに対応する撮影画像G1内の特徴点Pは、撮影画像G1上で左に移動する。第1表示制御部121は、このように特徴点群を追跡し、三角測量の原理を利用して撮影部18の移動を推定する。
なお、第1表示制御部121は、撮影部18の位置の変化を検出可能な加速度センサ19Aの検出結果と、撮影部18の向きの変化を検出可能なジャイロセンサ19Bの検出結果と、の少なくとも一方に更に基づいて、撮影部18の現在の位置と向きを推定するようにしてもよい。移動方向と移動距離は、加速度センサ19Aが検出した加速度を2回積分して取得されるようにすればよい。また例えば、向きの変化は、ジャイロセンサ19Bが検出した角速度を積分して取得されるようにすればよい。例えば、第1表示制御部121は、特徴点Pの追跡により得られる情報と、センサ部19の情報と、に基づいて、撮影部18の移動の絶対量を、より正確に推定してもよい。
第1表示制御部121は、上記のように撮影部18の現在の位置と向きを推定すると、推定結果を仮想視点VVの仮想視点パラメータに反映させる。例えば、第1表示制御部121は、初期化処理時と、その後の第1表示制御フレーム到来時と、の各々において、撮影部18の現在の位置と向きの推定結果を仮想視点パラメータに反映させてよい。なお、例えば、第1表示制御部121は、第1表示制御フレームにおける仮想視点VVの最新の位置と向きを、特徴点群と3次元座標群との対応関係から算出(即ち、3次元データ投影と新たな2次元データの比較をするパターン)してもよいし、初期化処理時と同様の処理(即ち、毎回初期化処理を行うパターン)によって取得してもよい。なお、撮影画像G1から新たに特徴点が得られた場合については、初期化処理時と同様の処理としてよい。
第1表示制御部121は、仮想視点VVの仮想視点パラメータを決定すると、所定のジオメトリ処理に基づいて、仮想視点VVから仮想3次元オブジェクトVOを見た様子を示す仮想画像G2を生成し、撮影画像G1と合成して表示することになる。
[3−3−2.第2表示制御部]
第2表示制御部122は、第1表示制御部121が表示制御をした後のフレームにおいて、撮影部18の移動に関する移動情報に基づいて仮想画像G2を加工し、撮影画像G1と合成して表示させる。本実施形態では、第2表示制御部122は、リアルタイムで取得された撮影画像G1と、加工した仮想画像G2と、を合成して表示させる。
画像の加工は、2次元的な加工であり、例えば、画像のサイズ(拡大率)を変えること、画像を回転させること、画像を変形させること、画像の一部を切り取ること、又はこれらの組み合わせであってよい。画像の変形は、長方形又は正方形の画像を他の形状に変えることであり、例えば、投影変換を利用してもいし、線形変換と平行移動を組み合わせたアフィン変換を利用してもよい。例えば、投影変換によれば、長方形又は正方形の画像が台形になり、アフィン変換によれば、長方形又は正方形の画像が平行四辺形になる。
移動情報とは、所定の時点からの撮影部18の位置と向きの変化に関する情報であり、撮影部18の移動を直接的又は間接的に示す情報である。直接的とは、撮影部18の位置と向きの変化そのものを示すことを意味し、例えば、3次元的な変化量で示される。間接的とは、撮影部18の移動と移動情報の値に相関関係があることを意味し、例えば、撮影部18の位置と向きの少なくとも一方が変わると、移動情報の値が変わることである。
本実施形態では、第1表示制御フレームは複数回繰り返し到来するので、第2表示制御部122は、複数回繰り返し到来する第1表示制御フレームのうち、直近の第1表示制御フレームからの撮影部18の移動に関する移動情報に基づいて、当該直近の第1表示制御フレームで生成された仮想画像G2を加工するようにしてもよい。即ち、第2表示制御部122の加工対象となる仮想画像G2は、過去に生成された仮想画像G2のうち、最も新しいものであり、例えば、表示部15に表示中の仮想画像G2といえる。なお、第2表示制御部122は、直近の第1表示制御フレームよりも前に生成された仮想画像G2を加工しても構わない。
また、本実施形態では、移動情報が、撮影部18の移動を間接的に示す情報であり、その一例として、撮影画像G1の特徴点の変化を示す情報を説明する。即ち、本実施形態の移動情報は、特徴点の2次元的な移動を追跡した情報である。例えば、移動情報は、撮影画像G1の特徴点P1〜P4の各々の2次元座標の変化を示すベクトル情報を含む。第2表示制御部122は、撮影画像G1の特徴点の変化に基づいて移動情報を取得する。特徴点の抽出方法自体は、第1表示制御部121と同じであってよい。
移動情報と加工方法との関係は、数式形式又はテーブル形式でデータ記憶部100に記憶されていてもよいし、プログラムコードの一部として記述されていてもよい。この関係には、撮影画像G1における被写体の形状的な変化と、仮想画像G2における仮想3次元オブジェクトVOの形状的な変化と、が似るように、加工方法が定められている。別の言い方をすれば、この関係には、撮影画像G1における被写体のサイズ変化やゆがみ方と、仮想画像G2における仮想3次元オブジェクトVOのサイズ変化やゆがみ方と、が似るように、加工方法が定められている。第2表示制御部122は、移動情報に関連付けられた加工方法で仮想画像G2を加工する。
図8−図12は、移動情報と加工方法との関係の一例を示す図である。例えば、図8に示すように、ユーザが表示制御装置10を持って前進すると、それまで撮影されていた被写体が撮影画像G1に大きく表れる。このため、特徴点P1〜P4の間隔が広がり、移動情報が示す特徴点のベクトル情報が外側を向く。この場合、第2表示制御部122は、撮影部18が前進したと推定し、図8に示すように、拡大率を高くして仮想画像G2を拡大させる。拡大率は、外側を向くベクトル情報が大きくなるほど、高くすればよい。これにより、仮想画像G2が示す仮想3次元オブジェクトVOも大きく表れるので、仮想3次元オブジェクトVOに前進して近づくような拡張現実を、簡易な処理で提供することができる。
また例えば、図9に示すように、ユーザが表示制御装置10を持って後退すると、それまで撮影されていた被写体が撮影画像G1に小さく表れる。このため、特徴点P1〜P4の間隔が狭まり、移動情報が示す各特徴点のベクトル情報が内側を向く。この場合、第2表示制御部122は、撮影部18が後退したと推定し、図9に示すように、拡大率を低くして仮想画像G2を縮小させる。拡大率は、内側を向くベクトル情報が大きくなるほど、小さくすればよい。これにより、仮想画像G2が示す仮想3次元オブジェクトVOも小さく表れるので、仮想3次元オブジェクトVOから後退して遠ざかるような拡張現実を、簡易な処理で提供することができる。
また例えば、図10に示すように、ユーザが表示制御装置10をその場で回転させると、それまで撮影されていた被写体は、撮影画像G1上で逆方向に回転する。このため、特徴点P1〜P4は、表示制御装置10の回転方向の逆方向に回転し、移動情報が示す各特徴点のベクトル情報は、特定の位置を中心にして回転するように一定方向を向く。この場合、第2表示制御部122は、撮影部18が回転したと推定し、図10に示すように、仮想画像G2を特徴点P1〜P4の回転方向(撮影部18の回転方向の逆方向)に回転させる。回転量は、特徴点の回転角度(ベクトル情報の大きさ)が大きくなるほど、大きくすればよい。これにより、撮影画像G1の被写体と一緒に仮想画像G2も回転するので、仮想3次元オブジェクトVOが現実空間RS内の所定位置に配置されているような拡張現実を、簡易的な処理で提供することができる。
また例えば、図11に示すように、ユーザが表示制御装置10を持って被写体に対して回り込みながら近づくと、それまで撮影されていた被写体は撮影画像G1上で変形する。このため、特徴点P1〜P4の各々は被写体の変形に応じた方向に移動し、移動情報が示す各特徴点のベクトル情報は、被写体の変形に応じた方向を向く。例えば、図11に示すように、撮影部18が左斜め前に移動して斜め右を向くと、撮影画像G1上では、距離的に近い左側の壁が大きくなり、距離的に遠い右側の壁が小さくなり、正面の壁は台形になる。このため、特徴点P1〜P4は、台形の頂点を示すような配置となる。
図11の場合、第2表示制御部122は、撮影部18が被写体に対して回り込みながら近づいたと推定し、長方形の仮想画像G2が台形になるように、仮想画像G2を射影変換する。射影変換におけるゆがみ具合(変換係数)は、特徴点が示す台形の上底(例えば、特徴点P3とP4を結ぶ線分)と下底(例えば、特徴点P1とP2を結ぶ線分)の差が大きくなるほど、大きくすればよい。なお、図11の例では、撮影部18は前進しているので、図8で説明したように、仮想画像G2の拡大率を高くしてよい。逆に、撮影部18が後退した場合には、仮想画像G2の拡大率を低くすればよい。これにより、撮影画像G1の被写体と一緒に仮想画像G2もゆがむので、仮想3次元オブジェクトVOが現実空間RS内の所定位置に配置されているような拡張現実を、簡易な処理で提供することができる。
なお、撮影部18が被写体に対して回り込みながら近づいた場合、射影変換ではなく、アフィン変換を利用してもよい。例えば、図12に示すように、仮想画像G2をアフィン変換すると、長方形の仮想画像G2が平行四辺形に変形する。アフィン変換におけるゆがみ具合(変換係数)は、射影変換と同様、特徴点が示す台形の上底と下底の差が大きくなるほど、大きくすればよい。
また、仮想画像G2の加工方法は、図8−図12の各々の方法を組み合わせてもよい。更に、仮想画像G2の加工方法は、図8−図12の例に限られない。撮影画像G1における被写体の変化に応じた加工方法であればよい。即ち、撮影画像G1における被写体の見え方の変化と同じように見え方が変化する加工方法であればよい。例えば、線形変換と平行移動を組み合わせずに、線形変換だけで仮想画像G2が加工されてもよい。
また例えば、仮想画像G2の加工方法だけでなく、第2表示制御部122は、移動情報に基づいて、加工した仮想画像G2の表示位置を更に決定し、当該表示位置に、加工した仮想画像を表示させるようにしてよい。移動情報と表示位置との関係は、数式形式又はテーブル形式でデータ記憶部100に記憶されていてもよいし、プログラムコードの一部として記述されていてもよい。第2表示制御部122は、移動情報に関連付けられた表示位置に、加工した仮想画像G2を表示させる。
図13は、移動情報と表示位置との関係の一例を示す図である。図13に示すように、ユーザが表示制御装置10を持って移動すると、それまで撮影されていた被写体が撮影画像G1上で逆方向に移動する。このため、特徴点P1〜P4は、被写体と同じ方向に移動する。この場合、第2表示制御部122は、撮影部18が移動したと推定し、図13に示すように、仮想画像G2を特徴点P1〜P4の移動方向(撮影部18の移動方向の逆方向)に移動させる。移動距離は、特徴点の移動距離(ベクトル情報の大きさ)が大きくなるほど、大きくすればよい。これにより、ユーザは、仮想3次元オブジェクトVOが現実空間RSの特定の位置に存在するように感じることができる。
図13に示すように、撮影部18が左方向に移動すると、それまで撮影されていた被写体が撮影画像G1上において右方向に移動するので、特徴点P1〜P4が右方向に移動する。このため、第2表示制御部122は、特徴点が右方向に移動した場合には仮想画像G2の表示位置を右方向に移動させる。これにより、撮影画像G1の被写体が移動した場合に仮想画像G2も移動させることができるので、仮想3次元オブジェクトVOが現実空間RS内の所定位置に配置されているような拡張現実を、簡易な処理で提供することができる。
なお、第2表示制御部122は、撮影画像G1の全体を特徴点の抽出対象としてもよいが、本実施形態では、撮影画像G1のうち、仮想画像G2の表示位置に対応する領域を特徴点の抽出対象とするようにしてもよい。仮想画像G2の表示位置に対応する領域とは、表示部15の表示領域(画面全体)のうち、仮想3次元オブジェクトVOが表示されている画素又はその周囲の領域であり、仮想画像G2を含む領域であってよい。周囲とは、仮想3次元オブジェクトVOが表示されている画素から一定距離未満の画素からなる領域である。例えば、図8−図13の例であれば、仮想画像G2が表示された周囲(例えば、正面方向の壁が撮影された領域)が特徴点の抽出対象となる。
[4.本実施形態において実行される処理]
図14は、表示制御装置10において実行される処理の一例を示すフロー図である。図14に示す処理は、制御部11が、記憶部12に記憶されたプログラムに従って動作することによって実行される。下記に説明する処理は、図5に示す機能ブロックにより実行される処理の一例である。
図14に示すように、まず、制御部11は、撮影部18を起動して(S1)、初期化処理を実行する(S2)。S1で起動された撮影部18は、所定のフレームレートに基づいて撮影を開始し、以降、制御部11は、撮影画像G1を連続的に表示部15に表示させる。S2においては、制御部11は、SLAMを利用して撮影部18の位置と姿勢を推定し、仮想視点VVの位置と向きの初期値を取得する。また、制御部11は、各特徴点に対応する3次元点群を作成する。なお、初期化処理では、仮想画像G2が合成表示されてもよいし、この時点では仮想画像G2がまだ合成表示されなくてもよい。
制御部11は、初期化処理を終了すると、計時処理に基づいて、フレームの開始時点になったかを判定する(S3)。各フレームは時間的な長さが決まっているので、S3において、制御部11は、計時処理により取得される現在時点がフレームの開始時点であるかを判定することになる。また、制御部11は、この時点でカウンタ変数iに初期値を設定し、第1表示制御フレーム又は第2表示制御フレームの処理終了時にカウンタ変数iをカウントアップしてよい。なお、制御部11は、以降の処理でも計時処理を継続する。
フレームの開始時点になったと判定された場合(S3;Y)、制御部11は、カウンタ変数iに基づいて、現在のフレームが第1表示制御フレームであるか第2表示制御フレームであるかを判定する(S4)。S4においては、制御部11は、カウンタ変数iをk+1で割った余りが1であれば第1表示制御フレームと判定し、それ以外の場合は第2表示制御フレームと判定する。
第1表示制御フレームであると判定された場合(S4;第1表示制御フレーム)、制御部11は、撮影画像G1の特徴点と、センサ部19の検出信号と、に基づいて、仮想視点VVの位置と向きを決定する(S5)。S5においては、制御部11は、SLAMを利用して撮影部18の位置と姿勢を推定し、推定結果を仮想視点VVの位置と向きに反映させるように、仮想視点パラメータを更新する。
制御部11は、S5の決定結果に基づいて、仮想画像G2を生成する(S6)。S6においては、制御部11は、S5で決定した位置から、S5で決定した向きで、仮想3次元オブジェクトVOを見た様子を示す仮想画像G2を生成する。
制御部11は、S6で生成した仮想画像G2を撮影画像G1に重畳して表示させる(S7)。S7においては、制御部11は、撮影画像G1のレイヤよりも上となるように、仮想画像G2のレイヤを設定する。
一方、S4において、第2表示制御フレームであると判定された場合(S4;第2表示制御フレーム)、制御部11は、仮想画像G2の表示位置近辺の特徴点を抽出する(S8)。S8においては、仮想画像G2が示す仮想3次元オブジェクトVOが表示された領域内又は当該領域から所定距離以内の領域を、特徴点の抽出対象とする。抽出された特徴点は、記憶部12に記録される。
制御部11は、S8で抽出した撮影画像G1の特徴点に基づいて、移動情報を取得する(S9)。S9においては、制御部11は、直近の第1表示制御フレームからの各特徴点の位置変化を示すベクトル情報を移動情報として取得する。
制御部11は、S9で取得した移動情報に基づいて、直近の第1表示制御フレームで生成した仮想画像G2を加工する(S10)。S10においては、図8−15を参照して説明したように、制御部11は、移動情報に関連付けられた加工方法で仮想画像G2を加工する。
制御部11は、S9で取得した移動情報に基づいて、加工した仮想画像G2の表示位置を決定する(S11)。S11においては、図13を参照して説明したように、制御部11は、移動情報に関連付けられた表示位置を取得する。
制御部11は、S11で決定した表示位置に、S10で加工した仮想画像G2を撮影画像G1に重畳して表示させる(S12)。S12においては、制御部11は、撮影画像G1のレイヤよりも上となるように、仮想画像G2のレイヤを設定し、仮想画像G2のレイヤ内において、S11で決定した表示位置に仮想画像G2を表示させる。
制御部11は、所定の条件に基づいて、初期化処理をやり直すか判定する(S13)。初期化処理をやり直すための条件は、予め定められた条件であればよく、例えば、前回の初期化処理から一定時間が経過することであってもよいし、撮影部18の移動量が閾値以上になることであってもよいし、ユーザが所定の操作をすることであってもよい。
初期化処理をやり直すと判定された場合(S13;Y)、S2の処理に戻り、初期化処理が再度実行される。一方、初期化処理をやり直すと判定されない場合(S13;N)、制御部11は、所定の終了条件が満たされたかを判定する(S14)。終了条件は、本処理を終了するために予め定められた条件であればよく、例えば、ユーザが所定の操作をすることであってよい。終了条件が満たされたと判定された場合(S14;Y)、本処理は終了する。一方、終了条件が満たされたと判定されない場合(S14;N)、S3の処理に戻り、次のフレームが待ち受けられる。
以上説明した表示制御装置10によれば、複雑な処理を毎フレーム実行するのではなく、仮想画像G2を加工するという簡易な処理を実行するフレームを間に挟み、複雑な処理を実行するフレームを間引くことで、拡張現実のリアリティを維持しつつ、拡張現実を提供する表示制御装置10の処理負荷を軽減することができる。
また、第1表示制御フレームが複数回繰り返し到来する場合であったとしても、各第1表示制御フレームの後に第2表示制御フレームを設定することで、表示制御装置10の処理負荷を軽減することができる。
また、第2表示制御部122の加工対象となる仮想画像G2を、直近の第1表示制御フレームで生成された仮想画像G2とすることで、撮影部18の現在の位置と向きに最も近い仮想画像G2を加工することになるので、拡張現実のリアリティを効果的に高めることができる。
また、撮影画像G1の特徴点の変化に基づいて移動情報を取得することで、簡易な処理で抽出可能な情報により撮影部18の移動を推定することができるため、表示制御装置10の処理負荷を効果的に軽減することができる。更に、実際に撮影された被写体の特徴点を利用することで、撮影部18の移動の推定精度を高めることもできる。
また、仮想画像G2の表示位置に対応する領域を特徴点の抽出対象とすることで、抽出する特徴点の数を絞ることができ、表示制御装置10の処理負荷を効果的に軽減することができる。更に、仮想画像G2周辺の被写体の変化に合わせて仮想画像G2を加工することができるので、加工後の仮想画像G2の不自然さを軽減し、拡張現実のリアリティを高めることができる。
また、第2表示制御部122が移動情報に基づいて仮想画像G2の表示位置を決定することによって、撮影画像G1上での被写体の移動とともに仮想画像G2も移動させることができるので、仮想3次元オブジェクトVOが現実空間RSの所定位置に存在するかのようなリアリティの高い拡張現実を簡易な処理によって提供することができる。
また、第1表示制御部121がセンサ部19の検出信号に更に基づいて撮影部18の位置と向きを推定することで、撮影部18の位置と向きの推定精度を高めることができる。
また、撮影画像G1がリアルタイムで表示される場合に仮想画像G2が合成表示されることで、ユーザの目の前に仮想3次元オブジェクトVOが存在するかのような拡張現実を提供することができる。
また、部屋の内部が撮影された場合に、家具を示す仮想3次元オブジェクトVOを示す仮想画像G2を重畳表示させることで、実在しない家具が室内に存在するかのような拡張現実を提供する場合の表示制御装置10の処理負荷を軽減することができる。
[5.変形例]
なお、本発明は、以上に説明した実施の形態に限定されるものではない。本発明の趣旨を逸脱しない範囲で、適宜変更可能である。
(1)例えば、実施形態では、撮影画像G1の特徴点の変化に基づいて移動情報が取得されたが、他の情報を移動情報としてもよい。例えば、センサ部19の検出信号を利用すれば、撮影部18の移動を大まかに推定できるので、第2表示制御フレームでは、センサ部19の検出信号を利用して、直近の第1表示制御フレームからの撮影部18の移動を推定し、仮想画像G2を加工してもよい。
本変形例の第2表示制御部122は、撮影部18の位置の変化を検出可能な加速度センサ19Aの検出結果と、撮影部18の向きの変化を検出可能なジャイロセンサ19Bの検出結果の変化と、の少なくとも一方に基づいて移動情報を取得するようにしてもよい。即ち、移動情報は、加速度センサ19Aにより検出された撮影部18の位置変化と、ジャイロセンサ19Bにより検出された撮影部18の向きの変化(姿勢変化)と、の少なくとも一方を含んでもよい。ここでは、移動情報が、これら両方を含む場合を説明するが、何れか一方のみを含んでもよい。
第2表示制御部122は、撮影部18の位置変化と向きの変化に関連付けられた加工方法で仮想画像G2を加工することになる。例えば、第2表示制御部122は、撮影部18が前進したことを移動情報が示す場合、仮想画像G2を拡大させる。また例えば、第2表示制御部122は、撮影部18が後退したことを移動情報が示す場合、仮想画像G2を縮小させる。また例えば、第2表示制御部122は、撮影部18が被写体に対して水平に移動したことを移動情報が示す場合、撮影部18の移動方向に対応する方向に仮想画像G2を移動させる。また例えば、第2表示制御部122は、撮影部18の向きが変わったことを移動情報が示す場合、撮影画像G1の被写体の変形と同様の変形をするように、仮想画像G2を射影変換したりアフィン変換したりする。
変形例(1)によれば、センサ部19の検出信号を利用して仮想画像G2を加工することで、第1表示制御フレームからの撮影部18の移動の推定(即ち、移動情報の取得処理)を、より簡易的な処理とすることができ、表示制御装置10の処理負荷を効果的に軽減することができる。
(2)また例えば、撮影部18の移動方向や移動速度は、それまでの移動方向や移動速度から急激に変わることは少ない。このため、第1表示制御フレームにおける撮影部18の位置と向きの変化から、第2表示制御フレームにおける撮影部18の位置と向きを推定し、仮想画像G2を加工してもよい。
本変形例では、第1表示制御部121は、撮影部18の位置と向きの推定結果の履歴をデータ記憶部100に記録する。例えば、第1表示制御部121は、仮想視点VVの仮想視点パラメータを時系列的にデータ記憶部100に記録する。
第2表示制御部122は、第1表示制御部121による撮影部18の位置と向きの推計結果の変化に基づいて移動情報を取得するようにしてもよい。例えば、第2表示制御部122は、過去の一定期間における仮想視点VVの仮想視点パラメータの時系列的な変化から、直近の第1表示制御フレームからの撮影部18の移動を予想し、移動情報として取得する。
例えば、撮影部18が等速運動をしている場合、第2表示制御部122は、撮影部18がそのまま等速運動を維持しているものとして、移動情報を取得する。また例えば、仮想視点VVが加速している場合、第2表示制御部122は、仮想視点VVがそのままの加速度を維持しているものとして、移動情報を取得する。また例えば、仮想視点VVが減速している場合、第2表示制御部122は、仮想視点VVがそのままの加速度を維持しているものとして、移動情報を取得する。また例えば、仮想視点VVが停止している場合、第2表示制御部122は、仮想視点VVがそのまま停止しているものとして、移動情報を取得する。移動情報が取得された後の仮想画像G2の加工方法は、変形例(1)で説明した方法と同様であってよい。
変形例(2)によれば、撮影部18の移動の履歴から撮影部18の移動を予測することで、第1表示制御フレームからの撮影部18の移動の推定(即ち、移動情報の取得処理)を、より簡易的な処理とすることができ、表示制御装置10の処理負荷を効果的に軽減することができる。
(3)また例えば、各第1表示制御フレームの間に設定される第2表示制御フレームの数は可変であってよく、所定の条件に基づいて、第1表示制御フレームが到来する頻度が変わるようにしてよい。なお、頻度は、単位時間あたりの第1表示制御フレームの数であり、例えば、フレームレートをNfpsとすると、N個のフレームにおける第1表示制御フレームの割合である。
図15は、変形例(3)における機能ブロック図である。図15に示すように、本変形例では、頻度決定部130が実現される。頻度決定部130は、制御部11を主として実現される。頻度決定部130は、所定の条件に基づいて、第1表示制御フレームが到来する頻度を決定する。所定の条件とは、予め定められた条件であればよく、例えば、ユーザの操作に関する条件、現在の処理負荷に関する条件、表示制御装置10の性能に関する条件、撮影部18の移動に関する条件、又は仮想3次元オブジェクトVOに関する条件などであってよい。
所定の条件と第1表示制御フレームの頻度との関係は、数式形式又はテーブル形式でデータ記憶部100に記憶されていてもよいし、プログラムコードの一部として記述されているようにしてもよい。頻度決定部130は、所定の条件が満たされるか否かを判定し、満たされる条件に関連付けられた頻度を設定する。表示制御部120は、頻度決定部130が決定した頻度に基づいて、第1表示制御フレームと第2表示制御フレームの繰り返しパターンを決定し、現在のフレームが第1表示制御フレームであるか第2表示制御フレームであるかを判定する。
例えば、ユーザの操作に関する条件であれば、頻度決定部130は、ユーザが指定した頻度となるように、第1表示制御フレームの頻度を決定する。この場合、ユーザは、単位時間当たりの第1表示制御フレームの頻度を示す数値を指定可能であってもよいし、複数段階の頻度の中から所望の頻度を指定可能であってもよい。
また例えば、現在の処理負荷に関する条件であれば、頻度決定部130は、現在の処理負荷が高いほど第1表示制御フレームの頻度を低くし、現在の処理負荷が低いほど第1表示制御フレームの頻度を高くする。処理負荷は、例えば、CPU使用率であってもよいし、メモリ使用率であってもよい。頻度決定部130は、所定のコマンド(例えば、typeperfコマンドやvmstatコマンドなど)を実行することで処理負荷を取得すればよい。
また例えば、表示制御装置10の性能に関する条件であれば、頻度決定部130は、表示制御装置10の性能が高いほど第1表示制御フレームの頻度を高くし、性能が低いほど第1表示制御フレームの頻度を低くする。表示制御装置10の性能は、例えば、CPUのクロック数又はキャッシュであってもよいし、メモリの種類であってもよい。
また例えば、撮影部18の移動に関する条件であれば、頻度決定部130は、撮影部18の移動量が大きいほど第1表示制御フレームの頻度を高くし、移動量が小さいほど第1表示制御フレームの頻度を低くする。撮影部18の移動量は、移動距離であってもよいし移動速度であってもよい。撮影部18の移動量は、実施形態で説明したように、センサ部19の検出信号に基づいて取得されてもよいし、撮影画像G1の特徴点の変化に基づいて取得されてもよい。
また例えば、仮想3次元オブジェクトVOに関する条件であれば、例えば、頻度決定部130は、仮想3次元オブジェクトVOの頂点数が少ないほど第1表示制御フレームの頻度を高くし、頂点数が多いほど第1表示制御フレームの頻度を低くする。また例えば、仮想空間VSに複数の仮想3次元オブジェクトVOを配置可能とする場合には、頻度決定部130は、仮想3次元オブジェクトVOの数が多いほど第1表示制御フレームの頻度を低くし、数が少ないほど第1表示制御フレームの頻度を高くする。またこれとは逆に、頻度決定部130は、仮想3次元オブジェクトVOの数が少ないほど第1表示制御フレームの頻度を高くし、数が多いほど第1表示制御フレームの頻度を低くしてもよい。
変形例(3)によれば、所定の条件に応じた頻度の第1表示制御フレームが設定されるので、表示制御装置10の処理負荷の軽減と、拡張現実のリアリティの向上と、のバランスをより良いものとすることができる。
(4)また例えば、仮想空間VSには、複数の仮想3次元オブジェクトが配置されるようにしてもよく、仮想3次元オブジェクトVOごとに、第1表示制御フレームが到来する頻度が可変であってもよい。
図16は、変形例(4)の処理内容の説明図である。図16に示す例では、本棚を示す仮想3次元オブジェクトVO1と、机を示す仮想3次元オブジェクトVO2と、が仮想空間VSに配置されている。図16に示すように、仮想3次元オブジェクトVO1は、仮想3次元オブジェクトVO2よりも仮想視点VVから遠い位置に配置されている。
例えば、第1表示制御部121は、仮想3次元オブジェクトVOごとに、仮想画像G2を生成するようにしてよい。このため、図16の例では、第1表示制御部121は、仮想3次元オブジェクトVO1の仮想画像G2と、仮想3次元オブジェクトVO2の仮想画像G2と、を生成するようにしてよい。仮想画像G2とG3は、同じレイヤであってもよいし、異なるレイヤであってもよい。ただし、仮想画像G2とG3の各々のレイヤは、撮影画像G1のレイヤよりも上であるものとする。
また例えば、第2表示制御部122は、仮想3次元オブジェクトVOごとに生成された仮想画像G2を加工し、撮影画像G1と合成して表示させる。仮想画像G2の加工方法や撮影画像G1との合成方法自体は、実施形態で説明した方法と同様であってよい。
変形例(4)の頻度決定部130は、仮想3次元オブジェクトVOごとに、当該仮想3次元オブジェクトVOの位置に基づいて、第1表示制御フレームが到来する頻度を決定する。例えば、頻度決定部130は、仮想3次元オブジェクトVOと仮想視点VVとの距離が短いほど第1表示制御フレームの頻度を高くし、距離が長いほど第1表示制御フレームの頻度を低くする。図16の例では、頻度決定部130は、仮想3次元オブジェクトVO1の第1表示制御フレームの頻度を、仮想3次元オブジェクトVO2の第2表示制御フレームの頻度よりも低く設定する。表示制御部120は、仮想3次元オブジェクトVOごとに、頻度決定部130が決定した頻度に基づいて、現在のフレームが第1表示制御フレームであるか第2表示制御フレームであるかを判定することになる。
変形例(4)によれば、仮想3次元オブジェクトVOの位置に基づいて第1表示制御フレームの頻度が可変になるので、仮想視点VVとの距離が近く、形状の変化が出やすく被写体とのずれが分かりやすい場合には、精度の高い処理を頻繁に実行し、仮想視点VVとの距離が遠く、形状の変化が出にくく被写体とのずれが分かりにくい場合には精度の高い処理を間引いて簡易な処理を実行することができる。その結果、表示制御装置10の処理負荷の軽減と、拡張現実のリアリティの向上と、のバランスをより良いものとすることができる。
(5)また例えば、仮想画像G2は、撮影画像G1と同じサイズでなくてもよく、撮影画像G1よりも小さくてもよいし大きくてもよい。本変形例の第1表示制御部121は、撮影画像G1よりも大きい仮想画像G2を生成する。仮想画像G2は、撮影画像G1を含むことが可能なサイズであってよい。
第2表示制御部122は、第1表示制御部121による表示制御では表示されなかった仮想画像G2の部分を加工して表示可能である。例えば、第2表示制御部122は、仮想画像G2を縮小したり移動したりすることによって、それまでは表示されなかった領域を、撮影画像G1と合成して表示可能である。
例えば、撮影部18が上方向を向いた場合には、第2表示制御部122は、仮想画像G2を下方向に移動させることによって、仮想画像G2のうち、それまでは表示されていなかった上側の領域を表示させる。同様に、撮影部18が下方向、右方向、又は左方向を向いた場合には、第2表示制御部122は、仮想画像G2を上方向、左方向、又は右方向に移動させることによって、仮想画像G2のうち、それまでは表示されていなかった領域を表示させる。
変形例(5)によれば、撮影部18が移動し、それまで撮影されていなかった部分が撮影画像G1に撮影されたとしても、第1表示制御フレームでは表示されなかった仮想画像G2の部分を簡易な処理で表示可能になるので、表示制御装置10の処理負荷を軽減しつつ、拡張現実のリアリティを効果的に高めることができる。
(6)また例えば、実施形態では、撮影部18の位置と向きを推定するためにセンサ部19を利用する場合を説明したが、特にセンサ部19は利用しなくてもよい。また例えば、センサ部19の検出結果は、第1表示制御フレームで毎回利用してもよいし、初期化処理時のみだけで利用して第1表示制御フレームでは利用しなくてもよい。また、1台の撮影部18(単眼カメラ)が利用される場合を説明したが、複数の撮影部18(複眼カメラ)を利用してもよいし、深度センサを含んだ撮影部18(RGB−Dカメラ)を利用してもよい。深度センサは、被写体との距離を検出可能なセンサであればよく、例えば、赤外線や超音波を利用した方式であってよい。深度センサを含んだ撮影部18によれば、特徴点との距離を直接的に計算可能となる。
また例えば、実施形態では、第1表示制御部121が仮想視点VVの位置と向きが調整する場合を説明したが、仮想3次元オブジェクトVOに対する仮想視点VVの相対位置を調整すればよく、仮想3次元オブジェクトVOの位置と向きを変えてもよい。即ち、第1表示制御部121は、仮想視点VVの位置と向きを変えずに、仮想3次元オブジェクトVOを移動させたり回転したりしてもよい。他にも例えば、第1表示制御部121は、仮想視点VVと仮想3次元オブジェクトVOの両方の位置と向きを変えてもよい。
また例えば、現実空間RSは、任意の空間であればよく、実施形態で説明した室内に限られない。現実空間RSは、屋外であってもよく、例えば、イベント会場、駐車場、又は競技場などであってよい。また例えば、仮想3次元オブジェクトVOは、拡張現実における合成対象となる3次元モデルであればよく、実施形態で説明した家具に限られない。仮想3次元オブジェクトは、屋外に配置される物体を示してもよく、例えば、車やバイクなどの乗物、人や動物などのキャラクタ、洋服や靴などの衣類、木や草などの植物、塀、又は看板などであってよい。また例えば、仮想3次元オブジェクトは、動かない物体に限られず、動く物体であってもよい。この場合、仮想3次元オブジェクトの各頂点の変化を定義したモーションデータがデータ記憶部に記憶されており、表示制御部120は、モーションデータを再生することで仮想3次元オブジェクトを動かせばよい。
また例えば、表示制御装置10に撮影部18が含まれている必要はなく、撮影画像取得部110は、表示制御装置10に含まれない撮影部18で撮影された撮影画像G1を取得してもよい。この場合、センサ部19は、表示制御装置10に含まれておらず、撮影部18の筐体に含まれるようにしてよい。また例えば、表示制御装置10は、サーバコンピュータで実現されてもよく、この場合には、表示制御装置10は表示部15を含まず、ネットワークを介して接続された端末の表示部に撮影画像G1と仮想画像G2を合成して表示させるようにしてもよい。

Claims (16)

  1. 現実空間で移動可能な撮影手段が所定のフレームレートで撮影した撮影画像を取得する取得手段と、
    前記撮影画像に基づいて前記撮影手段の現在の位置と向きを推定し、推定結果に基づく仮想視点から仮想3次元オブジェクトを見た様子を示す仮想画像を、前記撮影画像と合成して表示させる第1表示制御手段と、
    前記第1表示制御手段が表示制御をした後のフレームにおいて、前記撮影手段の移動に関する移動情報に基づいて前記仮想画像を加工し、前記撮影画像と合成して表示させる第2表示制御手段と、
    を含むことを特徴とする表示制御装置。
  2. 前記第1表示制御手段が表示制御をするフレームである第1表示制御フレームは、複数回繰り返し到来し、
    各第1表示制御フレームの後には、前記第2表示制御手段が表示制御をするフレームである第2表示制御フレームが少なくとも1つ設定される、
    ことを特徴とする請求項1に記載の表示制御装置。
  3. 前記第2表示制御手段は、前記複数回繰り返し到来する前記第1表示制御フレームのうち、直近の前記第1表示制御フレームからの前記撮影手段の移動に関する前記移動情報に基づいて、当該直近の第1表示制御フレームで生成された前記仮想画像を加工する、
    ことを特徴とする請求項2に記載の表示制御装置。
  4. 前記第2表示制御手段は、前記撮影画像の特徴点の変化に基づいて前記移動情報を取得する、
    ことを特徴とする請求項1〜3の何れかに記載の表示制御装置。
  5. 前記第2表示制御手段は、前記撮影画像のうち、前記仮想画像の表示位置に対応する領域を前記特徴点の抽出対象とする、
    ことを特徴とする請求項4に記載の表示制御装置。
  6. 前記第2表示制御手段は、前記撮影手段の位置の変化を検出可能なセンサの検出結果と、前記撮影手段の向きの変化を検出可能なセンサの検出結果と、の少なくとも一方に基づいて前記移動情報を取得する、
    ことを特徴とする請求項1〜5の何れかに記載の表示制御装置。
  7. 前記第1表示制御手段が表示制御をするフレームである第1表示制御フレームは、複数回繰り返し到来し、
    各第1表示制御フレームの後には、前記第2表示制御手段が表示制御をするフレームである第2表示制御フレームが少なくとも1つ設定され、
    前記第2表示制御手段は、前記第1表示制御手段による前記撮影手段の位置と向きの推計結果の変化に基づいて前記移動情報を取得する、
    ことを特徴とする請求項1〜6の何れかに記載の表示制御装置。
  8. 前記第2表示制御手段は、前記移動情報に基づいて、加工した前記仮想画像の表示位置を更に決定し、当該表示位置に、加工した前記仮想画像を表示させる、
    ことを特徴とする請求項1〜7の何れかに記載の表示制御装置。
  9. 前記第1表示制御手段は、前記撮影手段の位置の変化を検出可能なセンサの検出結果と、前記撮影手段の向きの変化を検出可能なセンサの検出結果と、の少なくとも一方に更に基づいて、前記撮影手段の現在の位置と向きを推定する、
    ことを特徴とする請求項1〜8の何れかに記載の表示制御装置。
  10. 前記取得手段は、前記撮影手段により撮影された前記撮影画像をリアルタイムで取得し、
    前記第1表示制御手段は、リアルタイムで取得された前記撮影画像と前記仮想画像とを合成して表示させ、
    前記第2表示制御手段は、リアルタイムで取得された前記撮影画像と、加工した前記仮想画像と、を合成して表示させる、
    ことを特徴とする請求項1〜9の何れかに記載の表示制御装置。
  11. 前記第1表示制御手段が表示制御をするフレームである第1表示制御フレームは、複数回繰り返し到来し、
    各第1表示制御フレームの後には、前記第2表示制御手段が表示制御をするフレームである第2表示制御フレームが少なくとも1つ設定され、その数は可変であり、
    前記表示制御装置は、所定の条件に基づいて、前記第1表示制御フレームが到来する頻度を決定する決定手段、
    を更に含むことを特徴とする請求項1〜10の何れかに記載の表示制御装置。
  12. 想空間には、複数の前記仮想3次元オブジェクトが配置され、
    前記仮想3次元オブジェクトごとに、前記第1表示制御フレームが到来する頻度が可変であり、
    前記決定手段は、前記仮想3次元オブジェクトごとに、当該仮想3次元オブジェクトの位置に基づいて、前記第1表示制御フレームが到来する頻度を決定する、
    ことを特徴とする請求項11に記載の表示制御装置。
  13. 前記第1表示制御手段は、前記撮影画像よりも大きい前記仮想画像を生成し、
    前記第2表示制御手段は、前記第1表示制御手段による表示制御では表示されなかった前記仮想画像の部分を加工して表示可能である、
    ことを特徴とする請求項1〜12の何れかに記載の表示制御装置。
  14. 前記現実空間は、部屋の内部であり、
    前記撮影画像には、前記部屋の内部の様子が撮影されており、
    前記仮想3次元オブジェクトは、仮想的な家具であり、
    前記仮想画像は、前記仮想視点から前記仮想的な家具を見た様子を示す画像である、
    ことを特徴とする請求項1〜13の何れかに記載の表示制御装置。
  15. 現実空間で移動可能な撮影手段が所定のフレームレートで撮影した撮影画像を取得する取得ステップと、
    前記撮影画像に基づいて前記撮影手段の現在の位置と向きを推定し、推定結果に基づく仮想視点から仮想3次元オブジェクトを見た様子を示す仮想画像を、前記撮影画像と合成して表示させる第1表示制御ステップと、
    前記第1表示制御ステップで表示制御が行われた後のフレームにおいて、前記撮影手段の移動に関する移動情報に基づいて前記仮想画像を加工し、前記撮影画像と合成して表示させる第2表示制御ステップと、
    を含むことを特徴とする表示制御方法。
  16. 現実空間で移動可能な撮影手段が所定のフレームレートで撮影した撮影画像を取得する取得手段、
    前記撮影画像に基づいて前記撮影手段の現在の位置と向きを推定し、推定結果に基づく仮想視点から仮想3次元オブジェクトを見た様子を示す仮想画像を、前記撮影画像と合成して表示させる第1表示制御手段、
    前記第1表示制御手段が表示制御をした後のフレームにおいて、前記撮影手段の移動に関する移動情報に基づいて前記仮想画像を加工し、前記撮影画像と合成して表示させる第2表示制御手段、
    としてコンピュータを機能させるためのプログラム。
JP2019508457A 2017-03-29 2017-03-29 表示制御装置、表示制御方法、及びプログラム Active JP6621565B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/013040 WO2018179176A1 (ja) 2017-03-29 2017-03-29 表示制御装置、表示制御方法、及びプログラム

Publications (2)

Publication Number Publication Date
JPWO2018179176A1 JPWO2018179176A1 (ja) 2019-11-07
JP6621565B2 true JP6621565B2 (ja) 2019-12-18

Family

ID=63674756

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019508457A Active JP6621565B2 (ja) 2017-03-29 2017-03-29 表示制御装置、表示制御方法、及びプログラム

Country Status (5)

Country Link
US (1) US11308705B2 (ja)
EP (1) EP3591623A4 (ja)
JP (1) JP6621565B2 (ja)
CN (1) CN110520904B (ja)
WO (1) WO2018179176A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4083928A4 (en) * 2019-12-24 2023-10-04 Vega Corporation Co., Ltd. DEVICE, SYSTEM, METHOD AND PROGRAM FOR PROVIDING INFORMATION
EP4083929A4 (en) * 2019-12-24 2023-10-04 Vega Corporation Co., Ltd. DEVICE, SYSTEM, METHOD AND PROGRAM FOR PROVIDING INFORMATION

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10726814B2 (en) * 2017-01-27 2020-07-28 Canon Kabushiki Kaisha Image display apparatus, image processing apparatus, image display method, image processing method, and storage medium

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7614954B2 (en) * 2002-11-20 2009-11-10 Sega Corporation Game image display control program, game device, and recoding medium
JP2011159163A (ja) 2010-02-02 2011-08-18 Sony Corp 画像処理装置、画像処理方法及びプログラム
JP5480777B2 (ja) * 2010-11-08 2014-04-23 株式会社Nttドコモ オブジェクト表示装置及びオブジェクト表示方法
JP5734700B2 (ja) * 2011-02-24 2015-06-17 京セラ株式会社 携帯情報機器および仮想情報表示プログラム
JP5838747B2 (ja) * 2011-11-11 2016-01-06 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
US20130215230A1 (en) * 2012-02-22 2013-08-22 Matt Miesnieks Augmented Reality System Using a Portable Device
WO2014160342A1 (en) * 2013-03-13 2014-10-02 The University Of North Carolina At Chapel Hill Low latency stabilization for head-worn displays
US20150092048A1 (en) * 2013-09-27 2015-04-02 Qualcomm Incorporated Off-Target Tracking Using Feature Aiding in the Context of Inertial Navigation
EP3160138B1 (en) * 2014-06-20 2021-03-17 Clarion Co., Ltd. Image synthesis system, image synthesis device therefor, and image synthesis method
EP3729376A4 (en) * 2017-12-22 2021-01-20 Magic Leap, Inc. PROCESS OF RENDERING OF OCCLUSION USING A RAY THROWING AND ACTUAL DEPTH

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4083928A4 (en) * 2019-12-24 2023-10-04 Vega Corporation Co., Ltd. DEVICE, SYSTEM, METHOD AND PROGRAM FOR PROVIDING INFORMATION
EP4083929A4 (en) * 2019-12-24 2023-10-04 Vega Corporation Co., Ltd. DEVICE, SYSTEM, METHOD AND PROGRAM FOR PROVIDING INFORMATION

Also Published As

Publication number Publication date
JPWO2018179176A1 (ja) 2019-11-07
WO2018179176A1 (ja) 2018-10-04
CN110520904A (zh) 2019-11-29
US20200027281A1 (en) 2020-01-23
US11308705B2 (en) 2022-04-19
CN110520904B (zh) 2023-07-25
EP3591623A4 (en) 2020-11-04
EP3591623A1 (en) 2020-01-08

Similar Documents

Publication Publication Date Title
US10521085B2 (en) Image processing device, image processing method, and program for displaying an image in accordance with a selection from a displayed menu and based on a detection by a sensor
CN106062821B (zh) 用于不受限制的slam的基于传感器的相机运动检测
JP6329343B2 (ja) 画像処理システム、画像処理装置、画像処理プログラム、および画像処理方法
JP3847753B2 (ja) 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス
JP7349793B2 (ja) 画像処理装置および画像処理方法、プログラム
US20120120113A1 (en) Method and apparatus for visualizing 2D product images integrated in a real-world environment
KR20170031733A (ko) 디스플레이를 위한 캡처된 이미지의 시각을 조정하는 기술들
US20170316582A1 (en) Robust Head Pose Estimation with a Depth Camera
TWI701941B (zh) 圖像處理方法及裝置、電子設備及儲存介質
KR101212636B1 (ko) 증강 현실에서 위치 정보를 표시하는 방법 및 장치
JP6621565B2 (ja) 表示制御装置、表示制御方法、及びプログラム
JP2016511850A (ja) プレノプティックライトフィールドに対しアノテーションを付加するための方法および装置
CN111373347A (zh) 虚拟现实内容的提供
US11138743B2 (en) Method and apparatus for a synchronous motion of a human body model
WO2017041740A1 (en) Methods and systems for light field augmented reality/virtual reality on mobile devices
US11275434B2 (en) Information processing apparatus, information processing method, and storage medium
JP4689548B2 (ja) 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス
CN113228117A (zh) 创作装置、创作方法和创作程序
TW201928761A (zh) 影像擷取之設備及方法
WO2014008438A1 (en) Systems and methods for tracking user postures and motions to control display of and navigate panoramas
JP7175715B2 (ja) 情報処理装置、情報処理方法及びプログラム
WO2019242634A1 (zh) 虚拟对象的增强现实显示方法和设备
CN117940963A (zh) 显示装置、显示装置的控制方法以及程序
JP2023026244A (ja) 画像生成装置および画像生成方法、プログラム
JP4767331B2 (ja) 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190528

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20190528

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20190724

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190827

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190830

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191112

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191119

R150 Certificate of patent or registration of utility model

Ref document number: 6621565

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250