JP3848092B2 - Image processing apparatus and method, and program - Google Patents

Image processing apparatus and method, and program Download PDF

Info

Publication number
JP3848092B2
JP3848092B2 JP2001071120A JP2001071120A JP3848092B2 JP 3848092 B2 JP3848092 B2 JP 3848092B2 JP 2001071120 A JP2001071120 A JP 2001071120A JP 2001071120 A JP2001071120 A JP 2001071120A JP 3848092 B2 JP3848092 B2 JP 3848092B2
Authority
JP
Japan
Prior art keywords
video
image
line
real
sight
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2001071120A
Other languages
Japanese (ja)
Other versions
JP2002269593A (en
Inventor
泰弘 奥野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2001071120A priority Critical patent/JP3848092B2/en
Publication of JP2002269593A publication Critical patent/JP2002269593A/en
Application granted granted Critical
Publication of JP3848092B2 publication Critical patent/JP3848092B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Controls And Circuits For Display Device (AREA)
  • Processing Or Creating Images (AREA)
  • Studio Circuits (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Description

【0001】
【産業上の利用分野】
本発明は、画像処理装置及び方法、並びにプログラムに関し、特に、現実空間の映像と、3次元的にモデリングされたコンピュータグラフィックス(以下「CG」という。)によって生成された映像とを重畳し、且つ両者の映像を位置合わせしつつ表示することができる画像処理装置及び方法、並びにプログラムに関する。
【0002】
【従来の技術】
従来、現実空間の映像と、三次元モデリングされたCG映像によって生成された映像とを重畳し、且つ両者の映像を位置合わせしつつ表示して、あたかも現実の世界の中にCGで描かれた物体(仮想物体)が存在しているかのように見せることができる複合現実感提示装置がある。この装置は、現実の映像を撮影するための現実映像撮影手段(例えば、ビデオカメラ)と、現実の映像を撮影している位置から見たようにCG映像を作り出すCG映像生成手段と、両者を合成して表示することのできる映像表示手段(例えば、ヘッドマウントディスプレイ(HMD)又はモニタ)から成る。ここで、映像表示手段は、現実映像撮影手段の視線位置が変わってもCG映像と現実の映像を正しい位置関係で表示するようになっており、現実映像撮影手段は、視線位置や視線方向を検出するための視線位置姿勢検出手段(例えば、位置姿勢センサ)を備えている。
【0003】
CG映像生成手段は、三次元モデリングされたCG映像を現実空間と同じスケールの仮想空間に置き、視線位置姿勢検出手段によって検出された視線位置や視線方向から観察されたものとしてCG映像をレンダリングする。このようにして生成されたCG映像と現実の映像とを重畳すると、結果として、現実映像撮影手段がどの視線位置や視線方向から観察した場合でも、現実空間の中に正しくCG映像の対象が置かれているような映像を表示することができる。
【0004】
また、CG映像を出現させたい場所にもさらなる位置姿勢検出装置を取り付け、そこから得られた位置にCG映像を出現させることも行われている。例えば、手に位置姿勢検出装置(位置姿勢センサ)を取り付け、そのセンサの位置にCG映像を生成することによって、あたかも手の上に常にCG映像の対象が乗っているように、即ち手をどのように動かしても手の上にCG映像が乗っているような映像を表示することができる。
【0005】
現実空間の撮影対象を撮影する現実映像撮影手段としてのビデオカメラは、その視線方向にある映像を撮影し、撮影された映像データはメモリ中にキャプチャするようになっている。
【0006】
現実の映像とCG映像とを合成して表示する映像表示装置としては、例えばHMDが用いられる。通常のモニタでなくHMDを用いて、さらに上記ビデオカメラをHMDの視線方向に装着することで、観察者が向いている方向の映像をHMDに映し出すことができ、かつ、観察者がその方向を向いたときのCG映像の表示も行えるため、観察者の没入感を高めることができる。
【0007】
位置姿勢検出手段としては、磁気方式による位置姿勢センサなどが用いられ、これを上記ビデオカメラ、又はビデオカメラが取り付けられているHMDに取り付ることによって、ビデオカメラの視線の位置姿勢の値を検出する。磁気方式の位置姿勢センサとは、磁気発生装置(発信機)と磁気センサ(受信機)との間の相対位置及び姿勢を検出するものであり、米国ポヒマス(PolhemuS)社の製品FASTRAKなどがあげられる。これは特定の領域内で、センサの3次元位置(X,Y,Z)と姿勢(ローリング、ピッチング、ヨーイング)をリアルタイムに検出する装置である。
【0008】
上記の構成により、観察者は、HMDを通じて現実の映像とCG映像が重畳された世界を観察することができるようになる。観察者が周囲を見回すと、HMDに備え付けられた現実映像撮影装置(ビデオカメラ)が現実の映像を撮影し、HMDに備え付けられた視線位置姿勢検出手段(位置姿勢センサ)がビデオカメラの位置視線方向を検出し、これに応じてCG映像生成手段がその視線位置・姿勢から見たCG映像を生成し、これを現実の映像に重畳して表示する。
【0009】
また、観察者を複数設けることも可能である。現実空間を撮影するビデオカメラと表示装置(HMD等)、位置姿勢センサを観察者数だけ用意し、夫々の観察者の視点から現実空間の撮影して現実の映像とCG映像の生成を行い、これらを合成して、夫々の観察者に表示すればよい。
【0010】
【発明が解決しようとしている課題】
しかしながら、上記従来の複合現実感提示装置では、視線位置や視線方向(姿勢)を検出するための視線位置姿勢センサから得られる値に基づいてCG映像をレンダリングしており、これらの値に誤差があると、生成されるすべてのCG映像の位置がずれて、誤差の分だけずれた位置や方向から見たCG映像が生成される。
【0011】
また、視線位置姿勢センサに誤差が少ない状態であっても、CG映像を出現させたい場所を検出するために設置したCG映像位置姿勢センサに誤差があると、その位置に出現させようとしたCG映像の位置や方向がずれる。
【0012】
このような位置姿勢センサから得られる値には、一般的に多かれ少なかれ誤差が含まれ、例えば、磁気方式による位置姿勢センサは、位置姿勢が検出できる領域が磁気発信機を中心とした空間領域に限られており、さらにその領域の中であっても、磁気発信機から受信機(センサ)が離れるほど検出誤差が大きい。そのため、観察位置、即ち現実映像を撮影するためのカメラの位置が発信機の位置から遠くなればなるほど、その位置姿勢センサは発信機から遠くなり、結果として視線位置姿勢の値に誤差が多くなる。CG映像を出現させる位置に位置姿勢センサを置いている場合は、観察者位置が発信機の位置に近くて誤差が少ない範囲から観察しているとしても、CG映像を出現させる位置が発信機位置から遠くなると位置姿勢センサの誤差が大きくなり、結果としてCG映像が現れる位置にずれが生じる。
【0013】
従来の複合現実感提示装置では、観察者の移動やCG映像位置の移動によって位置姿勢センサの誤差が大きくなったときでもCG映像描画を行ってしまうため、センサの誤差によってCG映像と現実空間の位置あわせがずれてしまったような、例えば、手の上にあるように計画されたCG映像表示が、手の上でないところに表示されるような不自然な映像であってもそのまま表示してしまうという問題がある。現実空間との位置あわせが不要バーチャルリアリティ(Virtual Riality)システム(現実の映像がなく、CG映像のみを表示するシステム)の場合は、少々の誤差があってもさほど不自然でないため大きな問題とならないが、複合現実感システムの場合は現実物体との高精度の位置あわせを必要とするため、位置姿勢センサの有効測定領域内で生じるような少々の誤差であっても映像が不自然になってしまい、実用に耐えなくなる場合がある。
【0014】
また、例えば、視線位置に誤差がある場合はCG映像すべての位置あわせに誤差が出るが、CG映像位置姿勢に誤差がある場合はそのCG映像の描画に誤差が出るだけであるように、CG映像の位置姿勢センサに誤差が大きくなった場合と、視線位置姿勢センサの誤差が大きくなった場合とでは、発生する現象が異なり、夫々の場合に好適な対処をするシステムは存在しない。
【0015】
本発明の目的は、不自然な映像の表示を防止することができる画像処理装置及び方法、並びにプログラムを提供することにある。
【0016】
【課題を解決するための手段】
上記目的を達成するために、請求項1記載の画像処理装置は、所定の視線位置で現実の映像を取得する現実映像撮影手段と、前記所定の視線位置を検出する視線位置検出手段と、前記検出された視線位置に応じたCG映像を生成するCG映像生成手段と、前記生成されたCG映像を前記取得された現実映像に重畳して表示装置に表示する映像表示手段とを備える画像処理装置において、複数の位置で囲まれる前記視線位置の有効領域を設定する有効視線位置領域設定手段と、前記検出された視線位置が前記複数の位置で囲まれる前記視線位置の有効領域内にあるか否かを判別する判別手段とを備え、前記映像表示手段は、前記検出された視線位置が前記複数の位置で囲まれる前記視線位置の有効領域内にないときは、前記CG映像を前記現実映像に重畳せず、前記現実映像のみを表示することを特徴とする。
【0017】
請求項2記載の画像処理装置は、請求項1記載の画像処理装置において、前記CG映像位置の有効領域を設定する有効CG映像位置領域設定手段と、前記重畳すべきCG映像の位置を検出するCG映像位置検出手段と、前記検出されたCG映像の位置が前記設定されたCG映像位置の有効領域内にあるか否かを判別する他の判別手段とを備え、前記映像表示手段は、前記検出されたCG映像の位置が前記設定されたCG映像位置の有効領域内にないときは、当該検出されたCG映像を前記現実映像に重畳せず、前記現実映像のみを表示することを特徴とする。
【0018】
上記目的を達成するために、請求項3記載の画像処理方法は、所定の視線位置で現実の映像を取得する現実映像撮影工程と、前記所定の視線位置を検出する視線位置検出工程と、前記検出された視線位置に応じたCG映像を生成するCG映像生成工程と、前記生成されたCG映像を前記取得された現実映像に重畳して表示装置に表示する映像表示工程とを備える画像処理方法において、複数の位置で囲まれる前記視線位置の有効領域を設定する有効視線位置領域設定工程と、前記検出された視線位置が前記複数の位置で囲まれる前記視線位置の有効領域内にあるか否かを判別する判別工程とを備え、前記映像表示工程は、前記検出された視線位置が前記複数の位置で囲まれる前記視線位置の有効領域内にないときは、前記CG映像を前記現実映像に重畳せず、前記現実映像のみを表示することを特徴とする。
【0019】
請求項4記載の画像処理方法は、請求項3記載の画像処理方法において、前記CG映像位置の有効領域を設定する有効CG映像位置領域設定工程と、前記重畳すべきCG映像の位置を検出するCG映像位置検出工程と、前記検出されたCG映像の位置が前記設定されたCG映像位置の有効領域内にあるか否かを判別する他の判別工程とを備え、前記映像表示工程は、前記検出されたCG映像の位置が前記設定されたCG映像位置の有効領域内にないときは、当該検出されたCG映像を前記現実映像に重畳せず、前記現実映像のみを表示することを特徴とする。
【0020】
上記目的を達成するために、請求項5記載のプログラムは、コンピュータに画像処理方法を実行させるためのプログラムにおいて、所定の視線位置で現実の映像を取得する現実映像撮影モジュールと、前記所定の視線位置を検出する視線位置検出モジュールと、前記検出された視線位置に応じたCG映像を生成するCG映像生成モジュールと、前記生成されたCG映像を前記取得された現実映像に重畳して表示装置に表示する映像表示モジュールと、複数の位置で囲まれる前記視線位置の有効領域を設定する有効視線位置領域設定モジュールと、前記検出された視線位置が前記複数の位置で囲まれる前記視線位置の有効領域内にあるか否かを判別する判別モジュールとを備え、前記映像表示モジュールは、前記検出された視線位置が前記複数の位置で囲まれる前記視線位置の有効領域内にないときは、前記CG映像を前記現実映像に重畳せず、前記現実映像のみを表示することを特徴とする。
【0021】
【発明の実施の形態】
以下、本発明の実施の形態に係る画像処理(複合現実感提示)装置を図を用いて詳述する。
【0022】
図1は、本発明の実施の形態に係る画像処理(複合現実感提示)装置の概略構成を示すブロック図である。
【0023】
図1において、本発明の実施の形態に係る複合現実感提示装置は、CPU101、メモリ103、メモリ104、位置姿勢センサ本体105a、ヘッドマウントディスプレイ(HMD)106、及びビデオカメラ107を有し、これらは計算機バス102を介して互いに接続されている。また、位置姿勢センサ本体105aには、位置姿勢センサ105b,105c,105dが接続され、これらのうち、位置姿勢センサ105bはビデオカメラ107の視線位置姿勢を検出するためにHMD106に取付けられている。位置姿勢センサ105c,105dはどちらもCG映像位置姿勢検出用のものである。
【0024】
メモリ103とメモリ104とはハード構成を同じくするが、メモリ103は、後述する図2の処理を実行するプログラムとして、視線位置姿勢検出モジュール110、現実映像モジュール111、視線位置有効判定モジュール112、CG映像位置姿勢検出モジュール113、CG映像位置有効判定モジュール114、CG映像生成モジュール115、映像表示モジュール116、有効視線位置領域設定モジュール117、及び有効CG映像位置領域設定モジュール118を格納しており、メモリ104は、上記プログラム中で使用されるデータ領域として、センサ有効領域中心データ領域120、映像メモリ領域121、視線位置姿勢データ領域122、CG映像位置姿勢データ領域123、有効視線位置データ領域124、有効CG映像位置データ領域125、視線位置距離データ領域126、CG映像位置距離データ領域127を有する。
【0025】
図2は、図1の複合現実感提示装置によって実行される映像表示処理のフローチャートである。
【0026】
図2において、まず、視線位置姿勢検出モジュール110によって、従来から用いられている技術、例えば磁気センサ等を用いてビデオカメラ107の視線の3次元位置(X,Y,Z)及び姿勢(ローリング、ピッチング、ヨーイング)を検出して、ビデオカメラ107の位置及び姿勢データをメモリ104の視線位置姿勢データ領域122に書き込み(ステップS201)、次いで、現実映像撮影モジュール111によって、ビデオカメラ107で撮影された映像をキャプチャし、現実空間の映像(現実の映像)をメモリ104の映像メモリ領域121に書き込む(ステップS202)。
【0027】
続くステップS203では、後述する図3の視線位置有効判定モジュール112によって、検出されたビデオカメラ107の視線位置が有効領域内にあるか否かを判別し、視線位置が有効領域内にあるときは、ステップS204に進み、CG用の位置姿勢センサの数を数えるための正の整数からなる変数Nを1に初期化する(ステップS204)。本実施の形態では、位置姿勢センサの数は、位置姿勢センサ105c,105dの2つである。
【0028】
次いで、CG映像位置姿勢検出モジュール113によって、位置姿勢センサ105c,105dを用いて第N番目のCG映像を表示すべき位置姿勢を検出し、メモリ104中のCG映像位置姿勢データ領域123に格納する(ステップS205)。CG映像位置姿勢検出モジュール113は前述した視線位置姿勢検出モジュール110と構成が同じである。
【0029】
ステップS206では、後述する図4のCG映像位置有効判定モジュール114によって、検出されたCG映像位置が有効領域内にあるか否かを判別し、CG映像位置が有効領域内にあるときは、CG映像生成モジュール115によって、視線位置姿勢データ領域122のデータとCG映像位置姿勢データ領域123のデータに基づいて、3次元モデリングされた第N番目のCG映像を映像メモリ領域121に重ね描きして(ステップS207)、ステップS208に進む。一方、ステップS206の判別の結果、CG映像位置が有効領域内になければ、ステップS207をスキップして、ステップS208に進む。
【0030】
CG映像生成モジュール115は、CG映像を、CG映像位置姿勢データ領域123のデータが示す位置姿勢に置かれたものを視線位置姿勢データ領域122のデータが示す視線から観察したようにレンダリングする。映像メモリ領域121には、すでにステップS203において現実映像撮影モジュール111によって現実空間の映像が書き込まれており、CG映像はこの上に重ねて描画されることになる。
【0031】
続くステップS208では、変数Nが1だけインクリメントされ、次のステップS209で、変数Nが2(CG映像の数)以下であるか否かを判別し、2以下であるときは、ステップS205以降の処理を繰り返す一方、2を超えるときは、ステップS210に進む。
【0032】
ステップS203の判別の結果、視線位置が有効領域内にないときは、ステップS204以降の処理(第N番目のCG映像の映像メモリ領域への格納)を実行することなく、直ちにステップS210に進む。
【0033】
続くステップS210では、映像表示モジュール116によって、映像メモリ領域121に書き込まれた映像をHMD106のフレームメモリに書き込み、実際の表示を行う。
【0034】
次いで、ステップS211では全体の処理を終了するか否かを判別し、終了しない場合は再びステップS201以降の処理を繰り返す。処理を繰り返すことによってビデオカメラ107から次々と現実映像をキャプチャし、これにCG映像を重ね書きし、表示するというサイクルを連続して行うことになる。
【0035】
図2の処理によれば、位置姿勢センサ105c,105dの視線位置が有効領域内にないときは(ステップS203でNO)、全てのCG映像を描画することなく現実映像のみをHMDに表示し(ステップS210)、CG映像位置が有効領域内にないときは(ステップS206でNO)、そのCG映像のみの描画を停止し且つ他のCG映像を描画する(ステップS206〜S207)ので、不自然な映像の表示を防止することができる。
【0036】
図3は、図2のステップS203における視線位置有効判定モジュール112のフローチャートである。
【0037】
メモリ104の有効視線位置データ領域124には、事前に、有効視線位置領域設定モジュール117によってビデオカメラ107の視線位置の有効領域の値が記録されているものとする。また、メモリ104のセンサ有効領域中心データ領域120には、位置姿勢センサの有効領域の中心となる座標(X,Y,Z)が格納されているものとする。
【0038】
有効視線位置データ領域124のデータは、例えば、センサ有効領域中心からのビデオカメラ107の視線位置の有効距離の値であり、この場合1つの数値となる。
【0039】
図3において、まず、メモリ104の視線位置姿勢データ領域122のデータとセンサ有効領域中心データ領域120のデータから、ビデオカメラ107の視線位置とセンサ有効領域中心の間の距離を計算し、メモリ104の視線位置距離データ領域126に格納する(ステップS301)。
【0040】
次いで、視線位置距離データ領域126のデータが有効視線位置データ領域124のデータ未満であるか否かを判別し(ステップS302)、ビデオカメラ107の視線位置距離が有効視線位置距離未満であるときは、視線位置が有効領域内にあると判定し(ステップS303)、視線位置距離が有効視線位置距離以上であるときは、有効領域内にないと判定して(ステップS304)、本処理を終了する。
【0041】
有効視線位置データ領域124が保持するデータは、本実施の形態に挙げたようなセンサ有効領域中心からの距離に限らず、特定の領域を示す複数の位置の組などであってもよい。その場合は、視線位置有効判定モジュール112は、視線位置姿勢がその複数の位置で囲まれる領域内にあるか否かを判定することとなる。
【0042】
図4は、図2のステップS206におけるCG映像位置有効判定モジュール114のフローチャートである。
【0043】
メモリ104の有効CG映像位置データ領域125には、事前に、有効CG映像位置領域設定モジュール118によって、CG映像位置の有効領域の値が格納されているものとする。また、メモリ104のセンサ有効領域中心120には、位置姿勢センサの有効領域の中心となる座標(X,Y,Z)が格納されているものとする。
【0044】
有効CG映像位置データ領域125は、例えば、センサ有効領域中心からのCG映像位置の有効距離の値であり、この場合は1つの数値となる。
【0045】
図4において、ステップS401では、メモリ104のCG映像位置姿勢データ領域123のデータとセンサ有効領域中心データ領域120のデータから、CG映像位置とセンサ有効領域中心の間の距離を計算し、メモリ104のCG映像位置距離データ領域127に格納する(ステップS401)。
【0046】
次いで、CG映像位置姿勢データ領域123のデータが有効CG映像位置データ領域125のデータ未満であるか否かを判別し(ステップS402)、CG映像位置距離が有効CG映像位置距離未満であるときは、CG映像位置が有効領域内にあると判定し(ステップS403)、CG映像位置距離が有効CG映像位置距離以上であるときは、有効領域内にないと判定して(ステップS404)、本処理を終了する。
【0047】
上記実施の形態において、視線位置姿勢やCG映像位置姿勢を検出するための位置姿勢センサ105b,105c,105dがセンサの有効領域外に出てしまうと、センサが正しい値を検出できなくなって検出値が不定になるため、有効視線位置データ領域124と有効CG映像位置データ領域125はセンサの有効領域内にするのが普通である。また、位置姿勢センサ105b〜105cは有効領域の境界近傍で検出値に誤差が多く含まれる場合あるため、有効視線位置領域と有効CG映像位置領域は、位置姿勢センサ105b〜105cの検出値に基づいて描画するCG映像が不自然にならないように位置姿勢センサの設置状況等に応じて領域を設定するのがよい。
【0048】
また、位置姿勢センサ105b〜105cの1つ1つに個別に有効領域を設定してもよく、この場合は、メモリ104の有効CG映像位置データ領域125を位置姿勢センサ毎に複数用意すればよい。
【0049】
また、本発明は、前述した実施の形態を実現するソフトウェアのプログラムモジュールを記憶した記憶媒体を、システム又は装置にプログラムを供給することによって達成される場合にも適用できることはいうまでもない。この場合、記憶媒体から読み出されたプログラムモジュール自体が本発明の新規な機能を実現することになり、そのプログラムを記憶した記憶媒体は本発明を構成することになる。
【0050】
上記実施の形態では、プログラムモジュールはメモリ103に格納されるが、プログラムモジュールを供給する記憶媒体としては、フロッピーディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、MO、CD−R、DVD、磁気テープ、不揮発性のメモリカード等の様々なものが考えられるが、特定のものに限定する必要はなく、上記プログラムを記憶できるものであればよい。
【0051】
【発明の効果】
本発明によれば、検出した現実の映像の視線位置が、設定された現実の映像の視線位置の有効領域内にないときは、視線位置に応じて生成されたCG映像を現実映像に重畳せず、現実映像のみを表示するので、不自然な映像が表示されることを防止することができる。
さらに、本発明によれば、複数の位置で囲まれる視線位置の有効領域を設定し、検出された視線位置が複数の位置で囲まれる有効領域内にあるか否かを判別するので、有効領域を空間的に任意に設定することができる。
【0052】
請求項2記載の画像処理装置及び請求項4記載の画像処理方法によれば、検出されたCG映像の位置が、設定されたCG映像位置の有効領域内にないときは、当該検出されたCG映像を現実映像に重畳せず、現実映像のみを表示するので、そのCG映像の描画を停止し且つ他のCG映像を描画することにより不自然な映像の表示を防止することができる。
【図面の簡単な説明】
【図1】本発明の実施の形態に係る画像処理(複合現実感提示)装置の概略構成を示すブロック図である。
【図2】図1の複合現実感提示装置によって実行される映像表示処理のフローチャートである。
【図3】図2のステップS203における視線位置有効判定モジュール112のフローチャートである。
【図4】図2のステップS206におけるCG映像位置有効判定モジュール114のフローチャートである。
【符号の説明】
101 CPU
102 計算機バス
103,104 メモリ
105a 位置姿勢センサ本体
105b、105c、105d 位置姿勢センサ
106 HMD
107 ビデオカメラ
[0001]
[Industrial application fields]
The present invention relates to an image processing apparatus, method, and program , and in particular, superimposes a real-space video and a video generated by three-dimensionally modeled computer graphics (hereinafter referred to as “CG”), In addition, the present invention relates to an image processing apparatus and method, and a program capable of displaying both images while aligning them.
[0002]
[Prior art]
Conventionally, images in real space and images generated by 3D modeled CG images are superimposed and displayed while aligning both images, as if they were drawn in CG in the real world. There is a mixed reality presentation device that can make it appear as if an object (virtual object) exists. This apparatus includes both a real video shooting means (for example, a video camera) for shooting a real video, and a CG video generation means for creating a CG video as seen from the position where the real video is shot. It comprises video display means (for example, a head mounted display (HMD) or a monitor) that can be displayed in a synthesized manner. Here, the video display means displays the CG video and the real video in the correct positional relationship even if the gaze position of the real video shooting means changes, and the real video shooting means displays the gaze position and the gaze direction. A line-of-sight position / orientation detection means (for example, a position / orientation sensor) is provided for detection.
[0003]
The CG image generation means places the CG image that has been three-dimensionally modeled in a virtual space having the same scale as the real space, and renders the CG image as observed from the line-of-sight position and the line-of-sight direction detected by the line-of-sight position / orientation detection means. . When the CG video generated in this way and the real video are superimposed, as a result, the target of the CG video is correctly placed in the real space regardless of the gaze position or gaze direction observed by the real video shooting means. It is possible to display an image as if it were displayed.
[0004]
Further, a further position / orientation detection device is attached to a place where a CG image is desired to appear, and the CG image is caused to appear at a position obtained therefrom. For example, by attaching a position / orientation detection device (position / orientation sensor) to the hand and generating a CG image at the position of the sensor, it is as if the object of the CG image is always on the hand, Even if it moves like this, it is possible to display an image as if a CG image is on the hand.
[0005]
A video camera as a real image photographing means for photographing an object to be photographed in a real space captures an image in the direction of the line of sight and captures the captured image data in a memory.
[0006]
For example, an HMD is used as a video display device that synthesizes and displays an actual video and a CG video. By using the HMD instead of a normal monitor and mounting the video camera in the direction of the line of sight of the HMD, the image in the direction that the observer is facing can be displayed on the HMD, and the observer can change the direction. Since the CG image can be displayed when facing the viewer, it is possible to enhance the immersive feeling of the observer.
[0007]
As the position / orientation detection means, a magnetic position / orientation sensor or the like is used. By attaching this to the video camera or the HMD to which the video camera is attached, the position / orientation value of the line of sight of the video camera is obtained. To detect. A magnetic position / orientation sensor detects the relative position and orientation between a magnetism generator (transmitter) and a magnetic sensor (receiver), such as the product FASTRAK from PolhemuS of the United States. It is done. This is a device that detects the three-dimensional position (X, Y, Z) and posture (rolling, pitching, yawing) of a sensor in real time in a specific region.
[0008]
With the above configuration, the observer can observe the world in which the real image and the CG image are superimposed through the HMD. When the observer looks around, the real image capturing device (video camera) provided in the HMD captures a real image, and the line-of-sight position / orientation detection means (position / posture sensor) provided in the HMD detects the position of the video camera. The direction is detected, and the CG image generation means generates a CG image viewed from the line-of-sight position / orientation in response to the detected direction, and displays the CG image superimposed on the actual image.
[0009]
It is also possible to provide a plurality of observers. Video cameras and display devices (such as HMDs) that shoot real space, and position and orientation sensors are prepared as many as the number of viewers, and real space and CG video are generated by shooting real space from the viewpoint of each viewer. These may be combined and displayed to each observer.
[0010]
[Problems to be solved by the invention]
However, the above-described conventional mixed reality presentation apparatus renders a CG image based on values obtained from a gaze position / orientation sensor for detecting a gaze position and a gaze direction (orientation), and there is an error in these values. If there is, the positions of all the generated CG images are shifted, and CG images viewed from positions and directions shifted by the error are generated.
[0011]
Further, even when the line-of-sight position / orientation sensor has a small error, if there is an error in the CG image position / orientation sensor installed to detect the location where the CG image is to appear, the CG intended to appear at that position. The position and direction of the image are shifted.
[0012]
The values obtained from such position and orientation sensors generally include more or less errors. For example, in a position and orientation sensor using a magnetic system, the region where the position and orientation can be detected is a spatial region centered on the magnetic transmitter. Even within that region, the detection error increases as the receiver (sensor) moves away from the magnetic transmitter. For this reason, the farther the observation position, that is, the position of the camera for taking a real image, is farther from the transmitter, the farther the position / orientation sensor is from the transmitter, resulting in more errors in the values of the gaze position / orientation. . When the position / orientation sensor is placed at a position where the CG image appears, even if the observer position is close to the transmitter position and the observation is performed from a range with little error, the position where the CG image appears is the transmitter position. As the distance from the position increases, the error of the position / orientation sensor increases, resulting in a shift in the position where the CG image appears.
[0013]
In the conventional mixed reality presentation device, even when the error of the position / orientation sensor becomes large due to the movement of the observer or the movement of the CG image position, the CG image is drawn. Even if the CG video display that is planned to be on the hand, for example, that is out of alignment, is displayed as it is even if it is an unnatural video that is displayed on a place that is not on the hand. There is a problem of end. In the case of a virtual reality system that does not require alignment with the real space (a system that displays only CG images without real images), there is a big problem because it is not so unnatural even if there is a slight error. However, the mixed reality system requires high-precision alignment with the real object, so even a small error that occurs in the effective measurement area of the position and orientation sensor makes the image unnatural. And may not be practical.
[0014]
Also, for example, if there is an error in the line-of-sight position, an error will occur in the alignment of all CG images, but if there is an error in the CG image position and orientation, only an error will occur in the drawing of the CG image. The phenomenon that occurs is different between when the image position / orientation sensor error increases and when the line-of-sight position / orientation sensor error increases, and there is no system that can take appropriate measures in each case.
[0015]
An object of the present invention is to provide an image processing apparatus and method, and a program capable of preventing unnatural video display.
[0016]
[Means for Solving the Problems]
In order to achieve the above object, the image processing apparatus according to claim 1, a real image photographing unit that acquires a real image at a predetermined line-of-sight position, a line-of-sight position detection unit that detects the predetermined line-of-sight position, An image processing apparatus comprising: a CG video generation unit that generates a CG video corresponding to the detected line-of-sight position; and a video display unit that displays the generated CG video on a display device so as to be superimposed on the acquired real video. The effective line-of-sight position area setting means for setting an effective area of the line-of-sight position surrounded by a plurality of positions, and whether or not the detected line-of-sight position is within the effective area of the line-of-sight position surrounded by the plurality of positions Determining means for determining whether or not the image display means displays the CG image when the detected line-of-sight position is not within the effective region of the line-of-sight position surrounded by the plurality of positions. Not superimposed on the image, and displaying only the physical image.
[0017]
The image processing apparatus according to claim 2, in the image processing apparatus according to claim 1, detects effective CG image position area setting means for setting an effective area of the CG image position, and detects the position of the CG image to be superimposed. CG video position detection means, and other determination means for determining whether or not the position of the detected CG video is within the effective area of the set CG video position, the video display means When the position of the detected CG video is not within the effective area of the set CG video position, the detected CG video is not superimposed on the real video and only the real video is displayed. To do.
[0018]
In order to achieve the above object, the image processing method according to claim 3 includes a real image capturing step of acquiring a real image at a predetermined line-of-sight position, a line-of-sight position detecting step of detecting the predetermined line-of-sight position, An image processing method comprising: a CG video generation step of generating a CG video according to the detected line-of-sight position; and a video display step of superimposing the generated CG video on the acquired real video and displaying it on a display device. And an effective line-of-sight position region setting step of setting an effective area of the line-of-sight position surrounded by a plurality of positions, and whether or not the detected line-of-sight position is within the effective area of the line-of-sight position surrounded by the plurality of positions And the image display step displays the CG image when the detected line-of-sight position is not within the effective region of the line-of-sight position surrounded by the plurality of positions. Not superimposed on the image, and displaying only the physical image.
[0019]
The image processing method according to claim 4 is the image processing method according to claim 3, wherein an effective CG image position region setting step for setting an effective region of the CG image position and a position of the CG image to be superimposed are detected. A CG video position detection step, and another determination step for determining whether or not the position of the detected CG video is within an effective area of the set CG video position, wherein the video display step includes: When the position of the detected CG video is not within the effective area of the set CG video position, the detected CG video is not superimposed on the real video and only the real video is displayed. To do.
[0020]
In order to achieve the above object, a program according to claim 5 is a program for causing a computer to execute an image processing method, a real image photographing module for acquiring a real image at a predetermined line-of-sight position, and the predetermined line-of-sight. A line-of-sight position detection module for detecting a position, a CG video generation module for generating a CG video corresponding to the detected line-of-sight position, and the generated CG video superimposed on the acquired real video on the display device A video display module to display, an effective line-of-sight position area setting module for setting an effective area of the line-of-sight position surrounded by a plurality of positions, and an effective area of the line-of-sight position in which the detected line-of-sight position is surrounded by the plurality of positions A discriminating module that discriminates whether or not the video line is within the plurality of detected visual line positions. When not in the effective area of the viewpoint position surrounded by the position does not overlap the CG image to the actual image, and displaying only the physical image.
[0021]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, an image processing (mixed reality presentation) apparatus according to an embodiment of the present invention will be described in detail with reference to the drawings.
[0022]
FIG. 1 is a block diagram showing a schematic configuration of an image processing (mixed reality presentation) apparatus according to an embodiment of the present invention.
[0023]
1, the mixed reality presentation apparatus according to the embodiment of the present invention includes a CPU 101, a memory 103, a memory 104, a position and orientation sensor main body 105a, a head mounted display (HMD) 106, and a video camera 107. Are connected to each other via a computer bus 102. Position / orientation sensors 105b, 105c, and 105d are connected to the position / orientation sensor main body 105a. Among these, the position / orientation sensor 105b is attached to the HMD 106 in order to detect the line-of-sight position and orientation of the video camera 107. Both of the position / orientation sensors 105c and 105d are for CG image position / orientation detection.
[0024]
The memory 103 and the memory 104 have the same hardware configuration, but the memory 103 has a gaze position / orientation detection module 110, a real image module 111, a gaze position validity determination module 112, and a CG as programs for executing the processing of FIG. A video position / attitude detection module 113, a CG video position validity determination module 114, a CG video generation module 115, a video display module 116, an effective line-of-sight position area setting module 117, and an effective CG video position area setting module 118 are stored. Reference numeral 104 denotes a sensor effective area central data area 120, a video memory area 121, a visual line position / attitude data area 122, a CG video position / attitude data area 123, an effective visual line position data area 124, and an effective data area used in the program. CG movie Position data area 125 has a line-of-sight position distance data area 126, CG video location distance data area 127.
[0025]
FIG. 2 is a flowchart of the video display process executed by the mixed reality presentation apparatus of FIG.
[0026]
In FIG. 2, first, the gaze position / orientation detection module 110 uses a conventionally used technique, for example, a magnetic sensor or the like, to detect the three-dimensional position (X, Y, Z) and attitude (rolling, (Pitching, yawing) is detected, and the position and orientation data of the video camera 107 are written into the line-of-sight position / orientation data area 122 of the memory 104 (step S201), and then captured by the video camera 107 by the real image capturing module 111. The video is captured, and the video in the real space (real video) is written in the video memory area 121 of the memory 104 (step S202).
[0027]
In the subsequent step S203, the gaze position validity determination module 112 of FIG. 3 described later determines whether or not the detected gaze position of the video camera 107 is in the valid area, and when the gaze position is in the valid area, In step S204, a variable N consisting of a positive integer for counting the number of position / orientation sensors for CG is initialized to 1 (step S204). In the present embodiment, the number of position and orientation sensors is two, that is, the position and orientation sensors 105c and 105d.
[0028]
Next, the CG image position / orientation detection module 113 detects the position / orientation at which the Nth CG image is to be displayed using the position / orientation sensors 105 c and 105 d, and stores it in the CG image position / orientation data area 123 in the memory 104. (Step S205). The CG image position / orientation detection module 113 has the same configuration as the above-described line-of-sight position / orientation detection module 110.
[0029]
In step S206, the later-described CG video position validity determination module 114 in FIG. 4 determines whether or not the detected CG video position is within the valid area. If the CG video position is within the valid area, Based on the data in the line-of-sight position / orientation data area 122 and the data in the CG image position / orientation data area 123, the image generation module 115 superimposes the Nth CG image modeled three-dimensionally on the image memory area 121 ( The process proceeds to step S207) and step S208. On the other hand, if the result of determination in step S206 is that the CG video position is not within the valid area, step S207 is skipped and processing proceeds to step S208.
[0030]
The CG video generation module 115 renders the CG video as if viewed from the line of sight indicated by the data in the line-of-sight position / orientation data area 122, which is placed in the position / posture indicated by the data in the CG video position / attitude data area 123. In the video memory area 121, the video of the real space has already been written by the real video shooting module 111 in step S203, and the CG video is drawn on top of this.
[0031]
In the subsequent step S208, the variable N is incremented by 1, and in the next step S209, it is determined whether or not the variable N is 2 (the number of CG video images) or less. On the other hand, if the process is repeated and the number exceeds 2, the process proceeds to step S210.
[0032]
As a result of the determination in step S203, if the line-of-sight position is not within the effective area, the process immediately proceeds to step S210 without executing the processing after step S204 (storage of the Nth CG video in the video memory area).
[0033]
In the subsequent step S210, the video display module 116 writes the video written in the video memory area 121 into the frame memory of the HMD 106 and performs actual display.
[0034]
Next, in step S211, it is determined whether or not the entire process is to be ended. If not, the process after step S201 is repeated again. By repeating the processing, a real image is captured one after another from the video camera 107, and a cycle in which the CG image is overwritten and displayed is continuously performed.
[0035]
According to the processing of FIG. 2, when the line-of-sight positions of the position / orientation sensors 105c and 105d are not within the effective region (NO in step S203), only the real video is displayed on the HMD without rendering all the CG video ( Step S210) When the CG video position is not within the effective area (NO in Step S206), drawing of only the CG video is stopped and other CG video is drawn (Steps S206 to S207), which is unnatural. Display of video can be prevented.
[0036]
FIG. 3 is a flowchart of the gaze position validity determination module 112 in step S203 of FIG.
[0037]
It is assumed that the effective line-of-sight position data area 124 of the memory 104 has previously recorded the value of the effective line-of-sight position of the video camera 107 by the effective line-of-sight position area setting module 117. Further, it is assumed that the coordinate (X, Y, Z) that is the center of the effective area of the position and orientation sensor is stored in the sensor effective area center data area 120 of the memory 104.
[0038]
The data in the effective line-of-sight position data area 124 is, for example, the value of the effective distance of the line-of-sight position of the video camera 107 from the center of the sensor effective area. In this case, the value is one numerical value.
[0039]
In FIG. 3, first, the distance between the line-of-sight position of the video camera 107 and the center of the sensor effective area is calculated from the data of the line-of-sight position / orientation data area 122 of the memory 104 and the data of the sensor effective area center data area 120. Is stored in the line-of-sight position distance data area 126 (step S301).
[0040]
Next, it is determined whether or not the data in the line-of-sight position distance data area 126 is less than the data in the effective line-of-sight position data area 124 (step S302), and when the line-of-sight position distance of the video camera 107 is less than the effective line-of-sight position distance. Then, it is determined that the line-of-sight position is within the effective area (step S303), and when the line-of-sight position distance is equal to or greater than the effective line-of-sight position distance, it is determined that the line-of-sight position is not within the effective area (step S304). .
[0041]
The data stored in the effective line-of-sight position data area 124 is not limited to the distance from the center of the sensor effective area as described in the present embodiment, but may be a set of a plurality of positions indicating a specific area. In that case, the gaze position validity determination module 112 determines whether or not the gaze position / posture is within an area surrounded by the plurality of positions.
[0042]
FIG. 4 is a flowchart of the CG video position validity determination module 114 in step S206 of FIG.
[0043]
It is assumed that the effective CG image position data area 125 of the memory 104 stores the value of the effective area of the CG image position by the effective CG image position area setting module 118 in advance. Further, it is assumed that coordinates (X, Y, Z) serving as the center of the effective area of the position and orientation sensor are stored in the sensor effective area center 120 of the memory 104.
[0044]
The effective CG image position data area 125 is, for example, the value of the effective distance of the CG image position from the center of the sensor effective area, and in this case, is a single numerical value.
[0045]
In FIG. 4, in step S 401, the distance between the CG image position and the sensor effective area center is calculated from the data in the CG image position / orientation data area 123 and the data in the sensor effective area center data area 120 in the memory 104. Is stored in the CG video position distance data area 127 (step S401).
[0046]
Next, it is determined whether or not the data in the CG video position / attitude data area 123 is less than the data in the valid CG video position data area 125 (step S402), and when the CG video position distance is less than the valid CG video position distance. The CG video position is determined to be within the effective area (step S403). If the CG video position distance is equal to or greater than the effective CG video position distance, it is determined that the CG video position is not within the effective area (step S404). Exit.
[0047]
In the above embodiment, if the position / orientation sensors 105b, 105c, and 105d for detecting the gaze position / orientation and the CG image position / orientation go out of the effective area of the sensor, the sensor cannot detect a correct value and the detected value Therefore, the effective line-of-sight position data area 124 and the effective CG video position data area 125 are usually within the effective area of the sensor. In addition, since the position and orientation sensors 105b to 105c may include many errors in the detection values near the boundary of the effective area, the effective line-of-sight position area and the effective CG video position area are based on the detection values of the position and orientation sensors 105b to 105c. It is preferable to set the area according to the installation status of the position and orientation sensor so that the CG image to be drawn does not become unnatural.
[0048]
In addition, an effective area may be individually set for each of the position and orientation sensors 105b to 105c. In this case, a plurality of effective CG video position data areas 125 in the memory 104 may be prepared for each position and orientation sensor. .
[0049]
It goes without saying that the present invention can also be applied to a case in which a storage medium storing software program modules for realizing the above-described embodiments is achieved by supplying a program to a system or apparatus. In this case, the program module itself read from the storage medium realizes the novel function of the present invention, and the storage medium storing the program constitutes the present invention.
[0050]
In the above embodiment, the program module is stored in the memory 103. As a storage medium for supplying the program module, a floppy disk, a hard disk, an optical disk, a magneto-optical disk, a CD-ROM, an MO, a CD-R, a DVD, Although various things, such as a magnetic tape and a non-volatile memory card, can be considered, it is not necessary to limit to a specific thing, What is necessary is just to be able to memorize | store the said program.
[0051]
【The invention's effect】
According to the present invention, the line-of-sight position of the real image which is detected, when not in the effective area of the line-of-sight position of the set real images, not overlap the CG image generated in accordance with the viewpoint position in the physical image Therefore, since only the real image is displayed, it is possible to prevent an unnatural image from being displayed.
Furthermore, according to the present invention, the effective region of the line-of-sight position surrounded by a plurality of positions is set, and it is determined whether or not the detected line-of-sight position is within the effective region surrounded by the plurality of positions. Can be arbitrarily set spatially.
[0052]
According to the image processing device of claim 2 and the image processing method of claim 4, when the position of the detected CG video is not within the effective area of the set CG video position, the detected CG video Since the video is not superimposed on the real video and only the real video is displayed , drawing of the CG video is stopped and another CG video is drawn, thereby preventing an unnatural video from being displayed.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a schematic configuration of an image processing (mixed reality presentation) apparatus according to an embodiment of the present invention.
FIG. 2 is a flowchart of video display processing executed by the mixed reality presentation device of FIG.
FIG. 3 is a flowchart of a gaze position validity determination module 112 in step S203 of FIG.
4 is a flowchart of a CG video position validity determination module 114 in step S206 of FIG.
[Explanation of symbols]
101 CPU
102 Computer bus 103, 104 Memory 105a Position / orientation sensor main body 105b, 105c, 105d Position / orientation sensor 106 HMD
107 video camera

Claims (5)

所定の視線位置で現実の映像を取得する現実映像撮影手段と、
前記所定の視線位置を検出する視線位置検出手段と、
前記検出された視線位置に応じたCG映像を生成するCG映像生成手段と、
前記生成されたCG映像を前記取得された現実映像に重畳して表示装置に表示する映像表示手段とを備える画像処理装置において、
複数の位置で囲まれる前記視線位置の有効領域を設定する有効視線位置領域設定手段と、
前記検出された視線位置が前記複数の位置で囲まれる前記視線位置の有効領域内にあるか否かを判別する判別手段とを備え、
前記映像表示手段は、前記検出された視線位置が前記複数の位置で囲まれる前記視線位置の有効領域内にないときは、前記CG映像を前記現実映像に重畳せず、前記現実映像のみを表示することを特徴とする画像処理装置。
A real image photographing means for acquiring a real image at a predetermined line-of-sight position;
Eye-gaze position detecting means for detecting the predetermined eye-gaze position;
CG video generation means for generating a CG video according to the detected line-of-sight position;
An image processing apparatus comprising: a video display unit configured to superimpose the generated CG video on the acquired real video and display the video on a display device;
Effective line-of-sight position area setting means for setting an effective area of the line-of-sight position surrounded by a plurality of positions;
Determining means for determining whether or not the detected line-of-sight position is within an effective area of the line-of-sight position surrounded by the plurality of positions;
The video display means displays only the real video without superimposing the CG video on the real video when the detected gaze position is not within the effective region of the gaze position surrounded by the plurality of positions. An image processing apparatus.
前記CG映像位置の有効領域を設定する有効CG映像位置領域設定手段と、
前記重畳すべきCG映像の位置を検出するCG映像位置検出手段と、
前記検出されたCG映像の位置が前記設定されたCG映像位置の有効領域内にあるか否かを判別する他の判別手段とを備え、
前記映像表示手段は、前記検出されたCG映像の位置が前記設定されたCG映像位置の有効領域内にないときは、当該検出されたCG映像を前記現実映像に重畳せず、前記現実映像のみを表示することを特徴とする請求項1記載の画像処理装置。
Effective CG image position setting means for setting an effective area of the CG image position;
CG image position detecting means for detecting the position of the CG image to be superimposed;
Other discriminating means for discriminating whether or not the position of the detected CG video is within the effective area of the set CG video position,
When the position of the detected CG image is not within the effective area of the set CG image position, the image display means does not superimpose the detected CG image on the actual image and only the actual image the image processing apparatus according to claim 1, wherein the displaying the.
所定の視線位置で現実の映像を取得する現実映像撮影工程と、
前記所定の視線位置を検出する視線位置検出工程と、
前記検出された視線位置に応じたCG映像を生成するCG映像生成工程と、
前記生成されたCG映像を前記取得された現実映像に重畳して表示装置に表示する映像表示工程とを備える画像処理方法において、
複数の位置で囲まれる前記視線位置の有効領域を設定する有効視線位置領域設定工程と、
前記検出された視線位置が前記複数の位置で囲まれる前記視線位置の有効領域内にあるか否かを判別する判別工程とを備え、
前記映像表示工程は、前記検出された視線位置が前記複数の位置で囲まれる前記視線位置の有効領域内にないときは、前記CG映像を前記現実映像に重畳せず、前記現実映像のみを表示することを特徴とする画像処理方法。
A real image shooting process of acquiring a real image at a predetermined line-of-sight position;
A line-of-sight position detecting step of detecting the predetermined line-of-sight position;
A CG image generation step for generating a CG image corresponding to the detected line-of-sight position;
An image processing method comprising: a video display step of displaying the generated CG video on a display device in a superimposed manner on the acquired real video;
An effective line-of-sight position area setting step for setting an effective area of the line-of-sight position surrounded by a plurality of positions;
A determination step of determining whether or not the detected line-of-sight position is within an effective region of the line-of-sight position surrounded by the plurality of positions,
The video display step displays only the real video without superimposing the CG video on the real video when the detected gaze position is not within the effective region of the gaze position surrounded by the plurality of positions. An image processing method.
前記CG映像位置の有効領域を設定する有効CG映像位置領域設定工程と、
前記重畳すべきCG映像の位置を検出するCG映像位置検出工程と、
前記検出されたCG映像の位置が前記設定されたCG映像位置の有効領域内にあるか否かを判別する他の判別工程とを備え、
前記映像表示工程は、前記検出されたCG映像の位置が前記設定されたCG映像位置の有効領域内にないときは、当該検出されたCG映像を前記現実映像に重畳せず、前記現実映像のみを表示することを特徴とする請求項3記載の画像処理方法。
An effective CG image position area setting step for setting an effective area of the CG image position;
A CG image position detecting step for detecting a position of the CG image to be superimposed;
Another determination step of determining whether or not the position of the detected CG image is within an effective area of the set CG image position,
In the video display step, when the position of the detected CG video is not within the effective area of the set CG video position, the detected CG video is not superimposed on the real video and only the real video is displayed. the image processing method according to claim 3, wherein the displaying the.
コンピュータに画像処理方法を実行させるためのプログラムにおいて、
所定の視線位置で現実の映像を取得する現実映像撮影モジュールと、
前記所定の視線位置を検出する視線位置検出モジュールと、
前記検出された視線位置に応じたCG映像を生成するCG映像生成モジュールと、
前記生成されたCG映像を前記取得された現実映像に重畳して表示装置に表示する映像表示モジュールと、
複数の位置で囲まれる前記視線位置の有効領域を設定する有効視線位置領域設定モジュールと、
前記検出された視線位置が前記複数の位置で囲まれる前記視線位置の有効領域内にあるか否かを判別する判別モジュールとを備え、
前記映像表示モジュールは、前記検出された視線位置が前記複数の位置で囲まれる前記視線位置の有効領域内にないときは、前記CG映像を前記現実映像に重畳せず、前記現実映像のみを表示することを特徴とするプログラム。
In a program for causing a computer to execute an image processing method,
A real image capturing module for acquiring a real image at a predetermined line-of-sight position;
A line-of-sight position detection module for detecting the predetermined line-of-sight position;
A CG video generation module that generates a CG video according to the detected line-of-sight position;
A video display module that superimposes the generated CG video on the acquired real video and displays it on a display device;
An effective line-of-sight position area setting module for setting an effective area of the line-of-sight position surrounded by a plurality of positions;
A determination module that determines whether or not the detected line-of-sight position is within an effective region of the line-of-sight position surrounded by the plurality of positions;
When the detected line-of-sight position is not within the effective area of the line-of-sight position surrounded by the plurality of positions, the video display module displays only the real video without superimposing the CG video on the real video The program characterized by doing.
JP2001071120A 2001-03-13 2001-03-13 Image processing apparatus and method, and program Expired - Fee Related JP3848092B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001071120A JP3848092B2 (en) 2001-03-13 2001-03-13 Image processing apparatus and method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001071120A JP3848092B2 (en) 2001-03-13 2001-03-13 Image processing apparatus and method, and program

Publications (2)

Publication Number Publication Date
JP2002269593A JP2002269593A (en) 2002-09-20
JP3848092B2 true JP3848092B2 (en) 2006-11-22

Family

ID=18928889

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001071120A Expired - Fee Related JP3848092B2 (en) 2001-03-13 2001-03-13 Image processing apparatus and method, and program

Country Status (1)

Country Link
JP (1) JP3848092B2 (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4298407B2 (en) 2002-09-30 2009-07-22 キヤノン株式会社 Video composition apparatus and video composition method
JP4208601B2 (en) * 2003-02-24 2009-01-14 キヤノン株式会社 Display control method and display control apparatus
JP4393169B2 (en) 2003-12-04 2010-01-06 キヤノン株式会社 Mixed reality presentation method and apparatus
JP4724476B2 (en) * 2004-09-07 2011-07-13 キヤノン株式会社 Information processing method and apparatus
JP5119636B2 (en) 2006-09-27 2013-01-16 ソニー株式会社 Display device and display method
JP6292658B2 (en) * 2013-05-23 2018-03-14 国立研究開発法人理化学研究所 Head-mounted video display system and method, head-mounted video display program
JP6214653B2 (en) 2013-07-03 2017-10-18 株式会社日立製作所 Remote monitoring system and monitoring method
JP6572893B2 (en) * 2014-06-30 2019-09-11 ソニー株式会社 Information processing apparatus and information processing method, computer program, and image processing system
KR101762349B1 (en) * 2016-03-21 2017-07-28 (주)포스트미디어 Method for providing augmented reality in outdoor environment, augmented reality providing server performing the same, and storage medium storing the same

Also Published As

Publication number Publication date
JP2002269593A (en) 2002-09-20

Similar Documents

Publication Publication Date Title
US11016297B2 (en) Image generation apparatus and image generation method
CA2888943C (en) Augmented reality system and method for positioning and mapping
US8937592B2 (en) Rendition of 3D content on a handheld device
JP4933406B2 (en) Image processing apparatus and image processing method
JP4227561B2 (en) Image processing method and image processing apparatus
WO2019152617A1 (en) Calibration system and method to align a 3d virtual scene and 3d real world for a stereoscopic head-mounted display
JP2002157607A (en) System and method for image generation, and storage medium
EP3662662B1 (en) Parallax viewer system for 3d content
CN103517061B (en) A kind of display control method of terminal equipment and device
JP2008146109A (en) Image processing method and image processor
CN112166397A (en) Apparatus, system, and method for accelerating position tracking of head mounted display
JP2007004713A (en) Image processing method and image processor
JP4406824B2 (en) Image display device, pixel data acquisition method, and program for executing the method
JP3848092B2 (en) Image processing apparatus and method, and program
CN109716396A (en) Information processing equipment, information processing method and program
JP2006252468A (en) Image processing method and image processing system
JP2006285789A (en) Image processing method and image processor
CN110969706A (en) Augmented reality device, image processing method and system thereof, and storage medium
JP4689344B2 (en) Information processing method and information processing apparatus
JP7006912B2 (en) Image processing device, image display device and image processing program
JP2006277618A (en) Image generation device and method
US20230127539A1 (en) Information processing apparatus, information processing method, and information processing program
JP2004013309A (en) Information processing method and apparatus for presenting augmented reality
Xue et al. A motion parallax rendering approach to real-time stereoscopic visualization for aircraft virtual assembly
JP2005115595A (en) Mixed reality presentation apparatus

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20051220

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060220

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20060220

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060425

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060510

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060808

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060824

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090901

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100901

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110901

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110901

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120901

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120901

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130901

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees