JP3848092B2 - Image processing apparatus and method, and program - Google Patents
Image processing apparatus and method, and program Download PDFInfo
- Publication number
- JP3848092B2 JP3848092B2 JP2001071120A JP2001071120A JP3848092B2 JP 3848092 B2 JP3848092 B2 JP 3848092B2 JP 2001071120 A JP2001071120 A JP 2001071120A JP 2001071120 A JP2001071120 A JP 2001071120A JP 3848092 B2 JP3848092 B2 JP 3848092B2
- Authority
- JP
- Japan
- Prior art keywords
- video
- image
- line
- real
- sight
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Controls And Circuits For Display Device (AREA)
- Processing Or Creating Images (AREA)
- Studio Circuits (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Description
【0001】
【産業上の利用分野】
本発明は、画像処理装置及び方法、並びにプログラムに関し、特に、現実空間の映像と、3次元的にモデリングされたコンピュータグラフィックス(以下「CG」という。)によって生成された映像とを重畳し、且つ両者の映像を位置合わせしつつ表示することができる画像処理装置及び方法、並びにプログラムに関する。
【0002】
【従来の技術】
従来、現実空間の映像と、三次元モデリングされたCG映像によって生成された映像とを重畳し、且つ両者の映像を位置合わせしつつ表示して、あたかも現実の世界の中にCGで描かれた物体(仮想物体)が存在しているかのように見せることができる複合現実感提示装置がある。この装置は、現実の映像を撮影するための現実映像撮影手段(例えば、ビデオカメラ)と、現実の映像を撮影している位置から見たようにCG映像を作り出すCG映像生成手段と、両者を合成して表示することのできる映像表示手段(例えば、ヘッドマウントディスプレイ(HMD)又はモニタ)から成る。ここで、映像表示手段は、現実映像撮影手段の視線位置が変わってもCG映像と現実の映像を正しい位置関係で表示するようになっており、現実映像撮影手段は、視線位置や視線方向を検出するための視線位置姿勢検出手段(例えば、位置姿勢センサ)を備えている。
【0003】
CG映像生成手段は、三次元モデリングされたCG映像を現実空間と同じスケールの仮想空間に置き、視線位置姿勢検出手段によって検出された視線位置や視線方向から観察されたものとしてCG映像をレンダリングする。このようにして生成されたCG映像と現実の映像とを重畳すると、結果として、現実映像撮影手段がどの視線位置や視線方向から観察した場合でも、現実空間の中に正しくCG映像の対象が置かれているような映像を表示することができる。
【0004】
また、CG映像を出現させたい場所にもさらなる位置姿勢検出装置を取り付け、そこから得られた位置にCG映像を出現させることも行われている。例えば、手に位置姿勢検出装置(位置姿勢センサ)を取り付け、そのセンサの位置にCG映像を生成することによって、あたかも手の上に常にCG映像の対象が乗っているように、即ち手をどのように動かしても手の上にCG映像が乗っているような映像を表示することができる。
【0005】
現実空間の撮影対象を撮影する現実映像撮影手段としてのビデオカメラは、その視線方向にある映像を撮影し、撮影された映像データはメモリ中にキャプチャするようになっている。
【0006】
現実の映像とCG映像とを合成して表示する映像表示装置としては、例えばHMDが用いられる。通常のモニタでなくHMDを用いて、さらに上記ビデオカメラをHMDの視線方向に装着することで、観察者が向いている方向の映像をHMDに映し出すことができ、かつ、観察者がその方向を向いたときのCG映像の表示も行えるため、観察者の没入感を高めることができる。
【0007】
位置姿勢検出手段としては、磁気方式による位置姿勢センサなどが用いられ、これを上記ビデオカメラ、又はビデオカメラが取り付けられているHMDに取り付ることによって、ビデオカメラの視線の位置姿勢の値を検出する。磁気方式の位置姿勢センサとは、磁気発生装置(発信機)と磁気センサ(受信機)との間の相対位置及び姿勢を検出するものであり、米国ポヒマス(PolhemuS)社の製品FASTRAKなどがあげられる。これは特定の領域内で、センサの3次元位置(X,Y,Z)と姿勢(ローリング、ピッチング、ヨーイング)をリアルタイムに検出する装置である。
【0008】
上記の構成により、観察者は、HMDを通じて現実の映像とCG映像が重畳された世界を観察することができるようになる。観察者が周囲を見回すと、HMDに備え付けられた現実映像撮影装置(ビデオカメラ)が現実の映像を撮影し、HMDに備え付けられた視線位置姿勢検出手段(位置姿勢センサ)がビデオカメラの位置視線方向を検出し、これに応じてCG映像生成手段がその視線位置・姿勢から見たCG映像を生成し、これを現実の映像に重畳して表示する。
【0009】
また、観察者を複数設けることも可能である。現実空間を撮影するビデオカメラと表示装置(HMD等)、位置姿勢センサを観察者数だけ用意し、夫々の観察者の視点から現実空間の撮影して現実の映像とCG映像の生成を行い、これらを合成して、夫々の観察者に表示すればよい。
【0010】
【発明が解決しようとしている課題】
しかしながら、上記従来の複合現実感提示装置では、視線位置や視線方向(姿勢)を検出するための視線位置姿勢センサから得られる値に基づいてCG映像をレンダリングしており、これらの値に誤差があると、生成されるすべてのCG映像の位置がずれて、誤差の分だけずれた位置や方向から見たCG映像が生成される。
【0011】
また、視線位置姿勢センサに誤差が少ない状態であっても、CG映像を出現させたい場所を検出するために設置したCG映像位置姿勢センサに誤差があると、その位置に出現させようとしたCG映像の位置や方向がずれる。
【0012】
このような位置姿勢センサから得られる値には、一般的に多かれ少なかれ誤差が含まれ、例えば、磁気方式による位置姿勢センサは、位置姿勢が検出できる領域が磁気発信機を中心とした空間領域に限られており、さらにその領域の中であっても、磁気発信機から受信機(センサ)が離れるほど検出誤差が大きい。そのため、観察位置、即ち現実映像を撮影するためのカメラの位置が発信機の位置から遠くなればなるほど、その位置姿勢センサは発信機から遠くなり、結果として視線位置姿勢の値に誤差が多くなる。CG映像を出現させる位置に位置姿勢センサを置いている場合は、観察者位置が発信機の位置に近くて誤差が少ない範囲から観察しているとしても、CG映像を出現させる位置が発信機位置から遠くなると位置姿勢センサの誤差が大きくなり、結果としてCG映像が現れる位置にずれが生じる。
【0013】
従来の複合現実感提示装置では、観察者の移動やCG映像位置の移動によって位置姿勢センサの誤差が大きくなったときでもCG映像描画を行ってしまうため、センサの誤差によってCG映像と現実空間の位置あわせがずれてしまったような、例えば、手の上にあるように計画されたCG映像表示が、手の上でないところに表示されるような不自然な映像であってもそのまま表示してしまうという問題がある。現実空間との位置あわせが不要なバーチャルリアリティ(Virtual Riality)システム(現実の映像がなく、CG映像のみを表示するシステム)の場合は、少々の誤差があってもさほど不自然でないため大きな問題とならないが、複合現実感システムの場合は現実物体との高精度の位置あわせを必要とするため、位置姿勢センサの有効測定領域内で生じるような少々の誤差であっても映像が不自然になってしまい、実用に耐えなくなる場合がある。
【0014】
また、例えば、視線位置に誤差がある場合はCG映像すべての位置あわせに誤差が出るが、CG映像位置姿勢に誤差がある場合はそのCG映像の描画に誤差が出るだけであるように、CG映像の位置姿勢センサに誤差が大きくなった場合と、視線位置姿勢センサの誤差が大きくなった場合とでは、発生する現象が異なり、夫々の場合に好適な対処をするシステムは存在しない。
【0015】
本発明の目的は、不自然な映像の表示を防止することができる画像処理装置及び方法、並びにプログラムを提供することにある。
【0016】
【課題を解決するための手段】
上記目的を達成するために、請求項1記載の画像処理装置は、所定の視線位置で現実の映像を取得する現実映像撮影手段と、前記所定の視線位置を検出する視線位置検出手段と、前記検出された視線位置に応じたCG映像を生成するCG映像生成手段と、前記生成されたCG映像を前記取得された現実映像に重畳して表示装置に表示する映像表示手段とを備える画像処理装置において、複数の位置で囲まれる前記視線位置の有効領域を設定する有効視線位置領域設定手段と、前記検出された視線位置が前記複数の位置で囲まれる前記視線位置の有効領域内にあるか否かを判別する判別手段とを備え、前記映像表示手段は、前記検出された視線位置が前記複数の位置で囲まれる前記視線位置の有効領域内にないときは、前記CG映像を前記現実映像に重畳せず、前記現実映像のみを表示することを特徴とする。
【0017】
請求項2記載の画像処理装置は、請求項1記載の画像処理装置において、前記CG映像位置の有効領域を設定する有効CG映像位置領域設定手段と、前記重畳すべきCG映像の位置を検出するCG映像位置検出手段と、前記検出されたCG映像の位置が前記設定されたCG映像位置の有効領域内にあるか否かを判別する他の判別手段とを備え、前記映像表示手段は、前記検出されたCG映像の位置が前記設定されたCG映像位置の有効領域内にないときは、当該検出されたCG映像を前記現実映像に重畳せず、前記現実映像のみを表示することを特徴とする。
【0018】
上記目的を達成するために、請求項3記載の画像処理方法は、所定の視線位置で現実の映像を取得する現実映像撮影工程と、前記所定の視線位置を検出する視線位置検出工程と、前記検出された視線位置に応じたCG映像を生成するCG映像生成工程と、前記生成されたCG映像を前記取得された現実映像に重畳して表示装置に表示する映像表示工程とを備える画像処理方法において、複数の位置で囲まれる前記視線位置の有効領域を設定する有効視線位置領域設定工程と、前記検出された視線位置が前記複数の位置で囲まれる前記視線位置の有効領域内にあるか否かを判別する判別工程とを備え、前記映像表示工程は、前記検出された視線位置が前記複数の位置で囲まれる前記視線位置の有効領域内にないときは、前記CG映像を前記現実映像に重畳せず、前記現実映像のみを表示することを特徴とする。
【0019】
請求項4記載の画像処理方法は、請求項3記載の画像処理方法において、前記CG映像位置の有効領域を設定する有効CG映像位置領域設定工程と、前記重畳すべきCG映像の位置を検出するCG映像位置検出工程と、前記検出されたCG映像の位置が前記設定されたCG映像位置の有効領域内にあるか否かを判別する他の判別工程とを備え、前記映像表示工程は、前記検出されたCG映像の位置が前記設定されたCG映像位置の有効領域内にないときは、当該検出されたCG映像を前記現実映像に重畳せず、前記現実映像のみを表示することを特徴とする。
【0020】
上記目的を達成するために、請求項5記載のプログラムは、コンピュータに画像処理方法を実行させるためのプログラムにおいて、所定の視線位置で現実の映像を取得する現実映像撮影モジュールと、前記所定の視線位置を検出する視線位置検出モジュールと、前記検出された視線位置に応じたCG映像を生成するCG映像生成モジュールと、前記生成されたCG映像を前記取得された現実映像に重畳して表示装置に表示する映像表示モジュールと、複数の位置で囲まれる前記視線位置の有効領域を設定する有効視線位置領域設定モジュールと、前記検出された視線位置が前記複数の位置で囲まれる前記視線位置の有効領域内にあるか否かを判別する判別モジュールとを備え、前記映像表示モジュールは、前記検出された視線位置が前記複数の位置で囲まれる前記視線位置の有効領域内にないときは、前記CG映像を前記現実映像に重畳せず、前記現実映像のみを表示することを特徴とする。
【0021】
【発明の実施の形態】
以下、本発明の実施の形態に係る画像処理(複合現実感提示)装置を図を用いて詳述する。
【0022】
図1は、本発明の実施の形態に係る画像処理(複合現実感提示)装置の概略構成を示すブロック図である。
【0023】
図1において、本発明の実施の形態に係る複合現実感提示装置は、CPU101、メモリ103、メモリ104、位置姿勢センサ本体105a、ヘッドマウントディスプレイ(HMD)106、及びビデオカメラ107を有し、これらは計算機バス102を介して互いに接続されている。また、位置姿勢センサ本体105aには、位置姿勢センサ105b,105c,105dが接続され、これらのうち、位置姿勢センサ105bはビデオカメラ107の視線位置姿勢を検出するためにHMD106に取付けられている。位置姿勢センサ105c,105dはどちらもCG映像位置姿勢検出用のものである。
【0024】
メモリ103とメモリ104とはハード構成を同じくするが、メモリ103は、後述する図2の処理を実行するプログラムとして、視線位置姿勢検出モジュール110、現実映像モジュール111、視線位置有効判定モジュール112、CG映像位置姿勢検出モジュール113、CG映像位置有効判定モジュール114、CG映像生成モジュール115、映像表示モジュール116、有効視線位置領域設定モジュール117、及び有効CG映像位置領域設定モジュール118を格納しており、メモリ104は、上記プログラム中で使用されるデータ領域として、センサ有効領域中心データ領域120、映像メモリ領域121、視線位置姿勢データ領域122、CG映像位置姿勢データ領域123、有効視線位置データ領域124、有効CG映像位置データ領域125、視線位置距離データ領域126、CG映像位置距離データ領域127を有する。
【0025】
図2は、図1の複合現実感提示装置によって実行される映像表示処理のフローチャートである。
【0026】
図2において、まず、視線位置姿勢検出モジュール110によって、従来から用いられている技術、例えば磁気センサ等を用いてビデオカメラ107の視線の3次元位置(X,Y,Z)及び姿勢(ローリング、ピッチング、ヨーイング)を検出して、ビデオカメラ107の位置及び姿勢データをメモリ104の視線位置姿勢データ領域122に書き込み(ステップS201)、次いで、現実映像撮影モジュール111によって、ビデオカメラ107で撮影された映像をキャプチャし、現実空間の映像(現実の映像)をメモリ104の映像メモリ領域121に書き込む(ステップS202)。
【0027】
続くステップS203では、後述する図3の視線位置有効判定モジュール112によって、検出されたビデオカメラ107の視線位置が有効領域内にあるか否かを判別し、視線位置が有効領域内にあるときは、ステップS204に進み、CG用の位置姿勢センサの数を数えるための正の整数からなる変数Nを1に初期化する(ステップS204)。本実施の形態では、位置姿勢センサの数は、位置姿勢センサ105c,105dの2つである。
【0028】
次いで、CG映像位置姿勢検出モジュール113によって、位置姿勢センサ105c,105dを用いて第N番目のCG映像を表示すべき位置姿勢を検出し、メモリ104中のCG映像位置姿勢データ領域123に格納する(ステップS205)。CG映像位置姿勢検出モジュール113は前述した視線位置姿勢検出モジュール110と構成が同じである。
【0029】
ステップS206では、後述する図4のCG映像位置有効判定モジュール114によって、検出されたCG映像位置が有効領域内にあるか否かを判別し、CG映像位置が有効領域内にあるときは、CG映像生成モジュール115によって、視線位置姿勢データ領域122のデータとCG映像位置姿勢データ領域123のデータに基づいて、3次元モデリングされた第N番目のCG映像を映像メモリ領域121に重ね描きして(ステップS207)、ステップS208に進む。一方、ステップS206の判別の結果、CG映像位置が有効領域内になければ、ステップS207をスキップして、ステップS208に進む。
【0030】
CG映像生成モジュール115は、CG映像を、CG映像位置姿勢データ領域123のデータが示す位置姿勢に置かれたものを視線位置姿勢データ領域122のデータが示す視線から観察したようにレンダリングする。映像メモリ領域121には、すでにステップS203において現実映像撮影モジュール111によって現実空間の映像が書き込まれており、CG映像はこの上に重ねて描画されることになる。
【0031】
続くステップS208では、変数Nが1だけインクリメントされ、次のステップS209で、変数Nが2(CG映像の数)以下であるか否かを判別し、2以下であるときは、ステップS205以降の処理を繰り返す一方、2を超えるときは、ステップS210に進む。
【0032】
ステップS203の判別の結果、視線位置が有効領域内にないときは、ステップS204以降の処理(第N番目のCG映像の映像メモリ領域への格納)を実行することなく、直ちにステップS210に進む。
【0033】
続くステップS210では、映像表示モジュール116によって、映像メモリ領域121に書き込まれた映像をHMD106のフレームメモリに書き込み、実際の表示を行う。
【0034】
次いで、ステップS211では全体の処理を終了するか否かを判別し、終了しない場合は再びステップS201以降の処理を繰り返す。処理を繰り返すことによってビデオカメラ107から次々と現実映像をキャプチャし、これにCG映像を重ね書きし、表示するというサイクルを連続して行うことになる。
【0035】
図2の処理によれば、位置姿勢センサ105c,105dの視線位置が有効領域内にないときは(ステップS203でNO)、全てのCG映像を描画することなく現実映像のみをHMDに表示し(ステップS210)、CG映像位置が有効領域内にないときは(ステップS206でNO)、そのCG映像のみの描画を停止し且つ他のCG映像を描画する(ステップS206〜S207)ので、不自然な映像の表示を防止することができる。
【0036】
図3は、図2のステップS203における視線位置有効判定モジュール112のフローチャートである。
【0037】
メモリ104の有効視線位置データ領域124には、事前に、有効視線位置領域設定モジュール117によってビデオカメラ107の視線位置の有効領域の値が記録されているものとする。また、メモリ104のセンサ有効領域中心データ領域120には、位置姿勢センサの有効領域の中心となる座標(X,Y,Z)が格納されているものとする。
【0038】
有効視線位置データ領域124のデータは、例えば、センサ有効領域中心からのビデオカメラ107の視線位置の有効距離の値であり、この場合1つの数値となる。
【0039】
図3において、まず、メモリ104の視線位置姿勢データ領域122のデータとセンサ有効領域中心データ領域120のデータから、ビデオカメラ107の視線位置とセンサ有効領域中心の間の距離を計算し、メモリ104の視線位置距離データ領域126に格納する(ステップS301)。
【0040】
次いで、視線位置距離データ領域126のデータが有効視線位置データ領域124のデータ未満であるか否かを判別し(ステップS302)、ビデオカメラ107の視線位置距離が有効視線位置距離未満であるときは、視線位置が有効領域内にあると判定し(ステップS303)、視線位置距離が有効視線位置距離以上であるときは、有効領域内にないと判定して(ステップS304)、本処理を終了する。
【0041】
有効視線位置データ領域124が保持するデータは、本実施の形態に挙げたようなセンサ有効領域中心からの距離に限らず、特定の領域を示す複数の位置の組などであってもよい。その場合は、視線位置有効判定モジュール112は、視線位置姿勢がその複数の位置で囲まれる領域内にあるか否かを判定することとなる。
【0042】
図4は、図2のステップS206におけるCG映像位置有効判定モジュール114のフローチャートである。
【0043】
メモリ104の有効CG映像位置データ領域125には、事前に、有効CG映像位置領域設定モジュール118によって、CG映像位置の有効領域の値が格納されているものとする。また、メモリ104のセンサ有効領域中心120には、位置姿勢センサの有効領域の中心となる座標(X,Y,Z)が格納されているものとする。
【0044】
有効CG映像位置データ領域125は、例えば、センサ有効領域中心からのCG映像位置の有効距離の値であり、この場合は1つの数値となる。
【0045】
図4において、ステップS401では、メモリ104のCG映像位置姿勢データ領域123のデータとセンサ有効領域中心データ領域120のデータから、CG映像位置とセンサ有効領域中心の間の距離を計算し、メモリ104のCG映像位置距離データ領域127に格納する(ステップS401)。
【0046】
次いで、CG映像位置姿勢データ領域123のデータが有効CG映像位置データ領域125のデータ未満であるか否かを判別し(ステップS402)、CG映像位置距離が有効CG映像位置距離未満であるときは、CG映像位置が有効領域内にあると判定し(ステップS403)、CG映像位置距離が有効CG映像位置距離以上であるときは、有効領域内にないと判定して(ステップS404)、本処理を終了する。
【0047】
上記実施の形態において、視線位置姿勢やCG映像位置姿勢を検出するための位置姿勢センサ105b,105c,105dがセンサの有効領域外に出てしまうと、センサが正しい値を検出できなくなって検出値が不定になるため、有効視線位置データ領域124と有効CG映像位置データ領域125はセンサの有効領域内にするのが普通である。また、位置姿勢センサ105b〜105cは有効領域の境界近傍で検出値に誤差が多く含まれる場合あるため、有効視線位置領域と有効CG映像位置領域は、位置姿勢センサ105b〜105cの検出値に基づいて描画するCG映像が不自然にならないように位置姿勢センサの設置状況等に応じて領域を設定するのがよい。
【0048】
また、位置姿勢センサ105b〜105cの1つ1つに個別に有効領域を設定してもよく、この場合は、メモリ104の有効CG映像位置データ領域125を位置姿勢センサ毎に複数用意すればよい。
【0049】
また、本発明は、前述した実施の形態を実現するソフトウェアのプログラムモジュールを記憶した記憶媒体を、システム又は装置にプログラムを供給することによって達成される場合にも適用できることはいうまでもない。この場合、記憶媒体から読み出されたプログラムモジュール自体が本発明の新規な機能を実現することになり、そのプログラムを記憶した記憶媒体は本発明を構成することになる。
【0050】
上記実施の形態では、プログラムモジュールはメモリ103に格納されるが、プログラムモジュールを供給する記憶媒体としては、フロッピーディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、MO、CD−R、DVD、磁気テープ、不揮発性のメモリカード等の様々なものが考えられるが、特定のものに限定する必要はなく、上記プログラムを記憶できるものであればよい。
【0051】
【発明の効果】
本発明によれば、検出した現実の映像の視線位置が、設定された現実の映像の視線位置の有効領域内にないときは、視線位置に応じて生成されたCG映像を現実映像に重畳せず、現実映像のみを表示するので、不自然な映像が表示されることを防止することができる。
さらに、本発明によれば、複数の位置で囲まれる視線位置の有効領域を設定し、検出された視線位置が複数の位置で囲まれる有効領域内にあるか否かを判別するので、有効領域を空間的に任意に設定することができる。
【0052】
請求項2記載の画像処理装置及び請求項4記載の画像処理方法によれば、検出されたCG映像の位置が、設定されたCG映像位置の有効領域内にないときは、当該検出されたCG映像を現実映像に重畳せず、現実映像のみを表示するので、そのCG映像の描画を停止し且つ他のCG映像を描画することにより不自然な映像の表示を防止することができる。
【図面の簡単な説明】
【図1】本発明の実施の形態に係る画像処理(複合現実感提示)装置の概略構成を示すブロック図である。
【図2】図1の複合現実感提示装置によって実行される映像表示処理のフローチャートである。
【図3】図2のステップS203における視線位置有効判定モジュール112のフローチャートである。
【図4】図2のステップS206におけるCG映像位置有効判定モジュール114のフローチャートである。
【符号の説明】
101 CPU
102 計算機バス
103,104 メモリ
105a 位置姿勢センサ本体
105b、105c、105d 位置姿勢センサ
106 HMD
107 ビデオカメラ[0001]
[Industrial application fields]
The present invention relates to an image processing apparatus, method, and program , and in particular, superimposes a real-space video and a video generated by three-dimensionally modeled computer graphics (hereinafter referred to as “CG”), In addition, the present invention relates to an image processing apparatus and method, and a program capable of displaying both images while aligning them.
[0002]
[Prior art]
Conventionally, images in real space and images generated by 3D modeled CG images are superimposed and displayed while aligning both images, as if they were drawn in CG in the real world. There is a mixed reality presentation device that can make it appear as if an object (virtual object) exists. This apparatus includes both a real video shooting means (for example, a video camera) for shooting a real video, and a CG video generation means for creating a CG video as seen from the position where the real video is shot. It comprises video display means (for example, a head mounted display (HMD) or a monitor) that can be displayed in a synthesized manner. Here, the video display means displays the CG video and the real video in the correct positional relationship even if the gaze position of the real video shooting means changes, and the real video shooting means displays the gaze position and the gaze direction. A line-of-sight position / orientation detection means (for example, a position / orientation sensor) is provided for detection.
[0003]
The CG image generation means places the CG image that has been three-dimensionally modeled in a virtual space having the same scale as the real space, and renders the CG image as observed from the line-of-sight position and the line-of-sight direction detected by the line-of-sight position / orientation detection means. . When the CG video generated in this way and the real video are superimposed, as a result, the target of the CG video is correctly placed in the real space regardless of the gaze position or gaze direction observed by the real video shooting means. It is possible to display an image as if it were displayed.
[0004]
Further, a further position / orientation detection device is attached to a place where a CG image is desired to appear, and the CG image is caused to appear at a position obtained therefrom. For example, by attaching a position / orientation detection device (position / orientation sensor) to the hand and generating a CG image at the position of the sensor, it is as if the object of the CG image is always on the hand, Even if it moves like this, it is possible to display an image as if a CG image is on the hand.
[0005]
A video camera as a real image photographing means for photographing an object to be photographed in a real space captures an image in the direction of the line of sight and captures the captured image data in a memory.
[0006]
For example, an HMD is used as a video display device that synthesizes and displays an actual video and a CG video. By using the HMD instead of a normal monitor and mounting the video camera in the direction of the line of sight of the HMD, the image in the direction that the observer is facing can be displayed on the HMD, and the observer can change the direction. Since the CG image can be displayed when facing the viewer, it is possible to enhance the immersive feeling of the observer.
[0007]
As the position / orientation detection means, a magnetic position / orientation sensor or the like is used. By attaching this to the video camera or the HMD to which the video camera is attached, the position / orientation value of the line of sight of the video camera is obtained. To detect. A magnetic position / orientation sensor detects the relative position and orientation between a magnetism generator (transmitter) and a magnetic sensor (receiver), such as the product FASTRAK from PolhemuS of the United States. It is done. This is a device that detects the three-dimensional position (X, Y, Z) and posture (rolling, pitching, yawing) of a sensor in real time in a specific region.
[0008]
With the above configuration, the observer can observe the world in which the real image and the CG image are superimposed through the HMD. When the observer looks around, the real image capturing device (video camera) provided in the HMD captures a real image, and the line-of-sight position / orientation detection means (position / posture sensor) provided in the HMD detects the position of the video camera. The direction is detected, and the CG image generation means generates a CG image viewed from the line-of-sight position / orientation in response to the detected direction, and displays the CG image superimposed on the actual image.
[0009]
It is also possible to provide a plurality of observers. Video cameras and display devices (such as HMDs) that shoot real space, and position and orientation sensors are prepared as many as the number of viewers, and real space and CG video are generated by shooting real space from the viewpoint of each viewer. These may be combined and displayed to each observer.
[0010]
[Problems to be solved by the invention]
However, the above-described conventional mixed reality presentation apparatus renders a CG image based on values obtained from a gaze position / orientation sensor for detecting a gaze position and a gaze direction (orientation), and there is an error in these values. If there is, the positions of all the generated CG images are shifted, and CG images viewed from positions and directions shifted by the error are generated.
[0011]
Further, even when the line-of-sight position / orientation sensor has a small error, if there is an error in the CG image position / orientation sensor installed to detect the location where the CG image is to appear, the CG intended to appear at that position. The position and direction of the image are shifted.
[0012]
The values obtained from such position and orientation sensors generally include more or less errors. For example, in a position and orientation sensor using a magnetic system, the region where the position and orientation can be detected is a spatial region centered on the magnetic transmitter. Even within that region, the detection error increases as the receiver (sensor) moves away from the magnetic transmitter. For this reason, the farther the observation position, that is, the position of the camera for taking a real image, is farther from the transmitter, the farther the position / orientation sensor is from the transmitter, resulting in more errors in the values of the gaze position / orientation. . When the position / orientation sensor is placed at a position where the CG image appears, even if the observer position is close to the transmitter position and the observation is performed from a range with little error, the position where the CG image appears is the transmitter position. As the distance from the position increases, the error of the position / orientation sensor increases, resulting in a shift in the position where the CG image appears.
[0013]
In the conventional mixed reality presentation device, even when the error of the position / orientation sensor becomes large due to the movement of the observer or the movement of the CG image position, the CG image is drawn. Even if the CG video display that is planned to be on the hand, for example, that is out of alignment, is displayed as it is even if it is an unnatural video that is displayed on a place that is not on the hand. There is a problem of end. In the case of a virtual reality system that does not require alignment with the real space (a system that displays only CG images without real images), there is a big problem because it is not so unnatural even if there is a slight error. However, the mixed reality system requires high-precision alignment with the real object, so even a small error that occurs in the effective measurement area of the position and orientation sensor makes the image unnatural. And may not be practical.
[0014]
Also, for example, if there is an error in the line-of-sight position, an error will occur in the alignment of all CG images, but if there is an error in the CG image position and orientation, only an error will occur in the drawing of the CG image. The phenomenon that occurs is different between when the image position / orientation sensor error increases and when the line-of-sight position / orientation sensor error increases, and there is no system that can take appropriate measures in each case.
[0015]
An object of the present invention is to provide an image processing apparatus and method, and a program capable of preventing unnatural video display.
[0016]
[Means for Solving the Problems]
In order to achieve the above object, the image processing apparatus according to
[0017]
The image processing apparatus according to claim 2, in the image processing apparatus according to
[0018]
In order to achieve the above object, the image processing method according to claim 3 includes a real image capturing step of acquiring a real image at a predetermined line-of-sight position, a line-of-sight position detecting step of detecting the predetermined line-of-sight position, An image processing method comprising: a CG video generation step of generating a CG video according to the detected line-of-sight position; and a video display step of superimposing the generated CG video on the acquired real video and displaying it on a display device. And an effective line-of-sight position region setting step of setting an effective area of the line-of-sight position surrounded by a plurality of positions, and whether or not the detected line-of-sight position is within the effective area of the line-of-sight position surrounded by the plurality of positions And the image display step displays the CG image when the detected line-of-sight position is not within the effective region of the line-of-sight position surrounded by the plurality of positions. Not superimposed on the image, and displaying only the physical image.
[0019]
The image processing method according to claim 4 is the image processing method according to claim 3, wherein an effective CG image position region setting step for setting an effective region of the CG image position and a position of the CG image to be superimposed are detected. A CG video position detection step, and another determination step for determining whether or not the position of the detected CG video is within an effective area of the set CG video position, wherein the video display step includes: When the position of the detected CG video is not within the effective area of the set CG video position, the detected CG video is not superimposed on the real video and only the real video is displayed. To do.
[0020]
In order to achieve the above object, a program according to claim 5 is a program for causing a computer to execute an image processing method, a real image photographing module for acquiring a real image at a predetermined line-of-sight position, and the predetermined line-of-sight. A line-of-sight position detection module for detecting a position, a CG video generation module for generating a CG video corresponding to the detected line-of-sight position, and the generated CG video superimposed on the acquired real video on the display device A video display module to display, an effective line-of-sight position area setting module for setting an effective area of the line-of-sight position surrounded by a plurality of positions, and an effective area of the line-of-sight position in which the detected line-of-sight position is surrounded by the plurality of positions A discriminating module that discriminates whether or not the video line is within the plurality of detected visual line positions. When not in the effective area of the viewpoint position surrounded by the position does not overlap the CG image to the actual image, and displaying only the physical image.
[0021]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, an image processing (mixed reality presentation) apparatus according to an embodiment of the present invention will be described in detail with reference to the drawings.
[0022]
FIG. 1 is a block diagram showing a schematic configuration of an image processing (mixed reality presentation) apparatus according to an embodiment of the present invention.
[0023]
1, the mixed reality presentation apparatus according to the embodiment of the present invention includes a
[0024]
The
[0025]
FIG. 2 is a flowchart of the video display process executed by the mixed reality presentation apparatus of FIG.
[0026]
In FIG. 2, first, the gaze position / orientation detection module 110 uses a conventionally used technique, for example, a magnetic sensor or the like, to detect the three-dimensional position (X, Y, Z) and attitude (rolling, (Pitching, yawing) is detected, and the position and orientation data of the
[0027]
In the subsequent step S203, the gaze position
[0028]
Next, the CG image position / orientation detection module 113 detects the position / orientation at which the Nth CG image is to be displayed using the position /
[0029]
In step S206, the later-described CG video position
[0030]
The CG
[0031]
In the subsequent step S208, the variable N is incremented by 1, and in the next step S209, it is determined whether or not the variable N is 2 (the number of CG video images) or less. On the other hand, if the process is repeated and the number exceeds 2, the process proceeds to step S210.
[0032]
As a result of the determination in step S203, if the line-of-sight position is not within the effective area, the process immediately proceeds to step S210 without executing the processing after step S204 (storage of the Nth CG video in the video memory area).
[0033]
In the subsequent step S210, the
[0034]
Next, in step S211, it is determined whether or not the entire process is to be ended. If not, the process after step S201 is repeated again. By repeating the processing, a real image is captured one after another from the
[0035]
According to the processing of FIG. 2, when the line-of-sight positions of the position /
[0036]
FIG. 3 is a flowchart of the gaze position
[0037]
It is assumed that the effective line-of-sight
[0038]
The data in the effective line-of-sight
[0039]
In FIG. 3, first, the distance between the line-of-sight position of the
[0040]
Next, it is determined whether or not the data in the line-of-sight position
[0041]
The data stored in the effective line-of-sight
[0042]
FIG. 4 is a flowchart of the CG video position
[0043]
It is assumed that the effective CG image
[0044]
The effective CG image
[0045]
In FIG. 4, in step S 401, the distance between the CG image position and the sensor effective area center is calculated from the data in the CG image position /
[0046]
Next, it is determined whether or not the data in the CG video position /
[0047]
In the above embodiment, if the position /
[0048]
In addition, an effective area may be individually set for each of the position and
[0049]
It goes without saying that the present invention can also be applied to a case in which a storage medium storing software program modules for realizing the above-described embodiments is achieved by supplying a program to a system or apparatus. In this case, the program module itself read from the storage medium realizes the novel function of the present invention, and the storage medium storing the program constitutes the present invention.
[0050]
In the above embodiment, the program module is stored in the
[0051]
【The invention's effect】
According to the present invention, the line-of-sight position of the real image which is detected, when not in the effective area of the line-of-sight position of the set real images, not overlap the CG image generated in accordance with the viewpoint position in the physical image Therefore, since only the real image is displayed, it is possible to prevent an unnatural image from being displayed.
Furthermore, according to the present invention, the effective region of the line-of-sight position surrounded by a plurality of positions is set, and it is determined whether or not the detected line-of-sight position is within the effective region surrounded by the plurality of positions. Can be arbitrarily set spatially.
[0052]
According to the image processing device of claim 2 and the image processing method of claim 4, when the position of the detected CG video is not within the effective area of the set CG video position, the detected CG video Since the video is not superimposed on the real video and only the real video is displayed , drawing of the CG video is stopped and another CG video is drawn, thereby preventing an unnatural video from being displayed.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a schematic configuration of an image processing (mixed reality presentation) apparatus according to an embodiment of the present invention.
FIG. 2 is a flowchart of video display processing executed by the mixed reality presentation device of FIG.
FIG. 3 is a flowchart of a gaze position
4 is a flowchart of a CG video position
[Explanation of symbols]
101 CPU
102
107 video camera
Claims (5)
前記所定の視線位置を検出する視線位置検出手段と、
前記検出された視線位置に応じたCG映像を生成するCG映像生成手段と、
前記生成されたCG映像を前記取得された現実映像に重畳して表示装置に表示する映像表示手段とを備える画像処理装置において、
複数の位置で囲まれる前記視線位置の有効領域を設定する有効視線位置領域設定手段と、
前記検出された視線位置が前記複数の位置で囲まれる前記視線位置の有効領域内にあるか否かを判別する判別手段とを備え、
前記映像表示手段は、前記検出された視線位置が前記複数の位置で囲まれる前記視線位置の有効領域内にないときは、前記CG映像を前記現実映像に重畳せず、前記現実映像のみを表示することを特徴とする画像処理装置。A real image photographing means for acquiring a real image at a predetermined line-of-sight position;
Eye-gaze position detecting means for detecting the predetermined eye-gaze position;
CG video generation means for generating a CG video according to the detected line-of-sight position;
An image processing apparatus comprising: a video display unit configured to superimpose the generated CG video on the acquired real video and display the video on a display device;
Effective line-of-sight position area setting means for setting an effective area of the line-of-sight position surrounded by a plurality of positions;
Determining means for determining whether or not the detected line-of-sight position is within an effective area of the line-of-sight position surrounded by the plurality of positions;
The video display means displays only the real video without superimposing the CG video on the real video when the detected gaze position is not within the effective region of the gaze position surrounded by the plurality of positions. An image processing apparatus.
前記重畳すべきCG映像の位置を検出するCG映像位置検出手段と、
前記検出されたCG映像の位置が前記設定されたCG映像位置の有効領域内にあるか否かを判別する他の判別手段とを備え、
前記映像表示手段は、前記検出されたCG映像の位置が前記設定されたCG映像位置の有効領域内にないときは、当該検出されたCG映像を前記現実映像に重畳せず、前記現実映像のみを表示することを特徴とする請求項1記載の画像処理装置。Effective CG image position setting means for setting an effective area of the CG image position;
CG image position detecting means for detecting the position of the CG image to be superimposed;
Other discriminating means for discriminating whether or not the position of the detected CG video is within the effective area of the set CG video position,
When the position of the detected CG image is not within the effective area of the set CG image position, the image display means does not superimpose the detected CG image on the actual image and only the actual image the image processing apparatus according to claim 1, wherein the displaying the.
前記所定の視線位置を検出する視線位置検出工程と、
前記検出された視線位置に応じたCG映像を生成するCG映像生成工程と、
前記生成されたCG映像を前記取得された現実映像に重畳して表示装置に表示する映像表示工程とを備える画像処理方法において、
複数の位置で囲まれる前記視線位置の有効領域を設定する有効視線位置領域設定工程と、
前記検出された視線位置が前記複数の位置で囲まれる前記視線位置の有効領域内にあるか否かを判別する判別工程とを備え、
前記映像表示工程は、前記検出された視線位置が前記複数の位置で囲まれる前記視線位置の有効領域内にないときは、前記CG映像を前記現実映像に重畳せず、前記現実映像のみを表示することを特徴とする画像処理方法。A real image shooting process of acquiring a real image at a predetermined line-of-sight position;
A line-of-sight position detecting step of detecting the predetermined line-of-sight position;
A CG image generation step for generating a CG image corresponding to the detected line-of-sight position;
An image processing method comprising: a video display step of displaying the generated CG video on a display device in a superimposed manner on the acquired real video;
An effective line-of-sight position area setting step for setting an effective area of the line-of-sight position surrounded by a plurality of positions;
A determination step of determining whether or not the detected line-of-sight position is within an effective region of the line-of-sight position surrounded by the plurality of positions,
The video display step displays only the real video without superimposing the CG video on the real video when the detected gaze position is not within the effective region of the gaze position surrounded by the plurality of positions. An image processing method.
前記重畳すべきCG映像の位置を検出するCG映像位置検出工程と、
前記検出されたCG映像の位置が前記設定されたCG映像位置の有効領域内にあるか否かを判別する他の判別工程とを備え、
前記映像表示工程は、前記検出されたCG映像の位置が前記設定されたCG映像位置の有効領域内にないときは、当該検出されたCG映像を前記現実映像に重畳せず、前記現実映像のみを表示することを特徴とする請求項3記載の画像処理方法。An effective CG image position area setting step for setting an effective area of the CG image position;
A CG image position detecting step for detecting a position of the CG image to be superimposed;
Another determination step of determining whether or not the position of the detected CG image is within an effective area of the set CG image position,
In the video display step, when the position of the detected CG video is not within the effective area of the set CG video position, the detected CG video is not superimposed on the real video and only the real video is displayed. the image processing method according to claim 3, wherein the displaying the.
所定の視線位置で現実の映像を取得する現実映像撮影モジュールと、
前記所定の視線位置を検出する視線位置検出モジュールと、
前記検出された視線位置に応じたCG映像を生成するCG映像生成モジュールと、
前記生成されたCG映像を前記取得された現実映像に重畳して表示装置に表示する映像表示モジュールと、
複数の位置で囲まれる前記視線位置の有効領域を設定する有効視線位置領域設定モジュールと、
前記検出された視線位置が前記複数の位置で囲まれる前記視線位置の有効領域内にあるか否かを判別する判別モジュールとを備え、
前記映像表示モジュールは、前記検出された視線位置が前記複数の位置で囲まれる前記視線位置の有効領域内にないときは、前記CG映像を前記現実映像に重畳せず、前記現実映像のみを表示することを特徴とするプログラム。In a program for causing a computer to execute an image processing method,
A real image capturing module for acquiring a real image at a predetermined line-of-sight position;
A line-of-sight position detection module for detecting the predetermined line-of-sight position;
A CG video generation module that generates a CG video according to the detected line-of-sight position;
A video display module that superimposes the generated CG video on the acquired real video and displays it on a display device;
An effective line-of-sight position area setting module for setting an effective area of the line-of-sight position surrounded by a plurality of positions;
A determination module that determines whether or not the detected line-of-sight position is within an effective region of the line-of-sight position surrounded by the plurality of positions;
When the detected line-of-sight position is not within the effective area of the line-of-sight position surrounded by the plurality of positions, the video display module displays only the real video without superimposing the CG video on the real video The program characterized by doing.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001071120A JP3848092B2 (en) | 2001-03-13 | 2001-03-13 | Image processing apparatus and method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001071120A JP3848092B2 (en) | 2001-03-13 | 2001-03-13 | Image processing apparatus and method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2002269593A JP2002269593A (en) | 2002-09-20 |
JP3848092B2 true JP3848092B2 (en) | 2006-11-22 |
Family
ID=18928889
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001071120A Expired - Fee Related JP3848092B2 (en) | 2001-03-13 | 2001-03-13 | Image processing apparatus and method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3848092B2 (en) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4298407B2 (en) | 2002-09-30 | 2009-07-22 | キヤノン株式会社 | Video composition apparatus and video composition method |
JP4208601B2 (en) * | 2003-02-24 | 2009-01-14 | キヤノン株式会社 | Display control method and display control apparatus |
JP4393169B2 (en) | 2003-12-04 | 2010-01-06 | キヤノン株式会社 | Mixed reality presentation method and apparatus |
JP4724476B2 (en) * | 2004-09-07 | 2011-07-13 | キヤノン株式会社 | Information processing method and apparatus |
JP5119636B2 (en) | 2006-09-27 | 2013-01-16 | ソニー株式会社 | Display device and display method |
JP6292658B2 (en) * | 2013-05-23 | 2018-03-14 | 国立研究開発法人理化学研究所 | Head-mounted video display system and method, head-mounted video display program |
JP6214653B2 (en) | 2013-07-03 | 2017-10-18 | 株式会社日立製作所 | Remote monitoring system and monitoring method |
JP6572893B2 (en) * | 2014-06-30 | 2019-09-11 | ソニー株式会社 | Information processing apparatus and information processing method, computer program, and image processing system |
KR101762349B1 (en) * | 2016-03-21 | 2017-07-28 | (주)포스트미디어 | Method for providing augmented reality in outdoor environment, augmented reality providing server performing the same, and storage medium storing the same |
-
2001
- 2001-03-13 JP JP2001071120A patent/JP3848092B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2002269593A (en) | 2002-09-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11016297B2 (en) | Image generation apparatus and image generation method | |
CA2888943C (en) | Augmented reality system and method for positioning and mapping | |
US8937592B2 (en) | Rendition of 3D content on a handheld device | |
JP4933406B2 (en) | Image processing apparatus and image processing method | |
JP4227561B2 (en) | Image processing method and image processing apparatus | |
WO2019152617A1 (en) | Calibration system and method to align a 3d virtual scene and 3d real world for a stereoscopic head-mounted display | |
JP2002157607A (en) | System and method for image generation, and storage medium | |
EP3662662B1 (en) | Parallax viewer system for 3d content | |
CN103517061B (en) | A kind of display control method of terminal equipment and device | |
JP2008146109A (en) | Image processing method and image processor | |
CN112166397A (en) | Apparatus, system, and method for accelerating position tracking of head mounted display | |
JP2007004713A (en) | Image processing method and image processor | |
JP4406824B2 (en) | Image display device, pixel data acquisition method, and program for executing the method | |
JP3848092B2 (en) | Image processing apparatus and method, and program | |
CN109716396A (en) | Information processing equipment, information processing method and program | |
JP2006252468A (en) | Image processing method and image processing system | |
JP2006285789A (en) | Image processing method and image processor | |
CN110969706A (en) | Augmented reality device, image processing method and system thereof, and storage medium | |
JP4689344B2 (en) | Information processing method and information processing apparatus | |
JP7006912B2 (en) | Image processing device, image display device and image processing program | |
JP2006277618A (en) | Image generation device and method | |
US20230127539A1 (en) | Information processing apparatus, information processing method, and information processing program | |
JP2004013309A (en) | Information processing method and apparatus for presenting augmented reality | |
Xue et al. | A motion parallax rendering approach to real-time stereoscopic visualization for aircraft virtual assembly | |
JP2005115595A (en) | Mixed reality presentation apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20051220 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060220 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20060220 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20060425 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060510 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20060808 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20060824 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090901 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100901 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110901 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110901 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120901 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120901 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130901 Year of fee payment: 7 |
|
LAPS | Cancellation because of no payment of annual fees |