JP2005346469A - 画像処理方法、画像処理装置 - Google Patents

画像処理方法、画像処理装置 Download PDF

Info

Publication number
JP2005346469A
JP2005346469A JP2004166132A JP2004166132A JP2005346469A JP 2005346469 A JP2005346469 A JP 2005346469A JP 2004166132 A JP2004166132 A JP 2004166132A JP 2004166132 A JP2004166132 A JP 2004166132A JP 2005346469 A JP2005346469 A JP 2005346469A
Authority
JP
Japan
Prior art keywords
image
virtual object
real space
orientation
color
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004166132A
Other languages
English (en)
Other versions
JP4217661B2 (ja
Inventor
Yasuhiro Okuno
泰弘 奥野
Takashi Aso
隆 麻生
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2004166132A priority Critical patent/JP4217661B2/ja
Publication of JP2005346469A publication Critical patent/JP2005346469A/ja
Application granted granted Critical
Publication of JP4217661B2 publication Critical patent/JP4217661B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

【課題】 現実空間画像中の複数の色範囲に対して、仮想物体の画像の重畳の可否を設定する為の技術を提供すること。
【解決手段】 設定された色範囲内の色を有する現実空間の画像中の領域に対して、仮想物体の画像の重畳が不可能である場合(S306)、この領域には仮想物体の画像を重畳させずに、現実空間の画像上に仮想物体の画像を重畳した画像を生成する(S310,S311)。
【選択図】 図3

Description

本発明は、現実空間の画像上に仮想物体の画像を重畳する為の技術に関するものである。
従来より、現実世界の映像と、三次元モデリングされたCGによる映像を重畳して表示し、あたかも現実の世界中にCGで描かれた物体(仮想物体)が存在しているかのように見せることができるような複合現実感(MR:Mixed Reality)提示装置が存在する。これは、現実の映像を撮影するための現実映像撮影手段(たとえばビデオカメラ)と、現実の映像を撮影している位置から見たようにCG映像を作り出すCG映像生成手段と、両者の映像を合成して表示することのできる映像表示手段(たとえばHMD(ヘッドマウントディスプレイ)またはモニタ)からなる装置である。
ここでは、現実映像撮影手段の視線の位置姿勢が変わった場合であってもCGと現実映像との位置関係を正しく表示するために、現実映像撮影手段(ビデオカメラ)の視線位置・視線方向を検出するための、視線位置姿勢検出手段(たとえば位置姿勢センサ)を備えている。CG映像生成手段は、三次元モデリングされたCGを、現実空間と同じスケールの仮想空間に置き、視線位置姿勢検出手段によって検出された視線位置、視線方向から観察されたものとしてCGをレンダリングするものである。
このようにして生成されたCG映像と現実の映像とを重畳すると、結果として、現実映像撮影手段がどの視線位置・視線方向から観察した場合でも、現実空間の中に正しくCGで生成された映像が置かれているような映像を表示ことができる。CGの種類や配置の変更、アニメーションなどは、一般的なCGと同様に、自由に行える。CGの位置を指定するためにもうひとつ位置姿勢センサを備えて位置姿勢センサの値どおりの場所にCGを描画することも可能である。そのような構成で位置姿勢センサを手に持ち、センサの位置姿勢でCGを観察することが従来より行われている。
現実空間の映像を撮影する現実映像撮影手段は、たとえばビデオカメラであり、カメラの視線方向にある映像を撮影し、メモリ中にキャプチャする手段である。
現実空間の映像とCGとを合成して表示する映像表示装置としては、たとえばHMD(ヘッドマウントディスプレイ)が用いられる。通常のモニタでなくHMDを用いて、さらに上記ビデオカメラをHMDの視線方向に装着することで、観察者が向いている方向の映像をHMDに映し出すことができ、かつ、その方向を向いたときのCGの描画も行えるため、観察者の没入感を高めることができる。
位置姿勢検出手段としては磁気方式による位置姿勢センサなどが用いられ、これを上記ビデオカメラ(またはビデオカメラが取り付けられているHMD)に取り付ることによって、ビデオカメラの視線の位置姿勢の値を検出する。磁気方式の位置姿勢センサとは、磁気発生装置(発信機)と磁気センサ(受信機)との間の相対位置・姿勢を検出するものであり、米国ポヒマス(Polhemus)社の製品FASTRAKなどがあげられる。これは特定の領域内で、センサの3次元位置(X,Y,Z)と姿勢(Roll, Pitch, Yaw)をリアルタイムに検出する装置である。
上記の構成により、観察者はHMDを通じて、現実映像とCG映像が重畳された世界を観察することができるようになる。観察者が周囲を見回すと、HMDに備え付けられた現実映像撮影装置(ビデオカメラ)が現実の映像を撮影し、HMDに備え付けられた視線位置姿勢検出手段(位置姿勢センサ)がビデオカメラの位置視線方向を検出し、これに応じてCG映像生成手段がその視線位置・姿勢から見たCG映像を生成(レンダリング)し、これを現実映像に重畳して表示する。
従来の一般的な複合現実感提示方法は、現実映像の画像の上にCG画像を重畳するだけであり、現実に存在する物体とCG物体の奥行き関係は考慮されていない。そのため、観察者がCG物体の手前に手をかざしても、自分の手は見えずに、手の奥にあるCGが観察されてしまうといった問題がある。図2はその状態を説明する図である。
図2は、HMD201を装着した観察者がCGオブジェクト202に対して手203を差し伸べている状態を示す図である。
このときHMD201を介して観察者に提示されるのは204に示す如くMR画像になる。MR画像204には説明のため本来見えるべき指先の部分205を破線で示してある。CGオブジェクトと手の奥行き関係からすれば、指先205はCGオブジェクト202の手前に描画されるべきであるが、CGオブジェクトの画像は現実映像の上に重畳されるだけであるため、指先部分の画像よりも手前に表示されてしまう。
この問題を解決するために、現実物体とCG物体の重なる領域を検出し、その領域はCGをマスキングして現実物体が見えるように表示することも従来から行われている(例えば特許文献1を参照)。これらの手法では、現実オブジェクト検出手段とCGマスキング手段を備えている。
現実オブジェクト検出手段としては、例えば、図2に示した例のような手とCGオブジェクトの間の重なり合いを正しく表示するためには、現実映像中の手の表示エリアが検出できれば良いので、現実映像の各画素について色が肌色に近いかどうかを判定して、手が撮影されているエリアを検出するような、色領域検出手段を備えればよい。
このような色領域検出手段による画像は、例えば図2の206に示す如くマスク画像のようなものになる。CGマスキング手段としては、色領域検出手段によって肌色(手)が撮影されているとされた画像領域をCGのステンシルバッファにセットするか、デプスバッファ(Zバッファ)の最小値にセットすることなどによって、該当部分にCGが描画されないようにすることができ、207に示す如くマスク済MR画像のような画像を得ることができる。
ここで例にあげた方法では、現実映像に肌色が写っている場所はその奥行きにかかわらずCGが描画されなくなるという欠点があるが、CGオブジェクトの位置が常に手よりも奥にあると仮定できる状況においては十分に有効であり、手法も簡便であるため、従来から用いられている。
ここで説明したマスキングを行うシステムにおいては、図6の208に示すような肌色の指示棒を観察者が手に持つことにより、CGを指し示すことができる。図6は、HMD201を装着した観察者がCGオブジェクト202に対して指示棒208を差し伸べている状態を示す図である。
マスキングを行わない複合現実感提示システムにおいてはCGオブジェクトを現実の指示棒で指し示そうとしても指示棒の映像はCGに上書きされてしまっていたが、肌色の領域をマスキングするシステムであれば、手に限らず、肌色の指示棒もマスキング対象となるため、図6の209に示すような画像を得ることができる。
特開2003-296759号公報
従来のシステムでは、CGマスキング処理を行う場合、1つの色に対して処理を行っていた。また、すべてのCGに対してマスキング処理を行っていた。
しかしながら、システムによっては、必ずしもすべてのCGに対してハンドマスキングを行うことが好適ではなかった。たとえば、手に位置センサを持ってその位置にCGオブジェクトを表示しようとした場合、CGオブジェクトと位置センサの大きさは違うのに、手は位置センサを持っているので、手によってCGオブジェクトの内部の位置までマスクされることがあった。このような場合などでは肌色による手のマスキングを無効にすることが好ましかった。
また、肌色によるマスキングを無効にした場合に、肌色の指示棒が使えなくなると言った問題があった。
本発明は以上の問題に鑑みてなされたものであり、現実空間画像中の複数の色範囲に対して、仮想物体の画像の重畳の可否を設定する為の技術を提供することを目的とする。
本発明の目的を達成するために、例えば本発明の画像処理方法は以下の構成を備える。
すなわち、現実空間の画像上に仮想物体の画像を重畳する画像処理方法であって、
色範囲を設定する第1の設定工程と、
前記色範囲内の色を有する前記現実空間の画像中の領域に対して、前記仮想物体の画像の重畳が可能であるか否かを示す情報を設定する第2の設定工程と、
重畳不可を示す情報が設定された前記現実空間の画像中の領域には前記仮想物体の画像を重畳させずに、現実空間の画像上に仮想物体の画像を重畳した画像を生成する生成工程と
を備えることを特徴とする。
本発明の目的を達成するために、例えば本発明の画像処理装置は以下の構成を備える。
すなわち、現実空間の画像上に仮想物体の画像を重畳する画像処理装置であって、
色範囲を設定する第1の設定手段と、
前記色範囲内の色を有する前記現実空間の画像中の領域に対して、前記仮想物体の画像の重畳が可能であるか否かを示す情報を設定する第2の設定手段と、
重畳不可を示す情報が設定された前記現実空間の画像中の領域には前記仮想物体の画像を重畳させずに、現実空間の画像上に仮想物体の画像を重畳した画像を生成する生成手段と
を備えることを特徴とする。
本発明の構成により、現実空間画像中の複数の色範囲に対して、仮想物体の画像の重畳の可否を設定することができる。
以下添付図面を参照して、本発明を好適な実施形態に従って詳細に説明する。
[第1の実施形態]
図1は、本実施形態に係る複合現実感提示システムの基本構成を示す図である。
本システムは大まかには、コンピュータ100、HMD(ヘッドマウントディスプレイ)104,ビデオカメラ105、位置姿勢センサ108、109、センサコントローラ103により構成されている。以下、これら各部について説明する。
先ずHMD104について説明する。
HMD104は周知の通り、MR空間を体感する観察者の頭部に装着するためのものであり、HMD104に備わっている不図示の表示部が観察者の眼前に位置するように装着される。
HMD104には、観察者がHMD104を頭部に装着した場合に、観察者の視線方向の映像を撮像可能なようにビデオカメラ105が固着されている。よってビデオカメラ105は、HMD104の位置姿勢に応じて見える現実空間の映像を撮像することができる。
またHMD104には位置姿勢センサ108が固着されている。位置姿勢センサ108は磁気センサや超音波センサなどにより構成されており、自身の位置姿勢を計測し、その計測結果を信号としてセンサコントローラ103に出力する。本実施形態では、位置姿勢センサ108は世界座標系(現実空間中の1点を原点とし、この原点で互いに直交する3軸をそれぞれx軸、y軸、z軸とする空間)における自身の位置姿勢を計測するものとして説明する。位置姿勢センサ108により計測された結果は信号としてセンサコントローラ103に出力され、センサコントローラ103は、受信した信号の強度に応じた数値をコンピュータ100に出力する。
位置姿勢センサ109は、MR空間を体感する観察者(その他の者でも良い)が手に持ってMR空間における仮想物体の位置姿勢を変更するためのものであり、センサとしては位置姿勢センサ108と同様のものである。すなわち、位置姿勢センサ109自身の世界座標系における位置姿勢を計測し、その計測結果を信号としてセンサコントローラ103に出力する。センサコントローラ103は同様に、受信した信号の強度に応じて、その計測結果を数値データとしてコンピュータ100に出力する。
次に、コンピュータ100について説明する。
コンピュータ100は一般にはPC(パーソナルコンピュータ)やWS(ワークステーション)などにより構成されている。また、専用のハードウェアにより構成されても良い。コンピュータ100はCPU101、メモリ106,107、操作部150、表示部160により構成されており、これら各部はバス102により互いに接続されている。
CPU101はメモリ106に格納されている各種のプログラムや、メモリ107に格納されている各種のデータを用いて後述する各処理を実行するとともに、コンピュータ100全体の制御を行う。また、後述するセンサコントローラ103とのデータ通信をも制御する。
メモリ106には、CPU101に後述する各種の処理を行わせるための各種のプログラム(現実映像撮影部110、CG映像生成部111、位置姿勢検出部112、色領域検出部113、CGマスキング部114、マスキング対象色指定部115、映像表示部116)が格納されている。これら各種のプログラムについては後述する。また不図示ではあるが、メモリ106には、CPU101がコンピュータ100全体の制御を行うために必要な各種のプログラムが格納されている。
メモリ107には、CPU101が後述の各処理を実行する際に必要とする各種のワークエリアや、CPU101が後述の各処理を実行する際に用いる各種のデータを格納しているエリアなどを備える。また不図示ではあるが、メモリ107には、CPU101がコンピュータ100全体の制御を行うために必要な各種のデータが格納されている。
なお、本実施形態ではメモリ106とメモリ107とは別個のメモリとしているが、これに限定するものではなく、これらのメモリを同一メモリ上に設けるようにしても良い。
操作部150はキーボードやマウスなどにより構成されており、各種の指示をCPU101に対して入力することができる。
表示部160は、CRTや液晶画面などにより構成されており、各種の情報を画像や文字などでもって表示することができる。
キャプチャカード119は、ビデオカメラ105により撮像された現実空間の画像を受け、これを信号としてメモリ107に出力するためのインターフェースとして機能するものである。
なお、コンピュータ100の構成はこれに限定するものではなく、メモリ106,107に記憶されている各種のプログラムやデータを保存するためのハードディスクドライブ装置や、コンピュータ100で処理した結果を、ネットワークを介して外部に出力するためのネットワークI/F部などを更に備えるようにしても良い。
図4は、マスキング対象色指定部115が参照するデータテーブルの構成例を示す図である。
同図に示すデータテーブルは、マスキング対象色指定部115がマスク対象となる色のデータを管理するために参照するものであり、より詳しくは、ビデオカメラ105により撮像された現実空間の画像において、画素値(R、G、Bそれぞれの値)が所定の範囲内にある画素群をマスキングするか否かを管理するために参照する為のものである。
例えばインデックスiが1で規定されるR、G、Bそれぞれの画素値の範囲は、Rが[222,250]、Gが[128,136]、Bが[128,136]である。そしてこのようなR、G、Bの範囲に対して「ON」であるフラグ値が関連付けられているので、これは、「Rが[222,250]、Gが[128,136]、Bが[128,136]を満たす画素はマスキング対象とする、すなわち、この画素には仮想物体の画像は重畳不可とする」ことを意味する。
一方、インデックスiが2で規定されるR、G、Bそれぞれの画素値の範囲は、Rが[5,10]、Gが[5,10]、Bが[200,255]である。そしてこのようなR、G、Bの範囲に対して「OFF」であるフラグ値が関連付けられているので、これは、「Rが[5,10]、Gが[5,10]、Bが[200,255]を満たす画素はマスキング対象とはしない、すなわち、この画素には仮想物体の画像を重畳可とする」ことを意味する。
このようにして、データテーブルは、R、G、Bそれぞれの画素値が所定の範囲内にある画素をマスキング対象とするかいなかを管理するように構成されており、マスキング対象色指定部115は、このような構成を備えるデータテーブルを参照してマスキング対象を管理することができる。
なお、各インデックスに対応するフラグ値は動的に変更することが可能である。
図4は、CPU101がメモリ106に格納されている各プログラムを実行することでなされる、MR画像を生成して観察者に提示する処理のフローチャートである。
先ずステップS300では、上記インデックスiの値を1に初期化する。次にステップS301では、上記インデックスiの取りうる最大数(マスキング対象色数)Nをコンピュータ100の操作者が操作部150を用いて入力する。
また図4に示すデータテーブルは予めメモリ107内の所定のエリアに記憶されているものとする。
一方、ビデオカメラ105は、HMD104の位置姿勢に応じて見える現実空間の動画像を撮像しており、コンピュータ100にはこの動画像を構成する各フレームの画像(現実空間画像)が順次入力される。従ってステップS302では、現実映像撮像部110のプログラムを実行することで、ビデオカメラ105からコンピュータ100に入力された現実空間画像をキャプチャして現実画像メモリ120に格納する処理を行う。
次に、ビデオカメラ105の世界座標系における位置姿勢を得る目的のためステップS303では、位置姿勢検出部112のプログラムを実行し、先ず、位置姿勢センサ108により計測され、センサコントローラ103により数値データに変換した結果を視線位置姿勢メモリ121に格納する処理を行う。そして、ビデオカメラ105と位置姿勢センサ108との位置姿勢関係を用いて周知の変換処理により、位置姿勢センサ108により得られた結果から、ビデオカメラ105の世界座標系における位置姿勢(以下、視点の位置姿勢と呼称する場合がある)を得る。なお、ビデオカメラ105と位置姿勢センサ108との位置姿勢関係は予め測定されており、データとしてメモリ107中の所定のエリアに格納されているものとする。
以上の処理によりビデオカメラ105の世界座標系における位置姿勢が得られたので、得た結果のデータを視線位置姿勢メモリ121に格納する。
次にステップS304では、位置姿勢センサ109により計測され、センサコントローラ103により数値データに変換した結果をCG位置姿勢メモリ122に格納する。CG位置姿勢メモリ122に格納されたのは上述の通り、位置姿勢センサ109自身の世界座標系における位置姿勢を示すデータである。
次にステップS305では、現在のインデックスiがステップS301で入力した変数Nよりも大きいか否かを判断する。インデックスiがN以下、すなわち、全てのインデックスiに対するフラグ値を参照していない場合には処理をステップS306に進め、図4に示すデータテーブルを参照して、現在のインデックスiに対応するフラグ値がONであるか否かを判断する。
現在のインデックスiに対応するフラグ値がONである場合には、処理をステップS307に進め、色領域検出部113のプログラムを実行し、現実画像メモリ120に格納されている現実空間画像において、画素値が現在のインデックスiに対応するR、G、Bの範囲内にある画素群を検出し、マスキング画像メモリ125に格納する。
例えば現在のインデックスiが1の場合に、図4のデータテーブルを参照すると、Rが[222,250]、Gが[128,136]、Bが[128,136]であるので、現実空間画像において、Rが[222,250]、Gが[128,136]、Bが[128,136]である画素群を検出し、その画素値をマスキング画像メモリ125に格納する。
次にステップS308では、CGマスキング部114のプログラムを実行することにより、マスキング処理を行う。具体的には、従来からなされているように、ステップS307で検出された画像領域に対して、ステンシルバッファやZバッファを用いることによって、以降の処理で、この領域に仮想物体の画像が描画されないようにする。
次にステップS309ではインデックスiを1つインクリメントし、処理をステップS305に戻し、インクリメント後のインデックスiがNよりも大きいか否かを判断する。 そして、インデックスiがNよりも大きい、すなわち、全てのマスキング対象色に対してマスキング処理を行ったと判断した場合には処理をステップS310に進め、メモリ107に保持されている仮想物体のCGモデルデータ123、ステップS303で視線位置姿勢メモリ121に格納されたデータ、及びステップS304でCG位置姿勢メモリ121に格納されたデータを参照して、CG映像生成部111のプログラムを実行することにより、位置姿勢センサ109の位置姿勢と同じ位置姿勢に仮想物体を配置し、これをビデオカメラ105の位置姿勢から見た場合に見える仮想物体の画像を画像メモリ124上に生成(レンダリング)する。その際、ステップS308でマスキング箇所となった画像領域(現実空間画像と重畳した場合に、ステップS307で検出した画像領域と重なる領域)には何も描画しない。
また、位置姿勢センサ109の位置姿勢に関係なく、所定の位置姿勢に配置されるべき仮想物体についても、同様の処理を行う。
そしてステップS311では映像表示部116のプログラムを実行することにより、現実画像メモリ120に格納されている現実空間画像上に、画像メモリ124上にレンダリングされた画像を重畳させてHMD104や表示部160に出力する。
そして以上の処理をビデオカメラ105から入力される各フレームについて行うことで、観察者にビデオカメラ105から見えるMR空間の画像を提示することができる。
以上の説明により、本実施形態によって、現実空間画像中の複数の色範囲に対して、仮想物体の画像の重畳の可否を設定することができる。
なお、本実施形態では、R、G、Bそれぞれの画素値が所定の範囲内にある画素をマスキング対象とするかいなかを管理する方法として図4に示すようなデータテーブルを用いていたが、これに限定するものではなく、同じ目的を達成可能であれば、テーブルの構成はこれに限定するものではない。
[第2の実施形態]
第1の実施形態では、位置姿勢センサ108(109)は自身の世界座標系における位置姿勢を計測するものとして説明したが、これに限定するものではなく、例えば位置姿勢センサ108(109)が所定の座標系における位置姿勢を計測する場合、コンピュータ100側でこの所定の座標系と世界座標系との位置姿勢関係を示すデータを保持しておけば、このデータを用いて位置姿勢センサ108(109)で計測した結果を周知の計算方法により世界座標系における位置姿勢に変換することができるので、位置姿勢センサ108(109)が何れの座標系における位置姿勢を計測してもコンピュータ100側では位置姿勢センサ108(109)の世界座標系を得ることができる。従って必ずしも位置姿勢センサ108(109)は世界座標系における位置姿勢を計測するものと限定することはない。
[第3の実施形態]
第1の実施形態ではそれぞれの色範囲に対応するフラグ値は固定して説明したが、第1の実施形態でも述べたように、これを動的に変更するようにしても良い。また、色範囲を動的に変更するようにしても良い。
また、第1の実施形態では、色範囲として、R、G、Bの上限値、下限値を設定したが、これに限定するものではなく、明度、彩度等、他のパラメータでもって、色範囲を設定するようにしても良い。
[第4の実施形態]
図5は、現実空間の画像において、仮想物体の画像を重畳させない領域の色範囲を設定するためのGUIの表示例を示す図である。
同図において、500,501はそれぞれ、Rの下限値(Rmin)、上限値(Rmax)を設定するためのスライダで、例えばコンピュータ100の操作者は操作部150に含まれているマウスを用いてこれらスライダを左右に移動させることで、Rの上限値、下限値を設定することができる。同様に502,503はそれぞれGの下限値(Gmin)、上限値(Gmax)を設定するためのスライダで、504,505はそれぞれBの下限値(Bmin)、上限値(Bmax)を設定するためのスライダである。その操作方法については全て同じである。
510,511はそれぞれ、スライダ500乃至505でもって設定した色範囲内の色を有する現実空間画像の領域上への仮想物体の画像の重畳の可否(図4のフラグに相当)を設定するためのチェックボタンで、510は「否」(ON)、511は可(OFF)を設定するためのものである。このチェックボタンについては、例えばコンピュータ100の操作者が操作部150に含まれているマウスを用いて何れかのチェックボタンをクリックすることにより、何れかのチェックボタンがアクティブになり(同図ではチェックボタン510がアクティブになっている)、これによりアクティブになっているチェックボタンが示す方のフラグ値(重畳の可否)が設定される。
507は、これまでに設定したR、G、Bの色範囲を表示するための領域であり、領域507に表示すべき情報がいっぱいになると、スライダ508を操作して領域507内に表示されている情報を上下にスクロールさせるようにしても良い。スライダ508の操作方法についてはスライダ500乃至505と同じである。
また、領域507内に表示されているそれぞれの色範囲について、チェックボタン510,511でもって設定した重畳の可否情報については、色範囲を示す文字列と同じ行に「重畳可」、「重畳否」の何れかの文字列を表示するようにしても良いし、色範囲を示す文字列の色を「重畳可」、「重畳否」に応じて変更するようにしても良い。
509は色範囲、重畳可否情報の1セットを設定する毎に押下すべきボタンで、このボタン509を押下することで、スライダ500乃至505、チェックボタン510,511でもって設定した1セットの情報(色範囲と重畳可否情報)をメモリに記憶させると共に、領域507に設定した情報が表示される。ボタン509の押下は、例えばコンピュータ100の操作者が操作部150に含まれているマウスを用いて押下するようにしても良い。
なお、同図のGUIに係るプログラムやデータはメモリ106やメモリ107に記憶されており、CPUの処理対象となる。
[その他の実施形態]
本発明の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記録媒体(または記憶媒体)を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムコードを読み出し実行することによっても、達成されることは言うまでもない。この場合、記録媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記録した記録媒体は本発明を構成することになる。
また、コンピュータが読み出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
さらに、記録媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた後、そのプログラムコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
本発明を上記記録媒体に適用する場合、その記録媒体には、先に説明したフローチャートに対応するプログラムコードが格納されることになる。
本発明の第1の実施形態に係る複合現実感提示システムの基本構成を示す図である。 HMD201を装着した観察者200がCGオブジェクト202に対して手203を差し伸べている状態例を示す図である。 CPU101がメモリ106に格納されている各プログラムを実行することでなされる、MR画像を生成して観察者に提示する処理のフローチャートである。 マスキング対象色指定部115が参照するデータテーブルの構成例を示す図である。 現実空間の画像において、仮想物体の画像を重畳させない領域の色範囲を設定するためのGUIの表示例を示す図である。 HMD201を装着した観察者がCGオブジェクト202に対して指示棒208を差し伸べている状態を示す図である。

Claims (5)

  1. 現実空間の画像上に仮想物体の画像を重畳する画像処理方法であって、
    色範囲を設定する第1の設定工程と、
    前記色範囲内の色を有する前記現実空間の画像中の領域に対して、前記仮想物体の画像の重畳が可能であるか否かを示す情報を設定する第2の設定工程と、
    重畳不可を示す情報が設定された前記現実空間の画像中の領域には前記仮想物体の画像を重畳させずに、現実空間の画像上に仮想物体の画像を重畳した画像を生成する生成工程と
    を備えることを特徴とする画像処理方法。
  2. 前記第1の設定工程では、複数の色範囲を設定し、前記第2の設定工程では、それぞれの色範囲について、当該色範囲内の色を有する前記現実空間の画像中の領域に対して、前記仮想物体の画像の重畳が可能であるか否かを示す情報を設定することを特徴とする請求項1に記載の画像処理方法。
  3. 現実空間の画像上に仮想物体の画像を重畳する画像処理装置であって、
    色範囲を設定する第1の設定手段と、
    前記色範囲内の色を有する前記現実空間の画像中の領域に対して、前記仮想物体の画像の重畳が可能であるか否かを示す情報を設定する第2の設定手段と、
    重畳不可を示す情報が設定された前記現実空間の画像中の領域には前記仮想物体の画像を重畳させずに、現実空間の画像上に仮想物体の画像を重畳した画像を生成する生成手段と
    を備えることを特徴とする画像処理装置。
  4. コンピュータに請求項1又は2に記載の画像処理方法を実行させることを特徴とするプログラム。
  5. 請求項4に記載のプログラムを格納することを特徴とする、コンピュータ読みとり可能な記憶媒体。
JP2004166132A 2004-06-03 2004-06-03 画像処理方法、画像処理装置 Expired - Fee Related JP4217661B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004166132A JP4217661B2 (ja) 2004-06-03 2004-06-03 画像処理方法、画像処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004166132A JP4217661B2 (ja) 2004-06-03 2004-06-03 画像処理方法、画像処理装置

Publications (2)

Publication Number Publication Date
JP2005346469A true JP2005346469A (ja) 2005-12-15
JP4217661B2 JP4217661B2 (ja) 2009-02-04

Family

ID=35498778

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004166132A Expired - Fee Related JP4217661B2 (ja) 2004-06-03 2004-06-03 画像処理方法、画像処理装置

Country Status (1)

Country Link
JP (1) JP4217661B2 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008046750A (ja) * 2006-08-11 2008-02-28 Canon Inc 画像処理装置および方法
JP2009123018A (ja) * 2007-11-15 2009-06-04 Canon Inc 画像処理装置、画像処理方法
JP2012075018A (ja) * 2010-09-29 2012-04-12 Casio Comput Co Ltd 再生装置及び方法、並びにプログラム
JP2013134706A (ja) * 2011-12-27 2013-07-08 Canon Inc 情報処理装置、情報処理方法、及びそのプログラム
JP5762600B1 (ja) * 2014-06-06 2015-08-12 キヤノン株式会社 情報処理装置及び情報処理方法
JP2020052466A (ja) * 2018-09-21 2020-04-02 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008046750A (ja) * 2006-08-11 2008-02-28 Canon Inc 画像処理装置および方法
US8144238B2 (en) 2006-08-11 2012-03-27 Canon Kabushiki Kaisha Image processing apparatus and method
JP2009123018A (ja) * 2007-11-15 2009-06-04 Canon Inc 画像処理装置、画像処理方法
JP2012075018A (ja) * 2010-09-29 2012-04-12 Casio Comput Co Ltd 再生装置及び方法、並びにプログラム
JP2013134706A (ja) * 2011-12-27 2013-07-08 Canon Inc 情報処理装置、情報処理方法、及びそのプログラム
US9141873B2 (en) 2011-12-27 2015-09-22 Canon Kabushiki Kaisha Apparatus for measuring three-dimensional position, method thereof, and program
JP5762600B1 (ja) * 2014-06-06 2015-08-12 キヤノン株式会社 情報処理装置及び情報処理方法
JP2020052466A (ja) * 2018-09-21 2020-04-02 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
JP7204397B2 (ja) 2018-09-21 2023-01-16 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム

Also Published As

Publication number Publication date
JP4217661B2 (ja) 2009-02-04

Similar Documents

Publication Publication Date Title
JP4227561B2 (ja) 画像処理方法、画像処理装置
JP4950834B2 (ja) 画像処理装置、画像処理方法
KR102598116B1 (ko) 증강 현실 데이터를 레코딩하기 위한 기술
US8866811B2 (en) Image processing apparatus and image processing method
JP4533087B2 (ja) 画像処理方法、画像処理装置
US7952594B2 (en) Information processing method, information processing apparatus, and image sensing apparatus
JP4401728B2 (ja) 複合現実空間画像生成方法及び複合現実感システム
US8633871B2 (en) Image processing apparatus and image processing method
JP2009025918A (ja) 画像処理装置、画像処理方法
JP2007299326A (ja) 情報処理装置及びその制御方法、画像処理装置、プログラム、記憶媒体
JP2006318095A (ja) 画像処理方法、画像処理装置
JP2007004713A (ja) 画像処理方法、画像処理装置
JP4574323B2 (ja) 画像処理方法、画像処理装置
JP2017134771A (ja) 情報処理装置、情報処理方法、プログラム
JP2005339377A (ja) 画像処理方法、画像処理装置
JP4217661B2 (ja) 画像処理方法、画像処理装置
JP2005251118A (ja) 画像処理方法、画像処理装置
JP2006343954A (ja) 画像処理方法、画像処理装置
JP2009015648A (ja) 画像処理装置、画像処理方法
JP2005128877A (ja) 複合現実感提示システム及び方法、情報処理装置及び方法、並びにコンピュータプログラム
JP2019040356A (ja) 画像処理装置、画像処理方法、コンピュータプログラム
JP2019040357A (ja) 画像処理装置、画像処理方法、コンピュータプログラム
JP2004013309A (ja) 情報処理方法および複合現実感提示装置
JP5683402B2 (ja) 画像合成装置及び画像合成方法
JP2007004716A (ja) 画像処理方法、画像処理装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070523

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20070523

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080523

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080707

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080728

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080918

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20081027

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20081110

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111114

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121114

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131114

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees