JP4934577B2 - 画像処理装置及び画像処理方法 - Google Patents

画像処理装置及び画像処理方法 Download PDF

Info

Publication number
JP4934577B2
JP4934577B2 JP2007316810A JP2007316810A JP4934577B2 JP 4934577 B2 JP4934577 B2 JP 4934577B2 JP 2007316810 A JP2007316810 A JP 2007316810A JP 2007316810 A JP2007316810 A JP 2007316810A JP 4934577 B2 JP4934577 B2 JP 4934577B2
Authority
JP
Japan
Prior art keywords
image
image processing
real
processing apparatus
virtual object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2007316810A
Other languages
English (en)
Other versions
JP2009140296A5 (ja
JP2009140296A (ja
Inventor
真和 藤木
隆之 橋本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2007316810A priority Critical patent/JP4934577B2/ja
Priority to US12/265,546 priority patent/US9082213B2/en
Publication of JP2009140296A publication Critical patent/JP2009140296A/ja
Publication of JP2009140296A5 publication Critical patent/JP2009140296A5/ja
Application granted granted Critical
Publication of JP4934577B2 publication Critical patent/JP4934577B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Description

本発明はMR(Mixed Reality:複合現実感)技術に関し、特に仮想空間の画像を光線追跡法により生成する画像処理装置に関する。
従来より画像処理技術の分野では、カメラなどの撮影装置で現実空間を撮像して得られる実写画像と、仮想物体のCG画像とを合成した画像を生成することで、現実空間には存在しない部分に任意の仮想物体が存在する画像を得るMR(Mixed Reality:複合現実感)技術が各種シミュレーション、ゲーム等に広く利用されている。
また近年では、CG画像の合成に光線追跡(レイトレーシング)法を利用したMR技術が研究されている(非特許文献1参照)。光線追跡法を利用すると、従来のラスタライゼーション法では困難であった反射や屈折表現、影の高速な生成、グローバルイルミネーションの表現が可能になり、高品質な画像を生成することができる。
非特許文献1では、仮想物体の影が実物体である部屋の床面に落ちる様子をMR画像として生成している。これを実現するためには、現実の床に相当する仮想物体の床が存在する必要がある。非特許文献1では、床面の一部に相当する不可視の仮想物体を作成し、仮想空間に配置している。
Andreas Pomi,Philipp Slusallek,"Interactive Mixed Reality Rendering in a Distributed Ray Tracing Framework",IEEE and ACM International Symposium on Mixed and Augmented Reality ISMAR 2004,Student Colloquium,2004.
従来の技術では、実写画像中に存在する実物体と、実物体に相当する仮想物体との間に位置・姿勢・形状のずれがあっても、MR画像生成時にずれを考慮した処理を行っていない。このため、生成したMR画像に矛盾が生ずる可能性があった。
この課題を図12の例を用いて示す。図12はMR画像であり、1201は実写画像上の実物体、1202は実物体1201に相当する仮想物体である。実物体1201と仮想物体1202には形状の差がある。実物体1201および仮想物体1202の背景1204には、仮想物体もしくは現実物体が存在する。
このような場合、実物体1201の境界とこれに相当する仮想物体1202の境界との間の隙間領域1203内の画素を、光線追跡法で描画処理する際、光線は仮想物体1202に交差する。したがって、隙間領域1203には仮想物体1202の像が描画されることになる。しかしながら、この領域は実物体1201が存在しないので、正しくは背景1204の像が描画されなければならない。すなわち、生成したMR画像に実世界との矛盾が生じている。
本発明は上記の課題を鑑み、実写画像上で観測される実物体の形状を反映した矛盾のないMR画像を生成することを目的とする。
上記の課題を解決するため、本発明の画像処理装置は、現実空間を撮影した実写画像を取得する取得手段と、前記取得手段により取得した実写画像を画像処理する画像処理手段と、光線追跡法により仮想空間を投影した像と、前記実写画像取得手段により取得した実写画像に含まれる実物体の像とを合成した画像を生成する画像生成手段とを有し、前記画像生成手段は前記画像処理手段による画像処理の結果に基づき、光線及び仮想物体との交点の探索を行うことを特徴とする。
上記構成により、実写画像上で観測される実物体の形状を反映した矛盾のないMR画像を生成することを可能にする。
以下、添付図面を参照して本発明に係る実施の形態を詳細に説明する。ただし、この実施の形態に記載されている構成要素はあくまでも例示であり、本発明の範囲をそれらのみに限定する趣旨のものではない。
本実施例では、カメラで撮影した実写画像に仮想物体の投影像を重畳して、複合現実感画像(以下、「MR画像」)を生成する情報処理装置を例に挙げて本発明を説明する。
実物体と仮想物体の隠蔽関係を考慮せずに実写画像にCG画像を重畳すると、実写画像中で仮想物体に重なる部分は仮想物体の像で隠されて見えなくなる。
本実施例では、実写画像中で人間の手に相当する領域を検出して、その領域の内部については実写画像が仮想物体で隠蔽されないようにする処理を施す。手の領域は実写画像中の肌色領域として抽出する。なお、ここでは生成するMR画像のサイズは、実写画像のサイズと同一であるとする。ただし、両画像のサイズが同一である必然性はなく、実写画像を拡大または縮小してMR画像のサイズに調整するなどすればよい。また、カメラの位置・姿勢・画角など、現実世界と仮想世界の相対位置・姿勢を合致させるために必要な情報は予め公知の方法により取得されているとする。
図1は実施例1における情報処理装置の働きを示す原理図である。図1(a)は描画方法の原理を示す図、図1(b)は描画結果の例である。
図1(a)において、101はCG画像を生成する際の仮想カメラの視点であり、同時に実写画像を撮影するカメラの視点でもある。また、102は投影画面、103は仮想物体、104は実写画像に写り込んだ手などの肌色領域である。
本実施例では、光線追跡法によりCG画像を生成する際に、画素が肌色領域外であれば光線追跡処理を行い、肌色領域内であれば光線追跡処理を行わない。例えば、105は肌色領域外の画素であるため、画素105を通る光線106の追跡処理を行う。図1(a)の場合は、光線106が仮想物体103に点107で交差するので、画素105の色は点107の陰影として計算する。一方、肌色領域内の画素108については、光線追跡を行わず、実写画像の対応する画素値を画素108の画素値とする。このように、実写画像から画像処理により肌色領域を抽出した結果に基づき光線を制御することによって、図1(b)のように肌色領域が仮想物体よりも必ず手前に現れるように描画する。すなわち、実物体である肌色領域の形状を反映したMR画像を生成することが出来る。
次に本実施例における情報処理装置の構成を示す。図2はモジュール構成を示す図である。本情報処理装置は、画像取得部201、画像処理部202、画像生成部203から成る。画像取得部201はカメラから実写画像を取得し、画像処理部202が肌色領域を抽出する。画像生成部203は、CG画像と画像取得部201で取得した実写画像とを合成したMR画像を生成する。CG描画時には、光線制御部204が画像処理部202の処理結果に基づき、光線を制御する。
図3は本情報処理装置のハードウェアの構成である。図3において、301はCPUであり、装置全体の動作を制御する。302はメモリであり、CPU301の動作に用いるプログラムやデータを格納する。303はバスであり、各構成モジュール間のデータ転送を司る。304はバス303と各種装置とのインタフェースである。また、305はCPU301に読み込むプログラムやデータを格納する外部記憶装置、306および307はプログラムを起動したり、プログラムの動作を指定するための入力装置を構成するキーボードおよびマウス、308はプロセスの動作結果を表示するための表示部、309は装置外部とのデータ入出力部、310はカメラである。
図4は実施例1に係る情報処理装置で実行される処理全体の流れを示すフローチャートである。処理を開始すると、ステップS401において、以降のステップを行うためのデータの初期化を行う。ここでは、仮想物体のモデルデータ、仮想カメラおよび現実カメラの視点位置・姿勢データ、カメラの画角など仮想空間から画像への投影条件を表すデータ、肌色領域として抽出すべき画素値などを外部記憶装置305よりメモリ302に読み込む。
次のステップS402では、カメラ310にて撮影した実写画像を取得し、メモリ302に格納する。ステップS403では実写画像を処理し、画像中から肌色領域を抽出する。最後にステップS404でMR画像を描画する。ステップS404の詳細については後述する。
なお、ステップS403では、実写画像の各画素の画素値がステップS401で読み込んだ肌色領域とみなす画素値に該当するか否か判断し、該当すれば肌色領域に含まれる画素とする。逆に、該当しなければ肌色領域に含まれない画素とする。ステップS403の結果は、メモリ302上に実写画像と同じサイズの白黒画像として記録する。このとき白黒画像では、肌色領域内の画素を白、肌色領域外の画素を黒とする。
図5は画像生成処理(ステップS404)の詳細を示すフローチャートである。処理を開始すると、ステップS501で未処理の画素を選択する。以下、ステップS501で選択した画素を「選択画素」と呼ぶ。ステップS502では、選択画素がステップS403で抽出した肌色領域に含まれるか否か判断する。選択画素が肌色領域に含まれると判断した場合、選択画素の画素値を、ステップS402で取得した実写画像の同じ座標の画素の画素値に設定する(ステップS507)。続いて、ステップS508に進む。
一方、ステップS502で選択画素が肌色領域に含まれないと判断した場合、光線探索を行うため選択画素を通る光線を設定する(ステップS503)。次に、ステップS503で設定した光線と仮想物体との交点を探索する(ステップS504)。ステップS505では、ステップS504の光線探索の結果として光線と仮想物体との交点が存在するか否か判定する。ステップS505で交点が存在すると判断した場合、ステップS506に進み、交点の陰影付けを行って選択画素の画素値を算出する。一方、ステップS505で交点がないと判断した場合、当該選択画素は実写の背景であるので、ステップS507に進み、さらにステップS508に進む。ステップS508では、画像上のすべての画素を処理したか否か判断する。すべての画素が処理済であると判断した場合は、画像生成処理を終了する。一方、未処理の画素が残っている場合は、ステップS501に戻る。
上記のように、肌色領域内の画素については光線探索を行わずに実写画像の画素値を使うことにより、肌色領域は仮想物体の像に隠されずに実物体が現れるようにすることができる。すなわち、実物体である肌色領域の形状を反映した矛盾がないMR画像を生成することが出来る。
なお、上記の説明では画像処理の内容を肌色の画素値を持つ画素の抽出としているが、これに限るものではない。手に相当する領域が検出できれば、他の内容の画像処理を行っても良い。
さらに、実写画像中から検出する対象物は人間の手に限定されない。その対象物に相当する領域が検出できれば、対象物の種類を問わない。画像処理の内容は、その対象物を抽出するのに適した方法を用いればよい。例えば、エッジに特徴がある対象物であれば、エッジ検出を行えばよい。
また、画像取得部201は実写画像を撮影するカメラであるとしているが、これに限るものではない。例えば、コンピュータネットワーク上の画像ファイルを取得するモジュールであっても良い。
実施例1では、実写画像から画像処理結果に基づいて、各画素に関する光線追跡処理を行うか否かを決定している。本実施形態では、画像処理結果およびCGモデルの配置に基づいて光線の制御を行う例を示す。
本実施例では、所定の実物体を含む実写画像を取得し、その実物体の像に位置を合わせて、実物体と同等の形状を持つ仮想物体を重畳描画する。実物体の位置・姿勢は6自由度位置・姿勢センサを用いて計測するが、計測値には誤差が含まれる。したがって、位置・姿勢センサの値に基づいて仮想物体を仮想空間に配置した場合、実物体と仮想物体に位置ずれが生じて、実物体の像から仮想物体の像がはみ出す可能性がある。本実施形態は、このような像のはみ出しを防止してMR画像を描画する方法を示すものである。
図6は本実施例における情報処理装置の動作原理を示すものである。図6において、601はCG画像を生成する際の仮想カメラの視点であり、同時に実写画像を撮影するカメラの視点でもある。また、602は投影画面、603は仮想物体を重畳表示する対象である実物体が存在する画像領域(以下、「実物体領域」と呼ぶ)、604は重畳表示する仮想物体(以下、「重畳物体」と呼ぶ)である。ここで、実物体は全体が青色一色であるとする。したがって、実物体領域は実写画像から青色の領域を抽出することにより取得することが出来る。
本実施例では、光線追跡法によりCG画像を生成する際に、重畳物体と交差する光線が通る画素が実物体領域内であれば、交差した点における陰影付けの処理を行う。例えば、点607で実物体と交差する光線606が通る画素605は実物体領域内にあるので、画素605の色は点607の陰影として計算する。一方、重畳物体と交差する光線が通る画素が実物体領域外の場合、その交点では陰影付け処理を行わず、光線の追跡を継続する。例えば、光線609は重畳物体と点610で交差するが、光線609が通る画素608が実物体領域外なので、点610の陰影付け処理を行わず、さらに光線の追跡を続ける。この結果、重畳物体において実物体領域に納まらない部分611については描画しないようにすることができる。
本実施例における画像処理方法の処理の流れは図4と同様である。ただし、本実施形態では実物体領域を求めるために、肌色の替わりに青色領域を抽出する(ステップS403)。
図7は本実施例における画像生成処理(ステップS404)の詳細を示すフローチャートである。ステップS501、S503、S504、S505、S506、S507、S508は図5のフローチャートにおける処理と同様であるので、詳細な説明を省略する。ステップS501・S503・S504と処理することによって、画像上で選択した画素を通る光線と仮想物体との交点を探索する。ステップS505で交点が存在すると判定した場合、ステップS701でその交点が重畳物体上の点か否か判定する。ステップS701で交点が重畳物体上にあると判定すると、ステップS702に進む。ステップS702では、選択画素がステップS403で抽出した青色領域、すなわち実物体領域の内部か否か判定する。ここで青色領域内であると判定した場合、ステップS506に進み、光線と仮想物体の交点における陰影付け処理を行う。一方、ステップS702で選択画素が青色領域外であると判定された場合は、ステップS504に戻り光線追跡を継続する。なお、ステップS505で交点がないと判定された場合、当該の選択画素は実写の背景であるので、ステップS507で実写画像から画素値を取得する。
以上のように、実写画像の処理結果と仮想物体の配置に基づいて光線を制御することにより、実物体と仮想物体との位置ずれに起因するMR画像上の矛盾を軽減することが可能になる。
本実施例では、実物体の形状を模擬する仮想物体(以下、「マスクオブジェクト」と呼ぶ)を描画する際に、実物体とマスクオブジェクトとの形状のずれに起因する矛盾を解消するために光線を制御する例を示す。ここで、マスクオブジェクトで形状を模擬する実物体は、人間の手など肌色の物体であるとする。
図8は本実施例における情報処理装置の働きを示す原理図である。図8(a)は本実施例の方法で生成したMR画像の例である。このMR画像中には、実物体である肌色物体801および仮想物体802が含まれている。この一部803を拡大したものが図8(b)である。
本実施例では、肌色物体の形状を球の集合体として表現する。図8(b)において、804は肌色物体、805は肌色物体を表すマスクオブジェクトの一部をなす仮想物体の球である。図8(b)に示したように、MR画像上でマスクオブジェクトは肌色物体の領域から突出している。
ここで、光線が球体805と交差する位置については、MR画像上で肌色領域内の場合(図8(c))と肌色領域外の場合(図8(d))があり得る。前者の場合、光線807が球体805に交差した時点で光線追跡を終了し、交差点808に相当する実写画像上の画素の色を光線の色とすればよい。一方、後者の場合、光線809は球体805を通過させ、光線追跡を継続する。このように光線を制御することにより、マスクオブジェクトが肌色物体から突出した部分については、マスクオブジェクトの背景が描画される。
図9は本実施例の情報処理装置のモジュール構成を示す図である。本情報処理装置は、画像取得部901、画像処理部902、画像生成部903、マスクオブジェクト生成部905から成る。画像取得部901はカメラから実写画像を取得し、画像処理部902が肌色領域を抽出する。マスクオブジェクト生成部905は、画像取得部901が取得した画像および画像処理部902が抽出した肌色領域に基づいて肌色領域の実物体の形状を表す球体の集合を生成する。画像生成部903はCG画像を生成し、画像取得部901で取得した実写画像と合成して、MR画像を生成する。CG描画時には、光線制御部904が画像処理部902の処理結果およびマスクオブジェクト生成部905が生成したマスクオブジェクトの形状に基づき、光線を制御する。
本実施例の情報処理装置のハードウェア構成は図3と同様である。ただし、カメラ310はステレオカメラである。したがって、カメラ310から出力される情報は1対の画像データとなる。
図10は本実施例における処理全体の流れを示すフローチャートである。処理を開始すると、ステップS1001で以降のステップを行うためのデータの初期化を行う。本ステップの処理内容の詳細は実施例1におけるステップS401(図4)と同様である。ただし、マスクオブジェクトの生成処理(ステップS1004)のために、さらにカメラ310の2台の撮像装置間の相対位置・姿勢を表すデータを読み込む。次のステップS1002では、カメラ310にて撮影した実写画像を取得し、メモリ302に格納する。ステップS1003では実写画像を処理し、画像中から肌色領域を抽出する。なお、肌色領域の抽出は、ステップS1002で取得したステレオ画像の各画像に対して行う。続くステップS1004では、ステップS1003で抽出した肌色領域の実物体に相当するマスクオブジェクトを生成する。最後にステップS1005でMR画像を描画する。ステップS1005の詳細については後述する。
なおステップS1004ではまず、肌色領域内の各画素についてカメラからの距離を求める。距離の算出は公知のステレオ画像からの距離計測手法を用いる。続いて、肌色領域内の各画素に対応する3次元位置に所定の半径をもつ球体を配置してマスクオブジェクトを形成する。また、ステップS1005ではステップS1002で取得したステレオ画像のうち、一方の画像についてMR画像を生成する。
図11はステップS1005の画像生成処理の流れを示すフローチャートである。図11において、ステップS501、S503、S504、S505、S506、S507、S508の処理は図5のフローチャートにおける同記号の処理内容と同様である。ステップS1101では、ステップS504にて求めた光線と仮想物体との交点がマスクオブジェクト上の点か否か判定する。マスクオブジェクト上の点である場合は、ステップS1102で選択画素が肌色領域内であるか否か判定する。選択画素が肌色領域内である場合は、ステップS507に進み選択画素の画素値を実写画像より取得する。一方、選択画素が肌色領域外である場合は、ステップS504に戻り、光線追跡を継続する。ステップS1101において、光線がマスクオブジェクト以外の仮想物体と交差する場合は、交差点の陰影付け処理を行う(ステップS506)。光線がいずれの仮想物体とも交差しない場合(ステップS505で交点がないと判定した場合)は、当該の選択画素は実写の背景であるので、ステップS507に進み、選択画素の画素値を実写画像より取得する。
以上の構成をとることにより、肌色領域からマスクオブジェクトが突出した画素について、マスクオブジェクトではなく、その背景が描画される。すなわち、現実空間を正しく反映した陰影付けが可能となっている。
なお、上記の説明ではマスクオブジェクトを各画素の奥行き位置に配置した球体の集合としているが、これに限るものではない。例えば、マスクオブジェクト上の点群を結合して、平面パッチからなるポリゴンモデルを生成し、マスクオブジェクトとして用いても良い。
また、実施例1と同様に、画像取得部201は実写画像を撮影するカメラでなくとも良いし、画像処理は肌色領域の抽出に限らず任意の処理内容であっても良い。
なお、本発明の目的は次のようにしても達成される。即ち、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体を、システムあるいは装置に供給する。そして、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記憶媒体に格納されたプログラムコードを読み出し実行する。このようにしても目的が達成されることは言うまでもない。
この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記憶したコンピュータ読取可能な記憶媒体は本発明を構成することになる。
プログラムコードを供給するための記憶媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、磁気テープ、不揮発性のメモリカード、ROMなどを用いることができる。
また、本発明に係る実施の形態は、コンピュータが読出したプログラムコードを実行することにより、前述した実施形態の機能が実現される場合に限られない。例えば、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているOS(オペレーティングシステム)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
さらに、本発明に係る実施形態の機能は次のようにしても実現される。即ち、記憶媒体から読出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれる。そして、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行う。この処理により前述した実施形態の機能が実現されることは言うまでもない。
第1の実施形態における装置の働きを示す原理を示す図である。 第1の実施形態における装置のモジュール構成を示す図である。 第1の実施形態における装置のハードウェア構成を示す図である。 第1の実施形態における処理全体の流れを示すフローチャートである。 第1の実施形態における画像生成処理の流れを示すフローチャートである。 第2の実施形態における装置の働きを示す原理を示す図である。 第2の実施形態における画像生成処理の流れを示すフローチャートである。 第3の実施形態における装置の働きを示す原理を示す図である。 第3の実施形態における装置のモジュール構成を示す図である。 第3の実施形態における処理全体の流れを示すフローチャートである。 第3の実施形態における画像生成処理の流れを示すフローチャートである。 発明が解決しようとする課題を例示する図である。
符号の説明
201 画像取得部
202 画像処理部
203 画像生成部
204 光線制御部

Claims (9)

  1. 現実空間を撮影した実写画像を取得する取得手段と、
    前記取得手段により取得した実写画像を画像処理する画像処理手段と、
    光線追跡法により仮想空間を投影した像と、前記取得手段により取得した実写画像に含まれる実物体の像とを合成した画像を生成する画像生成手段とを有し、
    前記画像生成手段は前記画像処理手段による画像処理の結果に基づき、光線及び仮想物体との交点の探索を行うことを特徴とする画像処理装置。
  2. 前記画像処理手段における画像処理は、前記取得手段により取得した実写画像から所定の現実物体に相当する画像領域を抽出する処理であり、
    前記画像生成手段は、前記画像領域に属する画素に対してのみ、光線及び仮想物体との交点の探索を行うことを特徴とする請求項1に記載の画像処理装置。
  3. 前記画像処理手段における画像処理は、前記取得手段により取得した実写画像から所定の現実物体に相当する画像領域を抽出する処理であり、
    前記画像生成手段は、前記画像処理手段による画像処理の結果、及び前記所定の現実物体に相当する仮想物体に基づき、光線及び仮想物体との交点の探索を行うことを特徴とする請求項1に記載の画像処理装置。
  4. 前記画像生成手段は、前記所定の現実物体に相当する画像領域外を通る光線に関して、前記所定の現実物体に相当する仮想物体を、光線との交差判定の対象外とすることを特徴とする請求項3に記載の画像処理装置。
  5. 前記画像生成手段は、光線及び前記所定の現実物体に相当する仮想物体とが交差し、かつ前記光線が前記所定の現実物体に相当する画像領域外を通る場合に、前記交差を無効にすることを特徴とする請求項3に記載の画像処理装置。
  6. 前記画像生成手段は、光線及び前記所定の現実物体に相当する仮想物体とが交差し、かつ前記交差が発生する3次元位置に相当する前記実写画像上の位置が、前記所定の現実物体に相当する画像領域外である場合に、前記交差を無効にすることを特徴とする請求項3に記載の画像処理装置。
  7. 更に前記所定の現実物体に相当する仮想物体を生成する仮想物体生成手段を有することを特徴とする請求項3乃至6の何れか1項に記載の画像処理装置。
  8. 画像処理装置が行う画像処理方法であって、
    前記画像処理装置の取得手段が、現実空間を撮影した実写画像を取得する取得工程と、
    前記画像処理装置の画像処理手段が、前記取得工程により取得した実写画像を画像処理する画像処理工程と、
    前記画像処理装置の画像生成手段が、光線追跡法により仮想空間を投影した像と、前記取得工程により取得した実写画像に含まれる実物体の像とを合成した画像を生成する画像生成工程とを有し、
    前記画像生成工程は前記画像処理工程による画像処理の結果に基づき、光線及び仮想物体との交点の探索を行うことを特徴とする画像処理方法。
  9. コンピュータ請求項1乃至7の何れか1項に記載の画像処理装置として実行させるためのプログラム。
JP2007316810A 2007-11-07 2007-12-07 画像処理装置及び画像処理方法 Active JP4934577B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2007316810A JP4934577B2 (ja) 2007-12-07 2007-12-07 画像処理装置及び画像処理方法
US12/265,546 US9082213B2 (en) 2007-11-07 2008-11-05 Image processing apparatus for combining real object and virtual object and processing method therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007316810A JP4934577B2 (ja) 2007-12-07 2007-12-07 画像処理装置及び画像処理方法

Publications (3)

Publication Number Publication Date
JP2009140296A JP2009140296A (ja) 2009-06-25
JP2009140296A5 JP2009140296A5 (ja) 2011-01-20
JP4934577B2 true JP4934577B2 (ja) 2012-05-16

Family

ID=40870827

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007316810A Active JP4934577B2 (ja) 2007-11-07 2007-12-07 画像処理装置及び画像処理方法

Country Status (1)

Country Link
JP (1) JP4934577B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5544250B2 (ja) * 2010-09-02 2014-07-09 エヌ・ティ・ティ・コムウェア株式会社 表示画像検索方法
JP7315362B2 (ja) 2019-04-12 2023-07-26 日産自動車株式会社 映像出力システム及び映像出力方法
WO2024195485A1 (ja) * 2023-03-23 2024-09-26 ソニーグループ株式会社 画像処理装置、画像処理方法、およびプログラム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04245382A (ja) * 1991-01-30 1992-09-01 Daikin Ind Ltd 画像の分割作成方法及びその装置
JP4217100B2 (ja) * 2003-04-17 2009-01-28 本田技研工業株式会社 画像合成方法、装置、およびプログラム、ならびに立体モデルのレンダリング方法、装置、およびプログラム
JP2005250748A (ja) * 2004-03-03 2005-09-15 Nippon Hoso Kyokai <Nhk> 映像合成装置、映像合成プログラムおよび映像合成システム

Also Published As

Publication number Publication date
JP2009140296A (ja) 2009-06-25

Similar Documents

Publication Publication Date Title
US10102639B2 (en) Building a three-dimensional composite scene
US10701332B2 (en) Image processing apparatus, image processing method, image processing system, and storage medium
Furmanski et al. Augmented-reality visualizations guided by cognition: Perceptual heuristics for combining visible and obscured information
US7911503B2 (en) Information processing apparatus and information processing method
JP5773944B2 (ja) 情報処理装置および情報処理方法
US8059889B2 (en) Position and orientation measurement apparatus and control method thereof
EP1883052B1 (en) Generating images combining real and virtual images
US9519968B2 (en) Calibrating visual sensors using homography operators
EP3888054A1 (en) Systems and methods for presenting digital assets within artificial environments via a loosely coupled relocalization service and asset management service
US20170214899A1 (en) Method and system for presenting at least part of an image of a real object in a view of a real environment, and method and system for selecting a subset of a plurality of images
JP2016218905A (ja) 情報処理装置、情報処理方法、及びプログラム
JP2006072903A (ja) 画像合成方法及び装置
JP2011095797A (ja) 画像処理装置、画像処理方法及びプログラム
JP3104638B2 (ja) 3次元画像作成装置
US12062145B2 (en) System and method for three-dimensional scene reconstruction and understanding in extended reality (XR) applications
US20230419526A1 (en) Method, apparatus, and computer-readable medium for room layout extraction
Queguiner et al. Towards mobile diminished reality
KR101875047B1 (ko) 사진측량을 이용한 3d 모델링 시스템 및 방법
JP4934577B2 (ja) 画像処理装置及び画像処理方法
JP7241812B2 (ja) 情報可視化システム、情報可視化方法、及びプログラム
CN116863107A (zh) 增强现实提供方法、装置以及非暂时性计算机可读介质
JP6854631B2 (ja) 情報可視化システム、情報可視化方法、及びプログラム
JP2020173726A (ja) 仮想視点変換装置及びプログラム
Zhu et al. Synthesizing 360-degree live streaming for an erased background to study renovation using mixed reality
JP6859763B2 (ja) プログラム、情報処理装置

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20100201

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20100630

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101126

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101126

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120117

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120124

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120220

R151 Written notification of patent or utility model registration

Ref document number: 4934577

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150224

Year of fee payment: 3