JP3784104B2 - 画像合成装置 - Google Patents

画像合成装置 Download PDF

Info

Publication number
JP3784104B2
JP3784104B2 JP14556996A JP14556996A JP3784104B2 JP 3784104 B2 JP3784104 B2 JP 3784104B2 JP 14556996 A JP14556996 A JP 14556996A JP 14556996 A JP14556996 A JP 14556996A JP 3784104 B2 JP3784104 B2 JP 3784104B2
Authority
JP
Japan
Prior art keywords
image
information
live
light source
shadow
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP14556996A
Other languages
English (en)
Other versions
JPH09326040A (ja
Inventor
三奈子 宮間
邦雄 近藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP14556996A priority Critical patent/JP3784104B2/ja
Publication of JPH09326040A publication Critical patent/JPH09326040A/ja
Application granted granted Critical
Publication of JP3784104B2 publication Critical patent/JP3784104B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、画像合成装置、特に、実写画像を基にして、それを背景とした商品カタログの作成や、住宅等の内装変更後のイメージを表わした画像等の作成に適用して好適な、画像合成装置に関する。
【0002】
【従来の技術】
従来、画像合成を、実写画像のみを用いて行う場合、違和感の無い合成画像を得るために、企画段階で合成を前提に綿密な計算がなされた実写画像の素材を準備し、それらを印刷用のレイアウト・スキャナやトータル・スキャナ・システムの画像処理ステーション、デザイン専用システム等の専用機によって、合成する処理が行われている。
【0003】
又、近年、住宅等で使用されているバス・トイレタリやキッチン等の商品カタログを作成するために、実写した背景画像とCG(コンピュータ・グラフィックス)技術により作成した浴槽等の部品とを画像合成したり、インテリア・シミュレーション等において、家具、カーテン、壁紙等の内装をCGで作成し、そのCG画像を室内の実写画像に合成することにより、得られる合成画像から内装を変更した場合のイメージを確認することが行われている。
【0004】
このように、合成画像の素材にCG画像を用いる場合、背景として使用する実写画像を、合成を前提に厳密に条件を決めて撮影し、その撮影条件が予め明らかである場合は、その撮影条件を用いてCG画像を作成することにより、実写画像とそのCG画像を合成し、違和感の無い合成画像を容易に作成することもできる。
【0005】
【発明が解決しようとする課題】
しかしながら、合成を前提に撮影されていない、即ち撮影条件が不明な実写画像を用いて、それにCG画像を合成して違和感の無い合成画像を作成するためには、オペレータが経験と勘で実写画像に合うような条件を試行錯誤で求めてCG画像を生成し、それを用いて合成処理を行っているため、合成操作が難しいという問題があった。
【0006】
本発明は、前記従来の問題点を解決するべくなされたもので、任意の実写画像に対してCG画像を合成する場合、特別な経験や勘がなくとも、幾何学的にも、光学的にも違和感の無い合成画像を容易に作成することができる画像合成装置を提供することを課題とする。
【0007】
【課題を解決するための手段】
本発明は、実写画像とCG画像とを合成する画像合成装置において、実写画像から視点位置情報を推定する手段と、推定した視点位置情報から、実写画像の3次元的空間情報を推定する手段と、推定した3次元的空間情報に基づいて、実写画像中に存在する対象物に対応する合成用のCG画像を生成する手段と、実写画像から前記対象物に関する陰影情報を、該対象物を含む部分画像から、ハイライト部分と最も暗い部分の間の中間調の色度分布として抽出する手段と、抽出した陰影情報を前記CG画像の色に合った陰影情報に変換する手段と、生成したCG画像を、実写画像中の前記対象物の位置に合成する手段と、合成前又は後のCG画像に前記変換後の陰影情報を付加する手段と、を備えていると共に、前記実写画像から、該実写画像に写し込まれている光源の位置を指定し、指定された位置を前記3次元空間情報を用いて計算することにより、光源位置情報を推定する手段と、推定した光源位置情報に基づいて、前記CG画像に陰影処理を施す手段と、を備えた構成とすることにより、前記課題を解決したものである。
本発明は、又、実写画像とCG画像とを合成する画像合成装置において、実写画像から視点位置情報を推定する手段と、推定した視点位置情報から、実写画像の3次元的空間情報を推定する手段と、推定した3次元的空間情報に基づいて、実写画像中に存在する対象物に対応する合成用のCG画像を生成する手段と、実写画像から前記対象物に関する陰影情報を抽出する手段と、抽出した陰影情報を前記CG画像の色に合った陰影情報に変換する手段と、生成したCG画像を、実写画像中の前記対象物の位置に合成する手段と、合成前又は後のCG画像に前記変換後の陰影情報を付加する手段と、を備えていると共に、前記実写画像から、該実写画像に写し込まれている光源の位置を指定し、指定された位置を前記3次元空間情報を用いて計算することにより、光源位置情報を推定する手段と、推定した光源位置情報に基づいて、前記CG画像に陰影処理を施す手段と、を備えた構成とすることにより、同様に前記課題を解決したものである。
【0008】
即ち、本発明においては、実写画像に合成する対象物を該実写画像中から選択し、該対象物に対応するCG画像を、該実写画像から推定した視点を中心とする3次元空間情報に基づいて作成できるようにすると共に、上記対象物に関する陰影情報を同実写画像から抽出して、それを上記CG画像に付加できるようにしたので、これら実写画像とCG画像とをそれぞれ素材として違和感の無い合成画像を、特別な経験や勘がなくとも容易且つ確実に作成できる。
【0009】
【発明の実施の形態】
一般に、違和感の無い合成画像を作成すためには、合成に用いる各々の素材画像が、同一の撮影条件、即ち視点、アングル、光の当たり方等が等しくなくてはならない。設定条件が不明の実写画像を用いて違和感の無い合成画像を作成するためには、実写画像を撮影したときの撮影条件を推定する必要がある。
【0010】
そこで、この実施の形態では、実写画像にCG画像を合成する際に、1枚の実写画像から撮影条件である、視点位置情報(視点位置、視距離、対象物の位置関係等)を、専用のハードウェアを用いなくとも容易に推定できるようにし、推定したその条件を基にして合成用のCG画像を生成し、それを透視投影変換した後、実写画像に張込むことにより幾何学的に違和感のない画像合成ができるようにする。
【0011】
又、この実施の形態では、実写画像に写し込まれている対象物と実質上同一の形状で、テクスチャが異なるCG画像を、対象物と同一位置に合成することを前提としており、その対象物に関する陰影情報、即ち対象物やその近傍における影の形状や濃淡からなる陰影情報を抽出し、それを上記CG画像に付加することにより、光学的にも違和感のない画像合成ができるようにする。
【0012】
又、この実施の形態では、前記実写画像から光源位置情報を推定し、推定した光源位置情報に基づいて、前記CG画像に陰影処理を施すことができるようにする。
【0013】
以下、図面を参照して、より具体的な実施の形態について詳細に説明する。図1は、本発明に係る一実施の形態の画像合成システム(画像合成装置)の概略構成を示すブロック図である。
【0014】
この画像合成システムは、実写画像を入力するスキャナ等の画像入力装置10と、入力した実写画像の画像データ等を保持する画像保持用メモリ12と、該メモリ12に保持されている画像データに基づいてその画像を表示する画像表示装置14と、上記メモリ12に保持されている合成後の画像データ等を出力する画像出力装置16とを備えている。
【0015】
又、上記画像保持用メモリ12には、該メモリ12から入力した実写画像データについて、後に詳述する画像合成のための各種演算処理を実行するための演算部18が接続され、この演算部18には視点位置情報演算部20、光源情報演算部22、CG画像生成部24、画像データ合成部26、陰影情報抽出演算部28、陰影情報色変換部30が含まれている。
【0016】
又、上記演算部18には、ユーザインターフェースとしてマウス等のポインティングデバイスからなる情報入力部32が接続され、画像表示装置14のディスプレイに表示されている実写画像等を見ながら、該情報入力部32で画像合成の演算処理に必要なデータをオペレータが入力できるようになっている。
【0017】
このシステムでは、図2に示すフローチャートに従って、画像合成迄の基本的な処理が実行される。まず、スキャナ10で実写画像の取込みを行い(ステップ1)、そのデータをメモリ12で保持するとともに、実写画像を画像表示装置(ディスプレイ)14に表示する。そして、ディスプレイ14上の実写画像を見ながら情報入力部32から情報を入力することにより、視点位置情報演算部20で、既に読み込んである実写画像から視点位置情報を推定する。
【0018】
この視点位置情報演算部20で実行する視点位置情報の推定は、前記図2のフローチャートにおける消失点計算(ステップ2)、大きさ情報の入力(ステップ3)、視点位置情報(視点位置、視距離)推定(ステップ4)迄の処理に当る。
【0019】
前記ステップ2で実行する消失点計算は、スキャナで取り込んだ実写画像において、3次元空間内の平行線が透視図上で1点、即ち消失点で交わることを利用して、実写画像中の平行線から消失点座標を求めることを意味する。
【0020】
即ち、室内を撮影した実写画像に写し込まれているテーブル、窓、畳、天井等の形状を表わす線は、3次元的には一般に平行線である。従って、実写画像が、例えば図3のようであったとすると、天井の平行線は消失点に収束することから、直交する3軸方向の3つの消失点は、各軸にそれぞれ平行な2本の線分をディスプレイ上で指定することにより、2直線の交点として求められる。
【0021】
この時点での消失点座標は、ディスプレイ用表示座標系である2次元の座標値として求められる。但し、図3に示した画像は、図4に示したように、カメラを床に対して水平に設置し、仰角=0として撮影されていることから、鉛直方向の平行線は写真の画面に対して平行な位置関係にあるため、左右2つの消失点のみとなり、上下方向に第3の消失点は存在していない。
【0022】
ステップ3の大きさ情報の入力は、読み込んだ前記実写画像中に写し込まれている、例えば窓の一辺の長さ等の予め既知の物体の大きさ情報を、前記情報入力部32により入力することにあたる。この大きさ情報を入力することによって、撮影したときのカメラ位置である視点位置や、カメラから投影面中心(視心)までの距離である視距離等の視点位置情報を求めることが可能となる。この場合、大きさ情報が正しいほど視点位置を正確に求めることができるが、ある程度大きさが推定できるようなものであればよい。
【0023】
ステップ4の視点位置情報推定では、中心的処理として視点位置、視距離の計算を行う。以下、これについて詳述する。なお、この推定方法については、近藤、木村、田嶋による、「手描き透視図の視点推定とその応用」情報処理学会論文誌 昭和63年7月、に詳細に説明されている。
【0024】
まず、投影中心である視点座標(視点位置)を求める方法を以下に述べる。ここでは、視点と視心を結ぶ直線上に地上座標系の原点があると想定している。
【0025】
図5は、視点Eと消失点Vの関係を示したもので、Fは視距離である。点Pを含み、角度αである半直線Lを考える。このとき、点P(x,y)は、投影面上のP′(x′,F)に変換される。この点Pを半直線L上に無限大の長さにとると消失点Vと一致する。これから、直線Lの消失点の座標は(F/tanα,F)となる。
【0026】
図6は、視点座標系E−UVWと、地上座標系O−XYZとの関係を、(A)の平面図と(B)の側面図で示したものである。ここで、視点をE、視軸をVとし、視点Eから線分V1−V2に対して直交する線分を引き、その交点をHLとする。HL′は、このHLの平面図の座標、E′は視点の側面図の座標、F′は視点EからHLまでの距離を示す。この図6は、W軸の周りにα、U軸の周りにβだけ傾けた状態を示している。消失点V1、V2、V3は、原点を視心Cとする画面の座標系C−UWにおいて、次のようになる。
【0027】
V1=(F′/tanα,Ftanβ) …(1)
V2=(−F′tanα,Ftanβ) …(2)
V3=(0,−F/tanβ) …(3)
F′=F/cosβ …(4)
HL=(0,Ftanβ) …(5)
【0028】
上記(1)〜(5)式を利用して、V1、V2、V3が既知のとき、方位角α、仰角β、視距離F、視心Cを次の手順により求める。これを、図7も参照しながら説明する。
【0029】
(1)線分V1−V2の中点を求め、該中点を中心として、直径をV1−V2とする円を作画する。
(2)V3から直線V1−V2に下ろした垂線と、直線V1−V2との交点HL′、上記円との交点Eを求める。
(3)線分E−HL′と線分HL′−V2より角度αを求める。
(4)線分E−HL′と線分HL′−V3より視距離Fを求める。
(5)前記(4)式を利用して、視距離Fと線分E−HL′から角度βを求める。
(6)V1から線分V2−V3に下ろした垂線と、V2から線分V1−V3に下ろした垂線との交点を視心Cとする。
【0030】
次に、視心情報が既知の場合に視点位置情報を推定する方法を、前記図3に示した2消失点画像と実質上同一の図8を用いて説明する。
【0031】
この図8に示した実写画像Gは、床面に対して水平にカメラを設置して撮影されたと推定され、仰角βは0°である。このような2消失点の場合、前記図4に示したように、消失点の位置は目の高さ(視線)の延長線上にある。又、この画像Gは、スキャナで取り込んだ後、トリミング作業を行っていないことから、図8に示すように視線の中心となる視心Cは、2つの消失点を結んだ線上にあり、且つx軸方向の中心にあるとして以下の手順で視距離Fを算出する。
【0032】
(1)左右2つの消失点を求めるために、3次元空間内でそれぞれ平行な2組の平行線を指定し、2直線の交点として消失点V1、V2を計算する。
(2)線分V1−V2の中点Mを求め、中点を中心とし、直径をV1−V2とする円を作画する。
(3)線分V1−V2上にあり、且つ実写画像のx軸方向の中心Cを求める。
(4)視心Cから半円に垂線を引き、交点が視点Eとなる。
(5)線分E−Cより視距離Fを求める。
【0033】
一方、視心情報が不明の場合、即ち、同様に2消失点画像ではあるが、トリミングされているために、視心が実際の画像の中心から反れていて不明の場合に、視点位置情報を推定する方法を、図9を用いて説明する。なお、この推定方法については、F.ホーエンベルク著、増田訳「技術における構成幾何学」(上巻)日本評論社、に詳細に説明されている。
【0034】
図9(A)に示した実写画像Gは、太い実線で示す直方体が写し込まれているが、トリミングによりその左端が切断されているため、画像の中心が不明になっている。但し、この場合は、画像G中でA′B′C′D′(但し、D′は見えない)で示す直方体の上面の一部にあたる四角形が、同図(B)に示すように寸法a、bが明らかな四角形ABCDであるとする。
【0035】
上記画像中の物体で、実際の3次元空間では水平線に平行でお互いに直交する2本の線分、ここでは、図9(B)で線分AB、ACの長さが上記のように既知であるとして、以下の手順で視点位置、即ち視距離を推定できる。
【0036】
(1)左右2つの消失点を求めるために、水平線にそれぞれ平行な2組の平行線から消失点V1、V2を求める。
(2)線分V1−V2の中点を求め、その中点を中心とし、直径をV1−V2とする円を作画する。
(3)長方形ABCDが画像に写し込まれているA′B′C′(D′)を、上で求めた円周上の平面図A″B″C″D″に変換する。
(4)線分B″−D″を延長して線分V1−V2と交わる点Fが線分B−Dの消失点となる。即ち、V1、V2、Fは、それぞれ線分A−B、線分B−C、線分B−Dに平行な線が画面上で交わる点である。
(5)角DBCであるαは、線分B−Cと線分C−Dによって与えられる。
(6)視点Eは、空間で直径がV1−V2である水平円の上にあり、且つ弦F−V2に対して円周角2αを持つ水平円の上にもあることから、これらの円の交点として与えられる。
(7)視点Eから線分V1−V2に引いた垂線により視心、ここではHが求められ、線分E−Hより視距離Fが求まる。
【0037】
以上詳述した如く、視点位置、視距離、対象物の位置関係等の視点位置情報を推定する演算が前記演算部22で実行され、前記図2のフローチャートでステップ4の処理が終了すると、次のステップ5で推定されたその情報に基づいて空間の3次元的情報を推定する立体再構成を行なう。
【0038】
この立体再構成は、前記図3又は図8の実写画像の場合であれば、図10に示すように、実写画像から得られた3次元情報に基づいて、例えば40cm間隔でメッシュを張り込むことに相当する。この図10には、便宜上2次元的に表示してあるが、実際には、例えば40cm×40cm×40cmの寸法からなる3次元的にメッシュを張り込んでいる。
【0039】
次に、ここで実写画像から3次元情報を推定するために実行する2次元画像の3次元化について詳細に説明する。
【0040】
前記図5、図6に示したように、直方体の辺は、視点−消失点を結ぶ直線に平行であることを利用して、2次元画像の3次元化を行うことができる。これを、図11を用いて詳述する。なお、この方法については、杉下による「3次元形状生成のためのスケッチインターフェース」埼玉大学、平成6年2月、に詳細に説明されている。
【0041】
図11で、P1、P2と投影面上の点で、両点を結ぶ直線は消失点Vを通る。Cは視心、Eは視点である。視点と消失点を結ぶ直線が、3次元空間上におけるP1′、P2′を通る直線と平行であること、及び、視点EとP1とを結ぶ直線上にP1′が存在し、視点EとP2とを結ぶ直線上にP2′が存在することから、P1′−P2′間の距離が分かれば、P1′、P2′を決定できる。
【0042】
そこで、視心Cが地上座標系の原点(0,0,0)に位置し、視点Eが地上座標系のx軸上の正方向に位置していると仮定し、
P1 (x 1 ,y 1 )、P2 (x 2 ,y 2
P1 ′(x 1 ′,y 1 ′,z 1 ′)、P2 ′(x 2 ′,y 2 ′,z 2 ′)
C(x 0 ,y 0 )、E(F,0,0)、V(x s ,y s ,z s
のように定めると、P1 ′、P2 ′の各座標値は媒介変数t、sを用いて、次の(6)〜(12)式によって求められる。ここで、Fは視距離である。
【0043】
Figure 0003784104
【0044】
上記(10)式で、DはP1 ′−P2 ′間の距離であり、このP1 ′−P2 ′間の距離を与えることにより、2次元形状から3次元形状を得ることができる。得られた3次元形状は、視心Cが地上座標系の原点に位置し、視点EがX軸上の正方向に位置しているとの仮定の下での座標なので、実際の3次元空間の座標を得るためには変換行列によって座標変換を行う必要がある。その変換行列は、先に求めた方位角α、仰角βを用いて構成される。又、最初の2点の座標が求まれば、それを基に残りの点の座標を求めることができる。
【0045】
以上のような計算処理により、前記ステップ4で推定した視点位置情報を用いて、2次元の実写画像から3次元空間情報を推定することにより、図10に示したように立体再構成が可能となる。即ち、前記ステップ3で入力した大きさ情報を用いることによって、視点位置から見た空間の大きさをメッシュでトレース表示することが可能となり、実写画像に写し込まれている空間の3次元的情報を推定することができる。
【0046】
従って、上記図10に示されるように、視点に近い位置ほど寸法が大きいメッシュが張り込まれた画像を作成することが可能となる。
【0047】
前記図2のステップ5で、上記立体再構成が終了すると、その3次元空間情報はメモリ12に出力され、保持される。次いで、その情報を用いて光源条件の推定を行う(ステップ6)。
【0048】
この光源情報の推定は、画像表示装置14のディスプレイ上で、そこに表示されている実写画像に写し込まれている光源の位置をマウス等で指定することにより、その位置を前述した3次元空間情報を用いて、光源情報演算部22で推定計算して求めることにより行われる。
【0049】
即ち、上記の如く、視点位置情報が求まったことから、それを用いて実写画像中に写し込まれている物体の位置、大きさ等の3次元的空間情報を推定することができるようになったので、画像中の照明器具や窓といった光を放つ物体、即ち光源の3次元的な位置を推定できる。光源の位置が決まれば合成しようとするCG画像の物体に光が照射する方向を光学的に計算できる。このように推定された光源位置(条件)は、前記メモリ12に出力され、保持される。
【0050】
次いで、ステップ7で対象物に関する陰影情報の推定を行う。これは、実写画像中に写し込まれている対象物及び、必要に応じてその近傍を、前記情報入力部32で指定することによって、主に該対象物上の色度分布からその表面上に存在する影の形状や濃淡等からなる陰影情報を抽出する演算を、前記陰影情報抽出演算部で実行することに当る。
【0051】
この陰影情報抽出を、実写画像が図12で、その中の右側に位置する食器棚Cが、合成しようとする対象物である場合を例に説明する。
【0052】
先ず、ディスプレイ上で上記実写画像中の食器棚Cと、該食器棚Cの表面での反射光が当っている床Fの一部を範囲指定して、その画像部分を抜き出し、次いで把手等の不要な部分を全て除去することにより、図13の状態にする。
【0053】
次いで、この図13の部分画像から、対象物に関する陰影情報を抽出し、図14に示すような陰影情報に当るマスク画像を作成する。このマスク画像は、上記図13において、ハイライト部分と最も暗い部分の間にある中間調の色度分布を抽出することにより作成することができ、例えば市販の画像処理ソフトウェアのAdobePhotoshopTM3.0Jを利用して作成することもできる。
【0054】
上記ステップ7の陰影情報の推定が終った後、ステップ8の合成用のCG画像の生成を行う。このCG画像の生成は、前記CG画像生成部24において、前記メモリ12から読み込んだ前記3次元空間情報(前記図12の実写画像では、基準寸法として既知のテーブルの大きさを用いて3次元復元を行った)を用いて、前記対象物(食器棚)と同一の形状を作成すると共に、前記情報入力部32により、希望するテクスチャを指定して該形状に張り付けることにより、行うことができる。ここで生成された合成用のCG画像は、前記メモリ12に出力され、保持される。
【0055】
次いで、ステップ9で陰影情報の色変換を行う。これは、前記ステップ7で抽出(推定)した対象物に関する陰影情報が有している色情報を、上記ステップ8でCG画像用に指定したテクスチャの色情報(色相、彩度、明度)に変換することにより、CG画像の色に合った陰影情報に変換する処理を行うことに当る。この変換処理は、具体的には前記メモリ12から対象物に関する陰影情報である前記図14のマクス画像を、前記陰影情報色変換部30に読み込んで実行される。
【0056】
上記陰影情報の色変換が終ると、次のステップ10で、前記ステップ8で生成したCG画像に対して、変換後の陰影情報の付加が行われる。これは、上記色変換部30において、前記生成部24から入力される前記CG画像(色違いの食器棚)に対して、上で色変換して作成したCG画像の色に合った陰影情報を重ね合せる処理に当る。このようにして色変換した陰影情報の合成用CG画像への付加が終ると、そのCG画像のデータは前記画像データ合成部26に出力される。
【0057】
この画像データ合成部26では、前記メモリ12から実写画像データとともに、既に推定してある視点位置情報、光源情報等が入力されると、上記画像生成部24から入力されたCG画像に対して、前記図12に示した実写画像における配置場所(食器棚の位置)での、既知光源(冷蔵庫Rの横にある四角形の窓W)による陰影処理が施された後、両画像の合成処理が実行される(ステップ11)。これは、実写画像中に存在しない未知の光源条件を含む撮影条件に合わせてCG画像で生成した物体を、透視投影変換し、それに合成したい素材のテクスチャをマッピングして、陰影処理を行って実写画像に合成する処理を実行していることにあたる。
【0058】
このように合成処理を行った結果、色違いの食器棚が、実写画像中で前記図12の場合と比較して光学的に違和感がなければ、一連の作業は終了する。違和感がある場合には、合成されたCG画像から陰影情報のみ、即ち前記図14に示したものと同様の色変換後のマクス画像のみを抽出し、その中間調の範囲を変更する等により陰影情報を修整し、同CG画像に付加する修正作業を行う。
【0059】
この実施の形態においては、合成の対象物を実写画像中から選択し、しかも、陰影情報を同対象物及びその近傍から直接抽出するようにしているので、同実写画像中には写し込まれていない未知光源が他に存在する場合でも、該未知光源に起因する陰影情報をも推定することができるため、実写画像との間でより光学的に違和感のない画像合成を行うことが可能となり、テクスチャのみが異なる前記図12の実写画像と実質同一の合成画像が得られる。
【0060】
又、この実施の形態においては、前記ステップ6で、光源情報の推定を行い、その情報をステップ11の合成の段階でCG画像に反映させているが、その処理の内容について説明する。
【0061】
前記図12の実写画像にある窓Wのように、既知光源が存在する場合、CG画像の表面の明るさは、面の向き、視点の位置、光源の位置の空間的な位置関係によって変化する。実写画像の視点位置情報から、視点、光源の位置が決まり、CG画像を合成する位置を指定することによって面の向きが決まり、図15に立方体の場合について点光源を指定した場合を示すように、その影の形状が求まる。
【0062】
又、前記立体再構成画像における直方体による影の形状は、図16に概念的に実線で示すように、点光源Lの場合はA、窓Wのような面光源の場合はBのように、それぞれ光学的な計算処理により求めることができる。なお、この図16では、メッシュを破線で表わしている。
【0063】
従って、実写画像には写し込まれていない、新しい物体をCG画像として任意の位置に合成する場合は、上記のように既知光源による陰影情報を推定すると共に、合成したい物体の材質、即ちテクスチャを指定することによって、反射係数は決まり、CG画像の陰影処理に必要な条件が揃う。このようにして生成したCG画像を、実写画像を生成したときの視点条件に合わせて透視投影変換し、実写画像中の希望する位置に配置し、そのときの陰影処理を行って合成することができる。
【0064】
この実施の形態においては、実写画像中の食器棚C及びその近傍から陰影情報を抽出しそれをCG画像に付加した上に、合成時にも既知光源(窓W)による陰影処理を行っている。この既知光源による処理は、一様な食器棚の色に対して窓Wの側から僅かずつ全体的に暗くなる程度の陰影を付していることになる。但し、この既知光源による処理を行わなくともよい。
【0065】
以上詳述した如く、この実施の形態によれば、撮影条件が不明な実写画像でも、そこから視点位置情報と陰影情報を推定することができるため、実写画像中に光源が写し込まれていないため、その光源情報を推定できない場合でも、違和感の無い合成画像を生成することができる。従って、この実施の形態の画像合成システムを用いることにより、次のような具体的な処理を行うことが可能となる。
【0066】
一般に、住宅等で使用されているバス・トイレタリといった衛生機器やキッチンは、同一形状による色違いや、素材の違い等からなる多数の組合せが可能となっている。これらの商品カタログは、商品毎にスタジオにセットを組み、カメラで撮影している。しかし、このように撮影により作成するカタログは、通常1種類しかなく、色違いの商品に関しては色のサンプルを表示する場合が多い。
【0067】
そこで、このシステムを利用することによって、撮影した1枚の実写画像にCG画像を合成することによって、色や素材の違う商品も実際にスタジオ撮影したものと同様に、商品全体のイメージを撮影コストをかけることなく、均一な品質で、簡単に表現できる。
【0068】
又、インテリアシミュレーション等において、家具やカーテン、壁紙といった住宅内部の内装を変更する際に、現状を撮影した実写画像に対して、変更予定の家具やカーテン、内装材をCG画像で生成して合成することによって、事前に変更後のイメージを確認することができる。
【0069】
以上、本発明について具体的に説明したが、本発明は、前記実施の形態に示したものに限られるものでなく、その要旨を逸脱しない範囲で種々変更可能である。
【0070】
【発明の効果】
以上説明したとおり、本発明によれば、実写画像に写し込まれている対象物と実質的に同一形状でテスクチャが異なる物体のCG画像を生成し、そのCG画像を該実写画像に合成する場合、特別な経験や勘がなくとも、幾何学的にも、光学的にも違和感の無い合成画像を容易に作成することができる。
【図面の簡単な説明】
【図1】本発明に係る一実施の形態の画像合成システムを示すブロック図
【図2】実施の形態における画像合成の処理手順を示すフローチャート
【図3】消失点の求め方を示す説明図
【図4】2消失点画像における投影面とカメラの関係を示す説明図
【図5】視点と消失点の関係を示す説明図
【図6】視点推定計算を説明するための線図
【図7】視点情報を推定する方法を示す説明図
【図8】実写画像で視点情報を推定する方法を示す説明図
【図9】実写画像で視点情報を推定する方法を示す他の説明図
【図10】3次元空間情報を基に立体再構成した状態を示す説明図
【図11】2次元画像の3次元化を説明するための線図
【図12】実写画像の一例を示す説明図
【図13】対象画像とその近傍を範囲指定して抽出した画像を示す説明図
【図14】陰影情報に当るマクス画像を示す説明図
【図15】点光源位置指定による影の形状生成例を示す説明図
【図16】立体再構成画像における影の形状生成例を示す説明図
【符号の説明】
10…画像入力装置
12…画像保持用メモリ
14…画像表示装置
16…画像出力装置
18…演算部
20…視点位置情報演算部
22…光源情報演算部
24…CG画像生成部
26…画像データ合成部
28…陰影情報抽出演算部
30…陰影情報色変換部
32…情報入力部

Claims (2)

  1. 実写画像とCG画像とを合成する画像合成装置において、
    実写画像から視点位置情報を推定する手段と、
    推定した視点位置情報から、実写画像の3次元的空間情報を推定する手段と、
    推定した3次元的空間情報に基づいて、実写画像中に存在する対象物に対応する合成用のCG画像を生成する手段と、
    実写画像から前記対象物に関する陰影情報を、該対象物を含む部分画像から、ハイライト部分と最も暗い部分の間の中間調の色度分布として抽出する手段と、
    抽出した陰影情報を前記CG画像の色に合った陰影情報に変換する手段と、
    生成したCG画像を、実写画像中の前記対象物の位置に合成する手段と、
    合成前又は後のCG画像に前記変換後の陰影情報を付加する手段と、を備えていると共に、
    前記実写画像から、該実写画像に写し込まれている光源の位置を指定し、指定された位置を前記3次元空間情報を用いて計算することにより、光源位置情報を推定する手段と、
    推定した光源位置情報に基づいて、前記CG画像に陰影処理を施す手段と、を備えていることを特徴とする画像合成装置。
  2. 実写画像とCG画像とを合成する画像合成装置において、
    実写画像から視点位置情報を推定する手段と、
    推定した視点位置情報から、実写画像の3次元的空間情報を推定する手段と、
    推定した3次元的空間情報に基づいて、実写画像中に存在する対象物に対応する合成用のCG画像を生成する手段と、
    実写画像から前記対象物に関する陰影情報を抽出する手段と、
    抽出した陰影情報を前記CG画像の色に合った陰影情報に変換する手段と、
    生成したCG画像を、実写画像中の前記対象物の位置に合成する手段と、
    合成前又は後のCG画像に前記変換後の陰影情報を付加する手段と、を備えていると共に、
    前記実写画像から、該実写画像に写し込まれている光源の位置を指定し、指定された位置を前記3次元空間情報を用いて計算することにより、光源位置情報を推定する手段と、
    推定した光源位置情報に基づいて、前記CG画像に陰影処理を施す手段と、を備えていることを特徴とする画像合成装置。
JP14556996A 1996-06-07 1996-06-07 画像合成装置 Expired - Lifetime JP3784104B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP14556996A JP3784104B2 (ja) 1996-06-07 1996-06-07 画像合成装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP14556996A JP3784104B2 (ja) 1996-06-07 1996-06-07 画像合成装置

Publications (2)

Publication Number Publication Date
JPH09326040A JPH09326040A (ja) 1997-12-16
JP3784104B2 true JP3784104B2 (ja) 2006-06-07

Family

ID=15388155

Family Applications (1)

Application Number Title Priority Date Filing Date
JP14556996A Expired - Lifetime JP3784104B2 (ja) 1996-06-07 1996-06-07 画像合成装置

Country Status (1)

Country Link
JP (1) JP3784104B2 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3310257B2 (ja) * 2000-03-24 2002-08-05 株式会社コナミコンピュータエンタテインメントジャパン ゲームシステム及びゲーム用プログラムを記録したコンピュータ読み取り可能な記録媒体
JP4523136B2 (ja) * 2000-09-27 2010-08-11 株式会社竹中工務店 Cg画像との合成写真を作る方法及びカメラ装置
JP2003099801A (ja) * 2001-09-25 2003-04-04 Toyota Motor Corp 三次元モデルの画像表示方法、装置、プログラム及び記録媒体
US7787028B2 (en) 2002-05-28 2010-08-31 Casio Computer Co., Ltd. Composite image output apparatus and composite image delivery apparatus
US8189864B2 (en) * 2007-08-29 2012-05-29 Casio Computer Co., Ltd. Composite image generating apparatus, composite image generating method, and storage medium
JP5673293B2 (ja) * 2011-03-30 2015-02-18 大日本印刷株式会社 画像合成方法、画像合成装置、プログラム、及び、記録媒体

Also Published As

Publication number Publication date
JPH09326040A (ja) 1997-12-16

Similar Documents

Publication Publication Date Title
US9288476B2 (en) System and method for real-time depth modification of stereo images of a virtual reality environment
US9282321B2 (en) 3D model multi-reviewer system
US9407904B2 (en) Method for creating 3D virtual reality from 2D images
US7068274B2 (en) System and method for animating real objects with projected images
US6677956B2 (en) Method for cross-fading intensities of multiple images of a scene for seamless reconstruction
Sinha et al. Interactive 3D architectural modeling from unordered photo collections
US20150325044A1 (en) Systems and methods for three-dimensional model texturing
CN105513112B (zh) 图像处理方法和装置
US20030034976A1 (en) System and method for registering multiple images with three-dimensional objects
US20030038822A1 (en) Method for determining image intensities of projected images to change the appearance of three-dimensional objects
Coleman et al. Ryan: rendering your animation nonlinearly projected
Yu et al. A framework for multiperspective rendering.
JP2003099799A (ja) 変化のないシーン内の静止した3dの物理的な物体の動きをシミュレートするための方法
Verhoeven Computer graphics meets image fusion: The power of texture baking to simultaneously visualise 3D surface features and colour
JPH09319896A (ja) 3次元画像作成装置
JPH10111953A (ja) 画像処理方法および装置および記憶媒体
JP3784104B2 (ja) 画像合成装置
JP2004220312A (ja) 多視点カメラシステム
JP3720587B2 (ja) 画像合成装置
JP6679966B2 (ja) 三次元仮想空間提示システム、三次元仮想空間提示方法及びプログラム
JP3693735B2 (ja) 画像合成装置
JP2021068272A (ja) 画像処理システム、画像処理方法及びプログラム
JP2003216970A (ja) 三次元画像処理装置、三次元画像処理システム、三次元画像処理方法および三次元画像処理プログラム
WO2017031117A1 (en) System and method for real-time depth modification of stereo images of a virtual reality environment
JP7447429B2 (ja) 画像処理システム、画像処理方法及びプログラム

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050308

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050405

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050606

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20051101

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20051227

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060307

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060314

R150 Certificate of patent (=grant) or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090324

Year of fee payment: 3

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100324

Year of fee payment: 4

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100324

Year of fee payment: 4

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110324

Year of fee payment: 5

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110324

Year of fee payment: 5

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120324

Year of fee payment: 6

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130324

Year of fee payment: 7

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130324

Year of fee payment: 7

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140324

Year of fee payment: 8

EXPY Cancellation because of completion of term