JP4108171B2 - Image synthesizer - Google Patents

Image synthesizer Download PDF

Info

Publication number
JP4108171B2
JP4108171B2 JP05080998A JP5080998A JP4108171B2 JP 4108171 B2 JP4108171 B2 JP 4108171B2 JP 05080998 A JP05080998 A JP 05080998A JP 5080998 A JP5080998 A JP 5080998A JP 4108171 B2 JP4108171 B2 JP 4108171B2
Authority
JP
Japan
Prior art keywords
image
background image
additional
background
additional image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP05080998A
Other languages
Japanese (ja)
Other versions
JPH11250273A (en
Inventor
宏人 長久
浩司 脇本
聡 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP05080998A priority Critical patent/JP4108171B2/en
Publication of JPH11250273A publication Critical patent/JPH11250273A/en
Application granted granted Critical
Publication of JP4108171B2 publication Critical patent/JP4108171B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Studio Circuits (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

【0001】
【発明の属する技術分野】
この発明は、デジタル画像処理における画像合成装置に関し、特に、実写による静止画像・動画像を背景画像として、その上に別の静止画像・コンピュータグラフィック(以下、CGと記す)画像を合成する際に、背景画像との位置関係を考慮して違和感なく合成を行う画像合成装置に関する。
【0002】
【従来の技術】
図27は例えば特開平5−11727号公報に示された画像合成表示装置と同様な従来の画像合成表示装置であり、ビデオカメラで撮像した画像に対してコンピュータグラフィックを意図した位置に合成して表示するものである。
図27において、73はビデオカメラ、74はビデオカメラ73に取り付けられた例えば地磁気センサやジャイロ等からなる方向位置認識センサ、75はコンピュータ画像の矢視方向及び大きさによるコンピュータ画像信号であるコンピュータRGB画像信号を出力するCG装置、76はCG装置75から出力されるコンピュータRGB画像信号を入力するコンピュータ画像フレームメモリ、78はビデオカメラ73からのビデオRGB画像信号であるNTSC信号を2値化して2値化ビデオ画像信号であるビデオRGB画像信号を出力するビデオ信号変換装置、79はビデオ信号変換装置78からのビデオRGB画像信号を1コマ毎に入力するビデオ画像フレームメモリ、80はビデオ画像フレームメモリ79及びコンピュータ画像フレームメモリ76からの両RGB画像信号を合成し、合成2値化画像信号である合成RGB画像信号を出力する画像合成部、81は合成RGB画像信号を2値化し、2値化した状態の合成RGB画像信号を合成NTSC画像信号に変換するRGB信号変換装置、82は表示装置としてのディスプレイである。
【0003】
次に動作について説明する。
ビデオカメラ73は、所定の領域の撮像方向及びビデオカメラ73の現在位置を検出する方向位置認識センサ74を備えている。CG装置75は、ビデオカメラ73が所定の領域を撮影する際に、上記方向位置認識センサ74から検出されるカメラ視点・方向の情報を用いて、ビデオカメラ73で撮影された画像と同じ視点から見えるCG画像を生成する。これにより、ビデオカメラ73で撮影する位置や向きをランダムに変えても、CGによるオブジェクトが画像中の意図された位置に存在しているように見せるためにCG画像の大きさや向きを修正して生成し、ディスプレイ82に合成された画像を違和感なく表示することを可能にしている。
【0004】
【発明が解決しようとする課題】
従来の画像合成表示装置は、ビデオカメラ73で撮影された画像に対して、CG装置75により作成されたCGモデルを元にして生成される画像を合成して表示するための装置であり、ビデオカメラ73で撮影された画像に別の画像を合成するために、CGモデルを事前に作成しておかなければならないという問題点があった。
【0005】
また、ビデオカメラ73で撮影された動画像に対して、別の画像を合成するために、撮影している間常にカメラの方向・位置を検出するための方向位置認識センサ74をセットして方向・位置の情報を検出し続けなければならないという問題点があった。
【0006】
また、ビデオカメラ73で撮影された画像に対して、CG画像を合成する際に、ビデオカメラ73で撮影された画像中の被写体とCG画像との前後の位置関係を考慮していないため、例えばビデオカメラ73で撮影された画像の中の1本の木の向こうにCG画像による建物を合成して表示したい場合でも、CG画像が木の上に表示されるため、CG画像の手前にある木の画像が隠れてしまうという問題点があった。
【0007】
この発明は上記のような問題点を解決するためになされたもので、CGモデルを事前に作成しなくても、静止画像を用意することにより背景画像中に別の画像を違和感なく合成することができるとともに、簡単な操作によって背景動画像中に違和感なく別の画像を合成することができ、また背景画像中の被写体と背景画像に追加する追加画像との前後関係を考慮して両画像を合成する機能を持った画像合成装置を得ることを目的とする。
【0008】
【課題を解決するための手段】
この発明に係る画像合成装置は、背景画像を入力する背景画像入力手段と、追加画像を入力する追加画像入力手段と、背景画像の3次元情報を入力するための背景画像3次元情報入力手段と、背景画像上での追加画像の相対位置を規定するための追加画像相対位置規定手段と、この追加画像相対位置規定手段により規定された追加画像の相対位置に基づいて背景画像上に追加画像を合成する前に追加画像の形状を補正する追加画像形状補正手段とを有する追加画像配置手段と、上記背景画像3次元情報入力手段により入力された3次元情報に従って背景画像を画像領域毎に分割するための背景画像領域分割手段と、上記背景画像領域分割手段により分割されたそれぞれの画像領域と追加画像との前後関係を判定するための前後関係判定手段と、上記追加画像形状補正手段により形状補正された追加画像を背景画像に合成すると共に上記前後関係判定手段により追加画像よりも手前にあると判定された画像領域を追加画像の上から合成するための画像合成手段とを備えることにより、背景画像中の被写体との前後関係を考慮しながら別な画像を合成すると共に、地図情報を保存した地図情報保存手段と、上記背景画像領域分割手段により分割された画像領域の間の位置関係を上記地図情報保存手段からの背景画像周辺の地図情報を参照して取り出すための背景画像領域位置関係抽出手段とをさらに備えることにより、背景画像中の被写体の前後関係を合成画像に反映することとし、前記背景画像領域位置関係抽出手段は、前記背景画像中で分割された画像領域それぞれの重心点を求め、地図情報上にカメラの視点位置と背景画像と画像領域の重心点を対応させて、カメラの視点位置からカメラの視野にある各重心点に向かって地図情報上で直線を引くことにより、重心点の先にある被写体とカメラの視点位置との距離を求め、求めた距離を各画像領域に対応付けることを特徴とする。
また、他の発明に係る画像合成装置は、背景画像を入力する背景画像入力手段と、追加画像を入力する追加画像入力手段と、背景画像の3次元情報を入力するための背景画像3次元情報入力手段と、背景画像上での追加画像の相対位置を規定するための追加画像相対位置規定手段と、この追加画像相対位置規定手段により規定された追加画像の相対位置に基づいて背景画像上に追加画像を合成する前に追加画像の形状を補正する追加画像形状補正手段とを有する追加画像配置手段と、上記背景画像3次元情報入力手段により入力された3次元情報に従って背景画像を画像領域毎に分割するための背景画像領域分割手段と、上記背景画像領域分割手段により分割されたそれぞれの画像領域と追加画像との前後関係を判定するための前後関係判定手段と、上記追加画像形状補正手段により形状補正された追加画像を背景画像に合成すると共に上記前後関係判定手段により追加画像よりも手前にあると判定された画像領域を追加画像の上から合成するための画像合成手段とを備えることにより、背景画像中の被写体との前後関係を考慮しながら別な画像を合成すると共に、地図情報を保存した地図情報保存手段と、上記背景画像領域分割手段により背景画像をいくつかの画像領域に分割する際に、背景画像内の被写体の境界線を上記地図情報保存手段からの背景画像周辺の地図情報を参照して取り出す領域境界対応付け手段とをさらに備えることにより、背景画像中の被写体毎の画像領域を分割することとし、前記領域境界対応付け手段は、前記地図情報上に背景画像とカメラ視点を対応付け、カメラ視点から背景画像に写っている被写体の境界部分に対して直線を引き、当該直線と背景画像との交点を背景画像中の被写体の境界線とすることを特徴とする。
【0018】
【発明の実施の形態】
実施の形態1.
図1はこの発明の実施の形態1を示すシステム構成図である。
図1において、1は画像を計算機上で合成する際に、背景となる画像(以下、背景画像)を入力するための背景画像入力手段、2は背景画像入力手段によって入力された背景画像に合成するための別の画像(以下、追加画像)を入力するための追加画像入力手段、3は背景画像上に追加画像を配置するための追加画像配置手段であり、この追加画像配置手段3は、背景画像の撮影位置などの3次元情報を入力するための背景画像3次元情報入力手段4と、背景画像上での追加画像の相対位置を規定するための追加画像相対位置規定手段5と、追加画像相対位置規定手段5によって規定された追加画像の相対位置に基づいて背景画像上に追加画像を合成する前に追加画像の形状を補正するための追加画像形状補正手段6とを有する。7は追加画像形状補正手段6によって形状補正された追加画像を背景画像に合成するための画像合成手段である。
【0019】
次に動作について説明する。
まず、背景画像入力手段1によって、画像合成を行う背景となる画像を入力する。背景画像を入力するには、デジタルカメラで撮影したイメージ・データを計算機に取り込んだり、ビデオカメラで撮影した映像をキャプチャして計算機にデジタル・データとして取り込むことなどによって行う。次に、追加画像入力手段2によって、背景画像に合成するための追加画像を入力する。追加画像を入力するには、デジタルカメラで撮影したイメージ・データを計算機に取り込んだり、市販のイメージ描画ソフトウェアで作成することなどによって行う。本実施の形態では、看板広告などの長方形の板状物体を撮影した画像を追加画像として、カメラで撮影した町の風景などの背景画像に合成する例で説明する。この時、追加画像を撮影したときの距離や被写体の大きさの情報も入力する。
【0020】
図2は追加画像とそれに関する情報を説明するための図である。
撮影用のカメラ8で被写体11を撮影したときの撮影視野9の中に、被写体11の画像10が写っている。画像10を追加画像として入力する。追加画像に関する情報として、被写体11の大きさ(Lx、Ly)、カメラ8と被写体11との距離L1も同時に入力する。なお、図2では、カメラ視線に対して被写体11が垂直になっているときの画像10を追加画像の例としているが、被写体11がカメラ視線に対して角度を持っている場合の画像を追加画像としても、以下に述べる方法と同様の方法で合成することができる。
【0021】
次に、背景画像3次元情報入力手段4によって、背景画像を撮影したときのカメラの撮影位置・撮影方向の情報を入力する。
図3は背景画像として用いる画像を撮影するときの状況を説明するための図である。
図3において、12は背景画像を撮影するためのカメラであり、13はカメラ12によって撮影された背景画像である。また、(X2,Y2,Z2)は、カメラ12で背景画像を撮影したときの撮影位置の絶対座標であり、(θx2,θy2,θz2)は、背景画像を撮影したときのカメラの絶対座標における方向である。ここで、θx、θy、θzは、それぞれX軸方向、Y軸方向、Z軸方向に対するカメラ12の回転角度を表す。
【0022】
次に、追加画像相対位置規定手段5によって、背景画像を撮影したときのカメラ12の撮影位置・撮影方向に対して被写体11が位置する場所を入力する。
図4は背景画像を撮影したカメラ12の撮影位置・撮影方向に対する被写体11の位置・向きを説明するための図である。
図4において、(X1,Y1,Z1)は被写体11の位置の絶対座標、(θx1,θy1,θz1)は、被写体11の絶対座標における方向である。14は被写体11の位置・向きを追加画像相対位置規定手段5によって規定したときに最終的に背景画像13に合成される被写体11の画像である。L2はカメラ12と仮想的に置かれた被写体11との距離を表し、L2={(X2-X1)2+(Y2−Y1)2+(Z2−Z1)2}1/2である。
【0023】
次に、追加画像形状補正手段6によって、追加画像10の形状を補正して、背景画像13に合成される画像14を生成する。
図5は追加画像10の形状を補正する方法を説明するための図であり、カメラ12の位置・方向を基準とした被写体11の相対的な位置・向きを元にして説明する。
図5は被写体11がカメラ12に対してY軸方向にθyだけ回転している場合である。被写体11を元にした追加画像10の縦・横の長さをそれぞれLx'、Ly'とする。既に述べたように、追加画像10を撮影したときには、被写体11はカメラ12に対して垂直になっている。図5で被写体11がカメラ12に対してθyだけ回転していることによって、追加画像10の幅Lx'は、Lx'cos(θy)になる。これは、追加画像10を図5の15のような幅1の帯状領域に分割して、縮尺の比率にしたがって帯状領域15を間引くことによって行う。
【0024】
また、被写体11が回転することによって、カメラ12に近づいたり遠ざかったりする部分が出てくる。これに対しては、帯状領域15のうち、間引かれなかったものに対してY軸方向の長さを計算して伸縮させることによって対応する。
図5の例では、追加画像10の一番左端の帯状領域15は、被写体11が最もカメラ12に近づく部分であるため、形状補正後の帯状領域16のようにY軸方向に伸張される。他の部分の帯状領域に対しても、帯状領域16と同様の計算によってY軸方向に伸張されて、それら伸張後の帯状領域を合わせることによって、形状補正後の追加画像14を生成する。なお、図5の例では、説明の簡単のためL2をL1(追加画像を撮影したときの距離)と同一の距離として説明したが、L2がL1と異なる場合には、上記のようにして追加画像10を形状補正した後、縦横の大きさをL1/L2倍することによって、形状補正後の追加画像14を得ることができる。
【0025】
図5において、被写体11がY軸方向に回転している場合の追加画像の形状補正について説明したが、被写体11がX軸方向に回転している場合の追加画像の形状補正についても同様の方法で形状補正を行うことができる。また、Z軸方向に回転している場合には、背景画像13の平面上で追加画像10を回転させることによって、形状補正を行う。
最後に、画像合成手段7によって、背景画像13と形状補正後の追加画像14とを合成する。
【0026】
以上のように、この実施の形態1では、背景となる画像とそれに合成する別の画像を入力する際に、撮影情報や被写体の情報を同時に入力することによって、追加画像を背景画像中に合成する時に追加画像の形状を補正するようにしているので、背景画像に別の画像を合成するために予め3次元CGモデルを作成する必要もなく、背景画像と別の画像を簡単にかつリアルに合成することができる。
【0027】
実施の形態2.
上述した実施の形態1では、背景画像に対して、全く別の追加画像を入力して合成するようにしたものであるが、次に背景画像の中に映っている被写体の画像部分を修正するような場合の実施の形態を示す。
図6は実施の形態2におけるシステム構成図である。
図6において、背景画像入力手段1、追加画像配置手段3、背景画像3次元情報入力手段4、追加画像相対位置規定手段5、追加画像形状補正手段6及び画像合成手段7は、実施の形態1と同様である。この実施の形態2において、異なる点は、追加画像入力手段2を、追加画像を背景画像の中から探して背景画像の中から画像範囲を指定するための背景画像範囲指定手段17と、背景画像範囲指定手段17によって指定された範囲の画像を追加画像として切り出して追加画像配置手段3に渡すための背景画像切出し手段18とによって構成した点である。
【0028】
次に動作について説明する。
まず、実施の形態1と同様にして、背景画像入力手段1によって、背景となる画像を入力する。次に、背景画像範囲指定手段17によって、背景画像入力手段1で入力された背景画像の中から形状補正の対象となる画像領域を指定する。
図7は利用者が背景画像の中から形状補正の対象となる画像領域を指定する方法を説明するための図である。
カメラ12で背景画像13を撮影したときに、被写体20が映っている画像領域19を修正したいとする。利用者は、ディスプレイに表示された背景画像13の上でマウス22を用いて画像領域19の範囲を含むように指定範囲21を入力する。図7の例では矩形範囲指定を行っているが、多角形の頂点をマウスで指定して、多角形領域を指定することも可能である。上記の操作によって、背景画像13の中から修正したい画像領域19の範囲を指定する。
【0029】
次に、背景画像切出し手段18により、背景画像範囲指定手段17によって指定された画像領域19を切出して入力する。また、画像領域19の実態である被写体20の情報も入力する。(X1,Y1,Z1)、(θx1、θy1、θz1)は、それぞれカメラ12を原点としたときの被写体20の位置座標と向きの情報である。
【0030】
追加画像配置手段3では、背景画像13から切り出された画像領域19を追加画像として、実施の形態1と同様の手順により、被写体20の位置・向きを変更した場合の画像を、追加画像の形状を補正することによって得る。なお、実施の形態1と異なり、被写体20の新しい位置・向きによっては、切り出された画像領域19の一部または全部が、新しく形状補正された追加画像の領域に含まれずに、背景画像中に空白領域が生じる場合がある。このような場合には、画像合成手段7において、空白領域の境界線上の画素の色を平均した色で、追加画像の領域に含まれない領域を塗りつぶす。
【0031】
図8は上記のような空白領域の塗りつぶしを説明するための図である。
図8において、23は形状補正された追加画像、24は形状補正された追加画像23に含まれない画像領域19による空白領域を表す。画像合成手段7において、空白領域24はその境界線上の画素の色の平均色(図8の例では白)によって塗りつぶし領域25になる。
【0032】
以上のように、実施の形態2では、背景となる画像の中に、位置や向きを変更したい被写体が写っている場合、その被写体の画像領域を背景画像の中から切出して被写体の位置・向きの変更に伴う画像の補正を行うようにしているので、一度入力した背景画像の一部分を簡単に修正することができる。
【0033】
実施の形態3.
以上の実施の形態では、追加画像を入力するためにカメラによって撮影された画像を入力していたが、この実施の形態3では、追加画像を入力するために3次元CGモデルを利用する。
図9は実施の形態3におけるシステム構成図である。
図9において、背景画像入力手段1、追加画像配置手段3、背景画像3次元情報入力手段4、追加画像相対位置規定手段5、追加画像形状補正手段6及び画像合成手段7は、実施の形態1と同様である。実施の形態3において異なる点は、追加画像入力手段2を、追加画像を生成するための元となる3次元CGモデルを入力するための3次元モデル入力手段26と、3次元モデル入力手段26によって入力された3次元CGモデルを元にイメージ・データを生成して、追加画像として追加画像配置手段3に渡すためのイメージ・データ変換手段27とによって構成した点である。
【0034】
次に、動作について説明する。
まず、実施の形態1と同様にして、背景画像入力手段1によって、背景となる画像を入力する。次に、3次元モデル入力手段26によって追加画像を生成する元になる3次元CGモデルを入力する。3次元モデル入力手段としては、市販の3DCADソフトウェアを利用する。次に、イメージ・データ変換手段27によって、入力された3次元CGモデルを元に、追加画像を生成する。
【0035】
図10は背景画像中に3次元モデルを元にしたイメージ・データを追加画像として合成する方法を説明するための図である。
イメージ・データ変換手段27では、3次元モデル入力手段26によって入力されたCG28をカメラ位置30に対して距離L1の位置に置いて、その結果カメラ視野内に得られる画像29を追加画像として取出す。
【0036】
追加画像配置手段3では、イメージ・データ変換手段27によって得られる画像29を追加画像として、実施の形態1と同様の手順により、追加画像の形状を補正することができる。
【0037】
以上のように、実施の形態3では、3次元モデル入力手段26によって入力された3次元CGモデルを元にして追加画像を生成し、追加画像の形状を補正しながら背景画像への合成を行うようにしているので、3次元モデルを元にした追加画像を一つ生成しておけば、それ以降は3次元CGを扱うためのソフトウェアを用意することなく、背景画像に対して3次元CGモデルから生成したイメージのさまざまなバリエーションを簡単に合成することができる。
【0038】
実施の形態4.
以上の実施の形態では、背景画像として静止画像を用いるものであるが、この実施の形態4では、動画像を背景画像として、背景の動画像の各フレーム毎に追加画像を合成する。
図11は実施の形態4におけるシステム構成図である。
図11において、背景画像入力手段1、追加画像入力手段2及び追加画像配置手段3は、実施の形態1と同様である。さらに、この実施の形態4においては、背景とする動画像を入力するための動画像入力手段31、動画像入力手段31によって入力された動画像の各フレームの中から、追加画像を合成する領域を抽出するための合成領域抽出手段32、追加画像配置手段3によって動画像中の1フレームに配置された追加画像を、合成領域抽出手段32によって抽出された領域を用いて、前後のフレームに追加画像の形状を補正しながら合成していくための追加画像伝播手段33が追加されている。
【0039】
次に、動作について説明する。
まず、動画像入力手段31によって、背景として用いる動画像を入力する。次に、動画像入力手段31によって入力された動画像のフレームの中から利用者が1フレームを選択して、選択されたフレームの画像を背景画像入力手段1によって背景画像として入力する。次に、実施の形態1と同様にして追加画像入力手段2によって追加画像を入力する。次に、追加画像配置手段3によって、背景画像の中に追加画像を配置する。
【0040】
実施の形態4では、動画像に追加画像を合成する方法を、道路上から撮影した動画像に写っているビルの壁面に追加画像として壁画を合成する例で説明する。
図12は動画像入力手段31によって入力された動画像中の1フレームに配置された追加画像の領域から、合成領域抽出手段32によって上記1フレームの前後のフレーム中から合成領域を抽出する方法を説明するための図である。
図12において、34は動画像入力手段31によって入力された動画像である。35は動画像34に含まれるフレームの中から背景画像入力手段1において背景画像として選択されたフレーム、36は追加画像配置手段3によってフレーム35に配置された壁画の追加画像、37は追加画像35の境界線、38はフレーム35の前後のフレームに、フレーム35で定義された境界線37に相当する領域を伝播させて得られた境界線である。本実施の形態の例では、前後のフレームに写っているビルの壁面が伝播される。
【0041】
また、図13は動画像のフレーム中に写っている物体の境界線を追跡する方法を説明するための図である。
フレーム35における境界線37を次のフレーム39の同じ位置に置くと境界線40となる。フレーム39の境界線40の内部に、フレーム35の境界線37の内部の色と同じ色の領域41を抽出する。次に、領域41の外部に向けて、同じ色を持つ画素を追跡していき、領域42を得る。最後に、領域42に内接する境界線40の相似図形43を求めて、これをフレーム39における合成領域とする。ここで求められた相似図形43を新しい境界線として、フレーム39の次のフレームに対して同様の処理を行うことによって、動画像のフレーム中に写っている物体の境界線を追跡することができる。
【0042】
ここでは、境界線37の内部の色情報を用いた簡単な方法について説明したが、動画像中の物体の境界線を追跡する方法として、動的輪郭モデル(Snakes)を用いることも可能である。この方法は、「動的輪郭モデルを用いた移動物体の追跡に関する検討」(1995年電子情報通信学会情報・システムソサイエティ大会D−237)などに記述されている。
【0043】
さらに、図14は合成領域抽出手段32によって抽出された各フレーム毎の合成領域の形状にあわせて、追加画像伝播手段33によって追加画像を各フレームに合成する方法を説明するための図である。
追加画像36を幅1の帯状領域15に分割して、別のフレームの境界線43の幅にあわせて間引き・拡幅を行って、幅を合わせる。次に、幅を境界線43に合わせた追加画像を再び幅1の帯状領域に分割して、それぞれの帯状領域毎に上下の高さを境界線43に合わせることによって、追加画像36を各フレームの境界線の形状に合わせることができる。
【0044】
以上のように、この実施の形態4では、背景として動画像を用いて、動画像中の1フレームを背景画像として追加画像を配置することによって、前後のフレームの対応する合成領域を抽出して追加画像を配置するようにしているので、動画像中に簡単に別の画像を合成することができる。
【0045】
実施の形態5.
上述した実施の形態4では、動画像に別の画像を合成する際に、追加画像の配置位置を規定するフレームを一つだけで行い、その前後のフレームに対しては合成領域を追跡するものであるが、この実施の形態5では、追加画像の配置位置を規定するフレームを合成の開始フレームと終了フレームの2つのフレームに対して行い、2つのフレームの間にある各フレームに対して自動的に追加画像を合成する。
【0046】
図15は実施の形態5におけるシステム構成図である。
図15において、背景画像入力手段1、追加画像入力手段2、動画像入力手段31及び追加画像伝播手段33は、実施の形態4と同様である。実施の形態5では、追加画像配置手段3として、動画像入力手段31によって入力された動画像のフレームの中から選択された合成の開始フレームに対して追加画像の相対位置を決定するための追加画像第1相対位置規定手段44と、開始フレームの3次元情報を入力するための背景画像3次元情報第1入力手段45、合成終了フレームに対して追加画像の相対位置を決定するための追加画像第2相対位置規定手段46と、終了フレームの3次元情報を入力するための背景画像3次元情報第2入力手段47と、開始フレームと終了フレームに対する追加画像の形状補正を行う追加画像形状補正手段6とを備えている。
【0047】
次に、動作について説明する。
まず、動画像入力手段31によって、入力された動画像のフレームの中から、背景画像入力手段1によって、追加画像を合成する開始フレームと終了フレームを選択する。次に、追加画像入力手段2によって入力された追加画像に対して、追加画像第1相対位置規定手段44と、背景画像3次元情報第1入力手段45、追加画像第2相対位置規定手段46と、背景画像3次元情報第2入力手段47及び追加画像形状補正手段6によって、開始フレーム・終了フレームに対する追加画像の形状補正を行う。開始フレーム、終了フレームに対する追加画像の形状補正は、実施の形態1と同様の方法によって行う。次に、開始フレームと終了フレームにおける追加画像を元にして、追加画像補完手段48において開始フレームと終了フレームの間にあるフレームに合成する追加画像の領域を生成する。
【0048】
図16は追加画像補完手段48が開始フレームと終了フレームの間にあるフレームに合成する追加画像を生成する方法を説明するための図である。
図16の例では、実施の形態1と同様に追加画像を例としている。
図16において、49、50はそれぞれ動画像中の合成の開始フレームと終了フレームであり、51、52はそれぞれ追加画像配置手段3によって開始フレーム49と終了フレーム50に配置された追加画像である。開始フレーム49と終了フレーム50の間に、(N−1)フレームがあるとすると、(N−1)フレームのk番目のフレームに対する追加画像の領域の頂点の座標は、図16に示す式によって計算することができる。
【0049】
そして、追加画像補完手段48によって生成された各フレームの追加画像の領域にしたがって、実施の形態4で記述した方法と同様の方法で、追加画像伝播手段33が各フレームに追加画像を合成する。
【0050】
以上のように、この実施の形態5では、動画像中の開始フレームと終了フレームに対する追加画像の配置位置を指定するようにしているので、開始フレームと終了フレームの間のフレームに対する追加画像の合成をするのに動画像中の物体の追跡などの複雑な計算処理を行うことなく、動画中に簡単に別の画像を合成することができる。また、実施の形態5の説明では、動画像中の開始フレームと終了フレームに追加画像を指定したが、画像データの代わりに開始・終了フレームに3次元CGモデルを配置することによって、開始・終了フレームの間のフレームにおける3次元CGモデルの配置位置を同様の原理を用いて計算して動画像と合成することも可能である。
【0051】
実施の形態6.
上述した実施の形態4では、動画像に別の画像を合成する際に、追加画像の位置を背景画像に対して静止したものとして追加画像の配置位置を計算していたが、この実施の形態6では、背景画像に対して追加画像の元となる被写体の移動径路を定義することによって、背景画像中で移動する追加画像を合成する。
【0052】
図17は実施の形態6におけるシステム構成図である。
図17において、背景画像入力手段1、追加画像入力手段2、追加画像配置手段3、合成領域抽出手段32及び追加画像伝播手段33は、実施の形態4と同様である。また、背景となる動画像に対する追加画像元となる被写体の移動径路を定義するための追加画像動作定義手段54によって構成されている。
【0053】
次に、動作について説明する。
動画像入力手段31、背景画像入力手段1、追加画像入力手段2、追加画像配置手段3によって追加画像を1フレーム上に配置するまでは、実施の形態4と同様である。次に、追加画像動作定義手段54では、1フレーム上に配置された追加画像の移動の径路について利用者が定義を行う。
【0054】
図18は追加画像動作定義手段54によって定義される被写体の移動径路について説明するための図である。
図18において、55は動画像入力手段31によって入力された動画像の中で、カメラ30に対する被写体28の位置・向きを時間に対して定義したものである。55を用いて、合成領域抽出手段32において、追加画像29が配置されたフレームの前後における合成領域を抽出する。
次に、実施の形態4と同様にして、追加画像伝播手段33によって他のフレームに追加画像を合成する。
【0055】
以上のように、この実施の形態6では、動画像中における被写体の動きを定義するようにしているので、動画像に対して動きのある被写体の画像を簡単に合成することが可能である。また、実施の形態6の説明では、動画像中の背景画像に追加画像を指定したが、画像データの代わりに背景画像に3次元CGモデルを配置することによって、背景画像の前後のフレームにおける3次元CGモデルの動きを同様の原理を用いて定義して動画像と合成することができるので、動きのある3次元CGモデルと動画像とを簡単に合成することができる。
【0056】
実施の形態7.
以上の実施の形態では、背景画像に別の画像を合成する際に、背景画像に写っている被写体と追加画像に写っている被写体との前後関係を考慮していないため、常に追加画像の全体が背景画像の上に表示されていたが、この実施の形態7では、背景画像を被写体毎に領域分割してそれらの位置情報を利用して追加画像を合成する。
【0057】
図19は実施の形態7におけるシステム構成図である。
図19において、背景画像入力手段1、追加画像入力手段2、追加画像配置手段3及び画像合成手段7については、実施の形態1と同様である。また、背景画像入力手段1によって入力された背景画像を、被写体毎に領域分割するための背景画像領域分割手段56と、背景画像領域分割手段56によって分割された画像領域と、追加画像との前後関係を判定するための前後関係判定手段57とを備えている。
【0058】
次に、動作について説明する。
背景画像入力手段1、追加画像入力手段2、追加画像配置手段3によって追加画像を背景画像上に配置するまでは、実施の形態1と同様である。背景画像領域分割手段56では、背景画像を被写体毎に領域分割を行い、それぞれの領域毎にカメラ視点からの距離の情報を付加する。
図20は背景画像の領域分割を行う方法を説明するための図である。
利用者は、ディスプレイに表示された背景画像13を見ながら、被写体の領域毎にマウスを操作しながら領域の頂点を指示して、多角形の領域を定義していく。指定された領域には、それぞれ領域No.とカメラ視点からの距離の情報58を対応付けて入力する。
【0059】
次に、背景画像領域分割手段56によって得られた背景画像の各画像領域のカメラ視点からの距離情報と、追加画像配置手段3による追加画像の位置情報を元にして、前後関係判定手段57が追加画像を合成する順番を判定する。画像合成手段7は、前後関係判定手段57によって、先ず追加画像よりもカメラ視点から遠くにある画像領域を表示し、次に追加画像、そして最後に追加画像よりもカメラ視点から近くにある画像領域を合成する。
【0060】
図21は前後関係判定手段57によって判定された順序を元にして合成された背景画像と追加画像を説明するための図である。
領域分割された背景画像に対して、カメラからの距離が15の追加画像59を合成した場合、カメラからの距離が15よりも小さい背景画像が追加画像59の上に合成されて、最終的に合成画像60を得る。
【0061】
以上のように、この実施の形態7では、背景画像を被写体毎の画像領域を分割し、それぞれの画像領域にカメラからの距離情報を対応付けているので、背景画像に追加画像を合成するときに被写体の前後関係を正しく反映させた合成画像を簡単に得ることができる。
背景画像として動画像を入力した場合には、背景画像領域分割手段56による領域分割を動画像中の各フレームに対して被写体の領域を定義していき、それぞれの領域に領域No. とカメラ視点からの距離の情報を対応付けて入力する。また、追加画像の配置を実施の形態4〜6と同様な方法で行うことによって、背景画像として動画像を入力した場合にも同様の効果を得ることができる。
【0062】
実施の形態8.
上述した実施の形態7では、背景画像を被写体毎に領域分割してそれらの位置情報を利用して追加画像を合成するために、背景画像領域分割手段において利用者が画像領域毎にカメラからの距離を入力したが、この実施の形態8では、背景画像に関する地図情報を参照することによって、画像領域毎のカメラからの距離を入力する。
【0063】
図22は実施の形態8におけるシステム構成図である。
図22において、背景画像入力手段1、追加画像入力手段2、追加画像配置手段3、画像合成手段7、背景画像領域分割手段56及び前後関係判定手段57については、実施の形態7と同様である。また、背景画像入力手段1によって入力する背景画像に写っているシーンの地理的な情報を保存するための地図情報保存手段62と、地図情報保存手段62に保存されている地図情報を参照して背景画像中の領域にカメラからの距離情報を関連付けるための背景画像領域位置関係抽出手段61を備えている。
【0064】
次に、動作について説明する。
背景画像入力手段1、追加画像入力手段2、追加画像配置手段3によって追加画像を背景画像上に配置し、また背景画像領域分割手段56によって、背景画像を被写体毎の画像領域に分割するまでは、実施の形態7と同様である。次に、背景画像領域位置関係抽出手段61によって、背景画像から分割された画像領域毎にカメラからの距離を対応付ける。
【0065】
図23は背景画像領域位置関係抽出手段61の機能を説明するための図である。本実施の形態8では、町の建物の風景を撮影したものを背景画像とし、撮影された背景画像周辺の地図情報が地図情報保存手段62に保存されている例で説明する。背景画像64の中で分割された画像領域それぞれの重心点66を求める。次に、地図情報63の上に、カメラの視野すなわち背景画像64とカメラの視点位置65と画像領域の重心点66を対応させる。地図情報63は、背景画像に写っている建物の形状・位置の情報が存在する。従って、カメラの視点位置65からカメラの視野にある各重心点に向かって地図情報63の上で直線をひくことによって、重心点の先にある実際の建物とカメラの視点位置65との距離を求めることができる。こうして求められた距離を、各重心点66すなわち各画像領域に対応付ける。
【0066】
背景画像領域位置関係抽出手段61によって対応付けられた背景画像内の画像領域とカメラ視点との距離を用いて、実施の形態7と同様の方法で背景画像と追加画像とを合成する。
【0067】
以上のように、この実施の形態8では、背景画像を被写体毎の画像領域に分割した後、それぞれの画像領域とカメラからの距離情報を地図情報を利用して対応付けているので、背景画像に追加画像を合成するときに被写体の前後関係を容易に判断することができる。
背景画像として動画像を入力した場合には、動画像中の各フレーム毎に分割された画像領域に対して、背景画像領域位置関係抽出手段61を用いてカメラからの距離情報を対応付ける。また、追加画像の配置を実施の形態4〜6と同様な方法で行うことによって、背景画像として動画像を入力した場合にも同様の効果を得ることができる。
【0068】
実施の形態9.
上述した実施の形態7では、背景画像を被写体毎に領域分割するために、利用者がディスプレイを見ながらマウスを操作して画像領域を指定したが、この実施の形態9では、背景画像に関する地図情報を参照することによって、背景画像から被写体毎の画像領域を分割する。
【0069】
図24は実施の形態9におけるシステム構成図である。
図24において、背景画像入力手段1、追加画像入力手段2、追加画像配置手段3、画像合成手段7、背景画像領域分割手段56、前後関係判定手段57及び地図情報保存手段62については、実施の形態7と同様である。また、地図情報保存手段62に保存されている地図情報を参照して背景画像から被写体毎の画像領域を分割するための領域境界対応付け手段67を備えている。
【0070】
次に、動作について説明する。
背景画像入力手段1、追加画像入力手段2、追加画像配置手段3によって追加画像を背景画像上に配置するまでは、実施の形態7と同様である。次に、領域境界対応付け手段67によって、背景画像を被写体毎に分割する。
図25は領域境界対応付け手段の機能を説明するための図である。
先ず、地図情報63の上に背景画像64、カメラ視点65を対応付ける。次に、カメラ視点65から背景画像64に写っている被写体の建物の境界部分に対して直線を引く。引かれた直線と背景画像64との交点68が、背景画像中の被写体の水平方向における境界線となる。さらに地図情報63にそれぞれの建物の高さ情報が保存されていれば、その情報を用いて背景画像上で被写体の建物毎の画像領域69を抽出することができる。背景画像領域分割手段56は、領域境界対応付け手段67によって抽出された画像領域69をディスプレイ上に表示し、必要なら利用者は画像領域の形状をマウス操作などで修正することができる。次に、実施の形態7と同様の方法で各画像領域毎にカメラ視点からの距離を入力し、背景画像と追加画像とを合成する。
【0071】
以上のように、この実施の形態9では、背景画像を被写体毎の画像領域に分割する際に、地図情報を用いて大体の画像領域を自動的に抽出するようにしているので、背景画像に追加画像を合成するときに被写体毎のカメラ視点からの位置情報を容易に対応付けることができる。また、実施の形態9の説明では、領域境界対応付け手段67によって抽出された画像領域を背景画像領域分割手段56によって修正しているが、修正せずにそのままの画像領域を用いて大体の画像領域に分割したまま背景画像と追加画像を合成しても良い。
【0072】
実施の形態10.
上述した実施の形態7では、背景画像に合成するものとして静止画を追加画像としていたが、この実施の形態10では、静止画像に代えて3次元CGモデルを背景画像に合成した画像を得る。
背景画像として動画像を入力した場合には、動画像中の各フレームに対して領域境界対応付け手段67、背景画像領域分割手段56を用いて被写体の画像領域を分割する。また、追加画像の配置を実施の形態4〜6と同様の方法で行うことによって、背景画像として動画像を入力した場合にも同様の効果を得ることができる。
【0073】
図26は実施の形態9におけるシステム構成図である。
図26において、背景画像入力手段1、背景画像3次元入力手段4、画像合成手段7、背景画像領域分割手段56及び前後関係判定手段59は、実施の形態7と同様である。また、背景画像に合成する3次元CGモデルを入力するための3次元CGモデル入力手段70、背景画像に対する3次元CGモデルの相対位置を規定するための3次元CGモデル相対位置規定手段71、3次元CGモデルの相対位置によって背景画像に合成する追加画像の形状を補正するための3次元CGモデル形状補正手段72を備えている。
【0074】
次に、動作について説明する。
まず、実施の形態1と同様にして、背景画像入力手段1によって、背景となる画像を入力する。次に、3次元CGモデル入力手段70によって追加画像を生成する元になる3次元CGモデルを入力する。3次元モデル入力手段としては、市販の3DCADソフトウェアを利用する。次に、3次元CG相対位置規定手段71によって、入力された3次元CGモデルの背景画像カメラ位置に対する相対位置を規定する。背景画像カメラ位置は、実施の形態1と同様にして、背景画像3次元情報入力手段4によって得る。次に、3次元CGモデル相対位置規定手段71によって規定された位置に基づいて、3次元CGが背景画像に写る画像を3次元CG形状補正手段によって決定する。その後、実施の形態7と同様の方法によって、背景画像領域分割手段56、前後関係判定手段57、画像合成手段7によって、背景画像と3次元CGモデルによる画像を合成する。
【0075】
以上のように、この実施の形態10では、背景画像に合成する追加画像を3次元CGモデルを用いて生成しているので、自由に作成した立体感のある画像を、被写体の前後関係を正しく反映させて背景画像に合成することができる。
また、実施の形態7〜9において述べたように、背景画像として動画像を入力した場合にも同様の効果を得ることができる。
【0076】
上述した各実施の形態によれば、背景画像に別の画像をいろいろな視点から簡単に合成することができるという効果がある。また、背景画像として動画像を用いた場合でも、動画像中の1ないし2フレームにおいて追加する画像を配置するだけで残りのフレームに対して自動的に画像を補正して合成するので、動画像の各フレームに簡単に画像を合成することができる。また、背景画像中の被写体の位置情報を考慮しているので、背景画像と別の画像を合成するときにそれぞれの被写体の前後関係を反映できるという効果がある。なお、背景画像中の被写体の位置関係を考慮した合成に関しては、背景画像として動画を用いた場合にも同様の方法を用いることによって、実現することができる。
【0077】
【発明の効果】
以上のように、この発明によれば、背景となる画像とそれに合成する別の画像を入力する際に、撮影情報や被写体の情報を同時に入力することによって、追加画像を背景画像中に合成する時に追加画像の形状を補正するようにしているので、背景画像に別の画像を合成するために予め3次元CGモデルを作成する必要もなく、背景画像と別の画像を簡単にかつリアルに合成することができる。
【0078】
また、背景となる画像の中に、位置や向きを変更したい被写体が写っている場合、その被写体の画像領域を背景画像の中から切出して被写体の位置・向きの変更に伴う画像の補正を行うようにしているので、一度入力した背景画像の一部分を簡単に修正することができる。
【0079】
また、3次元モデル入力手段によって入力された3次元CGモデルを元にして追加画像を生成し、追加画像の形状を補正しながら背景画像への合成を行うようにしているので、3次元モデルを元にした追加画像を一つ生成しておけば、それ以降は3次元CGを扱うためのソフトウェアを用意することなく、背景画像に対して3次元CGモデルから生成したイメージのさまざまなバリエーションを簡単に合成することができる。
【0080】
また、背景として動画像を用いて、動画像中の1フレームを背景画像として追加画像を配置することによって、前後のフレームの対応する合成領域を抽出して追加画像を配置するようにしているので、動画像中に簡単に別の画像を合成することができる。
【0081】
また、動画像中の開始フレームと終了フレームに対する追加画像の配置位置を指定するようにしているので、開始フレームと終了フレームの間のフレームに対する追加画像の合成をするのに動画像中の物体の追跡などの複雑な計算処理を行うことなく、動画中に簡単に別の画像を合成することができる。
【0082】
また、動画像中における被写体の動きを定義するようにしているので、動画像に対して動きのある被写体の画像を簡単に合成することが可能である。
【0083】
また、背景画像を被写体毎の画像領域に分割し、それぞれの画像領域にカメラからの距離情報を対応付けているので、背景画像に追加画像を合成するときに被写体の前後関係を正しく反映させた合成画像を簡単に得ることができる。
【0084】
また、背景画像を被写体毎の画像領域に分割した後、それぞれの画像領域とカメラからの距離情報を地図情報を利用して対応付けているので、背景画像に追加画像を合成するときに被写体の前後関係を容易に判断することができる。
【0085】
また、背景画像を被写体毎の画像領域に分割する際に、地図情報を用いて大体の画像領域を自動的に抽出するようにしているので、背景画像に追加画像を合成するときに被写体毎のカメラ視点からの位置情報を容易に対応付けることができる。
【0086】
さらに、背景画像に合成する追加画像を3次元CGモデルを用いて生成しているので、自由に作成した立体感のある画像を、被写体の前後関係を正しく反映させて背景画像に合成することができる。
【図面の簡単な説明】
【図1】 この発明の実施の形態1に係る画像合成装置の構成を示すブロック図である。
【図2】 図1の追加画像入力手段2によって入力される追加画像と、それに関する情報を説明するための図である。
【図3】 図1の背景画像3次元情報入力手段4によって入力される背景画像に関する情報を説明するための図である。
【図4】 図1の追加画像相対位置規定手段5によって規定される背景画像を撮影したカメラの撮影位置・撮影方向に対する被写体の位置・向きを説明するための図である。
【図5】 図1の追加画像形状補正手段6によって追加画像の形状を補正する方法を説明するための図である。
【図6】 この発明の実施の形態2に係る画像合成装置の構成を示すブロック図である。
【図7】 図6の背景画像範囲指定手段17によって利用者が背景画像の中から形状補正の対象となる画像領域を指定する方法を説明するための図である。
【図8】 図6の追加画像形状補正手段6において、背景画像に生じる空白領域を塗りつぶす方法を説明するための図である。
【図9】 この発明の実施の形態3に係る画像合成装置の構成を示すブロック図である。
【図10】 図9のイメージ・データ変換手段27によって背景画像中に3次元モデルを元にしたイメージ・データを合成する方法を説明するための図である。
【図11】 この発明の実施の形態4に係る画像合成装置の構成を示すブロック図である。
【図12】 図11の動画像入力手段31によって入力された動画像中の1フレームに配置された追加画像の領域から合成領域抽出手段32によって前後のフレーム中の合成領域を抽出する方法を説明するための図である。
【図13】 図11の合成領域抽出手段32によって動画像のフレーム中に写っている物体の境界線を追跡する方法を説明するための図である。
【図14】 図11の追加画像伝播手段33によって追加画像を各フレームに合成する方法を説明するための図である。
【図15】 この発明の実施の形態5に係る画像合成装置の構成を示すブロック図である。
【図16】 図15の追加画像補完手段48が開始フレームと終了フレームの間にあるフレームに合成する追加画像を生成する方法を説明するための図である。
【図17】 この発明の実施の形態6に係る画像合成装置の構成を示すブロック図である。
【図18】 図17の追加画像動作定義手段54によって定義される被写体の移動径路について説明するための図である。
【図19】 この発明の実施の形態7に係る画像合成装置の構成を示すブロック図である。
【図20】 図19の背景画像領域分割手段56によって背景画像の領域分割を行う方法を説明するための図である。
【図21】 図19の前後関係判定手段57によって判定された順序を元にして合成された背景画像と追加画像を説明するための図である。
【図22】 この発明の実施の形態8に係る画像合成装置の構成を示すブロック図である。
【図23】 図22の背景画像領域位置関係抽出手段61の機能を説明するための図である。
【図24】 この発明の実施の形態9に係る画像合成装置の構成を示すブロック図である。
【図25】 図24の領域境界対応付け手段67の機能を説明するための図である。
【図26】 この発明の実施の形態10に係る画像合成装置の構成を示すブロック図である。
【図27】 特開平5−11727号公報に示された画像合成表示装置を説明するための構成図である。
【符号の説明】
1 背景画像入力手段、2 追加画像入力手段、3 追加画像配置手段、
4 背景画像3次元情報入力手段、5 追加画像相対位置規定手段、6 追加画像形状補正手段、7 画像合成手段、17 背景画像範囲指定手段、18 背景画像切出し手段、26 3次元モデル入力手段、27 イメージ・データ変換手段、31 動画像入力手段、32 合成領域抽出手段、33 追加画像伝播手段、44 追加画像第1相対位置規定手段、45 背景画像3次元情報第1入力手段、46 追加画像第2相対位置規定手段、47 背景画像3次元情報第2入力手段、48 追加画像補完手段、54 追加画像動作定義手段、56 背景画像領域分割手段、57 前後関係判定手段、61 背景画像領域位置関係抽出手段、62 地図情報保存手段、67 領域境界対応付け手段、70 3次元CGモデル入力手段、71 3次元CGモデル相対位置規定手段、72 3次元CGモデル形状補正手段。
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image synthesizing apparatus in digital image processing, and in particular, when a still image / moving image obtained by actual shooting is used as a background image and another still image / computer graphic (hereinafter referred to as CG) image is synthesized thereon. The present invention relates to an image composition apparatus that performs composition without a sense of incongruity in consideration of a positional relationship with a background image.
[0002]
[Prior art]
FIG. 27 shows a conventional image composition display device similar to the image composition display device disclosed in, for example, Japanese Patent Laid-Open No. 5-11727, and synthesizes an image captured by a video camera at a position intended for computer graphics. To display.
In FIG. 27, reference numeral 73 denotes a video camera, 74 denotes a direction position recognition sensor such as a geomagnetic sensor or a gyro attached to the video camera 73, and 75 denotes a computer RGB which is a computer image signal based on the direction and size of the computer image. CG device for outputting an image signal, 76 is a computer image frame memory for inputting a computer RGB image signal output from the CG device 75, and 78 is a binary image obtained by binarizing an NTSC signal which is a video RGB image signal from the video camera 73. A video signal conversion device that outputs a video RGB image signal that is a valued video image signal, 79 is a video image frame memory that inputs the video RGB image signal from the video signal conversion device 78 frame by frame, and 80 is a video image frame memory 79 and computer image frames An image composition unit 81 synthesizes both RGB image signals from the memory 76 and outputs a composite RGB image signal, which is a composite binary image signal. 81 is a composite RGB image obtained by binarizing and binarizing the composite RGB image signal. An RGB signal conversion device 82 for converting an image signal into a synthesized NTSC image signal is a display as a display device.
[0003]
Next, the operation will be described.
The video camera 73 includes a direction position recognition sensor 74 that detects an imaging direction of a predetermined area and a current position of the video camera 73. When the video camera 73 captures a predetermined area, the CG device 75 uses the camera viewpoint / direction information detected from the direction position recognition sensor 74 and uses the same viewpoint as the image captured by the video camera 73. A visible CG image is generated. As a result, the size and orientation of the CG image are corrected in order to make the CG object appear to exist at the intended position in the image even if the position and orientation taken by the video camera 73 are changed randomly. The generated image and displayed on the display 82 can be displayed without a sense of incongruity.
[0004]
[Problems to be solved by the invention]
The conventional image composition display device is a device for synthesizing and displaying an image generated on the basis of the CG model created by the CG device 75 with respect to the image taken by the video camera 73, and displaying the video. In order to synthesize another image with the image photographed by the camera 73, there was a problem that a CG model had to be created in advance.
[0005]
In addition, in order to synthesize another image with the moving image shot by the video camera 73, a direction position recognition sensor 74 for detecting the direction and position of the camera is always set while shooting and the direction is set.・ There was a problem that it was necessary to continue detecting position information.
[0006]
In addition, when a CG image is synthesized with an image captured by the video camera 73, since the positional relationship between the subject in the image captured by the video camera 73 and the CG image is not considered, for example, Even when a building based on a CG image is synthesized and displayed over one tree in an image photographed by the video camera 73, the CG image is displayed on the tree, so the tree in front of the CG image is displayed. There was a problem that the image of was hidden.
[0007]
The present invention has been made to solve the above-described problems. Even if a CG model is not created in advance, a still image can be prepared to synthesize another image in a background image without a sense of incongruity. In addition, it is possible to synthesize another image in the background moving image without a sense of incongruity by a simple operation, and to consider both images in consideration of the context of the subject in the background image and the additional image added to the background image. An object is to obtain an image composition device having a composition function.
[0008]
[Means for Solving the Problems]
  An image composition apparatus according to the present invention includes a background image input unit for inputting a background image, an additional image input unit for inputting an additional image, and a background image three-dimensional information input unit for inputting three-dimensional information of the background image. The additional image relative position defining means for defining the relative position of the additional image on the background image, and the additional image on the background image based on the relative position of the additional image defined by the additional image relative position defining means The background image is divided for each image area in accordance with the three-dimensional information inputted by the background image three-dimensional information input means, and the additional image shape correcting means for correcting the shape of the additional image before synthesis. A background image region dividing unit for determining the relationship between each image region divided by the background image region dividing unit and the additional image; An image for combining the additional image whose shape has been corrected by the additional image shape correcting unit with a background image and for combining the image region determined to be in front of the additional image by the context determination unit from above the additional image By synthesizing the image, another image is synthesized in consideration of the context of the subject in the background image.At the same time, the positional relationship between the map information storing means storing the map information and the image area divided by the background image area dividing means is extracted with reference to the map information around the background image from the map information storing means. The background image region positional relationship extracting means is further reflected in the composite image, and the background image region positional relationship extracting means is divided in the background image. Find the center of gravity of each image area, associate the camera viewpoint position with the background image and the center of gravity of the image area on the map information, and display the map information from the camera viewpoint position to each center of gravity point in the camera field of view. By drawing a straight line, the distance between the subject ahead of the center of gravity and the viewpoint position of the camera is obtained, and the obtained distance is associated with each image area.
  Also,An image composition apparatus according to another invention includes a background image input means for inputting a background image, an additional image input means for inputting an additional image, and a background image 3D information input means for inputting 3D information of the background image. And an additional image relative position defining means for defining the relative position of the additional image on the background image, and the additional image on the background image based on the relative position of the additional image defined by the additional image relative position defining means And dividing the background image into image areas according to the three-dimensional information input by the background image three-dimensional information input means, and additional image shape correcting means for correcting the shape of the additional image before combining the images. A background image region dividing unit for performing the determination, and a context determining unit for determining a context between each image region divided by the background image region dividing unit and the additional image, An image for combining the additional image whose shape has been corrected by the additional image shape correcting unit with a background image and for combining the image region determined to be in front of the additional image by the context determination unit from above the additional image By combining the composition means, another image is synthesized while considering the context with the subject in the background image,When the background image is divided into several image areas by the map information storage means for storing the map information and the background image area dividing means, the boundary line of the subject in the background image is displayed as the background image from the map information storage means. By dividing the image area for each subject in the background image by further comprising area boundary association means for extracting by referring to surrounding map informationAnd the area boundary associating means associates a background image and a camera viewpoint on the map information, draws a straight line from the camera viewpoint to a boundary portion of the subject reflected in the background image, The intersection of the objects is the boundary line of the subject in the background imageIt is characterized by that.
[0018]
DETAILED DESCRIPTION OF THE INVENTION
Embodiment 1 FIG.
FIG. 1 is a system configuration diagram showing Embodiment 1 of the present invention.
In FIG. 1, 1 is a background image input means for inputting an image as a background (hereinafter referred to as a background image) when the images are synthesized on a computer, and 2 is synthesized with the background image input by the background image input means. The additional image input means 3 for inputting another image (hereinafter referred to as an additional image) to perform, is an additional image arrangement means for arranging the additional image on the background image. Background image 3D information input means 4 for inputting 3D information such as a shooting position of the background image, additional image relative position defining means 5 for defining the relative position of the additional image on the background image, and addition And an additional image shape correcting unit 6 for correcting the shape of the additional image before synthesizing the additional image on the background image based on the relative position of the additional image defined by the image relative position defining unit 5. Reference numeral 7 denotes image combining means for combining the additional image whose shape has been corrected by the additional image shape correcting means 6 with the background image.
[0019]
Next, the operation will be described.
First, the background image input means 1 inputs an image as a background for image synthesis. In order to input a background image, image data taken with a digital camera is taken into a computer, or video taken with a video camera is taken into a computer as digital data. Next, the additional image input means 2 inputs an additional image to be combined with the background image. In order to input additional images, image data taken with a digital camera is taken into a computer or created with commercially available image drawing software. In this embodiment, an example in which an image obtained by photographing a rectangular plate-like object such as a billboard advertisement is combined with a background image such as a town landscape photographed by a camera will be described. At this time, information on the distance and subject size when the additional image is taken is also input.
[0020]
FIG. 2 is a diagram for explaining an additional image and information related thereto.
An image 10 of the subject 11 is shown in the photographing field 9 when the subject 11 is photographed by the photographing camera 8. The image 10 is input as an additional image. As information about the additional image, the size (Lx, Ly) of the subject 11 and the distance L1 between the camera 8 and the subject 11 are also input simultaneously. In FIG. 2, the image 10 when the subject 11 is perpendicular to the camera line of sight is an example of the additional image, but an image when the subject 11 has an angle with respect to the camera line of sight is added. An image can also be synthesized by a method similar to the method described below.
[0021]
Next, the background image 3D information input means 4 inputs information about the shooting position and shooting direction of the camera when the background image is shot.
FIG. 3 is a diagram for explaining a situation when an image used as a background image is captured.
In FIG. 3, reference numeral 12 denotes a camera for taking a background image, and reference numeral 13 denotes a background image taken by the camera 12. Further, (X2, Y2, Z2) are absolute coordinates of the shooting position when the camera 12 captures a background image, and (θx2, θy2, θz2) is the absolute coordinate of the camera when the background image is captured. Direction. Here, θx, θy, and θz represent rotation angles of the camera 12 with respect to the X-axis direction, the Y-axis direction, and the Z-axis direction, respectively.
[0022]
Next, the additional image relative position defining means 5 inputs a place where the subject 11 is located with respect to the photographing position and photographing direction of the camera 12 when the background image is photographed.
FIG. 4 is a diagram for explaining the position and orientation of the subject 11 with respect to the photographing position and photographing direction of the camera 12 that photographed the background image.
In FIG. 4, (X1, Y1, Z1) are absolute coordinates of the position of the subject 11, and (θx1, θy1, θz1) are directions in the absolute coordinates of the subject 11. Reference numeral 14 denotes an image of the subject 11 that is finally combined with the background image 13 when the position / orientation of the subject 11 is defined by the additional image relative position defining means 5. L2 represents the distance between the camera 12 and the virtually placed subject 11, and L2 = {(X2-X1) 2+ (Y2-Y1) 2+ (Z2-Z1) 2} 1/2.
[0023]
Next, the additional image shape correcting unit 6 corrects the shape of the additional image 10 to generate an image 14 to be combined with the background image 13.
FIG. 5 is a diagram for explaining a method of correcting the shape of the additional image 10 and will be described based on the relative position / orientation of the subject 11 with respect to the position / orientation of the camera 12.
FIG. 5 shows a case where the subject 11 is rotated by θy in the Y-axis direction with respect to the camera 12. Let the vertical and horizontal lengths of the additional image 10 based on the subject 11 be Lx ′ and Ly ′, respectively. As described above, the subject 11 is perpendicular to the camera 12 when the additional image 10 is taken. In FIG. 5, since the subject 11 is rotated by θy with respect to the camera 12, the width Lx ′ of the additional image 10 becomes Lx′cos (θy). This is performed by dividing the additional image 10 into strip-shaped regions having a width 1 as shown in FIG. 5 and thinning the strip-shaped regions 15 in accordance with the scale ratio.
[0024]
Further, as the subject 11 rotates, a portion that approaches or moves away from the camera 12 appears. This is dealt with by calculating the length in the Y-axis direction for the band-like region 15 that has not been thinned out, and expanding and contracting it.
In the example of FIG. 5, the leftmost band-like area 15 of the additional image 10 is the part where the subject 11 is closest to the camera 12, and thus is expanded in the Y-axis direction like the band-shaped area 16 after shape correction. The other band-shaped regions are also expanded in the Y-axis direction by the same calculation as the band-shaped region 16, and the expanded band-shaped regions are combined to generate the additional image 14 after shape correction. In the example of FIG. 5, L2 is described as the same distance as L1 (distance when an additional image is captured) for the sake of simplicity. However, when L2 is different from L1, it is added as described above. After correcting the shape of the image 10, the additional image 14 after the shape correction can be obtained by multiplying the vertical and horizontal sizes by L1 / L2.
[0025]
Although the shape correction of the additional image when the subject 11 is rotated in the Y-axis direction has been described with reference to FIG. 5, the same method is used for the shape correction of the additional image when the subject 11 is rotated in the X-axis direction. With this, shape correction can be performed. Further, when the image is rotated in the Z-axis direction, the shape correction is performed by rotating the additional image 10 on the plane of the background image 13.
Finally, the background image 13 and the shape-corrected additional image 14 are combined by the image combining means 7.
[0026]
As described above, according to the first embodiment, when inputting an image as a background and another image to be combined therewith, an additional image is combined into the background image by simultaneously inputting shooting information and subject information. Since the shape of the additional image is corrected when the image is added, it is not necessary to create a 3D CG model in advance to synthesize another image with the background image, and the background image and the other image can be easily and realistically created. Can be synthesized.
[0027]
Embodiment 2. FIG.
In the first embodiment described above, a completely different additional image is input and synthesized with respect to the background image. Next, the image portion of the subject reflected in the background image is corrected. An embodiment in such a case will be described.
FIG. 6 is a system configuration diagram according to the second embodiment.
In FIG. 6, the background image input unit 1, the additional image arrangement unit 3, the background image three-dimensional information input unit 4, the additional image relative position defining unit 5, the additional image shape correcting unit 6, and the image synthesizing unit 7 are the same as those in the first embodiment. It is the same. The difference between the second embodiment and the second embodiment is that the additional image input unit 2 searches for the additional image from the background image and specifies the image range from the background image, and the background image. This is the point constituted by the background image cutout means 18 for cutting out the image in the range designated by the range designation means 17 as an additional image and passing it to the additional image arrangement means 3.
[0028]
Next, the operation will be described.
First, in the same manner as in the first embodiment, the background image input unit 1 inputs an image as a background. Next, the background image range designating unit 17 designates an image region to be subjected to shape correction from the background image input by the background image input unit 1.
FIG. 7 is a diagram for explaining a method in which the user designates an image area to be subjected to shape correction from the background image.
Assume that it is desired to correct the image area 19 in which the subject 20 is reflected when the camera 12 captures the background image 13. The user inputs the designated range 21 using the mouse 22 on the background image 13 displayed on the display so as to include the range of the image region 19. In the example of FIG. 7, the rectangular range is designated, but it is also possible to designate a polygonal region by designating the vertex of the polygon with the mouse. The range of the image area 19 to be corrected is specified from the background image 13 by the above operation.
[0029]
Next, the background image cutout means 18 cuts out and inputs the image area 19 designated by the background image range designation means 17. Information on the subject 20 that is the actual state of the image area 19 is also input. (X1, Y1, Z1) and (θx1, θy1, θz1) are position coordinates and orientation information of the subject 20 when the camera 12 is the origin.
[0030]
The additional image arrangement means 3 uses the image area 19 cut out from the background image 13 as an additional image, and changes the shape and shape of the additional image by changing the position and orientation of the subject 20 in the same procedure as in the first embodiment. Is obtained by correcting. Unlike the first embodiment, depending on the new position / orientation of the subject 20, a part or all of the cut-out image area 19 is not included in the newly added area of the additional image and is included in the background image. A blank area may occur. In such a case, the image synthesizing unit 7 fills an area that is not included in the additional image area with a color obtained by averaging the colors of the pixels on the boundary line of the blank area.
[0031]
FIG. 8 is a diagram for explaining the filling of the blank area as described above.
In FIG. 8, reference numeral 23 denotes an additional image whose shape has been corrected, and reference numeral 24 denotes a blank area formed by the image region 19 which is not included in the additional image 23 whose shape has been corrected. In the image composition means 7, the blank area 24 becomes a filled area 25 by the average color (white in the example of FIG. 8) of the pixels on the boundary line.
[0032]
As described above, in the second embodiment, when a subject whose position or orientation is to be changed is shown in the background image, the image area of the subject is cut out from the background image, and the subject position / orientation is determined. Since the image is corrected in accordance with the change, it is possible to easily correct a part of the background image once inputted.
[0033]
Embodiment 3 FIG.
In the above embodiment, an image taken by a camera is input to input an additional image. In the third embodiment, a three-dimensional CG model is used to input an additional image.
FIG. 9 is a system configuration diagram according to the third embodiment.
In FIG. 9, the background image input means 1, the additional image arrangement means 3, the background image three-dimensional information input means 4, the additional image relative position defining means 5, the additional image shape correcting means 6 and the image composition means 7 are the same as those in the first embodiment. It is the same. The difference in the third embodiment is that the additional image input means 2 is divided into a three-dimensional model input means 26 and a three-dimensional model input means 26 for inputting a source three-dimensional CG model for generating an additional image. The image data is generated on the basis of the input three-dimensional CG model, and is constituted by the image data conversion means 27 for passing to the additional image arrangement means 3 as an additional image.
[0034]
Next, the operation will be described.
First, in the same manner as in the first embodiment, the background image input unit 1 inputs an image as a background. Next, a three-dimensional CG model from which an additional image is generated is input by the three-dimensional model input unit 26. As the 3D model input means, commercially available 3D CAD software is used. Next, the image / data conversion means 27 generates an additional image based on the input three-dimensional CG model.
[0035]
FIG. 10 is a diagram for explaining a method of synthesizing image data based on a three-dimensional model as an additional image in a background image.
In the image / data conversion unit 27, the CG 28 input by the three-dimensional model input unit 26 is placed at a distance L1 with respect to the camera position 30, and an image 29 obtained as a result in the camera field of view is taken out as an additional image.
[0036]
In the additional image arrangement unit 3, the shape of the additional image can be corrected by the same procedure as in the first embodiment, using the image 29 obtained by the image / data conversion unit 27 as an additional image.
[0037]
As described above, in the third embodiment, an additional image is generated based on the three-dimensional CG model input by the three-dimensional model input unit 26, and is synthesized with the background image while correcting the shape of the additional image. Therefore, if one additional image based on the 3D model is generated, the 3D CG model can be applied to the background image without preparing software for handling the 3D CG thereafter. Various variations of images generated from can be easily combined.
[0038]
Embodiment 4 FIG.
In the above embodiment, a still image is used as a background image. In the fourth embodiment, a moving image is used as a background image, and an additional image is synthesized for each frame of the background moving image.
FIG. 11 is a system configuration diagram according to the fourth embodiment.
In FIG. 11, the background image input means 1, the additional image input means 2, and the additional image arrangement means 3 are the same as those in the first embodiment. Furthermore, in the fourth embodiment, a moving image input unit 31 for inputting a moving image as a background, and an area for synthesizing an additional image from each frame of the moving image input by the moving image input unit 31 The additional image arranged in one frame in the moving image by the synthetic area extracting means 32 and the additional image arranging means 3 for extracting the image is added to the preceding and following frames using the area extracted by the synthetic area extracting means 32. Additional image propagating means 33 for adding images while correcting the shape of the image is added.
[0039]
Next, the operation will be described.
First, a moving image used as a background is input by the moving image input means 31. Next, the user selects one frame from the frames of the moving image input by the moving image input unit 31, and inputs the image of the selected frame as a background image by the background image input unit 1. Next, an additional image is input by the additional image input means 2 as in the first embodiment. Next, the additional image arrangement means 3 arranges the additional image in the background image.
[0040]
In the fourth embodiment, a method of synthesizing an additional image with a moving image will be described using an example of synthesizing a mural as an additional image on a wall surface of a building that is captured in a moving image taken from a road.
FIG. 12 shows a method of extracting a composite area from frames before and after the one frame by the composite area extraction means 32 from the area of the additional image arranged in one frame in the video input by the video input means 31. It is a figure for demonstrating.
In FIG. 12, reference numeral 34 denotes a moving image input by the moving image input means 31. Reference numeral 35 denotes a frame selected as a background image from the frames included in the moving image 34 by the background image input means 1. Reference numeral 36 denotes an additional image of the mural placed in the frame 35 by the additional image placement means 3. Reference numeral 37 denotes an additional image 35. The boundary line 38 is a boundary line obtained by propagating an area corresponding to the boundary line 37 defined in the frame 35 to the frames before and after the frame 35. In the example of the present embodiment, the wall surface of the building shown in the front and rear frames is propagated.
[0041]
FIG. 13 is a diagram for explaining a method of tracking a boundary line of an object shown in a moving image frame.
When the boundary line 37 in the frame 35 is placed at the same position in the next frame 39, the boundary line 40 is obtained. A region 41 having the same color as the color inside the boundary line 37 of the frame 35 is extracted inside the boundary line 40 of the frame 39. Next, the pixels having the same color are traced toward the outside of the area 41 to obtain the area 42. Finally, a similar figure 43 of the boundary line 40 that is inscribed in the area 42 is obtained, and this is used as a synthesis area in the frame 39. By using the similar figure 43 obtained here as a new boundary line and performing the same process on the frame following the frame 39, the boundary line of the object shown in the frame of the moving image can be tracked. .
[0042]
Although a simple method using the color information inside the boundary line 37 has been described here, a dynamic contour model (Snakes) can also be used as a method for tracking the boundary line of an object in a moving image. . This method is described in “Study on Tracking of Moving Object Using Active Contour Model” (1995 Information and Systems Society Conference D-237).
[0043]
Further, FIG. 14 is a diagram for explaining a method of synthesizing an additional image with each frame by the additional image propagation means 33 in accordance with the shape of the synthesis area for each frame extracted by the synthesis area extraction means 32.
The additional image 36 is divided into strip-like regions 15 having a width of 1, and the width is adjusted by performing thinning and widening in accordance with the width of the boundary line 43 of another frame. Next, the additional image 36 having the width matched to the boundary line 43 is again divided into strip-shaped areas having a width of 1, and the vertical height of each strip-shaped area is matched to the boundary line 43, whereby the additional image 36 is changed to each frame. Can be matched to the shape of the boundary line.
[0044]
As described above, in the fourth embodiment, a moving image is used as a background, and an additional image is arranged by using one frame in the moving image as a background image, thereby extracting a corresponding composite region of the preceding and following frames. Since the additional image is arranged, another image can be easily combined with the moving image.
[0045]
Embodiment 5 FIG.
In Embodiment 4 described above, when another image is combined with a moving image, only one frame that defines the arrangement position of the additional image is used, and the combined region is tracked for the frames before and after that. However, in the fifth embodiment, frames that define the arrangement position of the additional image are applied to the two frames of the synthesis start frame and the end frame, and are automatically applied to each frame between the two frames. To synthesize additional images.
[0046]
FIG. 15 is a system configuration diagram according to the fifth embodiment.
In FIG. 15, the background image input unit 1, the additional image input unit 2, the moving image input unit 31, and the additional image propagation unit 33 are the same as those in the fourth embodiment. In the fifth embodiment, the additional image placement unit 3 is an addition for determining the relative position of the additional image with respect to the synthesis start frame selected from the frames of the moving image input by the moving image input unit 31. Image first relative position defining means 44, background image three-dimensional information first input means 45 for inputting the three-dimensional information of the start frame, and additional image for determining the relative position of the additional image with respect to the synthesis end frame Second relative position defining means 46, background image three-dimensional information second input means 47 for inputting the three-dimensional information of the end frame, and additional image shape correcting means for correcting the shape of the additional image with respect to the start frame and the end frame 6 is provided.
[0047]
Next, the operation will be described.
First, the moving image input unit 31 selects a start frame and an end frame for compositing an additional image from the input moving image frames by the background image input unit 1. Next, with respect to the additional image input by the additional image input unit 2, an additional image first relative position defining unit 44, a background image three-dimensional information first input unit 45, an additional image second relative position defining unit 46, The background image three-dimensional information second input unit 47 and the additional image shape correcting unit 6 correct the shape of the additional image with respect to the start frame and the end frame. The shape correction of the additional image with respect to the start frame and the end frame is performed by the same method as in the first embodiment. Next, based on the additional images in the start frame and the end frame, the additional image complementing unit 48 generates an additional image area to be combined with the frame between the start frame and the end frame.
[0048]
FIG. 16 is a diagram for explaining a method for generating an additional image to be synthesized by the additional image complementing means 48 into a frame between the start frame and the end frame.
In the example of FIG. 16, an additional image is taken as an example as in the first embodiment.
In FIG. 16, 49 and 50 are a start frame and an end frame of synthesis in a moving image, respectively, and 51 and 52 are additional images respectively arranged on the start frame 49 and the end frame 50 by the additional image arrangement unit 3. If there are (N-1) frames between the start frame 49 and the end frame 50, the coordinates of the vertices of the area of the additional image with respect to the k-th frame of the (N-1) frame are expressed by the equation shown in FIG. Can be calculated.
[0049]
Then, according to the area of the additional image of each frame generated by the additional image complementing unit 48, the additional image propagation unit 33 synthesizes the additional image with each frame in the same manner as described in the fourth embodiment.
[0050]
As described above, in the fifth embodiment, since the arrangement position of the additional image with respect to the start frame and the end frame in the moving image is designated, the composition of the additional image with respect to the frame between the start frame and the end frame is designated. Therefore, it is possible to easily synthesize another image in a moving image without performing complicated calculation processing such as tracking an object in a moving image. In the description of the fifth embodiment, an additional image is specified for a start frame and an end frame in a moving image. However, a start / end is performed by placing a 3D CG model in the start / end frame instead of image data. It is also possible to calculate the arrangement position of the three-dimensional CG model in the frame between the frames using the same principle and combine it with the moving image.
[0051]
Embodiment 6 FIG.
In Embodiment 4 described above, when another image is synthesized with a moving image, the position of the additional image is calculated assuming that the position of the additional image is stationary with respect to the background image. In 6, the additional image moving in the background image is synthesized by defining the moving path of the subject that is the source of the additional image with respect to the background image.
[0052]
FIG. 17 is a system configuration diagram according to the sixth embodiment.
In FIG. 17, the background image input unit 1, the additional image input unit 2, the additional image arrangement unit 3, the composite region extraction unit 32, and the additional image propagation unit 33 are the same as those in the fourth embodiment. Further, it is constituted by an additional image operation defining means 54 for defining a moving path of a subject as an additional image source with respect to a background moving image.
[0053]
Next, the operation will be described.
The process until the additional image is arranged on one frame by the moving image input unit 31, the background image input unit 1, the additional image input unit 2, and the additional image arrangement unit 3 is the same as that of the fourth embodiment. Next, in the additional image operation defining means 54, the user defines the path of movement of the additional image arranged on one frame.
[0054]
FIG. 18 is a diagram for explaining the moving path of the subject defined by the additional image operation defining means 54.
In FIG. 18, 55 represents the position / orientation of the subject 28 relative to the camera 30 in the moving image input by the moving image input means 31 with respect to time. 55, the synthesis area extraction unit 32 extracts the synthesis areas before and after the frame in which the additional image 29 is arranged.
Next, in the same manner as in the fourth embodiment, the additional image propagation means 33 synthesizes the additional image with another frame.
[0055]
As described above, in the sixth embodiment, since the movement of the subject in the moving image is defined, it is possible to easily synthesize the image of the moving subject with the moving image. In the description of the sixth embodiment, an additional image is specified as a background image in a moving image. However, by placing a three-dimensional CG model in the background image instead of image data, 3 in the frames before and after the background image is displayed. Since the motion of the three-dimensional CG model can be defined using the same principle and synthesized with a moving image, the moving three-dimensional CG model and the moving image can be easily synthesized.
[0056]
Embodiment 7 FIG.
In the above embodiment, when another image is combined with the background image, since the context of the subject in the background image and the subject in the additional image is not considered, the entire additional image is always taken into account. Is displayed on the background image, but in the seventh embodiment, the background image is divided into regions for each subject, and the additional image is synthesized using the position information.
[0057]
FIG. 19 is a system configuration diagram in the seventh embodiment.
In FIG. 19, the background image input unit 1, the additional image input unit 2, the additional image arrangement unit 3, and the image composition unit 7 are the same as those in the first embodiment. Further, the background image input means 1 for dividing the background image into areas for each subject, the image area divided by the background image area dividing means 56, and the front and rear of the additional image And a context determining means 57 for determining the relationship.
[0058]
Next, the operation will be described.
The process is the same as that of the first embodiment until the additional image is arranged on the background image by the background image input unit 1, the additional image input unit 2, and the additional image arrangement unit 3. The background image area dividing means 56 divides the background image for each subject and adds information about the distance from the camera viewpoint for each area.
FIG. 20 is a diagram for explaining a method of performing region division of a background image.
While viewing the background image 13 displayed on the display, the user designates the apex of the area while operating the mouse for each area of the subject to define a polygonal area. Each designated area has an area No. And distance information 58 from the camera viewpoint are input in association with each other.
[0059]
Next, based on the distance information from the camera viewpoint of each image region of the background image obtained by the background image region dividing unit 56 and the position information of the additional image by the additional image arranging unit 3, the context determining unit 57 The order in which the additional images are combined is determined. The image composition means 7 displays the image area farther from the camera viewpoint than the additional image by the context determining means 57, then the additional image, and finally the image area closer to the camera viewpoint than the additional image. Is synthesized.
[0060]
FIG. 21 is a diagram for explaining the background image and the additional image synthesized based on the order determined by the context determination unit 57.
When the additional image 59 with a distance of 15 from the camera is combined with the background image divided into regions, the background image with a distance from the camera smaller than 15 is combined on the additional image 59 and finally. A composite image 60 is obtained.
[0061]
As described above, in the seventh embodiment, the background image is divided into image areas for each subject, and distance information from the camera is associated with each image area. Therefore, when an additional image is combined with the background image It is possible to easily obtain a composite image that correctly reflects the context of the subject.
When a moving image is input as a background image, the region of the subject is defined for each frame in the moving image by dividing the region by the background image region dividing unit 56, and the region number and the camera viewpoint are assigned to each region. The distance information from is input in association. Further, by arranging the additional images in the same manner as in the fourth to sixth embodiments, the same effect can be obtained even when a moving image is input as the background image.
[0062]
Embodiment 8 FIG.
In the seventh embodiment described above, in order to divide the background image into regions for each subject and synthesize additional images using the positional information, the background image region dividing means allows the user to read from the camera for each image region. In the eighth embodiment, the distance from the camera for each image area is input by referring to the map information regarding the background image.
[0063]
FIG. 22 is a system configuration diagram according to the eighth embodiment.
In FIG. 22, the background image input means 1, the additional image input means 2, the additional image arrangement means 3, the image composition means 7, the background image area dividing means 56, and the context determination means 57 are the same as in the seventh embodiment. . Further, the map information storage means 62 for storing the geographical information of the scene shown in the background image input by the background image input means 1 and the map information stored in the map information storage means 62 are referred to. A background image area positional relationship extracting means 61 for associating distance information from the camera with an area in the background image is provided.
[0064]
Next, the operation will be described.
Until the background image input unit 1, the additional image input unit 2, and the additional image arrangement unit 3 arrange the additional image on the background image, and until the background image region dividing unit 56 divides the background image into image regions for each subject. This is the same as in the seventh embodiment. Next, the distance from the camera is associated with each image area divided from the background image by the background image area positional relationship extracting means 61.
[0065]
FIG. 23 is a diagram for explaining the function of the background image region positional relationship extracting means 61. In the eighth embodiment, an example in which a landscape of a town building is taken as a background image and map information around the taken background image is saved in the map information saving means 62 will be described. The barycentric point 66 of each image area divided in the background image 64 is obtained. Next, the field of view of the camera, that is, the background image 64, the viewpoint position 65 of the camera, and the barycentric point 66 of the image area are associated on the map information 63. The map information 63 includes information on the shape and position of the building shown in the background image. Accordingly, by drawing a straight line on the map information 63 from the camera viewpoint 65 to each center of gravity in the camera field of view, the distance between the actual building ahead of the center of gravity and the camera viewpoint 65 is determined. Can be sought. The distance thus obtained is associated with each barycentric point 66, that is, each image area.
[0066]
The background image and the additional image are synthesized in the same manner as in the seventh embodiment, using the distance between the image region in the background image associated with the background image region positional relationship extracting means 61 and the camera viewpoint.
[0067]
As described above, in the eighth embodiment, after the background image is divided into image areas for each subject, each image area and distance information from the camera are associated using map information. Thus, it is possible to easily determine the context of the subject when the additional image is combined.
When a moving image is input as the background image, distance information from the camera is associated with the image region divided for each frame in the moving image using the background image region positional relationship extracting means 61. Further, by arranging the additional images in the same manner as in the fourth to sixth embodiments, the same effect can be obtained even when a moving image is input as the background image.
[0068]
Embodiment 9 FIG.
In Embodiment 7 described above, in order to divide the background image into regions for each subject, the user designates the image region by operating the mouse while looking at the display. In Embodiment 9, however, the map relating to the background image is specified. By referring to the information, the image area for each subject is divided from the background image.
[0069]
FIG. 24 is a system configuration diagram according to the ninth embodiment.
In FIG. 24, the background image input unit 1, the additional image input unit 2, the additional image arrangement unit 3, the image composition unit 7, the background image region division unit 56, the context determination unit 57, and the map information storage unit 62 are implemented. This is the same as the seventh embodiment. Further, an area boundary associating unit 67 for dividing the image area for each subject from the background image with reference to the map information stored in the map information storing unit 62 is provided.
[0070]
Next, the operation will be described.
The process until the additional image is arranged on the background image by the background image input unit 1, the additional image input unit 2, and the additional image arrangement unit 3 is the same as that of the seventh embodiment. Next, the area boundary associating means 67 divides the background image for each subject.
FIG. 25 is a diagram for explaining the function of the region boundary association means.
First, a background image 64 and a camera viewpoint 65 are associated on the map information 63. Next, a straight line is drawn from the camera viewpoint 65 to the boundary portion of the building of the subject reflected in the background image 64. An intersection 68 between the drawn straight line and the background image 64 is a horizontal boundary line of the subject in the background image. Further, if the height information of each building is stored in the map information 63, the image area 69 for each building of the subject can be extracted on the background image using the information. The background image area dividing means 56 displays the image area 69 extracted by the area boundary associating means 67 on the display, and if necessary, the user can correct the shape of the image area by operating the mouse. Next, the distance from the camera viewpoint is input for each image area in the same manner as in the seventh embodiment, and the background image and the additional image are combined.
[0071]
As described above, in the ninth embodiment, when a background image is divided into image areas for each subject, an approximate image area is automatically extracted using map information. When combining additional images, position information from the camera viewpoint for each subject can be easily associated. In the description of the ninth embodiment, the image area extracted by the area boundary associating unit 67 is corrected by the background image area dividing unit 56. However, the image area is used as it is without being corrected. The background image and the additional image may be combined while being divided into regions.
[0072]
Embodiment 10 FIG.
In Embodiment 7 described above, a still image is added as an image to be combined with the background image. However, in Embodiment 10, an image obtained by combining the three-dimensional CG model with the background image is obtained instead of the still image.
When a moving image is input as the background image, the image area of the subject is divided using the region boundary association unit 67 and the background image region dividing unit 56 for each frame in the moving image. Further, by arranging the additional images in the same manner as in the fourth to sixth embodiments, the same effect can be obtained even when a moving image is input as the background image.
[0073]
FIG. 26 is a system configuration diagram according to the ninth embodiment.
In FIG. 26, the background image input unit 1, the background image three-dimensional input unit 4, the image composition unit 7, the background image region division unit 56, and the context determination unit 59 are the same as those in the seventh embodiment. Also, a three-dimensional CG model input means 70 for inputting a three-dimensional CG model to be combined with the background image, and a three-dimensional CG model relative position defining means 71, 3 for defining the relative position of the three-dimensional CG model with respect to the background image. A three-dimensional CG model shape correcting unit 72 is provided for correcting the shape of the additional image to be combined with the background image according to the relative position of the three-dimensional CG model.
[0074]
Next, the operation will be described.
First, in the same manner as in the first embodiment, the background image input unit 1 inputs an image as a background. Next, the 3D CG model input means 70 inputs a 3D CG model from which an additional image is generated. As the 3D model input means, commercially available 3D CAD software is used. Next, the three-dimensional CG relative position defining means 71 defines the relative position of the input three-dimensional CG model with respect to the background image camera position. The background image camera position is obtained by the background image three-dimensional information input means 4 as in the first embodiment. Next, based on the position defined by the 3D CG model relative position defining means 71, an image in which the 3D CG appears in the background image is determined by the 3D CG shape correcting means. Thereafter, the background image and the image based on the three-dimensional CG model are synthesized by the background image region dividing unit 56, the context determining unit 57, and the image synthesizing unit 7 in the same manner as in the seventh embodiment.
[0075]
As described above, in the tenth embodiment, the additional image to be combined with the background image is generated using the three-dimensional CG model. It can be reflected and combined with the background image.
Further, as described in the seventh to ninth embodiments, the same effect can be obtained when a moving image is input as a background image.
[0076]
According to each embodiment described above, there is an effect that another image can be easily combined with the background image from various viewpoints. Further, even when a moving image is used as a background image, the image is automatically corrected and synthesized with respect to the remaining frames simply by arranging an additional image in one or two frames in the moving image. An image can be easily combined with each frame. Further, since the position information of the subject in the background image is taken into consideration, there is an effect that the context of each subject can be reflected when the background image and another image are combined. Note that the composition considering the positional relationship of the subject in the background image can be realized by using the same method even when a moving image is used as the background image.
[0077]
【The invention's effect】
As described above, according to the present invention, when inputting the background image and another image to be combined therewith, the additional image is combined into the background image by simultaneously inputting the shooting information and the subject information. Since the shape of the additional image is sometimes corrected, there is no need to create a 3D CG model in advance to synthesize another image with the background image, and the background image and the other image can be easily and realistically synthesized. can do.
[0078]
In addition, if a subject whose position or orientation is to be changed is shown in the background image, the image area of the subject is cut out from the background image and the image is corrected according to the change in the subject's position and orientation. Therefore, it is possible to easily correct a part of the background image once inputted.
[0079]
In addition, since an additional image is generated based on the 3D CG model input by the 3D model input means and the shape of the additional image is corrected, the image is combined with the background image. Once one additional image has been generated, various variations of the image generated from the 3D CG model can be easily performed on the background image without preparing software for handling 3D CG. Can be synthesized.
[0080]
In addition, by using a moving image as a background and arranging an additional image using one frame in the moving image as a background image, the corresponding combined area of the preceding and succeeding frames is extracted and the additional image is arranged. Another image can be easily synthesized in the moving image.
[0081]
In addition, since the arrangement position of the additional image with respect to the start frame and the end frame in the moving image is designated, the composition of the additional image with respect to the frame between the start frame and the end frame is performed. Another image can be easily synthesized in a moving image without performing complicated calculation processing such as tracking.
[0082]
Further, since the movement of the subject in the moving image is defined, it is possible to easily synthesize the image of the moving subject with respect to the moving image.
[0083]
Also, since the background image is divided into image areas for each subject and distance information from the camera is associated with each image area, the context of the subject is correctly reflected when the additional image is combined with the background image. A composite image can be easily obtained.
[0084]
In addition, after dividing the background image into image areas for each subject, the distance information from each camera area and the camera is associated using the map information, so when adding an additional image to the background image, The context can be easily determined.
[0085]
Also, when the background image is divided into image areas for each subject, an approximate image area is automatically extracted using the map information. Position information from the camera viewpoint can be easily associated.
[0086]
In addition, since the additional image to be combined with the background image is generated using the three-dimensional CG model, it is possible to combine the freely created three-dimensional image with the background image while correctly reflecting the context of the subject. it can.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration of an image composition device according to Embodiment 1 of the present invention.
FIG. 2 is a diagram for explaining an additional image input by the additional image input unit 2 of FIG. 1 and information related thereto.
3 is a diagram for explaining information related to a background image input by a background image three-dimensional information input unit 4 of FIG. 1; FIG.
4 is a diagram for explaining the position and orientation of a subject with respect to the photographing position and photographing direction of a camera that has photographed a background image defined by the additional image relative position defining means 5 of FIG. 1;
FIG. 5 is a diagram for explaining a method of correcting the shape of an additional image by the additional image shape correcting unit 6 in FIG. 1;
FIG. 6 is a block diagram showing a configuration of an image composition device according to Embodiment 2 of the present invention.
7 is a diagram for explaining a method in which a user designates an image area to be subjected to shape correction from a background image by the background image range designating unit 17 in FIG. 6; FIG.
8 is a diagram for explaining a method of filling a blank area generated in a background image in the additional image shape correcting unit 6 in FIG. 6;
FIG. 9 is a block diagram showing a configuration of an image composition device according to Embodiment 3 of the present invention.
10 is a diagram for explaining a method of synthesizing image data based on a three-dimensional model in a background image by the image data conversion means 27 of FIG. 9; FIG.
FIG. 11 is a block diagram showing a configuration of an image composition device according to Embodiment 4 of the present invention;
12 illustrates a method of extracting a composite area in the preceding and succeeding frames by a composite area extraction unit 32 from an area of an additional image arranged in one frame in the video input by the video input unit 31 of FIG. It is a figure for doing.
13 is a diagram for explaining a method of tracking a boundary line of an object shown in a moving image frame by the synthetic area extracting unit 32 of FIG.
14 is a diagram for explaining a method of combining an additional image with each frame by the additional image propagation means 33 of FIG.
FIG. 15 is a block diagram showing a configuration of an image composition device according to Embodiment 5 of the present invention;
16 is a diagram for explaining a method of generating an additional image to be combined with a frame between a start frame and an end frame by the additional image complementing unit 48 of FIG.
FIG. 17 is a block diagram showing a configuration of an image composition device according to Embodiment 6 of the present invention;
18 is a diagram for explaining a moving path of a subject defined by the additional image motion definition unit 54 of FIG.
FIG. 19 is a block diagram showing a configuration of an image composition device according to Embodiment 7 of the present invention;
20 is a diagram for explaining a method of performing background image region division by the background image region dividing unit 56 of FIG. 19; FIG.
FIG. 21 is a diagram for explaining a background image and an additional image synthesized based on the order determined by the context determination unit 57 of FIG. 19;
FIG. 22 is a block diagram showing a configuration of an image composition device according to Embodiment 8 of the present invention.
FIG. 23 is a diagram for explaining the function of the background image region positional relationship extracting means 61 in FIG. 22;
FIG. 24 is a block diagram showing a configuration of an image composition device according to Embodiment 9 of the present invention.
25 is a diagram for explaining the function of a region boundary association unit 67 of FIG. 24. FIG.
FIG. 26 is a block diagram showing a configuration of an image composition device according to Embodiment 10 of the present invention.
FIG. 27 is a block diagram for explaining an image composition display device disclosed in Japanese Patent Laid-Open No. 5-11727;
[Explanation of symbols]
1 background image input means, 2 additional image input means, 3 additional image arrangement means,
4 background image three-dimensional information input means, 5 additional image relative position defining means, 6 additional image shape correcting means, 7 image composition means, 17 background image range specifying means, 18 background image cutting means, 26 3D model input means, 27 Image data conversion means, 31 moving image input means, 32 composite area extraction means, 33 additional image propagation means, 44 additional image first relative position defining means, 45 background image three-dimensional information first input means, 46 additional image second Relative position defining means, 47 background image three-dimensional information second input means, 48 additional image complementing means, 54 additional image motion defining means, 56 background image area dividing means, 57 context determining means, 61 background image area positional relation extracting means 62 Map information storage means 67 Area boundary association means 70 Three-dimensional CG model input means 71 Three-dimensional CG model The relative position defining means, 72 3-dimensional CG model shape correction means.

Claims (2)

背景画像を入力する背景画像入力手段と、
追加画像を入力する追加画像入力手段と、
背景画像の3次元情報を入力するための背景画像3次元情報入力手段と、背景画像上での追加画像の相対位置を規定するための追加画像相対位置規定手段と、この追加画像相対位置規定手段により規定された追加画像の相対位置に基づいて背景画像上に追加画像を合成する前に追加画像の形状を補正する追加画像形状補正手段とを有する追加画像配置手段と、
上記背景画像3次元情報入力手段により入力された3次元情報に従って背景画像を画像領域毎に分割するための背景画像領域分割手段と、
上記背景画像領域分割手段により分割されたそれぞれの画像領域と追加画像との前後関係を判定するための前後関係判定手段と、
上記追加画像形状補正手段により形状補正された追加画像を背景画像に合成すると共に上記前後関係判定手段により追加画像よりも手前にあると判定された画像領域を追加画像の上から合成するための画像合成手段と
を備えることにより、背景画像中の被写体との前後関係を考慮しながら別な画像を合成すると共に、
地図情報を保存した地図情報保存手段と、上記背景画像領域分割手段により分割された画像領域の間の位置関係を上記地図情報保存手段からの背景画像周辺の地図情報を参照して取り出すための背景画像領域位置関係抽出手段とをさらに備えることにより、背景画像中の被写体の前後関係を合成画像に反映することとし、
前記背景画像領域位置関係抽出手段は、前記背景画像中で分割された画像領域それぞれの重心点を求め、地図情報上にカメラの視点位置と背景画像と画像領域の重心点を対応させて、カメラの視点位置からカメラの視野にある各重心点に向かって地図情報上で直線を引くことにより、重心点の先にある被写体とカメラの視点位置との距離を求め、求めた距離を各画像領域に対応付ける
ことを特徴とする画像合成装置。
Background image input means for inputting a background image;
An additional image input means for inputting an additional image;
Background image three-dimensional information input means for inputting three-dimensional information of the background image, additional image relative position defining means for defining the relative position of the additional image on the background image, and this additional image relative position defining means Additional image arrangement means having additional image shape correction means for correcting the shape of the additional image before synthesizing the additional image on the background image based on the relative position of the additional image defined by
Background image area dividing means for dividing the background image into image areas according to the three-dimensional information input by the background image three-dimensional information input means;
A context determining means for determining a context between each image area divided by the background image area dividing means and the additional image;
An image for combining the additional image whose shape has been corrected by the additional image shape correcting unit with a background image and for combining the image region determined to be in front of the additional image by the context determination unit from above the additional image With synthesis means
By synthesizing another image while considering the context with the subject in the background image,
A background for taking out the positional relationship between the map information storage means storing the map information and the image area divided by the background image area dividing means with reference to the map information around the background image from the map information storage means By further comprising image region positional relationship extraction means, the anteroposterior relationship of the subject in the background image is reflected in the composite image ,
The background image area positional relationship extracting means obtains the center of gravity of each image area divided in the background image, and associates the viewpoint position of the camera, the background image, and the center of gravity of the image area on the map information, By drawing a straight line on the map information from each viewpoint position to each centroid point in the field of view of the camera, the distance between the subject ahead of the centroid point and the viewpoint position of the camera is obtained. An image composition apparatus characterized by being associated with the
背景画像を入力する背景画像入力手段と、
追加画像を入力する追加画像入力手段と、
背景画像の3次元情報を入力するための背景画像3次元情報入力手段と、背景画像上での追加画像の相対位置を規定するための追加画像相対位置規定手段と、この追加画像相対位置規定手段により規定された追加画像の相対位置に基づいて背景画像上に追加画像を合成する前に追加画像の形状を補正する追加画像形状補正手段とを有する追加画像配置手段と、
上記背景画像3次元情報入力手段により入力された3次元情報に従って背景画像を画像領域毎に分割するための背景画像領域分割手段と、
上記背景画像領域分割手段により分割されたそれぞれの画像領域と追加画像との前後関係を判定するための前後関係判定手段と、
上記追加画像形状補正手段により形状補正された追加画像を背景画像に合成すると共に上記前後関係判定手段により追加画像よりも手前にあると判定された画像領域を追加画像の上から合成するための画像合成手段と
を備えることにより、背景画像中の被写体との前後関係を考慮しながら別な画像を合成すると共に、
地図情報を保存した地図情報保存手段と、上記背景画像領域分割手段により背景画像をいくつかの画像領域に分割する際に、背景画像内の被写体の境界線を上記地図情報保存手段からの背景画像周辺の地図情報を参照して取り出す領域境界対応付け手段とをさらに備えることにより、背景画像中の被写体毎の画像領域を分割することとし、
前記領域境界対応付け手段は、前記地図情報上に背景画像とカメラ視点を対応付け、カメラ視点から背景画像に写っている被写体の境界部分に対して直線を引き、当該直線と背景画像との交点を背景画像中の被写体の境界線とする
ことを特徴とする画像合成装置。
Background image input means for inputting a background image;
An additional image input means for inputting an additional image;
Background image three-dimensional information input means for inputting three-dimensional information of the background image, additional image relative position defining means for defining the relative position of the additional image on the background image, and this additional image relative position defining means Additional image arrangement means having additional image shape correction means for correcting the shape of the additional image before synthesizing the additional image on the background image based on the relative position of the additional image defined by
Background image area dividing means for dividing the background image into image areas according to the three-dimensional information input by the background image three-dimensional information input means;
A context determining means for determining a context between each image area divided by the background image area dividing means and the additional image;
An image for combining the additional image whose shape has been corrected by the additional image shape correcting unit with a background image and for combining the image region determined to be in front of the additional image by the context determination unit from above the additional image With synthesis means
By synthesizing another image while considering the context with the subject in the background image,
When the background image is divided into several image areas by the map information storage means storing the map information and the background image area dividing means, the boundary line of the subject in the background image is displayed as the background image from the map information storage means. By further comprising an area boundary association means for extracting by referring to the surrounding map information, the image area for each subject in the background image is divided ,
The region boundary associating means associates a background image and a camera viewpoint on the map information, draws a straight line from the camera viewpoint to a boundary portion of the subject reflected in the background image, and intersects the straight line and the background image. Is a boundary line of the subject in the background image .
JP05080998A 1998-03-03 1998-03-03 Image synthesizer Expired - Fee Related JP4108171B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP05080998A JP4108171B2 (en) 1998-03-03 1998-03-03 Image synthesizer

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP05080998A JP4108171B2 (en) 1998-03-03 1998-03-03 Image synthesizer

Publications (2)

Publication Number Publication Date
JPH11250273A JPH11250273A (en) 1999-09-17
JP4108171B2 true JP4108171B2 (en) 2008-06-25

Family

ID=12869103

Family Applications (1)

Application Number Title Priority Date Filing Date
JP05080998A Expired - Fee Related JP4108171B2 (en) 1998-03-03 1998-03-03 Image synthesizer

Country Status (1)

Country Link
JP (1) JP4108171B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8828921B2 (en) 2002-06-19 2014-09-09 Fideline Allomone repulsive and kairomone attractive compositions for controlling arachnids
KR101777927B1 (en) 2014-12-26 2017-09-13 가부시키가이샤 모르포 Image generating device, electronic device, image generating method and recording medium

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB0104994D0 (en) * 2001-02-28 2001-04-18 Nokia Mobile Phones Ltd A communication terminal handling animations
JP5162928B2 (en) * 2007-03-12 2013-03-13 ソニー株式会社 Image processing apparatus, image processing method, and image processing system
JP5105550B2 (en) * 2009-03-19 2012-12-26 カシオ計算機株式会社 Image composition apparatus and program
KR101631497B1 (en) 2009-11-13 2016-06-27 삼성전자주식회사 Display apparatus, User terminal, and methods thereof
JP5168313B2 (en) * 2010-04-28 2013-03-21 パナソニック株式会社 Image display device
US20120069055A1 (en) * 2010-09-22 2012-03-22 Nikon Corporation Image display apparatus
US8723888B2 (en) 2010-10-29 2014-05-13 Core Wireless Licensing, S.a.r.l. Method and apparatus for determining location offset information
JP5145444B2 (en) * 2011-06-27 2013-02-20 株式会社コナミデジタルエンタテインメント Image processing apparatus, image processing apparatus control method, and program
EP2608153A1 (en) 2011-12-21 2013-06-26 Harman Becker Automotive Systems GmbH Method and system for playing an augmented reality game in a motor vehicle
EP2675173A1 (en) * 2012-06-15 2013-12-18 Thomson Licensing Method and apparatus for fusion of images

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8828921B2 (en) 2002-06-19 2014-09-09 Fideline Allomone repulsive and kairomone attractive compositions for controlling arachnids
US9844217B2 (en) 2002-06-19 2017-12-19 Institut de Recherche en Semiochimie et Ethologie Appliquée Allomone repulsive and kairomone attractive compositions for controlling arachnids
KR101777927B1 (en) 2014-12-26 2017-09-13 가부시키가이샤 모르포 Image generating device, electronic device, image generating method and recording medium

Also Published As

Publication number Publication date
JPH11250273A (en) 1999-09-17

Similar Documents

Publication Publication Date Title
US8144238B2 (en) Image processing apparatus and method
JP4473754B2 (en) Virtual fitting device
JP5818773B2 (en) Image processing apparatus, image processing method, and program
JP4401727B2 (en) Image display apparatus and method
EP0930585B1 (en) Image processing apparatus
US6529626B1 (en) 3D model conversion apparatus and method
JP6079131B2 (en) Image processing apparatus, method, and program
US20020113865A1 (en) Image processing method and apparatus
JP4108171B2 (en) Image synthesizer
US20080309668A1 (en) Image processing method and apparatus
US20030225513A1 (en) Method and apparatus for providing multi-level blended display of arbitrary shaped textures in a geo-spatial context
JP2005339127A (en) Apparatus and method for displaying image information
CN110969706B (en) Augmented reality device, image processing method, system and storage medium thereof
JP2004234350A (en) Image processing device, image processing method, and image processing program
JP3538263B2 (en) Image generation method
JP3643511B2 (en) 3D image processing method, 3D modeling method, and recording medium recording 3D image processing program
JP2000155831A (en) Method and device for image composition and recording medium storing image composition program
JP3352454B2 (en) Image processing apparatus and method, and storage medium
JP2003346185A (en) Information display system and personal digital assistant
JP2005063041A (en) Three-dimensional modeling apparatus, method, and program
JP2002032744A (en) Device and method for three-dimensional modeling and three-dimensional image generation
JP4642431B2 (en) Map display device, map display system, map display method and program
JP2004310686A (en) Image processing method and device
JP4530214B2 (en) Simulated field of view generator
JP2002042158A (en) Image composing device, image composing method, and medium recording program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050225

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20070607

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070911

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070918

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20071218

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080213

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080311

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080402

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110411

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120411

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees