JP2008234518A - 画像合成装置および画像合成プログラム - Google Patents
画像合成装置および画像合成プログラム Download PDFInfo
- Publication number
- JP2008234518A JP2008234518A JP2007076035A JP2007076035A JP2008234518A JP 2008234518 A JP2008234518 A JP 2008234518A JP 2007076035 A JP2007076035 A JP 2007076035A JP 2007076035 A JP2007076035 A JP 2007076035A JP 2008234518 A JP2008234518 A JP 2008234518A
- Authority
- JP
- Japan
- Prior art keywords
- image
- unit
- feature
- common
- region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/60—Editing figures and text; Combining figures or text
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Image Processing (AREA)
- Editing Of Facsimile Originals (AREA)
Abstract
【課題】複数の元画像から非共通領域を抽出して容易に合成画像を作成することを課題とする。
【解決手段】本発明の画像合成装置1は、第1画像および第2画像が記憶された記憶部2と、前記第1画像と前記第2画像とを比較して、一方の画像における他方の画像と所定の画素特性が類似していない部分領域を非共通領域として抽出する領域分類部54と、その抽出した一方の画像の非共通領域を他方の画像に重畳して合成画像を作成する画像合成部55と、を備える。
【選択図】図1
【解決手段】本発明の画像合成装置1は、第1画像および第2画像が記憶された記憶部2と、前記第1画像と前記第2画像とを比較して、一方の画像における他方の画像と所定の画素特性が類似していない部分領域を非共通領域として抽出する領域分類部54と、その抽出した一方の画像の非共通領域を他方の画像に重畳して合成画像を作成する画像合成部55と、を備える。
【選択図】図1
Description
本発明は、複数の画像(以下、「元画像」ともいう。)から合成画像を作成する技術に関する。
従来、合成画像を作成するために、たとえば、三脚等に固定したカメラで、セルフタイマ機能やリモコンを利用して複数の写真を撮影し、その複数の写真を元画像として合成画像を作成していた。その際の合成画像の作成方法としては、複数の写真を物理的に切り貼りする方法や、複数の写真の画像データをPC(Personal Computer)に取り込んで画面上で手動の編集を行う方法などがあった。三脚等に固定したカメラによって撮影した複数の写真を使用するこれらの手法によれば、背景(風景や建物など)が同じなので、集合写真などの合成画像を作成する場合に都合がよい。しかし、その反面、三脚の運搬や三脚へのカメラの設置などに手間がかかるという問題があった。
また、近年の写真のデジタル化に伴い、PCを利用して、複数のデジタル画像(背景画像と被写体画像など)のうち1つの画像の必要な部分を選択し、その選択した部分の画像を他の画像の一部に重畳させるなどにより編集を行って合成画像を作成する手法も、次第に容易になりつつある(例えば特許文献1参照)。
特開2002−10056号公報
しかしながら、前記した特許文献1の技術では、トリミング(画像の一部切り出し)の範囲選択や切り出した画像の貼り付け(重畳)の位置決定などを手動で行う必要があり、操作が面倒であった。また、複数の画像が、異なる縮尺(スケール値)であったり、一方が他方に対して回転した状態であったりしている場合には、切り出した画像を拡大(または縮小)したり、回転させたりしてから貼り付けを行う必要があり、さらに操作が面倒になるという問題があった。
本発明は、前記した問題を解決するためになされたものであり、複数の画像から非共通領域を抽出して容易に合成画像を作成することを目的とする。
前記した課題を解決するために、本発明の画像合成装置は、第1画像および第2画像が記憶された記憶部と、前記第1画像と前記第2画像とを比較して、一方の画像における他方の画像と所定の画素特性が類似していない部分領域を非共通領域として抽出する領域分類部と、その抽出した一方の画像の非共通領域を他方の画像に重畳して合成画像を作成する画像合成部と、を備える。
これにより、領域分類部は、記憶部から読み出した第1画像および第2画像を比較して、一方の画像における他方の画像と所定の画素特性の類似性が低い部分領域を非共通領域として抽出する。そして、画像合成部は、その抽出した一方の画像の非共通領域を他方の画像に重畳することで合成画像を作成することができる。
これにより、領域分類部は、記憶部から読み出した第1画像および第2画像を比較して、一方の画像における他方の画像と所定の画素特性の類似性が低い部分領域を非共通領域として抽出する。そして、画像合成部は、その抽出した一方の画像の非共通領域を他方の画像に重畳することで合成画像を作成することができる。
また、好ましくは、第1画像と第2画像とは、それぞれの領域の一部に共通の被写体が写されているものとする。そして、画像合成部は、その共通の被写体の位置に基づいて、一方の画像の非共通領域を重畳する他方の画像における位置を決定する。
これにより、画像合成部は共通の被写体の位置に基づいて一方の画像の非共通領域を重畳する他方の画像における位置を決定し、画像合成部は合成画像を作成することができる。
これにより、画像合成部は共通の被写体の位置に基づいて一方の画像の非共通領域を重畳する他方の画像における位置を決定し、画像合成部は合成画像を作成することができる。
本発明によれば、複数の画像から非共通領域を抽出して容易に合成画像を作成することができる。
以下、本発明を実施するための最良の形態(以下、「実施形態」という。)について、各図面を参照しながら説明する。なお、説明時に直接言及していない他図についても適宜参照するものとする。また、ここでは、2枚の元画像から1枚の合成画像を作成する場合について説明し、その2枚の元画像のうち基礎となる画像をベース画像と呼び、他方の画像(ベース画像と共通しない部分を抽出されて使用される画像)を重畳画像と呼び、さらに、その2枚の元画像から合成された画像を合成画像と呼ぶものとする。
(第1実施形態)
まず、本発明の第1実施形態について説明する。なお、第1実施形態では、ベース画像(第1画像または第2画像)と重畳画像(第2画像または第1画像)がほぼ同じアングルおよびスケール値で撮影されていることを前提としている点で、第2実施形態と異なっている。図1は、第1実施形態の画像合成装置の構成を示す機能ブロック図である。画像合成装置1は、コンピュータ装置であり、記憶部2、表示部3、入力部4および処理部5を備えて構成される。
まず、本発明の第1実施形態について説明する。なお、第1実施形態では、ベース画像(第1画像または第2画像)と重畳画像(第2画像または第1画像)がほぼ同じアングルおよびスケール値で撮影されていることを前提としている点で、第2実施形態と異なっている。図1は、第1実施形態の画像合成装置の構成を示す機能ブロック図である。画像合成装置1は、コンピュータ装置であり、記憶部2、表示部3、入力部4および処理部5を備えて構成される。
記憶部2は、情報を記憶する手段であり、たとえば、ROM(Read Only Memory)やHDD(Hard Disk Drive)などによって実現される。記憶部2は、処理部5の動作プログラムや各種画像データ(ベース画像、重畳画像など)などを記憶する。
表示部3は、情報を表示する手段であり、たとえば、液晶モニタによって実現される。表示部3は、処理部5からの指示により、各種画像データなどを表示する。
表示部3は、情報を表示する手段であり、たとえば、液晶モニタによって実現される。表示部3は、処理部5からの指示により、各種画像データなどを表示する。
入力部4は、画像合成装置1のユーザが情報を入力する手段であり、たとえば、キーボードやマウスなどによって実現される。入力部4は、ユーザによって入力された情報を処理部5に受け渡す。
処理部5は、画像合成装置1の各種動作を制御する手段であり、たとえば、CPU(Central Processing Unit)やRAM(Random Access Memory)などによって実現される。処理部5は、本実施形態の動作機能として、画像入力部51〜表示指示部56を備えている。これらの画像入力部51〜表示指示部56について、ここでは概要を説明し、詳細な説明は図2とともに後記する。
処理部5は、画像合成装置1の各種動作を制御する手段であり、たとえば、CPU(Central Processing Unit)やRAM(Random Access Memory)などによって実現される。処理部5は、本実施形態の動作機能として、画像入力部51〜表示指示部56を備えている。これらの画像入力部51〜表示指示部56について、ここでは概要を説明し、詳細な説明は図2とともに後記する。
画像入力部51は、ユーザが画像合成の指示を入力部4から入力したことなどを契機に、記憶部2に記憶されたベース画像と重畳画像を入力する。
特徴抽出部52は、画像入力部51から受け取ったベース画像と重畳画像のそれぞれにおいて、特徴点と特徴パターン(画素特性)を抽出する。なお、特徴点とは画像における特徴的な部分を示す点のことであり、特徴パターンとは各特徴点における性質のことであるが、それらの詳細については後記する。
特徴抽出部52は、画像入力部51から受け取ったベース画像と重畳画像のそれぞれにおいて、特徴点と特徴パターン(画素特性)を抽出する。なお、特徴点とは画像における特徴的な部分を示す点のことであり、特徴パターンとは各特徴点における性質のことであるが、それらの詳細については後記する。
特徴照合部53は、ベース画像の各特徴点と重畳画像の各特徴点を、それぞれの特徴パターンに基づいて照合し、特徴パターンの類似度が所定の閾値以上であるペアを、対応する特徴点(対応点対)と判断する。なお、所定の閾値は、目的や精度に応じて、好ましい値に適宜設定しておけばよい。
領域分類部54は、重畳画像における領域を、「非共通領域」と「共通領域」に分類する。非共通領域とは、重畳画像において、ベース画像に存在しない物体が占める領域(所定の特徴パターンの類似度が所定の閾値よりも低い部分領域)である。共通領域とは、重畳画像において、非共通領域以外の領域である。なお、領域分類部54は、重畳画像において、対応点対として採用されなかった特徴点の部分集合を含むように、たとえば外接矩形で非共通領域(部分領域)を決定すればよい。ここで、特徴点の部分集合とは、画像における、人や車などの1つの物体に関する複数の特徴点の集まりのことであり、特徴点の部分集合は1つの重畳画像に複数あってもよい。
画像合成部55は、ベース画像に対して、重畳画像における非共通領域の部分をオーバーレイ(合成、重畳)することで合成画像を作成する。
表示指示部56は、画像合成部55が作成した合成画像を表示するように、表示部3に対して指示を出す。なお、表示指示部56は、画像合成装置1の外部の表示装置(不図示)に合成画像を表示させてもよい。
表示指示部56は、画像合成部55が作成した合成画像を表示するように、表示部3に対して指示を出す。なお、表示指示部56は、画像合成装置1の外部の表示装置(不図示)に合成画像を表示させてもよい。
次に、図2〜図4を参照しながら、第1実施形態の処理フロー(処理のフローチャート)について説明する。図2は、第1実施形態における画像合成装置による処理を示すフローチャートである。図3は、(1a)が特徴点を抽出する前のベース画像、(2a)が特徴点を抽出した後のベース画像、(1b)が特徴点を抽出する前の重畳画像、(2b)が特徴点を抽出した後の重畳画像である。図4は、(1)が合成前のベース画像、(2)が合成前で非共通領域を特定した重畳画像、(3)が合成画像である。
なお、ここでは、特徴点の一例として、画像におけるHarris作用素の極大点の位置として検出され、画像中に存在する物体のエッジを示す点を採用する。Harris作用素については、たとえば、文献「”A combined corner and edge detector” C. Harris and M. Stephens, Proc. 4th Alvey Vision Conf. pp.147-151, 1988」に詳述されている。
また、特徴パターンの一例として、各特徴点における、スケール値や回転によって不変な性質である特徴点の周辺部分の輝度微分値(輝度微分ベクトル)を採用する。この特徴点の周辺部分の輝度微分値については、たとえば、文献「”Local Greyvalue Invariants for Image Retrieval” C. Schumid and R. Mohr, IEEE Trans. PAMI, Vol.19, No.5, pp.530-535, 1997」(以下、「文献2」という。)に詳述されている。
なお、特徴パターンとしては、それ以外に、たとえば、1以上の画素から算出されるスカラー値(画素値、その平均値など)や他のベクトル値(輝度ベクトルなど)などを用いることができる。
なお、特徴パターンとしては、それ以外に、たとえば、1以上の画素から算出されるスカラー値(画素値、その平均値など)や他のベクトル値(輝度ベクトルなど)などを用いることができる。
以下、記憶部2にすでにベース画像と重畳画像が記憶されているものとし、ユーザが入力部4を操作して合成画像の作成を指示した場合の画像合成装置1の処理について説明する。
まず、画像入力部51は、記憶部2からベース画像(画像A。図3(1a)参照)を入力する(ステップS210)。このベース画像は、重畳画像と共通の領域(風景や建物など)を含む画像であり、重畳画像から切り出された部分領域(非共通領域)が埋め込まれる画像である。図3(1a)では、ベース画像に人M1と家H1が写っている。
まず、画像入力部51は、記憶部2からベース画像(画像A。図3(1a)参照)を入力する(ステップS210)。このベース画像は、重畳画像と共通の領域(風景や建物など)を含む画像であり、重畳画像から切り出された部分領域(非共通領域)が埋め込まれる画像である。図3(1a)では、ベース画像に人M1と家H1が写っている。
次に、画像入力部51は、重畳画像(ベース画像に加えたい被写体が撮影されている画像。画像B。図3(1b)参照)を入力する(ステップS220)。なお、前記したように、この第1実施形態では、この重畳画像は、ベース画像とほぼ同じアングルやスケール値で撮影された画像であることを前提としている。ここでは、重畳画像に人M2と家H2(家H1と共通)が写っている。
続いて、特徴抽出部52は、ベース画像である画像Aから特徴点(fa。図3(2a)の×印)と特徴パターン(va)を抽出する(ステップS230)。ここで、前記したように、特徴点(fa)は画像におけるHarris作用素の極大点の位置として検出することができ、また、特徴パターン(va)はスケール値や回転によって不変な性質である特徴点の周辺部分の輝度微分値などによって算出することができる。
具体的には、特徴点群Faは、m個の特徴点fa(fa1〜fam)の集合として、次の式(1)のように表現することができる。
Fa={fa1,fa2,・・・,fam} ・・・式(1)
また、k番目の特徴点fakは、x座標値をx、y座標値をy、スケール値をs(画像の縮尺に関する、所定の基準値に対する相対的な値など)、回転量をθ(所定の基準点からの基準方向に対する回転角度など)、特徴パターンをvとして、次の式(2)のように表現することができる。なお、各パラメータにおける下付き文字(「ak」など)は、特徴点(「fak」など)との対応を表している。
fak={xak,yak,sak,θak,vak} ・・・式(2)
さらに、特徴パターンv(va)は、次元数が「p」のベクトルとして、次の式(3)のように表現することができる。
vak={vak (1),vak (2),・・・,vak (p)} ・・・式(3)
Fa={fa1,fa2,・・・,fam} ・・・式(1)
また、k番目の特徴点fakは、x座標値をx、y座標値をy、スケール値をs(画像の縮尺に関する、所定の基準値に対する相対的な値など)、回転量をθ(所定の基準点からの基準方向に対する回転角度など)、特徴パターンをvとして、次の式(2)のように表現することができる。なお、各パラメータにおける下付き文字(「ak」など)は、特徴点(「fak」など)との対応を表している。
fak={xak,yak,sak,θak,vak} ・・・式(2)
さらに、特徴パターンv(va)は、次元数が「p」のベクトルとして、次の式(3)のように表現することができる。
vak={vak (1),vak (2),・・・,vak (p)} ・・・式(3)
同様にして、特徴抽出部52は、重畳画像である画像Bから特徴点(fb。図3(2b)の×印)と特徴パターン(vb)を抽出する(ステップS240)。
特徴点群をFbは、特徴点fbの数をnとすると、次の式(4)〜式(6)のように表現することができる。
Fb={fb1,fb2,・・・,fbn} ・・・式(4)
fbk={xbk,ybk,sbk,θbk,vbk} ・・・式(5)
vbk={vbk (1),vbk (2),・・・,vbk (p)} ・・・式(6)
特徴点群をFbは、特徴点fbの数をnとすると、次の式(4)〜式(6)のように表現することができる。
Fb={fb1,fb2,・・・,fbn} ・・・式(4)
fbk={xbk,ybk,sbk,θbk,vbk} ・・・式(5)
vbk={vbk (1),vbk (2),・・・,vbk (p)} ・・・式(6)
次に、特徴照合部53は、画像Aと画像Bの個々の特徴点同士を対応付ける(ステップS250)。具体的には、特徴照合部53は、重畳画像上の特徴点{fbj}に対応するベース画像上の特徴点{fai}があるか否か判断する。その判断手法としては、たとえば、式(7)に示すような特徴点間のユークリッド距離の2乗を算出する方法がある。
D(i,j)=Σr=1 p{vai (r)−vbj (r)}2
={vai (1)−vbj (1)}2+{vai (2)−vbj (2)}2
+・・・+{vai (p)−vbj (p)}2 ・・・式(7)
D(i,j)=Σr=1 p{vai (r)−vbj (r)}2
={vai (1)−vbj (1)}2+{vai (2)−vbj (2)}2
+・・・+{vai (p)−vbj (p)}2 ・・・式(7)
そして、jがある値の場合に、任意のiのうちいずれかのときのD(i,j)が所定の閾値以内であれば、そのうちの最小のD(i,j)を与えるときの特徴点{fai}が特徴点{fbj}に対応している、と判断できる。また、jがある値の場合に、すべてのiに対してD(i,j)が所定の閾値を越えるとき、特徴点{fbj}に対応する特徴点{fai}はないと判断できる。この対応点がない場合というのは、ベース画像上に存在しない物体(被写体)が重畳画像上に存在する場合に発生する。対応点がある場合もない場合も、特徴照合部53はその判断結果を記憶部2などに記憶しておく。
領域分類部54は、ステップS250での判断結果を用いて、重畳画像(画像B)の領域を非共通領域と共通領域に分類する(ステップS260。図4(2)参照)。非共通領域(図4(2)のNC2)とは、ベース画像に存在しない物体を含んだ画像領域であり、具体的には、ステップS250で「対応点なし」と判断された特徴点が存在する領域である。この領域は、たとえば、「対応点なし」と判断された特徴点の部分集合がすべて収まるような矩形として決定すればよく、そうなるように矩形の最左上端(図4(2)の座標p21(x21,y21))と最右下端(図4(2)の座標p22(x22,y22))を決定すればよい。
一方、共通領域とは、背景と判断された領域であり、たとえば、非共通領域以外の領域として決定することができる。
一方、共通領域とは、背景と判断された領域であり、たとえば、非共通領域以外の領域として決定することができる。
続いて、画像合成部55は、ステップS260で求めた重畳画像における非共通領域を、ベース画像の同じ位置にオーバーレイ(合成、重畳)して合成画像を作成する(ステップS270)。オーバーレイの方法としては、たとえば、上書き(輝度値の置き換え)や平均化(重畳画像とベース画像の平均輝度値を使用)などがある。
そして、表示指示部56は、ステップS270で作成した合成画像の表示を表示部3に指示する(ステップS280)。その指示を受けた表示部3は、合成画像を表示する。
そして、表示指示部56は、ステップS270で作成した合成画像の表示を表示部3に指示する(ステップS280)。その指示を受けた表示部3は、合成画像を表示する。
このようにして、第1実施形態の画像合成装置1によれば、ベース画像にオーバーレイする重畳画像の部分領域を自動的に決定するため、ユーザは、同じ場所で撮影された(共通の被写体が写されている)ベース画像と重畳画像を入力するだけで、容易に合成画像を作成することができる。
(第2実施形態)
次に、本発明の第2実施形態について説明する。なお、第2実施形態では、ベース画像と重畳画像がほぼ同じアングルおよびスケール値で撮影されていることを前提とする必要がない点で、第1実施形態と異なっている。つまり、第2実施形態では、重畳画像がベース画像に対して、位置がずれていたり(以下、「位置ズレ」ともいう。)、回転していたり(以下、「回転ズレ」ともいう。)、スケール値が異なっていたり(以下、「スケールズレ」ともいう。)していてもよい。また、第2実施形態では、説明のためベース画像を固定して重畳画像を変換(移動、回転、ズームアップ/ダウンの組み合わせ)するようにしているが、逆に重畳画像を固定してベース画像を変換させるようにしてもよい。
次に、本発明の第2実施形態について説明する。なお、第2実施形態では、ベース画像と重畳画像がほぼ同じアングルおよびスケール値で撮影されていることを前提とする必要がない点で、第1実施形態と異なっている。つまり、第2実施形態では、重畳画像がベース画像に対して、位置がずれていたり(以下、「位置ズレ」ともいう。)、回転していたり(以下、「回転ズレ」ともいう。)、スケール値が異なっていたり(以下、「スケールズレ」ともいう。)していてもよい。また、第2実施形態では、説明のためベース画像を固定して重畳画像を変換(移動、回転、ズームアップ/ダウンの組み合わせ)するようにしているが、逆に重畳画像を固定してベース画像を変換させるようにしてもよい。
図5は、第2実施形態の画像合成装置の構成を示す機能ブロック図である。画像合成装置1aは、第1実施形態の画像合成装置1(図1参照)と比べて、処理部5aにおける特徴照合部53と領域分類部54の間に変形量検出部531と画像変形部532が配置された点で異なっており、主にそれらについて以下で説明し、第1実施形態の画像合成装置1と同様の構成については説明を適宜省略する。
変形量検出部531は、特徴照合部53による照合結果に基づき、ベース画像と重畳画像の対応する特徴点(対応点対)が重なるように、必要に応じて重畳画像を変換させるための画像変換パラメータを算出する。
画像変形部532は、変形量検出部531が算出した画像変換パラメータを用いて、重畳画像を変換する。
画像変形部532は、変形量検出部531が算出した画像変換パラメータを用いて、重畳画像を変換する。
次に、図6〜図8を参照しながら、第2実施形態の処理フロー(処理のフローチャート)について説明する。図6は、第2実施形態における画像合成装置による処理を示すフローチャートである。図7は、(1)がベース画像(人M3と家H3が存在)、(2)がベース画像と比べて全体が横方向(左方向)にずれている重畳画像(人M4と家H4(家H3と共通)が存在)、(3)がそれらの合成画像である。図8は、(1a)がベース画像(人M5と家H5が存在)、(1b)がベース画像と比べて全体が位置、回転およびスケール値に関して異なっている(ずれている)重畳画像(人M6と家H6(家H5と共通)が存在)、(2a)が(1a)と同様のベース画像、(2b)が(1b)の重畳画像をベース画像の座標系に投影(画像変換)した重畳画像、(3)がそれらの合成画像である。
以下、記憶部2にすでにベース画像と重畳画像が記憶されているものとし、ユーザが入力部4を操作して合成画像の作成を指示した場合の画像合成装置1aの処理について説明する。
なお、前記したように、第1実施形態の場合と異なり、重畳画像がベース画像に対して、位置ズレ、回転ズレあるいはスケールズレをしていてもよい。
なお、前記したように、第1実施形態の場合と異なり、重畳画像がベース画像に対して、位置ズレ、回転ズレあるいはスケールズレをしていてもよい。
まず、画像入力部51は、記憶部2からベース画像(画像A。図7(1),図8(1a)参照)を入力する(ステップS610)。
次に、画像入力部51は、重畳画像(画像B。図7(2),図8(1b)参照)を入力する(ステップS620)。ここでは、重畳画像がベース画像に対して、図7(1),(2)に示すように位置ズレをしていてもかまわないし(家H3と家H4が共通)、あるいは、図8(1a),(1b)に示すように回転ズレをしていてもかまわない(家H5と家H6が共通)。
次に、画像入力部51は、重畳画像(画像B。図7(2),図8(1b)参照)を入力する(ステップS620)。ここでは、重畳画像がベース画像に対して、図7(1),(2)に示すように位置ズレをしていてもかまわないし(家H3と家H4が共通)、あるいは、図8(1a),(1b)に示すように回転ズレをしていてもかまわない(家H5と家H6が共通)。
続いてのステップS630〜650は、図2のステップS230〜250と同様であるので、説明を省略する。
ステップS650の後、変形量検出部531は、対応点対の座標値を用いて画像変換パラメータを算出する(ステップS651)。具体的には、変形量検出部531は、ステップS650での照合結果に基づき、ベース画像と重畳画像の対応する特徴点が重なるように、重畳画像を変換するための画像変換パラメータを算出する。
たとえば、図7(1),(2)に示すように、ベース画像と重畳画像が横方向に位置ズレしていることのみを前提とする場合には、変形量検出部531は、ステップS650で見つけた対応点対(ベース画像の特徴点と重畳画像の特徴点の対)の位置情報のうちx座標に関する情報{xaiとxbi}を下記の式(8)に適用し、画像変換パラメータ(この場合はΔx)を算出する。なお、対応点対の数をtとする。
Δx={Σr=1 t(xbr−xar)}/t ・・・式(8)
Δx={Σr=1 t(xbr−xar)}/t ・・・式(8)
図7では、ベース画像の座標p31(Px31,Py31)と、重畳画像の座標q41(Qx41,Qy41)が対応しており、そのx座標の差Δxは「Px31−Qx41」となる。そして、重畳画像の非共通領域をベース画像に重畳するときは、非共通領域の左上のp41(x41,y41)と右下のp42(x42,y42)をΔxの分だけ右に移動して、それぞれ、p41a(x41+Δx,y41)とp42a(x42+Δx,y42)とすればよい。
同様に、ベース画像と重畳画像が縦方向に位置ズレしていることのみを前提とする場合には、変形量検出部531は、対応点対の位置情報のうちy座標に関する情報{yaiとybi}を下記の式(9)に適用し、画像変換パラメータ(この場合はΔy)を算出する。
Δy={Σr=1 t(ybr−yar)}/t ・・・式(9)
Δy={Σr=1 t(ybr−yar)}/t ・・・式(9)
同様に、ベース画像と重畳画像がスケールズレしていることのみを前提とする場合には、変形量検出部531は、対応点対の位置情報のうちスケール値に関する情報{saiとsbi}を下記の式(10)に適用し、画像変換パラメータ(この場合はΔs)を算出する。
Δs={Σr=1 t(sbr/sar)}/t ・・・式(10)
Δs={Σr=1 t(sbr/sar)}/t ・・・式(10)
同様に、ベース画像と重畳画像が回転ズレしていることのみを前提とする場合には、変形量検出部531は、対応点対の位置情報のうち回転量に関する情報{θaiとθbi}を下記の式(11)に適用し、画像変換パラメータ(この場合はΔθ)を算出する。
Δθ={Σr=1 t(θbr−θar)}/t ・・・式(11)
Δθ={Σr=1 t(θbr−θar)}/t ・・・式(11)
また、図8(1a),(1b)に示すように、位置ズレ、回転ズレおよびスケールズレが同時に発生していることを前提とする場合には、たとえば、文献2で開示されているようなHough変換を用いて、位置ズレ量(Δx,Δy)、回転ズレ量(Δs)およびスケールズレ量(Δθ)を投票手法によって求めることができる。なお、投票手法とは、目的値(特定したい値)の候補を所定の幅でグループ化しておき、前記した式(8)〜式(11)のような算出式によって個別に算出した値が該当するグループをそれぞれ特定し(グループ単位での投票を行うイメージ)、該当する値が一番多かったグループに目的値が存在する可能性が高い、という思想に基づいた目的値の特定方法である。目的値が存在するグループを特定すれば、その後に目的値を容易に特定することができる。複数の画像変換パラメータに関して投票手法を使用する場合、その順番は、たとえば、スケールズレ量(Δs)、回転ズレ量(Δθ)、位置ズレ量(Δx,Δy)の順にするなど、精度が高くなるように適宜決定しておけばよい。
図6に戻って説明を続けると、ステップS651の後、画像変形部532は、ステップS651で算出した画像変換パラメータを用いて、重畳画像(画像B)の変形画像(画像B’)を作成する。
具体的には、画像変形部532は、ステップS651で算出した画像変換パラメータ(Δx,Δy,ΔsおよびΔθ)を次の式(12)のアフィン変換式に適用することで、重畳画像をベース画像の座標系に変換する。なお、重畳画像に関して、(Xbj,Ybj)は変換後の重畳画像の座標系での位置であり、(xbj,ybj)は変換後のベース画像の座標系での位置である。
具体的には、画像変形部532は、ステップS651で算出した画像変換パラメータ(Δx,Δy,ΔsおよびΔθ)を次の式(12)のアフィン変換式に適用することで、重畳画像をベース画像の座標系に変換する。なお、重畳画像に関して、(Xbj,Ybj)は変換後の重畳画像の座標系での位置であり、(xbj,ybj)は変換後のベース画像の座標系での位置である。
ここで、たとえば、図8では、(1a)のベース画像のp51(Px51,Py51)と(1b)の重畳画像の座標q61(Qx61,Qy61)が対応しており、(1a)のベース画像のp52(Px52,Py52)と(1b)の重畳画像の座標q62(Qx62,Qy62)が対応している。この状況で、前記した式(12)のアフィン変換式を(1b)の重畳画像に適用すると、(2b)に示すような画像(重畳画像領+6域O6の重畳画像)に変形(変換)される。なお、横方向のズレのみの場合は、この式(12)において、Δy=0,Δs=1およびΔθ=0とすればよい。
領域分類部54は、ステップS260の場合と同様に、ステップS650での判断結果を用いて、重畳画像の領域を非共通領域NC6と共通領域に分類する(ステップS660。図8(2b)参照)。なお、この重畳画像の領域の分類は、重畳画像の変換(ステップS652)の前に行ってもよいので、図8(1b)においても非共通領域NC6を明示している。
続いて、画像合成部55は、ステップS270の場合と同様に、ステップS660で求めた重畳画像における非共通領域を、ベース画像の同じ位置にオーバーレイして合成画像を作成する(ステップS670)。なお、重畳画像の変換によって非共通領域がベース画像の座標内から外れた場合には、非共通領域を強制的にベース画像の座標内に移動(縮小の併用も可)してもよいし、あるいは、表示部3の表示によってその旨をユーザに伝えるようにしてもよい。
そして、表示指示部56は、ステップS670で作成した合成画像の表示を表示部3に指示する(ステップS280)。その指示を受けた表示部3は、合成画像を表示する。
図7では、(3)に示すように、人M3、家H3および人M4が1つの合成画像に収まっている。
また、図8では、(3)に示すように、人M5、家H5および人M6が1つの合成画像に収まっている。
図7では、(3)に示すように、人M3、家H3および人M4が1つの合成画像に収まっている。
また、図8では、(3)に示すように、人M5、家H5および人M6が1つの合成画像に収まっている。
このようにして、第2実施形態の画像合成装置1aによれば、たとえば、同じ場所で撮影者を交代しながら撮影するなどして背景の位置がずれたり、撮影者の好みでアングルを変えて(カメラを90度回転させるなどして)撮影したりする場合でも、ベース画像と重畳画像の座標系を自動的に一致させるため、ユーザは、背景などのずれを気にすることなくベース画像と重畳画像を入力するだけで、容易に合成画像を作成することができる。そして、共通の被写体に対する相対的な位置または大きさが変わらないように部分領域をベース画像に重畳するので、見栄えのよい、自然な合成画像を作成することができる。
なお、画像変形部532は、変形量検出部531と領域分類部54の間に配置したが、領域分類部54と画像合成部55の間に配置しても、同様の作用と効果を得ることができる。
また、重畳画像全体を変形(画像変換)するものとしたが、重畳画像の非共通領域のみを変形するようにしてもよく、その場合も同様の合成画像を得ることができる。
また、重畳画像全体を変形(画像変換)するものとしたが、重畳画像の非共通領域のみを変形するようにしてもよく、その場合も同様の合成画像を得ることができる。
(第1実施形態および第2実施形態の応用例)
第1実施形態および第2実施形態では、ベース画像と重畳画像に共通する被写体(領域)として、家(建物)を例に挙げて説明したが、それ以外に、人物(または服装)、車や電車などの乗り物(移動物体)、花や木などの植物、動物、本や机などの物品など、画像合成装置1(1a)が特徴点と特徴パターンを抽出できるものであれば、共通する被写体は何でもよい。ここでは、共通する被写体が建物である場合以外の例について説明する。なお、画像合成装置1(1a)の処理は、第1実施形態あるいは第2実施形態の場合と同様であるので、その詳細な説明を省略する。
第1実施形態および第2実施形態では、ベース画像と重畳画像に共通する被写体(領域)として、家(建物)を例に挙げて説明したが、それ以外に、人物(または服装)、車や電車などの乗り物(移動物体)、花や木などの植物、動物、本や机などの物品など、画像合成装置1(1a)が特徴点と特徴パターンを抽出できるものであれば、共通する被写体は何でもよい。ここでは、共通する被写体が建物である場合以外の例について説明する。なお、画像合成装置1(1a)の処理は、第1実施形態あるいは第2実施形態の場合と同様であるので、その詳細な説明を省略する。
図9は、同じ(服装の)人物を基準に画像を合成する例の説明図であり、(1)はベース画像、(2)は重畳画像、(3)は合成画像である。
ベース画像には人M9と人M10が写っており(図9(1)参照)、重畳画像には人M11(人M10と共通)と人M12が写っている(図9(2)参照)。
画像合成装置1(1a)によれば、人M10を基準に合成画像を作成することができる(図9(3)参照)。
ベース画像には人M9と人M10が写っており(図9(1)参照)、重畳画像には人M11(人M10と共通)と人M12が写っている(図9(2)参照)。
画像合成装置1(1a)によれば、人M10を基準に合成画像を作成することができる(図9(3)参照)。
図10は、同じ車を基準に画像を合成する例の説明図であり、(1)はベース画像、(2)は重畳画像、(3)は合成画像である。
ベース画像には車C1とキリンGが写っており(図10(1)参照)、重畳画像には車C2(車C1と共通)と象E1とネズミMS1が写っている(図10(2)参照)。
画像合成装置1(1a)によれば、車C1を基準に、キリンG、象E2(象E1を縮小したもの)およびネズミMS2(ネズミMS1を縮小したもの)が同時に写った合成画像を作成することができる(図10(3)参照)。
ベース画像には車C1とキリンGが写っており(図10(1)参照)、重畳画像には車C2(車C1と共通)と象E1とネズミMS1が写っている(図10(2)参照)。
画像合成装置1(1a)によれば、車C1を基準に、キリンG、象E2(象E1を縮小したもの)およびネズミMS2(ネズミMS1を縮小したもの)が同時に写った合成画像を作成することができる(図10(3)参照)。
なお、画像合成装置1(1a)における各処理は、コンピュータのCPUに実行させるためのプログラムを所定の者が作成し、CPUに実行させることで、実現することができる。
以上で実施形態の説明を終えるが、本発明の態様はこれらに限定されるものではない。
たとえば、画像合成装置1(1a)における前記した各動作の全部または一部を複数回行うことによって、3つ以上の元画像から合成画像を作成することもできる。
また、画像合成装置1(1a)は、PCのほか、デジタルカメラやカメラ付携帯電話などによっても実現可能であり、そうすれば、写真を撮影したその場で合成画像を作成してその内容を確認することが可能となる。
たとえば、画像合成装置1(1a)における前記した各動作の全部または一部を複数回行うことによって、3つ以上の元画像から合成画像を作成することもできる。
また、画像合成装置1(1a)は、PCのほか、デジタルカメラやカメラ付携帯電話などによっても実現可能であり、そうすれば、写真を撮影したその場で合成画像を作成してその内容を確認することが可能となる。
また、たとえば、複数の元画像が、共通の被写体である建物に対して少しずれたアングルから撮影されている場合は、重畳画像を非相似形に座標変換してベース画像と重畳画像のそれぞれの建物の特徴点が一致するようにしてもよく、あるいは、重畳画像を相似形にしか座標変換しないようにしてもよい。さらに、その場合、重畳画像全体と同じように重畳領域(非共通領域)を座標変換してもよいし、重畳画像全体を非相似形に座標変換する場合は重畳領域を相似形維持で座標変換するようにしてもよい。後者のようにすれば、重畳画像全体を非相似形に座標変換する場合でも、それに連動して重畳領域に写っている人物などを不当に変形(座標変換)する事態などを回避することができる。
また、重畳領域(非共通領域)は、矩形でなくても、三角形、五角形、六角形、円形、楕円形、星形、ひし形、扇形、ハート形など、他の形であってもよい。
その他、ハードウェアやフローチャートなどの具体的な構成について、本発明の趣旨を逸脱しない範囲で適宜変更が可能である。
その他、ハードウェアやフローチャートなどの具体的な構成について、本発明の趣旨を逸脱しない範囲で適宜変更が可能である。
1 画像合成装置
2 記憶部
3 表示部
5 処理部
52 特徴抽出部
53 特徴照合部
54 領域分類部
55 画像合成部
56 表示指示部
2 記憶部
3 表示部
5 処理部
52 特徴抽出部
53 特徴照合部
54 領域分類部
55 画像合成部
56 表示指示部
Claims (12)
- 第1画像および第2画像が記憶された記憶部と、
前記第1画像と前記第2画像とを比較して、一方の画像における他方の画像と所定の画素特性が類似していない部分領域を非共通領域として抽出する領域分類部と、
その抽出した一方の画像の非共通領域を他方の画像に重畳して合成画像を作成する画像合成部と、
を備えることを特徴とする画像合成装置。 - 前記第1画像と前記第2画像とは、それぞれの領域の一部に共通の被写体が写されており、
前記画像合成部は、その共通の被写体の位置に基づいて、前記非共通領域を重畳する他方の画像における位置を決定する
ことを特徴とする請求項1に記載の画像合成装置。 - 前記画像合成部が作成した合成画像を表示する表示部と、外部の表示装置に前記合成画像を表示させる表示指示部と、のいずれか一方または両方をさらに備える
ことを特徴とする請求項1または請求項2に記載の画像合成装置。 - 前記所定の画素特性は、1以上の画素から算出されるスカラー値またはベクトル値であることを特徴とする請求項1または請求項2に記載の画像合成装置。
- 前記スカラー値は、1以上の画素における画素値またはその平均値であり、
前記ベクトル値は、1以上の画素における輝度ベクトルまたは輝度微分ベクトルであることを特徴とする請求項4に記載の画像合成装置。 - 前記第1画像と前記第2画像とにおける特徴的な部分を特徴点として抽出し、その特徴点において画像の縮尺や回転によって不変な性質である特徴パターンを抽出する特徴抽出部と、
前記第1画像と前記第2画像とにおける特徴点を、前記特徴パターンの類似度が閾値以上である場合に、対応点対として対応させる特徴照合部と、をさらに備え、
前記領域分類部は、前記第1画像または前記第2画像における特徴点のうち、前記対応点対として採用されなかった点の部分集合を含む部分領域を前記非共通領域として抽出する
ことを特徴とする請求項1または請求項2に記載の画像合成装置。 - 前記領域分類部は、前記第1画像または前記第2画像における特徴点のうち、前記対応点対として採用されなかった点の部分集合を囲む外接矩形を前記非共通領域として抽出する
ことを特徴とする請求項6に記載の画像合成装置。 - 前記特徴点に関する情報として、画像の縮尺の度合いを示すスケール値、および、所定の基準点と基準方向に基づく回転量のいずれか一方または両方と、前記特徴パターンと、画像上の座標を示す座標値と、を用いる
ことを特徴とする請求項6または請求項7に記載の画像合成装置。 - 前記画像合成部は、前記共通の被写体に対する相対的な位置または大きさが変わらないように前記非共通領域を他方の画像に重畳することで合成画像を作成する
ことを特徴とする請求項2に記載の画像合成装置。 - 前記画像合成部は、類似度が閾値以上の対応点対の前記第1画像と前記第2画像との特徴点に関する座標値と、前記第1画像と前記第2画像とのそれぞれの縮尺の度合いを示すスケール値、および、前記第1画像と前記第2画像とのそれぞれの特徴点に関する所定の基準点と基準方向に基づく回転量、のいずれか一方または両方と、から算出した画像変換パラメータを用いて、前記非共通領域を重畳する他方の画像における位置を決定する
ことを特徴とする請求項9に記載の画像合成装置。 - 第1画像および第2画像をコンピュータに合成させる画像合成プログラムであって、
前記コンピュータに備えられた記憶部から読み出した前記第1画像と前記第2画像とを比較して、一方の画像における他方の画像と所定の画素特性が類似していない部分領域を非共通領域として抽出する領域分類ステップと、
その抽出した一方の画像の非共通領域を他方の画像に重畳して合成画像を作成する画像合成ステップと、
を備えることを特徴とする画像合成プログラム。 - 前記した各ステップの全部または一部を複数回行うことによって、3つ以上の画像から合成画像を作成することを特徴とする請求項11に記載の画像合成プログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007076035A JP2008234518A (ja) | 2007-03-23 | 2007-03-23 | 画像合成装置および画像合成プログラム |
US12/076,383 US20080232712A1 (en) | 2007-03-23 | 2008-03-18 | Image composer for composing an image by extracting a partial region not common to plural images |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007076035A JP2008234518A (ja) | 2007-03-23 | 2007-03-23 | 画像合成装置および画像合成プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2008234518A true JP2008234518A (ja) | 2008-10-02 |
Family
ID=39774765
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007076035A Pending JP2008234518A (ja) | 2007-03-23 | 2007-03-23 | 画像合成装置および画像合成プログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US20080232712A1 (ja) |
JP (1) | JP2008234518A (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9288386B2 (en) | 2010-11-16 | 2016-03-15 | Casio Computer Co., Ltd. | Imaging apparatus and image synthesizing method |
JP2017016256A (ja) * | 2015-06-29 | 2017-01-19 | オリンパス株式会社 | 情報弁別装置、情報弁別方法及び情報弁別プログラム |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8736751B2 (en) * | 2008-08-26 | 2014-05-27 | Empire Technology Development Llc | Digital presenter for displaying image captured by camera with illumination system |
JP2011029905A (ja) * | 2009-07-24 | 2011-02-10 | Fujifilm Corp | 撮像装置、方法およびプログラム |
US9008462B2 (en) * | 2011-02-17 | 2015-04-14 | The Johns Hopkins University | Methods and systems for registration of radiological images |
JP5939893B2 (ja) * | 2012-06-06 | 2016-06-22 | キヤノン株式会社 | 画像処理装置および画像処理方法 |
US9491366B2 (en) * | 2013-02-01 | 2016-11-08 | Htc Corporation | Electronic device and image composition method thereof |
US20150009359A1 (en) * | 2013-03-19 | 2015-01-08 | Groopic Inc. | Method and apparatus for collaborative digital imaging |
CN109359380B (zh) * | 2018-10-16 | 2020-06-09 | 上海莉莉丝科技股份有限公司 | 缩放方法、装置、设备及介质 |
US11394851B1 (en) * | 2021-03-05 | 2022-07-19 | Toshiba Tec Kabushiki Kaisha | Information processing apparatus and display method |
CN115866315B (zh) * | 2023-02-14 | 2023-06-30 | 深圳市东微智能科技股份有限公司 | 数据处理方法、装置、设备及计算机可读存储介质 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US3802773A (en) * | 1972-06-30 | 1974-04-09 | W Schneider | Automatic photo-composer |
JPS62231379A (ja) * | 1986-03-31 | 1987-10-09 | Namuko:Kk | 画像合成装置 |
US4779135A (en) * | 1986-09-26 | 1988-10-18 | Bell Communications Research, Inc. | Multi-image composer |
JP3045087B2 (ja) * | 1996-12-27 | 2000-05-22 | 日本電気株式会社 | 画像合成装置 |
US6269366B1 (en) * | 1998-06-24 | 2001-07-31 | Eastman Kodak Company | Method for randomly combining images with annotations |
US6711278B1 (en) * | 1998-09-10 | 2004-03-23 | Microsoft Corporation | Tracking semantic objects in vector image sequences |
JP2002010056A (ja) * | 2000-06-19 | 2002-01-11 | Fuji Photo Film Co Ltd | 画像合成装置 |
KR100739173B1 (ko) * | 2005-03-16 | 2007-07-13 | 엘지전자 주식회사 | 영상통화 중 영상 생성 방법 및 그 장치 |
-
2007
- 2007-03-23 JP JP2007076035A patent/JP2008234518A/ja active Pending
-
2008
- 2008-03-18 US US12/076,383 patent/US20080232712A1/en not_active Abandoned
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9288386B2 (en) | 2010-11-16 | 2016-03-15 | Casio Computer Co., Ltd. | Imaging apparatus and image synthesizing method |
JP2017016256A (ja) * | 2015-06-29 | 2017-01-19 | オリンパス株式会社 | 情報弁別装置、情報弁別方法及び情報弁別プログラム |
US10515229B2 (en) | 2015-06-29 | 2019-12-24 | Olympus Corporation | Information discriminating device, information discriminating method, and non-transitory storage medium storing information discriminating program |
Also Published As
Publication number | Publication date |
---|---|
US20080232712A1 (en) | 2008-09-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2008234518A (ja) | 画像合成装置および画像合成プログラム | |
JP6220486B1 (ja) | 3次元モデル生成システム、3次元モデル生成方法、及びプログラム | |
US8861800B2 (en) | Rapid 3D face reconstruction from a 2D image and methods using such rapid 3D face reconstruction | |
JP6196416B1 (ja) | 3次元モデル生成システム、3次元モデル生成方法、及びプログラム | |
US8126206B2 (en) | Image processing apparatus, image processing method, and program | |
US9792731B2 (en) | System and method for controlling a display | |
JP5227629B2 (ja) | オブジェクト検出方法、オブジェクト検出装置、およびオブジェクト検出プログラム | |
JP6880618B2 (ja) | 画像処理プログラム、画像処理装置、及び画像処理方法 | |
JP2010287174A (ja) | 家具シミュレーション方法、装置、プログラム、記録媒体 | |
KR102464271B1 (ko) | 포즈 획득 방법, 장치, 전자 기기, 저장 매체 및 프로그램 | |
Civera et al. | Drift-free real-time sequential mosaicing | |
CN111429344A (zh) | 基于感知哈希的激光slam闭环检测方法及系统 | |
WO2007108100A1 (ja) | 画像情報処理装置、判定方法、及びコンピュータプログラム | |
US8891836B2 (en) | Stripe pattern image analysis device, stripe pattern image analysis method, and program thereof | |
JP5794427B2 (ja) | マーカ生成装置、マーカ生成検出システム、マーカ生成検出装置、マーカ、マーカ生成方法及びそのプログラム | |
JP2001274973A (ja) | 顕微鏡画像合成装置、顕微鏡画像合成方法、顕微鏡画像合成処理プログラムを記録したコンピュータ読み取り可能な記録媒体 | |
Ha et al. | Embedded panoramic mosaic system using auto-shot interface | |
Chew et al. | Panorama stitching using overlap area weighted image plane projection and dynamic programming for visual localization | |
JP2019159470A (ja) | 推定装置、推定方法、及び推定プログラム | |
CN113688680A (zh) | 一种智能识别与追踪系统 | |
JP7262689B1 (ja) | 情報処理装置、生成方法、及び生成プログラム | |
JP4380376B2 (ja) | 画像処理装置、画像処理方法、及び画像処理プログラム | |
JP2004178210A (ja) | 画像処理方法及び画像認識方法並びにこれらの方法をコンピュータにより実行させるプログラム | |
Sallam Fatouh et al. | Image-based localization for augmented reality application: A review | |
CN112070674B (zh) | 一种图像合成方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090617 |