JP4346742B2 - Image composition method, image composition apparatus, and storage medium - Google Patents

Image composition method, image composition apparatus, and storage medium Download PDF

Info

Publication number
JP4346742B2
JP4346742B2 JP23047699A JP23047699A JP4346742B2 JP 4346742 B2 JP4346742 B2 JP 4346742B2 JP 23047699 A JP23047699 A JP 23047699A JP 23047699 A JP23047699 A JP 23047699A JP 4346742 B2 JP4346742 B2 JP 4346742B2
Authority
JP
Japan
Prior art keywords
images
image
parameter
coordinate
coordinate space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP23047699A
Other languages
Japanese (ja)
Other versions
JP2001052152A (en
JP2001052152A5 (en
Inventor
達嗣 片山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP23047699A priority Critical patent/JP4346742B2/en
Priority to US09/624,385 priority patent/US7098914B1/en
Publication of JP2001052152A publication Critical patent/JP2001052152A/en
Priority to US11/474,999 priority patent/US8379054B2/en
Publication of JP2001052152A5 publication Critical patent/JP2001052152A5/ja
Application granted granted Critical
Publication of JP4346742B2 publication Critical patent/JP4346742B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、隣接する画像が共通の被写体領域を有するような複数の画像を任意の写像に変換して合成する画像合成方法、画像合成装置および記録媒体に関する。
【0002】
【従来の技術】
従来より、複数の画像を合成する場合に、予め設定された写像方式により、入力された画像を写像変換して合成するものが知られている。この写像方式としては、例えば第4図(a)のように、原点Oを中心に各センサ面の画像を平面401に投影する平面写像や、第4図(b)のように、原点Oを中心に各センサ面の画像を円筒402に投影する円筒写像や、第4図(c)のように、原点Oを中心に各センサ面の画像を球面403に投影する球面写像がある。
【0003】
従来のパノラマ画像合成方法では、合成処理に必要なパラメータを生成する前に適切な写像方法を選択・設定し、この写像方法で入力画像を写像変換した後に、複数の画像同士の位置関係を示すパラメータ(座標空間変換パラメータに相当する)を対応点情報から生成し、合成していた。
【0004】
【発明が解決しようとする課題】
しかし、例えば写像方法を変更して合成画像を作ろうとした場合、改めて複数の画像を入力し、別の写像方法で写像変換を行って、複雑な画像合成処理を繰り返し実行していた。つまり、パラメータ生成のための処理を最初から再実行しなけばならないため、時間がかかり、非常に効率が悪かった。
【0005】
また、合成した後の画像に関して写像を変換して表示するものもあるが、これは一旦合成した後の画像をもとにして、再度変換処理するものである。つまり、オリジナルの画像に対して少なくとも2度の画像変換処理を実行しているので、写像を変更した画像の画質が劣化してしまうという問題があった。
【0006】
上記の課題を鑑みて、本出願に係る発明の目的は、写像方式を変更して合成画像を作ろうとした場合に処理時間を短縮し、画質も良好な合成画像を得られるようにすることである。
【0007】
【課題を解決するための手段】
上記の課題を解決するため、本出願に係る発明の画像合成装置は、少なくとも2つの画像間には重複領域が存在する複数の画像を入力する画像入力手段と、前記複数の画像のうち隣接する画像同士の位置関係から得られる座標空間変換パラメータを生成するパラメータ生成手段と、前記座標空間変換パラメータをメモリに保持する保持手段と、ユーザの操作に応答して、写像方式を複数の写像方式の中で切り替える切り替え手段と、前記切り替えられた写像方式に対応して、前記複数の画像を合成する際に用いられる座標変換式を変更する変更手段と、前記メモリに予め保持された座標空間変換パラメータと前記変更された座標変換式とを用いて前記複数の画像を合成する画像合成手段とを備えた事を特徴とする。
【0012】
【発明の実施の形態】
(第1の実施例)
本実施例に係るパノラマ画像合成方法及び装置に用いられる画像は、図2に示すように、撮影者が任意の位置で回転しながら状態1で撮影領域1の画像を入力し、状態2で撮影領域2の画像を入力し、さらに状態3で撮影領域3の画像を入力することにより得られるものである。
【0013】
回転する方向として、図2のY軸回り(以下パン)あるいはX軸回り(以下チルト)がある。図2に示すように画像を入力して合成処理することにより、任意の画角をカバーするパノラマ画像を得ることができる。
【0014】
ここで、パノラマ画像と写像の関係について説明する。図3は、図2の各撮影状態のY=0における断面図である。原点Oと、座標軸XYZは撮影状態1を基準に設定している。fは撮影焦点距離であり、φ12及びφ23はパン角度を表わす。また、301、302及び303はカメラのセンサ面(結像面)である。
【0015】
異なる方向を向いて撮影された複数の画像を合成して、1つの画像として表現するためには、ある1つの面に画像を写像する必要がある。その写像方法としては、例えば図3に示すように各センサ面の画像を円筒面310に投影する円筒写像や平面320に投影する平面写像等がある。
【0016】
図4を用いて、上記の写像の方式の概略を示す。
【0017】
図4(a)は平面写像であり、原点Oを中心に各センサ面の画像を平面401に投影するものである。
【0018】
平面写像は、広角のレンズで撮影した場合と同様の合成画像が得られ、被写体の直線部は合成画像においても直線として表現される。但し、表現できる画角の範囲は180°未満に限定され、また180°未満であっても、画角が大きくなるに従い周辺部における歪みが増大し画質が劣化する。従って、合成画像の画角としては120°程度までにするのが適当であるといえる。
【0019】
図4(b)は円筒写像であり、各センサ面の画像を、中心線が原点Oを通る円筒402に投影するものである。
【0020】
円筒の側面を展開して得られる画像の水平方向は、角度φで表わされ、360°全周を表現することができる。但し、垂直方向は平面写像と同様であるので、180°未満の画角のみ表わすことができるが、平面写像と同様に、画角が大きくなるに従い周辺部における歪みが増大し画質が劣化する。円筒写像では、被写体の直線部は画像の位置に応じて歪曲する。
【0021】
また、円筒写像は回転軸としてX軸回りの円筒とY軸回りの円筒があるので、撮影条件、即ちパン撮影の場合はY軸回りの円筒(縦円筒)を用い、チルト撮影の場合はX軸回りの円筒(横円筒)を用いるというように、回転軸を選択することが有効である。
【0022】
図4(c)は球面写像であり、原点Oを中心に各センサ面の画像を球面403に投影するものである。
【0023】
球面写像により得られる画像は、水平方向及び垂直方向とも角度を表わす。従って全周のパノラマ画像を表わすことができる。球面写像では、被写体の直線部は画像の位置に応じて歪曲する。
【0024】
球面写像は、パン及びチルト撮影が混在している画像を合成した場合の表現方式として有効である。
【0025】
このように、画像合成する際の写像方式は種々のものがあり、被写体の種類や撮影条件により選択することが有効である。
【0026】
図1に本実施例に係るパノラマ画像合成方式及び装置の概略を示す。
【0027】
図1において701は画像入力部であり合成に用いる画像を入力するものである。画像は不図示の記録媒体に記録されているものを読み込むことにより入力しても良いし、不図示のメモリ等に保持されているものを入力することもできる。また、デジタルカメラ等の撮像素子より得られる映像信号をデジタル化して入力するものであっても構わない。
【0028】
702はメモリであり、画像情報、合成処理に用いる各種パラメータ等の各種情報を保持するものである。
【0029】
703はMPUであり、合成処理全体を制御し、また各種演算処理を行うものである。
【0030】
704は、合成パラメータ生成部であり、隣接する画像同士の位置関係を示す座標空間変換パラメータを生成したり、階調変換パラメータ、隣接画像のつなぎ目位置を算出したりすることによって、合成画像を生成するために必要な各種合成パラメータを生成する。合成パラメータ生成部704は、メモリ702やMPU703と接続されており、メモリ702とは画像データや、各種合成パラメータ等の情報が入出力されている。なお、MPU703に対しては主に制御情報の入出力を行っている。
【0031】
705は、画像合成変換部であり、与えられた写像方式に応じた座標変換パラメータと、合成パラメータ生成部704で生成された、座標空間変換パラメータ等の合成パラメータを用いて、複数枚の画像を合成する。具体的には、MPU703からの制御情報に基づいて、メモリ702にアクセスして、画像データや、座標空間変換パラメータ等の各種合成パラメータを読み込み、座標変換処理とうを行って、合成画像を生成する。また、得られた合成画像をメモリ702に書込む。
【0032】
706はフロッピーディスク等の記録媒体であり、合成したパノラマ画像を記録するものである。
【0033】
707は操作部であり、焦点距離の設定、写像方式の選択等の操作を行うものである。具体的な操作は、マウス等を用いてGUIベースで行ってもよいし、キーボードによるコマンドの直接入力により行ってもよい。
【0034】
708は表示部であり、パノラマ合成された画像、写像変換された画像あるいはGUI等を表示するためのものである。
【0035】
次に、第1の実施例のパノラマ画像合成処理の動作について説明する。
【0036】
隣接する画像の一部が重複した画像を、画像入力部701により入力しメモリ702に保持する。入力する画像は表示部708に表示された候補画像から操作部707による指示により選択することもできる。また、画像ファイルの属性を基に自動的に1セットのパノラマ画像を選択して入力するようにしても良い。
【0037】
合成処理に用いる画像の撮影焦点距離fは、操作部707において設定する。設定方法としては、焦点距離の値を入力するもの、複数の候補の中から選択するもの等がある。また、メモリに保持した画像の属性として撮影焦点距離が予め設定されている場合は、その値を用いることも可能である。
【0038】
画像情報及び撮影焦点距離が設定されると、合成パラメータ生成部704において隣接する画像を合成するためのパラメータを生成する処理が実行される。
【0039】
図5に、合成パラメータ生成のフローを示す。
【0040】
S501では、合成パラメータ設定に用いる2つの画像を設定する。S502では、設定した2つの画像間の重複領域内で対応点の抽出処理を行う。対応点の抽出には、テンプレートマッチング法、相互相関法等の公知の技術を用いればよい。
【0041】
また、処理の効率化のために、公知のCoarse-to-Fineによる階層的な対応点抽出処理を行うことも有効である。
【0042】
S50においては、抽出した対応点情報を基に画像間の座標空間変換パラメータの算出を行う。例として第6図を用いて座標空間変換パラメータ算出の概略を示す。
【0043】
図6は図2におけるパン撮影においてY=0のXZ断面を示したものである。601及び602は隣接する撮影画像に対応したセンサ面を示している。センサ面601に対応したXYZ座標の原点をO、センサ面602に対応したX’Y’Z’座標の原点をO’とすると、座標空間変換パラメータは座標系XYZと座標系X’Y’Z’の関係を表わすものである。S50の対応点抽出処理により得られた対応点を点P及び点P’とすると、この2点間の関係は図6の回転パラメータR及び並進パラメータTにより
P′=R・P+T ・・・(1)
となる。ここで、Rは各軸回りの回転成分(θ,φ,ψ)により得られる回転マトリクスであり、以下のように表される。
【0044】
【外1】

Figure 0004346742
【0045】
回転マトリクスR及び並進マトリクスTの合成マトリクスMは、以下のように表される。
【0046】
【外2】
Figure 0004346742
【0047】
合成マトリクスMは、対応点抽出処理により得られる複数個の対応点情報を基に非線形最小自乗法等を用いて算出することができる。パラメータ算出の方式としては、他の公知技術を用いることも可能である。
【0048】
このように、座標系XYZと座標系X'Y'Z'の関係を計算しておくことにより、例えばP(x,y,z)に対応するX'Y'Z'座標上の点がどこなのかを容易に知る手がかりとなる。
【0049】
具体例は後に示すが、この座標空間変換パラメータとして、合成マトリクスMを求めることは、画像間の各点の対応関係を示しており、言い換えれば、任意に入力した2次元の画像情報から、それらを撮影したときの空間的な位置関係を表現しているのである。
【0050】
したがって、あとはこれらの画像を適切な共通面に写像することによって、適切な合成画像を得ることが出来る。
【0051】
S504においては、隣接する画像間の階調を一致させるための補正パラメータを生成する。補正パラメータの生成方式は特開平09−321972の技術を適応する。
【0052】
S505においては、生成した座標空間変換パラメータあるいは階調補正パラメータを用いて隣接する画像間のつなぎ目位置の設定を行う。つなぎ目位置は、座標空間変換パラメータを基にリサンプリングした画素間の差分あるいは相関値を用いて設定する。
【0053】
S506において、隣接する画像間のパラメータ生成がすべて完了したかを判別して、完了していなければ次に合成すべき2画像をS501において再び設定し、合成操作を続ける。
【0054】
完了している場合は、S507において全画像を合成する際の基準位置を設定する。
【0055】
S508では、設定した基準位置を基に、既に得られている座標空間変換パラメータを変換する。
【0056】
以上の処理により、第1図の704において合成パラメータが生成され、メモリ702に保持される。
【0057】
合成パラメータが生成されると、画像変換部705において選択されている写像方式によりパノラマ合成画像が生成される。画像変換部705における処理の概略を図7により説明する。
【0058】
図7は、合成画像を円筒写像変換して生成する場合を示している。図7(a)において710は、円筒写像によるパノラマ合成画像である。ここで、710上の画素Ikを生成する処理により、画像変換部705における処理の概略を示す。図7(b)は、各撮影位置でのセンサ面712及び713間の関係を模式的に示したもので、711は合成画像710をY=Yk断面により表したものである。なお、簡単に考える為に、前述の並進成分Tは無い図となっている。
【0059】
図7(b)において、711面上の点Ik(φk,Yk)を、XYZ座標の点P(x,y,z)として座標変換するときは、以下の式で表すことができる。
【0060】
x=f・sin(φk
y=Yk ―(4)
z=f・cos(φk
【0061】
点PをX’Y’Z’座標系の点P’(x’、y’、z’)で表すとすると、点Pと点P’間の変換は、合成パラメータ生成部704において生成された式()の座標空間変換パラメータである合成マトリクスMを用いればよく、次式により表すことができる。
【0062】
【外3】
Figure 0004346742
【0063】
次に、点P'に対応するセンサ面713上の座標P''を次式により求める。
【0064】
【外4】
Figure 0004346742
【0065】
上記(6)式により、センサ面713(z"=f)上の座標(x'',y'')の画素を参照すれば、合成画像710上の画素Ikの値を知ることが出来る。
【0066】
以上の処理を合成画像710の各画素に対して施すことにより、円筒写像変換された合成画像を生成することができる。
【0067】
合成された画像はメモリ702に保持されると共に、表示部708に表示される。また、必要に応じて記録媒体706に記録される。
【0068】
以下においては、写像方式の変更と、この時の変換処理について示す。
【0069】
操作部707において、ユーザーが任意の写像方式を選択して、写像方式の変更指示をすると、MPUは選択された写像方式に対応した座標変換処理を設定し、前述と同様の処理により705において画像変換処理を実行する。
【0070】
写像方式が変更されると、前述の式(4)を用いた座標変換処理が、選択された新たな写像方式に対応したものに置き換えられる。
【0071】
例えば平面写像に変更した場合は、合成画像の各画素はセンサ面の座標と一致するので、生成する画素Ik(Xk,Yk)に対応する式(4)の座標変換式は以下となる。
【0072】
x=Xk
y=Yk ―(7)
z=f
【0073】
球面写像の場合は、水平及び垂直方向共に等角度ピッチとなるようにサンプリングするので画素Ik(Φk,θk)に対応する座標変換は次式となる。
【0074】
x=f・cos(θk)sin(φk
y=f・cos(θk) ―(8)
z=f・cos(θk)cos(φk
【0075】
従って、画像間の関係を表わす座標空間変換パラメータである合成マトリクスMは、いずれの写像方式においても同一のものを用い、選択された写像の種類に応じて(4)式、(7)式及び(8)式の各座標変換式を切り換えることにより、任意の写像による合成画像を得ることが可能となるのである。
【0076】
従来は、写像方式が変更される度に、写像方式に基づいた計算式に、対応点の座標を代入して、合成パラメータ生成処理を実行し、これに基づいて、すべての画素を座標変換していた。
【0077】
これに対して、本実施例のパノラマ画像合成方法では、まず座標空間変換パラメータとして、画像間の各点の対応関係を求めておき、あとは座標変換処理を写像方式に対応して切り換えるだけで合成処理が完了する。したがって、写像方式の切り替えのときには、既に計算した座標空間変換パラメータと、各写像方式に対応して記憶している座標変換処理を用い、入力画像そのものに対して写像変換するだけでよく、つまり新たなパラメータ計算をする必要が無いので、非常に効率良く種々の写像方式による合成画像を得ることが可能となっている。特に写像方式変更時の処理時間を、大幅に短縮することが可能である。同時に、合成した画像に対して変換処理を行わないので、画質も良好な合成画像を得ることが出来るのである。
【0078】
(第2の実施例)
第2の実施例のパノラマ画像合成処理は、以下の特徴を有する。
1) 基準位置をユーザーが任意に変更可能で、変更された基準位置により合成画像が変換される。
2) つなぎ目の修正処理ができる。
3) 以前の合成結果に戻ることができる。
【0079】
以下、上記の特徴を有するパノラマ画像合成方法及び装置の動作について説明する。尚、全体の構成としては図1と同様である。また、予め設定された写像方式により合成画像が生成され、表示部に表示される過程までは、第1実施例と同様であるので説明を省略する。
【0080】
本実施例に係る基準位置の変更の概略を図8及び図9に示す。図8(a)は、平面写像により合成結果が表示されている場合である。図8の合成画像801は、建物を垂直方向にチルトしながら撮影した画像を合成したものである。合成画像は上部が縮小し台形状になっている。802は、基準位置である。
【0081】
図8(b)は、撮影時の被写体とセンサ面との関係を示したものである。803は、被写体の建物であり、804〜806はチルトしながら撮影した各状態でのセンサ面であり、807は合成画像を表わす投影面で、808は合成画像の基準位置である。
【0082】
基準位置の変更は、図1の操作部707によりマウス等により図8(a)の基準位置802を移動させる。基準位置の移動は、キーボードにより移動先の座標を指定することもできるし、矢印キー等により移動させても良い。
【0083】
変更された位置はMPU703に送られる。MPU703は、移動情報を画像変換部705に出力する。画像変換部705においては、移動情報を基に合成画像を修正するための修正マトリクスM'を生成する。
【0084】
画像変換部においては、すべての画像の座標空間変換パラメータである合成マトリクスMをM’により
M2=M・M’・・・(9)
と修正して、合成変換のためのマトリクスM2を生成する。
【0085】
以下、第1実施例と同様に選択されている写像方式を用いて合成画像を生成して、メモリ702に保持し、また表示部708に表示する。
【0086】
図9(a)は基準位置を移動し、合成画像を変換した結果である。901は、合成画像であり、902は現在の基準位置を表わす。
【0087】
図9(b)は被写体とセンサ面との関係である。
【0088】
基準位置を908に移動して、基準位置と基に設定される合成画像の投影面907を用いて合成画像を生成する。
【0089】
投影面907は、被写体の側面909と並行であるので、歪みの無い合成画像901を得ることができる。
【0090】
従来においても、投影面807や907に対応する基準平面を任意に設定し、この平面状に合成画像を形成するものは見られるが、その場合においても、基準平面の変更に伴って、合成パラメータの算出をはじめからやり直す必要が有り、使い勝手が悪かった。
【0091】
しかし本願では、基準位置に対応した座標空間変更パラメータを、既に計算した座標空間変換パラメータに適用して計算するだけであるので、使い勝手が格段に向上する。そして、合成画像を生成する際の基準位置をユーザーの意図する位置に設定することが可能となり、あおり補正等の幾何学補正に柔軟に対応することができる。
【0092】
次に、つなぎ目の修正処理について説明する。図10(a)は、画像の一部が重複するように撮像した画像101及び102である。また図10(b)は、画像101及び画像102を合成した合成画像である。合成画像103において点線はつなぎ目位置を表わす。
【0093】
合成画像103では、つなぎ目付近の画像にずれが生じている。合成画像において、上記のようなずれが生じている場合、本実施例のパノラマ画像合成方法及び装置は図11(a)及び図11(b)に示す修正処理により対応することができる。
【0094】
図11(a)においては、図1の操作部707により撮像した2つの画像101及び102を移動させて、2つの画像の重複部がおおむね一致するように位置合わせする。位置合わせした情報はMPU703に与えられ、MPU703は、合成パラメータ生成部704に位置合わせ情報を与えることにより、合成パラメータ生成部における対応点抽出処理のための情報として用いる。
【0095】
合成パラメータ生成部においては、予めある程度の位置合わせがなされた状態から対応点抽出することができるので、抽出精度及び信頼性を向上することが可能となる。
【0096】
図11(b)においては、図1の操作部707により、撮像した画像101及び102の被写体上の点を対応点として直接設定する。図11(b)においては、点112A−点112Bと点113A―点113Bが対応点ペアとして設定されている。
【0097】
MPU703は、前記対応点ペアの情報を取得し、合成パラメータ生成部704に与える。
【0098】
合成パラメータ生成部704においては、取得した対応点ペアの情報を用いて座標空間変換パラメータを推定することができる。また、取得した対応点ペアは手動で位置合わせされているので、対応点ペアの近傍でのみテンプレートマッチングあるいは相互相関処理を実行して、対応点ペアの精度を向上させて座標変換パラメータの推定に用いても良い。
【0099】
図11(c)は修正後の合成画像114である。画像103と比較してつなぎ目の位置合わせのが滑らかになっている。この修正処理は、ユーザーの欲する結果となるまで繰り返し実行することができる。
【0100】
上述の写像方式の変更処理やつなぎ目の修正処理により、結果的に得られた合成画像が良好となった場合は問題ないが、場合によっては修正前の結果の方が好ましい場合も起こり得る。このような場合に対応するために、本実施例に係るパノラマ画像合成方法では、合成画像が生成されるたびに、合成パラメータ及び合成結果の画像情報を一連の合成処理がすべて終了するまでメモリ702に保持している。
【0101】
例えば図10(b)に示す合成結果103を最初の合成結果として合成カウンタをCs1=1、Cs2=1にセットすると共に、各種合成パラメータ及び合成画像を合成カウンタCs1=1、Cs2=1に対応したメモリ位置に保持する。ここでCs1は、変更・修正処理が繰り替えされるたびに1つずつ増大するカウンタで、Cs2は、現在の状態から、1段階前の状態に戻った上で、新たに変更・修正処理が行われたときに1つずつ増大するカウンタである。
【0102】
次に、変更・修正処理により合成画像114が得られると、合成カウンタをCs1=2、Cs2=1にセットし、合成パラメータ及び合成画像を合成カウンタCs1=2、Cs2=1に対応したメモリ位置に保持する。
【0103】
さらに、変更・修正処理により図12に示すような合成画像120が得られると、合成カウンタをCs1=3、Cs2=1にセットし、合成パラメータ及び合成画像を合成カウンタCs1=3、Cs2=1に対応したメモリ位置に保持する。
【0104】
ここで、ユーザーが操作部707により”戻る”操作を行った場合は、Cs1を現在の位置から1減じてCv1=2として、合成カウンタCs1=2、Cs2=1に対応した合成パラメータ及び合成結果画像をメモリ702から読み出し、合成画像を表示部708に表示すると共に、読み出したパラメータを現時点のパラメータとして置き換える。
【0105】
この時点では図13の合成画像131が表示されている。ここで、変更・修正処理を行った場合は、Csカウンタを一つ進めて、合成カウンタをCs1=2、Cs2=2にセットし、合成パラメータ及び合成画像を合成カウンタCs1=2、Cs2=2に対応したメモリ位置に保持する。この状態では図13の合成画像133が表示されている。
【0106】
さらに修正した場合は、合成画像134が表示され、合成カウンタはCs1=2、Cs2=3となる。
【0107】
上記の処理をMPU703・メモリ702において実行することにより、変更・修正で生成されたすべての画像をメモリに記憶しているので、ユーザーはこれまでに生成した任意の合成画像の状態に、簡単に移行することが可能となる。
【0108】
尚、操作部707においては、左矢印(←)と右矢印(→)により”戻る”方向を指定する。
【0109】
但し、方向の指定方法は他の公知の方法を利用できることは言うまでもない。
【0110】
例えば、カウンタCs1・Cs2の値をそれぞれ入力することによって、これまでに生成した任意の合成画像に移行することも可能である。
【0111】
さらに、上記の場合は合成パラメータと合成画像を保持しているが、合成画像が大きいあるいは多い場合には、メモリの容量を圧迫する可能性もあるので、合成パラメータのみを保持して、画像は合成パラメータを用いて逐次生成するようにする方式も有効である。
【0112】
本実施例のパノラマ画像合成方法及び装置によれば、合成画像のあおり等の補正を柔軟に行うことが可能となり、また修正作業を効率良く実行することができる。
【0113】
なお、上記実施例は複数の機器(たとえばホストコンピュータ、インタフェース機器、リーダ、プリンタ等)から構成されるシステムに適用しても、または一つの機器(たとえば複写機、ファクシミリ装置)からなる装置に適用してもよい。
【0114】
また前述した実施形態の機能を実現する様に各種のデバイスを動作させる様に該各種デバイスと接続された装置あるいはシステム内のコンピュータに、前記実施形態機能を実現するためのソフトウエアのプログラムコードを供給し、そのシステムあるいは装置のコンピュータ(CPUあるいはMPU)を格納されたプログラムに従って前記各種デバイスを動作させることによって実施したものも本願発明の範疇に含まれる。
【0115】
またこの場合、前記ソフトウエアのプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコード自体、及びそのプログラムコードをコンピュータに供給するための手段、例えばかかるプログラムコードを格納した記憶媒体は本発明を構成する。
【0116】
かかるプログラムコードを格納する記憶媒体としては例えばフロッピーディスク、ハードディスク、光ディスク、光磁気ディスク、CD-ROM,、磁気テープ、不揮発性のメモリカード、ROM等を用いることが出来る。
【0117】
またコンピュータが、供給されたプログラムコードを実行することにより、前述の実施形態の機能が実現されるだけではなく、そのプログラムコードが、コンピュータにおいて稼働しているOS(オペレーティングシステム)、あるいは他のアプリケーションソフト等と共同して前述の実施形態の機能が実現される場合にもかかるプログラムコードは本願発明の実施形態に含まれることは言うまでもない。
【0118】
更に供給されたプログラムコードが、コンピュータの機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに格納された後そのプログラムコードの指示に基づいてその機能拡張ボードや機能格納ユニットに備わるCPU等が実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も本願発明に含まれることは言うまでもない。
【0119】
【発明の効果】
以上説明したように、本出願に係る発明によれば、写像方式の切り替えのときには、既に計算した座標空間変換パラメータと、各写像方式に対応して記憶している座標変換処理を用い、入力画像そのものに対して写像変換するだけでよく、つまり新たなパラメータ計算をする必要が無いので、非常に効率良く種々の写像方式による合成画像を得ることが可能となっている。特に写像方式変更時の処理時間を、大幅に短縮することが可能である。同時に、合成した画像に対して変換処理を行わないので、画質も良好な合成画像を得ることが出来るのである。
【図面の簡単な説明】
【図1】パノラマ画像合成処理のブロック図。
【図2】パノラマ撮影の概略図。
【図3】写像変換の概略図。
【図4】写像方式を説明する図。
【図5】合成パラメータ生成処理のフロー。
【図6】合成変換処理の概略図。
【図7】画像合成の説明図。
【図8】画像変換の前記略図。
【図9】画像変換の前記略図。
【図10】撮像画像の概略図。
【図11】修正処理の概略図。
【図12】合成画像の概略図。
【図13】処理シーケンスの概略図。
【符号の説明】
701 画像入力部
702 メモリ
703 MPU
704 合成パラメータ生成部
705 画像合成変換部
706 記録媒体
707 操作部
708 表示部[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image synthesizing method, an image synthesizing apparatus, and a recording medium that convert and synthesize a plurality of images such that adjacent images have a common subject area.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, when a plurality of images are combined, there is known a method in which an input image is converted and combined by a preset mapping method. As this mapping method, for example, as shown in FIG. 4 (a), a plane mapping in which an image of each sensor surface is projected on the plane 401 around the origin O, or the origin O is set as shown in FIG. 4 (b). There are a cylindrical mapping that projects an image of each sensor surface on a cylinder 402 at the center, and a spherical mapping that projects an image of each sensor surface on a spherical surface 403 around the origin O as shown in FIG.
[0003]
In the conventional panoramic image synthesis method, an appropriate mapping method is selected and set before generating the parameters necessary for the synthesis process, and after the input image is mapped and converted by this mapping method, the positional relationship between a plurality of images is indicated. Parameters (corresponding to coordinate space conversion parameters) were generated from the corresponding point information and synthesized.
[0004]
[Problems to be solved by the invention]
  However, for example, when trying to create a composite image by changing the mapping method, a plurality of images are input again, map conversion is performed by another mapping method, and complex image composition processing is repeatedly executed. In other words, the process for parameter generation must be re-executed from the beginning.ThisIt was time consuming and very inefficient.
[0005]
In addition, there are some which convert and display a map with respect to the synthesized image, but this is a conversion process again based on the once synthesized image. That is, since the image conversion process is executed at least twice on the original image, there is a problem that the image quality of the image whose mapping has been changed is deteriorated.
[0006]
  In view of the above problems, the object of the invention according to the present application is to reduce the processing time and obtain a composite image with good image quality when attempting to create a composite image by changing the mapping method. is there.
[0007]
[Means for Solving the Problems]
  In order to solve the above-described problem, an image composition device according to the invention of the present application includes an image input unit that inputs a plurality of images in which an overlap region exists between at least two images, and is adjacent to the plurality of images. A parameter generation unit that generates a coordinate space conversion parameter obtained from the positional relationship between images, a holding unit that stores the coordinate space conversion parameter in a memory, and a mapping method that is a plurality of mapping methods in response to a user operation. Switching means for switching among them, changing means for changing a coordinate conversion formula used when combining the plurality of images in correspondence with the switched mapping method, and coordinate space conversion parameters stored in advance in the memory And an image synthesizing means for synthesizing the plurality of images using the modified coordinate transformation formula.
[0012]
DETAILED DESCRIPTION OF THE INVENTION
(First embodiment)
As shown in FIG. 2, the image used in the panoramic image synthesis method and apparatus according to the present embodiment is obtained by inputting an image of the shooting area 1 in the state 1 while the photographer rotates at an arbitrary position and shooting in the state 2. This is obtained by inputting the image of the area 2 and further inputting the image of the shooting area 3 in the state 3.
[0013]
The direction of rotation includes the Y axis (hereinafter referred to as pan) or the X axis (hereinafter referred to as tilt) in FIG. As shown in FIG. 2, a panoramic image covering an arbitrary angle of view can be obtained by inputting and synthesizing an image.
[0014]
Here, the relationship between the panoramic image and the mapping will be described. FIG. 3 is a cross-sectional view at Y = 0 in each imaging state of FIG. The origin O and the coordinate axes XYZ are set based on the shooting state 1. f is an imaging focal length, and φ12 and φ23 represent pan angles. Reference numerals 301, 302, and 303 denote camera sensor surfaces (imaging surfaces).
[0015]
In order to combine a plurality of images taken in different directions and express them as one image, it is necessary to map the images onto a certain surface. As the mapping method, for example, as shown in FIG. 3, there are a cylindrical mapping for projecting the image of each sensor surface onto the cylindrical surface 310, a planar mapping for projecting onto the plane 320, and the like.
[0016]
An outline of the above mapping method will be described with reference to FIG.
[0017]
FIG. 4A is a plane mapping, in which an image of each sensor surface is projected onto the plane 401 with the origin O as the center.
[0018]
In the planar mapping, a composite image similar to that obtained by photographing with a wide-angle lens is obtained, and the straight line portion of the subject is expressed as a straight line in the composite image. However, the range of view angles that can be expressed is limited to less than 180 °. Even if the view angle is less than 180 °, distortion in the peripheral portion increases and the image quality deteriorates as the view angle increases. Therefore, it can be said that it is appropriate to set the angle of view of the composite image to about 120 °.
[0019]
FIG. 4B is a cylindrical mapping in which an image of each sensor surface is projected onto a cylinder 402 whose center line passes through the origin O.
[0020]
The horizontal direction of the image obtained by developing the side surface of the cylinder is represented by an angle φ, and can represent the entire 360 ° circumference. However, since the vertical direction is the same as that of the planar mapping, only an angle of view of less than 180 ° can be expressed. However, as with the planar mapping, distortion in the peripheral portion increases and the image quality deteriorates as the angle of view increases. In the cylindrical mapping, the straight line portion of the subject is distorted according to the position of the image.
[0021]
In addition, since the cylindrical mapping includes a cylinder around the X axis and a cylinder around the Y axis as rotation axes, a cylinder around the Y axis (vertical cylinder) is used for shooting conditions, that is, pan shooting, and X is used for tilt shooting. It is effective to select a rotation axis such as using a cylinder (horizontal cylinder) around the axis.
[0022]
FIG. 4C shows a spherical mapping, in which an image of each sensor surface is projected onto the spherical surface 403 around the origin O.
[0023]
An image obtained by spherical mapping represents an angle in both the horizontal direction and the vertical direction. Therefore, a panoramic image of the entire circumference can be represented. In the spherical mapping, the straight line portion of the subject is distorted according to the position of the image.
[0024]
The spherical mapping is effective as an expression method when an image in which pan and tilt photography is mixed is synthesized.
[0025]
As described above, there are various mapping methods at the time of image composition, and it is effective to select according to the type of subject and photographing conditions.
[0026]
FIG. 1 schematically shows a panoramic image composition method and apparatus according to this embodiment.
[0027]
In FIG. 1, reference numeral 701 denotes an image input unit for inputting an image used for composition. The image may be input by reading an image recorded on a recording medium (not shown), or an image held in a memory (not shown) or the like. In addition, a video signal obtained from an image sensor such as a digital camera may be digitized and input.
[0028]
Reference numeral 702 denotes a memory that holds various information such as image information and various parameters used for the composition processing.
[0029]
Reference numeral 703 denotes an MPU that controls the entire synthesis process and performs various arithmetic processes.
[0030]
A composite parameter generation unit 704 generates a composite image by generating a coordinate space conversion parameter indicating the positional relationship between adjacent images, or calculating a gradation conversion parameter and a joint position between adjacent images. Various synthesis parameters necessary for the generation are generated. The synthesis parameter generation unit 704 is connected to the memory 702 and the MPU 703, and information such as image data and various synthesis parameters is input to and output from the memory 702. The MPU 703 mainly inputs / outputs control information.
[0031]
Reference numeral 705 denotes an image synthesis conversion unit, which uses a coordinate conversion parameter corresponding to a given mapping method and a synthesis parameter such as a coordinate space conversion parameter generated by the synthesis parameter generation unit 704 to convert a plurality of images. Synthesize. Specifically, based on the control information from the MPU 703, the memory 702 is accessed to read various composite parameters such as image data and coordinate space conversion parameters, and a coordinate conversion process is performed to generate a composite image. . Further, the obtained composite image is written into the memory 702.
[0032]
Reference numeral 706 denotes a recording medium such as a floppy disk, which records a synthesized panoramic image.
[0033]
Reference numeral 707 denotes an operation unit that performs operations such as setting a focal length and selecting a mapping method. A specific operation may be performed on a GUI basis using a mouse or the like, or may be performed by directly inputting a command using a keyboard.
[0034]
Reference numeral 708 denotes a display unit for displaying a panorama synthesized image, a mapping-converted image, a GUI, or the like.
[0035]
Next, the operation of the panoramic image synthesis process of the first embodiment will be described.
[0036]
An image in which a part of adjacent images overlaps is input by the image input unit 701 and held in the memory 702. The input image can be selected from the candidate images displayed on the display unit 708 by an instruction from the operation unit 707. Alternatively, a set of panoramic images may be automatically selected and input based on the attributes of the image file.
[0037]
The shooting focal length f of the image used for the composition process is set by the operation unit 707. As a setting method, there are a method of inputting a value of a focal length, a method of selecting from a plurality of candidates, and the like. Further, when the photographing focal length is preset as the attribute of the image held in the memory, it is possible to use the value.
[0038]
When the image information and the photographing focal length are set, the synthesis parameter generation unit 704 executes a process for generating parameters for synthesizing adjacent images.
[0039]
FIG. 5 shows a synthesis parameter generation flow.
[0040]
In S501, two images to be used for the synthesis parameter setting are set. In S502, the corresponding points are extracted in the overlapping area between the two set images. For extracting the corresponding points, a known technique such as a template matching method or a cross-correlation method may be used.
[0041]
In order to improve processing efficiency, it is also effective to perform a hierarchical corresponding point extraction process by a known coarse-to-fine.
[0042]
  S503In, a coordinate space conversion parameter between images is calculated based on the extracted corresponding point information. An outline of coordinate space conversion parameter calculation will be shown using FIG. 6 as an example.
[0043]
  FIG. 6 shows an XZ cross section of Y = 0 in the pan photographing in FIG. Reference numerals 601 and 602 denote sensor surfaces corresponding to adjacent captured images. If the origin of the XYZ coordinates corresponding to the sensor surface 601 is O and the origin of the X′Y′Z ′ coordinates corresponding to the sensor surface 602 is O ′, the coordinate space conversion parameters are the coordinate system XYZ and the coordinate system X′Y′Z. It represents the relationship of '. S502Assuming that the corresponding points obtained by the corresponding point extraction process are point P and point P ′, the relationship between the two points is determined by the rotation parameter R and the translation parameter T in FIG.
P ′ = R · P + T (1)
It becomes. Here, R is a rotation matrix obtained by rotation components (θ, φ, ψ) around each axis, and is expressed as follows.
[0044]
[Outside 1]
Figure 0004346742
[0045]
A composite matrix M of the rotation matrix R and the translation matrix T is expressed as follows.
[0046]
[Outside 2]
Figure 0004346742
[0047]
The composite matrix M can be calculated using a nonlinear least square method or the like based on a plurality of pieces of corresponding point information obtained by the corresponding point extraction process. Other known techniques may be used as the parameter calculation method.
[0048]
Thus, by calculating the relationship between the coordinate system XYZ and the coordinate system X′Y′Z ′, for example, where is the point on the X′Y′Z ′ coordinate corresponding to P (x, y, z) It becomes a clue to know easily.
[0049]
Although a specific example will be described later, obtaining the synthesis matrix M as the coordinate space conversion parameter indicates the correspondence of each point between images, in other words, from two-dimensional image information arbitrarily input, It expresses the spatial positional relationship when shooting.
[0050]
Therefore, an appropriate composite image can be obtained by mapping these images onto an appropriate common plane.
[0051]
In S504, a correction parameter for matching the gradation between adjacent images is generated. The correction parameter generation method is adapted from the technique disclosed in Japanese Patent Laid-Open No. 09-321972.
[0052]
  In S505, the generated coordinatesspaceA joint position between adjacent images is set using a conversion parameter or a gradation correction parameter. The joint position is set using a difference or correlation value between pixels resampled based on the coordinate space conversion parameter.
[0053]
In step S506, it is determined whether all parameter generation between adjacent images has been completed. If not, the next two images to be combined are set again in step S501, and the combining operation is continued.
[0054]
If completed, a reference position for combining all images is set in S507.
[0055]
In S508, the already obtained coordinate space conversion parameter is converted based on the set reference position.
[0056]
Through the above processing, a synthesis parameter is generated at 704 in FIG. 1 and held in the memory 702.
[0057]
When the synthesis parameter is generated, a panorama composite image is generated by the mapping method selected by the image conversion unit 705. An outline of processing in the image conversion unit 705 will be described with reference to FIG.
[0058]
  FIG. 7 shows a case where a composite image is generated by cylindrical mapping conversion. In FIG. 7A, reference numeral 710 denotes a panoramic composite image by a cylindrical mapping. Here, an outline of the process in the image conversion unit 705 is shown by the process of generating the pixel Ik on 710. FIG. 7B schematically shows a relationship between the sensor surfaces 712 and 713 at each photographing position, and 711 shows the composite image 710 by a Y = Yk cross section. For the sake of simplicity, the translation component T described above is used.NoIt has become a figure.
[0059]
In FIG. 7B, when the point Ik (φk, Yk) on the surface 711 is coordinate-converted as a point P (x, y, z) of the XYZ coordinates, it can be expressed by the following equation.
[0060]
x = f · sin (φk)
y = Yk               -(4)
z = f · cos (φk)
[0061]
  If the point P is represented by a point P ′ (x ′, y ′, z ′) in the X′Y′Z ′ coordinate system, the conversion between the point P and the point P ′ is generated by the synthesis parameter generation unit 704. formula(3) Coordinate space conversion parametersIs a composite matrixM may be used and can be expressed by the following equation.
[0062]
[Outside 3]
Figure 0004346742
[0063]
Next, a coordinate P ″ on the sensor surface 713 corresponding to the point P ′ is obtained by the following equation.
[0064]
[Outside 4]
Figure 0004346742
[0065]
By referring to the pixel at the coordinate (x ″, y ″) on the sensor surface 713 (z ″ = f), the value of the pixel Ik on the composite image 710 can be obtained from the above equation (6).
[0066]
By performing the above processing on each pixel of the composite image 710, a composite image subjected to cylindrical mapping conversion can be generated.
[0067]
The synthesized image is held in the memory 702 and displayed on the display unit 708. Further, it is recorded on the recording medium 706 as necessary.
[0068]
In the following, the change of the mapping method and the conversion process at this time will be described.
[0069]
In the operation unit 707, when the user selects an arbitrary mapping method and gives an instruction to change the mapping method, the MPU sets a coordinate conversion process corresponding to the selected mapping method, and the image is displayed in 705 by the same process as described above. Perform the conversion process.
[0070]
When the mapping method is changed, the coordinate conversion process using the above-described equation (4) is replaced with one corresponding to the selected new mapping method.
[0071]
For example, when it is changed to a planar mapping, each pixel of the composite image matches the coordinates of the sensor surface, so the coordinate conversion equation of the equation (4) corresponding to the pixel Ik (Xk, Yk) to be generated is as follows.
[0072]
x = Xk
y = Yk      -(7)
z = f
[0073]
In the case of a spherical mapping, sampling is performed so that the horizontal and vertical directions have an equiangular pitch, so the coordinate transformation corresponding to the pixel Ik (Φk, θk) is given by
[0074]
x = f · cos (θk) Sin (φk)
y = f · cos (θk-(8)
z = f · cos (θk) Cos (φk)
[0075]
  Therefore, a coordinate space conversion parameter representing the relationship between imagesIs a composite matrixM is the same in any mapping method, and can be arbitrarily set by switching the coordinate conversion formulas (4), (7) and (8) according to the type of mapping selected. It is possible to obtain a composite image by mapping.
[0076]
Conventionally, every time the mapping method is changed, the coordinates of the corresponding points are substituted into the calculation formula based on the mapping method, and the composite parameter generation process is executed. Based on this, the coordinates of all pixels are converted. It was.
[0077]
On the other hand, in the panoramic image synthesis method of the present embodiment, first, the correspondence of each point between images is obtained as a coordinate space conversion parameter, and then the coordinate conversion processing is simply switched according to the mapping method. The synthesis process is completed. Therefore, at the time of switching the mapping method, it is only necessary to perform mapping conversion on the input image itself using the coordinate space conversion parameter already calculated and the coordinate conversion processing stored corresponding to each mapping method. Therefore, it is possible to obtain a synthesized image by various mapping methods very efficiently. In particular, the processing time when changing the mapping method can be greatly reduced. At the same time, since a conversion process is not performed on the synthesized image, a synthesized image with good image quality can be obtained.
[0078]
(Second embodiment)
The panoramic image synthesis process of the second embodiment has the following characteristics.
1) The reference position can be arbitrarily changed by the user, and the composite image is converted by the changed reference position.
2) The joint can be corrected.
3) It is possible to return to the previous synthesis result.
[0079]
The operation of the panoramic image synthesis method and apparatus having the above features will be described below. The overall configuration is the same as in FIG. Further, the process until a composite image is generated by a preset mapping method and displayed on the display unit is the same as that in the first embodiment, and thus the description thereof is omitted.
[0080]
The outline of the change of the reference position according to the present embodiment is shown in FIGS. FIG. 8A shows a case where the synthesis result is displayed by a planar mapping. The composite image 801 in FIG. 8 is a composite of images taken while tilting the building in the vertical direction. The upper part of the composite image is reduced to a trapezoidal shape. Reference numeral 802 denotes a reference position.
[0081]
FIG. 8B shows the relationship between the subject and the sensor surface at the time of shooting. Reference numeral 803 denotes a building of the subject, reference numerals 804 to 806 denote sensor surfaces in various states taken while tilting, reference numeral 807 denotes a projection plane representing a composite image, and reference numeral 808 denotes a reference position of the composite image.
[0082]
To change the reference position, the reference position 802 in FIG. 8A is moved by the operation unit 707 in FIG. 1 with a mouse or the like. For the movement of the reference position, the coordinates of the movement destination can be designated with the keyboard, or may be moved with an arrow key or the like.
[0083]
The changed position is sent to the MPU 703. The MPU 703 outputs the movement information to the image conversion unit 705. The image conversion unit 705 generates a correction matrix M ′ for correcting the composite image based on the movement information.
[0084]
  In the image converter, the coordinate space conversion parameters for all imagesIs a composite matrixM by M ’
M2 = M · M ′ (9)
To generate a matrix M2 for composite conversion.
[0085]
Thereafter, a composite image is generated using the selected mapping method in the same manner as in the first embodiment, stored in the memory 702, and displayed on the display unit 708.
[0086]
FIG. 9A shows the result of moving the reference position and converting the composite image. Reference numeral 901 denotes a composite image, and reference numeral 902 denotes a current reference position.
[0087]
FIG. 9B shows the relationship between the subject and the sensor surface.
[0088]
The reference position is moved to 908, and a composite image is generated using the projection plane 907 of the composite image set based on the reference position.
[0089]
Since the projection plane 907 is parallel to the side surface 909 of the subject, a composite image 901 without distortion can be obtained.
[0090]
Conventionally, it is possible to arbitrarily set a reference plane corresponding to the projection planes 807 and 907 and form a composite image in this plane. However, even in this case, the composite parameter is changed along with the change of the reference plane. It was necessary to redo the calculation from the beginning and it was not easy to use.
[0091]
However, in this application, since the coordinate space change parameter corresponding to the reference position is simply applied to the already calculated coordinate space conversion parameter, the usability is greatly improved. Then, it becomes possible to set the reference position for generating the composite image to a position intended by the user, and it is possible to flexibly cope with geometric correction such as tilt correction.
[0092]
Next, the joint correction process will be described. FIG. 10A shows images 101 and 102 that are captured so that parts of the images overlap. FIG. 10B is a composite image obtained by combining the image 101 and the image 102. In the composite image 103, a dotted line represents the joint position.
[0093]
In the composite image 103, there is a shift in the image near the joint. When the above-described shift occurs in the composite image, the panoramic image composition method and apparatus according to the present embodiment can cope with the correction processing shown in FIGS. 11 (a) and 11 (b).
[0094]
In FIG. 11A, the two images 101 and 102 imaged by the operation unit 707 in FIG. 1 are moved and aligned so that the overlapping portions of the two images are substantially matched. The aligned information is provided to the MPU 703, and the MPU 703 provides the alignment information to the synthesis parameter generation unit 704, thereby using it as information for corresponding point extraction processing in the synthesis parameter generation unit.
[0095]
In the synthesis parameter generation unit, corresponding points can be extracted from a state where a certain degree of alignment has been performed in advance, so that it is possible to improve extraction accuracy and reliability.
[0096]
In FIG. 11B, the points on the subject of the captured images 101 and 102 are directly set as corresponding points by the operation unit 707 in FIG. In FIG. 11B, point 112A-point 112B and point 113A-point 113B are set as corresponding point pairs.
[0097]
The MPU 703 acquires the information on the corresponding point pair and provides it to the synthesis parameter generation unit 704.
[0098]
In the synthesis parameter generation unit 704, the coordinate space conversion parameter can be estimated using the acquired information of the corresponding point pair. In addition, since the acquired corresponding point pair is manually aligned, template matching or cross-correlation processing is executed only in the vicinity of the corresponding point pair to improve the accuracy of the corresponding point pair and to estimate the coordinate transformation parameters. It may be used.
[0099]
FIG. 11C shows a composite image 114 after correction. Compared with the image 103, the alignment of the joints is smooth. This correction process can be repeatedly executed until a result desired by the user is obtained.
[0100]
There is no problem when the resultant composite image is improved as a result of the above-described mapping method change processing and joint correction processing, but in some cases, the result before correction may be preferable. In order to deal with such a case, in the panoramic image synthesis method according to the present embodiment, each time a composite image is generated, the memory 702 stores the composite parameters and the image information of the composite result until all the composite processing is completed. Hold on.
[0101]
For example, with the synthesis result 103 shown in FIG. 10B as the first synthesis result, the synthesis counter is set to Cs1 = 1 and Cs2 = 1, and various synthesis parameters and synthesized images correspond to the synthesis counter Cs1 = 1 and Cs2 = 1. At the specified memory location. Here, Cs1 is a counter that increases by 1 each time the change / correction process is repeated. Cs2 returns to the previous state from the current state, and then a new change / correction process is performed. It is a counter that increases by one when it is broken.
[0102]
Next, when the composite image 114 is obtained by the change / correction process, the composite counter is set to Cs1 = 2 and Cs2 = 1, and the composite parameter and the composite image are stored in the memory locations corresponding to the composite counter Cs1 = 2 and Cs2 = 1. Hold on.
[0103]
  Furthermore, by change / correction processingAs shown in FIG.When the composite image 120 is obtained, the composite counter is set to Cs1 = 3 and Cs2 = 1, and the composite parameter and the composite image are held in memory locations corresponding to the composite counter Cs1 = 3 and Cs2 = 1.
[0104]
Here, when the user performs a “return” operation using the operation unit 707, Cs1 is decremented by 1 from the current position and Cv1 = 2 is set, and synthesis parameters and synthesis results corresponding to synthesis counters Cs1 = 2 and Cs2 = 1. The image is read from the memory 702, the composite image is displayed on the display unit 708, and the read parameter is replaced with the current parameter.
[0105]
At this time, the composite image 131 of FIG. 13 is displayed. When the change / correction processing is performed, the Cs counter is advanced by one, the synthesis counter is set to Cs1 = 2 and Cs2 = 2, and the synthesis parameters and the synthesized image are synthesized counters Cs1 = 2 and Cs2 = 2. Is held at the memory location corresponding to. In this state, the composite image 133 in FIG. 13 is displayed.
[0106]
When further correction is made, the composite image 134 is displayed, and the composite counter becomes Cs1 = 2 and Cs2 = 3.
[0107]
By executing the above processing in the MPU 703 and the memory 702, all the images generated by the change / modification are stored in the memory, so that the user can easily change to the state of any composite image generated so far. It is possible to migrate.
[0108]
In the operation unit 707, the “return” direction is designated by the left arrow (←) and the right arrow (→).
[0109]
However, it goes without saying that other known methods can be used as the direction designation method.
[0110]
For example, by inputting the values of the counters Cs1 and Cs2, it is possible to shift to any composite image generated so far.
[0111]
Furthermore, in the above case, the composite parameter and composite image are held, but if the composite image is large or large, there is a possibility that the memory capacity will be compressed. It is also effective to use a method of generating sequentially using synthesis parameters.
[0112]
According to the panoramic image synthesizing method and apparatus of the present embodiment, it is possible to flexibly correct the tilt and the like of the synthesized image, and it is possible to efficiently perform the correction work.
[0113]
The above embodiment can be applied to a system composed of a plurality of devices (for example, a host computer, an interface device, a reader, a printer, etc.) or to an apparatus composed of a single device (for example, a copier, a facsimile machine). May be.
[0114]
In addition, a software program code for realizing the functions of the embodiment is provided in a computer in an apparatus or a system connected to the various devices so as to operate the various devices so as to realize the functions of the above-described embodiments. What is implemented by operating the various devices in accordance with a program stored in the computer (CPU or MPU) of the system or apparatus supplied is also included in the scope of the present invention.
[0115]
In this case, the software program code itself realizes the functions of the above-described embodiments, and the program code itself and means for supplying the program code to the computer, for example, the program code are stored. The storage medium constitutes the present invention.
[0116]
As a storage medium for storing the program code, for example, a floppy disk, a hard disk, an optical disk, a magneto-optical disk, a CD-ROM, a magnetic tape, a nonvolatile memory card, a ROM, or the like can be used.
[0117]
The computer not only realizes the functions of the above-described embodiments by executing the supplied program code, but also the OS (operating system) or other application in which the program code is running on the computer. It goes without saying that such program code is also included in the embodiment of the present invention even when the functions of the above-described embodiment are realized in cooperation with software or the like.
[0118]
Further, after the supplied program code is stored in the memory provided in the function expansion board of the computer or the function expansion unit connected to the computer, the CPU provided in the function expansion board or function storage unit based on the instruction of the program code However, it is needless to say that the present invention also includes a case where the function of the above-described embodiment is realized by performing part or all of the actual processing.
[0119]
【The invention's effect】
  As described above, according to the invention according to the present application, at the time of switching the mapping method, the coordinate space conversion parameter already calculated and the coordinate conversion processing stored corresponding to each mapping method are used, and the input image is used. It is only necessary to perform mapping conversion on itself, that is, it is not necessary to calculate a new parameter, so that it is possible to obtain composite images by various mapping methods very efficiently. In particular, the processing time when changing the mapping method can be greatly reduced. At the same time, since a conversion process is not performed on the synthesized image, a synthesized image with good image quality can be obtained.
[Brief description of the drawings]
FIG. 1 is a block diagram of panoramic image synthesis processing.
FIG. 2 is a schematic diagram of panoramic shooting.
FIG. 3 is a schematic diagram of map conversion.
FIG. 4 is a diagram illustrating a mapping method.
FIG. 5 is a flowchart of a synthesis parameter generation process.
FIG. 6 is a schematic diagram of a composite conversion process.
FIG. 7 is an explanatory diagram of image composition.
FIG. 8 is a schematic diagram of image conversion.
FIG. 9 is a schematic diagram of image conversion.
FIG. 10 is a schematic diagram of a captured image.
FIG. 11 is a schematic diagram of correction processing.
FIG. 12 is a schematic diagram of a composite image.
FIG. 13 is a schematic diagram of a processing sequence.
[Explanation of symbols]
701 Image input unit
702 memory
703 MPU
704 Synthesis parameter generator
705 Image composition conversion unit
706 Recording medium
707 operation unit
708 display

Claims (6)

少なくとも2つの画像間には重複領域が存在する複数の画像を入力する画像入力手段と、
前記複数の画像のうち隣接する画像同士の位置関係から得られる座標空間変換パラメータを生成するパラメータ生成手段と、
前記座標空間変換パラメータをメモリに保持する保持手段と、
ユーザの操作に応答して、写像方式を複数の写像方式の中で切り替える切り替え手段と、
前記切り替えられた写像方式に対応して、前記複数の画像を合成する際に用いられる座標変換式を変更する変更手段と、
前記メモリに予め保持された座標空間変換パラメータと前記変更された座標変換式とを用いて前記複数の画像を合成する画像合成手段とを備えた事を特徴とする画像合成装置。
Image input means for inputting a plurality of images in which an overlapping region exists between at least two images;
Parameter generating means for generating a coordinate space conversion parameter obtained from a positional relationship between adjacent images among the plurality of images;
Holding means for holding the coordinate space conversion parameter in a memory;
Switching means for switching the mapping method among a plurality of mapping methods in response to a user operation;
Corresponding to the switched mapping method, changing means for changing a coordinate conversion formula used when combining the plurality of images,
An image synthesizing apparatus comprising: an image synthesizing unit that synthesizes the plurality of images using a coordinate space transformation parameter held in advance in the memory and the changed coordinate transformation equation.
前記パラメータ生成手段は前記複数の画像を合成する際の基準位置を任意に設定する設定手段を備え、前記基準位置に応じて、前記座標空間変換パラメータを生成することを特徴とする請求項1に記載の画像合成装置。2. The parameter generation unit includes a setting unit that arbitrarily sets a reference position for combining the plurality of images, and generates the coordinate space conversion parameter according to the reference position. The image composition apparatus described. 前記パラメータ生成手段は、前記隣接する画像同士の階調を一致させる階調補正パラメータもさらに生成することを特徴とする請求項1または2に記載の画像合成装置。  The image synthesizing apparatus according to claim 1, wherein the parameter generation unit further generates a gradation correction parameter for matching the gradations of the adjacent images. 前記座標空間変換パラメータを用いて前記隣接する画像同士のつなぎ目位置を設定するつなぎ目位置設定手段をさらに備えたことを特徴とする請求項1乃至3のいずれか一項に記載の画像合成装置。  The image synthesizing apparatus according to any one of claims 1 to 3, further comprising a joint position setting unit that sets a joint position between the adjacent images using the coordinate space conversion parameter. 少なくとも2つの画像間には重複領域が存在する複数の画像を入力する画像入力工程と、
前記複数の画像のうち隣接する画像同士の位置関係から得られる座標空間変換パラメータを生成するパラメータ生成工程と、
前記座標空間変換パラメータをメモリに保持する保持工程と、
ユーザの操作に応答して、写像方式を複数の写像方式の中で切り替える切り替え工程と、
前記切り替えられた写像方式に対応して、前記複数の画像を合成する際に用いられる座標変換式を変更する変更工程と、
前記メモリに予め保持された座標空間変換パラメータと前記変更された座標変換式とを用いて前記複数の画像を合成する画像合成工程とを備えた事を特徴とする画像合成方法。
An image input step of inputting a plurality of images in which an overlap region exists between at least two images;
A parameter generation step of generating a coordinate space conversion parameter obtained from a positional relationship between adjacent images among the plurality of images;
A holding step of holding the coordinate space conversion parameter in a memory;
A switching step of switching a mapping method among a plurality of mapping methods in response to a user operation;
Corresponding to the switched mapping method, a change step of changing a coordinate conversion formula used when combining the plurality of images,
An image synthesizing method comprising: an image synthesizing step of synthesizing the plurality of images using a coordinate space transformation parameter held in advance in the memory and the changed coordinate transformation equation.
少なくとも2つの画像間には重複領域が存在する複数の画像を入力する画像入力工程と、
前記複数の画像のうち隣接する画像同士の位置関係から得られる座標空間変換パラメータを生成するパラメータ生成工程と、
前記座標空間変換パラメータをメモリに保持する保持工程と、
ユーザの操作に応答して、写像方式を複数の写像方式の中で切り替える切り替え工程と、
前記切り替えられた写像方式に対応して、前記複数の画像を合成する際に用いられる座標変換式を変更する変更工程と、
前記メモリに予め保持された座標空間変換パラメータと前記変更された座標変換式とを用いて前記複数の画像を合成する画像合成工程とを備えた事を特徴とする画像合成方法をコンピュータに実行させるためのプログラムをコンピュータ読出し可能に記憶した記憶媒体。
An image input step of inputting a plurality of images in which an overlap region exists between at least two images;
A parameter generation step of generating a coordinate space conversion parameter obtained from a positional relationship between adjacent images among the plurality of images;
A holding step of holding the coordinate space conversion parameter in a memory;
A switching step of switching a mapping method among a plurality of mapping methods in response to a user operation;
Corresponding to the switched mapping method, a change step of changing a coordinate conversion formula used when combining the plurality of images,
An image synthesizing method comprising: an image synthesizing step of synthesizing the plurality of images using a coordinate space transformation parameter stored in advance in the memory and the changed coordinate transformation equation. A storage medium storing a program for reading in a computer-readable manner.
JP23047699A 1999-07-30 1999-08-17 Image composition method, image composition apparatus, and storage medium Expired - Fee Related JP4346742B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP23047699A JP4346742B2 (en) 1999-08-17 1999-08-17 Image composition method, image composition apparatus, and storage medium
US09/624,385 US7098914B1 (en) 1999-07-30 2000-07-27 Image synthesis method, image synthesis apparatus, and storage medium
US11/474,999 US8379054B2 (en) 1999-07-30 2006-06-27 Image synthesis method, image synthesis apparatus, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP23047699A JP4346742B2 (en) 1999-08-17 1999-08-17 Image composition method, image composition apparatus, and storage medium

Publications (3)

Publication Number Publication Date
JP2001052152A JP2001052152A (en) 2001-02-23
JP2001052152A5 JP2001052152A5 (en) 2006-10-05
JP4346742B2 true JP4346742B2 (en) 2009-10-21

Family

ID=16908418

Family Applications (1)

Application Number Title Priority Date Filing Date
JP23047699A Expired - Fee Related JP4346742B2 (en) 1999-07-30 1999-08-17 Image composition method, image composition apparatus, and storage medium

Country Status (1)

Country Link
JP (1) JP4346742B2 (en)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4355535B2 (en) * 2003-08-07 2009-11-04 株式会社岩根研究所 360 degree image conversion processing device
JP2005202593A (en) * 2004-01-14 2005-07-28 Seiko Epson Corp Image processing device, program and method
TWI393072B (en) 2008-07-23 2013-04-11 Pixart Imaging Inc Multi-sensor array module with wide viewing angle; image calibration method, operating method and application for the same
JP5163960B2 (en) * 2009-03-04 2013-03-13 カシオ計算機株式会社 Tape printing apparatus, method for creating a composite label in which an image and a document are combined, and a storage medium storing a composite label creation program
KR101081934B1 (en) 2010-02-25 2011-11-09 성균관대학교산학협력단 Image generation apparatus and panoramic image generation method thereof
JP2013101525A (en) * 2011-11-09 2013-05-23 Sony Corp Image processing device, method, and program
JP6450589B2 (en) * 2014-12-26 2019-01-09 株式会社モルフォ Image generating apparatus, electronic device, image generating method, and program
JP5846549B1 (en) 2015-02-06 2016-01-20 株式会社リコー Image processing system, image processing method, program, imaging system, image generation apparatus, image generation method and program
JP2018081570A (en) * 2016-11-17 2018-05-24 株式会社Nttファシリティーズ Information visualization system, information visualization method, and program
CN109242772B (en) * 2018-08-23 2023-01-31 上海圭目机器人有限公司 Airport pavement surface image splicing method based on intelligent platform area-array camera acquisition

Also Published As

Publication number Publication date
JP2001052152A (en) 2001-02-23

Similar Documents

Publication Publication Date Title
US8379054B2 (en) Image synthesis method, image synthesis apparatus, and storage medium
JP4363151B2 (en) Imaging apparatus, image processing method thereof, and program
US7317558B2 (en) System and method for image processing of multiple images
JP4010754B2 (en) Image processing apparatus, image processing method, and computer-readable recording medium
JP4196216B2 (en) Image composition system, image composition method and program
JP2004334843A (en) Method of composting image from two or more images
JP4975679B2 (en) Notebook information processing apparatus and projective transformation parameter calculation method
JP4346742B2 (en) Image composition method, image composition apparatus, and storage medium
JPH1049704A (en) Image conversion method
JPWO2020194470A1 (en) Image generator, image generator, and image generator
JPH10126665A (en) Image composing device
JP3109580B2 (en) IMAGE INPUT DEVICE AND COMPUTER-READABLE RECORDING MEDIUM RECORDING IMAGE PROCESSING PROGRAM FOR IMAGE INPUT DEVICE
JP4174122B2 (en) Image processing method, apparatus, and recording medium
JP4363154B2 (en) Imaging apparatus, image processing method thereof, and program
JP2001052152A5 (en)
JP4007524B2 (en) Image composition method and apparatus, and information recording medium
JP4363153B2 (en) Imaging apparatus, image processing method thereof, and program
JP2005182098A (en) Device and method for generating and displaying composite image
JP4458720B2 (en) Image input apparatus and program
JP2004258794A (en) Method, device, and computer program for editing three-dimensional model
JP2020161107A (en) Image generation device, image generation method, and image generation program
JP4401484B2 (en) Image composition apparatus, control method therefor, and storage medium
JP4154023B2 (en) Image composition method, image composition apparatus, image composition system, and storage medium
JP5687370B2 (en) Image processing apparatus, image processing method, image processing program, and recording medium
JP4591343B2 (en) Image processing apparatus, imaging apparatus, image processing method, and program

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060810

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060810

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20081205

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090106

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090223

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090428

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090515

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090714

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090715

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120724

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120724

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130724

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees