JP4136044B2 - Image processing apparatus and image processing method therefor - Google Patents
Image processing apparatus and image processing method therefor Download PDFInfo
- Publication number
- JP4136044B2 JP4136044B2 JP35519997A JP35519997A JP4136044B2 JP 4136044 B2 JP4136044 B2 JP 4136044B2 JP 35519997 A JP35519997 A JP 35519997A JP 35519997 A JP35519997 A JP 35519997A JP 4136044 B2 JP4136044 B2 JP 4136044B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- divided
- position information
- images
- image processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Image Input (AREA)
- Image Processing (AREA)
- Studio Circuits (AREA)
- Image Analysis (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は、同一の被写体を異なる撮影条件で撮影した複数の画像から入力機器のダイナミックレンジや被写界深度を超えた画像を合成処理に係り、特に各画像を重ね合わせた際に被写体が一致するように位置合わせ補正を行う画像処理装置及びその画像処理方法に関する。
【0002】
【従来の技術】
一般に、同一の被写体を異なる露出で撮影した複数の画像を合成することで、CCD(Charge Coupled Device )等の撮像素子の固有のダイナミックレンジ以上の範囲のダイナミックレンジを有する画像を作成する画像処理技術(例えば、特開昭63−232591号公報)や、同一の被写体を異なる焦点位置で撮影した複数の画像を合成し、入力光学系の被写界深度よりも深い被写界深度を有する画像を作成する画像処理技術(特開平1−309478号公報)がある。
【0003】
この広ダイナミックレンジ画像を作成する技術は、図12(a)に示す構成で実現される。
図示される画像 A,Bは、それぞれ露出を変えて撮影した画像であり、撮像素子に入射する入射光量と、画像入力機器で得られる画像の信号値との関係は、図12(b)の“[A]長時間露出”、“[B]短時間露出”のようになる。
【0004】
加算器11では画像A,Bの画素値が加算され、図12(b)に“[C]加算信号”として示す値がフレームメモリ12に記憶される。
この“[C]加算信号”の形状は、2枚の画像の露出比で決定されている。線形変換部13では、加算信号値Sから入射光量Iを推定し、マトリクス回路15ではR,B,G各色の信号値から輝度信号値Yに変換する。
【0005】
そして輝度圧縮部16では、推定入射光量が既定の階調数に収まるように輝度値を圧縮し、圧縮された輝度信号値Y’が出力される。除算器17では、Y’/Yが計算され、線形変換部16の出力であるR,G,Bそれぞれの信号と乗算器18で掛け合わせられ、結果がフレームメモリ19に格納される。
【0006】
この画像処理技術は、複数の画像データを利用しているため、単に短時間露出画像をトーンカーブ処理した場合に比べて、色再現が良好でノイズの少ない画像を得ることができる。
【0007】
また、前述した入力光学系の被写界深度よりも深い被写界深度を有する画像を作成する画像処理技術は、例えば図13に示す構成で実現される。
まず、焦点位置を変えて撮影された画像は、加算器21で重み付け加算され、フレームメモリ22に記憶される。焦点位置を変えた画像を焦点位置に応じて重み付け加算すると、画像全体のボケが均一化されることが知られている。
【0008】
そこで、回復フィルタ設定回路25では、加算後の画像におけるボケの回復フィルタを決定し、マトリクス演算回路23に出力する。ここで、ボケ回復フィルタの作成方法は、本発明の本質に関わる部分ではないため省略する。マトリクス演算回路23では、加算画像に回復フィルタを作用させ、結果をフレームメモリ24に格納する。
この結果、フレームメモリ24に格納された画像は、撮像光学系より被写界深度の深い画像となっている。
【0009】
【発明が解決しようとする課題】
前述した画像処理技術は、撮影した画像を一旦、画素ごとに加算または重み付け加算したのち、ダイナミックレンジ圧縮処理や回復処理といった一連の処理を行うものであった。そのため、加算の対象となる画像がお互いに位置ずれを起こしていると、加算したときにずれてしまい、正確な結果が得られなかった。
【0010】
そのため、ダイナミックレンジ拡大処理の場合は、非破壊読み出しが可能なため、原理的に複数の露出で画像を撮影する間に位置ずれを起こすことの無いCMD(Charge Modurated Device )素子を使った機器を利用する、また被写界深度拡大処理では、強固なステージが必要といったように、業務用の高価な装置が必要とされた。また、焦点位置を変えて撮影する場合は、焦点位置毎の微妙な倍率の変化も影響する。
【0011】
それに対し、一般ユーザーが利用するようなデジタルカメラ、スキャナ、三脚などでは、業務用機器に比べて、精度は期待できない簡易的なものが大半を占めている。従って、前述した画像処理技術の利点を十分に生かすことができなかった。
【0012】
例えば、三脚にデジタルカメラを載せて撮影する場合、シャッタを押すときにカメラが動いてしまったり、銀塩カメラで撮影した画像をフィルムスキャナで取り込む場合、フィルムの挿入の仕方により、互いにずれてしまうなどである。
【0013】
そこで本発明は、ほぼ同一の構図で露出や焦点位置など撮影条件が異なる複数の画像間の位置関係を検出し、検出した位置関係を示すパラメータの値によって、正確に画像が重なるように補正する画像処理装置及びその画像処理方法を提供することを目的とする。
【0014】
【課題を解決するための手段】
本発明は上記目的を達成するために、ほぼ同一の構図を異なる撮影条件で撮影した複数の画像間の位置合わせ処理を行う画像処理装置であって、入力した画像の少なくとも1つの画像を複数の分割領域に分割し、前記各分割領域内に画像の特徴を表す特徴点の探索領域を設ける探索領域設定手段と、前記各特徴点の探索領域から前記画像の特微量に基づいて、前記画像内を移動する物体が検出された分割領域の座標に関連する位置情報を除外した前記構図内の被写体の特徴的な位置情報を、前記分割画像の各分割領域に対する座標に関連させて抽出する位置情報抽出手段と、を備える画像処理装置を提供する。
さらに、ほぼ同一の構図を異なる撮影条件で撮影した複数の画像間の位置合わせ処理を行う画像処理方法であって、入力した画像の少なくとも1つの画像を複数の分割領域に分割し、前記各分割領域内に画像の特徴を表す特徴点の探索領域を設ける探索領域設定工程と、前記各特徴点の探索領域から前記画像の特徴量に基づいて、前記画像内を移動する物体が検出された分割領域の座標に関連する位置情報を除外した前記構図内の被写体の特徴的な位置情報を、前記分割画像の各分割領域に対する座標に関連させて抽出する位置情報抽出工程と、を備える画像処理方法を提供する。
【0015】
以上のような構成の画像処理装置は、入力された複数の画像のうち1枚が選択され、この画像が複数の領域に分割されて、その分割領域の特徴量から特徴点を設定し、その特徴点の座標位置を記憶する。その特徴点の座標に基づき、選択されなかった別の各入力画像に対して、対応する点を探索し、その対応点の座標位置を抽出して、特徴点の座標と対応点座標から画像間の位置関係(平行移動量、回転角度)を算出し、一方または両方の画像を補正して被写体が合致するように位置合わせ補正を行った後、ダイナミックレンジ圧縮処理や被写界深度拡大処理等を施す。
【0016】
【発明の実施の形態】
以下、図面を参照して本発明の実施形態について詳細に説明する。
図1には、本発明による第1の実施形態としての画像処理装置の構成例を示し説明する。
【0017】
本実施形態において、図示しないデジタルカメラで撮影された画像や銀塩カメラで撮影されスキャナ等で撮り込まれた画像はハードディスクや携帯可能なフロッピーディスク、メモリカード等の記憶媒体に記録されている。
【0018】
本実施形態は、大別すると、前記ハードディスクやフロッピーディスク、メモリカード等に記録されている画像を読み出し、伸長等の処理を施す画像データ再生部31と、画像データ再生部31からの入力画像に後述する方法によって補間演算を施し画像の被写体の位置関係を補正する画像補正部30と、前記画像補正部30により位置関係が補正された画像に対して、前述したダイナミックレンジ拡大や被写界深度拡大を実行する画像合成部39とで構成される。
【0019】
また前記画像補正部30は、画像データ再生部31で伸長処理が行われた画像データを一時的に記憶するフレームメモリ32と、選択された1つの画像に対して後述する複数の特徴点(座標)を設定する特徴点設定部33と、その特徴点座標を記憶する特徴点位置メモリ34と、特徴点座標及びテンプレートとして切り出された特徴点周辺の画像データから別の画像中において対応する点を探索する対応点探索部35と、得られた対応点座標位置を記憶する対応点位置メモリ36と、特徴点座標と対応点座標から2枚の画像間の位置関係(平行移動量、回転角度)を算出する補正パラメータ算出部37と、入力された位置関係から、一方または両方の画像を補正して画像合成部39に出力する補間演算部38とで構成される。
【0020】
このように構成された本実施形態の画像処理方法においては、前記ハードディスクやメモリカード等から読み出された画像が画像データ再生部31で伸長等の処理が施されて、画像補正部30のフレームメモリ32に記憶される。ここで、画像データ再生部31から出力されるデータは、画像の画素値だけではなく、画像サイズや色数やカラーマップ等の付加的なデータも含むものとする。
【0021】
次に入力画像のうち1枚が選択され(ここでは画像Aとする)、特徴点設定部33に入力される。
この特徴点設定部33では、後述する方法で複数の特徴点(座標)を設定し、特徴点座標が特徴点位置メモリ34に入力される。設定された特徴点座標が対応点探索部35にも入力され、同時に特徴点周辺の画像データがテンプレートとして切り出され、対応点探索部35に入力される。
【0022】
対応点探索部35では、特徴点設定部33に入力された画像とは別の画像中で(ここでは画像B)、入力されたテンプレートに対応する点を探索する。対応点を探索する方法は後述する。
【0023】
その結果、対応点座標位置が対応点位置メモリ36に出力される。補正パラメータ算出部37では、特徴点位置メモリ34の特徴点座標と、対応点位置メモリ36の対応点座標を読み出し、2枚の画像間の位置関係(平行移動量、回転角度)を算出する。そして補間演算部38では、入力された位置関係から、一方または両方の画像を補正して画像合成部39に出力する。
【0024】
この画像合成部39では、前述したダイナミックレンジ拡大処理や被写界深度拡大処理を実行するが、対象とする画像が前段の画像補正部30で位置あわせが行われた画像であるため、当然正確に重ね合わされた画像が結果画像として得られる。
【0025】
図2には、前記特徴点設定部33の構成を示し説明する。
この特徴点設定部33では、複数の特徴点位置を決定するが、画像の一部に多くの特徴点が集中した場合、それ以外の部分で位置あわせの誤差が大きくなる場合がある。そこで領域分割部41では、特徴点が画像中で適当に散らばるようにするため、画像を複数の領域に分割し、さらにその内部に特徴点探索領域を設定する。ここで、全体を均等に分割した例を図3(a)に示す。
【0026】
この領域中でテンプレートの候補となる小領域を移動させ、特徴量が最大となる位置を特徴点の1つとして出力する。ただし、全体を探索すると非常に処理時間がかかってしまうため、図3(a)のように分割した領域より小さな特徴点探索領域を設定することが望ましい。この特徴点探索領域の大きさは、例えば画像サイズの5%というように、画像サイズを基準にして予め決めておく。または、分割された小領域の大きさを基準としても構わない。
【0027】
次にテンプレート位置決定部42では、特徴点探索領域内のテンプレート候補位置を決定し、その位置に基づいてテンプレート抽出部43でテンプレート候補内の画像データを切り出す。このとき、テンプレート位置決定部42では、特徴探索領域内で、テンプレート候補の位置を順に移動する。
【0028】
位置的に近いテンプレート候補の特徴量変化は、あまり大きくない場合もあるので、このような場合はテンプレート候補の位置を1画素毎ずらすのではなく、数画素おきにずらすこともでき、結果的に計算量を削減することができる。
【0029】
特徴量算出部44では、テンプレート候補の特徴量を計算し、特徴量判定部45で特徴量が最大となるテンプレート位置を決定する。テンプレート抽出部46では、特徴量が最大となった位置周辺のデータを、テンプレートとして抽出する。このテンプレート抽出部46は、テンプレート抽出部43がその役割を兼ねても構わない。
この特徴量としては、例えば(1)式に示すような画素値分散を使うことができる。
【0030】
【数1】
ここで、aiは画素値、Aはテンプレート候補内の画素値平均であり、テンプレート候補内全体に対して和を取る。また、具体的な式は挙げないが、2次の画素値分散や、エッジ検出結果も特徴量として好ましい値である。このとき、前記値Tが次式、
【0031】
【数2】
のように、ある規定値Tthより小さい場合は、信頼性が低いとして採用しない。例えば、図3(b)における空の部分のように、画素値の変化が小さい部分では一般に後述するマッチングの精度が落ちるが、本発明の方法では(2)式のような値Tをもつ特徴点候補位置には特徴点が設定されず、位置関係パラメータの精度低下を防ぐことができる。
【0032】
図4は、対応点探索部35の構成を説明する図である。
サーチエリア設定部51では、特徴点設定部33から読み出した特徴点座標を基準に、対応点を探索する領域の位置と大きさを設定する。相関演算部52では、サーチエリア設定部51で設定されたサーチエリア内の情報に基づいて、特徴点設定部33から入力されたテンプレートと同じ大きさを持つように対応点候補位置周囲の画像データをフレームメモリ32b中の画像データから切り出し、特徴点設定部33から入力されたテンプレートデータとの相関値を計算する。
【0033】
相関値判定部53では、テンプレート抽出部46で抽出されたテンプレートと最も相関が高い位置を判定し、結果を対応点位置として対応点位置メモリ36に出力する。
【0034】
このとき、一般に対応点候補は、1画素毎に移動して相関値を求めるが、画素以下の精度で対応点位置を検出するために、周囲の相関値を参照して補間により対応点位置を決定しても良い。その相関値としては、次の(3)式に示す差分の絶対値和、(4)式に示す相互相関、(5)式に示す正規化相互相関等を使うことができる。
【0035】
【数3】
ここで、bi,Bは、画像Bのサーチエリア内で移動する小領域内の画素値とその平均であり、σA ,σB はテンプレートデータの標準偏差であり、σA 2 ,σB 2 がその分散値となる。
【0036】
前記(2)〜(4)式を計算する場合、ある代表色のみについて計算すれば、高速に処理することができる。
また、R,G,B各色の相関値を加算して対応点を探索すればより高精度に対応点検索を行うことが可能になる。
【0037】
そして補正パラメータ算出部37では、特徴点座標データ及び、対応点座標データから、画像A,B間の位置関係を決定する。求めるパラメータは(6)式の cosθ, sinθ,sx,sy,Mである。
【0038】
【数4】
ここで、(x,y)は特徴点位置、(X,Y)は対応点位置を示し、Mは画像間の相対的な倍率に相当する。
前記特徴点位置メモリ34、対応点位置メモリ36には、複数のデータが格納されているので、最小二乗的にパラメータを求めると、(7)式のようになる。
【0039】
【数5】
ここで、Nは特徴点数。(8)式より、M, cosθ, sinθは(9)式の様に決定される。
【0040】
【数6】
【0041】
また、本来 cosθ, sinθは、 cos2 θ+ sin2 θ=1の関係があるため、対象画像に倍率変化が無いと仮定できる場合、(9)式の結果で、M=1.0とし、(10)式のような関係になった場合、(11)式のように cosθ, sinθを補正したほうがよい。sx,syは補正した cosθ, sinθより計算する。
【0042】
【数7】
【0043】
前述した(6)〜(9)式は、任意の原点を画像の回転中心としたが、設定・探索された特徴点・対応点位置それぞれの重心は一致すると考えても構わない。特徴点の重心位置は( /x, /y)(ここで、/ は、平均を意味する記号として用いている。尚、各式のイメージ情報にあるように、各式中では、この平均はオーバーバーとして表している)、対応点の重心位置は( /X, /Y)、で与えられ、 cosθ, sinθ,sx,syはそれぞれ(12)、(13)式で与えられる。
【0044】
【数8】
【0045】
以上説明したように、本実施形態は、画像中から特徴点を複数抽出し、自動的に位置あわせを行うため、業務用の高価な器材を用いることなく、一般ユーザーでもダイナミックレンジ拡大処理、被写界深度拡大処理の効果を最大限利用することができる。但し、処理の対象画像に歪曲収差が生じている場合には、任意の手法であらかじめ補正しておくことが必要となる。
【0046】
次に、本発明による第2の実施形態について説明する。
本実施形態は、前述した第1の実施形態に比較して、特徴点設定部33の内部の構成が異なるものである。
【0047】
図5(a)は、特徴点設定部33の概念的な構成を示す図である。この構成は、図1に示した構成に比べて領域指定部81が加わっている点が異なる。
図5(b)は、領域指定部81の構成例を示す図である。この領域指定部81では、入力された画像データに対し、領域指示部83において、注目する領域を複数指示する。特徴点は、ここで指定された領域の内部に前述の方法で設定される。
【0048】
この表示制御部84では、指定された領域(後述する領域位置メモリ85からのデータ)を、例えば、図6(a),(b)のように入力画像データ上にオーバーレイし、表示部82に、そのデータを表示する。この表示部82は、PCに付属のディスプレイでも構わないし、別に専用のものを設けても構わない。また領域指示部83は、PCに付属のマウスで指示しても構わないし、別に設けても構わない。前記表示制御部84は、領域指定部81の構成の一部として説明したが、パーソナルコンピュータ等のオペレーティングシステム(OS)の機能を利用するような構成でも構わない。
【0049】
さらに、領域指示部83では、画像中の座標で注目領域を指定しても構わない。 そして領域位置メモリ部85は、領域指示部83で指示された領域の位置・サイズを記憶し、領域分割部41に出力する。領域分割部41では、領域位置メモリ部85からの領域位置情報をもとに、指示された領域内部に前記した方法で特徴点を設定する。
【0050】
本実施形態の構成により、ユーザーが注目したい部分の位置合わせ精度を上げことができると共に、あまり必要でない部分では特徴点探索を必要としないので、計算時間を短縮することができる。
【0051】
また、人間や乗り物など、動く被写体が撮影画像に含まれた場合、動いた部分の画像を計算に用いると画像全体の位置合わせに誤差が生じるが、本実施例形態の構成では、そのような部分のデータを利用しないようにできる。
【0052】
さらに、領域指示部83で指示した複数領域のうち特定の領域を指示し、その内部だけ他の領域より多く特徴点を設定することで、その特定領域の位置合わせ精度を更に向上することが可能である。
【0053】
また、ダイナミックレンジ拡大技術の場合は露出値の順に、被写界深度拡大技術の場合には焦点位置の順に画像を整列し、隣り合う画像間で上記の操作を実行することで、ランダムに画像を選択して実行する場合に比べて精度を向上することができる。
【0054】
図7は、本発明の第3の実施形態を示す図である。
図7に示した画像補正部30の構成は、図1に示した画像補正部30の構成に加えて、表示部82、表示制御部84、特徴点指示部90が含まれる。複数の特徴点位置は前述の方法で設定され、特徴点メモリ34に記憶される。
【0055】
この特徴点メモリ34に記憶された特徴点座標は特徴点指示部90に送られ、表示制御部84を通して表示部82に対象画像上にその位置がオーバーレイされる(例えば、図3(b))
このとき、特徴点が人間・乗り物等動く被写体(移動物体)上に設定されていると、(6)〜(10)式で計算する補正係数の誤差の原因となる。そこで、特徴点指示部90では、移動物体が含まれている場合は、その物体を検出し、移動物体上に設定された特徴点は計算に使うデータから除外し、特徴点メモリ34からデータを削除する。
【0056】
この操作は、表示されたデータをユーザーが判断し、特徴点指示部90から除外するデータを示するようにしてもよい。また、対応点探索後、特徴点メモリ34と対応点メモリ36のデータを同時に表示部82に表示し、対応が取れていないとユーザーが判断した場合は、特徴点指示部90により、そのデータを除外することを指示できる用にしても構わない。
【0057】
次に図8を参照して、本発明による第4の実施形態について説明する。この第4の実施形態は、図5の領域指定部81を図8に示すような構成に変更したものである。
【0058】
図8に示される領域指定部81は、領域指示部83、領域位置メモリ85、状態判定部101から構成される。
本実施形態では、画像の統計的・物理的な性質に基づいて特徴点設定領域に指定する範囲を決定する。
【0059】
まず、画像全体を図9(a)のように予め決められた大きさに分割する。このとき分割するサイズは、特徴点設定部で切り出されるテンプレートより大きい範囲とする。
【0060】
分割された各部分は状態判定部101に送られ、特徴点設定領域に指定するかどうかを判断する。状態判定部101では入力された画像データを走査し、飽和した画素が一定の割合を超えている場合は特徴点設定領域として適さないと判断する。
【0061】
また、状態判定部101では、入力データの平均値がある閾値を超えている場合は、特徴点設定領域として適さないと判断しても構わない。
領域指示部83は、図9(b)のように、分割した領域の画像データを順番に状態判定部101に出力し、特徴点設定領域として適していると判断された場合は、その範囲を含むように領域位置メモリ85に記録する。
【0062】
前述した説明では、各分割領域ごとに判断したが、状態判定部に出力する画像データとして、領域位置メモリ85に記録されている範囲全体にしても構わない。また、図9(c)に示したように、領域指示部83で、ユーザーがある分割領域を指定し、その周辺の領域から順番に特徴点指定領域に含んでいくようにしても良い。
【0063】
さらに、図10に示すように、領域指示部83で、ユーザーがある1点を指定し、その周りに拡張した矩形を仮定し、その画像データを状態判定部101で判断するようにしてもよい。
【0064】
また、飽和した画素値を判断基準に用いたが、状態判定部101では、入力した画像の離散フーリエ変換、離散コサイン変換といった直交変換を画像に施した時の高周波成分のパワーや、ウェーブレット変換の成分によって判断しても構わない。
【0065】
さらに、状態判定部101では、入力されたデータのコントラストや画素値最大と最小の差を判断に用いても構わない。
次に図11を参照して、本発明による第5の実施形態について説明する。
【0066】
本実施形態は、3枚以上の画像が処理対象になっている例である。ここで、図示するうち、前述した図1と同等の構成部位には、同じ参照符号を付してその説明を省略する。
【0067】
本実施形態において、画像データ再生部31で再生された画像データは、画像選択指示部114の指示により切換動作する画像切替部111によっていずれかのフレームメモリ32a,32bに入力される。この画像選択指示部114は、入力された同一被写体が撮影された複数の画像を順次処理できるように装置の処理時間等を見計らって、2つのフレームメモリに対して交互に入力されるように画像切換部111を制御するものである。
【0068】
前記フレームメモリ32a,32bに格納された画像から前述した方法で特徴点・対応点を検出し、補正パラメータ算出部37で画像間の位置関係(平行移動量・回転角度・相対倍率)を算出する。補正パラメータ算出部37で算出されたパラメーターは、画像ID、参照画像IDと共に補正パラメータ記憶部113に記憶される。
【0069】
前記補正パラメータ変換部112は、補正パラメータ記憶部113に記憶されたデータを読み出し、それぞれのデータを予め指定された補正の基準となる画像からみた平行移動量・回転角度に変換する。続いて、補間演算部38では、補正パラメータ変換部112で補正基準画像からみたパラメータに従って画像を補正する。
【0070】
ここで補正パラメータ変換部112でのデータ変換及び補間演算部38での補正は、画像切替部111の操作毎に行っても構わないし、対象画像全てについて相対的な位置関係を算出した後、改めてフレームメモリ32に画像を読み込んで行っても構わない。
【0071】
また、本実施形態ではフレームメモリ32を2つとし、信号切替部111により入力画像を切り替えるように説明したが、対象画像全てを格納できる数のフレームメモリを用意しても構わない。
【0072】
以上の実施形態について説明したが、本明細書には以下のような発明も含まれている。
(1) 撮影条件の異なる複数の画像において、
画像を複数の分割領域に分割し、前記分割領域中におのおのの分割領域と同じまたは小さい特徴点探索領域を設け、それぞれの特徴点探索領域から画像の統計量に基づいて被写体の特徴的な位置情報を抽出し、前記複数の画像のうち、被写体の特徴的な位置情報を抽出した画像とは異なる画像中で対応する点を探索し、前記特徴的な位置情報及び対応する点の位置情報より補正パラメータ(画像間の回転・移動・倍率変化等)を検出し、前記補正パラメータとしての画像間の回転・移動・倍率変化に基づいて画像を補正する画像処理装置。
【0073】
本発明は、第1の実施形態に対応する。
これにより、複数の画像を重ねる際に、より正確な画像の重ね合わせ行うことができるようになる。
(2) 前記(1)項に記載の画像処理装置において、
前記回転・移動・倍率変化に基づいて画像を補正する際に特定の基準画像から見た回転・移動・倍率変化を表わすようにパラメータを変換してから補正することを特徴とする。
【0074】
本発明は第5の実施形態に対応する。
これにより、複数の画像を重ねる際に、それぞれの画像に対して適当な任意の補正パラメータを設定でき、撮影者の意図に応じた、より正確な画像の重ね合わせを行うことができるようになる。
(3) 前記複数の分割領域について、
分割する領域を画像の一部に制限することを特徴とする1に記載の画像処理装置。
【0075】
本発明は、第2の実施形態に対応する。
これにより、複数の画像を重ねる際に、画像処理の速度が向上すると共に、それぞれの画像に対して適当な領域を設定でき、撮影者の意図に応じた、より正確な画像の重ね合わせを行うことができるようになる。
(4) 前記(1)項または(3)項に記載の画像処理装置において、
前記画像の統計量に基づく被写体の特徴的な位置情報のうち、複数の画像間で位置が移動している被写体上に設定された位置情報は画像間の回転・移動・倍率変化の検出に用いないことを特徴とする。
【0076】
本発明は、第3の実施形態に対応する。
これにより、複数の画像を重ねる際に、移動物体が存在する領域を排除しているので、より正確な画像の重ね合わせを行うことができるようになる。
(5) 前記(3)項に記載の画像処理装置において、
分割する領域を画像の一部に制限する制限領域は、直交変換したときの高周波成分の割合、飽和した画素の割合、画素値の平均値、最大及び最小の画素値の差、コントラストのいずれかの値を基準に制限されることを特徴とする。
【0077】
本発明は、第4の実施形態に対応する。
これにより、複数の画像を重ねる際に、画像処理の速度が向上すると共に、それぞれの画像に対して適当な領域を自動的に設定することができ、撮影者の意図に応じた、より正確な画像の重ね合わせを行うことができるようになる。
(6) 前記(5)項に記載の画像処理装置において、
特定点を中心に制限領域を広げていくことを特徴とする。
【0078】
本発明は第4の実施形態に対応する。
これにより、複数の画像を重ねる際に、特定点を中心に、それぞれの画像に対して適当な領域を設定するので、より正確な画像の重ね合わせを行うことができるようになる。
【0079】
【発明の効果】
以上詳述したように本発明によれば、ほぼ同一の構図で露出や焦点位置など撮影条件が異なる複数の画像間の位置関係を検出し、検出した位置関係を示すパラメータの値によって、正確に画像が重なるように補正する画像処理装置及びその画像処理方法を提供することができる。
【図面の簡単な説明】
【図1】第1の実施形態としての画像処理装置の構成例を示す図である。
【図2】図1に示した特徴点設定部の構成例を示す図である。
【図3】図3(a)は、画像を複数の分割した分割領域と、各分割領域に設定された特徴点探索領域を示す図、図3(b)は、特徴点について説明するための図である。
【図4】図1に示した対応点探索部の構成例を示す図である。
【図5】図5(a)は、第2の実施形態としての画像処理装置の構成例を示す図、図5(b)は、領域指定部の構成例を示す図である。
【図6】図6(a)は、画像上に表示された指定領域の一例を示す図、図6(b)は、画像上に表示された注目位置を示す図である。
【図7】第3の実施形態としての画像処理装置の構成例を示す図である。
【図8】第4実施形態としての画像処理装置に用いられる領域指定部の構成例を示す図である。
【図9】図9(a)は、複数の分割領域に分割された入力画像を示す図、図9(b)は、走査による特徴点設定領域の指定について説明するための図、図9(c)は、拡張による特徴点設定領域の指定について説明するための図である。
【図10】指定点から拡張した矩形を特徴点設定領域として指定することについて説明するための図である。
【図11】第5実施形態としての画像処理装置の構成例を示す図である。
【図12】従来の広ダイナミックレンジ画像を作成するための構成例を示す図である。
【図13】従来の深い被写界深度を有する画像を作成するための構成例を示す図である。
【符号の説明】
30…画像補正部
31…画像データ再生部
32…フレームメモリ
33…特徴点設定部
34…特徴点位置メモリ
35…対応点探索部
36…対応点位置メモリ
37…補正パラメータ算出部
38…補間演算部
39…画像合成部[0001]
BACKGROUND OF THE INVENTION
The present invention relates to composition processing of images that exceed the dynamic range and depth of field of an input device from a plurality of images obtained by shooting the same subject under different shooting conditions, and in particular, the subject matches when the images are superimposed. It relates to an image processing apparatus and an image processing how to align corrected to.
[0002]
[Prior art]
In general, an image processing technique for creating an image having a dynamic range that is greater than or equal to a dynamic range unique to an imaging element such as a CCD (Charge Coupled Device) by combining a plurality of images obtained by photographing the same subject with different exposures (For example, Japanese Patent Application Laid-Open No. 63-232591) or a plurality of images obtained by photographing the same subject at different focal positions, and an image having a depth of field deeper than the depth of field of the input optical system. There is an image processing technique to be created (Japanese Patent Laid-Open No. 1-309478).
[0003]
This technique for creating a wide dynamic range image is realized by the configuration shown in FIG.
Images A and B shown in the figure are images taken with different exposures, and the relationship between the amount of incident light incident on the image sensor and the signal value of the image obtained by the image input device is shown in FIG. “[A] Long time exposure”, “[B] Short time exposure”.
[0004]
In the
The shape of this “[C] addition signal” is determined by the exposure ratio of the two images. The
[0005]
Then, the
[0006]
Since this image processing technique uses a plurality of image data, an image with good color reproduction and less noise can be obtained as compared with a case where a short-time exposure image is simply subjected to tone curve processing.
[0007]
Further, the image processing technique for creating an image having a depth of field deeper than the depth of field of the input optical system described above is realized, for example, with the configuration shown in FIG.
First, images taken with different focal positions are weighted and added by the
[0008]
Therefore, the recovery
As a result, the image stored in the
[0009]
[Problems to be solved by the invention]
In the image processing technique described above, a captured image is temporarily added or weighted for each pixel, and then a series of processing such as dynamic range compression processing and recovery processing is performed. For this reason, if the images to be added are misaligned with each other, they are shifted when added, and an accurate result cannot be obtained.
[0010]
For this reason, in the case of dynamic range expansion processing, nondestructive readout is possible, so in principle, a device using a CMD (Charge Modurated Device) element that does not cause a positional shift while taking an image with multiple exposures. In the process of using and increasing the depth of field, an expensive apparatus for business use is required such as a solid stage is required. Further, when shooting with the focal position changed, a subtle change in magnification for each focal position also affects.
[0011]
On the other hand, digital cameras, scanners, tripods, etc. used by general users are mostly simple ones that cannot be expected to be accurate compared to commercial equipment. Therefore, the above-described advantages of the image processing technique cannot be fully utilized.
[0012]
For example, when shooting with a digital camera on a tripod, the camera moves when you press the shutter, or when you take an image taken with a silver salt camera with a film scanner, they will deviate from each other depending on how you insert the film Etc.
[0013]
Therefore, the present invention detects a positional relationship between a plurality of images having substantially the same composition and different shooting conditions such as exposure and focal position, and corrects the images so that they are accurately overlapped by a parameter value indicating the detected positional relationship. An object is to provide an image processing apparatus and an image processing method thereof.
[0014]
[Means for Solving the Problems]
In order to achieve the above object, the present invention is an image processing apparatus for performing alignment processing between a plurality of images obtained by photographing substantially the same composition under different photographing conditions. A search area setting unit that divides the image into divided areas and provides a search area for feature points that represent the features of the image in each of the divided areas; and based on the features of the image from the search areas of the feature points, Position information that extracts characteristic position information of the subject in the composition excluding position information related to the coordinates of the divided area where the object moving is detected in relation to the coordinates for each divided area of the divided image An image processing apparatus comprising: an extracting unit .
Further, an image processing method for performing alignment processing between a plurality of images obtained by capturing substantially the same composition under different shooting conditions, wherein at least one of the input images is divided into a plurality of divided regions, A search area setting step for providing a search area for a feature point representing an image feature in the area, and a division in which an object moving in the image is detected from the search area of each feature point based on the feature amount of the image A position information extracting step of extracting characteristic position information of the subject in the composition excluding position information related to the coordinates of the area in association with coordinates for each divided area of the divided image. I will provide a.
[0015]
The image processing apparatus configured as described above selects one of a plurality of input images, divides the image into a plurality of regions, sets feature points from the feature amounts of the divided regions, The coordinate position of the feature point is stored. Based on the coordinates of the feature point, for each input image that was not selected, search for the corresponding point, extract the coordinate position of the corresponding point, After calculating the positional relationship (parallel movement amount, rotation angle) and correcting one or both of the images so that the subject matches, dynamic range compression processing, depth of field expansion processing, etc. Apply.
[0016]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
FIG. 1 shows a configuration example of an image processing apparatus according to the first embodiment of the present invention.
[0017]
In the present embodiment, an image taken with a digital camera (not shown) or an image taken with a silver halide camera and taken with a scanner or the like is recorded in a storage medium such as a hard disk, a portable floppy disk, or a memory card.
[0018]
The present embodiment can be broadly divided into an image
[0019]
The image correction unit 30 also includes a frame memory 32 that temporarily stores the image data that has been decompressed by the image
[0020]
In the image processing method of the present embodiment configured as described above, an image read from the hard disk, memory card, or the like is subjected to processing such as decompression by the image
[0021]
Next, one of the input images is selected (here, image A) and input to the feature
The feature
[0022]
The corresponding
[0023]
As a result, the corresponding point coordinate position is output to the corresponding
[0024]
The
[0025]
FIG. 2 shows and describes the configuration of the feature
The feature
[0026]
A small region that is a template candidate is moved in this region, and the position where the feature amount is maximized is output as one of the feature points. However, since it takes a very long processing time to search the whole, it is desirable to set a feature point search area smaller than the divided area as shown in FIG. The size of the feature point search area is determined in advance based on the image size, for example, 5% of the image size. Alternatively, the size of the divided small area may be used as a reference.
[0027]
Next, the template
[0028]
Since the change in the feature amount of the template candidate that is close in position may not be so large, in such a case, the position of the template candidate can be shifted every several pixels instead of every pixel. The amount of calculation can be reduced.
[0029]
The feature
As this feature quantity, for example, pixel value dispersion as shown in equation (1) can be used.
[0030]
[Expression 1]
Here, ai is the pixel value, A is the average pixel value in the template candidates, and is summed over the entire template candidates. Although no specific expression is given, secondary pixel value dispersion and edge detection results are also preferable values as feature amounts. At this time, the value T is expressed by the following equation:
[0031]
[Expression 2]
As described above, when the value is smaller than a predetermined value Tth, it is not adopted because the reliability is low. For example, the accuracy of matching, which will be described later, generally decreases at a portion where the change in the pixel value is small, such as an empty portion in FIG. 3B, but the method of the present invention has a feature having a value T as shown in equation (2). No feature points are set at the point candidate positions, and it is possible to prevent a decrease in accuracy of the positional relationship parameters.
[0032]
FIG. 4 is a diagram illustrating the configuration of the corresponding
The search
[0033]
The correlation
[0034]
At this time, generally, the corresponding point candidate moves for each pixel to obtain the correlation value. In order to detect the corresponding point position with an accuracy of less than the pixel, the corresponding point position is determined by interpolation with reference to the surrounding correlation value. You may decide. As the correlation value, the sum of absolute values of differences shown in the following equation (3), cross-correlation shown in equation (4), normalized cross-correlation shown in equation (5), and the like can be used.
[0035]
[Equation 3]
Here, bi and B are the pixel values in the small area moving within the search area of the image B and the average thereof, σ A and σ B are the standard deviations of the template data, and σ A 2 and σ B 2 Is the variance value.
[0036]
When calculating the equations (2) to (4), if only a representative color is calculated, the processing can be performed at high speed.
In addition, if the corresponding points are searched by adding the correlation values of the R, G, and B colors, the corresponding points can be searched with higher accuracy.
[0037]
Then, the correction
[0038]
[Expression 4]
Here, (x, y) represents a feature point position, (X, Y) represents a corresponding point position, and M corresponds to a relative magnification between images.
Since a plurality of data is stored in the feature
[0039]
[Equation 5]
Here, N is the number of feature points. From equation (8), M, cos θ, and sin θ are determined as in equation (9).
[0040]
[Formula 6]
[0041]
In addition, since cosθ and sinθ originally have a relationship of cos 2 θ + sin 2 θ = 1, when it can be assumed that there is no magnification change in the target image, M = 1.0 is obtained as a result of equation (9), When the relationship is as shown in equation (10), it is better to correct cos θ and sin θ as in equation (11). sx and sy are calculated from corrected cos θ and sin θ.
[0042]
[Expression 7]
[0043]
In the above-described equations (6) to (9), an arbitrary origin is set as the rotation center of the image. However, it may be considered that the centroids of the set / searched feature points and corresponding point positions coincide with each other. The centroid position of the feature point is (/ x, / y) (where / is used as a symbol meaning the average. In addition, as shown in the image information of each equation, this average is The barycentric position of the corresponding point is given by (/ X, / Y), and cos θ, sin θ, sx, sy are given by equations (12) and (13), respectively.
[0044]
[Equation 8]
[0045]
As described above, the present embodiment extracts a plurality of feature points from an image and automatically aligns them. Therefore, even a general user can perform dynamic range expansion processing and processing without using expensive business equipment. The effect of the depth of field expansion process can be utilized to the maximum extent. However, when distortion is generated in the processing target image, it is necessary to correct it in advance by an arbitrary method.
[0046]
Next, a second embodiment according to the present invention will be described.
This embodiment differs from the first embodiment described above in the internal configuration of the feature
[0047]
FIG. 5A is a diagram illustrating a conceptual configuration of the feature
FIG. 5B is a diagram illustrating a configuration example of the
[0048]
The
[0049]
Further, the
[0050]
With the configuration of the present embodiment, it is possible to increase the alignment accuracy of the portion that the user wants to pay attention to, and it is possible to reduce the calculation time because the feature point search is not required in the portion that is not so necessary.
[0051]
In addition, when a moving subject such as a person or a vehicle is included in the photographed image, an error occurs in the alignment of the entire image when the image of the moved part is used for the calculation. You can avoid using partial data.
[0052]
Furthermore, it is possible to further improve the alignment accuracy of the specific area by instructing a specific area among a plurality of areas instructed by the
[0053]
In the case of the dynamic range expansion technique, images are arranged in the order of exposure values, and in the case of the depth of field expansion technique, the images are arranged in the order of the focal positions, and the above operation is performed between adjacent images, so that the images are randomly selected. The accuracy can be improved as compared with the case of selecting and executing.
[0054]
FIG. 7 is a diagram showing a third embodiment of the present invention.
The configuration of the image correction unit 30 illustrated in FIG. 7 includes a
[0055]
The feature point coordinates stored in the
At this time, if the feature point is set on a moving subject (moving object) such as a person or a vehicle, it causes an error of the correction coefficient calculated by the equations (6) to (10). Therefore, the feature
[0056]
In this operation, the user may determine the displayed data and indicate data to be excluded from the feature
[0057]
Next, a fourth embodiment according to the present invention will be described with reference to FIG. In the fourth embodiment, the
[0058]
The
In the present embodiment, the range to be designated as the feature point setting area is determined based on the statistical and physical properties of the image.
[0059]
First, the entire image is divided into a predetermined size as shown in FIG. The size to be divided at this time is larger than the template cut out by the feature point setting unit.
[0060]
Each of the divided parts is sent to the state determination unit 101, and it is determined whether or not to specify the feature point setting area. The state determination unit 101 scans the input image data, and determines that it is not suitable as a feature point setting region if the saturated pixels exceed a certain ratio.
[0061]
Further, the state determination unit 101 may determine that it is not suitable as a feature point setting area when the average value of input data exceeds a certain threshold.
As shown in FIG. 9B, the
[0062]
In the above description, the determination is made for each divided region, but the entire range recorded in the
[0063]
Further, as shown in FIG. 10, the user may designate a certain point in the
[0064]
In addition, although the saturated pixel value is used as a determination criterion, the state determination unit 101 uses the power of a high-frequency component when the image is subjected to orthogonal transform such as discrete Fourier transform or discrete cosine transform of the input image, or wavelet transform. You may judge by a component.
[0065]
Further, the state determination unit 101 may use the contrast of input data or the difference between the maximum and minimum pixel values for determination.
Next, a fifth embodiment of the present invention will be described with reference to FIG.
[0066]
This embodiment is an example in which three or more images are processed. Here, in the figure, the same components as those in FIG. 1 described above are denoted by the same reference numerals, and the description thereof is omitted.
[0067]
In the present embodiment, the image data reproduced by the image
[0068]
The feature points / corresponding points are detected from the images stored in the
[0069]
The correction parameter conversion unit 112 reads data stored in the correction parameter storage unit 113, and converts each data into a parallel movement amount / rotation angle viewed from an image serving as a reference for correction specified in advance. Subsequently, in the
[0070]
Here, the data conversion in the correction parameter conversion unit 112 and the correction in the
[0071]
In the present embodiment, two frame memories 32 are used and the input image is switched by the signal switching unit 111. However, a number of frame memories that can store all target images may be prepared.
[0072]
Although the above embodiments have been described, the present invention includes the following inventions.
(1) In multiple images with different shooting conditions,
An image is divided into a plurality of divided areas, and feature point search areas that are the same as or smaller than each of the divided areas are provided in the divided areas, and the characteristic position of the subject is determined from each feature point search area based on image statistics. Information is extracted, and a corresponding point in the image different from the image from which the characteristic position information of the subject is extracted is searched from among the plurality of images, and the characteristic position information and the position information of the corresponding point are searched. An image processing apparatus that detects a correction parameter (rotation / movement / magnification change between images) and corrects an image based on rotation / movement / magnification change between images as the correction parameter.
[0073]
The present invention corresponds to the first embodiment.
As a result, more accurate images can be superimposed when a plurality of images are superimposed.
(2) In the image processing apparatus according to (1),
When the image is corrected based on the rotation / movement / magnification change, the correction is performed after converting the parameters so as to represent the rotation / movement / magnification change seen from a specific reference image.
[0074]
The present invention corresponds to the fifth embodiment.
As a result, when a plurality of images are overlaid, any appropriate correction parameter can be set for each image, and more accurate image superposition according to the photographer's intention can be performed. .
(3) For the plurality of divided regions,
2. The image processing apparatus according to 1, wherein a region to be divided is limited to a part of an image.
[0075]
The present invention corresponds to the second embodiment.
As a result, the speed of image processing is improved when a plurality of images are superimposed, and an appropriate area can be set for each image, and more accurate images can be superimposed according to the intention of the photographer. Will be able to.
(4) In the image processing apparatus according to (1) or (3),
Of the characteristic position information of the subject based on the statistics of the image, the position information set on the subject whose position is moving between a plurality of images is used to detect rotation, movement, and magnification change between images. It is characterized by not.
[0076]
The present invention corresponds to the third embodiment.
Thereby, when overlapping a plurality of images, the area where the moving object exists is excluded, so that more accurate image overlapping can be performed.
(5) In the image processing apparatus according to (3),
The restricted area that limits the area to be divided to a part of the image is one of the ratio of high frequency components, the ratio of saturated pixels, the average value of pixel values, the difference between maximum and minimum pixel values, and contrast It is limited on the basis of the value of.
[0077]
The present invention corresponds to the fourth embodiment.
As a result, when a plurality of images are overlaid, the speed of image processing is improved, and an appropriate area can be automatically set for each image, which is more accurate according to the photographer's intention. Images can be superimposed.
(6) In the image processing device according to (5),
It is characterized by expanding the restricted area around a specific point.
[0078]
The present invention corresponds to the fourth embodiment.
As a result, when a plurality of images are overlapped, an appropriate region is set for each image with a specific point as the center, so that more accurate image overlap can be performed.
[0079]
【The invention's effect】
As described above in detail, according to the present invention, the positional relationship between a plurality of images having different photographing conditions such as exposure and focal position with the substantially same composition is detected, and the value of the parameter indicating the detected positional relationship is accurately determined. the image processing apparatus and an image processing how to correct such images overlap can be provided.
[Brief description of the drawings]
FIG. 1 is a diagram illustrating a configuration example of an image processing apparatus according to a first embodiment.
FIG. 2 is a diagram illustrating a configuration example of a feature point setting unit illustrated in FIG. 1;
FIG. 3A is a diagram showing a plurality of divided regions obtained by dividing an image and feature point search regions set in each divided region, and FIG. 3B is a diagram for explaining feature points. FIG.
4 is a diagram illustrating a configuration example of a corresponding point search unit illustrated in FIG. 1;
FIG. 5A is a diagram illustrating a configuration example of an image processing apparatus according to a second embodiment, and FIG. 5B is a diagram illustrating a configuration example of an area designating unit.
FIG. 6A is a diagram illustrating an example of a designated area displayed on an image, and FIG. 6B is a diagram illustrating a target position displayed on the image.
FIG. 7 is a diagram illustrating a configuration example of an image processing apparatus as a third embodiment.
FIG. 8 is a diagram illustrating a configuration example of an area designating unit used in an image processing apparatus as a fourth embodiment.
9A is a diagram showing an input image divided into a plurality of divided regions, FIG. 9B is a diagram for explaining designation of a feature point setting region by scanning, and FIG. c) is a diagram for explaining the specification of a feature point setting region by extension.
FIG. 10 is a diagram for describing designation of a rectangle expanded from a designated point as a feature point setting area;
FIG. 11 is a diagram illustrating a configuration example of an image processing apparatus as a fifth embodiment.
FIG. 12 is a diagram illustrating a configuration example for creating a conventional wide dynamic range image.
FIG. 13 is a diagram illustrating a configuration example for creating a conventional image having a deep depth of field.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 30 ...
Claims (13)
入力した画像の少なくとも1つの画像を複数の分割領域に分割し、前記各分割領域内に画像の特徴を表す特徴点の探索領域を設ける探索領域設定手段と、Search area setting means for dividing at least one of the input images into a plurality of divided areas and providing a search area for feature points representing the features of the image in each of the divided areas;
前記各特徴点の探索領域から前記画像の特微量に基づいて、前記画像内を移動する物体が検出された分割領域の座標に関連する位置情報を除外した前記構図内の被写体の特徴的な位置情報を、前記分割画像の各分割領域に対する座標に関連させて抽出する位置情報抽出手段と、The characteristic position of the subject in the composition excluding position information related to the coordinates of the divided area where the object moving in the image is detected based on the feature amount of the image from the search area of each feature point Position information extracting means for extracting information in association with coordinates for each divided region of the divided image;
を具備することを特徴とする画像処理装置。An image processing apparatus comprising:
検出された補正パラメータに基づき、各画像の被写体位置が一致するように画像を補正する画像補正手段と、
を具備することを特徴とする請求項2に記載の画像処理装置。 The image processing apparatus further includes a correction parameter detection unit that detects a correction parameter based on a deviation between the coordinates of the characteristic position information extracted by the position information extraction unit and the position information of the corresponding point.
Image correcting means for correcting the image so that the subject positions of the images match based on the detected correction parameters;
The image processing apparatus according to claim 2, further comprising:
画像を複数の分割領域に分割する領域分割手段と、
前記分割領域中におのおのの分割領域と同じまたは小さい特徴点探索領域を設ける特徴点探索領域設定手段と、
前記それぞれの特徴点探索領域から画像の統計量に基づいて被写体の特徴的な位置情報を抽出する特徴位置情報抽出手段と、
前記複数の画像のうち、被写体の特徴的な位置情報を抽出した画像とは異なる画像中で対応する点を探索する対応点探索手段と、
前記画像の統計量に基づく被写体の特徴的な位置情報のうち、複数の画像間で位置の移動の無い被写体上に設定された位置情報を画像間の回転・移動・倍率変化の検出に用いて、前記特徴的な位置情報及び対応する点の位置情報より画像間の回転・移動・倍率変化を含む補正パラメータを検出する補正パラメータ検出手段と、
前記補正パラメータとしての画像間の回転・移動・倍率変化に基づいて画像を補正する画像補正手段と、
を具備することを特徴とする画像処理装置。 An image processing apparatus that corrects a plurality of images with different shooting conditions,
Area dividing means for dividing an image into a plurality of divided areas ;
A feature point search area setting means for providing a feature point search area in the divided area that is the same as or smaller than each of the divided areas;
Feature position information extracting means for extracting characteristic position information of the subject from the respective feature point search areas based on image statistics;
Corresponding point search means for searching for a corresponding point in an image different from the image from which the characteristic position information of the subject is extracted among the plurality of images ;
Among the characteristic position information of the subject based on the statistics of the image, the position information set on the subject that does not move between the plurality of images is used for detection of rotation / movement / magnification change between images. Correction parameter detecting means for detecting correction parameters including rotation, movement, and magnification change between images from the characteristic position information and position information of corresponding points;
Image correction means for correcting an image based on rotation, movement, and magnification change between images as the correction parameter;
An image processing apparatus comprising:
入力した画像の少なくとも1つの画像を複数の分割領域に分割する領域分割手段と、Area dividing means for dividing at least one of the input images into a plurality of divided areas;
前記各分割領域内に画像の特徴を表す特徴点の探索領域を設ける探索領域設定手段と、Search area setting means for providing a search area for feature points representing image features in each of the divided areas;
前記各特徴点の探索領域から前記画像の特微量に基づいて、前記構図内の被写体の特徴的な位置情報を前記分割画像の各分割領域に対する座標に関連させて抽出する位置情報抽出手段と、Position information extraction means for extracting characteristic position information of a subject in the composition in association with coordinates for each divided area of the divided image based on the feature amount of the image from the search area of each feature point;
を具備し、Comprising
前記領域分割手段は、複数の分割領域に分割する際に、ユーザーの指定に基づく特定点を中心に、又はユーザーの指定に基づく分割領域を中心に、画像上に設定された分割可能の範囲を示す矩形枠を広げていくことを特徴とする画像処理装置。 The area dividing means, when dividing into a plurality of divided areas, a division possible range set on the image centered on a specific point based on a user designation or centered on a divided area based on a user designation. An image processing apparatus characterized by expanding a rectangular frame to be shown.
入力した画像の少なくとも1つの画像を複数の分割領域に分割し、前記各分割領域内に画像の特徴を表す特徴点の探索領域を設ける探索領域設定工程と、A search area setting step of dividing at least one of the input images into a plurality of divided areas, and providing a search area for feature points representing the features of the image in each of the divided areas;
前記各特徴点の探索領域から前記画像の特徴量に基づいて、前記画像内を移動する物体が検出された分割領域の座標に関連する位置情報を除外した前記構図内の被写体の特徴的な位置情報を、前記分割画像の各分割領域に対する座標に関連させて抽出する位置情報抽出工程と、The characteristic position of the subject in the composition excluding position information related to the coordinates of the divided area where the object moving in the image is detected based on the feature amount of the image from the search area of each feature point A position information extraction step of extracting information in association with coordinates for each divided region of the divided image;
を具備することを特徴とする画像処理方法。An image processing method comprising:
画像を複数の分割領域に分割する領域分割工程と、
前記分割領域中におのおのの分割領域と同じまたは小さい特徴点探索領域を設ける特徴点探索領域設定工程と、
前記それぞれの特徴点探索領域から画像の統計量に基づいて被写体の特徴的な位置情報を抽出する特徴位置情報抽出工程と、
前記複数の画像のうち、被写体の特徴的な位置情報を抽出した画像とは異なる画像中で対応する点を探索する対応点探索工程と、
前記画像の統計量に基づく被写体の特徴的な位置情報のうち、複数の画像間で位置の移動の無い被写体上に設定された位置情報を画像間の回転・移動・倍率変化の検出に用いて、前記特徴的な位置情報及び対応する点の位置情報より画像間の回転・移動・倍率変化を含む補正パラメータを検出する補正パラメータ検出工程と、
前記補正パラメータとしての画像間の回転・移動・倍率変化に基づいて画像を補正する画像補正工程と、
を具備することを特徴とする画像処理方法。 An image processing method for correcting a plurality of images with different shooting conditions,
A region dividing step of dividing the image into a plurality of divided regions;
A feature point search region setting step for providing a feature point search region that is the same as or smaller than each of the divided regions in the divided region;
A feature position information extraction step for extracting characteristic position information of the subject based on image statistics from each of the feature point search areas ;
A corresponding point search step of searching for a corresponding point in an image different from the image from which the characteristic position information of the subject is extracted among the plurality of images;
Among the characteristic position information of the subject based on the statistics of the image, the position information set on the subject that does not move between the plurality of images is used for detection of rotation / movement / magnification change between images. A correction parameter detecting step of detecting a correction parameter including rotation, movement, and magnification change between images from the characteristic position information and the position information of the corresponding point;
An image correction step for correcting an image based on rotation, movement, and magnification change between images as the correction parameter;
An image processing method comprising:
入力した画像の少なくとも1つの画像を複数の分割領域に分割する領域分割工程と、A region dividing step of dividing at least one of the input images into a plurality of divided regions;
前記各分割領域内に画像の特徴を表す特徴点の探索領域を設ける探索領域設定工程と、A search area setting step for providing a search area for feature points representing the characteristics of the image in each of the divided areas;
前記各特徴点の探索領域から前記画像の特微量に基づいて、前記構図内の被写体の特徴的な位置情報を前記分割画像の各分割領域に対する座標に関連させて抽出する位置情報抽出工程と、A position information extracting step of extracting characteristic position information of the subject in the composition in association with coordinates for each divided area of the divided image based on the feature amount of the image from the search area of each feature point;
を具備し、Comprising
前記領域分割工程は、複数の分割領域に分割する際に、ユーザーの指定に基づく特定点を中心に、又はユーザーの指定に基づく分割領域を中心に、画像上に設定された分割可能の範囲を示す矩形枠を広げていくことを特徴とする画像処理方法。In the region dividing step, when dividing into a plurality of divided regions, a range that can be divided set on the image is centered on a specific point based on a user designation or centered on a divided region based on a user designation. An image processing method characterized by expanding a rectangular frame to be shown.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP35519997A JP4136044B2 (en) | 1997-12-24 | 1997-12-24 | Image processing apparatus and image processing method therefor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP35519997A JP4136044B2 (en) | 1997-12-24 | 1997-12-24 | Image processing apparatus and image processing method therefor |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008098571A Division JP2008199658A (en) | 2008-04-04 | 2008-04-04 | Image processor and image processing method thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH11185018A JPH11185018A (en) | 1999-07-09 |
JP4136044B2 true JP4136044B2 (en) | 2008-08-20 |
Family
ID=18442527
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP35519997A Expired - Fee Related JP4136044B2 (en) | 1997-12-24 | 1997-12-24 | Image processing apparatus and image processing method therefor |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4136044B2 (en) |
Families Citing this family (33)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4731698B2 (en) * | 2000-04-06 | 2011-07-27 | キヤノン株式会社 | Image processing apparatus, photographing apparatus, image processing system, image processing method, and storage medium |
US7092584B2 (en) * | 2002-01-04 | 2006-08-15 | Time Warner Entertainment Company Lp | Registration of separations |
EP1569170A4 (en) * | 2002-12-05 | 2007-03-28 | Seiko Epson Corp | Characteristic region extraction device, characteristic region extraction method, and characteristic region extraction program |
US20050063608A1 (en) * | 2003-09-24 | 2005-03-24 | Ian Clarke | System and method for creating a panorama image from a plurality of source images |
JP2005151282A (en) | 2003-11-18 | 2005-06-09 | Fuji Xerox Co Ltd | Apparatus and method of image processing, and program |
US7231097B2 (en) * | 2003-12-16 | 2007-06-12 | Searete, Llc | Lens defect correction |
JP4208780B2 (en) | 2004-07-07 | 2009-01-14 | キヤノン株式会社 | Image processing system, control method for image processing apparatus, and program |
JP4227569B2 (en) | 2004-07-07 | 2009-02-18 | キヤノン株式会社 | Image processing system, control method for image processing apparatus, program, and recording medium |
JP2006023944A (en) | 2004-07-07 | 2006-01-26 | Canon Inc | Image processing system and image processing method |
TWI246031B (en) | 2004-09-17 | 2005-12-21 | Ulead Systems Inc | System and method for synthesizing multi-exposed image |
JP2006208632A (en) * | 2005-01-27 | 2006-08-10 | Nikon Corp | Optical measuring instrument |
WO2007032082A1 (en) * | 2005-09-16 | 2007-03-22 | Fujitsu Limited | Image processing method, and image processing device |
EP1780672A1 (en) * | 2005-10-25 | 2007-05-02 | Bracco Imaging, S.P.A. | Method of registering images, algorithm for carrying out the method of registering images, a program for registering images using the said algorithm and a method of treating biomedical images to reduce imaging artefacts caused by object movement |
JPWO2007072678A1 (en) * | 2005-12-21 | 2009-05-28 | 株式会社ニコン | Image composition method, image composition program, image composition apparatus, template extraction method, and template extraction program |
JP4597087B2 (en) * | 2006-03-30 | 2010-12-15 | キヤノン株式会社 | Image processing apparatus and method, and imaging apparatus |
JP4675868B2 (en) * | 2006-10-20 | 2011-04-27 | 三菱電機株式会社 | Ground surface change discrimination device and ground surface change discrimination program |
JP2008276482A (en) * | 2007-04-27 | 2008-11-13 | Seiko Epson Corp | Apparatus, method, and program for image processing |
JP2009075825A (en) * | 2007-09-20 | 2009-04-09 | Tokyo Univ Of Science | Image geometric distortion correction method, program, and image geometric distortion correction device |
JP5157464B2 (en) * | 2008-01-15 | 2013-03-06 | 株式会社ニコン | Image processing device |
JP5202037B2 (en) * | 2008-02-29 | 2013-06-05 | キヤノン株式会社 | Feature point position determination method and apparatus |
JP5285311B2 (en) * | 2008-03-18 | 2013-09-11 | 株式会社ゼンリン | Road marking map generation method |
JP5363752B2 (en) * | 2008-03-18 | 2013-12-11 | 株式会社ゼンリン | Road marking map generation method |
JP4524717B2 (en) * | 2008-06-13 | 2010-08-18 | 富士フイルム株式会社 | Image processing apparatus, imaging apparatus, image processing method, and program |
JP5498096B2 (en) * | 2009-08-27 | 2014-05-21 | セコム株式会社 | Fingerprint verification device |
US8606009B2 (en) * | 2010-02-04 | 2013-12-10 | Microsoft Corporation | High dynamic range image generation and rendering |
JP2014003441A (en) * | 2012-06-18 | 2014-01-09 | Sharp Corp | Imaging device, imaging method, and imaging program |
JP6274778B2 (en) * | 2013-08-20 | 2018-02-07 | キヤノン株式会社 | Image processing method, image processing apparatus, and computer program |
JP5744161B2 (en) | 2013-11-18 | 2015-07-01 | シャープ株式会社 | Image processing device |
CN108460728B (en) * | 2017-02-17 | 2022-05-31 | 北京大豪科技股份有限公司 | Automatic template correction method and device |
WO2019065784A1 (en) * | 2017-09-29 | 2019-04-04 | Necソリューションイノベータ株式会社 | Image processing device, image processing method, and computer-readable recording medium |
WO2020026383A1 (en) * | 2018-08-01 | 2020-02-06 | オリンパス株式会社 | Endoscopic device, endoscopic device operating method, and program |
KR102143349B1 (en) | 2019-03-27 | 2020-08-11 | 엘지전자 주식회사 | Controlling method for Moving robot |
JP7556234B2 (en) * | 2020-08-26 | 2024-09-26 | セイコーエプソン株式会社 | CIRCUIT DEVICE, ELECTRONIC APPARATUS, AND ERROR DETECTION METHOD |
-
1997
- 1997-12-24 JP JP35519997A patent/JP4136044B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JPH11185018A (en) | 1999-07-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4136044B2 (en) | Image processing apparatus and image processing method therefor | |
JP4924430B2 (en) | Imaging apparatus, image processing apparatus, and program | |
US9558543B2 (en) | Image fusion method and image processing apparatus | |
US9456135B2 (en) | Image synthesizing apparatus, image synthesizing method, and image synthesizing program | |
EP1431912B1 (en) | Method and system for determining an area of importance in an archival image | |
US11037310B2 (en) | Image processing device, image processing method, and image processing program | |
JP4556813B2 (en) | Image processing apparatus and program | |
KR20110078175A (en) | Method and apparatus for generating of image data | |
JP2017143390A (en) | Image processing apparatus and method thereof | |
US9811909B2 (en) | Image processing apparatus, distance measuring apparatus, imaging apparatus, and image processing method | |
JP2010524279A (en) | Distance map generation type multi-lens camera | |
JP2008199658A (en) | Image processor and image processing method thereof | |
US9020269B2 (en) | Image processing device, image processing method, and recording medium | |
JP2006229868A (en) | Image processing apparatus and method, and motion detection apparatus and method | |
JP6802848B2 (en) | Image processing equipment, imaging system, image processing method and image processing program | |
US20100079582A1 (en) | Method and System for Capturing and Using Automatic Focus Information | |
JP2006049949A (en) | Image processing apparatus, image processing method and program thereof | |
JP2019101997A (en) | Image processing apparatus and image processing method reducing noise by composing plural captured images | |
JP4169464B2 (en) | Image processing method, image processing apparatus, and computer-readable recording medium | |
JP4363154B2 (en) | Imaging apparatus, image processing method thereof, and program | |
CN116456191A (en) | Image generation method, device, equipment and computer readable storage medium | |
JP2020009099A (en) | Image processing device, image processing method, and program | |
JP7458769B2 (en) | Image processing device, imaging device, image processing method, program and recording medium | |
JP2009118434A (en) | Blurring correction device and imaging apparatus | |
JP2011182084A (en) | Image processor and image processing program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20041224 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20041224 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20071106 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080104 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20080205 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080404 |
|
A911 | Transfer of reconsideration by examiner before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20080416 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20080520 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20080603 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110613 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120613 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120613 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130613 Year of fee payment: 5 |
|
LAPS | Cancellation because of no payment of annual fees |