JP2008199658A - Image processor and image processing method thereof - Google Patents

Image processor and image processing method thereof Download PDF

Info

Publication number
JP2008199658A
JP2008199658A JP2008098571A JP2008098571A JP2008199658A JP 2008199658 A JP2008199658 A JP 2008199658A JP 2008098571 A JP2008098571 A JP 2008098571A JP 2008098571 A JP2008098571 A JP 2008098571A JP 2008199658 A JP2008199658 A JP 2008199658A
Authority
JP
Japan
Prior art keywords
image
search area
divided
area
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008098571A
Other languages
Japanese (ja)
Other versions
JP2008199658A5 (en
Inventor
Masaki Higure
正樹 日暮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2008098571A priority Critical patent/JP2008199658A/en
Publication of JP2008199658A publication Critical patent/JP2008199658A/en
Publication of JP2008199658A5 publication Critical patent/JP2008199658A5/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To solve the following problem: that if there is a positional deviation of an object among a plurality of images where the same object is photographed, deviation or the like occur during addition and the advantages of dynamic range compression processing or depth-of-field expansion processing can not be effectively utilized. <P>SOLUTION: An image processor and image processing method thereof are provided in which, in order to perform registration processing between images resulting from photographing approximately identical composition on different photographic conditions, at least one image of a plurality of input images is divided into a plurality of divided regions, a search region of a feature point representing features of the image is set within each divided region and based on a result of comparison between a calculation value obtained by calculation using a pixel value of a pixel included in the search region and a certain specific value, the search region for actually searching for the feature point is selected from among a plurality of provided search regions. On the basis of a feature quantity of that image, characteristic position information of the object within the composition is extracted from the selected search region while relating the characteristic position information of the object within the composition to coordinates of divided images for the divided regions. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、同一の被写体を異なる撮影条件で撮影した複数の画像から入力機器のダイナミックレンジや被写界深度を超えた画像を合成処理に係り、特に各画像を重ね合わせた際に被写体が一致するように位置合わせ補正を行う画像処理装置及びその画像処理方法に関する。   The present invention relates to composition processing of images exceeding the dynamic range and depth of field of an input device from a plurality of images obtained by shooting the same subject under different shooting conditions, and in particular, the subject matches when the images are superimposed. The present invention relates to an image processing apparatus that performs alignment correction and an image processing method thereof.

一般に、同一の被写体を異なる露出で撮影した複数の画像を合成することで、CCD(Charge Coupled Device)等の撮像素子の固有のダイナミックレンジ以上の範囲のダイナミックレンジを有する画像を作成する画像処理技術(例えば、特許文献1)や、同一の被写体を異なる焦点位置で撮影した複数の画像を合成し、入力光学系の被写界深度よりも深い被写界深度を有する画像を作成する画像処理技術(例えば、特許文献2)がある。   In general, an image processing technique for creating an image having a dynamic range that is greater than or equal to a dynamic range unique to an image sensor such as a CCD (Charge Coupled Device) by combining a plurality of images obtained by photographing the same subject with different exposures (For example, Patent Document 1) or an image processing technique for creating an image having a depth of field deeper than the depth of field of the input optical system by combining a plurality of images obtained by photographing the same subject at different focal positions. (For example, Patent Document 2).

この広ダイナミックレンジ画像を作成する技術は、図12(a)に示す構成で実現される。   This technique for creating a wide dynamic range image is realized by the configuration shown in FIG.

図示される画像 A,Bは、それぞれ露出を変えて撮影した画像であり、撮像素子に入射する入射光量と、画像入力機器で得られる画像の信号値との関係は、図12(b)の“[A]長時間露出”、“[B]短時間露出”のようになる。
加算器11では画像A,Bの画素値が加算され、図12(b)に“[C]加算信号”として示す値がフレームメモリ12に記憶される。
Images A and B shown in the figure are images taken with different exposures, and the relationship between the amount of incident light incident on the image sensor and the signal value of the image obtained by the image input device is shown in FIG. “[A] Long time exposure”, “[B] Short time exposure”.
In the adder 11, the pixel values of the images A and B are added, and a value indicated as “[C] addition signal” in FIG. 12B is stored in the frame memory 12.

この“[C]加算信号”の形状は、2枚の画像の露出比で決定されている。線形変換部13では、加算信号値Sから入射光量Iを推定し、マトリクス回路15ではR,B,G各色の信号値から輝度信号値Yに変換する。   The shape of this “[C] addition signal” is determined by the exposure ratio of the two images. The linear conversion unit 13 estimates the incident light amount I from the added signal value S, and the matrix circuit 15 converts the signal values of R, B, and G colors into luminance signal values Y.

そして輝度圧縮部16では、推定入射光量が既定の階調数に収まるように輝度値を圧縮し、圧縮された輝度信号値Y’が出力される。除算器17では、Y’/Yが計算され、線形変換部16の出力であるR,G,Bそれぞれの信号と乗算器18で掛け合わせられ、結果がフレームメモリ19に格納される。
この画像処理技術は、複数の画像データを利用しているため、単に短時間露出画像をトーンカーブ処理した場合に比べて、色再現が良好でノイズの少ない画像を得ることができる。
Then, the luminance compression unit 16 compresses the luminance value so that the estimated incident light quantity falls within the predetermined number of gradations, and outputs the compressed luminance signal value Y ′. In the divider 17, Y ′ / Y is calculated, multiplied by the signals of R, G, and B, which are the outputs of the linear converter 16, by the multiplier 18, and the result is stored in the frame memory 19.
Since this image processing technique uses a plurality of image data, an image with good color reproduction and less noise can be obtained as compared with a case where a short-time exposure image is simply subjected to tone curve processing.

また、前述した入力光学系の被写界深度よりも深い被写界深度を有する画像を作成する画像処理技術は、例えば図13に示す構成で実現される。
まず、焦点位置を変えて撮影された画像は、加算器21で重み付け加算され、フレームメモリ22に記憶される。焦点位置を変えた画像を焦点位置に応じて重み付け加算すると、画像全体のボケが均一化されることが知られている。
Further, the image processing technique for creating an image having a depth of field deeper than the depth of field of the input optical system described above is realized, for example, with the configuration shown in FIG.
First, images taken with different focal positions are weighted and added by the adder 21 and stored in the frame memory 22. It is known that blurring of the entire image is made uniform by weighted addition of an image with the focal position changed according to the focal position.

そこで、回復フィルタ設定回路25では、加算後の画像におけるボケの回復フィルタを決定し、マトリクス演算回路23に出力する。ここで、ボケ回復フィルタの作成方法は、本発明の本質に関わる部分ではないため省略する。マトリクス演算回路23では、加算画像に回復フィルタを作用させ、結果をフレームメモリ24に格納する。
この結果、フレームメモリ24に格納された画像は、撮像光学系より被写界深度の深い画像となっている。
特開昭63−232591号公報 特開平1−309478号公報
Therefore, the recovery filter setting circuit 25 determines a blur recovery filter in the image after the addition, and outputs it to the matrix operation circuit 23. Here, the method for creating the blur recovery filter is not a part related to the essence of the present invention, and therefore will be omitted. The matrix operation circuit 23 applies a recovery filter to the added image and stores the result in the frame memory 24.
As a result, the image stored in the frame memory 24 is an image having a deeper depth of field than the imaging optical system.
Japanese Unexamined Patent Publication No. 63-232591 JP-A-1-309478

前述した画像処理技術は、撮影した画像を一旦、画素ごとに加算または重み付け加算したのち、ダイナミックレンジ圧縮処理や回復処理といった一連の処理を行うものであった。そのため、加算の対象となる画像がお互いに位置ずれを起こしていると、加算したときにずれてしまい、正確な結果が得られなかった。   In the image processing technique described above, a captured image is temporarily added or weighted for each pixel, and then a series of processing such as dynamic range compression processing and recovery processing is performed. For this reason, if the images to be added are misaligned with each other, they are shifted when added, and an accurate result cannot be obtained.

そのため、ダイナミックレンジ拡大処理の場合は、非破壊読み出しが可能なため、原理的に複数の露出で画像を撮影する間に位置ずれを起こすことの無いCMD( Charge Modulated Device ) 素子を使った機器を利用する、また被写界深度拡大処理では、強固なステージが必要といったように、業務用の高価な装置が必要とされた。また、焦点位置を変えて撮影する場合は、焦点位置毎の微妙な倍率の変化も影響する。   For this reason, non-destructive readout is possible in the case of dynamic range expansion processing. Therefore, in principle, a device using a CMD (Charge Modulated Device) element that does not cause a positional shift during image capture with a plurality of exposures. In the process of using and increasing the depth of field, an expensive apparatus for business use is required such as a solid stage is required. Further, when shooting with the focal position changed, a subtle change in magnification for each focal position also affects.

それに対し、一般ユーザーが利用するようなデジタルカメラ、スキャナ、三脚などでは、業務用機器に比べて、精度は期待できない簡易的なものが大半を占めている。従って、前述した画像処理技術の利点を十分に生かすことができなかった。
例えば、三脚にデジタルカメラを載せて撮影する場合、シャッタを押すときにカメラが動いてしまったり、銀塩カメラで撮影した画像をフィルムスキャナで取り込む場合、フィルムの挿入の仕方により、互いにずれてしまうなどである。
On the other hand, digital cameras, scanners, tripods, etc. used by general users are mostly simple ones that cannot be expected to be accurate compared to commercial equipment. Therefore, the above-described advantages of the image processing technique cannot be fully utilized.
For example, when shooting with a digital camera on a tripod, the camera moves when you press the shutter, or when you take an image taken with a silver salt camera with a film scanner, they will deviate from each other depending on how you insert the film Etc.

そこで本発明は、ほぼ同一の構図で露出や焦点位置など撮影条件が異なる複数の画像間の位置関係を検出し、検出した位置関係を示すパラメータの値によって、正確に画像が重なるように補正する画像処理装置及びその画像処理方法を提供することを目的とする。   Therefore, the present invention detects a positional relationship between a plurality of images having substantially the same composition and different shooting conditions such as exposure and focal position, and corrects the images so that they are accurately overlapped by a parameter value indicating the detected positional relationship. An object is to provide an image processing apparatus and an image processing method thereof.

本発明は上記目的を達成するために、第1に、ほぼ同一の構図を異なる撮影条件で撮影した複数の画像間の位置合わせ処理を行う画像処理装置であって、入力した画像の少なくとも1つの画像を複数の分割領域に分割し、前記各分割領域内に画像の特徴を表す特徴点の探索領域を設ける探索領域設定手段と、前記分割領域内に設けられた探索領域に含まれる画素の画素値を用いて算出された算出値とある規定値との比較結果に基づいて、複数の前記設けられた探索領域の中から実際に特徴点の探索を行うための探索領域を選択する探索領域選択手段と、前記画像の特微量に基づいて、前記選択された探索領域から前記構図内の被写体の特徴的な位置情報を前記分割画像の各分割領域に対する座標に関連させて抽出する位置情報抽出手段と、を備える画像処理装置を提供する。
第2に、ほぼ同一の構図を異なる撮影条件で撮影した複数の画像間の位置合わせ処理を行う画像処理方法であって、入力した画像の少なくとも1つの画像を複数の分割領域に分割し、前記各分割領域内に画像の特徴を表す特徴点の探索領域を設ける探索領域設定工程と、前記分割領域内に設けられた探索領域に含まれる画素の画素値を用いて算出された算出値とある規定値との比較結果に基づいて、複数の前記設けられた探索領域の中から実際に特徴点の探索を行うための探索領域を選択する探索領域選択工程と、前記画像の特微量に基づいて、前記選択された探索領域から前記構図内の被写体の特徴的な位置情報を前記分割画像の各分割領域に対する座標に関連させて抽出する位置情報抽出工程と、を備える画像処理方法を提供する。
In order to achieve the above-mentioned object, the present invention is an image processing apparatus that first performs alignment processing between a plurality of images obtained by photographing substantially the same composition under different photographing conditions, and includes at least one input image. A search area setting unit that divides an image into a plurality of divided areas and provides a search area for a feature point representing a feature of the image in each divided area, and pixels of pixels included in the search area provided in the divided area Search area selection for selecting a search area for actually searching for a feature point from a plurality of the provided search areas based on a comparison result between a calculated value calculated using a value and a specified value And position information extracting means for extracting characteristic position information of the subject in the composition from the selected search area in association with coordinates for each divided area based on the features of the image. And To provide an image processing apparatus to obtain.
Second, an image processing method for performing alignment processing between a plurality of images obtained by capturing substantially the same composition under different imaging conditions, wherein at least one of the input images is divided into a plurality of divided regions, There are a search area setting step for providing a search area for feature points representing image features in each divided area, and a calculated value calculated using pixel values of pixels included in the search area provided in the divided area. Based on a comparison result with a prescribed value, a search region selection step for selecting a search region for actually searching for a feature point from a plurality of the search regions provided, and based on the feature amount of the image A position information extracting step of extracting characteristic position information of a subject in the composition from the selected search area in association with coordinates for each divided area of the divided image.

本発明によれば、ほぼ同一の構図で露出や焦点位置など撮影条件が異なる複数の画像間の位置関係を検出し、検出した位置関係を示すパラメータの値によって、正確に画像が重なるように補正する画像処理装置及びその画像処理方法を提供することができる。   According to the present invention, a positional relationship between a plurality of images having different shooting conditions such as exposure and focal position with almost the same composition is detected, and correction is performed so that the images are accurately overlapped by a parameter value indicating the detected positional relationship. An image processing apparatus and an image processing method therefor can be provided.

以下、図面を参照して本発明の実施形態について詳細に説明する。
図1には、本発明による第1の実施形態としての画像処理装置の構成例を示し説明する。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
FIG. 1 shows a configuration example of an image processing apparatus according to the first embodiment of the present invention.

本実施形態において、図示しないデジタルカメラで撮影された画像や銀塩カメラで撮影されスキャナ等で撮り込まれた画像はハードディスクや携帯可能なフロッピー(登録商標)ディスク、メモリカード等の記憶媒体に記録されている。   In this embodiment, an image taken with a digital camera (not shown) or an image taken with a silver halide camera and taken with a scanner or the like is recorded on a storage medium such as a hard disk, a portable floppy disk, or a memory card. Has been.

本実施形態は、大別すると、前記ハードディスクやフロッピー(登録商標)ディスク、メモリカード等に記録されている画像を読み出し、伸長等の処理を施す画像データ再生部31と、画像データ再生部31からの入力画像に後述する方法によって補間演算を施し画像の被写体の位置関係を補正する画像補正部30と、前記画像補正部30により位置関係が補正された画像に対して、前述したダイナミックレンジ拡大や被写界深度拡大を実行する画像合成部39とで構成される。   The present embodiment can be broadly divided into an image data reproduction unit 31 that reads an image recorded on the hard disk, floppy (registered trademark) disk, memory card, and the like, and performs processing such as decompression. An image correction unit 30 that performs an interpolation operation on the input image by a method to be described later to correct the positional relationship of the subject of the image, and for the image whose positional relationship is corrected by the image correction unit 30, And an image composition unit 39 that executes depth of field expansion.

また前記画像補正部30は、画像データ再生部31で伸長処理が行われた画像データを一時的に記憶するフレームメモリ32と、選択された1つの画像に対して後述する複数の特徴点(座標)を設定する特徴点設定部33と、その特徴点座標を記憶する特徴点位置メモリ34と、特徴点座標及びテンプレートとして切り出された特徴点周辺の画像データから別の画像中において対応する点を探索する対応点探索部35と、得られた対応点座標位置を記憶する対応点位置メモリ36と、特徴点座標と対応点座標から2枚の画像間の位置関係(平行移動量、回転角度)を算出する補正パラメータ算出部37と、入力された位置関係から、一方または両方の画像を補正して画像合成部39に出力する補間演算部38とで構成される。   The image correction unit 30 also includes a frame memory 32 that temporarily stores the image data that has been decompressed by the image data reproduction unit 31, and a plurality of feature points (coordinates) that will be described later for one selected image. ), A feature point position memory 34 for storing the feature point coordinates, and a corresponding point in another image from the feature point coordinates and image data around the feature point cut out as a template. Corresponding point search unit 35 for searching, corresponding point position memory 36 for storing the obtained corresponding point coordinate position, and positional relationship (parallel movement amount, rotation angle) between two images from the feature point coordinates and the corresponding point coordinates A correction parameter calculation unit 37 for calculating the image and an interpolation calculation unit 38 that corrects one or both images from the input positional relationship and outputs the corrected image to the image composition unit 39.

このように構成された本実施形態の画像処理方法においては、前記ハードディスクやメモリカード等から読み出された画像が画像データ再生部31で伸長等の処理が施されて、画像補正部30のフレームメモリ32に記憶される。ここで、画像データ再生部31から出力されるデータは、画像の画素値だけではなく、画像サイズや色数やカラーマップ等の付加的なデータも含むものとする。   In the image processing method of the present embodiment configured as described above, an image read from the hard disk, memory card, or the like is subjected to processing such as decompression by the image data reproduction unit 31, and the frame of the image correction unit 30 Stored in the memory 32. Here, the data output from the image data reproducing unit 31 includes not only the pixel value of the image but also additional data such as the image size, the number of colors, and a color map.

次に入力画像のうち1枚が選択され(ここでは画像Aとする)、特徴点設定部33に入力される。
この特徴点設定部33では、後述する方法で複数の特徴点(座標)を設定し、特徴点座標が特徴点位置メモリ34に入力される。設定された特徴点座標が対応点探索部35にも入力され、同時に特徴点周辺の画像データがテンプレートとして切り出され、対応点探索部35に入力される。
Next, one of the input images is selected (here, image A) and input to the feature point setting unit 33.
The feature point setting unit 33 sets a plurality of feature points (coordinates) by a method described later, and the feature point coordinates are input to the feature point position memory 34. The set feature point coordinates are also input to the corresponding point search unit 35, and simultaneously, image data around the feature point is cut out as a template and input to the corresponding point search unit 35.

対応点探索部35では、特徴点設定部33に入力された画像とは別の画像中で(ここでは画像B)、入力されたテンプレートに対応する点を探索する。対応点を探索する方法は後述する。
その結果、対応点座標位置が対応点位置メモリ36に出力される。補正パラメータ算出部37では、特徴点位置メモリ34の特徴点座標と、対応点位置メモリ36の対応点座標を読み出し、2枚の画像間の位置関係(平行移動量、回転角度)を算出する。そして補間演算部38では、入力された位置関係から、一方または両方の画像を補正して画像合成部39に出力する。
The corresponding point search unit 35 searches for a point corresponding to the input template in an image different from the image input to the feature point setting unit 33 (here, the image B). A method for searching for corresponding points will be described later.
As a result, the corresponding point coordinate position is output to the corresponding point position memory 36. The correction parameter calculation unit 37 reads the feature point coordinates in the feature point position memory 34 and the corresponding point coordinates in the corresponding point position memory 36, and calculates the positional relationship (parallel movement amount, rotation angle) between the two images. The interpolation calculation unit 38 corrects one or both images from the input positional relationship and outputs the corrected image to the image composition unit 39.

この画像合成部39では、前述したダイナミックレンジ拡大処理や被写界深度拡大処理を実行するが、対象とする画像が前段の画像補正部30で位置あわせが行われた画像であるため、当然正確に重ね合わされた画像が結果画像として得られる。   The image composition unit 39 performs the above-described dynamic range expansion processing and depth-of-field expansion processing. However, since the target image is an image that has been aligned by the previous image correction unit 30, it is naturally accurate. An image superimposed on is obtained as a result image.

図2には、前記特徴点設定部33の構成を示し説明する。
この特徴点設定部33では、複数の特徴点位置を決定するが、画像の一部に多くの特徴点が集中した場合、それ以外の部分で位置あわせの誤差が大きくなる場合がある。そこで領域分割部41では、特徴点が画像中で適当に散らばるようにするため、画像を複数の領域に分割し、さらにその内部に特徴点探索領域を設定する。ここで、全体を均等に分割した例を図3(a)に示す。
FIG. 2 shows and describes the configuration of the feature point setting unit 33.
The feature point setting unit 33 determines a plurality of feature point positions. However, when many feature points are concentrated on a part of the image, an alignment error may increase in other parts. In view of this, the region dividing unit 41 divides the image into a plurality of regions and sets a feature point search region therein so that the feature points are appropriately scattered in the image. Here, FIG. 3A shows an example in which the whole is divided equally.

この領域中でテンプレートの候補となる小領域を移動させ、特徴量が最大となる位置を特徴点の1つとして出力する。ただし、全体を探索すると非常に処理時間がかかってしまうため、図3(a)のように分割した領域より小さな特徴点探索領域を設定することが望ましい。この特徴点探索領域の大きさは、例えば画像サイズの5%というように、画像サイズを基準にして予め決めておく。または、分割された小領域の大きさを基準としても構わない。   A small region that is a template candidate is moved in this region, and the position where the feature amount is maximized is output as one of the feature points. However, since it takes a very long processing time to search the whole, it is desirable to set a feature point search area smaller than the divided area as shown in FIG. The size of the feature point search area is determined in advance based on the image size, for example, 5% of the image size. Alternatively, the size of the divided small area may be used as a reference.

次にテンプレート位置決定部42では、特徴点探索領域内のテンプレート候補位置を決定し、その位置に基づいてテンプレート抽出部43でテンプレート候補内の画像データを切り出す。このとき、テンプレート位置決定部42では、特徴探索領域内で、テンプレート候補の位置を順に移動する。   Next, the template position determination unit 42 determines a template candidate position in the feature point search region, and the template extraction unit 43 cuts out image data in the template candidate based on the position. At this time, the template position determination unit 42 sequentially moves the position of the template candidate within the feature search area.

位置的に近いテンプレート候補の特徴量変化は、あまり大きくない場合もあるので、このような場合はテンプレート候補の位置を1画素毎ずらすのではなく、数画素おきにずらすこともでき、結果的に計算量を削減することができる。   Since the change in the feature amount of the template candidate that is close in position may not be so large, in such a case, the position of the template candidate can be shifted every several pixels instead of every pixel. The amount of calculation can be reduced.

特徴量算出部44では、テンプレート候補の特徴量を計算し、特徴量判定部45で特徴量が最大となるテンプレート位置を決定する。テンプレート抽出部46では、特徴量が最大となった位置周辺のデータを、テンプレートとして抽出する。このテンプレート抽出部46は、テンプレート抽出部43がその役割を兼ねても構わない。
この特徴量としては、例えば(1)式に示すような画素値分散を使うことができる。

Figure 2008199658
The feature amount calculation unit 44 calculates the feature amount of the template candidate, and the feature amount determination unit 45 determines the template position where the feature amount is maximized. The template extraction unit 46 extracts data around the position where the feature amount is maximized as a template. The template extracting unit 46 may serve as the template extracting unit 43.
As this feature quantity, for example, pixel value dispersion as shown in equation (1) can be used.
Figure 2008199658

ここで、aiは画素値、Aはテンプレート候補内の画素値平均であり、テンプレート候補内全体に対して和を取る。また、具体的な式は挙げないが、2次の画素値分散や、エッジ検出結果も特徴量として好ましい値である。このとき、前記値Tが次式、

Figure 2008199658
Here, ai is the pixel value, A is the average pixel value in the template candidates, and is summed over the entire template candidates. Although no specific expression is given, secondary pixel value dispersion and edge detection results are also preferable values as feature amounts. At this time, the value T is expressed by the following equation:
Figure 2008199658

のように、ある規定値Tthより小さい場合は、信頼性が低いとして採用しない。例えば、図3(b)における空の部分のように、画素値の変化が小さい部分では一般に後述するマッチングの精度が落ちるが、本発明の方法では(2)式のような値Tをもつ特徴点候補位置には特徴点が設定されず、位置関係パラメータの精度低下を防ぐことができる。 As described above, when the value is smaller than a predetermined value Tth, it is not adopted because the reliability is low. For example, the accuracy of matching, which will be described later, generally decreases at a portion where the change in the pixel value is small, such as an empty portion in FIG. 3B, but the method of the present invention has a feature having a value T as shown in equation (2). No feature points are set at the point candidate positions, and it is possible to prevent a decrease in accuracy of the positional relationship parameters.

図4は、対応点探索部35の構成を説明する図である。
サーチエリア設定部51では、特徴点設定部33から読み出した特徴点座標を基準に、対応点を探索する領域の位置と大きさを設定する。相関演算部52では、サーチエリア設定部51で設定されたサーチエリア内の情報に基づいて、特徴点設定部33から入力されたテンプレートと同じ大きさを持つように対応点候補位置周囲の画像データをフレームメモリ32b中の画像データから切り出し、特徴点設定部33から入力されたテンプレートデータとの相関値を計算する。
FIG. 4 is a diagram illustrating the configuration of the corresponding point search unit 35.
The search area setting unit 51 sets the position and size of the area for searching for the corresponding points based on the feature point coordinates read from the feature point setting unit 33. In the correlation calculation unit 52, based on the information in the search area set by the search area setting unit 51, image data around the corresponding point candidate position so as to have the same size as the template input from the feature point setting unit 33. Is extracted from the image data in the frame memory 32b, and a correlation value with the template data input from the feature point setting unit 33 is calculated.

相関値判定部53では、テンプレート抽出部46で抽出されたテンプレートと最も相関が高い位置を判定し、結果を対応点位置として対応点位置メモリ36に出力する。
このとき、一般に対応点候補は、1画素毎に移動して相関値を求めるが、画素以下の精度で対応点位置を検出するために、周囲の相関値を参照して補間により対応点位置を決定しても良い。その相関値としては、次の(3)式に示す差分の絶対値和、(4)式に示す相互相関、(5)式に示す正規化相互相関等を使うことができる。

Figure 2008199658
The correlation value determination unit 53 determines a position having the highest correlation with the template extracted by the template extraction unit 46 and outputs the result to the corresponding point position memory 36 as a corresponding point position.
At this time, generally, the corresponding point candidate moves for each pixel to obtain the correlation value. In order to detect the corresponding point position with an accuracy of less than the pixel, the corresponding point position is determined by interpolation with reference to the surrounding correlation value. You may decide. As the correlation value, the sum of absolute values of differences shown in the following equation (3), cross-correlation shown in equation (4), normalized cross-correlation shown in equation (5), and the like can be used.
Figure 2008199658

ここで、bi,Bは、画像Bのサーチエリア内で移動する小領域内の画素値とその平均であり、σA ,σB はテンプレートデータの標準偏差であり、σA 2 ,σB 2 がその分散値となる。
前記(2)〜(4)式を計算する場合、ある代表色のみについて計算すれば、高速に処理することができる。
Here, bi and B are the pixel values in the small area moving within the search area of the image B and their averages, σA and σB are the standard deviations of the template data, and σA 2 and σB 2 are their variance values. It becomes.
When calculating the equations (2) to (4), if only a representative color is calculated, the processing can be performed at high speed.

また、R,G,B各色の相関値を加算して対応点を探索すればより高精度に対応点検索を行うことが可能になる。
そして補正パラメータ算出部37では、特徴点座標データ及び、対応点座標データから、画像A,B間の位置関係を決定する。求めるパラメータは(6)式の cosθ, sinθ,sx,sy,Mである。

Figure 2008199658
In addition, if the corresponding points are searched by adding the correlation values of the R, G, and B colors, the corresponding points can be searched with higher accuracy.
Then, the correction parameter calculation unit 37 determines the positional relationship between the images A and B from the feature point coordinate data and the corresponding point coordinate data. The parameters to be obtained are cos θ, sin θ, sx, sy, and M in equation (6).
Figure 2008199658

ここで 、(x,y)は特徴点位置、(X,Y)は対応点位置を示し、Mは画像間の相対的な倍率に相当する。
前記特徴点位置メモリ34、対応点位置メモリ36には、複数のデータが格納されているので、最小二乗的にパラメータを求めると、(7)式のようになる。

Figure 2008199658
Here, (x, y) represents a feature point position, (X, Y) represents a corresponding point position, and M corresponds to a relative magnification between images.
Since a plurality of data is stored in the feature point position memory 34 and the corresponding point position memory 36, when the parameter is obtained in the least squares, the equation (7) is obtained.
Figure 2008199658

ここで、Nは特徴点数。(8)式より、M, cosθ, sinθは(9)式の様に決定される。

Figure 2008199658
Here, N is the number of feature points. From equation (8), M, cos θ, and sin θ are determined as in equation (9).
Figure 2008199658

また、本来 cosθ, sinθは、 cos2 θ+ sin2 θ=1の関係があるため、対象画像に倍率変化が無いと仮定できる場合、(9)式の結果で、M=1.0とし、(10)式のような関係になった場合、(11)式のように cosθ, sinθを補正したほうがよい。sx,syは補正した cosθ, sinθより計算する。

Figure 2008199658
Further, since cosθ and sinθ originally have a relationship of cos2θ + sin2θ = 1, when it can be assumed that there is no magnification change in the target image, M = 1.0 is obtained as a result of the equation (9), and (10) If the relationship is as in the equation, it is better to correct cos θ and sin θ as in equation (11). sx and sy are calculated from corrected cos θ and sin θ.
Figure 2008199658

前述した(6)〜(9)式は、任意の原点を画像の回転中心としたが、設定・探索された特徴点・対応点位置それぞれの重心は一致すると考えても構わない。特徴点の重心位置は( /x, /y)(ここで、/ は、平均を意味する記号として用いている。尚、各式のイメージ情報にあるように、各式中では、この平均はオーバーバーとして表している)、対応点の重心位置は( /X, /Y)、で与えられ、 cosθ, sinθ,sx,syはそれぞれ(12)、(13)式で与えられる。

Figure 2008199658
In the above-described equations (6) to (9), an arbitrary origin is set as the rotation center of the image. However, it may be considered that the centroids of the set / searched feature points and corresponding point positions coincide with each other. The centroid position of the feature point is (/ x, / y) (where / is used as a symbol meaning the average. In addition, as shown in the image information of each equation, this average is The barycentric position of the corresponding point is given by (/ X, / Y), and cos θ, sin θ, sx, sy are given by equations (12) and (13), respectively.
Figure 2008199658

以上説明したように、本実施形態は、画像中から特徴点を複数抽出し、自動的に位置あわせを行うため、業務用の高価な器材を用いることなく、一般ユーザーでもダイナミックレンジ拡大処理、被写界深度拡大処理の効果を最大限利用することができる。但し、処理の対象画像に歪曲収差が生じている場合には、任意の手法であらかじめ補正しておくことが必要となる。   As described above, the present embodiment extracts a plurality of feature points from an image and automatically aligns them. Therefore, even a general user can perform dynamic range expansion processing and processing without using expensive business equipment. The effect of the depth of field expansion process can be utilized to the maximum extent. However, when distortion is generated in the processing target image, it is necessary to correct it in advance by an arbitrary method.

次に、本発明による第2の実施形態について説明する。
本実施形態は、前述した第1の実施形態に比較して、特徴点設定部33の内部の構成が異なるものである。
Next, a second embodiment according to the present invention will be described.
This embodiment differs from the first embodiment described above in the internal configuration of the feature point setting unit 33.

図5(a)は、特徴点設定部33の概念的な構成を示す図である。この構成は、図1に示した構成に比べて領域指定部81が加わっている点が異なる。
図5(b)は、領域指定部81の構成例を示す図である。この領域指定部81では、入力された画像データに対し、領域指示部83において、注目する領域を複数指示する。特徴点は、ここで指定された領域の内部に前述の方法で設定される。
FIG. 5A is a diagram illustrating a conceptual configuration of the feature point setting unit 33. This configuration is different from the configuration shown in FIG. 1 in that an area specifying unit 81 is added.
FIG. 5B is a diagram illustrating a configuration example of the area specifying unit 81. In the area designating unit 81, a plurality of target areas are instructed in the area instruction unit 83 for the input image data. The feature points are set in the area specified here by the method described above.

この表示制御部84では、指定された領域(後述する領域位置メモリ85からのデータ)を、例えば、図6(a),(b)のように入力画像データ上にオーバーレイし、表示部82に、そのデータを表示する。この表示部82は、PCに付属のディスプレイでも構わないし、別に専用のものを設けても構わない。また領域指示部83は、PCに付属のマウスで指示しても構わないし、別に設けても構わない。前記表示制御部84は、領域指定部81の構成の一部として説明したが、パーソナルコンピュータ等のオペレーティングシステム(OS)の機能を利用するような構成でも構わない。   The display control unit 84 overlays the designated area (data from the area position memory 85 described later) on the input image data as shown in FIGS. , Display the data. The display unit 82 may be a display attached to the PC, or a dedicated display may be provided. The area instruction unit 83 may be instructed by a mouse attached to the PC or may be provided separately. The display control unit 84 has been described as a part of the configuration of the area specifying unit 81, but may be configured to use an operating system (OS) function of a personal computer or the like.

さらに、領域指示部83では、画像中の座標で注目領域を指定しても構わない。 そして領域位置メモリ部85は、領域指示部83で指示された領域の位置・サイズを記憶し、領域分割部41に出力する。領域分割部41では、領域位置メモリ部85からの領域位置情報をもとに、指示された領域内部に前記した方法で特徴点を設定する。   Further, the area instruction unit 83 may designate a region of interest with coordinates in the image. Then, the area position memory unit 85 stores the position / size of the area designated by the area instruction unit 83 and outputs it to the area dividing unit 41. Based on the region position information from the region position memory unit 85, the region dividing unit 41 sets feature points in the designated region by the method described above.

本実施形態の構成により、ユーザーが注目したい部分の位置合わせ精度を上げことができると共に、あまり必要でない部分では特徴点探索を必要としないので、計算時間を短縮することができる。
また、人間や乗り物など、動く被写体が撮影画像に含まれた場合、動いた部分の画像を計算に用いると画像全体の位置合わせに誤差が生じるが、本実施例形態の構成では、そのような部分のデータを利用しないようにできる。
With the configuration of the present embodiment, it is possible to increase the alignment accuracy of the portion that the user wants to pay attention to, and it is possible to reduce the calculation time because the feature point search is not required in the portion that is not so necessary.
In addition, when a moving subject such as a person or a vehicle is included in the photographed image, an error occurs in the alignment of the entire image when the image of the moved part is used for the calculation. You can avoid using partial data.

さらに、領域指示部83で指示した複数領域のうち特定の領域を指示し、その内部だけ他の領域より多く特徴点を設定することで、その特定領域の位置合わせ精度を更に向上することが可能である。   Furthermore, it is possible to further improve the alignment accuracy of the specific area by instructing a specific area among a plurality of areas instructed by the area instructing unit 83 and setting more feature points only in the inside than other areas. It is.

また、ダイナミックレンジ拡大技術の場合は露出値の順に、被写界深度拡大技術の場合には焦点位置の順に画像を整列し、隣り合う画像間で上記の操作を実行することで、ランダムに画像を選択して実行する場合に比べて精度を向上することができる。   In the case of the dynamic range expansion technique, images are arranged in the order of exposure values, and in the case of the depth of field expansion technique, the images are arranged in the order of the focal positions, and the above operation is performed between adjacent images, so that the images are randomly selected. The accuracy can be improved as compared with the case of selecting and executing.

図7は、本発明の第3の実施形態を示す図である。
図7に示した画像補正部30の構成は、図1に示した画像補正部30の構成に加えて、表示部82、表示制御部84、特徴点指示部90が含まれる。複数の特徴点位置は前述の方法で設定され、特徴点メモリ34に記憶される。
FIG. 7 is a diagram showing a third embodiment of the present invention.
The configuration of the image correction unit 30 illustrated in FIG. 7 includes a display unit 82, a display control unit 84, and a feature point instruction unit 90 in addition to the configuration of the image correction unit 30 illustrated in FIG. A plurality of feature point positions are set by the method described above and stored in the feature point memory 34.

この特徴点メモリ34に記憶された特徴点座標は特徴点指示部90に送られ、表示制御部84を通して表示部82に対象画像上にその位置がオーバーレイされる(例えば、図3(b))。   The feature point coordinates stored in the feature point memory 34 are sent to the feature point instruction unit 90, and the position is overlaid on the target image on the display unit 82 through the display control unit 84 (for example, FIG. 3B). .

このとき、特徴点が人間・乗り物等動く被写体(移動物体)上に設定されていると、(6)〜(10)式で計算する補正係数の誤差の原因となる。そこで、特徴点指示部90では、移動物体が含まれている場合は、その物体を検出し、移動物体上に設定された特徴点は計算に使うデータから除外し、特徴点メモリ34からデータを削除する。   At this time, if the feature point is set on a moving subject (moving object) such as a person or a vehicle, it causes an error of the correction coefficient calculated by the equations (6) to (10). Therefore, the feature point instruction unit 90 detects a moving object if it is included, excludes the feature point set on the moving object from the data used for calculation, and stores the data from the feature point memory 34. delete.

この操作は、表示されたデータをユーザーが判断し、特徴点指示部90から除外するデータを示するようにしてもよい。また、対応点探索後、特徴点メモリ34と対応点メモリ36のデータを同時に表示部82に表示し、対応が取れていないとユーザーが判断した場合は、特徴点指示部90により、そのデータを除外することを指示できる用にしても構わない。   In this operation, the user may determine the displayed data and indicate data to be excluded from the feature point instruction unit 90. Further, after the corresponding point search, the data of the feature point memory 34 and the corresponding point memory 36 are simultaneously displayed on the display unit 82, and when the user determines that the correspondence is not achieved, the feature point indicating unit 90 stores the data. It may be used for instructing exclusion.

次に図8を参照して、本発明による第4の実施形態について説明する。この第4の実施形態は、図5の領域指定部81を図8に示すような構成に変更したものである。
図8に示される領域指定部81は、領域指示部83、領域位置メモリ85、状態判定部101から構成される。
本実施形態では、画像の統計的・物理的な性質に基づいて特徴点設定領域に指定する範囲を決定する。
Next, a fourth embodiment according to the present invention will be described with reference to FIG. In the fourth embodiment, the area designating unit 81 shown in FIG. 5 is changed to the configuration shown in FIG.
The area designation unit 81 shown in FIG. 8 includes an area instruction unit 83, an area position memory 85, and a state determination unit 101.
In the present embodiment, the range to be designated as the feature point setting area is determined based on the statistical and physical properties of the image.

まず、画像全体を図9(a)のように予め決められた大きさに分割する。このとき分割するサイズは、特徴点設定部で切り出されるテンプレートより大きい範囲とする。
分割された各部分は状態判定部101に送られ、特徴点設定領域に指定するかどうかを判断する。状態判定部101では入力された画像データを走査し、飽和した画素が一定の割合を超えている場合は特徴点設定領域として適さないと判断する。
First, the entire image is divided into a predetermined size as shown in FIG. The size to be divided at this time is larger than the template cut out by the feature point setting unit.
Each of the divided parts is sent to the state determination unit 101, and it is determined whether or not to specify the feature point setting area. The state determination unit 101 scans the input image data, and determines that it is not suitable as a feature point setting region if the saturated pixels exceed a certain ratio.

また、状態判定部101では、入力データの平均値がある閾値を超えている場合は、特徴点設定領域として適さないと判断しても構わない。
領域指示部83は、図9(b)のように、分割した領域の画像データを順番に状態判定部101に出力し、特徴点設定領域として適していると判断された場合は、その範囲を含むように領域位置メモリ85に記録する。
Further, the state determination unit 101 may determine that it is not suitable as a feature point setting area when the average value of input data exceeds a certain threshold.
As shown in FIG. 9B, the region instruction unit 83 sequentially outputs the image data of the divided regions to the state determination unit 101, and when it is determined that the region is appropriate as the feature point setting region, the range is displayed. It records in the area position memory 85 so as to include it.

前述した説明では、各分割領域ごとに判断したが、状態判定部に出力する画像データとして、領域位置メモリ85に記録されている範囲全体にしても構わない。また、図9(c)に示したように、領域指示部83で、ユーザーがある分割領域を指定し、その周辺の領域から順番に特徴点指定領域に含んでいくようにしても良い。
さらに、図10に示すように、領域指示部83で、ユーザーがある1点を指定し、その周りに拡張した矩形を仮定し、その画像データを状態判定部101で判断するようにしてもよい。
In the above description, the determination is made for each divided region, but the entire range recorded in the region position memory 85 may be used as the image data output to the state determination unit. Further, as shown in FIG. 9C, the user may designate a certain divided area by the area instructing unit 83 and include it in the feature point designation area in order from the surrounding area.
Further, as shown in FIG. 10, the user may designate a certain point in the area instruction unit 83 and assume a rectangle expanded around the point, and the state determination unit 101 may determine the image data. .

また、飽和した画素値を判断基準に用いたが、状態判定部101では、入力した画像の離散フーリエ変換、離散コサイン変換といった直交変換を画像に施した時の高周波成分のパワーや、ウェーブレット変換の成分によって判断しても構わない。
さらに、状態判定部101では、入力されたデータのコントラストや画素値最大と最小の差を判断に用いても構わない。
In addition, although the saturated pixel value is used as a determination criterion, the state determination unit 101 uses the power of a high-frequency component when the image is subjected to orthogonal transform such as discrete Fourier transform or discrete cosine transform of the input image, or wavelet transform. You may judge by a component.
Further, the state determination unit 101 may use the contrast of input data or the difference between the maximum and minimum pixel values for determination.

次に図11を参照して、本発明による第5の実施形態について説明する。
本実施形態は、3枚以上の画像が処理対象になっている例である。ここで、図示するうち、前述した図1と同等の構成部位には、同じ参照符号を付してその説明を省略する。
Next, a fifth embodiment of the present invention will be described with reference to FIG.
This embodiment is an example in which three or more images are processed. Here, in the figure, the same components as those in FIG. 1 described above are denoted by the same reference numerals, and the description thereof is omitted.

本実施形態において、画像データ再生部31で再生された画像データは、画像選択指示部114の指示により切換動作する画像切替部111によっていずれかのフレームメモリ32a,32bに入力される。この画像選択指示部114は、入力された同一被写体が撮影された複数の画像を順次処理できるように装置の処理時間等を見計らって、2つのフレームメモリに対して交互に入力されるように画像切換部111を制御するものである。   In the present embodiment, the image data reproduced by the image data reproducing unit 31 is input to one of the frame memories 32 a and 32 b by the image switching unit 111 that performs a switching operation according to an instruction from the image selection instruction unit 114. The image selection instruction unit 114 estimates the processing time of the apparatus so that a plurality of images taken of the same subject that have been input can be sequentially processed, and the images are input alternately to the two frame memories. The switching unit 111 is controlled.

前記フレームメモリ32a,32bに格納された画像から前述した方法で特徴点・対応点を検出し、補正パラメータ算出部37で画像間の位置関係(平行移動量・回転角度・相対倍率)を算出する。補正パラメータ算出部37で算出されたパラメーターは、画像ID、参照画像IDと共に補正パラメータ記憶部113に記憶される。   The feature points / corresponding points are detected from the images stored in the frame memories 32a and 32b by the above-described method, and the positional relationship (parallel movement amount / rotation angle / relative magnification) between the images is calculated by the correction parameter calculation unit 37. . The parameters calculated by the correction parameter calculation unit 37 are stored in the correction parameter storage unit 113 together with the image ID and the reference image ID.

前記補正パラメータ変換部112は、補正パラメータ記憶部113に記憶されたデータを読み出し、それぞれのデータを予め指定された補正の基準となる画像からみた平行移動量・回転角度に変換する。続いて、補間演算部38では、補正パラメータ変換部112で補正基準画像からみたパラメータに従って画像を補正する。   The correction parameter conversion unit 112 reads data stored in the correction parameter storage unit 113, and converts each data into a parallel movement amount / rotation angle viewed from an image serving as a reference for correction specified in advance. Subsequently, in the interpolation calculation unit 38, the correction parameter conversion unit 112 corrects the image according to the parameters viewed from the correction reference image.

ここで補正パラメータ変換部112でのデータ変換及び補間演算部38での補正は、画像切替部111の操作毎に行っても構わないし、対象画像全てについて相対的な位置関係を算出した後、改めてフレームメモリ32に画像を読み込んで行っても構わない。
また、本実施形態ではフレームメモリ32を2つとし、信号切替部111により入力画像を切り替えるように説明したが、対象画像全てを格納できる数のフレームメモリを用意しても構わない。
Here, the data conversion in the correction parameter conversion unit 112 and the correction in the interpolation calculation unit 38 may be performed for each operation of the image switching unit 111. After calculating the relative positional relationship for all the target images, the data conversion is performed again. The image may be read into the frame memory 32.
In the present embodiment, two frame memories 32 are used and the input image is switched by the signal switching unit 111. However, a number of frame memories that can store all target images may be prepared.

以上の実施形態について説明したが、本明細書には以下のような発明も含まれている。
(1) 撮影条件の異なる複数の画像において、
画像を複数の分割領域に分割し、前記分割領域中におのおのの分割領域と同じまたは小さい特徴点探索領域を設け、それぞれの特徴点探索領域から画像の統計量に基づいて被写体の特徴的な位置情報を抽出し、前記複数の画像のうち、被写体の特徴的な位置情報を抽出した画像とは異なる画像中で対応する点を探索し、前記特徴的な位置情報及び対応する点の位置情報より補正パラメータ(画像間の回転・移動・倍率変化等)を検出し、前記補正パラメータとしての画像間の回転・移動・倍率変化に基づいて画像を補正する画像処理装置。
Although the above embodiments have been described, the present invention includes the following inventions.
(1) In multiple images with different shooting conditions,
An image is divided into a plurality of divided areas, and feature point search areas that are the same as or smaller than each of the divided areas are provided in the divided areas, and the characteristic position of the subject is determined from each feature point search area based on image statistics. Information is extracted, and a corresponding point in the image different from the image from which the characteristic position information of the subject is extracted is searched from among the plurality of images, and the characteristic position information and the position information of the corresponding point are searched. An image processing apparatus that detects a correction parameter (rotation / movement / magnification change between images) and corrects an image based on rotation / movement / magnification change between images as the correction parameter.

本発明は、第1の実施形態に対応する。
これにより、複数の画像を重ねる際に、より正確な画像の重ね合わせ行うことができるようになる。
The present invention corresponds to the first embodiment.
As a result, more accurate images can be superimposed when a plurality of images are superimposed.

(2) 前記(1)項に記載の画像処理装置において、
前記回転・移動・倍率変化に基づいて画像を補正する際に特定の基準画像から見た回転・移動・倍率変化を表わすようにパラメータを変換してから補正することを特徴とする。
(2) In the image processing apparatus according to (1),
When the image is corrected based on the rotation / movement / magnification change, the correction is performed after converting the parameters so as to represent the rotation / movement / magnification change seen from a specific reference image.

本発明は第5の実施形態に対応する。
これにより、複数の画像を重ねる際に、それぞれの画像に対して適当な任意の補正パラメータを設定でき、撮影者の意図に応じた、より正確な画像の重ね合わせを行うことができるようになる。
The present invention corresponds to the fifth embodiment.
As a result, when a plurality of images are overlaid, any appropriate correction parameter can be set for each image, and more accurate image superposition according to the photographer's intention can be performed. .

(3) 前記複数の分割領域について、
分割する領域を画像の一部に制限することを特徴とする1に記載の画像処理装置。
本発明は、第2の実施形態に対応する。
これにより、複数の画像を重ねる際に、画像処理の速度が向上すると共に、それぞれの画像に対して適当な領域を設定でき、撮影者の意図に応じた、より正確な画像の重ね合わせを行うことができるようになる。
(3) For the plurality of divided regions,
2. The image processing apparatus according to 1, wherein a region to be divided is limited to a part of an image.
The present invention corresponds to the second embodiment.
As a result, the speed of image processing is improved when a plurality of images are superimposed, and an appropriate area can be set for each image, and more accurate images can be superimposed according to the intention of the photographer. Will be able to.

(4) 前記(1)項または(3)項に記載の画像処理装置において、
前記画像の統計量に基づく被写体の特徴的な位置情報のうち、複数の画像間で位置が移動している被写体上に設定された位置情報は画像間の回転・移動・倍率変化の検出に用いないことを特徴とする。
本発明は、第3の実施形態に対応する。
これにより、複数の画像を重ねる際に、移動物体が存在する領域を排除しているので、より正確な画像の重ね合わせを行うことができるようになる。
(4) In the image processing apparatus according to (1) or (3),
Of the characteristic position information of the subject based on the statistics of the image, the position information set on the subject whose position is moving between a plurality of images is used to detect rotation, movement, and magnification change between images. It is characterized by not.
The present invention corresponds to the third embodiment.
Thereby, when overlapping a plurality of images, the area where the moving object exists is excluded, so that more accurate image overlapping can be performed.

(5) 前記(3)項に記載の画像処理装置において、
分割する領域を画像の一部に制限する制限領域は、直交変換したときの高周波成分の割合、飽和した画素の割合、画素値の平均値、最大及び最小の画素値の差、コントラストのいずれかの値を基準に制限されることを特徴とする。
(5) In the image processing apparatus according to (3),
The restricted area that limits the area to be divided to a part of the image is one of the ratio of high frequency components, the ratio of saturated pixels, the average value of pixel values, the difference between maximum and minimum pixel values, and contrast It is limited on the basis of the value of.

本発明は、第4の実施形態に対応する。
これにより、複数の画像を重ねる際に、画像処理の速度が向上すると共に、それぞれの画像に対して適当な領域を自動的に設定することができ、撮影者の意図に応じた、より正確な画像の重ね合わせを行うことができるようになる。
The present invention corresponds to the fourth embodiment.
As a result, when a plurality of images are overlaid, the speed of image processing is improved, and an appropriate area can be automatically set for each image, which is more accurate according to the photographer's intention. Images can be superimposed.

(6) 前記(5)項に記載の画像処理装置において、
特定点を中心に制限領域を広げていくことを特徴とする。
本発明は第4の実施形態に対応する。
これにより、複数の画像を重ねる際に、特定点を中心に、それぞれの画像に対して適当な領域を設定するので、より正確な画像の重ね合わせを行うことができるようになる。
(6) In the image processing device according to (5),
It is characterized by expanding the restricted area around a specific point.
The present invention corresponds to the fourth embodiment.
As a result, when a plurality of images are overlapped, an appropriate region is set for each image with a specific point as the center, so that more accurate image overlap can be performed.

第1の実施形態としての画像処理装置の構成例を示す図である。It is a figure which shows the structural example of the image processing apparatus as 1st Embodiment. 図1に示した特徴点設定部の構成例を示す図である。It is a figure which shows the structural example of the feature point setting part shown in FIG. 図3(a)は、画像を複数の分割した分割領域と、各分割領域に設定された特徴点探索領域を示す図、図3(b)は、特徴点について説明するための図である。FIG. 3A is a diagram showing a plurality of divided regions obtained by dividing an image and feature point search regions set in each divided region, and FIG. 3B is a diagram for explaining feature points. 図1に示した対応点探索部の構成例を示す図である。It is a figure which shows the structural example of the corresponding point search part shown in FIG. 図5(a)は、第2の実施形態としての画像処理装置の構成例を示す図、図5(b)は、領域指定部の構成例を示す図である。FIG. 5A is a diagram illustrating a configuration example of an image processing apparatus according to the second embodiment, and FIG. 5B is a diagram illustrating a configuration example of an area specifying unit. 図6(a)は、画像上に表示された指定領域の一例を示す図、図6(b)は、画像上に表示された注目位置を示す図である。FIG. 6A is a diagram illustrating an example of the designated area displayed on the image, and FIG. 6B is a diagram illustrating the position of interest displayed on the image. 第3の実施形態としての画像処理装置の構成例を示す図である。It is a figure which shows the structural example of the image processing apparatus as 3rd Embodiment. 第4の実施形態としての画像処理装置に用いられる領域指定部の構成例を示す図である。It is a figure which shows the structural example of the area | region designation | designated part used for the image processing apparatus as 4th Embodiment. 図9(a)は、複数の分割領域に分割された入力画像を示す図、図9(b)は、走査による特徴点設定領域の指定について説明するための図、図9(c)は、拡張による特徴点設定領域の指定について説明するための図である。FIG. 9A is a diagram showing an input image divided into a plurality of divided regions, FIG. 9B is a diagram for explaining designation of a feature point setting region by scanning, and FIG. It is a figure for demonstrating designation | designated of the feature point setting area | region by expansion. 指定点から拡張した矩形を特徴点設定領域として指定することについて説明するための図である。It is a figure for demonstrating designating the rectangle extended from the designated point as a feature point setting area | region. 第5の実施形態としての画像処理装置の構成例を示す図である。It is a figure which shows the structural example of the image processing apparatus as 5th Embodiment. 従来の広ダイナミックレンジ画像を作成するための構成例を示す図である。It is a figure which shows the structural example for producing the conventional wide dynamic range image. 従来の深い被写界深度を有する画像を作成するための構成例を示す図である。It is a figure which shows the structural example for producing the image which has the conventional deep depth of field.

符号の説明Explanation of symbols

30…画像補正部、31…画像データ再生部、32…フレームメモリ、33…特徴点設定部、34…特徴点位置メモリ、35…対応点探索部、36…対応点位置メモリ、37…補正パラメータ算出部、38…補間演算部、39…画像合成部。   DESCRIPTION OF SYMBOLS 30 ... Image correction part, 31 ... Image data reproduction part, 32 ... Frame memory, 33 ... Feature point setting part, 34 ... Feature point position memory, 35 ... Corresponding point search part, 36 ... Corresponding point position memory, 37 ... Correction parameter Calculation unit, 38 ... interpolation calculation unit, 39 ... image composition unit.

Claims (3)

ほぼ同一の構図を異なる撮影条件で撮影した複数の画像間の位置合わせ処理を行う画像処理装置であって、
入力した画像の少なくとも1つの画像を複数の分割領域に分割し、前記各分割領域内に画像の特徴を表す特徴点の探索領域を設ける探索領域設定手段と、
前記分割領域内に設けられた探索領域に含まれる画素の画素値を用いて算出された算出値とある規定値との比較結果に基づいて、複数の前記設けられた探索領域の中から実際に特徴点の探索を行うための探索領域を選択する探索領域選択手段と、
前記画像の特微量に基づいて、前記選択された探索領域から前記構図内の被写体の特徴的な位置情報を前記分割画像の各分割領域に対する座標に関連させて抽出する位置情報抽出手段と、
を具備することを特徴とする画像処理装置。
An image processing apparatus that performs an alignment process between a plurality of images obtained by shooting substantially the same composition under different shooting conditions,
Search area setting means for dividing at least one of the input images into a plurality of divided areas and providing a search area for feature points representing the features of the image in each of the divided areas;
Based on a comparison result between a calculated value calculated using a pixel value of a pixel included in the search area provided in the divided area and a specified value, the search area is actually selected from the plurality of search areas provided. Search area selection means for selecting a search area for searching for feature points;
Position information extraction means for extracting characteristic position information of a subject in the composition from the selected search area in association with coordinates for each divided area based on the feature amount of the image;
An image processing apparatus comprising:
前記探索領域選択手段は、ある規定値以上である前記算出値に対応する探索領域を、実際に特徴点の探索を行うための探索領域として選択することを特徴とする請求項1に記載の画像処理装置。   The image according to claim 1, wherein the search area selection unit selects a search area corresponding to the calculated value that is equal to or greater than a predetermined value as a search area for actually searching for a feature point. Processing equipment. ほぼ同一の構図を異なる撮影条件で撮影した複数の画像間の位置合わせ処理を行う画像処理方法であって、
入力した画像の少なくとも1つの画像を複数の分割領域に分割し、前記各分割領域内に画像の特徴を表す特徴点の探索領域を設ける探索領域設定工程と、
前記分割領域内に設けられた探索領域に含まれる画素の画素値を用いて算出された算出値とある規定値との比較結果に基づいて、複数の前記設けられた探索領域の中から実際に特徴点の探索を行うための探索領域を選択する探索領域選択工程と、
前記画像の特微量に基づいて、前記選択された探索領域から前記構図内の被写体の特徴的な位置情報を前記分割画像の各分割領域に対する座標に関連させて抽出する位置情報抽出工程と、
を具備することを特徴とする画像処理方法。
An image processing method for performing an alignment process between a plurality of images obtained by shooting substantially the same composition under different shooting conditions,
A search area setting step of dividing at least one of the input images into a plurality of divided areas and providing a search area for feature points representing the features of the image in each of the divided areas;
Based on a comparison result between a calculated value calculated using a pixel value of a pixel included in the search area provided in the divided area and a specified value, the search area is actually selected from the plurality of search areas provided. A search area selection step of selecting a search area for searching for feature points;
A position information extraction step of extracting characteristic position information of a subject in the composition from the selected search area in association with coordinates for each divided area based on the feature amount of the image;
An image processing method comprising:
JP2008098571A 2008-04-04 2008-04-04 Image processor and image processing method thereof Pending JP2008199658A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008098571A JP2008199658A (en) 2008-04-04 2008-04-04 Image processor and image processing method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008098571A JP2008199658A (en) 2008-04-04 2008-04-04 Image processor and image processing method thereof

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP35519997A Division JP4136044B2 (en) 1997-12-24 1997-12-24 Image processing apparatus and image processing method therefor

Publications (2)

Publication Number Publication Date
JP2008199658A true JP2008199658A (en) 2008-08-28
JP2008199658A5 JP2008199658A5 (en) 2008-10-09

Family

ID=39758126

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008098571A Pending JP2008199658A (en) 2008-04-04 2008-04-04 Image processor and image processing method thereof

Country Status (1)

Country Link
JP (1) JP2008199658A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101018233B1 (en) * 2009-03-31 2011-02-28 강희민 High dynamic range image generation apparatus and method
JP2013143108A (en) * 2012-01-12 2013-07-22 Nk Works Kk Image processing program and image processing device
JP2017054431A (en) * 2015-09-11 2017-03-16 キヤノン株式会社 Image processing device, image processing method, and program
JP2017123588A (en) * 2016-01-08 2017-07-13 富士ゼロックス株式会社 Color processing apparatus, image formation device, and image formation system
WO2019065784A1 (en) * 2017-09-29 2019-04-04 Necソリューションイノベータ株式会社 Image processing device, image processing method, and computer-readable recording medium
WO2020137405A1 (en) * 2018-12-27 2020-07-02 富士フイルム株式会社 Image processing device, image processing method, and program

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101018233B1 (en) * 2009-03-31 2011-02-28 강희민 High dynamic range image generation apparatus and method
JP2013143108A (en) * 2012-01-12 2013-07-22 Nk Works Kk Image processing program and image processing device
JP2017054431A (en) * 2015-09-11 2017-03-16 キヤノン株式会社 Image processing device, image processing method, and program
JP2017123588A (en) * 2016-01-08 2017-07-13 富士ゼロックス株式会社 Color processing apparatus, image formation device, and image formation system
WO2019065784A1 (en) * 2017-09-29 2019-04-04 Necソリューションイノベータ株式会社 Image processing device, image processing method, and computer-readable recording medium
JPWO2019065784A1 (en) * 2017-09-29 2020-08-06 Necソリューションイノベータ株式会社 Image processing apparatus, image processing method, and program
WO2020137405A1 (en) * 2018-12-27 2020-07-02 富士フイルム株式会社 Image processing device, image processing method, and program
JPWO2020137405A1 (en) * 2018-12-27 2021-11-04 富士フイルム株式会社 Image processing equipment, image processing methods, and programs
JP7152515B2 (en) 2018-12-27 2022-10-12 富士フイルム株式会社 Image processing device, image processing method, and program

Similar Documents

Publication Publication Date Title
JP4136044B2 (en) Image processing apparatus and image processing method therefor
JP4924430B2 (en) Imaging apparatus, image processing apparatus, and program
US9558543B2 (en) Image fusion method and image processing apparatus
JP4556813B2 (en) Image processing apparatus and program
KR101603791B1 (en) Method for fabricating a panorama
KR20110078175A (en) Method and apparatus for generating of image data
JP5569357B2 (en) Image processing apparatus, image processing method, and image processing program
JP5825172B2 (en) Image determination apparatus, image determination method, and computer program for image determination
US9811909B2 (en) Image processing apparatus, distance measuring apparatus, imaging apparatus, and image processing method
JP2007074578A (en) Image processor, photography instrument, and program
JP5766077B2 (en) Image processing apparatus and image processing method for noise reduction
JP5210198B2 (en) Image processing apparatus, image processing method, and image processing program
JP2008199658A (en) Image processor and image processing method thereof
JP2018107526A (en) Image processing device, imaging apparatus, image processing method and computer program
US9020269B2 (en) Image processing device, image processing method, and recording medium
JP2006229868A (en) Image processing apparatus and method, and motion detection apparatus and method
JP2011191860A (en) Imaging apparatus, imaging processing method, and program
JP6802848B2 (en) Image processing equipment, imaging system, image processing method and image processing program
JP2019101997A (en) Image processing apparatus and image processing method reducing noise by composing plural captured images
JP2006049949A (en) Image processing apparatus, image processing method and program thereof
US20100079582A1 (en) Method and System for Capturing and Using Automatic Focus Information
JP2018182700A (en) Image processing apparatus, control method of the same, program, and storage medium
CN116456191A (en) Image generation method, device, equipment and computer readable storage medium
JP2019208214A (en) Image processing apparatus, image processing method, program, and imaging apparatus
JP2020009099A (en) Image processing device, image processing method, and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080827

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090414

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090915