JPH11185018A - Image processor - Google Patents

Image processor

Info

Publication number
JPH11185018A
JPH11185018A JP9355199A JP35519997A JPH11185018A JP H11185018 A JPH11185018 A JP H11185018A JP 9355199 A JP9355199 A JP 9355199A JP 35519997 A JP35519997 A JP 35519997A JP H11185018 A JPH11185018 A JP H11185018A
Authority
JP
Japan
Prior art keywords
image
position information
images
feature
divided
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP9355199A
Other languages
Japanese (ja)
Other versions
JP4136044B2 (en
Inventor
Masaki Higure
正樹 日暮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Optical Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Optical Co Ltd filed Critical Olympus Optical Co Ltd
Priority to JP35519997A priority Critical patent/JP4136044B2/en
Publication of JPH11185018A publication Critical patent/JPH11185018A/en
Application granted granted Critical
Publication of JP4136044B2 publication Critical patent/JP4136044B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Image Input (AREA)
  • Image Processing (AREA)
  • Studio Circuits (AREA)

Abstract

PROBLEM TO BE SOLVED: To exactly overlap images by correcting the images so as to match the object positions of the respective images based on the feature position information of input images and the deviation between the respective coordinates of position information at correspondent points. SOLUTION: A feature point setting part 33 sets the plural feature points (coordinates) of the input image. Image data around the feature points are segmented as a template and inputted to a correspondent point search part 35. The correspondent point search part 35 searches a point corresponding to the template in an image different from the image inputted to the feature point setting part 33 and outputs the correspondent point coordinate position to a correspondent point position memory 36. A correction parameter calculating part 37 reads out the feature point coordinate in a memory 34 and the correspondent point coordinate in a memory 36 and calculates the position relation (parallel moving amount or rotating angle) between two images. An interpolation operating part 38 corrects the images based on the inputted position relation and outputs them to an image synthesizing part 39. The image synthesizing part 39 executes dynamic range expanding processing or object field depth expanding processing.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、同一の被写体を異
なる撮影条件で撮影した複数の画像から入力機器のダイ
ナミックレンジや被写界深度を超えた画像を合成する装
置に係り、特に各画像を重ね合わせた際に被写体が一致
するように位置合わせ補正を行う画像処理装置に関す
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an apparatus for synthesizing an image exceeding a dynamic range of an input device or a depth of field from a plurality of images obtained by photographing the same subject under different photographing conditions. The present invention relates to an image processing apparatus that performs position correction so that a subject coincides when superimposed.

【0002】[0002]

【従来の技術】一般に、同一の被写体を異なる露出で撮
影した複数の画像を合成することで、CCD(Charge C
oupled Device )等の撮像素子の固有のダイナミックレ
ンジ以上の範囲のダイナミックレンジを有する画像を作
成する画像処理技術(例えば、特開昭63−23259
1号公報)や、同一の被写体を異なる焦点位置で撮影し
た複数の画像を合成し、入力光学系の被写界深度よりも
深い被写界深度を有する画像を作成する画像処理技術
(特開平1−309478号公報)がある。
2. Description of the Related Art In general, a CCD (Charge C) is constructed by synthesizing a plurality of images obtained by photographing the same subject with different exposures.
image processing technology for creating an image having a dynamic range greater than the dynamic range inherent to an image pickup device such as an Oupled Device (for example, JP-A-63-23259).
No. 1) and an image processing technique of combining a plurality of images of the same subject photographed at different focal positions to create an image having a depth of field larger than the depth of field of the input optical system (Japanese Patent Application Laid-Open No. No. 1-309478).

【0003】この広ダイナミックレンジ画像を作成する
技術は、図12(a)に示す構成で実現される。図示さ
れる画像 A,Bは、それぞれ露出を変えて撮影した画
像であり、撮像素子に入射する入射光量と、画像入力機
器で得られる画像の信号値との関係は、図12(b)の
“[A]長時間露出”、“[B]短時間露出”のように
なる。
[0003] The technique of creating a wide dynamic range image is realized by the configuration shown in FIG. Illustrated images A and B are images captured with different exposures. The relationship between the amount of incident light incident on the image sensor and the signal value of the image obtained by the image input device is shown in FIG. "[A] Long exposure" and "[B] Short exposure".

【0004】加算器11では画像A,Bの画素値が加算
され、図12(b)に“[C]加算信号”として示す値
がフレームメモリ12に記憶される。この“[C]加算
信号”の形状は、2枚の画像の露出比で決定されてい
る。線形変換部13では、加算信号値Sから入射光量I
を推定し、マトリクス回路15ではR,B,G各色の信
号値から輝度信号値Yに変換する。
In the adder 11, the pixel values of the images A and B are added, and the value shown as "[C] addition signal" in FIG. The shape of the “[C] addition signal” is determined by the exposure ratio of two images. The linear converter 13 calculates the incident light amount I from the addition signal value S.
Is estimated, and the matrix circuit 15 converts the signal values of each of the R, B, and G colors into a luminance signal value Y.

【0005】そして輝度圧縮部16では、推定入射光量
が既定の階調数に収まるように輝度値を圧縮し、圧縮さ
れた輝度信号値Y’が出力される。除算器17では、
Y’/Yが計算され、線形変換部16の出力であるR,
G,Bそれぞれの信号と乗算器18で掛け合わせられ、
結果がフレームメモリ19に格納される。
[0005] Then, the luminance compression section 16 compresses the luminance value so that the estimated incident light quantity falls within a predetermined number of gradations, and outputs a compressed luminance signal value Y '. In the divider 17,
Y ′ / Y is calculated, and R,
The signal of each of G and B is multiplied by the multiplier 18,
The result is stored in the frame memory 19.

【0006】この画像処理技術は、複数の画像データを
利用しているため、単に短時間露出画像をトーンカーブ
処理した場合に比べて、色再現が良好でノイズの少ない
画像を得ることができる。
Since this image processing technique uses a plurality of image data, an image having better color reproduction and less noise can be obtained as compared with a case where a short-time exposure image is simply subjected to tone curve processing.

【0007】また、前述した入力光学系の被写界深度よ
りも深い被写界深度を有する画像を作成する画像処理技
術は、例えば図13に示す構成で実現される。まず、焦
点位置を変えて撮影された画像は、加算器21で重み付
け加算され、フレームメモリ22に記憶される。焦点位
置を変えた画像を焦点位置に応じて重み付け加算する
と、画像全体のボケが均一化されることが知られてい
る。
An image processing technique for creating an image having a depth of field greater than the depth of field of the input optical system described above is realized, for example, by the configuration shown in FIG. First, an image photographed by changing the focal position is weighted and added by the adder 21 and stored in the frame memory 22. It is known that blurring of the entire image is uniformed when weighted addition of an image whose focal position is changed is performed according to the focal position.

【0008】そこで、回復フィルタ設定回路25では、
加算後の画像におけるボケの回復フィルタを決定し、マ
トリクス演算回路23に出力する。ここで、ボケ回復フ
ィルタの作成方法は、本発明の本質に関わる部分ではな
いため省略する。マトリクス演算回路23では、加算画
像に回復フィルタを作用させ、結果をフレームメモリ2
4に格納する。この結果、フレームメモリ24に格納さ
れた画像は、撮像光学系より被写界深度の深い画像とな
っている。
Therefore, in the recovery filter setting circuit 25,
A blur recovery filter for the image after the addition is determined and output to the matrix operation circuit 23. Here, the method of creating the blur recovery filter is not a part related to the essence of the present invention, and thus the description thereof is omitted. The matrix operation circuit 23 applies a restoration filter to the added image and stores the result in the frame memory 2.
4 is stored. As a result, the image stored in the frame memory 24 has a deeper depth of field than the imaging optical system.

【0009】[0009]

【発明が解決しようとする課題】前述した画像処理技術
は、撮影した画像を一旦、画素ごとに加算または重み付
け加算したのち、ダイナミックレンジ圧縮処理や回復処
理といった一連の処理を行うものであった。そのため、
加算の対象となる画像がお互いに位置ずれを起こしてい
ると、加算したときにずれてしまい、正確な結果が得ら
れなかった。
In the above-described image processing technique, a series of processes such as a dynamic range compression process and a restoration process are performed after a photographed image is once added or weighted and added for each pixel. for that reason,
If the images to be added are displaced from each other, they will be displaced when added, and accurate results cannot be obtained.

【0010】そのため、ダイナミックレンジ拡大処理の
場合は、非破壊読み出しが可能なため、原理的に複数の
露出で画像を撮影する間に位置ずれを起こすことの無い
CMD(Charge Modurated Device )素子を使った機器
を利用する、また被写界深度拡大処理では、強固なステ
ージが必要といったように、業務用の高価な装置が必要
とされた。また、焦点位置を変えて撮影する場合は、焦
点位置毎の微妙な倍率の変化も影響する。
[0010] Therefore, in the case of the dynamic range expansion processing, since nondestructive reading is possible, a CMD (Charge Modurated Device) element which does not cause a displacement during photographing an image with a plurality of exposures in principle is used. Expensive equipment for business use was required, such as using a dedicated device, and in the process of expanding the depth of field, a robust stage was required. Further, when photographing is performed with the focal position changed, a slight change in magnification for each focal position also has an effect.

【0011】それに対し、一般ユーザーが利用するよう
なデジタルカメラ、スキャナ、三脚などでは、業務用機
器に比べて、精度は期待できない簡易的なものが大半を
占めている。従って、前述した画像処理技術の利点を十
分に生かすことができなかった。
On the other hand, digital cameras, scanners, tripods, and the like used by general users are mostly simple ones that cannot be expected to have higher accuracy than commercial equipment. Therefore, the advantages of the image processing technique described above cannot be fully utilized.

【0012】例えば、三脚にデジタルカメラを載せて撮
影する場合、シャッタを押すときにカメラが動いてしま
ったり、銀塩カメラで撮影した画像をフィルムスキャナ
で取り込む場合、フィルムの挿入の仕方により、互いに
ずれてしまうなどである。
For example, when taking a picture with a digital camera mounted on a tripod, the camera moves when the shutter is pressed, or when taking a picture taken with a silver halide camera with a film scanner, depending on how the film is inserted, And so on.

【0013】そこで本発明は、露出や焦点位置など撮影
条件が異なる複数の画像間の位置関係を検出し、検出し
た位置関係を示すパラメータの値によって、正確に画像
が重なるように補正する画像処理装置を提供することを
目的とする。
Accordingly, the present invention provides an image processing for detecting a positional relationship between a plurality of images having different photographing conditions such as an exposure and a focus position, and correcting the images so as to be accurately overlapped by a parameter value indicating the detected positional relationship. It is intended to provide a device.

【0014】[0014]

【課題を解決するための手段】本発明は上記目的を達成
するために、ほぼ同一の構図(撮影領域)を異なる撮影
条件で撮影した複数の画像間の位置合わせ処理を行う画
像処理装置において、入力した画像の少なくとも1つの
画像を複数の分割領域に分割し、前記各分割領域内に画
像の特徴を表す特徴点の探索領域を設ける探索領域設定
手段と、前記各特徴点の探索領域から前記画像の特徴量
に基づいて、前記構図内の被写体の特徴的な位置情報を
前記分割画像の各分割領域に対する座標に関連させて抽
出する第1の位置情報抽出手段と、前記分割された画像
以外の前記入力画像のそれぞれに対して、前記特徴的な
位置情報に対応する点を探索し、得られた対応する点を
その画像に対する座標に関連させた位置情報として抽出
する第2の位置情報抽出手段と、抽出された前記特徴的
な位置情報及び前記対応する点の位置情報の各座標間の
ずれに基づく補正パラメータを検出する補正パラメータ
検出手段と、検出された補正パラメータに基づき、各画
像の被写体位置が一致するように画像を補正する画像補
正手段とを備える画像処理装置を提供する。
SUMMARY OF THE INVENTION In order to achieve the above object, the present invention provides an image processing apparatus for performing a positioning process between a plurality of images obtained by shooting substantially the same composition (imaging area) under different imaging conditions. A search area setting unit that divides at least one image of the input image into a plurality of divided areas and provides a search area for a feature point representing a feature of an image in each of the divided areas; First position information extracting means for extracting characteristic position information of a subject in the composition in association with coordinates for each divided region of the divided image based on a feature amount of the image; A second position information for searching for a point corresponding to the characteristic position information for each of the input images, and extracting the obtained corresponding point as position information associated with coordinates for the image. Extraction means, correction parameter detection means for detecting a correction parameter based on a deviation between each coordinate of the extracted characteristic position information and position information of the corresponding point, and each image based on the detected correction parameter. And an image correcting unit for correcting an image so that the subject positions coincide with each other.

【0015】以上のような構成の画像処理装置は、入力
された複数の画像のうち1枚が選択され、この画像が複
数の領域に分割されて、その分割領域の特徴量から特徴
点を設定し、その特徴点の座標位置を記憶する。その特
徴点の座標に基づき、選択されなかった別の各入力画像
に対して、対応する点を探索し、その対応点の座標位置
を抽出して、特徴点の座標と対応点座標から画像間の位
置関係(平行移動量、回転角度)を算出し、一方または
両方の画像を補正して被写体が合致するように位置合わ
せ補正を行った後、ダイナミックレンジ圧縮処理や被写
界深度拡大処理等を施す。
In the image processing apparatus having the above configuration, one image is selected from a plurality of input images, the image is divided into a plurality of regions, and feature points are set from the feature amounts of the divided regions. Then, the coordinate position of the feature point is stored. Based on the coordinates of the feature point, a corresponding point is searched for each of the other input images that have not been selected, and the coordinate position of the corresponding point is extracted. After calculating the positional relationship (parallel movement amount, rotation angle), correcting one or both images to correct the alignment so that the subject matches, dynamic range compression processing, depth of field expansion processing, etc. Is applied.

【0016】[0016]

【発明の実施の形態】以下、図面を参照して本発明の実
施形態について詳細に説明する。図1には、本発明によ
る第1の実施形態としての画像処理装置の構成例を示し
説明する。
Embodiments of the present invention will be described below in detail with reference to the drawings. FIG. 1 shows an example of the configuration of an image processing apparatus according to a first embodiment of the present invention.

【0017】本実施形態において、図示しないデジタル
カメラで撮影された画像や銀塩カメラで撮影されスキャ
ナ等で撮り込まれた画像はハードディスクや携帯可能な
フロッピーディスク、メモリカード等の記憶媒体に記録
されている。
In this embodiment, an image photographed by a digital camera (not shown) or an image photographed by a silver halide camera and photographed by a scanner or the like is recorded on a storage medium such as a hard disk, a portable floppy disk, or a memory card. ing.

【0018】本実施形態は、大別すると、前記ハードデ
ィスクやフロッピーディスク、メモリカード等に記録さ
れている画像を読み出し、伸長等の処理を施す画像デー
タ再生部31と、画像データ再生部31からの入力画像
に後述する方法によって補間演算を施し画像の被写体の
位置関係を補正する画像補正部30と、前記画像補正部
30により位置関係が補正された画像に対して、前述し
たダイナミックレンジ拡大や被写界深度拡大を実行する
画像合成部39とで構成される。
The present embodiment is roughly divided into an image data reproducing unit 31 for reading out an image recorded on the hard disk, floppy disk, memory card or the like and performing processing such as decompression, An image correction unit 30 that performs an interpolation operation on the input image by a method described later to correct the positional relationship of the subject in the image. An image synthesizing unit 39 for executing depth of field expansion.

【0019】また前記画像補正部30は、画像データ再
生部31で伸長処理が行われた画像データを一時的に記
憶するフレームメモリ32と、選択された1つの画像に
対して後述する複数の特徴点(座標)を設定する特徴点
設定部33と、その特徴点座標を記憶する特徴点位置メ
モリ34と、特徴点座標及びテンプレートとして切り出
された特徴点周辺の画像データから別の画像中において
対応する点を探索する対応点探索部35と、得られた対
応点座標位置を記憶する対応点位置メモリ36と、特徴
点座標と対応点座標から2枚の画像間の位置関係(平行
移動量、回転角度)を算出する補正パラメータ算出部3
7と、入力された位置関係から、一方または両方の画像
を補正して画像合成部39に出力する補間演算部38と
で構成される。
The image correcting section 30 includes a frame memory 32 for temporarily storing the image data subjected to the decompression processing by the image data reproducing section 31, and a plurality of features described later for one selected image. A feature point setting unit 33 for setting a point (coordinate), a feature point position memory 34 for storing the feature point coordinates, and a feature point coordinate and an image data around the feature point cut out as a template in another image. A corresponding point search unit 35 for searching for a point to be matched, a corresponding point position memory 36 for storing the obtained corresponding point coordinate position, and a positional relationship between the two images based on the feature point coordinates and the corresponding point coordinates (parallel movement amount, Correction parameter calculator 3 for calculating the rotation angle)
7 and an interpolation calculation unit 38 that corrects one or both images based on the input positional relationship and outputs the corrected image to the image synthesis unit 39.

【0020】このように構成された本実施形態の画像処
理方法においては、前記ハードディスクやメモリカード
等から読み出された画像が画像データ再生部31で伸長
等の処理が施されて、画像補正部30のフレームメモリ
32に記憶される。ここで、画像データ再生部31から
出力されるデータは、画像の画素値だけではなく、画像
サイズや色数やカラーマップ等の付加的なデータも含む
ものとする。
In the image processing method of the present embodiment configured as described above, the image read out from the hard disk or the memory card or the like is subjected to processing such as decompression by the image data reproducing unit 31, and the image correcting unit 30 are stored in the frame memory 32. Here, the data output from the image data reproducing unit 31 includes not only the pixel value of the image but also additional data such as the image size, the number of colors, and a color map.

【0021】次に入力画像のうち1枚が選択され(ここ
では画像Aとする)、特徴点設定部33に入力される。
この特徴点設定部33では、後述する方法で複数の特徴
点(座標)を設定し、特徴点座標が特徴点位置メモリ3
4に入力される。設定された特徴点座標が対応点探索部
35にも入力され、同時に特徴点周辺の画像データがテ
ンプレートとして切り出され、対応点探索部35に入力
される。
Next, one of the input images is selected (here, image A) and input to the feature point setting section 33.
The feature point setting unit 33 sets a plurality of feature points (coordinates) by a method described later, and stores the feature point coordinates in the feature point position memory 3.
4 is input. The set feature point coordinates are also input to the corresponding point search unit 35, and at the same time, image data around the feature points is cut out as a template and input to the corresponding point search unit 35.

【0022】対応点探索部35では、特徴点設定部33
に入力された画像とは別の画像中で(ここでは画像
B)、入力されたテンプレートに対応する点を探索す
る。対応点を探索する方法は後述する。
The corresponding point search unit 35 includes a feature point setting unit 33
A point corresponding to the input template is searched for in an image (here, image B) different from the image input to. A method for searching for a corresponding point will be described later.

【0023】その結果、対応点座標位置が対応点位置メ
モリ36に出力される。補正パラメータ算出部37で
は、特徴点位置メモリ34の特徴点座標と、対応点位置
メモリ36の対応点座標を読み出し、2枚の画像間の位
置関係(平行移動量、回転角度)を算出する。そして補
間演算部38では、入力された位置関係から、一方また
は両方の画像を補正して画像合成部39に出力する。
As a result, the corresponding point coordinate position is output to the corresponding point position memory 36. The correction parameter calculation unit 37 reads the feature point coordinates in the feature point position memory 34 and the corresponding point coordinates in the corresponding point position memory 36, and calculates the positional relationship (parallel movement amount, rotation angle) between the two images. Then, the interpolation calculation unit 38 corrects one or both images based on the input positional relationship and outputs the corrected image to the image synthesis unit 39.

【0024】この画像合成部39では、前述したダイナ
ミックレンジ拡大処理や被写界深度拡大処理を実行する
が、対象とする画像が前段の画像補正部30で位置あわ
せが行われた画像であるため、当然正確に重ね合わされ
た画像が結果画像として得られる。
The image synthesizing section 39 executes the above-described dynamic range expansion processing and depth of field expansion processing. However, since the target image is an image whose position has been adjusted by the image correction section 30 in the preceding stage. Of course, a correctly superimposed image is obtained as a result image.

【0025】図2には、前記特徴点設定部33の構成を
示し説明する。この特徴点設定部33では、複数の特徴
点位置を決定するが、画像の一部に多くの特徴点が集中
した場合、それ以外の部分で位置あわせの誤差が大きく
なる場合がある。そこで領域分割部41では、特徴点が
画像中で適当に散らばるようにするため、画像を複数の
領域に分割し、さらにその内部に特徴点探索領域を設定
する。ここで、全体を均等に分割した例を図3(a)に
示す。
FIG. 2 shows the configuration of the feature point setting section 33 and will be described. The feature point setting unit 33 determines a plurality of feature point positions. However, when many feature points are concentrated on a part of the image, a positioning error may increase in other parts. Therefore, the region dividing unit 41 divides the image into a plurality of regions and sets a feature point search region inside the region so that the feature points are appropriately dispersed in the image. Here, FIG. 3A shows an example in which the whole is equally divided.

【0026】この領域中でテンプレートの候補となる小
領域を移動させ、特徴量が最大となる位置を特徴点の1
つとして出力する。ただし、全体を探索すると非常に処
理時間がかかってしまうため、図3(a)のように分割
した領域より小さな特徴点探索領域を設定することが望
ましい。この特徴点探索領域の大きさは、例えば画像サ
イズの5%というように、画像サイズを基準にして予め
決めておく。または、分割された小領域の大きさを基準
としても構わない。
A small area which is a candidate for a template is moved in this area, and the position where the feature amount becomes the maximum is set to one of the feature points.
Output as one. However, since it takes a very long processing time to search the entirety, it is desirable to set a feature point search area smaller than the divided area as shown in FIG. The size of the feature point search area is predetermined based on the image size, for example, 5% of the image size. Alternatively, the size of the divided small area may be used as a reference.

【0027】次にテンプレート位置決定部42では、特
徴点探索領域内のテンプレート候補位置を決定し、その
位置に基づいてテンプレート抽出部43でテンプレート
候補内の画像データを切り出す。このとき、テンプレー
ト位置決定部42では、特徴探索領域内で、テンプレー
ト候補の位置を順に移動する。
Next, the template position determining section 42 determines a template candidate position in the feature point search area, and the template extracting section 43 cuts out image data in the template candidate based on the position. At this time, the template position determination unit 42 sequentially moves the position of the template candidate in the feature search area.

【0028】位置的に近いテンプレート候補の特徴量変
化は、あまり大きくない場合もあるので、このような場
合はテンプレート候補の位置を1画素毎ずらすのではな
く、数画素おきにずらすこともでき、結果的に計算量を
削減することができる。
Since the change in the feature value of a template candidate that is close in position may not be so large, in such a case, the position of the template candidate can be shifted not every pixel but every few pixels. As a result, the amount of calculation can be reduced.

【0029】特徴量算出部44では、テンプレート候補
の特徴量を計算し、特徴量判定部45で特徴量が最大と
なるテンプレート位置を決定する。テンプレート抽出部
46では、特徴量が最大となった位置周辺のデータを、
テンプレートとして抽出する。このテンプレート抽出部
46は、テンプレート抽出部43がその役割を兼ねても
構わない。この特徴量としては、例えば(1)式に示す
ような画素値分散を使うことができる。
The feature amount calculation unit 44 calculates the feature amount of the template candidate, and the feature amount determination unit 45 determines the template position where the feature amount is maximum. In the template extraction unit 46, the data around the position where the feature amount becomes maximum is
Extract as a template. The template extracting unit 46 may have the role of the template extracting unit 43. As the feature amount, for example, a pixel value variance as shown in Expression (1) can be used.

【0030】[0030]

【数1】 ここで、aiは画素値、Aはテンプレート候補内の画素
値平均であり、テンプレート候補内全体に対して和を取
る。また、具体的な式は挙げないが、2次の画素値分散
や、エッジ検出結果も特徴量として好ましい値である。
このとき、前記値Tが次式、
(Equation 1) Here, ai is the pixel value, A is the average of the pixel values in the template candidate, and the sum is taken for the entire template candidate. Although no specific formula is given, a secondary pixel value variance and an edge detection result are also preferable values as feature amounts.
At this time, the value T is given by the following equation:

【0031】[0031]

【数2】 のように、ある規定値Tthより小さい場合は、信頼性が
低いとして採用しない。例えば、図3(b)における空
の部分のように、画素値の変化が小さい部分では一般に
後述するマッチングの精度が落ちるが、本発明の方法で
は(2)式のような値Tをもつ特徴点候補位置には特徴
点が設定されず、位置関係パラメータの精度低下を防ぐ
ことができる。
(Equation 2) If the value is smaller than a certain specified value Tth, the reliability is low and is not adopted. For example, in a portion where the change in the pixel value is small, such as an empty portion in FIG. 3B, the accuracy of matching, which will be described later, generally decreases, but the method according to the present invention has a feature having a value T as in equation (2). No feature point is set at the point candidate position, and it is possible to prevent a decrease in the accuracy of the positional relationship parameter.

【0032】図4は、対応点探索部35の構成を説明す
る図である。サーチエリア設定部51では、特徴点設定
部33から読み出した特徴点座標を基準に、対応点を探
索する領域の位置と大きさを設定する。相関演算部52
では、サーチエリア設定部51で設定されたサーチエリ
ア内の情報に基づいて、特徴点設定部33から入力され
たテンプレートと同じ大きさを持つように対応点候補位
置周囲の画像データをフレームメモリ32b中の画像デ
ータから切り出し、特徴点設定部33から入力されたテ
ンプレートデータとの相関値を計算する。
FIG. 4 is a diagram for explaining the configuration of the corresponding point search unit 35. The search area setting unit 51 sets the position and size of the area for searching for the corresponding point based on the feature point coordinates read from the feature point setting unit 33. Correlation calculator 52
Then, based on the information in the search area set by the search area setting unit 51, the image data around the corresponding point candidate position is stored in the frame memory 32b so as to have the same size as the template input from the feature point setting unit 33. The correlation value with the template data input from the feature point setting unit 33 is calculated by cutting out the image data inside.

【0033】相関値判定部53では、テンプレート抽出
部46で抽出されたテンプレートと最も相関が高い位置
を判定し、結果を対応点位置として対応点位置メモリ3
6に出力する。
The correlation value judging section 53 judges a position having the highest correlation with the template extracted by the template extracting section 46, and uses the result as a corresponding point position to store the corresponding point position memory 3.
6 is output.

【0034】このとき、一般に対応点候補は、1画素毎
に移動して相関値を求めるが、画素以下の精度で対応点
位置を検出するために、周囲の相関値を参照して補間に
より対応点位置を決定しても良い。その相関値として
は、次の(3)式に示す差分の絶対値和、(4)式に示
す相互相関、(5)式に示す正規化相互相関等を使うこ
とができる。
At this time, in general, the corresponding point candidate is moved for each pixel to obtain a correlation value. However, in order to detect a corresponding point position with an accuracy equal to or less than a pixel, the corresponding point candidate is interpolated with reference to surrounding correlation values. The point position may be determined. As the correlation value, the sum of absolute values of the difference shown in the following equation (3), the cross-correlation shown in the equation (4), the normalized cross-correlation shown in the equation (5), and the like can be used.

【0035】[0035]

【数3】 ここで、bi,Bは、画像Bのサーチエリア内で移動す
る小領域内の画素値とその平均であり、σA ,σB はテ
ンプレートデータの標準偏差であり、σA 2 ,σB 2
その分散値となる。
(Equation 3) Here, bi and B are pixel values in a small area moving in the search area of the image B and their average, σ A and σ B are standard deviations of the template data, and σ A 2 and σ B 2 Is the variance.

【0036】前記(2)〜(4)式を計算する場合、あ
る代表色のみについて計算すれば、高速に処理すること
ができる。また、R,G,B各色の相関値を加算して対
応点を探索すればより高精度に対応点検索を行うことが
可能になる。
When calculating the above equations (2) to (4), high-speed processing can be performed by calculating only a certain representative color. If the corresponding points are searched by adding the correlation values of the R, G, and B colors, the corresponding points can be searched with higher accuracy.

【0037】そして補正パラメータ算出部37では、特
徴点座標データ及び、対応点座標データから、画像A,
B間の位置関係を決定する。求めるパラメータは(6)
式のcosθ, sinθ,sx,sy,Mである。
Then, the correction parameter calculation unit 37 calculates the image A, the image A from the feature point coordinate data and the corresponding point coordinate data.
The positional relationship between B is determined. The required parameter is (6)
Cos θ, sin θ, sx, sy, and M in the equation.

【0038】[0038]

【数4】 ここで、(x,y)は特徴点位置、(X,Y)は対応点
位置を示し、Mは画像間の相対的な倍率に相当する。前
記特徴点位置メモリ34、対応点位置メモリ36には、
複数のデータが格納されているので、最小二乗的にパラ
メータを求めると、(7)式のようになる。
(Equation 4) Here, (x, y) indicates a feature point position, (X, Y) indicates a corresponding point position, and M corresponds to a relative magnification between images. The feature point position memory 34 and the corresponding point position memory 36 include:
Since a plurality of data are stored, if the parameters are obtained in a least-square manner, the following equation (7) is obtained.

【0039】[0039]

【数5】 ここで、Nは特徴点数。(8)式より、M, cosθ, s
inθは(9)式の様に決定される。
(Equation 5) Here, N is the number of feature points. From equation (8), M, cosθ, s
inθ is determined as in equation (9).

【0040】[0040]

【数6】 (Equation 6)

【0041】また、本来 cosθ, sinθは、 cos2 θ+
sin2 θ=1の関係があるため、対象画像に倍率変化が
無いと仮定できる場合、(9)式の結果で、M=1.0
とし、(10)式のような関係になった場合、(11)
式のように cosθ, sinθを補正したほうがよい。s
x,syは補正した cosθ, sinθより計算する。
Also, originally, cos θ and sin θ are cos 2 θ +
Since there is a relationship of sin 2 θ = 1, if it can be assumed that there is no change in magnification in the target image, M = 1.0 in the result of Expression (9).
And when the relationship is as shown in equation (10), (11)
It is better to correct cosθ and sinθ as in the formula. s
x and sy are calculated from the corrected cos θ and sin θ.

【0042】[0042]

【数7】 (Equation 7)

【0043】前述した(6)〜(9)式は、任意の原点
を画像の回転中心としたが、設定・探索された特徴点・
対応点位置それぞれの重心は一致すると考えても構わな
い。特徴点の重心位置は( /x, /y)(ここで、/
は、平均を意味する記号として用いている。尚、各式の
イメージ情報にあるように、各式中では、この平均はオ
ーバーバーとして表している)、対応点の重心位置は
( /X, /Y)、で与えられ、 cosθ, sinθ,sx,
syはそれぞれ(12)、(13)式で与えられる。
In the above equations (6) to (9), the arbitrary origin is set as the rotation center of the image.
The center of gravity of each corresponding point position may be considered to coincide. The center of gravity of the feature point is (/ x, / y) (where /
Is used as a symbol indicating the average. As shown in the image information of each equation, the average is represented as an overbar in each equation), and the position of the center of gravity of the corresponding point is given by (/ X, / Y), and cosθ, sinθ, sx,
sy is given by equations (12) and (13), respectively.

【0044】[0044]

【数8】 (Equation 8)

【0045】以上説明したように、本実施形態は、画像
中から特徴点を複数抽出し、自動的に位置あわせを行う
ため、業務用の高価な器材を用いることなく、一般ユー
ザーでもダイナミックレンジ拡大処理、被写界深度拡大
処理の効果を最大限利用することができる。但し、処理
の対象画像に歪曲収差が生じている場合には、任意の手
法であらかじめ補正しておくことが必要となる。
As described above, according to the present embodiment, a plurality of feature points are extracted from an image and are automatically aligned, so that a dynamic range can be expanded even by a general user without using expensive equipment for business use. The effect of the processing and the depth of field expansion processing can be used to the maximum. However, when distortion occurs in the image to be processed, it is necessary to correct the distortion in advance by an arbitrary method.

【0046】次に、本発明による第2の実施形態につい
て説明する。本実施形態は、前述した第1の実施形態に
比較して、特徴点設定部33の内部の構成が異なるもの
である。
Next, a second embodiment according to the present invention will be described. This embodiment is different from the first embodiment in the internal configuration of the feature point setting unit 33.

【0047】図5(a)は、特徴点設定部33の概念的
な構成を示す図である。この構成は、図1に示した構成
に比べて領域指定部81が加わっている点が異なる。図
5(b)は、領域指定部81の構成例を示す図である。
この領域指定部81では、入力された画像データに対
し、領域指示部83において、注目する領域を複数指示
する。特徴点は、ここで指定された領域の内部に前述の
方法で設定される。
FIG. 5A is a diagram showing a conceptual configuration of the feature point setting unit 33. This configuration is different from the configuration shown in FIG. 1 in that an area specifying unit 81 is added. FIG. 5B is a diagram illustrating a configuration example of the area specifying unit 81.
In the area designating section 81, a plurality of areas of interest are designated by the area designating section 83 with respect to the input image data. The feature points are set in the area specified here by the above-described method.

【0048】この表示制御部84では、指定された領域
(後述する領域位置メモリ85からのデータ)を、例え
ば、図6(a),(b)のように入力画像データ上にオ
ーバーレイし、表示部82に、そのデータを表示する。
この表示部82は、PCに付属のディスプレイでも構わ
ないし、別に専用のものを設けても構わない。また領域
指示部83は、PCに付属のマウスで指示しても構わな
いし、別に設けても構わない。前記表示制御部84は、
領域指定部81の構成の一部として説明したが、パーソ
ナルコンピュータ等のオペレーティングシステム(O
S)の機能を利用するような構成でも構わない。
The display control section 84 overlays the designated area (data from the area position memory 85 described later) on the input image data as shown in FIGS. 6A and 6B, for example. The data is displayed in the section 82.
The display unit 82 may be a display attached to the PC or a dedicated unit may be separately provided. Further, the area instruction section 83 may be instructed by a mouse attached to the PC, or may be separately provided. The display control unit 84 includes:
Although described as a part of the configuration of the area designation unit 81, an operating system (O
A configuration using the function of S) may be used.

【0049】さらに、領域指示部83では、画像中の座
標で注目領域を指定しても構わない。 そして領域位置
メモリ部85は、領域指示部83で指示された領域の位
置・サイズを記憶し、領域分割部41に出力する。領域
分割部41では、領域位置メモリ部85からの領域位置
情報をもとに、指示された領域内部に前記した方法で特
徴点を設定する。
Further, the region designating section 83 may designate a region of interest by coordinates in the image. Then, the area position memory unit 85 stores the position and size of the area specified by the area specifying unit 83 and outputs it to the area dividing unit 41. The area dividing section 41 sets a feature point in the designated area by the above-described method based on the area position information from the area position memory section 85.

【0050】本実施形態の構成により、ユーザーが注目
したい部分の位置合わせ精度を上げことができると共
に、あまり必要でない部分では特徴点探索を必要としな
いので、計算時間を短縮することができる。
According to the configuration of the present embodiment, it is possible to improve the positioning accuracy of a portion that the user wants to pay attention to, and it is not necessary to search for a feature point in a portion that is not necessary so that the calculation time can be reduced.

【0051】また、人間や乗り物など、動く被写体が撮
影画像に含まれた場合、動いた部分の画像を計算に用い
ると画像全体の位置合わせに誤差が生じるが、本実施例
形態の構成では、そのような部分のデータを利用しない
ようにできる。
When a moving subject such as a person or a vehicle is included in a captured image, an error occurs in the alignment of the entire image when an image of a moved portion is used for calculation. However, in the configuration of this embodiment, It is possible not to use such data.

【0052】さらに、領域指示部83で指示した複数領
域のうち特定の領域を指示し、その内部だけ他の領域よ
り多く特徴点を設定することで、その特定領域の位置合
わせ精度を更に向上することが可能である。
Further, by specifying a specific area among the plurality of areas specified by the area specifying unit 83 and setting more feature points only inside the specific area than the other areas, the positioning accuracy of the specific area is further improved. It is possible.

【0053】また、ダイナミックレンジ拡大技術の場合
は露出値の順に、被写界深度拡大技術の場合には焦点位
置の順に画像を整列し、隣り合う画像間で上記の操作を
実行することで、ランダムに画像を選択して実行する場
合に比べて精度を向上することができる。
In the case of the dynamic range enlargement technique, the images are arranged in the order of the exposure value, and in the case of the depth of field enlargement technique, the images are arranged in the order of the focal position, and the above operation is performed between adjacent images. Accuracy can be improved as compared with a case where an image is selected and executed at random.

【0054】図7は、本発明の第3の実施形態を示す図
である。図7に示した画像補正部30の構成は、図1に
示した画像補正部30の構成に加えて、表示部82、表
示制御部84、特徴点指示部90が含まれる。複数の特
徴点位置は前述の方法で設定され、特徴点メモリ34に
記憶される。
FIG. 7 is a diagram showing a third embodiment of the present invention. The configuration of the image correction unit 30 illustrated in FIG. 7 includes a display unit 82, a display control unit 84, and a feature point instruction unit 90 in addition to the configuration of the image correction unit 30 illustrated in FIG. A plurality of feature point positions are set by the above-described method and stored in the feature point memory 34.

【0055】この特徴点メモリ34に記憶された特徴点
座標は特徴点指示部90に送られ、表示制御部84を通
して表示部82に対象画像上にその位置がオーバーレイ
される(例えば、図3(b)) このとき、特徴点が人間・乗り物等動く被写体(移動物
体)上に設定されていると、(6)〜(10)式で計算
する補正係数の誤差の原因となる。そこで、特徴点指示
部90では、移動物体が含まれている場合は、その物体
を検出し、移動物体上に設定された特徴点は計算に使う
データから除外し、特徴点メモリ34からデータを削除
する。
The feature point coordinates stored in the feature point memory 34 are sent to the feature point designating section 90, and the position is overlaid on the target image on the display section 82 through the display control section 84 (for example, FIG. b)) At this time, if the feature point is set on a moving subject (moving object) such as a person or a vehicle, it causes an error in the correction coefficient calculated by the equations (6) to (10). Therefore, when a moving object is included, the feature point instruction unit 90 detects the object, excludes the feature points set on the moving object from data used for calculation, and stores the data from the feature point memory 34. delete.

【0056】この操作は、表示されたデータをユーザー
が判断し、特徴点指示部90から除外するデータを示す
るようにしてもよい。また、対応点探索後、特徴点メモ
リ34と対応点メモリ36のデータを同時に表示部82
に表示し、対応が取れていないとユーザーが判断した場
合は、特徴点指示部90により、そのデータを除外する
ことを指示できる用にしても構わない。
In this operation, the user may judge the displayed data and indicate the data to be excluded from the feature point designating section 90. After the corresponding point search, the data in the feature point memory 34 and the corresponding point memory 36 are simultaneously displayed on the display unit 82.
And if the user determines that no correspondence is taken, the feature point designating unit 90 may be used to give an instruction to exclude the data.

【0057】次に図8を参照して、本発明による第4の
実施形態について説明する。この第4の実施形態は、図
5の領域指定部81を図8に示すような構成に変更した
ものである。
Next, a fourth embodiment according to the present invention will be described with reference to FIG. In the fourth embodiment, the area specifying unit 81 in FIG. 5 is changed to a configuration as shown in FIG.

【0058】図8に示される領域指定部81は、領域指
示部83、領域位置メモリ85、状態判定部101から
構成される。本実施形態では、画像の統計的・物理的な
性質に基づいて特徴点設定領域に指定する範囲を決定す
る。
The area designating section 81 shown in FIG. 8 comprises an area designating section 83, an area position memory 85, and a state determining section 101. In the present embodiment, the range specified in the feature point setting area is determined based on the statistical and physical properties of the image.

【0059】まず、画像全体を図9(a)のように予め
決められた大きさに分割する。このとき分割するサイズ
は、特徴点設定部で切り出されるテンプレートより大き
い範囲とする。
First, the entire image is divided into a predetermined size as shown in FIG. At this time, the size to be divided is set to a range larger than the template cut out by the feature point setting unit.

【0060】分割された各部分は状態判定部101に送
られ、特徴点設定領域に指定するかどうかを判断する。
状態判定部101では入力された画像データを走査し、
飽和した画素が一定の割合を超えている場合は特徴点設
定領域として適さないと判断する。
Each of the divided parts is sent to the state determination unit 101, and it is determined whether or not to specify a feature point setting area.
The state determination unit 101 scans the input image data,
If the number of saturated pixels exceeds a certain ratio, it is determined that the pixel is not suitable as a feature point setting area.

【0061】また、状態判定部101では、入力データ
の平均値がある閾値を超えている場合は、特徴点設定領
域として適さないと判断しても構わない。領域指示部8
3は、図9(b)のように、分割した領域の画像データ
を順番に状態判定部101に出力し、特徴点設定領域と
して適していると判断された場合は、その範囲を含むよ
うに領域位置メモリ85に記録する。
When the average value of the input data exceeds a certain threshold value, the state determination unit 101 may determine that the input data is not suitable as a feature point setting area. Area indicator 8
3 sequentially outputs the image data of the divided areas to the state determination unit 101 as shown in FIG. 9B, and includes the range when it is determined that the image data is suitable as the feature point setting area. It is recorded in the area position memory 85.

【0062】前述した説明では、各分割領域ごとに判断
したが、状態判定部に出力する画像データとして、領域
位置メモリ85に記録されている範囲全体にしても構わ
ない。また、図9(c)に示したように、領域指示部8
3で、ユーザーがある分割領域を指定し、その周辺の領
域から順番に特徴点指定領域に含んでいくようにしても
良い。
In the above description, the determination is made for each divided area. However, the entire area recorded in the area position memory 85 may be used as the image data to be output to the state determination unit. Further, as shown in FIG.
In step 3, the user may specify a certain divided area and sequentially include the divided areas in the feature point specification area from the surrounding area.

【0063】さらに、図10に示すように、領域指示部
83で、ユーザーがある1点を指定し、その周りに拡張
した矩形を仮定し、その画像データを状態判定部101
で判断するようにしてもよい。
Further, as shown in FIG. 10, the user designates one point in the area designating section 83, assumes a rectangle extended around the point, and uses the image data as the state determining section 101.
May be determined.

【0064】また、飽和した画素値を判断基準に用いた
が、状態判定部101では、入力した画像の離散フーリ
エ変換、離散コサイン変換といった直交変換を画像に施
した時の高周波成分のパワーや、ウェーブレット変換の
成分によって判断しても構わない。
Although the saturated pixel value is used as a criterion, the state determination unit 101 determines the power of the high-frequency component when an orthogonal transform such as discrete Fourier transform or discrete cosine transform is applied to the input image, The determination may be made based on the components of the wavelet transform.

【0065】さらに、状態判定部101では、入力され
たデータのコントラストや画素値最大と最小の差を判断
に用いても構わない。次に図11を参照して、本発明に
よる第5の実施形態について説明する。
Further, the state determination unit 101 may use the contrast of the input data or the difference between the maximum and minimum pixel values for the determination. Next, a fifth embodiment according to the present invention will be described with reference to FIG.

【0066】本実施形態は、3枚以上の画像が処理対象
になっている例である。ここで、図示するうち、前述し
た図1と同等の構成部位には、同じ参照符号を付してそ
の説明を省略する。
This embodiment is an example in which three or more images are to be processed. Here, in the drawings, the same components as those in FIG. 1 described above are denoted by the same reference numerals, and description thereof will be omitted.

【0067】本実施形態において、画像データ再生部3
1で再生された画像データは、画像選択指示部114の
指示により切換動作する画像切替部111によっていず
れかのフレームメモリ32a,32bに入力される。こ
の画像選択指示部114は、入力された同一被写体が撮
影された複数の画像を順次処理できるように装置の処理
時間等を見計らって、2つのフレームメモリに対して交
互に入力されるように画像切換部111を制御するもの
である。
In this embodiment, the image data reproducing unit 3
The image data reproduced in 1 is input to one of the frame memories 32a and 32b by the image switching unit 111 which performs a switching operation according to the instruction of the image selection instruction unit 114. The image selection instructing unit 114 is configured to input an image to the two frame memories alternately in consideration of the processing time of the apparatus so that a plurality of input images of the same subject can be sequentially processed. It controls the switching unit 111.

【0068】前記フレームメモリ32a,32bに格納
された画像から前述した方法で特徴点・対応点を検出
し、補正パラメータ算出部37で画像間の位置関係(平
行移動量・回転角度・相対倍率)を算出する。補正パラ
メータ算出部37で算出されたパラメーターは、画像I
D、参照画像IDと共に補正パラメータ記憶部113に
記憶される。
The feature points / corresponding points are detected from the images stored in the frame memories 32a and 32b by the above-described method, and the correction parameter calculator 37 determines the positional relationship between the images (parallel movement amount / rotation angle / relative magnification). Is calculated. The parameter calculated by the correction parameter calculation unit 37 is the image I
D and the reference image ID are stored in the correction parameter storage unit 113.

【0069】前記補正パラメータ変換部112は、補正
パラメータ記憶部113に記憶されたデータを読み出
し、それぞれのデータを予め指定された補正の基準とな
る画像からみた平行移動量・回転角度に変換する。続い
て、補間演算部38では、補正パラメータ変換部112
で補正基準画像からみたパラメータに従って画像を補正
する。
The correction parameter conversion unit 112 reads the data stored in the correction parameter storage unit 113, and converts each data into a translation amount and a rotation angle as viewed from a pre-specified correction reference image. Subsequently, in the interpolation calculation unit 38, the correction parameter conversion unit 112
The image is corrected according to the parameters viewed from the correction reference image.

【0070】ここで補正パラメータ変換部112でのデ
ータ変換及び補間演算部38での補正は、画像切替部1
11の操作毎に行っても構わないし、対象画像全てにつ
いて相対的な位置関係を算出した後、改めてフレームメ
モリ32に画像を読み込んで行っても構わない。
Here, the data conversion in the correction parameter conversion unit 112 and the correction in the interpolation calculation unit 38 are performed by the image switching unit 1.
The operation may be performed for each of the 11 operations, or the image may be read again into the frame memory 32 after calculating the relative positional relationship for all the target images.

【0071】また、本実施形態ではフレームメモリ32
を2つとし、信号切替部111により入力画像を切り替
えるように説明したが、対象画像全てを格納できる数の
フレームメモリを用意しても構わない。
In this embodiment, the frame memory 32
In the above description, the input image is switched by the signal switching unit 111. However, the number of frame memories that can store all target images may be prepared.

【0072】以上の実施形態について説明したが、本明
細書には以下のような発明も含まれている。 (1) 撮影条件の異なる複数の画像において、画像を
複数の分割領域に分割し、前記分割領域中におのおのの
分割領域と同じまたは小さい特徴点探索領域を設け、そ
れぞれの特徴点探索領域から画像の統計量に基づいて被
写体の特徴的な位置情報を抽出し、前記複数の画像のう
ち、被写体の特徴的な位置情報を抽出した画像とは異な
る画像中で対応する点を探索し、前記特徴的な位置情報
及び対応する点の位置情報より補正パラメータ(画像間
の回転・移動・倍率変化等)を検出し、前記補正パラメ
ータとしての画像間の回転・移動・倍率変化に基づいて
画像を補正する画像処理装置。
Although the above embodiments have been described, the present invention includes the following inventions. (1) In a plurality of images having different photographing conditions, the image is divided into a plurality of divided areas, and a feature point search area that is the same as or smaller than each of the divided areas is provided in the divided areas. The characteristic position information of the subject is extracted based on the statistic of, and a corresponding point is searched in an image different from the image from which the characteristic position information of the subject is extracted among the plurality of images. Correction parameters (rotation, movement, magnification change, etc. between images) are detected from the dynamic position information and the position information of the corresponding points, and the image is corrected based on the rotation, movement, magnification change between the images as the correction parameters. Image processing device.

【0073】本発明は、第1の実施形態に対応する。こ
れにより、複数の画像を重ねる際に、より正確な画像の
重ね合わせ行うことができるようになる。 (2) 前記(1)項に記載の画像処理装置において、
前記回転・移動・倍率変化に基づいて画像を補正する際
に特定の基準画像から見た回転・移動・倍率変化を表わ
すようにパラメータを変換してから補正することを特徴
とする。
The present invention corresponds to the first embodiment. Thereby, when a plurality of images are superimposed, more accurate superimposition of images can be performed. (2) In the image processing device according to the above (1),
When the image is corrected based on the rotation / movement / magnification change, the parameter is converted so as to represent the rotation / movement / magnification change viewed from a specific reference image, and then the correction is performed.

【0074】本発明は第5の実施形態に対応する。これ
により、複数の画像を重ねる際に、それぞれの画像に対
して適当な任意の補正パラメータを設定でき、撮影者の
意図に応じた、より正確な画像の重ね合わせを行うこと
ができるようになる。 (3) 前記複数の分割領域について、分割する領域を
画像の一部に制限することを特徴とする1に記載の画像
処理装置。
The present invention corresponds to the fifth embodiment. Thereby, when a plurality of images are superimposed, an appropriate arbitrary correction parameter can be set for each image, and more accurate superimposition of images according to the photographer's intention can be performed. . (3) The image processing apparatus according to (1), wherein, for the plurality of divided regions, a region to be divided is limited to a part of an image.

【0075】本発明は、第2の実施形態に対応する。こ
れにより、複数の画像を重ねる際に、画像処理の速度が
向上すると共に、それぞれの画像に対して適当な領域を
設定でき、撮影者の意図に応じた、より正確な画像の重
ね合わせを行うことができるようになる。 (4) 前記(1)項または(3)項に記載の画像処理
装置において、前記画像の統計量に基づく被写体の特徴
的な位置情報のうち、複数の画像間で位置が移動してい
る被写体上に設定された位置情報は画像間の回転・移動
・倍率変化の検出に用いないことを特徴とする。
The present invention corresponds to the second embodiment. Thereby, when a plurality of images are superimposed, the speed of image processing is improved, and an appropriate region can be set for each image, and more accurate image superposition according to the photographer's intention is performed. Will be able to do it. (4) In the image processing device according to the above (1) or (3), among the characteristic position information of the subject based on the statistics of the image, the subject whose position moves among a plurality of images. The position information set above is not used for detecting rotation, movement, and change in magnification between images.

【0076】本発明は、第3の実施形態に対応する。こ
れにより、複数の画像を重ねる際に、移動物体が存在す
る領域を排除しているので、より正確な画像の重ね合わ
せを行うことができるようになる。 (5) 前記(3)項に記載の画像処理装置において、
分割する領域を画像の一部に制限する制限領域は、直交
変換したときの高周波成分の割合、飽和した画素の割
合、画素値の平均値、最大及び最小の画素値の差、コン
トラストのいずれかの値を基準に制限されることを特徴
とする。
The present invention corresponds to the third embodiment. Accordingly, when overlapping a plurality of images, the region where the moving object exists is excluded, so that more accurate image overlay can be performed. (5) In the image processing device according to the above (3),
The restricted area for limiting the area to be divided to a part of the image is any one of a ratio of high-frequency components when orthogonally transformed, a ratio of saturated pixels, an average value of pixel values, a difference between maximum and minimum pixel values, and contrast. Is limited based on the value of.

【0077】本発明は、第4の実施形態に対応する。こ
れにより、複数の画像を重ねる際に、画像処理の速度が
向上すると共に、それぞれの画像に対して適当な領域を
自動的に設定することができ、撮影者の意図に応じた、
より正確な画像の重ね合わせを行うことができるように
なる。 (6) 前記(5)項に記載の画像処理装置において、
特定点を中心に制限領域を広げていくことを特徴とす
る。
The present invention corresponds to the fourth embodiment. Thereby, when a plurality of images are superimposed, the speed of the image processing is improved, and an appropriate region can be automatically set for each image, and according to the photographer's intention,
More accurate superimposition of images can be performed. (6) In the image processing device according to the above (5),
It is characterized in that the restricted area is expanded around a specific point.

【0078】本発明は第4の実施形態に対応する。これ
により、複数の画像を重ねる際に、特定点を中心に、そ
れぞれの画像に対して適当な領域を設定するので、より
正確な画像の重ね合わせを行うことができるようにな
る。
The present invention corresponds to the fourth embodiment. Accordingly, when a plurality of images are superimposed, an appropriate area is set for each image centering on a specific point, so that more accurate superimposition of images can be performed.

【0079】[0079]

【発明の効果】以上詳述したように本発明によれば、露
出や焦点位置など撮影条件が異なる複数の画像間の位置
関係を検出し、検出した位置関係を示すパラメータの値
によって、正確に画像が重なるように補正する画像処理
装置を提供することができる。
As described above in detail, according to the present invention, a positional relationship between a plurality of images having different photographing conditions such as an exposure and a focus position is detected, and a parameter value indicating the detected positional relationship is accurately detected. An image processing device that corrects images so that they overlap can be provided.

【図面の簡単な説明】[Brief description of the drawings]

【図1】第1の実施形態としての画像処理装置の構成例
を示す図である。
FIG. 1 is a diagram illustrating a configuration example of an image processing apparatus according to a first embodiment.

【図2】図1に示した特徴点設定部の構成例を示す図で
ある。
FIG. 2 is a diagram illustrating a configuration example of a feature point setting unit illustrated in FIG. 1;

【図3】図3(a)は、画像を複数の分割した分割領域
と、各分割領域に設定された特徴点探索領域を示す図、
図3(b)は、特徴点について説明するための図であ
る。
FIG. 3A is a diagram illustrating divided regions obtained by dividing an image into a plurality of regions, and a feature point search region set in each divided region;
FIG. 3B is a diagram for explaining a feature point.

【図4】図1に示した対応点探索部の構成例を示す図で
ある。
FIG. 4 is a diagram illustrating a configuration example of a corresponding point search unit illustrated in FIG. 1;

【図5】図5(a)は、第2の実施形態としての画像処
理装置の構成例を示す図、図5(b)は、領域指定部の
構成例を示す図である。
FIG. 5A is a diagram illustrating a configuration example of an image processing apparatus according to a second embodiment, and FIG. 5B is a diagram illustrating a configuration example of an area specifying unit;

【図6】図6(a)は、画像上に表示された指定領域の
一例を示す図、図6(b)は、画像上に表示された注目
位置を示す図である。
FIG. 6A is a diagram illustrating an example of a designated area displayed on an image, and FIG. 6B is a diagram illustrating a target position displayed on the image.

【図7】第3の実施形態としての画像処理装置の構成例
を示す図である。
FIG. 7 is a diagram illustrating a configuration example of an image processing apparatus according to a third embodiment.

【図8】第4実施形態としての画像処理装置に用いられ
る領域指定部の構成例を示す図である。
FIG. 8 is a diagram illustrating a configuration example of an area specifying unit used in an image processing apparatus according to a fourth embodiment.

【図9】図9(a)は、複数の分割領域に分割された入
力画像を示す図、図9(b)は、走査による特徴点設定
領域の指定について説明するための図、図9(c)は、
拡張による特徴点設定領域の指定について説明するため
の図である。
9A is a diagram illustrating an input image divided into a plurality of divided regions, FIG. 9B is a diagram for describing designation of a feature point setting region by scanning, and FIG. c)
FIG. 9 is a diagram for describing designation of a feature point setting area by extension.

【図10】指定点から拡張した矩形を特徴点設定領域と
して指定することについて説明するための図である。
FIG. 10 is a diagram for describing designation of a rectangle extended from a designated point as a feature point setting area.

【図11】第5実施形態としての画像処理装置の構成例
を示す図である。
FIG. 11 is a diagram illustrating a configuration example of an image processing apparatus according to a fifth embodiment.

【図12】従来の広ダイナミックレンジ画像を作成する
ための構成例を示す図である。
FIG. 12 is a diagram showing a configuration example for creating a conventional wide dynamic range image.

【図13】従来の深い被写界深度を有する画像を作成す
るための構成例を示す図である。
FIG. 13 is a diagram illustrating a configuration example for creating an image having a conventional deep depth of field.

【符号の説明】[Explanation of symbols]

30…画像補正部 31…画像データ再生部 32…フレームメモリ 33…特徴点設定部 34…特徴点位置メモリ 35…対応点探索部 36…対応点位置メモリ 37…補正パラメータ算出部 38…補間演算部 39…画像合成部 DESCRIPTION OF SYMBOLS 30 ... Image correction part 31 ... Image data reproduction part 32 ... Frame memory 33 ... Feature point setting part 34 ... Feature point position memory 35 ... Corresponding point search part 36 ... Corresponding point position memory 37 ... Correction parameter calculation part 38 ... Interpolation calculation part 39 ... Image synthesis unit

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 FI G06F 15/70 350B ──────────────────────────────────────────────────の Continued on the front page (51) Int.Cl. 6 Identification code FIG06F 15/70 350B

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】 ほぼ同一の構図を異なる撮影条件で撮影
した複数の画像間の位置合わせ処理を行う画像処理装置
において、 入力した画像の少なくとも1つの画像を複数の分割領域
に分割し、前記各分割領域内に画像の特徴を表す特徴点
の探索領域を設ける探索領域設定手段と、 前記各特徴点の探索領域から前記画像の特徴量に基づい
て、前記構図内の被写体の特徴的な位置情報を前記分割
画像の各分割領域に対する座標に関連させて抽出する第
1の位置情報抽出手段と、 前記分割された画像以外の前記入力画像のそれぞれに対
して、前記特徴的な位置情報に対応する点を探索し、得
られた対応する点をその画像に対する座標に関連させた
位置情報として抽出する第2の位置情報抽出手段と、 抽出された前記特徴的な位置情報及び前記対応する点の
位置情報の各座標間のずれに基づく補正パラメータを検
出する補正パラメータ検出手段と、 検出された補正パラメータに基づき、各画像の被写体位
置が一致するように画像を補正する画像補正手段と、を
具備することを特徴とする画像処理装置。
1. An image processing apparatus for performing a registration process between a plurality of images obtained by photographing substantially the same composition under different photographing conditions, wherein at least one of the input images is divided into a plurality of divided regions. Search area setting means for providing a search area for a feature point representing a feature of an image in the divided area; characteristic position information of a subject in the composition based on the feature amount of the image from the search area of each of the feature points First position information extracting means for extracting the position information in association with the coordinates of each divided region of the divided image, and for each of the input images other than the divided image, the characteristic information corresponding to the characteristic position information. Second position information extracting means for searching for a point and extracting the obtained corresponding point as position information associated with the coordinates of the image; and the extracted characteristic position information and the corresponding position information. Correction parameter detection means for detecting a correction parameter based on a deviation between coordinates of point position information, and image correction means for correcting an image based on the detected correction parameter so that a subject position of each image matches. An image processing apparatus comprising:
【請求項2】 前記第1及び第2の位置情報抽出手段に
より抽出される位置情報は、 前記画像内を移動する物体が検出された分割領域の座標
に関連する位置情報を除外した位置情報であることを特
徴とする請求項1に記載の画像処理装置。
2. The position information extracted by the first and second position information extracting means is position information excluding position information relating to coordinates of a divided area where an object moving in the image is detected. The image processing apparatus according to claim 1, wherein:
【請求項3】 前記第1及び第2の位置情報抽出手段に
より抽出される位置情報は、 前記画像内の各分割領域に対して、直交変換したときの
高周波成分の割合、飽和した画素の割合、画素値の平均
値、最大及び最小の画素値の差、コントラストのいずれ
かの値を基準として、前記入力した画像から所望の分割
領域に対する座標関連位置情報を抽出することを特徴と
する請求項2に記載の画像処理装置。
3. The position information extracted by the first and second position information extracting means includes a ratio of a high-frequency component and a ratio of a saturated pixel when each of the divided regions in the image is orthogonally transformed. Extracting coordinate-related position information for a desired divided region from the input image based on one of a mean value of pixel values, a difference between maximum and minimum pixel values, and a contrast. 3. The image processing device according to 2.
JP35519997A 1997-12-24 1997-12-24 Image processing apparatus and image processing method therefor Expired - Fee Related JP4136044B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP35519997A JP4136044B2 (en) 1997-12-24 1997-12-24 Image processing apparatus and image processing method therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP35519997A JP4136044B2 (en) 1997-12-24 1997-12-24 Image processing apparatus and image processing method therefor

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2008098571A Division JP2008199658A (en) 2008-04-04 2008-04-04 Image processor and image processing method thereof

Publications (2)

Publication Number Publication Date
JPH11185018A true JPH11185018A (en) 1999-07-09
JP4136044B2 JP4136044B2 (en) 2008-08-20

Family

ID=18442527

Family Applications (1)

Application Number Title Priority Date Filing Date
JP35519997A Expired - Fee Related JP4136044B2 (en) 1997-12-24 1997-12-24 Image processing apparatus and image processing method therefor

Country Status (1)

Country Link
JP (1) JP4136044B2 (en)

Cited By (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001351091A (en) * 2000-04-06 2001-12-21 Canon Inc Image processor, photographing device, system and method for image processing, and storage medium
WO2004051575A1 (en) * 2002-12-05 2004-06-17 Seiko Epson Corporation Characteristic region extraction device, characteristic region extraction method, and characteristic region extraction program
JP2005100407A (en) * 2003-09-24 2005-04-14 Seiko Epson Corp System and method for creating panorama image from two or more source images
JP2005515527A (en) * 2002-01-04 2005-05-26 アメリカ オンライン インコーポレイテッド Separation registration
JP2006087063A (en) * 2004-09-17 2006-03-30 Ulead Systems Inc Multiple exposure image composite system and multiple exposure image composite method
JP2006208632A (en) * 2005-01-27 2006-08-10 Nikon Corp Optical measuring instrument
WO2007032156A1 (en) 2005-09-16 2007-03-22 Fujitsu Limited Image processing method and image processing device
JP2007514248A (en) * 2003-12-16 2007-05-31 シーレーテ エルエルシー Lens defect correction
WO2007072678A1 (en) * 2005-12-21 2007-06-28 Nikon Corporation Image combining method, image combining program, image combining device, template extracting method, and template extracting program
JP2007274213A (en) * 2006-03-30 2007-10-18 Canon Inc Image processor, method and imaging apparatus
JP2008102854A (en) * 2006-10-20 2008-05-01 Mitsubishi Electric Corp Device and program for discriminating change of land surface
JP2008276482A (en) * 2007-04-27 2008-11-13 Seiko Epson Corp Apparatus, method, and program for image processing
JP2009512527A (en) * 2005-10-25 2009-03-26 ブラッコ イメージング ソチエタ ペル アチオニ Image registration method, algorithm for performing the image registration method, program for registering an image using the algorithm, and biomedical image handling method for reducing image artifacts due to object movement
JP2009075825A (en) * 2007-09-20 2009-04-09 Tokyo Univ Of Science Image geometric distortion correction method, program, and image geometric distortion correction device
US7545992B2 (en) 2004-07-07 2009-06-09 Canon Kabushiki Kaisha Image processing system and image processing method
JP2009169597A (en) * 2008-01-15 2009-07-30 Nikon Corp Image processing apparatus
JP2009211177A (en) * 2008-02-29 2009-09-17 Canon Inc Feature point location determination method and device
US7596271B2 (en) 2004-07-07 2009-09-29 Canon Kabushiki Kaisha Image processing system and image processing method
JP2009223221A (en) * 2008-03-18 2009-10-01 Zenrin Co Ltd Road surface marking map creating method
JP2009223220A (en) * 2008-03-18 2009-10-01 Zenrin Co Ltd Road surface marking map creating method
US7640269B2 (en) 2004-07-07 2009-12-29 Canon Kabushiki Kaisha Image processing system and image processing method
US7653246B2 (en) 2003-11-18 2010-01-26 Fuji Xerox Co., Ltd. System and method for making a correction to a plurality of images
JP2010020758A (en) * 2008-06-13 2010-01-28 Fujifilm Corp Image processing apparatus, imaging apparatus, image processing method and program
JP2011048602A (en) * 2009-08-27 2011-03-10 Secom Co Ltd Fingerprint collating device
JP2014003441A (en) * 2012-06-18 2014-01-09 Sharp Corp Imaging device, imaging method, and imaging program
JP2015041802A (en) * 2013-08-20 2015-03-02 キヤノン株式会社 Image processing apparatus, image processing method, and computer program
JP2015122110A (en) * 2010-02-04 2015-07-02 マイクロソフト コーポレーション High dynamic range image generation and rendering
CN108460728A (en) * 2017-02-17 2018-08-28 北京大豪科技股份有限公司 The auto-correction method and device of template
US10264237B2 (en) 2013-11-18 2019-04-16 Sharp Kabushiki Kaisha Image processing device
WO2020026383A1 (en) * 2018-08-01 2020-02-06 オリンパス株式会社 Endoscopic device, endoscopic device operating method, and program
CN111133474A (en) * 2017-09-29 2020-05-08 日本电气方案创新株式会社 Image processing apparatus, image processing method, and computer-readable recording medium
JP2020161142A (en) * 2019-03-27 2020-10-01 エルジー エレクトロニクス インコーポレイティド Mobile robot control method
US20220067900A1 (en) * 2020-08-26 2022-03-03 Seiko Epson Corporation Circuit Apparatus, Electronic Instrument, And Error Detection Method

Cited By (47)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4731698B2 (en) * 2000-04-06 2011-07-27 キヤノン株式会社 Image processing apparatus, photographing apparatus, image processing system, image processing method, and storage medium
JP2001351091A (en) * 2000-04-06 2001-12-21 Canon Inc Image processor, photographing device, system and method for image processing, and storage medium
JP2005515527A (en) * 2002-01-04 2005-05-26 アメリカ オンライン インコーポレイテッド Separation registration
CN100369066C (en) * 2002-12-05 2008-02-13 精工爱普生株式会社 Characteristic region extraction device, characteristic region extraction method, and characteristic region extraction program
WO2004051575A1 (en) * 2002-12-05 2004-06-17 Seiko Epson Corporation Characteristic region extraction device, characteristic region extraction method, and characteristic region extraction program
JP2005100407A (en) * 2003-09-24 2005-04-14 Seiko Epson Corp System and method for creating panorama image from two or more source images
US8280188B2 (en) 2003-11-18 2012-10-02 Fuji Xerox Co., Ltd. System and method for making a correction to a plurality of images
US7653246B2 (en) 2003-11-18 2010-01-26 Fuji Xerox Co., Ltd. System and method for making a correction to a plurality of images
JP2007514248A (en) * 2003-12-16 2007-05-31 シーレーテ エルエルシー Lens defect correction
US7640269B2 (en) 2004-07-07 2009-12-29 Canon Kabushiki Kaisha Image processing system and image processing method
US7596271B2 (en) 2004-07-07 2009-09-29 Canon Kabushiki Kaisha Image processing system and image processing method
US7545992B2 (en) 2004-07-07 2009-06-09 Canon Kabushiki Kaisha Image processing system and image processing method
JP2006087063A (en) * 2004-09-17 2006-03-30 Ulead Systems Inc Multiple exposure image composite system and multiple exposure image composite method
US7443533B2 (en) 2004-09-17 2008-10-28 Corel Tw Corp. Image composition systems and methods
JP2006208632A (en) * 2005-01-27 2006-08-10 Nikon Corp Optical measuring instrument
JPWO2007032156A1 (en) * 2005-09-16 2009-03-19 富士通株式会社 Image processing method and image processing apparatus
US8340464B2 (en) 2005-09-16 2012-12-25 Fujitsu Limited Image processing method and image processing device
JP4553942B2 (en) * 2005-09-16 2010-09-29 富士通株式会社 Image processing method and image processing apparatus
WO2007032156A1 (en) 2005-09-16 2007-03-22 Fujitsu Limited Image processing method and image processing device
JP2009512527A (en) * 2005-10-25 2009-03-26 ブラッコ イメージング ソチエタ ペル アチオニ Image registration method, algorithm for performing the image registration method, program for registering an image using the algorithm, and biomedical image handling method for reducing image artifacts due to object movement
WO2007072678A1 (en) * 2005-12-21 2007-06-28 Nikon Corporation Image combining method, image combining program, image combining device, template extracting method, and template extracting program
JP2007274213A (en) * 2006-03-30 2007-10-18 Canon Inc Image processor, method and imaging apparatus
JP4597087B2 (en) * 2006-03-30 2010-12-15 キヤノン株式会社 Image processing apparatus and method, and imaging apparatus
JP2008102854A (en) * 2006-10-20 2008-05-01 Mitsubishi Electric Corp Device and program for discriminating change of land surface
JP4675868B2 (en) * 2006-10-20 2011-04-27 三菱電機株式会社 Ground surface change discrimination device and ground surface change discrimination program
JP2008276482A (en) * 2007-04-27 2008-11-13 Seiko Epson Corp Apparatus, method, and program for image processing
JP2009075825A (en) * 2007-09-20 2009-04-09 Tokyo Univ Of Science Image geometric distortion correction method, program, and image geometric distortion correction device
JP2009169597A (en) * 2008-01-15 2009-07-30 Nikon Corp Image processing apparatus
JP2009211177A (en) * 2008-02-29 2009-09-17 Canon Inc Feature point location determination method and device
JP2009223221A (en) * 2008-03-18 2009-10-01 Zenrin Co Ltd Road surface marking map creating method
JP2009223220A (en) * 2008-03-18 2009-10-01 Zenrin Co Ltd Road surface marking map creating method
JP2010020758A (en) * 2008-06-13 2010-01-28 Fujifilm Corp Image processing apparatus, imaging apparatus, image processing method and program
JP4524717B2 (en) * 2008-06-13 2010-08-18 富士フイルム株式会社 Image processing apparatus, imaging apparatus, image processing method, and program
JP2011048602A (en) * 2009-08-27 2011-03-10 Secom Co Ltd Fingerprint collating device
JP2015122110A (en) * 2010-02-04 2015-07-02 マイクロソフト コーポレーション High dynamic range image generation and rendering
US9978130B2 (en) 2010-02-04 2018-05-22 Microsoft Technology Licensing, Llc High dynamic range image generation and rendering
JP2014003441A (en) * 2012-06-18 2014-01-09 Sharp Corp Imaging device, imaging method, and imaging program
JP2015041802A (en) * 2013-08-20 2015-03-02 キヤノン株式会社 Image processing apparatus, image processing method, and computer program
US10264237B2 (en) 2013-11-18 2019-04-16 Sharp Kabushiki Kaisha Image processing device
CN108460728A (en) * 2017-02-17 2018-08-28 北京大豪科技股份有限公司 The auto-correction method and device of template
CN111133474A (en) * 2017-09-29 2020-05-08 日本电气方案创新株式会社 Image processing apparatus, image processing method, and computer-readable recording medium
CN111133474B (en) * 2017-09-29 2023-09-19 日本电气方案创新株式会社 Image processing apparatus, image processing method, and computer-readable recording medium
WO2020026383A1 (en) * 2018-08-01 2020-02-06 オリンパス株式会社 Endoscopic device, endoscopic device operating method, and program
JPWO2020026383A1 (en) * 2018-08-01 2021-05-13 オリンパス株式会社 Endoscope device, operation method and program of the endoscope device
JP2020161142A (en) * 2019-03-27 2020-10-01 エルジー エレクトロニクス インコーポレイティド Mobile robot control method
US11348276B2 (en) 2019-03-27 2022-05-31 Lg Electronics Inc. Mobile robot control method
US20220067900A1 (en) * 2020-08-26 2022-03-03 Seiko Epson Corporation Circuit Apparatus, Electronic Instrument, And Error Detection Method

Also Published As

Publication number Publication date
JP4136044B2 (en) 2008-08-20

Similar Documents

Publication Publication Date Title
JP4136044B2 (en) Image processing apparatus and image processing method therefor
US10540806B2 (en) Systems and methods for depth-assisted perspective distortion correction
US9456135B2 (en) Image synthesizing apparatus, image synthesizing method, and image synthesizing program
US9596407B2 (en) Imaging device, with blur enhancement
US6393162B1 (en) Image synthesizing apparatus
US20050276481A1 (en) Particular-region detection method and apparatus, and program therefor
JP2007074579A (en) Image processor, and program
JP5210198B2 (en) Image processing apparatus, image processing method, and image processing program
US10943378B2 (en) Cylindrical panorama
CN114651275B (en) Image stitching of full field of view reference images
JP2008199658A (en) Image processor and image processing method thereof
JP2006229868A (en) Image processing apparatus and method, and motion detection apparatus and method
JP2015036841A (en) Image processing apparatus, distance measuring apparatus, imaging apparatus, and image processing method
US20100079582A1 (en) Method and System for Capturing and Using Automatic Focus Information
JP4807582B2 (en) Image processing apparatus, imaging apparatus, and program thereof
JP2019101997A (en) Image processing apparatus and image processing method reducing noise by composing plural captured images
JP4169464B2 (en) Image processing method, image processing apparatus, and computer-readable recording medium
CN116456191A (en) Image generation method, device, equipment and computer readable storage medium
JP2009118434A (en) Blurring correction device and imaging apparatus
JP7458769B2 (en) Image processing device, imaging device, image processing method, program and recording medium
JP2011182084A (en) Image processor and image processing program
JP6833772B2 (en) Image processing equipment, imaging equipment, image processing methods and programs
JP3216037B2 (en) Panorama image composition system
JP2005202543A (en) Object extracting method
KR20230096698A (en) Terminal Operating Method For Get High Resolution Picture And Terminal Of Thereof

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20041224

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20041224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20071106

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080104

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080205

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080404

A911 Transfer of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20080416

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080520

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080603

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110613

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120613

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120613

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130613

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees