JP2006293602A - Image processing method and image processor - Google Patents

Image processing method and image processor Download PDF

Info

Publication number
JP2006293602A
JP2006293602A JP2005112048A JP2005112048A JP2006293602A JP 2006293602 A JP2006293602 A JP 2006293602A JP 2005112048 A JP2005112048 A JP 2005112048A JP 2005112048 A JP2005112048 A JP 2005112048A JP 2006293602 A JP2006293602 A JP 2006293602A
Authority
JP
Japan
Prior art keywords
image
reduction
feature point
associating
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005112048A
Other languages
Japanese (ja)
Inventor
Toru Kawabe
徹 川邊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Photo Imaging Inc
Original Assignee
Konica Minolta Photo Imaging Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Photo Imaging Inc filed Critical Konica Minolta Photo Imaging Inc
Priority to JP2005112048A priority Critical patent/JP2006293602A/en
Publication of JP2006293602A publication Critical patent/JP2006293602A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To obtain proper corresponding feature points for photographed images of various resolutions without adjusting many parameters in processing wherein a plurality of photographed images obtained by photographing the same subject are associated with each other, and to shorten the processing time. <P>SOLUTION: In the image processing in which feature points are extracted from the plurality of photographed image (image 1 and image 2) obtained by photographing the same subject and feature points corresponding to the same point of the subject are associated with each other, the plurality of photographed images to be processed are reduced at the same reduction ratio (e.g. 1/2), feature points are extracted from the respective reduced photographed images and associated with each other. Then processing for associating positions in the photographed images before reduction with the feature points, to associate the feature points of the photographed images (image 1 and image 2) of the original size with each other. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、複数の撮影画像を対応付けるための画像処理方法及び画像処理装置に関する。   The present invention relates to an image processing method and an image processing apparatus for associating a plurality of captured images.

同一の被写体を撮影して得られた複数の撮影画像(例えば、時系列的な撮影で得られた画像、異なる複数の撮影位置の撮影で得られた画像など)同士を対応付けることにより、被写体の動き、3次元形状等を求めることができる。例えば、特許文献1では、時系列的の撮影で得られた画像の各々から、対応付けの候補となる特徴点を抽出し、局所空間フィルタ等の前処理を施した後、当該特徴点とその近傍画素データとの相関を計算することにより、各撮影画像同士を対応付ける技術が開示されている。
特開2000−259835号公報
By associating a plurality of photographed images obtained by photographing the same subject (for example, images obtained by time-series photographing, images obtained by photographing at a plurality of different photographing positions, etc.) Movement, 3D shape, etc. can be determined. For example, in Patent Document 1, feature points that are candidates for association are extracted from each of images obtained by time-series shooting, and after performing preprocessing such as a local spatial filter, the feature points and the feature points are extracted. A technique for associating each captured image with each other by calculating a correlation with neighboring pixel data is disclosed.
JP 2000-259835 A

特徴点の抽出処理及び特徴点の対応付け処理は、撮影画像の解像度の影響を受けるパラメータを多数有しているため、様々な解像度の撮影画像に対して同一条件でこれらの処理を行っても、多数のパラメータを調整しない限り、適切な結果を得ることができないという問題があった。また、処理対象の撮影画像のサイズが大きくなればなるほど、特徴点抽出処理及び対応付け処理に関する処理負荷が大きくなり、膨大な処理時間を要するという問題があった。   Since the feature point extraction process and the feature point association process have many parameters that are affected by the resolution of the captured image, even if these processes are performed on the captured image of various resolutions under the same conditions. There is a problem that an appropriate result cannot be obtained unless a large number of parameters are adjusted. In addition, as the size of the captured image to be processed increases, the processing load related to the feature point extraction processing and the association processing increases, and there is a problem that enormous processing time is required.

本発明の課題は、同一被写体を撮影して得られた複数の撮影画像同士を対応付ける処理において、多数のパラメータを調整することなく、様々な解像度の撮影画像に対して適切な対応特徴点を得るとともに、処理時間を短縮させることである。   An object of the present invention is to obtain appropriate corresponding feature points for captured images of various resolutions without adjusting a large number of parameters in the process of associating a plurality of captured images obtained by capturing the same subject. At the same time, the processing time is shortened.

上記課題を解決するため、請求項1に記載の発明は、同一の被写体を撮影して得られた複数の撮影画像の各々から特徴点を抽出し、当該被写体の同一点に対応する特徴点同士を対応付ける画像処理方法において、
前記複数の撮影画像の各々を同一の縮小比率で縮小する縮小工程と、
前記縮小された各撮影画像から特徴点を抽出する抽出工程と、
前記抽出された各撮影画像の特徴点同士を対応付ける対応付け工程と、
前記対応付けられた特徴点が、元のサイズの撮影画像のどの位置に対応するのかを関連付ける関連付け工程と、を含むことを特徴としている。
In order to solve the above problem, the invention according to claim 1 extracts feature points from each of a plurality of photographed images obtained by photographing the same subject, and features points corresponding to the same point of the subject. In the image processing method for associating
A reduction step of reducing each of the plurality of captured images at the same reduction ratio;
An extraction step of extracting feature points from each reduced photographed image;
An associating step for associating feature points of each of the extracted captured images;
An associating step of associating the associated feature point with which position of the captured image of the original size.

請求項2に記載の発明は、請求項1に記載の画像処理方法において、前記縮小工程における縮小処理は複数段階からなることを特徴としている。   According to a second aspect of the present invention, in the image processing method according to the first aspect, the reduction processing in the reduction step is composed of a plurality of stages.

請求項3に記載の発明は、請求項2に記載の画像処理方法において、前記関連付け工程は、複数段階の関連付け処理からなり、前記縮小工程における途中段階の撮影画像への関連付け処理を経て、元のサイズの撮影画像への関連付けが行われることを特徴としている。   According to a third aspect of the present invention, in the image processing method according to the second aspect, the associating step includes a plurality of steps of associating processing. It is characterized in that it is associated with a photographed image of a size of.

請求項4に記載の発明は、請求項1〜3の何れか一項に記載の画像処理方法において、前記縮小工程における1段階の縮小処理の縮小比率は1/2又は1/2の累乗であり、
前記関連付け工程では、1段階の関連付け処理で、2倍又は2の累乗倍の画像サイズの撮影画像との関連付けが行われることを特徴としている。
According to a fourth aspect of the present invention, in the image processing method according to any one of the first to third aspects, the reduction ratio of the one-step reduction process in the reduction process is a power of 1/2 or 1/2. Yes,
The associating step is characterized by associating with a photographed image having an image size that is twice or a power of 2 in a one-step association process.

請求項5に記載の発明は、請求項1〜4の何れか一項に記載の画像処理方法において、前記関連付け工程では、前記対応付けられた対応特徴点候補の間で、画像データの一致度合いを評価することにより対応特徴点が得られることを特徴としている。   According to a fifth aspect of the present invention, in the image processing method according to any one of the first to fourth aspects, in the association step, the matching degree of image data between the corresponding corresponding feature point candidates. It is characterized in that corresponding feature points can be obtained by evaluating.

請求項6に記載の発明は、請求項1〜4の何れか一項に記載の画像処理方法において、前記関連付け工程では、前記対応付けられた対応特徴候補の間で、近傍領域のデータ相関性を評価することにより対応特徴点が得られることを特徴としている。   According to a sixth aspect of the present invention, in the image processing method according to any one of the first to fourth aspects, in the associating step, data correlation of neighboring regions between the corresponding corresponding feature candidates. It is characterized in that corresponding feature points can be obtained by evaluating.

請求項7に記載の発明は、請求項1〜4の何れか一項に記載の画像処理方法において、前記関連付け工程では、前記対応付けられた対応特徴点候補の間で、各々の画素データの近傍画素に対する特異性を評価することにより対応特徴点が得られることを特徴としている。   According to a seventh aspect of the present invention, in the image processing method according to any one of the first to fourth aspects, in the associating step, each of the pixel data is associated between the corresponding corresponding feature point candidates. It is characterized in that corresponding feature points can be obtained by evaluating the specificity with respect to neighboring pixels.

請求項8に記載の発明は、請求項1〜7の何れか一項に記載の画像処理方法において、処理対象の撮影画像の画像サイズに応じて、当該撮影画像に対する縮小比率及び/又は縮小回数を決定する決定工程を含み、
前記縮小工程では、前記決定された縮小比率及び/又は縮小回数の縮小処理が行われることを特徴としている。
According to an eighth aspect of the present invention, in the image processing method according to any one of the first to seventh aspects, the reduction ratio and / or the number of reductions with respect to the photographed image according to the image size of the photographed image to be processed. Including a determination step of determining
In the reduction process, a reduction process of the determined reduction ratio and / or the number of reductions is performed.

請求項9に記載の発明は、請求項1〜7の何れか一項に記載の画像処理方法において、処理対象の撮影画像の空間周波数成分を解析する解析工程と、
前記解析工程における解析結果に基づいて、前記撮影画像に対する縮小比率及び/又は縮小回数を決定する決定工程と、を含み、
前記縮小工程では、前記決定された縮小比率及び/又は縮小回数の縮小処理が行われることを特徴としている。
The invention according to claim 9 is the image processing method according to any one of claims 1 to 7, wherein an analysis step of analyzing a spatial frequency component of a captured image to be processed;
Determining a reduction ratio and / or the number of reductions for the captured image based on the analysis result in the analysis step,
In the reduction process, a reduction process of the determined reduction ratio and / or the number of reductions is performed.

請求項10に記載の発明は、同一の被写体を撮影して得られた複数の撮影画像の各々から特徴点を抽出し、当該被写体の同一点に対応する特徴点同士を対応付ける画像処理装置において、
前記複数の撮影画像の各々を同一の縮小比率で縮小する縮小手段と、
前記縮小された各撮影画像から特徴点を抽出する抽出手段と、
前記抽出された各撮影画像の特徴点同士を対応付ける対応付け手段と、
前記対応付けられた特徴点が、元のサイズの撮影画像のどの位置に対応するのかを関連付ける関連付け手段と、を備えることを特徴としている。
The invention according to claim 10 is an image processing device that extracts feature points from each of a plurality of photographed images obtained by photographing the same subject, and associates feature points corresponding to the same point of the subject.
Reduction means for reducing each of the plurality of captured images at the same reduction ratio;
Extraction means for extracting feature points from each reduced photographed image;
Associating means for associating feature points of each of the extracted captured images;
And an associating means for associating with which position of the photographed image of the original size the associated feature point corresponds.

請求項11に記載の発明は、請求項10に記載の画像処理装置において、前記縮小手段による縮小処理は複数段階からなることを特徴としている。   According to an eleventh aspect of the present invention, in the image processing apparatus according to the tenth aspect, the reduction processing by the reduction means includes a plurality of stages.

請求項12に記載の発明は、請求項11に記載の画像処理装置において、前記関連付け手段は、複数段階の関連付け処理からなり、前記縮小手段による途中段階の撮影画像への関連付け処理を経て、元のサイズの撮影画像への関連付けを行うことを特徴としている。   According to a twelfth aspect of the present invention, in the image processing apparatus according to the eleventh aspect, the associating unit includes a plurality of steps of associating processing, and the original processing unit performs processing of associating with a captured image in the middle step by the reducing unit. It is characterized by associating with a photographed image having a size of.

請求項13に記載の発明は、請求項10〜12の何れか一項に記載の画像処理装置において、前記縮小手段による1段階の縮小処理の縮小比率は1/2又は1/2の累乗であり、
前記関連付け手段は、1段階の関連付け処理で、2倍又は2の累乗倍の画像サイズの撮影画像との関連付けを行うことを特徴としている。
According to a thirteenth aspect of the present invention, in the image processing apparatus according to any one of the tenth to twelfth aspects, the reduction ratio of the one-step reduction processing by the reduction means is a power of 1/2 or 1/2. Yes,
The associating means is characterized by associating with a photographed image having an image size of 2 times or a power of 2 in a one-step associating process.

請求項14に記載の発明は、請求項10〜13の何れか一項に記載の画像処理装置において、前記関連付け手段は、前記対応付けられた対応特徴点候補の間で、画像データの一致度合いを評価することにより対応特徴点を得ることを特徴としている。   According to a fourteenth aspect of the present invention, in the image processing device according to any one of the tenth to thirteenth aspects, the associating means includes a degree of matching of image data between the corresponding corresponding feature point candidates. It is characterized in that corresponding feature points are obtained by evaluating.

請求項15に記載の発明は、請求項10〜13の何れか一項に記載の画像処理装置において、前記関連付け手段は、前記対応付けられた対応特徴候補の間で、近傍領域のデータ相関性を評価することにより対応特徴点を得ることを特徴としている。   According to a fifteenth aspect of the present invention, in the image processing device according to any one of the tenth to thirteenth aspects, the associating means includes data correlation of neighboring regions between the corresponding corresponding feature candidates. It is characterized in that corresponding feature points are obtained by evaluating.

請求項16に記載の発明は、請求項10〜13の何れか一項に記載の画像処理装置において、前記関連付け手段は、前記対応付けられた対応特徴点候補の間で、各々の画素データの近傍画素に対する特異性を評価することにより対応特徴点を得ることを特徴としている。   According to a sixteenth aspect of the present invention, in the image processing device according to any one of the tenth to thirteenth aspects, the associating means includes a pixel data item between the corresponding corresponding feature point candidates. It is characterized in that corresponding feature points are obtained by evaluating the specificity with respect to neighboring pixels.

請求項17に記載の発明は、請求項10〜16の何れか一項に記載の画像処理装置において、処理対象の撮影画像の画像サイズに応じて、当該撮影画像に対する縮小比率及び/又は縮小回数を決定する決定手段を備え、
前記縮小手段は、前記決定された縮小比率及び/又は縮小回数の縮小処理を行うことを特徴としている。
According to a seventeenth aspect of the present invention, in the image processing apparatus according to any one of the tenth to sixteenth aspects, the reduction ratio and / or the number of reductions with respect to the photographed image according to the image size of the photographed image to be processed. Determining means for determining
The reduction means performs a reduction process of the determined reduction ratio and / or the number of reductions.

請求項18に記載の発明は、請求項10〜16の何れか一項に記載の画像処理装置において、処理対象の撮影画像の空間周波数成分を解析する解析手段と、
前記解析手段による解析結果に基づいて、前記撮影画像に対する縮小比率及び/又は縮小回数を決定する決定手段と、を備え、
前記縮小手段は、前記決定された縮小比率及び/又は縮小回数の縮小処理を行うことを特徴としている。
The invention according to claim 18 is the image processing apparatus according to any one of claims 10 to 16, and an analysis means for analyzing a spatial frequency component of a captured image to be processed;
Determination means for determining a reduction ratio and / or the number of reductions for the captured image based on the analysis result by the analysis means,
The reduction means performs a reduction process of the determined reduction ratio and / or the number of reductions.

本発明によれば、同一被写体を撮影して得られた複数の撮影画像同士を対応付ける処理において、多くのパラメータを調整することなく、様々な解像度の撮影画像に対して適切な対応特徴点を得るとともに、処理時間を短縮させることが可能となる。   According to the present invention, in a process of associating a plurality of photographed images obtained by photographing the same subject, appropriate corresponding feature points are obtained for photographed images with various resolutions without adjusting many parameters. At the same time, the processing time can be shortened.

図1に、本発明の実施形態に係る画像処理装置100の構成を示す。画像処理装置100は、図1に示すように、画像入力部1、画像縮小部2、特徴点抽出部3、対応特徴点判定部4、解像度間関連付け部5、対応特徴点出力部6、画像解析部7、条件パラメータ設定部8により構成される。   FIG. 1 shows a configuration of an image processing apparatus 100 according to an embodiment of the present invention. As shown in FIG. 1, the image processing apparatus 100 includes an image input unit 1, an image reduction unit 2, a feature point extraction unit 3, a corresponding feature point determination unit 4, an inter-resolution association unit 5, a corresponding feature point output unit 6, an image An analysis unit 7 and a condition parameter setting unit 8 are included.

画像入力部1は、被写体の撮影により得られた撮影画像を取得し、特徴点抽出部2及び画像解析部5に出力する。本実施形態において画像入力部1に入力される画像は、同一の被写体を撮影して得られた複数の撮影画像であるものとする。この複数の撮影画像としては、時系列的な撮影(例えば、動画撮影、連写撮影)で得られた画像、異なる複数の撮影位置で同時に撮影して得られた画像などがある。また、画像入力部1での撮影画像の取得方法(入力方法)としては、所定の通信ネットワークを介して外部に接続された装置から取得する方法、有線又は無線接続されたデジタルカメラ等の撮影装置から取得する方法、記録メディア(CD−R、メモリーカード等)に記録された撮影画像を読み込む方法などがある。   The image input unit 1 acquires a photographed image obtained by photographing a subject and outputs it to the feature point extraction unit 2 and the image analysis unit 5. In the present embodiment, images input to the image input unit 1 are a plurality of captured images obtained by capturing the same subject. Examples of the plurality of photographed images include images obtained by time-series photographing (for example, moving image photographing and continuous photographing), images obtained by simultaneously photographing at a plurality of different photographing positions, and the like. As a method for acquiring a captured image (input method) in the image input unit 1, a method for acquiring from a device connected to the outside via a predetermined communication network, a photographing device such as a wired or wirelessly connected digital camera, etc. And a method of reading a captured image recorded on a recording medium (CD-R, memory card, etc.).

画像縮小部2は、条件パラメータ設定部8で設定された条件パラメータ(縮小比率及び/又は縮小回数)に基づいて、画像入力部1から入力された撮影画像に対し縮小処理を施す。図2に、縮小比率1/2の縮小処理の一例を示す。nx×ny画素の撮影画像を1/2サイズに縮小する場合、図2に示すように、2×2画素分のデータの平均値を1画素分のデータとすることにより、(nx/2)×(ny/2)画素に縮小された撮影画像が得られる。 The image reduction unit 2 performs a reduction process on the captured image input from the image input unit 1 based on the condition parameters (reduction ratio and / or number of reductions) set by the condition parameter setting unit 8. FIG. 2 shows an example of a reduction process with a reduction ratio of 1/2. When a captured image of n x × n y pixels is reduced to ½ size, as shown in FIG. 2, an average value of data for 2 × 2 pixels is used as data for one pixel (n x / 2) × (n y / 2) pixels are obtained.

特徴点抽出部3は、条件パラメータ設定部6で設定された条件パラメータに基づいて、画像縮小部2で縮小された各撮影画像から特徴点を抽出し、抽出結果を対応特徴点判定部4に出力する。具体的に、特徴点抽出部3は、撮影画像から周波数変換処理等により輪郭線(エッジ情報)を抽出し、その輪郭線を太さが1の線画に細線化し、得られた細線を解析して幾何学的特異点(端点、折点、分岐点、交差点(図8参照))を検出することにより特徴点を抽出する。   The feature point extraction unit 3 extracts feature points from each captured image reduced by the image reduction unit 2 based on the condition parameters set by the condition parameter setting unit 6, and outputs the extraction results to the corresponding feature point determination unit 4. Output. Specifically, the feature point extraction unit 3 extracts a contour line (edge information) from a captured image by frequency conversion processing, etc., thins the contour line into a line drawing having a thickness of 1, and analyzes the obtained thin line. Then, feature points are extracted by detecting geometric singular points (end points, break points, branch points, intersections (see FIG. 8)).

対応特徴点判定部4は、条件パラメータ設定部8で設定された条件パラメータに基づいて、画像縮小部2で縮小処理が施された各撮影画像に対し、被写体の同一点に対応する特徴点の候補となる対応特徴点候補同士の座標値、色情報、連結数、近傍特徴点との位置関係を評価し、これらの評価結果(評価情報)に基づいて対応特徴点があるか否かを判定する(図6〜図15参照)。そして、対応特徴点があると判定された場合、該当する対応特徴点候補を対応特徴点として決定し、決定された対応特徴点の情報を解像度間関連付け部5に出力する。   The corresponding feature point determination unit 4 determines the feature point corresponding to the same point of the subject for each photographed image subjected to the reduction process by the image reduction unit 2 based on the condition parameter set by the condition parameter setting unit 8. Evaluate the coordinate values, color information, number of connections, and positional relationships between neighboring feature point candidates as candidates, and determine whether there is a corresponding feature point based on these evaluation results (evaluation information) (See FIGS. 6 to 15). If it is determined that there is a corresponding feature point, the corresponding corresponding feature point candidate is determined as the corresponding feature point, and information on the determined corresponding feature point is output to the inter-resolution association unit 5.

解像度間関連付け部5は、対応特徴点判定部4で決定された対応特徴点が、縮小前の撮影画像のどの位置に対応するのかを関連付ける処理を行うことによって、元のサイズの撮影画像の対応特徴点を決定し(図5参照)、決定された対応特徴点の情報を対応特徴点出力部7に出力する。例えば、画像縮小部2において縮小処理がn回行われた場合、対応特徴点の関連付け処理をn回施すと、元のサイズの撮影画像の対応特徴点が算出される。   The inter-resolution associating unit 5 performs a process of associating the corresponding feature point determined by the corresponding feature point determining unit 4 with which position of the pre-reduced captured image, thereby corresponding to the captured image of the original size. The feature point is determined (see FIG. 5), and information on the determined corresponding feature point is output to the corresponding feature point output unit 7. For example, when the image reduction unit 2 performs the reduction process n times, if the corresponding feature point association process is performed n times, the corresponding feature point of the captured image of the original size is calculated.

対応特徴点出力部6は、解像度間関連付け部5から入力された対応特徴点の情報を画像条件パラメータ設定部8及び/又は外部に接続された装置(例えば、パーソナルコンピュータ等)に出力する。   The corresponding feature point output unit 6 outputs the information about the corresponding feature point input from the resolution association unit 5 to the image condition parameter setting unit 8 and / or an externally connected device (for example, a personal computer).

画像解析部7は、処理対象の撮影画像の画像サイズ、空間周波数成分の分布状況を解析し、解析結果を条件パラメータ設定部8に出力する。撮影画像の空間周波数成分の分布は、撮影画像に対してフーリエ変換を施すことにより求めることができる。図3(a)に示すように、空間周波数分布より、ピーク周波数又は分布の重心である中心周波数が定められる。撮影画像を1/n(n>1)に縮小する場合、周波数はn倍になるため、図3(b)に示すように、空間周波数分布がシフトする。   The image analysis unit 7 analyzes the image size of the captured image to be processed and the distribution state of the spatial frequency component, and outputs the analysis result to the condition parameter setting unit 8. The distribution of the spatial frequency component of the captured image can be obtained by performing Fourier transform on the captured image. As shown in FIG. 3A, the peak frequency or the center frequency that is the center of gravity of the distribution is determined from the spatial frequency distribution. When the captured image is reduced to 1 / n (n> 1), the frequency becomes n times, so that the spatial frequency distribution shifts as shown in FIG.

条件パラメータ設定部8は、画像解析部7の解析結果及び/又は対応特徴点出力部6から出力された対応特徴点の情報に基づいて、画像縮小部2、特徴点抽出部3、対応特徴点判定部4、解像度間関連付け部5での処理に必要な条件パラメータを設定する。また、ユーザにより設定されたパラメータを条件パラメータとしてもよい。   Based on the analysis result of the image analysis unit 7 and / or the corresponding feature point information output from the corresponding feature point output unit 6, the condition parameter setting unit 8 performs image reduction unit 2, feature point extraction unit 3, corresponding feature point Condition parameters necessary for processing in the determination unit 4 and the association unit 5 between resolutions are set. Further, a parameter set by the user may be used as the condition parameter.

具体的に、条件パラメータ設定部8は、画像縮小部2での縮小処理に必要な条件パラメータとして縮小比率及び/又は縮小回数を設定する。縮小比率及び/又は縮小回数は予め固定された値であってもよいし、処理対象の撮影画像の特性(画像サイズ、空間周波数特性等)に応じて設定するようにしてもよい。   Specifically, the condition parameter setting unit 8 sets a reduction ratio and / or the number of reductions as condition parameters necessary for the reduction process in the image reduction unit 2. The reduction ratio and / or the number of reductions may be fixed values in advance, or may be set according to the characteristics (image size, spatial frequency characteristics, etc.) of the captured image to be processed.

例えば、縮小比率1/2で、画像サイズ範囲を50000〜200000とした場合、2000×1500画素サイズの撮影画像が入力されたとき、以下のように2回の縮小処理が行われることになる。
非縮小状態:2000×1500=3000000画素;
1段階縮小状態:1000×750=750000画素;
2段階縮小状態:500×375=187500画素.
また、画像サイズ範囲ではなく、画像サイズ最適値を定め、この最適値に最も近くなるな条件を選択するようにしてもよい。
For example, when the reduction ratio is 1/2 and the image size range is 50,000 to 200,000, when a captured image having a size of 2000 × 1500 pixels is input, the reduction processing is performed twice as follows.
Non-reduced state: 2000 × 1500 = 3000000 pixels;
One-stage reduced state: 1000 × 750 = 750,000 pixels;
Two-stage reduction state: 500 × 375 = 187500 pixels.
Further, instead of the image size range, an optimal image size value may be determined, and a condition closest to the optimal value may be selected.

撮影画像の空間周波数特性を用いて条件パラメータを設定する場合、条件パラメータ設定部8は、図3(b)に示すように、画像縮小によってシフトした空間周波数分布と、予め設定された許容周波数範囲或いは最適周波数に基づいて縮小比率及び/又は縮小回数を設定する。同じ画像サイズであっても、被写体の撮影状況(アップでの撮影、遠景の撮影)に応じてエッジ情報が異なるため、空間周波数情報を用いて縮小処理を制御する方が、一層適切に抽出点を抽出することが可能となる。   When setting the condition parameter using the spatial frequency characteristics of the captured image, the condition parameter setting unit 8, as shown in FIG. 3 (b), the spatial frequency distribution shifted by image reduction and a preset allowable frequency range. Alternatively, the reduction ratio and / or the number of reductions are set based on the optimum frequency. Even with the same image size, the edge information differs depending on the shooting situation of the subject (up-shooting, far-field shooting), so it is more appropriate to control the reduction process using spatial frequency information. Can be extracted.

また、条件パラメータ設定部8は、対応特徴点判定部4における特徴点の対応付け処理に必要な条件パラメータとして、座標値の評価に必要な許容値(ε1)、連結数の評価に必要な許容値(ε2)、色情報の評価に必要な許容値(ε3、ε4)、近傍特徴点との位置関係の評価に必要な許容値(ε5)等を設定する。   In addition, the condition parameter setting unit 8 is a condition parameter necessary for the feature point association process in the corresponding feature point determination unit 4 and an allowable value (ε1) necessary for the evaluation of the coordinate value, and an allowable value necessary for the evaluation of the number of connections. A value (ε2), permissible values (ε3, ε4) necessary for evaluating color information, a permissible value (ε5) necessary for evaluating the positional relationship with neighboring feature points, and the like are set.

次に、本実施形態における動作について説明する。
図4のフローチャートを参照して、画像処理装置100において実行される特徴点対応付け処理について説明する。図4の処理では、撮影画像に対する縮小比率が予め決まっている場合(縮小比率1/2)の処理について説明する。
Next, the operation in this embodiment will be described.
With reference to the flowchart of FIG. 4, the feature point association process executed in the image processing apparatus 100 will be described. In the processing of FIG. 4, processing when the reduction ratio with respect to the captured image is determined in advance (reduction ratio 1/2) will be described.

まず、本特徴点対応付け処理の処理対象である、同一の被写体を撮影して得られた複数の撮影画像(例えば、露出ブラケット撮影により得られた撮影画像)が入力される(ステップA1)。次いで、各撮影画像が1/2のサイズに縮小される(ステップA2)。   First, a plurality of photographed images (for example, photographed images obtained by exposure bracket photography) obtained by photographing the same subject, which is a processing target of the feature point association processing, are input (step A1). Next, each captured image is reduced to a half size (step A2).

次いで、ステップA2で縮小された撮影画像のサイズが適切な範囲内(予め設定されたサイズ範囲内)(例えば、50000〜200000画素サイズ)にあるか否かが判定される(ステップA3)。ステップA3において、縮小された撮影画像のサイズが適切な範囲内に入っていないと判定された場合(ステップA3;NO)、ステップA2に戻り、各撮影画像のサイズが更に1/2に縮小される。ステップA3において、縮小された撮影画像のサイズが適切な範囲内にあると判定された場合(ステップA3;YES)、縮小された各撮影画像から特徴点が抽出される(ステップA4)。   Next, it is determined whether or not the size of the captured image reduced in step A2 is within an appropriate range (within a preset size range) (for example, 50000-200000 pixel size) (step A3). If it is determined in step A3 that the size of the reduced captured image is not within the appropriate range (step A3; NO), the process returns to step A2, and the size of each captured image is further reduced by half. The If it is determined in step A3 that the size of the reduced captured image is within an appropriate range (step A3; YES), feature points are extracted from each reduced captured image (step A4).

次いで、縮小された各撮影画像について、被写体の同一点に対応する特徴点同士を対応付ける処理が行われる(ステップA5)。ステップA5における対応付け処理については、後に図6〜図15を参照して詳細に説明する。   Next, a process of associating feature points corresponding to the same point of the subject is performed on each reduced photographed image (step A5). The association process in step A5 will be described in detail later with reference to FIGS.

次いで、撮影画像同士で対応付けられた特徴点が、縮小前の撮影画像(縮小された撮影画像の2倍サイズの撮影画像)のどの位置に対応するのかが関連付けられる(ステップA6)。ステップA6の関連付け処理については、後に図16〜図18を参照して詳細に説明する。   Next, it is associated with which position of the feature point associated with the captured images the position of the pre-reduced captured image (the captured image that is twice the size of the reduced captured image) (step A6). The association processing in step A6 will be described in detail later with reference to FIGS.

次いで、元のサイズの撮影画像までの関連付け処理が完了したか否かが判定される(ステップA7)。ステップA7において、元の撮影画像までの関連付け処理が完了していないと判定された場合(ステップA7;NO)、ステップA6に戻り、更に関連付け処理が行われる。ステップA7において、元の撮影画像までの関連付け処理が終了したと判定された場合(ステップA7;YES)、本特徴点対応付け処理が終了する。   Next, it is determined whether or not the association processing up to the original size of the captured image is completed (step A7). If it is determined in step A7 that the association process up to the original photographed image has not been completed (step A7; NO), the process returns to step A6, and the association process is further performed. If it is determined in step A7 that the association process up to the original photographed image has been completed (step A7; YES), the feature point association process is terminated.

図5に、2枚の撮影画像(画像1、画像2)に対して縮小率1/2の縮小処理をn回施した場合の特徴点対応付け処理の流れを示す。画像1のサイズを1/2nに縮小した画像から抽出された特徴点と、画像2のサイズを1/2nに縮小した画像から抽出された特徴点とを対応付けさせることにより対応特徴点候補が決定される。そして、対応特徴点候補の関連付け処理をn回施すと、元のサイズの撮影画像(画像1及び画像2)の対応特徴点が決定される。 FIG. 5 shows a flow of the feature point association process when the reduction process with the reduction ratio of 1/2 is performed n times on the two captured images (image 1 and image 2). Corresponding feature points are obtained by associating feature points extracted from an image obtained by reducing the size of image 1 to 1/2 n with feature points extracted from an image obtained by reducing the size of image 2 to 1/2 n Candidates are determined. Then, when the association process of the corresponding feature point candidates is performed n times, the corresponding feature points of the original size captured images (image 1 and image 2) are determined.

図4のフローチャートでは、予め縮小比率が設定されている場合を示したが、条件パラメータ設定部8において、処理対象の撮影画像の特性(画像サイズ、空間周波数特性等)に応じて縮小比率及び/又は縮小回数を設定して、その設定された縮小比率及び/又は縮小回数に基づいて縮小処理を行うようにしてもよい。   In the flowchart of FIG. 4, the reduction ratio is set in advance. However, in the condition parameter setting unit 8, the reduction ratio and / or according to the characteristics (image size, spatial frequency characteristics, etc.) of the captured image to be processed. Alternatively, a reduction count may be set, and the reduction process may be performed based on the set reduction ratio and / or the reduction count.

本発明では、基本的に対応づけを行う画像のサイズは同一であることが想定しており、それぞれの画像は同一条件で縮小すればよい。仮に、異なるサイズの画像間で対応づけを行う場合は、一方の画像を拡大または縮小することで画像サイズを揃える前処理を行い、その結果得られる同じサイズの画像同士で本発明による対応づけを行うことすればよい。その場合、前処理による縮小処理と本発明の縮小処理を一体化させて実施してもよい。このような場合も考慮すると、対応づけを行うそれぞれの画像の縮小条件は必ずしも同一でなくてもよい。   In the present invention, it is assumed that the sizes of images to be associated are basically the same, and each image may be reduced under the same conditions. For example, when matching between images of different sizes, pre-processing for aligning the image size is performed by enlarging or reducing one of the images, and matching according to the present invention is performed between images of the same size obtained as a result. You can do it. In that case, the reduction process by the pre-processing and the reduction process of the present invention may be integrated. Considering such a case, the reduction conditions of the images to be associated with each other may not necessarily be the same.

〈対応付け処理〉
次に、図4のステップA5に示した特徴点の対応付け処理について説明する。対応特徴点判定部4では、被写体の同一点に対応する特徴点の候補となる対応特徴点候補同士の座標値、連結数、色情報、近傍特徴点との位置関係が評価され、これらの評価結果(評価情報)に基づいて対応特徴点があるか否かが判定される。
<Association process>
Next, the feature point association processing shown in step A5 of FIG. 4 will be described. The corresponding feature point determination unit 4 evaluates the coordinate values, the number of connections, the color information, and the positional relationship with neighboring feature points between the corresponding feature point candidates that are candidate feature points corresponding to the same point of the subject. It is determined whether there is a corresponding feature point based on the result (evaluation information).

まず、図6を参照して、対応特徴点候補同士の座標値の評価について説明する。以下では、画像2を基準画像とする。図6(a)に示すように、画像1の特徴点をTi(i=1、2、…、m)とし、画像2の特徴点をSj(j=1、2、…、n)とする。特徴点同士の座標値を評価するには、図6(b)に示すように、TiとSjの全ての組み合わせについて、TiとSjとの距離を算出すればよい。Tiの座標を(xi,yi)、Sjの座標を(x’j,y’j)とすると、TiとSjとの距離Δijは式(1)のように定義される。

Figure 2006293602
そして、距離Δijが許容値ε1以下である特徴点Tiを、対応特徴点候補を順位付けしたテーブルα(図12参照)への登録候補とする。 First, with reference to FIG. 6, evaluation of coordinate values between corresponding feature point candidates will be described. Hereinafter, the image 2 is set as a reference image. As shown in FIG. 6A, the feature point of the image 1 is Ti (i = 1, 2,..., M), and the feature point of the image 2 is Sj (j = 1, 2,..., N). . In order to evaluate the coordinate value between the feature points, the distance between Ti and Sj may be calculated for all combinations of Ti and Sj as shown in FIG. When the coordinates of Ti are (x i , y i ) and the coordinates of Sj are (x ′ j , y ′ j ), the distance Δ ij between Ti and Sj is defined as in equation (1).
Figure 2006293602
Then, feature points Ti whose distance Δ ij is equal to or smaller than the allowable value ε1 are registered as candidates for registration in the table α (see FIG. 12) in which the corresponding feature point candidates are ranked.

次に、図7〜図9を参照して、連結数の評価について説明する。
上述のように、撮影画像からエッジが抽出され、エッジの細線化で得られた細線の特異点が特徴点として抽出される。図7(a)に、撮影画像の一例を示し、図7(b)に、当該撮影画像の細線及び特徴点(図中の白丸)の一例を示す。このようにして抽出された特徴点は、その特徴点に細線が何本集中しているかを表す連結数(order)で分類される。
Next, evaluation of the number of connections will be described with reference to FIGS.
As described above, an edge is extracted from the captured image, and a singular point of a thin line obtained by thinning the edge is extracted as a feature point. FIG. 7A shows an example of a photographed image, and FIG. 7B shows an example of fine lines and feature points (white circles in the figure) of the photographed image. The feature points extracted in this way are classified by the number of connections (order) indicating how many thin lines are concentrated on the feature points.

図8に示すように、細線の端点は連結数=1、分岐点は連結数=3、折点(角点)は連結数=2、交差点は連結数=4、複合点は連結数>4である。なお、極めて近接した特徴点同士は1つの特徴点とみなされる。また、図9に示すように、評価対象の連結数(評価連結数)に上限値を設け、実際の連結数(真の連結数)が一定数以上である場合は、上限値(一定数)を評価連結数としてもよい。特徴点TiとSjの全ての組み合わせについてTiとSjの連結数を比較し、双方の連結数の差分(差の絶対値)が許容値ε2以下となる特徴点Tiを、テーブルα(図12参照)への登録候補とする。   As shown in FIG. 8, the end point of the thin line is the connection number = 1, the branch point is the connection number = 3, the break (corner) is the connection number = 2, the intersection is the connection number = 4, and the composite point is the connection number> 4. It is. Note that very close feature points are regarded as one feature point. Also, as shown in FIG. 9, an upper limit is provided for the number of connections to be evaluated (evaluation connection number), and when the actual connection number (true connection number) is a certain number or more, the upper limit value (a constant number). May be used as the evaluation connection number. The number of connections between Ti and Sj is compared for all combinations of feature points Ti and Sj, and a feature point Ti whose difference (absolute value of the difference) between both is less than or equal to the allowable value ε2 is represented in table α (see FIG. 12). ) Registration candidates.

次に、図10及び図11を参照して、色情報の評価について説明する。
露出条件の異なる撮影画像を位置合わせするアプリケーションを想定した場合、対応特徴点候補同士の明度情報にはある程度の開きがあることが考えられるため、図10に示すように、対応特徴点同士の色相のみを評価する方法(図10(a))又は対応特徴点同士の色相及び彩度を評価する方法(図10(b))を採用する。
Next, evaluation of color information will be described with reference to FIGS.
Assuming an application that aligns captured images with different exposure conditions, it is conceivable that the brightness information between the corresponding feature point candidates has some degree of opening, and as shown in FIG. A method of evaluating only the color (FIG. 10A) or a method of evaluating the hue and saturation between corresponding feature points (FIG. 10B) is adopted.

色度座標の例としてL*a*b*を用いる場合、対応特徴点同士の色相のみを評価する方法では、図10(a)に示すように、TiとSjの全ての組み合わせについて、a*b*平面に、対応特徴点候補同士の色度座標をプロットし、各々の色度座標と原点とを結ぶ線がつくる角θ(色相差)を算出し、この色相差θが許容値ε3以下である特徴点Tiを、テーブルα(図12参照)への登録候補とする。但し、一方の色度座標が、原点との距離が一定値以内のニュートラル領域にある場合、中性色とみなして色相差θが有意ではないものとする。   When L * a * b * is used as an example of chromaticity coordinates, in the method of evaluating only the hues of the corresponding feature points, as shown in FIG. 10A, for all combinations of Ti and Sj, a * The chromaticity coordinates of the corresponding feature point candidates are plotted on the b * plane, and an angle θ (hue difference) formed by a line connecting each chromaticity coordinate and the origin is calculated. This hue difference θ is an allowable value ε3 or less. Is a candidate for registration in the table α (see FIG. 12). However, if one of the chromaticity coordinates is in a neutral region whose distance from the origin is within a certain value, the hue difference θ is assumed to be insignificant as a neutral color.

色度座標の例としてL*a*b*を用いる場合、対応特徴点同士の色相及び彩度を評価する方法では、図10(b)に示すように、TiとSjの全ての組み合わせについて、a*b*平面に、対応特徴点候補同士の色度座標をプロットして色度座標間の距離を算出し、この算出された距離が許容値ε4以下となる特徴点Tiを、テーブルα(図12参照)への登録候補とする。   When L * a * b * is used as an example of chromaticity coordinates, in the method of evaluating the hue and saturation between corresponding feature points, as shown in FIG. 10B, for all combinations of Ti and Sj, The distance between the chromaticity coordinates is calculated by plotting the chromaticity coordinates of the corresponding feature point candidates on the a * b * plane, and the feature point Ti whose calculated distance is equal to or less than the allowable value ε4 is stored in the table α ( (See FIG. 12).

図11に、色情報の評価に用いる色情報の算出方法を示す。
通常、デジタルカメラ等で撮影され、現像された画像データのRGB値は、色空間が規定されている。最も一般的なsRGB色空間の場合は、図11の変換式(10)を用いて、RGBデータからCIE XYZ空間の色度値に変換される。更に、図11の変換式(20)を用いて白色点の色度(観察照明条件)を規定することにより、CIE L*a*b*空間の色度値に変換される。
FIG. 11 shows a method for calculating color information used for evaluating color information.
Usually, a color space is defined for RGB values of image data photographed and developed by a digital camera or the like. In the case of the most common sRGB color space, the RGB data is converted into chromaticity values in the CIE XYZ space using the conversion formula (10) in FIG. Furthermore, by defining the chromaticity (observation illumination condition) of the white point using the conversion equation (20) in FIG. 11, the white point is converted into a chromaticity value in the CIE L * a * b * space.

なお、図10では、評価に用いる色情報としてL*a*b*を用いる場合を示したが、明度と色情報を分離可能な他の様々な色空間(L*u*v*、HSV、HLS、YCbCr等)を用いるようにしてもよい。   FIG. 10 shows the case where L * a * b * is used as the color information used for the evaluation. However, various other color spaces (L * u * v *, HSV, HLS, YCbCr, etc.) may be used.

これら3つの評価処理(対応特徴点候補同士の座標値、連結数、色情報の評価)が終了すると、各評価処理での結果(評価情報)に基づいて、テーブルαへの登録候補となった特徴点Tiを順位付けし、順位が上位(例えば、1位〜6位まで)の特徴点がテーブルαに登録されることにより、テーブルαが作成される。例えば、座標ずれ(式(1)の距離Δijの値)が小さく、連結数の差が小さく、色相差θ又は色度座標間の距離が小さくなるほど、テーブルαでの順位は上位となる。 When these three evaluation processes (evaluation of coordinate values of corresponding feature point candidates, the number of connections, and color information) are completed, the candidate for registration in the table α is obtained based on the result (evaluation information) in each evaluation process. The feature points Ti are ranked, and the feature points with higher ranks (for example, 1st to 6th) are registered in the table α, thereby creating the table α. For example, the coordinates shift (Equation (1) distance Δ value of ij) of small, the difference in coupling number is small, as the distance between the hue difference θ or chromaticity coordinates decreases, position on a table α becomes higher.

図12に、画像1と画像2の対応特徴点候補を順位付けしたテーブルαの一例を示す。図12によると、画像2の特徴点S1の対応特徴点候補として、画像1の特徴点T2が最も上位に位置し、画像1の中に、画像2の特徴点S5に対応する特徴点が存在しないことを示している。   FIG. 12 shows an example of the table α in which the corresponding feature point candidates of the images 1 and 2 are ranked. According to FIG. 12, the feature point T2 of the image 1 is positioned at the top as the corresponding feature point candidate of the feature point S1 of the image 2, and the feature point corresponding to the feature point S5 of the image 2 exists in the image 1 Indicates that no.

上記3つの評価処理及びテーブルαの作成処理と並行して、各々の撮影画像内の各特徴点について、特徴点から一定距離以内に位置する近傍特徴点(一般に複数)が探索される。次いで、撮影画像同士で、特徴点とその近傍特徴点との位置関係を評価する処理(以下、位置関係評価処理と呼ぶ。)が行われる。   In parallel with the three evaluation processes and the table α creation process, for each feature point in each captured image, a neighboring feature point (generally a plurality) located within a certain distance from the feature point is searched. Next, a process of evaluating the positional relationship between the feature points and their neighboring feature points (hereinafter referred to as a positional relationship evaluation process) is performed between the captured images.

基準画像の特徴点(注目特徴点:Sj)とその近傍特徴点に対して、それぞれテーブルαに登録された対応特徴点候補(Ti)が存在する(存在しない場合もある)。位置関係評価処理では、SjとSkが近傍関係にある場合、Sjの対応特徴点候補Tiと、Skの対応特徴点候補Tlの全ての組み合わせ(Ti、Tl)について、その位置関係が、基準画像の注目特徴点とその近傍特徴点との位置関係に一致するか否かが判断される。テーブルαの例において、画像2の特徴点S3とS4が近傍関係にあった場合、S3の対応特徴点候補T3、T4、T1に対して、S4の対応特徴点候補T4、T2があるため、6通りの組み合わせについての位置関係が評価される。   Corresponding feature point candidates (Ti) registered in the table α exist for feature points of the reference image (attention feature point: Sj) and their neighboring feature points (may not exist). In the positional relationship evaluation process, when Sj and Sk are in a close relationship, the positional relationship of all combinations (Ti, Tl) of the corresponding feature point candidate Ti of Sj and the corresponding feature point candidate Tl of Sk is the reference image. It is determined whether or not the current feature point matches the positional relationship between the feature point and its neighboring feature points. In the example of the table α, when the feature points S3 and S4 of the image 2 are in a close relationship, there are corresponding feature point candidates T4 and T2 of S4 with respect to the corresponding feature point candidates T3, T4 and T1 of S3. The positional relationships for the six combinations are evaluated.

図13に示すように、基準画像(画像2)の注目特徴点とその近傍特徴点の座標をそれぞれ、(x1,y1)、(x2,y2)とし(図13(a))、注目特徴点の対応特徴点候補とその近傍特徴点の座標をそれぞれ、(x’1,y’1)、(x’2,y’2)とする(図13(b))。位置関係評価処理では、式(2)に示す評価値が用いられる。

Figure 2006293602
ここで、Δx=x2−x1、Δy=y2−y1、Δx’=x’2−x’1、Δy’=y’2−y’1である。又は、デジタル画像の特性に基づき、座標の量子化誤差に考慮して式(2)を調整した式(3)に示す評価値を用いることも可能である。
Figure 2006293602
As shown in FIG. 13, the coordinates of the feature point of interest and its neighboring feature points in the reference image (image 2) are (x 1 , y 1 ) and (x 2 , y 2 ), respectively (FIG. 13 (a)). The corresponding feature point candidate of the feature point of interest and the coordinates of its neighboring feature points are (x ′ 1 , y ′ 1 ) and (x ′ 2 , y ′ 2 ), respectively (FIG. 13B). In the positional relationship evaluation process, the evaluation value shown in Expression (2) is used.
Figure 2006293602
Here, Δx = x 2 −x 1 , Δy = y 2 −y 1 , Δx ′ = x ′ 2 −x ′ 1 , and Δy ′ = y ′ 2 −y ′ 1 . Alternatively, it is also possible to use an evaluation value represented by Expression (3) obtained by adjusting Expression (2) in consideration of the quantization error of coordinates based on the characteristics of the digital image.
Figure 2006293602

位置関係評価処理では、式(2)又は式(3)に示した評価値が許容値ε5以下である場合に、該当する対応特徴点候補の組み合わせについてカウントアップされる。図14に、対応特徴点候補のカウント情報を表すテーブルβの一例を示す。図12のテーブルαにおいて、基準画像の特徴点S3とその近傍特徴点S4の位置関係と、S3の対応特徴点候補T3とその近傍特徴点T2との位置関係の評価値が許容値ε5以下である場合、図14のように、該当するテーブル情報がカウントアップ(+1)される。   In the positional relationship evaluation process, when the evaluation value shown in Expression (2) or Expression (3) is the allowable value ε5 or less, the corresponding combination of corresponding feature point candidates is counted up. FIG. 14 shows an example of the table β representing the count information of the corresponding feature point candidates. In the table α in FIG. 12, the evaluation value of the positional relationship between the feature point S3 of the reference image and its neighboring feature point S4 and the positional relationship between the corresponding feature point candidate T3 of S3 and its neighboring feature point T2 is less than or equal to the allowable value ε5. In some cases, the corresponding table information is counted up (+1) as shown in FIG.

テーブルα及びテーブルβが作成されると、テーブルαの順位情報及びテーブルβのカウント情報に基づいて、被写体の同一点に対応する対応特徴点があるか否かが判定され、対応特徴点があると判定された場合、対応特徴点が1点決定される。この対応特徴点の決定方法は、座標ずれによる評価情報と、近傍特徴点との位置関係による評価情報のどちらを優先的に使用するかに応じて2通りに分類される。   When the tables α and β are created, whether or not there is a corresponding feature point corresponding to the same point of the subject is determined based on the rank information of the table α and the count information of the table β, and there is a corresponding feature point. Is determined, one corresponding feature point is determined. The corresponding feature point determination method is classified into two types depending on which of the evaluation information based on the coordinate shift and the evaluation information based on the positional relationship with the neighboring feature points is used preferentially.

座標ずれによる評価情報を優先的に用いる場合、図15(a)に示すように、まず、テーブルβでカウント値が0でない対応特徴点候補が選ばれ、その選ばれた対応特徴点候補のうち、テーブルαで最も上位にある(即ち、座標ずれが最も小さい)対応特徴点候補が対応特徴点として決定される。   When the evaluation information based on the coordinate shift is used preferentially, as shown in FIG. 15A, first, a corresponding feature point candidate whose count value is not 0 is selected in the table β, and among the selected corresponding feature point candidates, The corresponding feature point candidate at the top of the table α (that is, the smallest coordinate deviation) is determined as the corresponding feature point.

近傍特徴点との位置関係による評価情報を優先的に用いる場合、図15(b)に示すように、テーブルαで登録済みの対応特徴点候補のうち、テーブルβでカウント値が最大である対応特徴点候補が対応特徴点として決定される。   When the evaluation information based on the positional relationship with neighboring feature points is used preferentially, as shown in FIG. 15B, among the corresponding feature point candidates registered in the table α, the correspondence with the maximum count value in the table β. Feature point candidates are determined as corresponding feature points.

なお、優先的に使用する評価情報は、ユーザによる設定又は状況に応じて切り替え可能である。例えば、特徴点の分布状況の解析やパターンマッチングにより、被写体の動き量及び変形具合等を推定し、例えば、動き量が所定量より小さい場合には、座標ずれによる評価情報(図12(a))を優先的に使用する。   Note that the evaluation information used preferentially can be switched according to the setting or situation by the user. For example, the amount of motion and deformation of the subject are estimated by analyzing the distribution of feature points and pattern matching. For example, when the amount of motion is smaller than a predetermined amount, evaluation information based on coordinate deviation (FIG. 12A) ) Is used preferentially.

〈関連付け処理〉
次に、図16〜図18を参照して、縮小画像の対応特徴点候補が、縮小前画像のどの位置に対応するのかを関連付ける関連付け処理について説明する。
<Association process>
Next, with reference to FIGS. 16 to 18, association processing for associating which position of the corresponding feature point candidate of the reduced image corresponds to which position of the pre-reduction image will be described.

図16に、関連付け処理の一例を示す。図16に示すように縮小率が1/2である場合、縮小前画像には、縮小画像の特徴点に対応する候補点が2×2点あり、この4点の候補点の中から最も適切な点が選択されることになる。従って、n枚の撮影画像で関連付け処理を行う場合、関連付けの組み合わせは4n通りある。 FIG. 16 shows an example of the association process. As shown in FIG. 16, when the reduction ratio is 1/2, the pre-reduction image has 2 × 2 candidate points corresponding to the feature points of the reduced image, and the most appropriate of the four candidate points. The point will be selected. Therefore, when the association process is performed with n photographed images, there are 4 n combinations of associations.

2枚の撮影画像(画像1、画像2)で関連付け処理を行う場合、画像1の縮小前画像の4点の対応特徴点候補と、画像2の縮小前画像の4点の対応特徴点候補をそれぞれ突き合わせると、関連付けの組み合わせは16通りあり、この16通りの組み合わせの中から、対応特徴点として最適な組み合わせが選択される。実際には、図17に示すように、画像1の縮小前画像の対応特徴点候補の画素データI22及びその近傍画素(8画素)の画素データと、画像2の縮小前画像の対応特徴点候補の画素データI’22及びその近傍画素(8画素)の画素データに基づいて、最適な組み合わせが選択される。 When the association processing is performed on two photographed images (image 1 and image 2), four corresponding feature point candidates of the pre-reduction image of image 1 and four corresponding feature point candidates of the pre-reduction image of image 2 are obtained. When matched, there are 16 combinations of associations, and an optimal combination is selected as a corresponding feature point from the 16 combinations. Actually, as shown in FIG. 17, the corresponding feature point candidate pixel data I 22 of the pre-reduction image of image 1 and its neighboring pixel (8 pixels) pixel data, and the corresponding feature points of the pre-reduction image of image 2 An optimal combination is selected based on the candidate pixel data I ′ 22 and pixel data of neighboring pixels (eight pixels).

2枚の縮小前画像の対応特徴点候補から最適な組み合わせを選択する方法としては、以下の3つの方法の少なくとも一つを採用することができる。   As a method for selecting the optimum combination from the corresponding feature point candidates of the two pre-reduction images, at least one of the following three methods can be employed.

(a)第1の方法は、2枚の縮小前画像の対応特徴点候補間で、画像データの一致度合いを評価する方法である。この第1の方法では、画像1の対応特徴点候補及びその近傍画素と、画像2の対応特徴点候補及びその近傍画素とのデータ格差が最小になる組み合わせが選択される。具体的には、16通りの組み合わせのうち、式(4)に示すΔ1の値が最小となる組み合わせが選択される。

Figure 2006293602
但し、露出ブラケット撮影の撮影画像間で第1の方法を用いる場合には、対応するデータ補正を行う必要がある。 (A) The first method is a method for evaluating the degree of coincidence of image data between corresponding feature point candidates of two images before reduction. In this first method, the combination that minimizes the data difference between the corresponding feature point candidate of image 1 and its neighboring pixels and the corresponding feature point candidate of image 2 and its neighboring pixels is selected. Specifically, a combination that minimizes the value of Δ 1 shown in Expression (4) is selected from the 16 combinations.
Figure 2006293602
However, when the first method is used between captured images of exposure bracket shooting, it is necessary to perform corresponding data correction.

(b)第2の方法は、2枚の縮小前画像の対応特徴点候補間で、近傍領域のデータ相関性を評価する方法である。具体的には、16通りの組み合わせのうち、式(5)に示すΔ2の値が最大となる組み合わせが選択される。

Figure 2006293602
ここでNは、計算範囲の画素数(図17の例ではN=3×3)である。 (B) The second method is a method for evaluating the data correlation of the neighboring region between the corresponding feature point candidates of the two pre-reduction images. Specifically, among the 16 combinations, the combination that maximizes the value of Δ 2 shown in Expression (5) is selected.
Figure 2006293602
Here, N is the number of pixels in the calculation range (N = 3 × 3 in the example of FIG. 17).

(c)第3の方法は、2枚の縮小画像の対応特徴点候補間で、各々の画素データの近傍画素に対する特異性を評価する方法である。ここで、特異性とは、画像のエッジやピーク的特徴を有するか否かの性質を示しており、空間フィルタの畳み込み演算等により検出することができる。特徴点は特異性を有するはずであり、図18に示すように、その特異性を検出するための空間フィルタ(例えば、ラプラシアンフィルタ)M(mij、i,j=1,2,3)の畳み込み演算により、その結果が最大となる対応特徴点候補が選択される。 (C) The third method is a method for evaluating the specificity of each pixel data with respect to neighboring pixels between corresponding feature point candidates of two reduced images. Here, the peculiarity indicates the property of whether or not the image has an edge or a peak characteristic, and can be detected by a convolution operation of a spatial filter or the like. The feature point should have specificity, and as shown in FIG. 18, a spatial filter (for example, Laplacian filter) M (m ij , i, j = 1, 2, 3) for detecting the specificity is used. By the convolution operation, the corresponding feature point candidate that maximizes the result is selected.

以上のように、本実施形態の画像処理装置100によれば、同一被写体を撮影して得られた複数の撮影画像同士を対応付ける処理において、多くのパラメータを調整することなく、様々な解像度の撮影画像に対して適切な対応特徴点を得るとともに、処理時間を短縮させることが可能となる。   As described above, according to the image processing apparatus 100 of the present embodiment, in the process of associating a plurality of photographed images obtained by photographing the same subject, photographing with various resolutions without adjusting many parameters. It is possible to obtain an appropriate corresponding feature point for the image and reduce the processing time.

本発明の実施形態に係る画像処理装置の構成を示すブロック図。1 is a block diagram showing a configuration of an image processing apparatus according to an embodiment of the present invention. 画像サイズの縮小を説明するための図。The figure for demonstrating reduction of an image size. 撮影画像の空間周波数成分の分布状況を示す図。The figure which shows the distribution condition of the spatial frequency component of a picked-up image. 画像処理装置において実行される特徴点対応付け処理を示すフローチャート。The flowchart which shows the feature point matching process performed in an image processing apparatus. 2枚の撮影画像に対し縮小率1/2の縮小処理をn回施した場合の特徴点対応付け処理の流れを示す図。The figure which shows the flow of the feature point matching process at the time of performing the reduction process of the reduction ratio 1/2 with respect to two picked-up images n times. 画像1と画像2における細線及び特徴点を示す図(a)と、画像1の各特徴点と画像2の各特徴点の組み合わせを示す図。The figure which shows the fine line and feature point in the image 1 and the image 2, and the figure which shows the combination of each feature point of the image 1, and each feature point of the image 2. 撮影画像(a)と、当該撮影画像のエッジ情報から得られる細線及び特徴点を示す図(b)。FIG. 4B is a diagram showing a captured image (a) and fine lines and feature points obtained from edge information of the captured image. 細線図における特徴点の位置付けを示す図。The figure which shows the positioning of the feature point in a thin line figure. 真の(実際の)連結数と、評価連結数(比較評価用の連結数)の関係を示す図。The figure which shows the relationship between the number of true (actual) connections and the number of evaluation connections (number of connections for comparative evaluation). 対応する特徴点同士の色相のみを評価する場合(a)と、色相及び彩度について評価する場合(b)を説明する図。The figure explaining the case where only the hue of the corresponding feature points is evaluated (a), and the case where the hue and saturation are evaluated (b). 評価用の色情報の算出方法を示す図。The figure which shows the calculation method of the color information for evaluation. 対応特徴点候補を順位付けしたテーブルαを示す図。The figure which shows the table (alpha) which ranked the corresponding feature point candidate. 近傍特徴点同士の位置関係の評価方法を示す図。The figure which shows the evaluation method of the positional relationship between neighboring feature points. 近傍特徴点同士の位置関係の評価値に基づいて生成されるテーブルβを示す図。The figure which shows the table (beta) produced | generated based on the evaluation value of the positional relationship between neighboring feature points. 対応特徴点の特定方法を示す図。The figure which shows the identification method of a corresponding feature point. 縮小画像と縮小前画像における特徴点の関連付け処理を示す図。The figure which shows the correlation process of the feature point in a reduction image and the image before reduction. 2枚の縮小前画像における特徴点の対応付け処理を示す図。The figure which shows the matching process of the feature point in two images before reduction. 図17の特徴点の対応付け処理において、空間フィルタを用いた場合の特徴点の決定方法を示す図。The figure which shows the determination method of the feature point at the time of using a spatial filter in the matching process of the feature point of FIG.

符号の説明Explanation of symbols

1 画像入力部
2 画像縮小部
3 特徴点抽出部
4 対応特徴点判定部
5 解像度間関連付け部
6 対応特徴点出力部
7 画像解析部
8 条件パラメータ設定部
100 画像処理装置
DESCRIPTION OF SYMBOLS 1 Image input part 2 Image reduction part 3 Feature point extraction part 4 Corresponding feature point determination part 5 Inter-resolution correlation part 6 Corresponding feature point output part 7 Image analysis part 8 Condition parameter setting part 100 Image processing apparatus

Claims (18)

同一の被写体を撮影して得られた複数の撮影画像の各々から特徴点を抽出し、当該被写体の同一点に対応する特徴点同士を対応付ける画像処理方法において、
前記複数の撮影画像の各々を同一の縮小比率で縮小する縮小工程と、
前記縮小された各撮影画像から特徴点を抽出する抽出工程と、
前記抽出された各撮影画像の特徴点同士を対応付ける対応付け工程と、
前記対応付けられた特徴点が、元のサイズの撮影画像のどの位置に対応するのかを関連付ける関連付け工程と、
を含むことを特徴とする画像処理方法。
In an image processing method for extracting feature points from each of a plurality of captured images obtained by photographing the same subject, and associating feature points corresponding to the same point of the subject,
A reduction step of reducing each of the plurality of captured images at the same reduction ratio;
An extraction step of extracting feature points from each reduced photographed image;
An associating step for associating feature points of each of the extracted captured images;
An associating step for associating which position of the photographed image of the original size corresponds to the associated feature point;
An image processing method comprising:
前記縮小工程における縮小処理は複数段階からなることを特徴とする請求項1に記載の画像処理方法。   The image processing method according to claim 1, wherein the reduction process in the reduction process includes a plurality of stages. 前記関連付け工程は、複数段階の関連付け処理からなり、前記縮小工程における途中段階の撮影画像への関連付け処理を経て、元のサイズの撮影画像への関連付けが行われることを特徴とする請求項2に記載の画像処理方法。   3. The association process according to claim 2, wherein the association step includes a plurality of steps of association processing, and the association with the captured image of the original size is performed through the association processing with the captured image in the intermediate stage in the reduction step. The image processing method as described. 前記縮小工程における1段階の縮小処理の縮小比率は1/2又は1/2の累乗であり、
前記関連付け工程では、1段階の関連付け処理で、2倍又は2の累乗倍の画像サイズの撮影画像との関連付けが行われることを特徴とする請求項1〜3の何れか一項に記載の画像処理方法。
The reduction ratio of the one-stage reduction process in the reduction process is a power of 1/2 or 1/2,
The image according to any one of claims 1 to 3, wherein in the associating step, associating with a photographed image having an image size of 2 times or a power of 2 is performed in one step of associating processing. Processing method.
前記関連付け工程では、前記対応付けられた対応特徴点候補の間で、画像データの一致度合いを評価することにより対応特徴点が得られることを特徴とする請求項1〜4の何れか一項に記載の画像処理方法。   5. In the associating step, a corresponding feature point is obtained by evaluating a matching degree of image data between the corresponding corresponding feature point candidates. The image processing method as described. 前記関連付け工程では、前記対応付けられた対応特徴候補の間で、近傍領域のデータ相関性を評価することにより対応特徴点が得られることを特徴とする請求項1〜4の何れか一項に記載の画像処理方法。   5. In the associating step, corresponding feature points are obtained by evaluating data correlation of neighboring regions between the corresponding corresponding feature candidates. The image processing method as described. 前記関連付け工程では、前記対応付けられた対応特徴点候補の間で、各々の画素データの近傍画素に対する特異性を評価することにより対応特徴点が得られることを特徴とする請求項1〜4の何れか一項に記載の画像処理方法。   5. In the associating step, a corresponding feature point is obtained by evaluating the specificity of each pixel data with respect to neighboring pixels between the corresponding corresponding feature point candidates. The image processing method according to any one of the above. 処理対象の撮影画像の画像サイズに応じて、当該撮影画像に対する縮小比率及び/又は縮小回数を決定する決定工程を含み、
前記縮小工程では、前記決定された縮小比率及び/又は縮小回数の縮小処理が行われることを特徴とする請求項1〜7の何れか一項に記載の画像処理方法。
Including a determination step of determining a reduction ratio and / or the number of reductions with respect to the photographed image according to the image size of the photographed image to be processed;
The image processing method according to claim 1, wherein in the reduction step, reduction processing of the determined reduction ratio and / or number of reductions is performed.
処理対象の撮影画像の空間周波数成分を解析する解析工程と、
前記解析工程における解析結果に基づいて、前記撮影画像に対する縮小比率及び/又は縮小回数を決定する決定工程と、を含み、
前記縮小工程では、前記決定された縮小比率及び/又は縮小回数の縮小処理が行われることを特徴とする請求項1〜7の何れか一項に記載の画像処理方法。
An analysis process for analyzing a spatial frequency component of a captured image to be processed;
Determining a reduction ratio and / or the number of reductions for the captured image based on the analysis result in the analysis step,
The image processing method according to claim 1, wherein in the reduction step, reduction processing of the determined reduction ratio and / or number of reductions is performed.
同一の被写体を撮影して得られた複数の撮影画像の各々から特徴点を抽出し、当該被写体の同一点に対応する特徴点同士を対応付ける画像処理装置において、
前記複数の撮影画像の各々を同一の縮小比率で縮小する縮小手段と、
前記縮小された各撮影画像から特徴点を抽出する抽出手段と、
前記抽出された各撮影画像の特徴点同士を対応付ける対応付け手段と、
前記対応付けられた特徴点が、元のサイズの撮影画像のどの位置に対応するのかを関連付ける関連付け手段と、
を備えることを特徴とする画像処理装置。
In an image processing apparatus that extracts feature points from each of a plurality of captured images obtained by photographing the same subject, and associates feature points corresponding to the same point of the subject.
Reduction means for reducing each of the plurality of captured images at the same reduction ratio;
Extraction means for extracting feature points from each reduced photographed image;
Associating means for associating feature points of each of the extracted captured images;
Associating means for associating which position of the associated feature point corresponds to the position of the captured image of the original size;
An image processing apparatus comprising:
前記縮小手段による縮小処理は複数段階からなることを特徴とする請求項10に記載の画像処理装置。   The image processing apparatus according to claim 10, wherein the reduction processing by the reduction unit includes a plurality of stages. 前記関連付け手段は、複数段階の関連付け処理からなり、前記縮小手段による途中段階の撮影画像への関連付け処理を経て、元のサイズの撮影画像への関連付けを行うことを特徴とする請求項11に記載の画像処理装置。   12. The association unit includes a plurality of steps of association processing, and performs association with a captured image of an original size through an association process with a captured image at an intermediate stage by the reduction unit. Image processing apparatus. 前記縮小手段による1段階の縮小処理の縮小比率は1/2又は1/2の累乗であり、
前記関連付け手段は、1段階の関連付け処理で、2倍又は2の累乗倍の画像サイズの撮影画像との関連付けを行うことを特徴とする請求項10〜12の何れか一項に記載の画像処理装置。
The reduction ratio of the one-stage reduction process by the reduction means is a power of 1/2 or 1/2,
The image processing according to any one of claims 10 to 12, wherein the associating means performs associating with a captured image having an image size that is twice or a power of 2 in one-step association processing. apparatus.
前記関連付け手段は、前記対応付けられた対応特徴点候補の間で、画像データの一致度合いを評価することにより対応特徴点を得ることを特徴とする請求項10〜13の何れか一項に記載の画像処理装置。   The said associating means obtains a corresponding feature point by evaluating a matching degree of image data between the corresponding corresponding feature point candidates. Image processing apparatus. 前記関連付け手段は、前記対応付けられた対応特徴候補の間で、近傍領域のデータ相関性を評価することにより対応特徴点を得ることを特徴とする請求項10〜13の何れか一項に記載の画像処理装置。   The association means obtains a corresponding feature point by evaluating data correlation in a neighboring region between the corresponding corresponding feature candidates. Image processing apparatus. 前記関連付け手段は、前記対応付けられた対応特徴点候補の間で、各々の画素データの近傍画素に対する特異性を評価することにより対応特徴点を得ることを特徴とする請求項10〜13の何れか一項に記載の画像処理装置。   The association means obtains a corresponding feature point by evaluating the specificity of each pixel data with respect to a neighboring pixel between the corresponding corresponding feature point candidates. An image processing apparatus according to claim 1. 処理対象の撮影画像の画像サイズに応じて、当該撮影画像に対する縮小比率及び/又は縮小回数を決定する決定手段を備え、
前記縮小手段は、前記決定された縮小比率及び/又は縮小回数の縮小処理を行うことを特徴とする請求項10〜16の何れか一項に記載の画像処理装置。
In accordance with the image size of the captured image to be processed, the image processing apparatus includes a determination unit that determines a reduction ratio and / or the number of reductions for the captured image
The image processing apparatus according to claim 10, wherein the reduction unit performs a reduction process of the determined reduction ratio and / or the number of reductions.
処理対象の撮影画像の空間周波数成分を解析する解析手段と、
前記解析手段による解析結果に基づいて、前記撮影画像に対する縮小比率及び/又は縮小回数を決定する決定手段と、を備え、
前記縮小手段は、前記決定された縮小比率及び/又は縮小回数の縮小処理を行うことを特徴とする請求項10〜16の何れか一項に記載の画像処理装置。
An analysis means for analyzing a spatial frequency component of a captured image to be processed;
Determination means for determining a reduction ratio and / or the number of reductions for the captured image based on the analysis result by the analysis means,
The image processing apparatus according to claim 10, wherein the reduction unit performs a reduction process of the determined reduction ratio and / or the number of reductions.
JP2005112048A 2005-04-08 2005-04-08 Image processing method and image processor Pending JP2006293602A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005112048A JP2006293602A (en) 2005-04-08 2005-04-08 Image processing method and image processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005112048A JP2006293602A (en) 2005-04-08 2005-04-08 Image processing method and image processor

Publications (1)

Publication Number Publication Date
JP2006293602A true JP2006293602A (en) 2006-10-26

Family

ID=37414126

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005112048A Pending JP2006293602A (en) 2005-04-08 2005-04-08 Image processing method and image processor

Country Status (1)

Country Link
JP (1) JP2006293602A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008217053A (en) * 2007-02-28 2008-09-18 Fuji Xerox Co Ltd Image processor and image processing program
JP2009200923A (en) * 2008-02-22 2009-09-03 Fuji Xerox Co Ltd Image processing apparatus and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008217053A (en) * 2007-02-28 2008-09-18 Fuji Xerox Co Ltd Image processor and image processing program
JP2009200923A (en) * 2008-02-22 2009-09-03 Fuji Xerox Co Ltd Image processing apparatus and program

Similar Documents

Publication Publication Date Title
JP5699788B2 (en) Screen area detection method and system
JP6701118B2 (en) Image processing apparatus and image processing method
US6714689B1 (en) Image synthesizing method
EP2833288B1 (en) Face calibration method and system, and computer storage medium
US20190220685A1 (en) Image processing apparatus that identifies object and method therefor
JP4375322B2 (en) Image processing apparatus, image processing method, program thereof, and computer-readable recording medium recording the program
JP4001162B2 (en) Image processing method, image processing program and storage medium therefor, and image processing apparatus
TW201437925A (en) Object identification device, method, and storage medium
JP2011097251A (en) Image processor, image processing method, image processing program, and recording medium with image processing program recorded thereon
JPWO2009020047A1 (en) Composition analysis method, image apparatus having composition analysis function, composition analysis program, and computer-readable recording medium
JP2010041417A (en) Image processing unit, image processing method, image processing program, and imaging apparatus
WO2018147059A1 (en) Image processing device, image processing method, and program
JP2011008704A (en) Image processing apparatus, image processing method and program
JP2011165043A (en) Image processing device
KR101624801B1 (en) Matting method for extracting object of foreground and apparatus for performing the matting method
JPWO2015145917A1 (en) Image correction apparatus, image correction method, and program
JP2018137636A (en) Image processing device and image processing program
JP2007115109A (en) Image processor and processing method, program and storage medium
JPH10149449A (en) Picture division method, picture identification method, picture division device and picture identification device
JP2006293600A (en) Image processing method, image processor, and image composition processor
JP4682782B2 (en) Image processing device
JP2006293602A (en) Image processing method and image processor
JP6006675B2 (en) Marker detection apparatus, marker detection method, and program
TWI384418B (en) Image processing method and system using regionalized architecture
JP6478282B2 (en) Information terminal device and program

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20070827

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20080221