JP5471669B2 - Image processing apparatus, image processing method, and image processing program - Google Patents

Image processing apparatus, image processing method, and image processing program Download PDF

Info

Publication number
JP5471669B2
JP5471669B2 JP2010065196A JP2010065196A JP5471669B2 JP 5471669 B2 JP5471669 B2 JP 5471669B2 JP 2010065196 A JP2010065196 A JP 2010065196A JP 2010065196 A JP2010065196 A JP 2010065196A JP 5471669 B2 JP5471669 B2 JP 5471669B2
Authority
JP
Japan
Prior art keywords
image
scale space
scale
pixel
input image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010065196A
Other languages
Japanese (ja)
Other versions
JP2011198148A (en
Inventor
直之 沢崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2010065196A priority Critical patent/JP5471669B2/en
Publication of JP2011198148A publication Critical patent/JP2011198148A/en
Application granted granted Critical
Publication of JP5471669B2 publication Critical patent/JP5471669B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

この発明は、画像処理装置、画像処理方法および画像処理プログラムに関する。   The present invention relates to an image processing apparatus, an image processing method, and an image processing program.

画像内から特定のパターンの検出する画像認識技術として、例えば、テンプレートマッチングやハフ変換などの技術が存在する。しかし、いずれの技術も、画面内での水平、垂直位置、回転角、スケールなどの全パラメータ空間での探索処理に伴って、膨大な処理量を要するという課題がある。   As image recognition techniques for detecting a specific pattern from within an image, for example, techniques such as template matching and Hough transform exist. However, both techniques have a problem that a huge amount of processing is required in accordance with search processing in all parameter spaces such as horizontal, vertical position, rotation angle, and scale in the screen.

そこで、近年、パラメータ空間での探索処理に伴う処理量を低減することを目的として、スケールスペース理論を用いて画像特徴のスケールパラメータを推定する技術が開発されている。この技術では、スケールの異なるラプラシアン・ガウシアンフィルタ(Laplacian of Gaussian filter)等の空間フィルタの応答を利用することにより、パラメータ空間での探索処理量を減らしつつ、スケールの異なる画像から同一の画像特徴を抽出できる。なお、以下において、「フィルタ」と表記されるものはラプラシアン・ガウシアンフィルタを意味するものとする。   Therefore, in recent years, a technique for estimating a scale parameter of an image feature using a scale space theory has been developed for the purpose of reducing a processing amount associated with a search process in a parameter space. This technology uses the response of a spatial filter such as a Laplacian of Gaussian filter with different scales to reduce the search processing amount in the parameter space and to extract the same image features from images with different scales. Can be extracted. In the following description, “filter” means a Laplacian / Gaussian filter.

図16は、ラプラシアン・ガウシアンフィルタのスケールに応じた特性例を示す図である。なお、図16には、上から順に、フィルタのスケールが「σ=1.0,2.0,3.0」の時のフィルタの特性例を表す曲線が描かれている。図16に示すように、スケールが大きくなるに従ってフィルタの特性を表す曲線の勾配が緩やかになる。   FIG. 16 is a diagram illustrating a characteristic example corresponding to the scale of the Laplacian / Gaussian filter. In FIG. 16, in order from the top, curves representing examples of filter characteristics when the filter scale is “σ = 1.0, 2.0, 3.0” are drawn. As shown in FIG. 16, the slope of the curve representing the filter characteristics becomes gentler as the scale increases.

図17は、ラプラシアン・ガウシアンフィルタを入力画像に作用させて得られる応答とスケールとの関係の一例を示す図である。図17の縦軸はラプラシアン・ガウシアンフィルタの出力値である「LoG出力値」を表し、図17の横軸はラプラシアン・ガウシアンフィルタのスケール「σ」を表す。図17に示すように、フィルタのスケール「σ」が2.0の時に、フィルタの「LoG出力値」が最大となっている。なお、以下において、「出力値」と表記されるものは「LoG出力値」を意味するものとする。   FIG. 17 is a diagram illustrating an example of a relationship between a response and a scale obtained by applying a Laplacian / Gaussian filter to an input image. The vertical axis in FIG. 17 represents the “LoG output value” that is the output value of the Laplacian-Gaussian filter, and the horizontal axis in FIG. 17 represents the scale “σ” of the Laplacian-Gaussian filter. As shown in FIG. 17, when the filter scale “σ” is 2.0, the “LoG output value” of the filter is the maximum. In the following, what is described as “output value” means “LoG output value”.

また、ラプラシアン・ガウシアンフィルタを画像に作用させることにより得られる「LoG出力値」は、フィルタのスケール「σ」および注目画素からの距離をパラメータとする以下の式(1)により算出される。なお、注目画素からの距離は、画像上のX座標およびY座標の値で表される。   The “LoG output value” obtained by applying the Laplacian / Gaussian filter to the image is calculated by the following equation (1) using the filter scale “σ” and the distance from the target pixel as parameters. Note that the distance from the target pixel is represented by the values of the X coordinate and the Y coordinate on the image.

特開2003−22141号公報JP 2003-22141 A 特開2007−227522号公報JP 2007-227522 A

しかしながら、上述したスケールスペース理論を用いた技術では、画像に歪みがある場合には、特定のパターンを精度よく検出できないという問題があった。   However, the technique using the scale space theory described above has a problem that a specific pattern cannot be detected with high accuracy when the image is distorted.

図18は、ラプラシアン・ガウシアンフィルタを用いた入力画像からの局所ピークの抽出例を示す図である。なお、局所ピークとは、画像のある注目画素の近傍に位置する画素のうち、フィルタによる応答、すなわち出力値が局所的にピークとなる画素を意味する。局所的にピークとなる画素とは、注目画素と、この注目画素の近傍に位置する画素との間でフィルタにより得られる出力値が最大あるいは最小となる画素である。このようにして抽出された画素は画像の特徴点となる。   FIG. 18 is a diagram illustrating an example of local peak extraction from an input image using a Laplacian / Gaussian filter. In addition, a local peak means the pixel by which the response by a filter, ie, an output value, becomes a local peak among the pixels located in the vicinity of a certain pixel of interest in an image. The pixel having a local peak is a pixel in which the output value obtained by the filter between the target pixel and a pixel located in the vicinity of the target pixel is maximum or minimum. The pixels extracted in this way become image feature points.

図18に示す18−1は入力画像を表す。図18に示す18−2はスケール「σ」が1.0のラプラシアン・ガウシアンフィルタを表す。図18に示す18−3はスケール「σ」が1.5のラプラシアン・ガウシアンフィルタを表す。図18に示す18−4はスケール「σ」が2.0のラプラシアン・ガウシアンフィルタを表す。図18に示す18−5はスケール「σ」が2.5のラプラシアン・ガウシアンフィルタを表す。図18に示す18−6はスケール「σ」が3.0のラプラシアン・ガウシアンフィルタを表す。   18-1 shown in FIG. 18 represents an input image. 18-2 shown in FIG. 18 represents a Laplacian-Gaussian filter having a scale “σ” of 1.0. 18-3 shown in FIG. 18 represents a Laplacian-Gaussian filter having a scale “σ” of 1.5. 18-4 shown in FIG. 18 represents a Laplacian-Gaussian filter having a scale “σ” of 2.0. 18-5 shown in FIG. 18 represents a Laplacian-Gaussian filter having a scale “σ” of 2.5. 18-6 shown in FIG. 18 represents a Laplacian-Gaussian filter having a scale “σ” of 3.0.

また、図18に示す18−2´は、ラプラシアン・ガウシアンフィルタ18−2を入力画像18−1に作用させた時のスケールスペース画像である。図18に示す18−3´は、ラプラシアン・ガウシアンフィルタ18−3を入力画像18−1に作用させた時のスケールスペース画像である。図18に示す18−4´は、ラプラシアン・ガウシアンフィルタ18−4を入力画像18−1に作用させた時のスケールスペース画像である。図18に示す18−5´は、ラプラシアン・ガウシアンフィルタ18−5を入力画像18−1に作用させた時のスケールスペース画像である。図18に示す18−6´は、ラプラシアン・ガウシアンフィルタ18−6を入力画像18−1に作用させた時のスケールスペース画像である。   18-2 ′ shown in FIG. 18 is a scale space image when the Laplacian / Gaussian filter 18-2 is applied to the input image 18-1. 18-3 'shown in FIG. 18 is a scale space image when the Laplacian / Gaussian filter 18-3 is applied to the input image 18-1. 18-4 ′ shown in FIG. 18 is a scale space image when the Laplacian / Gaussian filter 18-4 is applied to the input image 18-1. 18-5 ′ shown in FIG. 18 is a scale space image when the Laplacian-Gaussian filter 18-5 is applied to the input image 18-1. 18-6 ′ shown in FIG. 18 is a scale space image when the Laplacian-Gaussian filter 18-6 is applied to the input image 18-1.

例えば、図18に示すように、入力画像データ18−1に対して、ラプラシアン・ガウシアンフィルタ18−2〜18−6を作用させることにより、その応答からなるスケールスペース画像18−2´〜18−6´を作成する。次に、スケールスペース画像18−2´〜18−6´のうち、フィルタのスケールが隣接する3つのスケールスペース画像から、フィルタにより得られる「LoG出力値」が局所的にピークとなる画素を抽出する。例えば、図18に示すように、フィルタのスケールが隣接する3つのスケールスペース画像18−2´〜18−4´から、フィルタにより得られる「LoG出力値」が局所的にピークとなる画素18−7を抽出する。同様に、スケールスペース画像18−3´〜18−5´から、フィルタにより得られる「LoG出力値」が局所的にピークとなる画素18−8を抽出する。同様に、スケールスペース画像18−4´〜18−6´から、フィルタにより得られる「LoG出力値」が局所的にピークとなる画素18−9を抽出する。   For example, as shown in FIG. 18, by applying Laplacian-Gaussian filters 18-2 to 18-6 to the input image data 18-1, scale space images 18-2 'to 18- formed from the responses are applied. 6 ′ is created. Next, out of the scale space images 18-2 ′ to 18-6 ′, pixels whose “LoG output value” obtained by the filter has a local peak are extracted from three scale space images having adjacent filter scales. To do. For example, as shown in FIG. 18, from the three scale space images 18-2 ′ to 18-4 ′ adjacent to each other, the “LoG output value” obtained by the filter has a local peak 18− 7 is extracted. Similarly, the pixel 18-8 in which the “LoG output value” obtained by the filter locally peaks is extracted from the scale space images 18-3 ′ to 18-5 ′. Similarly, the pixel 18-9 in which the “LoG output value” obtained by the filter locally peaks is extracted from the scale space images 18-4 ′ to 18-6 ′.

図19は、局所ピークの抽出方法の説明に用いる図である。図19に示す19−1〜19−3は、例えば、スケール「σ」が1.0,1.5,2.0など、スケールが隣接する3つのスケールスペース画像を表す。また、図19に示す19−4は、局所ピークの抽出時における注目画素を表す。例えば、図19に示すように、スケールが隣接する3つのスケールスペース画像から、注目画素19−4の近傍にある26個の画素の中から、注目画素19−4との間でフィルタにより得られる出力値が最大または最小となる画素を抽出する。   FIG. 19 is a diagram used for explaining a local peak extraction method. 19-1 to 19-3 illustrated in FIG. 19 represent three scale space images with adjacent scales, for example, the scale “σ” is 1.0, 1.5, and 2.0. 19-4 shown in FIG. 19 represents a pixel of interest when a local peak is extracted. For example, as illustrated in FIG. 19, a filter is obtained from the three scale space images adjacent to each other with the target pixel 19-4 out of 26 pixels in the vicinity of the target pixel 19-4. A pixel having the maximum or minimum output value is extracted.

図20は、画像サイズに応じたフィルタの応答とフィルタのスケールとの関係を示す図である。図20の上段は、200×200画素のサイズの入力画像にフィルタを作用させた時のフィルタの応答とフィルタのスケールとの関係の一例を示す図である。図20の下段は、図20の上段に示す画像と同一被写体が撮影された画像で、サイズが400×400画素の入力画像にフィルタを作用させた時のフィルタの応答とフィルタのスケールとの関係の一例を示す図である。なお、図20の20−1は、200×200画素のサイズの入力画像にフィルタを作用させた状態を概念的に表している。また、図20の20−3は、400×400画素のサイズの入力画像にフィルタを作用させた状態を概念的に表している。   FIG. 20 is a diagram illustrating the relationship between the filter response and the filter scale according to the image size. The upper part of FIG. 20 is a diagram illustrating an example of a relationship between a filter response and a filter scale when the filter is applied to an input image having a size of 200 × 200 pixels. The lower part of FIG. 20 is an image of the same subject as the image shown in the upper part of FIG. 20, and the relationship between the filter response and the filter scale when the filter is applied to an input image having a size of 400 × 400 pixels. It is a figure which shows an example. 20 conceptually represents a state in which a filter is applied to an input image having a size of 200 × 200 pixels. 20-3 of FIG. 20 conceptually represents a state in which a filter is applied to an input image having a size of 400 × 400 pixels.

図20の上段に示すように、200×200画素のサイズの入力画像のある注目画素については、図20の20−2に示すように、フィルタのスケール「σ」が1.5の時に「LoG出力値」が最大となる。また、図20の下段に示すように、400×400画素のサイズの入力画像では、図20の20−4に示すように、フィルタのスケール「σ」が3.0の時に「LoG出力値」が最大となる。そして、200×200画素のサイズの入力画像の「LoG出力値」が最大となる時のフィルタのスケールを「σ」、400×400画素のサイズの入力画像の「LoG出力値」が最大となる時のスケールを「σ」とすると、「σ」=2×「σ」の関係が成立する。このような関係が成立する場合、スケールスペース画像から抽出された画素は、画像のスケールに対して不変な特徴点とみなすことができる。 As shown in the upper part of FIG. 20, for a target pixel of an input image having a size of 200 × 200 pixels, as shown by 20-2 in FIG. 20, when the filter scale “σ” is 1.5, “LoG "Output value" is the maximum. As shown in the lower part of FIG. 20, in the case of an input image having a size of 400 × 400 pixels, “LoG output value” when the filter scale “σ” is 3.0, as indicated by 20-4 in FIG. Is the maximum. The filter scale when the “LoG output value” of the input image having the size of 200 × 200 pixels is the maximum is “σ 1 ”, and the “LoG output value” of the input image having the size of 400 × 400 pixels is the maximum. When the scale at this time is “σ 2 ”, the relationship “σ 2 ” = 2 × “σ 1 ” is established. When such a relationship is established, a pixel extracted from the scale space image can be regarded as a feature point that is invariant to the scale of the image.

図21は、ラプラシアン・ガウシアンフィルタを歪んでいない入力画像に作用させる様子を示した概念図である。図21に示す21−1は歪んでいない入力画像を表す入力画像のモデルである。図21に示す21−2はラプラシアン・ガウシアンフィルタを表すフィルタのモデルである。図21に示す21−3は入力画像にフィルタを作用させた状態を表す概念モデルである。   FIG. 21 is a conceptual diagram showing how a Laplacian / Gaussian filter is applied to an undistorted input image. 21-1 shown in FIG. 21 is an input image model representing an undistorted input image. 21-2 shown in FIG. 21 is a filter model representing a Laplacian-Gaussian filter. 21-3 shown in FIG. 21 is a conceptual model representing a state in which a filter is applied to an input image.

図22は、図21の21−3に対応するフィルタの応答結果を入力画像に対して鉛直方向から見たときの平面モデルを表す図である。図23は、図21の21−3に対応するフィルタの応答結果を所定の視点から見たときの3次元モデルを表す図である。図23に示すように、図21に示す入力画像21−1にフィルタ21−2を作用させた時には、ある1つのピークを有するフィルタの応答結果が得られる。つまり、画像が歪んでいない場合には、画像から1つの画素が特徴点として抽出されることを意味する。   FIG. 22 is a diagram illustrating a planar model when the response result of the filter corresponding to 21-3 in FIG. 21 is viewed from the vertical direction with respect to the input image. FIG. 23 is a diagram illustrating a three-dimensional model when the response result of the filter corresponding to 21-3 in FIG. 21 is viewed from a predetermined viewpoint. As shown in FIG. 23, when the filter 21-2 is applied to the input image 21-1 shown in FIG. 21, the response result of the filter having a certain peak is obtained. That is, when the image is not distorted, it means that one pixel is extracted as a feature point from the image.

図24は、ラプラシアン・ガウシアンフィルタを歪んだ入力画像に作用させる様子を示した概念図である。図24に示す24−1は歪んだ入力画像を表す入力画像のモデルである。図24に示す24−2および24−3はスケールの異なるラプラシアン・ガウシアンフィルタを表すフィルタのモデルである。図24に示す24−4および24−5は、入力画像24−1にフィルタ24−2を作用させた状態を表す概念モデルである。図24に示す24−6および24−7は、入力画像24−1にフィルタ24−3を作用させた状態を表す概念モデルである。   FIG. 24 is a conceptual diagram showing how a Laplacian / Gaussian filter is applied to a distorted input image. 24-1 shown in FIG. 24 is a model of an input image representing a distorted input image. 24-2 and 24-3 shown in FIG. 24 are filter models representing Laplacian and Gaussian filters having different scales. 24-4 and 24-5 shown in FIG. 24 are conceptual models representing a state in which the filter 24-2 is applied to the input image 24-1. 24-6 and 24-7 shown in FIG. 24 are conceptual models representing a state in which the filter 24-3 is applied to the input image 24-1.

図25は、図24の24−4に対応するフィルタの応答結果を入力画像に対して鉛直方向から見たときの平面モデルを表す図である。図26は、図24の24−4に対応するフィルタの応答結果を所定の視点から見たときの3次元モデルを表す図である。図27は、図24の24−6に対応するフィルタの応答結果を入力画像に対して鉛直方向から見たときの平面モデルを表す図である。図28は、図24の24−6に対応するフィルタの応答結果を所定の視点から見たときの3次元モデルを表す図である。   FIG. 25 is a diagram illustrating a planar model when the response result of the filter corresponding to 24-4 in FIG. 24 is viewed from the vertical direction with respect to the input image. FIG. 26 is a diagram illustrating a three-dimensional model when the response result of the filter corresponding to 24-4 in FIG. 24 is viewed from a predetermined viewpoint. FIG. 27 is a diagram illustrating a planar model when the response result of the filter corresponding to 24-6 in FIG. 24 is viewed from the vertical direction with respect to the input image. FIG. 28 is a diagram illustrating a three-dimensional model when the response result of the filter corresponding to 24-6 in FIG. 24 is viewed from a predetermined viewpoint.

図26に示すように、図24に示す入力画像24−1にフィルタ24−2を作用させた時には、ある2つのピークを有するフィルタの応答結果が得られる。また、図28に示すように、図24に示す入力画像24−1に、フィルタ24−2とはスケールの異なるフィルタ23−3を作用させた時にも、ある2つのピークを有するフィルタの応答結果が得られる。つまり、画像が歪んでいる場合には、画像から複数の画素が特徴点として抽出されることを意味する。   As shown in FIG. 26, when the filter 24-2 is applied to the input image 24-1 shown in FIG. 24, the response result of the filter having two peaks is obtained. Further, as shown in FIG. 28, when a filter 23-3 having a scale different from that of the filter 24-2 is applied to the input image 24-1 shown in FIG. Is obtained. That is, when the image is distorted, it means that a plurality of pixels are extracted as feature points from the image.

すなわち、図26や図28に示すように、例えば、見る方向によって画像に歪みが発生する場合には、画像のスケールに対して不変な特徴点を抽出できない。この結果、例えば、画像内のあるパターンが有する特徴点と、テンプレートが有する特徴点との照合率が低下し、画像内から特定のパターンの精度よく検出できない場合がある。   That is, as shown in FIGS. 26 and 28, for example, when distortion occurs in the image depending on the viewing direction, it is not possible to extract feature points that are invariant to the scale of the image. As a result, for example, the matching rate between the feature points of a certain pattern in the image and the feature points of the template may be reduced, and a specific pattern may not be detected accurately from the image.

開示の技術は、上記に鑑みてなされたものであって、画像に歪みがあっても精度よく入力画像から特定のパターンを検出することが可能な画像処理装置、画像処理方法および画像処理プログラムを提供することを目的とする。   The disclosed technology has been made in view of the above, and provides an image processing apparatus, an image processing method, and an image processing program capable of accurately detecting a specific pattern from an input image even when the image is distorted. The purpose is to provide.

本願の開示する画像処理装置は、一つの態様において、第1の画像生成部、第1の抽出部、第2の画像生成部、第2の抽出部およびパターン抽出部を有する。第1の画像生成部は、入力画像および該入力画像から特定のパターンを抽出する場合に用いられる参照画像のそれぞれに、スケールの異なる複数の空間フィルタを作用させることにより、該入力画像および該参照画像のスケールスペース画像列をそれぞれ生成する。第1の抽出部は、第1の画像生成部により生成された該入力画像のスケールスペース画像列および該参照画像のスケールスペース画像列について、該空間フィルタのスケールが隣接しているスケールスペース画像の組合せを複数決定する。そして、第1の抽出部は、該決定された組合せごとに、該組合せに含まれるスケールスペース画像内の注目画素近傍に位置する所定数の画素の中から所定の画素を抽出する。例えば、第1の抽出部は、該注目画素との間の画素間距離および該空間フィルタのスケールに基づいて算出される該空間フィルタの出力値が最大値あるいは最小値となる画素を抽出する。第2の画像生成部は、第1の画像生成部により生成された該入力画像のスケールスペース画像列および該参照画像のスケールスペース画像列について、該空間フィルタのスケールが互いに異なるスケールスペース画像の組合せを複数決定する。そして、第2の画像生成部は、該決定された組合せごとに、該組合せに含まれるスケールスペース画像を加算した加算画像をそれぞれ生成する。第2の抽出部は、第2の画像生成部により生成された複数の加算画像について、該加算画像を所定数含む組合せを複数決定する。そして、第2の抽出部は、該決定された組合せごとに、該組合せに含まれるスケールスペース画像内の注目画素近傍に位置する所定数の画素の中から所定の画素を抽出する。例えば、第2の抽出部は、該注目画素との間の画素間距離および前記空間フィルタのスケールに基づいて算出される前記空間フィルタの出力値が最大値あるいは最小値となる画素を抽出する。パターン検出部は、第1の抽出部および第2の抽出部により参照画像について抽出された各画素と、第1の抽出部および第2の抽出部により入力画像について抽出された各画素との照合結果に基づいて、入力画像から特定のパターンを検出する。   In one aspect, an image processing apparatus disclosed in the present application includes a first image generation unit, a first extraction unit, a second image generation unit, a second extraction unit, and a pattern extraction unit. The first image generation unit operates the input image and the reference by applying a plurality of spatial filters having different scales to the input image and the reference image used when extracting a specific pattern from the input image. A scale space image sequence of the image is generated respectively. The first extraction unit includes, for the scale space image sequence of the input image generated by the first image generation unit and the scale space image sequence of the reference image, the scale space image of which the scale of the spatial filter is adjacent. Determine multiple combinations. Then, the first extraction unit extracts a predetermined pixel from a predetermined number of pixels located in the vicinity of the target pixel in the scale space image included in the combination for each determined combination. For example, the first extraction unit extracts a pixel whose output value of the spatial filter calculated based on the inter-pixel distance to the target pixel and the scale of the spatial filter is the maximum value or the minimum value. The second image generation unit is a combination of scale space images having different scales of the spatial filter for the scale space image sequence of the input image and the scale space image sequence of the reference image generated by the first image generation unit. Determine more than one. Then, the second image generation unit generates, for each determined combination, an added image obtained by adding the scale space images included in the combination. The second extraction unit determines a plurality of combinations including a predetermined number of the addition images for the plurality of addition images generated by the second image generation unit. Then, for each determined combination, the second extraction unit extracts a predetermined pixel from a predetermined number of pixels located near the target pixel in the scale space image included in the combination. For example, the second extraction unit extracts a pixel whose output value of the spatial filter calculated based on the inter-pixel distance from the target pixel and the scale of the spatial filter is the maximum value or the minimum value. The pattern detection unit compares each pixel extracted for the reference image by the first extraction unit and the second extraction unit with each pixel extracted for the input image by the first extraction unit and the second extraction unit. Based on the result, a specific pattern is detected from the input image.

本願の開示する技術の一つの態様によれば、画像に歪みがあっても精度よく入力画像から特定のパターンを検出できる。   According to one aspect of the technology disclosed in the present application, it is possible to accurately detect a specific pattern from an input image even if the image is distorted.

図1は、実施例1に係る画像処理装置を示す図である。FIG. 1 is a diagram illustrating the image processing apparatus according to the first embodiment. 図2は、実施例2に係る画像処理装置の構成を示す図である。FIG. 2 is a diagram illustrating the configuration of the image processing apparatus according to the second embodiment. 図3は、実施例2に係るラプラシアン・ガウシアンフィルタを歪んだ入力画像に作用させる様子を示した概念図である。FIG. 3 is a conceptual diagram illustrating a state in which a Laplacian / Gaussian filter according to the second embodiment is applied to a distorted input image. 図4は、実施例2に係るラプラシアン・ガウシアンフィルタを歪んだ入力画像に作用させる様子を示した3次元モデルを含む概念図である。FIG. 4 is a conceptual diagram including a three-dimensional model illustrating a state in which a Laplacian / Gaussian filter according to the second embodiment is applied to a distorted input image. 図5は、実施例2に係るラプラシアン・ガウシアンフィルタを用いた入力画像からの局所ピークの抽出例を示す図である。FIG. 5 is a diagram illustrating an example of local peak extraction from an input image using a Laplacian / Gaussian filter according to the second embodiment. 図6は、実施例2に係る慣性主軸方向を説明するための概念図である。FIG. 6 is a conceptual diagram for explaining the inertial spindle direction according to the second embodiment. 図7は、図6の6−4に対応するフィルタの応答結果を所定の視点から見たときの3次元モデルを表す図である。FIG. 7 is a diagram illustrating a three-dimensional model when the response result of the filter corresponding to 6-4 in FIG. 6 is viewed from a predetermined viewpoint. 図8は、図6の6−4に対応するフィルタの応答結果を入力画像に対して鉛直方向から見たときの平面モデルを表す図である。FIG. 8 is a diagram illustrating a planar model when the response result of the filter corresponding to 6-4 in FIG. 6 is viewed from the vertical direction with respect to the input image. 図9は、図6の6−6に対応するフィルタの応答結果を所定の視点から見たときの3次元モデルを表す図である。FIG. 9 is a diagram illustrating a three-dimensional model when the response result of the filter corresponding to 6-6 in FIG. 6 is viewed from a predetermined viewpoint. 図10は、図6の6−6に対応するフィルタの応答結果を入力画像に対して鉛直方向から見たときの平面モデルを表す図である。FIG. 10 is a diagram illustrating a planar model when the response result of the filter corresponding to 6-6 in FIG. 6 is viewed from the vertical direction with respect to the input image. 図11は、実施例2に係る慣性主軸方向の計算方法を説明するための図である。FIG. 11 is a diagram for explaining a calculation method in the inertial spindle direction according to the second embodiment. 図12は、実施例2に係る入力画像およびテンプレート画像の歪みの補正方法を説明するための図である。FIG. 12 is a diagram for explaining a distortion correction method for an input image and a template image according to the second embodiment. 図13は、実施例2に係る画像処理装置による処理の流れを示す図である。FIG. 13 is a diagram illustrating a flow of processing performed by the image processing apparatus according to the second embodiment. 図14は、実施例2による効果の説明に用いる図である。FIG. 14 is a diagram used for explaining the effect of the second embodiment. 図15は、画像処理プログラムを実行するコンピュータの一例を示す図である。FIG. 15 is a diagram illustrating an example of a computer that executes an image processing program. 図16は、ラプラシアン・ガウシアンフィルタのスケールに応じた特性例を示す図である。FIG. 16 is a diagram illustrating a characteristic example corresponding to the scale of the Laplacian / Gaussian filter. 図17は、ラプラシアン・ガウシアンフィルタを入力画像に作用させて得られる応答とスケールとの関係の一例を示す図である。FIG. 17 is a diagram illustrating an example of a relationship between a response and a scale obtained by applying a Laplacian / Gaussian filter to an input image. 図18は、ラプラシアン・ガウシアンフィルタを用いた入力画像からの局所ピークの抽出例を示す図である。FIG. 18 is a diagram illustrating an example of local peak extraction from an input image using a Laplacian / Gaussian filter. 図19は、局所ピークの抽出方法の説明に用いる図である。FIG. 19 is a diagram used for explaining a local peak extraction method. 図20は、画像サイズに応じたフィルタの応答とフィルタのスケールとの関係を示す図である。FIG. 20 is a diagram illustrating the relationship between the filter response and the filter scale according to the image size. 図21は、ラプラシアン・ガウシアンフィルタを歪んでいない入力画像に作用させる様子を示した概念図である。FIG. 21 is a conceptual diagram showing how a Laplacian / Gaussian filter is applied to an undistorted input image. 図22は、図21の21−3に対応するフィルタの応答結果を入力画像に対して鉛直方向から見たときの平面モデルを表す図である。FIG. 22 is a diagram illustrating a planar model when the response result of the filter corresponding to 21-3 in FIG. 21 is viewed from the vertical direction with respect to the input image. 図23は、図21の21−3に対応するフィルタの応答結果を所定の視点から見たときの3次元モデルを表す図である。FIG. 23 is a diagram illustrating a three-dimensional model when the response result of the filter corresponding to 21-3 in FIG. 21 is viewed from a predetermined viewpoint. 図24は、ラプラシアン・ガウシアンフィルタを歪んだ入力画像に作用させる様子を示した概念図である。FIG. 24 is a conceptual diagram showing how a Laplacian / Gaussian filter is applied to a distorted input image. 図25は、図24の24−4に対応するフィルタの応答結果を入力画像に対して鉛直方向から見たときの平面モデルを表す図である。FIG. 25 is a diagram illustrating a planar model when the response result of the filter corresponding to 24-4 in FIG. 24 is viewed from the vertical direction with respect to the input image. 図26は、図24の24−4に対応するフィルタの応答結果を所定の視点から見たときの3次元モデルを表す図である。FIG. 26 is a diagram illustrating a three-dimensional model when the response result of the filter corresponding to 24-4 in FIG. 24 is viewed from a predetermined viewpoint. 図27は、図24の24−6に対応するフィルタの応答結果を入力画像に対して鉛直方向から見たときの平面モデルを表す図である。FIG. 27 is a diagram illustrating a planar model when the response result of the filter corresponding to 24-6 in FIG. 24 is viewed from the vertical direction with respect to the input image. 図28は、図24の24−6に対応するフィルタの応答結果を所定の視点から見たときの3次元モデルを表す図である。FIG. 28 is a diagram illustrating a three-dimensional model when the response result of the filter corresponding to 24-6 in FIG. 24 is viewed from a predetermined viewpoint.

以下に、図面を参照しつつ、本願の開示する画像処理装置、画像処理方法および画像処理プログラムの一実施形態について詳細に説明する。なお、以下では、本願の開示する画像処理装置、画像処理方法および画像処理プログラムの一実施形態として後述する実施例により、本願が開示する技術が限定されるものではない。   Hereinafter, embodiments of an image processing apparatus, an image processing method, and an image processing program disclosed in the present application will be described in detail with reference to the drawings. In the following, the technology disclosed by the present application is not limited by an example described later as an embodiment of the image processing apparatus, the image processing method, and the image processing program disclosed by the present application.

図1は、実施例1に係る画像処理装置を示す図である。図1に示すように、画像処理装置10は、第1の画像生成部11、第1の抽出部12、第2の画像生成部13、第2の抽出部14およびパターン抽出部15を有する。   FIG. 1 is a diagram illustrating the image processing apparatus according to the first embodiment. As illustrated in FIG. 1, the image processing apparatus 10 includes a first image generation unit 11, a first extraction unit 12, a second image generation unit 13, a second extraction unit 14, and a pattern extraction unit 15.

第1の画像生成部11は、入力画像および該入力画像から特定のパターンを抽出する場合に用いられる参照画像のスケールスペース画像列をそれぞれ生成する。例えば、第1の画像生成部11は、入力画像および参照画像のそれぞれに、スケールの異なる複数の空間フィルタを作用させることにより入力画像および参照画像のスケールスペース画像列をそれぞれ生成する。   The first image generation unit 11 generates an input image and a scale space image sequence of a reference image used when a specific pattern is extracted from the input image. For example, the first image generation unit 11 generates a scale space image sequence of the input image and the reference image by applying a plurality of spatial filters having different scales to the input image and the reference image, respectively.

第1の抽出部12は、第1の画像生成部11により生成された該入力画像のスケールスペース画像列および該参照画像のスケールスペース画像列について、該空間フィルタのスケールが隣接しているスケールスペース画像の組合せを複数決定する。そして、第1の抽出部12は、該決定された組合せごとに、該組合せに含まれるスケールスペース画像内の注目画素近傍に位置する所定数の画素の中から所定の画素を抽出する。例えば、第1の抽出部12は、該注目画素との間の画素間距離および該空間フィルタのスケールに基づいて算出される該空間フィルタの出力値が最大値あるいは最小値となる画素を抽出する。   The first extraction unit 12 has a scale space in which the scale of the spatial filter is adjacent to the scale space image sequence of the input image and the scale space image sequence of the reference image generated by the first image generation unit 11. A plurality of image combinations are determined. Then, the first extraction unit 12 extracts a predetermined pixel from a predetermined number of pixels located near the target pixel in the scale space image included in the combination for each determined combination. For example, the first extraction unit 12 extracts a pixel whose output value of the spatial filter calculated based on the inter-pixel distance to the target pixel and the scale of the spatial filter is the maximum value or the minimum value. .

第2の画像生成部13は、第1の画像生成部11により生成された該入力画像のスケールスペース画像列および該参照画像のスケールスペース画像列について、該空間フィルタのスケールが互いに異なるスケールスペース画像の組合せを複数決定する。そして、第2の画像生成部13は、該決定された組合せごとに、該組合せに含まれるスケールスペース画像を加算した加算画像をそれぞれ生成する。   The second image generation unit 13 is a scale space image having different scales of the spatial filter for the scale space image sequence of the input image and the scale space image sequence of the reference image generated by the first image generation unit 11. A plurality of combinations are determined. Then, the second image generation unit 13 generates an addition image obtained by adding the scale space images included in the combination for each determined combination.

第2の抽出部14は、第2の画像生成部13により生成された複数の加算画像について、該加算画像を所定数含む組合せを複数決定する。そして、第2の抽出部14は、該決定された組合せごとに、該組合せに含まれるスケールスペース画像内の注目画素近傍に位置する所定数の画素の中から所定の画素を抽出する。例えば、第2の抽出部14は、該注目画素との間の画素間距離および前記空間フィルタのスケールに基づいて算出される前記空間フィルタの出力値が最大値あるいは最小値となる画素を抽出する。   The second extraction unit 14 determines a plurality of combinations including a predetermined number of the addition images for the plurality of addition images generated by the second image generation unit 13. Then, for each determined combination, the second extraction unit 14 extracts a predetermined pixel from a predetermined number of pixels located near the target pixel in the scale space image included in the combination. For example, the second extraction unit 14 extracts a pixel whose output value of the spatial filter calculated based on the inter-pixel distance from the target pixel and the scale of the spatial filter is the maximum value or the minimum value. .

パターン抽出部15は、第1の抽出部12および第2の抽出部14により参照画像について抽出された各画素と、第1の抽出部12および第2の抽出部14により入力画像について抽出された各画素との照合結果に基づいて入力画像から特定のパターンを抽出する。   The pattern extraction unit 15 extracts each pixel extracted for the reference image by the first extraction unit 12 and the second extraction unit 14 and the input image by the first extraction unit 12 and the second extraction unit 14. A specific pattern is extracted from the input image based on the result of matching with each pixel.

上述してきたように、画像処理装置10は、入力画像あるいは参照画像の特徴点となる画素をスケールスペース画像のみからだけではなく、スケールスペース画像を加算することにより生成した加算画像からも抽出する。このようなことから、画像処理装置10は、参照画像を用いて入力画像から特定のパターンを検出する場合に、より多くの特徴点を利用できる結果、画像に歪みがあっても精度よく入力画像から特定のパターンを検出できる。   As described above, the image processing apparatus 10 extracts pixels that are feature points of the input image or the reference image not only from the scale space image but also from the addition image generated by adding the scale space images. For this reason, when the image processing apparatus 10 detects a specific pattern from the input image using the reference image, more feature points can be used. As a result, even if the image is distorted, the input image is accurate. A specific pattern can be detected from

[画像処理装置の構成(実施例2)]
図2は、実施例2に係る画像処理装置の構成を示す図である。図2に示すように、画像処理装置100は、画像データを取得できる状態で撮影装置200に接続される。撮影装置200は、例えば、レンズを有し、レンズから入ってくる画像を写真や動画などの形式で撮影するカメラなどの光学機器に該当する。
[Configuration of Image Processing Apparatus (Example 2)]
FIG. 2 is a diagram illustrating the configuration of the image processing apparatus according to the second embodiment. As shown in FIG. 2, the image processing apparatus 100 is connected to the photographing apparatus 200 in a state where image data can be acquired. The photographing apparatus 200 corresponds to, for example, an optical device such as a camera that has a lens and shoots an image that enters from the lens in the form of a photograph or a moving image.

また、画像処理装置100は、図2に示すように、画像入力部101と、入力画像記録部102と、テンプレート画像記録部103と、処理画像切り替え部104と、スケールスペース画像生成部105とを有する。   As shown in FIG. 2, the image processing apparatus 100 includes an image input unit 101, an input image recording unit 102, a template image recording unit 103, a processed image switching unit 104, and a scale space image generating unit 105. Have.

画像入力部101は、撮影装置200により撮影された画像の画像データを撮影装置200から入力する。そして、画像入力部101は入力画像データをデジタルデータに変換する。入力画像記録部102は、内部的に有する記憶装置に、画像入力部101によりデジタルデータに変換された入力画像データを保存する。テンプレート画像記録部103は、内部的に有する記憶装置に、撮影装置200により撮影された画像から特定の物体を検出するために用いるパターンの画像データを予め保存する。処理画像切り替え部104は、スケールスペース画像生成部105による処理対象を、入力画像記録部102が有する入力画像データ、あるいはテンプレート画像記録部103が有するテンプレート画像に切り替える。   The image input unit 101 inputs image data of an image captured by the imaging device 200 from the imaging device 200. The image input unit 101 converts the input image data into digital data. The input image recording unit 102 stores the input image data converted into digital data by the image input unit 101 in an internal storage device. The template image recording unit 103 stores, in advance, image data of a pattern used for detecting a specific object from an image photographed by the photographing apparatus 200 in an internal storage device. The processed image switching unit 104 switches the processing target by the scale space image generating unit 105 to the input image data included in the input image recording unit 102 or the template image included in the template image recording unit 103.

なお、入力画像記録部102およびテンプレート画像記録部103が内部的に有する記憶装置は、例えば、RAM(Random Access Memory)やフラッシュメモリ(flash memory)などの半導体メモリ素子である。   Note that the storage device included in the input image recording unit 102 and the template image recording unit 103 is, for example, a semiconductor memory element such as a RAM (Random Access Memory) or a flash memory.

スケールスペース画像生成部105は、処理画像切り替え部104から入力する入力画像データ、あるいはテンプレート画像データからスケールスペース画像を生成する。例えば、スケールスペース画像生成部105は、入力画像データあるいはテンプレート画像データに、スケール「σ」の異なる複数のラプラシアン・ガウシアンフィルタを作用させることによりスケールスペース画像列を生成する。なお、以下では、ラプラシアン・ガウシアンフィルタを「フィルタ」と表記する。なお、スケールスペース画像生成部105は、上述した図1に示す第1の画像生成部11に対応する。   The scale space image generation unit 105 generates a scale space image from the input image data input from the processed image switching unit 104 or the template image data. For example, the scale space image generation unit 105 generates a scale space image sequence by applying a plurality of Laplacian and Gaussian filters having different scales “σ” to the input image data or the template image data. Hereinafter, the Laplacian / Gaussian filter is referred to as a “filter”. Note that the scale space image generation unit 105 corresponds to the first image generation unit 11 illustrated in FIG. 1 described above.

また、図2に示すように、画像処理装置100は、スケールスペース局所ピーク抽出部106およびスケール補正画像生成部107を有する。なお、スケールスペース局所ピーク抽出部106は、上述した図1に示す第1の抽出部12に対応する。   As illustrated in FIG. 2, the image processing apparatus 100 includes a scale space local peak extraction unit 106 and a scale corrected image generation unit 107. Note that the scale space local peak extraction unit 106 corresponds to the first extraction unit 12 illustrated in FIG. 1 described above.

スケールスペース局所ピーク抽出部106は、スケールスペース画像生成部105により生成されたスケールスペース画像例のうち、フィルタのスケールが隣接する3つのスケールスペース画像から、フィルタの応答が局所的にピークとなる画素を出力する。なお、スケールが隣接するとは、例えば、スケールスペース画像例を生成したときのフィルタのスケール「σ」が、1.0、1.5、2.0というように隣接していることを意味する。局所的にピークとなる画素とは、注目画素と、この注目画素の近傍に位置する所定数の画素との間で、フィルタにより得られる出力値が最大あるいは最小となる画素である。   The scale space local peak extraction unit 106 is a pixel in which the response of the filter locally peaks from three scale space images in which the scale of the filter is adjacent in the scale space image example generated by the scale space image generation unit 105. Is output. Note that the scales are adjacent means that the filter scale “σ” when the scale space image example is generated is adjacent, such as 1.0, 1.5, and 2.0. The pixel having a local peak is a pixel whose output value obtained by the filter is maximum or minimum between the target pixel and a predetermined number of pixels located in the vicinity of the target pixel.

スケール補正画像生成部107は、入力画像およびテンプレート画像について、スケールスペース局所ピーク抽出部106により抽出された画素を中心とするスケール補正画像を生成する。例えば、スケール補正画像生成部107は、入力画像およびテンプレート画像を、スケールスペース局所ピーク抽出部106により抽出された画素を中心とする特定の大きさの矩形領域の画像を特定のスケールに変換する。このようして、スケール補正画像生成部107はスケール補正画像を生成する。スケール補正画像は、入力画像およびテンプレート画像から特徴が抽出された特徴パターンとして機能し、後述する画像マッチング部119のマッチング処理に用いられる。なお、スケール補正画像は、例えば、16×16画素のスケールを有する。   The scale correction image generation unit 107 generates a scale correction image centered on the pixel extracted by the scale space local peak extraction unit 106 for the input image and the template image. For example, the scale-corrected image generation unit 107 converts the input image and the template image into a specific scale image of a rectangular area having a specific size centered on the pixel extracted by the scale space local peak extraction unit 106. In this way, the scale correction image generation unit 107 generates a scale correction image. The scale correction image functions as a feature pattern in which features are extracted from the input image and the template image, and is used for matching processing of an image matching unit 119 described later. Note that the scale-corrected image has a scale of 16 × 16 pixels, for example.

また、図2に示すように、画像処理装置100は、第1スケールスペース画像加算部108と、第1スケールスペース加算画像局所ピーク抽出部109と、第1歪方向計算部110と、第1歪補正画像生成部111とを有する。さらに、画像処理装置100は、第2スケールスペース画像加算部112と、第2スケールスペース加算画像局所ピーク抽出部113と、第2歪方向計算部114と、第2歪補正画像生成部115とを有する。   As shown in FIG. 2, the image processing apparatus 100 includes a first scale space image addition unit 108, a first scale space addition image local peak extraction unit 109, a first distortion direction calculation unit 110, and a first distortion. A correction image generation unit 111. Furthermore, the image processing apparatus 100 includes a second scale space image addition unit 112, a second scale space addition image local peak extraction unit 113, a second distortion direction calculation unit 114, and a second distortion correction image generation unit 115. Have.

第1スケールスペース画像加算部108および第2スケールスペース画像加算部112は、スケールスペース画像生成部105により生成された各スケールスペース画像列について複数の加算画像を生成する。なお、第1スケールスペース画像加算部108および第2スケールスペース画像加算部112は、上述した図1に示す第2の画像生成部13に対応する。   The first scale space image addition unit 108 and the second scale space image addition unit 112 generate a plurality of addition images for each scale space image sequence generated by the scale space image generation unit 105. The first scale space image addition unit 108 and the second scale space image addition unit 112 correspond to the second image generation unit 13 illustrated in FIG. 1 described above.

例えば、第1スケールスペース画像加算部108は、隣接するスケールのスケールスペース画像を加算することにより複数の加算画像を生成する。まず、第1スケールスペース画像加算部108は、入力画像のスケールスペース画像列および参照画像のスケールスペース画像列について、フィルタのスケールが隣接するスケールスペース画像の複数の組合せをそれぞれ決定する。そして、第1スケールスペース画像加算部108は、決定された組合せごとに、組合せに含まれるスケールスペース画像を加算することにより複数の加算画像をそれぞれ生成する。   For example, the first scale space image adding unit 108 generates a plurality of added images by adding scale space images of adjacent scales. First, the first scale space image adding unit 108 determines a plurality of combinations of scale space images having adjacent filter scales for the scale space image sequence of the input image and the scale space image sequence of the reference image. Then, the first scale space image adding unit 108 generates a plurality of added images by adding the scale space images included in the combinations for each determined combination.

例えば、第2スケールスペース画像加算部112は、1つおきのスケールのスケールスペース画像を加算することにより複数の加算画像を生成する。まず、第2スケールスペース画像加算部112は、入力画像のスケールスペース画像列および参照画像のスケールスペース画像列について、フィルタのスケールが1つおきのスケールスペース画像の複数の組合せをそれぞれ決定する。そして、第2スケールスペース画像加算部112は、決定された組合せごとに、組合せに含まれるスケールスペース画像を加算した加算画像をそれぞれ生成する。   For example, the second scale space image addition unit 112 generates a plurality of addition images by adding scale space images of every other scale. First, the second scale space image addition unit 112 determines a plurality of combinations of scale space images with every other filter scale for the scale space image sequence of the input image and the scale space image sequence of the reference image. Then, the second scale space image adding unit 112 generates, for each determined combination, an added image obtained by adding the scale space images included in the combination.

図3は、実施例2に係るラプラシアン・ガウシアンフィルタを歪んだ入力画像に作用させる様子を示した概念図である。図3に示す3−1は、例えば、見る方向や撮影方向によって歪んだ入力画像を表す入力画像のモデルである。図3に示す3−2および3−3はスケールが隣接するフィルタあるいはスケールが1つおきのフィルタのモデルである。図3に示す3−4は、入力画像3−1にフィルタ3−2を作用させた状態を表す概念モデルである。図3に示す3−5は、入力画像3−1にフィルタ3−3を作用させた状態を表す概念モデルである。   FIG. 3 is a conceptual diagram illustrating a state in which a Laplacian / Gaussian filter according to the second embodiment is applied to a distorted input image. 3-1 shown in FIG. 3 is a model of an input image representing an input image distorted depending on, for example, the viewing direction or the shooting direction. 3-2 and 3-3 shown in FIG. 3 are models of filters with adjacent scales or filters with every other scale. 3-4 shown in FIG. 3 is a conceptual model representing a state in which the filter 3-2 is applied to the input image 3-1. 3-5 shown in FIG. 3 is a conceptual model representing a state in which the filter 3-3 is applied to the input image 3-1.

例えば、上述した図3を用いて、第1スケールスペース画像加算部108あるいは第2スケールスペース画像加算部112による加算画像の生成例を説明する。図3の3−4および3−5に示すように、第1スケールスペース画像加算部108は、入力画像のスケールスペース画像列について、フィルタのスケールが隣接するスケールスペース画像の組合せの一つとしてスケールスペース画像3−4と3−5の組合せを決定する。そして、第1スケールスペース画像加算部108は、スケールスペース画像3−4とスケールスペース画像3−5とを加算することにより加算画像を生成する。同様に、第2スケールスペース画像加算部112は、フィルタのスケールが1つおきのスケールスペース画像の組合せの一つとして、スケールスペース画像3−4と3−5の組合せを決定する。そして、第2スケールスペース画像加算部112は、スケールスペース画像3−4とスケールスペース画像3−5とを加算することにより加算画像を生成する。   For example, an example of generating an addition image by the first scale space image addition unit 108 or the second scale space image addition unit 112 will be described using FIG. 3 described above. As shown in 3-4 and 3-5 of FIG. 3, the first scale space image adding unit 108 scales the scale space image sequence of the input image as one of the combinations of the scale space images in which the scales of the filters are adjacent. A combination of the space images 3-4 and 3-5 is determined. Then, the first scale space image adding unit 108 generates an added image by adding the scale space image 3-4 and the scale space image 3-5. Similarly, the second scale space image addition unit 112 determines a combination of the scale space images 3-4 and 3-5 as one of the combinations of the scale space images with every other filter scale. Then, the second scale space image addition unit 112 generates an addition image by adding the scale space image 3-4 and the scale space image 3-5.

なお、第1スケールスペース画像加算部108あるいは第2スケールスペース画像加算部112は、フィルタのスケールが隣接するスケールスペース画像や、フィルタのスケールが1つおきのスケールスペース画像を加算することにより加算画像を生成する場合に限られない。例えば、フィルタのスケールが3つおきや、4つおきのスケールスケールスペース画像を加算することにより加算画像を生成してもよい。すなわち、画像処理装置100は、可能な限り、フィルタのスケールが異なるスケールスペース画像を加算することにより、複数の加算画像を生成してもよい。   The first scale space image adding unit 108 or the second scale space image adding unit 112 adds the scale space image with the filter scale adjacent to each other or the scale space image with every other filter scale to add the image. It is not limited to the case of generating. For example, the addition image may be generated by adding every third or fourth scale scale space image of the filter. That is, the image processing apparatus 100 may generate a plurality of added images by adding scale space images having different filter scales as much as possible.

図4は、実施例2に係るラプラシアン・ガウシアンフィルタを歪んだ入力画像に作用させる様子を示した3次元モデルを含む概念図である。図4に示す4−1は、例えば、図3の3−4に対応するフィルタの応答結果を入力画像に対して鉛直方向から見たときの平面モデルを表す。図4に示す4−2は、例えば、図3の3−4に対応するフィルタの応答結果を所定の視点から見たときの3次元モデルを表す。図4に示す4−3は、例えば、図3の3−5に対応するフィルタの応答結果を入力画像に対して鉛直方向から見たときの平面モデルを表す。図4に示す4−4は、例えば、図3の3−5に対応するフィルタの応答結果を所定の視点から見たときの3次元モデルを表す。図4に示す4−5は、図3の3−4と3−5とを加算することにより生成された加算画像の応答結果を加算画像に対して鉛直方向から見たときの平面モデルを表す。図4に示す4−6は、図3の3−4と3−5とを加算することにより生成された加算画像の応答結果を所定の視点から見たときの3次元モデルを表す。   FIG. 4 is a conceptual diagram including a three-dimensional model illustrating a state in which a Laplacian / Gaussian filter according to the second embodiment is applied to a distorted input image. 4-1 shown in FIG. 4 represents a planar model when the response result of the filter corresponding to 3-4 in FIG. 3 is viewed from the vertical direction with respect to the input image, for example. 4-2 shown in FIG. 4 represents a three-dimensional model when the response result of the filter corresponding to 3-4 of FIG. 3 is seen from a predetermined viewpoint, for example. 4-3 illustrated in FIG. 4 represents, for example, a planar model when the response result of the filter corresponding to 3-5 in FIG. 3 is viewed from the vertical direction with respect to the input image. 4-4 shown in FIG. 4 represents, for example, a three-dimensional model when the response result of the filter corresponding to 3-5 in FIG. 3 is viewed from a predetermined viewpoint. 4-5 shown in FIG. 4 represents a plane model when the response result of the added image generated by adding 3-4 and 3-5 in FIG. 3 is viewed from the vertical direction with respect to the added image. . 4-6 shown in FIG. 4 represents a three-dimensional model when the response result of the added image generated by adding 3-4 and 3-5 in FIG. 3 is viewed from a predetermined viewpoint.

例えば、図4の4−2や4−4に示すように、ある2つのピークを有するフィルタの応答結果となるスケールスペース画像を加算することにより生成された加算画像からは、ある1つのピークを有するフィルタの応答結果が得られる。   For example, as shown in 4-2 and 4-4 in FIG. 4, a single peak is obtained from an addition image generated by adding a scale space image that is a response result of a filter having two peaks. The response result of the filter having is obtained.

第1スケールスペース加算画像局所ピーク抽出部109は、第1スケールスペース画像加算部108により生成された加算画像の組合せごとに、フィルタの応答が局所的なピークとなる画素を抽出する。なお、まず、第1スケールスペース加算画像局所ピーク抽出部109は、第1スケールスペース画像加算部108により生成された複数の加算画像について、加算画像を所定数含む複数の組合せをそれぞれ決定する。そして、第1スケールスペース加算画像局所ピーク抽出部109は、決定された組合せごとに、フィルタの応答が局所的なピークとなる画素を抽出する。具体的には、第1スケールスペース加算画像局所ピーク抽出部109は、組合せに含まれるスケールスペース画像内の注目画素近傍に位置する所定数の画素の中から、注目画素との間でフィルタから出力される出力値が最大値あるいは最小値となる画素を抽出する。   The first scale space addition image local peak extraction unit 109 extracts a pixel whose filter response is a local peak for each combination of the addition images generated by the first scale space image addition unit 108. First, the first scale space addition image local peak extraction unit 109 determines a plurality of combinations including a predetermined number of addition images for the plurality of addition images generated by the first scale space image addition unit 108. Then, the first scale space addition image local peak extraction unit 109 extracts pixels for which the filter response is a local peak for each determined combination. Specifically, the first scale space addition image local peak extraction unit 109 outputs from the filter to the target pixel from among a predetermined number of pixels located in the vicinity of the target pixel in the scale space image included in the combination. The pixel whose output value is the maximum value or the minimum value is extracted.

同様に、第2スケールスペース加算画像局所ピーク抽出部113は、第2スケールスペース画像加算部112により生成された加算画像の組合せごとに、フィルタの応答が局所的なピークとなる画素を抽出する。なお、第2スケールスペース加算画像局所ピーク抽出部113の動作は、上述した第1スケールスペース加算画像局所ピーク抽出部109と同様である。なお、第1スケールスペース加算画像局所ピーク抽出部109および第2スケールスペース加算画像局所ピーク抽出部113は、上述した図1に示す第2の抽出部14に対応する。   Similarly, the second scale space addition image local peak extraction unit 113 extracts a pixel whose filter response is a local peak for each combination of the addition images generated by the second scale space image addition unit 112. The operation of the second scale space addition image local peak extraction unit 113 is the same as that of the first scale space addition image local peak extraction unit 109 described above. The first scale space addition image local peak extraction unit 109 and the second scale space addition image local peak extraction unit 113 correspond to the second extraction unit 14 shown in FIG. 1 described above.

図5を用いて、上述してきた画像処理装置100の動作を総括して説明する。具体的には、スケールスペース局所ピーク抽出部106、第1スケールスペース画像加算部108、第1スケールスペース加算画像局所ピーク抽出部109、第2スケールスペース画像加算部112、第2スケールスペース加算画像局所ピーク抽出部113による動作である。図5は、実施例2に係るラプラシアン・ガウシアンフィルタを用いた入力画像からの局所ピークの抽出例を示す図である。   The operation of the image processing apparatus 100 described above will be generally described with reference to FIG. Specifically, the scale space local peak extraction unit 106, the first scale space image addition unit 108, the first scale space addition image local peak extraction unit 109, the second scale space image addition unit 112, the second scale space addition image local This is an operation by the peak extraction unit 113. FIG. 5 is a diagram illustrating an example of local peak extraction from an input image using a Laplacian / Gaussian filter according to the second embodiment.

図5に示す5−1は入力画像データを表す。図5に示す5−2〜5−6はスケールの異なるラプラシアン・ガウシアンフィルタを入力画像データ5−1に作用させることにより生成されたスケールスペース画像列を表す。なお、図5に示す5−2〜5−6の順に、フィルタのスケールが1サイズ大きなスケールとなっている。図5に示す5−7〜5−9は、スケールスペース局所ピーク抽出部106により抽出される画素を表す。図5に示す5−10〜5−13は、第1スケールスペース画像加算部108により生成される加算画像を表す。図5に示す5−14および5−15は、第1スケールスペース加算画像局所ピーク抽出部109により抽出される画素を表す。図5に示す5−16〜5−18は、第2スケールスペース画像加算部112により生成される加算画像を表す。図5に示す5−19は、第2スケールスペース加算画像局所ピーク抽出部113により抽出される画素を表す。   5-1 shown in FIG. 5 represents input image data. 5-2 to 5-6 shown in FIG. 5 represent scale space image sequences generated by applying Laplacian and Gaussian filters having different scales to the input image data 5-1. Note that the scale of the filter is one scale larger in the order of 5-2 to 5-6 shown in FIG. 5-7 to 5-9 illustrated in FIG. 5 represent pixels extracted by the scale space local peak extraction unit 106. 5-10 to 5-13 illustrated in FIG. 5 represent addition images generated by the first scale space image addition unit 108. 5-14 and 5-15 shown in FIG. 5 represent pixels extracted by the first scale space addition image local peak extraction unit 109. 5-16 to 5-18 illustrated in FIG. 5 represent addition images generated by the second scale space image addition unit 112. 5-19 shown in FIG. 5 represents a pixel extracted by the second scale space addition image local peak extraction unit 113.

スケールスペース局所ピーク抽出部106は、スケールが隣接する3つのスケールスペース画像から、フィルタの応答が局所的にピークとなる画素を出力する。すなわち、図5に示すように、スケールスペース局所ピーク抽出部106は、フィルタのスケールが隣接する3つのスケールスペース画像5−2〜5−4から、フィルタにより得られる「LoG出力値」が局所的にピークとなる画素5−7を抽出する。また、図5に示すように、スケールスペース局所ピーク抽出部106は、フィルタのスケールが隣接する3つのスケールスペース画像5−3〜5−5から、フィルタにより得られる応答、つまり「LoG出力値」が局所的にピークとなる画素5−8を抽出する。また、図5に示すように、スケールスペース局所ピーク抽出部106は、フィルタのスケールが隣接する3つのスケールスペース画像5−4〜5−6から、フィルタにより得られる応答、つまり「LoG出力値」が局所的にピークとなる画素5−8を抽出する。   The scale space local peak extraction unit 106 outputs pixels whose filter response is locally peaked from three scale space images with adjacent scales. That is, as illustrated in FIG. 5, the scale space local peak extraction unit 106 determines that the “LoG output value” obtained by the filter is locally obtained from the three scale space images 5-2 to 5-4 in which the filter scale is adjacent. Pixels 5-7 having a peak are extracted. Further, as shown in FIG. 5, the scale space local peak extraction unit 106 obtains a response obtained by a filter from three scale space images 5-3 to 5-5 having adjacent filter scales, that is, a “LoG output value”. Extract a pixel 5-8 having a local peak. Further, as shown in FIG. 5, the scale space local peak extraction unit 106 obtains a response obtained by a filter from three scale space images 5-4 to 5-6 having adjacent filter scales, that is, a “LoG output value”. Extract a pixel 5-8 having a local peak.

第1スケールスペース画像加算部108は、隣接するスケールのスケールスペース画像を加算することにより複数の加算画像を生成する。すなわち、図5に示すように、第1スケールスペース画像加算部108は、スケールスペース画像列5−2〜5−6から、フィルタのスケールが隣接する画像の組合せ、(5−2,5−3)、(5−3,5−4)、(5−4,5−5)、(5−5,5−6)を決定する。そして、図5に示すように、第1スケールスペース画像加算部108は、組合せに含まれるスケールスペース画像を加算することにより、加算画像5−10、5−11、5−12、5−13をそれぞれ生成する。   The first scale space image adding unit 108 generates a plurality of added images by adding scale space images of adjacent scales. That is, as illustrated in FIG. 5, the first scale space image adding unit 108 selects, from the scale space image sequences 5-2 to 5-6, a combination of images with adjacent filter scales (5-2, 5-3). ), (5-3, 5-4), (5-4, 5-5), (5-5, 5-6). Then, as shown in FIG. 5, the first scale space image adding unit 108 adds the scale space images included in the combination, thereby adding the added images 5-10, 5-11, 5-12, and 5-13. Generate each.

第1スケールスペース加算画像局所ピーク抽出部109は、第1スケールスペース画像加算部108により生成された加算画像の組合せごとに、フィルタの応答が局所的なピークとなる画素を抽出する。すなわち、図5に示すように、第1スケールスペース加算画像局所ピーク抽出部109は、3つの加算画像を含む加算画像の組合せ(5−10,5−11,5−12)、(5−11,5−12,5−13)をそれぞれ決定する。そして、図5に示すように、第1スケールスペース加算画像局所ピーク抽出部109は、加算画像の組合せ(5−10,5−11,5−12)から、フィルタにより得られる応答が局所的にピークとなる画素5−14を抽出する。さらに、図5に示すように、第1スケールスペース加算画像局所ピーク抽出部109は、加算画像の組合せ(5−11,5−12,5−13)から、フィルタにより得られる応答が局所的にピークとなる画素5−15を抽出する。   The first scale space addition image local peak extraction unit 109 extracts a pixel whose filter response is a local peak for each combination of the addition images generated by the first scale space image addition unit 108. That is, as illustrated in FIG. 5, the first scale space addition image local peak extraction unit 109 performs combinations (5-10, 5-11, 5-12) and (5-11) of addition images including three addition images. , 5-12, 5-13) respectively. Then, as shown in FIG. 5, the first scale space addition image local peak extraction unit 109 locally receives the response obtained by the filter from the combination of the addition images (5-10, 5-11, 5-12). The peak pixel 5-14 is extracted. Further, as shown in FIG. 5, the first scale space addition image local peak extraction unit 109 locally receives a response obtained by the filter from the combination (5-11, 5-12, 5-13) of the addition images. The peak pixel 5-15 is extracted.

第2スケールスペース画像加算部112は、1つおきのスケールのスケールスペース画像を加算することにより複数の加算画像を生成する。すなわち、図5に示すように、第2スケールスペース画像加算部112は、スケールスペース画像列5−2〜5−6から、フィルタのスケールが隣接する画像の組合せ、(5−2,5−4)、(5−3,5−5)、(5−4,5−6)を決定する。そして、図5に示すように、第2スケールスペース画像加算部112は、組合せに含まれるスケールスペース画像を加算することにより、加算画像5−16、5−17、5−18をそれぞれ生成する。   The second scale space image adding unit 112 generates a plurality of added images by adding the scale space images of every other scale. That is, as illustrated in FIG. 5, the second scale space image adding unit 112 selects, from the scale space image sequences 5-2 to 5-6, a combination of images in which filter scales are adjacent, (5-2, 5-4). ), (5-3, 5-5) and (5-4, 5-6). Then, as illustrated in FIG. 5, the second scale space image adding unit 112 generates the added images 5-16, 5-17, and 5-18 by adding the scale space images included in the combination.

第2スケールスペース加算画像局所ピーク抽出部113は、第2スケールスペース画像加算部112により生成された加算画像の組合せごとに、フィルタの応答が局所的なピークとなる画素を抽出する。すなわち、図5に示すように、第2スケールスペース加算画像局所ピーク抽出部113は、3つの加算画像を含む加算画像の組合せ(5−16、5−17、5−18)を決定する。そして、図5に示すように、第2スケールスペース加算画像局所ピーク抽出部113は、加算画像の組合せ(5−16、5−17、5−18)から、フィルタにより得られる応答が局所的にピークとなる画素5−19を抽出する。   The second scale space addition image local peak extraction unit 113 extracts a pixel whose filter response is a local peak for each combination of the addition images generated by the second scale space image addition unit 112. That is, as illustrated in FIG. 5, the second scale space addition image local peak extraction unit 113 determines a combination (5-16, 5-17, 5-18) of addition images including three addition images. Then, as illustrated in FIG. 5, the second scale space addition image local peak extraction unit 113 receives a response obtained by the filter locally from the combination of the addition images (5-16, 5-17, 5-18). The peak pixel 5-19 is extracted.

以上で、スケールスペース局所ピーク抽出部106、第1スケールスペース画像加算部108、第1スケールスペース加算画像局所ピーク抽出部109、第2スケールスペース画像加算部112、第2スケールスペース加算画像局所ピーク抽出部113による動作の総括を終える。   Thus, the scale space local peak extraction unit 106, the first scale space image addition unit 108, the first scale space addition image local peak extraction unit 109, the second scale space image addition unit 112, and the second scale space addition image local peak extraction The operation summary by the unit 113 is finished.

第1歪方向計算部110は、第1スケールスペース加算画像局所ピーク抽出部109により抽出された画素近傍におけるフィルタの応答、つまりフィルタからの出力値の分布に基づいて、入力画像およびテンプレート画像のスケールごとの歪み方向を検出する。例えば、第1歪方向計算部110は、上述した加算画像から抽出される画素近傍のフィルタの応答の分布に基づいて、応答の分布の広がりが最大となる方向、すなわち慣性主軸方向を計算することにより入力画像あるいはテンプレート画像の歪みの方向を計算する。   The first distortion direction calculation unit 110 calculates the scale of the input image and the template image based on the response of the filter in the vicinity of the pixel extracted by the first scale space addition image local peak extraction unit 109, that is, the distribution of output values from the filter. Detect the direction of distortion for each. For example, the first distortion direction calculation unit 110 calculates the direction in which the spread of the response distribution is maximized, that is, the inertial principal axis direction, based on the response distribution of the filter near the pixel extracted from the above-described addition image. To calculate the direction of distortion of the input image or template image.

図6は、実施例2に係る慣性主軸方向を説明するための概念図である。図6に示す6−1は、例えば、見る方向や撮影方向によって歪んだ入力画像を表す入力画像のモデルである。図6に示す6−2および6−3は互いにスケールの異なるフィルタのモデルである。図6に示す6−4は、入力画像6−1にフィルタ6−2を作用させた状態を表す概念モデルである。図6に示す6−5は、図6に示す6−4内の慣性主軸方向を示す点線である。図6に示す6−6は、入力画像6−1にフィルタ6−3を作用させた状態を表す概念モデルである。図6に示す6−7は、図6に示す6−6内の慣性主軸方向を示す点線である。   FIG. 6 is a conceptual diagram for explaining the inertial spindle direction according to the second embodiment. 6-1 shown in FIG. 6 is a model of an input image representing an input image distorted depending on, for example, the viewing direction or the shooting direction. 6-2 and 6-3 shown in FIG. 6 are models of filters having different scales. 6-4 shown in FIG. 6 is a conceptual model representing a state in which the filter 6-2 is applied to the input image 6-1. 6-5 shown in FIG. 6 is a dotted line indicating the direction of the principal axis of inertia in 6-4 shown in FIG. 6-6 shown in FIG. 6 is a conceptual model representing a state in which the filter 6-3 is applied to the input image 6-1. 6-7 shown in FIG. 6 is a dotted line indicating the direction of the principal axis of inertia in 6-6 shown in FIG.

図7は、図6の6−4に対応するフィルタの応答結果を所定の視点から見たときの3次元モデルを表す図である。図8は、図6の6−4に対応するフィルタの応答結果を入力画像に対して鉛直方向から見たときの平面モデルを表す図である。図9は、図6の6−6に対応するフィルタの応答結果を所定の視点から見たときの3次元モデルを表す図である。図10は、図6の6−6に対応するフィルタの応答結果を入力画像に対して鉛直方向から見たときの平面モデルを表す図である。   FIG. 7 is a diagram illustrating a three-dimensional model when the response result of the filter corresponding to 6-4 in FIG. 6 is viewed from a predetermined viewpoint. FIG. 8 is a diagram illustrating a planar model when the response result of the filter corresponding to 6-4 in FIG. 6 is viewed from the vertical direction with respect to the input image. FIG. 9 is a diagram illustrating a three-dimensional model when the response result of the filter corresponding to 6-6 in FIG. 6 is viewed from a predetermined viewpoint. FIG. 10 is a diagram illustrating a planar model when the response result of the filter corresponding to 6-6 in FIG. 6 is viewed from the vertical direction with respect to the input image.

第1歪方向計算部110による慣性主軸方向の計算方法は、入力画像およびテンプレート画像で同様であるので、以下では、例えば、入力画像の慣性主軸方向の計算方法を例に挙げて説明する。図11は、実施例2に係る慣性主軸方向の計算方法を説明するための図である。図11に示す11−1は、例えば、図6に示す6−4と6−6とを加算することにより生成した加算画像を表す。図11に示す11−2は、図11の11−1で表される加算画像から、フィルタの出力値が局所的にピークになるものとして抽出された画素の位置を表す。図11に示す11−3は、図11の11−1で表される加算画像のある画素の位置を表す。図11に示す縦軸「j」は、スケールスペース画像内の画素の垂直方向の位置を表す座標軸である。図11に示す「i」は、スケールスペース画像内の画素の水平方向の位置を表す座標軸である。図11に示す「θ」は慣性主軸方向を表す。   Since the calculation method of the inertia principal axis direction by the first strain direction calculation unit 110 is the same for the input image and the template image, the calculation method for the inertia principal axis direction of the input image will be described below as an example. FIG. 11 is a diagram for explaining a calculation method in the inertial spindle direction according to the second embodiment. 11-1 shown in FIG. 11 represents an addition image generated by adding 6-4 and 6-6 shown in FIG. 6, for example. 11-2 shown in FIG. 11 represents the position of a pixel extracted from the addition image represented by 11-1 in FIG. 11 as the output value of the filter locally peaks. 11-3 shown in FIG. 11 represents the position of a pixel in the added image represented by 11-1 in FIG. A vertical axis “j” shown in FIG. 11 is a coordinate axis representing the vertical position of a pixel in the scale space image. “I” shown in FIG. 11 is a coordinate axis representing the horizontal position of the pixel in the scale space image. “Θ” shown in FIG. 11 represents the direction of the principal axis of inertia.

第1歪方向計算部110は、図11の11−2に対応するフィルタの出力値が局所的にピークとなる画素の位置を(iG,)とし、図11の11−3に対応する画素におけるフィルタの出力値をf(i,j)とする。そして、第1歪方向計算部110は、以下に示す式(2)に(iG,)およびf(i,j)を代入することにより、図11の11−1に対応する加算画像の慣性主軸方向「θ」を計算する。 The first strain direction calculation unit 110 sets (i G, j G ) as the pixel position where the output value of the filter corresponding to 11-2 in FIG. 11 locally peaks, and corresponds to 11-3 in FIG. Let f (i, j) be the output value of the filter at the pixel to be processed. Then, the first strain direction calculation unit 110 substitutes (i G, j G ) and f (i, j) into the following expression (2), thereby adding an image corresponding to 11-1 in FIG. The inertial principal axis direction “θ” is calculated.

また、第2歪方向計算部114も、第1歪方向計算部110と同様に、第2スケールスペース加算画像局所ピーク抽出部113により抽出された画素近傍におけるフィルタの応答に基づいて、入力画像およびテンプレート画像のスケールごとの歪み方向を検出する。   Similarly to the first distortion direction calculation unit 110, the second distortion direction calculation unit 114 also uses the input image and the filter response in the vicinity of the pixel extracted by the second scale space addition image local peak extraction unit 113. The distortion direction for each scale of the template image is detected.

第1歪補正画像生成部111は、第1歪方向計算部110により計算された慣性主軸方向を用いて入力画像およびテンプレート画像の歪みを補正する。図12は、実施例2に係る入力画像およびテンプレート画像の歪みの補正方法を説明するための図である。図12に示す12−1は、例えば、入力画像を表す。図12に示す12−2は、例えば、テンプレート画像を表す。   The first distortion corrected image generation unit 111 corrects the distortion of the input image and the template image using the inertial principal axis direction calculated by the first distortion direction calculation unit 110. FIG. 12 is a diagram for explaining a distortion correction method for an input image and a template image according to the second embodiment. 12-1 shown in FIG. 12 represents an input image, for example. 12-2 shown in FIG. 12 represents a template image, for example.

まず、第1歪補正画像生成部111による入力画像の歪み補正について説明する。第1歪補正画像生成部111は、図12の12−3に示すように、第1スケールスペース加算画像局所ピーク抽出部109により抽出される画素を中心とする特定のスケールの入力画像を、第1歪方向計算部110により計算された歪の方向に回転する。なお、歪の方向とは、上述した慣性軸方向に対応する。次に、第1歪補正画像生成部111は、図12の12−4に示す回転後の入力画像のスケールを、図12の12−5に示すように、水平方向および垂直方向に補正することにより補正画像を生成する。第1歪補正画像生成部111は、例えば、16×16画素のスケールとなるように、水平方向および垂直方向に補正する。   First, the distortion correction of the input image by the first distortion correction image generation unit 111 will be described. As shown in 12-3 of FIG. 12, the first distortion-corrected image generation unit 111 generates an input image having a specific scale centered on a pixel extracted by the first scale space addition image local peak extraction unit 109. One strain direction calculation unit 110 rotates in the strain direction calculated. The strain direction corresponds to the inertial axis direction described above. Next, the first distortion corrected image generation unit 111 corrects the scale of the input image after rotation indicated by 12-4 in FIG. 12 in the horizontal direction and the vertical direction as indicated by 12-5 in FIG. Thus, a corrected image is generated. For example, the first distortion corrected image generation unit 111 corrects in the horizontal direction and the vertical direction so as to have a scale of 16 × 16 pixels.

上述した入力画像についての補正画像は、入力画像から特徴が抽出された特徴パターンとして機能し、後述する画像マッチング部119のマッチング処理に用いられる。なお、補正画像は、例えば、16×16画素のスケールを有する。   The above-described corrected image for the input image functions as a feature pattern in which features are extracted from the input image, and is used for matching processing of an image matching unit 119 described later. The corrected image has a scale of 16 × 16 pixels, for example.

次に、第1歪補正画像生成部111によるテンプレート画像の歪み補正について説明する。第1歪補正画像生成部111は、まず、図12の12−6に示すように、第1スケールスペース加算画像局所ピーク抽出部109により抽出される画素を中心とする特定のスケールのテンプレート画像を、第1歪方向計算部110により計算された歪の方向に回転する。次に、第1歪補正画像生成部111は、図12の12−7に示す回転後のテンプレート画像のスケールを、図12の12−8に示すように、水平方向および垂直方向に補正することにより補正画像を生成する。   Next, template image distortion correction by the first distortion correction image generation unit 111 will be described. First, as shown in 12-6 of FIG. 12, the first distortion-corrected image generation unit 111 generates a template image having a specific scale centered on the pixel extracted by the first scale space addition image local peak extraction unit 109. The first strain direction calculation unit 110 rotates in the strain direction. Next, the first distortion-corrected image generation unit 111 corrects the scale of the rotated template image indicated by 12-7 in FIG. 12 in the horizontal direction and the vertical direction as indicated by 12-8 in FIG. Thus, a corrected image is generated.

上述したテンプレート画像についての補正画像は、テンプレート画像から特徴が抽出された特徴パターンとして機能し、後述する画像マッチング部119のマッチング処理に用いられる。なお、補正画像は、例えば、16×16画素のスケールを有する。   The above-described correction image for the template image functions as a feature pattern in which features are extracted from the template image, and is used for matching processing of an image matching unit 119 described later. The corrected image has a scale of 16 × 16 pixels, for example.

なお、第2歪補正画像生成部115も、上述した第1歪補正画像生成部111と同様に、第2歪方向計算部114により計算された慣性主軸方向を用いて入力画像およびテンプレート画像の歪みを補正することにより補正画像を生成する。   Note that the second distortion corrected image generation unit 115 also uses the inertial principal axis direction calculated by the second distortion direction calculation unit 114 in the same manner as the first distortion correction image generation unit 111 described above, to distort the input image and the template image. A corrected image is generated by correcting.

また、図2に示すように、画像処理装置100は、記録画像パターン切り替え部116と、入力画像特徴パターン記録部117と、テンプレート画像特徴パターン記録部118と、画像マッチング部119とを有する。   As shown in FIG. 2, the image processing apparatus 100 includes a recorded image pattern switching unit 116, an input image feature pattern recording unit 117, a template image feature pattern recording unit 118, and an image matching unit 119.

記録画像パターン切り替え部116は、テンプレート画像について生成された特徴画像パターン、入力画像について生成された特徴画像パターンの記録先を切り替える。例えば、記録画像パターン切り替え部116は、スケール補正画像生成部107、第1歪補正画像生成部111および第2歪補正画像生成部115により歪みやスケールが補正された入力画像が入力画像特徴パターン記録部117に記録されるように動作する。また、記録画像パターン切り替え部116は、スケール補正画像生成部107、第1歪補正画像生成部111および第2歪補正画像生成部115により歪みやスケールが補正されたテンプレート画像がテンプレート画像特徴パターン記録部118に記録されるように動作する。   The recorded image pattern switching unit 116 switches the recording destination of the feature image pattern generated for the template image and the feature image pattern generated for the input image. For example, the recorded image pattern switching unit 116 records the input image whose characteristic is corrected by the scale correction image generation unit 107, the first distortion correction image generation unit 111, and the second distortion correction image generation unit 115. It operates so as to be recorded in the unit 117. Further, the recorded image pattern switching unit 116 records a template image whose distortion and scale have been corrected by the scale corrected image generating unit 107, the first distortion corrected image generating unit 111, and the second distortion corrected image generating unit 115 as template image feature pattern recording. The unit 118 operates so as to be recorded.

入力画像特徴パターン記録部117は、内部的に有する記憶装置に、スケール補正画像生成部107、第1歪補正画像生成部111および第2歪補正画像生成部115により歪みやスケールが補正された補正画像を格納する。この補正画像は、入力画像の特徴画像パターンとして機能する。   The input image feature pattern recording unit 117 includes an internal storage device in which distortion and scale are corrected by the scale correction image generation unit 107, the first distortion correction image generation unit 111, and the second distortion correction image generation unit 115. Store the image. This corrected image functions as a feature image pattern of the input image.

テンプレート画像特徴パターン記録部118は、内部的に有する記憶装置に、スケール補正画像生成部107、第1歪補正画像生成部111および第2歪補正画像生成部115により歪みやスケールが補正された補正画像を格納する。この補正画像は、テンプレート画像の特徴画像パターンとして機能する。   The template image feature pattern recording unit 118 includes an internal storage device in which distortion and scale are corrected by the scale correction image generation unit 107, the first distortion correction image generation unit 111, and the second distortion correction image generation unit 115. Store the image. This corrected image functions as a feature image pattern of the template image.

入力画像特徴パターン記録部117やテンプレート画像特徴パターン記録部118が内部的に有する記憶装置は、例えば、RAM(Random Access Memory)やフラッシュメモリ(flash memory)などの半導体メモリ素子である。   The storage device included in the input image feature pattern recording unit 117 and the template image feature pattern recording unit 118 is, for example, a semiconductor memory element such as a RAM (Random Access Memory) or a flash memory.

画像マッチング部119は、入力画像特徴パターン記録部117が有する入力画像の特徴画像パターンと、テンプレート画像特徴パターン記録部118に記録されているテンプレート画像の特徴画像パターンとを照合する。次に、画像マッチング部119は、入力画像の特徴画像パターンとテンプレート画像の特徴画像パターンとの類似度が所定の閾値を超えるか否かを判定する。そして、画像マッチング部119は、判定の結果、類似度が所定の閾値を超える場合には、そのときの入力画像の特徴画像パターンとテンプレート画像の特徴画像パターンとの組を内部的な記憶装置に保存する。なお、画像マッチング部119は、上述した図1に示すパターン抽出部15に対応する。   The image matching unit 119 collates the feature image pattern of the input image that the input image feature pattern recording unit 117 has with the feature image pattern of the template image recorded in the template image feature pattern recording unit 118. Next, the image matching unit 119 determines whether the similarity between the feature image pattern of the input image and the feature image pattern of the template image exceeds a predetermined threshold. Then, when the degree of similarity exceeds a predetermined threshold as a result of the determination, the image matching unit 119 stores the set of the feature image pattern of the input image and the feature image pattern of the template image at that time in an internal storage device. save. The image matching unit 119 corresponds to the pattern extraction unit 15 illustrated in FIG. 1 described above.

上述してきた画像処理装置100の各機能部は、例えば、電子回路や集積回路である。電子回路としては、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)がある。集積回路としては、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)などがある。   Each functional unit of the image processing apparatus 100 described above is, for example, an electronic circuit or an integrated circuit. Examples of the electronic circuit include a CPU (Central Processing Unit) and an MPU (Micro Processing Unit). Examples of the integrated circuit include an ASIC (Application Specific Integrated Circuit) and an FPGA (Field Programmable Gate Array).

[画像処理装置による処理(実施例2)]
図13は、実施例2に係る画像処理装置による処理の流れを示す図である。なお、図13に示す画像処理装置100による処理は所定のタイミングで実行される。図13に示すように、画像処理装置100は、テンプレート画像からスケールスペース画像を生成して局所ピーク画素を抽出する(ステップS1301)。なお、ステップS1301は、上述したスケールスペース局所ピーク抽出部106による動作内容に対応する。
[Processing by Image Processing Device (Example 2)]
FIG. 13 is a diagram illustrating a flow of processing performed by the image processing apparatus according to the second embodiment. Note that the processing by the image processing apparatus 100 shown in FIG. 13 is executed at a predetermined timing. As illustrated in FIG. 13, the image processing apparatus 100 generates a scale space image from the template image and extracts local peak pixels (step S1301). Step S1301 corresponds to the operation content by the scale space local peak extraction unit 106 described above.

次に、画像処理装置100は、局所ピーク画素周辺のスケール補正特徴パターンの生成および記録を実行する(ステップS1302)。なお、ステップS1302は、上述したスケール補正画像生成部107、入力画像特徴パターン記録部117およびテンプレート画像特徴パターン記録部118等による一連の動作に対応する。   Next, the image processing apparatus 100 generates and records a scale correction feature pattern around the local peak pixel (step S1302). Step S1302 corresponds to a series of operations by the scale correction image generation unit 107, the input image feature pattern recording unit 117, the template image feature pattern recording unit 118, and the like described above.

続いて、画像処理装置100は、スケールスペース画像から加算画像列を生成して局所ピーク画素を抽出する(ステップS1303)。なお、ステップS1303は、上述した第1スケールスペース加算画像局所ピーク抽出部109、および第2スケールスペース加算画像局所ピーク抽出部113による動作内容に対応する。   Subsequently, the image processing apparatus 100 generates an added image sequence from the scale space image and extracts local peak pixels (step S1303). Step S1303 corresponds to the operation contents of the first scale space addition image local peak extraction unit 109 and the second scale space addition image local peak extraction unit 113 described above.

そして、画像処理装置100は、局所ピーク画素周辺の歪みおよびスケールを補正した特徴パターンの生成および記録を実行する(ステップS1304)。なお、ステップS1304は、第1歪補正画像生成部111、第2歪補正画像生成部115、入力画像特徴パターン記録部117およびテンプレート画像特徴パターン記録部118等による一連の動作に対応する。   The image processing apparatus 100 generates and records a feature pattern in which distortion and scale around the local peak pixel are corrected (step S1304). Note that step S1304 corresponds to a series of operations by the first distortion correction image generation unit 111, the second distortion correction image generation unit 115, the input image feature pattern recording unit 117, the template image feature pattern recording unit 118, and the like.

次に、画像処理装置100は、撮影装置200から画像を入力して記録する(ステップS1305)。なお、ステップS1305は、上述した画像入力部101および入力画像記録部102による一連の動作内容に対応する。   Next, the image processing apparatus 100 inputs and records an image from the photographing apparatus 200 (step S1305). Step S1305 corresponds to a series of operation contents by the image input unit 101 and the input image recording unit 102 described above.

続いて、画像処理装置100は、入力画像からスケールスペース画像を生成して局所ピーク画素を抽出する(ステップS1306)。なお、ステップS1306は、上述したスケールスペース局所ピーク抽出部106による動作内容に対応する。   Subsequently, the image processing apparatus 100 generates a scale space image from the input image and extracts local peak pixels (step S1306). Step S1306 corresponds to the operation content of the scale space local peak extraction unit 106 described above.

そして、画像処理装置100は、局所ピーク画素周辺のスケール補正特徴パターンの生成および記録を実行する(ステップS1307)。なお、ステップS1302は、上述したスケール補正画像生成部107、入力画像特徴パターン記録部117およびテンプレート画像特徴パターン記録部118等による一連の動作に対応する。   Then, the image processing apparatus 100 generates and records a scale correction feature pattern around the local peak pixel (step S1307). Step S1302 corresponds to a series of operations by the scale correction image generation unit 107, the input image feature pattern recording unit 117, the template image feature pattern recording unit 118, and the like described above.

次に、画像処理装置100は、スケールスペース画像から加算画像列を生成して局所ピーク画素を抽出する(ステップS1308)。なお、ステップS1308は、上述した第1スケールスペース加算画像局所ピーク抽出部109、および第2スケールスペース加算画像局所ピーク抽出部113による動作内容に対応する。   Next, the image processing apparatus 100 generates an added image sequence from the scale space image and extracts local peak pixels (step S1308). Step S1308 corresponds to the operation contents of the first scale space addition image local peak extraction unit 109 and the second scale space addition image local peak extraction unit 113 described above.

続いて、画像処理装置100は、局所ピーク画素周辺の歪みおよびスケールを補正した特徴パターンの生成および記録を実行する(ステップS1309)。なお、ステップS1309は、第1歪補正画像生成部111、第2歪補正画像生成部115、入力画像特徴パターン記録部117およびテンプレート画像特徴パターン記録部118等による一連の動作に対応する。   Subsequently, the image processing apparatus 100 generates and records a feature pattern in which distortion and scale around the local peak pixel are corrected (step S1309). Note that step S1309 corresponds to a series of operations by the first distortion correction image generation unit 111, the second distortion correction image generation unit 115, the input image feature pattern recording unit 117, the template image feature pattern recording unit 118, and the like.

そして、画像処理装置100は、入力画像特徴パターン記録部117から入力画像の特徴パターンを読み出す(ステップS1310)。そして、画像処理部100は、入力画像の特徴画像パターンについて未処理のものがあるか否かを判定する(ステップS1311)。判定の結果、未処理のパターンがある場合には(ステップS1311,YES)、画像処理装置100は、テンプレート画像特徴パターン記録部118からテンプレート画像の特徴パターンを読み出す(ステップS1312)。   The image processing apparatus 100 reads the feature pattern of the input image from the input image feature pattern recording unit 117 (step S1310). Then, the image processing unit 100 determines whether there is an unprocessed feature image pattern of the input image (step S1311). If there is an unprocessed pattern as a result of the determination (step S1311, YES), the image processing apparatus 100 reads the template image feature pattern from the template image feature pattern recording unit 118 (step S1312).

そして、画像処理部100は、テンプレート画像の特徴パターンについて未処理のものがあるか否かを判定する(ステップS1313)。判定の結果、未処理のパターンがある場合には(ステップS1313,YES)、画像処理部100は、入力画像の特徴パターンとテンプレート画像の特徴パターンとの類似度が所定の閾値を超えるか否かを判定する(ステップS1314)。判定の結果、類似度が所定の閾値を超える場合には(ステップS1314,YES)、画像処理部100は、そのときの入力画像の特徴パターンとテンプレート画像の特徴パターンとの組を記録する(ステップS1315)。   Then, the image processing unit 100 determines whether there is an unprocessed feature pattern of the template image (step S1313). If there is an unprocessed pattern as a result of the determination (step S1313, YES), the image processing unit 100 determines whether the similarity between the feature pattern of the input image and the feature pattern of the template image exceeds a predetermined threshold value. Is determined (step S1314). As a result of the determination, if the similarity exceeds a predetermined threshold (step S1314, YES), the image processing unit 100 records a set of the feature pattern of the input image and the feature pattern of the template image at that time (step S1314). S1315).

ここで、ステップS1311に説明に戻る。画像処理装置100は、判定の結果、未処理のパターンがない場合には(ステップS1311,No)、そのまま処理を終了する。また、ステップS1313の説明に戻る。画像処理装置100は、判定の結果、未処理のパターンがない場合には(ステップS1313,No)、上述したステップS1310に戻り、入力画像の次の特徴パターンを読み出す。また、ステップS1314の説明に戻る。画像処理装置100は、判定の結果、類似度が所定の閾値を超える場合には(ステップS1314,No)、上述したステップS1312に戻り、次のテンプレート画像の特徴パターンを読み出す。なお、ステップS1310〜ステップS1315は、上述した画像マッチング部119の動作内容に対応する。   Here, the description returns to step S1311. If there is no unprocessed pattern as a result of the determination (step S1311, No), the image processing apparatus 100 ends the process as it is. Returning to the description of step S1313. If there is no unprocessed pattern as a result of the determination (step S1313, No), the image processing apparatus 100 returns to step S1310 described above and reads the next feature pattern of the input image. Also, the description returns to step S1314. If the degree of similarity exceeds a predetermined threshold as a result of the determination (step S1314, No), the image processing apparatus 100 returns to step S1312, and reads the feature pattern of the next template image. Steps S1310 to S1315 correspond to the operation content of the image matching unit 119 described above.

なお、画像処理装置100は、必ずしも、図13に示す順序で処理を行う必要はない。例えば、画像処理装置100は、上述したステップS1301〜S1304までの処理を、ステップS1305〜ステップS1315までの処理を実行する前に予め完了させておいてもよい。   Note that the image processing apparatus 100 does not necessarily perform processing in the order shown in FIG. For example, the image processing apparatus 100 may complete the processes in steps S1301 to S1304 described above before executing the processes in steps S1305 to S1315.

[実施例2による効果]
上述してきたように、画像処理装置100は、入力画像およびテンプレート画像の特徴点となる画素をスケールスペース画像のみからだけではなく、スケールスペース画像を加算することにより生成した加算画像からも抽出する。このようなことから、実施例2によれば、テンプレート画像を用いて、入力画像から特定のパターンを検出する場合に、より多くの特徴点を利用してマッチングを実行できる結果、画像に歪みがあっても精度よく入力画像から特定のパターンを検出できる。
[Effects of Example 2]
As described above, the image processing apparatus 100 extracts pixels as feature points of the input image and the template image not only from the scale space image but also from the addition image generated by adding the scale space images. For this reason, according to the second embodiment, when a specific pattern is detected from an input image using a template image, matching can be performed using more feature points. As a result, the image is distorted. Even if it exists, a specific pattern can be accurately detected from the input image.

また、画像処理装置100は、入力画像およびテンプレート画像の歪みやスケールを補正することにより生成した補正画像を用いて、特定パターンの検出を実行する。このようなことから、実施例2によれば、画像に歪みがあっても、さらに精度よく入力画像から特定のパターンを検出できる。   The image processing apparatus 100 detects a specific pattern using a corrected image generated by correcting the distortion and scale of the input image and the template image. For this reason, according to the second embodiment, a specific pattern can be detected from an input image with higher accuracy even if the image is distorted.

図14は、実施例2による効果の説明に用いる図である。図14に示す14−1は、従来における入力画像の特徴点とテンプレート画像の特徴点とのマッチング結果を表す。図14に示す14−2は、実施例2に係る画像処理装置100による入力画像の特徴点とテンプレート画像の特徴点とのマッチング結果を表す。図14の14−2に示すように、実施例2に係る画像処理装置100のほうが、従来よりも、入力画像の特徴点とテンプレート画像の特徴点とのマッチングスコアが高くなることがわかる。図14に示す結果からも、実施例2によれば、画像に歪みがあっても精度よく入力画像から特定のパターンを検出できることがわかる。   FIG. 14 is a diagram used for explaining the effect of the second embodiment. 14-1 shown in FIG. 14 represents a matching result between the feature points of the input image and the feature points of the template image in the related art. 14-2 illustrated in FIG. 14 represents a matching result between the feature points of the input image and the feature points of the template image by the image processing apparatus 100 according to the second embodiment. As illustrated in 14-2 of FIG. 14, the image processing apparatus 100 according to the second embodiment has a higher matching score between the feature point of the input image and the feature point of the template image than the conventional one. From the results shown in FIG. 14, it can be seen that according to the second embodiment, a specific pattern can be detected from an input image with high accuracy even if the image is distorted.

以下、本願の開示する画像処理装置、画像処理方法および画像処理プログラムの他の実施形態を説明する。   Hereinafter, other embodiments of the image processing apparatus, the image processing method, and the image processing program disclosed in the present application will be described.

(1)装置構成等
例えば、図2に示した画像処理装置100の構成は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。例えば、図2に示す第1スケールスペース画像加算部108と、第2スケールスペース画像加算部112とを機能的または物理的に統合してもよい。また、例えば、図2に示す第1スケールスペース加算画像局所ピーク抽出部109と、第2スケールスペース加算画像局所ピーク抽出部113とを機能的または物理的に統合してもよい。また、例えば、第1歪方向計算部110と第2歪方向計算部114とを機能的または物理的に統合してもよい。また、例えば、第1歪補正画像生成部111と第2歪補正画像生成部115とを機能的または物理的に統合してもよい。このように、画像処理装置100の全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。
(1) Device Configuration, etc. For example, the configuration of the image processing apparatus 100 shown in FIG. 2 is functionally conceptual and does not necessarily need to be physically configured as illustrated. For example, the first scale space image adding unit 108 and the second scale space image adding unit 112 shown in FIG. 2 may be integrated functionally or physically. Further, for example, the first scale space addition image local peak extraction unit 109 and the second scale space addition image local peak extraction unit 113 illustrated in FIG. 2 may be integrated functionally or physically. Further, for example, the first strain direction calculation unit 110 and the second strain direction calculation unit 114 may be integrated functionally or physically. Further, for example, the first distortion correction image generation unit 111 and the second distortion correction image generation unit 115 may be integrated functionally or physically. As described above, all or a part of the image processing apparatus 100 can be configured to be functionally or physically distributed / integrated in arbitrary units according to various loads or usage conditions.

(2)画像処理方法
上述してきた実施例により、以下に説明するような画像処理方法が実現される。この画像処理方法は上述した画像処理装置100に適用される。この画像処理方法は、第1の画像生成ステップと、第1の抽出ステップと、第2の画像生成ステップと、第2の抽出ステップと、パターン検出ステップとを含む。
(2) Image Processing Method The image processing method described below is realized by the above-described embodiments. This image processing method is applied to the image processing apparatus 100 described above. The image processing method includes a first image generation step, a first extraction step, a second image generation step, a second extraction step, and a pattern detection step.

第1の画像生成ステップは、入力画像およびテンプレート画像のそれぞれに、スケールの異なる複数のフィルタを作用させることにより、入力画像および画像のスケールスペース画像列をそれぞれ生成する。   The first image generation step generates a scale space image sequence of the input image and the image by applying a plurality of filters having different scales to the input image and the template image, respectively.

第1の抽出ステップは、第1の画像生成ステップにより生成されたスケールスペース画像列について、スケールスペース画像列の中から空間フィルタのスケールが隣接しているスケールスペース画像の組合せを複数決定する。そして、第1の抽出ステップは、決定された組合せごとに、組合せに含まれるスケールスペース画像内の注目画素近傍に位置する所定数の画素の中から所定の画素を抽出する。つまり、第1の抽出ステップは、注目画素近傍に位置する所定数の画素の中から、注目画素との間の画素間距離およびフィルタのスケールに基づいて算出されるフィルタの出力値が最大値あるいは最小値となる画素を抽出する。   In the first extraction step, for the scale space image sequence generated by the first image generation step, a plurality of combinations of scale space images with which the scale of the spatial filter is adjacent are determined from the scale space image sequence. Then, in the first extraction step, for each determined combination, a predetermined pixel is extracted from a predetermined number of pixels located in the vicinity of the target pixel in the scale space image included in the combination. That is, in the first extraction step, the output value of the filter calculated based on the inter-pixel distance to the target pixel and the filter scale from the predetermined number of pixels located in the vicinity of the target pixel is the maximum value or The pixel having the minimum value is extracted.

第2の画像生成ステップは、第1の画像生成ステップにより生成された各スケールスペース画像列について、スケールスペース画像列に含まれるスケールスペース画像の中からフィルタのスケールが互いに異なるスケールスペース画像の組合せを複数決定する。そして、第2の画像生成ステップは、決定された組合せごとに、組合せに含まれるスケールスペース画像を加算した加算画像をそれぞれ生成する。   In the second image generation step, for each scale space image sequence generated in the first image generation step, a combination of scale space images having different filter scales from the scale space images included in the scale space image sequence is obtained. Make multiple decisions. In the second image generation step, an added image obtained by adding the scale space images included in the combination is generated for each determined combination.

第2の抽出ステップは、第2の画像生成ステップにより生成された複数の加算画像について、加算画像を所定数含む組合せを複数決定する。そして、第2の抽出ステップは、決定された組合せごとに、組合せに含まれるスケールスペース画像内の注目画素近傍に位置する所定数の画素の中から所定の画素を抽出する。つまり、第2の抽出ステップは、注目画素との間の画素間距離およびフィルタのスケールに基づいて算出されるフィルタの出力値が最大値あるいは最小値となる画素を抽出する。   In the second extraction step, a plurality of combinations including a predetermined number of addition images are determined for the plurality of addition images generated in the second image generation step. Then, in the second extraction step, for each determined combination, a predetermined pixel is extracted from a predetermined number of pixels located near the target pixel in the scale space image included in the combination. In other words, in the second extraction step, a pixel having a maximum or minimum output value of the filter calculated based on the inter-pixel distance from the target pixel and the filter scale is extracted.

パターン検出ステップは、第1の抽出ステップおよび第2の抽出ステップによりテンプレート画像について抽出された各画素と、第1の抽出ステップおよび第2の抽出ステップにより入力画像について抽出された各画素との照合結果に基づいて、入力画像から特定のパターンを検出する。   In the pattern detection step, each pixel extracted for the template image by the first extraction step and the second extraction step is compared with each pixel extracted for the input image by the first extraction step and the second extraction step. Based on the result, a specific pattern is detected from the input image.

(3)画像処理プログラム
また、例えば、上述の実施例にて説明した画像処理装置100により実行される各種の処理は、あらかじめ用意されたプログラムをパーソナルコンピュータやワークステーションなどのコンピュータシステムで実行することによって実現することもできる。なお、画像処理装置100の各種の処理については、例えば、図13等を参照されたい。
(3) Image processing program In addition, for example, various processes executed by the image processing apparatus 100 described in the above-described embodiments are executed by a computer system such as a personal computer or a workstation. Can also be realized. For various processes of the image processing apparatus 100, see, for example, FIG.

そこで、以下では、図15を用いて、上述の実施例にて説明した画像処理装置100により実行される処理と同様の機能を実現する画像処理プログラムを実行するコンピュータの一例を説明する。図15は、画像処理プログラムを実行するコンピュータの一例を示す図である。   Therefore, in the following, an example of a computer that executes an image processing program that realizes the same function as the processing executed by the image processing apparatus 100 described in the above embodiment will be described with reference to FIG. FIG. 15 is a diagram illustrating an example of a computer that executes an image processing program.

図15に示すように、画像処理装置100として機能するコンピュータ300は、各種演算処理を実行するCPU(Central Processing Unit)310と、図には示していないカメラなどから画像データの入力を受け付ける入力装置320を有する。さらに、コンピュータ300は、各種情報を一時記憶するRAM(Random Access Memory)330と、ハードディスク装置340とを有する。そして、各装置310〜340は、バス350に接続される。   As shown in FIG. 15, a computer 300 functioning as the image processing apparatus 100 includes a CPU (Central Processing Unit) 310 that executes various arithmetic processes, and an input apparatus that receives input of image data from a camera or the like not shown in the figure. 320. Further, the computer 300 includes a RAM (Random Access Memory) 330 that temporarily stores various types of information and a hard disk device 340. Each device 310 to 340 is connected to a bus 350.

なお、CPU310の代わりに、例えば、MPU(Micro Processing Unit)などの電子回路、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)などの集積回路を用いることもできる。また、RAM330の代わりに、フラッシュメモリ(flash memory)などの半導体メモリ素子を用いることもできる。   Instead of the CPU 310, for example, an electronic circuit such as an MPU (Micro Processing Unit) or an integrated circuit such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array) can be used. Further, instead of the RAM 330, a semiconductor memory device such as a flash memory can be used.

ハードディスク装置340には、上述した画像処理装置100の機能と同様の機能を発揮する画像処理プログラム341および画像処理用データ342が記憶されている。なお、この画像処理プログラム341を適宜分散させて、ネットワークを介して通信可能に接続された他のコンピュータの記憶部に記憶させておくこともできる。   The hard disk device 340 stores an image processing program 341 and image processing data 342 that exhibit functions similar to the functions of the image processing apparatus 100 described above. Note that the image processing program 341 can be appropriately distributed and stored in a storage unit of another computer that is communicably connected via a network.

そして、CPU310が、画像処理プログラム341をハードディスク装置340から読み出してRAM330に展開することにより、図15に示すように、画像処理プログラム341は画像処理プロセス331として機能する。画像処理プロセス331は、ハードディスク装置340から読み出した画像処理用データ342等を適宜RAM330上の自身に割当てられた領域に展開し、この展開した各種データに基づいて各種処理を実行する。   Then, the CPU 310 reads the image processing program 341 from the hard disk device 340 and develops it in the RAM 330, whereby the image processing program 341 functions as an image processing process 331 as shown in FIG. The image processing process 331 expands the image processing data 342 and the like read from the hard disk device 340 in an area allocated to itself on the RAM 330 as appropriate, and executes various processes based on the expanded various data.

なお、画像処理プロセス341は、例えば、図2に示した画像処理装置100の処理機能部にて実行される処理を含む。なお、画像処理装置100の処理機能部にて実行される処理は、例えば、実施例2にて上述した図13に示す処理に対応する。   Note that the image processing process 341 includes, for example, processing executed by the processing function unit of the image processing apparatus 100 illustrated in FIG. Note that the processing executed by the processing function unit of the image processing apparatus 100 corresponds to, for example, the processing shown in FIG. 13 described above in the second embodiment.

なお、画像処理プログラム341については、必ずしも最初からハードディスク340に記憶させておく必要はない。例えば、コンピュータ300に挿入されるフレキシブルディスク(FD)、CD−ROM、DVDディスク、光磁気ディスク、ICカードなどの「可搬用の物理媒体」に各プログラムを記憶させておく。そして、コンピュータ300がこれらから各プログラムを読み出して実行するようにしてもよい。   Note that the image processing program 341 is not necessarily stored in the hard disk 340 from the beginning. For example, each program is stored in a “portable physical medium” such as a flexible disk (FD), a CD-ROM, a DVD disk, a magneto-optical disk, and an IC card inserted into the computer 300. Then, the computer 300 may read and execute each program from these.

さらには、公衆回線、インターネット、LAN、WANなどを介してコンピュータ300に接続される「他のコンピュータ(またはサーバ)」などに各プログラムを記憶させておく。そして、コンピュータ300がこれらから各プログラムを読み出して実行するようにしてもよい。   Further, each program is stored in “another computer (or server)” connected to the computer 300 via a public line, the Internet, a LAN, a WAN, or the like. Then, the computer 300 may read and execute each program from these.

以上の実施例を含む実施形態に関し、さらに以下の付記を開示する。   The following supplementary notes are further disclosed with respect to the embodiments including the above examples.

(付記1)入力画像および該入力画像から特定のパターンを抽出する場合に用いられる参照画像のそれぞれに、スケールの異なる複数の空間フィルタを作用させることにより、該入力画像および該参照画像のスケールスペース画像列をそれぞれ生成する第1の画像生成部と、
前記第1の画像生成部により生成された前記入力画像のスケールスペース画像列および前記参照画像のスケールスペース画像列について、該スケールスペース画像列の中から、前記作用させた空間フィルタのスケールが隣接しているスケールスペース画像の組合せを複数決定し、該決定された組合せごとに、該組合せに含まれるスケールスペース画像内の注目画素近傍に位置する所定数の画素の中から、該注目画素との間の画素間距離および前記空間フィルタのスケールに基づいて算出される前記空間フィルタの出力値が最大値あるいは最小値となる画素を抽出する第1の抽出部と、
前記第1の画像生成部により生成された前記入力画像のスケールスペース画像列および前記参照画像のスケールスペース画像列について、該スケールスペース画像列に含まれるスケールスペース画像の中から、前記作用させた空間フィルタのスケールが互いに異なるスケールスペース画像の組合せを複数決定し、該決定された組合せごとに、該組合せに含まれるスケールスペース画像を加算した加算画像をそれぞれ生成する第2の画像生成部と、
前記第2の画像生成部により生成された複数の加算画像について、該加算画像を所定数含む組合せを複数決定し、該決定された組合せごとに、該組合せに含まれるスケールスペース画像内の注目画素近傍に位置する所定数の画素の中から、該注目画素との間の画素間距離および前記空間フィルタのスケールに基づいて算出される前記空間フィルタの出力値が最大値あるいは最小値となる画素を抽出する第2の抽出部と、
前記第1の抽出部および前記第2の抽出部により前記参照画像について抽出された各画素と、前記第1の抽出部および前記第2の抽出部により前記入力画像について抽出された各画素との照合結果に基づいて、前記入力画像から特定のパターンを検出するパターン検出部と
を有することを特徴とする画像処理装置。
(Supplementary Note 1) By applying a plurality of spatial filters having different scales to the input image and the reference image used when a specific pattern is extracted from the input image, the scale space of the input image and the reference image A first image generation unit for generating each image sequence;
Regarding the scale space image sequence of the input image and the scale space image sequence of the reference image generated by the first image generation unit, the scale of the operated spatial filter is adjacent from the scale space image sequence. A plurality of scale space image combinations, and for each of the determined combinations, a predetermined number of pixels located in the vicinity of the target pixel in the scale space image included in the combination, and the target pixel. A first extraction unit that extracts a pixel having a maximum or minimum output value of the spatial filter calculated based on the inter-pixel distance and the scale of the spatial filter;
For the scale space image sequence of the input image and the scale space image sequence of the reference image generated by the first image generation unit, the operated space from the scale space images included in the scale space image sequence A second image generation unit that determines a plurality of combinations of scale space images having different filter scales and generates an added image obtained by adding the scale space images included in the combination for each of the determined combinations;
For a plurality of addition images generated by the second image generation unit, a plurality of combinations including a predetermined number of the addition images are determined, and for each determined combination, a target pixel in a scale space image included in the combination Among the predetermined number of pixels located in the vicinity, a pixel whose output value of the spatial filter calculated based on the inter-pixel distance to the target pixel and the scale of the spatial filter is the maximum value or the minimum value is selected. A second extraction unit for extracting;
Each pixel extracted for the reference image by the first extraction unit and the second extraction unit, and each pixel extracted for the input image by the first extraction unit and the second extraction unit An image processing apparatus comprising: a pattern detection unit configured to detect a specific pattern from the input image based on a collation result.

(付記2)前記第2の抽出部により抽出された画素近傍における前記スケールごとの前記出力値の分布に基づいて、前記入力画像および前記参照画像の前記スケールごとの歪み方向を検出する検出部と、
前記検出部により検出された前記スケールごとの歪み方向に基づいて、前記入力画像および前記参照画像の歪みを補正する補正部と
をさらに有することを特徴とする付記1に記載の画像処理装置。
(Additional remark 2) Based on distribution of the said output value for every said scale in the pixel vicinity extracted by the said 2nd extraction part, the detection part which detects the distortion direction for every said scale of the said input image and the said reference image, ,
The image processing apparatus according to claim 1, further comprising: a correction unit that corrects distortion of the input image and the reference image based on a distortion direction for each scale detected by the detection unit.

(付記3)前記画像処理装置に適用される画像処理方法であって、
入力画像および該入力画像から特定のパターンを抽出する場合に用いられる参照画像のそれぞれに、スケールの異なる複数の空間フィルタを作用させることにより、該入力画像および該参照画像のスケールスペース画像列をそれぞれ生成する第1の画像生成ステップと、
前記第1の画像生成ステップにより生成された前記入力画像のスケールスペース画像列および前記参照画像のスケールスペース画像列について、該スケールスペース画像列の中から、前記作用させた空間フィルタのスケールが隣接しているスケールスペース画像の組合せを複数決定し、該決定された組合せごとに、該組合せに含まれるスケールスペース画像内の注目画素近傍に位置する所定数の画素の中から、該注目画素との間の画素間距離および前記空間フィルタのスケールに基づいて算出される前記空間フィルタの出力値が最大値あるいは最小値となる画素を抽出する第1の抽出ステップと、
前記第1の画像生成ステップにより生成された前記入力画像のスケールスペース画像列および前記参照画像のスケールスペース画像列について、該スケールスペース画像列に含まれるスケールスペース画像の中から、前記作用させた空間フィルタのスケールが互いに異なるスケールスペース画像の組合せを複数決定し、該決定された組合せごとに、該組合せに含まれるスケールスペース画像を加算した加算画像をそれぞれ生成する第2の画像生成ステップと、
前記第2の画像生成ステップにより生成された複数の加算画像について、該加算画像を所定数含む組合せを複数決定し、該決定された組合せごとに、該組合せに含まれるスケールスペース画像内の注目画素近傍に位置する所定数の画素の中から、該注目画素との間の画素間距離および前記空間フィルタのスケールに基づいて算出される前記空間フィルタの出力値が最大値あるいは最小値となる画素を抽出する第2の抽出ステップと、
前記第1の抽出ステップおよび前記第2の抽出ステップにより前記参照画像について抽出された各画素と、前記第1の抽出ステップおよび前記第2の抽出ステップにより前記入力画像について抽出された各画素との照合結果に基づいて、前記入力画像から特定のパターンを検出するパターン検出ステップと
を含んだことを特徴とする画像処理方法。
(Appendix 3) An image processing method applied to the image processing apparatus,
By applying a plurality of spatial filters having different scales to each of the input image and the reference image used when extracting a specific pattern from the input image, the scale space image sequence of the input image and the reference image respectively A first image generation step to generate;
Regarding the scale space image sequence of the input image and the scale space image sequence of the reference image generated by the first image generation step, the scale of the applied spatial filter is adjacent from the scale space image sequence. A plurality of scale space image combinations, and for each of the determined combinations, a predetermined number of pixels located in the vicinity of the target pixel in the scale space image included in the combination, and the target pixel. A first extraction step of extracting a pixel whose output value of the spatial filter calculated based on the inter-pixel distance and the scale of the spatial filter is a maximum value or a minimum value;
For the scale space image sequence of the input image and the scale space image sequence of the reference image generated by the first image generation step, the operated space from the scale space images included in the scale space image sequence A second image generation step of determining a plurality of combinations of scale space images having different filter scales and generating an added image obtained by adding the scale space images included in the combination for each determined combination;
For a plurality of addition images generated by the second image generation step, a plurality of combinations including a predetermined number of the addition images are determined, and for each determined combination, a target pixel in a scale space image included in the combination Among the predetermined number of pixels located in the vicinity, a pixel whose output value of the spatial filter calculated based on the inter-pixel distance to the target pixel and the scale of the spatial filter is the maximum value or the minimum value is selected. A second extraction step to extract;
Each pixel extracted for the reference image by the first extraction step and the second extraction step, and each pixel extracted for the input image by the first extraction step and the second extraction step And a pattern detection step of detecting a specific pattern from the input image based on a result of collation.

(付記4)前記第2の抽出ステップにより抽出された画素近傍における前記スケールごとの前記出力値の分布に基づいて、前記入力画像および前記参照画像の前記スケールごとの歪み方向を検出する検出ステップと、
前記検出ステップにより検出された前記スケールごとの歪み方向に基づいて、前記入力画像および前記参照画像の歪みを補正する補正ステップと
をさらに含んだことを特徴とする付記3に記載の画像処理方法。
(Additional remark 4) The detection step which detects the distortion direction for every said scale of the said input image and the said reference image based on distribution of the said output value for every said scale in the pixel vicinity extracted by the said 2nd extraction step; ,
The image processing method according to claim 3, further comprising a correction step of correcting distortion of the input image and the reference image based on a distortion direction for each scale detected by the detection step.

(付記5)前記画像処理装置としてのコンピュータに実行させる画像処理プログラムであって、
入力画像および該入力画像から特定のパターンを抽出する場合に用いられる参照画像のそれぞれに、スケールの異なる複数の空間フィルタを作用させることにより、該入力画像および該参照画像のスケールスペース画像列をそれぞれ生成する第1の画像生成手順と、
前記第1の画像生成手順により生成された前記入力画像のスケールスペース画像列および前記参照画像のスケールスペース画像列について、該スケールスペース画像列の中から、前記作用させた空間フィルタのスケールが隣接しているスケールスペース画像の組合せを複数決定し、該決定された組合せごとに、該組合せに含まれるスケールスペース画像内の注目画素近傍に位置する所定数の画素の中から、該注目画素との間の画素間距離および前記空間フィルタのスケールに基づいて算出される前記空間フィルタの出力値が最大値あるいは最小値となる画素を抽出する第1の抽出手順と、
前記第1の画像生成手順により生成された前記入力画像のスケールスペース画像列および前記参照画像のスケールスペース画像列について、該スケールスペース画像列に含まれるスケールスペース画像の中から、前記作用させた空間フィルタのスケールが互いに異なるスケールスペース画像の組合せを複数決定し、該決定された組合せごとに、該組合せに含まれるスケールスペース画像を加算した加算画像をそれぞれ生成する第2の画像生成手順と、
前記第2の画像生成手順により生成された複数の加算画像について、該加算画像を所定数含む組合せを複数決定し、該決定された組合せごとに、該組合せに含まれるスケールスペース画像内の注目画素近傍に位置する所定数の画素の中から、該注目画素との間の画素間距離および前記空間フィルタのスケールに基づいて算出される前記空間フィルタの出力値が最大値あるいは最小値となる画素を抽出する第2の抽出手順と、
前記第1の抽出手順および前記第2の抽出手順により前記参照画像について抽出された各画素と、前記第1の抽出手順および前記第2の抽出手順により前記入力画像について抽出された各画素との照合結果に基づいて、前記入力画像から特定のパターンを検出するパターン検出手順と
をコンピュータに実行させることを特徴とする画像処理プログラム。
(Supplementary Note 5) An image processing program to be executed by a computer as the image processing apparatus,
By applying a plurality of spatial filters having different scales to each of the input image and the reference image used when extracting a specific pattern from the input image, the scale space image sequence of the input image and the reference image respectively A first image generation procedure to generate;
Regarding the scale space image sequence of the input image and the scale space image sequence of the reference image generated by the first image generation procedure, the scale of the applied spatial filter is adjacent from the scale space image sequence. A plurality of scale space image combinations, and for each of the determined combinations, a predetermined number of pixels located in the vicinity of the target pixel in the scale space image included in the combination, and the target pixel. A first extraction procedure for extracting a pixel whose output value of the spatial filter calculated based on the inter-pixel distance and the scale of the spatial filter is a maximum value or a minimum value;
For the scale space image sequence of the input image and the scale space image sequence of the reference image generated by the first image generation procedure, the operated space from the scale space images included in the scale space image sequence A second image generation procedure for determining a plurality of combinations of scale space images having different filter scales, and generating, for each determined combination, an added image obtained by adding the scale space images included in the combination;
For a plurality of added images generated by the second image generation procedure, a plurality of combinations including a predetermined number of the added images are determined, and for each determined combination, a target pixel in a scale space image included in the combination Among the predetermined number of pixels located in the vicinity, a pixel whose output value of the spatial filter calculated based on the inter-pixel distance to the target pixel and the scale of the spatial filter is the maximum value or the minimum value is selected. A second extraction procedure to extract;
Each pixel extracted for the reference image by the first extraction procedure and the second extraction procedure, and each pixel extracted for the input image by the first extraction procedure and the second extraction procedure An image processing program that causes a computer to execute a pattern detection procedure for detecting a specific pattern from the input image based on a collation result.

(付記6)前記第2の抽出手順により抽出された画素近傍における前記スケールごとの前記出力値の分布に基づいて、前記入力画像および前記参照画像の前記スケールごとの歪み方向を検出する検出手順と、
前記検出手順により検出された前記スケールごとの歪み方向に基づいて、前記入力画像および前記参照画像の歪みを補正する補正手順と
をさらに含んだことを特徴とする付記5に記載の画像処理プログラム。
(Additional remark 6) Based on the distribution of the said output value for every said scale in the pixel vicinity extracted by the said 2nd extraction procedure, the detection procedure which detects the distortion direction for every said scale of the said input image and the said reference image, ,
The image processing program according to claim 5, further comprising a correction procedure for correcting distortion of the input image and the reference image based on the distortion direction for each scale detected by the detection procedure.

10 画像処理装置
11 第1の画像生成部
12 第1の抽出部
13 第2の画像生成部
14 第2の抽出部
15 パターン抽出部
100 画像処理装置
101 画像入力部
102 入力画像記録部
103 テンプレート画像記録部
104 処理画像切り替え部
105 スケールスペース画像生成部
106 スケールスペース局所ピーク抽出部
107 スケール補正画像生成部
108 第1スケールスペース画像加算部
109 第1スケールスペース加算画像局所ピーク抽出部
110 第1歪方向計算部
111 第1歪補正画像生成部
112 第2スケールスペース画像加算部
113 第2スケールスペース加算画像局所ピーク抽出部
114 第2歪方向計算部
115 第2歪補正画像生成部
116 記録画像パターン切り替え部
117 入力画像特徴パターン記録部
118 テンプレート画像特徴パターン記録部
119 画像マッチング部
200 撮影装置
300 コンピュータ
310 CPU
320 入力装置
330 RAM
331 画像処理プロセス
340 ハードディスク装置
341 画像処理プログラム
342 画像処理用データ
DESCRIPTION OF SYMBOLS 10 Image processing apparatus 11 1st image generation part 12 1st extraction part 13 2nd image generation part 14 2nd extraction part 15 Pattern extraction part 100 Image processing apparatus 101 Image input part 102 Input image recording part 103 Template image Recording unit 104 Processed image switching unit 105 Scale space image generation unit 106 Scale space local peak extraction unit 107 Scale correction image generation unit 108 First scale space image addition unit 109 First scale space addition image local peak extraction unit 110 First distortion direction Calculation unit 111 First distortion correction image generation unit 112 Second scale space image addition unit 113 Second scale space addition image local peak extraction unit 114 Second distortion direction calculation unit 115 Second distortion correction image generation unit 116 Recording image pattern switching unit 117 Input image feature pattern Recording unit 118 template image feature pattern recording unit 119 the image matching unit 200 imaging device 300 computer 310 CPU
320 Input device 330 RAM
331 Image processing process 340 Hard disk device 341 Image processing program 342 Data for image processing

Claims (4)

入力画像および該入力画像から特定のパターンを抽出する場合に用いられる参照画像のそれぞれに、スケールの異なる複数の空間フィルタを作用させることにより、該入力画像および該参照画像のスケールスペース画像列をそれぞれ生成する第1の画像生成部と、
前記第1の画像生成部により生成された前記入力画像のスケールスペース画像列および前記参照画像のスケールスペース画像列について、該スケールスペース画像列の中から、前記作用させた空間フィルタのスケールが隣接しているスケールスペース画像の組合せを複数決定し、該決定された組合せごとに、該組合せに含まれるスケールスペース画像内の注目画素近傍に位置する所定数の画素の中から、該注目画素との間の画素間距離および前記空間フィルタのスケールに基づいて算出される前記空間フィルタの出力値が最大値あるいは最小値となる画素を抽出する第1の抽出部と、
前記第1の画像生成部により生成された前記入力画像のスケールスペース画像列および前記参照画像のスケールスペース画像列について、該スケールスペース画像列に含まれるスケールスペース画像の中から、前記作用させた空間フィルタのスケールが互いに異なるスケールスペース画像の組合せを複数決定し、該決定された組合せごとに、該組合せに含まれるスケールスペース画像を加算した加算画像をそれぞれ生成する第2の画像生成部と、
前記第2の画像生成部により生成された複数の加算画像について、該加算画像を所定数含む組合せを複数決定し、該決定された組合せごとに、該組合せに含まれるスケールスペース画像内の注目画素近傍に位置する所定数の画素の中から、該注目画素との間の画素間距離および前記空間フィルタのスケールに基づいて算出される前記空間フィルタの出力値が最大値あるいは最小値となる画素を抽出する第2の抽出部と、
前記第1の抽出部および前記第2の抽出部により前記参照画像について抽出された各画素と、前記第1の抽出部および前記第2の抽出部により前記入力画像について抽出された各画素との照合結果に基づいて、前記入力画像から特定のパターンを検出するパターン検出部と
を有することを特徴とする画像処理装置。
By applying a plurality of spatial filters having different scales to each of the input image and the reference image used when extracting a specific pattern from the input image, the scale space image sequence of the input image and the reference image respectively A first image generation unit for generating;
Regarding the scale space image sequence of the input image and the scale space image sequence of the reference image generated by the first image generation unit, the scale of the operated spatial filter is adjacent from the scale space image sequence. A plurality of scale space image combinations, and for each of the determined combinations, a predetermined number of pixels located in the vicinity of the target pixel in the scale space image included in the combination, and the target pixel. A first extraction unit that extracts a pixel having a maximum or minimum output value of the spatial filter calculated based on the inter-pixel distance and the scale of the spatial filter;
For the scale space image sequence of the input image and the scale space image sequence of the reference image generated by the first image generation unit, the operated space from the scale space images included in the scale space image sequence A second image generation unit that determines a plurality of combinations of scale space images having different filter scales and generates an added image obtained by adding the scale space images included in the combination for each of the determined combinations;
For a plurality of addition images generated by the second image generation unit, a plurality of combinations including a predetermined number of the addition images are determined, and for each determined combination, a target pixel in a scale space image included in the combination Among the predetermined number of pixels located in the vicinity, a pixel whose output value of the spatial filter calculated based on the inter-pixel distance to the target pixel and the scale of the spatial filter is the maximum value or the minimum value is selected. A second extraction unit for extracting;
Each pixel extracted for the reference image by the first extraction unit and the second extraction unit, and each pixel extracted for the input image by the first extraction unit and the second extraction unit An image processing apparatus comprising: a pattern detection unit configured to detect a specific pattern from the input image based on a collation result.
前記第2の抽出部により抽出された画素近傍における前記加算画像ごとの前記出力値の分布に基づいて、前記入力画像および前記参照画像の前記加算画像ごとの歪み方向を検出する検出部と、
前記検出部により検出された前記加算画像ごとの歪み方向に基づいて、前記入力画像および前記参照画像に対応する加算画像の歪みを補正する補正部と
をさらに有することを特徴とする請求項1に記載の画像処理装置。
A detection unit for detecting a distortion direction for each of the addition images of the input image and the reference image based on a distribution of the output values for each of the addition images in the vicinity of the pixel extracted by the second extraction unit;
The correction unit according to claim 1, further comprising: a correction unit that corrects distortion of the addition image corresponding to the input image and the reference image based on a distortion direction for each of the addition images detected by the detection unit. The image processing apparatus described.
前記画像処理装置に適用される画像処理方法であって、
入力画像および該入力画像から特定のパターンを抽出する場合に用いられる参照画像のそれぞれに、スケールの異なる複数の空間フィルタを作用させることにより、該入力画像および該参照画像のスケールスペース画像列をそれぞれ生成する第1の画像生成ステップと、
前記第1の画像生成ステップにより生成された前記入力画像のスケールスペース画像列および前記参照画像のスケールスペース画像列について、該スケールスペース画像列の中から、前記作用させた空間フィルタのスケールが隣接しているスケールスペース画像の組合せを複数決定し、該決定された組合せごとに、該組合せに含まれるスケールスペース画像内の注目画素近傍に位置する所定数の画素の中から、該注目画素との間の画素間距離および前記空間フィルタのスケールに基づいて算出される前記空間フィルタの出力値が最大値あるいは最小値となる画素を抽出する第1の抽出ステップと、
前記第1の画像生成ステップにより生成された前記入力画像のスケールスペース画像列および前記参照画像のスケールスペース画像列について、該スケールスペース画像列に含まれるスケールスペース画像の中から、前記作用させた空間フィルタのスケールが互いに異なるスケールスペース画像の組合せを複数決定し、該決定された組合せごとに、該組合せに含まれるスケールスペース画像を加算した加算画像をそれぞれ生成する第2の画像生成ステップと、
前記第2の画像生成ステップにより生成された複数の加算画像について、該加算画像を所定数含む組合せを複数決定し、該決定された組合せごとに、該組合せに含まれるスケールスペース画像内の注目画素近傍に位置する所定数の画素の中から、該注目画素との間の画素間距離および前記空間フィルタのスケールに基づいて算出される前記空間フィルタの出力値が最大値あるいは最小値となる画素を抽出する第2の抽出ステップと、
前記第1の抽出ステップおよび前記第2の抽出ステップにより前記参照画像について抽出された各画素と、前記第1の抽出ステップおよび前記第2の抽出ステップにより前記入力画像について抽出された各画素との照合結果に基づいて、前記入力画像から特定のパターンを検出するパターン検出ステップと
を含んだことを特徴とする画像処理方法。
An image processing method applied to the image processing apparatus,
By applying a plurality of spatial filters having different scales to each of the input image and the reference image used when extracting a specific pattern from the input image, the scale space image sequence of the input image and the reference image respectively A first image generation step to generate;
Regarding the scale space image sequence of the input image and the scale space image sequence of the reference image generated by the first image generation step, the scale of the applied spatial filter is adjacent from the scale space image sequence. A plurality of scale space image combinations, and for each of the determined combinations, a predetermined number of pixels located in the vicinity of the target pixel in the scale space image included in the combination, and the target pixel. A first extraction step of extracting a pixel whose output value of the spatial filter calculated based on the inter-pixel distance and the scale of the spatial filter is a maximum value or a minimum value;
For the scale space image sequence of the input image and the scale space image sequence of the reference image generated by the first image generation step, the operated space from the scale space images included in the scale space image sequence A second image generation step of determining a plurality of combinations of scale space images having different filter scales and generating an added image obtained by adding the scale space images included in the combination for each determined combination;
For a plurality of addition images generated by the second image generation step, a plurality of combinations including a predetermined number of the addition images are determined, and for each determined combination, a target pixel in a scale space image included in the combination Among the predetermined number of pixels located in the vicinity, a pixel whose output value of the spatial filter calculated based on the inter-pixel distance to the target pixel and the scale of the spatial filter is the maximum value or the minimum value is selected. A second extraction step to extract;
Each pixel extracted for the reference image by the first extraction step and the second extraction step, and each pixel extracted for the input image by the first extraction step and the second extraction step And a pattern detection step of detecting a specific pattern from the input image based on a result of collation.
前記画像処理装置としてのコンピュータに実行させる画像処理プログラムであって、
入力画像および該入力画像から特定のパターンを抽出する場合に用いられる参照画像のそれぞれに、スケールの異なる複数の空間フィルタを作用させることにより、該入力画像および該参照画像のスケールスペース画像列をそれぞれ生成する第1の画像生成手順と、
前記第1の画像生成手順により生成された前記入力画像のスケールスペース画像列および前記参照画像のスケールスペース画像列について、該スケールスペース画像列の中から、前記作用させた空間フィルタのスケールが隣接しているスケールスペース画像の組合せを複数決定し、該決定された組合せごとに、該組合せに含まれるスケールスペース画像内の注目画素近傍に位置する所定数の画素の中から、該注目画素との間の画素間距離および前記空間フィルタのスケールに基づいて算出される前記空間フィルタの出力値が最大値あるいは最小値となる画素を抽出する第1の抽出手順と、
前記第1の画像生成手順により生成された前記入力画像のスケールスペース画像列および前記参照画像のスケールスペース画像列について、該スケールスペース画像列に含まれるスケールスペース画像の中から、前記作用させた空間フィルタのスケールが互いに異なるスケールスペース画像の組合せを複数決定し、該決定された組合せごとに、該組合せに含まれるスケールスペース画像を加算した加算画像をそれぞれ生成する第2の画像生成手順と、
前記第2の画像生成手順により生成された複数の加算画像について、該加算画像を所定数含む組合せを複数決定し、該決定された組合せごとに、該組合せに含まれるスケールスペース画像内の注目画素近傍に位置する所定数の画素の中から、該注目画素との間の画素間距離および前記空間フィルタのスケールに基づいて算出される前記空間フィルタの出力値が最大値あるいは最小値となる画素を抽出する第2の抽出手順と、
前記第1の抽出手順および前記第2の抽出手順により前記参照画像について抽出された各画素と、前記第1の抽出手順および前記第2の抽出手順により前記入力画像について抽出された各画素との照合結果に基づいて、前記入力画像から特定のパターンを検出するパターン検出手順と
をコンピュータに実行させることを特徴とする画像処理プログラム。
An image processing program to be executed by a computer as the image processing apparatus,
By applying a plurality of spatial filters having different scales to each of the input image and the reference image used when extracting a specific pattern from the input image, the scale space image sequence of the input image and the reference image respectively A first image generation procedure to generate;
Regarding the scale space image sequence of the input image and the scale space image sequence of the reference image generated by the first image generation procedure, the scale of the applied spatial filter is adjacent from the scale space image sequence. A plurality of scale space image combinations, and for each of the determined combinations, a predetermined number of pixels located in the vicinity of the target pixel in the scale space image included in the combination, and the target pixel. A first extraction procedure for extracting a pixel whose output value of the spatial filter calculated based on the inter-pixel distance and the scale of the spatial filter is a maximum value or a minimum value;
For the scale space image sequence of the input image and the scale space image sequence of the reference image generated by the first image generation procedure, the operated space from the scale space images included in the scale space image sequence A second image generation procedure for determining a plurality of combinations of scale space images having different filter scales, and generating, for each determined combination, an added image obtained by adding the scale space images included in the combination;
For a plurality of added images generated by the second image generation procedure, a plurality of combinations including a predetermined number of the added images are determined, and for each determined combination, a target pixel in a scale space image included in the combination Among the predetermined number of pixels located in the vicinity, a pixel whose output value of the spatial filter calculated based on the inter-pixel distance to the target pixel and the scale of the spatial filter is the maximum value or the minimum value is selected. A second extraction procedure to extract;
Each pixel extracted for the reference image by the first extraction procedure and the second extraction procedure, and each pixel extracted for the input image by the first extraction procedure and the second extraction procedure An image processing program that causes a computer to execute a pattern detection procedure for detecting a specific pattern from the input image based on a collation result.
JP2010065196A 2010-03-19 2010-03-19 Image processing apparatus, image processing method, and image processing program Expired - Fee Related JP5471669B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010065196A JP5471669B2 (en) 2010-03-19 2010-03-19 Image processing apparatus, image processing method, and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010065196A JP5471669B2 (en) 2010-03-19 2010-03-19 Image processing apparatus, image processing method, and image processing program

Publications (2)

Publication Number Publication Date
JP2011198148A JP2011198148A (en) 2011-10-06
JP5471669B2 true JP5471669B2 (en) 2014-04-16

Family

ID=44876237

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010065196A Expired - Fee Related JP5471669B2 (en) 2010-03-19 2010-03-19 Image processing apparatus, image processing method, and image processing program

Country Status (1)

Country Link
JP (1) JP5471669B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150345936A1 (en) * 2012-06-26 2015-12-03 Konica Minolta, Inc. Image Processing Apparatus, Image Processing Method And Image Processing Program

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8233716B2 (en) * 2008-06-27 2012-07-31 Palo Alto Research Center Incorporated System and method for finding stable keypoints in a picture image using localized scale space properties

Also Published As

Publication number Publication date
JP2011198148A (en) 2011-10-06

Similar Documents

Publication Publication Date Title
CN109711243B (en) Static three-dimensional face in-vivo detection method based on deep learning
CN108710847B (en) Scene recognition method and device and electronic equipment
Zhang et al. A face antispoofing database with diverse attacks
US8081844B2 (en) Detecting orientation of digital images using face detection information
US8391645B2 (en) Detecting orientation of digital images using face detection information
JP6544900B2 (en) Object identification device, object identification method and program
KR101303877B1 (en) Method and apparatus for serving prefer color conversion of skin color applying face detection and skin area detection
US20150029222A1 (en) Dynamically configuring an image processing function
CN110428399B (en) Method, apparatus, device and storage medium for detecting image
KR102476016B1 (en) Apparatus and method for determining position of eyes
KR20190053602A (en) Face verifying method and apparatus
EP3518522B1 (en) Image capturing method and device
JP5656768B2 (en) Image feature extraction device and program thereof
WO2021008205A1 (en) Image processing
Ling et al. Image quality assessment for free viewpoint video based on mid-level contours feature
CN104823201A (en) Illumination sensitive face recognition
JP2011100395A (en) Discrimination device, discrimination method, and program
Bresan et al. Facespoof buster: a presentation attack detector based on intrinsic image properties and deep learning
KR20160046399A (en) Method and Apparatus for Generation Texture Map, and Database Generation Method
JP6086491B2 (en) Image processing apparatus and database construction apparatus thereof
JP5471669B2 (en) Image processing apparatus, image processing method, and image processing program
JP6393495B2 (en) Image processing apparatus and object recognition method
CN113393506B (en) Image registration method and related device and equipment
CN112990047B (en) Multi-pose face verification method combining face angle information
JP5791361B2 (en) PATTERN IDENTIFICATION DEVICE, PATTERN IDENTIFICATION METHOD, AND PROGRAM

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130206

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131025

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131105

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131213

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140107

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140120

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees