JP5945823B2 - Image processing method and image processing apparatus - Google Patents

Image processing method and image processing apparatus Download PDF

Info

Publication number
JP5945823B2
JP5945823B2 JP2012129238A JP2012129238A JP5945823B2 JP 5945823 B2 JP5945823 B2 JP 5945823B2 JP 2012129238 A JP2012129238 A JP 2012129238A JP 2012129238 A JP2012129238 A JP 2012129238A JP 5945823 B2 JP5945823 B2 JP 5945823B2
Authority
JP
Japan
Prior art keywords
image
correlation value
template
value
vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012129238A
Other languages
Japanese (ja)
Other versions
JP2013254332A (en
Inventor
剛 上瀧
剛 上瀧
圭一 内村
圭一 内村
大介 浅井
大介 浅井
誠 竹葉
誠 竹葉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kumamoto University NUC
Hikari Corp
Original Assignee
Kumamoto University NUC
Hikari Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kumamoto University NUC, Hikari Corp filed Critical Kumamoto University NUC
Priority to JP2012129238A priority Critical patent/JP5945823B2/en
Publication of JP2013254332A publication Critical patent/JP2013254332A/en
Application granted granted Critical
Publication of JP5945823B2 publication Critical patent/JP5945823B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Description

本発明は、テンプレート画像を用いた画像照合を行う画像処理方法および画像処理装置に関する。   The present invention relates to an image processing method and an image processing apparatus that perform image matching using a template image.

従来から、部品の検査等を行うため、画像照合の技術が用いられている。画像照合の一例として、テンプレート画像を用いるものがある。テンプレート画像を用いた画像照合においては、例えば、良品であることが既知の部品が撮像され、その撮像された画像が用いられてテンプレート画像が予め準備される。そして、検査対象の部品を撮像することで得られる入力画像とテンプレート画像とが照合され、入力画像とテンプレート画像との比較により、検査対象の部品の検査が行われる。   Conventionally, an image matching technique has been used to inspect parts and the like. One example of image matching is to use a template image. In image collation using a template image, for example, a component that is known to be a non-defective product is imaged, and a template image is prepared in advance using the captured image. Then, the input image obtained by imaging the part to be inspected and the template image are collated, and the part to be inspected is inspected by comparing the input image and the template image.

特に、産業用の画像処理においては、検査対象となる部品の位置および方向角を高精度に検出するために、予め与えたテンプレート画像と、入力画像とをサブピクセル精度で照合する処理が行われる(非特許文献1参照)。こうしたサブピクセル精度の画像照合技術としては、入力画像に対して、テンプレート画像を回転させながら照合を行う回転照合法が知られている。回転照合法は、テンプレート画像に対して幾何変換を行う、幾何変換を用いた画像照合技術である。   In particular, in industrial image processing, in order to detect the position and direction angle of a part to be inspected with high accuracy, a process of matching a template image given in advance with an input image with subpixel accuracy is performed. (Refer nonpatent literature 1). As such an image collation technique with subpixel accuracy, a rotation collation method is known in which collation is performed while rotating a template image with respect to an input image. The rotation matching method is an image matching technique using geometric transformation that performs geometric transformation on a template image.

回転照合法においては、テンプレート画像が回転および平行移動させられながら、入力画像との関係において画像の類似度を示す画像類似度が算出され、画像類似度のピーク値から、入力画像の方向角および座標値が検出される。つまり、回転照合法によれば、テンプレート画像が所定のピッチで回転および平行移動させられ、テンプレート画像が入力画像に最も近似する回転角度およびXY座標値が探索されることで、入力画像の方向角および座標値が検出される。   In the rotation matching method, an image similarity indicating image similarity in relation to an input image is calculated while the template image is rotated and translated, and the direction angle of the input image and the input image direction angle are calculated from the peak value of the image similarity. Coordinate values are detected. That is, according to the rotation collation method, the template image is rotated and translated at a predetermined pitch, and the rotation angle and the XY coordinate values that approximate the input image to the template image are searched, whereby the direction angle of the input image. And coordinate values are detected.

このような回転照合法において、検出精度を上げるためには、テンプレート画像が入力画像に最も近似する回転角度を探索するためのテンプレート画像の回転ピッチを細かくして照合回数を増やす必要がある。このため、回転照合法において検出精度を上げることは、処理時間の長期化を招く。一方で、処理時間を短縮するためにテンプレート画像の回転ピッチを粗く(大きく)すると、十分な検出精度を得ることが困難となる。   In such a rotation collation method, in order to increase the detection accuracy, it is necessary to increase the number of collations by reducing the rotation pitch of the template image for searching for the rotation angle at which the template image most closely approximates the input image. For this reason, increasing the detection accuracy in the rotation matching method leads to a long processing time. On the other hand, if the rotation pitch of the template image is rough (enlarged) in order to shorten the processing time, it becomes difficult to obtain sufficient detection accuracy.

そこで、画像照合法において処理時間を削減するために、テンプレート画像の回転ピッチを粗くして照合を行いつつ、所定の演算によって算出される画像類似度を、2次曲面あるいは2次曲線を用いて補間する方法がある(非特許文献2,3参照)。しかしながら、このように補間を行う方法によれば、補間による誤差が発生し、検出精度が低下する。   Therefore, in order to reduce the processing time in the image matching method, the image similarity calculated by a predetermined calculation is calculated using a quadratic curved surface or a quadratic curve while collating with a rough rotation pitch of the template image. There is a method of interpolation (see Non-Patent Documents 2 and 3). However, according to the method of performing interpolation in this way, an error due to interpolation occurs, and the detection accuracy decreases.

このような回転照合法等の、幾何変換を用いた従来の画像照合技術に対して、少ない照合回数で同等の精度を確保することができ、処理時間を短縮することができる画像照合技術として、非特許文献4に記載された技術がある。非特許文献4の技術においては、様々な姿勢(方向角)の複数のテンプレート画像を固有値分解(主成分分析)によって圧縮することで固有値分解テンプレートが生成され、この固有値分解テンプレートと入力画像とを畳み込むことで、画像の類似度を示す相関値が算出される。そして、この算出された相関値に基づいて、入力画像についての方向角および2次元座標値が求められる。   As an image matching technique that can ensure the same accuracy with a small number of matching times and can shorten the processing time compared to the conventional image matching technique using geometric transformation such as the rotation matching method, There is a technique described in Non-Patent Document 4. In the technique of Non-Patent Document 4, an eigenvalue decomposition template is generated by compressing a plurality of template images in various postures (direction angles) by eigenvalue decomposition (principal component analysis). By performing the convolution, a correlation value indicating the similarity between the images is calculated. Based on the calculated correlation value, the direction angle and the two-dimensional coordinate value for the input image are obtained.

鷲見 和彦,金子 俊一,“マシンビジョン技術の実利用”,電気学会論文誌C,Vol.124,No.3,pp.598−605,2004.Kazuhiko Kusumi, Shunichi Kaneko, “Practical use of machine vision technology”, IEEJ Transactions C, Vol. 124, no. 3, pp. 598-605, 2004. 清水 雅夫,奥富 正敏,“画像のマッチングにおける高精度なサブピクセル推定手法”,電子情報通信学会論文誌D−II,Vol.J84−D−II,No.7,pp.1409−1418,2001.Masao Shimizu and Masatoshi Okutomi, “Precise Subpixel Estimation Method for Image Matching”, IEICE Transactions D-II, Vol. J84-D-II, No. 7, pp. 1409-1418, 2001. 清水 雅夫,奥富 正敏,“画像のマッチングにおけるサブピクセル推定の意味と性質”,電子情報通信学会論文誌D−II,Vol.J85−D−II,No.12,pp.1791−1800,2002.Masao Shimizu, Masatoshi Okutomi, “Meaning and Properties of Subpixel Estimation in Image Matching”, IEICE Transactions D-II, Vol. J85-D-II, No. 12, pp. 1791-1800, 2002. 上瀧 剛、内村 圭一、“固有値分解テンプレートによる高精度な画像照合”, 電気学会論文誌C,vol.121,no.1,pp.237−238,2011Takeshi Kamijo and Shinichi Uchimura, “Highly accurate image matching using eigenvalue decomposition templates”, IEEJ Transactions C, vol. 121, no. 1, pp. 237-238, 2011

確かに、非特許文献4の手法によれば、幾何変換を用いた従来の画像照合技術と比べて、同等の精度を確保することができるとともに、処理時間の短縮を図ることができる。しかしながら、非特許文献4の手法では、入力画像の全ての画素についての相関値、および各画素での全ての姿勢(方向角)についての相関値が算出され、それらの相関値うちの最大値が探索される。このため、計算量が膨大となり、実用に際して処理時間の面で問題がある。   Certainly, according to the method of Non-Patent Document 4, it is possible to ensure the same accuracy and shorten the processing time as compared with the conventional image matching technique using geometric transformation. However, in the method of Non-Patent Document 4, correlation values for all pixels of the input image and correlation values for all postures (direction angles) at each pixel are calculated, and the maximum value among these correlation values is searched. Is done. For this reason, the amount of calculation becomes enormous, and there is a problem in terms of processing time in practical use.

そこで、本発明は、複数のテンプレート画像を固有値分解することで得られた固有値分解テンプレート画像に基づいて算出される、画像の類似度を示す相関値を用いた画像照合技術において、精度を維持しながら、計算量を大幅に削減することができ処理速度の向上を図ることができる画像処理方法および画像処理装置を提供することを目的とする。   Therefore, the present invention maintains accuracy in an image matching technique using a correlation value indicating image similarity calculated based on an eigenvalue decomposition template image obtained by eigenvalue decomposition of a plurality of template images. However, it is an object of the present invention to provide an image processing method and an image processing apparatus capable of greatly reducing the amount of calculation and improving the processing speed.

本発明の画像処理方法は、照合の対象物の画像であるテンプレート画像を用いた照合を行うことで、入力画像に存在する照合の対象物の画像部分の幾何変換パラメータの値を決定する画像処理方法であって、以下のステップを備える。
前記テンプレート画像に幾何変換を加えることで、前記幾何変換の量が異なる複数の幾何変換後の前記テンプレート画像からなる第1の画像群を生成する第1の画像群生成ステップ。
前記第1の画像群に固有値分解を施すことで、前記複数の幾何変換後の前記テンプレート画像と同数の固有値および固有関数を算出する固有値分解ステップ。
複数の前記固有関数と前記第1の画像群との内積演算を施すことで、第2の画像群を生成する第2の画像群生成ステップ。
前記第1の画像群の各画像について、前記第2の画像群の各画像との相関を表す所定の実数である相関値を各成分の値とする相関値ベクトルを生成する相関値ベクトル生成ステップ。
前記入力画像の各画素について、前記第2の画像群の画像のうち次数が最も低い最低次数画像と前記入力画像との関係について算出される前記相関値に基づき、前記入力画像の画素のうち前記最低次数画像についての前記相関値が相対的に低い画素を処理対象から除外する画素除外ステップ。
前記入力画像について、前記相関値を各成分の値とする特徴ベクトルを生成する特徴ベクトル生成ステップ。
前記相関値ベクトル生成ステップで生成された複数の前記相関値ベクトルのうち、前記特徴ベクトルに最も近似する前記相関値ベクトルを選出するベクトル選出ステップ。
前記画素除外ステップにより除外された画素以外の処理対象となる画素について、前記ベクトル選出ステップにより選出された前記相関値ベクトルに対応する前記幾何変換パラメータの値の近傍の範囲で、連続曲線で表され前記入力画像と前記第2の画像群との類似度合いを示す画像類似度を算出する画像類似度算出ステップ。
前記画像類似度算出ステップで算出された前記画像類似度に基づき、前記幾何変換パラメータの値を決定する照合ステップ。
The image processing method according to the present invention performs image processing using a template image that is an image of an object to be collated, thereby determining a value of a geometric transformation parameter of an image portion of the object to be collated existing in an input image. A method comprising the following steps.
A first image group generation step of generating a first image group composed of the template images after a plurality of geometric transformations having different geometric transformation amounts by applying geometric transformation to the template image;
An eigenvalue decomposition step of calculating eigenvalues and eigenfunctions of the same number as the template images after the plurality of geometric transformations by performing eigenvalue decomposition on the first image group;
A second image group generation step of generating a second image group by performing an inner product operation of the plurality of eigenfunctions and the first image group;
Correlation value vector generation step for generating a correlation value vector having a correlation value that is a predetermined real number representing a correlation with each image of the second image group for each image of the first image group. .
For each pixel of the input image, based on the correlation value calculated for the relationship between the lowest order image having the lowest order among the images of the second image group and the input image, the pixels of the input image A pixel excluding step of excluding from the processing target pixels having a relatively low correlation value for the lowest order image.
A feature vector generating step of generating a feature vector having the correlation value as a value of each component for the input image.
A vector selection step of selecting the correlation value vector closest to the feature vector from the plurality of correlation value vectors generated in the correlation value vector generation step;
For pixels to be processed other than the pixels excluded by the pixel exclusion step, a continuous curve is represented in a range near the value of the geometric transformation parameter corresponding to the correlation value vector selected by the vector selection step. An image similarity calculating step of calculating an image similarity indicating a degree of similarity between the input image and the second image group;
A collating step of determining a value of the geometric transformation parameter based on the image similarity calculated in the image similarity calculating step;

また、本発明の画像処理方法は、前記固有値分解ステップで算出された複数の前記固有関数のうち、前記固有値の大きな順に、所定の数の前記固有関数を選択する固有関数選択ステップをさらに備え、前記第2の画像群生成ステップは、前記固有関数選択ステップで選択された複数の前記固有関数と前記第1の画像群との内積演算を施すことで、前記第2の画像群を生成する。   The image processing method of the present invention further includes an eigenfunction selection step of selecting a predetermined number of the eigenfunctions in descending order of the eigenvalues among the plurality of eigenfunctions calculated in the eigenvalue decomposition step, In the second image group generation step, the second image group is generated by performing an inner product calculation of the plurality of eigenfunctions selected in the eigenfunction selection step and the first image group.

また、本発明の画像処理方法は、前記第2の画像群生成ステップで生成された第2の画像群の各画像のうち、前記固有値の大きな順に、所定の数の画像を選択する画像選択ステップをさらに備え、前記相関値ベクトル生成ステップは、前記画像選択ステップで選択された画像について、前記相関値ベクトルを生成する。   In the image processing method of the present invention, an image selection step of selecting a predetermined number of images in descending order of the eigenvalues among the images of the second image group generated in the second image group generation step. The correlation value vector generation step generates the correlation value vector for the image selected in the image selection step.

また、本発明の画像処理方法において、前記幾何変換パラメータは、方向角および2次元座標値を含み、前記幾何変換は、方向角を変化させる回転であり、前記画像類似度算出ステップは、前記処理対象となる画素の全ての画素について、前記ベクトル選出ステップにより選出された前記相関値ベクトルに対応する方向角の値の近傍の範囲で、前記画像類似度を算出し、前記照合ステップは、前記処理対象となる画素の全ての画素のうち、前記画像類似度算出ステップにより算出された前記画像類似度の最大値が最も大きな画素の位置を、前記幾何変換パラメータの2次元座標値の値として決定し、前記画像類似度の最大値が最も大きな画素についての前記最大値に対応する方向角を、前記幾何変換パラメータの方向角として決定する。   In the image processing method of the present invention, the geometric transformation parameter includes a direction angle and a two-dimensional coordinate value, the geometric transformation is a rotation for changing the direction angle, and the image similarity calculation step includes the process The image similarity is calculated for all pixels of the target pixel within a range in the vicinity of the direction angle value corresponding to the correlation value vector selected by the vector selection step, and the matching step includes the processing Of all the target pixels, the position of the pixel with the largest image similarity calculated in the image similarity calculation step is determined as the value of the two-dimensional coordinate value of the geometric transformation parameter. The direction angle corresponding to the maximum value for the pixel having the largest image similarity maximum value is determined as the direction angle of the geometric transformation parameter.

本発明の画像処理装置は、入力画像を取得するための入力画像取得手段と、照合の対象物の画像であるテンプレート画像を用いた照合を行うことで、入力画像に存在する照合の対象物の画像部分の幾何変換パラメータの値を決定する画像処理手段と、を備え、前記画像処理手段は、前記テンプレート画像に幾何変換を加えることで、前記幾何変換の量が異なる複数の幾何変換後の前記テンプレート画像からなる第1の画像群を生成する第1の画像群生成部と、前記第1の画像群に固有値分解を施すことで、前記複数の幾何変換後の前記テンプレート画像と同数の固有値および固有関数を算出する固有値分解部と、複数の前記固有関数と前記第1の画像群との内積演算を施すことで、第2の画像群を生成する第2の画像群生成部と、前記第1の画像群の各画像について、前記第2の画像群の各画像との相関を表す所定の実数である相関値を各成分の値とする相関値ベクトルを生成する相関値ベクトル生成部と、前記入力画像の各画素について、前記第2の画像群の画像のうち次数が最も低い最低次数画像と前記入力画像との関係について算出される前記相関値に基づき、前記入力画像の画素のうち前記最低次数画像についての前記相関値が相対的に低い画素を処理対象から除外する画素除外部と、前記入力画像について、前記相関値を各成分の値とする特徴ベクトルを生成する特徴ベクトル生成部と、前記相関値ベクトル生成部で生成された複数の前記相関値ベクトルのうち、前記特徴ベクトルに最も近似する前記相関値ベクトルを選出するベクトル選出部と、前記画素除外部により除外された画素以外の処理対象となる画素について、前記ベクトル選出部により選出された前記相関値ベクトルに対応する前記幾何変換パラメータの値の近傍の範囲で、連続曲線で表され前記入力画像と前記第2の画像群との類似度合いを示す画像類似度を算出する画像類似度算出部と、前記画像類似度算出部で算出された前記画像類似度に基づき、前記幾何変換パラメータの値を決定する照合部と、を備えるものである。   The image processing apparatus according to the present invention performs matching using an input image acquisition unit for acquiring an input image and a template image that is an image of an object to be collated, so that the object to be collated existing in the input image is detected. Image processing means for determining a value of a geometric transformation parameter of the image portion, and the image processing means adds the geometric transformation to the template image, so that the geometric transformation amounts after the plurality of geometric transformations are different. A first image group generation unit configured to generate a first image group of template images, and eigenvalue decomposition on the first image group, whereby the same number of eigenvalues as the template images after the plurality of geometric transformations and An eigenvalue decomposition unit that calculates an eigenfunction; a second image group generation unit that generates a second image group by performing an inner product operation of the plurality of eigenfunctions and the first image group; 1's A correlation value vector generation unit that generates a correlation value vector having a correlation value that is a predetermined real number representing a correlation with each image of the second image group as a value of each component for each image of the image group; and the input For each pixel of the image, based on the correlation value calculated for the relationship between the lowest order image having the lowest order among the images of the second image group and the input image, the lowest order of the pixels of the input image. A pixel excluding unit that excludes a pixel having a relatively low correlation value from an image to be processed; a feature vector generating unit that generates a feature vector having the correlation value as a value of each component for the input image; and Among the plurality of correlation value vectors generated by the correlation value vector generation unit, a vector selection unit that selects the correlation value vector that is closest to the feature vector, and the pixel exclusion unit For the pixels to be processed other than the removed pixels, the input image represented by a continuous curve in the range near the value of the geometric transformation parameter corresponding to the correlation value vector selected by the vector selection unit and the input image An image similarity calculating unit that calculates an image similarity indicating a degree of similarity with the second image group, and a value of the geometric transformation parameter is determined based on the image similarity calculated by the image similarity calculating unit. And a collation unit.

また、本発明の画像処理装置において、前記画像処理手段は、前記固有値分解部で算出された複数の前記固有関数のうち、前記固有値の大きな順に、所定の数の前記固有関数を選択する固有関数選択部をさらに備え、前記第2の画像群生成部は、前記選択部で選択された複数の前記固有関数と前記第1の画像群との内積演算を施すことで、前記第2の画像群を生成する。   In the image processing apparatus of the present invention, the image processing means selects a predetermined number of the eigenfunctions in descending order of the eigenvalues from among the plurality of eigenfunctions calculated by the eigenvalue decomposition unit. The second image group generation unit further includes a selection unit, and the second image group generation unit performs an inner product operation of the plurality of eigenfunctions selected by the selection unit and the first image group. Is generated.

また、本発明の画像処理装置において、前記画像処理手段は、前記第2の画像群生成部で生成された第2の画像群の各画像のうち、前記固有値の大きな順に、所定の数の画像を選択する画像選択部をさらに備え、前記相関値ベクトル生成部は、前記画像選択部で選択された画像について、前記相関値ベクトルを生成する。   In the image processing apparatus of the present invention, the image processing means includes a predetermined number of images in descending order of the eigenvalues among the images of the second image group generated by the second image group generation unit. The correlation value vector generation unit generates the correlation value vector for the image selected by the image selection unit.

本発明によれば、複数のテンプレート画像を固有値分解することで得られた固有値分解テンプレート画像に基づいて算出される、画像の類似度を示す相関値を用いた画像照合技術において、精度を維持しながら、計算量を大幅に削減することができ処理速度の向上を図ることができる。   According to the present invention, the accuracy is maintained in the image matching technique using the correlation value indicating the similarity of images calculated based on the eigenvalue decomposition template image obtained by eigenvalue decomposition of a plurality of template images. However, the calculation amount can be significantly reduced, and the processing speed can be improved.

本発明の一実施形態に係る画像処理方法の概略の説明図。BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a schematic explanatory diagram of an image processing method according to an embodiment of the present invention. 本発明の一実施形態に係る画像処理方法の概略を示すフロー図。The flowchart which shows the outline of the image processing method which concerns on one Embodiment of this invention. 本発明の一実施形態に係る画像処理方法の説明図。Explanatory drawing of the image processing method which concerns on one Embodiment of this invention. 本発明の一実施形態に係る画像処理における位置の絞込みについての説明図。Explanatory drawing about the narrowing down of the position in the image processing which concerns on one Embodiment of this invention. 本発明の一実施形態に係る画像処理における相関波形を示す図。The figure which shows the correlation waveform in the image processing which concerns on one Embodiment of this invention. 本発明の一実施形態に係る画像処理における相関値ベクトルについての説明図。Explanatory drawing about the correlation value vector in the image processing which concerns on one Embodiment of this invention. 本発明の一実施形態に係る画像処理における相関値ベクトルと特徴ベクトルとの関係を示す図。The figure which shows the relationship between the correlation value vector and feature vector in the image processing which concerns on one Embodiment of this invention. 本発明の一実施形態に係る画像処理における方向角の絞込みについての説明図。Explanatory drawing about narrowing of the direction angle in the image processing which concerns on one Embodiment of this invention. 本発明の一実施形態に係る画像処理装置の構成を示す図。1 is a diagram illustrating a configuration of an image processing apparatus according to an embodiment of the present invention. 本発明の一実施形態に係る画像処理装置の制御ブロック図。1 is a control block diagram of an image processing apparatus according to an embodiment of the present invention. 本発明の一実施形態に係る画像処理装置の画像処理の説明図。Explanatory drawing of the image processing of the image processing apparatus which concerns on one Embodiment of this invention. 本発明の一実施形態の係る画像処理の処理手順の一例を示すフロー図。The flowchart which shows an example of the process sequence of the image process which concerns on one Embodiment of this invention. 本発明の一実施形態の係る画像処理の処理手順の一例を示すフロー図。The flowchart which shows an example of the process sequence of the image process which concerns on one Embodiment of this invention. 本発明の一実施形態の係る画像処理の処理手順の一例を示すフロー図。The flowchart which shows an example of the process sequence of the image process which concerns on one Embodiment of this invention. 本発明の実施例としての評価実験の結果を示す図。The figure which shows the result of the evaluation experiment as an Example of this invention. 本発明の実施例としての評価実験の結果を示す図。The figure which shows the result of the evaluation experiment as an Example of this invention.

本発明は、複数のテンプレート画像を固有値分解することで得られた固有値分解テンプレート画像に基づいて算出される、画像の類似度を示す相関値を用いることで、入力画像中に存在する対象物の幾何変換パラメータを推定するものである。そして、本発明は、入力画像と固有値分解テンプレート画像との照合を行うに際し、固有値分解テンプレート画像の畳込みの結果を利用し、入力画像において対象物が存在する領域(位置)の絞込みと、推定する幾何変換パラメータの値(方向角等)の範囲の絞込みとを行うことで、高速かつ高精度な照合を行おうとするものである。以下、本発明の実施の形態を説明する。   The present invention uses a correlation value indicating the degree of similarity of images calculated based on an eigenvalue decomposition template image obtained by eigenvalue decomposition of a plurality of template images. The geometric transformation parameter is estimated. The present invention uses the result of convolution of the eigenvalue decomposition template image when collating the input image with the eigenvalue decomposition template image, and narrows down and estimates the region (position) where the object exists in the input image. By narrowing down the range of geometric transformation parameter values (direction angle, etc.) to be performed, high-speed and high-precision collation is attempted. Embodiments of the present invention will be described below.

[画像処理方法の目的]
図1に示すように、本実施形態に係る画像処理方法は、照合の対象物の画像であるテンプレート画像1を用いた照合を行うことで、入力画像2に存在する照合の対象物の画像部分である対象画像部分3の幾何変換パラメータの値を決定する。ここで、幾何変換パラメータとしては、例えば、方向角および2次元座標値(XY座標値)が用いられる。
[Purpose of image processing method]
As shown in FIG. 1, the image processing method according to the present embodiment performs matching using a template image 1 that is an image of an object to be collated, so that the image portion of the object to be collated that exists in the input image 2. The value of the geometric transformation parameter of the target image portion 3 is determined. Here, as the geometric transformation parameter, for example, a direction angle and a two-dimensional coordinate value (XY coordinate value) are used.

すなわち、本実施形態の画像処理方法では、入力画像2に対して、テンプレート画像1の照合が行われることにより、テンプレート画像1の入力画像2に対する近似度合いである画像類似度が最も高くなる方向角および2次元座標値を求める処理が行われる。したがって、本実施形態の画像処理方法によれば、照合結果として、テンプレート画像1を基準とする入力画像2中の対象画像部分3の方向角および2次元座標値が求められる。   That is, in the image processing method of the present embodiment, the template image 1 is collated with respect to the input image 2, whereby the direction angle at which the image similarity, which is the degree of approximation of the template image 1 with respect to the input image 2, is the highest. And the process which calculates | requires a two-dimensional coordinate value is performed. Therefore, according to the image processing method of the present embodiment, the direction angle and the two-dimensional coordinate value of the target image portion 3 in the input image 2 with the template image 1 as a reference are obtained as a matching result.

具体的には、図1に示すように、照合結果に含まれる方向角としては、例えば、テンプレート画像1の方向角を示す基準線O1に対する、対象画像部分3の傾き(回転角度)θが求められる。また、照合結果に含まれる2次元座標値としては、例えば、入力画像2における所定の位置(図1に示す例では、入力画像2の左上の角の位置)を原点O2とした場合の対象画像部分3の中心位置C1の2次元座標値(XY座標値)が求められる。   Specifically, as shown in FIG. 1, as the direction angle included in the collation result, for example, the inclination (rotation angle) θ of the target image portion 3 with respect to the reference line O1 indicating the direction angle of the template image 1 is obtained. It is done. As the two-dimensional coordinate value included in the collation result, for example, a target image when a predetermined position in the input image 2 (in the example illustrated in FIG. 1, the position of the upper left corner of the input image 2) is the origin O2. A two-dimensional coordinate value (XY coordinate value) of the center position C1 of the portion 3 is obtained.

本実施形態の画像処理方法は、例えば、部品の検査等を行うための産業用の画像処理に用いられる。このため、本実施形態の画像処理方法において、テンプレート画像1は、例えば、検査対象となる部品と同じ部品がカメラ等の撮像手段によって撮像されることにより取得され、予め準備される。入力画像2は、例えば、部品の検査においては、検査対象となる部品をカメラ等の撮像手段によって撮像することにより取得され、テンプレート画像1の照合の対象となる。以下では、本実施形態の画像処理方法の具体的な処理内容について説明する。   The image processing method according to the present embodiment is used, for example, for industrial image processing for inspecting components and the like. For this reason, in the image processing method of the present embodiment, the template image 1 is acquired and prepared in advance by, for example, imaging the same component as the component to be inspected by an imaging unit such as a camera. For example, in the inspection of a component, the input image 2 is acquired by imaging a component to be inspected by an imaging unit such as a camera, and is a target for collation of the template image 1. Below, the specific processing content of the image processing method of this embodiment is demonstrated.

[画像処理方法の概略]
本実施形態の画像処理方法の概略について、図2に示すフロー図を用いて説明する。図2に示すように、本実施形態の画像処理では、まず、テンプレート画像1の入力が行われる(S10)。ここでは、上述したようにカメラ等の撮像手段によって取得されて予め準備されたテンプレート画像1が、本実施形態の画像処理方法を実行するコンピュータ等の演算装置に入力される。
[Outline of image processing method]
The outline of the image processing method of this embodiment will be described with reference to the flowchart shown in FIG. As shown in FIG. 2, in the image processing of this embodiment, first, the template image 1 is input (S10). Here, as described above, the template image 1 acquired by the imaging means such as a camera and prepared in advance is input to an arithmetic device such as a computer that executes the image processing method of the present embodiment.

次に、固有値分解テンプレート画像の生成が行われる(S20)。ここで、固有値分解テンプレート画像とは、上記のとおり入力されたテンプレート画像1に幾何変換を施し、その幾何変換後のテンプレート画像に固有値分解を施すことで得られる固有関数と、幾何変換後のテンプレート画像とから得られる画像である。   Next, an eigenvalue decomposition template image is generated (S20). Here, the eigenvalue decomposition template image is an eigenfunction obtained by performing geometric transformation on the template image 1 input as described above, and performing eigenvalue decomposition on the template image after the geometric transformation, and a template after geometric transformation. It is an image obtained from the image.

次に、辞書の生成が行われる(S30)。ここで、辞書とは、上述した固有値分解テンプレート画像と入力画像2との照合によって、幾何変換後のテンプレート画像の各画像に対応して得られるベクトル群である。   Next, a dictionary is generated (S30). Here, the dictionary is a group of vectors obtained corresponding to each image of the template image after geometric transformation by collating the eigenvalue decomposition template image and the input image 2 described above.

次に、入力画像2の入力が行われる(S40)。ここでは、上述したように例えば検査対象となる部品がカメラ等の撮像手段によって撮像することにより取得された入力画像2が、コンピュータ等の演算装置に入力される。   Next, the input image 2 is input (S40). Here, as described above, for example, the input image 2 acquired by imaging a part to be inspected by an imaging unit such as a camera is input to an arithmetic device such as a computer.

続いて、3段階の絞込みをともなう画像照合が行われる(S50)。この画像照合の過程で行われる絞込みには、入力画像2において対象物が存在する領域、つまり対象画像部分3を含む画像領域を推定することによる、処理対象となる画素の絞込みと、決定する幾何変換パラメータの値の範囲の絞込みとが含まれる。この画像照合の結果として、入力画像2についての方向角と2次元座標値(XY座標値)とが検出される。   Subsequently, image collation with three stages of narrowing is performed (S50). The narrowing performed in the process of image collation includes narrowing down pixels to be processed by estimating a region where an object exists in the input image 2, that is, an image region including the target image portion 3, and a geometry to be determined. And narrowing down the range of values of conversion parameters. As a result of this image collation, a direction angle and a two-dimensional coordinate value (XY coordinate value) for the input image 2 are detected.

そして、ステップS50における画像照合の結果に基づき、入力画像2についての方向角および2次元座標値が、それぞれ検出姿勢および検出位置として出力される(S60)。このように、本実施形態の画像処理方法では、決定すべき幾何変換パラメータとして、入力画像2についての方向角および2次元座標値が採用される。以下では、本実施形態の画像処理方法の詳細な処理内容について説明する。   Then, based on the result of the image collation in step S50, the direction angle and the two-dimensional coordinate value for the input image 2 are output as the detected posture and the detected position, respectively (S60). Thus, in the image processing method of the present embodiment, the directional angle and the two-dimensional coordinate value for the input image 2 are adopted as the geometric transformation parameters to be determined. Hereinafter, detailed processing contents of the image processing method of the present embodiment will be described.

[画像処理方法の詳細]
本実施形態の画像処理方法においては、テンプレート画像1に幾何変換を加えて第1の画像群としての変換後テンプレート画像群を生成する処理が行われる。つまり、変換後テンプレート画像群は、幾何変換後のテンプレート画像1(以下「変換後テンプレート画像」という。)、言い換えるとテンプレート画像1に幾何変換を加えたものからなる画像群である。テンプレート画像1に加えられる幾何変換としては、例えば、方向角を変化させる回転や、2次元座標値を変化させる平行移動が行われる。
[Details of image processing method]
In the image processing method of the present embodiment, a process of generating a converted template image group as a first image group by applying geometric transformation to the template image 1 is performed. In other words, the post-conversion template image group is a template image 1 after geometric transformation (hereinafter referred to as “post-conversion template image”), in other words, an image group formed by adding geometric transformation to the template image 1. As the geometric transformation applied to the template image 1, for example, rotation for changing the direction angle and parallel movement for changing the two-dimensional coordinate value are performed.

具体的には、テンプレート画像1に加える幾何変換として、方向角を変化させる回転が行われる場合、例えば、テンプレート画像1を1°ピッチで回転させることで、変換後テンプレート画像群を生成する処理が行われる。この処理によれば、方向角が1°ピッチで異なる360枚の変換後テンプレート画像が生成され、この360枚の変換後テンプレート画像が、変換後テンプレート画像群として得られる。   Specifically, when a rotation that changes the direction angle is performed as the geometric transformation applied to the template image 1, for example, a process of generating a template image group after conversion by rotating the template image 1 at a 1 ° pitch. Done. According to this process, 360 converted template images having different directional angles at a 1 ° pitch are generated, and the 360 converted template images are obtained as a converted template image group.

また、テンプレート画像1に加える幾何変換として、2次元座標値を変化させる平行移動が行われる場合、例えば、テンプレート画像1が128×128(ピクセル)の場合において、テンプレート画像1の中心位置(中心の2次元座標値)を8×8(ピクセル)の範囲で1(ピクセル)ピッチで平行移動させることで、変換後テンプレート画像群を生成する処理が行われる。この処理によれば、中心位置(中心の2次元座標値)が1(ピクセル)ピッチで異なる64枚の変換後テンプレート画像が生成され、この64枚の変換後テンプレート画像が、変換後テンプレート画像群として得られる。   Further, as a geometric transformation to be added to the template image 1, when a parallel movement that changes a two-dimensional coordinate value is performed, for example, when the template image 1 is 128 × 128 (pixels), A process of generating a post-conversion template image group is performed by translating the two-dimensional coordinate value) within a range of 8 × 8 (pixels) at a 1 (pixel) pitch. According to this process, 64 converted template images having different center positions (center two-dimensional coordinate values) at 1 (pixel) pitch are generated, and the 64 converted template images are converted into a group of converted template images. As obtained.

このように、本実施形態の画像処理方法においては、テンプレート画像1に幾何変換を加えることで、幾何変換の量が異なる複数の変換後テンプレート画像からなる変換後テンプレート画像群を生成する第1の画像群生成ステップが行われる。ここで、幾何変換の量は、幾何変換が方向角の場合、テンプレート画像1の方向角を基準とした画像の回転量に対応し、幾何変換が2次元座標値の場合、テンプレート画像1の2次元座標値を基準とした画像の平行移動量に対応する。したがって、幾何変換の量は、幾何変換パラメータの値の大きさに対応する。   As described above, in the image processing method according to the present embodiment, by applying geometric transformation to the template image 1, the first template image group including a plurality of transformed template images having different geometric transformation amounts is generated. An image group generation step is performed. Here, the amount of geometric transformation corresponds to the rotation amount of the image with reference to the direction angle of the template image 1 when the geometric transformation is a direction angle, and 2 of the template image 1 when the geometric transformation is a two-dimensional coordinate value. This corresponds to the amount of parallel movement of the image based on the dimensional coordinate value. Therefore, the amount of geometric transformation corresponds to the magnitude of the value of the geometric transformation parameter.

なお、テンプレート画像1に加える幾何変換としては、方向角および2次元座標値のほか、例えば、画像の歪み、ぼけの量、焦点深度、台形歪み等の画像歪み等であってもよい。また、テンプレート画像1に加える幾何変換としては、前記のような幾何変換のいずれか一つが用いられる場合に限らず、複数の幾何変換が組み合わせて用いられてもよい。   The geometric transformation applied to the template image 1 may be, for example, image distortion such as image distortion, blur amount, depth of focus, trapezoidal distortion, etc. in addition to the direction angle and the two-dimensional coordinate value. The geometric transformation applied to the template image 1 is not limited to the case where any one of the geometric transformations as described above is used, and a plurality of geometric transformations may be used in combination.

本実施形態の画像処理方法においては、変換後テンプレート画像群に固有値分解を施して固有値および固有関数を算出する処理が行われる。ここでは、変換後テンプレート画像群を構成する変換後テンプレート画像と同数の固有値および固有関数が算出される。   In the image processing method of the present embodiment, a process for calculating eigenvalues and eigenfunctions by performing eigenvalue decomposition on the converted template image group is performed. Here, the same number of eigenvalues and eigenfunctions as the number of converted template images constituting the converted template image group are calculated.

したがって、上述したように、テンプレート画像1に加える幾何変換として方向角が用いられ、360枚の変換後テンプレート画像からなる変換後テンプレート画像群が生成される場合、その360枚の画像からなる変換後テンプレート画像群に対して固有値分解が行われ、360個の固有値および固有関数が得られる。また、テンプレート画像1に加える幾何変換として2次元座標値が用いられ、64枚の変換後テンプレート画像からなる変換後テンプレート画像群が生成される場合、その64枚の画像からなる変換後テンプレート画像群に対して固有値分解が行われ、64個の固有値および固有関数が得られる。   Therefore, as described above, when the direction angle is used as the geometric transformation applied to the template image 1 and a post-conversion template image group including 360 post-conversion template images is generated, the post-conversion unit consisting of the 360 images is generated. Eigenvalue decomposition is performed on the template image group, and 360 eigenvalues and eigenfunctions are obtained. Further, when a two-dimensional coordinate value is used as a geometric transformation applied to the template image 1 and a converted template image group including 64 converted template images is generated, the converted template image group including the 64 images. Is subjected to eigenvalue decomposition, and 64 eigenvalues and eigenfunctions are obtained.

固有値分解を施すことで算出される固有関数としては、例えば、図3に示すように、波形p1〜p3で表わされる固有関数φ(θ)〜φ(θ)が得られる。これらの固有関数群は、主成固有関数群と言える。波形p1〜p3を示す各グラフにおいて、横軸はテンプレート画像1を基準とする方向角(θ)を示し、縦軸は固有関数値を示す。波形p1〜p3に示すように、固有関数として得られる波形は、方向角について固有関数値が連続的に存在する連続波形である。 As eigenfunctions calculated by performing eigenvalue decomposition, eigenfunctions φ 1 (θ) to φ 3 (θ) represented by waveforms p1 to p3 are obtained, for example, as shown in FIG. These eigenfunction groups can be said to be main eigenfunction groups. In each graph showing the waveforms p1 to p3, the horizontal axis represents the direction angle (θ) with reference to the template image 1, and the vertical axis represents the eigenfunction value. As shown in the waveforms p1 to p3, the waveform obtained as the eigenfunction is a continuous waveform in which eigenfunction values continuously exist with respect to the direction angle.

固有関数においては、図3の波形p1〜p3に示すように、方向角の変化にともなって固有関数値が周期的に変動する。これらの固有関数は、本実施形態の画像処理方法において、後述する相関値(r)が掛け合わせられることで、画像類似度を表す関数(P(θ))として算出される。 In the eigenfunction, as shown by the waveforms p1 to p3 in FIG. 3, the eigenfunction value periodically fluctuates as the direction angle changes. These eigenfunctions are calculated as functions (P n (θ)) representing image similarity by multiplying correlation values (r n ) described later in the image processing method of the present embodiment.

このように、本実施形態の画像処理方法においては、第1の画像群生成ステップの後に、変換後テンプレート画像群に固有値分解を施すことで、複数の変換後テンプレート画像と同数の固有値および固有関数を算出する固有値分解ステップが行われる。   As described above, in the image processing method of the present embodiment, after the first image group generation step, eigenvalue decomposition is performed on the converted template image group, so that the same number of eigenvalues and eigenfunctions as the plurality of converted template images are obtained. An eigenvalue decomposition step for calculating is performed.

本実施形態の画像処理方法においては、上記のとおり算出された複数の固有関数と変換後テンプレート画像群とを内積演算して新たな画像群を生成する処理が行われる。ここで生成される新たな画像群が、本実施形態での第2の画像群に相当する。以下の説明では、ここで生成される新たな画像群を「固有値分解テンプレート画像群」という。   In the image processing method of the present embodiment, a process for generating a new image group by performing an inner product operation on the plurality of eigenfunctions calculated as described above and the converted template image group is performed. The new image group generated here corresponds to the second image group in the present embodiment. In the following description, the new image group generated here is referred to as “eigenvalue decomposition template image group”.

固有値分解テンプレート画像群としては、例えば、図3において固有値分解テンプレート画像E1〜E3に示すような複数の画像が得られる。各固有値分解テンプレート画像E1〜E3は、固有関数を表す各波形p1〜p3にそれぞれ対応する。   As the eigenvalue decomposition template image group, for example, a plurality of images as shown in eigenvalue decomposition template images E1 to E3 in FIG. 3 are obtained. Each eigenvalue decomposition template image E1 to E3 corresponds to each waveform p1 to p3 representing an eigenfunction.

このように、本実施形態の画像処理方法においては、固有値分解ステップの後に、複数の固有関数と変換後テンプレート画像群との内積演算を施すことで、固有値分解テンプレート画像群を生成する第2の画像群生成ステップが行われる。   As described above, in the image processing method of the present embodiment, the eigenvalue decomposition template image group is generated by performing the inner product operation of the plurality of eigenfunctions and the converted template image group after the eigenvalue decomposition step. An image group generation step is performed.

本実施形態の画像処理方法においては、入力画像2について、固有値分解テンプレート画像群に対する画像類似度を算出する処理が行われる。   In the image processing method of the present embodiment, processing for calculating the image similarity with respect to the eigenvalue decomposition template image group is performed for the input image 2.

画像類似度の算出の原理について説明する。なお、ここでは、上述した第1の画像群生成ステップでテンプレート画像1に加えられる幾何変換が方向角であるとして説明する。   The principle of calculating the image similarity will be described. Here, the description will be made assuming that the geometric transformation applied to the template image 1 in the first image group generation step described above is a direction angle.

テンプレート画像1をT(x,y)、入力画像2をf(x,y)、テンプレート画像T(x,y)をθ回転させた画像、つまり変換後テンプレート画像をT(x,y;θ)でそれぞれ表すとすると、テンプレート画像1と入力画像2との画像類似度g(θ)は、次式(1)により計算される。なお各画像を表すx,yは、画像におけるピクセルの2次元座標値を示す。   The template image 1 is T (x, y), the input image 2 is f (x, y), and the template image T (x, y) is rotated by θ, that is, the converted template image is T (x, y; θ ), The image similarity g (θ) between the template image 1 and the input image 2 is calculated by the following equation (1). Note that x and y representing each image indicate two-dimensional coordinate values of pixels in the image.

g(θ)をθ方向に沿って固有関数列φ(θ),(n=0,1,2,・・・)で展開を行うと、次式(2)となる。 When g (θ) is expanded with the eigenfunction sequence φ n (θ), (n = 0, 1, 2,...) along the θ direction, the following equation (2) is obtained.

上記式(2)の積分演算の順序を交換して次式(3)が得られる。   The following equation (3) is obtained by exchanging the order of the integral operation of the above equation (2).

ここで、次式(4)として定義するE(x,y)は、変換後テンプレート画像T(x,y;θ)と固有関数φ(θ)との内積で計算される画像、つまり固有値分解テンプレート画像となる。 Here, E n (x, y) defined as the following equation (4) is an image calculated by the inner product of the converted template image T (x, y; θ) and the eigenfunction φ n (θ), that is, It becomes an eigenvalue decomposition template image.

上記式(4)で表わされる画像は、入力画像f(x,y)と分離して計算することができる。したがって、事前にE(x,y)を計算しておくことで、その後、入力画像f(x,y)が与えられることにより、E(x,y)との照合結果から、全方向角の画像類似度(g(θ))を計算することができる。 The image represented by the above equation (4) can be calculated separately from the input image f (x, y). Therefore, by calculating E n (x, y) in advance, the input image f (x, y) is given thereafter, and from the result of matching with E n (x, y), all directions The corner image similarity (g (θ)) can be calculated.

全方向角の画像類似度(g(θ))としては、例えば、図3に示すように、波形p1〜p3で表わされる固有関数φ(θ)〜φ(θ)が所定の比率で足し合わせることで得られる波形qsが算出される。波形qsに示すように、全方向角の画像類似度(g(θ))として得られる波形は、方向角について画像類似度が連続的に存在する連続波形(連続曲線)である。つまり、画像類似度(g(θ))は、方向角(θ)方向についての画像類似度の分布を表す。 As the image similarity (g (θ)) of omnidirectional angles, for example, as shown in FIG. 3, eigenfunctions φ 1 (θ) to φ 3 (θ) represented by waveforms p1 to p3 are at a predetermined ratio. A waveform qs obtained by adding together is calculated. As shown in the waveform qs, the waveform obtained as the image similarity (g (θ)) for all directional angles is a continuous waveform (continuous curve) in which the image similarity is continuously present for the directional angles. That is, the image similarity (g (θ)) represents the distribution of the image similarity in the direction angle (θ) direction.

画像類似度(g(θ))は、具体的には次のようにして算出される。図3に示す例では、固有関数φ(θ)〜φ(θ)には、それぞれ相関値r〜rが掛け合わされる。固有関数φ(θ)〜φ(θ)に相関値r〜rが掛け合わされることで、画像類似度を表す関数P(θ)〜P(θ)が算出される。図3に示すように、関数P(θ)〜P(θ)は、固有関数φ(θ)〜φ(θ)としての波形p1〜p3が所定の比率で表された波形q1〜q3により表され、この所定の比率が、相関値r〜rに相当する。関数P(θ)〜P(θ)を表す波形q1〜q3を示す各グラフにおいて、横軸はテンプレート画像1を基準とする方向角(θ)を示し、縦軸は画像類似度を示す。そして、関数P(θ)〜P(θ)が足し合わされることで、波形qsで表される画像類似度(g(θ))が算出される。ここで、相関値rは、固有値分解テンプレート画像群の各固有値分解テンプレート画像との相関を表す所定の実数であり、入力画像2の場合は、固有値分解テンプレート画像群の各固有値分解テンプレート画像と入力画像2との相関を表す所定の実数であり、次式(5)として定義される。 Specifically, the image similarity (g (θ)) is calculated as follows. In the example shown in FIG. 3, the eigenfunctions φ 1 (θ) to φ 3 (θ) are multiplied by correlation values r 1 to r 3 , respectively. By multiplying eigenfunctions φ 1 (θ) to φ 3 (θ) by correlation values r 1 to r 3 , functions P 1 (θ) to P 3 (θ) representing image similarity are calculated. As shown in FIG. 3, the functions P 1 (θ) to P 3 (θ) are waveforms q1 in which waveforms p1 to p3 as eigenfunctions φ 1 (θ) to φ 3 (θ) are represented at a predetermined ratio. This predetermined ratio corresponds to the correlation values r 1 to r 3 . In each graph showing the waveforms q1 to q3 representing the functions P 1 (θ) to P 3 (θ), the horizontal axis indicates the direction angle (θ) with reference to the template image 1, and the vertical axis indicates the image similarity. . Then, by adding the functions P 1 (θ) to P 3 (θ), the image similarity (g (θ)) represented by the waveform qs is calculated. Here, the correlation value r n, a predetermined real number representing the correlation between each eigenvalue decomposition template image eigenvalue decomposition template images, if the input image 2, and the eigenvalue decomposition template image eigenvalue decomposition template images This is a predetermined real number representing the correlation with the input image 2 and is defined as the following equation (5).

このように、相関値rは、f(x,y)で表される入力画像2と、上記式(4)で表される固有値分解テンプレート画像群との内積値となる。したがって、上記式(3)および式(5)から、画像類似度(g(θ))は、次式(6)により表わされる。
g(θ)=Σr×φ(θ) ・・・(6)
Thus, the correlation value r n, f (x, y) and the input image 2 represented by, the inner product value of the eigenvalue decomposition template image group represented by the formula (4). Therefore, from the above equations (3) and (5), the image similarity (g (θ)) is expressed by the following equation (6).
g (θ) = Σr n × φ n (θ) (6)

以上のように、本実施形態の画像処理方法においては、連続曲線で表され入力画像2と固有値分解テンプレート画像群との類似度合いを示す画像類似度を算出する処理が行われる。また、画像類似度の算出に用いられる相関値rは、入力画像2についての各固有値分解テンプレート画像に対する「応答値」ということができる。本明細書では、固有値分解テンプレート画像群と入力画像2とから相関値rを算出することを「畳込み」といい、相関値rを算出するための演算を「畳込み演算」という。 As described above, in the image processing method of the present embodiment, a process of calculating an image similarity that is represented by a continuous curve and indicates the similarity between the input image 2 and the eigenvalue decomposition template image group is performed. Further, the correlation value r n used to calculate the image similarity may be referred to as "response value" for each eigenvalue decomposition template image for the input image 2. In this specification, to calculate a correlation value r n from the input image 2 which eigenvalue decomposition template image group called "convolution", the operation for calculating the correlation value r n of "convolution".

そして、本実施形態の画像処理方法では、上記のとおり算出された画像類似度(g(θ))に基づいて、テンプレート画像1を基準とする入力画像2の幾何変換パラメータの値(実数値)を決定する処理が行われる。つまり、この処理では、テンプレート画像1と入力画像2との照合が、上記のとおり算出された画像類似度(g(θ))の値を指標として行われる。   In the image processing method according to the present embodiment, based on the image similarity (g (θ)) calculated as described above, the value (real value) of the geometric transformation parameter of the input image 2 based on the template image 1. The process of determining is performed. That is, in this process, the template image 1 and the input image 2 are collated using the image similarity (g (θ)) value calculated as described above as an index.

具体的には、図3に示すように、画像類似度(g(θ))である波形qsにおいて、画像類似度が最大となる方向角θaが、テンプレート画像1を基準とする入力画像2の幾何変換パラメータの値として決定される。つまり、本実施形態の画像処理方法の照合結果として、テンプレート画像1を基準とする入力画像2の方向角が、方向角θaとして算出される。   Specifically, as shown in FIG. 3, in the waveform qs that is the image similarity (g (θ)), the direction angle θa that maximizes the image similarity is that of the input image 2 based on the template image 1. It is determined as the value of the geometric transformation parameter. That is, the direction angle of the input image 2 based on the template image 1 is calculated as the direction angle θa as a collation result of the image processing method of the present embodiment.

ここで、照合結果として得られた方向角θaは、テンプレート画像1の方向角を基準(0°)とした場合における画像の回転角度に対応する。つまり、この場合、テンプレート画像1が360°回転する範囲において、角度θa回転させられた状態のテンプレート画像1が、入力画像2との関係において画像類似度が最も高くなる。   Here, the direction angle θa obtained as a matching result corresponds to the rotation angle of the image when the direction angle of the template image 1 is set as a reference (0 °). That is, in this case, in the range in which the template image 1 is rotated by 360 °, the template image 1 in the state rotated by the angle θa has the highest image similarity in relation to the input image 2.

また、本実施形態の画像処理方法においては、上述したように変換後テンプレート画像群に固有値分解を施す固有値分解ステップの後に、固有値分解ステップで算出された複数の固有関数のうち、固有値の大きな順に、所定の数の固有関数を選択する固有関数選択ステップが行われる。   Further, in the image processing method of the present embodiment, after the eigenvalue decomposition step for performing eigenvalue decomposition on the post-conversion template image group as described above, among the plurality of eigenfunctions calculated in the eigenvalue decomposition step, the eigenvalues are in descending order. The eigenfunction selection step of selecting a predetermined number of eigenfunctions is performed.

本実施形態の画像処理方法においては、固有値分解ステップにおいて、複数の変換後テンプレート画像と同数の固有値および固有関数が算出される。つまり、上記のとおり1°ピッチの回転がテンプレート画像1に対して幾何変換として加えられることで360枚の変換後テンプレート画像が得られる場合、360個の固有値および固有関数が算出される。この場合、固有値分解テンプレート画像群の生成に際して全ての固有関数が用いられると、固有値分解テンプレート画像群は、360枚の固有値分解テンプレート画像となる。   In the image processing method of the present embodiment, the same number of eigenvalues and eigenfunctions as the plurality of post-conversion template images are calculated in the eigenvalue decomposition step. That is, as described above, when 360 converted template images are obtained by applying a rotation of 1 ° pitch as geometric transformation to the template image 1, 360 eigenvalues and eigenfunctions are calculated. In this case, when all eigenfunctions are used in generating the eigenvalue decomposition template image group, the eigenvalue decomposition template image group becomes 360 eigenvalue decomposition template images.

そこで、固有値分解ステップで算出された変換後テンプレート画像と同数の固有関数のうち、所定の数の固有関数が選択される。そして、固有関数の選択は、固有値が大きい方から行われる。つまり、固有関数選択ステップにおいては、固有値分解ステップで算出された複数の固有関数のうち、固有値が大きい側から所定の数だけ選択される。したがって、例えば、上記のとおり360個の固有関数が算出される場合、そのうち固有値が大きい側の60個の固有関数が選択される。このことは、固有値が大きい固有関数ほど、最終的に算出される、入力画像2と固有値分解テンプレート画像群との画像類似度に対する影響が大きい(寄与度が高い)ことに基づく。   Therefore, a predetermined number of eigenfunctions are selected from the same number of eigenfunctions as the converted template images calculated in the eigenvalue decomposition step. The selection of the eigenfunction is performed from the one with the larger eigenvalue. That is, in the eigenfunction selection step, a predetermined number of eigenfunctions calculated in the eigenvalue decomposition step are selected from the larger eigenvalue side. Therefore, for example, when 360 eigenfunctions are calculated as described above, 60 eigenfunctions with larger eigenvalues are selected. This is based on the fact that the eigenfunction having a larger eigenvalue has a greater influence (higher contribution) on the image similarity between the input image 2 and the eigenvalue decomposition template image group that is finally calculated.

このような固有関数選択ステップが行われる場合、上述した第2の画像群生成ステップにおいては、固有関数選択ステップで選択された複数の固有関数と変換後テンプレート画像群との内積演算が施されることで、固有値分解テンプレート画像群が生成される。つまり、固有関数選択ステップによれば、固有値分解ステップで算出された複数の固有関数のうち、固有値が大きい側の一部の固有関数が用いられて、固有値分解テンプレート画像群の生成が行われる。   When such an eigenfunction selection step is performed, in the second image group generation step described above, an inner product operation of the plurality of eigenfunctions selected in the eigenfunction selection step and the converted template image group is performed. Thus, an eigenvalue decomposition template image group is generated. That is, according to the eigenfunction selection step, the eigenvalue decomposition template image group is generated by using a part of the eigenvalues calculated in the eigenvalue decomposition step and using some eigenfunctions on the side having the larger eigenvalue.

このような固有関数選択ステップは、具体的には、上記式(3)において、級数を所定の数で打ち切り近似することに対応する。ここで、式(3)の級数をM個で打ち切り近似する場合、式(3)は、次式(7)で表わされる。   Specifically, the eigenfunction selection step corresponds to approximating the series with a predetermined number in the above equation (3). Here, when the series of Expression (3) is approximated by M truncation, Expression (3) is expressed by the following Expression (7).

このとき、少ない次数Mでg(θ)を近似することができる固有関数列φ(θ)を選ぶことにより、全方向角での画像類似度が、M枚の画像E(x,y)との照合により計算することができる。そして、固有関数列φ(θ)の選び方として、変換後テンプレート画像列T(x,y;θ)の固有値λおよび固有関数φ(θ)を算出し、固有値の大きな順から、M個の固有関数を選ぶ。 At this time, by selecting an eigenfunction sequence φ n (θ) that can approximate g (θ) with a small order M, the image similarity at all angles is M images E n (x, y ). Then, as a method of selecting the eigenfunction sequence φ n (θ), the eigenvalue λ n and the eigenfunction φ n (θ) of the post-conversion template image sequence T (x, y; θ) are calculated. Select eigenfunctions.

具体的には、θ={θ,θ,・・・,θ}と離散化して得られるベクトルφ、テンプレート画像T(x,y)=T(x,y;θ)として、次式(8)の行列固有値問題を解くことで、固有ベクトルφおよび固有値λが得られる。
Cφ=λφ ・・・(8)
Specifically, θ = {θ 1 , θ 2 ,..., Θ N } and vector φ n obtained by discretization, template image T i (x, y) = T (x, y; θ i ) Then, eigenvector φ n and eigenvalue λ n can be obtained by solving the matrix eigenvalue problem of the following equation (8).
n = λ n φ n (8)

ここで、行列Cは、i行j番目の要素を、次式(9)とする共分散行列である。   Here, the matrix C is a covariance matrix in which the i-th and j-th elements are represented by the following equation (9).

式(9)において、μは、T(x,y)の平均濃度値である。本固有ベクトルを用いて得られる画像E(x,y)が、固有値分解テンプレート画像に相当する。 In Expression (9), μ i is an average density value of T i (x, y). An image E n (x, y) obtained using this eigenvector corresponds to an eigenvalue decomposition template image.

以上のような各処理を行う画像処理方法においては、図3に示す波形qsで表されるような画像類似度(g(θ))の算出が、入力画像2の全画素について、かつ、全方向角(全姿勢)について行われた場合、計算量が膨大となり、実用化に際して処理時間の面で問題がある。   In the image processing method for performing each processing as described above, the calculation of the image similarity (g (θ)) represented by the waveform qs shown in FIG. When it is performed for directional angles (all postures), the amount of calculation becomes enormous, and there is a problem in terms of processing time in practical use.

具体的には、全方向角についての画像類似度(g(θ))の算出を行う場合、入力画像2の1画素に対して、変換後テンプレート画像の枚数をN、上述したような級数の打ち切りにおける近似次数をMとした場合、N×M回の演算が必要となる。したがって、例えば、変換後テンプレート画像の枚数N=360、入力画像2の画素数が512×512(ピクセル)、近似次数M=60の場合、入力画像2の全画素について、かつ、全方向角(全姿勢)について画像類似度(g(θ))の算出が行われる場合、360×60×512×512=5,662,310,400(回)、つまり約60億回の演算が必要となる。   Specifically, when calculating the image similarity (g (θ)) for the omnidirectional angle, the number of converted template images is N for one pixel of the input image 2 and the above series is obtained. When the approximate order in the truncation is M, N × M operations are required. Therefore, for example, when the number N of converted template images N = 360, the number of pixels of the input image 2 is 512 × 512 (pixels), and the approximate order M = 60, the omnidirectional angle ( When image similarity (g (θ)) is calculated for all orientations, 360 × 60 × 512 × 512 = 5,662,310,400 (times), that is, about 6 billion operations are required. .

そこで、本実施形態の画像処理方法では、入力画像2についての画像の照合を行うに際し、畳込みの結果としての相関値を利用し、決定すべき幾何変換パラメータについて、入力画像2において対象画像部分3が存在する領域(画素)の絞込み、つまり位置(2次元座標値)の絞込みと、姿勢(方向角)の絞込みとを行う。このように、本実施形態の画像処理方法では、位置(2次元座標値)に関しては、入力画像2の画素のうち、対象画像部分3が存在する見込みのない画素についてはそもそも演算処理の対象とはせず、また、姿勢(方向角)に関しては、おおよそのθの値を推定後、その値の範囲内について、詳細な演算を行うことで、幾何変換パラメータについての粗密探索を行う。   Therefore, in the image processing method of the present embodiment, when collating images for the input image 2, the correlation value as a result of convolution is used to determine the geometric transformation parameter to be determined. 3 is narrowed down, that is, the position (two-dimensional coordinate value) is narrowed down and the posture (direction angle) is narrowed down. As described above, in the image processing method according to the present embodiment, regarding the position (two-dimensional coordinate value), among the pixels of the input image 2, a pixel that is not expected to have the target image portion 3 is regarded as a target of calculation processing in the first place. In addition, regarding the posture (direction angle), after estimating an approximate value of θ, a detailed calculation is performed on the range of the value to perform a coarse / fine search for the geometric transformation parameter.

まず、上述した絞込みのうち、位置(2次元座標値)の絞込みについて説明する。入力画像2において、テンプレート画像1とのマッチングの度合いが高い部分は、最も低い次数である0次の固有値分解テンプレート画像の応答値である相関値も高い。ここでの相関値は、入力画像2の各画素について、固有値分解テンプレート画像群の各固有値分解テンプレート画像との相関を表す値として算出されるものである。   First, of the above-described narrowing, the narrowing of positions (two-dimensional coordinate values) will be described. In the input image 2, a portion having a high degree of matching with the template image 1 has a high correlation value that is a response value of the zeroth-order eigenvalue decomposition template image that is the lowest order. The correlation value here is calculated as a value representing the correlation between each pixel of the input image 2 and each eigenvalue decomposition template image of the eigenvalue decomposition template image group.

そこで、図4に示すように、対象画像部分3を有する入力画像2と、最低次数画像である0次の固有値分解テンプレート画像4との照合として畳込みが行われ、入力画像2の各画素について、最低次数画像についての相関値である0次の相関値rの算出が行われる。具体的には、上記式(5)により、畳込み演算が行われ、0次の相関値rが求められる。 Therefore, as shown in FIG. 4, convolution is performed as a comparison between the input image 2 having the target image portion 3 and the zeroth-order eigenvalue decomposition template image 4 which is the lowest-order image, and each pixel of the input image 2 is checked. , calculation of the correlation value r 0 of the zero-order is a correlation value for the lowest order image. Specifically, a convolution operation is performed by the above equation (5), and a zero-order correlation value r 0 is obtained.

図4には、この入力画像2と0次の固有値分解テンプレート画像4との畳込みの結果として得られる0次相関画像5が示されている。0次相関画像5は、入力画像2の各画素に対応する画素ついての0次の応答値、つまり0次の相関値rの大小を色の濃淡で表したものである。図4に示す例では、0次相関画像5において、相関値rが大きい画素ほど薄い色で示されている。したがって、図4において符号「5a」で示す白い部分が、相関値rが比較的大きい部分であって、対象画像部分3が存在する部分であると判断することが可能となる。 FIG. 4 shows a 0th-order correlation image 5 obtained as a result of convolution of the input image 2 and the 0th-order eigenvalue decomposition template image 4. 0-order correlation image 5, 0-order response value with the pixel corresponding to each pixel of the input image 2, i.e. illustrates a zero-order magnitude of correlation value r 0 in color density. In the example shown in FIG. 4, in the 0th-order correlation image 5, pixels with a larger correlation value r 0 are shown in lighter colors. Accordingly, it is possible to determine that the white portion indicated by reference numeral “5a” in FIG. 4 is a portion having a relatively large correlation value r 0 and a portion where the target image portion 3 exists.

そこで、位置の絞込みでは、0次の相関値rについて所定の閾値を予め設定し、入力画像2の画素のうち、算出された0次の相関値rが所定の閾値以上の画素を、上述したような画像類似度(g(θ))の算出処理等の処理対象とする。すなわち、入力画像2の画素に関し、所定の閾値をArとした場合、0次の相関値r≧Arとなる画素については、画像類似度(g(θ))の算出処理等の処理対象とし、それ以外の画素、つまり0次の相関値r<Arとなる画素については、処理対象から除外する。所定の閾値Arの値は、例えば30等である。 Therefore, in the narrowing down position, preset zero order correlation values r 0 a predetermined threshold value for, among the pixel input image 2, the correlation value r 0 of the zero-order, which are calculated over a pixel a predetermined threshold, It is set as a processing target such as the image similarity (g (θ)) calculation processing as described above. That is, regarding a pixel of the input image 2, when a predetermined threshold value is Ar, a pixel having a zero-order correlation value r 0 ≧ Ar is set as a processing target such as an image similarity (g (θ)) calculation process. The other pixels, that is, the pixels satisfying the 0th-order correlation value r 0 <Ar are excluded from the processing target. The value of the predetermined threshold value Ar is 30 or the like, for example.

このように、位置の絞込みとして、0次の相関値rが所定の閾値Ar未満の画素については、処理対象から除外して幾何変換パラメータについての探索を打ち切る。そして、0次の相関値rが所定の閾値Ar以上の画素のみを処理対象とし、幾何変換パラメータについての探索を行う。 Thus, as a narrowing position, 0 for order correlation value r 0 is pixel less than a predetermined threshold value Ar, terminate the search for geometric transformation parameter is excluded from the processing target. Then, the correlation value r 0 of the 0th order is processed only more pixels the predetermined threshold Ar, to search for the geometric transformation parameters.

このように、本実施形態の画像処理方法では、入力画像2の各画素について、固有値分解テンプレート画像群の画像である固有値分解テンプレート画像のうち次数が最も低い最低次数画像である0次の固有値分解テンプレート画像4と入力画像2との関係について算出される0次の相関値rに基づき、入力画像2の画素のうち0次の相関値rが相対的に低い画素を処理対象から除外する画素除外ステップが行われる。 As described above, in the image processing method of the present embodiment, for each pixel of the input image 2, the 0th-order eigenvalue decomposition which is the lowest-order image having the lowest order among the eigenvalue decomposition template images which are images of the eigenvalue decomposition template image group. Based on the 0th-order correlation value r 0 calculated for the relationship between the template image 4 and the input image 2, a pixel having a relatively low 0th-order correlation value r 0 is excluded from the processing target among the pixels of the input image 2. A pixel exclusion step is performed.

なお、位置の絞込みを行う画素除外ステップにおいて、上述した例では、0次の相関値rについて設定した所定の閾値Arを用い、0次の相関値rが所定の閾値Ar未満の画素を処理対象から除外する処理を採用している。この点、画素除外ステップの処理としては、入力画像2の画素毎の0次の相関値rに基づいて、0次の相関値rが相対的に低い画素を処理対象から除外する処理であれば、その具体的な処理内容については限定されない。画素除外ステップの処理としては、例えば、0次の相関値rが所定の閾値Ar以下の画素を処理対象から除外する処理であってもよく、また、算出した0次の相関値rについて所定の演算を施したものを所定の閾値の比較対象とする処理であってもよい。以上のようにして、位置(2次元座標値)の絞込みが行われる。 Incidentally, in the pixel excluded step to narrow down the location, in the example described above, using a predetermined threshold value Ar set correlation value r 0 of the zero-order correlation value r 0 of the 0th order are pixels less than the predetermined threshold value Ar Processing that is excluded from processing targets is adopted. In this respect, the process of the pixel excluding step, based on the correlation value r 0 of the zero-order for each pixel in the input image 2, in process for removing the relatively low pixel correlation value r 0 of the 0th order from processed If there is, the specific processing content is not limited. The treatment of pixel excluding step, for example, may be a correlation value r 0 of the 0th order is a process of excluding from the processing target following pixel predetermined threshold Ar, also the calculated zero-order correlation value r 0 A process in which a predetermined calculation is performed may be a comparison target of a predetermined threshold. As described above, the position (two-dimensional coordinate value) is narrowed down.

次に、姿勢(方向角)の絞込みについて説明する。ここで、姿勢の絞込みの説明に際し、上述したような級数の打ち切りにおける近似次数Mと、方向角の推定精度との関係について、図5を用いて説明する。   Next, narrowing down of the posture (direction angle) will be described. Here, in explaining the narrowing of the posture, the relationship between the approximate order M in the series truncation as described above and the estimation accuracy of the direction angle will be described with reference to FIG.

図5に、全方向角の画像類似度(g(θ))として得られる相関波形g(θ)のうち、近似次数M=60で近似した相関波形G1と、近似次数M=10で近似した相関波形G2とを示す。図5では、近似次数M=60で近似した相関波形G1を実線のグラフで示し、近似次数M=10で近似した相関波形G2を一点鎖線のグラフで示している。また、図5に示すグラフにおいて、横軸は幾何変換パラメータとしての方向角(θ)であり、縦軸は、画像類似度(g(θ))である。このような相関波形のグラフのピークの位置が、決定すべき方向角(姿勢)となる。   FIG. 5 shows a correlation waveform G1 approximated with an approximate order M = 60 and an approximate order M = 10 out of the correlation waveform g (θ) obtained as the image similarity (g (θ)) of omnidirectional angles. The correlation waveform G2 is shown. In FIG. 5, the correlation waveform G1 approximated by the approximate order M = 60 is shown by a solid line graph, and the correlation waveform G2 approximated by the approximate order M = 10 is shown by a one-dot chain line graph. In the graph shown in FIG. 5, the horizontal axis represents the direction angle (θ) as a geometric transformation parameter, and the vertical axis represents the image similarity (g (θ)). The position of the peak of such a correlation waveform graph is the direction angle (posture) to be determined.

幾何変換パラメータとしての方向角については、近似次数Mの値が大きいほど、高精度に方向角を推定することができる。図5に示すように、近似次数M=60の相関波形G1においては、近似次数M=10の相関波形G2と比べて、波形の凹凸が大きくはっきりと表れている。つまり、近似次数M=10の相関波形G2が全体的になだらかな形状であるのに対し、近似次数M=60の相関波形G1においては緩急が比較的大きく表れる。   Regarding the direction angle as a geometric transformation parameter, the larger the value of the approximate order M, the higher the direction angle can be estimated. As shown in FIG. 5, in the correlation waveform G1 of the approximate order M = 60, the waveform irregularities appear larger and clearer than the correlation waveform G2 of the approximate order M = 10. That is, the correlation waveform G2 having the approximate order M = 10 has a gentle shape as a whole, whereas the correlation waveform G1 having the approximate order M = 60 has a relatively large degree of slowness.

このため、上述したように画像類似度(g(θ))の波形において画像類似度が最大となる方向角(図3、方向角θa参照)を幾何変換パラメータの値として決定するに際しては、なだらかな近似次数M=10の相関波形G2よりも、凹凸が大きい近似次数M=60の相関波形G1の方が、波形のピークが明確となり、決定すべき方向角について高い検出精度が得られる。しかしながら、近似次数Mの値が大きいほど、計算量が多くなり、処理時間が長くなる。   Therefore, as described above, when determining the direction angle (see FIG. 3, direction angle θa) that maximizes the image similarity in the waveform of the image similarity (g (θ)) as the value of the geometric transformation parameter, The correlation waveform G1 of the approximate order M = 60 having a large unevenness is clearer than the correlation waveform G2 of the approximate order M = 10, and the peak of the waveform is clear, and higher detection accuracy is obtained for the direction angle to be determined. However, the larger the approximate order value M, the greater the amount of calculation and the longer the processing time.

一方、近似次数Mの値がある程度小さくても、おおまかな方向角(姿勢)を推定することができる。図5に示す例では、近似次数M=10の相関波形G2において決定される方向角θa10は、近似次数M=60の相関波形G1において決定される方向角θa60の近傍に位置する。つまり、近似次数M=10の相関波形G2によっても、決定される方向角についてある程度の検出精度が得られる。   On the other hand, even if the value of the approximate order M is small to some extent, a rough direction angle (posture) can be estimated. In the example shown in FIG. 5, the direction angle θa10 determined in the correlation waveform G2 of the approximate order M = 10 is located in the vicinity of the direction angle θa60 determined in the correlation waveform G1 of the approximate order M = 60. That is, a certain degree of detection accuracy can be obtained for the determined direction angle even with the correlation waveform G2 of the approximate order M = 10.

そこで、姿勢の絞込みとして、比較的小さい値の近似次数M(=10)の相関波形によって方向角を決定し、その決定した方向角の近傍の範囲を、幾何変換パラメータとしての方向角の探索の対象とする。つまり、幾何変換パラメータとして決定すべき方向角、言い換えると、ある程度大きい近似次数M(=60)の相関波形によって決定される方向角は、比較的小さい値の近似次数M(=10)の相関波形によって決定した方向角の近傍の範囲に存在すると言えるので、その近傍の範囲を、方向角の探索の対象とする。そして、その方向角の探索の対象とされた、小さい値の近似次数M(=10)の相関波形によって決定した方向角の近傍の範囲について、大きな近似次数M(=60)の相関波形を用いて、詳細に方向角を推定する。以下の説明では、このように姿勢の絞込みの処理において方向角の探索の対象を規定する近傍の範囲の基準として決定する方向角を「第1の推定方向角」という。   Therefore, as narrowing down the posture, the direction angle is determined by the correlation waveform of the approximate order M (= 10) having a relatively small value, and the range in the vicinity of the determined direction angle is searched for the direction angle as the geometric transformation parameter. set to target. That is, the direction angle to be determined as the geometric transformation parameter, in other words, the direction angle determined by the correlation waveform of the approximate order M (= 60) that is somewhat large is the correlation waveform of the approximate order M (= 10) having a relatively small value. Since it can be said that it exists in the range in the vicinity of the direction angle determined by (1), the range in the vicinity is set as the target of the direction angle search. Then, a correlation waveform having a large approximate order M (= 60) is used for a range in the vicinity of the direction angle determined by the correlation waveform having a small approximate order M (= 10), which is a target of the direction angle search. The direction angle is estimated in detail. In the following description, the direction angle determined as the reference of the neighborhood range that defines the target of the direction angle in the process of narrowing down the posture is referred to as a “first estimated direction angle”.

図5に示す例において、仮に、近似次数M=10の相関波形G2において決定される方向角θa10を第1の推定方向角θA1(°)とすると、第1の推定方向角θA1(°)の近傍の範囲B1は、例えば、θA1±5°の範囲として設定される。この場合、幾何変換パラメータとしての方向角の探索の対象が、第1の推定方向角θA1を中心とする10°の角度範囲となり、方向角についての探索の対象が、全方向角、つまり360°の角度範囲に対して1/36の範囲に絞り込まれる。なお、第1の推定方向角に対する近傍の範囲を規定する数値(±5°等)は、近似次数M等によって適宜設定される。 In the example shown in FIG. 5, if the direction angle θa10 determined in the correlation waveform G2 of the approximate order M = 10 is the first estimated direction angle θ A1 (°), the first estimated direction angle θ A1 (° ) Is set as a range of θ A1 ± 5 °, for example. In this case, the search target of the direction angle as the geometric transformation parameter is an angle range of 10 ° centered on the first estimated direction angle θ A1 , and the search target for the direction angle is the omnidirectional angle, that is, 360. The angle is narrowed down to 1/36 with respect to the angle range. Note that a numerical value (± 5 ° or the like) that defines the vicinity range with respect to the first estimated direction angle is appropriately set according to the approximate order M or the like.

本実施形態の画像処理方法では、変換後テンプレート画像についての各固有値分解テンプレート画像に対する相関値aが用いられて、第1の推定方向角が求められる。具体的には、次のような手法により、第1の推定方向角が求められる。 In the image processing method of the embodiment, used is the correlation value a n for each eigenvalue decomposition template image for transformed template image, the first estimated direction angle is determined. Specifically, the first estimated direction angle is obtained by the following method.

第1の推定方向角を求めるに際しては、変換後テンプレート画像と固有値分解テンプレート画像との照合によって、変換後テンプレート画像群の各変換後テンプレート画像に対応する相関値ベクトルが算出される。つまり、変換後テンプレート画像群の変換後テンプレート画像の枚数と同数の相関値ベクトルが算出される。これらの相関値ベクトルからなるベクトル群が、上述したように本実施形態の画像処理方法において作成される辞書に相当する(図2、S30参照)。   When obtaining the first estimated direction angle, a correlation value vector corresponding to each post-conversion template image of the post-conversion template image group is calculated by comparing the post-conversion template image and the eigenvalue decomposition template image. That is, the same number of correlation value vectors as the number of converted template images in the converted template image group are calculated. A group of vectors including these correlation value vectors corresponds to the dictionary created in the image processing method of the present embodiment as described above (see S30 in FIG. 2).

図6に示すように、本実施形態の画像処理方法では、変換後テンプレート画像群として、方向角が1°ピッチで異なる360枚の変換後テンプレート画像(θ=0〜359)が生成される。これらの各変換後テンプレート画像に対応して、同数の(360個の)相関値ベクトルv0〜359が生成される。   As shown in FIG. 6, in the image processing method of the present embodiment, 360 converted template images (θ = 0 to 359) having different directional angles at 1 ° pitch are generated as a converted template image group. Corresponding to each of these converted template images, the same number (360) of correlation value vectors v0 to 359 is generated.

相関値ベクトルの各成分は、変換後テンプレート画像と、固有値分解テンプレート画像群との畳込みによって得られる相関値aである。したがって、相関値ベクトルは、変換後テンプレート画像に対する畳込みの対象となる固有値分解テンプレート画像4の数と同数の成分(次元)からなる。つまり、各θの値に対応する変換後テンプレート画像の相関値ベクトルは、その変換後テンプレート画像と、各次数の固有値分解テンプレート画像4との関係において算出される相関値aを各成分とする。言い換えると、相関値ベクトルは、変換後テンプレート画像自身に固有値分解テンプレート画像4を畳み込むことで得られるものであり、各変換後テンプレート画像について各固有値分解テンプレート画像4の畳込みの応答値を並べたベクトルである。 Each component of the correlation value vector and the template image after the conversion, the correlation value a n obtained by convolution of the eigenvalue decomposition template images. Therefore, the correlation value vector is composed of the same number of components (dimensions) as the number of eigenvalue decomposition template images 4 to be convolved with the converted template image. That is, the correlation value vector after conversion template image corresponding to the value of each θ is its converted template image, the correlation value a n calculated in relation to eigenvalue decomposition template image 4 of each order with the components . In other words, the correlation value vector is obtained by convolving the eigenvalue decomposition template image 4 with the converted template image itself, and the convolution response values of the eigenvalue decomposition template images 4 are arranged for each converted template image. Is a vector.

具体的には、上記式(5)において、入力画像2を表すf(x,y)の代わりに、変換後テンプレート画像を表す関数であるT(x,y,θ)が用いられることで、変換後テンプレート画像についての相関値aが算出される。つまり、相関値aは、次式(10)として定義される。 Specifically, in the above equation (5), instead of f (x, y) representing the input image 2, T (x, y, θ), which is a function representing the converted template image, is used. correlation value a n is calculated for the transformed template image. That is, the correlation value a n is defined as the following equation (10).

図6に示す例では、相関値ベクトルのうち、θ=0の変換後テンプレート画像に対応する相関値ベクトルv0と、θ=30の変換後テンプレート画像に対応する相関値ベクトルv30と、θ=170の変換後テンプレート画像に対応する相関値ベクトルv170とが示されている。θ=0の相関値ベクトルv0については、θ=0の変換後テンプレート画像と0次の固有値分解テンプレート画像E0との相関を表す0次の相関値は、「5.0」である。同様に、1次の固有値分解テンプレート画像E1との相関を表す1次の相関値は、「2.0」であり、2次の固有値分解テンプレート画像E2との相関を表す2次の相関値は、「3.3」であり、3次の固有値分解テンプレート画像E3との相関を表す3次の相関値は、「4.4」である。   In the example shown in FIG. 6, among the correlation value vectors, the correlation value vector v0 corresponding to the converted template image with θ = 0, the correlation value vector v30 corresponding to the converted template image with θ = 30, and θ = 170. A correlation value vector v170 corresponding to the converted template image is shown. For the correlation value vector v0 with θ = 0, the zeroth-order correlation value representing the correlation between the converted template image with θ = 0 and the zeroth-order eigenvalue decomposition template image E0 is “5.0”. Similarly, the primary correlation value representing the correlation with the primary eigenvalue decomposition template image E1 is “2.0”, and the secondary correlation value representing the correlation with the secondary eigenvalue decomposition template image E2 is , “3.3”, and the third-order correlation value representing the correlation with the third-order eigenvalue decomposition template image E3 is “4.4”.

同様にして、θ=30の相関値ベクトルv30については、0次の相関値は「5.3」であり、1次の相関値は「−2.2」であり、2次の相関値は、「6.3」であり、3次の相関値は、「2.4」である。また、θ=170の相関値ベクトルv170については、0次の相関値は「4.3」であり、1次の相関値は「4.2」であり、2次の相関値は、「2.3」であり、3次の相関値は、「−2.4」である。このようにして、変換後テンプレート画像と同数の360個の相関値ベクトルv0〜v359が算出される。   Similarly, for the correlation value vector v30 with θ = 30, the zeroth-order correlation value is “5.3”, the first-order correlation value is “−2.2”, and the second-order correlation value is , “6.3”, and the third-order correlation value is “2.4”. For the correlation value vector v170 of θ = 170, the zeroth-order correlation value is “4.3”, the first-order correlation value is “4.2”, and the second-order correlation value is “2”. .3 ”and the third-order correlation value is“ −2.4 ”. In this way, 360 correlation value vectors v0 to v359 are calculated in the same number as the converted template images.

以上のように、本実施形態の画像処理方法においては、変換後テンプレート画像群の各変換後テンプレート画像について、固有値分解テンプレート画像群の各固有値分解テンプレート画像4との相関を表す所定の実数である相関値aを各成分の値とする相関値ベクトルv0〜v359を生成する相関値ベクトル生成ステップが行われる。 As described above, in the image processing method of the present embodiment, each converted template image in the converted template image group is a predetermined real number that represents the correlation with each eigenvalue decomposition template image 4 in the eigenvalue decomposition template image group. correlation vector generation step of generating a correlation value vector v0~v359 that the correlation value a n and the value of each component is carried out.

この相関値ベクトル生成ステップにおいて生成される相関値ベクトルについて、その成分の数は、上記のとおり変換後テンプレート画像群に対する畳込みの対象となる固有値分解テンプレート画像4の数と同数になる。本実施形態では、上述したような固有関数選択ステップが行われた場合、固有値分解テンプレート画像群として生成される固有値分解テンプレート画像4の数は、近似次数Mに相当する。したがって、生成された全ての固有値分解テンプレート画像4が畳込みの対象とされた場合、相関値ベクトルは、近似次数Mの数と同数の成分を有する。つまり、この場合、近似次数M=60のときには、相関値ベクトルの成分の数は60個となる。   As described above, the number of components of the correlation value vector generated in this correlation value vector generation step is the same as the number of eigenvalue decomposition template images 4 to be convolved with the template image group after conversion. In the present embodiment, when the eigenfunction selection step as described above is performed, the number of eigenvalue decomposition template images 4 generated as the eigenvalue decomposition template image group corresponds to the approximate order M. Accordingly, when all the generated eigenvalue decomposition template images 4 are to be convolved, the correlation value vector has the same number of components as the number of approximate orders M. That is, in this case, when the approximate order M = 60, the number of components of the correlation value vector is 60.

このような相関値ベクトルの成分の数については、計算量を削減して処理速度を向上させる観点からは、近似次数Mよりも少ない方が好ましい。そこで、相関値ベクトルの算出処理においては、生成された全てであるM個の固有値分解テンプレート画像4のうちの一部であるK(<M)個の固有値分解テンプレート画像4が選択されて用いられる。   The number of components of the correlation value vector is preferably smaller than the approximate order M from the viewpoint of reducing the amount of calculation and improving the processing speed. Therefore, in the correlation value vector calculation process, K (<M) eigenvalue decomposition template images 4 that are a part of all the generated M eigenvalue decomposition template images 4 are selected and used. .

具体的には、例えば、近似次数M=60の場合、言い換えると60枚の固有値分解テンプレート画像4が生成される場合、K=10〜20枚程度の固有値分解テンプレート画像4が選択され、相関値ベクトルの算出処理において畳込みの対象とされる。つまり、相関値ベクトルの次元は、K(<M)次元となる。K=10の場合、相関値ベクトルの成分の数が10個となる。   Specifically, for example, when the approximate order M = 60, in other words, when 60 eigenvalue decomposition template images 4 are generated, about 10 to 20 eigenvalue decomposition template images 4 are selected, and the correlation value It is an object of convolution in the vector calculation process. That is, the dimension of the correlation value vector is K (<M) dimension. When K = 10, the number of components of the correlation value vector is 10.

このような固有値分解テンプレート画像4の選択においては、その選択の基準として、例えば、上述したような固有関数選択ステップにおける固有関数の選択と同様に、固有値の大きさが用いられる。すなわち、第2の画像群生成ステップで生成された近似次数Mと同数の固有値分解テンプレート画像4のうち、固有値が大きい方から選択された固有関数に対応する所定の数の固有値分解テンプレート画像4が選択される。したがって、例えば、固有値分解テンプレート画像4の選択数K=10の場合、固有値が大きい側から10個の固有関数に対応する10枚の固有値分解テンプレート画像4が選択される。このことは、上述のとおり、固有値が大きい固有関数ほど、最終的に算出される、入力画像2と固有値分解テンプレート画像群との画像類似度に対する影響が大きい(寄与度が高い)ことに基づく。   In the selection of the eigenvalue decomposition template image 4 as described above, for example, the size of the eigenvalue is used as in the eigenfunction selection step in the eigenfunction selection step as described above. That is, a predetermined number of eigenvalue decomposition template images 4 corresponding to eigenfunctions selected from the larger eigenvalues among the eigenvalue decomposition template images 4 having the same number as the approximate order M generated in the second image group generation step. Selected. Therefore, for example, when the selection number K of the eigenvalue decomposition template images 4 is 10, ten eigenvalue decomposition template images 4 corresponding to ten eigenfunctions are selected from the side having the larger eigenvalues. This is based on the fact that the eigenfunction having a larger eigenvalue has a greater influence (higher contribution) on the image similarity between the input image 2 and the eigenvalue decomposition template image group, which is finally calculated, as described above.

以上のように、本実施形態の画像処理方法においては、相関値ベクトル生成ステップを行うに際して、第2の画像群生成ステップで生成された固有値分解テンプレート画像群の各固有値分解テンプレート画像4のうち、固有値の大きな順に、所定の数の(K枚の)固有値分解テンプレート画像4を選択する画像選択ステップが行われる。   As described above, in the image processing method of the present embodiment, when performing the correlation value vector generation step, among the eigenvalue decomposition template images 4 of the eigenvalue decomposition template image group generated in the second image group generation step, An image selection step of selecting a predetermined number (K) of eigenvalue decomposition template images 4 in descending order of eigenvalues is performed.

この画像選択ステップにおいて選択される固有値分解テンプレート画像4についての所定の数(K)は、生成される全ての固有値分解テンプレート画像4の数に相当する近似次数M、つまり上述した固有関数選択ステップにおける所定の数よりも少ない方が好ましい。したがって、固有関数選択ステップにおいて選択される固有関数の数についての「所定の数」を「第1の所定数」とした場合、この画像選択ステップにおいて選択される固有値分解テンプレート画像4の数についての「所定の数」は、「第1の所定数よりも小さい第2の所定数」であることが好ましい。つまり、上述した固有関数選択ステップが行われない場合においても、この画像選択ステップを行い、変換後テンプレート画像と同数生成された全ての(N枚の)固有値分解テンプレート画像から一部の枚数の固有値分解テンプレート画像4を選択することで、相関値ベクトルの生成処理において計算量を削減することができる。   The predetermined number (K) for the eigenvalue decomposition template image 4 selected in this image selection step is the approximate order M corresponding to the number of all eigenvalue decomposition template images 4 to be generated, that is, in the eigenfunction selection step described above. It is preferable that the number is smaller than the predetermined number. Therefore, when the “predetermined number” for the number of eigenfunctions selected in the eigenfunction selection step is set to “first predetermined number”, the number of eigenvalue decomposition template images 4 selected in this image selection step is The “predetermined number” is preferably “a second predetermined number smaller than the first predetermined number”. That is, even when the eigenfunction selection step described above is not performed, this image selection step is performed, and a part of the eigenvalues are generated from all (N) eigenvalue decomposition template images generated in the same number as the converted template images. By selecting the decomposition template image 4, it is possible to reduce the amount of calculation in the correlation value vector generation process.

そして、画像選択ステップが行われた場合、相関値ベクトル生成ステップは、画像選択ステップで選択されたK(<M)枚の固有値分解テンプレート画像4を用いて、相関値ベクトルを生成する。つまり、この場合、相関値ベクトル生成ステップでは、N枚の変換後テンプレート画像とK枚の固有値分解テンプレート画像4との畳込み演算により、K個の成分を有するN個の相関値ベクトルv0〜v359が生成される。   When the image selection step is performed, the correlation value vector generation step generates a correlation value vector using the K (<M) eigenvalue decomposition template images 4 selected in the image selection step. That is, in this case, in the correlation value vector generation step, N correlation value vectors v0 to v359 having K components are obtained by convolution of N converted template images and K eigenvalue decomposition template images 4. Is generated.

このような相関値ベクトルの算出は、上述した画素除外ステップにより除外された画素以外の処理対象となる画素(以下「処理対象画素」という。)の全てについて、画素毎に行われる。   Such calculation of the correlation value vector is performed for each pixel with respect to all the pixels to be processed (hereinafter referred to as “processing target pixels”) other than the pixels excluded by the pixel exclusion step described above.

以上のようにN個の相関値ベクトルが算出された後、相関値ベクトルの比較対象となる特徴ベクトルの生成が行われる。特徴ベクトルは、処理対象画素の全てについて画素毎に算出されるものであり、その画素の位置での、入力画像2に対する固有値分解テンプレート画像4の相関値を各成分とする。   After N correlation value vectors have been calculated as described above, a feature vector to be compared with the correlation value vector is generated. The feature vector is calculated for each pixel for all the processing target pixels, and the correlation value of the eigenvalue decomposition template image 4 with respect to the input image 2 at each pixel position is used as each component.

特徴ベクトルの各成分は、入力画像2と、固有値分解テンプレート画像群との畳込みによって得られる相関値rである。したがって、特徴ベクトルは、入力画像2に対する畳込みの対象となる固有値分解テンプレート画像4の数と同数の成分(次元)からなる。つまり、特徴ベクトルは、入力画像2と各次数の固有値分解テンプレート画像4との関係において算出される相関値rを各成分とする。言い換えると、特徴ベクトルは、入力画像2について各固有値分解テンプレート画像4の畳込みの応答値を並べたベクトルである。 Each component of the feature vector includes an input image 2, the correlation value r n obtained by convolution of the eigenvalue decomposition template images. Therefore, the feature vector includes the same number of components (dimensions) as the number of eigenvalue decomposition template images 4 to be convolved with the input image 2. That is, the feature vector uses the correlation value rn calculated in the relationship between the input image 2 and the eigenvalue decomposition template image 4 of each order as each component. In other words, the feature vector is a vector in which the convolution response values of the eigenvalue decomposition template images 4 are arranged for the input image 2.

特徴ベクトルの各成分となる相関値rは、上記式(5)により算出される。特徴ベクトルVt={t0,t1,t2,・・・,t(K−1)}とした場合、t0が入力画像2と0次の固有値分解テンプレート画像E0との相関を表す0次の相関値r、t1が入力画像2と1次の固有値分解テンプレート画像E1との相関を表す1次の相関値r、t2が入力画像2と2次の固有値分解テンプレート画像E2との相関を表す2次の相関値r、t(K−1)が入力画像2と(K−1)次の固有値分解テンプレート画像との相関を表す(K−1)次の相関値rK−1となる。 Correlation value r n of the respective components of the feature vector is calculated by the equation (5). When the feature vector Vt = {t0, t1, t2,..., T (K−1)}, t0 is a zeroth-order correlation value representing the correlation between the input image 2 and the zeroth-order eigenvalue decomposition template image E0. r 0 and t1 are primary correlation values r 1 and t2 representing the correlation between the input image 2 and the primary eigenvalue decomposition template image E1, and 2 is a correlation between the input image 2 and the secondary eigenvalue decomposition template image E2. The next correlation value r 2 , t (K−1) becomes the (K−1) th order correlation value r K−1 representing the correlation between the input image 2 and the (K−1) th order eigenvalue decomposition template image.

このような特徴ベクトルVtは、上記のとおり処理対象画素の全ての画素について得られるものであり、処理対象画素の位置にK枚の固有値分解テンプレート画像4を平行移動させて画像照合した結果得られるものと言える。ここで、処理対象画素の位置にK枚の固有値分解テンプレート画像4を平行移動させることは、各固有値分解テンプレート画像4の中心の位置を、処理対象画素の2次元座標値(XY座標値)に合わせることに相当する。   Such a feature vector Vt is obtained for all pixels of the processing target pixel as described above, and is obtained as a result of image collation by translating K eigenvalue decomposition template images 4 to the position of the processing target pixel. It can be said that. Here, translating K eigenvalue decomposition template images 4 to the position of the processing target pixel converts the center position of each eigenvalue decomposition template image 4 to the two-dimensional coordinate value (XY coordinate value) of the processing target pixel. Equivalent to matching.

このように、本実施形態の画像処理方法においては、入力画像2について、相関値rを各成分の値とする特徴ベクトルVtを生成する特徴ベクトル生成ステップが行われる。 Thus, in the image processing method of this embodiment, the input image 2, feature vector generating step of generating a feature vector Vt of the correlation value r n and the value of each component is carried out.

以上のように、処理対象画素の各画素について、N個の相関値ベクトル、および特徴ベクトルVtが生成された後、特徴ベクトルVtを用いて、N個の相関値ベクトルから1つの相関値ベクトルを選出する処理が行われる。具体的には、N個の相関値ベクトルから、特徴ベクトルVtに最も近似する相関値ベクトルが選出される。   As described above, after N correlation value vectors and feature vectors Vt are generated for each pixel of the processing target pixel, one correlation value vector is obtained from the N correlation value vectors using the feature vector Vt. A process of selecting is performed. Specifically, a correlation value vector that is closest to the feature vector Vt is selected from N correlation value vectors.

図7に、相関値ベクトルおよび特徴ベクトルを座標空間にプロットした状態を模式的に示す。図7では、便宜上、座標空間を3つの相関値a、a、aの3軸で示しているが、相関値ベクトルおよび特徴ベクトルVtはいずれもK次元であり、座標空間は相関値a〜a(K−1)のK次元空間で表される。また、図7では、便宜上、相関値ベクトルについてθ=0〜5までの5個の相関値ベクトルを示しているが、実際にはθ=0〜359の360個の相関値ベクトルが存在する。 FIG. 7 schematically shows a state where the correlation value vector and the feature vector are plotted in the coordinate space. In FIG. 7, for convenience, the coordinate space is indicated by three axes of three correlation values a 0 , a 1 , and a 2 , but the correlation value vector and the feature vector Vt are both K-dimensional, and the coordinate space is a correlation value. It is represented by a K-dimensional space of a 0 to a (K-1) . Further, in FIG. 7, for convenience, five correlation value vectors from θ = 0 to 5 are shown for the correlation value vector, but actually there are 360 correlation value vectors from θ = 0 to 359.

このように共通の座標空間にプロットされる相関値ベクトルおよび特徴ベクトルVtにおいて、特徴ベクトルVtに最も近似する相関値ベクトルが選出される。図7に示す例では、特徴ベクトルVtに最も近似する相関値ベクトルは、θ=0の相関値ベクトルV[i]0である。   In this way, among the correlation value vectors and feature vectors Vt plotted in the common coordinate space, the correlation value vector that is closest to the feature vector Vt is selected. In the example shown in FIG. 7, the correlation value vector that is closest to the feature vector Vt is the correlation value vector V [i] 0 with θ = 0.

特徴ベクトルVtに最も近似する相関値ベクトルを求める手法としては、近似近傍探索等と称されるアルゴリズムによる手法が用いられる。なお、特徴ベクトルVtに最も近似する相関値ベクトルを求める手法としては、距離空間において点の集合から最も近い点を探索する手法であれば、近似近傍探索のほか、適宜周知の手法を用いることができる。ここで用いられる手法としては、例えば、Kd−Treeを用いる手法、K−meansを用いる手法、ベクトル量子化を用いる手法等の、探索木を使用する手法が挙げられる。また、他の例としては、多次元のベクトル値{a0,a1,・・・,aN}とそれに対応する出力値の対応関係を記したテーブル(置換表、ハッシュテーブル法など)を用いる手法が挙げられる。   As a method for obtaining a correlation value vector that most closely approximates the feature vector Vt, a method based on an algorithm called approximate neighborhood search or the like is used. As a method for obtaining a correlation value vector that is closest to the feature vector Vt, a well-known method can be used as appropriate in addition to the approximate neighborhood search, as long as it is a method for searching for the closest point from a set of points in the metric space. it can. Examples of the technique used here include a technique using a search tree, such as a technique using Kd-Tree, a technique using K-means, and a technique using vector quantization. As another example, there is a method using a table (replacement table, hash table method, etc.) that describes the correspondence between multidimensional vector values {a0, a1,..., AN} and output values corresponding thereto. Can be mentioned.

このように、本実施形態の画像処理方法においては、相関値ベクトル生成ステップで生成された複数の相関値ベクトルのうち、特徴ベクトルVtに最も近似する相関値ベクトルを選出するベクトル選出ステップが行われる。   As described above, in the image processing method of the present embodiment, a vector selection step for selecting a correlation value vector that is closest to the feature vector Vt from among the plurality of correlation value vectors generated in the correlation value vector generation step is performed. .

このベクトル選出ステップにおいては、N枚の変換後テンプレート画像、および入力画像2のそれぞれについての固有値分解テンプレート画像4を畳み込んだ応答値のベクトルの比較により、入力画像2の姿勢(方向角)が大まかに探索される。つまり、相関値ベクトルのベクトル群である辞書の探索が行われる。   In this vector selection step, the posture (direction angle) of the input image 2 is determined by comparing vectors of response values obtained by convolving the eigenvalue decomposition template image 4 for each of the N converted template images and the input image 2. Roughly explored. That is, a search for a dictionary that is a vector group of correlation value vectors is performed.

そして、このベクトル選出ステップで選出された相関値ベクトルのθの値が、上述した第1の推定方向角θA1となる。ベクトル選出ステップで選出された相関値ベクトルのθの値は、最終的に決定する幾何変換パラメータとしての方向角の値としては精度が十分であるとは言えないが、第1の推定方向角θA1としては十分な精度を有する。 Then, the value of θ of the correlation value vector selected in this vector selection step becomes the first estimated direction angle θ A1 described above. The value of θ of the correlation value vector selected in the vector selection step is not sufficiently accurate as the value of the direction angle as the geometric transformation parameter to be finally determined, but the first estimated direction angle θ A1 has sufficient accuracy.

このようにして求められた第1の推定方向角の近傍の角度範囲が、幾何変換パラメータとしての方向角の探索の対象となる。以上のようにして、姿勢(方向角)の絞込みが行われる。姿勢の絞込みは、処理対象画素の全ての画素について、それぞれ行われる。   The angle range in the vicinity of the first estimated direction angle obtained in this way is a target for searching for a direction angle as a geometric transformation parameter. As described above, the posture (direction angle) is narrowed down. The narrowing down of the posture is performed for all the pixels to be processed.

以上のような姿勢の絞込みによって絞り込まれた方向角θの値の範囲、即ち第1の推定方向角θA1±α(°)の範囲(以下「絞込み角度範囲θA1±α」とする。)について、詳細な演算により、方向角の値が探索される。すなわち、上述したようなある程度大きい近似次数M(=60)による画像類似度(g(θ))の算出が、絞込み角度範囲θA1±αについてのみ行われ、その範囲の一部分の画像類似度(g(θ))の相関波形から、画像類似度が最大となる方向角(図3、方向角θa参照)が算出される。そして、この画像類似度が最大となる方向角の算出が処理対象画素の全ての画素について行われ、これらの処理対象画素のうち、方向角を決定する最大の画像類似度が最大となる画素が導かれ、その画素の2次元座標およびその画素について決定された方向角とが、それぞれ幾何変換パラメータとしての位置(2次元座標値)および姿勢(方向角)として決定される。 The range of the value of the direction angle θ narrowed by narrowing down the posture as described above, that is, the range of the first estimated direction angle θ A1 ± α (°) (hereinafter referred to as “the narrowed angle range θ A1 ± α”). The value of the direction angle is searched for by a detailed calculation. That is, the calculation of the image similarity (g (θ)) using the approximate order M (= 60) that is somewhat large as described above is performed only for the narrowing angle range θ A1 ± α, and the image similarity ( The direction angle (see FIG. 3, direction angle θa) that maximizes the image similarity is calculated from the correlation waveform of g (θ)). Then, the calculation of the direction angle that maximizes the image similarity is performed for all the pixels to be processed, and among these pixels to be processed, the pixel having the maximum image similarity that determines the direction angle is the largest. The two-dimensional coordinates of the pixel and the direction angle determined for the pixel are determined as a position (two-dimensional coordinate value) and a posture (direction angle) as geometric transformation parameters, respectively.

したがって、まず、絞込み角度範囲θA1±αについて、ある程度大きい近似次数Mによる画像類似度(g(θ))の相関波形の算出が行われる。具体的には、上記式(3)あるいは式(7)により算出される画像類似度(g(θ))としての相関波形のうち、絞込み角度範囲θA1±αの範囲の部分が算出される。αの値は、近似次数Mの値等によって適宜設定されるが、計算量を削減して処理速度の向上を図る観点からは、10(°)以下、好ましくは5(°)以下の値に設定される。 Therefore, first, the correlation waveform of the image similarity (g (θ)) is calculated for the narrowed angle range θ A1 ± α with an approximate order M that is somewhat large. Specifically, in the correlation waveform as the image similarity (g (θ)) calculated by the above formula (3) or formula (7), the portion of the narrowed angle range θ A1 ± α is calculated. . The value of α is appropriately set depending on the value of the approximate order M or the like. From the viewpoint of reducing the amount of calculation and improving the processing speed, the value of α is 10 (°) or less, preferably 5 (°) or less. Is set.

図8に、近似次数M=60の場合の例を示す。図8に示す相関波形G1は、上記式(7)においてM=60として算出される相関波形である。この近似次数M=60の相関波形G1のうち、実線で示す絞込み角度範囲θA1±αの部分G1a(範囲B1の部分)が、画像類似度(g(θ))としての相関波形として算出される。 FIG. 8 shows an example when the approximate order M = 60. The correlation waveform G1 shown in FIG. 8 is a correlation waveform calculated as M = 60 in the above equation (7). Of the correlation waveform G1 of the approximate order M = 60, a portion G1a (portion of the range B1) in the narrowed angle range θ A1 ± α indicated by a solid line is calculated as a correlation waveform as the image similarity (g (θ)). The

すなわち、図8を参照すると、画像類似度が全方向角(0〜359°)について算出された場合は、相関波形G1において二点鎖線で示す部分を含む波形の全体が算出されるが、上述したような姿勢の絞込みによって検索の対象となる方向角の範囲が絞り込まれ、姿勢の絞込みによって得られた角度範囲である絞込み角度範囲θA1±αの部分G1aについてのみ、相関波形の算出、つまり画像類似度の算出が行われる。 That is, referring to FIG. 8, when the image similarity is calculated for all directional angles (0 to 359 °), the entire waveform including the portion indicated by the two-dot chain line in the correlation waveform G1 is calculated. The range of the direction angle to be searched is narrowed down by narrowing down the posture as described above, and the correlation waveform is calculated only for the portion G1a of the narrowed angle range θ A1 ± α, which is the angle range obtained by narrowing down the posture. Image similarity is calculated.

このように、本実施形態の画像処理方法においては、処理対象画素について、ベクトル選出ステップにより選出された相関値ベクトルに対応する幾何変換パラメータの値である第1の推定方向角θA1の値の近傍の範囲、すなわち絞込み角度範囲θA1±αで、画像類似度(g(θ))を算出する画像類似度算出ステップが行われる。 As described above, in the image processing method of the present embodiment, the value of the first estimated direction angle θ A1 that is the value of the geometric transformation parameter corresponding to the correlation value vector selected by the vector selection step for the processing target pixel. An image similarity calculation step for calculating an image similarity (g (θ)) in the vicinity range, that is, the narrowing angle range θ A1 ± α is performed.

次に、上記のとおり算出された絞込み角度範囲θA1±αの画像類似度(g(θ))の相関波形に基づいて、最終的な検出結果としての幾何変換パラメータである位置(2次元座標値)と姿勢(方向角)の値が決定される。具体的には次のとおりである。 Next, based on the correlation waveform of the image similarity (g (θ)) of the narrowed-down angle range θ A1 ± α calculated as described above, a position (two-dimensional coordinate) as a geometric conversion parameter as a final detection result is obtained. Value) and posture (direction angle) values are determined. Specifically, it is as follows.

入力画像2の画素数を512×512とし、上述した画素除外ステップで除外された後の処理対象画素が全体画素数の約1/4の65,000画素とする。この場合、65,000画素の全ての画素について、上述したような姿勢の絞込みが行われ、絞込み角度範囲θA1±αの画像類似度(g(θ))の算出が行われる。したがって、65,000画素の各画素について、絞込み角度範囲θA1±αから、画像類似度(g(θ))が最大となる方向角が算出される。この絞込み角度範囲θA1±αにおける最大の画像類似度(g(θ))に対応する方向角を、「第2の推定方向角θA2」とする。そして、65,000の画素のうち、第2の推定方向角θA2に対応する画像類似度(以下「最大画像類似度」という。)が最も大きい画素についての位置と、その画素についての第2の推定方向角θA2が、それぞれ最終的な幾何変換パラメータの値としての位置(2次元座標値)と姿勢(方向角)として決定される。 The number of pixels of the input image 2 is 512 × 512, and the processing target pixels after being excluded in the pixel exclusion step described above are 65,000 pixels, which is about ¼ of the total number of pixels. In this case, the orientation narrowing as described above is performed for all the 65,000 pixels, and the image similarity (g (θ)) of the narrowing angle range θ A1 ± α is calculated. Therefore, for each pixel of 65,000 pixels, the direction angle that maximizes the image similarity (g (θ)) is calculated from the narrowed angle range θ A1 ± α. The direction angle corresponding to the maximum image similarity (g (θ)) in the narrowed angle range θ A1 ± α is defined as “second estimated direction angle θA2”. Among the 65,000 pixels, the position of the pixel having the largest image similarity (hereinafter referred to as “maximum image similarity”) corresponding to the second estimated direction angle θ A2 and the second of the pixel. the estimated direction angle theta A2 are respectively determined position of the value of the final geometric transformation parameters (2-dimensional coordinate value) and a posture (direction angle).

このように、本実施形態の画像処理方法においては、画像類似度算出ステップで算出された画像類似度に基づき、幾何変換パラメータである位置(2次元座標値)および姿勢(方向角)の値を決定する照合ステップが行われる。すなわち、照合ステップは、処理対象画素のうち、画像類似度算出ステップにより算出された最大画像類似度が最も大きな画素の位置を、幾何変換パラメータの2次元座標値の値として決定し、最大画像類似度が最も大きな画素についての最大画像類似度に対応する方向角(第2の推定方向角θA2)を、幾何変換パラメータの方向角として決定する。こうした照合ステップでは、固有関数の連続性に起因する画像類似度の連続性に着目し、幾何変換パラメータの実数値が決定される。 As described above, in the image processing method of the present embodiment, the position (two-dimensional coordinate value) and orientation (direction angle) values, which are geometric transformation parameters, are calculated based on the image similarity calculated in the image similarity calculation step. A matching step to determine is performed. That is, the collation step determines the position of the pixel having the largest maximum image similarity calculated by the image similarity calculation step among the processing target pixels as the value of the two-dimensional coordinate value of the geometric transformation parameter, and determines the maximum image similarity. The direction angle (second estimated direction angle θ A2 ) corresponding to the maximum image similarity for the pixel having the largest degree is determined as the direction angle of the geometric transformation parameter. In such a collation step, focusing on the continuity of the image similarity resulting from the continuity of the eigenfunction, the real value of the geometric transformation parameter is determined.

以上のように、本実施形態の画像処理方法は、固有値分解テンプレート画像による畳込みによって得られる相関値を頼りに、入力画像2において対象画像部分3が存在する位置(2次元座標値)、および対象画像部分3の姿勢(方向角)について、絞込みを多段的に行うことで、幾何変換パラメータについての検出精度を維持しつつ、計算量の削減を図ろうとするものである。このような本実施形態の画像照合方法は、まとめると次のような3段階の照合(探索)を行う処理方法と言える。   As described above, the image processing method of the present embodiment relies on the correlation value obtained by convolution with the eigenvalue decomposition template image, and the position (two-dimensional coordinate value) where the target image portion 3 exists in the input image 2, and By narrowing down the posture (direction angle) of the target image portion 3 in a multistage manner, the calculation amount is reduced while maintaining the detection accuracy of the geometric transformation parameters. The image collating method of this embodiment can be said to be a processing method that performs the following three stages of collation (search).

1段目は、0次の固有値分解テンプレート画像との畳込みの応答値(相関値r)を頼りに、閾値処理により、入力画像2に対して対象画像部分3が存在する可能性が高い領域(XY位置)の絞込みを行い、処理対象画素を決定する処理である。かかる処理によって決定された処理対象画素以外の画素については、幾何変換パラメータの探索の対象から外される。すなわち、この1段目の処理は、上述した位置(2次元座標値)の絞込みの処理であり、画素除外ステップでの処理に相当する。 In the first stage, there is a high possibility that the target image portion 3 is present with respect to the input image 2 by threshold processing based on the convolution response value (correlation value r 0 ) with the 0th-order eigenvalue decomposition template image. This is a process of narrowing down the region (XY position) and determining the processing target pixel. Pixels other than the processing target pixel determined by such processing are excluded from the geometric transformation parameter search target. That is, the first-stage process is a process for narrowing down the position (two-dimensional coordinate value) described above, and corresponds to the process in the pixel exclusion step.

2段目は、N枚の変換後テンプレート画像および入力画像2のそれぞれについて、近似次数Mよりも少ないK(<M)枚の固有値分解テンプレート画像4との畳込み応答値により得られる相関値ベクトルおよび特徴ベクトルVtに基づいて、検索対象とする方向角の範囲の絞込みを行い、大まかな姿勢(方向角)を推定する処理である。すなわち、この2段目の処理は、上述した姿勢(方向角)の絞込みの処理であり、相関値ベクトル生成ステップ、画像選択ステップ、特徴ベクトル生成ステップ、およびベクトル選出ステップの各ステップでの処理を含む。   The second level is a correlation value vector obtained by convolution response values with K (<M) eigenvalue decomposition template images 4 less than the approximate order M for each of the N converted template images and the input image 2. This is a process of narrowing down the range of the direction angle to be searched based on the feature vector Vt and estimating a rough posture (direction angle). In other words, this second stage process is the process of narrowing down the posture (direction angle) described above, and the process in each step of the correlation value vector generation step, the image selection step, the feature vector generation step, and the vector selection step. Including.

3段目は、1段目および2段目の処理によって絞り込まれた位置(2次元座標値)および姿勢(方向角)について、従来と同様に、M枚の固有値分解テンプレート画像4との畳込みの応答値から相関値を算出し、画像類似度に基づいて精密な探索を行う。すなわち、この3段目の処理は、上述した画像類似度算出ステップでの処理に相当する。   In the third stage, the positions (two-dimensional coordinate values) and postures (direction angles) narrowed down by the processes in the first and second stages are convolved with M eigenvalue decomposition template images 4 as in the conventional case. The correlation value is calculated from the response value of, and a precise search is performed based on the image similarity. That is, the third stage processing corresponds to the processing in the above-described image similarity calculation step.

以上のような本実施形態の画像処理方法によれば、複数のテンプレート画像1を固有値分解することで得られた固有値分解テンプレート画像4に基づいて算出される、画像の類似度を示す相関値を用いた画像照合技術において、精度を維持しながら、計算量を大幅に削減することができ処理速度の向上を図ることができる。   According to the image processing method of the present embodiment as described above, the correlation value indicating the degree of similarity of images calculated based on the eigenvalue decomposition template image 4 obtained by eigenvalue decomposition of the plurality of template images 1 is obtained. In the image collation technique used, the calculation amount can be greatly reduced while maintaining the accuracy, and the processing speed can be improved.

また、本実施形態の画像処理方法において、上述したように、固有値の大きな順に固有関数の一部を選択する固有関数選択ステップを行うことで、検出精度を確保しながら、処理時間のさらなる短縮化を図ることができる。すなわち、本実施形態に係る固有関数選択ステップによれば、変換後テンプレート画像と同数(N個)の固有関数のうち、画像類似度への影響(寄与度)が大きい一部の(M個の)固有関数が用いられる。これにより、算出された固有関数の全てを用いる場合との比較において、決定される幾何変換パラメータについては十分な精度を確保することができるとともに、選択しない固有関数の分、処理速度を上げることができ、処理時間をさらに短くすることができる。   Further, in the image processing method of the present embodiment, as described above, the eigenfunction selection step of selecting a part of the eigenfunctions in descending order of the eigenvalues is performed, thereby further reducing the processing time while ensuring the detection accuracy. Can be achieved. That is, according to the eigenfunction selection step according to the present embodiment, among the same number (N) of eigenfunctions as the converted template image, some (M pieces) of which the influence (contribution) on the image similarity is large. ) Eigenfunction is used. Thereby, in comparison with the case where all of the calculated eigenfunctions are used, sufficient accuracy can be ensured for the determined geometric transformation parameters, and the processing speed can be increased by the eigenfunctions not selected. The processing time can be further shortened.

この点、本実施形態の画像処理においては、近似次数Mの値の調整により、処理時間と検出精度の調整が可能となる。すなわち、処理時間の短縮よりも検出精度が優先される場合は、近似次数Mの値を大きく設定し、逆に、検出精度よりも処理時間の短縮が優先される場合は、近似次数Mの値を小さく設定する。   In this regard, in the image processing of this embodiment, the processing time and the detection accuracy can be adjusted by adjusting the value of the approximate order M. That is, when the detection accuracy is prioritized over the reduction of the processing time, the value of the approximate order M is set larger, and conversely, when the reduction of the processing time is prioritized over the detection accuracy, the value of the approximate order M is set. Set to a smaller value.

さらに、本実施形態の画像処理方法において、上述したように、姿勢(方向角)の絞込み処理を行うに際し、固有値の大きな順に固有値分解テンプレート画像4の一部を選択する画像選択ステップを行うことで、検出精度を確保しながら、処理時間のさらなる短縮化を図ることができる。すなわち、本実施形態に係る画像選択ステップによれば、固有関数と同数(例えばM個)のうち、画像類似度への影響(寄与度)が大きい一部の(K枚の)固有値分解テンプレート画像4が用いられる。これにより、算出された固有値分解テンプレート画像4の全てを用いる場合との比較において、決定される幾何変換パラメータについては十分な精度を確保することができるとともに、選択しない固有値分解テンプレート画像4の分、処理速度を上げることができ、処理時間をさらに短くすることができる。   Furthermore, in the image processing method of the present embodiment, as described above, when performing a narrowing process of the posture (direction angle), an image selection step of selecting a part of the eigenvalue decomposition template image 4 in descending order of eigenvalues is performed. Further, the processing time can be further shortened while ensuring the detection accuracy. That is, according to the image selection step according to the present embodiment, some (K) eigenvalue decomposition template images having a large influence (contribution) on the image similarity among the same number (e.g., M) of eigenfunctions. 4 is used. Thereby, in comparison with the case where all of the calculated eigenvalue decomposition template images 4 are used, sufficient accuracy can be ensured for the determined geometric transformation parameters, and the portions of the eigenvalue decomposition template images 4 that are not selected can be obtained. The processing speed can be increased and the processing time can be further shortened.

本実施形態の画像処理方法により、次のような実験結果が得られている。従来手法、すなわち処理対象を入力画像2の全画素とし、しかも方向角の探索対象を全方向角とする手法を用いた場合、処理時間(計算時間)が7000[msec]であるのに対し、本実施形態の画像処理方法によれば、処理時間が500[msec]となるという実験結果が得られている。この実験結果によると、本実施形態の画像処理方法によれば、従来手法に対して10倍程度の高速化を図ることができる。なお、この実験結果は、入力画像2の画像サイズが標準サイズである512×512画素、変換後テンプレート画像の数N=360、近似次数M=60、姿勢(方向角)の絞込み処理で用いられる固有値分解テンプレート画像4の枚数K=20という条件のもとで得られたものである。   The following experimental results have been obtained by the image processing method of the present embodiment. In the case of using the conventional method, that is, the method in which the processing target is all pixels of the input image 2 and the direction angle search target is the omnidirectional angle, the processing time (calculation time) is 7000 [msec] According to the image processing method of the present embodiment, an experimental result has been obtained that the processing time is 500 [msec]. According to this experimental result, according to the image processing method of the present embodiment, the speed can be increased by about 10 times compared to the conventional method. The result of this experiment is used in the process of narrowing down the orientation (direction angle) of 512 × 512 pixels, where the image size of the input image 2 is the standard size, the number of converted template images N = 360, the approximate order M = 60. This is obtained under the condition that the number K of eigenvalue decomposition template images 4 is K = 20.

また、本実施形態の画像処理方法によれば、テンプレート画像を回転させながら照合を行う回転照合法等の、幾何変換を用いた従来の画像照合技術に対して、少ない照合回数で同等の精度を確保することができ、処理時間を大幅に短縮することができる。   In addition, according to the image processing method of the present embodiment, the same accuracy can be achieved with a small number of matching times compared to a conventional image matching technique using geometric transformation such as a rotation matching method in which matching is performed while rotating a template image. Can be secured, and the processing time can be greatly shortened.

また、本実施形態の画像処理方法においては、次のような手法を採用することができる。本実施形態の画像処理方法においては、上述したようにテンプレート画像1に幾何変換を加えることで得られる変換後テンプレート画像群の枚数が多いほど、固有関数の連続度は高くなる。そこで、本実施形態の画像処理方法では、変換後テンプレート画像の枚数を無限大に増やすことができる。つまり、上述したような本実施形態の画像処理方法における一連の処理において、変換後テンプレート画像群を構成する変換後テンプレート画像の枚数を、数学的に無限大とする。   In the image processing method of the present embodiment, the following method can be employed. In the image processing method of the present embodiment, as the number of post-conversion template image groups obtained by applying geometric transformation to the template image 1 as described above increases, the continuity of the eigenfunction increases. Therefore, in the image processing method of this embodiment, the number of post-conversion template images can be increased to infinity. That is, in the series of processes in the image processing method of the present embodiment as described above, the number of converted template images constituting the converted template image group is mathematically infinite.

この場合、行列の固有値問題の上記式(8)が、次式(11)のようになる。
In this case, the above equation (8) of the matrix eigenvalue problem becomes the following equation (11).

上記式(11)において、K(s,t)は、次式(12)により表される。
In the above formula (11), K (s, t) is represented by the following formula (12).

すなわち、行列の固有値問題ではなく、式(11)は、微分方程式の問題に変換される。変換後テンプレート画像の枚数を無限大に増やすことで、固有関数は、真の意味で連続関数となる。例えば、この連続関数を多項式で近似して、解析的に表すことも可能である。   That is, instead of the matrix eigenvalue problem, equation (11) is converted to a differential equation problem. By increasing the number of template images after conversion to infinity, the eigenfunction becomes a continuous function in a true sense. For example, this continuous function can be approximated by a polynomial and expressed analytically.

固有関数を多項式で表現することで、相関値を用いた固有関数の重み付き和である画像類似度関数(画像類似度g)も、多項式で表現される。多項式で表現された画像類似度関数の最大値を見つける処理は、多項式を微分して0となる位置を見つければよい。このように、変換後テンプレート画像の枚数を無限大に増やすことにより、パラメータの推定値を解析的に求めることが可能となり、幾何学的パラメータの値の推定精度を非常に高くすることができる。   By expressing the eigenfunction by a polynomial, an image similarity function (image similarity g) that is a weighted sum of eigenfunctions using correlation values is also expressed by a polynomial. The process of finding the maximum value of the image similarity function expressed by a polynomial may be performed by differentiating the polynomial and finding a position where it becomes zero. In this way, by increasing the number of post-conversion template images to infinity, it is possible to analytically determine the estimated value of the parameter, and the estimation accuracy of the value of the geometric parameter can be greatly increased.

また、本実施形態の画像処理方法においては、入力画像2について決定される幾何変換パラメータは、方向角および2次元座標値を含み、テンプレート画像1に加えられる幾何変換は、方向角を変化させる回転および2次元座標値を変化させる平行移動を含むことが好ましい。   In the image processing method of the present embodiment, the geometric transformation parameters determined for the input image 2 include a direction angle and a two-dimensional coordinate value, and the geometric transformation applied to the template image 1 is a rotation that changes the direction angle. It is preferable to include a translation that changes the two-dimensional coordinate values.

方向角および2次元座標値は、産業用の画像照合処理において比較的多用される幾何変換パラメータであり、また、2次元的な幾何変換パラメータであることから、比較的単純な演算処理により本実施形態の画像処理方法を行うことができる。このため、高い汎用性を得ることができる。   The direction angle and the two-dimensional coordinate value are geometric transformation parameters that are relatively frequently used in industrial image matching processing, and are two-dimensional geometric transformation parameters. The image processing method of the form can be performed. For this reason, high versatility can be obtained.

また、本実施形態の画像処理方法においては、入力画像2について決定される幾何変換パラメータは、射影変換に必要なパラメータを含み、テンプレート画像1に加えられる幾何変換は、射影変換を含む。   In the image processing method of the present embodiment, the geometric transformation parameters determined for the input image 2 include parameters necessary for projective transformation, and the geometric transformation applied to the template image 1 includes projective transformation.

射影変換は、アフィン変換をも含む一般的な射影変換であり、所定の変換式により、元の画像の座標(x,y)を、投影面における座標(x’,y’)に変換するものである。したがって、射影変換に必要なパラメータは、射影変換の一般式における係数である。   The projective transformation is a general projective transformation including an affine transformation, and converts the coordinates (x, y) of the original image into the coordinates (x ′, y ′) on the projection plane by a predetermined transformation formula. It is. Accordingly, the parameters necessary for the projective transformation are coefficients in the general formula of the projective transformation.

したがって、本実施形態の画像処理方法において、テンプレート画像1に加えられる幾何変換として射影変換が用いられる場合、第1の画像群生成ステップにおいて、テンプレート画像1に射影変換が加えられることで、変換後テンプレート画像群が生成される。そして、照合ステップにおいて、入力画像2の幾何変換パラメータの値として、射影変換の一般式における係数の値が決定される。   Therefore, when projective transformation is used as the geometric transformation applied to the template image 1 in the image processing method of the present embodiment, the projection transformation is added to the template image 1 in the first image group generation step, so that A template image group is generated. Then, in the collating step, the value of the coefficient in the general formula of the projective transformation is determined as the value of the geometric transformation parameter of the input image 2.

また、本実施形態の画像処理方法においては、入力画像2について決定される幾何変換パラメータは、画像のぼかし処理に必要なパラメータを含み、テンプレート画像1に加えられる幾何変換は、画像のぼかし処理を含む。   In the image processing method of the present embodiment, the geometric transformation parameters determined for the input image 2 include parameters necessary for the image blurring process, and the geometric transformation applied to the template image 1 performs the image blurring process. Including.

画像のぼかし処理は、画像をにじませる処理であり、例えば次のようにして行われる。画像のぼかし処理としては、例えば、処理対象のピクセル(x,y)を中心とする3×3ピクセル(9ピクセル)の色(色値)の平均を、処理対象のピクセルの色(色値)とする処理が行われる。かかる処理は、平滑化とも称される。画像のぼかし処理は、例えば、ピクセルの色を構成するR(赤)、G(緑)、B(青)の成分ごとに行われる。このように3×3ピクセルの色の平均が処理対象のピクセルの色として採用される場合、9ピクセルの平均化処理における各ピクセルの重みはいずれも同じ(「1」)となる。   The image blurring process is a process for blurring an image, and is performed as follows, for example. As an image blurring process, for example, an average of colors (color values) of 3 × 3 pixels (9 pixels) centering on a pixel (x, y) to be processed is used as a color (color value) of the pixel to be processed. Is performed. Such processing is also referred to as smoothing. The image blurring process is performed, for example, for each of R (red), G (green), and B (blue) components constituting the pixel color. As described above, when the average of the colors of 3 × 3 pixels is adopted as the color of the pixel to be processed, the weights of the pixels in the averaging process of 9 pixels are all the same (“1”).

したがって、画像のぼかし処理においては、処理対象のピクセルに対して周囲の8ピクセルの各ピクセルに2倍の重みを置いたり、処理対象のピクセルの上下左右の4ピクセルのみの色の平均が処理対象の色として用いられたりしてもよい。前者の場合、処理対象のピクセルの重みは「1」、周囲の各ピクセルの重みは「2」となり、後者の場合、処理対象のピクセルの上下左右のピクセルの重みは「1」、それ以外の5ピクセルの各ピクセルの重みは「0」となる。   Therefore, in image blurring processing, the weight of each of the surrounding 8 pixels is doubled with respect to the pixel to be processed, or the average of the colors of only four pixels above, below, left, and right of the pixel to be processed is processed. It may also be used as the color. In the former case, the weight of the pixel to be processed is “1” and the weight of each surrounding pixel is “2”. In the latter case, the weight of the upper, lower, left, and right pixels of the pixel to be processed is “1”. The weight of each pixel of 5 pixels is “0”.

このように画像のぼかし処理において行われる平均化処理における各ピクセルの重み(「1」や「2」等の数値)が、画像のぼかし処理に必要なパラメータとなる。また、処理対象のピクセルの色として平均化される対象となる範囲のピクセルの数(縦N×横N(個))も、画像のぼかし処理に必要なパラメータとなる。なお、Nの値が大きいほど、画像のぼけ具合は大きくなる。このような画像のぼかし処理に必要なパラメータが、入力画像2について決定される幾何変換パラメータに含まれる。   Thus, the weight of each pixel (numerical value such as “1” or “2”) in the averaging process performed in the image blurring process is a parameter necessary for the image blurring process. In addition, the number of pixels in the range to be averaged as the color of the pixel to be processed (vertical N × horizontal N (pieces)) is also a parameter necessary for the image blurring process. Note that the greater the value of N, the greater the degree of image blur. Parameters necessary for such an image blurring process are included in the geometric transformation parameters determined for the input image 2.

したがって、本実施形態の画像処理方法において、テンプレート画像1に加えられる幾何変換として画像のぼかし処理が用いられる場合、第1の画像群生成ステップにおいて、テンプレート画像1に画像のぼかし処理が加えられることで、変換後テンプレート画像群が生成される。そして、照合ステップにおいて、入力画像2の幾何変換パラメータの値として、上述のような画像のぼかし処理に必要なパラメータの値が決定される。なお、画像のぼかし処理としては、上述のような画像のぼかし処理に限らず、周知の画像のぼかし処理を適宜採用することができる。   Therefore, in the image processing method of the present embodiment, when image blurring processing is used as geometric transformation applied to the template image 1, image blurring processing is added to the template image 1 in the first image group generation step. Thus, a post-conversion template image group is generated. In the collation step, the value of the parameter necessary for the image blurring process as described above is determined as the value of the geometric transformation parameter of the input image 2. The image blurring process is not limited to the image blurring process described above, and a well-known image blurring process can be appropriately employed.

以上のように、本実施形態の画像処理方法において、射影変換や画像のぼかし処理を用いることで、より高度な画像照合処理において、処理時間の短縮化および検出精度の向上を図ることが可能となる。   As described above, in the image processing method of the present embodiment, by using projective transformation and image blurring processing, it is possible to shorten processing time and improve detection accuracy in more advanced image matching processing. Become.

具体的には、入力画像2に関し、検査対象となる部品等の撮像の際に、カメラ等の撮像手段による撮像方向が、検査対象物において設定される撮影面に対して垂直でないことにより、入力画像2において検査対象となる部品等が台形状に歪む現象(いわゆる台形歪み)が生じる場合がある。このような入力画像2において生じる台形歪みは、検出誤差の原因となる。   Specifically, with respect to the input image 2, when the part to be inspected is imaged, the imaging direction by the imaging unit such as a camera is not perpendicular to the imaging plane set in the inspection object. In the image 2, there is a case in which a part to be inspected is distorted into a trapezoid (so-called trapezoidal distortion). Such trapezoidal distortion that occurs in the input image 2 causes detection errors.

そこで、上述したように本実施形態の画像処理方法において射影変換が用いられることにより、入力画像2において台形歪みが生じた場合であっても、正確に画像照合を行うことが可能となる。つまり、変換後テンプレート画像群として、射影変換を施した複数のテンプレート画像1を予め準備することにより、台形歪みの影響を加味した固有値分解テンプレート画像を生成することができ、台形歪みによる誤差の少ない正確な画像照合を行うことができる。   Therefore, by using projective transformation in the image processing method of the present embodiment as described above, it is possible to accurately perform image matching even when trapezoidal distortion occurs in the input image 2. That is, by preparing in advance a plurality of template images 1 that have undergone projective transformation as a group of converted template images, an eigenvalue decomposition template image that takes into account the effect of trapezoidal distortion can be generated, and errors due to trapezoidal distortion are small. Accurate image matching can be performed.

また、同じく入力画像2に関し、カメラ等の撮像手段と検査対象物との距離により、入力画像2には「ぼけ」が含まれる。通常、このような画像のぼけに対しては、オートフォーカス処理等によって、カメラやレンズの移動をともなう調整(ピント合わせ)が行われる。しかし、このようなカメラやレンズの移動をともなう調整は、機械的な処理であるため、処理時間が長くなってしまう。   Similarly, regarding the input image 2, “blur” is included in the input image 2 due to the distance between the imaging means such as a camera and the inspection object. Normally, for such blurring of an image, adjustment (focusing) with movement of a camera or a lens is performed by autofocus processing or the like. However, such adjustment with movement of the camera and lens is a mechanical process, so that the processing time becomes long.

そこで、上述したように本実施形態の画像処理方法において画像のぼかし処理が用いられることにより、入力画像2にぼけが生じた場合であっても、事前に様々なパターンでぼかし処理を施したテンプレート画像1を準備することで対応が可能となる。つまり、変換後テンプレート画像群として、ぼかし処理を施した複数のテンプレート画像1を予め準備することにより、画像のぼけの影響を加味した固有値分解テンプレート画像を生成することができ、画像のぼけによる誤差の少ない正確な画像照合を行うことができる。また、オートフォーカス処理等の、画像処理時間の長期化の原因となる処理を省略することができるので、画像照合を行うための処理時間を短くすることができる。   Therefore, as described above, by using the image blurring process in the image processing method of the present embodiment, even if the input image 2 is blurred, a template that has been subjected to the blurring process in various patterns in advance. By preparing the image 1, it is possible to cope with it. That is, by preparing in advance a plurality of template images 1 subjected to blurring processing as a template image group after conversion, an eigenvalue decomposition template image that takes into account the effect of image blur can be generated, and errors due to image blurring can be generated. Therefore, it is possible to perform accurate image matching with a small amount of image. In addition, since processing that causes longer image processing time, such as autofocus processing, can be omitted, processing time for image matching can be shortened.

ぼかし処理についてさらに説明する。本実施形態の画像処理方法を用いた実際の検査においては、入力画像2について、ノイズや検査対象物の回転等の幾何学的な変形に加え、撮像手段のレンズのフォーカスずれ等に起因する画像のぼけが発生する。ぼけた画像である入力画像2に対して、テンプレート画像1による画像照合を行った場合、位置ずれが大きくなる。すなわち、入力画像2がぼけることで、ぼけていないテンプレート画像1とぼけた入力画像2との画像照合が行われることになり、画像照合がうまくいかず、位置ずれが生じる。このように画像照合の結果生じる位置ずれは、深刻な問題である。   The blurring process will be further described. In the actual inspection using the image processing method of the present embodiment, the input image 2 is an image caused by a focus shift of the lens of the imaging unit in addition to geometric deformation such as noise and rotation of the inspection object. Blurring occurs. When image collation using the template image 1 is performed on the input image 2 which is a blurred image, the positional deviation becomes large. That is, when the input image 2 is blurred, the image matching between the template image 1 that is not blurred and the blurred input image 2 is performed, the image matching is not successful, and a positional deviation occurs. As described above, misalignment caused as a result of image collation is a serious problem.

そこで、上記のとおりテンプレート画像1にぼかし処理を施すことで、敢えてぼけを加えたテンプレート画像1を画像照合に用いることで、入力画像2にぼけが生じた場合であっても、入力画像2とテンプレート画像1とを一致させることができる。これにより、入力画像2のぼけによる位置ずれの問題を回避することが可能となる。つまり、ぼけた入力画像2に合わせてテンプレート画像1にぼけを加えることで、マッチング精度を上げることができる。   Therefore, by applying blurring processing to the template image 1 as described above, the template image 1 that is intentionally blurred is used for image matching, so that even if the input image 2 is blurred, the input image 2 and The template image 1 can be matched. Thereby, it is possible to avoid the problem of misalignment due to blurring of the input image 2. That is, matching accuracy can be increased by adding blur to the template image 1 in accordance with the blurred input image 2.

一般的に、画像のぼかし処理は、ノイズ除去の用途に用いられるが、本実施形態の画像処理方法においては、入力画像2の照合の対象となるテンプレート画像1にぼかし処理を施すことで、ぼけを加えたテンプレート画像1を作成するために用いられる。このように、本実施形態の画像処理方法は、画像のぼかし処理の用い方が特徴的である。   In general, the image blurring process is used for noise removal. However, in the image processing method according to the present embodiment, blurring is performed by performing a blurring process on the template image 1 that is the target of matching of the input image 2. Is used to create a template image 1 to which is added. Thus, the image processing method of the present embodiment is characterized by the use of the image blurring process.

また、画像のぼけに関しては、小さな画像ぼけから、大きな画像ぼけまで多数のバリエーションがあり得る。このような多数のバリエーションの画像のぼけに対応するためには、画像のぼけのバリエーションに応じて、ぼけを加えたテンプレート画像1も多数枚用意する必要がある。このように全ての画像のぼけに対応して多数のテンプレート画像1を用いた画像照合を行うと、計算時間が非常に長くなると考えられる。   Regarding image blur, there can be many variations from small image blur to large image blur. In order to cope with such a large number of variations in the image, it is necessary to prepare a large number of template images 1 to which the blur has been added in accordance with the variation in the image blur. As described above, if image collation using a large number of template images 1 corresponding to the blur of all images is performed, it is considered that the calculation time becomes very long.

この点、本実施形態の画像処理方法においては、様々なぼけを加えたテンプレート画像群を変換後テンプレート画像として入力し、これらを固有値分解を用いて圧縮することで、上述のような計算時間の問題を解消することができる。つまり、変換後テンプレート画像は、固有値分解によって情報圧縮されることから、画像のぼけのバリエーションが多くなっても、計算時間が長くなることを抑えることができる。   In this regard, in the image processing method of the present embodiment, a template image group with various blurs is input as a template image after conversion, and these are compressed using eigenvalue decomposition to reduce the calculation time as described above. The problem can be solved. That is, since the post-conversion template image is information-compressed by eigenvalue decomposition, it is possible to suppress an increase in calculation time even if there are many variations in image blur.

なお、幾何変換としての射影変換および画像のぼかし処理は、それぞれ単独で用いられたり、上述した方向角および2次元座標値との関係で組み合わせて用いられたりする。   Note that the projective transformation and the image blurring processing as geometric transformation are used independently or in combination in relation to the above-described directional angle and two-dimensional coordinate values.

[画像処理装置]
次に、本実施形態の画像処理方法の適用例として、本実施形態の画像処理方法を行うための装置について説明する。この適用例では、例えばICチップの生産ラインにおいて、ICチップのIC基盤への位置決めの工程で、画像照合が用いられる。
[Image processing device]
Next, as an application example of the image processing method of the present embodiment, an apparatus for performing the image processing method of the present embodiment will be described. In this application example, for example, in an IC chip production line, image verification is used in the process of positioning the IC chip on the IC substrate.

図9および図10に示すように、本実施形態の画像処理装置10は、コンピュータ11と、カメラ12とを備える。画像処理装置10は、カメラ12によってワークとしてのICチップ20を撮像し、その撮像画像を入力画像として、コンピュータ11において予め準備されているテンプレート画像を用いて画像照合を行う。本実施形態の画像処理装置10は、画像照合結果として、入力画像についての方向角および2次元座標値を検出する。   As shown in FIGS. 9 and 10, the image processing apparatus 10 of the present embodiment includes a computer 11 and a camera 12. The image processing apparatus 10 images the IC chip 20 as a work with the camera 12, and uses the captured image as an input image to perform image collation using a template image prepared in advance in the computer 11. The image processing apparatus 10 according to the present embodiment detects a directional angle and a two-dimensional coordinate value for an input image as an image matching result.

そして、画像処理装置10による画像照合結果が用いられることで、複数のICチップ20が収容されるICチップ供給トレイ16からアーム17によってピッキングされたICチップ20が、IC基盤における所定の位置に位置決めされる。なお、アーム17は、例えばICチップ20を搬送する装置の一部を構成するロボットアームやピッキングアーム等の、部品取り出し用の構成である。   Then, by using the image collation result by the image processing apparatus 10, the IC chip 20 picked by the arm 17 from the IC chip supply tray 16 accommodating the plurality of IC chips 20 is positioned at a predetermined position on the IC substrate. Is done. The arm 17 has a configuration for picking up components, such as a robot arm or a picking arm that constitutes a part of a device that transports the IC chip 20.

ICチップ20の位置決めは、具体的には次のように行われる。まず、アーム17によって、ICチップ供給トレイ16内の所定のICチップ20がピッキングされる(矢印A1参照)。ピッキングされたICチップ20が、アーム17に保持された状態で、カメラ12によって撮像される。このICチップ20の撮像画像が入力画像としてコンピュータ11に送信され、テンプレート画像が用いられて画像照合が行われる。   Specifically, the positioning of the IC chip 20 is performed as follows. First, a predetermined IC chip 20 in the IC chip supply tray 16 is picked by the arm 17 (see arrow A1). The picked IC chip 20 is captured by the camera 12 while being held by the arm 17. The captured image of the IC chip 20 is transmitted to the computer 11 as an input image, and image verification is performed using a template image.

画像処理装置10による画像照合結果としての入力画像の方向角および2次元座標値は、撮像対象となったICチップ20の角度および位置に対応する。したがって、画像処理装置10による画像照合結果に基づき、ICチップ20を保持するアーム17が、IC基盤への位置決めに際して、回転および平行移動させられる。かかるアーム17の回転および平行移動の動作の後、アーム17の上下方向の移動をともなって、ICチップ20がIC基盤における所定の位置に位置決めされる。なお、アーム17を回転および平行移動させる代わりに、ICチップ20を支持する構成として、回転および平行移動が可能なステージを採用してもよい。   The direction angle and two-dimensional coordinate value of the input image as an image collation result by the image processing apparatus 10 correspond to the angle and position of the IC chip 20 that is the imaging target. Therefore, the arm 17 holding the IC chip 20 is rotated and translated when positioning the IC chip 20 based on the result of image collation by the image processing apparatus 10. After the arm 17 is rotated and translated, the IC chip 20 is positioned at a predetermined position on the IC substrate as the arm 17 moves in the vertical direction. Instead of rotating and translating the arm 17, a stage capable of rotating and translating may be adopted as a configuration for supporting the IC chip 20.

図10に示すように、コンピュータ11は、演算制御部13と、入力部14と、表示部15とを備える。演算制御部13は、画像処理装置10の一連の動作を制御する。演算制御部13は、プログラム等を格納する格納部、プログラム等を展開する展開部、プログラム等に従って所定の演算を行う演算部、演算部による演算結果等を保管する保管部等を有する。   As shown in FIG. 10, the computer 11 includes an arithmetic control unit 13, an input unit 14, and a display unit 15. The arithmetic control unit 13 controls a series of operations of the image processing apparatus 10. The calculation control unit 13 includes a storage unit that stores a program and the like, a development unit that expands the program and the like, a calculation unit that performs a predetermined calculation according to the program and the like, a storage unit that stores calculation results and the like by the calculation unit, and the like.

演算制御部13としては、具体的には、CPU、ROM、RAM、HDD等がバスで接続される構成や、ワンチップのLSI等からなる構成が用いられる。演算制御部13としては、専用品のほか、市販のパーソナルコンピュータやワークステーション等に上記プログラム等が格納されたものが用いられる。   Specifically, a configuration in which a CPU, ROM, RAM, HDD, or the like is connected by a bus, or a configuration that includes a one-chip LSI or the like is used as the arithmetic control unit 13. As the arithmetic control unit 13, in addition to a dedicated product, a commercially available personal computer, a workstation or the like in which the above program is stored is used.

入力部14は、演算制御部13に接続され、演算制御部13に、画像処理に係る種々の情報・指示等を入力する。入力部14としては、例えば、キーボード、マウス、ポインティングデバイス、ボタン、スイッチ等が用いられる。   The input unit 14 is connected to the calculation control unit 13 and inputs various information / instructions related to image processing to the calculation control unit 13. For example, a keyboard, a mouse, a pointing device, a button, a switch, or the like is used as the input unit 14.

表示部15は、演算制御部13に接続され、画像処理の動作状況、入力部14から演算制御部13への入力内容、画像処理による処理結果等を表示する。表示部15としては、例えば、液晶ディスプレイやCRT(陰極線管)等が用いられる。   The display unit 15 is connected to the calculation control unit 13 and displays an operation status of image processing, an input content from the input unit 14 to the calculation control unit 13, a processing result by the image processing, and the like. For example, a liquid crystal display, a CRT (cathode ray tube), or the like is used as the display unit 15.

カメラ12は、例えばCCDカメラであり、接続ケーブルを介する等してコンピュータ11に接続される。カメラ12は、ICチップ供給トレイ16内のICチップ20に対して相対移動することで、アーム17によるピッキングの対象となるICチップ20を撮像する。本実施形態では、カメラ12は、ICチップ20を上側から撮像し、ICチップ20の平面画像を撮像する。   The camera 12 is a CCD camera, for example, and is connected to the computer 11 via a connection cable. The camera 12 takes an image of the IC chip 20 to be picked by the arm 17 by moving relative to the IC chip 20 in the IC chip supply tray 16. In the present embodiment, the camera 12 captures the IC chip 20 from above and captures a planar image of the IC chip 20.

カメラ12により撮像されたICチップ20についての撮像データは、コンピュータ11に送られ、入力画像22(図11参照)として演算制御部13に入力される。このように、本実施形態の画像処理装置10においては、カメラ12が、入力画像22を取得するための入力画像取得手段として機能する。   Imaging data of the IC chip 20 captured by the camera 12 is sent to the computer 11 and input to the arithmetic control unit 13 as an input image 22 (see FIG. 11). As described above, in the image processing apparatus 10 of the present embodiment, the camera 12 functions as an input image acquisition unit for acquiring the input image 22.

図11に示すように、本実施形態の画像処理装置10において、コンピュータ11に備えられる演算制御部13が、照合の対象物としてのICチップ20の画像であるテンプレート画像21を用いた照合を行うことで、入力画像22に存在するICチップ20の対象画像部分23の幾何変換パラメータの値を決定する画像処理手段として機能する。したがって、演算制御部13において格納部に格納されるプログラム等には、テンプレート画像21とカメラ12によって撮像される入力画像22との画像照合を行うためのプログラムが含まれる。   As shown in FIG. 11, in the image processing apparatus 10 of the present embodiment, the arithmetic control unit 13 provided in the computer 11 performs collation using a template image 21 that is an image of the IC chip 20 as a collation target. Thus, it functions as an image processing means for determining the value of the geometric transformation parameter of the target image portion 23 of the IC chip 20 existing in the input image 22. Therefore, the program stored in the storage unit in the arithmetic control unit 13 includes a program for performing image matching between the template image 21 and the input image 22 captured by the camera 12.

演算制御部13におけるプログラム等の格納部分としては、例えばRAM等のコンピュータ11に内蔵される記憶デバイスのほか、CD(Compact Disk)、FD(Flexible Disk )、MO(Magneto−Optical Disk)、DVD(Digital Versatile Disk)、HD(Hard Disk)等の記憶デバイスが適宜用いられる。   As a storage part of the program or the like in the arithmetic control unit 13, for example, a storage device built in the computer 11 such as a RAM, a CD (Compact Disk), an FD (Flexible Disk), an MO (Magneto-Optical Disk), a DVD ( A storage device such as a digital versatile disk (HD) or a hard disk (HD) is appropriately used.

図10に示すように、演算制御部13は、固有値分解テンプレート画像作成処理部31と、絞込み処理部32と、検出処理部33とを有する。固有値分解テンプレート画像作成処理部31は、予め記憶されているテンプレート画像21に基づいて、変換後テンプレート画像群を生成し、生成した変換後テンプレート画像群に固有値分解を施し、算出した固有関数と変換後テンプレート画像群とから固有値分解テンプレート画像群を作成する。   As illustrated in FIG. 10, the arithmetic control unit 13 includes an eigenvalue decomposition template image creation processing unit 31, a narrowing processing unit 32, and a detection processing unit 33. The eigenvalue decomposition template image creation processing unit 31 generates a converted template image group based on a template image 21 stored in advance, performs eigenvalue decomposition on the generated converted template image group, and converts the calculated eigenfunction and conversion An eigenvalue decomposition template image group is created from the subsequent template image group.

絞込み処理部32は、入力画像22について、上述したような位置(2次元座標値)の絞込み、および姿勢(方向角)の絞込みを行うための処理を行う。つまり、絞込み処理部32は、位置の絞込みによって入力画像22の処理対象画素を決定し、また、姿勢の絞込みにおいて、処理対象画素の全ての画素について、第1の推定方向角θA1を算出し、絞込み角度範囲θA1±αを導出する。 The narrowing-down processing unit 32 performs processing for narrowing down the position (two-dimensional coordinate value) and narrowing down the posture (direction angle) as described above for the input image 22. That is, the narrowing-down processing unit 32 determines the processing target pixel of the input image 22 by narrowing down the position, and calculates the first estimated direction angle θ A1 for all the pixels of the processing target pixel in narrowing down the posture. The narrowing angle range θ A1 ± α is derived.

検出処理部33は、絞込み処理部32によって得られた処理対象画素の各画素について、絞込み角度範囲θA1±αで、入力画像22と、固有値分解テンプレート画像作成処理部31によって生成された固有値分解テンプレート画像群との相関値を算出する。検出処理部33は、算出した相関値から、画像類似度を算出し、算出した画像類似度に基づいて、入力画像22の幾何変換パラメータの値を決定する。 The detection processing unit 33 performs the eigenvalue decomposition generated by the input image 22 and the eigenvalue decomposition template image creation processing unit 31 in the narrowing angle range θ A1 ± α for each pixel of the processing target pixel obtained by the narrowing processing unit 32. A correlation value with the template image group is calculated. The detection processing unit 33 calculates the image similarity from the calculated correlation value, and determines the value of the geometric transformation parameter of the input image 22 based on the calculated image similarity.

図10に示すように、演算制御部13は、テンプレート画像記憶部41と、変換後テンプレート画像生成部42と、固有値分解部43と、固有関数選択部44と、固有値分解テンプレート画像生成部45と、画像選択部46と、相関値ベクトル生成部47と、画素除外部48と、特徴ベクトル生成部49と、ベクトル選出部50と、画像類似度算出部51と、照合部52とを有する。   As shown in FIG. 10, the calculation control unit 13 includes a template image storage unit 41, a post-conversion template image generation unit 42, an eigenvalue decomposition unit 43, an eigenfunction selection unit 44, and an eigenvalue decomposition template image generation unit 45. The image selection unit 46, the correlation value vector generation unit 47, the pixel exclusion unit 48, the feature vector generation unit 49, the vector selection unit 50, the image similarity calculation unit 51, and the collation unit 52.

テンプレート画像記憶部41は、テンプレート画像21(図11参照)を記憶する。テンプレート画像21は、例えば、カメラ12による撮像対象となるICチップ20と同じ部品がカメラ12と同様のアングルから撮像されることにより得られる。テンプレート画像21は、ICチップ20のIC基盤への位置決めの工程において、方向角および2次元座標値の基準を示す画像として、入力画像22の照合の対象となる。   The template image storage unit 41 stores the template image 21 (see FIG. 11). For example, the template image 21 is obtained by imaging the same components as the IC chip 20 to be imaged by the camera 12 from the same angle as the camera 12. The template image 21 is a target to be collated with the input image 22 as an image indicating the direction angle and the reference of the two-dimensional coordinate value in the step of positioning the IC chip 20 on the IC substrate.

詳細には、テンプレート画像21は、カメラ12によって取得される入力画像22におけるICチップ20の占める部分、つまり対象画像部分23と同程度の大きさとなるように作成される。言い換えると、カメラ12については、その取得する入力画像22におけるICチップ20の占める部分である対象画像部分23が、テンプレート画像21におけるICチップ20の占める部分と同程度となるように、ICチップ20の撮像位置等が設定される。このようなテンプレート画像21が、演算制御部13のテンプレート画像記憶部41において予め設定され記憶される。   Specifically, the template image 21 is created so as to have the same size as the portion occupied by the IC chip 20 in the input image 22 acquired by the camera 12, that is, the target image portion 23. In other words, for the camera 12, the IC chip 20 is such that the target image portion 23, which is the portion occupied by the IC chip 20 in the input image 22 to be acquired, is comparable to the portion occupied by the IC chip 20 in the template image 21. The imaging position is set. Such a template image 21 is preset and stored in the template image storage unit 41 of the calculation control unit 13.

変換後テンプレート画像生成部42は、上述した画像処理方法における第1の画像群生成ステップでの処理に相当する処理を行う。すなわち、変換後テンプレート画像生成部42は、テンプレート画像記憶部41に記憶されているテンプレート画像21に幾何変換を加えることで、第1の画像群としての変換後テンプレート画像群を生成する。   The post-conversion template image generation unit 42 performs processing corresponding to the processing in the first image group generation step in the above-described image processing method. That is, the post-conversion template image generation unit 42 generates a post-conversion template image group as the first image group by performing geometric transformation on the template image 21 stored in the template image storage unit 41.

変換後テンプレート画像生成部42は、テンプレート画像21に加える幾何変換として、方向角を変化させる回転等を行う。このように、画像処理装置10においては、変換後テンプレート画像生成部42が、テンプレート画像21に幾何変換を加えることで、幾何変換の量が異なる複数の(N枚の)変換後テンプレート画像からなる変換後テンプレート画像群を生成する第1の画像群生成部として機能する。   The post-conversion template image generation unit 42 performs rotation or the like for changing the direction angle as the geometric transformation applied to the template image 21. As described above, in the image processing apparatus 10, the post-conversion template image generation unit 42 adds a plurality of (N) post-conversion template images having different amounts of geometric transformation by applying geometric transformation to the template image 21. It functions as a first image group generation unit that generates a template image group after conversion.

固有値分解部43は、上述した画像処理方法における固有値分解ステップでの処理に相当する処理を行う。すなわち、固有値分解部43は、変換後テンプレート画像群に固有値分解を施すことで、固有値および固有関数を算出する。   The eigenvalue decomposition unit 43 performs a process corresponding to the process in the eigenvalue decomposition step in the image processing method described above. That is, the eigenvalue decomposition unit 43 calculates eigenvalues and eigenfunctions by performing eigenvalue decomposition on the converted template image group.

固有値分解部43は、変換後テンプレート画像群を構成する変換後テンプレート画像と同数の固有値および固有関数を算出する。このように、画像処理装置10においては、固有値分解部43は、変換後テンプレート画像群に固有値分解を施すことで、複数の変換後テンプレート画像と同数の固有値および固有関数を算出する。   The eigenvalue decomposition unit 43 calculates the same number of eigenvalues and eigenfunctions as the converted template images constituting the converted template image group. As described above, in the image processing apparatus 10, the eigenvalue decomposition unit 43 calculates eigenvalues and eigenfunctions as many as the plurality of converted template images by performing eigenvalue decomposition on the converted template image group.

固有関数選択部44は、上述した画像処理方法における固有関数選択ステップでの処理に相当する処理を行う。すなわち、画像処理装置10においては、固有関数選択部44は、固有値分解部43で算出された複数の固有関数のうち、固有値の大きな順に、所定の数の固有関数を選択する。つまり、固有関数選択部44によれば、固有値分解部43で算出された複数の(N個の)固有関数のうち、固有値が大きい側の一部の(M個の)固有関数が選択される。   The eigenfunction selection unit 44 performs a process corresponding to the process in the eigenfunction selection step in the image processing method described above. That is, in the image processing apparatus 10, the eigenfunction selection unit 44 selects a predetermined number of eigenfunctions in descending order of eigenvalues from among the plurality of eigenfunctions calculated by the eigenvalue decomposition unit 43. That is, the eigenfunction selection unit 44 selects some (M) eigenfunctions on the side having a larger eigenvalue from among a plurality (N) eigenfunctions calculated by the eigenvalue decomposition unit 43. .

固有値分解テンプレート画像生成部45は、上述した画像処理方法における第2の画像群生成ステップでの処理に相当する処理を行う。すなわち、固有値分解テンプレート画像生成部45は、固有値分解部43で算出された複数の固有関数と変換後テンプレート画像生成部42で生成された変換後テンプレート画像群とを内積演算することで、固有値分解テンプレート画像群を生成する処理を行う。   The eigenvalue decomposition template image generation unit 45 performs processing corresponding to the processing in the second image group generation step in the image processing method described above. That is, the eigenvalue decomposition template image generation unit 45 performs an inner product operation on the plurality of eigenfunctions calculated by the eigenvalue decomposition unit 43 and the converted template image group generated by the converted template image generation unit 42, thereby performing eigenvalue decomposition. Processing for generating a template image group is performed.

このように、固有値分解テンプレート画像生成部45は、複数の固有関数と変換後テンプレート画像群との内積演算を施すことで、固有値分解テンプレート画像群を生成する第2の画像群生成部として機能する。画像処理装置10のように、固有関数選択部44を有する構成においては、固有値分解テンプレート画像生成部45は、固有関数選択部44で選択された複数の(M個の)固有関数と変換後テンプレート画像群との内積演算を施すことで、固有値分解テンプレート画像群を生成する。   In this way, the eigenvalue decomposition template image generation unit 45 functions as a second image group generation unit that generates an eigenvalue decomposition template image group by performing an inner product operation of the plurality of eigenfunctions and the converted template image group. . In the configuration including the eigenfunction selection unit 44 as in the image processing apparatus 10, the eigenvalue decomposition template image generation unit 45 includes a plurality of (M) eigenfunctions selected by the eigenfunction selection unit 44 and a converted template. An eigenvalue decomposition template image group is generated by performing an inner product operation with the image group.

画像選択部46は、上述した画像処理方法における画素選択ステップでの処理に相当する処理を行う。すなわち、画像処理装置10においては、画像選択部46は、固有値分解テンプレート画像生成部45で生成された固有値分解テンプレート画像群の各画像(各固有値分解テンプレート画像4)のうち、固有値の大きな順に、所定の数の固有値分解テンプレート画像4を選択する。つまり、画像選択部46によれば、固有値分解テンプレート画像生成部45で生成された複数の(M枚の)固有値分解テンプレート画像4のうち、固有値が大きい側の一部の(K枚の)固有値分解テンプレート画像4が選択される。   The image selection unit 46 performs a process corresponding to the process in the pixel selection step in the image processing method described above. That is, in the image processing apparatus 10, the image selection unit 46 selects the images of the eigenvalue decomposition template image group generated by the eigenvalue decomposition template image generation unit 45 (each eigenvalue decomposition template image 4) in descending order of eigenvalues. A predetermined number of eigenvalue decomposition template images 4 are selected. That is, according to the image selection unit 46, some (K) eigenvalues on the larger eigenvalue side of the plurality (M) eigenvalue decomposition template images 4 generated by the eigenvalue decomposition template image generation unit 45. The decomposition template image 4 is selected.

相関値ベクトル生成部47は、上述した画像処理方法における相関値ベクトル生成ステップでの処理に相当する処理を行う。すなわち、相関値ベクトル生成部47は、変換後テンプレート画像群の各画像(変換後テンプレート画像)について、固有値分解テンプレート画像群の各画像(固有値分解テンプレート画像4)との相関を表す所定の実数である相関値aを各成分の値とする相関値ベクトルを生成する。 The correlation value vector generation unit 47 performs processing corresponding to the processing in the correlation value vector generation step in the image processing method described above. That is, the correlation value vector generation unit 47 is a predetermined real number representing the correlation between each image of the converted template image group (converted template image) and each image of the eigenvalue decomposition template image group (eigenvalue decomposition template image 4). generating a correlation value vector for a certain correlation values a n and the value of each component.

このように、相関値ベクトル生成部47は、変換後テンプレート画像と固有値分解テンプレート画像との照合によって、変換後テンプレート画像群の各変換後テンプレート画像に対応する相関値ベクトルを算出する。画像処理装置10のように、画像選択部46を有する構成においては、相関値ベクトル生成部47は、画像選択部46で選択された(K枚の)固有値分解テンプレート画像4について、相関値ベクトルを生成する。   As described above, the correlation value vector generation unit 47 calculates a correlation value vector corresponding to each converted template image in the converted template image group by collating the converted template image with the eigenvalue decomposition template image. In the configuration including the image selection unit 46 as in the image processing apparatus 10, the correlation value vector generation unit 47 calculates correlation value vectors for the (K) eigenvalue decomposition template images 4 selected by the image selection unit 46. Generate.

このように相関値ベクトルを生成する相関値ベクトル生成部47は、本実施形態の画像処理方法において用いられる辞書を作成する辞書作成部として機能する。ここで作成された辞書、即ち変換後テンプレート画像群と同数の相関値ベクトル群は、演算制御部13において格納部に格納されたりRAM等の記憶部に記憶されたりする。   In this way, the correlation value vector generation unit 47 that generates the correlation value vector functions as a dictionary creation unit that creates a dictionary used in the image processing method of the present embodiment. The dictionary created here, that is, the same number of correlation value vector groups as the converted template image group is stored in the storage unit in the calculation control unit 13 or stored in a storage unit such as a RAM.

画素除外部48は、上述した画像処理方法における画素除外ステップでの処理に相当する処理を行う。すなわち、画素除外部48は、上述した位置(2次元座標値)の絞込みの処理を行う部分であり、0次の相関値rが所定の閾値Ar未満の画素については、処理対象から除外する。処理対象から除外された画素は、幾何変換パラメータについての探索が打ち切られる。 The pixel excluding unit 48 performs a process corresponding to the process in the pixel excluding step in the image processing method described above. That is, the pixel excluding unit 48 is a part that performs the above-described processing for narrowing down the positions (two-dimensional coordinate values), and excludes pixels whose 0th-order correlation value r 0 is less than the predetermined threshold value Ar from processing targets. . The search for the geometric transformation parameter is discontinued for the pixels excluded from the processing target.

このように、画素除外部48は、入力画像2の各画素について、固有値分解テンプレート画像群の画像のうち次数が最も低い最低次数画像(0次の固有値分解テンプレート画像4)と入力画像2との関係について算出される相関値rに基づき、入力画像2の画素のうち最低次数画像についての相関値rが相対的に低い画素を処理対象から除外する。 As described above, the pixel excluding unit 48 determines, for each pixel of the input image 2, the lowest order image (0th-order eigenvalue decomposition template image 4) of the eigenvalue decomposition template image group and the input image 2. Based on the correlation value r 0 calculated for the relationship, pixels having a relatively low correlation value r 0 for the lowest order image among the pixels of the input image 2 are excluded from the processing target.

特徴ベクトル生成部49は、上述した画像処理における特徴ベクトル生成ステップでの処理に相当する処理を行う。すなわち、特徴ベクトル生成部49は、入力画像2について、相関値aを各成分の値とする特徴ベクトルVtを生成する。特徴ベクトルVtは、相関値ベクトル生成部47によって生成された相関値ベクトルの比較対象となる。 The feature vector generation unit 49 performs processing corresponding to the processing in the feature vector generation step in the image processing described above. That is, the feature vector generating unit 49, the input image 2, and generates a feature vector Vt of the correlation values a n and the value of each component. The feature vector Vt is a comparison target of the correlation value vector generated by the correlation value vector generation unit 47.

ベクトル選出部50は、上述した画像処理におけるベクトル選出ステップでの処理に相当する処理を行う。すなわち、ベクトル選出部50は、相関値ベクトル生成部47で生成された複数の相関値ベクトルのうち、特徴ベクトルVtに最も近似する相関値ベクトルを選出する。   The vector selection unit 50 performs processing corresponding to the processing in the vector selection step in the image processing described above. That is, the vector selection unit 50 selects a correlation value vector that most closely approximates the feature vector Vt from among the plurality of correlation value vectors generated by the correlation value vector generation unit 47.

具体的には、ベクトル選出部50は、近似近傍探索等の手法によって、N=360個の相関値ベクトルv0〜v359から、特徴ベクトルVtに最も近似する相関値ベクトルを選出する。   Specifically, the vector selection unit 50 selects a correlation value vector that most closely approximates the feature vector Vt from N = 360 correlation value vectors v0 to v359 by a method such as approximate neighborhood search.

画像類似度算出部51は、上述した画像処理方法における画像類似度算出ステップでの処理に相当する処理を行う。すなわち、画像類似度算出部51は、上記式(1)〜(9)に基づき、姿勢の絞込みによって得られた絞込み角度範囲θA1±αで、入力画像22について、固有値分解テンプレート画像群に対する画像類似度(g(θ))を算出する。画像類似度算出部51は、こうした絞込み角度範囲θA1±αについての画像類似度(g(θ))を、処理対象画素の全てについて画素毎に行う。 The image similarity calculation unit 51 performs processing corresponding to the processing in the image similarity calculation step in the above-described image processing method. That is, the image similarity calculation unit 51 uses the narrowed angle range θ A1 ± α obtained by narrowing down the posture based on the above formulas (1) to (9), and the image corresponding to the eigenvalue decomposition template image group for the input image 22. The similarity (g (θ)) is calculated. The image similarity calculation unit 51 performs the image similarity (g (θ)) for the narrowed-down angle range θ A1 ± α for each pixel to be processed.

このように、画像類似度算出部51は、処理対象画素について、ベクトル選出部50により選出された相関値ベクトルに対応する幾何変換パラメータの値である第1の推定方向角θA1の値の近傍の範囲、すなわち絞込み角度範囲θA1±αで、画像類似度(g(θ))を算出する。 As described above, the image similarity calculation unit 51 near the processing target pixel in the vicinity of the value of the first estimated direction angle θ A1 that is the value of the geometric transformation parameter corresponding to the correlation value vector selected by the vector selection unit 50. In other words, the image similarity (g (θ)) is calculated within the narrowing angle range θ A1 ± α.

照合部52は、上述した画像処理方法における照合ステップでの処理に相当する処理を行う。すなわち、照合部52は、画像類似度算出部51で算出された画像類似度(g(θ))に基づき、入力画像22の幾何変換パラメータの値を決定する。   The collation unit 52 performs processing corresponding to the processing in the collation step in the above-described image processing method. That is, the collation unit 52 determines the value of the geometric transformation parameter of the input image 22 based on the image similarity (g (θ)) calculated by the image similarity calculation unit 51.

照合部52は、テンプレート画像21と入力画像22との照合を、上記のとおり画像類似度算出部51で算出された画像類似度の値を指標として行う。画像処理装置10においては、照合部52は、画像類似度算出部51で算出された画像類似度に基づき、幾何変換パラメータである位置(2次元座標値)および姿勢(方向角)の値を決定する。すなわち、照合部52は、処理対象画素のうち、画像類似度算出部51により算出された最大画像類似度が最も大きな画素の位置を、幾何変換パラメータの2次元座標値の値として決定し、最大画像類似度が最も大きな画素についての最大画像類似度に対応する方向角(第2の推定方向角θA2)を、幾何変換パラメータの方向角として決定する。 The collation unit 52 collates the template image 21 and the input image 22 with the image similarity value calculated by the image similarity calculation unit 51 as described above as an index. In the image processing apparatus 10, the collation unit 52 determines the position (two-dimensional coordinate value) and orientation (direction angle) values that are geometric transformation parameters based on the image similarity calculated by the image similarity calculation unit 51. To do. That is, the collation unit 52 determines the position of the pixel with the largest maximum image similarity calculated by the image similarity calculation unit 51 among the processing target pixels as the value of the two-dimensional coordinate value of the geometric transformation parameter, The direction angle (second estimated direction angle θ A2 ) corresponding to the maximum image similarity for the pixel having the largest image similarity is determined as the direction angle of the geometric transformation parameter.

以上のように、本実施形態の画像処理装置10において演算制御部13が有する各部によって行われる画像照合によれば、照合結果として、入力画像22の方向角および2次元座標値が得られる。具体的には、図11に示すように、照合結果に含まれる方向角としては、例えば、テンプレート画像21の方向角を示す基準線O10に対する、対象画像部分23の傾き(回転角度)θが求められる。また、照合結果に含まれる2次元座標値としては、例えば、入力画像22における所定の位置(図11に示す例では、入力画像2の左上の角の位置)を原点O20とした場合の対象画像部分23の中心位置C10の2次元座標値(XY座標値)が求められる。   As described above, according to the image collation performed by each unit included in the calculation control unit 13 in the image processing apparatus 10 of the present embodiment, the direction angle and the two-dimensional coordinate value of the input image 22 are obtained as the collation result. Specifically, as shown in FIG. 11, as the direction angle included in the collation result, for example, the inclination (rotation angle) θ of the target image portion 23 with respect to the reference line O10 indicating the direction angle of the template image 21 is obtained. It is done. As the two-dimensional coordinate value included in the collation result, for example, a target image when a predetermined position in the input image 22 (in the example illustrated in FIG. 11, the position of the upper left corner of the input image 2) is the origin O20. A two-dimensional coordinate value (XY coordinate value) of the center position C10 of the portion 23 is obtained.

以上説明した画像処理装置10においては、入力画像22について決定される幾何変換パラメータとして、方向角および2次元座標値が用いられているが、上述したように、テンプレート画像21に加えられる幾何変換として射影変換や画像のぼかし処理が用いられ、幾何変換パラメータとして射影変換や画像のぼかし処理に必要なパラメータが用いられてもよい。   In the image processing apparatus 10 described above, the directional angle and the two-dimensional coordinate value are used as the geometric transformation parameters determined for the input image 22, but as described above, as the geometric transformation applied to the template image 21. Projective transformation or image blurring processing may be used, and parameters necessary for projective transformation or image blurring processing may be used as geometric transformation parameters.

[処理手順]
本実施形態の画像処理として行われる画像照合の処理手順の一例について、図2、図12から図14に示すフロー図を用いて説明する。
[Processing procedure]
An example of the processing procedure of image collation performed as the image processing of this embodiment will be described with reference to the flowcharts shown in FIGS. 2 and 12 to 14.

図2に示すように、本実施形態の画像処理としての画像照合の処理手順では、まず、テンプレート画像の入力が行われる(S10)。ここでは、画像処理装置10において、検査対象であるICチップ20が所定の方法によって撮像されることで得られるテンプレート画像21が、テンプレート画像記憶部41に入力され、予め記憶される。   As shown in FIG. 2, in the image collation processing procedure as the image processing of this embodiment, first, a template image is input (S10). Here, in the image processing apparatus 10, a template image 21 obtained by imaging the IC chip 20 to be inspected by a predetermined method is input to the template image storage unit 41 and stored in advance.

次に、固有値分解テンプレート画像の生成が行われる(S20)。この固有値分解テンプレート画像生成ステップの詳細を、図12のフロー図に示す。   Next, an eigenvalue decomposition template image is generated (S20). Details of this eigenvalue decomposition template image generation step are shown in the flowchart of FIG.

図12に示すように、固有値分解テンプレート画像生成ステップでは、まず、変換後テンプレート画像群の生成が行われる(S21)。このステップは、第1の画像群生成ステップに相当する。このステップでは、テンプレート画像1を1°ピッチで回転させることで、方向角が1°ピッチで異なるN=360枚の変換後テンプレート画像(θ=0〜359)が生成され、この360枚の変換後テンプレート画像が、変換後テンプレート画像群T[i]として得られる。   As shown in FIG. 12, in the eigenvalue decomposition template image generation step, first, a converted template image group is generated (S21). This step corresponds to a first image group generation step. In this step, by rotating the template image 1 at a 1 ° pitch, N = 360 converted template images (θ = 0 to 359) having different directional angles at a 1 ° pitch are generated, and the 360 converted images A post-template image is obtained as a post-conversion template image group T [i].

画像処理装置10では、変換後テンプレート画像生成部42により、テンプレート画像記憶部41に記憶されているテンプレート画像21が1°ピッチで回転させられることで、N=360枚の変換後テンプレート画像(回転画像)からなる変換後テンプレート画像群が生成される。図3に示す例では、N枚の変換後テンプレート画像からなる変換後テンプレート画像群1Nが生成される。   In the image processing apparatus 10, the template image 21 stored in the template image storage unit 41 is rotated at a 1 ° pitch by the converted template image generation unit 42, so that N = 360 converted template images (rotated). A post-conversion template image group consisting of (image) is generated. In the example illustrated in FIG. 3, a post-conversion template image group 1N including N post-conversion template images is generated.

次に、複数の固有値および固有関数の算出が行われる(S22)。このステップは、固有値分解ステップに相当する。このステップでは、変換後テンプレート画像群T[i]に対して固有値分解を行うことで、固有関数φ[i]と固有値λ[i]が得られる。   Next, a plurality of eigenvalues and eigenfunctions are calculated (S22). This step corresponds to the eigenvalue decomposition step. In this step, eigenvalue decomposition is performed on the post-conversion template image group T [i] to obtain the eigenfunction φ [i] and the eigenvalue λ [i].

画像処理装置10では、固有値分解部43により、変換後テンプレート画像群(N枚の変換後テンプレート画像)に固有値分解が施されることで、固有値および固有関数が算出される。ここでは、固有値分解部43により生成された変換後テンプレート画像の数と同数(N個)の固有値および固有関数が算出される。したがって、上記のとおり360枚の変換後テンプレート画像が生成される場合、360個の固有値および固有関数が算出される。図3に示す例では、変換後テンプレート画像群1Nに固有値分解が施されることで、N個の固有関数φ(θ),(n=1,2,・・・N)からなる固有関数群と、N個の固有値が算出される。 In the image processing apparatus 10, the eigenvalue decomposition unit 43 performs eigenvalue decomposition on the post-conversion template image group (N post-conversion template images), thereby calculating eigenvalues and eigenfunctions. Here, the same number (N) of eigenvalues and eigenfunctions as the number of post-conversion template images generated by the eigenvalue decomposition unit 43 are calculated. Therefore, when 360 converted template images are generated as described above, 360 eigenvalues and eigenfunctions are calculated. In the example shown in FIG. 3, eigenvalue decomposition is performed on the post-conversion template image group 1N, whereby an eigenfunction consisting of N eigenfunctions φ n (θ), (n = 1, 2,... N). A group and N eigenvalues are calculated.

続いて、固有値の大きさに基づく固有関数の選択が行われる(S23)。このステップは、固有関数選択ステップに相当する。このステップでは、固有値λ[i]の値を基に、固有値λ[i]が大きい順に、M個(例えば60個)の固有関数φ[i]が選択される。   Subsequently, the eigenfunction is selected based on the size of the eigenvalue (S23). This step corresponds to an eigenfunction selection step. In this step, M (for example, 60) eigenfunctions φ [i] are selected in descending order of the eigenvalue λ [i] based on the value of the eigenvalue λ [i].

画像処理装置10では、固有関数選択部44により、固有値分解部43で算出されたN個の固有関数のうち、固有値が大きい側の所定の数(M個)の固有関数が選択される。例えば、上記のとおり360個(N個)の固有関数が算出された場合、そのうちの固有値が大きい方の60個(M個)の固有関数が選択される。図3に示す例では、N個の固有関数φ(θ)から、M個の固有関数からなる固有関数群φ(θ),φ(θ),・・・,φ(θ)が選択される。 In the image processing apparatus 10, the eigenfunction selection unit 44 selects a predetermined number (M) of eigenfunctions having larger eigenvalues among the N eigenfunctions calculated by the eigenvalue decomposition unit 43. For example, when 360 (N) eigenfunctions are calculated as described above, 60 (M) eigenfunctions having a larger eigenvalue are selected. In the example shown in FIG. 3, a group of eigenfunctions φ 1 (θ), φ 2 (θ),..., Φ M (θ) consisting of M eigenfunctions from N eigenfunctions φ n (θ). Is selected.

そして、固有値分解テンプレート画像群の生成が行われる(S24)。このステップは、第2の画像群生成ステップに相当する。このステップでは、ステップS23で選択されたM個の固有関数φ[i]と、ステップS21で生成されたN枚の変換後テンプレート画像から、M個の固有値分解テンプレート画像が生成される。   Then, an eigenvalue decomposition template image group is generated (S24). This step corresponds to a second image group generation step. In this step, M eigenvalue decomposition template images are generated from the M eigenfunctions φ [i] selected in step S23 and the N converted template images generated in step S21.

画像処理装置10では、固有値分解テンプレート画像生成部45により、上記式(4)に基づき、固有関数選択部44で選択されたM個の固有関数と変換後テンプレート画像生成部42で生成された変換後テンプレート画像群とが内積演算されることで、固有値分解テンプレート画像群(M枚の固有値分解テンプレート画像)が生成される。図3に示す例では、固有値分解テンプレート画像E1〜E3(E(x,y)〜E(x,y))からなる固有値分解テンプレート画像群が得られる。 In the image processing apparatus 10, the eigenvalue decomposition template image generation unit 45 converts the M eigenfunctions selected by the eigenfunction selection unit 44 and the converted template image generation unit 42 based on the above formula (4). The eigenvalue decomposition template image group (M eigenvalue decomposition template images) is generated by calculating the inner product with the subsequent template image group. In the example shown in FIG. 3, an eigenvalue decomposition template image group including eigenvalue decomposition template images E1 to E3 (E 1 (x, y) to E 3 (x, y)) is obtained.

次に、図2に戻り、辞書の生成が行われる(S30)。この辞書生成ステップの詳細を、図13のフロー図に示す。   Next, returning to FIG. 2, a dictionary is generated (S30). Details of this dictionary generation step are shown in the flowchart of FIG.

図13に示すように、辞書生成ステップでは、まず、K(<M)個の固有値分解テンプレート画像の選択が行われる(S31)。このステップは、画像選択ステップに相当する。このステップでは、固有値λ[i]の値を基に、固有値λ[i]が大きい順に、K個(例えば10個)の固有値分解テンプレート画像4が選択される。ここで選択された複数の固有値分解テンプレート画像4を「辞書テンプレート群」とする。   As shown in FIG. 13, in the dictionary generation step, first, K (<M) eigenvalue decomposition template images are selected (S31). This step corresponds to an image selection step. In this step, K (for example, 10) eigenvalue decomposition template images 4 are selected in descending order of the eigenvalue λ [i] based on the value of the eigenvalue λ [i]. The plurality of eigenvalue decomposition template images 4 selected here are defined as “dictionary template group”.

画像処理装置10では、画像選択部46により、固有値分解テンプレート画像生成部45で生成されたM枚の固有値分解テンプレート画像4のうち、固有値が大きい側の所定の数(K枚)の固有値分解テンプレート画像4が選択される。例えば、60枚の固有値分解テンプレート画像4が生成された場合、そのうちの固有値が大きい方の10枚(K枚)の固有値分解テンプレート画像4が選択される。   In the image processing apparatus 10, a predetermined number (K) of eigenvalue decomposition templates having larger eigenvalues among the M eigenvalue decomposition template images 4 generated by the eigenvalue decomposition template image generation unit 45 by the image selection unit 46. Image 4 is selected. For example, when 60 eigenvalue decomposition template images 4 are generated, ten (K) eigenvalue decomposition template images 4 having larger eigenvalues are selected.

次に、N個の相関値ベクトルの生成が行われる(S32)。このステップは、相関値ベクトル生成ステップに相当する。このステップでは、N個の変換後テンプレート画像群T[i]に対して、K(<M)個の固有値分解テンプレート画像4との照合が行われ、N個の相関値ベクトルv[i]={ai0,ai1,ai2,・・・,ai(K−1)}が生成される。ここで、各相関値ベクトルv[i]に対応する変換後テンプレート画像の姿勢(方向角)を「s[i]」とする。   Next, N correlation value vectors are generated (S32). This step corresponds to a correlation value vector generation step. In this step, the N converted template image groups T [i] are compared with K (<M) eigenvalue decomposition template images 4, and N correlation value vectors v [i] = {Ai0, ai1, ai2, ..., ai (K-1)} are generated. Here, it is assumed that the orientation (direction angle) of the converted template image corresponding to each correlation value vector v [i] is “s [i]”.

画像処理装置10では、相関値ベクトル生成部47により、変換後テンプレート画像生成部42により生成されたN枚の変換後テンプレート画像と、画像選択部46により選択されたK枚の固有値分解テンプレート画像4との畳込み演算により、K個(例えば10個)の成分を有するN=360個の相関値ベクトルv0〜v359が生成される。   In the image processing apparatus 10, the N converted template images generated by the converted template image generating unit 42 by the correlation value vector generating unit 47 and the K eigenvalue decomposition template images 4 selected by the image selecting unit 46 are used. N = 360 correlation value vectors v0 to v359 having K (for example, 10) components are generated.

次に、図2に戻り、入力画像2の入力が行われる(S40)。ここでは、画像処理装置10において、カメラ12により、アーム17によってピッキングされてアーム17に保持されている状態のICチップ20が撮像され、その撮像データが、コンピュータ11の演算制御部13に入力される。図3に示す例では、入力画像2が取得され入力される。   Next, returning to FIG. 2, the input image 2 is input (S40). Here, in the image processing apparatus 10, the IC chip 20 picked by the arm 17 and held by the arm 17 is imaged by the camera 12, and the imaged data is input to the arithmetic control unit 13 of the computer 11. The In the example shown in FIG. 3, the input image 2 is acquired and input.

続いて、同じく図2に示すように、3段階の絞込みをともなう画像照合が行われる(S50)。この3段階絞込み画像照合ステップの詳細を、図14のフロー図に示す。   Subsequently, as shown in FIG. 2, image collation is performed with three stages of narrowing down (S50). Details of this three-stage narrowed image collation step are shown in the flowchart of FIG.

図14に示すように、3段階絞込み画像照合ステップでは、まず、入力画像2と0次の固有値分解テンプレート画像4との照合による0次相関画像5の取得が行われる(S51)。すなわち、このステップでは、入力画像2と0次の固有値分解テンプレート画像4との畳込みの結果として、入力画像2の各画素に対応する画素ついての0次の応答値、つまり0次の相関値rの大小を表した0次相関画像5(図4参照)が取得される。 As shown in FIG. 14, in the three-stage narrowed image collation step, first, the 0th-order correlation image 5 is obtained by collating the input image 2 with the 0th-order eigenvalue decomposition template image 4 (S51). That is, in this step, as a result of the convolution of the input image 2 and the 0th-order eigenvalue decomposition template image 4, the 0th-order response value for the pixel corresponding to each pixel of the input image 2, that is, the 0th-order correlation value. 0-order correlation image represents the magnitude of r 0 5 (see FIG. 4) is obtained.

画像処理装置10では、画素除外部48により、入力画像2と0次の固有値分解テンプレート画像4との畳込み演算が行われ、0次相関画像5が生成される。   In the image processing apparatus 10, the pixel excluding unit 48 performs a convolution operation between the input image 2 and the 0th-order eigenvalue decomposition template image 4, thereby generating a 0th-order correlation image 5.

次に、0次相関画像5における閾値Arを用いた処理対象画素の決定が行われる(S52)。すなわち、このステップでは、入力画像2の画素に関し、0次の相関値rが閾値Ar以上となる画素を処理対象画素とし、それ以外の画素、つまり0次の相関値rが閾値Ar未満となる画素については、処理対象から除外する。 Next, the processing target pixel is determined using the threshold value Ar in the 0th-order correlation image 5 (S52). That is, in this step relates to pixels of the input image 2, the processing target pixel a pixel correlation value r 0 of the 0th order is equal to or greater than a threshold Ar, other pixels, i.e. zero order correlation value r 0 is less than the threshold value Ar Are excluded from the processing target.

画像処理装置10では、画素除外部48により、入力画像2の各画素について算出した0次の相関値rに対し、閾値Arを用いた閾値処理により、処理対象画素以外の画素が処理対象から除外される。なお、閾値Arは、例えば演算制御部13において画素除外部48等に予め設定され記憶される。 In the image processing apparatus 10, pixels other than the processing target pixel are detected from the processing target by threshold processing using the threshold value Ar for the zero-order correlation value r 0 calculated for each pixel of the input image 2 by the pixel excluding unit 48. Excluded. The threshold value Ar is set and stored in advance in the pixel exclusion unit 48 or the like in the arithmetic control unit 13, for example.

3段階絞込み画像照合ステップにおいて、これらのステップS51、S52が、画素除外ステップに相当する。すなわち、これらのステップS51、S52での処理は、上述した位置(2次元座標値)の絞込みの処理に対応する。   In the three-stage narrowed image collation step, these steps S51 and S52 correspond to the pixel exclusion step. That is, the processing in these steps S51 and S52 corresponds to the processing for narrowing down the position (two-dimensional coordinate value) described above.

次に、特徴ベクトルの生成が行われる(S53)。このステップは、特徴ベクトル生成ステップに相当する。このステップでは、処理対象画素の位置に辞書テンプレート群を平行移動させて画像照合が行われ、特徴ベクトルVt={t0,t1,t2,・・・,t(K−1)}が生成される。   Next, feature vectors are generated (S53). This step corresponds to a feature vector generation step. In this step, image collation is performed by translating the dictionary template group to the position of the processing target pixel, and a feature vector Vt = {t0, t1, t2,..., T (K−1)} is generated. .

画像処理装置10では、特徴ベクトル生成部49により、入力画像22と、画像選択部46により選択されたK枚の固有値分解テンプレート画像4との畳込み演算により、K個(例えば10個)の成分を有する特徴ベクトルVtが生成される。   In the image processing apparatus 10, K (for example, 10) components are obtained by a convolution operation between the input image 22 and the K eigenvalue decomposition template images 4 selected by the image selection unit 46 by the feature vector generation unit 49. A feature vector Vt is generated.

次に、特徴ベクトルと相関値ベクトルとの比較による最近似相関値ベクトルの選出が行われる(S54)。このステップは、ベクトル選出ステップに相当する。このステップでは、近似近傍探索等の手法が用いられ、辞書テンプレート群、即ちθ=0〜359の360個の相関値ベクトル群から、特徴ベクトルVtに最も近似する相関値ベクトルが選出される。ここで選出された相関値ベクトルから、第1の推定方向角θA1および絞込み角度範囲θA1±αが得られる。ここで選出された相関値ベクトルの姿勢(方向角)s[i]を、「第1の推定姿勢」とする。 Next, the most approximate correlation value vector is selected by comparing the feature vector and the correlation value vector (S54). This step corresponds to a vector selection step. In this step, a technique such as approximate neighborhood search is used, and a correlation value vector that is most approximate to the feature vector Vt is selected from a dictionary template group, that is, 360 correlation value vector groups of θ = 0 to 359. From the correlation value vector selected here, the first estimated direction angle θ A1 and the narrowed-down angle range θ A1 ± α are obtained. The orientation (direction angle) s [i] of the correlation value vector selected here is defined as a “first estimated orientation”.

画像処理装置10では、ベクトル選出部50により、相関値ベクトル生成部47により生成された360個の相関値ベクトルから、特徴ベクトル生成部49により生成された特徴ベクトルVtに最も近似する相関値ベクトルが選出される。そして、ベクトル選出部50において、選出した相関値ベクトルから、第1の推定方向角θA1および絞込み角度範囲θA1±αが算出される。 In the image processing apparatus 10, the correlation value vector that most closely approximates the feature vector Vt generated by the feature vector generation unit 49 from the 360 correlation value vectors generated by the correlation value vector generation unit 47 by the vector selection unit 50. Elected. Then, the vector selection unit 50 calculates the first estimated direction angle θ A1 and the narrowing angle range θ A1 ± α from the selected correlation value vector.

3段階絞込み画像照合ステップにおいて、これらのステップS53、S54での処理が、上述した姿勢(方向角)の絞込みの処理に対応する。   In the three-stage narrowed-down image collation step, the processing in these steps S53 and S54 corresponds to the above-described processing for narrowing down the posture (direction angle).

次に、絞込み角度範囲θA1±αについての画像類似度の算出が行われる(S55)。このステップは、画像類似度算出ステップに相当する。このステップでは、ステップS54にて選出された相関値ベクトルに対応する第1の推定方向角θA1の値の近傍の範囲、すなわち絞込み角度範囲θA1±αで、画像類似度(g(θ))が算出される。そして、絞込み角度範囲θA1±αから、画像類似度(g(θ))が最大となる方向角(第2の推定方向角θA2)が算出される。これにともない、第2の推定方向角θA2に対応する画像類似度(最大画像類似度)が算出される。ここで、最大画像類似度に対応する姿勢(方向角)s[i]を、「第2の推定姿勢」とする。 Next, the image similarity is calculated for the narrowing angle range θ A1 ± α (S55). This step corresponds to an image similarity calculation step. In this step, the image similarity (g (θ)) in the range near the value of the first estimated direction angle θ A1 corresponding to the correlation value vector selected in step S54, that is, the narrowing angle range θ A1 ± α. ) Is calculated. Then, a direction angle (second estimated direction angle θ A2 ) that maximizes the image similarity (g (θ)) is calculated from the narrowed angle range θ A1 ± α. Accordingly, the image similarity (maximum image similarity) corresponding to the second estimated direction angle θ A2 is calculated. Here, the posture (direction angle) s [i] corresponding to the maximum image similarity is defined as a “second estimated posture”.

画像処理装置10では、画像類似度算出部51により、ベクトル選出部50により選出された相関値ベクトルに対応する第1の推定方向角θA1の値の近傍の範囲で、画像類似度(g(θ))が算出される。この画像類似度(g(θ))の相関波形から、第2の推定方向角θA2が算出される。 In the image processing apparatus 10, the image similarity calculation unit 51 determines the image similarity (g () in the range near the value of the first estimated direction angle θ A1 corresponding to the correlation value vector selected by the vector selection unit 50. θ)) is calculated. A second estimated direction angle θ A2 is calculated from the correlation waveform of the image similarity (g (θ)).

そして、入力画像2についての方向角および2次元座標値(XY座標値)の決定が行われる(S56)。このステップは、照合ステップに相当する。このステップでは、処理対象画素のうち、ステップS55により算出された最大画像類似度が最も大きな画素の位置が、2次元座標値の値として決定され、最大画像類似度が最も大きな画素についての最大画像類似度に対応する方向角(第2の推定方向角θA2)が、方向角として決定される。ここで決定された2次元座標の値が、検出位置であり、ここで決定された方向角、つまり第2の推定姿勢が、検出姿勢である。 Then, the direction angle and the two-dimensional coordinate value (XY coordinate value) for the input image 2 are determined (S56). This step corresponds to a collation step. In this step, among the processing target pixels, the position of the pixel having the largest maximum image similarity calculated in step S55 is determined as the value of the two-dimensional coordinate value, and the maximum image for the pixel having the largest maximum image similarity is obtained. A direction angle corresponding to the similarity (second estimated direction angle θ A2 ) is determined as the direction angle. The value of the two-dimensional coordinate determined here is the detection position, and the direction angle determined here, that is, the second estimated posture is the detection posture.

画像処理装置10では、照合部52により、画像類似度算出部51で算出された、処理対象画素についての絞込み角度範囲θA1±αにおける画像類似度(g(θ))に基づき、入力画像22についての、検出位置となる2次元座標値、および検出姿勢となる方向角が決定される。 In the image processing apparatus 10, the input image 22 is calculated based on the image similarity (g (θ)) in the narrowing angle range θ A1 ± α for the processing target pixel calculated by the matching unit 52 by the image similarity calculation unit 51. The two-dimensional coordinate value that becomes the detection position and the direction angle that becomes the detection posture are determined.

そして、図2に戻り、ステップS50における画像照合の結果に基づき、入力画像についての方向角および2次元座標値が、それぞれ検出姿勢および検出位置として出力される(S60)。   Then, referring back to FIG. 2, the direction angle and the two-dimensional coordinate value for the input image are output as the detection posture and the detection position, respectively, based on the result of the image matching in step S50 (S60).

画像処理装置10では、照合部52により決定された検出姿勢および検出位置は、例えば、演算制御部13に接続された表示部15において出力される。   In the image processing apparatus 10, the detection posture and the detection position determined by the collation unit 52 are output, for example, on the display unit 15 connected to the calculation control unit 13.

以上のような処理手順において、ステップS53〜S55は、ステップS51およびS52において決められた処理対象画素の全ての画素について行われる。このため、上述した処理手順においては、例えば次のような手法が採用される。まず、入力画像のうち、ステップS51およびS52において得られた処理対象画素について、その2次元座標値(x,y)が特定される。   In the processing procedure as described above, steps S53 to S55 are performed for all the pixels to be processed determined in steps S51 and S52. For this reason, in the processing procedure described above, for example, the following method is adopted. First, the two-dimensional coordinate value (x, y) is specified for the processing target pixel obtained in steps S51 and S52 in the input image.

そして、処理対象画素の各画素の位置(x,y)について、所定の順序で、特徴ベクトルの生成(S53)、最近似相関値ベクトルの選出(S54)、および画像類似度の算出(S55)が繰り返し行われる。例えば、処理対象画素の各画素の位置(x,y)は、上から順に各行において左側から右側に向けて1画素ずつ順にずらしながら設定される。そして、全ての処理対象画素についての画像類似度gの算出が行われると、その算出結果に基づいて、ステップS56において、最終的な幾何変換パラメータの値(実数値)、つまり方向角および2次元座標値が決定される。   Then, with respect to the position (x, y) of each pixel of the processing target pixel, generation of a feature vector (S53), selection of the most approximate correlation vector (S54), and calculation of image similarity (S55) in a predetermined order. Is repeated. For example, the position (x, y) of each pixel of the processing target pixel is set while sequentially shifting one pixel at a time from the left side to the right side in each row. When the image similarity g is calculated for all the processing target pixels, based on the calculation result, in step S56, the final geometric transformation parameter value (real value), that is, the direction angle and the two-dimensional Coordinate values are determined.

以上のような画像照合の処理手順に関し、画像処理装置10においては、予め記憶されているテンプレート画像21に基づいて固有値分解テンプレート画像群が作成される処理であるステップS10、S20が、固有値分解テンプレート画像作成処理部31により行われる。また、位置の絞込みおよび方向角の絞込みの処理を行う、ステップS30、S40、およびS50のS51〜S55が、絞込み処理部32により行われる。そして、画像類似度を算出し、方向角および2次元座標値を決定して出力する、ステップS50のS56、およびS60が、検出処理部33により行われる。   With regard to the image collation processing procedure as described above, in the image processing apparatus 10, steps S10 and S20, which are processes for creating an eigenvalue decomposition template image group based on a template image 21 stored in advance, are performed as eigenvalue decomposition templates. This is performed by the image creation processing unit 31. In addition, the narrowing-down processing unit 32 performs steps S30, S40, and S51 to S55 in steps S30, S40, and S50 that perform the process of narrowing the position and narrowing the direction angle. Then, the detection processing unit 33 performs S56 and S60 of step S50, in which the image similarity is calculated, and the direction angle and the two-dimensional coordinate value are determined and output.

なお、実際の処理工程においては、複数のICチップ20の位置決めが行われる場合、固有値分解テンプレート画像作成処理部31による固有値分解テンプレート画像群の生成処理は、複数のICチップ20の位置決めに際して予め行われる。そして、検出処理部33による方向角および2次元座標値の決定のための処理が、各ICチップ20の位置決めの工程において、予め生成された固有値分解テンプレート画像群が用いられて繰り返し行われることとなる。   In the actual processing process, when the plurality of IC chips 20 are positioned, the eigenvalue decomposition template image group generation processing by the eigenvalue decomposition template image creation processing unit 31 is performed in advance when positioning the plurality of IC chips 20. Is called. Then, the process for determining the direction angle and the two-dimensional coordinate value by the detection processing unit 33 is repeatedly performed using the eigenvalue decomposition template image group generated in advance in the positioning process of each IC chip 20. Become.

[評価実験]
以下、本発明の実施例としての評価実験について説明する。図15(a)に示すように、この評価実験では、入力画像102として、512×512ピクセルの画像を100セット用いた。入力画像102においては、対象画像部分103として、姿勢(方向角)が特定できる十字形状の画像部分を用いた。入力画像102において、対象画像部分103は、黒無地の背景中に存在する。100セットの入力画像102は、それぞれ他の入力画像102との関係において対象画像部分103の部分をランダムに回転・平行移動させることで作成した。これに対し、テンプレート画像は、入力画像102における対象画像部分103と同サイズ・同形状の画像部分を含む画像である。
[Evaluation experiment]
Hereinafter, evaluation experiments as examples of the present invention will be described. As shown in FIG. 15A, in this evaluation experiment, 100 sets of 512 × 512 pixel images were used as the input image 102. In the input image 102, a cross-shaped image portion whose posture (direction angle) can be specified is used as the target image portion 103. In the input image 102, the target image portion 103 exists in a black plain background. 100 sets of input images 102 were created by randomly rotating and translating the target image portion 103 in relation to other input images 102. On the other hand, the template image is an image including an image portion having the same size and shape as the target image portion 103 in the input image 102.

また、この評価実験では、本発明に係る画像処理方法(以下「提案手法」という。)において、テンプレート画像を1°ピッチで回転させることで、計360枚の変換後テンプレート画像からなる変換後テンプレート画像群を生成した(N=360)。また、この評価実験では、近似次数M=60とし、相関値ベクトルおよび特徴ベクトルVtの算出に用いる固有値分解テンプレート画像の枚数K=20とした。   Further, in this evaluation experiment, in the image processing method according to the present invention (hereinafter referred to as “proposed method”), the template image is rotated at a 1 ° pitch, so that a converted template composed of a total of 360 converted template images is obtained. A group of images was generated (N = 360). In this evaluation experiment, the approximate order M was set to 60, and the number K of eigenvalue decomposition template images used for calculating the correlation value vector and the feature vector Vt was set to 20.

図15(b)に、この評価実験の結果を示す。図15(b)に示すように、この評価実験では、提案手法に対する比較例として、従来手法についての実験を行った。ここで、従来手法は、提案手法において、位置の絞込みおよび姿勢の絞込みを行わない手法である。つまり、従来手法は、入力画像102の全ての画素を処理対象とし、しかも、相関波形の算出(画像類似度の算出)を全方向角(θ=0〜359°)について行ったものである。また、図15(b)に示すように、この評価実験では、他の比較例として、パターンマッチング手法であるRIPOC(Rotation Invariant Phase Only Correlation)とNCC(Normalized Cross Correlation)を採用した。   FIG. 15B shows the result of this evaluation experiment. As shown in FIG. 15 (b), in this evaluation experiment, an experiment for the conventional method was performed as a comparative example for the proposed method. Here, the conventional method is a method that does not narrow down the position and the posture in the proposed method. That is, in the conventional method, all the pixels of the input image 102 are processed, and the correlation waveform (image similarity calculation) is calculated for all directional angles (θ = 0 to 359 °). Further, as shown in FIG. 15B, in this evaluation experiment, as other comparative examples, RIPOC (Rotation Invariant Phase Only Correlation) and NCC (Normalized Cross Correlation), which are pattern matching techniques, were employed.

図15(b)に示す表において、「距離誤差[pix]」は、位置(2次元座標値)についての正解値に対する測定値のズレであり、「角度誤差[deg]」は、姿勢(方向角)についての正解値対する測定値のズレである。ここで、位置および姿勢それぞれについての正解値は、予め設定される既知の値である。図15(b)に示す表の「距離誤差」および「角度誤差」の各欄に示す数値は、いずれも100枚の入力画像102について得られた測定値の平均値である。また、「成功率[%]」は、位置の測定値が正解値±5[pix]の範囲内であり、かつ、姿勢の測定値が正解値±5[deg]の範囲内である状態を「成功」とし、100枚の入力画像102のうち成功した枚数に相当する。「処理時間[msec]」は、処理を開始してから方向角および2次元座標値を測定するまでの時間である。   In the table shown in FIG. 15B, “distance error [pix]” is a deviation of the measured value from the correct value for the position (two-dimensional coordinate value), and “angle error [deg]” is the posture (direction). This is the deviation of the measured value from the correct value for (angle). Here, the correct value for each position and orientation is a known value set in advance. Each numerical value shown in each column of “distance error” and “angle error” in the table shown in FIG. 15B is an average value of measured values obtained for 100 input images 102. The “success rate [%]” is a state in which the position measurement value is within the range of the correct value ± 5 [pix] and the posture measurement value is within the range of the correct value ± 5 [deg]. “Successful” is equivalent to the number of successful images out of 100 input images 102. “Processing time [msec]” is the time from the start of processing to the measurement of the direction angle and two-dimensional coordinate values.

図15(b)に示す結果からわかるように、提案手法において、従来手法に対して、「距離誤差」、「角度誤差」、および「成功率」はいずれも同じであるが、「処理時間」が1/10以下と大幅に短縮されている。そして、提案手法の「処理時間」は、比較的高速と言われているRIPOCと同程度である。また、提案手法の「距離誤差」および「角度誤差」は、RIPOCと同程度であり、提案手法によれば、RIPOCと同程度の検出精度が得られる。なお、NCCとの比較においては、提案手法の「距離誤差」および「角度誤差」は十分に小さく、「処理時間」も短い。   As can be seen from the result shown in FIG. 15B, the “distance error”, “angle error”, and “success rate” are all the same in the proposed method as compared to the conventional method, but “processing time”. Is significantly shortened to 1/10 or less. The “processing time” of the proposed method is comparable to that of RIPOC, which is said to be relatively fast. In addition, the “distance error” and “angle error” of the proposed method are comparable to those of RIOC, and according to the proposed method, detection accuracy similar to that of RIOC can be obtained. In comparison with NCC, the “distance error” and “angle error” of the proposed method are sufficiently small, and the “processing time” is also short.

他の評価実験について、図16を用いて説明する。この評価実験では、入力画像にノイズを加えて測定を行った。具体的には、図16(a)に示すように、この評価実験用いた入力画像202は、対象画像部分203に加え、ノイズとしての網目模様の背景204と3本の湾曲したライン205とを有する。他の条件等は、上述した評価実験と同じである。このように入力画像が比較的複雑な評価実験は、実際に画像照合が用いられる状況に近い場面を想定したものである。   Another evaluation experiment will be described with reference to FIG. In this evaluation experiment, measurement was performed by adding noise to the input image. Specifically, as shown in FIG. 16A, the input image 202 used in this evaluation experiment includes a mesh pattern background 204 as noise and three curved lines 205 in addition to the target image portion 203. Have. Other conditions and the like are the same as in the evaluation experiment described above. In this way, the evaluation experiment in which the input image is relatively complicated assumes a scene close to a situation where image matching is actually used.

図16(b)に示す結果からわかるように、この評価実験についても、上述した評価実験と同様に、提案手法において、従来手法に対して、「距離誤差」、「角度誤差」、および「成功率」はいずれも同程度であるが、「処理時間」が1/10以下と大幅に短縮されている。また、提案手法の「処理時間」は、比較的高速と言われているRIPOCと同程度である。また、提案手法の「距離誤差」および「角度誤差」は、RIPOCと同程度であり、提案手法によれば、RIPOCと同程度の検出精度が得られる。なお、NCCとの比較においては、提案手法の「距離誤差」および「角度誤差」は十分に小さく、「処理時間」も短い。   As can be seen from the results shown in FIG. 16B, in the same way as the evaluation experiment described above, in the proposed method, the “distance error”, the “angle error”, and the “success” are compared with the conventional method. “Rate” is about the same, but “processing time” is greatly reduced to 1/10 or less. In addition, the “processing time” of the proposed method is comparable to that of RIPOC, which is said to be relatively fast. In addition, the “distance error” and “angle error” of the proposed method are comparable to those of RIOC, and according to the proposed method, detection accuracy similar to that of RIOC can be obtained. In comparison with NCC, the “distance error” and “angle error” of the proposed method are sufficiently small, and the “processing time” is also short.

ただし、この評価実験では、RIPOCの「成功率」が、上述した評価実験の場合と比べて大幅に(半分以下に)減少している。これに対し、提案手法は、このノイズを含む入力画像202を用いた評価実験においても、ノイズを有しない入力画像102を用いた評価実験の場合と同程度の「成功率」が維持されている。つまり、提案手法は、RIPOCと比べて、検出精度について入力画像上に存在するノイズによる影響を受けにくく、入力画像が複雑になっても、検出精度を維持することができる。   However, in this evaluation experiment, the “success rate” of RIPOC is significantly reduced (less than half) compared to the case of the evaluation experiment described above. In contrast, the proposed method maintains the same “success rate” in the evaluation experiment using the input image 202 including noise as in the evaluation experiment using the input image 102 having no noise. . That is, the proposed method is less affected by noise existing on the input image than the RIPOC, and the detection accuracy can be maintained even when the input image becomes complicated.

以上のような評価実験の結果から、提案手法によれば、実用に十分耐えうる処理速度が得られ、RIPOCとの比較においても同程度の検出精度を得ることができることが実証された。また、提案手法は、RIPOCと比べて、入力画像上のノイズによる影響を受けにくく、入力画像が複雑になっても検出精度をある程度維持できることが実証された。以上のように、評価実験の結果から、提案手法は、処理速度、検出精度、およびノイズの影響を総合的に勘案して、上述した提案手法に対する従来手法やRIPOCやNCC等の従来技術に対して優れた手法であると言える。   From the results of the evaluation experiments as described above, it was proved that the proposed method can obtain a processing speed that can withstand practical use and can obtain the same level of detection accuracy in comparison with RIPOC. In addition, it was proved that the proposed method is less affected by noise on the input image than RIPOC, and that the detection accuracy can be maintained to some extent even when the input image becomes complicated. As described above, based on the results of the evaluation experiment, the proposed method comprehensively takes into consideration the effects of processing speed, detection accuracy, and noise, and compared with the conventional method for the above-described proposed method and the conventional techniques such as RIPOC and NCC. It can be said that this is an excellent technique.

なお、提案手法において、テンプレート画像群の濃淡値に対して固有値分解を行うのではなく、それぞれのテンプレート画像および入力画像をエッジ方向画像あるいは増分符号画像に変換した後に、提案手法によりテンプレート画像群を固有値分解テンプレート画像群に変換して画像照合を行うこともできる。すなわち、エッジ方向を加味した画像照合を行うことで、明るさの変動や、対象物の一部が隠れる等の遮蔽に頑健な画像照合が可能となる。   In the proposed method, the eigenvalue decomposition is not performed on the gray value of the template image group, but the template image group is converted by the proposed method after the template image and the input image are converted into the edge direction image or the incremental code image. It is also possible to perform image matching by converting into an eigenvalue decomposition template image group. That is, by performing image matching in consideration of the edge direction, it is possible to perform image matching that is robust against shielding such as fluctuations in brightness and hiding part of the object.

提案手法は、入力画像からテンプレート画像と一致する位置と方向角等の幾何変換パラメータを高速に検出する手法である。提案手法は、テンプレート画像の固有値分解で得られる画像を照合することで、相関値波形を算出する。すなわち、提案手法は、画像照合用のテンプレート画像群に固有値分解を施して主成分情報を抽出し、これに基づいて画像の類似度推定用の連続した類似度曲線を算出することにより、照合時間の短縮および照合精度の向上を可能とするものである。   The proposed method is a method for detecting, at high speed, a geometric transformation parameter such as a position and a direction angle that matches a template image from an input image. The proposed method calculates a correlation value waveform by collating images obtained by eigenvalue decomposition of a template image. That is, the proposed method performs eigenvalue decomposition on a template image group for image matching to extract principal component information, and based on this, calculates a continuous similarity curve for image similarity estimation, thereby matching time Shortening and improving collation accuracy.

提案手法は、固有値分解を用いて枚数を削減した新たなテンプレート画像を用いて精度を落とすことなく、検査対象画像(入力画像)とテンプレート画像との幾何学的差異(幾何変換パラメータの値)を推定する圧縮テンプレートマッチング法ということができる。そして、固有値分解により算出された固有関数を、元のテンプレート画像群である第1の画像群(変換後テンプレート画像群)に内積演算して生成した第2の画像群(固有値分解テンプレート画像群)の生成、および入力画像との画像類似度の算出に2度活用している。これにより、連続曲線で表される画像類似度を得ることができ、従来技術では得られない高い精度の幾何変換パラメータの値の推定を行うことが可能となる。   The proposed method uses the new template image reduced in number using eigenvalue decomposition and reduces the geometric difference (geometric transformation parameter value) between the image to be inspected (input image) and the template image without reducing accuracy. It can be said that the compression template matching method is estimated. Then, a second image group (eigenvalue decomposition template image group) generated by performing an inner product operation on the first image group (post-conversion template image group) that is the original template image group for the eigenfunction calculated by eigenvalue decomposition. This is used twice to generate the image and calculate the image similarity with the input image. Thereby, the image similarity represented by a continuous curve can be obtained, and it is possible to estimate the value of the geometric transformation parameter with high accuracy that cannot be obtained by the prior art.

そして、提案手法は、入力画像に対して、位置(2次元座標値)の絞込みと、姿勢(方向角)の絞込みとの2段階の絞込みを行うことで、効果的に幾何変換パラメータの探索の範囲、つまり画像類似度を算出する対象となる範囲を狭め、処理時間の更なる短縮化を図る。   Then, the proposed method effectively searches the geometric transformation parameters by performing two-stage narrowing of the position (two-dimensional coordinate value) and the narrowing of the posture (direction angle) on the input image. The range, that is, the range for which the image similarity is calculated, is narrowed to further reduce the processing time.

本発明の応用例としては、自動車部品等の各種機械部品の検査・計測、バイオメトリクス(指紋認証)、文字認識(OCR)、食品・薬品検査、高精度な位置合わせが要求される、半導体ウエハやIC基盤の位置決め(半導体検査、マスク露光の位置合わせ、回転角合わせ(アライメント))、外観検査等が挙げられ、本発明は各分野での適用の可能性を有する。特に、サブピクセルレベルの高い照合精度と高速処理が要求される工業画像処理における画像照合処理においては、本発明に係る画像処理技術が有用である。   Application examples of the present invention include inspection and measurement of various machine parts such as automobile parts, biometrics (fingerprint authentication), character recognition (OCR), food / drug inspection, and high-accuracy alignment. IC substrate positioning (semiconductor inspection, mask exposure alignment, rotation angle alignment (alignment)), visual inspection, and the like, and the present invention has applicability in various fields. In particular, the image processing technique according to the present invention is useful in image matching processing in industrial image processing that requires high subpixel level matching accuracy and high-speed processing.

1 テンプレート画像
2 入力画像
3 対象画像部分
10 画像処理装置
11 コンピュータ
12 カメラ(入力画像取得手段)
13 演算制御部(画像処理手段)
21 テンプレート画像
22 入力画像
23 対象画像部分
31 固有値分解テンプレート画像作成処理部
32 絞込み処理部
33 検出処理部
42 変換後テンプレート画像生成部(第1の画像群生成部)
43 固有値分解部
44 固有関数選択部
45 固有値分解テンプレート画像生成部(第2の画像群生成部)
46 画像選択部
47 相関値ベクトル生成部
48 画素除外部
49 特徴ベクトル生成部
50 ベクトル選出部
51 画像類似度算出部
52 照合部
DESCRIPTION OF SYMBOLS 1 Template image 2 Input image 3 Target image part 10 Image processing apparatus 11 Computer 12 Camera (input image acquisition means)
13 Arithmetic control unit (image processing means)
DESCRIPTION OF SYMBOLS 21 Template image 22 Input image 23 Target image part 31 Eigenvalue decomposition template image creation process part 32 Narrowing process part 33 Detection process part 42 Template image generation part after conversion (1st image group generation part)
43 eigenvalue decomposition unit 44 eigenfunction selection unit 45 eigenvalue decomposition template image generation unit (second image group generation unit)
46 Image selection unit 47 Correlation value vector generation unit 48 Pixel exclusion unit 49 Feature vector generation unit 50 Vector selection unit 51 Image similarity calculation unit 52 Collation unit

Claims (7)

照合の対象物の画像であるテンプレート画像を用いた照合を行うことで、入力画像に存在する照合の対象物の画像部分の幾何変換パラメータの値を決定する画像処理方法であって、
前記テンプレート画像に幾何変換を加えることで、前記幾何変換の量が異なる複数の幾何変換後の前記テンプレート画像からなる第1の画像群を生成する第1の画像群生成ステップと、
前記第1の画像群に固有値分解を施すことで、前記複数の幾何変換後の前記テンプレート画像と同数の固有値および固有関数を算出する固有値分解ステップと、
複数の前記固有関数と前記第1の画像群との内積演算を施すことで、第2の画像群を生成する第2の画像群生成ステップと、
前記第1の画像群の各画像について、前記第2の画像群の各画像との相関を表す所定の実数である相関値を各成分の値とする相関値ベクトルを生成する相関値ベクトル生成ステップと、
前記入力画像の各画素について、前記第2の画像群の画像のうち次数が最も低い最低次数画像と前記入力画像との関係について算出される前記相関値に基づき、前記入力画像の画素のうち前記最低次数画像についての前記相関値が相対的に低い画素を処理対象から除外する画素除外ステップと、
前記入力画像について、前記相関値を各成分の値とする特徴ベクトルを生成する特徴ベクトル生成ステップと、
前記相関値ベクトル生成ステップで生成された複数の前記相関値ベクトルのうち、前記特徴ベクトルに最も近似する前記相関値ベクトルを選出するベクトル選出ステップと、
前記画素除外ステップにより除外された画素以外の処理対象となる画素について、前記ベクトル選出ステップにより選出された前記相関値ベクトルに対応する前記幾何変換パラメータの値の近傍の範囲で、連続曲線で表され前記入力画像と前記第2の画像群との類似度合いを示す画像類似度を算出する画像類似度算出ステップと、
前記画像類似度算出ステップで算出された前記画像類似度に基づき、前記幾何変換パラメータの値を決定する照合ステップと、を備える、
画像処理方法。
An image processing method for determining a value of a geometric transformation parameter of an image portion of an object to be collated existing in an input image by performing collation using a template image that is an image of an object to be collated,
A first image group generation step of generating a first image group composed of the template images after a plurality of geometric transformations by adding geometric transformation to the template image;
An eigenvalue decomposition step of calculating the same number of eigenvalues and eigenfunctions as the plurality of geometrically transformed template images by performing eigenvalue decomposition on the first image group;
A second image group generation step of generating a second image group by performing an inner product operation of the plurality of eigenfunctions and the first image group;
Correlation value vector generation step for generating a correlation value vector having a correlation value that is a predetermined real number representing a correlation with each image of the second image group for each image of the first image group. When,
For each pixel of the input image, based on the correlation value calculated for the relationship between the lowest order image having the lowest order among the images of the second image group and the input image, the pixels of the input image A pixel excluding step of excluding from the processing target pixels having a relatively low correlation value for the lowest order image;
A feature vector generation step of generating a feature vector having the correlation value as a value of each component for the input image;
A vector selection step of selecting the correlation value vector that most closely approximates the feature vector from the plurality of correlation value vectors generated in the correlation value vector generation step;
For pixels to be processed other than the pixels excluded by the pixel exclusion step, a continuous curve is represented in a range near the value of the geometric transformation parameter corresponding to the correlation value vector selected by the vector selection step. An image similarity calculating step for calculating an image similarity indicating a degree of similarity between the input image and the second image group;
A collation step of determining a value of the geometric transformation parameter based on the image similarity calculated in the image similarity calculation step,
Image processing method.
前記固有値分解ステップで算出された複数の前記固有関数のうち、前記固有値の大きな順に、所定の数の前記固有関数を選択する固有関数選択ステップをさらに備え、
前記第2の画像群生成ステップは、前記固有関数選択ステップで選択された複数の前記固有関数と前記第1の画像群との内積演算を施すことで、前記第2の画像群を生成する、
請求項1に記載の画像処理方法。
Of the plurality of eigenfunctions calculated in the eigenvalue decomposition step, further comprising an eigenfunction selection step of selecting a predetermined number of eigenfunctions in descending order of the eigenvalues,
The second image group generation step generates the second image group by performing an inner product operation of the plurality of the eigenfunctions selected in the eigenfunction selection step and the first image group.
The image processing method according to claim 1.
前記第2の画像群生成ステップで生成された第2の画像群の各画像のうち、前記固有値の大きな順に、所定の数の画像を選択する画像選択ステップをさらに備え、
前記相関値ベクトル生成ステップは、前記画像選択ステップで選択された画像について、前記相関値ベクトルを生成する、
請求項1または請求項2に記載の画像処理方法。
An image selection step of selecting a predetermined number of images in descending order of the eigenvalues among the images of the second image group generated in the second image group generation step;
The correlation value vector generation step generates the correlation value vector for the image selected in the image selection step.
The image processing method according to claim 1 or 2.
前記幾何変換パラメータは、方向角および2次元座標値を含み、
前記幾何変換は、方向角を変化させる回転であり、
前記画像類似度算出ステップは、前記処理対象となる画素の全ての画素について、前記ベクトル選出ステップにより選出された前記相関値ベクトルに対応する方向角の値の近傍の範囲で、前記画像類似度を算出し、
前記照合ステップは、前記処理対象となる画素の全ての画素のうち、前記画像類似度算出ステップにより算出された前記画像類似度の最大値が最も大きな画素の位置を、前記幾何変換パラメータの2次元座標値の値として決定し、前記画像類似度の最大値が最も大きな画素についての前記最大値に対応する方向角を、前記幾何変換パラメータの方向角として決定する、
請求項1〜3のいずれか1項に記載の画像処理方法。
The geometric transformation parameter includes a direction angle and a two-dimensional coordinate value,
The geometric transformation is a rotation that changes a direction angle;
In the image similarity calculation step, the image similarity is calculated in a range in the vicinity of the direction angle value corresponding to the correlation value vector selected in the vector selection step for all the pixels to be processed. Calculate
In the collation step, among all the pixels to be processed, the position of the pixel having the largest image similarity calculated in the image similarity calculation step is determined as a two-dimensional geometric conversion parameter. A coordinate value is determined, and a direction angle corresponding to the maximum value for the pixel having the largest image similarity is determined as a direction angle of the geometric transformation parameter.
The image processing method according to claim 1.
入力画像を取得するための入力画像取得手段と、
照合の対象物の画像であるテンプレート画像を用いた照合を行うことで、入力画像に存在する照合の対象物の画像部分の幾何変換パラメータの値を決定する画像処理手段と、を備え、
前記画像処理手段は、
前記テンプレート画像に幾何変換を加えることで、前記幾何変換の量が異なる複数の幾何変換後の前記テンプレート画像からなる第1の画像群を生成する第1の画像群生成部と、
前記第1の画像群に固有値分解を施すことで、前記複数の幾何変換後の前記テンプレート画像と同数の固有値および固有関数を算出する固有値分解部と、
複数の前記固有関数と前記第1の画像群との内積演算を施すことで、第2の画像群を生成する第2の画像群生成部と、
前記第1の画像群の各画像について、前記第2の画像群の各画像との相関を表す所定の実数である相関値を各成分の値とする相関値ベクトルを生成する相関値ベクトル生成部と、
前記入力画像の各画素について、前記第2の画像群の画像のうち次数が最も低い最低次数画像と前記入力画像との関係について算出される前記相関値に基づき、前記入力画像の画素のうち前記最低次数画像についての前記相関値が相対的に低い画素を処理対象から除外する画素除外部と、
前記入力画像について、前記相関値を各成分の値とする特徴ベクトルを生成する特徴ベクトル生成部と、
前記相関値ベクトル生成部で生成された複数の前記相関値ベクトルのうち、前記特徴ベクトルに最も近似する前記相関値ベクトルを選出するベクトル選出部と、
前記画素除外部により除外された画素以外の処理対象となる画素について、前記ベクトル選出部により選出された前記相関値ベクトルに対応する前記幾何変換パラメータの値の近傍の範囲で、連続曲線で表され前記入力画像と前記第2の画像群との類似度合いを示す画像類似度を算出する画像類似度算出部と、
前記画像類似度算出部で算出された前記画像類似度に基づき、前記幾何変換パラメータの値を決定する照合部と、を備える、
画像処理装置。
Input image acquisition means for acquiring an input image;
Image processing means for determining the value of the geometric transformation parameter of the image portion of the object to be collated existing in the input image by performing collation using a template image that is an image of the object to be collated;
The image processing means includes
A first image group generation unit configured to generate a first image group composed of the template images after a plurality of geometric transformations having different geometric transformation amounts by applying geometric transformation to the template image;
An eigenvalue decomposition unit that calculates eigenvalues and eigenfunctions of the same number as the template images after the plurality of geometric transformations by performing eigenvalue decomposition on the first image group;
A second image group generation unit that generates a second image group by performing an inner product operation of the plurality of eigenfunctions and the first image group;
A correlation value vector generation unit that generates a correlation value vector having a correlation value that is a predetermined real number representing a correlation with each image of the second image group as a value of each component for each image of the first image group When,
For each pixel of the input image, based on the correlation value calculated for the relationship between the lowest order image having the lowest order among the images of the second image group and the input image, the pixels of the input image A pixel excluding unit that excludes pixels having a relatively low correlation value for the lowest order image from the processing target;
For the input image, a feature vector generation unit that generates a feature vector having the correlation value as the value of each component;
A vector selection unit that selects the correlation value vector that most closely approximates the feature vector among the plurality of correlation value vectors generated by the correlation value vector generation unit;
The pixel to be processed other than the pixels excluded by the pixel excluding unit is represented by a continuous curve in a range in the vicinity of the value of the geometric transformation parameter corresponding to the correlation value vector selected by the vector selecting unit. An image similarity calculation unit that calculates an image similarity indicating a degree of similarity between the input image and the second image group;
A collation unit that determines a value of the geometric transformation parameter based on the image similarity calculated by the image similarity calculation unit,
Image processing device.
前記画像処理手段は、
前記固有値分解部で算出された複数の前記固有関数のうち、前記固有値の大きな順に、所定の数の前記固有関数を選択する固有関数選択部をさらに備え、
前記第2の画像群生成部は、前記選択部で選択された複数の前記固有関数と前記第1の画像群との内積演算を施すことで、前記第2の画像群を生成する、
請求項5に記載の画像処理装置。
The image processing means includes
Of the plurality of eigenfunctions calculated by the eigenvalue decomposition unit, further comprising an eigenfunction selection unit that selects a predetermined number of the eigenfunctions in descending order of the eigenvalues,
The second image group generation unit generates the second image group by performing an inner product operation of the plurality of eigenfunctions selected by the selection unit and the first image group.
The image processing apparatus according to claim 5.
前記画像処理手段は、
前記第2の画像群生成部で生成された第2の画像群の各画像のうち、前記固有値の大きな順に、所定の数の画像を選択する画像選択部をさらに備え、
前記相関値ベクトル生成部は、前記画像選択部で選択された画像について、前記相関値ベクトルを生成する、
請求項5または請求項6に記載の画像処理装置。
The image processing means includes
An image selection unit that selects a predetermined number of images in descending order of the eigenvalues among the images of the second image group generated by the second image group generation unit;
The correlation value vector generation unit generates the correlation value vector for the image selected by the image selection unit.
The image processing apparatus according to claim 5.
JP2012129238A 2012-06-06 2012-06-06 Image processing method and image processing apparatus Expired - Fee Related JP5945823B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012129238A JP5945823B2 (en) 2012-06-06 2012-06-06 Image processing method and image processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012129238A JP5945823B2 (en) 2012-06-06 2012-06-06 Image processing method and image processing apparatus

Publications (2)

Publication Number Publication Date
JP2013254332A JP2013254332A (en) 2013-12-19
JP5945823B2 true JP5945823B2 (en) 2016-07-05

Family

ID=49951790

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012129238A Expired - Fee Related JP5945823B2 (en) 2012-06-06 2012-06-06 Image processing method and image processing apparatus

Country Status (1)

Country Link
JP (1) JP5945823B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106462728B (en) * 2014-02-10 2019-07-23 精灵有限公司 System and method for the identification based on characteristics of image
JP6999895B2 (en) * 2017-07-06 2022-01-19 株式会社島津製作所 Radiation imaging device and radiological image detection method
CN116028657A (en) * 2022-12-30 2023-04-28 翱瑞(深圳)科技有限公司 Analysis system of intelligent cloud photo frame based on motion detection technology

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012029662A1 (en) * 2010-08-31 2012-03-08 国立大学法人熊本大学 Image processing method and image processing apparatus

Also Published As

Publication number Publication date
JP2013254332A (en) 2013-12-19

Similar Documents

Publication Publication Date Title
JP5317250B2 (en) Image processing method and image processing apparatus
JP6573354B2 (en) Image processing apparatus, image processing method, and program
US6005978A (en) Robust search for image features across image sequences exhibiting non-uniform changes in brightness
JP4825253B2 (en) System and method for deformable object recognition
JP4603512B2 (en) Abnormal region detection apparatus and abnormal region detection method
US10636165B2 (en) Information processing apparatus, method and non-transitory computer-readable storage medium
JP2897772B1 (en) Image registration method, image registration device, and recording medium
US7450765B2 (en) Increasing accuracy of discrete curve transform estimates for curve matching in higher dimensions
US9805443B2 (en) Image processing method, image processing apparatus, program, storage medium, production apparatus, and method of producing assembly
JP7188201B2 (en) Image processing device, image processing method, and image processing program
JP6899189B2 (en) Systems and methods for efficiently scoring probes in images with a vision system
JP2011133273A (en) Estimation apparatus and control method thereof, and program
JP6880618B2 (en) Image processing program, image processing device, and image processing method
JP2009020613A (en) Image processing program, image processing method, and image processor
JP4728444B2 (en) Abnormal region detection apparatus and abnormal region detection method
US6993177B1 (en) Gauging based on global alignment and sub-models
JP5945823B2 (en) Image processing method and image processing apparatus
CN107945120B (en) Sample block based rotation and scaling image restoration method
JP2008071127A (en) Image matching device, image matching program, and image matching method
US11210551B2 (en) Iterative multi-directional image search supporting large template matching
Zhang et al. Research on chips’ defect extraction based on image-matching
JP2022140857A (en) Methods and apparatus for processing image data for machine vision
CN110603535B (en) Iterative multi-directional image search supporting large template matching
JP7324317B2 (en) Image processing device
JPH0628476A (en) Processor for image signal

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150605

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20150612

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160407

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160419

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160512

R150 Certificate of patent or registration of utility model

Ref document number: 5945823

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees