JP4693742B2 - Image processing method, image processing apparatus, image processing program, and recording medium for recording image processing program - Google Patents
Image processing method, image processing apparatus, image processing program, and recording medium for recording image processing program Download PDFInfo
- Publication number
- JP4693742B2 JP4693742B2 JP2006278172A JP2006278172A JP4693742B2 JP 4693742 B2 JP4693742 B2 JP 4693742B2 JP 2006278172 A JP2006278172 A JP 2006278172A JP 2006278172 A JP2006278172 A JP 2006278172A JP 4693742 B2 JP4693742 B2 JP 4693742B2
- Authority
- JP
- Japan
- Prior art keywords
- image processing
- pixels
- pixel
- rotation angle
- edge
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Image Analysis (AREA)
Description
本発明は、撮像装置などから入力された画像データに対して図形処理を行う画像処理方法、画像処理装置、画像処理プログラムおよび画像処理プログラムを記録する記録媒体に関し、特に画像データに含まれるワークの輪郭形状から回転角度と位置を検出する画像処理方法および画像処理装置に関する。 The present invention relates to an image processing method for performing graphic processing on image data input from an imaging apparatus or the like, an image processing apparatus, an image processing program, and a recording medium for recording the image processing program, and in particular, a work included in the image data. The present invention relates to an image processing method and an image processing apparatus for detecting a rotation angle and a position from a contour shape.
製品組立ての自動化および検品作業の自動化などを高精度で実現するために、食品容器、印刷文字、プリント基板上の部品、電子部品などの工業製品をカメラで撮像し、得られた画像データに対して各種画像処理を行う画像処理装置が必要となっている。 In order to realize automation of product assembly and inspection work with high accuracy, industrial products such as food containers, printed characters, parts on printed circuit boards, and electronic parts are imaged with a camera. Therefore, an image processing apparatus that performs various image processing is required.
画像処理を利用して組立て、検査などの作業を行うためには、まず画像データに含まれる対象ワークを検出する必要がある。 In order to perform operations such as assembly and inspection using image processing, it is necessary to first detect a target work included in the image data.
対象ワークの検出を行う場合、よく知られている方法の1つに、対象ワークの形状を示す輪郭成分の解析がある。 When detecting a target workpiece, one of well-known methods is analysis of a contour component indicating the shape of the target workpiece.
対象ワークの輪郭成分を得るには、まず対象ワークの画像データに対して空間微分フィルタを施し、画像データ中の輪郭を成す濃度変化点のエッジ成分を抽出することが行なわれる。エッジ成分抽出としてよく利用されるSobelオペレータによる方法では、注目画素を中心とする3×3画素の画素ブロックに対して、以下のA式に示すようなX方向(水平方向)フィルタFXと、Y方向(垂直方向)フィルタFYとで構成されるSobelオペレータを適用し、注目画素のX方向エッジ強度fxおよびY方向エッジ強度fyを算出する。 In order to obtain the contour component of the target workpiece, first, a spatial differential filter is applied to the image data of the target workpiece to extract the edge component of the density change point forming the contour in the image data. In the method by the Sobel operator, which is often used as edge component extraction, an X-direction (horizontal direction) filter FX as shown in the following expression A is applied to a 3 × 3 pixel block centered on a target pixel, and Y A Sobel operator configured with a direction (vertical direction) filter FY is applied to calculate the X-direction edge strength fx and the Y-direction edge strength fy of the pixel of interest.
算出した水平方向エッジ強度fxおよび垂直方向エッジ強度fyに基づくエッジ強度(2方向の強度の二乗和平方根)と閾値とを比較し、閾値以上の値を持つ画素をエッジ点として登録する。 The edge strength based on the calculated horizontal edge strength fx and vertical edge strength fy (the square root square sum of the strengths in two directions) is compared with a threshold value, and a pixel having a value equal to or greater than the threshold value is registered as an edge point.
こうして、エッジ点が求められた後、対象ワークの輪郭形状に対応する部分を求める手法としては、一般化Hough変換(Generaled Hough Transform,GHT)が挙げられる(非特許文献1参照)。 After obtaining the edge point in this way, as a method for obtaining a portion corresponding to the contour shape of the target workpiece, there is a generalized Hough transform (GHT) (see Non-Patent Document 1).
一般化Hough変換では、まず検査対象の図形をテンプレートとし、テンプレートが幾何学変換されて画像中に存在していると考える。次にテンプレートの位置および方向などを規定する幾何変換パラメータに着目し、そのパラメータ空間で投票を行う。この処理は、大まかには次の1〜4の手順で行なわれる。
手順1 テンプレートの形状定義
手順2 パラメータ空間の設定
手順3 投票
手順4 ピーク点の抽出
このうち手順2〜4は、回転画像照合に該当する。
In the generalized Hough transform, first, a figure to be inspected is used as a template, and the template is considered to exist in the image after being geometrically transformed. Next, pay attention to the geometric transformation parameters that define the position and direction of the template, and vote in the parameter space. This process is roughly performed in the
手順1では、図7に示すようなuv座標系におけるテンプレートを定義し、図8に示すようにθとr,αとを形状定義表に登録する。
In the
手順2では、まず、投票箱([φ][X][Y] φ=回転角、X,Y=基準点、用途の少ないサイズ変動のパラメータは割愛)を用意する。テンプレートが回転後、テンプレート上の点Pi(i=1,2,3,・・・)が画像中の座標(xi,yi)に置かれたとすると、基準点の画像座標(
X,Y)は次式で表される。
X=ricos(αi+φ)+xi、 Y=risin(αi+φ)+yi …(1)
In the procedure 2, first, a ballot box ([φ] [X] [Y] φ = rotation angle, X, Y = reference point, omitting parameters of size variation with few applications) is prepared. If the point Pi (i = 1, 2, 3,...) On the template is placed at the coordinates (xi, yi) in the image after the template is rotated, the image coordinates of the reference point (
X, Y) is expressed by the following equation.
X = ricos (αi + φ) + xi, Y = risin (αi + φ) + yi (1)
ここで、点Piにおけるθi、xi、yiが求められたとし、形状定義表登録時のθを
θ´とすると、次の関係が成り立つ。
θ=θ´+φ …(2)
Here, assuming that θi, xi, and yi at the point Pi are obtained, and θ ′ at the time of shape definition table registration is θ ′, the following relationship is established.
θ = θ ′ + φ (2)
この後、手順3で各φに対して、次の手順で投票する。
(1)式2を満たすθ´を求める。
(2)形状定義表のθ´の箇所から、r、αを求める。
(3)式1を満たす(X,Y)セル空間に投票する。
Thereafter, in the procedure 3, votes for each φ by the following procedure.
(1) Find θ ′ that satisfies Equation 2.
(2) Find r and α from θ ′ in the shape definition table.
(3) Vote for an (X, Y) cell space that satisfies
最終的に最も投票数の多いセル空間(X,Y)が、ピーク点であり、テンプレートの検出位置となる。 Finally, the cell space (X, Y) with the largest number of votes is the peak point and the template detection position.
一般化Hough変換は、計算コストが大きい処理であると言われているため、非特許文献2に記載されているように、求めたエッジ点について予め細線化を施すことで高速化を図る場合がある。また、特許文献1記載の画像認識方法および装置は、圧縮画像による一般化Hough変換で概略の回転角度と位置を求めた後、圧縮画像から求めた回転角度および位置により制限し、原画像による一般化Hough変換を適用する2段処理で高速化を図っている。
Since the generalized Hough transform is said to be a process with a high calculation cost, as described in Non-Patent Document 2, there is a case in which speeding up is performed by thinning the obtained edge point in advance. is there. In addition, the image recognition method and apparatus described in
原理的に一般化Hough変換のみで回転画像照合を行い、回転角度と位置を検出することは可能であるが、投票処理に多くの計算コストを要し、検出精度もSobelオペレータなど空間微分フィルタを用いるため満足しているとは言い難い。また、平行移動および回転に関する投票空間も膨大であり、何らかの工夫が必要とされる。 Although it is possible in principle to perform rotation image matching only with the generalized Hough transform and detect the rotation angle and position, it requires a lot of calculation cost for voting processing, and the detection accuracy is also a spatial differential filter such as Sobel operator. It is hard to say that I am satisfied because I use it. Also, the voting space for translation and rotation is enormous, and some device is required.
そのため、非特許文献2では細線化処理で選別したエッジ点を対象に一般化Hough変換しているが、実使用では細線化による選別が誤検出の原因となる場合がある。 Therefore, in Non-Patent Document 2, the generalized Hough transform is performed on the edge points selected by the thinning process. However, in actual use, the selection by thinning may cause erroneous detection.
また、特許文献1では、一般化Hough変換の2段処理を行っているが、空間微分フィルタでエッジ方向を求めており、検出精度に問題がある。一般化Hough変換における検出精度の成否はエッジ手法の結果に大きく依存するという知見が見出されており(五十嵐悟、他3名、「方向ヒストグラムの自己回帰モデルに基づく回転不変画像照合」、精密工学会誌、精密工学会、2001年、vol.67、no.9、p.1519−1523参照)、特に閾値の設定がエッジの検出精度に与える影響は大きい。
In
さらに、2段処理を用いた場合、最初の粗サーチ段階で選出された候補点の中には、同じものとみなせる点が重複して候補となる可能性がある。この重複したものに対し、各々後続の処理を行うと時間的な無駄が発生する。 Further, when the two-stage process is used, there is a possibility that points that can be regarded as the same among the candidate points selected in the first coarse search stage may be candidates. If each subsequent process is performed on this duplicated item, time is wasted.
本発明の目的は、検出精度向上するとともに、処理の高速化および必要なメモリ容量の縮小を実現する画像処理方法、画像処理装置、画像処理プログラムおよび画像処理プログラムを記録する記録媒体を提供することである。 An object of the present invention is to provide an image processing method, an image processing apparatus, an image processing program, and a recording medium for recording the image processing program, which improve detection accuracy and realize high-speed processing and reduction in necessary memory capacity. It is.
本発明は、画像データに含まれる対象ワークを検出する画像処理方法において、
前記画像データを構成する画素からエッジ画素を抽出し、エッジ方向および位置を登録するエッジ抽出ステップと、
第1の角度ごとに設定された回転角度に基づいて一般化Hough変換を実行するステップであって、投票時に注目画素の周辺画素の投票数を足し込むようにして投票数を決定し、予め定める指定数分の画素を第1候補画素として選択する粗サーチステップと、
前記第1候補画素を対象に、画素間の距離および回転角度差に基づくクラスタリングを行い、各クラスタから代表画素を選出して第2候補画素を選択するクラスタリングステップと、
前記第2候補画素を対象に、前記第1の角度よりも小さい第2の角度ごとに設定された回転角度に基づいて一般化Hough変換を実行し、予め定める指定数分の画素を第3候補画素として選択する中間サーチステップと、
前記第3候補画素を対象に、正規化相関によって対象ワークの回転角度および位置を検出する最終サーチステップとを含むことを特徴とする画像処理方法である。
The present invention relates to an image processing method for detecting a target work included in image data.
An edge extraction step of extracting edge pixels from pixels constituting the image data and registering the edge direction and position;
A step of executing generalized Hough transform based on a rotation angle set for each first angle, wherein the number of votes is determined by adding the number of votes of surrounding pixels of the target pixel at the time of voting, and a predetermined designated number A coarse search step of selecting a minute pixel as a first candidate pixel;
A clustering step for performing clustering based on a distance between pixels and a rotation angle difference for the first candidate pixel, selecting a representative pixel from each cluster, and selecting a second candidate pixel;
A generalized Hough transform is performed on the second candidate pixel based on a rotation angle set for each second angle smaller than the first angle, and a predetermined number of pixels are determined as the third candidate. An intermediate search step to select as pixels;
And a final search step of detecting the rotation angle and position of the target workpiece by normalized correlation with respect to the third candidate pixel.
また本発明は、前記エッジ抽出ステップでは、間引かれた画素に対して5×5画素の
Sobelオペレータを使用してエッジの抽出を行うことを特徴とする。
According to the present invention, in the edge extraction step, 5 × 5 pixels are used for the thinned pixels.
It is characterized by extracting edges using Sobel operator.
また本発明は、前記第1の角度は、5°〜15°であることを特徴とする。
また本発明は、前記クラスタリングステップでは、単純クラスタリング法を使用し、回転角度差の閾値は前記第1の角度であり、前記画素間距離の閾値は、基準テンプレートの中心から最も遠いエッジ画素までの距離に予め定める割合を掛けた距離であることを特徴とする。
In the invention, it is preferable that the first angle is 5 ° to 15 °.
In the present invention, the clustering step uses a simple clustering method, the rotation angle difference threshold is the first angle, and the inter-pixel distance threshold is the distance from the center of the reference template to the farthest edge pixel. It is a distance obtained by multiplying the distance by a predetermined ratio.
また本発明は、前記エッジ抽出ステップより前に、前記画像データに対して平滑化処理を行う平滑化ステップを含むことを特徴とする。 In addition, the present invention includes a smoothing step of performing a smoothing process on the image data before the edge extraction step.
また本発明は、上記の画像処理方法をコンピュータに実行させるための画像処理プログラムである。 The present invention is also an image processing program for causing a computer to execute the above image processing method.
また本発明は、上記の画像処理方法をコンピュータに実行させるための画像処理プログラムを記録したコンピュータ読み取り可能な記録媒体である。 The present invention is also a computer-readable recording medium on which an image processing program for causing a computer to execute the above image processing method is recorded.
また本発明は、画像データに含まれる対象ワークを検出する画像処理装置において、
前記画像データを構成する画素からエッジ画素を抽出し、エッジ方向および位置を登録するエッジ抽出手段と、
第1の角度ごとに設定された回転角度に基づいて一般化Hough変換を実行する手段であって、投票時に注目画素の周辺画素の投票数を足し込むようにして投票数を決定し、予め定める指定数分の画素を第1候補画素として選択する粗サーチ手段と、
前記第1候補画素を対象に、画素間の距離および回転角度差に基づくクラスタリングを行い、各クラスタから代表画素を選出して第2候補画素を選択するクラスタリング手段と、
前記第2候補画素を対象に、前記第1の角度よりも小さい第2の角度ごとに設定された回転角度に基づいて一般化Hough変換を実行し、予め定める指定数分の画素を第3候補画素として選択する中間サーチ手段と、
前記第3候補画素を対象に、正規化相関によって対象ワークの回転角度および位置を検出する最終サーチ手段とを含むことを特徴とする画像処理装置である。
The present invention also provides an image processing apparatus for detecting a target work included in image data.
Edge extraction means for extracting edge pixels from pixels constituting the image data and registering edge directions and positions;
A means for executing a generalized Hough transform based on a rotation angle set for each first angle, wherein the number of votes is determined by adding the number of votes of surrounding pixels of the target pixel at the time of voting, and a predetermined designated number A coarse search means for selecting a minute pixel as a first candidate pixel;
Clustering means for performing clustering based on a distance between pixels and a rotation angle difference for the first candidate pixel, selecting a representative pixel from each cluster, and selecting a second candidate pixel;
A generalized Hough transform is performed on the second candidate pixel based on a rotation angle set for each second angle smaller than the first angle, and a predetermined number of pixels are determined as the third candidate. Intermediate search means for selecting as pixels;
An image processing apparatus comprising: final search means for detecting a rotation angle and a position of a target work by normalized correlation with respect to the third candidate pixel.
本発明によれば、エッジ抽出ステップで、画像データを構成する画素からエッジ画素を抽出し、エッジ方向および位置を登録し、粗サーチステップでは、第1の角度ごとに設定された回転角度に基づいて一般化Hough変換を実行する。粗サーチステップにおいては、投票時に注目画素の周辺画素の投票数を足し込むようにして投票数を決定し、予め定める指定数分の画素を第1候補画素として選択する。 According to the present invention, in the edge extraction step, edge pixels are extracted from the pixels constituting the image data, and the edge direction and position are registered. In the coarse search step, based on the rotation angle set for each first angle. And perform generalized Hough transform. In the coarse search step, the number of votes is determined by adding the number of votes of pixels around the target pixel at the time of voting, and a predetermined number of pixels are selected as first candidate pixels.
クラスタリングステップでは、前記第1候補画素を対象に、画素間の距離および回転角度差に基づくクラスタリングを行い、各クラスタから代表画素を選出して第2候補画素を選択し、中間サーチステップで、前記第2候補画素を対象に、前記第1の角度よりも小さい第2の角度ごとに設定された回転角度に基づいて一般化Hough変換を実行し、予め定める指定数分の画素を第3候補画素として選択する。 In the clustering step, for the first candidate pixel, clustering is performed based on a distance between pixels and a rotation angle difference, a representative pixel is selected from each cluster, and a second candidate pixel is selected. For the second candidate pixel, the generalized Hough transform is performed based on the rotation angle set for each second angle smaller than the first angle, and a predetermined number of pixels are determined as the third candidate pixel. Choose as.
最終サーチステップでは、前記第3候補画素を対象に、正規化相関によって対象ワークの回転角度および位置を検出する。 In the final search step, the rotation angle and position of the target workpiece are detected by the normalized correlation for the third candidate pixel.
これにより、検出精度向上するとともに、処理の高速化および必要なメモリ容量の縮小を実現することができる。 As a result, the detection accuracy can be improved, the processing speed can be increased, and the required memory capacity can be reduced.
また本発明によれば、前記エッジ抽出ステップでは、間引かれた画素に対して5×5画素のSobelオペレータを使用してエッジの抽出を行う。 According to the invention, in the edge extraction step, edges are extracted from the thinned pixels using a 5 × 5 pixel Sobel operator.
これにより、エッジ方向の精度が向上し、後続の全ステップでの精度を向上させることができる。 Thereby, the accuracy in the edge direction is improved, and the accuracy in all subsequent steps can be improved.
また本発明によれば、前記第1の角度は、5°〜15°である。
第1の角度が5°よりも小さいと投票処理に要する計算時間が短縮されず、15°よりも大きいと十分な検出精度が達成できない。
According to the invention, the first angle is 5 ° to 15 °.
If the first angle is smaller than 5 °, the calculation time required for the voting process is not shortened, and if it is larger than 15 °, sufficient detection accuracy cannot be achieved.
また本発明によれば、前記クラスタリングステップでは、単純クラスタリング法を使用する。このとき、回転角度差の閾値は前記第1の角度とする。また、前記画素間距離の閾値は、基準テンプレートの中心から最も遠いエッジ画素までの距離に予め定める割合を掛けた距離とする。 According to the invention, the clustering step uses a simple clustering method. At this time, the threshold value of the rotation angle difference is the first angle. The inter-pixel distance threshold is a distance obtained by multiplying the distance from the center of the reference template to the farthest edge pixel by a predetermined ratio.
これにより、適切なクラスタが生成されるので、無駄な計算が減少し、精度も向上する。 Thereby, since an appropriate cluster is generated, useless calculation is reduced and accuracy is improved.
また本発明によれば、前記エッジ抽出ステップより前に、平滑化ステップで前記画像データに対して平滑化処理を行う。
これにより、エッジ抽出ステップにおける抽出精度を向上させることができる。
According to the invention, a smoothing process is performed on the image data in a smoothing step before the edge extracting step.
Thereby, the extraction accuracy in the edge extraction step can be improved.
また本発明によれば、上記の画像処理方法を、コンピュータに実行させるための画像処理プログラムおよび、画像処理プログラムを記録したコンピュータ読み取り可能な記録媒体として提供することができる。 Further, according to the present invention, it is possible to provide an image processing program for causing a computer to execute the above-described image processing method and a computer-readable recording medium on which the image processing program is recorded.
また本発明によれば、エッジ抽出手段が、画像データを構成する画素からエッジ画素を抽出し、エッジ方向および位置を登録し、粗サーチ手段が、第1の角度ごとに設定された回転角度に基づいて一般化Hough変換を実行する。粗サーチ手段は、投票時に注目画素の周辺画素の投票数を足し込むようにして投票数を決定し、予め定める指定数分の画素を第1候補画素として選択する。 According to the present invention, the edge extraction means extracts edge pixels from the pixels constituting the image data, registers the edge direction and position, and the coarse search means sets the rotation angle set for each first angle. Based on the generalized Hough transform. The coarse search means determines the number of votes by adding the number of votes of pixels around the target pixel at the time of voting, and selects a predetermined number of pixels as the first candidate pixels.
クラスタリング手段は、前記第1候補画素を対象に、画素間の距離および回転角度差に基づくクラスタリングを行い、各クラスタから代表画素を選出して第2候補画素を選択し、中間サーチ手段が、前記第2候補画素を対象に、前記第1の角度よりも小さい第2の角度ごとに設定された回転角度に基づいて一般化Hough変換を実行し、予め定める指定数分の画素を第3候補画素として選択する。 The clustering means performs clustering based on the distance and rotation angle difference between the pixels for the first candidate pixel, selects a representative pixel from each cluster and selects a second candidate pixel, and an intermediate search means For the second candidate pixel, the generalized Hough transform is performed based on the rotation angle set for each second angle smaller than the first angle, and a predetermined number of pixels are determined as the third candidate pixel. Choose as.
最終サーチ手段は、前記第3候補画素を対象に、正規化相関によって対象ワークの回転角度および位置を検出する。 The final search means detects the rotation angle and position of the target workpiece by the normalized correlation for the third candidate pixel.
これにより、検出精度向上するとともに、処理の高速化および必要なメモリ容量の縮小を実現することができる。 As a result, the detection accuracy can be improved, the processing speed can be increased, and the required memory capacity can be reduced.
本発明は、以下に示す手順から構成される画像処理方法により、対象ワークの回転角度と位置の検出を行う。
手順1:平滑化処理
手順2:エッジ抽出処理
手順3:粗サーチ処理
手順4:クラスタリング処理
手順5:中間サーチ処理
手順6:最終サーチ処理
In the present invention, the rotation angle and position of the target workpiece are detected by an image processing method including the following procedure.
Step 1: Smoothing processing Step 2: Edge extraction processing Step 3: Coarse search processing Step 4: Clustering processing Step 5: Intermediate search processing Step 6: Final search processing
まず、各手順について、図1に示す画像処理のフローチャートを基に概略について説明する。 First, the outline of each procedure will be described based on the flowchart of image processing shown in FIG.
本発明では、一般化Hough変換による回転画像照合において、対象ワークの回転角度と位置の検出について、高速化と省メモリ化を図りながら、検出精度の向上を実現する。 In the present invention, in the rotation image collation by the generalized Hough transform, the detection accuracy is improved while the rotation angle and the position of the target workpiece are detected while increasing the speed and saving the memory.
手順1:平滑化処理(ステップS1)
ノイズ除去するための前処理として、画像データに対して平滑化フィルタを用いた平滑化処理を行う。
Procedure 1: Smoothing process (Step S1)
As preprocessing for removing noise, smoothing processing using a smoothing filter is performed on image data.
手順2:エッジ抽出処理(ステップS2)
平滑化した画像データを対象に、画素を飛ばしながらSobelオペレータによるエッジ強度を求め、その強度が予め設定された閾値範囲内であれば、エッジ方向と位置座標とを登録して抽出する。
Procedure 2: edge extraction process (step S2)
For the smoothed image data, the edge strength by the Sobel operator is obtained while skipping pixels. If the strength is within a preset threshold range, the edge direction and position coordinates are registered and extracted.
手順3:粗サーチ処理(ステップS3)
手順2で抽出したエッジの方向と座標とを登録した後、対象ワークの輪郭形状に対応する部分の概略の回転角度と位置を求めるため、一定の回転角度刻みの粗サーチとして一般化Hough変換を実行する。一般化Hough変換で求めた投票数の多い順に、指定数分の第1候補画素を選択する。
Procedure 3: Coarse search process (step S3)
After registering the edge direction and coordinates extracted in step 2, the generalized Hough transform is used as a rough search with a constant rotation angle increment to obtain the approximate rotation angle and position of the part corresponding to the contour shape of the target workpiece. Execute. The designated number of first candidate pixels are selected in descending order of the number of votes obtained by the generalized Hough transform.
手順4:クラスタリング処理(ステップS4)
手順3で選択された第1候補画素の中には、同じワークとみなせる画素が重複して挙げられている可能性がある。そのため座標および回転角度とも近似した複数の画素を同じクラスタとし、その中から最も投票数の多い点だけを第2候補画素とする。その他の画素は後続の処理の対象から外す。
Procedure 4: Clustering process (step S4)
Among the first candidate pixels selected in the procedure 3, there is a possibility that pixels that can be regarded as the same work are duplicated. Therefore, a plurality of pixels approximated by coordinates and rotation angles are set as the same cluster, and only a point with the largest number of votes is selected as the second candidate pixel. Other pixels are excluded from the target of subsequent processing.
手順5:中間サーチ処理(ステップS5)
第2候補画素を対象に、手順3の粗サーチにおける刻み角度よりも小さな回転角度で中間サーチとして一般化Hough変換の再投票を行い、第3候補画素を選出する。
Procedure 5: Intermediate search process (step S5)
For the second candidate pixel, re-voting of the generalized Hough transform is performed as an intermediate search at a rotation angle smaller than the step angle in the coarse search in the procedure 3, and the third candidate pixel is selected.
手順6:最終サーチ処理(ステップS6)
手順3と手順5の一般化Hough変換2段処理で求めた回転角度と座標は、ピクセル精度であり、ピクセル単位の誤差が予想される。そのため、一般化Hough変換で求めた位置周辺について、第3候補画素を対象に、正規化相関を用いた最終サーチを行う。
Procedure 6: final search process (step S6)
The rotation angle and coordinates obtained by the generalized Hough transform two-stage process of the procedure 3 and the procedure 5 are pixel accuracy, and an error in pixel units is expected. Therefore, the final search using the normalized correlation is performed on the third candidate pixel around the position obtained by the generalized Hough transform.
次に各手順について詳細に説明する。
手順1:平滑化処理
平滑化処理に用いる平滑化フィルタとしては、平均値フィルタとメディアンフィルタとがあり、実験結果から平均値フィルタが望ましい。
Next, each procedure will be described in detail.
Procedure 1: Smoothing process As a smoothing filter used for the smoothing process, there are an average value filter and a median filter, and an average value filter is desirable from an experimental result.
平均値フィルタは、図2に示すように、注目画素の画素値G11にその周辺8画素の画素値G00,G10,G20,G01,G21,G02,G12,G22を加えた9画素の画素値の平均が注目画素の画素値となるようなフィルタである。 As shown in FIG. 2, the average value filter has a pixel value of 9 pixels obtained by adding pixel values G00, G10, G20, G01, G21, G02, G12, and G22 of the surrounding 8 pixels to the pixel value G11 of the target pixel. A filter whose average is the pixel value of the target pixel.
平滑化処理後の注目画素の画素値G(平均)は、式3で算出する。
G(平均)=(G00+G10+G20+G01+G11+G21+G02+G12+G22)/9 …(3)
The pixel value G (average) of the target pixel after the smoothing process is calculated by Expression 3.
G (average) = (G00 + G10 + G20 + G01 + G11 + G21 + G02 + G12 + G22) / 9 (3)
手順2:エッジ抽出処理
図3は、エッジ抽出処理を示すフローチャートである。
Procedure 2: Edge Extraction Processing FIG. 3 is a flowchart showing edge extraction processing.
ステップS11では、平滑化処理した画像データを対象に、Sobelオペレータを用いてエッジ強度を求める。 In step S11, the edge strength is obtained using the Sobel operator for the smoothed image data.
Sobelオペレータは、3×3画素ではなく、以下のB式に示すような5×5画素の改良型オペレータを使用する。 The Sobel operator uses an improved operator of 5 × 5 pixels as shown in the following formula B, instead of 3 × 3 pixels.
X方向(水平方向)フィルタFXと、Y方向(垂直方向)フィルタFYとで構成されるSobelオペレータを適用し、注目画素のX方向エッジ強度fxおよびY方向エッジ強度fyを算出する。なお、注目画素と注目画素に隣接する周辺画素との差分値が比較的大きい場合は、式Aで表す従来の3×3画素Sobelオペレータを用いても良い。 A Sobel operator composed of an X direction (horizontal direction) filter FX and a Y direction (vertical direction) filter FY is applied to calculate the X direction edge intensity fx and the Y direction edge intensity fy of the target pixel. If the difference value between the target pixel and the neighboring pixels adjacent to the target pixel is relatively large, the conventional 3 × 3 pixel Sobel operator represented by Expression A may be used.
エッジ強度fxyは式4で算出し、エッジ方向θは式5で算出する。
fxy=√(fx2+fy2) …(4)
θ=tan-1(fy/fx) …(5)
The edge strength fxy is calculated by Expression 4, and the edge direction θ is calculated by Expression 5.
fxy = √ (fx 2 + fy 2 ) (4)
θ = tan -1 (fy / fx) (5)
ステップS12では、エッジ強度fxyが、下限側閾値THLと上限側閾値THHとの範囲内にあるかどうかを判断する。 In step S12, it is determined whether the edge strength fxy is within the range between the lower limit side threshold value TH L and the upper limit side threshold value TH H.
下限側閾値THLは、形状定義表登録時にテンプレート領域のみを対象として、判別分析法により求める。判別分析法については、田村秀行編著、「コンピュータ画像処理」、オーム社、平成15年7月、p.140の記載に基づいて求めることができる。 The lower limit side threshold TH L is obtained by a discriminant analysis method for only the template region when registering the shape definition table. The discriminant analysis method is described by Hideyuki Tamura, “Computer Image Processing”, Ohmsha, July 2003, p. 140 based on the description of 140.
上限側閾値THHは、以下に示すような統計処理に基づいて算出する。
下限値以上のエッジ強度を有する画素数を計数し、計数値に予め定める割合M%を掛けて得た画素数を算出する。下限値以上のエッジ強度を有する画素数が、算出された画素数となるときのエッジ強度を上限値とする。割合M%としては、95%〜100%が望ましい。
The upper threshold value TH H is calculated based on statistical processing as described below.
The number of pixels having edge strength equal to or greater than the lower limit value is counted, and the number of pixels obtained by multiplying the count value by a predetermined ratio M% is calculated. The edge strength when the number of pixels having the edge strength equal to or higher than the lower limit becomes the calculated number of pixels is set as the upper limit. The ratio M% is desirably 95% to 100%.
エッジ強度fxyが、範囲内にあればステップS13に進み、範囲外であればステップS14に進む。ステップS13では、エッジ方向と画素の座標を記憶する。ステップS14では、全ての画素について処理が終了したかどうかを判断し、終了していればエッジ抽出処理を終了する。終了していなければステップS15で画素を間引いて(例えば、偶数アドレスの画素のみを処理の対象とする。)ステップS12に戻る。 If the edge strength fxy is within the range, the process proceeds to step S13, and if it is out of the range, the process proceeds to step S14. In step S13, the edge direction and pixel coordinates are stored. In step S14, it is determined whether or not the processing has been completed for all the pixels. If the processing has been completed, the edge extraction processing is terminated. If not completed, the pixels are thinned out in step S15 (for example, only pixels with even addresses are processed), and the process returns to step S12.
手順3:粗サーチ処理
手順3では、粗サーチとして、所定の回転角度刻みで一般化Hough変換を行う。
Procedure 3: Coarse search process In procedure 3, generalized Hough transform is performed as a coarse search in increments of a predetermined rotation angle.
図4は、粗サーチ処理を示すフローチャートである。ステップS21で投票空間をクリアして、ステップS22で投票処理を行う。投票処理では、まず、回転角度(式1中のφ)を0°,ΔA,2×ΔA,・・・,(360°−ΔA)とΔA(単位は[°])刻みで、式2を満たすθ´を求め、形状定義表のθ´の箇所から、rおよびαを求める。そして、式1を満たす(X,Y)セル空間に投票する。
FIG. 4 is a flowchart showing the rough search process. In step S21, the voting space is cleared, and voting processing is performed in step S22. In the voting process, first, the rotation angle (φ in Equation 1) is set to 0 °, ΔA, 2 × ΔA,... (360 ° −ΔA) and ΔA (unit: [°]), and Equation 2 is calculated. A satisfying θ ′ is obtained, and r and α are obtained from the position of θ ′ in the shape definition table. Then, vote for the (X, Y) cell space that satisfies
ステップS23では全てのエッジについて投票処理を行ったかどうかを判断し、全て行っていればステップS24に進み、行っていなければ次のエッジを対象にしてステップS22に戻る。 In step S23, it is determined whether or not the voting process has been performed for all edges. If all have been performed, the process proceeds to step S24. If not, the process returns to step S22 for the next edge.
ステップS24では、最大の投票数となる回転角度と位置とを探し、第1候補画素を選択する。最大の投票数は各刻み角度ごとに求め、ステップS25では、これまでの最大投票数(全角度を通した最大の投票数である全最大投票数)と比較する。全最大投票数以上であればステップS26に進み、全最大投票数よりも小さければステップS27に進む。ステップS26では、全最大投票数、回転角度および位置を更新する。たとえば、10°回転したと仮定すると、50°のエッジ画素は、登録時には40°のエッジ画素であったと考えられる。登録時40°であったエッジ画素を形状定義表から集め、基準点との相対位置関係から、現在の基準位置を計算しそこに投票する。 In step S24, the rotation angle and position that are the maximum number of votes are searched, and the first candidate pixel is selected. The maximum number of votes is obtained for each step angle, and in step S25, it is compared with the maximum number of votes so far (the maximum number of votes that is the maximum number of votes through all angles). If it is equal to or greater than the total maximum number of votes, the process proceeds to step S26, and if it is smaller than the total maximum number of votes, the process proceeds to step S27. In step S26, the total maximum number of votes, the rotation angle, and the position are updated. For example, assuming that it is rotated by 10 °, an edge pixel of 50 ° is considered to be an edge pixel of 40 ° at the time of registration. Edge pixels that were 40 ° at the time of registration are collected from the shape definition table, and the current reference position is calculated from the relative positional relationship with the reference point and voted there.
ステップS27では全ての回転角度についての処理が終了したかどうかを判断する。全て終了していれば粗サーチ処理を終了し、終了していなければステップS28に進んで現在の回転角度に刻み角度ΔAを加えてステップS21に戻る。 In step S27, it is determined whether or not processing for all rotation angles has been completed. If all have been completed, the coarse search process is terminated. If not, the process proceeds to step S28, the step angle ΔA is added to the current rotation angle, and the process returns to step S21.
手順3における刻み角度ΔAは、5°〜15°が望ましく、特に8°〜10°が望ましい。刻み角度が5°よりも小さいと投票処理に要する計算時間が短縮されず、15°よりも大きいと十分な検出精度が達成できない。 The step angle ΔA in the procedure 3 is desirably 5 ° to 15 °, and particularly desirably 8 ° to 10 °. If the step angle is smaller than 5 °, the calculation time required for the voting process is not shortened, and if it is larger than 15 °, sufficient detection accuracy cannot be achieved.
また、ステップS24では、Sobelオペレータで求めたエッジ方向の精度誤差を改善するため、周辺画素の投票数を足し込むようにして最大投票数を求める。投票数を足し込む周辺画素は、注目画素を中心とする3×3画素における周辺8画素とすることが望ましい。 In step S24, in order to improve the accuracy error in the edge direction obtained by the Sobel operator, the maximum number of votes is obtained by adding the number of votes of surrounding pixels. The peripheral pixels to which the number of votes is added are desirably 8 peripheral pixels in a 3 × 3 pixel centered on the target pixel.
手順4:クラスタリング処理
手順3の粗サーチで選択された第1候補画素の中から、クラスタリングにより位置座標および回転角度がともに近似した画素を集めて同じクラスタとし、その中の最大投票数の画素だけを第2候補画素とする。1つのクラスタ内におけるその他の画素は、後続処理の対象から外す。クラスタリングとしては、単純クラスタリング(Nearest Neighbor法−
NN法)を採用する。その手順は、以下の通りである。
Step 4: Clustering process From the first candidate pixels selected by the coarse search in step 3, the pixels whose position coordinates and rotation angles are approximated by clustering are collected to form the same cluster, and only the pixels with the maximum number of votes in the cluster. Is a second candidate pixel. Other pixels in one cluster are excluded from the target of subsequent processing. As clustering, simple clustering (Nearest Neighbor method-
NN method). The procedure is as follows.
たとえば、図5の模式図に示すように、一つのデータP1をクラスタ中心とし、それから距離Tだけ離れたデータP2,P4,P5などは新たなクラスタ中心とする。距離T以内にあるP3は、P1と同じクラスタに属する。 For example, as shown in the schematic diagram of FIG. 5, one data P1 is set as a cluster center, and data P2, P4, P5, etc. separated by a distance T are set as new cluster centers. P3 within the distance T belongs to the same cluster as P1.
このようにして、既存のクラスタ中心に近いものはそのクラスタのメンバとし、離れたものは新たなクラスタ中心とする。新たなクラスタ中心とするかどうかは、予め閾値を規定しておき、閾値以上に離れた場合に新たな中心とする。 In this way, a cluster near the existing cluster center is a member of that cluster, and a remote cluster center is a new cluster center. Whether or not to set a new cluster center is defined in advance as a threshold value, and is set as a new center when the distance is greater than or equal to the threshold value.
本発明においては、クラスタのメンバであるか新たなクラスタ中心であるかを判断するために、2つのエッジ画素について、回転角度と、画素間の距離とを比較し、閾値よりも離れていれば新たなクラスタ中心であると判断する。 In the present invention, in order to determine whether it is a cluster member or a new cluster center, for two edge pixels, the rotation angle and the distance between the pixels are compared, and if they are separated from the threshold, Judge that it is a new cluster center.
回転角度の閾値は、粗サーチにおける刻み角度ΔAを採用し、2つのエッジ画素の回転角度が刻み角度以上に離れていれば、同一クラスタのメンバではないと判定する。距離の閾値は、基準テンプレートのエッジ画素の中で、中心から最も遠いエッジ画素までの距離をSとしたとき、S×N%の距離を閾値とする。ここで、割合N%は70%〜100%である。 As the rotation angle threshold, the step angle ΔA in the coarse search is adopted, and if the rotation angles of the two edge pixels are separated from each other by the step angle or more, it is determined that they are not members of the same cluster. The distance threshold is set to a distance of S × N%, where S is the distance to the edge pixel farthest from the center among the edge pixels of the reference template. Here, the ratio N% is 70% to 100%.
クラスタリングの対象となる候補画素の数は予め設定されており、その数分の候補画素が粗サーチで選択される。選択された候補画素がクラスタリングされ、上位のクラスタの代表画素(1つのクラスタ内で最大の投票数である画素)が後続処理の対象として選択される。 The number of candidate pixels to be clustered is set in advance, and that number of candidate pixels are selected by the coarse search. The selected candidate pixels are clustered, and the representative pixel of the upper cluster (the pixel having the maximum number of votes in one cluster) is selected as a target for subsequent processing.
手順5:中間サーチ処理
手順5では、中間サーチとして、所定の回転角度刻みで一般化Hough変換を行う。
Procedure 5: Intermediate Search Process In Procedure 5, generalized Hough transform is performed at predetermined rotation angle increments as an intermediate search.
手順4のクラスタリングで絞り込んだ第2候補画素について、手順3のフローと同様のサーチ処理を行う。手順3との違いは、クラスタリングでさらに絞り込まれた候補画素を対象にすることと、回転角度の刻み角度を手順3よりも小さくすることである。粗サーチでの刻み角度を9°とすると、ピーク角度±6°を3°刻みとし、さらにピーク角度±2°を1°刻みとする。 For the second candidate pixels narrowed down by clustering in procedure 4, the same search process as in the flow in procedure 3 is performed. The difference from the procedure 3 is that the candidate pixels further narrowed down by clustering are targeted, and the step angle of the rotation angle is made smaller than that in the procedure 3. If the step angle in the coarse search is 9 °, the peak angle ± 6 ° is set to 3 ° and the peak angle ± 2 ° is set to 1 °.
刻み角度を小さくした上で、最大投票数の画素から順に指定候補数分の第3候補画素について回転角度と座標とを後続処理に渡す。 After reducing the step angle, the rotation angle and coordinates of the third candidate pixels for the designated candidate number are passed to the subsequent processing in order from the pixel with the largest vote count.
手順6:最終サーチ処理
手順5の中間サーチで求めた第3候補画素について、その位置と回転角度周辺について、取込画像側を回転させながら、正規化相関を行い、最も一致度の高い回転角度と座標を検出結果として出力する。
Step 6: Final search process For the third candidate pixel obtained by the intermediate search in step 5, the normalized correlation is performed while rotating the captured image side around the position and rotation angle, and the rotation angle with the highest degree of coincidence is obtained. And the coordinates are output as detection results.
正規化相関は、以下の式6の相関式を用いて行う。
相関式={A÷√(B×C)}×100 …(6)
The normalized correlation is performed using the following correlation equation (6).
Correlation formula = {A ÷ √ (B × C)} × 100 (6)
また、A=Σ(I×T)−(ΣI)×(ΣT)/N:入力画像と基準画像の相互相関であり、B=Σ(I×I)−(ΣI)×(ΣI)/N:入力画像自己相関であり、C=Σ(T×T)−(ΣT)×(ΣT)/N:基準画像自己相関である。ここで、Nは基準画像の画素数、Tは基準画像濃度であり、Iは入力画像濃度である。 A = Σ (I × T) − (ΣI) × (ΣT) / N: cross-correlation between the input image and the reference image, and B = Σ (I × I) − (ΣI) × (ΣI) / N : Input image autocorrelation, C = Σ (T × T) − (ΣT) × (ΣT) / N: Reference image autocorrelation. Here, N is the number of pixels of the reference image, T is the reference image density, and I is the input image density.
本発明は、対象ワークの検出のための画像処理において、検出精度向上するとともに、処理の高速化および必要なメモリ容量の縮小を実現することができる。 According to the present invention, in image processing for detection of a target workpiece, detection accuracy can be improved, processing speed can be increased, and required memory capacity can be reduced.
図6は、画像処理システム100の構成を示すブロック図である。画像処理システム100は、撮像装置101、画像処理装置102、表示装置103を有し、前述のような部品の位置検出システムを構成する。
FIG. 6 is a block diagram illustrating a configuration of the
撮像装置101は、CCD(電荷結合素子)カメラ111、A/D(アナログ/デジタル)変換器112、カメラコントローラ113、D/A変換器114およびフレームメモリ115からなる。CCDカメラ111が、部品などを撮像し、受光量をアナログ画像信号として出力する。A/D変換器112は、CCDカメラ111から出力されたアナログ画像信号をデジタルデータに変換し、デジタル画像データとして出力する。カメラコントローラ113は、デジタル画像データを1フレームごとにフレームメモリ115に格納するとともに、表示装置103に表示させるために、D/A変換器114に出力する。D/A変換器114は、カメラコントローラ113から出力されたデジタル画像データを表示装置103に応じたアナログ画像信号に変換して表示装置103に出力する。表示装置103は、LCD(Liquid Crystal Display)やCRT(Cathode Ray Tube)ディスプレイなどで実現され、撮像装置101から出力されたアナログ画像信号を表示する。
The
画像処理装置102は、CPU(中央演算処理装置)121、RAM(Random Access
Memory)122、ROM(Read Only Memory)123およびI/O(Input/Output)コントローラ124からなる。CPU121は、ROM123に記憶されている制御プログラムに基づいて画像処理装置102の動作を制御する。処理中の画像データや演算中のデータなどは一時的にRAM122に記憶される。I/Oコントローラ124は、キーボードやマウスなどの入力装置や部品の移動装置などが接続され、これらの入出力データの制御を行う。
The
Memory (122), ROM (Read Only Memory) 123, and I / O (Input / Output)
CPU121およびROM123は、エッジ抽出手段、粗サーチ手段、クラスタリング手段、中間サーチ手段、最終サーチ手段を構成し、撮像装置101のカメラコントローラ113を介してフレームメモリ115から画像データを取得し、図1のフローチャートで示した画像処理を実行する。画像処理によって対象ワークの位置、回転角度が決定されると、たとえば、部品が正しい方向に実装されているかなどの検査を行うことができる。
The
また、本発明の他の実施形態は、コンピュータを画像処理装置102として機能させるための画像処理プログラム、および画像処理プログラムを記録したコンピュータ読み取り可能な記録媒体である。これによって、画像処理プログラムおよび画像処理プログラムを記録した記録媒体を持ち運び自在に提供することができる。
Another embodiment of the present invention is an image processing program for causing a computer to function as the
記録媒体は、プリンタやコンピュータシステムに備えられるプログラム読み取り装置により読み取られることで、画像処理プログラムが実行される。 The recording medium is read by a program reading device provided in a printer or a computer system, whereby an image processing program is executed.
コンピュータシステムの入力手段としては、フラットベッドスキャナ・フィルムスキャナ・デジタルカメラなどを用いてもよい。コンピュータシステムは、これらの入力手段と、所定のプログラムがロードされることにより画像処理などを実行するコンピュータと、コンピュータの処理結果を表示するCRTディスプレイ・液晶ディスプレイなどの画像表示装置と、コンピュータの処理結果を紙などに出力するプリンタより構成される。さらには、ネットワークを介してサーバーなどに接続するための通信手段としてのLAN(
Local Area Network)インターフェイスなどが備えられる。
As an input means of the computer system, a flat bed scanner, a film scanner, a digital camera, or the like may be used. The computer system includes these input means, a computer that executes image processing and the like by loading a predetermined program, an image display device such as a CRT display and a liquid crystal display that displays the processing results of the computer, and computer processing It consists of a printer that outputs the results to paper. Furthermore, a LAN (as a communication means for connecting to a server etc. via a network (
Local Area Network) interface etc. are provided.
なお、記録媒体としては、プログラム読み取り装置によって読み取られるものには限らず、マイクロコンピュータのメモリ、たとえばROMであっても良い。記録されているプログラムはマイクロプロセッサがアクセスして実行しても良いし、あるいは、記録媒体から読み出したプログラムを、マイクロコンピュータのプログラム記憶エリアにダウンロードし、そのプログラムを実行してもよい。このダウンロード機能は予めマイクロコンピュータが備えているものとする。 The recording medium is not limited to be read by the program reading device, and may be a microcomputer memory, for example, a ROM. The recorded program may be accessed and executed by the microprocessor, or the program read from the recording medium may be downloaded to the program storage area of the microcomputer and executed. This download function is assumed to be provided in the microcomputer in advance.
記録媒体の具体的な例としては、磁気テープやカセットテープなどのテープ系、フレキシブルディスクやハードディスクなどの磁気ディスクやCD−ROM(Compact Disc-
Read Only Memory)/MO(Magneto Optical)ディスク/MD(Mini Disc)/DVD(
Digital Versatile Disc)などの光ディスクのディスク系、IC(Integrated Circuit)
カード(メモリカードを含む)/光カードなどのカード系、あるいはマスクROM、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically
Erasable Programmable Read Only Memory)、フラッシュROMなどの半導体メモリを含めた固定的にプログラムを担持する媒体である。
Specific examples of the recording medium include a tape system such as a magnetic tape and a cassette tape, a magnetic disk such as a flexible disk and a hard disk, and a CD-ROM (Compact Disc-
Read Only Memory) / MO (Magneto Optical) Disc / MD (Mini Disc) / DVD (
Discs of optical discs such as Digital Versatile Disc), IC (Integrated Circuit)
Cards (including memory cards) / optical cards, mask ROM, EPROM (Erasable Programmable Read Only Memory), EEPROM (Electrically
Erasable Programmable Read Only Memory) and a medium that carries a fixed program including a semiconductor memory such as a flash ROM.
また、本実施形態においては、コンピュータはインターネットを含む通信ネットワークに接続可能なシステム構成とし、通信ネットワークを介して画像処理プログラムをダウンロードしても良い。なお、このように通信ネットワークからプログラムをダウンロードする場合には、そのダウンロード機能は予めコンピュータに備えておくか、あるいは別な記録媒体からインストールされるものであっても良い。また、ダウンロード用のプログラムはユーザーインターフェースを介して実行されるものであっても良いし、決められたURL(Uniform Resource Locater)から定期的にプログラムをダウンロードするようなものであっても良い。 In the present embodiment, the computer may have a system configuration that can be connected to a communication network including the Internet, and the image processing program may be downloaded via the communication network. In the case of downloading a program from the communication network in this way, the download function may be provided in advance in the computer or installed from another recording medium. The download program may be executed through a user interface, or may be a program that periodically downloads a program from a predetermined URL (Uniform Resource Locater).
本発明の回転画像照合処理を実現する「一般化Hough変換+正規化相関」が、従来の手法である「一般化Hough変換」のみ、および「正規化相関」のみの場合と比較し、性能の向上を確認する。 Compared with the case of “generalized Hough transform + normalized correlation”, which is the conventional method only, and “normalized correlation” alone, which realizes the rotated image matching processing of the present invention, the performance is improved. Confirm improvement.
(計算条件)
・コントローラとしてはIVS33(シャープマニファクチャリングシステム株式会社製)を使用し、正規化相関は、標準ソフトV3.14を使用し、その他は独自開発のソフトウェアを使用した。
・サーチエリアサイズ512×480、
・矩形テンプレート96×96
「一般化Hough変換+正規化相関」による処理を実施例、「一般化Hough変換」のみ、および「正規化相関(回転角度10°刻み)」のみによる処理をそれぞれ比較例1,2とする。また、参考例として、「正規化相関(回転角度20°刻み)」のみによる処理も行った。
(Calculation condition)
-IVS33 (manufactured by Sharp Manufacturing System Co., Ltd.) was used as the controller, standard software V3.14 was used for normalization correlation, and other software was used for the others.
・ Search area size 512 × 480,
・ Rectangle template 96 × 96
The processing by “generalized Hough transform + normalized correlation” is an example, and the processing by only “generalized Hough transform” and only by “normalized correlation (rotation angle 10 ° increments)” are referred to as comparative examples 1 and 2, respectively. Further, as a reference example, processing based only on “normalized correlation (rotation angle in increments of 20 °)” was also performed.
なお、比較例2および参考例では、10°単位のテンプレートを36枚用意して行った。
まず処理速度の結果について表1に示す。
In Comparative Example 2 and Reference Example, 36 templates of 10 ° units were prepared.
First, the processing speed results are shown in Table 1.
実施例1で処理に要した時間を1.00とし、これに対する比によって処理速度を評価した。
次に検出精度の結果について表2に示す。
The time required for processing in Example 1 was set to 1.00, and the processing speed was evaluated based on the ratio.
Next, the detection accuracy results are shown in Table 2.
処理速度については、実施例に比べて比較例1のほうが良い結果であったが、検出精度では実施例が大きく上回った。したがって、総合的に判断すれば、比較例1,2にくらべて実施例がより優れていることが明確となった。 As for the processing speed, the result of Comparative Example 1 was better than that of the Example, but the Example greatly exceeded the detection accuracy. Therefore, if it judged comprehensively, it became clear that the Example was superior to Comparative Examples 1 and 2.
100 画像処理システム
101 撮像装置
102 画像処理装置
103 表示装置
111 CCDカメラ
112 A/D変換器
113 カメラコントローラ
114 D/A変換器
115 フレームメモリ
121 CPU
122 RAM
123 ROM
124 I/Oコントローラ
DESCRIPTION OF
122 RAM
123 ROM
124 I / O controller
Claims (8)
前記画像データを構成する画素からエッジ画素を抽出し、エッジ方向および位置を登録するエッジ抽出ステップと、
第1の角度ごとに設定された回転角度に基づいて一般化Hough変換を実行するステップであって、投票時に注目画素の周辺画素の投票数を足し込むようにして投票数を決定し、予め定める指定数分の画素を第1候補画素として選択する粗サーチステップと、
前記第1候補画素を対象に、画素間の距離および回転角度差に基づくクラスタリングを行い、各クラスタから代表画素を選出して第2候補画素を選択するクラスタリングステップと、
前記第2候補画素を対象に、前記第1の角度よりも小さい第2の角度ごとに設定された回転角度に基づいて一般化Hough変換を実行し、予め定める指定数分の画素を第3候補画素として選択する中間サーチステップと、
前記第3候補画素を対象に、正規化相関によって対象ワークの回転角度および位置を検出する最終サーチステップとを含むことを特徴とする画像処理方法。 In an image processing method for detecting a target work included in image data,
An edge extraction step of extracting edge pixels from pixels constituting the image data and registering the edge direction and position;
A step of executing generalized Hough transform based on a rotation angle set for each first angle, wherein the number of votes is determined by adding the number of votes of surrounding pixels of the target pixel at the time of voting, and a predetermined designated number A coarse search step of selecting a minute pixel as a first candidate pixel;
A clustering step for performing clustering based on a distance between pixels and a rotation angle difference for the first candidate pixel, selecting a representative pixel from each cluster, and selecting a second candidate pixel;
A generalized Hough transform is performed on the second candidate pixel based on a rotation angle set for each second angle smaller than the first angle, and a predetermined number of pixels are determined as the third candidate. An intermediate search step to select as pixels;
And a final search step of detecting the rotation angle and position of the target workpiece by normalized correlation with respect to the third candidate pixel.
前記画像データを構成する画素からエッジ画素を抽出し、エッジ方向および位置を登録するエッジ抽出手段と、
第1の角度ごとに設定された回転角度に基づいて一般化Hough変換を実行する手段であって、投票時に注目画素の周辺画素の投票数を足し込むようにして投票数を決定し、予め定める指定数分の画素を第1候補画素として選択する粗サーチ手段と、
前記第1候補画素を対象に、画素間の距離および回転角度差に基づくクラスタリングを行い、各クラスタから代表画素を選出して第2候補画素を選択するクラスタリング手段と、
前記第2候補画素を対象に、前記第1の角度よりも小さい第2の角度ごとに設定された回転角度に基づいて一般化Hough変換を実行し、予め定める指定数分の画素を第3候補画素として選択する中間サーチ手段と、
前記第3候補画素を対象に、正規化相関によって対象ワークの回転角度および位置を検出する最終サーチ手段とを含むことを特徴とする画像処理装置。 In an image processing apparatus for detecting a target work included in image data,
Edge extraction means for extracting edge pixels from pixels constituting the image data and registering edge directions and positions;
A means for executing a generalized Hough transform based on a rotation angle set for each first angle, wherein the number of votes is determined by adding the number of votes of surrounding pixels of the target pixel at the time of voting, and a predetermined designated number A coarse search means for selecting a minute pixel as a first candidate pixel;
Clustering means for performing clustering based on a distance between pixels and a rotation angle difference for the first candidate pixel, selecting a representative pixel from each cluster, and selecting a second candidate pixel;
A generalized Hough transform is performed on the second candidate pixel based on a rotation angle set for each second angle smaller than the first angle, and a predetermined number of pixels are determined as the third candidate. Intermediate search means for selecting as pixels;
An image processing apparatus comprising: a final search unit that detects a rotation angle and a position of a target workpiece by using a normalized correlation for the third candidate pixel.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006278172A JP4693742B2 (en) | 2006-10-11 | 2006-10-11 | Image processing method, image processing apparatus, image processing program, and recording medium for recording image processing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006278172A JP4693742B2 (en) | 2006-10-11 | 2006-10-11 | Image processing method, image processing apparatus, image processing program, and recording medium for recording image processing program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2008097309A JP2008097309A (en) | 2008-04-24 |
JP4693742B2 true JP4693742B2 (en) | 2011-06-01 |
Family
ID=39380091
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006278172A Expired - Fee Related JP4693742B2 (en) | 2006-10-11 | 2006-10-11 | Image processing method, image processing apparatus, image processing program, and recording medium for recording image processing program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4693742B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5116640B2 (en) * | 2008-11-15 | 2013-01-09 | 株式会社キーエンス | Image processing apparatus, image processing program, and computer-readable recording medium having detection candidate neighborhood exclusion function |
KR101714981B1 (en) * | 2016-08-03 | 2017-03-09 | 연세대학교 산학협력단 | Apparatus and method for inspecting template by using simplified hough transform |
CN106949846B (en) * | 2017-02-16 | 2018-12-07 | 上海大学 | Handle ultra-thin parallel flat staggered form interference fringe method in wavelength phase shift interference |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04295973A (en) * | 1991-03-25 | 1992-10-20 | Matsushita Electric Ind Co Ltd | Pattern curve applying method by hough transformation |
JPH08110940A (en) * | 1994-10-12 | 1996-04-30 | Tokimec Inc | Image processor |
JP2002228423A (en) * | 2001-01-31 | 2002-08-14 | Matsushita Electric Ind Co Ltd | Tire detecting method and device |
JP2008097310A (en) * | 2006-10-11 | 2008-04-24 | Sharp Manufacturing System Corp | Edge extraction method, definition table creation method, image processing method, image processing apparatus, image processing program, and recording medium with the image processing program stored |
-
2006
- 2006-10-11 JP JP2006278172A patent/JP4693742B2/en not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04295973A (en) * | 1991-03-25 | 1992-10-20 | Matsushita Electric Ind Co Ltd | Pattern curve applying method by hough transformation |
JPH08110940A (en) * | 1994-10-12 | 1996-04-30 | Tokimec Inc | Image processor |
JP2002228423A (en) * | 2001-01-31 | 2002-08-14 | Matsushita Electric Ind Co Ltd | Tire detecting method and device |
JP2008097310A (en) * | 2006-10-11 | 2008-04-24 | Sharp Manufacturing System Corp | Edge extraction method, definition table creation method, image processing method, image processing apparatus, image processing program, and recording medium with the image processing program stored |
Also Published As
Publication number | Publication date |
---|---|
JP2008097309A (en) | 2008-04-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8792715B2 (en) | System and method for forms classification by line-art alignment | |
CN112837371A (en) | Object grabbing method and device based on 3D matching and computing equipment | |
JP4042780B2 (en) | Object recognition method, object recognition program and storage medium thereof, and object recognition apparatus | |
CN110502982B (en) | Method and device for detecting obstacles in expressway and computer equipment | |
EP2534612B1 (en) | Efficient scale-space extraction and description of interest points | |
US20150310617A1 (en) | Display control device and display control method | |
US8090151B2 (en) | Face feature point detection apparatus and method of the same | |
CN101650784B (en) | Method for matching images by utilizing structural context characteristics | |
JP4704310B2 (en) | Image processing method, image processing apparatus, image processing program, and recording medium for recording image processing program | |
CN102982305A (en) | Information processing apparatus and method of processing information, storage medium and program | |
US11574492B2 (en) | Efficient location and identification of documents in images | |
CN114863129A (en) | Instrument numerical analysis method, device, equipment and storage medium | |
JP4693742B2 (en) | Image processing method, image processing apparatus, image processing program, and recording medium for recording image processing program | |
JP2018036770A (en) | Position attitude estimation device, position attitude estimation method, and position attitude estimation program | |
CN117115105A (en) | Workpiece processing method, device, equipment and storage medium | |
JP2006323779A (en) | Image processing method and device | |
CN113408429B (en) | Target detection method and system with rotation adaptability | |
CN116071348A (en) | Workpiece surface detection method and related device based on visual detection | |
JP4327654B2 (en) | Image processing method, image processing apparatus, image processing program, and recording medium on which image processing program is recorded | |
CN112215032A (en) | Method, device, electronic device and program medium for identifying target in image | |
WO2014178241A1 (en) | Image processing device, image processing method, and image processing program | |
CN106156689B (en) | Information processing method and electronic equipment | |
CN118135179B (en) | Cascade identification method and device for cutting plate, computer equipment and storage medium | |
JP2020071661A (en) | Image processing method and image processing system by geometrical shape matching | |
Nava-Ortiz et al. | Digit recognition system for camera mobile phones |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20080519 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20080519 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20090518 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110208 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110215 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110222 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140304 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |