JPH0869533A - Image inspection and recognition method, and reference data generating method used for same and device for them - Google Patents

Image inspection and recognition method, and reference data generating method used for same and device for them

Info

Publication number
JPH0869533A
JPH0869533A JP7146446A JP14644695A JPH0869533A JP H0869533 A JPH0869533 A JP H0869533A JP 7146446 A JP7146446 A JP 7146446A JP 14644695 A JP14644695 A JP 14644695A JP H0869533 A JPH0869533 A JP H0869533A
Authority
JP
Japan
Prior art keywords
feature
image
weighted
similarity
learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP7146446A
Other languages
Japanese (ja)
Other versions
JP3346679B2 (en
Inventor
Mutsuo Sano
睦夫 佐野
Masashi Okudaira
雅士 奥平
Hisao Kuroda
久雄 黒田
Joji Sahashi
襄治 佐橋
Shuichi Ohara
秀一 大原
Eiji Mitsuya
英司 三ツ矢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP14644695A priority Critical patent/JP3346679B2/en
Publication of JPH0869533A publication Critical patent/JPH0869533A/en
Application granted granted Critical
Publication of JP3346679B2 publication Critical patent/JP3346679B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

PURPOSE: To inspect a component is normal or defective from its image without being affected by lighting unevenness, stains, etc. CONSTITUTION: Featured images of predetermined density, edges, etc., are extracted from an inspection image (202) and quantized (203); and weighted generalized Hough transformation which previously finds a quantized featured image from a learnt image and adds and votes featured point weighting by referring to the weight of each feature point by feature values of the image is performed (204). Similarity is found from the transformation result (205) and it is decided to be normal or defective depending on whether or not the similarity is larger than a threshold value (206).

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】この発明は、画像を用いて被検査
物の、例えば良、不良を外観検査したり、物体を分類、
あるいは認識したりする画像検査/認識方法およびこれ
に用いる参照データ作成装置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention uses an image to visually inspect an object to be inspected, for example, whether it is good or bad, or classifies an object.
Alternatively, the present invention relates to an image inspection / recognition method for recognizing and a reference data creating device used therefor.

【0002】[0002]

【従来の技術】まず、以下に従来の代表的な画像検査方
法を説明する。2値化処理による従来の検査方法を図1
を参照して説明する。被検査物の投影画像が図1Aに示
すものとして得られ、その中央の矩形領域11aのかけ
や膨らみ具合を判定する検査の問題を考える。
2. Description of the Related Art First, a typical conventional image inspection method will be described below. Figure 1 shows the conventional inspection method by binarization.
Will be described with reference to. Consider the problem of the inspection in which the projected image of the inspection object is obtained as shown in FIG. 1A and the degree of bulging or bulging of the central rectangular area 11a is determined.

【0003】図1Aにおいて領域11b,11c,11
d,11aの順に濃度が順次高い部分を示す。その画像
中の領域11a,11dの中央を通る点線12上の濃度
変化は図1Bの曲線13で示すステップ状変化と、曲線
14で示す変動分とを加算した曲線15となるが、この
曲線15をしきい値16以下と以上とで2値化(パター
ン化)する。この2値化処理を行うためのしきい値16
は、図1Cに示すような領域11aと11dとにおける
濃度ヒストグラム曲線17a,17dの2つの山が最も
低い値18とする。通常はステップ状の理想的なパター
ン(曲線13)は入力されず、汚れや、照明条件の変化
により濃度変動が生じ、その濃度変動が重畳したパター
ン15となり、これをしきい値16で2値化処理を行
う。このような2値化処理を注目の矩形領域11aの全
体に施し、その結果の分布状態の形状が所定のものか否
かにより被検査物の良、不良を判定する。しかし、濃度
変動14の仕方を予測して、しきい値16を決定できれ
ば良いが、多くの場合困難を伴う。しきい値16の設定
を誤ると、領域11a,11bの各部を2値化した形状
が図1Dに示すように、本来の矩形領域11aの形状か
ら外れ、汚れや照明条件の変化の影響を直接受け、斜線
部19のような変動成分によって安定的な形状が検出で
きなくなる。これにより、実際に検出すべき、かけや膨
らみといった不良の状態を判定できなくなる。
In FIG. 1A, areas 11b, 11c, 11
The part where the density is higher in the order of d and 11a is shown. The density change on the dotted line 12 passing through the centers of the areas 11a and 11d in the image is a curve 15 obtained by adding the stepwise change shown by the curve 13 in FIG. 1B and the variation shown by the curve 14, and this curve 15 Is binarized (patterned) with a threshold value of 16 or less and a threshold value of 16 or more. Threshold value 16 for performing this binarization processing
Is the lowest value 18 of the two peaks of the density histogram curves 17a and 17d in the areas 11a and 11d as shown in FIG. 1C. Normally, an ideal step-like pattern (curve 13) is not input, and a density change occurs due to dirt or a change in lighting conditions, and the density change is superimposed to form a pattern 15. Process. Such binarization processing is performed on the entire rectangular area 11a of interest, and the good or bad of the inspection object is determined by whether or not the resulting distribution state has a predetermined shape. However, it is sufficient if the threshold value 16 can be determined by predicting the method of the concentration fluctuation 14, but in many cases it is difficult. If the threshold value 16 is set incorrectly, the binarized shape of each part of the areas 11a and 11b deviates from the original shape of the rectangular area 11a, as shown in FIG. However, a stable shape cannot be detected due to a variation component such as the shaded portion 19. As a result, it becomes impossible to determine a defective state such as a crack or a bulge that should be actually detected.

【0004】次に、従来の濃度正規化相関による検査方
法を図2に示す。図2Aに示す基準画像21中の検査対
象となる基準ウィンドウ22における各画素の濃度分布
kl(k=1,…,K;l=1,…,L)を図2Bに示
すように得、これを濃度パターンとして登録する。図2
Cに示す検査画像23中の基準ウィンドウ22と対応す
る領域24を左上隅から右下隅まで走査し、各走査点
(i,j)に対して全て以下の演算を実行し、相関係数
γij(−1≦γij≦1)を算出する。
Next, FIG. 2 shows a conventional inspection method based on density-normalized correlation. 2B, the density distribution M kl (k = 1, ..., K; l = 1, ..., L) of each pixel in the reference window 22 to be inspected in the reference image 21 shown in FIG. 2A is obtained, This is registered as a density pattern. Figure 2
A region 24 corresponding to the reference window 22 in the inspection image 23 shown in C is scanned from the upper left corner to the lower right corner, and the following calculation is performed for each scanning point (i, j) to obtain the correlation coefficient γ ij Calculate (−1 ≦ γ ij ≦ 1).

【0005】[0005]

【数1】 ここで、M0 は基準ウィンドウ22内の濃度平均値、T
0 は検査画像中の領域24の大きさ内の濃度平均値であ
る。このように走査点に対して定義される相関係数γij
の中で最大の値γmax を検出し、γmax が1に近い程良
品であるとする。この相関係数は、濃度のオフセット変
動には不変であるが、汚れや照明条件の変化等の不均一
的な濃度変動に対して、図2Dに示すように基準濃度パ
ターン25と検査濃度パターン26で囲まれた変動成分
(斜線部)27が生じ、良品に対しても大きく相関係数
が変動してしまい、誤判定の原因となる。
[Equation 1] Here, M 0 is the density average value in the reference window 22, T
0 is the average density value within the size of the area 24 in the inspection image. The correlation coefficient γ ij thus defined for the scanning point
Among them, the maximum value γ max is detected, and the closer γ max is to 1, the better the product. This correlation coefficient is invariant to the offset variation of the density, but as shown in FIG. 2D, the reference density pattern 25 and the inspection density pattern 26 are not affected by the non-uniform density fluctuation such as dirt and change of illumination conditions. A fluctuation component (hatched portion) 27 surrounded by is generated, and the correlation coefficient greatly fluctuates even for non-defective products, which causes erroneous determination.

【0006】以上のように、画像検査方法を実現する上
では、どのような画像特徴を抽出するか(画像特徴抽出
方法)、どの画像特徴を用いるか(画像特徴選択方
法)、および選択された画像特徴をどのように用いるか
(マッチング方法)が重要となる。画像特徴抽出方法と
しては、日本国特開昭63−226785号「画像特徴
抽出装置」に各種方法が示されている。即ち、対象画像
から、その濃度統計量や複雑度、広がり度等の領域の性
質を反映した領域特徴画像や、エッジやエッジ屈曲度等
の輪郭の性質を反映した輪郭特徴画像を抽出する。ここ
で領域特徴画像における領域とは、セグメンテーション
の結果得られる領域ではなく、局所フィルタリングによ
り処理対象となる局所領域を示す。
As described above, in order to realize the image inspection method, what image feature is extracted (image feature extraction method), which image feature is used (image feature selection method), and the selected image feature is selected. How to use image features (matching method) is important. As the image feature extraction method, various methods are disclosed in Japanese Patent Laid-Open No. 63-226785, "Image feature extraction apparatus". That is, from the target image, a region feature image that reflects the properties of the region such as density statistic, complexity, and spread, and a contour feature image that reflects the properties of the contour such as edge and edge bending degree are extracted. Here, the region in the region feature image is not a region obtained as a result of segmentation but a local region to be processed by local filtering.

【0007】濃度統計量は、各画素からある視野半径内
での濃度値の分散を画素の特徴値とするものである。複
雑度は、各画素からある視野半径内で放射状に走査した
とき、視野半径内に存在する走査線上のエッジの個数を
累積し、つまり各走査方向毎に計数し、走査方向間でそ
の平均値を各画素の特徴値として定義したものである。
ただし、出力の先鋭度を高めるため、 wt (r) = a/r k
(a,k は定数、rは走査線のアドレス)とし、また、真
のエッジの密度を算出するため、エッジの単純な累積値
でなく、エッジを横切る回数を累計する演算とする。広
がり度は、領域の面積に相当する量であり、各画素から
ある視野半径内で放射状に走査したとき、最初のエッジ
に衝突するまでの距離を各走査方向毎に計数し、走査方
向間でのその距離平均を各画素の特徴値として定義した
ものである。エッジ屈曲度は、各画素からある視野半径
内での視野中心の画素のエッジ方向に対する周囲のエッ
ジ方向のばらつき量(2乗ノルム)として算出される。
この特徴は、外乱によるエッジの途切れがあっても、積
分効果により影響を受けにくい性質を有する。
The density statistic is a distribution of density values within a certain viewing radius from each pixel as a characteristic value of the pixel. The complexity is calculated by accumulating the number of edges on the scanning line existing within the visual field radius when scanning radially from each pixel within a certain visual field radius, that is, counting for each scanning direction and the average value between the scanning directions. Is defined as a feature value of each pixel.
However, to increase the sharpness of the output, w t (r) = a / r k
(a and k are constants, r is the address of the scanning line), and the true edge density is calculated. Therefore, not the simple cumulative value of the edges, but the calculation of accumulating the number of times of crossing the edges. The degree of spread is an amount corresponding to the area of the region, and when scanning radially from each pixel within a certain visual field radius, the distance until it collides with the first edge is counted for each scanning direction, and between the scanning directions. Is defined as the feature value of each pixel. The edge bending degree is calculated as a variation amount (square norm) in the peripheral edge direction with respect to the edge direction of the pixel at the center of the visual field within a certain visual field radius from each pixel.
This feature has the property that even if there is a break in the edge due to a disturbance, it is unlikely to be affected by the integration effect.

【0008】領域特徴画像と輪郭特徴画像は、互いに相
補的な画像特徴であり、領域特徴だけでは形を十分に表
現することが難しく、また輪郭特徴だけではテクスチャ
の違いを十分に表現することが難しい。更に領域特徴画
像と輪郭特徴画像では、ノイズに対する感度も異なり、
ノイズにより輪郭が多少途切れていても領域特徴では比
較的特徴値のばらつきが少ない。このように、性質の異
なる画像特徴を検査、認識などに適用することは、画像
を種々の角度から表現するということであり、このよう
な相補的な関係の特徴画像を多く用いれば検査や認識の
信頼度を向上させることができる。
The area characteristic image and the contour characteristic image are image characteristics that are complementary to each other, and it is difficult to sufficiently express the shape only by the area characteristic, and it is possible to sufficiently express the difference in texture only by the contour characteristic. difficult. Furthermore, the sensitivity to noise differs between the area feature image and the contour feature image,
Even if the contour is discontinuous to some extent due to noise, there is relatively little variation in the feature value in the area feature. In this way, applying image features having different properties to inspection, recognition, and the like means expressing images from various angles. If many feature images with such complementary relationships are used, inspection and recognition will be performed. The reliability of can be improved.

【0009】画像特徴選択方法およびマッチング方法を
用いるものとして、日本国特開平4−175885「一
般化ハフ変換における画像特徴選択方式」が既に提案さ
れている。この「一般化ハフ変換における画像特徴選択
方式」における処理のフローチャートを図3に示す。ま
ずステップS1で、各カテゴリ、つまり検査の場合良品
と不良品、分類や認識では互いに区別されるべき複数の
対象物に対して、それぞれ基準となるサンプルを選択
し、そのサンプル画像について、複数の性質の異なる特
徴画像を抽出してそれぞれ基準特徴画像とする。その各
基準特徴画像について特徴点を選択する、つまり、特徴
画像がエッジ画像の場合、そのエッジ画像からその各エ
ッジを示す各点(特徴点)の各画素を選択し、特徴画像
が濃度画像であれば、量子化された各濃度値について、
その濃度値(特徴値)をとる各画素(特徴点)をその濃
度画像から選択する。次の、ステップS2で、選択され
た特徴点に対して、各カテゴリ、各特徴毎に参照テーブ
ルを作成する。参照テーブルは、図4中の参照テーブル
27として示すように各特徴値fi をインデックスとし
て、その特徴値をもつ各画素(その特徴画像のその特徴
値の特徴点)の位置が参照点を起点とする極座標ベクト
ル(ri , αi ), i =1,...,Np (Np は特徴点数)
として保持される。前記参照点は原理的にはどこでも良
いが、物体の重心位置に置くと一般化ハフ変換の変換誤
差が最小となることが知られている。
As a method of using the image feature selection method and the matching method, Japanese Patent Laid-Open No. 4-175885 “Image feature selection method in generalized Hough transform” has already been proposed. FIG. 3 shows a flowchart of processing in the "image feature selection method in generalized Hough transform". First, in step S1, a reference sample is selected for each category, that is, a good product and a defective product in the case of inspection, and a plurality of objects to be distinguished from each other in classification and recognition. Feature images with different properties are extracted and used as reference feature images. A feature point is selected for each reference feature image, that is, when the feature image is an edge image, each pixel of each point (feature point) indicating each edge is selected from the edge image, and the feature image is a density image. If so, for each quantized density value,
Each pixel (feature point) taking the density value (feature value) is selected from the density image. In step S2, a reference table is created for each category and each feature with respect to the selected feature point. In the reference table, as shown as a reference table 27 in FIG. 4, each feature value f i is used as an index, and the position of each pixel having that feature value (feature point of that feature value of that feature image) starts from the reference point. Polar coordinate vector (r i , α i ), i = 1, ..., N p (N p is the number of feature points)
Retained as. The reference point may be anywhere in principle, but it is known that the conversion error of the generalized Hough transform is minimized when the reference point is placed at the center of gravity of the object.

【0010】ステップS3では、各カテゴリ、各種外乱
が付加されたMサンプルの各特徴の特徴画像を抽出し、
その特徴画像をステップS2で作成した参照テーブルを
用い一般化ハフ変換を行う。一般化ハフ変換の導出原理
の説明をエッジ画像を例にとり図4を参照して示す。基
準画像21のエッジ画像(基準特徴画像)28は、物体
の輪郭点を示す。従って、エッジ画像の特徴点は輪郭点
でおって、その特徴値、つまりエッジ値は1であり、輪
郭点以外はエッジ値は0である。従って、ステップS2
では参照テーブル27には、特徴点の特徴値fi のイン
デックス欄にはエッジ点の値1のみがインデックスとし
て格納され、基準画像のエッジ画像28の輪郭像(エッ
ジ像)29の各画像(特徴点)pi の極座標表現された
アドレス(ri , αi ), i=1,...,Np (Np は輪郭
点数、つまり特徴点数)がアドレス欄に格納される。次
に、この参照テーブル27を用いた未知の入力画像31
に対するステップS3での処理を説明する。ここで算出
したいパラメータは、入力画像31における物体の位置
と姿勢(回転角)である。物体の位置は基準特徴画像2
8で既に決定した参照点(極座標原点)の位置、つまり
入力画像の物体の参照点である。基準特徴画像28と同
一の特徴画像、つまりエッジ画像32を入力画像31に
ついて生成し、そのエッジ画像32の各画素(その直交
座標は(x,y))のエッジ値が参照テーブル27に格
納された値(特徴値)である1のときのみ、参照テーブ
ル27に格納されているその特徴値に対する極座標アド
レス(ri , αi )を1個ずつ読みだして、以下のアド
レス変換を行う。
In step S3, the feature image of each feature of M samples to which each category and each disturbance is added is extracted,
The characteristic image is subjected to generalized Hough transform using the reference table created in step S2. The derivation principle of the generalized Hough transform will be described with reference to FIG. 4 by taking an edge image as an example. The edge image (reference feature image) 28 of the reference image 21 shows the contour points of the object. Therefore, the feature point of the edge image is a contour point, and the feature value, that is, the edge value is 1, and the edge value is 0 except the contour point. Therefore, step S2
Then, in the reference table 27, only the edge point value 1 is stored as an index in the index column of the feature value f i of the feature point, and each image (feature image) of the contour image (edge image) 29 of the edge image 28 of the reference image is stored. An address (r i , α i ), i = 1, ..., Np (Np is the number of contour points, that is, the number of feature points) expressed in polar coordinates of point p i is stored in the address field. Next, an unknown input image 31 using this reference table 27
The processing in step S3 for will be described. The parameters to be calculated here are the position and orientation (rotation angle) of the object in the input image 31. The position of the object is the reference feature image 2
This is the position of the reference point (polar coordinate origin) already determined in 8, that is, the reference point of the object in the input image. The same feature image as the reference feature image 28, that is, the edge image 32 is generated for the input image 31, and the edge value of each pixel of the edge image 32 (its orthogonal coordinates are (x, y)) is stored in the reference table 27. Only when the value is 1 (feature value), the polar coordinate addresses (r i , α i ) for the feature value stored in the reference table 27 are read one by one, and the following address conversion is performed.

【0011】 xG=x+ri cos(αi+θ) yG=y+ri sin(αi+θ) ここで、θは物体の回転角である。今、簡単のため、物
体の回転角θは既知とする。このようなアドレス変換に
より算出された座標(xG G ) は予測される物体の参
照点の可能性を示す位置である。エッジ値1が得られた
1つの画素位置(x,y)についての各変換アドレスx
G ,yG を図5に示すように、パラメータ空間であるア
キュムレータアレイ34上のxG ,yG の位置の値に1
だけ加算投票する。つまり未知エッジ画像32の、例え
ば、A点に対して参照テーブル27中の全てのアドレス
を順に読みだし、アドレス変換し、その変換されたアド
レスxG ,yG をアキュムレータアレイ34のxG ,y
G の値に加算投票していくと、物理的にはアキュムレー
タアレイ34上に参照点の可能性のある軌跡(値が1の
軌跡)35aが描画されることを意味する。未知エッジ
画像32のB点、C点に対して同じような処理をして軌
跡35b,35cを得る。アキュムレータアレイ34の
各位置xG ,yG の各値は加算投票(累積加算)である
ため、軌跡35b,35cが描画される際に、軌跡35
aと重なる位置で1回の重なりで値が2となり、2回の
重なりで値が3となる。未知エッジ画像32のエッジ像
が基準エッジ画像28のエッジ像29と少なくともA
点、B点、C点との相対位置関係が維持され、同じであ
るとすると、3つの軌跡35a,35b,35cは1つ
の交点36で交わることになる。この処理を、3点だけ
でなく、未知エッジ画像32上のエッジ点の全てに対し
て行うことにより、アキュムレータアレイ34上の参照
点の可能性の軌跡は、入力画像31の物体が基準画像2
1の物体と完全に同一であるならば、Np 回同一点で交
差することになる。この交差回数、即ち累積投票値分布
が例えば図4中の曲線37で示すように得られ、その分
布の最大ピーク点(位置)および、最大ピーク値(最大
頻度値)を求めることが入力画像31中での参照点位置
および基準画像に対する形の保存の度合いを算出するこ
ととなる。回転角θが未知の場合は、回転し得るθの範
囲分だけ角度刻みΔθピッチでθを変化させ、今度は、
アキュムレータアレイ34は(xG,G ) の2次元では
なく、(xG,G , θ)の3次元とし、各θに対して同
様の処理をすることにより、最大ピーク値を与える(x
G * , G * , θ* )を算出する。そしてこのθ * が求
める物体の回転角となる。例えば検査の場合、その物体
の製造時の治具の精度により回転角θの変動範囲が例え
ば±10°以内と予測され、その範囲内で角度θを小刻
みに変化させればよい。
XG= X + ricos (αi + θ) yG= Y + risin (αi + θ) where θ is the rotation angle of the object. Now for the sake of simplicity,
The rotation angle θ of the body is known. For address translation like this
The coordinates (xGyG) Is the predicted object
It is a position that indicates the possibility of a focal point. An edge value of 1 was obtained
Each conversion address x for one pixel position (x, y)
G, YGAs shown in FIG.
X on the cumulator array 34G, YG1 for the position value
Just add votes. That is, for example, the unknown edge image 32
For example, all addresses in the reference table 27 for point A
Are read in order, the address is converted, and the converted address is read.
Les xG, YGX of the accumulator array 34G, Y
GWhen you vote for the value of
Trajectory with a possible reference point on the data array 34 (value of 1
(Trajectory) 35a is drawn. Unknown edge
The same processing is applied to points B and C in image 32,
Traces 35b and 35c are obtained. Of the accumulator array 34
Each position xG, YGEach value of is an additional vote (cumulative addition)
Therefore, when the loci 35b and 35c are drawn, the locus 35
At the position where it overlaps with a, the value becomes 2 when it overlaps once.
The value becomes 3 by overlapping. Edge image of unknown edge image 32
Is at least A with the edge image 29 of the reference edge image 28.
The relative positional relationship with the points B, C, and
Then, the three loci 35a, 35b, 35c are one
It will intersect at intersection 36. This process only 3 points
Instead of all the edge points on the unknown edge image 32
Reference on the accumulator array 34
Regarding the locus of the possibility of points, the object of the input image 31 is the reference image 2
If it is exactly the same as the one object, it will intersect Np times at the same point.
I will make a difference. The number of intersections, that is, the cumulative voting value distribution
Is obtained, for example, as shown by the curve 37 in FIG.
Maximum peak point (position) of cloth and maximum peak value (maximum
Finding the frequency value is the position of the reference point in the input image 31.
And the degree of shape preservation for the reference image can be calculated.
And If the rotation angle θ is unknown, the range of θ that can rotate is
By changing θ by the angle increment Δθ pitch by the circled portion, this time,
The accumulator array 34 is (xG,yG) In two dimensions
Without (xG,yG, θ) and the same for each θ.
The maximum peak value is given (x
G * ,yG * ,θ*) Is calculated. And this θ *Is wanted
It is the rotation angle of the object to be struck. For example, in the case of inspection, the object
For example, the variation range of the rotation angle θ depends on the accuracy of the jig when manufacturing
For example, it is predicted to be within ± 10 °, and the angle θ is incremented within that range.
Just change it.

【0012】以上、パラメータ空間のアキュムレータア
レイ34上の投票値が最大となるアドレスxG * , G
* , θ* 中のxG * , G * が参照点の位置、θ* が物
体の回転角であり、その投票値最大値(最大頻度値)が
基準との近さを示す量となる。図3中のステップ3では
この最大頻度値を各カテゴリ内のサンプルに対して算出
し、そのカテゴリ内最大頻度値分布を作成し、あるカテ
ゴリ間のサンプル、例えば良品に対する不良品の画像サ
ンプルに対してカテゴリ間最大頻度値分布を作成する。
各カテゴリ/各特徴毎にこのカテゴリ内最大頻度値分布
とカテゴリ間最大頻度値分布との距離を算出する。この
距離により各カテゴリ/各特徴に対する重みを決定す
る。ステップ4により、各カテゴリに対して、各特徴の
重みのソーティングを行い、各特徴のランク付けを行
う。ステップS5により各カテゴリに対して、特徴のラ
ンクの高いものから順に組み合わせる参照テーブルの数
を増加し、つまり組み合わせる特徴の数を多くし、それ
ぞれについて、カテゴリ間の区別がどの程度可能になる
かについて評価する。ステップS6により入力画像の解
像度を変えて、エラー率が十分小さくなるまで、つま
り、例えば良品、不良品の区別が十分できるまで、また
は識別できないカテゴリの個数が0になるまでステップ
S1〜S5を繰り返す。
As described above, the address x G * , y G at which the voting value on the accumulator array 34 in the parameter space becomes the maximum.
*, Theta * x Medium G *, y G * is a reference point position, the rotation angle of theta * is the object, the amount to which the vote value maximum value (maximum frequency value) indicates the proximity of the reference . In step 3 in FIG. 3, this maximum frequency value is calculated for samples in each category, a maximum frequency value distribution in that category is created, and for samples between certain categories, for example, defective sample images for non-defective items. To create a maximum frequency value distribution between categories.
The distance between the maximum frequency value distribution within a category and the maximum frequency value distribution between categories is calculated for each category / feature. The weight for each category / feature is determined by this distance. In step 4, the weight of each feature is sorted for each category, and each feature is ranked. In step S5, for each category, the number of reference tables to be combined is increased in order from the one with the highest feature rank, that is, the number of features to be combined is increased, and how much the categories can be distinguished for each category. evaluate. The resolution of the input image is changed in step S6, and steps S1 to S5 are repeated until the error rate becomes sufficiently small, that is, until the good product and the defective product are sufficiently distinguished, or the number of unidentifiable categories becomes zero. .

【0013】以上のような処理によって、入力画像から
得られる各特徴画像と、基準画像から得られる各特徴画
像の参照テーブルの内容との一般化ハフ変換出力につい
て、当該一般化ハフ変換出力のアキュムレータアレイ上
の頻度分布のカテゴリ内変動と、一般化ハフ変換出力の
アキュムレータアレイ上の頻度分布のカテゴリ間変動と
の関係から決まる距離を重みとし、その重みの高い順か
ら特徴を組み合わせてカテゴリ間の距離を評価し、その
重み付き距離がある一定値以上になるか、あるいはこれ
以上改善されなくなるまで特徴の組み合わせを行う。こ
の従来の方法では、特徴種別の重み付けおよび特徴種別
の組み合わせの選択方法について提案している。
With the above processing, the generalized Hough transform output of each characteristic image obtained from the input image and the contents of the reference table of each characteristic image obtained from the standard image is stored in the accumulator of the generalized Hough transform output. The distance determined by the relationship between the intra-category variation of the frequency distribution on the array and the inter-category variation of the frequency distribution on the accumulator array of the generalized Hough transform output is used as a weight. The distances are evaluated, and the weighted distances are combined with each other until the weighted distance exceeds a certain value or no further improvement is made. This conventional method proposes a method of weighting feature types and selecting a combination of feature types.

【0014】[0014]

【発明が解決しようとする課題】しかし、特徴点の選択
方法については、基準画像から得られる各特徴画像に対
して、相互距離が最大となる特徴点を選択するに方法に
留まっている。この特徴点の選択方法では、選択対象と
なる基準画像の特徴点の中に、ゴミや他のノイズによっ
て汚されている点が混在していると、基準が不完全とな
るので、検査能力を低下させる原因となる。また、基準
となる画像をマニュアルで選んだとしても、それが、本
当に基準となる画像かどうかの保証はない。従って、複
数の良品画像の系列から、自動的に特徴点に対しても重
み付けをし、重みが高い、即ち信頼度の高い特徴点に対
しては、特徴種別選択およびマッチングに対してより影
響力を与え、また、重みが低い、即ち信頼度の低い特徴
点に対しては、特徴種別選択およびマッチングに対し
て、影響力を軽減させる必要がある。
However, the method of selecting the feature points is limited to the method of selecting the feature point having the maximum mutual distance for each feature image obtained from the reference image. In this feature point selection method, if the feature points of the reference image to be selected include points that are contaminated with dust or other noise, the reference will be incomplete, so the inspection capability will be reduced. It causes to decrease. Also, even if the reference image is manually selected, there is no guarantee that it is the reference image. Therefore, feature points are automatically weighted from a series of non-defective images, and feature points with high weight, that is, high reliability, have more influence on feature type selection and matching. In addition, for a feature point having a low weight, that is, a low reliability, it is necessary to reduce the influence on the feature type selection and matching.

【0015】図6に検査パターンの画像例を示す。図6
Aに示す理想パターンに対し、実際に得られる良品の画
像は、ゴミや汚れ等によりノイズ成分が重畳した画像と
なっており、例えば図6B乃至図6Dに示すように理想
パターンに対して位置ずれや回転が生じている。図6E
に示す不良品の画像は、図6Aの理想パターンに対して
少し扁平になっており、同様にノイズが重畳し、位置ず
れ/回転が生じている。このような状況の中から、良品
と不良品を区別する必要がある。この問題は画像を用い
て対象物を分類したり、認識したりする場合に同様に生
じる。
FIG. 6 shows an image example of the inspection pattern. Figure 6
The image of a non-defective product actually obtained with respect to the ideal pattern shown in A is an image in which a noise component is superimposed due to dust, dirt, and the like. For example, as shown in FIGS. Or rotation is occurring. Figure 6E
The image of the defective product shown in FIG. 6 is slightly flattened with respect to the ideal pattern of FIG. 6A, and similarly noise is superimposed, resulting in displacement / rotation. In such a situation, it is necessary to distinguish good products from defective products. This problem similarly occurs when an object is classified or recognized using an image.

【0016】この発明の目的は上記問題点の解決を図
り、図6に示したような状況において、照明環境やサン
プル表面の反射特性が変化することにより、またはゴミ
等の付着により発生する良品や基準サンプル画像の濃度
変動に対しても、良品/不良品を確実に区別でき、ある
いは正しく、分類したり認識したりすることができる検
査/認識方法を提供することにする。
The object of the present invention is to solve the above problems, and in the situation as shown in FIG. 6, a non-defective product which is generated due to a change in the illumination environment or the reflection characteristic of the sample surface, or due to the attachment of dust or the like. An inspection / recognition method capable of reliably distinguishing a non-defective product from a defective product, or correctly classifying or recognizing the same even with respect to a density variation of a reference sample image.

【0017】[0017]

【課題を解決するための手段】この発明によれば、入力
画像から画像特徴を抽出して特徴画像を第1ステップで
得、その特徴画像を第2ステップで量子化して量子化特
徴画像を得、その量子化特徴画像の特徴点の類似度また
は相違度を、複数の学習画像により予め求めた対応特徴
の学習データを用いて第3ステップで求めて画像検査や
認識を行う方法において、複数の学習画像に対するその
量子化特徴画像の各特徴点での特徴値ヒストグラムから
特徴点の重みを予め計算しておき、その重みを用いて第
3ステップでの類似度または相違度を重み付き類似度ま
たは重み付き相違度として求める。その第3ステップは
互いに異なる複数の特徴画像について求めた重み付き類
似度または重み付き相違度に対し、特徴重み付け組み合
わせを行って重み付き類似度または重み付き相違度を求
める。
According to the present invention, image features are extracted from an input image to obtain a feature image in a first step, and the feature image is quantized in a second step to obtain a quantized feature image. , A method of performing image inspection or recognition by obtaining the similarity or difference degree of the feature points of the quantized feature image in the third step by using the learning data of the corresponding features obtained in advance by the plurality of learning images, The weight of the feature point is calculated in advance from the feature value histogram at each feature point of the quantized feature image for the learning image, and the similarity or difference in the third step is used as the weighted similarity or Obtained as a weighted dissimilarity. In the third step, the weighted similarity or the weighted dissimilarity obtained for a plurality of mutually different feature images is subjected to feature weighting combination to obtain the weighted similarity or the weighted dissimilarity.

【0018】第3ステップの重み付き類似度は、パラメ
ータ空間へ特徴点の重みを加算投票する重み付き一般化
ハフ変換演算で行って求める。あるいは入力画像に対す
る特徴画像の特徴点特徴値系列と、学習画像に対する特
徴画像の特徴点特徴値系列との正規化相関係数、特徴点
の重み系列で重みを与えて求める重み付き正規化相関演
算を行って求める。第3ステップの重み付き相違度は、
量子化特徴画像を量子化レベルごとにパラメータ空間へ
特徴点の重みを加算投票する重み付きハフ変換してハフ
平面を得、このハフ平面と学習画像の特徴画像から得た
参照ハフ平面との差分演算を行って求める。
The weighted similarity in the third step is obtained by a weighted generalized Hough transform operation in which the weights of feature points are added and voted in the parameter space. Alternatively, the normalized correlation coefficient between the feature point feature value series of the feature image for the input image and the feature point feature value series of the feature image for the learning image, and the weighted normalized correlation operation obtained by weighting with the feature point weight sequence Go and ask. The weighted dissimilarity in the third step is
The weighted Hough transform is performed to add and vote the weights of the feature points to the parameter space for each quantization level of the quantized feature image to obtain a Huff plane. Calculate and obtain.

【0019】1つの特徴画像について、各特徴点の重み
の合計をその特徴点の数で正規化する。複数の学習画像
のコントラストが所定値より大きい場合は、第1ステッ
プで特徴画像として領域特徴画像を抽出し、第3ステッ
プで正規化相関演算を行い、コントラストが所定値より
小さい場合は第1ステップで特徴画像として輪郭特徴画
像を抽出し、第3ステップで重み付き一般化ハフ変換演
算を行う。あるいは良品と不良品とのような異なるカテ
ゴリの各複数の学習画像について、それぞれ重み付き一
般化ハフ変換演算と重み付き正規化相関演算を行い、そ
れぞれ各カテゴリの類似度分布の分布間距離を求め、分
布間距離が大きい方の演算を行う。
For one characteristic image, the total weight of each characteristic point is normalized by the number of the characteristic points. If the contrasts of the plurality of learning images are larger than the predetermined value, the region characteristic image is extracted as the characteristic image in the first step, the normalized correlation calculation is performed in the third step, and if the contrast is smaller than the predetermined value, the first step. Then, the contour feature image is extracted as the feature image, and the weighted generalized Hough transform calculation is performed in the third step. Alternatively, the weighted generalized Hough transform calculation and the weighted normalized correlation calculation are performed on each of a plurality of learning images of different categories such as non-defective products and defective products, and the inter-distribution distance of each similarity distribution of each category is obtained. , The one with the larger distance between distributions is calculated.

【0020】特徴画像の量子化は、複数の学習画像に対
して、良品と不良品のような各カテゴリごとの類似度ま
たは相違度分布間の相互の分布間距離が最大となる量子
化幅を用いるが、複数の学習画像の特徴画像における特
徴点の特徴値ヒストグラムの平均積分平方誤差を最小に
する量子化幅を用いる。特徴点の重みは、複数の学習画
像から量子化特徴画像を求め、その量子化特徴画像の各
特徴点での特徴値のヒストグラムを求め、そのヒストグ
ラムのばらつきの程度に応じて重みを求める。
The quantization of the feature image is performed by setting the quantization width that maximizes the mutual distribution distance between the similarity or dissimilarity distributions for each category such as non-defective products and defective products for a plurality of learning images. The quantization width that minimizes the mean square error of the feature value histogram of the feature points in the feature images of the plurality of learning images is used. As for the weight of the feature point, a quantized feature image is obtained from a plurality of learning images, a histogram of feature values at each feature point of the quantized feature image is obtained, and the weight is obtained according to the degree of variation of the histogram.

【0021】この発明のもう1つの方法では、先の発明
と同様に入力画像の量子化特徴画像を求め、その量子化
特徴画像の特徴点の類似度または相違度を学習画像から
得た参照データを用いて同様に求めるが、この場合は量
子化特徴画像を、その各量子化レベルに対するビット平
面よりなる多重ビット平面を作り、その各ビット平面を
参照データを用いて一般化ハフ変換または単なるハフ変
換を行って、一般化ハフ変換したものから上記類似度を
演算するか、ハフ変換したものと参照多重ハフ平面との
差分演算により相違度を求める。この何れの場合も、ビ
ット平面に与えられた重みを用いた重み付き類似度演算
または重み付き差分演算を行う。
According to another method of the present invention, reference data obtained by obtaining a quantized feature image of an input image as in the previous invention and obtaining the degree of similarity or difference of feature points of the quantized feature image from a learning image. In the same way, but in this case, the quantized feature image is made into a multi-bit plane consisting of bit planes for each quantization level, and each bit plane is generalized Hough transform or simple Hough transform using reference data. The conversion is performed to calculate the similarity from the generalized Hough transform, or the difference is obtained by calculating the difference between the Hough transformed and the reference multiple Hough plane. In either case, the weighted similarity calculation or the weighted difference calculation using the weight given to the bit plane is performed.

【0022】複数のカテゴリの複数の学習画像からそれ
ぞれ複数の量子化特徴画像を求め、第3ステップで用い
た学習データを用いて複数の学習画像の各特徴画像の特
徴点の重み付き類似度または重み付き相違度を、第3ス
テップで行う演算と同一手法の演算で求め、その演算結
果から各特徴画像についての類似度または相違度を求
め、これら類似度または相違度から特徴間の重みを求
め、特徴を組み合せ、カテゴリ内の類似度または相違度
と、そのカテゴリと他のカテゴリとの類似度または相違
度との距離を求め、この距離が所定の条件を満すまで特
徴の組み合わせを変更して、第3ステップの演算に用い
る特徴画像の組み合わせを決定する。
A plurality of quantized feature images are obtained from a plurality of learning images of a plurality of categories, and the learning data used in the third step is used to calculate the weighted similarity of the feature points of each feature image of the plurality of learning images or The weighted dissimilarity is calculated by the same method as the calculation performed in the third step, the similarity or the dissimilarity for each feature image is calculated from the calculation result, and the weight between the features is calculated from the similarity or the dissimilarity. , The features are combined, the distance between the similarity or dissimilarity within a category and the similarity or dissimilarity between that category and other categories is calculated, and the feature combinations are changed until this distance satisfies a predetermined condition. Thus, the combination of characteristic images used in the calculation of the third step is determined.

【0023】この決定された組み合わせにおけるカテゴ
リ内の類似度または相違度とカテゴリ間の類似度または
相違度との間にこれらカテゴリ間を区別するしきい値を
決める。つまりこのしきい値を用いて第3ステップで求
めた類似度または相違度と比較して、良品、不良品の判
定をしたり、分類や認識のための判定に用いる。また第
3ステップで得た重み付き類似度が最大または重み付き
相違度が最小となる対象原点の位置ずれ量、回転量、ま
たはスケール変化量を求め、その量を検査尺度とする。
A threshold for discriminating between the categories is determined between the similarity or the dissimilarity within the category and the similarity or the dissimilarity between the categories in the determined combination. That is, this threshold value is used to determine whether the product is a good product or a defective product by comparing with the similarity or the difference calculated in the third step, and is used for the determination for classification or recognition. Further, the positional deviation amount, the rotation amount, or the scale change amount of the target origin, which has the maximum weighted similarity or the minimum weighted dissimilarity obtained in the third step, is obtained, and the amount is used as an inspection scale.

【0024】この発明の画像検査/認識装置によれば、
入力画像が画像メモリに蓄えられ、上記入力画像から画
像の特徴を抽出して特徴画像を生成する手段、特徴画像
を量子化する手段が設けられ、上記量子化された特徴画
像が特徴画像メモリに蓄えられ、各特徴画像ごとに特徴
値とその特徴点及び重みとが参照テーブルとして参照テ
ーブルメモリに記憶され、上記量子化特徴画像につき、
上記参照テーブルメモリ内の対応する参照テーブルを用
いて重み付き類似度または相違度を演算する演算手段と
上記各手段を制御する制御手段が設けられる。
According to the image inspection / recognition device of the present invention,
An input image is stored in an image memory, means for extracting a feature of the image from the input image to generate a feature image, means for quantizing the feature image are provided, and the quantized feature image is stored in the feature image memory. Stored, the feature value and its feature points and weights for each feature image are stored in a reference table memory as a reference table, and for the quantized feature image,
There is provided a calculating means for calculating the weighted similarity or difference using the corresponding reference table in the reference table memory and a control means for controlling each of the above means.

【0025】この発明の画像検査/認識用参照データ生
成装置によれば、入力学習画像が画像メモリに蓄えら
れ、上記学習画像から画像の特徴を抽出して特徴画像を
生成する手段と、上記特徴画像を量子化する手段とが設
けられ、上記量子化された特徴画像が特徴画像メモリに
蓄えられ、上記量子化特徴画像からその特徴点の特徴値
分布を求める手段が設けられ、上記特徴画像ごとの上記
特徴点特徴値分布が特徴点特徴値分布メモリに蓄えら
れ、上記特徴値分布から各特徴点の重みを決定する手段
が設けられ特徴ごとの特徴点とその重みが参照テーブル
メモリに記憶され、その参照テーブルメモリの特徴点重
みを用いて、上記特徴画像に対する相関演算を行って重
み付き類似度または相違度を得る重み付き類似度(相違
度)演算手段が設けられ、上記重み付き類似度または相
違度の分布が類似度(相違度)分布メモリに蓄えられ、
カテゴリと対応する上記類似度または相違度の分布から
特徴間の重みを求める手段と、特徴間の組み合わせを決
めて、その組み合わせについてのカテゴリ内の重み付き
類似度または重み付き相違度とカテゴリ間の重み付き類
似度または重み付き相違度との距離を求める手段と、上
記距離が予め決めた条件を満たすまで上記特徴の組み合
わせを変更して、その時の組み合わせの各特徴画像の特
徴点とその重みを参照データとする手段とが設けられ
る。
According to the image inspection / recognition reference data generating device of the present invention, the input learning image is stored in the image memory, the feature of the image is extracted from the learning image, and the feature image is generated. Means for quantizing an image, the quantized characteristic image is stored in a characteristic image memory, means for determining a characteristic value distribution of the characteristic points from the quantized characteristic image is provided, and each characteristic image The feature point feature value distribution is stored in the feature point feature value distribution memory, means for determining the weight of each feature point from the feature value distribution is provided, and the feature point for each feature and its weight are stored in the reference table memory. A weighted similarity (difference) calculation means for obtaining a weighted similarity or difference by performing a correlation calculation on the feature image using the feature point weight of the reference table memory is provided. , Distribution of the weighted similarity or dissimilarity similarity (dissimilarity) stored in the distribution memory,
A means for obtaining the weight between features from the distribution of the above-mentioned similarity or dissimilarity corresponding to the category, and determining the combination between the features, and the weighted similarity within the category or the weighted dissimilarity between the features and the category Means for obtaining the distance from the weighted similarity or the weighted dissimilarity, and changing the combination of the features until the distance satisfies a predetermined condition, and the feature points of each feature image of the combination at that time and the weight thereof are calculated. Means for making reference data are provided.

【0026】学習すべき複数画像サンプルの多元セル特
徴(領域特徴や輪郭特徴等の多重解像度の特徴)のばら
つきから決定される特徴点の重みを求めるために、学習
特徴画像の特徴点の位置ずれ補正を行い、各特徴点の特
徴値のばらつきを測定し、その結果に基づき各特徴点の
重みを決定する。この各特徴点の重みは、各特徴毎に算
出される。この特徴点の重みは、重み付き類似度演算及
び重み付き相違度演算の係数として与えられ、得られる
類似度または相違度分布のカテゴリ内変動とカテゴリ間
変動との関係から決まる距離を特徴種別間の重みとし、
その重みの高い順から特徴を組み合わせて適用し、その
距離がある一定以上になるかあるいはそれ以上改善され
なくなるまで特徴の組み合わせを行う。
In order to obtain the weight of the feature point determined from the variation of multi-cell feature (multi-resolution feature such as region feature and contour feature) of a plurality of image samples to be learned, the position shift of the feature point of the learning feature image is obtained. The correction is performed, the variation of the feature value of each feature point is measured, and the weight of each feature point is determined based on the result. The weight of each feature point is calculated for each feature. The weight of this feature point is given as a coefficient of the weighted similarity calculation and the weighted dissimilarity calculation, and the distance determined from the relationship between the intra-category variation and the inter-category variation of the obtained similarity or dissimilarity distribution is calculated between the feature types. And the weight of
The features are combined and applied in order from the highest weight, and the features are combined until the distance becomes a certain value or more or no more improvement.

【0027】これにより、照明条件変動や表面の汚れに
対し、多元特徴の集合から良品と不良品を安定に区別す
るための特徴点を自動的に選択し(特徴種別も同時に自
動的に選択し)、検査信頼度を向上させることができ
る。
As a result, with respect to fluctuations in lighting conditions and surface contamination, feature points for stably distinguishing good products from defective products are automatically selected from a set of multidimensional features (feature types are also automatically selected at the same time. ), The inspection reliability can be improved.

【0028】[0028]

【実施例】【Example】

第1の実施例 図7にこの発明の第1実施例の流れ図を示す。この処理
は、画像検査用参照データ作成処理部100と、検査処
理部200とに分けられる。実施例の説明では、この発
明の特徴とする重み付き類似度算出演算および重み付き
相違度算出演算を具体化して説明する。図7は、重み付
き類似度算出演算では、重み付き一般化ハフ変換を行う
場合である。この第1の実施例において、特に学習特徴
画像生成ステップ102〜参照データ格納ステップ10
7、重み付き一般化ハフ変換ステップ113および重み
付き一般化ハフ変換ステップ204の部分が、この発明
に関連する最も特徴的な部分である。学習画像入力ステ
ップ101において、良品の学習画像を複数枚入力す
る。画像は、多諧調(通常256諧調)に量子化されて
入力されるとする。学習特徴画像生成ステップ102で
は、良品の学習画像に対して、多元セル特徴抽出処理に
より、学習特徴画像を生成する。多元セル特徴抽出を図
8に示す。つまり入力学習画像の濃度分布41,方向分
布42,エッジ密度分布43,エッジ空間分布45の4
つの基本表現に着目する。濃度分布41からは、局所フ
ィルタリングにより濃度分散等の濃度統計量画像45が
生成される。方向分布42からは、曲率画像(エッジ屈
曲度画像)46や平行性を示す量(バー特徴)の画像4
7が生成される。エッジ密度分布43からは、放射状に
走査したときエッジを横切る本数を示す複雑度画像4
8,エッジ空間分布44からは、放射状に走査したとき
エッジに最初に衝突するまでの距離(放射状距離)を示
す広がり度画像49,放射状距離の対角方向の距離比か
ら算出される「形状のまとまりの良さ」を示すブロッブ
特徴画像50が生成される。これらの特徴画像45〜5
0の抽出方法は、例えば日本国特開昭63−21308
5号公報「画像特徴抽出演算方式」、日本国特開昭62
−213093号公報「画像特徴抽出方法」、日本国特
開昭62−226785号公報「画像特徴抽出装置」等
に示されている。これらの特徴画像45〜50は、濃度
統計量や複雑度、広がり度等の領域の性質を反映した領
域特徴画像(ここで、領域とは、セグメンテーションの
結果得られる領域ではなく、局所フィルタリングにより
処理対象となる局所領域を示す)と、エッジや曲率等の
輪郭の性質を反映した輪郭特徴画像とに分けられる。オ
リジナルの濃度画像およびエッジ画像を含めこのような
特徴画像種別の違いの他に、フィルタリングする際の空
間周波数の違い、解像度の違い(パターンを表現する単
位(セル)の違い)により前記各種の特徴について新た
な特徴画像を生成する。
First Embodiment FIG. 7 shows a flow chart of a first embodiment of the present invention. This processing is divided into an image inspection reference data creation processing unit 100 and an inspection processing unit 200. In the description of the embodiments, the weighted similarity calculation calculation and the weighted dissimilarity calculation calculation, which are features of the present invention, will be described in detail. FIG. 7 shows a case where a weighted generalized Hough transform is performed in the weighted similarity calculation calculation. In the first embodiment, particularly, the learning feature image generating step 102 to the reference data storing step 10
7. The parts of the weighted generalized Hough transform step 113 and the weighted generalized Hough transform step 204 are the most characteristic parts relevant to the present invention. In learning image input step 101, a plurality of non-defective learning images are input. It is assumed that an image is quantized and input in multiple gradations (usually 256 gradations). In the learning feature image generation step 102, a learning feature image is generated by performing multi-cell feature extraction processing on a non-defective learning image. The multi-cell feature extraction is shown in FIG. That is, 4 of the density distribution 41, the direction distribution 42, the edge density distribution 43, and the edge space distribution 45 of the input learning image.
Focus on one basic expression. From the density distribution 41, a density statistic image 45 such as density dispersion is generated by local filtering. From the direction distribution 42, the curvature image (edge bending degree image) 46 and the image 4 of the amount (bar feature) indicating parallelism are obtained.
7 is generated. From the edge density distribution 43, the complexity image 4 showing the number of lines crossing the edge when radially scanned
8. From the edge space distribution 44, the spread degree image 49 showing the distance (radial distance) until the first collision with the edge when radially scanned, and the “shape of the shape” calculated from the distance ratio of the radial distance in the diagonal direction. The blob characteristic image 50 indicating “cohesiveness” is generated. These characteristic images 45 to 5
The extraction method of 0 is, for example, Japanese Patent Laid-Open No. 63-21308.
Japanese Patent Laid-Open No. 62-62, "Image feature extraction calculation method"
No. 213093, “Image feature extraction method”, and Japanese Patent Laid-Open No. 62-226785, “Image feature extraction device”. These characteristic images 45 to 50 are area characteristic images that reflect characteristics of areas such as density statistics, complexity, and spread (here, the area is not an area obtained as a result of segmentation, but is processed by local filtering. The target local area is shown) and the contour feature image reflecting the characteristics of the contour such as edge and curvature. In addition to such differences in feature image types including the original density image and edge image, the above-mentioned various features due to differences in spatial frequency when filtering and differences in resolution (difference in unit (cell) expressing pattern) Generate a new feature image for.

【0029】例として、図6に示した検査パターンの画
像に対して、輪郭特徴であるゼロクロス点画像を抽出す
ることを考える。ゼロクロス点画像は、原画像とラプラ
シアンガウシアンフィルタとの畳み込み積分により算出
される原画像の2次微分画像に対し、2次微分値がゼロ
交差(ゼロクロス)する点(原画像の濃淡値が変化する
変曲点に相当)を算出し、それをゼロクロス点と定義す
る。ガウシアンフィルタは(G(x,y,σ)=(1/(2
πσ2))exp(−(x2 +y2)/(2σ2)))の2次微
分G" により定義され、ラプラシアンガウシアンのσを
変化させ、異なるσに対して、それぞれゼロクロス点を
抽出する。
As an example, let us consider extracting a zero-cross point image, which is a contour feature, from the image of the inspection pattern shown in FIG. The zero-cross point image is a point at which the secondary differential value crosses zero with respect to the secondary differential image of the original image calculated by convolution integration of the original image and the Laplacian Gaussian filter (the gray value of the original image changes. Equivalent to the inflection point) is calculated and defined as the zero cross point. The Gaussian filter has (G (x, y, σ) = (1 / (2
πσ 2 )) exp (-(x 2 + y 2 ) / (2σ 2 ))) is defined by the second derivative G "of Laplacian Gaussian, and the zero cross points are extracted for different σ. .

【0030】図9A〜Dはそれぞれ図6B〜Eの各画像
からそれぞれ抽出したゼロクロス点画像を示す。図9A
〜D中の一番上の特徴画像はσが小さい場合で、空間周
波数が高く細かい輪郭構造が抽出できる反面、ノイズも
検出してしまうことになる。図9中の一番下の画像の特
徴画像はσが大きい場合で、空間周波数が低くノイズに
対しては反応しないが、おおまかな輪郭構造しか抽出で
きない。
9A-D show zero-cross point images extracted from the images of FIGS. 6B-E, respectively. Figure 9A
The uppermost characteristic image in D is a case where σ is small, and although the spatial frequency is high and a fine contour structure can be extracted, noise is also detected. The feature image of the bottom image in FIG. 9 has a large σ and has a low spatial frequency and does not react to noise, but only a rough outline structure can be extracted.

【0031】以上のように、多元でかつ解像度の異なる
セル(多元セル特徴)は、ピラミッド構造をした多層の
特徴プレーン51(図8)により一括管理される。この
ように4つの基本表現(図8中の41〜44)に基づ
き、かつ空間周波数の違い、解像度の違いにより生成さ
れる多元セル特徴を抽出することにより、ノイズが存在
しても、良品と不良品とを安定して区別することが可能
となる。図7中の学習特徴画像生成ステップ102で
は、通常、システムの効率上、対象に合わせて有効と考
えられる多元セル特徴の一部を抽出する。
As described above, cells with multiple resolutions and different resolutions (multi-source cell characteristics) are collectively managed by the multilayer feature plane 51 (FIG. 8) having a pyramid structure. In this way, based on the four basic expressions (41 to 44 in FIG. 8), and by extracting the multi-cell feature generated by the difference in spatial frequency and the difference in resolution, even if noise is present, it is determined as a good product. It is possible to stably distinguish defective products. In the learning feature image generation step 102 in FIG. 7, a part of the multi-source cell features which are considered to be effective depending on the target is usually extracted in terms of system efficiency.

【0032】次に、学習特徴点位置ずれ補正ステップ1
03では、学習特徴画像生成ステップ102で得られた
複数枚の学習特徴画像に対して、位置ずれ/回転/スケ
ール補正を行う。ここで、特徴点は、特徴画像の中から
対象の性質を端的に表す画素点のことであり、例えばゼ
ロクロス点画像では値が1の画素点が特徴点となる。位
置ずれ/回転/スケール補正は、単なる位置補正である
ので、特徴点のずれを最小2乗フィッティングにより算
出し、そのずれ量を補正するためにアフィン変換を行う
など、どのような方法でもよいが、簡便な方法が好まし
い。
Next, learning feature point position deviation correction step 1
In 03, misalignment / rotation / scale correction is performed on the plurality of learning feature images obtained in the learning feature image generation step 102. Here, the feature point is a pixel point that directly represents the property of the target from the feature image, and for example, in the zero-cross point image, the pixel point having a value of 1 is the feature point. Since the positional deviation / rotation / scale correction is merely positional correction, any method may be used, such as calculating the deviation of the feature points by least-square fitting and performing affine transformation to correct the deviation amount. A simple method is preferable.

【0033】この実施例としては、マッチング処理であ
る一般化ハフ変換を用いた方法について説明する。学習
特徴画像の中でどれか1枚を基準特徴画像とし、対象
(学習画像の物体)中の特徴点と補正を行う対象原点
(参照点)位置を指定する。この補正を行う対象原点位
置は、補正誤差を最小に抑えるため、対象の中心にとる
ことが好ましい。前記基準特徴画像における前記対象原
点からの特徴点位置を、図3のステップS2と同様に対
象の特徴点の特徴値をインデックスとして参照テーブル
に記憶する。この参照テーブルを用いて、他の学習特徴
画像に対して、一般化ハフ変換を実行する。ここでは、
後で詳しく説明する重み付き一般化ハフ変換において、
まだ特徴点重みwは決まっていないので、wは特徴点間
で同じ値にする。即ち、累積ヒストグラムへのインクリ
メント値はwでなく、従来の一般化ハフ変換と同様に1
である。
In this embodiment, a method using a generalized Hough transform which is a matching process will be described. One of the learning feature images is used as the reference feature image, and the feature point in the target (object of the learning image) and the target origin (reference point) position to be corrected are designated. The target origin position for this correction is preferably set at the center of the target in order to minimize the correction error. The feature point position from the target origin in the reference feature image is stored in the reference table using the feature value of the target feature point as an index, as in step S2 of FIG. Using this reference table, the generalized Hough transform is performed on other learning feature images. here,
In the weighted generalized Hough transform, which will be described in detail later,
Since the feature point weight w has not been determined yet, w is set to the same value among the feature points. That is, the increment value to the cumulative histogram is not w, but 1 as in the conventional generalized Hough transform.
Is.

【0034】この一般化ハフ変換では、学習特徴画像の
各特徴点の特徴値が参照テーブルの特徴値インデックス
と一致するとき、図4の場合と同様に一致した特徴値イ
ンデックスに格納されている特徴点位置を用いてアドレ
ス変換を行い、対象原点の位置/回転角のパラメータ空
間に投票し、多数決の原理により対象原点の位置/回転
角/スケール変化を算出する。決定された対象原点の位
置/回転角/スケール変化を用いて、基準特徴画像との
位置ずれ量/回転変化/スケール変化の分だけアフィン
変換により補正処理を行い、その結果として学習特徴補
正画像を算出する。図9A乃至D中の空間周波数がそれ
ぞれ高、中、低の各学習特徴画像に対して、それぞれ補
正処理した結果のイメージを図10A乃至図10Cに示
す。
In this generalized Hough transform, when the feature value of each feature point of the learning feature image matches the feature value index of the reference table, the feature stored in the matched feature value index as in the case of FIG. Address conversion is performed using the point position, voting is performed in the parameter space of the position / rotation angle of the target origin, and the position / rotation angle / scale change of the target origin is calculated according to the principle of majority voting. Using the determined position / rotation angle / scale change of the target origin, correction processing is performed by affine transformation for the amount of positional deviation / rotation change / scale change from the reference feature image, and the learning feature correction image is obtained as a result. calculate. FIGS. 10A to 10C show images obtained as a result of the correction processing on the learning feature images of high, medium, and low spatial frequencies in FIGS. 9A to 9D, respectively.

【0035】次に、特徴値として多階調をもつ場合に
は、画像特徴量子化ステップ104において、後述する
ように好ましい量子化幅で画像特徴を量子化する。画像
特徴をF(x,y)とし、量子化画像特徴をG(x,y)、量子
化レベル数をI q とすれば G(x,y) =(F(x,y) −Fmin /R)×I q 0≦G (x,y) ≦I q −1 となる。ただし、Fmin はFの最小値、RはFのダイナ
ミックレンジである。量子化幅は、R/Iq として定義
される。ここで、後で定義される良品の類似度分布(図
3の説明におけるカテゴリ内最大頻度分布)と不良品の
類似度分布(カテゴリ間最大頻度分布)から相互の分布
間距離を最大にする量子化幅を用いて量子化するのが好
ましい。量子化幅が最適でないと、一般化ハフ変換のヒ
ット率が低下し、検査性能が低下する原因となる。最適
な量子化幅を算出するには類似度分布の分布間距離を評
価することが的確であり、そのため量子化幅を少しずつ
変化させて最適な値を求めるのは学習といえども処理時
間が無視できなくなる。従って、類似度の分布間距離を
算出しなくても、良品の画像特徴の分布から大体の最適
量子化幅の存在範囲を限定できれば、学習システムとし
ての効率上好ましい。
Next, when the feature value has multiple tones, the image feature quantization step 104 quantizes the image feature with a preferred quantization width as described later. If the image feature is F (x, y), the quantized image feature is G (x, y), and the number of quantization levels is Iq, then G (x, y) = (F (x, y) -F min / R) × I q 0 ≦ G (x, y) ≦ I q −1. However, F min is the minimum value of F, and R is the dynamic range of F. The quantization width is defined as R / I q . Here, a quantum that maximizes the mutual distribution distance from the similarity distribution of good products (maximum frequency distribution within categories in the description of FIG. 3) and the similarity distribution of defective products (maximum frequency distribution between categories) defined later. It is preferable to quantize using the conversion width. If the quantization width is not optimal, the hit rate of the generalized Hough transform is reduced, which causes the inspection performance to be reduced. To calculate the optimum quantization width, it is appropriate to evaluate the distance between distributions of the similarity distribution. Therefore, even if it is a learning process to gradually change the quantization width to obtain the optimum value, the processing time It cannot be ignored. Therefore, it is preferable in terms of efficiency as a learning system if the existence range of the approximate optimum quantization width can be limited from the distribution of image characteristics of non-defective products without calculating the distance between distributions of similarity.

【0036】最適量子化幅の存在範囲を限定する評価尺
度として、良品の学習画像のその特徴値ヒストグラムの
平均積分平方誤差に着目し、この誤差を最小にする量子
化幅をおおよその最適量子化幅として用い、その存在範
囲の中で、類似度の分布間距離を最大にする量子化幅を
探索することとする。特徴値ヒストグラムの平均積分平
方誤差は次の式で定式化される。
As an evaluation measure for limiting the existence range of the optimum quantization width, attention is paid to the mean integral squared error of the feature value histogram of the learning image of a good product, and the quantization width that minimizes this error is roughly optimized. It is used as a width, and the quantization width that maximizes the distance between distributions of similarity is searched for in the existing range. The average integrated square error of the feature value histogram is formulated by the following equation.

【0037】特徴値ヒストグラムをH(k),k=1,...,I
q 、理想の特徴値ヒストグラムをH ideal k)とする
と、 error (I q ) =Σiq k=1(Hideal (k) −H(k))2 により定義される積分平方誤差を最小化する。Hideal
(k )は未知であるので、最尤推定法により、上式の誤
差の期待値、即ち平均積分平方誤差が次式で算出され
る。
H (k), k = 1, ..., I
q, H is the ideal feature value histogram idealk)
And error (Iq) = Σiq k = 1(Hideal(k) -H (k))2 Minimize the integral squared error defined by Hideal
Since (k) is unknown, the maximum likelihood estimation method
The expected difference value, that is, the mean squared error is calculated by the following formula.
It

【0038】E error (Iq )=(Iq /(nR))[1
ー((n+1)/(nー1))(Σiq k=1 H(k)2
nー1)] ここで、nは特徴値ヒストグラムの頻度値の合計であ
る。このE error (Iq ) を最小にするIq を求めること
により、最適量子化レベル数(量子化幅)の存在範囲を
限定することが可能となる。
E error (I q ) = (I q / (nR)) [1
-((N + 1) / (n-1)) (Σ iq k = 1 H (k) 2 /
n-1)] Here, n is the sum of the frequency values of the feature value histogram. By determining I q that minimizes this E error (I q ), it is possible to limit the existence range of the optimum number of quantization levels (quantization width).

【0039】更に、もっと簡便な尺度として、 I q * ≦(2n)1/3 として、最適量子化レベル数(量子化幅)の存在範囲が
求められる。次に学習特徴点特徴値分布測定ステップ1
05で、特徴毎に格納された学習特徴補正画像(量子化
画像)の系列から各特徴点毎に特徴値ヒストグラムを作
成する。ここで特徴値ヒストグラム作成においては、通
常、位置補正誤差が存在するので、その誤差を考慮し、
許容補正誤差の分だけ特徴点周囲の画素を取り込んでヒ
ストグラム作成をする。また、あらかじめ許容補正誤差
の分だけオーバーラップした画像ブロックに分割してお
き、各ブロック単位にヒストグラムを作成してもよい。
図11にゼロクロス点特徴画像(ゼロクロス点では1/
ゼロクロス点以外では0)52の系列に対する特徴値ヒ
ストグラムを示す。即ち境界付近53の特徴値ヒストグ
ラム54はゼロクロス点1の頻度が大きく、ゼロクロス
点(特徴点)らしさが大きいことを示しており、境界か
ら可なり離れた非境界の部分55の特徴値ヒストグラム
56では、ゼロクロス点1の頻度が小さく、ゼロクロス
点らしさが小さいことを示している。
Further, as a simpler measure, the existence range of the optimum number of quantization levels (quantization width) is obtained by setting I q * ≦ (2n) 1/3 . Next, learning feature point feature value distribution measurement step 1
At 05, a feature value histogram is created for each feature point from a series of learning feature correction images (quantized images) stored for each feature. In the feature value histogram creation, there is usually a position correction error, so consider that error,
Pixels around the feature points are taken in by the allowable correction error to create a histogram. Alternatively, the image blocks may be divided in advance into overlapping image blocks by the allowable correction error, and a histogram may be created for each block.
Fig. 11 shows a zero-cross point characteristic image (1/0 at the zero-cross point).
A feature value histogram for a series of 0) 52 other than the zero-cross point is shown. That is, the feature value histogram 54 near the boundary 53 shows that the frequency of the zero-cross points 1 is high and the likelihood of the zero-cross points (feature points) is high. , The frequency of zero-cross points 1 is low, and the likelihood of zero-cross points is low.

【0040】学習特徴点重み決定ステップ106では、
各特徴点に対する学習特徴点特徴値ヒストグラム分布の
状態から、各特徴点に対してその特徴の程度を示す重み
を設定する。ここで、学習サンプル数をMとする。図1
1の場合では、ゼロクロス点(ゼロクロス点特徴画像の
値が1の点)の頻度比率R(=頻度/M)の大小に比例
して重みが決定される。値が0の点はゼロクロス点でな
いので重み付けの対象にはならない。重みが低い点は、
この段階で除去しておいた方が演算コストの点から好ま
しい。例えば頻度比率Rが1/2近辺以上であれば、頻
度比率の低下分は量子化誤差に起因したものと考えられ
るので、ゼロクロス点とみなしてもよいが、Rが極端に
低い場合には、ノイズ成分と考えられるので、ゼロクロ
ス点とみなさない方がよい。このように頻度比率Rでし
きい値処理し、ノイズらしい点を除去する。残ったゼロ
クロス点に対して、頻度比率Rにより重み付けを行う。
この残った各ゼロクロス点に対する重み分布を用いて、
基準ゼロクロス点集合(基準特徴点集合)の各点(特徴
点)に重みを付ける。また、この特別な場合として、残
った各点に対して重みを一様に設定することも可能であ
る。基準ゼロクロス点集合を求めるには、 1)ゼロクロス点の重み分布から、その各分布の峰(ピ
ーク)を捜し、これを新たなゼロクロス点をとし、これ
らを基準ゼロクロス点集合とする方法、 2)ゼロクロス点学習特徴補正画像(ゼロクロス点特徴
補正画像)のうちの最も平均的なゼロクロス点画像に着
目し、そのゼロクロス点画像のゼロクロス点を基準ゼロ
クロス点集合とする方法、 等が考えられる。いずれの方法にせよ、基準ゼロクロス
点集合の各ゼロクロス点に、同位置のゼロクロス点重み
分布の重み値wi (i=1,…,Np )を付与する。こ
こで、各重み値は、基準ゼロクロス点集合における各ゼ
ロクロス点の重みの合計が基準ゼロクロス点数Np とな
るように正規化する。従って、各重みを同一値とすると
重みは1/Np となる。このようにして各特徴の種類に
かかわらず特徴点の重みを一般化している。
In the learning feature point weight determination step 106,
Based on the learning feature point feature value histogram distribution state for each feature point, a weight indicating the degree of the feature is set for each feature point. Here, the number of learning samples is M. FIG.
In the case of 1, the weight is determined in proportion to the magnitude of the frequency ratio R (= frequency / M) of the zero cross points (points where the value of the zero cross point characteristic image is 1). A point with a value of 0 is not a zero-cross point and therefore is not a target for weighting. The point of low weight is
It is preferable to remove it at this stage from the viewpoint of calculation cost. For example, if the frequency ratio R is around ½ or more, it is considered that the decrease in the frequency ratio is caused by the quantization error. Therefore, it may be regarded as a zero cross point, but if R is extremely low, It is considered to be a noise component, so it is better not to consider it as a zero-cross point. In this way, the frequency ratio R is used for thresholding to remove noise-like points. The remaining zero-cross points are weighted by the frequency ratio R.
Using the weight distribution for each of the remaining zero-cross points,
Each point (feature point) of the reference zero-cross point set (reference feature point set) is weighted. In addition, as a special case, it is possible to uniformly set the weight for each remaining point. To find the reference zero-cross point set, 1) Search the peaks of each distribution from the weight distribution of the zero-cross points, set these as new zero-cross points, and set these as the reference zero-cross point set, 2) A method of focusing on the most average zero-cross point image of the zero-cross point learning characteristic correction image (zero-cross point characteristic correction image) and using the zero-cross points of the zero-cross point image as the reference zero-cross point set can be considered. In any method, the weight value w i (i = 1, ..., N p ) of the zero-cross point weight distribution at the same position is given to each zero-cross point of the reference zero-cross point set. Here, each weight value is normalized such that the sum of the weights of the zero-cross points in the reference zero-cross point set is the reference zero-cross point number N p . Therefore, if each weight has the same value, the weight becomes 1 / N p . In this way, the feature point weights are generalized regardless of the type of each feature.

【0041】濃度化画像の例において特徴値の分布が例
えば図12A乃至Dに示すようになったとする。図12
Bに示すように、分布がある特徴値(濃度)に集中して
いるほど、即ち、分布のばらつきが小さいほど重みが大
きくなる。この場合、最大頻度をMで割った頻度比率R
を重みの尺度とみなすことができる。または、分布の分
散の大小に反比例して重みを設定することもできる。こ
こで、先の場合と同様頻度比率Rまたは分布の分散の値
でしきい値処理し、ノイズらしき点を除去する。残った
特徴点の集合を基準特徴点集合とする。基準特徴点集合
の各特徴点の特徴値は、例えば、最大頻度を与える特徴
値かまたは分布の平均値を与える特徴値とする。基準特
徴点集合に対する重み値wi (i=1,…,Np )はそ
の合計がNp となるように正規化する。または、この特
別な場合として、残った各点に対して、重みを一様に設
定し、重みの全合計がNp となるように設定することも
可能である。
It is assumed that the distribution of feature values in the example of the densified image is as shown in FIGS. 12A to 12D, for example. 12
As shown in B, the more the distribution is concentrated on a certain characteristic value (density), that is, the smaller the variation of the distribution is, the larger the weight is. In this case, the frequency ratio R obtained by dividing the maximum frequency by M
Can be regarded as a measure of weight. Alternatively, the weight can be set in inverse proportion to the magnitude of the variance of the distribution. Here, as in the previous case, the frequency ratio R or the variance value of the distribution is thresholded to eliminate noise-like points. The set of remaining feature points is set as a reference feature point set. The feature value of each feature point of the reference feature point set is, for example, a feature value that gives the maximum frequency or a feature value that gives the average value of the distribution. The weight values w i (i = 1, ..., N p ) for the set of reference feature points are normalized so that the total becomes N p . Or, as this special case, with respect to each point remaining, uniformly set the weight, it is also possible to sum of all the weights are set such that N p.

【0042】また、画面上からオペレータがマウスやカ
ーソル等の手段により直接特徴点を指定することにより
予め重み付けの対象とならない背景画像等を除去するこ
とができる。あるいは、検査対象のCAD(Computer A
id Design)データを読み取り、不要な検査箇所を除くこ
とができる。このように、画面上からオペレータまたは
CADデータが直接指定した特徴点を優先して、学習特徴
点の重み決定を行うことにより、より綿密な特徴点の重
み付けが可能となる。
Further, the operator can directly specify a feature point on the screen by means of a mouse, a cursor or the like to remove a background image or the like which is not to be weighted in advance. Alternatively, the CAD (Computer A
id Design) Data can be read and unnecessary inspection points can be removed. In this way, the operator or
By prioritizing the feature points directly specified by the CAD data and determining the weights of the learning feature points, more detailed weighting of the feature points becomes possible.

【0043】図7中の参照データ格納ステップ107で
は、図13に示すように、特徴画像52の計算の対象
(物体)原点CG (xG,G )を決定し、ステップ10
5で求めた各特徴点Piとの位置関係を曲座標表現(r
i ,αi )(i=1,…,Np)を用いて表現する。こ
れらの特徴点Piは、ステップ105または106で求
めた特徴値をインデックスとして、その特徴値を有する
特徴点の極座標(ri ,αi )とステップ106で求め
たその特徴点の重みwi とを参照テーブル61に格納す
る。図13では、空間周波数が高、中、低の各ゼロクロ
ス点特徴画像52に対する参照テーブル61a,61
b,61cの構成例を示す。ゼロクロス点特徴画像52
では、特徴点の特徴値は1のみであり、従って、各テー
ブル61a,61b,61cではインデックス欄は省略
されている。
In the reference data storing step 107 in FIG. 7, the origin (object) origin C G (x G, y G ) of the calculation of the characteristic image 52 is determined as shown in FIG.
The positional relationship with each feature point Pi obtained in step 5 is expressed as a song coordinate (r
i , α i ) (i = 1, ..., N p ). These feature points Pi are the polar coordinates (r i , α i ) of the feature point having the feature value and the weight w i of the feature point obtained in step 106, using the feature value obtained in step 105 or 106 as an index. Is stored in the reference table 61. In FIG. 13, the reference tables 61a and 61 for the zero-cross point characteristic images 52 having high, medium, and low spatial frequencies are shown.
The structural example of b and 61c is shown. Zero-cross point feature image 52
Then, the characteristic value of the characteristic point is only 1, so that the index column is omitted in each of the tables 61a, 61b, and 61c.

【0044】図14に、N個の特徴画像に対する参照テ
ーブル61の例を示す。特徴画像f(1) に対して、特徴
値I0(1), I1(1),…をインデックスとして、その特徴
値を有する特徴点の位置情報と重み情報(ri 0(1),α
i 0(1), wi 0 (1) (i=1,…,Np0(1))),(ri1
(1),αi1(1),wi1(1) (i=1,…,Np1(1) )…)が
参照テーブル611 に格納され、以下同様に参照テーブ
ル61k (k=1,…,N)に特徴値I0(k),I1(k)…
をインデックスとして位置情報および重み情報(r
i0(k),αi0(k),wi0(k) ),(ri1(k ),αi1(k
),wi1(k ),…)がそれぞれ格納される。次に、
特徴画像間の重みWk ,k=1,…,Nを決定し、特徴
の組み合わせ処理を行い、最適な組み合わせを決定す
る。この特徴組み合わせ処理における特徴画像間の重み
を用いた場合については、日本国特開平4−17588
5号「一般化ハフ変換における画像特徴選択方式」にお
いて詳しく述べられている。これに対し、この発明の第
1の実施例では、特徴点の重み(アナログ値)を前述し
たように複数画像から決定し、その特徴点重みを、特徴
画像間重みの枠組みの中で一般化ハフ変換に適用するよ
うに拡張している。
FIG. 14 shows an example of the reference table 61 for N characteristic images. For the feature image f (1), the feature values I 0 (1), I 1 (1), ... Are used as indexes, and the position information and weight information (r i 0 (1), α
i 0 (1), w i 0 (1) (i = 1, ..., N p0 (1))), (r i1
(1), α i1 (1), w i1 (1) (i = 1, ..., N p1 (1)) ... are stored in the reference table 61 1 and the same applies to the reference table 61 k (k = 1). , ..., N) have characteristic values I 0 (k), I 1 (k) ...
Position information and weight information (r
i0 (k), α i0 (k), w i0 (k)), (r i1 (k), α i1 (k
), W i1 (k), ...) are stored. next,
The weights W k , k = 1, ..., N between the feature images are determined, feature combination processing is performed, and the optimum combination is determined. Regarding the case of using the weight between the feature images in this feature combination processing, Japanese Patent Laid-Open No. 17588/1992
No. 5, "Image feature selection method in generalized Hough transform", is described in detail. On the other hand, in the first embodiment of the present invention, the feature point weight (analog value) is determined from a plurality of images as described above, and the feature point weight is generalized within the framework of feature image weights. It is extended to apply to Hough transform.

【0045】このためまず、図7中の学習画像入力ステ
ップ109において、良品の学習画像と不良品の学習画
像の両方を入力する。学習特徴組み合わせ処理ステップ
110では、これらの学習画像に対して、学習特徴画像
生成ステップ111において、良品と不良品の学習特徴
画像をステップ102(図8)と、同じく多元セル特徴
抽出によりそれぞれ作成し、その各特徴画像に対し画像
特徴量子化演算ステップ112により、学習量子化特徴
画像を生成する。この量子化幅はステップ104のそれ
と同一とする。
Therefore, first, in the learning image input step 109 in FIG. 7, both the learning image of a good product and the learning image of a defective product are input. In the learning feature combination processing step 110, a learning feature image of a non-defective product and a non-defective product is created from these learning images in the learning feature image generation step 111, similarly to step 102 (FIG. 8), and similarly, multi-cell feature extraction is performed. A learning quantized feature image is generated in the image feature quantization calculation step 112 for each of the feature images. This quantization width is the same as that of step 104.

【0046】重み付き一般化ハフ変換ステップ113で
は、算出された学習量子化特徴画像の各特徴点(x,
y)に対して以下のように、重み付き一般化ハフ変換処
理を行う。既に位置ずれ補正がなされている良品画像に
対しては、基準物体の外接矩形枠内の点列のみが対象と
なる。回転角θは0,スケール変化率sは1と固定して
よい。一方、位置ずれ補正されていない良品画像や不良
品画像に対しては、対象点列は学習画像内の全点、回転
角、スケール変化率はフリーとする。位置ずれ補正を強
制的に良品、不良品を問わず実行してもよいが、一般に
不良品やノイズが混入した画像に対しては、例えばエッ
ジ画像やゼロクロス点画像のように半角部特徴画像はノ
イズの影響を受け易く、位置ずれ補正による画質劣化の
影響が大きいこともあり、画像特徴の種類により、位置
ずれ補正の性能が異なることから、位置ずれ補正を正し
くした学習は一般には難しい。従って、ここでは、位置
ずれ補正はあらかじめ敢て行わないこととする。しか
し、前述したように一般化ハフ変換では位置ずれに対す
るマッチングが自動的に行われる。
In the weighted generalized Hough transform step 113, each feature point (x,
The weighted generalized Hough transform process is performed on y) as follows. For a non-defective image that has already been subjected to positional deviation correction, only the point sequence within the circumscribed rectangular frame of the reference object is targeted. The rotation angle θ may be fixed to 0 and the scale change rate s may be fixed to 1. On the other hand, for the non-defective image and the defective image that have not been subjected to the positional deviation correction, the target point sequence is free of all points in the learning image, the rotation angle, and the scale change rate. Although misregistration correction may be forcibly executed regardless of whether the product is a good product or a defective product, in general, for an image in which defective products or noise are mixed, a half-angle characteristic image such as an edge image or a zero-cross point image is not displayed. It is generally difficult to learn with correct positional deviation correction because the performance of positional deviation correction differs depending on the type of image feature because it is easily affected by noise and the image quality deterioration due to positional deviation correction is large. Therefore, here, the positional deviation correction is not intentionally performed. However, as described above, in the generalized Hough transform, matching with respect to the positional deviation is automatically performed.

【0047】以下は、重み付き一般化ハフ変換の一般式
を示す。ステップ109で入力された画像の特徴画像の
各点(x,y)の特徴値が、参照テーブル61に格納さ
れている特徴値インデックスと一致したとき、一致した
特徴値インデックスに格納されている特徴点位置(r,
α)を用いて、次のアドレス変換を行う。
The general formula of the weighted generalized Hough transform is shown below. When the feature value of each point (x, y) of the feature image of the image input in step 109 matches the feature value index stored in the reference table 61, the feature stored in the matched feature value index Point position (r,
α) is used to perform the next address conversion.

【0048】 x′=x+s×r× cos(θ+α) (2) y′=y+s×r× sin(θ+α) ここで、x′,y′は学習画像中の予測される対象原点
(参照点)位置、θは予測される回転角、sは予測され
るスケールである。これらの予測されるパラメータから
構成されるパラメータ空間(x′,y′,θ,s)のア
ドレス位置に、特徴点の重みwだけ累積加算する。即
ち、A(x′,y′,θ,s)をパラメータ空間
(x′,y′,θ,s)における累積ヒストグラムとす
ると、 A(x′,y′,θ,s):=A(x′,y′,θ,s)+w (3) とする。
X ′ = x + s × r × cos (θ + α) (2) y ′ = y + s × r × sin (θ + α) Here, x ′ and y ′ are predicted target origins (reference points) in the learning image. The position, θ is the predicted rotation angle, and s is the predicted scale. The weight w of the feature point is cumulatively added to the address position of the parameter space (x ′, y ′, θ, s) formed of these predicted parameters. That is, if A (x ', y', θ, s) is a cumulative histogram in the parameter space (x ', y', θ, s), then A (x ', y', θ, s): = A ( x ′, y ′, θ, s) + w (3)

【0049】以上の処理は、θおよびsに関して予測さ
れる変動範囲、例えば画像中の対象を製造する際の治具
の精度で決まる±10°の変動範囲、±10%の位置や
スケールSの変動範囲の分だけその変動成分をわずか変
化させて繰り返し処理が行われる。通常の使い方では、
sを固定し、(x′,y′,θ)のパラメータ空間でA
(x′,y′,θ)の累積ヒストグラムを構成する場合
が多い。
The above processing is performed in accordance with the predicted variation range of θ and s, for example, the variation range of ± 10 °, which is determined by the accuracy of the jig when manufacturing the object in the image, the position of ± 10%, and the scale S. Repeated processing is performed by slightly changing the fluctuation component by the fluctuation range. In normal usage,
With s fixed, A in the parameter space of (x ′, y ′, θ)
In many cases, a cumulative histogram of (x ', y', θ) is constructed.

【0050】類似度決定ステップ114では、以上の重
み付き一般化ハフ変換処理により算出された累積ヒスト
グラムA(x′,y′,θ,s)に対して、最大頻度を
与える最適原点位置/回転角/スケールパラメータ(x
* ,y* ,θ* ,s* )を算出し、その最大頻度Hm
特徴点数Np で正規化し、その値を類似度Sとして算出
する。
In the similarity determination step 114, the optimum origin position / rotation that gives the maximum frequency to the cumulative histogram A (x ', y', θ, s) calculated by the weighted generalized Hough transform process described above. Angle / scale parameter (x
* , Y * , θ * , s * ) is calculated, the maximum frequency H m is normalized by the number of feature points N p , and the value is calculated as the similarity S.

【0051】特徴間重み測定ステップ115では、良品
/不良品のそれぞれについてN個の特徴画像に対して、
重み付き一般化ハフ変換および類似度決定をする。即
ち、良品のサンプル画像数をMok,不良品のサンプル画
像数をMngとすると、第k特徴画像に対する類似度は、
良品の場合、Sok(k,m),m=1,…,Mok,不良
品の場合、Sng(k,m),m=1,…,Mngの類似度
系列となる。このように、第k特徴画像に対して、図1
5に示すように良品の類似度分布63と不良品の類似度
分布64が生成される。第k特徴画像に対する重みは、
良品の類似度分布63と不良品の類似度分布64との開
きの度合いによって算出される。サンプル数が多い場合
には、両分布の平均と分散を用いてバタチャリア距離等
の距離尺度により開きの度合いが算出されるが、学習サ
ンプルが少ないことも予想されるので、簡易的な統計尺
度として、例えば、良品の最悪値、つまり良品中で基準
特徴画像から最も離れた値と不良品の最良値、つまり不
良品中の良品は最も近い値との距離W(k)を両分布の
開きの度合いとし、これを重み係数とする。即ち、第k
特徴画像に対する重み係数W(k)は W(k)=MIN(Sok(k,m)) −MAX(Sng(k,m))+c (4) となる。ここで、cはW(k)≧0となるように調整す
る定数である。この重み係数W(1)…,W(N)は、
図16に示すように図14で示した参照データテーブル
611 〜61N の各特徴のヘッダ部分に格納される。
In the inter-feature weight measurement step 115, the N feature images for each of the non-defective product and the defective product are
Weighted generalized Hough transform and similarity determination. That is, assuming that the number of good sample images is M ok and the number of defective sample images is M ng , the similarity to the kth feature image is
In the case of non-defective products, the similarity series is S ok (k, m), m = 1, ..., M ok , and in the case of defective products, S ng (k, m), m = 1, ..., M ng . Thus, for the kth feature image,
As shown in FIG. 5, a non-defective product similarity distribution 63 and a defective product similarity distribution 64 are generated. The weight for the kth feature image is
It is calculated by the degree of difference between the similarity distribution 63 of non-defective products and the similarity distribution 64 of defective products. When the number of samples is large, the degree of opening is calculated using a distance measure such as the Batacharia distance using the average and variance of both distributions, but since it is expected that there are few learning samples, a simple statistical measure is used. For example, the distance W (k) between the worst value of a good product, that is, the value farthest from the reference feature image in the good product and the best value of the defective product, that is, the closest value of the good product in the defective product is set to the difference between both distributions. The degree is used as the weighting coefficient. That is, the kth
Weight coefficient W for the feature images (k) becomes W (k) = MIN (S ok (k, m)) -MAX (S ng (k, m)) + c (4). Here, c is a constant adjusted so that W (k) ≧ 0. The weighting factors W (1) ..., W (N) are
As shown in FIG. 16, it is stored in the header part of each feature of the reference data tables 61 1 to 61 N shown in FIG.

【0052】特徴組み合わせステップ116では、特徴
を重み係数W(k)の大きい順から順に組み合わせる。
まず、重み係数W(k)は、大きさの大きい順にソーテ
ィングされる。その後特徴組み合わせを行うが、特徴の
組み合わせ方としては、OR結合とAND結合が考えら
れる。AND結合は、組み合わせた特徴画像上の同じ特
徴点の値が同時に成立するときのみ、重み付き一般化ハ
フ変換におけるインクリメント、つまりその特徴点につ
いての荷重累積加算をする。ここで、加算するw(特徴
点重み)は、例えば、特徴間で平均化した値を用いる等
が考えられる。OR結合では、重み係数の大きい順に並
べ換えられた特徴画像に対し、第k特徴画像に対する一
般化ハフ変換の累積ヒストグラムをA(k|x’,
y’,θ,s)とし、上位Nc 個まで組み合わせるとす
ると、 Acc(Nc |x′,y′,θ,s) =ΣW(k)A(k|x′,y′,θ,s) (5) (ただし、ΣはNc 個の総和)となる荷重加算累積ヒス
トグラムAcc(Nc |x′,y′,θ,s)を算出す
る。ここで、累積ヒストグラムの荷重加算処理は、全て
のパラメータ空間の値に対して実行するのではなく、効
率化のために、ピーク値に近い近傍のみに対して実行す
る。
In the feature combination step 116, features are combined in order from the largest weighting coefficient W (k).
First, the weighting factors W (k) are sorted in descending order of size. After that, the feature combination is performed, and the OR combination and the AND connection can be considered as the feature combination method. The AND combination performs increment in the weighted generalized Hough transform, that is, cumulative addition of weights for the feature points only when the values of the same feature points on the combined feature images are satisfied at the same time. Here, as w (feature point weight) to be added, for example, a value averaged between the features may be used. In the OR combination, the cumulative histogram of the generalized Hough transform for the kth feature image is A (k | x ′,
y ′, θ, s), and combining up to N c high order, Acc (N c | x ′, y ′, θ, s) = ΣW (k) A (k | x ′, y ′, θ, s) (5) (where Σ is the sum of N c pieces), and a weighted addition cumulative histogram Acc (N c | x ′, y ′, θ, s) is calculated. Here, the weighted addition process of the cumulative histogram is not executed for all the values in the parameter space, but is executed only for the vicinity of the peak value for efficiency.

【0053】良品/不良品距離測定ステップ117で
は、上位Nc 個まで組み合わせられた特徴の良品/不良
品を分離する度合い(良品/不良品距離)を測定する。
Acc(Nc |x′,y′,θ,s)に対して、最大頻
度値S(Nc )を算出し、それを基準特徴点数Np (N
c ),つまりその組み合わせられた特徴の参照テーブル
内の特徴点数の和(基準特徴点数も特徴の重み係数の大
きい順に並べ換えられている)で正規化した類似度S
(Nc )を算出する。即ち、 S(Nc ):=S(Nc )/(Np (Nc )ΣW(k)) (6) (ただし、ΣはNc 個の総和)となる。ここで、良品サ
ンプルに対する正規化類似度分布をSok(Nc ,m),
m=1,…,Mok,不良品サンプルに対する正規化類似
度分布をSng(Nc ,m),m=1,…,Mngとし、両
分布に対する開きの度合いD(Nc )を、簡易的統計尺
度として、Sok(Nc ,m)の最小値と、Sng
(Nc ,m)の最大との差、つまり D(Nc )=MIN(Sok(Nc ,m)) −MAX(Sng(Nc ,m)) (7) により算出する。
In the non-defective / defective product distance measuring step 117, the degree of separating the non-defective product / defective product having the feature of combining the upper N c pieces (non-defective product / defective product distance) is measured.
The maximum frequency value S (N c ) is calculated for Acc (N c | x ′, y ′, θ, s), and the maximum frequency value S (N c ) is calculated as N p (N
c ), that is, the similarity S normalized by the sum of the number of feature points in the reference table of the combined features (the standard number of feature points is also rearranged in the descending order of the weighting factor of the feature).
Calculate (N c ). That is, S (N c ): = S (N c ) / (N p (N c ) ΣW (k)) (6) (where Σ is the sum of N c pieces). Here, the normalized similarity distribution for the non-defective sample is S ok (N c , m),
, m ok , the normalized similarity distribution for defective samples is S ng (N c , m), m = 1, ..., M ng, and the degree of opening D (N c ) for both distributions is , As a simple statistical measure, the minimum value of S ok (N c , m) and Sng
(N c, m) difference between the maximum, that is calculated by D (N c) = MIN ( S ok (N c, m)) -MAX (S ng (N c, m)) (7).

【0054】特徴選択終了判定ステップ118では、両
分布が余裕を持って交差しない、即ち、 D(Nc )−ε>0 (8) の特徴組み合わせ終了条件が成立するか否かを判定す
る。ε(≧0)は余裕度を調整するパラメータである。
εは対象画像によって異なるが、正しくはεを少しずつ
大として再評して、系が安定する値とする。通常、0.1
とか0.2程度の値である。
In the feature selection end determination step 118, it is determined whether the two distributions do not intersect with each other with a margin, that is, whether the feature combination end condition of D (N c ) -ε> 0 (8) is satisfied. ε (≧ 0) is a parameter for adjusting the margin.
Although ε varies depending on the target image, it should be re-evaluated as gradually increasing as a large value to make the system stable. Usually 0.1
The value is about 0.2.

【0055】終了条件が成立すれば、良否判定しきい値
決定ステップ119で、良品と不良品を分離する判定し
きい値Th を決定する。Th の決定法としては、良否判
定のきびしさの程度により、良品の限界値に設定する方
法や良品の限界値MIN(S ok(Nc ,m))と不良品
の限界値MAX(Sng(Nc ,m))との中間に設定す
る方法が考えられる。一方、終了条件が成立しなけれ
ば、特徴組み合わせステップ116に戻って特徴組み合
わせ数Nc を1つ増やして、特徴組み合わせ処理を実行
する。
If the end condition is satisfied, a pass / fail judgment threshold value
At decision step 119, it is determined whether the good product and the bad product are separated.
Threshold ThTo determine. ThAs a method of determining
How to set the limit value for non-defective products according to the degree of constant severity
Limit value MIN (S OK(Nc, M)) and defective products
Limit value MAX (Sng(Nc, M))
There is a possible method. On the other hand, the termination condition must be met.
For example, returning to the feature combination step 116, the feature combination is performed.
Number of joints NcIncrease the number by 1 and execute the feature combination process
To do.

【0056】次に検査処理部200の処理について説明
する。検査画像入力ステップ201において、検査画像
を入力する。検査特徴画像生成ステップ202により、
多元セル特徴抽出演算を行い、検査特徴画像を生成す
る。この検査特徴画像は、学習過程で終了条件((8)
式)が成立したときの特徴の組み合わせについて生成す
る。画像特徴量子化演算ステップ203で、学習過程に
おいて算出された最適な量子化レベル数で各特徴毎に画
像特徴量子化処理が行われる。算出されたこの検査量子
化特徴画像に対して、重み付き一般化ハフ変換ステップ
204で、学習処理により決定された特徴組み合わせお
よび特徴点重み情報が格納された参照テーブル61を用
いて、(3)式の重み付き一般化ハフ変換を行う。
Next, the processing of the inspection processing section 200 will be described. In the inspection image input step 201, an inspection image is input. By the inspection feature image generation step 202,
An inspection feature image is generated by performing a multi-source cell feature extraction calculation. This inspection feature image has a termination condition ((8)
It is generated for the combination of features when (formula) holds. In the image feature quantization calculation step 203, image feature quantization processing is performed for each feature with the optimum number of quantization levels calculated in the learning process. With respect to the calculated check quantized feature image, in the weighted generalized Hough transform step 204, the reference table 61 storing the feature combination and feature point weight information determined by the learning process is used (3) Performs a weighted generalized Hough transform of the expression.

【0057】類似度決定ステップ205では、学習処理
により決定された組み合わせ数Ncを用いて、(5)式
および(6)式の処理を行い、検査類似度St を算出す
る。良否判定ステップ206では、良否判定しきい値T
h を用いて、St ≧Th ならば良品、St <Th ならば
不良品として決定する。 第2の実施例 次に、この発明方法の第2の実施例について、図17を
参照して説明する。図17で図7と対応する部分には同
一符号付けてあり、第1の実施例と異なる部分を中心に
説明する。
In the similarity determination step 205, the number of combinations N c determined by the learning processing is used to perform the processing of the equations (5) and (6) to calculate the inspection similarity S t . In the quality determination step 206, a quality determination threshold value T
Using h , it is determined that the product is a good product if S t ≧ T h and a defective product if S t <T h . Second Embodiment Next, a second embodiment of the method of the present invention will be described with reference to FIG. In FIG. 17, parts corresponding to those in FIG. 7 are designated by the same reference numerals, and the description will focus on the parts different from the first embodiment.

【0058】良品の学習画像を入力して、学習特徴画像
生成ステップ102で図7での処理と同様に学習特徴画
像が生成され、更に学習特徴点位置ずれ補正ステップ1
03での位置/回転/スケール補正が行われる。この補
正は後で説明する重み付き正規化相関演算を用いてもよ
い。まだ特徴点重みwは決まっていないので、重み付き
正規化相関演算におけるwは特徴点間で同じ値とする。
例えば、wi (k)=1,i=1,…,Np (k)とす
る。位置ずれ補正された学習特徴画像に対し、図7中の
ステップ104と同様に最適量子化幅で量子化する。
A learning image of a non-defective product is input, a learning characteristic image is generated in the learning characteristic image generating step 102 in the same manner as the processing in FIG. 7, and the learning characteristic point position deviation correcting step 1
Position / rotation / scale correction at 03 is performed. This correction may use a weighted normalized correlation operation described later. Since the feature point weight w has not been determined yet, w in the weighted normalized correlation calculation is set to the same value between the feature points.
For example, let w i (k) = 1, i = 1, ..., N p (k). The position-corrected learning feature image is quantized with the optimum quantization width as in step 104 in FIG.

【0059】更に各特徴点の特徴値ヒストグラムを作成
し、その分布から特徴点の重みを決定する。学習データ
格納ステップ307で格納する参照テーブル71のテー
ブル構造が第1の実施例の場合と異なる。例えば図18
に示すように、各特徴画像に対して特徴点数分だけ、
x,y座標値と、特徴値f、特徴点重みwの系列を格納
する。即ち、第1の特徴画像f(1)については、参照
テーブル711 は各特徴点について((xi (1),yi
(1),fi (1) ,wi (1) ),i=1,…,Np (1) )
を格納し、第Nの特徴画像f(k)についてはその各特
徴点について((xi (N),yi (N),fi (N) ,wi
(N) ),i=1,…,Np (N) )を参照テーブル71N
に格納する。
Further, a feature value histogram of each feature point is created, and the weight of the feature point is determined from its distribution. The table structure of the reference table 71 stored in the learning data storing step 307 is different from that of the first embodiment. For example, in FIG.
As shown in, the number of feature points for each feature image,
A series of x, y coordinate values, feature value f, and feature point weight w is stored. That is, for the first feature image f (1), the reference table 71 1 has ((x i (1), y i
(1), f i (1), w i (1)), i = 1, ..., N p (1))
For each of the feature points of the Nth feature image f (k) ((x i (N), y i (N), f i (N), w i
(N)), i = 1, ..., N p (N)) Reference table 71 N
To be stored.

【0060】学習特徴組み合わせ処理110における学
習特徴画像生成部ステップ111は第1の実施例と同様
である。既に位置ずれ補正がなされている特徴画像につ
いては、基準物体の外接矩形枠内の点列のみが対象とな
る。この場合回転角θは0,スケール変化率sは1と固
定してよい。一方、位置ずれ補正されてない良品画像や
不良品画像に対しては、対象点列は学習画像内の全点、
回転角、スケール変化率はフリーとする。位置ずれ補正
を強制的に良品、不良品を問わず実行してもよいが、一
般に不良品やノイズが混入した画像に対しては、画像特
徴の種類により、位置ずれ補正の性能が異なることか
ら、位置ずれ補正誤差を含めた特徴選択が必要となる。
従って、ここでは、位置ずれ補正は敢て行わないことと
する。
The learning feature image generator step 111 in the learning feature combination processing 110 is the same as in the first embodiment. For the characteristic image that has already undergone the positional deviation correction, only the point sequence within the circumscribed rectangular frame of the reference object is the target. In this case, the rotation angle θ may be fixed to 0 and the scale change rate s may be fixed to 1. On the other hand, for non-defective images and defective images that have not been subjected to misregistration correction, the target point sequence is all points in the learning image,
The rotation angle and scale change rate are free. The misregistration correction may be forcibly executed regardless of whether it is a good product or a defective product, but in general, for images with defective products or noise, the performance of misregistration correction differs depending on the type of image feature. It is necessary to select the features including the positional deviation correction error.
Therefore, here, the positional deviation correction is not intentionally performed.

【0061】ステップ111で生成した学習特徴画像を
ステップ104で用いた量子化幅で量子化してステップ
309で重み付き正規化相関演算を行う。このステップ
309では、各θ,各スケールs,各点(x,y)に対
して以下の処理を行う。各点(x′,y′)を予測され
る対象原点位置としたとき、学習特徴点特徴値の系列f
i (k),i=1,…,Np (k),k=1,…,N
(特徴点重みの系列:w i (k),i=1,…,N
p (k))と学習特徴点と同一の相対位置(x′+x i
(k),y′+yi (k))にある検査画像特徴値gi
(k),i=1,…,Np (k)との重み付き正規化相
関を行う。ここで、学習特徴点特徴値の、xi(k),
i (k)アドレスは、予測される回転角θ,スケール
sの値に対して、アドレス変換(アフィン変換)された
ものを適用する。予測パラメータ(x′,y′,θ,
s)に対する重み付き正規化相関係数をA(k|x′,
y′,θ,s)とすると、 A(k|x′,y′,θ,s) =Σ(wi (k)(fi (k)−f′m (k))× (gi (k)−g′m (k))) /((Σwi (k))(Σ(fi (k)−f′m (k))2 × Σ(gi (k)−g′m (k))2 1/2 ) (9) となる。ここで、f′m (k),g′m (k)は、それ
ぞれ特徴値系列の平均値であり、 f′m (k)=(1/Np (k))Σfm (k) (10) g′m (k)=(1/Np (k))Σgm (k) である。Σは何れもi=1からNp (k)までの総和で
ある。算出されたA(k|x′,y′,θ,s)は、重
み付き一般化ハフ変換ではパラメータ空間(x′,
y′,θ,s)に対する累積ヒストグラムであるが、重
み付き正規化相関の場合は、パラメータ空間(x′,
y′,θ,s)に対する正規化相関係数分布となる。
The learning feature image generated in step 111 is
Quantize with the quantization width used in step 104 and step
At 309, weighted normalized correlation calculation is performed. This step
In 309, each θ, each scale s, and each point (x, y) is paired.
Then, the following processing is performed. Each point (x ', y') is predicted
When the target origin position is set to
i(K), i = 1, ..., Np(K), k = 1, ..., N
(Feature point weight sequence: w i(K), i = 1, ..., N
p(K)) and the same relative position (x ′ + x) as the learning feature point i
(K), y '+ yi(K)) inspection image feature value gi
(K), i = 1, ..., NpWeighted normalization phase with (k)
Perform a seki. Here, x of the learning feature point feature valuei(K),
yi(K) Address is predicted rotation angle θ, scale
Address conversion (affine conversion) was performed on the value of s
Apply things. Prediction parameters (x ', y', θ,
The weighted normalized correlation coefficient for s) is A (k | x ′,
y ′, θ, s), A (k | x ′, y ′, θ, s) = Σ (wi(K) (fi(K) -f 'm(K)) x (gi(K) -g 'm(K))) / ((Σwi(K)) (Σ (fi(K) -f 'm(K))2× Σ (gi(K) -g 'm(K))2)1/2) (9). Where f ′m(K), g 'm(K) is that
The average value of each feature value series, f ′m(K) = (1 / Np(K)) Σfm(K) (10) g 'm(K) = (1 / Np(K)) Σgm(K). Σ is all i = 1 to NpIn total up to (k)
is there. The calculated A (k | x ', y', θ, s) is
The parameter space (x ′,
y ′, θ, s) is a cumulative histogram
In the case of the weighted normalized correlation, the parameter space (x ′,
y ′, θ, s) is the normalized correlation coefficient distribution.

【0062】以下のA(k|x′,y′,θ,s)に対
する処理手順は、第1の実施例の処理と同じである。特
徴間重み測定ステップ115における特徴画像に対する
重み値の格納方法に関しても第1の実施例と同じであ
り、図19に示すように、図18の参照テーブル71の
各特徴のヘッダ部分に重み値W(k)が格納される。
The processing procedure for the following A (k | x ', y', θ, s) is the same as the processing in the first embodiment. The method of storing the weight value for the feature image in the inter-feature weight measurement step 115 is also the same as in the first embodiment, and as shown in FIG. (K) is stored.

【0063】検査処理200においても、第1の実施例
における重み付き一般化ハフ変換スステップ204の代
わりに重み付き正規化相関演算ステップ310で(9)
式による重み付き正規化相関係数が演算される他は第1
の実施例と同様である。次に、あらかじめ良品の複数の
学習画像に対して、濃度画像のダイナミックレンジRと
濃度画像のばらつきσ2 の比として定義されるコントラ
スト Contrast=R/σ2 を測定し、良品の学習画像のコントラストの大小によ
り、マッチング方法を選択することにより、検査対象に
より柔軟な対応が可能となる。即ち、エッジ画像のよう
な輪郭特徴画像に基づく重み付き一般化ハフ変換は、ノ
イズが多くコントラストが低い画像に極めて優れた効果
を示す。一方、ノイズが比較的少なくコントラストが大
きい画像には濃度特徴画像のような領域特徴画像に基づ
く重み付き正規化相関が適している。従って図29Aに
示すように、学習画像のコントラストを測定し、しきい
値処理することにより、コントラストがしきい値より小
さければ輪郭特徴画像を用い図7に示した重み付き一般
化ハフ変換を行い学習データを生成し、コントラストが
しきい値より大きければ領域特徴画像を用い、図17に
示した重み付き正規化相関演算を行い学習データを生成
する。このようにしてマッチング方法の選択を自動的に
行い、より柔軟な検査制御が可能となる。この場合のし
きい値は対象画像により異なり、実験的に決める。
Also in the inspection processing 200, instead of the weighted generalized Hough transform step 204 in the first embodiment, the weighted normalized correlation calculation step 310 (9)
First except that the weighted normalized correlation coefficient is calculated by the formula
This is the same as the embodiment. Next, the contrast Contrast = R / σ 2 defined as the ratio of the dynamic range R of the density image and the variation σ 2 of the density image is measured in advance for a plurality of learning images of good products, and the contrast of the learning images of the good products is measured. By selecting a matching method depending on the size of, it becomes possible to flexibly deal with the inspection target. That is, the weighted generalized Hough transform based on the contour feature image such as the edge image has an extremely excellent effect on an image with a lot of noise and a low contrast. On the other hand, a weighted normalized correlation based on a region feature image such as a density feature image is suitable for an image with relatively low noise and high contrast. Therefore, as shown in FIG. 29A, the contrast of the learning image is measured and threshold processing is performed, and if the contrast is smaller than the threshold, the weighted generalized Hough transform shown in FIG. 7 is performed using the contour feature image. Learning data is generated, and if the contrast is larger than the threshold value, the region characteristic image is used to perform the weighted normalized correlation calculation shown in FIG. 17 to generate learning data. In this way, the matching method is automatically selected, and more flexible inspection control becomes possible. The threshold value in this case varies depending on the target image and is experimentally determined.

【0064】また、もっと厳密には、学習画像の輪郭特
徴画像に対し図7に示した重み付き一般化ハフ変換を行
って良/不良品の類似度分布の分布間距離を測定し、ま
た領域特徴画像に対し、図17に示した重み付き正規化
相関演算を行って良/不良品の類似度分布の分布間距離
を測定し、これら分布間距離が大きい方の学習データを
選択することにより、最適なマッチング方法を採用する
ことが可能となる。
More strictly, the weighted generalized Hough transform shown in FIG. 7 is performed on the contour feature image of the learning image to measure the inter-distribution distance of the similarity distribution of good / defective products, and By performing the weighted normalization correlation calculation shown in FIG. 17 on the characteristic image to measure the inter-distribution distance of the similarity distribution of the good / defective products, and selecting the learning data having the larger inter-distribution distance. It becomes possible to adopt the optimum matching method.

【0065】第3の実施例 次に、重み付き相違度演算により検査を行う例として、
ハフ平面の重み付き差分演算に基づく検査の例を図2
0,図21を用いて説明する。この実施例は、エッジ点
周囲の位相関係を取り込んだ特徴として、広がり度を採
用する。広がり度は、図22に示すように、各画素から
ある視野範囲内で放射状に走査したとき、最初のエッジ
に衝突するまでの距離di を各走査方向毎に計数し、走
査方向間でのその距離平均Σn i=1 i /nを特徴値
として定義したものである。エッジ上では、広がり度は
0であり、エッジとしての性質も含んでいる。ここでの
エッジ点は濃度変動の影響を受けにくいゼロクロス点と
する。この実施例は、この広がり度分布と濃度分布の両
方の特徴集合を適用し、対象画像の認識能力の向上を目
指す。これらの画像特徴は、ハフ変換において、Coarse
-to-Fineの効率的な認識戦略がとれるように、多重解像
度の枠組み(多重解像度平面)の中で記述される。
Third Embodiment Next, as an example of performing inspection by weighted dissimilarity calculation,
FIG. 2 shows an example of inspection based on the weighted difference calculation of the Huff plane.
0, it demonstrates using FIG. In this embodiment, the spread degree is adopted as a feature that incorporates the phase relationship around the edge points. As for the spread degree, as shown in FIG. 22, when scanning radially from each pixel within a certain visual field range, the distance d i until the collision with the first edge is counted for each scanning direction, and the distance between the scanning directions is determined. the distance mean Σ n i = 1 d i / n are as defined as a feature value. On the edge, the degree of spread is 0, which includes the property of the edge. The edge point here is a zero-cross point that is not easily affected by the density fluctuation. In this embodiment, the feature sets of both the spread degree distribution and the density distribution are applied to improve the recognition ability of the target image. These image features are
It is described in a multi-resolution framework (multi-resolution plane) so that an efficient recognition strategy of -to-Fine can be taken.

【0066】この実施例は「特徴多次元化ハフ変換」に
基づく検査処理であって、学習特徴画像生成ステップ1
02では、複数枚の良品の各学習特徴画像に対して平滑
化・再サンプリング処理により圧縮後、指定された解像
度レベル毎に特徴抽出され、多重解像度・多層特徴平面
に格納される。ここで、解像度毎に抽出された特徴集合
Ωを Ω=(((Fk(x,y),x=1,.,Dx),y=1,.,Dy),k=1,.,Nf) と表す。ただし、Nf は特徴数、Dx ×Dy は解像度で
ある。
This embodiment is an inspection process based on "feature multidimensional Hough transform", and learning feature image generation step 1
In 02, the plurality of non-defective learning feature images are compressed by the smoothing / resampling process, and the features are extracted for each designated resolution level and stored in the multi-resolution / multi-layer feature plane. Here, the feature set Ω extracted for each resolution is Ω = (((F k (x, y), x = 1,., D x ), y = 1,., D y ), k = 1, ., N f ). However, N f is the number of features, and D x × D y is the resolution.

【0067】第1、第2実施例と同様に、ステップ10
4で画像特徴量子化を行い、ステップ105および10
6各学習特徴点の特徴値ヒストグラム分布から、各特徴
点の重みを決定する。重みは特徴点の合計があらかじめ
決められた特徴点数Np になるように正規化されるもの
とする。また、同時に、基準画像生成ステップ401で
各学習特徴点の特徴値ヒストグラムから、最大頻度を与
える特徴値か平均値を算出し、それを各特徴点に付与す
ることにより、基準となる特徴画像を生成する。
As in the first and second embodiments, step 10
Image feature quantization in step 4 and steps 105 and 10
6 The weight of each feature point is determined from the feature value histogram distribution of each learning feature point. It is assumed that the weights are normalized so that the total number of characteristic points becomes a predetermined number of characteristic points N p . At the same time, in the reference image generation step 401, from the feature value histogram of each learning feature point, the feature value or the average value giving the maximum frequency is calculated, and the calculated feature value is added to each feature point to obtain the reference feature image. To generate.

【0068】この基準特徴画像に対して、以下の処理を
行う。基準特徴画像に対して、第1の実施例において述
べたと同様にの効率化とハフ変換によるマッチングの効
率化のために特徴量子化をステップ104で行う。各特
徴画像kに対し、特徴点(x,y) における特徴値Fk(x,y)
を量子化レベル数Iq(k)で量子化したときの特徴値をG
k (x,y)とすると、 Gk(x,y)=((Fk(x,y)-Fmin))/(Rk))×Iq(k) 0≦Gk(x,y)≦Iq(k)-1 となる。ただし、Fmin はFk の最小値、Rk はFk
ダイナミックレンジである。
The following processing is performed on this reference feature image. In the step 104, feature quantization is performed on the reference feature image for the same efficiency as described in the first embodiment and the efficiency of matching by the Hough transform. Feature value Fk (x, y) at feature point (x, y) for each feature image k
G is the characteristic value when is quantized by the number of quantization levels Iq (k).
If k (x, y), then G k (x, y) = ((F k (x, y) -F min )) / (R k )) × I q (k) 0 ≤ G k (x, y) ≤ I q (k) -1. However, F min is the minimum value of F k , and R k is the dynamic range of F k .

【0069】ここで、多重ビット平面生成ステップ40
2において、Gk (x,y) を、その各量子化レベル(特徴
値レベル)に対する(x,y) 平面のON/OFFを表現し
た多重特徴ビット平面Bk にマッピングする。即ち、 Bk=[Bku(x,y),u=0,...,Iq(k)-1] 例えば、I q (k)=4 で量子化し、点(x,y) における量子
化後の特徴値Gk (x,y)=2とすれば、Bku (x,y)にお
いて、u=2のときのみビットがONとなり、つまりB
k 2 (x,y)=1となり、u≠2ではビットがOFFにな
り、つまりBk 0(x,y)=Bk 1(x,y)=Bk 3(x,y)=0と
なる。例えば図23Aに示すようなあるセルの3値に量
子化された特徴画像(Gk (x, y))73は量子化値
(特徴値レベル)0の特徴ビット平面(Bk0(x,y))74
と、量子化値(特徴値レベル)1の特徴ビット平面(B
k 1(x,y))75と、量子化値(特徴値レベル)2の特徴
ビット平面(Bk 2(x,y))76とにマッピングされる。
Here, the multiple bit plane generation step 40
In step 2, G k (x, y) is mapped to a multiple feature bit plane B k that represents ON / OFF of the (x, y) plane for each quantization level (feature value level). That is, B k = [B ku (x, y), u = 0, ..., I q (k) -1] For example, quantization is performed at I q (k) = 4, and at the point (x, y) If the quantized characteristic value G k (x, y) = 2, then in B ku (x, y), the bit is ON only when u = 2, that is, B
k 2 (x, y) = 1 and the bit is OFF when u ≠ 2, that is, B k 0 (x, y) = B k 1 (x, y) = B k 3 (x, y) = 0 Becomes For example, a feature image (G k (x, y)) 73 quantized into a ternary value of a cell as shown in FIG. 23A is a feature bit plane (B k0 (x, y) having a quantized value (feature value level) 0. )) 74
And a feature bit plane (B of a quantized value (feature value level) 1 (B
k 1 (x, y)) 75 and a quantized value (feature value level) 2 feature bit plane (B k 2 (x, y)) 76.

【0070】このマッピングを各特徴毎に行い:要素を
カスケードに結合して、全ての特徴に対する多重特徴ビ
ット平面Bを定義する。即ち、 [ [Blu(x,y),u=0,...,Iq(1)-1], ・・・ [Bku(x,y),u=0,...,Iq(k)-1], ・・・ [BNfu(x,y),u=0,...,Iq(Nf)-1]] --->>> B=[Bvx,y),v=0,...,V-1] ここで、Vは多重特徴ビット平面Bの多重度であり、 V=ΣNf K=1Iq(k) である。
This mapping is done for each feature: elements are combined in a cascade to define a multi-feature bit plane B for all features. That is, [[B lu (x, y), u = 0, ..., I q (1) -1], ... [B ku (x, y), u = 0, ..., I q (k) -1], ・ ・ ・ [B Nfu (x, y), u = 0, ..., I q (Nf) -1]] --- >>> B = [B v x, y), v = 0, ..., V-1] Here, V is the multiplicity of the multi-feature bit plane B, and V = Σ Nf K = 1 I q (k).

【0071】次に、重み付きハフ変換演算ステップ40
3において、重み付きハフ変換を行う。即ち、点(x,y)
におけるビットがONのときだけ、 θ = (t−1)Δθ,
Next, the weighted Hough transform calculation step 40
In 3, the weighted Hough transform is performed. That is, the point (x, y)
Θ = (t−1) Δθ, only when the bit at is ON

【0072】[0072]

【数2】 に対して、 ρ=(x−x0 ) cosθ+( y−y0 ) sinθ なるアドレス変換を行い、(ρ, θ) を[Equation 2] To ρ = (x−x 0 ) cos θ + (y−y 0 ) sin θ, and (ρ, θ)

【0073】[0073]

【数3】 における点(ρ, θ) に(x,y)の重みwを累積加算す
る。ここで、 r= (ρ +ρ0)/Δρ, ただし、 ρ0 =√(Dx 2 +Dy 2 )/2
(Equation 3) The weight w of (x, y) is cumulatively added to the point (ρ, θ) at. Here, r = (ρ + ρ 0 ) / Δρ, where ρ 0 = √ (D x 2 + D y 2 ) / 2

【0074】[0074]

【数4】 (x0,y0):原点座標 この操作を全ての(x,y)点(x=1,..,Dx ,y=1,..,Dy )
に対して実行する。多重ハフ平面生成ステップ404で
は、以上の操作を多重特徴ビット平面の各ビット平面B
v (v=0,...,V-1) に対して実行することにより,多重ハ
フ平面HM HM=(((hv(r,t),r=1,.,D(ρ)),t=1,.,D (θ)),v=0,.,V-
1) を生成する。
[Equation 4] (x 0 , y 0 ): Origin coordinates Perform this operation at all (x, y) points (x = 1, .., D x , y = 1, .., D y ).
Run against. In the multiple Huff plane generation step 404, the above operation is performed for each bit plane B of the multiple feature bit planes.
By executing for v (v = 0, ..., V-1), the multiple Hough plane HM HM = (((h v (r, t), r = 1,., D (ρ))) , t = 1,., D (θ)), v = 0,., V-
1) is generated.

【0075】以上により算出された各特徴点の重み情報
と多重ハフ平面の情報は、ステップ107で各画像特徴
毎に参照テーブルに格納される。また各ビット平面につ
いて各特徴点の位置と重みとを図14に示したような参
照テーブルを作り、テーブルに格納する。この場合、各
特徴点の重みは、同一特徴画像について各ビット平面に
共通に用いてもよく、各ビット平面ごとに特徴点の重み
をそれぞれ求めてもよい。図23では多重ビット平面7
3に対し共通の特徴点重み平面74を用いた場合であ
る。これらと参照多重ハフ平面75とが参照メモリに格
納される。
The weight information of each feature point and the information of the multiple Hough plane calculated as described above are stored in the reference table for each image feature in step 107. Further, a reference table as shown in FIG. 14 is created for the position and weight of each feature point for each bit plane and stored in the table. In this case, the weight of each feature point may be commonly used for each bit plane for the same feature image, or the weight of the feature point may be obtained for each bit plane. In FIG. 23, the multiple bit plane 7
This is a case in which the common feature point weight plane 74 is used for 3. These and the reference multiplex Hough plane 75 are stored in the reference memory.

【0076】学習特徴組み合わせ処理110では、良
品、不良品の学習画像から、まず、ステップ111で学
習特徴画像を生成し、学習特徴点位置ずれ値をステップ
405で学習特徴点位置ずれ補正を行う。ここで、位置
ずれ補正を行うのは、重み付きハフ変換を行う際に、基
準画像の特徴点のアドレスとの対応をとり易くするため
である。
In the learning feature combination processing 110, first, a learning feature image is generated in step 111 from the learning images of non-defective products and defective products, and the learning feature point position offset value is corrected in step 405. The misregistration correction is performed to facilitate the correspondence with the address of the feature point of the reference image when the weighted Hough transform is performed.

【0077】ステップ172で位置ずれされた特徴画像
は画像特徴量子化し、ステップ406で多重ビット平面
を作成し、ステップ407で基準画像の特徴点の重み値
を用いて重み付きハフ変換を行う。これによりステップ
408で多重ハフ平面を生成し、ステップ409で多重
ハフ平面と参照テーブルに格納されている基準画像に対
する多重ハフ平面との間で、以下の相違度算出を行う。
The feature image displaced in step 172 is image feature quantized, a multi-bit plane is created in step 406, and weighted Hough transform is performed in step 407 using the weight value of the feature point of the reference image. As a result, a multiple Hough plane is generated in step 408, and the following difference degree calculation is performed between the multiple Huff plane and the multiple Huff plane for the standard image stored in the reference table in step 409.

【0078】ここで、相違度算出は、多重ハフ平面同志
の位置補正が既になされているので、特徴値レベル(量
子化値)vに関する2つのハフ平面hとh'間の相違度d
ist(v)は以下のように定義される。
In the calculation of the dissimilarity, since the positions of the multiple Hough planes have already been corrected, the dissimilarity d between the two Huff planes h and h 'regarding the characteristic value level (quantization value) v is calculated.
ist (v) is defined as follows.

【0079】[0079]

【数5】 ここで、基準画像の特徴点重みが全て等しい場合は、多
重ハフ平面の分布から位置補正を行うことができる。回
転補正は、例えば、tに関する配列要素は最大頻度方向
(Equation 5) Here, when the feature point weights of the reference image are all the same, the position correction can be performed from the distribution of the multiple Hough planes. For rotation correction, for example, the array element for t is the maximum frequency direction

【0080】[0080]

【数6】 にお互いが一致するように多重ハフ平面の要素を並び変
えることにより実現される。また、重心位置の補正は、
相違度が最小となるずれ量を算出することにより実現さ
れる。
(Equation 6) It is realized by rearranging the elements of the multiple Hough planes so that they coincide with each other. Also, the correction of the center of gravity position is
This is realized by calculating the shift amount that minimizes the difference.

【0081】ビット平面重み測定ステップ410で相違
度の重み付けを行うが、特徴値レベルvの重み付け、即
ち、ビット平面間の重み付けを行う。統計的な重み係数
は、相違度に関するカテゴリ内分布(例えば良品分布)
とカテゴリ間分布(例えば不良品の良品に対する分布)
が正規分布に従うならば、Bhattacharyya距離等が知ら
れているが、学習サンプルは少ない場合が多いので、別
の尺度が必要となる。本実施例では、最もシンプルなカ
テゴリ内分布の最悪値(例えば良品中の最も悪いもの)
とカテゴリ間分布の最悪値(例えば不良品中の最も良品
に近いもの)との距離を尺度とする。
In the bit plane weight measurement step 410, the degree of difference is weighted, but the feature value level v, that is, the weighting between bit planes is performed. Statistical weighting factor is the within-category distribution regarding dissimilarity (for example, non-defective distribution)
And distribution between categories (for example, distribution of defective products to non-defective products)
If follows a normal distribution, the Bhattacharyya distance and the like are known, but since there are often few learning samples, another scale is required. In this embodiment, the worst value of the simplest intra-category distribution (for example, the worst value among good products)
The distance between the worst value of the inter-category distribution (for example, the closest value to the good product among the defective products) is used as a scale.

【0082】各カテゴリ毎の学習サンプル数をMとした
とき、良品に対する第v特徴値レベルの相違度の良品内
分布の系列を distW (v)={distW (1,v),..,distW (m,v),..,dist
W (M,v)} とし、不良品のサンプル数をNとしたとき、良品と不良
品との第v特徴値レベルの相違度の良品不良品間分布の
系列を distB (v)={distB (1,v),..,distB(n',v),..,distB(N,
v) } とする。ここで、第v特徴値レベルに対する重みは W(v)=MIN(distB(v))-MAX(distW (v))+c となる。ただし、cはW(v)≧0とするためのオフセット
値である。
When the number of learning samples for each category is M, the series of distributions in the non-defective product of the difference degree of the vth feature value level with respect to the non-defective product is dist W (v) = {dist W (1, v) ,. , dist W (m, v), .., dist
Let W (M, v)} be N and the number of defective samples be N, and the series of distributions between non-defective products and defective products of the degree of difference in the vth feature value level between non-defective products and defective products is dist B (v) = { dist B (1, v), .., dist B (n ', v), .., dist B (N,
v)}. Here, the weight for the vth feature value level is W (v) = MIN (dist B (v))-MAX (dist W (v)) + c. However, c is an offset value for setting W (v) ≧ 0.

【0083】一般的には、各特徴値レベルの全ての組み
合わせについて検査能力を評価すべきであるが、学習の
効率化の観点から、特徴組み合わせステップ411で重
みが大きい特徴値レベルから順に組み合わせる逐次形特
徴選択手順を適用する。即ち、順序付けされた新たな重
み系列を、 W(v)=SORT[v~W(v)] とおき、重みが大きい順にVr番目まで組み合わせたとき
生成される相違度の良品内分布distw (m, Vr )および
良品不良品間分布distB (n',Vr )は、 distW (m,V (n))=ΣVr v=1(W(v) dist W (m,v))/ΣVr v=1W(v) (11) distB (n',V (n))=ΣVr v=1(W(v) dist B (n',v))/ΣVr v=1W(v) (12) となる。そこで、ステップ412では、相違度の良品内
分布distW (m, Vr )および良品不良品間分布dist
B (n',Vr ) の相互の開きを与える簡易的な尺度とし
て、良品不良品間分布の系列が良品内分布の系列とオー
バラップするカウント数、即ち、
Generally, the inspection ability should be evaluated for all combinations of each feature value level, but from the viewpoint of efficiency of learning, the feature value levels having larger weights are sequentially combined in the feature combination step 411. Apply the shape feature selection procedure. That is, the ordered new weight sequence is set as W (v) = SORT [v to W (v)], and the non-defective distribution dist w (Dw) m, V r ) and the distribution between good and defective products dist B (n ', V r ) are dist W (m, V (n)) = Σ Vr v = 1 (W (v) dist W (m, v) ) / Σ Vr v = 1 W (v) (11) dist B (n ', V (n)) = Σ Vr v = 1 (W (v) dist B (n', v)) / Σ Vr v = It becomes 1 W (v) (12). Therefore, in step 412, the distribution of dissimilarity within good product dist W (m, V r ) and the distribution between good and defective products dist
As a simple measure that gives the mutual difference of B (n ', V r ), the number of counts in which the series of good product and defective product distribution overlaps the series of good product distribution, that is,

【0084】[0084]

【数7】 となるdistB (n',Vr ) のカウント数overlap(n,Vr )
を算出する。このカウント数は、特徴値レベルの組み合
わせ数Vr を多くするにつれ、一般的には漸近的に0に
近づく。(ここで、ε(≧0)はオーバーラップ数を増や
し、その結果として特徴値レベルの組み合わせ数を強制
的に増加させ、システムを安全サイドに働かせる安全パ
ラメータである。)しかし、特徴値レベルの組み合わせ
数Vr を増加させても、カウント数が減少しない場合
は、ステップ413で特徴値レベルの組み合わせを打ち
切る。そのときの組み合わせ数をLr* ,限界のカウント
数を不良品のサンプル数Nで割った値をNU * (0≦NU *
≦1) とする。即ち、 Lr * (n)=OPTMIN[Vr~overlap(Vr)] NU * (n)=overlap(Lr*)/N (13) NU* は値が小さいほど検査能力が大きいことを示す評
価尺度である。この評価尺度を、値が高いと検査能力が
大きくなるように変換した尺度Ψを Ψ = 1− NU * (14) とおく。
(Equation 7) Count of dist B (n ', V r ) overlap (n, V r )
To calculate. This count number generally approaches asymptotically 0 as the number of combinations V r of feature value levels increases. (Here, ε (≧ 0) is a safety parameter that increases the number of overlaps, and consequently the number of combinations of feature value levels, forcing the system to work on the safety side.) If the count does not decrease even if the number of combinations V r is increased, the combination of feature value levels is terminated in step 413. The number of combinations at that time is Lr * , and the value obtained by dividing the limit count number by the sample number N of defective products is N U * (0 ≤ N U *
≦ 1) That, Lr * a (n) = OPTMIN [V r ~ overlap (V r)] N U * (n) = overlap (Lr *) / N (13) N U * , it is a large Inspection capacity smaller value It is an evaluation scale shown. The rating scale, placing a measure of converting such value is high inspection capability increases [psi and Ψ = 1- N U * (14 ).

【0085】ステップ414では、良否判定しきい値
は、カテゴリ内(良品内)の相違度分布と、カテゴリ間
(良品不良品間)相違度分布の中央、または、良品の限
界値(安全パラメータεだけ余裕をとった値)を判定し
きい値とする。一方、検査画像に対してはステップ20
1で検査特徴画像を生成し、ステップ420で位置ずれ
を補正し、ステップ203で検査特徴画像を量子化し、
ステップ421で多重ビット平面を生成し、ステップ4
22で重み付きハフ変換を行い、ステップ423で多重
ハフ平面を生成し、必要に応じて位置ずれ補正を行い、
更にステップ427で学習過程において構成された最適
特徴点重み、最適特徴値レベル組み合わせを用いて、ス
テップ404で得た参照多重ハフ平面との相違度を(1
2)式により算出し、ステップ206で良否判定しきい
値に基づき良否を判別する。
In step 414, the pass / fail judgment threshold value is set to the center of the difference distribution within the category (inside the good product) and the difference distribution between the categories (between the good and defective products), or the limit value of the good product (safety parameter ε). A value with a margin) is used as the judgment threshold. On the other hand, for the inspection image, step 20
1, an inspection feature image is generated, the positional deviation is corrected in step 420, the inspection feature image is quantized in step 203,
Generate multiple bit planes in step 421, step 4
The weighted Hough transform is performed in step 22, a multiple Hough plane is generated in step 423, and misregistration correction is performed if necessary.
Further, using the optimum feature point weights and optimum feature value level combinations constructed in the learning process in step 427, the degree of difference from the reference multiplex Hough plane obtained in step 404 is calculated by (1
It is calculated by the equation 2), and in step 206, the quality is determined based on the quality determination threshold value.

【0086】第4の実施例 第3の実施例では、特徴点重みを用いた重み付きハフ変
換を行ったが、単なるハフ変換としてもノイズの影響や
照度環境の変化、濃度変動が存在しても良品/不良品の
区別の信頼度が高く、認識率が高く、分類も確実に行う
ことができる。この場合の処理の流れを図24,図25
に示し、図20,図21と対応する部分に同一符号を付
けてあり、大部分は同様の処理であるから、主として違
いの部分を述べる。またこの実施例でもエッジ点周囲の
位相関係を取り込んだ特徴として、図22に示した広が
り度の分布と、濃度分布の両方の特徴集合を適用した場
合である。この例では量子化した学習特徴画像から多重
ビット平面生成ステップ402で多重ビット平面Bを生
成する。この多重ビット平面Bの各ビット平面に対し、
ハフ変換演算ステップ501でハフ変換を行う。図2
0,図21中の重み付きハフ変換演算ステップにおいて
はビットがオンの点(x,y)と対応する点(ρ, θ)
に点(x,y)の特徴点重みWを累積加算(加算投票)
したが、ステップ501では1を加算投票する。このよ
うな多重ハフ平面を生成して、参照データ格納ステップ
107では前記多重ハフ平面を参照テーブルに格納す
る。
Fourth Embodiment In the third embodiment, the weighted Hough transform using the feature point weight is performed. However, even if the Hough transform is simply performed, there are noise influences, changes in the illuminance environment, and density variations. Also has a high reliability in distinguishing good products from defective products, has a high recognition rate, and can reliably perform classification. The flow of processing in this case is shown in FIGS.
, And the parts corresponding to those in FIG. 20 and FIG. 21 are denoted by the same reference numerals, and most of the processes are the same, so the differences will be mainly described. In addition, this embodiment also applies the feature sets of both the spread degree distribution and the density distribution shown in FIG. 22 as the features incorporating the phase relationship around the edge points. In this example, the multiple bit plane B is generated in the multiple bit plane generation step 402 from the quantized learning feature image. For each bit plane of this multiple bit plane B,
In the Hough transform calculation step 501, Hough transform is performed. Figure 2
0, at the weighted Hough transform calculation step in FIG. 21, the point (ρ, θ) corresponding to the point (x, y) where the bit is on
Cumulative addition of feature point weight W of point (x, y) (additional voting)
However, in step 501, 1 is additionally voted. Such a multiple Hough plane is generated, and in the reference data storing step 107, the multiple Hough plane is stored in the reference table.

【0087】学習特徴組み合わせ処理110における位
置ずれ補正ステップ405ではステップ109で入力さ
れた画像の特徴画像の重心を座標原点(x0,0)に合わ
せ、姿勢についてはi)モーメント演算による主軸方
向、ii)平均方向算出、iii)最大頻度方向などによる尺
度が考えられるが、ロバスト性とハフ変換との親和性の
観点から、最大頻度方向による姿勢の回転補正を行う。
つまり図20,図21のステップ405と同様の補正を
行う。ステップ406で得た多重ビット平面に対し、ス
テップ502では重み付きではなく、単なるハフ変換演
算を行う。このハフ変換演算はステップ501での演算
と同様の手法による。このようにしてステップ109で
入力した学習画像の多重ハフ平面をステップ409でス
テップ107で格納した参照ハフ平面に対する相違度の
演算、ステップ408でのビット平面間の重みの決定、
ステップ411での特徴値レベルの組み合わせ、ステッ
プ412での良品不良品間分布の系列が良品内分布の最
悪値より小となる数、つまりオーバラップする数を計数
し、ステップ413でカウント数が減少しなくなるまで
特徴値レベルの組み合わせ数を増加し、その時、計数値
から検査、認識の評価尺度を求め、更にステップ414
で良否判定しきい値の決定は図20,図21に示した実
施例と同様の処理により行う。
In the positional deviation correction step 405 in the learning characteristic combination processing 110, the center of gravity of the characteristic image of the image input in step 109 is aligned with the coordinate origin (x 0, y 0 ), and the attitude is i) the principal axis direction by moment calculation. , Ii) Average direction calculation, iii) Maximum frequency direction, etc. can be considered, but from the viewpoint of affinity between robustness and Hough transform, posture rotation correction is performed according to maximum frequency direction.
That is, the same correction as in step 405 of FIGS. 20 and 21 is performed. In step 502, the multi-bit plane obtained in step 406 is not weighted but simply subjected to Hough transform calculation. This Hough transform calculation is based on the same method as the calculation in step 501. In this way, the multiple Hough plane of the learning image input in step 109 is calculated in step 409 with respect to the reference Hough plane stored in step 107, the weight between bit planes is determined in step 408,
The combination of the characteristic value levels in step 411, the number in which the series of non-defective product / defective product distribution in step 412 becomes smaller than the worst value in the non-defective product distribution, that is, the number of overlaps is counted, and the count number is decreased in step 413. The number of combinations of feature value levels is increased until no more, and at that time, an evaluation scale for inspection and recognition is obtained from the count value, and step 414
The determination of the pass / fail judgment threshold value is performed by the same processing as that of the embodiment shown in FIGS.

【0088】更に検査処理200においては入力画像に
対し、多重ビット平面を生成するまでは図20,図21
の第4実施例と同様であるが、この実施例ではその多重
ビット平面に対し、ステップ503でその各ビット平面
に対し、ハフ変換を行い、つまり図20,図21中のス
テップ422での特徴点の重みを1としたハフ変換を行
い、予め決められた特徴値レベルについての多重ハフ平
面をステップ423で生成し、その後、この多重ハフ平
面をステップ107で得られている参照多重ハフ平面と
の相違度をステップ424で演算し、ステップ206で
良否判定を行うのは図20,図21の実施例を同様の処
理により行う。
Further, in the inspection processing 200, until the multi-bit plane is generated for the input image, the process shown in FIGS.
The fourth embodiment is similar to the fourth embodiment, except that in this embodiment, the Hough transform is performed on each of the multiple bit planes in step 503, that is, the feature in step 422 in FIGS. The Hough transform with the point weight of 1 is performed to generate a multiple Hough plane for a predetermined feature value level in step 423. Thereafter, this multiple Hough plane is used as the reference multiple Hough plane obtained in step 107. The difference is calculated in step 424, and the quality judgment is performed in step 206 by the same processing as in the embodiments of FIGS.

【0089】第5の実施例 このような多重ハフ平面を用いる場合に相違度の代わり
に類似度を求めて画像検査/認識を行うこともできる。
この場合は図28に図7、図20,図21と対応する部
分に同一符号を付けて示すように、ステップ164で得
られた量子化特徴画像は、ステップ402で多重ビット
平面に生成され、ステップ107でその各ビット平面に
ついて、特徴値レベルをインデックスとした特徴点のア
ドレスが格納された参照テーブルが作られて、メモリに
格納される。学習特徴画像組み合わせ処理では、ステッ
プ112で量子化された特徴画像がステップ406で多
重ビット平面とされ、ステップ131でその各ビット平
面について、対応参照テーブルを用いて一般化ハフ変換
がなされる。つまり図7中のステップ113での処理に
おける加算投票は特徴点の重みWではなく常に1とされ
る。ステップ114では各特徴値レベル、つまり各ビッ
ト平面ごとに図7のステップ114と同様の手法により
類似度が演算され、更にステップ115では図7中のス
テップ115と同様の処理により、ビット平面間(特徴
値レベル間)の重みが決定され、ステップ117では組
み合わされたビット平面(特徴値レベル)について、図
7中のステップ117と同様の処理により良品/不良品
間距離が求められ、ステップ118で図7の場合と同様
に、特徴値レベルの組み合わせが決定され、更に同様に
してステップ119でしきい値が決定される。検査処理
200ではステップで得られた量子化特徴画像からステ
ップ421で多重ビット平面が生成され、ステップ13
2でその各ビット平面について、ステップ107で格納
された参照テーブルを用いて一般化ハフ変換を行い、ス
テップ205で図7中のステップ205と同様に類似度
を求め、その類似度としきい値とをステップ206で比
較して良否判定を行う。
Fifth Embodiment When such a multiple Hough plane is used, image inspection / recognition can be performed by obtaining the similarity instead of the difference.
In this case, as shown in FIG. 28 in which parts corresponding to those in FIGS. 7, 20, and 21 are assigned the same reference numerals, the quantized characteristic image obtained in step 164 is generated in the multi-bit plane in step 402, In step 107, a reference table is stored for each bit plane in which the addresses of the characteristic points are stored using the characteristic value level as an index. In the learning feature image combination processing, the feature image quantized in step 112 is made into a multi-bit plane in step 406, and in step 131, the generalized Hough transform is performed for each bit plane using the correspondence reference table. That is, the addition vote in the processing in step 113 in FIG. 7 is always 1 instead of the weight W of the feature point. In step 114, the similarity is calculated for each feature value level, that is, for each bit plane by the same method as in step 114 of FIG. 7, and in step 115, the bit plane ( The weights of the characteristic value levels are determined, and in step 117, for the combined bit planes (feature value levels), the good product / defective product distance is obtained by the same processing as in step 117 in FIG. 7, and in step 118. Similar to the case of FIG. 7, the combination of feature value levels is determined, and similarly, the threshold value is determined in step 119. In the inspection process 200, a multi-bit plane is generated in step 421 from the quantized feature image obtained in step, and step 13
In step 2, generalized Hough transform is performed for each bit plane using the reference table stored in step 107, and in step 205, the similarity is calculated in the same manner as in step 205 in FIG. Is compared in step 206 to judge pass / fail.

【0090】以上の良否判定の検査尺度は、類似度であ
ったが、取付け位置検査を行う場合には、基準に対する
位置ずれ量、回転変化量、スケール変化量が重要とな
る。重み付き一般化ハフ変換、重み付き正規化相関演算
とも、最大の類似度を与える対象原点の位置、回転量が
算出でき、また、スケール変化量も検出できることか
ら、取付け位置検査への適用が可能となる。以上の各種
実施例を分類又は認識に用いる場合は、例えば入力画像
が第1乃至第nカテゴリの何れに該当するかの判断をす
るには、第iカテゴリ(i=1,2,…,n)を前記良
品とし、それ以外の各カテゴリを前記不良品とし、第i
カテゴリについての学習データ、つまり実施例における
参照テーブル(参照ハフ面)を作り、これを用いて、第
iカテゴリ内類似度分布又は相違度分布と第iカテゴリ
と他のカテゴリ間との類似度分布又は相違度分布とを求
め、これら両分布間の各距離から最適の特徴組み合わせ
(特徴値レベル組み合わせ)を決定し、検査画像につい
て、第1乃至第nカテゴリのそれぞれについて、得られ
たn個の類似度中の最大のもの、又は相違度中の最小の
ものと対応するカテゴリに、その入力画像のものは属す
と、分類又は認識する。
The inspection scale of the quality judgment described above is the degree of similarity, but when the mounting position inspection is performed, the amount of positional deviation with respect to the reference, the amount of rotation change, and the amount of scale change are important. Both the weighted generalized Hough transform and the weighted normalized correlation calculation can calculate the position and rotation amount of the target origin that gives the maximum similarity, and can also detect the scale change amount, so it can be applied to the mounting position inspection. Becomes When the above various embodiments are used for classification or recognition, for example, to determine which of the first to nth categories the input image falls into, the i-th category (i = 1, 2, ..., N) is used. ) Is the non-defective product, and each category other than that is the non-defective product.
Learning data about categories, that is, a reference table (reference Hough surface) in the embodiment is created, and using this, a similarity distribution in the i-th category or a dissimilarity distribution and a similarity distribution between the i-th category and other categories. Or, the dissimilarity distribution is obtained, the optimum feature combination (feature value level combination) is determined from each distance between the two distributions, and the obtained n n-th It classifies or recognizes that the input image belongs to the category corresponding to the maximum in the similarity or the minimum in the difference.

【0091】図17に示した重み付き正規化相関演算を
行う場合も、図20,図21に示したように多重ビット
平面を作り、その対応ビット平面間の重み付き正規化相
関演算を行い、更に特徴値レベル間(ビット平面内)の
重みを求め、特徴値レベルの組み合わせを決定し、その
組み合わせについて、入力画像の特徴画像の多重ビット
平面と学習画像の特徴画像多重ビット平面との重み付き
正規化相関演算を行うようにしてもよい。図24,図2
5と図28との関係と同様に、図20,図21につい
て、多重ビット平面について類似度を求め、つまり図7
に示した手法を多重ビット平面にも適用できる。
Also in the case of performing the weighted normalized correlation calculation shown in FIG. 17, multiple bit planes are created as shown in FIGS. 20 and 21, and the weighted normalized correlation calculation is performed between the corresponding bit planes. Furthermore, the weights between the feature value levels (in the bit plane) are obtained, the combination of the feature value levels is determined, and the combination of the feature image multiple bit plane of the input image and the feature image multiple bit plane of the learning image is weighted for that combination. Normalized correlation calculation may be performed. 24 and 2
Similar to the relationship between FIG. 5 and FIG. 28, with respect to FIGS.
The method shown in can be applied to multiple bit planes.

【0092】第3実施例においてN値のカテゴリに対す
る認識を行う場合はNカテゴリ全てを平均的に弁別する
評価尺度MEAN(Nu * )は(12)式から MEAN(Nu * )=Σn=1 N u * (n)/N となる。この評価尺度を、値が高い程弁別能力が大きく
なるようにする尺度Ψとして次式を用いることができ
る。
In the case of recognizing N-value categories in the third embodiment, the evaluation measure MEAN (N u * ) for discriminating all N categories on average is expressed by the equation (12) as MEAN (N u * ) = Σ n. = a 1 N N u * (n) / N. The following equation can be used as this evaluation scale as a scale Ψ that increases the discrimination ability as the value increases.

【0093】Ψ=1−MEAN(Nu * ) この時のNカテゴリ全ての平均特徴値レベル組み合わせ
数をMEAN(Lr *)とする。つまり MEAN(Lr * )=Σn=1 N r * (n)/N このΨを特徴値レベル(ビット平面)組み合わせ選択の
評価尺度として用いる。
Ψ = 1−MEAN (N u * ) Let MEAN (L r * ) be the number of average feature value level combinations of all N categories at this time. That is, MEAN (L r * ) = Σ n = 1 N L r * (n) / N This Ψ is used as an evaluation scale for selecting feature value level (bit plane) combinations.

【0094】未知入力画像と各カテゴリとの相違度は、
予め学習により決定された最適特徴値レベル組み合わせ
を用いて、(11)式から次式で表せる。 dis(n,Lr * (n))=Σ(W(n,v)dis
t(v))/ΣW(n,v) Σはv=1からLr * (n)まで この相違度を最小にするカテゴリnが未知入力画像の認
識結果であるが、カテゴリ間で相違度を比較する際に、
予め相違度を正規化する必要がある。特徴値レベル組み
合わせ選択時に決定される各カテゴリごとの相違度のカ
テゴリ内分布(10)式とカテゴリ間分布(11)式と
の中間値Dm(n)を用いて、次式で示される余裕度V
aを定義する。
The degree of difference between the unknown input image and each category is
Using the optimal feature value level combination determined in advance by learning, the following equation can be expressed from equation (11). dis (n, L r * (n)) = Σ (W (n, v) dis
t (v)) / ΣW (n, v) Σ is from v = 1 to L r * (n) The category n that minimizes the difference is the recognition result of the unknown input image, but the difference between the categories is When comparing
It is necessary to normalize the degree of difference in advance. Using the intermediate value Dm (n) between the intra-category distribution (10) formula and the inter-category distribution (11) formula of the dissimilarity determined at the time of selecting the feature value level combination, the margin shown by the following formula V
Define a.

【0095】[0095]

【数8】 ただし、この中間値Dm (n)は安全パラメータεを考
慮したものである。Va>0で、かつVaが最大となる
カテゴリを、認識結果と決定すべきカテゴリであると判
断する。次に上述した方法を実施する装置の構成例を図
26を参照して説明する。共通バス81に、フレームメ
モリ82、画像特徴抽出ユニット83、特徴画像メモリ
84、画像特徴量子化ユニット85、重み付き類似度
(相違度)、演算ユニット86、参照テーブルメモリ8
7、良否判定ユニット88、パーソナルコンピュータな
どの制御ユニット89が接続され、更にメモリ82,8
4,87、ユニット83,85,86,88が専用バス
90で相互に接続されている。
[Equation 8] However, this intermediate value D m (n) takes into consideration the safety parameter ε. The category in which Va> 0 and the maximum Va is determined to be the category to be determined as the recognition result. Next, a configuration example of an apparatus that implements the above method will be described with reference to FIG. In the common bus 81, a frame memory 82, an image feature extraction unit 83, a feature image memory 84, an image feature quantization unit 85, a weighted similarity degree (difference degree), a calculation unit 86, a reference table memory 8
7, a quality determination unit 88, a control unit 89 such as a personal computer are connected, and memories 82, 8 are further connected.
4, 87 and units 83, 85, 86, 88 are mutually connected by a dedicated bus 90.

【0096】ビデオカメラユニット91から図に示して
いない被検査物が撮影され、これよりの入力画像(検査
画像)は図に示してないがAD変換器でデジタル信号と
してフレームメモリ82に蓄えられる。特徴抽出ユニッ
ト83において、図7、図17、図20,図21中のス
テップ202で行う処理により入力画像から、予め決め
られて、つまり参照テーブルメモリ87に記憶されてい
る参照テーブルの各特徴について、特徴画像が抽出され
て特徴画像メモリ84に蓄えられる。この抽出された特
徴画像に対して画像特徴量子化ユニット85で、図7、
図17、図20,図21中のステップ203で行う処理
により量子化され、その量子化特徴画像は特徴画像メモ
リ84に蓄えられる。参照テーブル87には図7の方法
では図16に示した参照テーブル中の、ステップ118
で選択が終了した特徴についてのものが記憶され、同様
に図17の方法ではステップ118で選択終了した図1
9に示した参照テーブルが、図20,図21の方法では
ステップ413で選択終了した特徴点重みの参照テーブ
ルと参照多重ハフ平面が、図24,図25の方法では参
照多重ハフ平面が、図28の方法では特徴点とその重み
が格納され、更にこれらと対応して図7、図17の各ス
テップ18、図20,図21、図24,図25、図28
のステップ414で決められた各しきい値が格納されて
いる。重み付き類似度(相違度)演算ユニット86では
メモリ84中の量子化画像と、参照テーブルメモリ87
の参照テーブルとを用いて、図7の方法ではステップ2
04の重み付き一般化ハフ変換演算を行い、図17の方
法ではステップ310の重み付き正規化相関演算を行
い、図28の方法では一般化ハフ変換を行い、更にそれ
ぞれ類似度演算を行い、図20,図21の方法ではステ
ップ421,422,424における多重ビット平面の
生成、その重み付きハフ変換演算、更に相違度算出を行
い、図24,図25の方法ではステップ421、50
3、424における多重ビット平面の生成、ハフ変換演
算、相違度算出を行う。重み付き類似度(相違度)演算
ユニット86の演算結果は良否判定ユニット88で参照
テーブルメモリ87のしきい値と比較され、その判定結
果が制御ユニット89を通じて外部へ出力され、図に示
していない表示器に表示される。なお良否判定ユニット
88は制御ユニット89内の機能を利用してもよい。
An object to be inspected (not shown) is photographed by the video camera unit 91, and an input image (inspection image) from this is stored in the frame memory 82 as a digital signal by an AD converter (not shown). In the feature extraction unit 83, for each feature of the reference table that is predetermined from the input image by the processing performed in step 202 in FIGS. 7, 17, 20, and 21, that is, stored in the reference table memory 87. A characteristic image is extracted and stored in the characteristic image memory 84. In the image feature quantization unit 85 for the extracted feature image, as shown in FIG.
The quantization characteristic image is quantized by the processing performed in step 203 in FIGS. 17, 20, and 21, and the quantized characteristic image is stored in the characteristic image memory 84. In the reference table 87, in the method of FIG. 7, step 118 in the reference table shown in FIG.
The characteristics of which the selection is completed are stored in the same manner as in FIG.
The reference table shown in FIG. 9 is the reference multiplex Hough plane and the reference multiplex Hough plane of the feature point weight selected in step 413 in the method of FIGS. In the method of FIG. 28, feature points and their weights are stored, and corresponding to these, each step 18, FIG. 20, FIG. 21, FIG. 24, FIG. 25, FIG.
Each threshold value determined in step 414 is stored. The weighted similarity (difference) calculation unit 86 compares the quantized image in the memory 84 with the reference table memory 87.
In the method of FIG.
The weighted generalized Hough transform calculation of 04 is performed, the weighted normalized correlation calculation of step 310 is performed in the method of FIG. 17, the generalized Hough transform is performed in the method of FIG. 28, and the similarity calculation is further performed. 20, the method of FIG. 21 generates multiple bit planes in steps 421, 422, 424, performs the weighted Hough transform operation, and further calculates the dissimilarity. In the methods of FIGS. 24 and 25, steps 421, 50.
Generation of multiple bit planes at 3, 424, Hough transform calculation, and difference degree calculation are performed. The calculation result of the weighted similarity (dissimilarity) calculation unit 86 is compared with the threshold value of the reference table memory 87 by the quality determination unit 88, and the determination result is output to the outside through the control unit 89, which is not shown in the figure. Displayed on the display. The quality determination unit 88 may use the function of the control unit 89.

【0097】例えば各種部品の良品不良品検査を行う場
合、多くの参照データを必要とし、参照データ及びしき
い値は外部の磁気ディスクなどの大容量メモリに記憶さ
れてあり、制御ユニット89に対して検査する部品番号
を入力すると、制御ユニット89が対応する参照テーブ
ルの組及びしきい値を前記大容量メモリから読出して、
参照テーブルメモリ87にロードして検査を実行する。
この際、しきい値は制御ユニット89に保持して最終の
良否判定を制御ユニット89で行う。
For example, when inspecting non-defective / defective products of various parts, a lot of reference data is required, and the reference data and the threshold value are stored in a large-capacity memory such as an external magnetic disk. Input the part number to be inspected, the control unit 89 reads the corresponding set of reference tables and threshold values from the large capacity memory,
The reference table memory 87 is loaded and the inspection is executed.
At this time, the threshold value is held in the control unit 89, and the final pass / fail judgment is performed by the control unit 89.

【0098】次に参照データ作成部分の装置構成の例を
図27を参照して説明する。この装置は図26に示した
画像検査装置のもつ機能の大部分を有し、かつ画像検査
装置を兼ねている場合も多い。よって図26と対応する
部分に同一符号を付けてある。この装置では更に学習特
徴点特徴値分布メモリ93、特徴値分布測定ユニット9
4、特徴点重み決定ユニット95、類似度(相違度)分
布メモリ96、特徴間重み測定ユニット97、特徴重み
合わせユニット98、良否しきい値決定ユニット99が
設けられ、かつ特徴画像メモリ84、特徴点特徴値分布
メモリ93、類似度(相違度)分布メモリ96はそれぞ
れ図26の検査装置と比較して多くのデータを記憶でき
るように多面構成とされている。
Next, an example of the device configuration of the reference data creating portion will be described with reference to FIG. This apparatus has most of the functions of the image inspection apparatus shown in FIG. 26, and often serves as the image inspection apparatus. Therefore, parts corresponding to those in FIG. 26 are designated by the same reference numerals. In this apparatus, the learning feature point feature value distribution memory 93 and the feature value distribution measuring unit 9 are further included.
4, a feature point weight determination unit 95, a similarity (dissimilarity) distribution memory 96, an inter-feature weight measurement unit 97, a feature weight matching unit 98, and a pass / fail threshold determination unit 99, and a feature image memory 84, a feature The point feature value distribution memory 93 and the similarity (difference) distribution memory 96 have a multi-faceted structure so as to store a large amount of data as compared with the inspection apparatus of FIG.

【0099】この場合は前述したように学習画像がフレ
ームメモリ82に入力され、それらについてそれぞれ各
種の特徴画像が抽出ユニット83で抽出されて、特徴画
像メモリ84に蓄えられ、これら特徴画像は量子化ユニ
ット85でそれぞれ量子化されてメモリ84に再び格納
される。同一の特徴画像について特徴値分布測定ユニッ
ト94でステップ105の特徴点特徴値分布が求めら
れ、その特徴点特徴値分布がメモリ93に蓄えられる。
この特徴点特徴値分布を用いて、特徴点重み決定ユニッ
ト95によりステップ106の特徴点重み決定がなさ
れ、各特徴値ごとに各特徴点とその重みとからなる参照
テーブルがメモリ87に格納される。ただし図20,図
21の方法ではステップ401の基準画像の生成、ステ
ップ402の多重ビット平面の生成、ステップ403の
重み付きハフ変換演算がなされて、多重ハフ平面が生成
され、これも参照テーブルメモリ87に格納される。
In this case, as described above, the learning images are input to the frame memory 82, various characteristic images of them are extracted by the extraction unit 83, and stored in the characteristic image memory 84. These characteristic images are quantized. Each is quantized in the unit 85 and stored again in the memory 84. The feature value distribution measuring unit 94 obtains the feature point feature value distribution in step 105 for the same feature image, and the feature point feature value distribution is stored in the memory 93.
Using this feature point feature value distribution, the feature point weight determining unit 95 determines the feature point weight in step 106, and a reference table including each feature point and its weight is stored in the memory 87 for each feature value. . However, in the method of FIGS. 20 and 21, the standard image of step 401, the multiple bit plane of step 402, and the weighted Hough transform operation of step 403 are performed to generate the multiple Hough plane. It is stored in 87.

【0100】次に良品学習画像、不良品学習画像を各複
数入力して、これらに対する特徴画像を生成し、更にこ
れを量子化して特徴画像メモリ84に格納する。これら
量子化特徴画像を、重み付き類似度(相違度)演算ユニ
ット86でステップ113の重み付き一般化ハフ変換演
算、ステップ309の重み付き正規化相関演算、ステッ
プ406乃至408の多重ビット平面生成、重み付きハ
フ変換演算、多重ハフ平面の生成を行い、これらの演算
結果から類似度(相違度)を求めてその分布をメモリ9
6に格納する。特徴間重み測定ユニット97によりステ
ップ115(ステップ410)の特徴間重み(ビット平
面間重み)が演算されてメモリ96に格納される。更に
特徴組み合わせユニット98でステップ116(ステッ
プ411)により特徴を組み合わせ(ビット平面を組み
合わせ)ステップ117(ステップ412)で良品分布
と不良品分布間距離を求め、その距離が前記条件を満す
まで特徴(ビット面)の組み合わせが行われる。その
後、良否しきい値決定ユニット99によりしきい値が決
定される。
Next, a plurality of non-defective product learning images and defective product learning images are input to generate characteristic images for these images, and these are quantized and stored in the characteristic image memory 84. These quantized feature images are subjected to the weighted similarity (difference) calculation unit 86 in the weighted generalized Hough transform calculation in step 113, the weighted normalized correlation calculation in step 309, the multiple bit plane generation in steps 406 to 408, The weighted Hough transform calculation and the multiple Hough plane generation are performed, and the similarity (dissimilarity) is obtained from these calculation results and the distribution thereof is stored in the memory 9
6 is stored. The inter-feature weight measuring unit 97 calculates inter-feature weights (inter-bit-plane weights) in step 115 (step 410) and stores them in the memory 96. Further, the feature combination unit 98 combines the features in step 116 (step 411) (combines bit planes) in step 117 (step 412) to obtain the distance between the non-defective product distribution and the defective product distribution, and characterizes until the distance satisfies the above condition. (Bit surface) combination is performed. Then, the pass / fail threshold determination unit 99 determines the threshold.

【0101】図26、図27の何れにおいても、各ユニ
ットはその1又は複数をDSP(デジタルシグナルプロ
セッサ)により構成することができる。
In each of FIGS. 26 and 27, one or more of each unit can be configured by a DSP (digital signal processor).

【0102】[0102]

【発明の効果】第1実施例によれば、図9に示すよう
に、輪郭特徴として例えばエッジ画像においてゼロクロ
ス点を抽出し、エッジの空間周波数を変化させ、最も適
したゼロクロス点を一般化ハフ変換を行うことにより、
濃度のオフセット変動や相対的感度低下に影響されにく
い特徴抽出機能と、万が一ノイズが存在しても、一般化
ハフ変換の多数決の論理により、類似度が変化しないマ
ッチング機能が実現される。更に、複数の学習画像に対
する各特徴点の重み学習により、ノイズに対して安定し
た特徴点の抽出が保証され、かつ、領域特徴と輪郭特徴
という相補的な特徴を併用し解像度の変化も考慮した多
元セル特徴抽出の機能を、重み付き一般化ハフ変換に適
用し、その特徴に対する重み値を学習処理により画像の
性質に合わせて自動決定し、特徴を組み合わせて適用す
ることにより、照明環境やサンプル表面の反射特性が変
化しゴミ等の付着により発生する良品サンプル画像の濃
度変動が存在する環境に対し、良品/不良品の区別の誤
り率が少なく信頼度が高い画像検査が実現できる。また
認識率が高い画像認識や誤り率が低い画像分類が可能と
なる。
According to the first embodiment, as shown in FIG. 9, a zero cross point is extracted as an outline feature in an edge image, the spatial frequency of the edge is changed, and the most suitable zero cross point is obtained as a generalized huff. By doing the conversion,
A feature extraction function that is not easily affected by density offset fluctuations and relative sensitivity reduction, and a matching function that does not change the similarity degree are realized by the majority decision logic of the generalized Hough transform even if noise is present. Furthermore, stable feature point extraction for noise is guaranteed by weight learning of each feature point for multiple learning images, and the change in resolution is also considered by using complementary features such as region features and contour features. By applying the function of multi-cell feature extraction to the weighted generalized Hough transform, the weight value for that feature is automatically determined according to the image properties by learning processing, and the features are combined and applied to create a lighting environment or sample. It is possible to realize a highly reliable image inspection with a small error rate in distinguishing a good product from a defective product in an environment in which there is a density variation of a sample image of a good product caused by a change in the reflection characteristic of the surface and adhesion of dust or the like. It also enables image recognition with high recognition rate and image classification with low error rate.

【0103】第2実施例によれば、複数の学習画像に対
する各特徴点の重み学習により、ノイズに対して安定し
た特徴点の抽出が保証され、かつ、領域特徴と輪郭特徴
という相補的な特徴を併用し解像度の変化も考慮した多
元セル特徴抽出の機能を、重み付き正規化相関演算に適
用し、その特徴に対する重み値を学習処理により画像の
性質に合わせて自動決定し、特徴を組み合わせて適用す
ることにより、照明環境やサンプル表面の反射特性が変
化しゴミ等の付着により発生する良品サンプル画像の濃
度変動が存在する環境に対し、良/不良品の区別の誤り
率が少なく信頼度が高い画像検査方式や認識率が高い画
像認識方式、誤り率が低い画像分類方式が実現できる。
According to the second embodiment, by the weight learning of each feature point for a plurality of learning images, stable feature point extraction with respect to noise is guaranteed, and complementary features such as a region feature and a contour feature are obtained. Applying the function of multi-cell feature extraction that also considers the change of resolution in combination with weighted normalized correlation calculation, the weight value for that feature is automatically determined according to the image property by learning processing, and the features are combined. By applying this, the error rate of distinguishing good / defective products is small and the reliability is high in the environment where there is a change in the density of the sample image of a good product caused by the change of the lighting environment or the reflection characteristics of the sample surface and the adhesion of dust. A high image inspection method, an image recognition method with a high recognition rate, and an image classification method with a low error rate can be realized.

【0104】第3実施例および第4実施例によれば、照
明変化により生じる濃度変化やノイズの存在下でも、互
いに相補的な性質を示す広がり度等の多数の特徴集合に
対する選択的特徴抽出系をハフ変換の枠組みに適用し、
その結果得られる多重ハフ平面に対する相違度または類
似度に基づき認識を行い、識別能力を低下させることな
く効率的な画像認識系や画像分類系、また信頼度が高い
検査系を構成することができる。
According to the third and fourth embodiments, the selective feature extraction system for a large number of feature sets such as the degree of spread showing complementary properties to each other even in the presence of density changes and noise caused by illumination changes. Applied to the Hough transform framework,
Recognition is performed based on the dissimilarity or similarity to the multiple Hough planes obtained as a result, and an efficient image recognition system, image classification system, or highly reliable inspection system can be configured without reducing the discrimination ability. .

【図面の簡単な説明】[Brief description of drawings]

【図1】Aは検査画像の例を示す図、Bは図1Aの実線
12上の理想濃度変化曲線13と濃度変動曲線14の例
とこれら曲線の剛性曲線15を示す図、Cは図1A中の
領域11aの濃度ヒストグラムの例を示す図、Dは図1
A中の領域11aの従来の検査法による抽出結果を示す
図である。
1A is a diagram showing an example of an inspection image, FIG. 1B is a diagram showing examples of an ideal density change curve 13 and a density fluctuation curve 14 on a solid line 12 in FIG. 1A, and a rigidity curve 15 of these curves, and FIG. The figure which shows the example of the density histogram of the inside area | region 11a, D is FIG.
It is a figure which shows the extraction result of the conventional inspection method of the area | region 11a in A.

【図2】Aは基準画像中の基準ウインドウを示す図、B
は図2A中の基準ウインドウ内の濃度パターンの例を示
す図、Cは検査画像中のサーチ領域を示す図、Dはサー
チ領域の濃度パターンと対応基準ウインドウの濃度パタ
ーンとの関係例を示す図である。
FIG. 2A is a diagram showing a reference window in a reference image, B
2A is a diagram showing an example of a density pattern in the reference window in FIG. 2A, C is a diagram showing a search region in the inspection image, and D is a diagram showing an example of the relationship between the density pattern of the search region and the density pattern of the corresponding reference window. Is.

【図3】従来の一般化ハフ変換を用いた画像検査方法に
おける処理手順を示す流れ図である。
FIG. 3 is a flowchart showing a processing procedure in an image inspection method using a conventional generalized Hough transform.

【図4】従来の一般化ハフ変換を説明するための図であ
る。
FIG. 4 is a diagram for explaining a conventional generalized Hough transform.

【図5】基準エッジ画像に対する入力エッジ画像の一般
ハフ変換実行時のアキュムレータアレイ(パラメータ空
間)に対する投票の様子を示す図である。
FIG. 5 is a diagram showing how voting is performed on an accumulator array (parameter space) when a general Hough transform is performed on an input edge image with respect to a reference edge image.

【図6】Aは理想パターンを示す図、B乃至Dは図6A
の理想パターンに対し、それぞれ多少の雑音、回転を含
む良品パターンを示す図、Eは不良品パターンを示す図
である。
6A is a diagram showing an ideal pattern, and FIGS. 6A to 6D are FIG. 6A.
3B is a diagram showing a non-defective product pattern including some noise and rotation with respect to the ideal pattern of FIG.

【図7】この発明方法の第1実施例の処理手順を示す流
れ図である。
FIG. 7 is a flowchart showing the processing procedure of the first embodiment of the method of the present invention.

【図8】入力画像から多元セル特徴抽出の概念を説明す
るための図である。
FIG. 8 is a diagram for explaining the concept of multi-cell feature extraction from an input image.

【図9】A乃至Dはそれぞれ図6B乃至図6Eに対する
空間周波数が異なる画像を示す図である。
9A to 9D are views showing images having different spatial frequencies from FIGS. 6B to 6E, respectively.

【図10】図9Aの画像を例とした学習特徴補正画像の
例を示す図である。
FIG. 10 is a diagram showing an example of a learning feature correction image using the image of FIG. 9A as an example.

【図11】学習ゼロクロス点画像における特徴点特徴位
分布の例を示す図である。
FIG. 11 is a diagram showing an example of a feature point feature position distribution in a learning zero-cross point image.

【図12】A乃至Dは濃度画像を例とした学習特徴点特
徴値分布の各種例を示す図である。
12A to 12D are diagrams showing various examples of learning feature point feature value distributions using a density image as an example.

【図13】第1実施例におけるゼロクロス点画像の参照
テーブルの例を示す図である。
FIG. 13 is a diagram showing an example of a reference table of zero-cross point images in the first embodiment.

【図14】N特徴の場合の参照テーブルの例を示す図で
ある。
FIG. 14 is a diagram showing an example of a reference table in the case of N features.

【図15】不良品類似度分布(カテゴリ間類似度分布)
と良品類似度分布(カテゴリ内類似度分布)との開きの
度合(距離)の概念を示す図である。
FIG. 15 Defective product similarity distribution (similarity distribution between categories)
It is a figure which shows the concept of the degree of difference (distance) between a non-defective item similarity distribution (similarity distribution within a category).

【図16】第1実施例における参照テーブルに特徴重み
を登録した状態を示す図である。
FIG. 16 is a diagram showing a state in which feature weights are registered in a reference table in the first embodiment.

【図17】この発明方法の第2実施例の処理手順を示す
流れ図である。
FIG. 17 is a flow chart showing a processing procedure of a second embodiment of the method of the present invention.

【図18】第2実施例における参照テーブルの例を示す
図である。
FIG. 18 is a diagram showing an example of a reference table in the second embodiment.

【図19】図18の参照テーブルに特徴重みを登録した
状態を示す図である。
19 is a diagram showing a state in which feature weights are registered in the reference table of FIG.

【図20】第3実施例の参照データ生成における処理手
順を示す流れ図である。
FIG. 20 is a flowchart showing a processing procedure in reference data generation of the third embodiment.

【図21】第3実施例の検査処理における手順を示す図
である。
FIG. 21 is a diagram showing a procedure in an inspection process of the third embodiment.

【図22】広がり特徴の例を示す図である。FIG. 22 is a diagram showing an example of spread characteristics.

【図23】特徴画像とその多重ビット平面との関係と参
照テーブルとを概念的に示す図である。
FIG. 23 is a diagram conceptually showing a relationship between a characteristic image and its multiple bit plane and a reference table.

【図24】第4実施例の参照データ生成における処理手
順を示す流れ図である。
FIG. 24 is a flowchart showing a processing procedure in reference data generation according to the fourth embodiment.

【図25】第4実施例の参照データ生成における処理手
順を示す流れ図である。
FIG. 25 is a flowchart showing a processing procedure in reference data generation according to the fourth embodiment.

【図26】この発明の画像検査/認識装置の実施例を示
すブロック図である。
FIG. 26 is a block diagram showing an embodiment of the image inspection / recognition device of the present invention.

【図27】この発明の参照データ生成装置の実施例を示
すブロック図である。
FIG. 27 is a block diagram showing an embodiment of a reference data generation device of the present invention.

【図28】この発明の第5実施例の処理手順を示す流れ
図である。
FIG. 28 is a flowchart showing the processing procedure of the fifth embodiment of the present invention.

【図29】AおよびBはそれぞれ学習画像について特徴
画像選択の手順を示す流れ図である。
29A and 29B are flowcharts showing a procedure of selecting a characteristic image for each of learning images.

───────────────────────────────────────────────────── フロントページの続き (72)発明者 佐橋 襄治 東京都千代田区内幸町1丁目1番6号 日 本電信電話株式会社内 (72)発明者 大原 秀一 東京都千代田区内幸町1丁目1番6号 日 本電信電話株式会社内 (72)発明者 三ツ矢 英司 東京都千代田区内幸町1丁目1番6号 日 本電信電話 会社内 ─────────────────────────────────────────────────── ─── Continuation of front page (72) Inventor Shoji Sahashi 1-1-6 Uchisaiwaicho, Chiyoda-ku, Tokyo Nihon Telegraph and Telephone Corporation (72) Inventor Shuichi Ohara 1-1-6 Uchisaiwaicho, Chiyoda-ku, Tokyo Nippon Telegraph and Telephone Corp. (72) Inventor Eiji Mitsuya 1-1-6 Uchisaiwaicho, Chiyoda-ku, Tokyo Nihon Telegraph and Telephone Corp.

Claims (28)

【特許請求の範囲】[Claims] 【請求項1】 入力画像から画像特徴を抽出して特徴画
像を得る第1ステップと、 上記特徴画像を量子化して量子化特徴画像を得る第2ス
テップと、 上記量子化特徴画像の特徴点の類似度または相違度を複
数の学習画像により予め求めた対応特徴の参照データを
用いて求める第3ステップと、を有する画像検査/認識
方法において、 上記複数の学習画像に対するその量子化特徴画像の各特
徴点での特徴値ヒストグラムから特徴点の重みを予め計
算しておき、上記重みを用いて上記第3ステップにおけ
る類似度または相違度を重み付き類似度または重み付き
相違度として求めることを特徴とする画像検査/認識方
法。
1. A first step of extracting a feature image from an input image to obtain a feature image, a second step of quantizing the feature image to obtain a quantized feature image, and a step of extracting feature points of the quantized feature image. A third step of obtaining the degree of similarity or the degree of difference using reference data of corresponding features previously obtained from a plurality of learning images, wherein each of the quantized feature images of the plurality of learning images is A feature is that the weight of the feature point is calculated in advance from the feature value histogram at the feature point, and the similarity or dissimilarity in the third step is obtained as the weighted similarity or the weighted dissimilarity using the weight. Image inspection / recognition method
【請求項2】 請求項1の画像検査/認識方法におい
て、 上記第3ステップは互いに異なる複数の特徴画像につい
て上記重み付き類似度または上記重み付き相違度を、特
徴間重み付け組み合わせを行って重み付き類似度または
重み付き相違度を求める。
2. The image inspection / recognition method according to claim 1, wherein the third step weights the weighted similarity or the weighted dissimilarity for a plurality of mutually different feature images by performing feature weighting combination. Find similarity or weighted dissimilarity.
【請求項3】 請求項2の画像検査/認識方法におい
て、 上記第3ステップはパラメータ空間へ上記特徴点の重み
を加算投票する重み付き一般化ハフ変換演算により上記
重み付き類似度を求めることであることを特徴とする。
3. The image inspection / recognition method according to claim 2, wherein the third step is to obtain the weighted similarity degree by a weighted generalized Hough transform operation for adding and voting the weights of the feature points to a parameter space. It is characterized by being.
【請求項4】 請求項2の画像検査/認識方法におい
て、 上記第3ステップは上記入力画像に対する特徴画像の特
徴点特徴値系列と、上記学習画像に対する特徴画像の特
徴点特徴値系列との正規化相関係数を、上記特徴点の上
記重み系列で重みを与えて求める重み付き正規化相関演
算により上記重み付き類似度を求めることであることを
特徴とする。
4. The image inspection / recognition method according to claim 2, wherein in the third step, the feature point feature value series of the feature image for the input image and the feature point feature value series of the feature image for the learning image are normalized. It is characterized in that the weighted similarity coefficient is obtained by a weighted normalized correlation operation for obtaining a weighted correlation coefficient by weighting the weighted sequence of the feature points.
【請求項5】 請求項2の画像検査/認識方法におい
て、 上記第3ステップは上記量子化特徴画像を量子化レベル
ごとにパラメータ空間へ上記特徴点の重みを加算投票す
る重み付きハフ変換してハフ平面を得、このハフ平面と
上記学習画像の特徴画像から得た参照ハフ平面との差分
演算により上記重み付き相違度を求めることである。
5. The image inspection / recognition method according to claim 2, wherein in the third step, the quantized feature image is weighted by Hough transform for additionally voting the weights of the feature points in a parameter space for each quantization level. The Huff plane is obtained, and the weighted dissimilarity is obtained by calculating the difference between the Huff plane and the reference Huff plane obtained from the feature image of the learning image.
【請求項6】 請求項2の画像検査/認識方法におい
て、 上記1つの特徴画像について、上記各特徴点の重みの合
計が上記特徴点の数で正規化されている。
6. The image inspection / recognition method according to claim 2, wherein the total weight of each of the feature points is normalized by the number of the feature points for the one feature image.
【請求項7】 請求項2の画像検査/認識方法におい
て、 上記複数の学習画像から得た同種の特徴画像についての
各画素におけるその特徴値の頻度比率をしきい値処理
し、雑音らしい画素を除いた残りの画素をその特徴値の
特徴点とする。
7. The image inspection / recognition method according to claim 2, wherein the frequency ratio of the feature values in each pixel of the same type of feature images obtained from the plurality of learning images is thresholded to identify noise-like pixels. The remaining pixels that have been removed are the characteristic points of the characteristic value.
【請求項8】 請求項2乃至7の何れかの画像検査/認
識方法において、 同一カテゴリの上記複数の学習画像のコントラストが所
定値より大きい場合は、上記第1ステップで上記特徴画
像として領域特徴画像を抽出し、上記第3ステップで重
み付き正規化相関演算を行い、上記コントラストが上記
所定値より小さい場合は上記第1ステップで上記特徴画
像として輪郭特徴画像を抽出し、上記第3ステップで重
み付き一般ハフ変換演算を行って上記重み付き類似度を
求める。
8. The image inspection / recognition method according to claim 2, wherein when the contrasts of the plurality of learning images in the same category are larger than a predetermined value, the area feature is set as the characteristic image in the first step. An image is extracted, a weighted normalized correlation operation is performed in the third step, and when the contrast is smaller than the predetermined value, a contour feature image is extracted as the feature image in the first step, and in the third step. A weighted general Hough transform calculation is performed to obtain the weighted similarity.
【請求項9】 請求項2乃至7の何れかの画像検査/認
識方法において、 異なるカテゴリの各複数の学習画像について、それぞれ
重み付き一般化ハフ変換演算、重み付き正規化相関演算
および量子化レベルごとのハフ平面での差分演算を行
い、それぞれ各カテゴリ内の類似度又は相違度分布と、
各カテゴリ間の類似度又は相違度分布との分布間距離を
求め、これら分布間距離中の最も大きいものとなった演
算を上記第3ステップで行う。
9. The image inspection / recognition method according to claim 2, wherein a weighted generalized Hough transform calculation, a weighted normalized correlation calculation, and a quantization level are performed for each of a plurality of learning images in different categories. The difference calculation is performed on the Huff plane for each, and the similarity or dissimilarity distribution in each category,
The inter-distribution distance between each category and the similarity or dissimilarity distribution is obtained, and the operation that has the largest distribution distance is performed in the third step.
【請求項10】 請求項2乃至7の何れかの画像検査/
認識方法において、 上記第2ステップは、上記複数の学習画像に対して、各
カテゴリごとの類似度または相違度のカテゴリ内分布と
カテゴリ間分布との分布間距離を最大にする量子化幅を
用いて量子化演算を行うことである。
10. The image inspection according to any one of claims 2 to 7.
In the recognition method, the second step uses a quantization width that maximizes the inter-distribution distance between the intra-category distribution of the similarity or the dissimilarity for each category and the inter-category distribution for the plurality of learning images. Is to perform a quantization operation.
【請求項11】 請求項2乃至7の何れかの画像検査/
認識方法において、 上記第2ステップは、1つのカテゴリの上記複数の学習
画像の上記特徴画像における特徴点の特徴値ヒストグラ
ムの平均積分平方誤差を最小にする量子化幅を用いて量
子化演算することである。
11. Image inspection according to any one of claims 2 to 7.
In the recognition method, the second step is to perform a quantization operation using a quantization width that minimizes an average integration square error of feature value histograms of feature points in the feature images of the plurality of learning images of one category. Is.
【請求項12】 請求項10の画像検査/認識方法にお
いて、 上記学習画像は良品から得たものであり、上記分布間距
離は良品の分布と不良品の分布との間であり、上記重み
付き類似度または重み付き相違度としきい値とを比較し
て、上記入力画像と対応するものの良否を判定する第4
ステップを含む。
12. The image inspection / recognition method according to claim 10, wherein the learning image is obtained from a non-defective product, and the inter-distribution distance is between a distribution of non-defective products and a distribution of non-defective products. Fourth, comparing the degree of similarity or the degree of difference with weight with a threshold value to judge the quality of the object corresponding to the input image.
Including steps.
【請求項13】 請求項12の画像検査/認識方法にお
いて、 上記重み付き類似度が最大または上記重み付き相違度が
最小となる対象原点の位置ずれ量、回転量、またはスケ
ール変化量を求め、その量を検査尺度とする第4ステッ
プを含む。
13. The image inspection / recognition method according to claim 12, wherein a displacement amount, a rotation amount, or a scale change amount of a target origin having the maximum weighted similarity or the minimum weighted dissimilarity is calculated, It includes a fourth step in which the amount is used as a test scale.
【請求項14】 請求項11の画像検査/認識方法にお
いて、 上記学習画像は良品から得たものであり、上記平均積分
平方誤差は良品に対するものであり、上記重み付き類似
度または重み付き相違度としきい値とを比較して、上記
入力画像と対応するものの良否を判定する第4ステップ
を含む。
14. The image inspection / recognition method according to claim 11, wherein the learning image is obtained from a non-defective item, and the mean integral squared error is for a non-defective item, and the weighted similarity degree or the weighted dissimilarity degree. And a threshold value are compared, and a fourth step of determining quality of the object corresponding to the input image is included.
【請求項15】 請求項14の画像検査/認識方法にお
いて、 上記重み付き類似度が最大または上記重み付き相違度が
最小となる対象原点の位置ずれ量、回転量、またはスケ
ール変化量を求め、その量を検査尺度とする第4ステッ
プを含む。
15. The image inspection / recognition method according to claim 14, wherein a displacement amount, a rotation amount, or a scale change amount of a target origin point having the maximum weighted similarity or the minimum weighted dissimilarity is obtained, It includes a fourth step in which the amount is used as a test scale.
【請求項16】 請求項2乃至7の何れかの画像検査/
認識方法において、 上記複数の学習画像から上記特徴画像を抽出する第5ス
テップと、 上記学習特徴画像を量子化する第6ステップと、上記量
子化学習特徴画像の各特徴点での特徴値のヒストグラム
を求める第7ステップと、その第7ステップで求めたヒ
ストグラムのばらつきの程度に応じて重みを求める第8
ステップとにより上記特徴点の重みを得る。
16. The image inspection according to any one of claims 2 to 7.
In the recognition method, a fifth step of extracting the feature image from the plurality of learning images, a sixth step of quantizing the learning feature image, and a histogram of feature values at each feature point of the quantized learning feature image. And the eighth step of obtaining the weight according to the degree of variation of the histogram obtained in the seventh step.
The weights of the feature points are obtained by the steps.
【請求項17】 請求項16の画像検査/認識方法にお
いて、 複数のカテゴリの複数の学習画像からそれぞれ複数の量
子化特徴画像を求める第9ステップと、上記第3ステッ
プで用いた学習データを用いて、上記複数の学習画像の
各特徴画像の特徴点の重み付き類似度または重み付き相
違度を、上記第3ステップで行う演算と同一手法の演算
で求める第10ステップと、上記第10ステップの演算
結果から各特徴画像についての類似度または相違度を求
める第11ステップと、上記求めた類似度または相違度
から特徴間の重みを求める第12ステップと、上記特徴
を組み合わせ、カテゴリ内の類似度または相違度と、そ
のカテゴリと他のカテゴリ間の類似度または相違度との
距離を求める第13ステップと、上記の距離が所定の条
件を満すまで上記特徴の組み合わせを変更する第14ス
テップとにより上記第3ステップにおける互いに異なる
複数の特徴画像を決定する。
17. The image inspection / recognition method according to claim 16, wherein a ninth step of obtaining a plurality of quantized feature images from a plurality of learning images of a plurality of categories, and the learning data used in the third step are used. Then, the tenth step of obtaining the weighted similarity degree or the weighted dissimilarity degree of the feature points of each feature image of the plurality of learning images by the same method as the operation performed in the third step, and the tenth step Eleventh step of obtaining the similarity or dissimilarity for each feature image from the calculation result, twelfth step of obtaining the weight between the features from the obtained similarity or dissimilarity, and the similarity in the category by combining the above features Alternatively, a thirteenth step of obtaining a distance between the dissimilarity and the similarity or the dissimilarity between the category and another category, and the above distance satisfying a predetermined condition. By the fourteenth step of changing the combination of the features to determine the plurality of different feature images in the third step.
【請求項18】 請求項17の画像検査/認識方法にお
いて、 上記第14ステップで決定された組み合わせにおけるカ
テゴリ内の類似度または相違度とカテゴリ間の類似度ま
たは相違度との間にこれらカテゴリ間を区別するしきい
値を決める第14ステップを含む。
18. The image inspection / recognition method according to claim 17, wherein the degree of similarity or dissimilarity within the category and the degree of similarity or dissimilarity between the categories in the combination determined in the fourteenth step are applied to these categories. 14th step of determining a threshold value for distinguishing
【請求項19】 学習画像から複数の画像特徴をそれぞ
れ抽出して特徴画像を生成する第1ステップと、 これら各特徴画像をそれぞれ量子化して量子化特徴画像
とする第2ステップと、 上記量子化特徴画像の同種のものにおける各特徴点の特
徴値分布を求める第3ステップと、 上記特徴点特徴値分布から各特徴点の重みを決定する第
4ステップと、 上記学習画像と同一カテゴリの第2学習画像及び他のカ
テゴリの第3学習画像からそれぞれ量子化された第2特
徴画像及び第3特徴画像を生成する第5ステップと、 これら第2、第3特徴画像と上記特徴点及びその重みを
用いて上記学習画像の特徴画像との各類似度または相違
度を上記特徴点の重み付き相関演算でそれぞれ求める第
6ステップと、 上記両カテゴリと対応する各上記類似度または相違度か
ら上記特徴間の重みを決定する第7ステップと、 上記特徴を組み合わせ、これらの上記両カテゴリの対応
類似度または相違度間距離を求める第8ステップと、 上記距離が十分大となるまで上記特徴の組み合わせを変
更し、その最終の組み合わせの上記特徴点とその重みを
参照データとする第9ステップとを有する画像検査/認
識用参照データ生成方法。
19. A first step of extracting a plurality of image features from a learning image to generate a feature image, a second step of quantizing each of these feature images into a quantized feature image, and said quantization. A third step of obtaining a feature value distribution of each feature point in the same type of feature images, a fourth step of determining a weight of each feature point from the feature point feature value distribution, and a second step of the same category as the learning image. A fifth step of generating a quantized second characteristic image and a third characteristic image from the learning image and the third learning image of another category, respectively, and the second and third characteristic images, the characteristic points and their weights. The sixth step of obtaining the degree of similarity or the degree of difference between the learning image and the characteristic image by the weighted correlation calculation of the characteristic points, and the similarity degree corresponding to both the categories or Is the seventh step of determining the weight between the features from the degree of dissimilarity, and the eighth step of obtaining the corresponding similarity or the distance between the dissimilarities of the above two categories by combining the features, and the distance is sufficiently large. Up to the ninth step of changing the combination of the features up to and including the final combination of the feature points and the weight thereof as reference data.
【請求項20】 請求項19の参照データ生成方法にお
いて、 上記第6ステップの上記相関演算はパラメータ空間に上
記特徴点重みを加算投票する重み付き一般化ハフ変換演
算である。
20. The reference data generating method according to claim 19, wherein the correlation calculation in the sixth step is a weighted generalized Hough transform calculation for additionally voting the feature point weights in a parameter space.
【請求項21】 請求項19の参照データ生成方法にお
いて、 上記第6ステップの上記相関演算は上記特徴画像系列と
上記第2または第3特徴画像系列と上記特徴点の重みの
系列を重みとした重み付き正規化相関演算である。
21. The reference data generating method according to claim 19, wherein the correlation calculation in the sixth step uses a sequence of weights of the feature image sequence, the second or third feature image sequence, and the feature point as weights. It is a weighted normalized correlation operation.
【請求項22】 請求項19の参照データ生成方法にお
いて、 上記第6ステップの上記相関演算は、上記量子化特徴画
像を量子化レベルごとに、パラメータ空間に上記特徴点
の重みを加算投票する重み付きハフ変換してハフ平面を
得、これらハフ平面の上記特徴画像の対応するものとの
差分演算を行うことである。
22. The reference data generation method according to claim 19, wherein in the correlation operation of the sixth step, a weight for adding and voting the weight of the feature point in a parameter space for each quantization level of the quantized feature image. A Hough plane is obtained by the Hough transform, and a difference operation between the Hough plane and the corresponding one of the characteristic images is performed.
【請求項23】 入力画像が蓄えられる画像メモリと、 上記入力画像から画像の特徴を抽出して特徴画像を生成
する手段と、 上記特徴画像を量子化する手段と、 上記量子化された特徴画像が蓄えられる特徴画像メモリ
と、 各特徴画像ごとに特徴値とその特徴点及び重みとが参照
テーブルとして記憶された参照テーブルメモリと、 上記量子化特徴画像につき、上記参照テーブルメモリ内
の対応する参照テーブルを用いて重み付き類似度または
相違度を演算する演算手段と、 上記各手段を制御する制御手段と、 を具備する画像検査/認識装置。
23. An image memory in which an input image is stored, means for extracting a feature of an image from the input image to generate a feature image, means for quantizing the feature image, and the quantized feature image. , A reference table memory in which a feature value, its feature points, and weights are stored as a reference table for each feature image, and a corresponding reference in the reference table memory for the quantized feature image An image inspection / recognition apparatus comprising: a calculating unit that calculates a weighted similarity or a difference using a table; and a control unit that controls each unit.
【請求項24】 入力学習画像が蓄えられる画像メモリ
と、 上記学習画像から画像の特徴を抽出して特徴画像を生成
する手段と、 上記特徴画像を量子化する手段と、 上記量子化された特徴画像が蓄えられる特徴画像メモリ
と、 上記量子化特徴画像からその特徴点の特徴値分布を求め
る手段と、 上記特徴画像ごとの上記特徴点特徴値分布を蓄える特徴
点特徴値分布メモリと、 上記特徴値分布から各特徴点の重みを決定する手段と、 上記特徴ごとの上記特徴点とその重みを記憶する参照テ
ーブルメモリと、 上記参照テーブルメモリの特徴点重みを用いて、上記特
徴画像に対する相関演算を行って重み付き類似度または
相違度を得る重み付き類似度(相違度)演算手段と、 上記重み付き類似度または相違度の分布が蓄えられる類
似度(相違度)分布メモリと、カテゴリと対応する上記
類似度または相違度の分布から特徴間の重みを求める手
段と、 特徴間の組み合わせを決めて、その組み合わせについて
のカテゴリ内の重み付き類似度または重み付き相違度と
カテゴリ間の重み付き類似度または重み付き相違度との
距離を求める手段と、 上記距離が予め決めた条件を満たすまで上記特徴の組み
合わせを変更して、その時の組み合わせの各特徴画像の
特徴点とその重みを参照データとする手段と、 を具備する画像検査/認識用参照データ生成装置。
24. An image memory in which an input learning image is stored, a means for extracting a feature of an image from the learning image to generate a feature image, a means for quantizing the feature image, and the quantized feature. A feature image memory for storing images, a means for obtaining a feature value distribution of the feature points from the quantized feature image, a feature point feature value distribution memory for storing the feature point feature value distribution for each feature image, the feature A means for determining the weight of each feature point from the value distribution, a reference table memory for storing the feature point for each feature and its weight, and a correlation calculation for the feature image using the feature point weight of the reference table memory And a similarity (dissimilarity) in which the distribution of the weighted similarity or dissimilarity is stored. Distribution memory, means for finding weights between features from distribution of similarities or dissimilarities corresponding to categories, and determining combination between features, and weighted similarity or weighted dissimilarity within category for that combination And means for obtaining the distance between the weighted similarity between categories or the weighted dissimilarity, and changing the combination of the above features until the distance satisfies a predetermined condition, and the feature points of each feature image of the combination at that time. An image inspection / recognition reference data generation device comprising: and means for using the weight as reference data.
【請求項25】 入力画像から画像特徴を抽出して特徴
画像を得る第1ステップと、 上記特徴画像を量子化して量子化特徴画像を得る第2ス
テップと、 上記量子化特徴画像の特徴点の相違度を学習画像により
予め求めた対応特徴の参照データを用いて求める第3ス
テップと、 を有する画像検索/認識方法において、 上記第3ステップは、上記量子化特徴画像から、その各
量子化レベルに対するビット平面よりなる多重ビット平
面を生成する第4ステップと、 上記多重ビット平面の各ビット平面をハフ変換して多重
ハフ平面を生成する第5ステップと、 上記多重ハフ平面と上記参照データとしての参照多重ハ
フ平面との差分を演算することにより上記相違度を得る
第6ステップよりなることを特徴とする画像検査/認識
方法。
25. A first step of extracting a feature of an image from an input image to obtain a feature image; a second step of quantizing the feature image to obtain a quantized feature image; An image retrieval / recognition method comprising: a third step of obtaining the degree of difference using reference data of corresponding features previously obtained from a learning image; and the third step, A fourth step of generating a multi-bit plane consisting of bit planes for, and a fifth step of Hough-transforming each bit plane of the multi-bit plane to generate a multi-Huff plane, and the multi-Huff plane and the reference data. An image inspection / recognition method comprising the sixth step of obtaining the above difference by calculating the difference from the reference multiple Hough plane.
【請求項26】 入力画像から画像特徴を抽出して特徴
画像を得る第1ステップと、 上記特徴画像を量子化して量子化特徴画像を得る第2ス
テップと、 上記量子化特徴画像の特徴点の類似度を学習画像により
予め求めた対応特徴の参照データを用いて求める第3ス
テップと、 を有する画像検査/認識方法において、 上記第3ステップは上記量子化特徴画像から、その各量
子化レベルに対するビット平面よりなる多重ビット平面
を生成する第4ステップと、 上記ビット平面中の予め決められたものについて上記参
照データを用いて、それぞれ一般化ハフ変換する第5ス
テップと、 これらハフ変換されたものから上記類似度を演算する第
6ステップとよりなることを特徴とする画像検査/認識
方法。
26. A first step of extracting an image feature from an input image to obtain a feature image, a second step of quantizing the feature image to obtain a quantized feature image, and a step of extracting feature points of the quantized feature image. An image inspection / recognition method comprising: a third step of obtaining a degree of similarity using reference data of corresponding features obtained in advance from a learning image; A fourth step of generating a multiple bit plane consisting of bit planes, a fifth step of performing a generalized Hough transform on each of the predetermined ones of the bit planes using the above reference data, and the Hough transformed And an image inspection / recognition method comprising the sixth step of calculating the similarity.
【請求項27】 請求項25または26の画像検査/認
識方法において、 上記特徴画像は複数であり、これら特徴画像中より得ら
れた各多重ビット平面中より予め決められたビット平面
について上記演算を、上記ビット平面に与えられた重み
を用いた重み付き演算を行う。
27. The image inspection / recognition method according to claim 25 or 26, wherein there are a plurality of the characteristic images, and the operation is performed on a predetermined bit plane among the multiple bit planes obtained from the characteristic images. , The weighted calculation is performed using the weight given to the bit plane.
【請求項28】 請求項27の画像検査/認識方法にお
いて、 複数のカテゴリの複数の学習画像からそれぞれ複数の量
子化特徴画像を求める第7ステップと、その各量子化特
徴画像から多重ビット平面をそれぞれ生成する第8ステ
ップと、上記複数多重ビット平面の各ビット平面の類似
度または相違度を、上記第3ステップで用いた学習デー
タを用い、上記第3ステップで行う演算と同一手法の演
算で求める第9ステップと、この類似度または相違度か
ら特徴値レベルのビット平面間の重みを求める第10ス
テップと、上記ビット平面を組み合わせ、カテゴリ内の
類似度または相違度と、そのカテゴリと他のカテゴリ間
の類似度または相違度との距離を求める第11ステップ
と、上記距離が所定の条件を満たすまで上記ビット平面
の組み合わせを変更する第12ステップにより、上記第
3ステップで用いるビット平面を決定する。
28. The image inspection / recognition method according to claim 27, wherein a seventh step of obtaining a plurality of quantized feature images from a plurality of learning images of a plurality of categories, and a multi-bit plane from each of the quantized feature images. The eighth step of generating each and the similarity or difference of each bit plane of the multiplex bit planes are calculated by the same method as the calculation performed in the third step using the learning data used in the third step. The ninth step of obtaining, the tenth step of obtaining the weight between bit planes of the feature value level from the degree of similarity or difference, and the above bit planes are combined, and the degree of similarity or difference in the category, the category and other Eleventh step of obtaining the distance between the similarity or the difference between the categories, and combining the bit planes until the distance satisfies a predetermined condition. The twelfth step of changing, determines the bit planes used in the third step.
JP14644695A 1994-06-14 1995-06-13 Image inspection / recognition method, reference data creation method used therefor, and these devices Expired - Fee Related JP3346679B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP14644695A JP3346679B2 (en) 1994-06-14 1995-06-13 Image inspection / recognition method, reference data creation method used therefor, and these devices

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP13164994 1994-06-14
JP13621094 1994-06-20
JP6-136210 1994-06-20
JP6-131649 1994-06-20
JP14644695A JP3346679B2 (en) 1994-06-14 1995-06-13 Image inspection / recognition method, reference data creation method used therefor, and these devices

Publications (2)

Publication Number Publication Date
JPH0869533A true JPH0869533A (en) 1996-03-12
JP3346679B2 JP3346679B2 (en) 2002-11-18

Family

ID=27316341

Family Applications (1)

Application Number Title Priority Date Filing Date
JP14644695A Expired - Fee Related JP3346679B2 (en) 1994-06-14 1995-06-13 Image inspection / recognition method, reference data creation method used therefor, and these devices

Country Status (1)

Country Link
JP (1) JP3346679B2 (en)

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10302049A (en) * 1997-04-28 1998-11-13 Kumamoto Techno Porisu Zaidan Image identification device, its method, image detection/ identification device provided with the image identification device and medium recording image identification program
JP2000305548A (en) * 1999-04-16 2000-11-02 Ultimatte Corp Edge image improvement correction for improving image
WO2001039122A1 (en) * 1999-11-24 2001-05-31 Confirma Convolution filtering of similarity data for visual display of enhanced image
US6674880B1 (en) 1999-11-24 2004-01-06 Confirma, Inc. Convolution filtering of similarity data for visual display of enhanced image
JP2006293455A (en) * 2005-04-06 2006-10-26 Dainippon Printing Co Ltd Invalid data confirmation system
US7155043B2 (en) 2001-11-21 2006-12-26 Confirma, Incorporated User interface having analysis status indicators
US7260249B2 (en) 2002-09-27 2007-08-21 Confirma Incorporated Rules-based approach for processing medical images
JP2009020613A (en) * 2007-07-10 2009-01-29 Fujitsu Ltd Image processing program, image processing method, and image processor
JP2009217583A (en) * 2008-03-11 2009-09-24 Toshiba Corp Apparatus and method for pattern recognition
JP2010061539A (en) * 2008-09-05 2010-03-18 Omron Corp Method of registering model data for substrate visual inspection and substrate visual inspection apparatus
JP2012041083A (en) * 2010-08-23 2012-03-01 Toshiba Tec Corp Label issuing apparatus and program
JP2012066573A (en) * 2010-08-23 2012-04-05 Toshiba Tec Corp Label issuing device and label issuing method
JP2012068965A (en) * 2010-09-24 2012-04-05 Denso Corp Image recognition device
JP2012230501A (en) * 2011-04-25 2012-11-22 Canon Inc Image processing apparatus and image processing method
WO2013031418A1 (en) * 2011-08-30 2013-03-07 株式会社メガチップス Device for detecting line segment and arc
JP2013050762A (en) * 2011-08-30 2013-03-14 Mega Chips Corp Line segment and circular arc detection device
JP2013069043A (en) * 2011-09-21 2013-04-18 Mega Chips Corp Segment and arc detection device
JP2013077127A (en) * 2011-09-30 2013-04-25 Dainippon Screen Mfg Co Ltd Image classification device and image classification method
WO2019087976A1 (en) * 2017-10-30 2019-05-09 日立造船株式会社 Information processing device, information processing method, and information processing program
WO2020137222A1 (en) * 2018-12-28 2020-07-02 オムロン株式会社 Defect inspecting device, defect inspecting method, and program for same
JP2021111353A (en) * 2020-01-10 2021-08-02 株式会社Mujin Method and system of classifying image for object recognition
US11538238B2 (en) 2020-01-10 2022-12-27 Mujin, Inc. Method and system for performing image classification for object recognition

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5759161B2 (en) 2010-12-16 2015-08-05 キヤノン株式会社 Object recognition device, object recognition method, learning device, learning method, program, and information processing system
KR101343554B1 (en) * 2012-07-06 2013-12-20 인텔렉추얼디스커버리 주식회사 Image retrieval method and retrieval apparatus
KR102640999B1 (en) * 2023-09-18 2024-02-28 영일엔지니어링(주) Testing Apparatus of Flexibleprint Circuit Boards for Upper Cover of Battery Pack

Cited By (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10302049A (en) * 1997-04-28 1998-11-13 Kumamoto Techno Porisu Zaidan Image identification device, its method, image detection/ identification device provided with the image identification device and medium recording image identification program
JP2000305548A (en) * 1999-04-16 2000-11-02 Ultimatte Corp Edge image improvement correction for improving image
WO2001039122A1 (en) * 1999-11-24 2001-05-31 Confirma Convolution filtering of similarity data for visual display of enhanced image
AU763459B2 (en) * 1999-11-24 2003-07-24 Confirma, Inc. Convolution filtering of similarity data for visual display of enhanced image
US6674880B1 (en) 1999-11-24 2004-01-06 Confirma, Inc. Convolution filtering of similarity data for visual display of enhanced image
US7155043B2 (en) 2001-11-21 2006-12-26 Confirma, Incorporated User interface having analysis status indicators
US7260249B2 (en) 2002-09-27 2007-08-21 Confirma Incorporated Rules-based approach for processing medical images
JP2006293455A (en) * 2005-04-06 2006-10-26 Dainippon Printing Co Ltd Invalid data confirmation system
JP2009020613A (en) * 2007-07-10 2009-01-29 Fujitsu Ltd Image processing program, image processing method, and image processor
JP2009217583A (en) * 2008-03-11 2009-09-24 Toshiba Corp Apparatus and method for pattern recognition
JP2010061539A (en) * 2008-09-05 2010-03-18 Omron Corp Method of registering model data for substrate visual inspection and substrate visual inspection apparatus
JP2012041083A (en) * 2010-08-23 2012-03-01 Toshiba Tec Corp Label issuing apparatus and program
JP2012066573A (en) * 2010-08-23 2012-04-05 Toshiba Tec Corp Label issuing device and label issuing method
US8622293B2 (en) 2010-08-23 2014-01-07 Toshiba Tec Kabushiki Kaisha Label issuing device and label issuing method
US8827146B2 (en) 2010-08-23 2014-09-09 Toshiba Tec Kabushiki Kaisha Label issuing device and label issuing method
JP2012068965A (en) * 2010-09-24 2012-04-05 Denso Corp Image recognition device
JP2012230501A (en) * 2011-04-25 2012-11-22 Canon Inc Image processing apparatus and image processing method
US9245199B2 (en) 2011-04-25 2016-01-26 Canon Kabushiki Kaisha Image processing apparatus and image processing method
JP2013050762A (en) * 2011-08-30 2013-03-14 Mega Chips Corp Line segment and circular arc detection device
WO2013031418A1 (en) * 2011-08-30 2013-03-07 株式会社メガチップス Device for detecting line segment and arc
US9443318B2 (en) 2011-08-30 2016-09-13 Megachips Corporation Line segment and arc detection apparatus
US9721179B2 (en) 2011-08-30 2017-08-01 Megachips Corporation Line segment and arc detection apparatus
JP2013069043A (en) * 2011-09-21 2013-04-18 Mega Chips Corp Segment and arc detection device
JP2013077127A (en) * 2011-09-30 2013-04-25 Dainippon Screen Mfg Co Ltd Image classification device and image classification method
JP2019082853A (en) * 2017-10-30 2019-05-30 日立造船株式会社 Information processing device, information processing method, and information processing program
WO2019087976A1 (en) * 2017-10-30 2019-05-09 日立造船株式会社 Information processing device, information processing method, and information processing program
WO2020137222A1 (en) * 2018-12-28 2020-07-02 オムロン株式会社 Defect inspecting device, defect inspecting method, and program for same
JP2020106467A (en) * 2018-12-28 2020-07-09 オムロン株式会社 Defect inspection device, defect inspection method, and program therefor
US11830174B2 (en) 2018-12-28 2023-11-28 Omron Corporation Defect inspecting device, defect inspecting method, and storage medium
JP2021111353A (en) * 2020-01-10 2021-08-02 株式会社Mujin Method and system of classifying image for object recognition
US11538238B2 (en) 2020-01-10 2022-12-27 Mujin, Inc. Method and system for performing image classification for object recognition
US12080006B2 (en) 2020-01-10 2024-09-03 Mujin, Inc. Method and system for performing image classification for object recognition

Also Published As

Publication number Publication date
JP3346679B2 (en) 2002-11-18

Similar Documents

Publication Publication Date Title
JP3346679B2 (en) Image inspection / recognition method, reference data creation method used therefor, and these devices
US5638465A (en) Image inspection/recognition method, method of generating reference data for use therein, and apparatuses therefor
US11816579B2 (en) Method and apparatus for detecting defect pattern on wafer based on unsupervised learning
CN114842017B (en) HDMI cable surface quality detection method and system
CN111126482B (en) Remote sensing image automatic classification method based on multi-classifier cascade model
US7382897B2 (en) Multi-image feature matching using multi-scale oriented patches
WO2017197884A1 (en) Banknote management method and system
US6993193B2 (en) Method and system of object classification employing dimension reduction
US8306282B2 (en) Hierarchical face recognition training method and hierarchical face recognition method thereof
US20070041638A1 (en) Systems and methods for real-time object recognition
Clady et al. Multi-class vehicle type recognition system
CN103294813A (en) Sensitive image search method and device
CN107368807A (en) A kind of monitor video vehicle type classification method of view-based access control model bag of words
US8452078B2 (en) System and method for object recognition and classification using a three-dimensional system with adaptive feature detectors
US8687898B2 (en) System and method for object recognition based on three-dimensional adaptive feature detectors
US20160300420A1 (en) Automatic fault diagnosis method and device for sorting machine
CN101140625A (en) Multiple distinguishabilitys retrogress character self-adapting recognition system and method
CN107239792A (en) A kind of workpiece identification method and device based on binary descriptor
CN116109915B (en) Intelligent recognition method for container door state
CN112132151A (en) Image character recognition system and method based on recurrent neural network recognition algorithm
CN110619336A (en) Goods identification algorithm based on image processing
CN116630301A (en) Strip steel surface small target defect detection method and system based on super resolution and YOLOv8
US6901171B1 (en) Methods and apparatuses for refining groupings of edge points that represent a contour in an image
Miciak Radon Transformation and Principal Component Analysis Method Applied in Postal Address Recognition Task.
CN107491780A (en) A kind of anti-down hanging method of calligraphy based on SIFT

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20070906

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080906

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080906

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090906

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090906

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100906

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100906

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110906

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees