JP4018091B2 - Apparatus and program for determining surface condition - Google Patents

Apparatus and program for determining surface condition Download PDF

Info

Publication number
JP4018091B2
JP4018091B2 JP2004228097A JP2004228097A JP4018091B2 JP 4018091 B2 JP4018091 B2 JP 4018091B2 JP 2004228097 A JP2004228097 A JP 2004228097A JP 2004228097 A JP2004228097 A JP 2004228097A JP 4018091 B2 JP4018091 B2 JP 4018091B2
Authority
JP
Japan
Prior art keywords
region
inspection
data map
map
gear
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004228097A
Other languages
Japanese (ja)
Other versions
JP2006047098A (en
Inventor
純司 江口
学 村上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2004228097A priority Critical patent/JP4018091B2/en
Priority to US11/181,643 priority patent/US20060029257A1/en
Publication of JP2006047098A publication Critical patent/JP2006047098A/en
Application granted granted Critical
Publication of JP4018091B2 publication Critical patent/JP4018091B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)

Description

この発明は、検査対象物の表面状態を画像分析により判定する技術に関する。   The present invention relates to a technique for determining the surface state of an inspection object by image analysis.

ギアその他の加工品の表面の傷その他の表面状態の検査は、目視によって行われることが多いが、作業が単純である反面、集中力を必要とし、困難な作業とされている。このため、目視に依存することなくギアその他の加工品の検査を行うことのできる装置が必要とされている。   Inspection of scratches and other surface conditions on the surface of gears and other processed products is often performed by visual inspection. However, while the operation is simple, it requires concentration and is difficult. Therefore, there is a need for an apparatus that can inspect gears and other processed products without depending on visual observation.

特許文献1には、ギア歯面を撮影し、得られた画像の輝度を評価してギア歯面の打痕等の傷の有無を判別する方法が記載されている。1つのギアについて所定の間隔をおいて検査すべきギア歯面およびその歯面と異なるギア歯面を撮影して、異なる歯面に関する実質的に同一方向からの複数の画像を作成し、画像間の輝度の差を表す差分画像を作成する。この差分画像を加算して加算画像を作成し、加算画像の輝度と基準値とを比較することにより、打痕の有無を判別する。   Japanese Patent Application Laid-Open No. 2004-228561 describes a method of determining the presence or absence of scratches such as dents on the gear tooth surface by photographing the gear tooth surface and evaluating the luminance of the obtained image. A gear tooth surface to be inspected and a gear tooth surface different from the tooth surface are photographed at a predetermined interval for one gear, and a plurality of images from substantially the same direction regarding the different tooth surfaces are created. A difference image representing a difference in luminance is generated. The difference image is added to create an added image, and the presence or absence of a dent is determined by comparing the luminance of the added image with a reference value.

特許文献2には、ニューラルネットワークを用いて対象物の画像から自己組織化マップを作成し、同じ画像に対応するニューロンのクラスタを形成し、このクラスタを用いて対象物の画像の認証を行う手法が記載されている。
特許出願公開番号昭63-201556 特許出願公開番号2002-109541
Japanese Patent Application Laid-Open No. 2004-228561 creates a self-organizing map from an image of an object using a neural network, forms a cluster of neurons corresponding to the same image, and authenticates the image of the object using this cluster Is described.
Patent Application Publication Number Sho 63-201556 Patent Application Publication No. 2002-109541

特許文献1に記載される技術では、ギアその他の加工品の表面の色ムラや汚れなど傷ではないが他の画像領域と輝度の異なる領域(以下、過検出、または過検出領域と呼ぶ)を多く検出してしまい、この中から傷その他の表面状態を検出するために相当な目視作業を必要とすることになる。   In the technique described in Patent Document 1, a region (hereinafter referred to as overdetection or overdetection region) that is different from the brightness of other image regions but is not a scratch such as uneven color or dirt on the surface of a gear or other processed product. Many of them are detected, and considerable visual work is required to detect scratches and other surface conditions.

特許文献2に記載されている技術では、1つの自己組織化マップを用いて検査対象物を認識するので、十分な精度が得られないおそれがある。   In the technique described in Patent Document 2, since the inspection object is recognized using one self-organizing map, there is a possibility that sufficient accuracy may not be obtained.

検査対象物の部位に依存して、該対象物の画像には、容易に判別することのできる異なる特徴が現れることがある。たとえば、検査対象物の端部分を撮影した画像には、その一部に該対象物とは異なるもの(たとえば、背景)が撮影されるのに対し、該対象物の中央部分を撮影した画像には、その画像領域全体にわたって該対象物が撮影されることがある。背景を含む画像と含まない画像とでは、傷その他の表面状態の有無にかかわらず、画像の特徴が明らかに異なる。このような、容易に判別することのできる異なる特徴を持つ画像に対し、同じ自己組織化マップを適用すると、検査対象物の表面状態を判定する精度が低下するおそれがある。   Depending on the part of the inspection object, different features that can be easily identified may appear in the image of the object. For example, an image obtained by photographing the end portion of the inspection object is an image obtained by photographing a central portion of the object, while a part (for example, a background) different from the object is photographed. The object may be photographed over the entire image area. The image features clearly differ between an image including a background and an image not including a background regardless of the presence or absence of a scratch or other surface condition. If the same self-organizing map is applied to such images having different features that can be easily discriminated, the accuracy of determining the surface state of the inspection object may be reduced.

検査対象物の表面状態を判定する精度を上げるためには、自己組織化マップのニューロンの数を増やすことが考えられる。しかしながら、ニューロンの数の増大は、判定処理に要する時間の増大を招く。   In order to improve the accuracy of determining the surface state of the inspection object, it is conceivable to increase the number of neurons in the self-organizing map. However, an increase in the number of neurons causes an increase in the time required for the determination process.

この発明は、目視による判定の労力を軽減させつつ、より効率的に表面状態を判定することのできる手法を提供する。   The present invention provides a technique that can more efficiently determine the surface state while reducing the visual determination effort.

この発明の表面状態判定装置は、一形態(請求項1)では、検査対象物の予め定めた複数の部位のそれぞれについて、該部位における所定の表面状態を学習したデータマップを記憶する記憶手段と、検査対象物を撮像する撮像手段と、撮像手段から取得した検査対象物の画像において、他の領域に対し予め定めたしきい値を超える輝度差を有する要判定領域を含むよう検査領域を設定する手段と、該検査領域から特徴ベクトルを抽出する手段と、検査対象物の複数の部位のうち、該検査領域が属する部位を判断して、該部位に対応するデータマップを選択する手段と、特徴ベクトルを該選択されたデータマップに入力して、該検査領域における所定の表面状態を判定する判定手段と、を備える。   In one form (Claim 1), the surface state determination apparatus of the present invention includes, for each of a plurality of predetermined portions of the inspection object, a storage unit that stores a data map obtained by learning a predetermined surface state in the portion. The inspection area is set so as to include a determination area having a luminance difference exceeding a predetermined threshold with respect to other areas in the imaging means for imaging the inspection object and the image of the inspection object acquired from the imaging means. Means for extracting a feature vector from the examination area, means for judging a part to which the examination area belongs among a plurality of parts of the examination object, and selecting a data map corresponding to the part; Determination means for inputting a feature vector into the selected data map and determining a predetermined surface state in the inspection region.

この発明によると、対象物の部位ごとに、傷、打痕、剥離など所定の表面状態を学習したデータマップを用いて、該部位の表面状態を判定するので、判定に要する時間を増やすことなく、部位ごとの判定を効率良く実施することができる。   According to the present invention, for each part of the object, the surface state of the part is determined using a data map obtained by learning a predetermined surface state such as scratches, dents, and peeling, so that the time required for the determination is not increased. The determination for each part can be performed efficiently.

この発明の一形態(請求項2)では、記憶手段は、検査領域全体にわたって検査対象物が撮像される部位の所定の表面状態を学習したデータマップと、検査領域の一部に検査対象物が撮像される部位の所定の表面状態を学習したデータマップとを記憶する。検査対象物が全体にわたって撮像されている場合とそうでない場合とでは、所定の表面状態の有無にかかわらず、検査領域の特徴が異なる。このように異なる特徴を持つ検査領域のそれぞれに適合したデータマップを用いることにより、個々のデータマップの容量を抑制することができる。データマップの容量が抑制されるので、判定に要する時間の増大を回避することができる。   In an embodiment of the present invention (Claim 2), the storage means stores a data map in which a predetermined surface state of a region where the inspection object is imaged over the entire inspection area and a part of the inspection area where the inspection object is present. A data map in which a predetermined surface state of a part to be imaged is learned is stored. The characteristics of the inspection region differ depending on whether the inspection object is imaged over the whole or not, regardless of the presence or absence of a predetermined surface state. By using a data map adapted to each of the inspection regions having different characteristics as described above, the capacity of each data map can be suppressed. Since the capacity of the data map is suppressed, an increase in time required for determination can be avoided.

この発明の一形態(請求項3)では、検査対象物はギアであり、記憶手段は、画像において該ギアが撮影されている領域の中央部分において所定の表面状態を学習したデータマップと、画像において該ギアが撮影されている領域の端部分において所定の表面状態を学習したデータマップとを記憶する。ギアの端部分を撮像した画像には、該ギアとは異なるものが撮像され、ギアの中央部分を撮像した画像には、該ギアが画像全体にわたって撮像されることがある。ギアの撮影領域の中央部分の表面状態と端部分の表面状態のそれぞれに適合したデータマップを用いることにより、個々のデータマップの容量を抑制することができる。データマップの容量が抑制されるので、判定に要する時間の増大を回避することができる。   In an embodiment of the present invention (Claim 3), the inspection object is a gear, and the storage means stores a data map in which a predetermined surface state is learned in a central portion of an area where the gear is photographed in the image, and an image. And a data map in which a predetermined surface state is learned at the end portion of the region where the gear is photographed. An image obtained by imaging the end portion of the gear may be imaged different from the gear, and an image obtained by imaging the central portion of the gear may be imaged over the entire image. By using a data map adapted to each of the surface state of the central portion and the end portion of the photographing region of the gear, the capacity of each data map can be suppressed. Since the capacity of the data map is suppressed, an increase in time required for determination can be avoided.

この発明の一形態(請求項4)では、検査対象物の複数の部位のそれぞれについて、データマップを生成する手段を備える。該データマップを生成する手段は、さらに、検査対象物の複数の部位のそれぞれについて、(a)自己組織化マップを定義する手段と、(b)検査対象物について、検査領域の複数のサンプルを用意し、該複数のサンプルの検査領域のそれぞれについて、1)該検査領域から特徴ベクトルを抽出し、2)検査対象物の複数の部位のうち、該検査領域が属する部位を判断して、該部位に対応する自己組織化マップを選択し、3)該抽出した特徴ベクトルを、該選択した自己組織化マップに入力して学習させる手段と、(c)学習した自己組織化マップにおいて、同じサンプルのそれぞれに対応し、かつ隣接するニューロンをグループ化してクラスタにする手段と、(d)クラスタのそれぞれを、所定の表面状態に対応するものとそうでないものとに分類して、データマップを生成する手段と、を備える。   In one form of this invention (Claim 4), it has a means to produce | generate a data map about each of several site | part of a test target object. The means for generating the data map further includes: (a) means for defining a self-organizing map for each of a plurality of parts of the inspection object; and (b) a plurality of samples in the inspection region for the inspection object. Preparing, for each of the plurality of sample inspection areas, 1) extracting a feature vector from the inspection area; 2) determining a part to which the inspection area belongs among a plurality of parts of the inspection object; A self-organizing map corresponding to the region is selected, 3) means for inputting the extracted feature vector into the selected self-organizing map and learning, and (c) the same sample in the learned self-organizing map Means for grouping adjacent neurons into clusters, and (d) each of the clusters corresponding to a predetermined surface state and not Are classified into, and means for generating a data map, the.

この発明によると、検査対象物のそれぞれの部位について、所定の表面状態を学習したデータマップが生成されるので、個々のデータマップの容量が抑制され、よって処理時間の増大を招くことなく、判定を実施することができる。特に、部位ごとに明らかに異なる特徴が撮像される対象物については、個々のデータマップの容量を抑制しつつ、部位ごとの判定を効率的に行うことができる。   According to the present invention, since a data map in which a predetermined surface state is learned is generated for each part of the inspection object, the capacity of each data map is suppressed, and thus determination without increasing processing time is performed. Can be implemented. In particular, with respect to an object in which features that are clearly different for each part are imaged, the determination for each part can be performed efficiently while suppressing the capacity of each data map.

次に図面を参照して、この発明の実施形態を説明する。図1は、検査の対象物がギア11であるときの撮像装置の構成を示す。ギア11は、回転テーブル15に取り付けられ、台座17に設けられた図示しないステップモータによってギア歯のピッチでステップ状に回転される。ギア11は、照明装置19によって照射されている。CMOSイメージセンサを備えたカメラ21が、ギア11の歯面を撮影する。撮影は、ギア11のステップ状の回転と同期して行われ、一歯回転するたびに、歯面ごとに静止画像が撮影される。一実施例では、照明装置19は、青色発光ダイオードを用いるが、ランプその他の照明装置を使用することもできる。また、カメラ21には、測定可能な輝度レンジの広いワイドダイナミックレンジCMOSカメラを用いることにより、傷の判定に適した良好な画像が得られる。対象物によっては、CCDイメージセンサを用いたカメラを使用することもできる。   Next, embodiments of the present invention will be described with reference to the drawings. FIG. 1 shows a configuration of an imaging apparatus when an object to be inspected is a gear 11. The gear 11 is attached to the rotary table 15 and rotated stepwise at a gear tooth pitch by a step motor (not shown) provided on the base 17. The gear 11 is irradiated by the lighting device 19. A camera 21 equipped with a CMOS image sensor photographs the tooth surface of the gear 11. Photographing is performed in synchronization with the stepwise rotation of the gear 11, and a still image is photographed for each tooth surface each time one tooth rotates. In one embodiment, the lighting device 19 uses blue light emitting diodes, but a lamp or other lighting device can also be used. Further, by using a wide dynamic range CMOS camera having a wide measurable luminance range as the camera 21, a good image suitable for scratch determination can be obtained. Depending on the object, a camera using a CCD image sensor can also be used.

位置決めセンサ18は、一般に近接センサと呼ばれるもので、検出コイルにより高周波磁界を発生する。この磁界に金属の検出物体が近づくと電磁誘導により、検出物体に誘導電流(渦電流)が流れる。この電流によって検出コイルのインピーダンスが変化して、高周波の発振が停止することで、検出物体の接近を検出する。この実施例では、ギアの歯の山の接近をこの近接センサによって検出する。位置決めセンサ18からの信号は、コンピュータ23(図2)に送られ、タイミング部24が、該ギアの歯山の検出に応じて、カメラ21に信号を送る。カメラ21は、この信号に応答してギアを撮影する。   The positioning sensor 18 is generally called a proximity sensor, and generates a high-frequency magnetic field by a detection coil. When a metal detection object approaches this magnetic field, an induced current (eddy current) flows through the detection object due to electromagnetic induction. This current changes the impedance of the detection coil and stops the high-frequency oscillation, thereby detecting the approach of the detection object. In this embodiment, the proximity sensor detects the approach of the gear teeth crest. A signal from the positioning sensor 18 is sent to the computer 23 (FIG. 2), and the timing unit 24 sends a signal to the camera 21 in response to detection of the gear teeth. The camera 21 shoots the gear in response to this signal.

図2は、カメラ21で撮影した画像を処理するコンピュータ23の機能ブロックを示す。コンピュータ23は、パーソナル・コンピュータ、ワークステーションその他のコンピュータであってよい。コンピュータ23は、演算を実行するプロセッサ(CPU)、様々なデータおよびプログラムを記憶する記憶装置、ユーザが該プロセッサに処理をさせるためのデータを入力するマウスおよびキーボードなどの入力装置、および該プロセッサによる処理結果を表示する表示装置(ディスプレイ)、および該処理結果を出力するプリンタなどの出力装置を備えることができる。記憶装置は、ROMおよびRAMなどのメモリおよびディスク装置などの補助記憶装置を含むことができる。図の各機能ブロックによる処理は、プロセッサにより実行される。   FIG. 2 shows functional blocks of the computer 23 that processes an image photographed by the camera 21. The computer 23 may be a personal computer, a workstation or other computer. The computer 23 includes a processor (CPU) that executes arithmetic operations, a storage device that stores various data and programs, an input device such as a mouse and a keyboard that allows a user to input data for processing, and the processor. A display device (display) for displaying the processing result and an output device such as a printer for outputting the processing result can be provided. The storage device can include a memory such as a ROM and a RAM and an auxiliary storage device such as a disk device. The processing by each functional block in the figure is executed by the processor.

画像取得部25は、カメラ21から歯面ピッチごとに撮影される画像を受け取り、差分画像生成部27に渡す。差分画像生成部27は、今回取得した画像と、前回取得した画像、すなわち1ピッチ前のギア歯面の画像との差分をとる。傷その他の表面状態のないギアの歯面は、どれも実質的に同じであるから、差分をとると、全体的に輝度の小さい画像になる。ギア歯面に打痕および剥離などの傷がついていると、傷の部分の輝度が他の部分と異なるため、差分画像に大きな輝度の部分として現れる。   The image acquisition unit 25 receives an image captured for each tooth surface pitch from the camera 21 and passes it to the difference image generation unit 27. The difference image generation unit 27 calculates a difference between the image acquired this time and the image acquired last time, that is, the image of the gear tooth surface one pitch before. Since the tooth surfaces of the gear without any scratches or other surface conditions are substantially the same, taking a difference results in an image with a low overall brightness. If the gear tooth surface has scratches such as dents and peeling, the brightness of the scratched part is different from that of the other parts, so that it appears as a part of high brightness in the difference image.

2つの画像の差分をとると、輝度値が負の値をとる画素があるので、差分の輝度値に中間輝度の128を加算して、すべての画素の輝度値を正の値にする。128を加算することによって輝度値が255を超える画素は、輝度値を255とし、128を加算しても負の値になる画素は、輝度値を0とする。こうして、差分画像の輝度値のレンジを0から255に整える。   When the difference between the two images is taken, there is a pixel having a negative luminance value, so that the intermediate luminance 128 is added to the luminance value of the difference to make the luminance values of all the pixels positive. A pixel whose luminance value exceeds 255 by adding 128 has a luminance value of 255, and a pixel that becomes negative even if 128 is added has a luminance value of 0. In this way, the luminance value range of the difference image is adjusted from 0 to 255.

図3の(A)を参照すると、検査領域設定部28は、差分画像からしきい値より大きい輝度の領域を潜在的な傷領域31として検出し、この領域を囲む領域33を検査領域として設定する。検査領域33の形状は、この実施例では四角形であるが、その他の多角形であってもよく、または円形もしくは楕円形であってもよい。その大きさは、潜在的な傷領域31に応じて、傷領域31を囲むに十分な大きさに設定される。   Referring to FIG. 3A, the inspection area setting unit 28 detects an area having a luminance greater than the threshold value from the difference image as a potential flaw area 31, and sets an area 33 surrounding the area as an inspection area. To do. The shape of the inspection region 33 is a quadrangle in this embodiment, but may be other polygons, or may be a circle or an ellipse. The size is set to a size sufficient to surround the wound area 31 according to the potential wound area 31.

検査領域設定部28は、設定された検査領域33の位置情報を、コンピュータ23の記憶装置に記憶する。図4を参照すると、ギアの歯面を撮影した画像41の例が示されている。符号42は、該画像41に撮影されたギアを示す。画像41には、検査領域33が設定されている。ギアの歯幅はWであり、検査領域33の該歯幅方向に対する位置が、w’により特定されている。このように、検査領域33の位置情報は、ギアの歯幅方向の位置を含み、これが、コンピュータ23の記憶装置に記憶される。   The inspection area setting unit 28 stores the set position information of the inspection area 33 in the storage device of the computer 23. Referring to FIG. 4, an example of an image 41 obtained by photographing a gear tooth surface is shown. Reference numeral 42 indicates a gear photographed in the image 41. An inspection area 33 is set in the image 41. The tooth width of the gear is W, and the position of the inspection region 33 in the tooth width direction is specified by w ′. Thus, the position information of the inspection region 33 includes the position of the gear in the tooth width direction, and this is stored in the storage device of the computer 23.

特徴抽出部29は、次の6つのパラメータを抽出する。   The feature extraction unit 29 extracts the following six parameters.

(1)潜在的な傷領域31の面積SA
検査領域を、縦軸をi、横軸をjとする座標で表示し、傷領域31の境界線の座標を用いた積分演算により面積SAを求める。
(1) Area S A of potential scratch region 31
The inspection area is displayed in coordinates with i as the vertical axis and j as the horizontal axis, and the area S A is obtained by integration calculation using the coordinates of the boundary line of the scratch area 31.

(2)傷領域31を楕円近似したときの歯スジに対する長軸の傾きθA
ギアに生じることの多い打痕は、楕円近似することができる。図3の(B)において、図形の近似プログラムを用いて傷領域31を近似する楕円の近似式を求める。近似式は、既知のプログラムを用いて求めることができる。典型的には、多変量の非線形最小二乗法によるあてはめプログラムを用いて近似式を求める。こうして求めた楕円の長軸37とギアの歯スジ13(図1)に平行な直線35とのなす角度θAを求める。
(2) Long axis inclination θ A with respect to the tooth streak when the wound region 31 is approximated to an ellipse
A dent often occurring in a gear can be approximated to an ellipse. In FIG. 3B, an approximate equation of an ellipse that approximates the flaw region 31 is obtained using a graphic approximation program. The approximate expression can be obtained using a known program. Typically, an approximate expression is obtained using a multivariate nonlinear least squares fitting program. An angle θ A formed by the long axis 37 of the ellipse thus obtained and a straight line 35 parallel to the gear tooth stripe 13 (FIG. 1) is obtained.

(3)検査領域33の輝度値エントロピーentB
潜在的な傷領域31を含む検査領域33の輝度値のエントロピーを、次の式により求める。輝度値エントロピーは、輝度値分布の情報量を表し、情報量が大きいことは、輝度値分布の乱雑度が大きいことを表す。

Figure 0004018091
(3) The luminance value entropy entB of the inspection area 33
The entropy of the luminance value of the inspection area 33 including the potential flaw area 31 is obtained by the following expression. The luminance value entropy represents the information amount of the luminance value distribution, and a large information amount represents that the degree of randomness of the luminance value distribution is large.
Figure 0004018091

この実施例では、輝度値エントロピーとして、輝度値0から255までの輝度値分布の乱雑性を用いた。[数1]で、pは輝度値、rel[p]は、輝度値pの頻度である。   In this embodiment, the randomness of the luminance value distribution from luminance values 0 to 255 is used as the luminance value entropy. In [Equation 1], p is the luminance value, and rel [p] is the frequency of the luminance value p.

図5は、輝度値ヒストグラムの例を示す。打痕その他の傷を有するギア歯面の場合、その画像の差分の画像に傷が多様な輝度値をもつ画素領域として現れるので、輝度値エントロピーが大きい。図5の(A)は、種々の輝度値を有する画素がランダムに存在する画像の輝度値ヒストグラムである。中間輝度128を中心に広く輝度値が分布しており、エントロピーが大きい。図5の(B)は、輝度値のばらつきが小さい画像の輝度値ヒストグラムであり、エントロピーが小さい。   FIG. 5 shows an example of a luminance value histogram. In the case of a gear tooth surface having dents or other scratches, since the scratches appear as pixel areas having various brightness values in the difference image, the brightness value entropy is large. FIG. 5A is a luminance value histogram of an image in which pixels having various luminance values are present randomly. Brightness values are widely distributed around the intermediate brightness 128, and the entropy is large. FIG. 5B is a luminance value histogram of an image with small variations in luminance values, and the entropy is small.

(4)検査領域33の輝度値アニソトロピーansB
検査領域33の輝度値のアニソトロピーは、次の式で表される。アニソトロピーは、輝度値分布の対称性の度合いを示す。

Figure 0004018091
(4) Luminance value anisotropy ansB of inspection area 33
The anisotropy of the luminance value of the inspection area 33 is expressed by the following formula. Anisotropy indicates the degree of symmetry of the luminance value distribution.
Figure 0004018091

この式で、kは、出現頻度が最小の輝度値である。つまり、ansBは、検査領域33における0から最小の輝度値までの輝度値エントロピーを、0から全輝度値のエントロピーで割った値である。輝度値分布が中間輝度値125の左右で対称のとき、ansB = -0.5 となる。ansB が-0.5に近づくほど対称性が高く、アニソトロピーが小さい。ansBが-0.5から離れて0または-1に近づくほど対称性が低く、アニソトロピーが大きい。   In this expression, k is a luminance value with the lowest appearance frequency. That is, ansB is a value obtained by dividing the luminance value entropy from 0 to the minimum luminance value in the inspection area 33 by 0 to the entropy of all luminance values. When the luminance value distribution is symmetrical on the left and right of the intermediate luminance value 125, ansB = −0.5. The closer ansB is to -0.5, the higher the symmetry and the smaller the anisotropy. The closer ansB is to -0 or -1 from -0.5, the lower the symmetry and the greater the anisotropy.

図6を参照すると、(A)のような輝度値ヒストグラムは、輝度値が中間値の128を中心として偏りなく分布しているので、対称性が高く、アニソトロピーは小さい。(B)の輝度値ヒストグラムは、中間値128の左側と右側で輝度値の分布が異なり、対称性が低く、アニソトロピーが大きい。(B)で出現頻度が最小の輝度値が230であるとすると、ansBが-1に近い値となる。   Referring to FIG. 6, the luminance value histogram as shown in FIG. 6A has a high luminance symmetry and a small anisotropy because the luminance values are distributed without any bias around the intermediate value of 128. In the luminance value histogram of (B), the luminance value distribution is different between the left side and the right side of the intermediate value 128, the symmetry is low, and the anisotropy is large. Assuming that the luminance value with the lowest appearance frequency is 230 in (B), ansB is close to -1.

(5)潜在的傷領域31の円形度C
傷領域31の円形度C は、次の式で表される。

Figure 0004018091
(5) Circularity C A of potential scratch area 31
Circularity C A wound area 31 is expressed by the following equation.
Figure 0004018091

この式で、S は、傷領域31の面積、rmax は、傷領域31の重心から領域33の端部までの最大距離である。 In this equation, S A is the area of the wound area 31, r max is the maximum distance from the center of gravity of the wound area 31 to the end of the region 33.

(6)検査領域33のエッジ画像の平均輝度edgB
検査領域33の面積をSで表すと、検査領域33のエッジ画像の平均輝度edgB は、次の式で求められる。

Figure 0004018091
(6) The average luminance edgB of the edge image in the inspection area 33
If represents the area of the inspection area 33 in S B, the average luminance edgB edge images of the inspection area 33 is obtained by the following expression.
Figure 0004018091

ここで、i、j は、画素の座標を示し、P(i,j)は、座標i, j の画素の輝度値を示す。ΔP(i,j) は、P(i,j) の上下(i軸方向)に隣接する2つの画素の輝度値の差分の二乗と、左右(j軸方向)に隣接する2つの画素の輝度値の差分の二乗との和の平方根である。ΔP(i,j)は、隣接する画素の輝度値の差分の大きさを表す。隣接画素の輝度値の差分をとることは、画像において輝度値の変化の大きいエッジ部分を強調した画像、すなわちエッジ画像、を生成することに相当する。edgB は、隣接画素の輝度値の差分の大きさの総和を領域33の面積で割ったもので、エッジ画像の平均輝度を示す。   Here, i and j indicate the coordinates of the pixel, and P (i, j) indicates the luminance value of the pixel at the coordinates i and j. ΔP (i, j) is the square of the difference between the luminance values of two pixels adjacent to the upper and lower sides (i-axis direction) of P (i, j) and the luminance of the two pixels adjacent to the left and right (j-axis direction) This is the square root of the sum of the difference squared. ΔP (i, j) represents the magnitude of the difference between the luminance values of adjacent pixels. Taking the difference between the luminance values of adjacent pixels corresponds to generating an image in which an edge portion having a large change in luminance value in the image is emphasized, that is, an edge image. edgB is obtained by dividing the sum of the magnitudes of the luminance values of adjacent pixels by the area of the region 33, and indicates the average luminance of the edge image.

こうして求めた6つのパラメータのそれぞれについて、たくさんの検査領域のサンプルについての最大値および最小値を用いて、次の式により正規化する。   For each of the six parameters obtained in this way, normalization is performed according to the following equation using the maximum and minimum values for many samples in the inspection region.

正規化=(得られた値 ― 最小値)/(最大値 ― 最小値)
この正規化により、それぞれのパラメータは、0から1の範囲の値をとる。こうして、潜在的傷領域31を含む検査領域33は、6つの特徴パラメータの数値ベクトルで表すことができる。
Normalization = (obtained value-minimum value) / (maximum value-minimum value)
By this normalization, each parameter takes a value in the range of 0 to 1. Thus, the inspection region 33 including the potential flaw region 31 can be represented by a numerical vector of six feature parameters.

図7は、こうして得られた特徴ベクトルを示す。図7の(A)は、打痕に対応する特徴ベクトルを示す。図7の(B)は、ギア歯面の色ムラ(過検出)の特徴ベクトルを示す。潜在的傷領域31の面積パラメータSA、楕円近似したときの長軸の傾きθA、およびアニソトロピーansB については両者の間に大きな相違はないが、輝度値エントロピーentB 、円形度C、およびエッジ画像の平均輝度edgB について大きな相違があることがわかる。 FIG. 7 shows the feature vector thus obtained. FIG. 7A shows a feature vector corresponding to a dent. FIG. 7B shows a feature vector of color unevenness (overdetection) of the gear tooth surface. There is no significant difference between the area parameter S A of the potential flaw region 31, the long axis inclination θ A when the ellipse is approximated, and the anisotropy ansB, but the luminance value entropy entB, circularity C A , and edge It can be seen that there is a large difference in the average luminance edgB of the image.

図2に戻ると、特徴抽出部29は、上述のようにして、検査領域33から上述の6つのパラメータからなる特徴ベクトルを抽出する。代替実施例では、特徴抽出部29は、検査領域の輝度値エントロピー、潜在的傷領域の円形度および検査領域のエッジ画像の平均輝度の3つのパラメータからなる特徴ベクトルを抽出する。   Returning to FIG. 2, the feature extraction unit 29 extracts the feature vector including the above-described six parameters from the inspection region 33 as described above. In an alternative embodiment, the feature extraction unit 29 extracts a feature vector composed of three parameters: the luminance value entropy of the inspection area, the circularity of the potential flaw area, and the average luminance of the edge image of the inspection area.

判定部30は、検査領域設定部28によって設定された検査領域33の位置情報を、記憶装置から取得する。カメラ21およびギアが配置される台座17(図1)が固定されているので、取得画像においてギアが撮影される位置は予め決められており、よって検査領域の該位置情報は、該検査領域がギアのどの部位に属するかを示す。判定部30は、該位置情報に基づいて、検査領域33が、ギアのどの部位に属するかを判断し、該検査領域が属する部位に対応する判定データマップを選択する。判定部30は、選択した判定データマップに、特徴抽出部29によって抽出された特徴ベクトルを適用して、該検査領域33について、傷その他の表面状態の判定を行う。   The determination unit 30 acquires the position information of the inspection region 33 set by the inspection region setting unit 28 from the storage device. Since the pedestal 17 (FIG. 1) on which the camera 21 and the gear are arranged is fixed, the position at which the gear is photographed in the acquired image is determined in advance, and thus the position information of the inspection area is determined by the inspection area. Indicates which part of the gear belongs to. The determination unit 30 determines which part of the gear the inspection region 33 belongs to based on the position information, and selects a determination data map corresponding to the part to which the inspection region belongs. The determination unit 30 applies the feature vector extracted by the feature extraction unit 29 to the selected determination data map, and determines the surface condition of the inspection region 33 such as a scratch.

検査領域の分類
図8の(A)を参照して、本願発明の一実施例に従う、検査領域33がギアのどの部位に属するかを判断する手法を説明する。取得画像61にはギアが撮影されており、ギアが撮影された画像領域が符号62によって表されている。取得画像61のうち、ギア領域62以外の部分には、背景が撮影されている。図8の(B)に示されるように、中央領域A(太い黒線により囲まれている)と端領域B(太い破線により囲まれている)とが画像内に設定される。中央領域Aは、撮影されるギアの中央部分を示している。符号63に示されるように、検査領域33が中央領域Aに設定される場合には、該検査領域33全体にわたって、ギアが撮影される。端領域Bは、撮影されるギアの端部分(エッジ部分)を示している。傷その他の表面状態または過検出が該ギアの端部分に存在すると、符号64によって示されるように、検査領域33が端領域Bに設定される。このような検査領域33には、その一部にのみギアが撮影されており、他の部分には背景が撮影される。
Classification of Inspection Area A method for determining which part of the gear the inspection area 33 belongs to according to one embodiment of the present invention will be described with reference to FIG. A gear is photographed in the acquired image 61, and an image area where the gear is photographed is represented by reference numeral 62. In the acquired image 61, a background is photographed in a portion other than the gear region 62. As shown in FIG. 8B, a central area A (enclosed by a thick black line) and an end area B (enclosed by a thick broken line) are set in the image. The center area A shows the center portion of the gear to be photographed. As indicated by reference numeral 63, when the inspection area 33 is set to the central area A, the gear is photographed over the entire inspection area 33. An end region B indicates an end portion (edge portion) of a gear to be photographed. If a flaw or other surface condition or overdetection is present at the end portion of the gear, the inspection region 33 is set to the end region B as indicated by reference numeral 64. In such an inspection area 33, the gear is photographed only in a part thereof, and the background is photographed in the other part.

端領域Bに設定された検査領域33は、ギア部分と背景部分とを含み、中央領域Aに設定された検査領域33はギア部分のみを含むので、傷その他の表面状態が存在するかどうかにかかわらず、これらの検査領域は明らかに異なる特徴を持つ。この実施例では、中央領域A用には第1の判定データマップが用意されて記憶装置に記憶され、端領域B用には第2の判定データマップが用意されて記憶装置に記憶される。判定部30は、検査領域33の位置情報から、該検査領域33が中央領域Aに属すると判断したならば、第1の判定データマップを用いて傷その他の表面状態の判定を行い、検査領域33が端領域Bに属すると判断したならば、第2の判定データマップを用いて傷その他の表面状態の判定を行う。   Since the inspection region 33 set in the end region B includes a gear portion and a background portion, and the inspection region 33 set in the central region A includes only the gear portion, whether or not there is a scratch or other surface condition exists. Regardless, these examination areas have distinctly different characteristics. In this embodiment, a first determination data map is prepared for the central region A and stored in the storage device, and a second determination data map is prepared for the end region B and stored in the storage device. If the determination unit 30 determines from the position information of the inspection region 33 that the inspection region 33 belongs to the central region A, the determination unit 30 determines a scratch or other surface state using the first determination data map, and the inspection region If it is determined that 33 belongs to the end region B, the scratch and other surface conditions are determined using the second determination data map.

このように、ギアの部位に従って検査領域に異なる特徴が出現する場合には、該部位ごとの特徴に合わせた判定データマップを用意することにより、ギアの表面状態を判定する精度および効率を向上させることができる。   In this way, when different features appear in the examination region according to the gear part, the accuracy and efficiency of judging the gear surface state is improved by preparing a judgment data map that matches the feature of each part. be able to.

ギアが撮影される領域62の画像内における位置は予め決められているので、中央領域Aおよび端領域Bの画像内における位置も予め決めることができる。端領域Bの幅W2は、典型的には、検査領域33の幅(画像の横方向の長さ)W1に依存して決められる。図8の(C)を参照すると、ギアの右側のエッジが撮影された箇所が拡大して示されており、潜在的傷領域31を囲むよう設定された検査領域33の2つの例が示されている。潜在的傷領域31がほぼ中央に位置するよう検査領域33が設定されるとすると、(c−1)は、設定された検査領域33の右端がギアのエッジに達する場合であり、(c−2)は、設定された検査領域33の略中心がギアのエッジ上にある場合である。   Since the position in the image of the area 62 where the gear is photographed is determined in advance, the positions of the central area A and the end area B in the image can also be determined in advance. The width W2 of the end region B is typically determined depending on the width (length in the horizontal direction of the image) W1 of the inspection region 33. Referring to FIG. 8C, the portion where the right edge of the gear is photographed is shown enlarged, and two examples of the inspection region 33 set to surround the potential scratch region 31 are shown. ing. Assuming that the inspection area 33 is set so that the potential scratch area 31 is located substantially in the center, (c-1) is a case where the right end of the set inspection area 33 reaches the gear edge. 2) is a case where the approximate center of the set inspection region 33 is on the edge of the gear.

検査領域33が、(c−1)に示す位置よりも右側にずれると、検査領域33には背景が含まれることとなる。したがって、端領域Bは、少なくとも、エッジに対してW1の幅をギア側に持ち、(1/2×W1)の幅を背景側に持つよう設定されるのが好ましい。端領域Bの位置が決められると、撮影されているギアの残りの部分が中央領域Aとして設定される。   When the inspection area 33 is shifted to the right side from the position shown in (c-1), the inspection area 33 includes the background. Therefore, it is preferable that the end region B is set to have at least the width of W1 on the gear side with respect to the edge and the width of (1/2 × W1) on the background side. When the position of the end region B is determined, the remaining portion of the gear being photographed is set as the central region A.

検査領域33が、中央領域Aと端領域Bにまたがる場合には、たとえば、検査領域33内の潜在的傷領域31の位置が中央領域Aと端領域Bのいずれに属するかに従い、検査領域33が属する領域(中央領域Aまたは端領域B)を決めてよい。代替的に、検査領域33において中央領域Aが占める部分と端領域Bが占める部分との割合に応じて、検査領域33が属する領域を決めてよい。   When the inspection region 33 extends over the central region A and the end region B, for example, the inspection region 33 depends on whether the position of the potential scratch region 31 in the inspection region 33 belongs to the central region A or the end region B. The region (central region A or end region B) to which the symbol belongs may be determined. Alternatively, the region to which the inspection region 33 belongs may be determined according to the ratio of the portion occupied by the central region A and the portion occupied by the end region B in the inspection region 33.

この実施例では、設定される検査領域に背景が撮影されるかどうかに従って、検査対象物に2つの部位(中央領域Aおよび端領域B)を定めた。代替的に、検査対象物の或る部位と他の部位との間に、たとえば構造上の違いから異なる特徴が出現する場合には、これらの部位のそれぞれについて判定データマップを用意し、判定を行うようにするのが好ましい。   In this embodiment, two parts (a central area A and an end area B) are defined on the inspection object according to whether or not the background is photographed in the set inspection area. Alternatively, if different features appear due to structural differences, for example, between a certain part of the inspection object and another part, a determination data map is prepared for each of these parts, and the determination is made. It is preferable to do so.

上記は、好ましい態様として、検査対象物の部位ごとに異なる特徴が存在する場合に、該部位ごとに判定データマップを用意することについて述べた。しかしながら、本願発明は、部位ごとに異なる特徴が出現しない場合でも、検査対象物の部位ごとに判定データマップを用意して、該部位ごとに判定を行うことを含む点に注意されたい。   As described above, as a preferable mode, when different characteristics exist for each part of the inspection object, preparation of a determination data map for each part has been described. However, it should be noted that the present invention includes preparing a determination data map for each part of the inspection object and making a determination for each part even when different features do not appear for each part.

第1および第2の判定データマップの作成手法、およびこれらのマップを用いて表面状態を判定する手法については、後述される。   A method of creating the first and second determination data maps and a method of determining the surface state using these maps will be described later.

傷その他の表面状態を判定する処理のフロー
図9は、この発明の一実施例におけるギア歯面1枚について、傷その他の表面状態を判定する処理の流れを示すフローチャートであり、ギアのすべての歯面についての該判定が終わるまでこの処理が連続的に実行される。ギア11を図1の回転テーブルに取り付け、照明装置19を起動させてから処理に入る。ステップS101でギア11のすべてのギア歯面が検査されたかどうかを判定し、未了であればステップS103に移る。すべてのギア歯面が検査されたかどうかの判定は、ギア11の歯数をカウンタにセットしておき、1つの歯についての処理が終了するごとにカウンタをデクリメントし、このカウンタの値を点検することによって行う。
Scratches flow of processing for determining other surface conditions Figure 9, for one gear tooth surfaces in the embodiment of the present invention, a flow chart showing a flow of a process for determining the damage or other surface conditions, all of the gears This process is continuously executed until the determination on the tooth surface is completed. The gear 11 is attached to the rotary table of FIG. In step S101, it is determined whether or not all gear tooth surfaces of the gear 11 have been inspected. If incomplete, the process proceeds to step S103. To determine whether all gear tooth surfaces have been inspected, the number of teeth of the gear 11 is set in the counter, and the counter is decremented each time processing for one tooth is completed, and the value of this counter is checked. By doing.

ステップS103では、ギア11を一歯分、回転させる。位置決めセンサ18がギア歯を検出し、コンピュータ23に検出信号を送る。コンピュータ23のタイミング部24が、位置決めセンサ18からの信号に応じてカメラ21に駆動信号を送る。カメラ21は、これに応じてステップS105でギア11を撮影し、その画像を画像処理用パーソナル・コンピュータ23に送る。撮影回数が1であるとき(S107)、すなわちギア11の最初の歯の撮影をしたばかりのときは、差分画像を用いた画像処理ができないので、この画像は保存しておき、次の歯を撮影するため後続のステップをスキップして初回の処理を終わり、再度、スタートから処理に入る。   In step S103, the gear 11 is rotated by one tooth. The positioning sensor 18 detects the gear teeth and sends a detection signal to the computer 23. The timing unit 24 of the computer 23 sends a drive signal to the camera 21 in accordance with a signal from the positioning sensor 18. In response to this, the camera 21 captures the gear 11 in step S105, and sends the image to the image processing personal computer 23. When the number of photographing is 1 (S107), that is, when the first tooth of the gear 11 has just been photographed, image processing using the difference image cannot be performed, so this image is saved and the next tooth is stored. In order to take a picture, the subsequent steps are skipped, the first process is completed, and the process starts again from the start.

ステップS109では、上述したように2つの連続する歯の画像から差分画像を生成し、潜在的傷領域31(図3)を囲む検査領域33を設定する。次にステップS111では、図7に関連して説明したように差分画像から特徴ベクトルを抽出する。ステップS113では、判定データマップを選択するためのルーチンを実行する。ステップS115では、選択された判定データマップを用いて、傷その他の表面状態の判定を行う。   In step S109, as described above, a difference image is generated from two consecutive tooth images, and an examination region 33 surrounding the potential wound region 31 (FIG. 3) is set. In step S111, a feature vector is extracted from the difference image as described with reference to FIG. In step S113, a routine for selecting a determination data map is executed. In step S115, scratches and other surface conditions are determined using the selected determination data map.

図10は、図9のステップS113で実施されるルーチンのフローチャートを示す。ステップS121では、検査領域33の位置情報を取得する。ステップS122では、検査領域33の位置情報に基づき、検査領域33が中央領域Aに属するのか、端領域Bに属するのかを判別する。中央領域Aに属する場合には、ステップS123において、第1の判定データマップを選択する。端領域Bに属する場合には、ステップS124において、第2の判定データマップを選択する。こうして、検査領域33が中央領域Aに属する場合には、第1の判定データマップを用いて傷その他の表面状態の判定を実施し、端領域Bに属する場合には、第2の判定データマップを用いて傷その他の表面状態の判定を実施する。   FIG. 10 shows a flowchart of the routine executed in step S113 of FIG. In step S121, the position information of the inspection area 33 is acquired. In step S122, based on the position information of the inspection region 33, it is determined whether the inspection region 33 belongs to the central region A or the end region B. If it belongs to the central area A, the first determination data map is selected in step S123. If it belongs to the end region B, the second determination data map is selected in step S124. Thus, when the inspection area 33 belongs to the central area A, the first determination data map is used to determine scratches and other surface conditions. When the inspection area 33 belongs to the end area B, the second determination data map is used. Use to determine the surface condition of the scratches.

判定データマップの生成
次に、ニューラルネットワークを用いた自己組織化学習によって判定データマップを生成する手法、および該判定データマップを用いて傷その他の表面状態を判定する手法を説明する。
Generation of Determination Data Map Next, a method for generating a determination data map by self-organization learning using a neural network and a method for determining scratches and other surface states using the determination data map will be described.

この実施例では、40×40 のニューロンを用いて自己組織化マップを生成する。図11は、3つのニューロンNj-1、Nj、Nj+1を示す。ωj=(ωj0、ωj1、・・・、ωjm )は、ニューロンNjの結合係数ベクトルであり、χ=(χ0、χ1、・・・、χm )は、入力ベクトルである。この実施例での入力ベクトルは、複数のサンプルの検査領域33について、特徴抽出部29(図2)により抽出された特徴ベクトルである。 In this embodiment, 40 × 40 neurons are used to generate a self-organizing map. FIG. 11 shows three neurons N j−1 , N j , N j + 1 . ω j = (ω j0 , ω j1 ,..., ω jm ) is a coupling coefficient vector of the neuron N j , and χ = (χ 0 , χ 1 ,..., χ m ) is an input vector is there. The input vector in this embodiment is a feature vector extracted by the feature extraction unit 29 (FIG. 2) for a plurality of sample inspection areas 33.

自己組織化マップは、自己組織化特徴マップとも呼ばれ、教師なしアルゴリズムに基づいて生成される。このマップは、入力データ中の隠れた特徴を抽出して自動的に学習を行い、該入力データに対して選択的に反応するマップを生成する。自己組織化マップは、コホーネン(Kohonen)が提案したもので、たとえば産業図書株式会社発行の「ニューロ・ファジイ・遺伝的アルゴリズム」1994年、に解説されている。   The self-organizing map is also called a self-organizing feature map, and is generated based on an unsupervised algorithm. This map automatically learns by extracting hidden features in the input data, and generates a map that selectively reacts to the input data. The self-organizing map was proposed by Kohonen and explained in, for example, “Neuro Fuzzy Genetic Algorithm” published in 1994 by Sangyo Tosho Co., Ltd.

この実施例では、第1の判定データマップは、第1の自己組織化マップに基づいて生成され、第2の判定データマップは、第2の自己組織化マップに基づいて生成される。第1の自己組織化マップの生成と第2の自己組織化マップの生成とでは、入力ベクトルが異なる。サンプルの検査領域33が中央領域Aに設定されたならば、該検査領域33の特徴ベクトルは第1の自己組織化マップに入力される。サンプルの検査領域33が端領域Bに設定されたならば、該検査領域33の特徴ベクトルは第2の自己組織化マップに入力される。しかしながら、第1および第2の自己組織化マップは、以下に示すステップに従い、同じ手法で生成される。したがって、以下の説明において「判定データマップ」というときは、第1および第2の判定データマップのいずれでもよいことを示すものとする。   In this embodiment, the first determination data map is generated based on the first self-organization map, and the second determination data map is generated based on the second self-organization map. The input vector is different between the generation of the first self-organizing map and the generation of the second self-organizing map. If the sample inspection region 33 is set to the central region A, the feature vector of the inspection region 33 is input to the first self-organizing map. If the sample inspection region 33 is set to the end region B, the feature vector of the inspection region 33 is input to the second self-organizing map. However, the first and second self-organizing maps are generated in the same manner according to the steps shown below. Therefore, in the following description, “determination data map” indicates that either the first or second determination data map may be used.

1)ステップ1:ネットワーク初期化:
ニューロンの結合ベクトルωj=(ωj0、ωj1、・・・、ωjm )をすべてのニューロンについて乱数を用いて決定する。
1) Step 1: Network initialization:
The neuron connection vector ω j = (ω j0 , ω j1 ,..., Ω jm ) is determined for all neurons using random numbers.

2)ステップ2:入力ベクトル入力:
入力ベクトルχ=(χ0、χ1、・・・、χm )をそれぞれのニューロンに与える。各ニューロンと入力ベクトルとの関係は図9に示すとおりである。
2) Step 2: Input vector input:
An input vector χ = (χ 0 , χ 1 ,..., Χ m ) is given to each neuron. The relationship between each neuron and the input vector is as shown in FIG.

3)ステップ3:ニューロンの結合係数ベクトルと入力ベクトルの距離計算:
それぞれのニューロンの結合ベクトルと入力ベクトルとの距離を次の式により計算する。

Figure 0004018091
3) Step 3: Calculate distance between neuron coupling coefficient vector and input vector:
The distance between the connection vector of each neuron and the input vector is calculated by the following equation.
Figure 0004018091

4)ステップ4:勝者ニューロン決定:
距離dj が最小となるニューロンを選定する。このニューロンを勝者ニューロンと呼び、j*で表す。
4) Step 4: Determine winner neuron:
The neuron with the smallest distance d j is selected. This neuron is called the winner neuron and is represented by j *.

5)ステップ5:結合係数ベクトルの学習:
勝者ニューロンとその近傍のニューロンのそれぞれの結合係数(重み)を次の式に従い更新する。

Figure 0004018091
5) Step 5: Learning coupling coefficient vectors:
The coupling coefficients (weights) of the winner neuron and nearby neurons are updated according to the following formula.
Figure 0004018091

ηは、正の定数で、この実施例では0.05とする。h(j,j*)は、近傍関数と呼ばれ、次の式で表される。

Figure 0004018091
η is a positive constant and is 0.05 in this embodiment. h (j, j *) is called a neighborhood function and is represented by the following equation.
Figure 0004018091

σ(t)は学習経過とともに小さくなっていく。したがって、近傍関数の範囲は、図12に円で示すように学習の初期は広く、学習の進行とともに狭くなっていく。つまり、学習の進行とともに粗調整から微調整へと変化する。このように近傍関数は、マップを効果的に生成させる。図12は、勝者ニューロンを小さい円91で示し、これを囲む近傍関数を大きい円93で表している。   σ (t) decreases as the learning progresses. Accordingly, the range of the neighborhood function is wide at the initial stage of learning, as indicated by a circle in FIG. 12, and becomes narrower as the learning progresses. In other words, the coarse adjustment changes to the fine adjustment as the learning progresses. Thus, the neighborhood function effectively generates a map. FIG. 12 shows the winner neuron as a small circle 91, and the neighborhood function surrounding it is represented as a large circle 93.

6)ステップ6:t更新、入力ベクトル入力にもどる:
学習回数tをt+1に更新し、ステップ2の入力ベクトルの入力にもどり、ステップ2〜6を繰り返し、結合係数ベクトルの更新を繰り返す。
6) Step 6: t update, return to input vector input:
The learning count t is updated to t + 1, the input vector input in step 2 is returned, and steps 2 to 6 are repeated to repeatedly update the coupling coefficient vector.

自己組織化マップでは、勝者ニューロンとその近くのニューロンはすべてその時の入力ベクトルに近づく。学習の初期は、近傍関数によって多くのニューロンが近くとみなされ、おおまかなマップが形成される。学習の進行とともに近傍関数によって勝者ニューロンの近くとみなされるニューロン数が少なくなる。そのため、局所的な微調整が進み、空間的な解像度が上がる。   In the self-organizing map, the winner neuron and nearby neurons all approach the current input vector. At the beginning of learning, many neurons are considered to be close by the neighborhood function, and a rough map is formed. As the learning progresses, the number of neurons considered to be close to the winner neuron by the neighborhood function decreases. For this reason, local fine adjustment progresses and spatial resolution increases.

複数のサンプルについて取得した、傷その他の表面状態または過検出を含む検査領域33の特徴ベクトルをすべて順番に、またはランダムに選択して自己組織化マップに入力して学習させることで、入力した特徴ベクトルの類似関係を反映した自己組織化マップを生成することができる。すなわち、類似した特徴を持つクラスタが自己組織化マップ上で寄り集まる結果になる。   Features obtained by learning by selecting all the feature vectors of the examination area 33 including scratches and other surface states or over-detection obtained for a plurality of samples in order or randomly and inputting them into a self-organizing map A self-organizing map reflecting the similarity of vectors can be generated. That is, a cluster having similar characteristics gathers on the self-organizing map.

図13は、このようにして得られた自己組織化マップを示す。実施例では、40×40のニューロンを用いたが、図13では簡単のために20×20のマップとして示す。図13でそれぞれの升目が一つのニューロンに対応する。実線で区切られた(1)、(2)、・・・(28)のブロックは、次のようにして決定されたクラスタを表す。   FIG. 13 shows the self-organizing map obtained in this way. In the embodiment, 40 × 40 neurons are used, but in FIG. 13, a 20 × 20 map is shown for simplicity. In FIG. 13, each grid corresponds to one neuron. Blocks (1), (2),... (28) separated by solid lines represent clusters determined as follows.

自己組織化マップのそれぞれのニューロン位置に、その結合係数ベクトルとの距離が最も小さい特徴ベクトルを有する検査領域33の画像を配置する。この検査領域33は、自己組織化マップの生成に使用された複数のサンプルのうちの一つである。同じ画像を有する隣接するニューロンを選択してグループ化する。こうして形成されたニューロンのグループをクラスタと呼ぶ。ここでのグループ化は、既存の描画プログラムで使われているグループ化機能と同じで、グループ化されたニューロンは、グループ全体として選択し、プロパティを設定することができる。   An image of the examination region 33 having a feature vector having the smallest distance from the coupling coefficient vector is arranged at each neuron position of the self-organizing map. The examination area 33 is one of a plurality of samples used for generating the self-organizing map. Adjacent neurons with the same image are selected and grouped. A group of neurons formed in this way is called a cluster. The grouping here is the same as the grouping function used in the existing drawing program, and the grouped neurons can be selected as a whole group and the properties can be set.

次いで、それぞれのクラスタに配置された画像を目視で確認して、この検査領域33に含まれるのが傷その他の表面状態であるのか、あるいは表面ムラのような過検出であるのかを判定する。この判定結果をクラスタのプロパティとして設定する。具体的には、初期状態としてすべてのクラスタのプロパティ・フィールドに「過検出」が入力されている状態で、コンピュータのディスプレイ上に自己組織化マップを表示し、傷と判定されたクラスタをマウスで右クリックして「傷」に変更入力する。このようにクラスタ単位でニューロンを分類することができるので、作業時間を短縮することができる。   Next, the images arranged in the respective clusters are visually confirmed, and it is determined whether the inspection region 33 includes a surface condition such as a scratch or an overdetection such as surface unevenness. This determination result is set as a cluster property. Specifically, with “Overdetection” entered in the property fields of all clusters as the initial state, a self-organizing map is displayed on the computer display, and the clusters determined to be scratched are displayed with the mouse. Right-click and change and enter “Scratch”. Since neurons can be classified in cluster units in this way, working time can be shortened.

図14は、こうしてクラスタが分類されたマップ(判定データマップ)を示す。図においてハッチングを施されたクラスタ(1)、(2)、(6)、(10)、(11)、(12)、(13)、(15)、(16)、(22)、(27)、(28)が「傷」に分類されたクラスタであり、ハッチングのないクラスタが「過検出」のクラスタである。この判定データマップをコンピュータ23(図2)の記憶装置に登録し、これが、判定部30によって傷の判定に使用される。   FIG. 14 shows a map (determination data map) in which clusters are classified in this way. In the figure, hatched clusters (1), (2), (6), (10), (11), (12), (13), (15), (16), (22), (27 ), (28) are clusters classified as “scratches”, and clusters without hatching are “overdetected” clusters. This determination data map is registered in the storage device of the computer 23 (FIG. 2), and this is used by the determination unit 30 for determination of scratches.

この実施例では、第1の自己組織化マップに基づいて第1の判定データマップが生成されてコンピュータ23の記憶装置に登録され、第2の自己組織化マップに基づいて第2の判定データマップが生成されコンピュータ23の記憶装置に登録される。第1の判定データマップは、ギアの中央領域に適合したマップであり、第2の判定データマップは、ギアの端領域に適合したマップである。 In this embodiment, a first determination data map is generated based on the first self-organizing map and registered in the storage device of the computer 23, and the second determination data map is based on the second self-organizing map. Is generated and registered in the storage device of the computer 23. The first determination data map is a map adapted to the central region of the gear, and the second determination data map is a map adapted to the end region of the gear.

判定データマップを用いた傷その他の表面状態の判定
判定部30によって実施される、傷その他の表面状態を判定する具体的手法について説明する。第1および第2の判定データマップのいずれについても、同様の手法に従って判定が実施される。判定部30は、特徴抽出部29から受け取った特徴ベクトルと、検査領域33の位置情報に従って選択された判定データマップの結合係数ベクトルとの距離を求める。この距離は、上に示した[数5]に従って算出される。この距離が小さい順にニューロンを選択し、予め定めた数、たとえば10個以下のニューロンを選び、これを囲む円または楕円を近傍領域とする。判定データマップの生成過程から明らかなように、結合係数ベクトルが近似したニューロンがクラスタとしてグループ化されているので、上記のようにして距離が小さい順にニューロンを選択すると、互いに隣接したニューロンのかたまりが選択される。このニューロンのかたまりを囲む円または楕円を近傍領域とする。たとえば、図15を参照すると、円57が近傍領域を規定している。
A specific method for determining scratches and other surface states performed by the determination / determination unit 30 for scratches and other surface states using the determination data map will be described. For both the first and second determination data maps, the determination is performed according to the same method. The determination unit 30 obtains the distance between the feature vector received from the feature extraction unit 29 and the coupling coefficient vector of the determination data map selected according to the position information of the inspection region 33. This distance is calculated according to [Equation 5] shown above. Neurons are selected in ascending order of the distance, a predetermined number, for example, 10 or less neurons are selected, and a circle or ellipse surrounding them is set as a neighborhood region. As is clear from the generation process of the decision data map, the neurons that approximate the coupling coefficient vector are grouped as a cluster, so if you select a neuron in ascending order of distance as described above, a cluster of adjacent neurons is formed. Selected. A circle or ellipse surrounding this cluster of neurons is defined as a neighborhood region. For example, referring to FIG. 15, a circle 57 defines the neighborhood region.

円57は、選択されたニューロンのかたまりの判定データマップ上の配列からこれらのニューロンのかたまりの中心位置を求め、この中心からこのニューロンの固まりの最も遠くにあるニューロンまでの距離を半径とする円として求めることができる。   A circle 57 obtains the center position of the cluster of these neurons from the array on the determination data map of the selected cluster of neurons, and a circle having a radius from this center to the farthest neuron of the cluster of neurons. Can be obtained as

こうして選ばれた円または楕円で規定される近傍領域に含まれる傷クラスタに属するニューロンの数(K)と近傍領域内のニューロンの総数(S)との比、(K)/(S)に基づいて傷の判定を行う。(K)/(S)≧D のとき、傷と判定し、(K)/(S)<D のとき、過検出と判定する。Dは予め設定したしきい値であり、たとえば0.5である。このようにして、傷その他の表面状態と過検出とを判別する。図15の例では、円57の中に傷クラスタ(12)に属するニューロンが7個あり、円57内のニューロンの総数は、12であるので、(K)/(S) = 8/12 = 0.67 であり、よって、今回の検査領域33に含まれているのは、傷であると判定される。   Based on the ratio (K) / (S) of the number of neurons (K) belonging to the wound cluster included in the neighboring area defined by the circle or ellipse thus selected and the total number of neurons (S) in the neighboring area Check for scratches. When (K) / (S) ≧ D, it is judged as a scratch, and when (K) / (S) <D, it is judged as overdetection. D is a preset threshold value, for example, 0.5. In this way, the scratch and other surface conditions and overdetection are discriminated. In the example of FIG. 15, since there are seven neurons belonging to the wound cluster (12) in the circle 57 and the total number of neurons in the circle 57 is 12, (K) / (S) = 8/12 = Therefore, it is determined that a flaw is included in the current examination region 33.

自己組織化マップの更新
上述の判定データマップを用いたコンピュータによる自動判定により傷ありと判定されたギアの歯面を目視で検査して、傷を確認する。自動判定により過検出と判定されたギアの歯面についても同様に目視で検査し、確認することができる。こうして、最終的に傷その他の表面状態があると判定されたギア歯面の検査領域の特徴ベクトルを、クラスタ化する前の自己組織化マップに入力して学習させる。このとき、自己組織化マップのニューロンの結合係数ベクトルの初期値は、過去の学習で生成された最新の結合係数ベクトルを用いる。
Update of Self-Organizing Map The tooth surface of the gear determined to be flawed by automatic determination by a computer using the above-described determination data map is visually inspected to confirm the flaw. Similarly, the tooth surface of the gear determined to be overdetected by automatic determination can be visually inspected and confirmed. Thus, the feature vector of the inspection region of the gear tooth surface finally determined to have a scratch or other surface condition is input to the self-organization map before clustering to be learned. At this time, the initial value of the coupling coefficient vector of the neurons of the self-organizing map uses the latest coupling coefficient vector generated by past learning.

こうして自己組織化マップを更新し、再度上述のクラスタ化処理を実行する。これによって、既存の種類の傷の検出精度を低下させることなく、新しい種類の傷または過検出に対応したクラスタを生成し、判定データマップを生成することができる。更新された判定データマップを使用することにより、検査精度を向上させることができる。この更新処理には、過去に得られた結合係数ベクトルを用いるので、短い学習時間で判定データマップを更新することができる。   In this way, the self-organizing map is updated, and the above-described clustering process is executed again. Accordingly, a cluster corresponding to a new type of flaw or overdetection can be generated and a determination data map can be generated without reducing the detection accuracy of existing types of flaws. By using the updated determination data map, the inspection accuracy can be improved. In this update process, since the coupling coefficient vector obtained in the past is used, the determination data map can be updated in a short learning time.

以上この発明を具体的な実施例について説明したが、この発明はこのような実施例に限定されるものではない。   Although the present invention has been described with respect to specific embodiments, the present invention is not limited to such embodiments.

この発明の一実施例に従う、ギア歯面の撮影装置の全体的構成を示す構成図。The block diagram which shows the whole structure of the imaging device of a gear tooth surface according to one Example of this invention. この発明の一実施例に従う、画像処理コンピュータの全体的構成を示す機能ブロック図。1 is a functional block diagram showing an overall configuration of an image processing computer according to one embodiment of the present invention. この発明の一実施例に従う、潜在的傷領域と検査領域の関係を示す図。The figure which shows the relationship between a potential flaw area | region and a test | inspection area | region according to one Example of this invention. この発明の一実施例に従う、検査領域の位置情報を示す図。The figure which shows the positional information on a test | inspection area | region according to one Example of this invention. この発明の一実施例に従う、エントロピーの異なる輝度値ヒストグラムを示す図。The figure which shows the luminance value histogram from which entropy differs according to one Example of this invention. この発明の一実施例に従う、アニソトロピーの異なる輝度値ヒストグラムを示す図。The figure which shows the luminance value histogram from which anisotropy differs according to one Example of this invention. この発明の一実施例に従う、特徴ベクトルを示す図。The figure which shows the feature vector according to one Example of this invention. この発明の一実施例に従う、ギアの中央領域および端領域を示す図。The figure which shows the center area | region and end area | region of a gear according to one Example of this invention. この発明の一実施例に従う、ギア歯面の傷を判定する処理の流れを示すフローチャート。The flowchart which shows the flow of the process which determines the damage | wound of a gear tooth surface according to one Example of this invention. この発明の一実施例に従う、判定データマップを選択する処理の流れを示すフローチャート。The flowchart which shows the flow of the process which selects the determination data map according to one Example of this invention. この発明の一実施例に従う、ニューラルネットワークの部分的な構成を示す図。The figure which shows the partial structure of the neural network according to one Example of this invention. この発明の一実施例に従う、自己組織化マップの生成過程を示す図。The figure which shows the production | generation process of the self-organization map according to one Example of this invention. この発明の一実施例に従う、クラスタに区分けした自己組織化マップを示す図。The figure which shows the self-organization map divided into the clusters according to one Example of this invention. この発明の一実施例に従う、自己組織化マップから生成した判定データマップを示す図。The figure which shows the determination data map produced | generated from the self-organization map according to one Example of this invention. この発明の一実施例に従う、判定データマップを用いた傷判定を説明するための図。The figure for demonstrating the damage | wound determination using the determination data map according to one Example of this invention.

符号の説明Explanation of symbols

11 ギア
19 照明装置(LED)
21 カメラ
23 コンピュータ
11 Gear 19 Lighting device (LED)
21 Camera 23 Computer

Claims (6)

検査対象物のを判定する装置であって、
前記対象物の予め定めた第1および第2の部位について、該第1部位におけるを学習した第1の判定データマップおよび該第2の部位における傷を学習した第2の判定データマップを記憶する記憶手段と、
前記対象物を撮像する撮像手段と、
前記撮像手段から取得した前記対象物の画像において、他の領域に対し予め定めたしきい値を超える輝度差を有する要判定領域を含むよう検査領域を設定する手段と、
前記検査領域から特徴ベクトルを抽出する手段と、
前記検査領域が前記第1の部位に属すると判断したならば前記第1の判定データマップを選択し、前記検査領域が前記第2の部位に属すると判断したならば前記第2の判定データマップを選択する手段と、
前記特徴ベクトルを前記選択された第1または第2の判定データマップに入力して、該検査領域におけるを判定する判定手段と、を備え、
前記第1の部位は、前記検査領域全体にわたって前記対象物が撮像されると共に、該対象物の背景の画像を含まない部位であり、前記第2の部位は、前記検査領域の一部に前記対象物が撮像されると共に、残りの部分に該背景の画像を含む部位である、
装置。
An apparatus for determining scratches on an inspection object,
For the first and second sites predetermined for the object, storing a second judgment data map learned the first determination data map and wound at the site of the second learned scratches in said first region Storage means for
Imaging means for imaging the object;
Means for setting an inspection region to include a determination required region having a luminance difference exceeding a predetermined threshold with respect to another region in the image of the object acquired from the imaging unit;
Means for extracting a feature vector from the inspection region;
If it is determined that the examination region belongs to the first part, the first judgment data map is selected. If it is judged that the examination area belongs to the second part, the second judgment data map is selected. Means for selecting
Determination means for inputting the feature vector into the selected first or second determination data map and determining a flaw in the inspection region; and
The first part is a part in which the object is imaged over the entire examination area and does not include an image of the background of the object, and the second part is a part of the examination area. The object is imaged, and the remaining part includes the background image.
apparatus.
前記対象物はギアであり、
前記第1の部位は、該ギアの中央部分であり前記第2の部位は、該ギアの端部分である、
請求項1に記載の装置。
The object is a gear;
The first portion is a central portion of the gear , and the second portion is an end portion of the gear .
The apparatus of claim 1.
前記対象物の予め定めた第1および第2の部位について、前記第1および第2の判定データマップをそれぞれ生成する手段を備えており、該生成する手段は、さらに、
(a)前記対象物の第1および第2の部位のそれぞれについて、自己組織化マップを定義する手段と、
(b)前記対象物について、前記検査領域の複数のサンプルを用意し、該複数のサンプルの検査領域のそれぞれについて、
(b−1)該検査領域から特徴ベクトルを抽出し、
(b−2)前記対象物の予め定めた第1および第2部位のうち、前記検査領域が属する部位を判断して、該部位に対応する自己組織化マップを選択し、
(b−3)前記(b−1)で抽出した特徴ベクトルを、前記選択した自己組織化マップに入力し、学習させる手段と、
(c)前記学習した自己組織化マップにおいて、同じ前記サンプルのそれぞれに対応し、かつ隣接するニューロンをグループ化して、クラスタにする手段と、
(d)前記クラスタが傷に対応するものかそうでないものかについてユーザが入力する判定結果に応じて、該クラスタを傷に対応するものとそうでないものとに分類することにより、前記第1および第2の判定データマップを生成する手段と、
を備える、請求項1に記載の装置。
For the first and second sites predetermined of said object, said comprises a first and second judgment data map means for generating respectively a means for the generation further,
(A) means for defining a self-organizing map for each of the first and second parts of the object;
(B) For the object, preparing a plurality of samples in the inspection area, and for each of the inspection areas of the plurality of samples,
(B-1) extracting a feature vector from the inspection region;
(B-2) Of the predetermined first and second parts of the object, determine a part to which the examination region belongs, and select a self-organizing map corresponding to the part;
(b-3) means for inputting and learning the feature vector extracted in (b-1) to the selected self-organizing map;
(C) means for grouping adjacent neurons into clusters that correspond to each of the same samples in the learned self-organizing map;
(D) classifying the cluster into one corresponding to a flaw and one not corresponding to a flaw according to a determination result input by a user as to whether the cluster corresponds to a flaw or not, and Means for generating a second determination data map;
The apparatus of claim 1, comprising:
コンピュータに、検査対象物のを判定させるコンピュータ・プログラムであって、
前記コンピュータは、前記対象物の予め定めた第1および第2の部位について、該第1の部位におけるを学習した第1の判定データマップおよび該第2の部位における傷を学習した第2の判定データマップを記憶する記憶装置を備えており、
撮像装置により撮像された前記対象物の画像において、他の領域に対し予め定めたしきい値を超える輝度差を有する要判定領域を含むよう検査領域を設定する機能と、
前記検査領域から特徴ベクトルを抽出する機能と、
前記検査領域が前記第1の部位に属すると判断したならば前記第1の判定データマップを選択し、前記検査領域が前記第2の部位に属すると判断したならば前記第2の判定データマップを選択する機能と、
前記特徴ベクトルを前記選択された第1または第2の判定データマップに入力して、該検査領域におけるを判定する機能と、を前記コンピュータに実現させ、
前記第1の部位は、前記検査領域全体にわたって前記対象物が撮像されると共に、該対象物の背景の画像を含まない部位であり、前記第2の部位は、前記検査領域の一部に前記対象物が撮像されると共に、残りの部分に該背景の画像を含む部位である、
コンピュータ・プログラム。
A computer program that causes a computer to determine a scratch on an inspection object,
The computer, the first and second sites predetermined of said object, said first judgment data map and a second learned the wound at the site of the second learned wounds at the first site A storage device for storing the judgment data map ;
A function of setting an inspection region to include a determination required region having a luminance difference exceeding a predetermined threshold with respect to another region in the image of the object imaged by the imaging device;
A function of extracting a feature vector from the inspection region;
If it is determined that the examination region belongs to the first part, the first judgment data map is selected. If it is judged that the examination area belongs to the second part, the second judgment data map is selected. With the ability to select
The Enter the feature vector to the first or second judgment data map that is the selected, a function of determining flaw in the examination region, was implemented in the computer,
The first part is a part in which the object is imaged over the entire inspection region and does not include a background image of the object, and the second part is a part of the inspection region. The object is imaged, and the remaining part includes the background image.
Computer program.
前記検査対象物はギアであり、前記第1の部位は、該ギアの中央部分であり、前記第2の部位は、該ギアの端部分である、
請求項に記載のコンピュータ・プログラム。
The inspection object is a gear, the first portion is a central portion of the gear, and the second portion is an end portion of the gear.
The computer program according to claim 4 .
前記対象物の予め定めた第1および第2の部位について、前記第1および第2のデータマップをそれぞれ生成する機能をさらに備えており、該生成する機能は、さらに、
(a)前記対象物の第1および第2の部位のそれぞれについて、自己組織化マップを定義する機能と、
(b)前記対象物について、前記検査領域の複数のサンプルを用意し、該複数のサンプルの検査領域のそれぞれについて、
(b−1)該検査領域から特徴ベクトルを抽出し、
(b−2)前記対象物の予め定めた第1および第2の部位のうち、前記検査領域が属する部位を判断して、該部位に対応する自己組織化マップを選択し、
(b−3)前記(b−1)で抽出した特徴ベクトルを、前記選択した自己組織化マップに入力し、学習させる機能と、
(c)前記学習した自己組織化マップにおいて、同じ前記サンプルのそれぞれに対応し、かつ隣接するニューロンをグループ化して、クラスタにする機能と、
(d)前記クラスタが傷に対応するものかそうでないものかについてユーザが入力する判定結果に応じて、該クラスタを傷に対応するものとそうでないものとに分類することにより、前記第1および第2の判定データマップを生成する機能と、を備える、
請求項に記載のコンピュータ・プログラム。
For the predetermined first and second parts of the object, the device further includes a function of generating the first and second data maps, respectively , and the function of generating further includes
(A) a function of defining a self-organizing map for each of the first and second parts of the object;
(B) For the object, preparing a plurality of samples in the inspection area, and for each of the inspection areas of the plurality of samples,
(B-1) extracting a feature vector from the inspection region;
(B-2) Of the first and second predetermined parts of the object, determine a part to which the examination region belongs, and select a self-organizing map corresponding to the part;
(b-3) a function of inputting the feature vector extracted in (b-1) into the selected self-organizing map and learning the function vector;
(C) In the learned self-organizing map, a function corresponding to each of the same samples and grouping adjacent neurons into a cluster;
(D) classifying the cluster into one corresponding to a flaw and one not corresponding to a flaw according to a determination result input by a user as to whether the cluster corresponds to a flaw or not, and A function of generating a second determination data map ,
The computer program according to claim 4 .
JP2004228097A 2004-08-03 2004-08-04 Apparatus and program for determining surface condition Expired - Fee Related JP4018091B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2004228097A JP4018091B2 (en) 2004-08-04 2004-08-04 Apparatus and program for determining surface condition
US11/181,643 US20060029257A1 (en) 2004-08-03 2005-07-13 Apparatus for determining a surface condition of an object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004228097A JP4018091B2 (en) 2004-08-04 2004-08-04 Apparatus and program for determining surface condition

Publications (2)

Publication Number Publication Date
JP2006047098A JP2006047098A (en) 2006-02-16
JP4018091B2 true JP4018091B2 (en) 2007-12-05

Family

ID=36025814

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004228097A Expired - Fee Related JP4018091B2 (en) 2004-08-03 2004-08-04 Apparatus and program for determining surface condition

Country Status (1)

Country Link
JP (1) JP4018091B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11260534B2 (en) * 2018-04-04 2022-03-01 Canon Kabushiki Kaisha Information processing apparatus and information processing method
JP7176966B2 (en) * 2019-02-01 2022-11-22 株式会社キーエンス Image inspection device

Also Published As

Publication number Publication date
JP2006047098A (en) 2006-02-16

Similar Documents

Publication Publication Date Title
CN114723701B (en) Gear defect detection method and system based on computer vision
US20060029257A1 (en) Apparatus for determining a surface condition of an object
CN108629775B (en) Thermal state high-speed wire rod surface image processing method
JP5537282B2 (en) Defect inspection apparatus and defect inspection method
JP5965050B2 (en) Pixel scoring and adjustment based on neighborhood relations to reveal data in images
CN116664559B (en) Machine vision-based memory bank damage rapid detection method
JP4150390B2 (en) Appearance inspection method and appearance inspection apparatus
JP4725298B2 (en) Visual inspection method using images
JP5806786B1 (en) Image recognition device
JP2018152055A (en) System and method for scoring color candidate poses against color image in vision system
CN111353993A (en) Thread angle measuring method based on machine vision
JP7393313B2 (en) Defect classification device, defect classification method and program
CN108470338A (en) A kind of water level monitoring method
CN114926407A (en) Steel surface defect detection system based on deep learning
JP4018092B2 (en) A device that automatically determines the cause of a given surface condition of an inspection object
CN116977727A (en) Image processing-based gas combustion flame real-time monitoring method and system
WO2020175666A1 (en) Color filter inspection device, inspection device, color filter inspection method, and inspection method
CN116563276B (en) Chemical fiber filament online defect detection method and detection system
US7020323B2 (en) Pattern defect inspection apparatus and method
JP4018091B2 (en) Apparatus and program for determining surface condition
JP3890844B2 (en) Appearance inspection method
JP4157507B2 (en) Surface condition determination apparatus and program
JP4018089B2 (en) Method for generating data map for determining surface condition and determination method
JP6114559B2 (en) Automatic unevenness detector for flat panel display
CN115471494A (en) Wo citrus quality inspection method, device, equipment and storage medium based on image processing

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070314

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070403

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070531

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070918

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070919

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100928

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees