JP4018091B2 - Apparatus and program for determining surface condition - Google Patents
Apparatus and program for determining surface condition Download PDFInfo
- Publication number
- JP4018091B2 JP4018091B2 JP2004228097A JP2004228097A JP4018091B2 JP 4018091 B2 JP4018091 B2 JP 4018091B2 JP 2004228097 A JP2004228097 A JP 2004228097A JP 2004228097 A JP2004228097 A JP 2004228097A JP 4018091 B2 JP4018091 B2 JP 4018091B2
- Authority
- JP
- Japan
- Prior art keywords
- region
- inspection
- data map
- map
- gear
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
Description
この発明は、検査対象物の表面状態を画像分析により判定する技術に関する。 The present invention relates to a technique for determining the surface state of an inspection object by image analysis.
ギアその他の加工品の表面の傷その他の表面状態の検査は、目視によって行われることが多いが、作業が単純である反面、集中力を必要とし、困難な作業とされている。このため、目視に依存することなくギアその他の加工品の検査を行うことのできる装置が必要とされている。 Inspection of scratches and other surface conditions on the surface of gears and other processed products is often performed by visual inspection. However, while the operation is simple, it requires concentration and is difficult. Therefore, there is a need for an apparatus that can inspect gears and other processed products without depending on visual observation.
特許文献1には、ギア歯面を撮影し、得られた画像の輝度を評価してギア歯面の打痕等の傷の有無を判別する方法が記載されている。1つのギアについて所定の間隔をおいて検査すべきギア歯面およびその歯面と異なるギア歯面を撮影して、異なる歯面に関する実質的に同一方向からの複数の画像を作成し、画像間の輝度の差を表す差分画像を作成する。この差分画像を加算して加算画像を作成し、加算画像の輝度と基準値とを比較することにより、打痕の有無を判別する。 Japanese Patent Application Laid-Open No. 2004-228561 describes a method of determining the presence or absence of scratches such as dents on the gear tooth surface by photographing the gear tooth surface and evaluating the luminance of the obtained image. A gear tooth surface to be inspected and a gear tooth surface different from the tooth surface are photographed at a predetermined interval for one gear, and a plurality of images from substantially the same direction regarding the different tooth surfaces are created. A difference image representing a difference in luminance is generated. The difference image is added to create an added image, and the presence or absence of a dent is determined by comparing the luminance of the added image with a reference value.
特許文献2には、ニューラルネットワークを用いて対象物の画像から自己組織化マップを作成し、同じ画像に対応するニューロンのクラスタを形成し、このクラスタを用いて対象物の画像の認証を行う手法が記載されている。
特許文献1に記載される技術では、ギアその他の加工品の表面の色ムラや汚れなど傷ではないが他の画像領域と輝度の異なる領域(以下、過検出、または過検出領域と呼ぶ)を多く検出してしまい、この中から傷その他の表面状態を検出するために相当な目視作業を必要とすることになる。
In the technique described in
特許文献2に記載されている技術では、1つの自己組織化マップを用いて検査対象物を認識するので、十分な精度が得られないおそれがある。
In the technique described in
検査対象物の部位に依存して、該対象物の画像には、容易に判別することのできる異なる特徴が現れることがある。たとえば、検査対象物の端部分を撮影した画像には、その一部に該対象物とは異なるもの(たとえば、背景)が撮影されるのに対し、該対象物の中央部分を撮影した画像には、その画像領域全体にわたって該対象物が撮影されることがある。背景を含む画像と含まない画像とでは、傷その他の表面状態の有無にかかわらず、画像の特徴が明らかに異なる。このような、容易に判別することのできる異なる特徴を持つ画像に対し、同じ自己組織化マップを適用すると、検査対象物の表面状態を判定する精度が低下するおそれがある。 Depending on the part of the inspection object, different features that can be easily identified may appear in the image of the object. For example, an image obtained by photographing the end portion of the inspection object is an image obtained by photographing a central portion of the object, while a part (for example, a background) different from the object is photographed. The object may be photographed over the entire image area. The image features clearly differ between an image including a background and an image not including a background regardless of the presence or absence of a scratch or other surface condition. If the same self-organizing map is applied to such images having different features that can be easily discriminated, the accuracy of determining the surface state of the inspection object may be reduced.
検査対象物の表面状態を判定する精度を上げるためには、自己組織化マップのニューロンの数を増やすことが考えられる。しかしながら、ニューロンの数の増大は、判定処理に要する時間の増大を招く。 In order to improve the accuracy of determining the surface state of the inspection object, it is conceivable to increase the number of neurons in the self-organizing map. However, an increase in the number of neurons causes an increase in the time required for the determination process.
この発明は、目視による判定の労力を軽減させつつ、より効率的に表面状態を判定することのできる手法を提供する。 The present invention provides a technique that can more efficiently determine the surface state while reducing the visual determination effort.
この発明の表面状態判定装置は、一形態(請求項1)では、検査対象物の予め定めた複数の部位のそれぞれについて、該部位における所定の表面状態を学習したデータマップを記憶する記憶手段と、検査対象物を撮像する撮像手段と、撮像手段から取得した検査対象物の画像において、他の領域に対し予め定めたしきい値を超える輝度差を有する要判定領域を含むよう検査領域を設定する手段と、該検査領域から特徴ベクトルを抽出する手段と、検査対象物の複数の部位のうち、該検査領域が属する部位を判断して、該部位に対応するデータマップを選択する手段と、特徴ベクトルを該選択されたデータマップに入力して、該検査領域における所定の表面状態を判定する判定手段と、を備える。 In one form (Claim 1), the surface state determination apparatus of the present invention includes, for each of a plurality of predetermined portions of the inspection object, a storage unit that stores a data map obtained by learning a predetermined surface state in the portion. The inspection area is set so as to include a determination area having a luminance difference exceeding a predetermined threshold with respect to other areas in the imaging means for imaging the inspection object and the image of the inspection object acquired from the imaging means. Means for extracting a feature vector from the examination area, means for judging a part to which the examination area belongs among a plurality of parts of the examination object, and selecting a data map corresponding to the part; Determination means for inputting a feature vector into the selected data map and determining a predetermined surface state in the inspection region.
この発明によると、対象物の部位ごとに、傷、打痕、剥離など所定の表面状態を学習したデータマップを用いて、該部位の表面状態を判定するので、判定に要する時間を増やすことなく、部位ごとの判定を効率良く実施することができる。 According to the present invention, for each part of the object, the surface state of the part is determined using a data map obtained by learning a predetermined surface state such as scratches, dents, and peeling, so that the time required for the determination is not increased. The determination for each part can be performed efficiently.
この発明の一形態(請求項2)では、記憶手段は、検査領域全体にわたって検査対象物が撮像される部位の所定の表面状態を学習したデータマップと、検査領域の一部に検査対象物が撮像される部位の所定の表面状態を学習したデータマップとを記憶する。検査対象物が全体にわたって撮像されている場合とそうでない場合とでは、所定の表面状態の有無にかかわらず、検査領域の特徴が異なる。このように異なる特徴を持つ検査領域のそれぞれに適合したデータマップを用いることにより、個々のデータマップの容量を抑制することができる。データマップの容量が抑制されるので、判定に要する時間の増大を回避することができる。 In an embodiment of the present invention (Claim 2), the storage means stores a data map in which a predetermined surface state of a region where the inspection object is imaged over the entire inspection area and a part of the inspection area where the inspection object is present. A data map in which a predetermined surface state of a part to be imaged is learned is stored. The characteristics of the inspection region differ depending on whether the inspection object is imaged over the whole or not, regardless of the presence or absence of a predetermined surface state. By using a data map adapted to each of the inspection regions having different characteristics as described above, the capacity of each data map can be suppressed. Since the capacity of the data map is suppressed, an increase in time required for determination can be avoided.
この発明の一形態(請求項3)では、検査対象物はギアであり、記憶手段は、画像において該ギアが撮影されている領域の中央部分において所定の表面状態を学習したデータマップと、画像において該ギアが撮影されている領域の端部分において所定の表面状態を学習したデータマップとを記憶する。ギアの端部分を撮像した画像には、該ギアとは異なるものが撮像され、ギアの中央部分を撮像した画像には、該ギアが画像全体にわたって撮像されることがある。ギアの撮影領域の中央部分の表面状態と端部分の表面状態のそれぞれに適合したデータマップを用いることにより、個々のデータマップの容量を抑制することができる。データマップの容量が抑制されるので、判定に要する時間の増大を回避することができる。 In an embodiment of the present invention (Claim 3), the inspection object is a gear, and the storage means stores a data map in which a predetermined surface state is learned in a central portion of an area where the gear is photographed in the image, and an image. And a data map in which a predetermined surface state is learned at the end portion of the region where the gear is photographed. An image obtained by imaging the end portion of the gear may be imaged different from the gear, and an image obtained by imaging the central portion of the gear may be imaged over the entire image. By using a data map adapted to each of the surface state of the central portion and the end portion of the photographing region of the gear, the capacity of each data map can be suppressed. Since the capacity of the data map is suppressed, an increase in time required for determination can be avoided.
この発明の一形態(請求項4)では、検査対象物の複数の部位のそれぞれについて、データマップを生成する手段を備える。該データマップを生成する手段は、さらに、検査対象物の複数の部位のそれぞれについて、(a)自己組織化マップを定義する手段と、(b)検査対象物について、検査領域の複数のサンプルを用意し、該複数のサンプルの検査領域のそれぞれについて、1)該検査領域から特徴ベクトルを抽出し、2)検査対象物の複数の部位のうち、該検査領域が属する部位を判断して、該部位に対応する自己組織化マップを選択し、3)該抽出した特徴ベクトルを、該選択した自己組織化マップに入力して学習させる手段と、(c)学習した自己組織化マップにおいて、同じサンプルのそれぞれに対応し、かつ隣接するニューロンをグループ化してクラスタにする手段と、(d)クラスタのそれぞれを、所定の表面状態に対応するものとそうでないものとに分類して、データマップを生成する手段と、を備える。 In one form of this invention (Claim 4), it has a means to produce | generate a data map about each of several site | part of a test target object. The means for generating the data map further includes: (a) means for defining a self-organizing map for each of a plurality of parts of the inspection object; and (b) a plurality of samples in the inspection region for the inspection object. Preparing, for each of the plurality of sample inspection areas, 1) extracting a feature vector from the inspection area; 2) determining a part to which the inspection area belongs among a plurality of parts of the inspection object; A self-organizing map corresponding to the region is selected, 3) means for inputting the extracted feature vector into the selected self-organizing map and learning, and (c) the same sample in the learned self-organizing map Means for grouping adjacent neurons into clusters, and (d) each of the clusters corresponding to a predetermined surface state and not Are classified into, and means for generating a data map, the.
この発明によると、検査対象物のそれぞれの部位について、所定の表面状態を学習したデータマップが生成されるので、個々のデータマップの容量が抑制され、よって処理時間の増大を招くことなく、判定を実施することができる。特に、部位ごとに明らかに異なる特徴が撮像される対象物については、個々のデータマップの容量を抑制しつつ、部位ごとの判定を効率的に行うことができる。 According to the present invention, since a data map in which a predetermined surface state is learned is generated for each part of the inspection object, the capacity of each data map is suppressed, and thus determination without increasing processing time is performed. Can be implemented. In particular, with respect to an object in which features that are clearly different for each part are imaged, the determination for each part can be performed efficiently while suppressing the capacity of each data map.
次に図面を参照して、この発明の実施形態を説明する。図1は、検査の対象物がギア11であるときの撮像装置の構成を示す。ギア11は、回転テーブル15に取り付けられ、台座17に設けられた図示しないステップモータによってギア歯のピッチでステップ状に回転される。ギア11は、照明装置19によって照射されている。CMOSイメージセンサを備えたカメラ21が、ギア11の歯面を撮影する。撮影は、ギア11のステップ状の回転と同期して行われ、一歯回転するたびに、歯面ごとに静止画像が撮影される。一実施例では、照明装置19は、青色発光ダイオードを用いるが、ランプその他の照明装置を使用することもできる。また、カメラ21には、測定可能な輝度レンジの広いワイドダイナミックレンジCMOSカメラを用いることにより、傷の判定に適した良好な画像が得られる。対象物によっては、CCDイメージセンサを用いたカメラを使用することもできる。
Next, embodiments of the present invention will be described with reference to the drawings. FIG. 1 shows a configuration of an imaging apparatus when an object to be inspected is a
位置決めセンサ18は、一般に近接センサと呼ばれるもので、検出コイルにより高周波磁界を発生する。この磁界に金属の検出物体が近づくと電磁誘導により、検出物体に誘導電流(渦電流)が流れる。この電流によって検出コイルのインピーダンスが変化して、高周波の発振が停止することで、検出物体の接近を検出する。この実施例では、ギアの歯の山の接近をこの近接センサによって検出する。位置決めセンサ18からの信号は、コンピュータ23(図2)に送られ、タイミング部24が、該ギアの歯山の検出に応じて、カメラ21に信号を送る。カメラ21は、この信号に応答してギアを撮影する。
The
図2は、カメラ21で撮影した画像を処理するコンピュータ23の機能ブロックを示す。コンピュータ23は、パーソナル・コンピュータ、ワークステーションその他のコンピュータであってよい。コンピュータ23は、演算を実行するプロセッサ(CPU)、様々なデータおよびプログラムを記憶する記憶装置、ユーザが該プロセッサに処理をさせるためのデータを入力するマウスおよびキーボードなどの入力装置、および該プロセッサによる処理結果を表示する表示装置(ディスプレイ)、および該処理結果を出力するプリンタなどの出力装置を備えることができる。記憶装置は、ROMおよびRAMなどのメモリおよびディスク装置などの補助記憶装置を含むことができる。図の各機能ブロックによる処理は、プロセッサにより実行される。
FIG. 2 shows functional blocks of the
画像取得部25は、カメラ21から歯面ピッチごとに撮影される画像を受け取り、差分画像生成部27に渡す。差分画像生成部27は、今回取得した画像と、前回取得した画像、すなわち1ピッチ前のギア歯面の画像との差分をとる。傷その他の表面状態のないギアの歯面は、どれも実質的に同じであるから、差分をとると、全体的に輝度の小さい画像になる。ギア歯面に打痕および剥離などの傷がついていると、傷の部分の輝度が他の部分と異なるため、差分画像に大きな輝度の部分として現れる。
The
2つの画像の差分をとると、輝度値が負の値をとる画素があるので、差分の輝度値に中間輝度の128を加算して、すべての画素の輝度値を正の値にする。128を加算することによって輝度値が255を超える画素は、輝度値を255とし、128を加算しても負の値になる画素は、輝度値を0とする。こうして、差分画像の輝度値のレンジを0から255に整える。
When the difference between the two images is taken, there is a pixel having a negative luminance value, so that the
図3の(A)を参照すると、検査領域設定部28は、差分画像からしきい値より大きい輝度の領域を潜在的な傷領域31として検出し、この領域を囲む領域33を検査領域として設定する。検査領域33の形状は、この実施例では四角形であるが、その他の多角形であってもよく、または円形もしくは楕円形であってもよい。その大きさは、潜在的な傷領域31に応じて、傷領域31を囲むに十分な大きさに設定される。
Referring to FIG. 3A, the inspection
検査領域設定部28は、設定された検査領域33の位置情報を、コンピュータ23の記憶装置に記憶する。図4を参照すると、ギアの歯面を撮影した画像41の例が示されている。符号42は、該画像41に撮影されたギアを示す。画像41には、検査領域33が設定されている。ギアの歯幅はWであり、検査領域33の該歯幅方向に対する位置が、w’により特定されている。このように、検査領域33の位置情報は、ギアの歯幅方向の位置を含み、これが、コンピュータ23の記憶装置に記憶される。
The inspection
特徴抽出部29は、次の6つのパラメータを抽出する。
The
(1)潜在的な傷領域31の面積SA
検査領域を、縦軸をi、横軸をjとする座標で表示し、傷領域31の境界線の座標を用いた積分演算により面積SAを求める。
(1) Area S A of
The inspection area is displayed in coordinates with i as the vertical axis and j as the horizontal axis, and the area S A is obtained by integration calculation using the coordinates of the boundary line of the
(2)傷領域31を楕円近似したときの歯スジに対する長軸の傾きθA
ギアに生じることの多い打痕は、楕円近似することができる。図3の(B)において、図形の近似プログラムを用いて傷領域31を近似する楕円の近似式を求める。近似式は、既知のプログラムを用いて求めることができる。典型的には、多変量の非線形最小二乗法によるあてはめプログラムを用いて近似式を求める。こうして求めた楕円の長軸37とギアの歯スジ13(図1)に平行な直線35とのなす角度θAを求める。
(2) Long axis inclination θ A with respect to the tooth streak when the
A dent often occurring in a gear can be approximated to an ellipse. In FIG. 3B, an approximate equation of an ellipse that approximates the
(3)検査領域33の輝度値エントロピーentB
潜在的な傷領域31を含む検査領域33の輝度値のエントロピーを、次の式により求める。輝度値エントロピーは、輝度値分布の情報量を表し、情報量が大きいことは、輝度値分布の乱雑度が大きいことを表す。
The entropy of the luminance value of the
この実施例では、輝度値エントロピーとして、輝度値0から255までの輝度値分布の乱雑性を用いた。[数1]で、pは輝度値、rel[p]は、輝度値pの頻度である。
In this embodiment, the randomness of the luminance value distribution from
図5は、輝度値ヒストグラムの例を示す。打痕その他の傷を有するギア歯面の場合、その画像の差分の画像に傷が多様な輝度値をもつ画素領域として現れるので、輝度値エントロピーが大きい。図5の(A)は、種々の輝度値を有する画素がランダムに存在する画像の輝度値ヒストグラムである。中間輝度128を中心に広く輝度値が分布しており、エントロピーが大きい。図5の(B)は、輝度値のばらつきが小さい画像の輝度値ヒストグラムであり、エントロピーが小さい。
FIG. 5 shows an example of a luminance value histogram. In the case of a gear tooth surface having dents or other scratches, since the scratches appear as pixel areas having various brightness values in the difference image, the brightness value entropy is large. FIG. 5A is a luminance value histogram of an image in which pixels having various luminance values are present randomly. Brightness values are widely distributed around the
(4)検査領域33の輝度値アニソトロピーansB
検査領域33の輝度値のアニソトロピーは、次の式で表される。アニソトロピーは、輝度値分布の対称性の度合いを示す。
The anisotropy of the luminance value of the
この式で、kは、出現頻度が最小の輝度値である。つまり、ansBは、検査領域33における0から最小の輝度値までの輝度値エントロピーを、0から全輝度値のエントロピーで割った値である。輝度値分布が中間輝度値125の左右で対称のとき、ansB = -0.5 となる。ansB が-0.5に近づくほど対称性が高く、アニソトロピーが小さい。ansBが-0.5から離れて0または-1に近づくほど対称性が低く、アニソトロピーが大きい。
In this expression, k is a luminance value with the lowest appearance frequency. That is, ansB is a value obtained by dividing the luminance value entropy from 0 to the minimum luminance value in the
図6を参照すると、(A)のような輝度値ヒストグラムは、輝度値が中間値の128を中心として偏りなく分布しているので、対称性が高く、アニソトロピーは小さい。(B)の輝度値ヒストグラムは、中間値128の左側と右側で輝度値の分布が異なり、対称性が低く、アニソトロピーが大きい。(B)で出現頻度が最小の輝度値が230であるとすると、ansBが-1に近い値となる。
Referring to FIG. 6, the luminance value histogram as shown in FIG. 6A has a high luminance symmetry and a small anisotropy because the luminance values are distributed without any bias around the intermediate value of 128. In the luminance value histogram of (B), the luminance value distribution is different between the left side and the right side of the
(5)潜在的傷領域31の円形度CA
傷領域31の円形度CA は、次の式で表される。
Circularity C A wound
この式で、SA は、傷領域31の面積、rmax は、傷領域31の重心から領域33の端部までの最大距離である。
In this equation, S A is the area of the
(6)検査領域33のエッジ画像の平均輝度edgB
検査領域33の面積をSBで表すと、検査領域33のエッジ画像の平均輝度edgB は、次の式で求められる。
If represents the area of the
ここで、i、j は、画素の座標を示し、P(i,j)は、座標i, j の画素の輝度値を示す。ΔP(i,j) は、P(i,j) の上下(i軸方向)に隣接する2つの画素の輝度値の差分の二乗と、左右(j軸方向)に隣接する2つの画素の輝度値の差分の二乗との和の平方根である。ΔP(i,j)は、隣接する画素の輝度値の差分の大きさを表す。隣接画素の輝度値の差分をとることは、画像において輝度値の変化の大きいエッジ部分を強調した画像、すなわちエッジ画像、を生成することに相当する。edgB は、隣接画素の輝度値の差分の大きさの総和を領域33の面積で割ったもので、エッジ画像の平均輝度を示す。
Here, i and j indicate the coordinates of the pixel, and P (i, j) indicates the luminance value of the pixel at the coordinates i and j. ΔP (i, j) is the square of the difference between the luminance values of two pixels adjacent to the upper and lower sides (i-axis direction) of P (i, j) and the luminance of the two pixels adjacent to the left and right (j-axis direction) This is the square root of the sum of the difference squared. ΔP (i, j) represents the magnitude of the difference between the luminance values of adjacent pixels. Taking the difference between the luminance values of adjacent pixels corresponds to generating an image in which an edge portion having a large change in luminance value in the image is emphasized, that is, an edge image. edgB is obtained by dividing the sum of the magnitudes of the luminance values of adjacent pixels by the area of the
こうして求めた6つのパラメータのそれぞれについて、たくさんの検査領域のサンプルについての最大値および最小値を用いて、次の式により正規化する。 For each of the six parameters obtained in this way, normalization is performed according to the following equation using the maximum and minimum values for many samples in the inspection region.
正規化=(得られた値 ― 最小値)/(最大値 ― 最小値)
この正規化により、それぞれのパラメータは、0から1の範囲の値をとる。こうして、潜在的傷領域31を含む検査領域33は、6つの特徴パラメータの数値ベクトルで表すことができる。
Normalization = (obtained value-minimum value) / (maximum value-minimum value)
By this normalization, each parameter takes a value in the range of 0 to 1. Thus, the
図7は、こうして得られた特徴ベクトルを示す。図7の(A)は、打痕に対応する特徴ベクトルを示す。図7の(B)は、ギア歯面の色ムラ(過検出)の特徴ベクトルを示す。潜在的傷領域31の面積パラメータSA、楕円近似したときの長軸の傾きθA、およびアニソトロピーansB については両者の間に大きな相違はないが、輝度値エントロピーentB 、円形度CA、およびエッジ画像の平均輝度edgB について大きな相違があることがわかる。
FIG. 7 shows the feature vector thus obtained. FIG. 7A shows a feature vector corresponding to a dent. FIG. 7B shows a feature vector of color unevenness (overdetection) of the gear tooth surface. There is no significant difference between the area parameter S A of the
図2に戻ると、特徴抽出部29は、上述のようにして、検査領域33から上述の6つのパラメータからなる特徴ベクトルを抽出する。代替実施例では、特徴抽出部29は、検査領域の輝度値エントロピー、潜在的傷領域の円形度および検査領域のエッジ画像の平均輝度の3つのパラメータからなる特徴ベクトルを抽出する。
Returning to FIG. 2, the
判定部30は、検査領域設定部28によって設定された検査領域33の位置情報を、記憶装置から取得する。カメラ21およびギアが配置される台座17(図1)が固定されているので、取得画像においてギアが撮影される位置は予め決められており、よって検査領域の該位置情報は、該検査領域がギアのどの部位に属するかを示す。判定部30は、該位置情報に基づいて、検査領域33が、ギアのどの部位に属するかを判断し、該検査領域が属する部位に対応する判定データマップを選択する。判定部30は、選択した判定データマップに、特徴抽出部29によって抽出された特徴ベクトルを適用して、該検査領域33について、傷その他の表面状態の判定を行う。
The
検査領域の分類
図8の(A)を参照して、本願発明の一実施例に従う、検査領域33がギアのどの部位に属するかを判断する手法を説明する。取得画像61にはギアが撮影されており、ギアが撮影された画像領域が符号62によって表されている。取得画像61のうち、ギア領域62以外の部分には、背景が撮影されている。図8の(B)に示されるように、中央領域A(太い黒線により囲まれている)と端領域B(太い破線により囲まれている)とが画像内に設定される。中央領域Aは、撮影されるギアの中央部分を示している。符号63に示されるように、検査領域33が中央領域Aに設定される場合には、該検査領域33全体にわたって、ギアが撮影される。端領域Bは、撮影されるギアの端部分(エッジ部分)を示している。傷その他の表面状態または過検出が該ギアの端部分に存在すると、符号64によって示されるように、検査領域33が端領域Bに設定される。このような検査領域33には、その一部にのみギアが撮影されており、他の部分には背景が撮影される。
Classification of Inspection Area A method for determining which part of the gear the
端領域Bに設定された検査領域33は、ギア部分と背景部分とを含み、中央領域Aに設定された検査領域33はギア部分のみを含むので、傷その他の表面状態が存在するかどうかにかかわらず、これらの検査領域は明らかに異なる特徴を持つ。この実施例では、中央領域A用には第1の判定データマップが用意されて記憶装置に記憶され、端領域B用には第2の判定データマップが用意されて記憶装置に記憶される。判定部30は、検査領域33の位置情報から、該検査領域33が中央領域Aに属すると判断したならば、第1の判定データマップを用いて傷その他の表面状態の判定を行い、検査領域33が端領域Bに属すると判断したならば、第2の判定データマップを用いて傷その他の表面状態の判定を行う。
Since the
このように、ギアの部位に従って検査領域に異なる特徴が出現する場合には、該部位ごとの特徴に合わせた判定データマップを用意することにより、ギアの表面状態を判定する精度および効率を向上させることができる。 In this way, when different features appear in the examination region according to the gear part, the accuracy and efficiency of judging the gear surface state is improved by preparing a judgment data map that matches the feature of each part. be able to.
ギアが撮影される領域62の画像内における位置は予め決められているので、中央領域Aおよび端領域Bの画像内における位置も予め決めることができる。端領域Bの幅W2は、典型的には、検査領域33の幅(画像の横方向の長さ)W1に依存して決められる。図8の(C)を参照すると、ギアの右側のエッジが撮影された箇所が拡大して示されており、潜在的傷領域31を囲むよう設定された検査領域33の2つの例が示されている。潜在的傷領域31がほぼ中央に位置するよう検査領域33が設定されるとすると、(c−1)は、設定された検査領域33の右端がギアのエッジに達する場合であり、(c−2)は、設定された検査領域33の略中心がギアのエッジ上にある場合である。
Since the position in the image of the
検査領域33が、(c−1)に示す位置よりも右側にずれると、検査領域33には背景が含まれることとなる。したがって、端領域Bは、少なくとも、エッジに対してW1の幅をギア側に持ち、(1/2×W1)の幅を背景側に持つよう設定されるのが好ましい。端領域Bの位置が決められると、撮影されているギアの残りの部分が中央領域Aとして設定される。
When the
検査領域33が、中央領域Aと端領域Bにまたがる場合には、たとえば、検査領域33内の潜在的傷領域31の位置が中央領域Aと端領域Bのいずれに属するかに従い、検査領域33が属する領域(中央領域Aまたは端領域B)を決めてよい。代替的に、検査領域33において中央領域Aが占める部分と端領域Bが占める部分との割合に応じて、検査領域33が属する領域を決めてよい。
When the
この実施例では、設定される検査領域に背景が撮影されるかどうかに従って、検査対象物に2つの部位(中央領域Aおよび端領域B)を定めた。代替的に、検査対象物の或る部位と他の部位との間に、たとえば構造上の違いから異なる特徴が出現する場合には、これらの部位のそれぞれについて判定データマップを用意し、判定を行うようにするのが好ましい。 In this embodiment, two parts (a central area A and an end area B) are defined on the inspection object according to whether or not the background is photographed in the set inspection area. Alternatively, if different features appear due to structural differences, for example, between a certain part of the inspection object and another part, a determination data map is prepared for each of these parts, and the determination is made. It is preferable to do so.
上記は、好ましい態様として、検査対象物の部位ごとに異なる特徴が存在する場合に、該部位ごとに判定データマップを用意することについて述べた。しかしながら、本願発明は、部位ごとに異なる特徴が出現しない場合でも、検査対象物の部位ごとに判定データマップを用意して、該部位ごとに判定を行うことを含む点に注意されたい。 As described above, as a preferable mode, when different characteristics exist for each part of the inspection object, preparation of a determination data map for each part has been described. However, it should be noted that the present invention includes preparing a determination data map for each part of the inspection object and making a determination for each part even when different features do not appear for each part.
第1および第2の判定データマップの作成手法、およびこれらのマップを用いて表面状態を判定する手法については、後述される。 A method of creating the first and second determination data maps and a method of determining the surface state using these maps will be described later.
傷その他の表面状態を判定する処理のフロー
図9は、この発明の一実施例におけるギア歯面1枚について、傷その他の表面状態を判定する処理の流れを示すフローチャートであり、ギアのすべての歯面についての該判定が終わるまでこの処理が連続的に実行される。ギア11を図1の回転テーブルに取り付け、照明装置19を起動させてから処理に入る。ステップS101でギア11のすべてのギア歯面が検査されたかどうかを判定し、未了であればステップS103に移る。すべてのギア歯面が検査されたかどうかの判定は、ギア11の歯数をカウンタにセットしておき、1つの歯についての処理が終了するごとにカウンタをデクリメントし、このカウンタの値を点検することによって行う。
Scratches flow of processing for determining other surface conditions Figure 9, for one gear tooth surfaces in the embodiment of the present invention, a flow chart showing a flow of a process for determining the damage or other surface conditions, all of the gears This process is continuously executed until the determination on the tooth surface is completed. The
ステップS103では、ギア11を一歯分、回転させる。位置決めセンサ18がギア歯を検出し、コンピュータ23に検出信号を送る。コンピュータ23のタイミング部24が、位置決めセンサ18からの信号に応じてカメラ21に駆動信号を送る。カメラ21は、これに応じてステップS105でギア11を撮影し、その画像を画像処理用パーソナル・コンピュータ23に送る。撮影回数が1であるとき(S107)、すなわちギア11の最初の歯の撮影をしたばかりのときは、差分画像を用いた画像処理ができないので、この画像は保存しておき、次の歯を撮影するため後続のステップをスキップして初回の処理を終わり、再度、スタートから処理に入る。
In step S103, the
ステップS109では、上述したように2つの連続する歯の画像から差分画像を生成し、潜在的傷領域31(図3)を囲む検査領域33を設定する。次にステップS111では、図7に関連して説明したように差分画像から特徴ベクトルを抽出する。ステップS113では、判定データマップを選択するためのルーチンを実行する。ステップS115では、選択された判定データマップを用いて、傷その他の表面状態の判定を行う。
In step S109, as described above, a difference image is generated from two consecutive tooth images, and an
図10は、図9のステップS113で実施されるルーチンのフローチャートを示す。ステップS121では、検査領域33の位置情報を取得する。ステップS122では、検査領域33の位置情報に基づき、検査領域33が中央領域Aに属するのか、端領域Bに属するのかを判別する。中央領域Aに属する場合には、ステップS123において、第1の判定データマップを選択する。端領域Bに属する場合には、ステップS124において、第2の判定データマップを選択する。こうして、検査領域33が中央領域Aに属する場合には、第1の判定データマップを用いて傷その他の表面状態の判定を実施し、端領域Bに属する場合には、第2の判定データマップを用いて傷その他の表面状態の判定を実施する。
FIG. 10 shows a flowchart of the routine executed in step S113 of FIG. In step S121, the position information of the
判定データマップの生成
次に、ニューラルネットワークを用いた自己組織化学習によって判定データマップを生成する手法、および該判定データマップを用いて傷その他の表面状態を判定する手法を説明する。
Generation of Determination Data Map Next, a method for generating a determination data map by self-organization learning using a neural network and a method for determining scratches and other surface states using the determination data map will be described.
この実施例では、40×40 のニューロンを用いて自己組織化マップを生成する。図11は、3つのニューロンNj-1、Nj、Nj+1を示す。ωj=(ωj0、ωj1、・・・、ωjm )は、ニューロンNjの結合係数ベクトルであり、χ=(χ0、χ1、・・・、χm )は、入力ベクトルである。この実施例での入力ベクトルは、複数のサンプルの検査領域33について、特徴抽出部29(図2)により抽出された特徴ベクトルである。
In this embodiment, 40 × 40 neurons are used to generate a self-organizing map. FIG. 11 shows three neurons N j−1 , N j , N j + 1 . ω j = (ω j0 , ω j1 ,..., ω jm ) is a coupling coefficient vector of the neuron N j , and χ = (χ 0 , χ 1 ,..., χ m ) is an input vector is there. The input vector in this embodiment is a feature vector extracted by the feature extraction unit 29 (FIG. 2) for a plurality of
自己組織化マップは、自己組織化特徴マップとも呼ばれ、教師なしアルゴリズムに基づいて生成される。このマップは、入力データ中の隠れた特徴を抽出して自動的に学習を行い、該入力データに対して選択的に反応するマップを生成する。自己組織化マップは、コホーネン(Kohonen)が提案したもので、たとえば産業図書株式会社発行の「ニューロ・ファジイ・遺伝的アルゴリズム」1994年、に解説されている。 The self-organizing map is also called a self-organizing feature map, and is generated based on an unsupervised algorithm. This map automatically learns by extracting hidden features in the input data, and generates a map that selectively reacts to the input data. The self-organizing map was proposed by Kohonen and explained in, for example, “Neuro Fuzzy Genetic Algorithm” published in 1994 by Sangyo Tosho Co., Ltd.
この実施例では、第1の判定データマップは、第1の自己組織化マップに基づいて生成され、第2の判定データマップは、第2の自己組織化マップに基づいて生成される。第1の自己組織化マップの生成と第2の自己組織化マップの生成とでは、入力ベクトルが異なる。サンプルの検査領域33が中央領域Aに設定されたならば、該検査領域33の特徴ベクトルは第1の自己組織化マップに入力される。サンプルの検査領域33が端領域Bに設定されたならば、該検査領域33の特徴ベクトルは第2の自己組織化マップに入力される。しかしながら、第1および第2の自己組織化マップは、以下に示すステップに従い、同じ手法で生成される。したがって、以下の説明において「判定データマップ」というときは、第1および第2の判定データマップのいずれでもよいことを示すものとする。
In this embodiment, the first determination data map is generated based on the first self-organization map, and the second determination data map is generated based on the second self-organization map. The input vector is different between the generation of the first self-organizing map and the generation of the second self-organizing map. If the
1)ステップ1:ネットワーク初期化:
ニューロンの結合ベクトルωj=(ωj0、ωj1、・・・、ωjm )をすべてのニューロンについて乱数を用いて決定する。
1) Step 1: Network initialization:
The neuron connection vector ω j = (ω j0 , ω j1 ,..., Ω jm ) is determined for all neurons using random numbers.
2)ステップ2:入力ベクトル入力:
入力ベクトルχ=(χ0、χ1、・・・、χm )をそれぞれのニューロンに与える。各ニューロンと入力ベクトルとの関係は図9に示すとおりである。
2) Step 2: Input vector input:
An input vector χ = (χ 0 , χ 1 ,..., Χ m ) is given to each neuron. The relationship between each neuron and the input vector is as shown in FIG.
3)ステップ3:ニューロンの結合係数ベクトルと入力ベクトルの距離計算:
それぞれのニューロンの結合ベクトルと入力ベクトルとの距離を次の式により計算する。
The distance between the connection vector of each neuron and the input vector is calculated by the following equation.
4)ステップ4:勝者ニューロン決定:
距離dj が最小となるニューロンを選定する。このニューロンを勝者ニューロンと呼び、j*で表す。
4) Step 4: Determine winner neuron:
The neuron with the smallest distance d j is selected. This neuron is called the winner neuron and is represented by j *.
5)ステップ5:結合係数ベクトルの学習:
勝者ニューロンとその近傍のニューロンのそれぞれの結合係数(重み)を次の式に従い更新する。
The coupling coefficients (weights) of the winner neuron and nearby neurons are updated according to the following formula.
ηは、正の定数で、この実施例では0.05とする。h(j,j*)は、近傍関数と呼ばれ、次の式で表される。
σ(t)は学習経過とともに小さくなっていく。したがって、近傍関数の範囲は、図12に円で示すように学習の初期は広く、学習の進行とともに狭くなっていく。つまり、学習の進行とともに粗調整から微調整へと変化する。このように近傍関数は、マップを効果的に生成させる。図12は、勝者ニューロンを小さい円91で示し、これを囲む近傍関数を大きい円93で表している。
σ (t) decreases as the learning progresses. Accordingly, the range of the neighborhood function is wide at the initial stage of learning, as indicated by a circle in FIG. 12, and becomes narrower as the learning progresses. In other words, the coarse adjustment changes to the fine adjustment as the learning progresses. Thus, the neighborhood function effectively generates a map. FIG. 12 shows the winner neuron as a
6)ステップ6:t更新、入力ベクトル入力にもどる:
学習回数tをt+1に更新し、ステップ2の入力ベクトルの入力にもどり、ステップ2〜6を繰り返し、結合係数ベクトルの更新を繰り返す。
6) Step 6: t update, return to input vector input:
The learning count t is updated to t + 1, the input vector input in
自己組織化マップでは、勝者ニューロンとその近くのニューロンはすべてその時の入力ベクトルに近づく。学習の初期は、近傍関数によって多くのニューロンが近くとみなされ、おおまかなマップが形成される。学習の進行とともに近傍関数によって勝者ニューロンの近くとみなされるニューロン数が少なくなる。そのため、局所的な微調整が進み、空間的な解像度が上がる。 In the self-organizing map, the winner neuron and nearby neurons all approach the current input vector. At the beginning of learning, many neurons are considered to be close by the neighborhood function, and a rough map is formed. As the learning progresses, the number of neurons considered to be close to the winner neuron by the neighborhood function decreases. For this reason, local fine adjustment progresses and spatial resolution increases.
複数のサンプルについて取得した、傷その他の表面状態または過検出を含む検査領域33の特徴ベクトルをすべて順番に、またはランダムに選択して自己組織化マップに入力して学習させることで、入力した特徴ベクトルの類似関係を反映した自己組織化マップを生成することができる。すなわち、類似した特徴を持つクラスタが自己組織化マップ上で寄り集まる結果になる。
Features obtained by learning by selecting all the feature vectors of the
図13は、このようにして得られた自己組織化マップを示す。実施例では、40×40のニューロンを用いたが、図13では簡単のために20×20のマップとして示す。図13でそれぞれの升目が一つのニューロンに対応する。実線で区切られた(1)、(2)、・・・(28)のブロックは、次のようにして決定されたクラスタを表す。 FIG. 13 shows the self-organizing map obtained in this way. In the embodiment, 40 × 40 neurons are used, but in FIG. 13, a 20 × 20 map is shown for simplicity. In FIG. 13, each grid corresponds to one neuron. Blocks (1), (2),... (28) separated by solid lines represent clusters determined as follows.
自己組織化マップのそれぞれのニューロン位置に、その結合係数ベクトルとの距離が最も小さい特徴ベクトルを有する検査領域33の画像を配置する。この検査領域33は、自己組織化マップの生成に使用された複数のサンプルのうちの一つである。同じ画像を有する隣接するニューロンを選択してグループ化する。こうして形成されたニューロンのグループをクラスタと呼ぶ。ここでのグループ化は、既存の描画プログラムで使われているグループ化機能と同じで、グループ化されたニューロンは、グループ全体として選択し、プロパティを設定することができる。
An image of the
次いで、それぞれのクラスタに配置された画像を目視で確認して、この検査領域33に含まれるのが傷その他の表面状態であるのか、あるいは表面ムラのような過検出であるのかを判定する。この判定結果をクラスタのプロパティとして設定する。具体的には、初期状態としてすべてのクラスタのプロパティ・フィールドに「過検出」が入力されている状態で、コンピュータのディスプレイ上に自己組織化マップを表示し、傷と判定されたクラスタをマウスで右クリックして「傷」に変更入力する。このようにクラスタ単位でニューロンを分類することができるので、作業時間を短縮することができる。
Next, the images arranged in the respective clusters are visually confirmed, and it is determined whether the
図14は、こうしてクラスタが分類されたマップ(判定データマップ)を示す。図においてハッチングを施されたクラスタ(1)、(2)、(6)、(10)、(11)、(12)、(13)、(15)、(16)、(22)、(27)、(28)が「傷」に分類されたクラスタであり、ハッチングのないクラスタが「過検出」のクラスタである。この判定データマップをコンピュータ23(図2)の記憶装置に登録し、これが、判定部30によって傷の判定に使用される。
FIG. 14 shows a map (determination data map) in which clusters are classified in this way. In the figure, hatched clusters (1), (2), (6), (10), (11), (12), (13), (15), (16), (22), (27 ), (28) are clusters classified as “scratches”, and clusters without hatching are “overdetected” clusters. This determination data map is registered in the storage device of the computer 23 (FIG. 2), and this is used by the
この実施例では、第1の自己組織化マップに基づいて第1の判定データマップが生成されてコンピュータ23の記憶装置に登録され、第2の自己組織化マップに基づいて第2の判定データマップが生成されコンピュータ23の記憶装置に登録される。第1の判定データマップは、ギアの中央領域に適合したマップであり、第2の判定データマップは、ギアの端領域に適合したマップである。
In this embodiment, a first determination data map is generated based on the first self-organizing map and registered in the storage device of the
判定データマップを用いた傷その他の表面状態の判定
判定部30によって実施される、傷その他の表面状態を判定する具体的手法について説明する。第1および第2の判定データマップのいずれについても、同様の手法に従って判定が実施される。判定部30は、特徴抽出部29から受け取った特徴ベクトルと、検査領域33の位置情報に従って選択された判定データマップの結合係数ベクトルとの距離を求める。この距離は、上に示した[数5]に従って算出される。この距離が小さい順にニューロンを選択し、予め定めた数、たとえば10個以下のニューロンを選び、これを囲む円または楕円を近傍領域とする。判定データマップの生成過程から明らかなように、結合係数ベクトルが近似したニューロンがクラスタとしてグループ化されているので、上記のようにして距離が小さい順にニューロンを選択すると、互いに隣接したニューロンのかたまりが選択される。このニューロンのかたまりを囲む円または楕円を近傍領域とする。たとえば、図15を参照すると、円57が近傍領域を規定している。
A specific method for determining scratches and other surface states performed by the determination /
円57は、選択されたニューロンのかたまりの判定データマップ上の配列からこれらのニューロンのかたまりの中心位置を求め、この中心からこのニューロンの固まりの最も遠くにあるニューロンまでの距離を半径とする円として求めることができる。
A
こうして選ばれた円または楕円で規定される近傍領域に含まれる傷クラスタに属するニューロンの数(K)と近傍領域内のニューロンの総数(S)との比、(K)/(S)に基づいて傷の判定を行う。(K)/(S)≧D のとき、傷と判定し、(K)/(S)<D のとき、過検出と判定する。Dは予め設定したしきい値であり、たとえば0.5である。このようにして、傷その他の表面状態と過検出とを判別する。図15の例では、円57の中に傷クラスタ(12)に属するニューロンが7個あり、円57内のニューロンの総数は、12であるので、(K)/(S) = 8/12 = 0.67 であり、よって、今回の検査領域33に含まれているのは、傷であると判定される。
Based on the ratio (K) / (S) of the number of neurons (K) belonging to the wound cluster included in the neighboring area defined by the circle or ellipse thus selected and the total number of neurons (S) in the neighboring area Check for scratches. When (K) / (S) ≧ D, it is judged as a scratch, and when (K) / (S) <D, it is judged as overdetection. D is a preset threshold value, for example, 0.5. In this way, the scratch and other surface conditions and overdetection are discriminated. In the example of FIG. 15, since there are seven neurons belonging to the wound cluster (12) in the
自己組織化マップの更新
上述の判定データマップを用いたコンピュータによる自動判定により傷ありと判定されたギアの歯面を目視で検査して、傷を確認する。自動判定により過検出と判定されたギアの歯面についても同様に目視で検査し、確認することができる。こうして、最終的に傷その他の表面状態があると判定されたギア歯面の検査領域の特徴ベクトルを、クラスタ化する前の自己組織化マップに入力して学習させる。このとき、自己組織化マップのニューロンの結合係数ベクトルの初期値は、過去の学習で生成された最新の結合係数ベクトルを用いる。
Update of Self-Organizing Map The tooth surface of the gear determined to be flawed by automatic determination by a computer using the above-described determination data map is visually inspected to confirm the flaw. Similarly, the tooth surface of the gear determined to be overdetected by automatic determination can be visually inspected and confirmed. Thus, the feature vector of the inspection region of the gear tooth surface finally determined to have a scratch or other surface condition is input to the self-organization map before clustering to be learned. At this time, the initial value of the coupling coefficient vector of the neurons of the self-organizing map uses the latest coupling coefficient vector generated by past learning.
こうして自己組織化マップを更新し、再度上述のクラスタ化処理を実行する。これによって、既存の種類の傷の検出精度を低下させることなく、新しい種類の傷または過検出に対応したクラスタを生成し、判定データマップを生成することができる。更新された判定データマップを使用することにより、検査精度を向上させることができる。この更新処理には、過去に得られた結合係数ベクトルを用いるので、短い学習時間で判定データマップを更新することができる。 In this way, the self-organizing map is updated, and the above-described clustering process is executed again. Accordingly, a cluster corresponding to a new type of flaw or overdetection can be generated and a determination data map can be generated without reducing the detection accuracy of existing types of flaws. By using the updated determination data map, the inspection accuracy can be improved. In this update process, since the coupling coefficient vector obtained in the past is used, the determination data map can be updated in a short learning time.
以上この発明を具体的な実施例について説明したが、この発明はこのような実施例に限定されるものではない。 Although the present invention has been described with respect to specific embodiments, the present invention is not limited to such embodiments.
11 ギア
19 照明装置(LED)
21 カメラ
23 コンピュータ
11
21
Claims (6)
前記対象物の予め定めた第1および第2の部位について、該第1部位における傷を学習した第1の判定データマップおよび該第2の部位における傷を学習した第2の判定データマップを記憶する記憶手段と、
前記対象物を撮像する撮像手段と、
前記撮像手段から取得した前記対象物の画像において、他の領域に対し予め定めたしきい値を超える輝度差を有する要判定領域を含むよう検査領域を設定する手段と、
前記検査領域から特徴ベクトルを抽出する手段と、
前記検査領域が前記第1の部位に属すると判断したならば前記第1の判定データマップを選択し、前記検査領域が前記第2の部位に属すると判断したならば前記第2の判定データマップを選択する手段と、
前記特徴ベクトルを前記選択された第1または第2の判定データマップに入力して、該検査領域における傷を判定する判定手段と、を備え、
前記第1の部位は、前記検査領域全体にわたって前記対象物が撮像されると共に、該対象物の背景の画像を含まない部位であり、前記第2の部位は、前記検査領域の一部に前記対象物が撮像されると共に、残りの部分に該背景の画像を含む部位である、
装置。 An apparatus for determining scratches on an inspection object,
For the first and second sites predetermined for the object, storing a second judgment data map learned the first determination data map and wound at the site of the second learned scratches in said first region Storage means for
Imaging means for imaging the object;
Means for setting an inspection region to include a determination required region having a luminance difference exceeding a predetermined threshold with respect to another region in the image of the object acquired from the imaging unit;
Means for extracting a feature vector from the inspection region;
If it is determined that the examination region belongs to the first part, the first judgment data map is selected. If it is judged that the examination area belongs to the second part, the second judgment data map is selected. Means for selecting
Determination means for inputting the feature vector into the selected first or second determination data map and determining a flaw in the inspection region; and
The first part is a part in which the object is imaged over the entire examination area and does not include an image of the background of the object, and the second part is a part of the examination area. The object is imaged, and the remaining part includes the background image.
apparatus.
前記第1の部位は、該ギアの中央部分であり、前記第2の部位は、該ギアの端部分である、
請求項1に記載の装置。 The object is a gear;
The first portion is a central portion of the gear , and the second portion is an end portion of the gear .
The apparatus of claim 1.
(a)前記対象物の第1および第2の部位のそれぞれについて、自己組織化マップを定義する手段と、
(b)前記対象物について、前記検査領域の複数のサンプルを用意し、該複数のサンプルの検査領域のそれぞれについて、
(b−1)該検査領域から特徴ベクトルを抽出し、
(b−2)前記対象物の予め定めた第1および第2部位のうち、前記検査領域が属する部位を判断して、該部位に対応する自己組織化マップを選択し、
(b−3)前記(b−1)で抽出した特徴ベクトルを、前記選択した自己組織化マップに入力し、学習させる手段と、
(c)前記学習した自己組織化マップにおいて、同じ前記サンプルのそれぞれに対応し、かつ隣接するニューロンをグループ化して、クラスタにする手段と、
(d)前記クラスタが傷に対応するものかそうでないものかについてユーザが入力する判定結果に応じて、該クラスタを傷に対応するものとそうでないものとに分類することにより、前記第1および第2の判定データマップを生成する手段と、
を備える、請求項1に記載の装置。 For the first and second sites predetermined of said object, said comprises a first and second judgment data map means for generating respectively a means for the generation further,
(A) means for defining a self-organizing map for each of the first and second parts of the object;
(B) For the object, preparing a plurality of samples in the inspection area, and for each of the inspection areas of the plurality of samples,
(B-1) extracting a feature vector from the inspection region;
(B-2) Of the predetermined first and second parts of the object, determine a part to which the examination region belongs, and select a self-organizing map corresponding to the part;
(b-3) means for inputting and learning the feature vector extracted in (b-1) to the selected self-organizing map;
(C) means for grouping adjacent neurons into clusters that correspond to each of the same samples in the learned self-organizing map;
(D) classifying the cluster into one corresponding to a flaw and one not corresponding to a flaw according to a determination result input by a user as to whether the cluster corresponds to a flaw or not, and Means for generating a second determination data map;
The apparatus of claim 1, comprising:
前記コンピュータは、前記対象物の予め定めた第1および第2の部位について、該第1の部位における傷を学習した第1の判定データマップおよび該第2の部位における傷を学習した第2の判定データマップを記憶する記憶装置を備えており、
撮像装置により撮像された前記対象物の画像において、他の領域に対し予め定めたしきい値を超える輝度差を有する要判定領域を含むよう検査領域を設定する機能と、
前記検査領域から特徴ベクトルを抽出する機能と、
前記検査領域が前記第1の部位に属すると判断したならば前記第1の判定データマップを選択し、前記検査領域が前記第2の部位に属すると判断したならば前記第2の判定データマップを選択する機能と、
前記特徴ベクトルを前記選択された第1または第2の判定データマップに入力して、該検査領域における傷を判定する機能と、を前記コンピュータに実現させ、
前記第1の部位は、前記検査領域全体にわたって前記対象物が撮像されると共に、該対象物の背景の画像を含まない部位であり、前記第2の部位は、前記検査領域の一部に前記対象物が撮像されると共に、残りの部分に該背景の画像を含む部位である、
コンピュータ・プログラム。 A computer program that causes a computer to determine a scratch on an inspection object,
The computer, the first and second sites predetermined of said object, said first judgment data map and a second learned the wound at the site of the second learned wounds at the first site A storage device for storing the judgment data map ;
A function of setting an inspection region to include a determination required region having a luminance difference exceeding a predetermined threshold with respect to another region in the image of the object imaged by the imaging device;
A function of extracting a feature vector from the inspection region;
If it is determined that the examination region belongs to the first part, the first judgment data map is selected. If it is judged that the examination area belongs to the second part, the second judgment data map is selected. With the ability to select
The Enter the feature vector to the first or second judgment data map that is the selected, a function of determining flaw in the examination region, was implemented in the computer,
The first part is a part in which the object is imaged over the entire inspection region and does not include a background image of the object, and the second part is a part of the inspection region. The object is imaged, and the remaining part includes the background image.
Computer program.
請求項4に記載のコンピュータ・プログラム。 The inspection object is a gear, the first portion is a central portion of the gear, and the second portion is an end portion of the gear.
The computer program according to claim 4 .
(a)前記対象物の第1および第2の部位のそれぞれについて、自己組織化マップを定義する機能と、
(b)前記対象物について、前記検査領域の複数のサンプルを用意し、該複数のサンプルの検査領域のそれぞれについて、
(b−1)該検査領域から特徴ベクトルを抽出し、
(b−2)前記対象物の予め定めた第1および第2の部位のうち、前記検査領域が属する部位を判断して、該部位に対応する自己組織化マップを選択し、
(b−3)前記(b−1)で抽出した特徴ベクトルを、前記選択した自己組織化マップに入力し、学習させる機能と、
(c)前記学習した自己組織化マップにおいて、同じ前記サンプルのそれぞれに対応し、かつ隣接するニューロンをグループ化して、クラスタにする機能と、
(d)前記クラスタが傷に対応するものかそうでないものかについてユーザが入力する判定結果に応じて、該クラスタを傷に対応するものとそうでないものとに分類することにより、前記第1および第2の判定データマップを生成する機能と、を備える、
請求項4に記載のコンピュータ・プログラム。 For the predetermined first and second parts of the object, the device further includes a function of generating the first and second data maps, respectively , and the function of generating further includes
(A) a function of defining a self-organizing map for each of the first and second parts of the object;
(B) For the object, preparing a plurality of samples in the inspection area, and for each of the inspection areas of the plurality of samples,
(B-1) extracting a feature vector from the inspection region;
(B-2) Of the first and second predetermined parts of the object, determine a part to which the examination region belongs, and select a self-organizing map corresponding to the part;
(b-3) a function of inputting the feature vector extracted in (b-1) into the selected self-organizing map and learning the function vector;
(C) In the learned self-organizing map, a function corresponding to each of the same samples and grouping adjacent neurons into a cluster;
(D) classifying the cluster into one corresponding to a flaw and one not corresponding to a flaw according to a determination result input by a user as to whether the cluster corresponds to a flaw or not, and A function of generating a second determination data map ,
The computer program according to claim 4 .
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004228097A JP4018091B2 (en) | 2004-08-04 | 2004-08-04 | Apparatus and program for determining surface condition |
US11/181,643 US20060029257A1 (en) | 2004-08-03 | 2005-07-13 | Apparatus for determining a surface condition of an object |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004228097A JP4018091B2 (en) | 2004-08-04 | 2004-08-04 | Apparatus and program for determining surface condition |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2006047098A JP2006047098A (en) | 2006-02-16 |
JP4018091B2 true JP4018091B2 (en) | 2007-12-05 |
Family
ID=36025814
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004228097A Expired - Fee Related JP4018091B2 (en) | 2004-08-03 | 2004-08-04 | Apparatus and program for determining surface condition |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4018091B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11260534B2 (en) * | 2018-04-04 | 2022-03-01 | Canon Kabushiki Kaisha | Information processing apparatus and information processing method |
JP7176966B2 (en) * | 2019-02-01 | 2022-11-22 | 株式会社キーエンス | Image inspection device |
-
2004
- 2004-08-04 JP JP2004228097A patent/JP4018091B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2006047098A (en) | 2006-02-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114723701B (en) | Gear defect detection method and system based on computer vision | |
US20060029257A1 (en) | Apparatus for determining a surface condition of an object | |
CN108629775B (en) | Thermal state high-speed wire rod surface image processing method | |
JP5537282B2 (en) | Defect inspection apparatus and defect inspection method | |
JP5965050B2 (en) | Pixel scoring and adjustment based on neighborhood relations to reveal data in images | |
CN116664559B (en) | Machine vision-based memory bank damage rapid detection method | |
JP4150390B2 (en) | Appearance inspection method and appearance inspection apparatus | |
JP4725298B2 (en) | Visual inspection method using images | |
JP5806786B1 (en) | Image recognition device | |
JP2018152055A (en) | System and method for scoring color candidate poses against color image in vision system | |
CN111353993A (en) | Thread angle measuring method based on machine vision | |
JP7393313B2 (en) | Defect classification device, defect classification method and program | |
CN108470338A (en) | A kind of water level monitoring method | |
CN114926407A (en) | Steel surface defect detection system based on deep learning | |
JP4018092B2 (en) | A device that automatically determines the cause of a given surface condition of an inspection object | |
CN116977727A (en) | Image processing-based gas combustion flame real-time monitoring method and system | |
WO2020175666A1 (en) | Color filter inspection device, inspection device, color filter inspection method, and inspection method | |
CN116563276B (en) | Chemical fiber filament online defect detection method and detection system | |
US7020323B2 (en) | Pattern defect inspection apparatus and method | |
JP4018091B2 (en) | Apparatus and program for determining surface condition | |
JP3890844B2 (en) | Appearance inspection method | |
JP4157507B2 (en) | Surface condition determination apparatus and program | |
JP4018089B2 (en) | Method for generating data map for determining surface condition and determination method | |
JP6114559B2 (en) | Automatic unevenness detector for flat panel display | |
CN115471494A (en) | Wo citrus quality inspection method, device, equipment and storage medium based on image processing |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20070314 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070403 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070531 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20070918 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20070919 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100928 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |