JP7444171B2 - Surface defect discrimination device, appearance inspection device and program - Google Patents
Surface defect discrimination device, appearance inspection device and program Download PDFInfo
- Publication number
- JP7444171B2 JP7444171B2 JP2021545215A JP2021545215A JP7444171B2 JP 7444171 B2 JP7444171 B2 JP 7444171B2 JP 2021545215 A JP2021545215 A JP 2021545215A JP 2021545215 A JP2021545215 A JP 2021545215A JP 7444171 B2 JP7444171 B2 JP 7444171B2
- Authority
- JP
- Japan
- Prior art keywords
- pixel
- amount
- sub
- light
- light received
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000007547 defect Effects 0.000 title claims description 158
- 238000007689 inspection Methods 0.000 title claims description 23
- 238000005286 illumination Methods 0.000 claims description 194
- 238000000034 method Methods 0.000 claims description 26
- 238000003384 imaging method Methods 0.000 claims description 23
- 230000002950 deficient Effects 0.000 claims description 15
- 239000000428 dust Substances 0.000 claims description 14
- 239000004065 semiconductor Substances 0.000 claims description 6
- 239000000758 substrate Substances 0.000 claims 1
- 238000010586 diagram Methods 0.000 description 19
- 230000035945 sensitivity Effects 0.000 description 12
- 238000011179 visual inspection Methods 0.000 description 6
- 239000011800 void material Substances 0.000 description 5
- 230000001678 irradiating effect Effects 0.000 description 4
- 238000001514 detection method Methods 0.000 description 3
- 239000010409 thin film Substances 0.000 description 3
- 238000012850 discrimination method Methods 0.000 description 2
- 230000012447 hatching Effects 0.000 description 2
- 241000519995 Stachys sylvatica Species 0.000 description 1
- 230000008602 contraction Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000008021 deposition Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000010408 film Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N21/00—Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
- G01N21/84—Systems specially adapted for particular applications
- G01N21/88—Investigating the presence of flaws or contamination
- G01N21/89—Investigating the presence of flaws or contamination in moving material, e.g. running paper or textiles
- G01N21/892—Investigating the presence of flaws or contamination in moving material, e.g. running paper or textiles characterised by the flaw, defect or object feature examined
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N21/00—Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
- G01N21/84—Systems specially adapted for particular applications
- G01N21/88—Investigating the presence of flaws or contamination
- G01N21/8851—Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N21/00—Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
- G01N21/84—Systems specially adapted for particular applications
- G01N21/88—Investigating the presence of flaws or contamination
- G01N21/89—Investigating the presence of flaws or contamination in moving material, e.g. running paper or textiles
- G01N21/8901—Optical details; Scanning details
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N21/00—Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
- G01N21/84—Systems specially adapted for particular applications
- G01N21/88—Investigating the presence of flaws or contamination
- G01N21/8851—Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
- G01N2021/8854—Grading and classifying of flaws
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N21/00—Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
- G01N21/84—Systems specially adapted for particular applications
- G01N21/88—Investigating the presence of flaws or contamination
- G01N21/8851—Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
- G01N2021/8887—Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges based on image processing techniques
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Analytical Chemistry (AREA)
- Pathology (AREA)
- Immunology (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Chemical & Material Sciences (AREA)
- Biochemistry (AREA)
- Textile Engineering (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Quality & Reliability (AREA)
- Theoretical Computer Science (AREA)
- Signal Processing (AREA)
- Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
Description
この発明は、正反射性状の強い表面を持つ製品や部品等の被検査物の表面欠陥を判別するための表面欠陥判別装置、この表面欠陥判別装置を備えた外観検査装置及びプログラムに関する。 The present invention relates to a surface defect discriminating device for discriminating surface defects of an object to be inspected, such as a product or component having a surface with strong specular reflection properties, an external appearance inspection device equipped with this surface defect discriminating device, and a program.
製品や部品の表面にある傷は外観を損なう。また、フィルムのような薄膜を製膜するための成膜板に傷などに起因する凹凸がある場合は、製造した薄膜に凹凸が転写され薄膜の欠陥となってしまう。 Scratches on the surface of products and parts impair their appearance. Further, if a deposition plate for forming a thin film such as a film has irregularities due to scratches or the like, the irregularities are transferred to the manufactured thin film, resulting in defects in the thin film.
そこで、各種の製品や部品、成膜板等の表面欠陥を検出するための外観検査装置が提案されている。 Therefore, visual inspection apparatuses have been proposed for detecting surface defects in various products, parts, film-formed plates, and the like.
例えば特許文献1には、複数方向の光源を切り替えながら部品を撮影し、照明光源の方向とその撮影画像を解析することで、画像の影が欠陥なのか汚れなのかを判別することを特徴とする技術が開示されている。
For example,
しかしながら、特許文献1に記載の発明は、被検査物が静止していることを前提としており、例えば、静止制御が困難なドラム駆動されるベルト部品をベルトを動かしながら検査して、表面欠陥を判別することはできない。
However, the invention described in
このため、照明装置や画像を撮影するラインセンサに対して、被検査物を相対的に移動させながら、表面欠陥を判別できる技術が望まれている。 Therefore, there is a need for a technology that can identify surface defects while moving the object to be inspected relative to a lighting device or a line sensor that takes images.
この発明は、このような技術的背景に鑑みてなされたものであって、照明装置及びラインセンサに対して、被検査物を相対的に移動させながら、表面欠陥を判別できる表面欠陥判別装置、外観検査装置及びプログラムの提供を目的とする。 The present invention was made in view of such a technical background, and provides a surface defect determination device that can determine surface defects while moving an object to be inspected relative to a lighting device and a line sensor. The purpose is to provide visual inspection equipment and programs.
上記目的は以下の手段によって達成される。
(1)異なる位置に配置された照明装置及びラインセンサに対して被検査物を相対的に移動させながら、前記各照明装置からの照明光を1つずつ切り替えて被検査物に照射させたときに、各照明装置からの照明光が切り替えられる毎に、被検査物からの反射光をラインセンサで受光して撮影することにより、前記照明光の切り替え分だけそれぞれ位置ずれした状態で複数の画像を取得する画像取得手段と、前記画像取得手段により取得された、各照明装置に対応する画像を位置合わせする位置合わせ手段と、前記位置合わせ手段により位置合わせされた画像から、被検査物の表面欠陥を判別する判別手段と、を備え、前記ラインセンサの各画素の一部は、1つの前記照明装置による照明光が被検査物に照射されることによる今回の撮影と前回の撮影とで撮影範囲が重複する重複領域となっており、1つの画素における前記重複領域を除く部分をサブピクセルとするとき、今回の撮影での画素全体の受光量から前記重複領域の受光量を差し引くことで、今回のサブピクセルの受光量を推定しサブピクセル画像を作成するサブピクセル画像作成手段をさらに備え、前記位置合わせ手段は、前記サブピクセル画像作成手段により作成された各照明装置に対応するサブピクセル画像を位置合わせする表面欠陥判別装置。
(2)異なる位置に配置された照明装置及びラインセンサに対して被検査物を相対的に移動させながら、前記各照明装置からの照明光を1つずつ切り替えて被検査物に照射させたときに、各照明装置からの照明光が切り替えられる毎に、被検査物からの反射光をラインセンサで受光して撮影することにより、前記各照明光毎に複数の画像を取得する画像取得手段を備え、前記ラインセンサの各画素の一部は、1つの前記照明装置による照明光が被検査物に照射されることによる今回の撮影と前回の撮影とで撮影範囲が重複する重複領域となっており、1つの画素における前記重複領域を除く部分をサブピクセルとするとき、今回の撮影での画素全体の受光量から前記重複領域の受光量を差し引くことで、今回のサブピクセルの受光量を推定しサブピクセル画像を作成するサブピクセル画像作成手段と、サブピクセル画像作成手段により作成されたサブピクセル画像に基づいて、被検査物の表面欠陥を判別する判別手段と、をさらに備えている表面欠陥判別装置。
(3)前記サブピクセル画像作成手段により作成された各照明装置に対応するサブピクセル画像を位置合わせする位置合わせ手段を備えている前項2に記載の表面欠陥判別装置。
(4)前記サブピクセル画像作成手段は、前記重複領域の受光量を領域毎に補正した状態で、画素全体の受光量から差し引く前項1~3のいずれかに記載の表面欠陥判別装置。
(5)前記サブピクセル画像作成手段は、前記重複領域の受光量を、前回以前に推定されたサブピクセルの受光量の和から求め、求めた受光量を画素全体の受光量から差し引いて今回のサブピクセルの受光量を推定する前項1~4のいずれかに記載の表面欠陥判別装置。
(6)前記サブピクセル画像作成手段は、撮影開始後の最初の画素全体の受光量を1画素あたりのサブピクセルの数で割った平均値を、最初のサブピクセルの受光量と推定する前項5に記載の表面欠陥判別装置。
(7)前記サブピクセル画像作成手段は、画素全体の受光量が所定の閾値を超えない場合、画素全体の受光量を1画素あたりのサブピクセルの数で割った平均値を、今回のサブピクセルの受光量と推定し、画素全体の受光量が所定の閾値を超える場合、画素全体の受光量から前記重複領域の受光量を差し引くことで、今回のサブピクセルの受光量を推定する前項1~6のいずれかに記載の表面欠陥判別装置。
(8)前記位置合わせ手段は、前記サブピクセル画像作成手段により作成された各照明装置に対応するサブピクセル画像の位置合わせを、下記式により輝度値Kijを補正値K'ijに補正することにより行う前項1、3、前項1または3を引用する前項4~7のいずれかに記載の表面欠陥判別装置。
j:点灯している照明装置の識別番号
(9)前記判別手段は、前記位置合わせ手段により位置合わせされたサブピクセル画像において、各照明装置に対応する明点が重複せずかつ各明点が予め設定された範囲内にある場合は、被検査物の表面に凹欠陥または凸欠陥が存在すると判定する前項1、3、前項1または3を引用する前項4~7、8のいずれかに記載の表面欠陥判別装置。
(10)前記判別手段は、前記位置合わせ手段により位置合わせされたサブピクセル画像において、各照明装置に対応する明点の位置が照明装置の配置位置と逆である場合は凹欠陥が存在し、逆でない場合は凸欠陥が存在すると判定する前項9に記載の表面欠陥判別装置。
(11)前記判別手段は、前記位置合わせ手段により位置合わせされたサブピクセル画像において、各照明装置に対応する明点が重複しているときは、被検査物の表面にゴミまたはほこりが存在すると判定する前項1、3、前項1または3を引用する前項4~7、8、9、10のいずれかに記載の表面欠陥判別装置。
(12)全体の受光量が所定の閾値を超える画素を欠陥候補画素として検出し、検出された欠陥候補画素について、前記位置合わせ手段によりサブピクセル画像を位置合わせし、かつ判定手段により被検査物の表面欠陥を判別する前項1、3、前項1または3を引用する前項4~7、8、9、10、11のいずれかに記載の表面欠陥判別装置。
(13)前記照明装置の光源として、LEDまたは可視光半導体レーザーが用いられる前項1~12のいずれかに記載の表面欠陥判別装置。
(14)前記照明装置は3個以上であり、前記ラインセンサを中心とする円周上でかつ、360度÷照明装置の数、の角度差で配置されている前項1~13のいずれかに記載の表面欠陥判別装置。
(15)異なる位置に配置された複数の照明装置と、各照明装置から被検査物に照射された照明光の反射光を受光可能なラインセンサと、前記被検査物を、前記照明装置及びラインセンサに対して相対的に移動させる移動手段と、各照明装置からの照明光を1つずつ所定の周期で切り替えて被検査物に照射させる照明制御手段と、前記移動手段により、前記被検査物を前記照明装置及びラインセンサに対して相対的に移動させながら、前記照明制御手段により、各照明装置からの照明光が切り替えられる毎に、被検査物からの反射光を受光して撮影を行うように、前記ラインセンサを制御するラインセンサ制御手段と、前項1~14のいずれかに記載の表面欠陥判別装置と、を備えた外観検査装置。
(16)異なる位置に配置された照明装置及びラインセンサに対して被検査物を相対的に移動させながら、前記各照明装置からの照明光を1つずつ切り替えて被検査物に照射させたときに、各照明装置からの照明光が切り替えられる毎に、被検査物からの反射光をラインセンサで受光して撮影することにより、前記照明光の切り替え分だけそれぞれ位置ずれした状態で複数の画像を取得する画像取得ステップと、前記画像取得ステップにより取得された、各照明装置に対応する画像を位置合わせする位置合わせステップと、前記位置合わせステップにより位置合わせされた画像から、被検査物の表面欠陥を判別する判別ステップと、をコンピュータに実行させ、前記ラインセンサの各画素の一部は、1つの前記照明装置による照明光が被検査物に照射されることによる今回の撮影と前回の撮影とで撮影範囲が重複する重複領域となっており、1つの画素における前記重複領域を除く部分をサブピクセルとするとき、今回の撮影での画素全体の受光量から前記重複領域の受光量を差し引くことで、今回のサブピクセルの受光量を推定しサブピクセル画像を作成するサブピクセル画像作成ステップを前記コンピュータにさらに実行させ、前記位置合わせステップでは、前記サブピクセル画像作成ステップにより作成された各照明装置に対応するサブピクセル画像を位置合わせする処理を前記コンピュータに実行させるためのプログラム。
(17)前記サブピクセル画像作成ステップでは、前記重複領域の受光量を領域毎に補正した状態で、画素全体の受光量から差し引く処理を前記コンピュータに実行させる前項16に記載のプログラム。
(18)前記サブピクセル画像作成ステップでは、前記重複領域の受光量を、前回以前に推定されたサブピクセルの受光量の和から求め、求めた受光量を画素全体の受光量から差し引いて今回のサブピクセルの受光量を推定する処理を前記コンピュータに実行させる前項16または17に記載のプログラム。
(19)前記サブピクセル画像作成ステップでは、撮影開始後の最初の画素全体の受光量を1画素あたりのサブピクセルの数で割った平均値を、最初のサブピクセルの受光量と推定する処理を前記コンピュータに実行させる前項18に記載のプログラム。
(20)前記サブピクセル画像作成ステップでは、画素全体の受光量が所定の閾値を超えない場合、画素全体の受光量を1画素あたりのサブピクセルの数で割った平均値を、今回のサブピクセルの受光量と推定し、画素全体の受光量が所定の閾値を超える場合、画素全体の受光量から前記重複領域の受光量を差し引くことで、今回のサブピクセルの受光量を推定する処理を前記コンピュータに実行させる前項16~19のいずれかに記載のプログラム。
(21)前記位置合わせステップでは、前記サブピクセル画像作成ステップにより作成された各照明装置に対応するサブピクセル画像の位置合わせを、下記式により輝度値Kijを補正値K'ijに補正することにより行う処理を前記コンピュータに実行させる前項16~20のいずれかに記載のプログラム。
j:点灯している照明装置の識別番号
(22)前記判別ステップでは、前記位置合わせステップにより位置合わせされたサブピクセル画像において、各照明装置に対応する明点が重複せずかつ各明点が予め設定された範囲内にある場合は、被検査物の表面に凹欠陥または凸欠陥が存在すると判定する処理を前記コンピュータに実行させる前項16~21のいずれかに記載のプログラム。
(23)前記判別ステップでは、前記位置合わせステップにより位置合わせされたサブピクセル画像において、各照明装置に対応する明点の位置が照明装置の配置位置と逆である場合は凹欠陥が存在し、逆でない場合は凸欠陥が存在すると判定する処理を前記コンピュータに実行させる前項22に記載のプログラム。
(24)前記判別ステップでは、前記位置合わせステップにより位置合わせされたサブピクセル画像において、各照明装置に対応する明点が重複しているときは、被検査物の表面にゴミまたはほこりが存在すると判定する処理を前記コンピュータに実行させる前項16~23のいずれかに記載のプログラム。
(25)全体の受光量が所定の閾値を超える画素を欠陥候補画素として検出し、検出された欠陥候補画素について、サブピクセル画像を位置合わせする前記位置合わせステップを前記コンピュータに実行させ、かつ判定ステップにより被検査物の表面欠陥を判別する処理を前記コンピュータに実行させる前項16~24のいずれかに記載のプログラム。
(26)前記照明装置の光源として、LEDまたは可視光半導体レーザーが用いられる前項16~25のいずれかに記載のプログラム。
(27)複数個の前記照明装置は、前記ラインセンサを中心とする円周上かつ360度/(照明装置の個数)の位置に配置されている前項16~26のいずれかに記載のプログラム。
The above objective is achieved by the following means.
(1) When the object to be inspected is moved relative to the illumination devices and line sensors placed at different positions, and the illumination light from each of the lighting devices is switched one by one to illuminate the object to be inspected. Each time the illumination light from each illumination device is switched, the line sensor receives and photographs the reflected light from the object to be inspected, thereby creating multiple images with respective positions shifted by the switching amount of the illumination light. an image acquisition means for acquiring images corresponding to each illumination device; and an alignment means for aligning images corresponding to each illumination device acquired by the image acquisition means; and a determination means for determining a defect, wherein a part of each pixel of the line sensor is photographed in the current photographing and the previous photographing by irradiating the inspection object with illumination light from one of the illuminating devices. When the area is an overlapping area where the range overlaps, and the part of one pixel excluding the overlapping area is defined as a sub-pixel, by subtracting the amount of light received in the overlapping area from the amount of light received by the entire pixel in the current shooting, It further includes sub-pixel image creation means for estimating the amount of light received by the current sub-pixel and creates a sub-pixel image, and the positioning means is configured to generate a sub-pixel image corresponding to each illumination device created by the sub-pixel image creation means. A surface defect discrimination device that aligns the surface .
( 2 ) When the object to be inspected is moved relative to the illumination devices and line sensors placed at different positions, and the illumination light from each of the lighting devices is switched one by one to illuminate the object to be inspected. The image acquisition means acquires a plurality of images for each illumination light by receiving and photographing reflected light from the object to be inspected with a line sensor each time the illumination light from each illumination device is switched. In preparation, a part of each pixel of the line sensor becomes an overlapping area where the photographing ranges of the current photographing and the previous photographing overlap due to illumination light from one of the illuminating devices being irradiated onto the inspected object. Therefore, when the part of one pixel excluding the overlapping area is defined as a subpixel, the amount of light received by the current subpixel is estimated by subtracting the amount of light received in the overlapping area from the amount of light received by the entire pixel in the current shooting. A surface defect further comprising: a sub-pixel image creating means for creating a sub-pixel image; and a determining means for determining a surface defect of an object to be inspected based on the sub-pixel image created by the sub-pixel image creating means. Discrimination device.
( 3 ) The surface defect discriminating device according to
( 4 ) The surface defect discriminating device according to any one of
( 5 ) The sub-pixel image creation means calculates the amount of light received in the overlapping area from the sum of the amounts of light received by the sub-pixels estimated before the previous time, subtracts the calculated amount of received light from the amount of light received by the entire pixel, and calculates the amount of light received in the overlapping area in this time. 5. The surface defect determination device according to any one of
( 6 ) The sub-pixel image creation means estimates the amount of light received by the first sub-pixel as the average value obtained by dividing the amount of light received by the entire first pixel after the start of imaging by the number of sub-pixels per pixel. The surface defect determination device described in .
( 7 ) If the amount of light received by the entire pixel does not exceed a predetermined threshold, the subpixel image creation means calculates the average value obtained by dividing the amount of light received by the entire pixel by the number of subpixels per pixel, and determines the amount of light received by the current subpixel. If the amount of light received by the entire pixel exceeds a predetermined threshold, the amount of light received by the current sub-pixel is estimated by subtracting the amount of light received by the overlapping area from the amount of light received by the entire pixel. 6. The surface defect determination device according to any one of 6 .
( 8 ) The alignment means aligns the sub-pixel images corresponding to each illumination device created by the sub-pixel image creation means by correcting the brightness value Kij to the correction value K'ij using the following formula. 8. The surface defect discriminating device according to any one of the preceding
j: Identification number of lighting device that is lit ( 9 ) The discrimination means determines whether the bright points corresponding to each lighting device do not overlap and each bright point in the subpixel image aligned by the alignment means. If it is within a preset range, it is determined that a concave defect or a convex defect exists on the surface of the object to be inspected.Described in any of the preceding
( 10 ) The determining means determines that a concave defect exists if the position of the bright point corresponding to each illumination device is opposite to the arrangement position of the illumination device in the sub-pixel image aligned by the alignment means; The surface defect discriminating device according to
( 11 ) When the bright points corresponding to each illumination device overlap in the sub-pixel images aligned by the alignment unit, the discrimination unit determines that dirt or dust is present on the surface of the object to be inspected. The surface defect discriminating device according to any one of the preceding
( 12 ) Pixels for which the total amount of light received exceeds a predetermined threshold are detected as defective candidate pixels, and the sub-pixel images of the detected defective candidate pixels are aligned by the alignment means, and the determination means 1. The surface defect discriminating device according to any one of the preceding
( 13 ) The surface defect determination device according to any one of
( 14 ) In any one of the preceding
( 15 ) A plurality of illumination devices arranged at different positions, a line sensor capable of receiving reflected light of the illumination light irradiated onto the object to be inspected from each illumination device, and the object to be inspected is connected to the illumination device and the line sensor. A moving means for moving the object to be inspected relative to the sensor, an illumination control means for switching the illumination light from each illumination device one by one at a predetermined cycle and irradiating the object to be inspected, and the moving means to move the object to be inspected. is moved relative to the illumination device and the line sensor, and each time the illumination light from each illumination device is switched, the illumination control means receives reflected light from the object to be inspected and photographs the object. 15. A visual inspection apparatus comprising: line sensor control means for controlling the line sensor; and the surface defect discriminating apparatus according to any one of
( 16 ) When the object to be inspected is moved relative to the illumination devices and line sensors arranged at different positions, and the illumination light from each illumination device is switched one by one to illuminate the object to be inspected. Each time the illumination light from each illumination device is switched, the line sensor receives and photographs the reflected light from the object to be inspected, thereby creating multiple images with respective positions shifted by the switching amount of the illumination light. an alignment step of aligning the images corresponding to each illumination device acquired in the image acquisition step; and a A determination step of determining a defect is executed by a computer , and a part of each pixel of the line sensor is divided into the current photographing and the previous photographing by irradiating the object with illumination light from one of the illuminating devices. When the photographing range is an overlapping area, and the part of one pixel excluding the overlapping area is defined as a sub-pixel, the amount of light received in the overlapping area is subtracted from the amount of light received by the entire pixel in the current shooting. This causes the computer to further execute a sub-pixel image creation step of estimating the amount of light received by the current sub-pixel and creating a sub-pixel image, and in the alignment step, each illumination created in the sub-pixel image creation step A program for causing the computer to perform a process of aligning subpixel images corresponding to devices .
( 17 ) The program according to item 16 , wherein, in the sub-pixel image creation step, the computer executes a process of subtracting the amount of light received in the overlapping region from the amount of light received by the entire pixel after the amount of light received in the overlapping region is corrected for each region.
( 18 ) In the sub-pixel image creation step, the amount of light received in the overlapping area is calculated from the sum of the amounts of light received by the sub-pixels estimated before the previous time, and the calculated amount of received light is subtracted from the amount of light received by the entire pixel to obtain the current amount of light received. 18. The program according to item 16 or 17 , which causes the computer to execute a process of estimating the amount of light received by a sub-pixel.
( 19 ) In the sub-pixel image creation step, the average value obtained by dividing the amount of light received by the entire first pixel after the start of imaging by the number of sub-pixels per pixel is estimated as the amount of light received by the first sub-pixel. 19. The program according to item 18 , which is executed by the computer.
( 20 ) In the subpixel image creation step, if the amount of light received by the entire pixel does not exceed a predetermined threshold, the average value obtained by dividing the amount of light received by the entire pixel by the number of subpixels per pixel is calculated as the current subpixel. If the amount of light received by the entire pixel exceeds a predetermined threshold, the amount of light received by the current sub-pixel is estimated by subtracting the amount of light received by the overlapping area from the amount of light received by the entire pixel. 20. The program according to any one of the preceding items 16 to 19 , which is executed by a computer.
(21) In the alignment step, the alignment of the sub-pixel images corresponding to each lighting device created in the sub-pixel image creation step is performed by correcting the brightness value Kij to the correction value K'ij using the following formula. 21. The program according to any one of items 16 to 20 , which causes the computer to execute the processing to be performed.
j: Identification number of lighting device that is lit ( 22 ) In the discrimination step, in the sub-pixel images aligned in the alignment step, bright points corresponding to each lighting device do not overlap and each
( 23 ) In the determination step, in the sub-pixel image aligned in the alignment step, if the position of the bright point corresponding to each illumination device is opposite to the arrangement position of the illumination device, a concave defect exists; 23. The program according to
( 24 ) In the discrimination step, if bright points corresponding to each illumination device overlap in the sub-pixel images aligned in the alignment step, it is determined that dirt or dust is present on the surface of the object to be inspected. 24. The program according to any one of items 16 to 23 , which causes the computer to execute a process for determining.
( 25 ) Detecting pixels whose total amount of received light exceeds a predetermined threshold as defective candidate pixels, and causing the computer to execute the alignment step of aligning sub-pixel images for the detected defective candidate pixels, and making a determination. 25. The program according to any one of items 16 to 24 , which causes the computer to execute a process of determining surface defects of an object to be inspected in steps.
( 26 ) The program according to any one of items 16 to 25 above, wherein an LED or a visible light semiconductor laser is used as a light source of the lighting device.
( 27 ) The program according to any one of items 16 to 26 , wherein the plurality of lighting devices are arranged on a circumference around the line sensor at positions of 360 degrees/(number of lighting devices).
前項(1)に記載の発明によれば、異なる位置に配置された照明装置及びラインセンサに対して被検査物を相対的に移動させながら、各照明装置からの照明光が1つずつ切り替えて被検査物に照射される。各照明装置からの照明光が切り替えられる毎に、被検査物からの反射光をラインセンサで受光して撮影することにより、照明光の切り替え分だけそれぞれ位置ずれした状態で複数の画像が取得される。取得された各照明装置に対応する画像は位置合わせされたのち、位置合わせされた画像から被検査物の表面欠陥が判別される。 According to the invention described in the preceding paragraph (1), while the object to be inspected is moved relative to the lighting devices and line sensors arranged at different positions, the illumination light from each lighting device is switched one by one. The object to be inspected is irradiated. Each time the illumination light from each illumination device is switched, a line sensor receives and photographs the reflected light from the object to be inspected, and multiple images are acquired with each position shifted by the switching amount of illumination light. Ru. The acquired images corresponding to each illumination device are aligned, and then surface defects of the object to be inspected are determined from the aligned images.
このように、照明装置及びラインセンサに対して被検査物が相対的に移動しているために、各照明装置からの照明光が切り替えられたときの照明光の切り替え分だけそれぞれ位置ずれした状態で、ラインセンサから取得された各照明装置に対応する複数の画像が位置合わせされ、この位置合わせされた状態で被検査物の表面欠陥が判別されるから、被検査物を相対的に移動させながら、被検査物の表面欠陥を判別することができる。 In this way, since the object to be inspected is moving relative to the lighting device and the line sensor, the position of each object is shifted by the amount of switching of the lighting light when the lighting light from each lighting device is switched. Then, the multiple images corresponding to each illumination device acquired from the line sensor are aligned, and surface defects on the inspected object are determined in this aligned state, so the inspection object can be moved relatively. However, it is possible to identify surface defects on the object to be inspected.
また、ラインセンサの各画素の一部は、1つの照明装置による照明光が被検査物に照射されることによる今回の撮影と前回の撮影とで撮影範囲が重複する重複領域となっており、1つの画素における重複領域を除く部分をサブピクセルとするとき、今回の撮影での画素全体の受光量から重複領域の受光量を差し引くことで、今回のサブピクセルの受光量が推定され、サブピクセル画像が作成される。そして、作成された各照明装置に対応するサブピクセル画像を位置合わせし、位置合わせされた画像から被検査物の表面欠陥が検出される。ここで、サブピクセルは、画素における重複領域を除く部分であるから、1画素より小さく、このため外観検査の分解能が向上し、より細かい表面欠陥の検出を行うことができる。
In addition, a part of each pixel of the line sensor is an overlapping area where the photographing range of the current photographing and the previous photographing overlaps due to the illumination light from one illumination device being irradiated onto the inspected object. When the part of one pixel excluding the overlapping area is defined as a subpixel, the amount of light received by the current subpixel is estimated by subtracting the amount of light received in the overlapping area from the amount of light received by the entire pixel in the current shooting, and the amount of light received by the subpixel is estimated. An image is created. Then, the created sub-pixel images corresponding to each illumination device are aligned, and surface defects of the object to be inspected are detected from the aligned images. Here, since the sub-pixel is a portion of a pixel excluding an overlapping region, it is smaller than one pixel, and therefore the resolution of the visual inspection is improved and finer surface defects can be detected.
つまり、相対的に移動する非検査物をラインセンサで撮影する場合、ラインセンサと非検査物の撮影面間の距離が安定せず、被写界深度を深く設定する必要があるが、被写界深度を深くすると分解能が下がるトレードオフの関係があり、細かい欠陥まで検査できない場合があるが、1画素より小さいサブピクセルの画像を使用することにより、被写界深度を深くしなくても分解能が上がり、より細かい欠陥まで検査できる利点がある。 In other words, when photographing a relatively moving non-inspection object with a line sensor, the distance between the line sensor and the non-inspection object's imaging surface is unstable, and the depth of field must be set deep. There is a trade-off relationship between increasing the depth of field and decreasing resolution, and it may not be possible to inspect even the smallest defects. However, by using subpixel images smaller than one pixel, resolution can be improved without increasing the depth of field. This has the advantage of increasing the accuracy and allowing inspection of even finer defects.
前項(2)に記載の発明によれば、1画素より小さいサブピクセル画像から欠陥が判別されるから、外観検査の分解能が向上し、より細かい表面欠陥の検出を行うことができる。
According to the invention described in the above item ( 2 ), since defects are determined from sub-pixel images smaller than one pixel, the resolution of appearance inspection is improved and finer surface defects can be detected.
前項(3)に記載の発明によれば、各照明装置に対応するサブピクセル画像の位置合わせにより、さらに精度の良い欠陥検出が可能となる。
According to the invention described in item ( 3 ) above, by aligning the sub-pixel images corresponding to each illumination device, more accurate defect detection is possible.
前項(4)に記載の発明によれば、重複領域の受光量を領域毎に補正した状態で、画素全体の受光量から差し引かれるから、重複領域のより正確な受光量を差し引いて今回のサブピクセルの受光量を推定でき、ひいてはより精度の高い欠陥判別を行うことができる。
According to the invention described in the previous section ( 4 ), the amount of light received in the overlapping area is corrected for each area and then subtracted from the amount of light received in the entire pixel. The amount of light received by a pixel can be estimated, which in turn enables more accurate defect determination.
前項(5)に記載の発明によれば、重複領域の受光量を、前回以前に推定されたサブピクセルの受光量の和から求め、求めた受光量を画素全体の受光量から差し引いて今回のサブピクセルの受光量を推定するから、推定処理が簡素化される。
According to the invention described in the preceding paragraph ( 5 ), the amount of light received in the overlapping area is calculated from the sum of the amounts of light received by sub-pixels estimated before the previous time, and the calculated amount of light received is subtracted from the amount of light received by the entire pixel to calculate the current amount of light received. Since the amount of light received by each sub-pixel is estimated, the estimation process is simplified.
前項(6)に記載の発明によれば、撮影開始後の最初の画素全体の受光量を1画素あたりのサブピクセルの数で割った平均値を、最初のサブピクセルの受光量と推定するから、次回以降のサブピクセルの受光量の推定処理をスムーズに行うことができる。
According to the invention described in the preceding paragraph ( 6 ), the average value obtained by dividing the amount of light received by the entire first pixel after the start of shooting by the number of subpixels per pixel is estimated as the amount of light received by the first subpixel. , it is possible to smoothly perform estimation processing of the amount of light received by sub-pixels from the next time onwards.
前項(7)に記載の発明によれば、画素全体の受光量が所定の閾値を超えない場合、換言すれば表面欠陥が存在しない可能性が高い場合は、画素全体の受光量を1画素あたりのサブピクセルの数で割った平均値を、今回のサブピクセルの受光量と推定する。一方、画素全体の受光量が所定の閾値を超える場合、換言すれば表面欠陥が存在する可能性が高い場合は、画素全体の受光量から前記重複領域の受光量を差し引くことで、今回のサブピクセルの受光量が推定される。これによって、表面欠陥が存在する可能性が高い領域に集中して欠陥判別処理を実行することができる。
According to the invention described in the preceding paragraph ( 7 ), when the amount of light received by the entire pixel does not exceed a predetermined threshold value, in other words, when there is a high possibility that no surface defect exists, the amount of light received by the entire pixel is determined by the amount of light received per pixel. The average value divided by the number of sub-pixels is estimated as the amount of light received by the current sub-pixel. On the other hand, if the amount of light received by the entire pixel exceeds a predetermined threshold, in other words, if there is a high possibility that a surface defect exists, the amount of light received by the overlapping area is subtracted from the amount of light received by the entire pixel. The amount of light received by the pixel is estimated. Thereby, the defect determination process can be executed while concentrating on areas where there is a high possibility that surface defects exist.
前項(8)に記載の発明によれば、各照明装置に対応するサブピクセル画像の位置合わせを正確に行うことができ、ひいては精度の高い欠陥判別を行うことができる。
According to the invention described in the preceding item ( 8 ), it is possible to accurately align the sub-pixel images corresponding to each illumination device, and as a result, it is possible to perform highly accurate defect determination.
前項(9)に記載の発明によれば、被検査物の表面の傷等の凹欠陥または凸欠陥を判別することができる。
According to the invention described in the preceding item ( 9 ), concave defects or convex defects such as scratches on the surface of the object to be inspected can be determined.
前項(10)に記載の発明によれば、被検査物の表面の凹欠陥や凸欠陥を判別することができる。
According to the invention described in the preceding item ( 10 ), it is possible to discriminate between concave defects and convex defects on the surface of the object to be inspected.
前項(11)に記載の発明によれば、被検査物の表面のゴミまたはほこりを判別することができる。
According to the invention described in the preceding paragraph ( 11 ), dirt or dust on the surface of the object to be inspected can be determined.
前項(12)に記載の発明によれば、全体の受光量が所定の閾値を超える画素を欠陥候補画素として検出し、検出された欠陥候補画素について、サブピクセル画像を位置合わせし、かつ被検査物の表面欠陥を判別するから、表面欠陥が存在する可能性が高い領域に集中して欠陥判別処理を実行することができる。
According to the invention described in the preceding section ( 12 ), pixels whose total amount of light reception exceeds a predetermined threshold are detected as defective candidate pixels, subpixel images are aligned with respect to the detected defective candidate pixels, and the pixels to be inspected are Since the surface defects of the object are determined, the defect determination process can be concentrated on areas where surface defects are likely to exist.
前項(13)に記載の発明によれば、LEDまたは可視光半導体レーザーが照明装置の光源として用いられるから、各照明装置の切り替えを高速度で行うことができる。
According to the invention described in the preceding item ( 13 ), since an LED or a visible light semiconductor laser is used as the light source of the lighting device, each lighting device can be switched at high speed.
前項(14)に記載の発明によれば、照明装置は3個以上であり、ラインセンサを中心とする円周上でかつ、360度÷照明装置の数、の角度差で配置されているから、証明光が傷等と直角にならない照明装置が必ず確保され、傷等の表面欠陥を精度良く判別することができる。
According to the invention described in the preceding paragraph ( 14 ), there are three or more lighting devices, and they are arranged on the circumference with the line sensor as the center and with an angular difference of 360 degrees ÷ the number of lighting devices. A lighting device in which the proof light is not perpendicular to scratches, etc. is always ensured, and surface defects such as scratches can be identified with high accuracy.
前項(15)に記載の発明によれば、異なる位置に配置された照明装置及びラインセンサに対して被検査物を相対的に移動させながら、非検査物の表面欠陥判別を精度良く行うことができる外観検査装置となる。
According to the invention described in the preceding paragraph ( 15 ), it is possible to accurately determine surface defects on non-inspected objects while moving the object to be inspected relative to the illumination device and line sensor arranged at different positions. This is an excellent visual inspection device.
前項(16)~(27)に記載の発明によれば、異なる位置に配置された照明装置及びラインセンサに対して被検査物を相対的に移動させながら、非検査物の表面欠陥判別処理をコンピュータに実行させることができる。 According to the invention described in the preceding sections (16) to (27) , the surface defect determination process of the non-inspected object is performed while the object to be inspected is moved relative to the illumination device and line sensor arranged at different positions. It can be executed by a computer.
以下、この発明の実施形態を図面に基づいて説明する。
[外観検査装置の構成]
図1は、この発明の一実施形態に係る外観検査装置の構成図である。図1に示すように、外観検査装置は、ラインセンサ1と、2つの照明装置2a、2bと、各照明装置2a、2bを制御する照明制御部8と、ラインセンサ1を制御するラインセンサ制御部9と、被検査物5を搬送する搬送ドラム3、3と、被検査物5の撮影位置を検出するドラムエンコーダー4と、表示装置6と、コンピュータ10と、被検査物5の搬送速度の制御のために搬送ドラム3の回転数を制御する搬送ドラム制御部11等を備えている。
Embodiments of the present invention will be described below based on the drawings.
[Configuration of appearance inspection device]
FIG. 1 is a configuration diagram of a visual inspection apparatus according to an embodiment of the present invention. As shown in FIG. 1, the appearance inspection apparatus includes a
コンピュータ10は、ラインセンサ1で撮影された画像を処理して欠陥判別を行うとともに、照明装置2a、2bとラインセンサ1を同期制御する。また、表示装置6は、コンピュータ10により欠陥判別処理された画像と処理結果等を表示する。
The
被検査物5は高反射率のベルト状をなし、搬送ドラム3を使用してロール状に設置され、搬送ドラム3、3の矢印方向の回転によって、Y方向に送られるようになっている。ラインセンサ1による被検査物5の撮影位置は、ドラムエンコーダー4で検知される。
The object to be inspected 5 is in the form of a belt with high reflectance, and is installed in a roll using a
ラインセンサ1は、被検査物5の移動方向Yと直交するX方向に延設されており、2つの照明装置2a、2bは、図2(A)に示すように、上方から見てラインセンサ1を中心とする対象位置に180度の角度差で配置されており、それぞれ異なる2方向から照明することが可能である。照明装置2a、2bの対向方向はX方向でもY方向でも、他の方向でもかまわない。この実施形態では、2つの照明装置2a、2bを使用しているが、3つ以上を使用しても良い。3つ以上の場合、図2(B)に示すように、上方から見てラインセンサ1を中心とする円周上で、かつ360度÷照明装置の数、の角度差で配置されるのが、直線状の傷等の表面欠陥に対して直角にならない照明装置が必ず確保され、傷等の表面欠陥を精度良く判別することができる点から望ましい。なお、図2(B)では3つの照明装置2a、2b、2cの場合であり、相互に120度の角度差で配置されている。
The
各照明装置2a、2bは、照明制御部8での制御により任意のタイミングにてオンオフを切り替えることができるようになっている。
Each of the
ラインセンサ1の1ラインでの撮影範囲が、被検査物5に対して小さい場合は、Y方向に被検査物5を一回り撮影後、センサ照明搬送部12により、照明装置2a、2bとラインセンサ1を一体で、ラインセンサ1の長さ分X方向に移動させ、再度Y方向に一回り撮影し、これを順次繰り返すことで、被検査物5の全体を撮影する構成としても良い。
If the photographing range of one line of the
ラインセンサ1は、被検査物5をY方向に移動させながら、各照明装置2a、2bのオンオフを切り替えて被検査物5を照明したときの反射光を受光する。ラインセンサ1と各照明装置2a、2bは正対位置になく、各照明装置2a、2bからの照明光が被検査物5で乱反射された反射光がラインセンサ1に受光される。従って、ラインセンサ1により撮影される画像は暗視野画像となる。
The
被検査物5の表面は高反射率であるため、照明位置に凹欠陥、凸欠陥、傷状欠陥、ほこり、ゴミ等があった場合、これら欠陥、ほこり、ゴミ等で乱反射した反射光がラインセンサ1に入射する。
Since the surface of the object to be inspected 5 has a high reflectance, if there are concave defects, convex defects, scratch-like defects, dust, dirt, etc. at the illumination position, the reflected light diffusely reflected by these defects, dust, dirt, etc. will be reflected as a line. incident on
ラインセンサ制御部9と照明制御部8はコンピュータ10に接続され、ラインセンサ1と照明装置2a、ラインセンサ1と照明装置2bはそれぞれ同期して発光、撮影される。
The line
この実施形態では、一般的なラインセンサの仕様からラインセンサ1のラインレートを100kHz(シャッタースピード0.01ms)とする。つまり、照明装置2a、照明装置2bとして、0.01msごとに交互に高速に切り替えられるLED光源やLD(可視光半導体レーザー)光源などを用いたものが好適である。
[表面欠陥判別処理]
次に、コンピュータ10による被検査物5の表面欠陥判別処理について説明する。なお、コンピュータ10には、CPU、RAM、記憶装置等が備えられ、表面欠陥判別処理は、記憶装置等に格納された動作プログラムに従ってCPUが動作することにより実行される。
In this embodiment, the line rate of the
[Surface defect determination processing]
Next, the surface defect determination processing of the
前述したように、ラインセンサ1による撮影は、被検査物5を移動させながら、複数(この実施形態では2つ)の照明装置2a、2bのオンオフを交互に切り替えることにより行われる。コンピュータ10は、ラインセンサ1による撮影画像を順次取得する。
<サブピクセル画像の作成>
図3は、照明装置2a、2bを切り替えながら撮影するときの撮影範囲と画素20の相対的位置関係を説明するための図である。
As described above, photographing by the
<Creation of subpixel image>
FIG. 3 is a diagram for explaining the relative positional relationship between the photographing range and the
図3に示すように、検出する欠陥30のサイズを12A、ラインセンサ1の分解能(1画素20の長さ)を6Aとし、被検査物5をA送るごとに照明装置2a、2bを切り替えながら撮影するものとする。ラインセンサ1の分解能6Aは、1画素における1回の撮影領域である。従って、図3に示すように、1回目の撮影は照明装置2aの照明光により行われ、被検査物5がA送られると2回目の撮影に切り替わり、照明装置2bの照明光により撮影が行われる。1回目の撮影と2回目の撮影とでは、被検査物5の撮影領域がAだけ移動している。3回目以降の撮影についても同様である。図3の例では、説明の便宜上、切り替え撮影のたびに画素20がAだけ移動した状態が示されている。
As shown in FIG. 3, the size of the
図4は、1つの照明装置2aによる1回目~4回目の撮影を行ったときの撮影範囲と画素20の相対的位置関係を説明するための図である。
FIG. 4 is a diagram for explaining the relative positional relationship between the photographing range and the
図4に示すように照明装置2aに着目すると、照明装置2aは被検査物5が2A移動する毎にオンとなってその照明光による被検査物5への照射が開始され、その都度ラインセンサ1により撮影される。つまり、被検査物5が2A移動する毎に、照明装置2aからの照明光に対応する撮影が行われる。照明装置2aの照明光の照射時間、換言すればラインセンサ1の各画素20の受光時間は、移動距離Aに相当する時間である。これらの点は照明装置2bについても同様である。
As shown in FIG. 4, focusing on the
また、図4に示されるように、照明装置2aによる撮影において、センサ分解能6Aの一部である4A分は、今回の撮影と前回の撮影とで被検査物5の同じ撮影範囲を撮影しており、撮影範囲が重複した重複領域である。つまり、画素20を長さ方向に順に第1領域21、第2領域22、第3領域23の3領域に分割すると、1領域あたりの長さは2Aであり、前回の撮影における第2領域22及び第3領域23と、今回の撮影の第1領域21及び第2領域22は、撮影範囲が同じ重複領域である。例えば、4回目の撮影の第1領域21と第2領域22は、それぞれ3回目の撮影の第2領域22と第3領域23と重複している。図4では、今回の撮影における前回の撮影との重複領域をグレー表示している。
In addition, as shown in FIG. 4, when photographing with the
今回の撮影の第3領域23については、前回の撮影との撮影範囲は重複せず、新たな撮影範囲として更新される部分であり、これをサブピクセルとする。以下、第3領域をサブピクセルともいう。
Regarding the
図5はサブピクセル23の受光量の推定方法を説明するための図であり、照明装置2aによりi回目の撮影とその前後複数回の撮影を行ったときの、撮影範囲と画素20の相対的位置関係を示している。
FIG. 5 is a diagram for explaining a method for estimating the amount of light received by the sub-pixel 23, and shows the relative relationship between the photographing range and the
図5に示す通り、i回目の撮影においてサブピクセル23の受光量は、i回目の撮影での1画素20の全体(6A分)の受光量から、前回の撮影との重複領域である第1領域21及び第2領域22の4A分の受光量を差し引いて演算推定する必要がある。
As shown in FIG. 5, the amount of light received by the sub-pixel 23 in the i-th imaging is determined from the amount of light received by the entire one pixel 20 (6A) in the i-th imaging. It is necessary to calculate and estimate by subtracting the amount of light received for 4A in the
(i-2)回目の画像は(i-3)回目との比較では、サブピクセル23の2A分更新され、撮影回数が(i-1)回目、i回目と増える毎に順にサブピクセル23の2A分ずつ更新されていく。更新された新たなサブピクセル23は、次の撮影時には重複領域となり、さらに次の撮影時にも重複領域として残り、その次の撮影時に重複領域から外れる。つまり、今回の撮影と前回の撮影との間の重複領域は、前回及び前々回の過去2回の撮影時のサブピクセル23である。従って、i回目の撮影においてサブピクセル23の受光量は、i回目の撮影での1画素6A分の全受光量から、前回(i-1)回目の撮影時のサブピクセル23の推定受光量と、前々回(i-2)回目の撮影時のサブピクセル23の推定受光量の和を差し引いた値となる。つまり、
(i回目のサブピクセルの受光量の推定値)=(i回目の全受光量)-{((i-1)回目のサブピクセルの受光量の推定値)+((i-2)回目のサブピクセルの受光量の推定値)}と演算される。
In comparison with the (i-3)th image, the (i-2)th image is updated by 2A of the
(Estimated value of the amount of light received by the i-th sub-pixel) = (Total amount of received light of the i-th time) - {(Estimated value of the amount of light received by the (i-1)th sub-pixel) + ((i-2)th estimated value of the amount of light received by the sub-pixel)}.
図5の各画素20の第1~第3の各領域21~23に書き込まれた数値はその領域の推定受光量の一例であり、前回あるいは前々回のサブピクセル23の数値と同じである。画素20の右横の数値は1画素の全受光量である。図5の例では、i回目の撮影での1画素6A分の全受光量は3.8であり、前回(i-1)回目の撮影時のサブピクセル23の推定受光量は1.3であり、前々回(i-2)回目の撮影時のサブピクセル23の推定受光量は0.5であるから、i回目の撮影でのサブピクセル23の推定受光量は、[3.8-(1.3+0.5)}=2.0となる。
The numerical values written in the first to
ただし、このサブピクセル23の受光量の推定処理は、欠陥が存在する可能性の高い欠陥候補画素として検出された画素20に対して実施されれば良く、検出された欠陥候補画素の推定位置をドラムエンコード4の情報を基にiとし、そのときのサブピクセル23の受光量を位置情報と関連付けて記憶しておき、サブピクセル画像を作成すれば良い。これにより、表面欠陥が存在する可能性が高い部位に集中して欠陥判別処理を実行することができ、効率が良くなる。欠陥候補画素については、全体の受光量が所定の閾値を超える画素20を欠陥候補画素として検出すれば良い。
However, this process of estimating the amount of light received by the sub-pixel 23 only needs to be carried out for the
なお、全体の受光量が所定の閾値を超えない画素20については、欠陥が存在している可能性が低いため、2A分の画素光量の平均値を画素全体の受光量の1/3として求め、サブピクセル23の受光量と推定すれば良い(図5の例えば(i-4)回目または(i-3)回目)。
Note that for
また、検査開始後の最初の撮影については、前回のサブピクセル23の推定受光量が存在しないため、画素全体の受光量を1画素あたりのサブピクセル23の数で割った平均値を、最初のサブピクセル23の受光量と推定し、この受光量を用いて、以降の撮影におけるサブピクセル23の受光量を推定すれば良い。
In addition, for the first imaging after the start of the inspection, since there is no estimated amount of light received by the
このようにして、欠陥候補画素周辺について、画素20の画像ではなく1/3画素(2A分の領域)の受光量からなるサブピクセル画像を作成する。これによりラインセンサ1の分解能は3倍となり、細かい表面欠陥を精度良く検出、判別することができる。つまり、ラインセンサ1および照明装置2a、2bに対して移動する非検査物5をラインセンサ1で撮影する場合、ラインセンサ1と非検査物5の撮影面間の距離が安定せず、被写界深度を深く設定する必要があるが、被写界深度を深くすると分解能が下がるトレードオフの関係があり、細かい欠陥まで検査できない場合があるが、1画素より小さいサブピクセルの画像を使用することにより、被写界深度を深くしなくても分解能が上がり、より細かい欠陥まで検査できる。
In this way, a sub-pixel image consisting of the amount of light received by 1/3 pixel (an area of 2 A) is created around the defective candidate pixel instead of an image of
照明装置2aについてサブピクセル画像を生成したが、照明装置2bについても同様にして、1/3画素のサブピクセル画像を作成することができる。
<照明装置2a、2bについてのサブピクセル画像の位置合わせ>
図6に示すように、照明装置2aに対応する1つの画素20についてのサブピクセル画像の位置をa1、a2、a3・・・とし、照明装置2bに対応する1つの画素20についてのサブピクセル画像の位置をb1、b2、b3・・・とすると、撮影時には、被検査物5はラインセンサ1及び照明装置2a、2bに対して移動しているから、照明装置2aについてのサブピクセル画像と照明装置2bについてのサブピクセル画像は、a1、b1、a2、b2、a3、b3・・・というように、照明光の切り替え時間に相当する移動距離Aだけ、交互に位置ずれした状態となる。
Although a sub-pixel image has been generated for the
<Alignment of subpixel images for
As shown in FIG. 6, the positions of sub-pixel images for one
そこで、この位置ずれを補正する。具体的には、照明装置2aの位置a2に対応する照明装置2bのサブピクセルの位置をb2’とすると、
位置b2’での受光量(輝度値)=(位置b1での受光量+位置b2での受光量)/2
として、受光量(輝度値)を補正することにより位置ずれを補正する。照明装置2aの位置a3、a4・・・に対応する照明装置2bのサブピクセルの位置b3’、b4’・・・についても同様である。
Therefore, this positional shift is corrected. Specifically, if the position of the sub-pixel of the
Amount of light received at position b2' (brightness value) = (amount of light received at position b1 + amount of light received at position b2)/2
The positional shift is corrected by correcting the amount of received light (brightness value). The same applies to the sub-pixel positions b3', b4', . . . of the
また、照明装置2aの位置を、照明装置2bの位置b1、b2、b3・・・に対応するように、位置合わせしても良い。
Further, the position of the
上記補正式は照明装置が2つの場合であるが、2つでも3つ以上であっても適用可能な補正式は、次の式で表される。 The above correction formula is for a case where there are two illumination devices, but a correction formula that can be applied to two, three or more illumination devices is expressed by the following formula.
ただし、i:サブピクセル推定位置のインデックス
j:点灯している照明装置の識別番号
<サブピクセルの受光量推定時の補正>
サブピクセル23の受光量の推定は、1画素6A分のすべての領域が同じ受光感度を有しているものとして行った。しかし実際には、図7の感度分布に示すように、画素20の各部によって受光感度は相違し、中央部は相対的に受光感度が高く、両端部は低い。図7では、ハッチング部分の感度が高いことを示しており、同じ両端部でも第3領域の方が第1領域よりも感度が高い。
However, i: index of estimated sub-pixel position
j: Identification number of the lighting device that is lit <Correction when estimating the amount of light received by sub-pixels>
The amount of light received by the sub-pixel 23 was estimated on the assumption that all areas corresponding to one
図5で説明したように、今回の撮影がi回目の撮影であるとすると、前回の撮影である(i-1)回目の撮影において、サブピクセルは1画素の右端部の第3領域23であり、受光感度が低い。このサブピクセル23は、今回のi回目の撮影では、中央の2A分の第2領域22と重複しており、この領域は受光感度が高い。このため、i回目の撮影における中央の第2領域22の受光量は、(i-1)回目の撮影におけるサブピクセル23の受光量よりも多いはずである。
As explained in FIG. 5, if the current shooting is the i-th shooting, then in the previous shooting (i-1), the sub-pixel is in the
また、i回目の撮影における第1領域21の受光量は、(i-2)回目の撮影におけるサブピクセル23の受光量であるが、(i-2)回目の撮影におけるサブピクセル23の受光量よりも、i回目の撮影における第1領域21の受光量の方が実際には少ないはずである。
Furthermore, the amount of light received by the
そこで、画素20の各領域21~23の受光量を補正するため、各領域21~23に応じた重み付けを行い、領域21~23毎に重み係数を設定している。具体的には、1画素20の左端部の第1領域21の重み係数をε1、中央部の第2領域22の重み係数をε2、右端部の第3領域23の重み係数をε3として、i回目の撮影におけるサブピクセル23の受光量を下記式により演算している。
(i回目のサブピクセルの受光量の推定値)=(i回目の全受光量)-{((i-1)回目のサブピクセルの受光量の推定値)*ε2/ε3+((i-2)回目のサブピクセルの受光量の推定値)*ε1/ε3}
ε1、ε2、ε3の具体例として本実施形態では、ε1=1/3、ε2=1、ε3=2/3が設定されている。図8に、重み付けを考慮して算出した各領域21~23の補正後の受光量推定値の一例を示す。
Therefore, in order to correct the amount of light received in each
(Estimated value of the amount of light received by the i-th sub-pixel) = (Total amount of received light of the i-th time) - {(Estimated value of the amount of light received by the (i-1)th sub-pixel) * ε2 / ε3 + ((i-2 ) estimated value of the amount of light received by the sub-pixel)*ε1/ε3}
As a specific example of ε1, ε2, and ε3, in this embodiment, ε1=1/3, ε2=1, and ε3=2/3 are set. FIG. 8 shows an example of the corrected light reception amount estimated values for each of the
図8の例では、(i-2)回目の撮影時のサブピクセル23の受光量を0.3としたとき、(i-1)回目の撮影時の第2領域22においては、受光量が補正されて0.5に増加し、i回目の撮影時の第1領域21においては、受光量が補正されて0.2に減少している。また、(i-1)回目の撮影時のサブピクセル23の受光量を0.9としたとき、i回目の撮影時の第2領域22においては、受光量が補正されて1.3に増加している。
In the example of FIG. 8, when the amount of light received by the sub-pixel 23 during the (i-2)th photographing is set to 0.3, the amount of light received in the
また、画素20の受光感度だけでなく、照明装置2a、2bの照射光量の分布が相違するため、図9に示すように、反射光40の受光量も画素20の領域によって異なる場合がある。図9の例では、画素20の端部の第1領域21及び第3領域23については反射光量1に対し、中央の第2領域22については反射光量が2倍であることを示している。このため、反射光量の相違を補正するため、画素20の各領域21~23毎に基づく重み係数ε1~ε3を設定してもよい。たとえば、ε1=1/2、ε2=1、ε3=1/2が設定されても良い。
Further, since not only the light receiving sensitivity of the
このように、画素20の領域21~23毎に受光量を補正した状態で、1画素全体の受光量から重複領域の受光量が差し引かれるから、重複領域のより正確な受光量を差し引いて今回のサブピクセル23の受光量を推定でき、ひいてはより精度の高い欠陥判別を行うことができる。
<欠陥判別>
相互に位置合わせされたサブピクセル画像を基に表面欠陥を判別する。
In this way, with the amount of received light corrected for each
<Defect determination>
Surface defects are determined based on mutually aligned sub-pixel images.
凹欠陥のうち、”ボイド欠陥”と呼ばれる球面状の凹み欠陥51については、図10に示すように、対向して配置された照明装置2a及び2bの異なる方向からの照明光がクロスし、照明装置2a及び2bの各位置と反射位置とは位置関係が逆になる。つまり、位置合わせされたサブピクセル画像61において、各照明装置2a、2bに対応する明点61a、61bが重複せず、かつ各明点61a、61bが予め設定された範囲内にあり、しかも明点61a、61bの位置が照明装置2a、2bの配置位置と逆の位置関係である場合は、凹欠陥51と判定する。
Among the concave defects, for a spherical
一方、”凸欠陥”については、図11に示すように、照明装置2a及び2bから凸欠陥52への各照明光はクロスせず、照明装置2a及び2bの各位置と反射位置とは位置関係が同じである。従って、位置合わせされたサブピクセル画像62において、各照明装置2a、2bに対応する明点62a、62bが重複せず、かつ各明点62a、62bが予め設定された範囲内にあり、しかも明点62a、62bの位置が照明装置2a、2bの配置位置と同じ位置関係である場合は凸欠陥52と判定する。
On the other hand, regarding the "convex defect", as shown in FIG. 11, the illumination lights from the
なお、図10及び図11において、照明装置2aに対応する明点61a、62aをダブルハッチングで、照明装置2bに対応する明点61b、62bを破線ハッチングで示している。図12以降においても同様である。
In addition, in FIGS. 10 and 11,
凹欠陥のうち、”傷欠陥”と呼ばれる平面の欠陥53については、図12に示すように、対向して配置された照明装置2a及び2bからの照明光がクロスし、照明装置2a及び2bの各位置と反射位置とは位置関係が逆になる。かつ、傷面の方向が不揃いなため照明装置2aの照明光の反射と照明装置2bの照明光の反射が混在する。ただし、平面は高反射率面であるため各照明光は混合して反射しない。従って、位置合わせされたサブピクセル画像63において、照明装置2aに対応する明点63aと照明装置2bに対応する明点63bが重複せず、かつ各明点63a、63bが混在し、明点63a、63bの位置が照明装置2a、2bの配置位置と逆である場合は、被検査物5の表面に傷欠陥53が存在すると判定する。
Among the concave defects, for a
”ほこり”や”ゴミ”は、表面が拡散反射面であるため、照明装置2a、2bの照明光を拡散反射し、このため、図13のように各照明光は欠陥54により混合して反射される。従って、位置合わせされたサブピクセル画像64において、各照明装置2a、2bに対応する明点64a、64bが重複しているときは、被検査物5の表面にゴミまたはほこりが存在すると判定する。
Since the surface of "dust" and "garbage" is a diffuse reflection surface, it diffusely reflects the illumination light from the
照明装置2a、2bによる各サブピクセル画像はいずれも暗視野画像であり、凹凸欠陥、傷欠陥、ほこり、ゴミ等は白点として現れる。画像上の欠陥候補の検出は以下のようにして行う。
Each sub-pixel image produced by the
即ち、欠陥候補のサイズを画像の面積でW1以上W2以下、輝度をB2以上と設定した時、各サブピクセル画像を共にB2で二値化し、膨張収縮処理で離散画素の集結処理を行う。さらに、画素集合ごとに色分け等によるラベル付けを行う。 That is, when the size of the defect candidate is set in terms of image area to be W1 or more and W2 or less, and the brightness is set to be B2 or more, each sub-pixel image is binarized at B2, and the discrete pixels are aggregated by expansion/contraction processing. Furthermore, each pixel set is labeled by color coding or the like.
集合面積SがW1≦S≦W2なるラベルの画素集合のみを残し、そのほかの画素集合を各サブピクセル画像から削除する。W1は単に最小の欠陥サイズを示すのではなく、「欠陥の部分」とみなせる最小サイズを示す。 Only the pixel sets with labels where the aggregate area S satisfies W1≦S≦W2 are left, and the other pixel sets are deleted from each sub-pixel image. W1 does not simply indicate the minimum defect size, but also indicates the minimum size that can be considered as a "defect part."
そして、欠陥のサイズを画素数でX以上と定義した時、照明装置2aについてのサブピクセル画像に残る画素集合の各画素の座標Vi(iは画素集合のラベル)を調べ、照明装置2bについてのサブピクセル画像の座標Vi±X/2の範囲内に画素集合がある場合は欠陥とみなし、上述した欠陥分類方法に従って、”ボイド欠陥”、”傷欠陥”、”凸欠陥”、”ほこりまたはゴミ”の4種類に分類する。 Then, when the size of the defect is defined as the number of pixels of If there is a pixel set within the range of coordinates Vi ± It is classified into four types.
具体的には、図14に示すように、位置合わせされた、照明装置2aに対応するサブピクセル画像SPbと照明装置2bに対応するサブピクセル画像SPbを、右図のように組み合わせると、各照明装置2a、2bに対応する明点61a、61bが重複せず、かつ各明点61a、61bが座標Vi±X/2の範囲内にあり、しかも明点61a、61bの位置が照明装置2a、2bの配置位置と逆の位置関係であるから、ボイド欠陥と判定する。
Specifically, as shown in FIG. 14, when aligned sub-pixel images SPb corresponding to
図15に示すように、位置合わせされた、照明装置2aに対応するサブピクセル画像SPbと照明装置2bに対応するサブピクセル画像SPbを、右図のように組み合わせると、各照明装置2a、2bに対応する明点62a、62bが重複せず、かつ各明点62a、62bが座標Vi±X/2の範囲内にあり、しかも明点62a、62bの位置が照明装置2a、2bの配置位置と同じ位置関係であるから、凸欠陥と判定する。
As shown in FIG. 15, when the aligned sub-pixel image SPb corresponding to
図16に示すように、位置合わせされた、照明装置2aに対応するサブピクセル画像SPbと照明装置2bに対応するサブピクセル画像SPbを、右図のように組み合わせると、各照明装置2a、2bに対応する各明点62a、62bが座標Vi±X/2の範囲内にあり、明点62a、62bが重複することなく混在し、明点63a、63bの位置が照明装置2a、2bの配置位置と逆であるから、傷欠陥と判定する。
As shown in FIG. 16, when the aligned sub-pixel image SPb corresponding to
図17に示すように、位置合わせされた、照明装置2aに対応するサブピクセル画像SPbと照明装置2bに対応するサブピクセル画像SPbを、右図のように組み合わせると、各照明装置2a、2bに対応する明点64a、64bが重複しているから、ゴミまたはほこりと判定する。
As shown in FIG. 17, when the aligned sub-pixel image SPb corresponding to
以上により、移動する被検査物5の表面欠陥を検出判別することができる。
As described above, surface defects on the moving
検出結果は表示装置6に表示される。表示は、好ましくは、図14~図17の右側に示した2つのサブピクセル画像SPa、SPbの位置合わせ後の画像とともに、判別した欠陥の種類や、欠陥毎の座標Vi±X/2の範囲も併せて表示されても良い。
The detection results are displayed on the
以上、本発明の一実施形態を説明したが、本発明は上記実施形態に限定されることはない。例えば、ラインセンサ1及び照明装置2a、2bを固定し、被検査物5を移動させながら撮影を行う構成としたが、被検査物5を固定し、ラインセンサ1及び照明装置2a、2bを移動させながら撮影を行っても良く、被検査物5とラインセンサ1及び照明装置2a、2bの少なくとも一方が他方に対して相対的に移動していれば良い。
Although one embodiment of the present invention has been described above, the present invention is not limited to the above embodiment. For example, the
また、非検査物5の1撮影あたりの相対的移動距離がAであり、サブピクセル23の長さが2Aである場合を示したが、1つの照明装置について、今回の撮影と前回の撮影とで撮影範囲の重複が生じサブピクセルが形成できれば良い。そのために、非検査物5の1撮影あたりの相対的移動距離は1画素の1/2以下とするのが良い。
In addition, although the relative moving distance per photographing of the
また、照明装置2a、2bは2つを使用したが、前述したように3つ以上の照明装置を順に切り替えて使用し、各照明装置に対応する3種類以上のサブピクセル画像を比較して欠陥を検出判別する方が、照射光の方向が多様になり、より精度良く表面欠陥を検出判別できる点から望ましい。
In addition, although two
本発明は、正反射性状の強い表面を持つ製品や部品等の被検査物の表面欠陥を判別する際に利用可能である。 INDUSTRIAL APPLICATION This invention can be utilized when determining the surface defect of an object to be inspected, such as a product or a component having a surface with strong specular reflection properties.
1 ラインセンサ
2a、2b 照明装置
4 ドラムエンコーダ
5 被検査物
6 照明装置
8 照明制御部
9 ラインセンサ制御部
10 コンピュータ
11 ドラム搬送制御部
20 画素
21 第1領域
22 第2領域
23 サブピクセル(第3領域)
30 欠陥
51 凹欠陥(ボイド欠陥)
52 凸欠陥
53 傷欠陥
54 ほこりまたはゴミ
61a~64a 照明装置2aによる明点
61b~64b 照明装置2bによる明点
1
30
52
Claims (27)
前記画像取得手段により取得された、各照明装置に対応する画像を位置合わせする位置合わせ手段と、
前記位置合わせ手段により位置合わせされた画像から、被検査物の表面欠陥を判別する判別手段と、
を備え、
前記ラインセンサの各画素の一部は、1つの前記照明装置による照明光が被検査物に照射されることによる今回の撮影と前回の撮影とで撮影範囲が重複する重複領域となっており、
1つの画素における前記重複領域を除く部分をサブピクセルとするとき、今回の撮影での画素全体の受光量から前記重複領域の受光量を差し引くことで、今回のサブピクセルの受光量を推定しサブピクセル画像を作成するサブピクセル画像作成手段をさらに備え、
前記位置合わせ手段は、前記サブピクセル画像作成手段により作成された各照明装置に対応するサブピクセル画像を位置合わせする表面欠陥判別装置。 When the object to be inspected is moved relative to the illumination devices and line sensors arranged at different positions, and the illumination light from each illumination device is switched one by one and irradiated onto the object to be inspected, each Each time the illumination light from the illumination device is switched, a line sensor receives and photographs the reflected light from the object to be inspected, thereby obtaining a plurality of images with respective positions shifted by the switching amount of the illumination light. an image acquisition means;
Aligning means for aligning images corresponding to each illumination device acquired by the image acquisition means;
Discrimination means for determining surface defects of the object to be inspected from the images aligned by the alignment means;
Equipped with
A part of each pixel of the line sensor is an overlapping area where the photographing ranges of the current photographing and the previous photographing overlap due to illumination light from one illumination device being irradiated onto the inspected object,
When the part of one pixel excluding the overlapping area is defined as a subpixel, the amount of light received by the current subpixel is estimated by subtracting the amount of light received by the overlapping area from the amount of light received by the entire pixel in the current shooting. further comprising subpixel image creation means for creating a pixel image;
The alignment means is a surface defect determination device that aligns the sub-pixel images corresponding to each illumination device created by the sub-pixel image creation means .
前記ラインセンサの各画素の一部は、1つの前記照明装置による照明光が被検査物に照射されることによる今回の撮影と前回の撮影とで撮影範囲が重複する重複領域となっており、
1つの画素における前記重複領域を除く部分をサブピクセルとするとき、今回の撮影での画素全体の受光量から前記重複領域の受光量を差し引くことで、今回のサブピクセルの受光量を推定しサブピクセル画像を作成するサブピクセル画像作成手段と、
サブピクセル画像作成手段により作成されたサブピクセル画像に基づいて、被検査物の表面欠陥を判別する判別手段と、
をさらに備えている表面欠陥判別装置。 When the object to be inspected is moved relative to the illumination devices and line sensors arranged at different positions, and the illumination light from each illumination device is switched one by one and irradiated onto the object to be inspected, each comprising an image acquisition means for acquiring a plurality of images for each of the illumination lights by receiving and photographing reflected light from the object to be inspected with a line sensor each time the illumination light from the illumination device is switched;
A part of each pixel of the line sensor is an overlapping area where the photographing ranges of the current photographing and the previous photographing overlap due to illumination light from one illumination device being irradiated onto the inspected object,
When the part of one pixel excluding the overlapping area is defined as a subpixel, the amount of light received by the current subpixel is estimated by subtracting the amount of light received by the overlapping area from the amount of light received by the entire pixel in the current shooting. subpixel image creation means for creating a pixel image;
A determining means for determining a surface defect of the object to be inspected based on the sub-pixel image created by the sub-pixel image creating means;
A surface defect discrimination device further equipped with.
j:点灯している照明装置の識別番号 3. The positioning means performs positioning of the sub-pixel images corresponding to each illumination device created by the sub-pixel image creation means by correcting the brightness value Kij to the correction value K'ij according to the following formula. 1 , 3 , the surface defect discriminating device according to any one of claims 4 to 7 , which refers to claim 1 or 3 .
j: Identification number of the lighting device that is lit
各照明装置から被検査物に照射された照明光の反射光を受光可能なラインセンサと、
前記被検査物を、前記照明装置及びラインセンサに対して相対的に移動させる移動手段と、
各照明装置からの照明光を1つずつ所定の周期で切り替えて被検査物に照射させる照明制御手段と、
前記移動手段により、前記被検査物を前記照明装置及びラインセンサに対して相対的に移動させながら、前記照明制御手段により、各照明装置からの照明光が切り替えられる毎に、被検査物からの反射光を受光して撮影を行うように、前記ラインセンサを制御するラインセンサ制御手段と、
請求項1~14のいずれかに記載の表面欠陥判別装置と、
を備えた外観検査装置。 multiple lighting devices placed at different positions;
a line sensor capable of receiving reflected light of the illumination light irradiated onto the inspected object from each illumination device;
a moving means for moving the object to be inspected relative to the illumination device and the line sensor;
illumination control means that switches the illumination light from each illumination device one by one at a predetermined period to irradiate the object to be inspected;
While the moving means moves the object to be inspected relative to the illumination device and the line sensor, the illumination control means controls the amount of light from the object to be inspected each time the illumination light from each illumination device is switched. Line sensor control means for controlling the line sensor so as to receive reflected light and perform photography;
The surface defect determination device according to any one of claims 1 to 14 ,
Appearance inspection equipment equipped with
前記画像取得ステップにより取得された、各照明装置に対応する画像を位置合わせする位置合わせステップと、
前記位置合わせステップにより位置合わせされた画像から、被検査物の表面欠陥を判別する判別ステップと、
をコンピュータに実行させ、
前記ラインセンサの各画素の一部は、1つの前記照明装置による照明光が被検査物に照射されることによる今回の撮影と前回の撮影とで撮影範囲が重複する重複領域となっており、
1つの画素における前記重複領域を除く部分をサブピクセルとするとき、今回の撮影での画素全体の受光量から前記重複領域の受光量を差し引くことで、今回のサブピクセルの受光量を推定しサブピクセル画像を作成するサブピクセル画像作成ステップを前記コンピュータにさらに実行させ、
前記位置合わせステップでは、前記サブピクセル画像作成ステップにより作成された各照明装置に対応するサブピクセル画像を位置合わせする処理を前記コンピュータに実行させるためのプログラム。 When the object to be inspected is moved relative to the illumination devices and line sensors arranged at different positions, and the illumination light from each illumination device is switched one by one and irradiated onto the object to be inspected, each Each time the illumination light from the illumination device is switched, a line sensor receives and photographs the reflected light from the object to be inspected, thereby obtaining a plurality of images with respective positions shifted by the switching amount of the illumination light. an image acquisition step;
an alignment step of aligning images corresponding to each illumination device acquired in the image acquisition step;
a determination step of determining a surface defect of the object to be inspected from the images aligned in the alignment step;
make the computer run
A part of each pixel of the line sensor is an overlapping area where the photographing ranges of the current photographing and the previous photographing overlap due to illumination light from one illumination device being irradiated onto the inspected object,
When the part of one pixel excluding the overlapping area is defined as a subpixel, the amount of light received by the current subpixel is estimated by subtracting the amount of light received by the overlapping area from the amount of light received by the entire pixel in the current shooting. further causing the computer to perform a sub-pixel image creation step of creating a pixel image;
In the positioning step, the program causes the computer to perform a process of positioning subpixel images corresponding to each lighting device created in the subpixel image creation step .
j:点灯している照明装置の識別番号 In the alignment step, the sub-pixel images corresponding to each illumination device created in the sub-pixel image creation step are aligned by correcting the brightness value Kij to a correction value K'ij using the following formula. The program according to any one of claims 16 to 20 , which is executed by the computer.
j: Identification number of the lighting device that is lit
27. The program according to claim 16 , wherein the plurality of lighting devices are arranged at positions of 360 degrees/(number of lighting devices) on a circumference centered on the line sensor.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019167576 | 2019-09-13 | ||
JP2019167576 | 2019-09-13 | ||
PCT/JP2020/032574 WO2021049326A1 (en) | 2019-09-13 | 2020-08-28 | Surface defect discerning device, appearance inspection device, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2021049326A1 JPWO2021049326A1 (en) | 2021-03-18 |
JP7444171B2 true JP7444171B2 (en) | 2024-03-06 |
Family
ID=74866162
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021545215A Active JP7444171B2 (en) | 2019-09-13 | 2020-08-28 | Surface defect discrimination device, appearance inspection device and program |
Country Status (4)
Country | Link |
---|---|
JP (1) | JP7444171B2 (en) |
KR (1) | KR102684368B1 (en) |
CN (1) | CN114364973B (en) |
WO (1) | WO2021049326A1 (en) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006194828A (en) | 2005-01-17 | 2006-07-27 | Mega Trade:Kk | Inspection device |
JP2012521559A (en) | 2009-03-24 | 2012-09-13 | オルボテック・リミテッド | Multimode imaging |
JP2015232477A (en) | 2014-06-09 | 2015-12-24 | 株式会社キーエンス | Inspection device, inspection method, and program |
US20160103079A1 (en) | 2013-05-23 | 2016-04-14 | Centro Sviluppo Materiali S.P.A. | Method for the surface inspection of long products and apparatus suitable for carrying out such a method |
JP2017090194A (en) | 2015-11-09 | 2017-05-25 | 大日本印刷株式会社 | Inspection system and inspection method |
WO2019150693A1 (en) | 2018-02-05 | 2019-08-08 | 株式会社Screenホールディングス | Image acquisition device, image acquisition method, and inspection apparatus |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11118450A (en) | 1997-10-14 | 1999-04-30 | Mitsubishi Heavy Ind Ltd | Device for detecting protrusion defect of liquid crystal substrate |
JP4190636B2 (en) * | 1998-11-24 | 2008-12-03 | 日本エレクトロセンサリデバイス株式会社 | Surface inspection device |
DE102005031490A1 (en) * | 2005-07-04 | 2007-02-01 | Massen Machine Vision Systems Gmbh | Cost-effective multi-sensor surface inspection |
JP2013246059A (en) | 2012-05-25 | 2013-12-09 | Sharp Corp | Defect inspection apparatus and defect inspection method |
JP5673621B2 (en) * | 2012-07-18 | 2015-02-18 | オムロン株式会社 | Defect inspection method and defect inspection apparatus |
JP6370177B2 (en) * | 2014-09-05 | 2018-08-08 | 株式会社Screenホールディングス | Inspection apparatus and inspection method |
WO2016208606A1 (en) * | 2015-06-25 | 2016-12-29 | Jfeスチール株式会社 | Surface flaw detection device, surface flaw detection method, and manufacturing method for steel material |
EP3719442B1 (en) * | 2017-11-27 | 2023-08-30 | Nippon Steel Corporation | Shape inspecting device and shape inspecting method |
-
2020
- 2020-08-28 JP JP2021545215A patent/JP7444171B2/en active Active
- 2020-08-28 KR KR1020227008488A patent/KR102684368B1/en active IP Right Grant
- 2020-08-28 CN CN202080063954.0A patent/CN114364973B/en active Active
- 2020-08-28 WO PCT/JP2020/032574 patent/WO2021049326A1/en active Application Filing
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006194828A (en) | 2005-01-17 | 2006-07-27 | Mega Trade:Kk | Inspection device |
JP2012521559A (en) | 2009-03-24 | 2012-09-13 | オルボテック・リミテッド | Multimode imaging |
US20160103079A1 (en) | 2013-05-23 | 2016-04-14 | Centro Sviluppo Materiali S.P.A. | Method for the surface inspection of long products and apparatus suitable for carrying out such a method |
JP2015232477A (en) | 2014-06-09 | 2015-12-24 | 株式会社キーエンス | Inspection device, inspection method, and program |
JP2017090194A (en) | 2015-11-09 | 2017-05-25 | 大日本印刷株式会社 | Inspection system and inspection method |
WO2019150693A1 (en) | 2018-02-05 | 2019-08-08 | 株式会社Screenホールディングス | Image acquisition device, image acquisition method, and inspection apparatus |
Also Published As
Publication number | Publication date |
---|---|
JPWO2021049326A1 (en) | 2021-03-18 |
KR102684368B1 (en) | 2024-07-11 |
CN114364973B (en) | 2024-01-16 |
KR20220043219A (en) | 2022-04-05 |
WO2021049326A1 (en) | 2021-03-18 |
CN114364973A (en) | 2022-04-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11216687B2 (en) | Image detection scanning method for object surface defects and image detection scanning system thereof | |
KR100472129B1 (en) | Defect detector and method of detecting defect | |
JP2007206797A (en) | Image processing method and image processor | |
WO2019212042A1 (en) | Screw shape measuring device and measuring method | |
JP2017040510A (en) | Inspection apparatus, inspection method, and object manufacturing method | |
JP2012127934A (en) | Inspection method and inspection device | |
JP6584454B2 (en) | Image processing apparatus and method | |
JP2019002928A (en) | Image acquisition device and method | |
JP2019082452A (en) | Image generation method, image generation device, and defect determination method using the same | |
JP2018163134A (en) | Surface inspection method and apparatus for the same | |
US10955354B2 (en) | Cylindrical body surface inspection device and cylindrical body surface inspection method | |
JP7444171B2 (en) | Surface defect discrimination device, appearance inspection device and program | |
JP2008286646A (en) | Surface flaw inspection device | |
JP2021139817A (en) | Workpiece surface inspection device, surface inspection system, surface inspection method, and program | |
JP3870140B2 (en) | Driving transmission belt inspection method | |
JP2023151945A (en) | Inspection system and inspection method | |
JP2018040792A (en) | Inspection system, inspection method, method of manufacturing films | |
JP7448808B2 (en) | Surface inspection device and surface inspection method | |
JP4781630B2 (en) | Film thickness measuring device | |
JP2021173704A (en) | Workpiece inspection device and workpiece inspection method | |
JP6409606B2 (en) | Scratch defect inspection device and scratch defect inspection method | |
JP2020060533A (en) | Optical evaluation device and optical evaluation method | |
WO2011101893A1 (en) | Method and device for detecting flaw on surface of flexible object to be tested | |
JP7493163B2 (en) | Defect inspection device | |
Huang | A novel direct structured-light inspection technique for contaminant and defect detection |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221223 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230808 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231006 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231114 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240115 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240123 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240205 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7444171 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |