WO2007135915A1 - 表面検査装置 - Google Patents

表面検査装置 Download PDF

Info

Publication number
WO2007135915A1
WO2007135915A1 PCT/JP2007/060041 JP2007060041W WO2007135915A1 WO 2007135915 A1 WO2007135915 A1 WO 2007135915A1 JP 2007060041 W JP2007060041 W JP 2007060041W WO 2007135915 A1 WO2007135915 A1 WO 2007135915A1
Authority
WO
WIPO (PCT)
Prior art keywords
defect
image
inspection
dimensional image
area
Prior art date
Application number
PCT/JP2007/060041
Other languages
English (en)
French (fr)
Inventor
Yukiko Fukami
Original Assignee
Kirin Techno-System Company, Limited
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2006143181A external-priority patent/JP2007315803A/ja
Priority claimed from JP2006258263A external-priority patent/JP4923211B2/ja
Application filed by Kirin Techno-System Company, Limited filed Critical Kirin Techno-System Company, Limited
Priority to EP07743476A priority Critical patent/EP2023129A4/en
Priority to US12/300,823 priority patent/US8351679B2/en
Publication of WO2007135915A1 publication Critical patent/WO2007135915A1/ja

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/95Investigating the presence of flaws or contamination characterised by the material or shape of the object to be examined
    • G01N21/954Inspecting the inner surface of hollow bodies, e.g. bores
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • G01N2021/8854Grading and classifying of flaws
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component

Definitions

  • the present invention scans the surface of an inspection object with inspection light, receives reflected light from the surface, detects a defect on the surface of the inspection object based on the amount of the reflected light, or
  • the present invention relates to a surface inspection apparatus that captures the surface of an inspection object, acquires a two-dimensional image thereof, and determines the presence or absence of a defect based on the density value of a pixel in the two-dimensional image.
  • an inspection head is inserted into the inspection object by rotating the axial inspection head around its axis and feeding it in the axial direction.
  • the outer peripheral force of the inspection head The test object is irradiated with laser light as the inspection light, and the inner peripheral surface of the inspection object is sequentially scanned to one end in the axial direction to the other end, and from the inspection object corresponding to the scanning
  • a surface inspection apparatus that receives reflected light of an inspection object via an inspection head, and determines the presence or absence of a defect on the inner peripheral surface of the object to be inspected based on the amount of reflected light received (see, for example, Patent Document 1). ).
  • Patent Document 1 Japanese Patent Laid-Open No. 11 281582
  • the surface inspection apparatus described above uses laser light as inspection light, it is possible to detect a minute defect by narrowing down the irradiation range of the inspection light.
  • the resolution of the detectable defect is increased more than necessary, even fine irregularities that cannot be handled as defects by visual inspection are judged as defects, and the inspection results are poor by visual inspection and inspection by equipment. May be different.
  • it is effective to set a threshold value for the size of the defect to be detected and treat only those exceeding the threshold value as defects.
  • small irregularities that do not satisfy the threshold by themselves are gathered in a relatively close range, the inspector's eyes can identify the set as a single defect S.
  • the surface inspection device distinguishes each minute unevenness and distinguishes the threshold value from the size ratio. In comparison, they are all determined not to be defective. Therefore, if the inspection result by visual inspection is used as a reference, it is evaluated that the defect is missed, and the reliability of the inspection may be impaired.
  • the position of the processed portion can be identified with respect to the circumferential direction even though the position of the image of the processed portion can be uniquely specified based on the edge of the inner peripheral surface.
  • the position of the image of the processing portion changes according to the positional relationship between the scanning start position and the processing portion. Therefore, if a single mask image including all the images of the additional portion existing on the inner peripheral surface is prepared and superimposed on the image of the inner peripheral surface, the mask position is set to the periphery of the processed portion image. It may shift in the direction and affect the defect discrimination. Even if the mask image is moved in a two-dimensional image to match the mask position with the image of the cache part, it takes a long time to process a large amount of data in a mask image of a size corresponding to the entire inner peripheral surface. Cost.
  • An object of the present invention is a category in which minute irregularities and the like that are not detected as defects alone are relatively close while eliminating the possibility that minute irregularities and the like on the surface of the inspection object are detected as defects alone. It is an object of the present invention to provide a surface inspection apparatus that can detect a defect or a defect according to the defect when it is dense. Another object of the present invention is to perform an accurate inspection by eliminating the influence of the processed part existing on the surface of the inspection object on the determination of the presence or absence of defects, and to achieve a high-speed processing. An object of the present invention is to provide a surface inspection apparatus capable of performing the above. Means for solving the problem
  • a surface inspection apparatus is a detection that scans the surface of an object to be inspected with inspection light, receives reflected light from the surface, and outputs a signal corresponding to the amount of reflected light.
  • a two-dimensional image having a gradation distribution according to the amount of reflected light from the surface of the object to be inspected is generated by the image generation means, and the pixels included in the two-dimensional image Are classified into a first pixel group having a gradation corresponding to the defect and a second pixel group having a gradation not corresponding to the defect, and the first pixel group is surrounded by the second pixel group.
  • defect candidate portions those having a predetermined size or more are identified as defects, while relatively small defect candidate portions that are not identified as defects alone are densely packed to a predetermined level or more in the inspection region.
  • the inspection area is identified as a defective area. Therefore, while eliminating the possibility of detecting minute irregularities on the surface of the inspection object alone as defects, the minute irregularities that are not detected as defects alone are densely packed in a relatively close range.
  • a dense area can be identified as a defect area, and the defect area can be detected as a defect or an area according to a defect and presented to the user of the apparatus.
  • the defect candidate extraction means may extract the defect candidate portion by performing a labeling process on a first pixel group included in the two-dimensional image.
  • the labeling process is known as a method for grouping pixels contained in a two-dimensional image by using their gradations as a clue.
  • the surface of the object to be inspected is used. From the two-dimensional image, the first pixel group having the gradation corresponding to the defect can be extracted as a defect candidate portion for each range surrounded by the second pixel group.
  • the defect area identifying means is at least one of the area and the number of defect candidate portions that are less than the predetermined size in the inspection area. You can also determine the density! /.
  • the density of minute defect candidate parts in the inspection area has a correlation with the number or area of those defect candidate parts, so the density can be increased or decreased by referring to at least one of the number or area. It is possible to properly determine this.
  • the position of the center of gravity of a group of defect candidate portions included in the inspection region identified as the defect region is calculated as a position representing the group of defect candidate portions in the inspection region.
  • Position calculating means for performing the above may be further provided. It is highly possible that the dense portion of minute defect candidates will be seen as a single defect by the inspector's visual inspection. Therefore, instead of the individual positions of the defect candidate portions, the position of the center of gravity is calculated as a position representative of those defect candidate portions, so that the positions of the dense portions of the defect candidate portions are more appropriately presented to the inspector. can do.
  • Either one of them is held as a separate reference image for each different processed portion, and the position of the image of the processed portion in the direction corresponding to the axis corresponding to the axial direction of the surface and the circumference corresponding to the circumferential direction of the surface
  • the reference image holding means for holding the number of images of the same processed part in relation to the direction in association with the reference image, the reference image, the position and the number associated with the reference image, Defects on the 2D image Above to identify areas to be excluded force, and defect discriminating means for discriminating the presence or absence of a defect on the basis of the density values of the pixels in the identified area outside, by providing a Solve the problem.
  • the range in which the image of the processed part can exist can be narrowed down to a part of the direction corresponding to the axis of the two-dimensional image by using the position in the direction corresponding to the axis with respect to the image of the specific processed part as a clue force. Then, the density distribution of the reference image and the two-dimensional image are compared within the narrowed range to determine whether or not there is an image that matches the reference image, and the region where the matching image exists is determined as a defect determination. Exclude target power.
  • the defect determination unit refers to a position associated with the reference image and refers to a range on the two-dimensional image to be compared with the reference image.
  • the two-dimensional image is narrowed down to a part of the corresponding direction, and the reference image and the two-dimensional image are compared with each other within the narrowed range, and the reference image is compared based on the comparison result.
  • excluded area specifying means 60 for specifying the same number of areas as those to be excluded as areas to be excluded from the defect discrimination target force.
  • the entire surface of the two-dimensional image is compared with the standard image. Is faster than the sequential comparison. Furthermore, it matches with the reference image
  • the number of areas that should be excluded is excluded from the object of defect determination. be able to. For example, even if a defect similar to the processed part coexists with the processed part in the circumferential direction, and the image of the defect is excluded from the object of defect determination, the image of one of the processed parts remains as the object of defect determination.
  • the image of the processed part is alternatively determined as a defect, and as a result, the correct determination as to the presence or absence of the defect is performed.
  • the excluded area specifying means sequentially changes the position of the reference image relative to the two-dimensional image in the narrowed range while sequentially changing the position in the circumferential equivalent direction.
  • the degree of coincidence between the reference image on the two-dimensional image and the inspection target image of the same shape and size is determined, and when the determined degree of coincidence exceeds a predetermined threshold, the area of the inspection target image is determined as the defect determination.
  • Target power Can be identified as an area to be excluded.
  • the degree of coincidence is determined between the reference image of the same shape and the same size and the inspection target image, and the position of the inspection target image is changed in the direction corresponding to the axis line, thereby being associated with the reference image.
  • the degree of coincidence may be calculated by a normal correlation between the reference image and the inspection target image. As a result, the calculation of the degree of coincidence between images and the discrimination based on the threshold can be processed at high speed.
  • the reference image may correspond to an image obtained by extracting a minimum necessary rectangular area including a single processed part image from the two-dimensional image. According to this, the size of the reference image can be suppressed to the minimum necessary, and the periphery of the image of the processed part can be handled as a defect determination target as much as possible.
  • the surface inspection apparatus According to the surface inspection apparatus described above, out of the defect candidate portions extracted from the two-dimensional image of the surface of the object to be inspected, those having a predetermined size or more are identified as defects, but are independently identified as defects. However, when the defect candidate portion is relatively small in the inspection area and is denser than a predetermined level, the inspection area is identified as a defect area. Therefore, while eliminating the possibility of detecting minute irregularities on the surface of the inspection object alone as defects, When minute irregularities that are not detected as defects are densely packed in a relatively close range, the dense area is identified as a defective area, and the defective area is detected as a defect or an area that conforms to a defect. It can be presented to the user of the device.
  • each reference image can be reduced by holding separate reference images for each processing part having a different shape or size. Since the position of the image of the processed part in the direction corresponding to the axis on the two-dimensional image is held in association with the reference image, it corresponds to the reference image when specifying the area to be excluded from the defect discrimination target.
  • the range where the image of the processed part can exist that is, the range to be compared with the reference image is narrowed down to a part of the range corresponding to the axis line direction of the two-dimensional image, and the reference image data Combined with the reduction of the amount, the processing speed can be increased.
  • the number of images of the same processed part that should appear in the direction corresponding to the circumference of the two-dimensional image is held in association with the reference image!
  • the possibility of misjudgment as an area that should be excluded can be eliminated. As a result, it is possible to perform an accurate inspection by eliminating the influence of the processed part existing on the surface of the inspection object on the determination of the presence or absence of defects.
  • FIG. 1 is a diagram showing a schematic configuration of an embodiment of a surface inspection apparatus according to the present invention.
  • FIG. 2 is a view showing an example of a two-dimensional image of the inner peripheral surface of the inspection object generated by the surface inspection apparatus in FIG.
  • FIG. 4 is an enlarged view of part A in FIG.
  • FIG. 5 is a diagram showing a state where a labeling process is performed on the image of FIG.
  • FIG. 7 is a diagram showing a state in which the label numbers assigned to the pixels in FIG. 6 are further arranged.
  • FIG. 8 is an enlarged view of part B in FIG.
  • FIG. 9 is a diagram showing how the inspection area is shifted.
  • FIG. 10 is a perspective view showing a part to be inspected with a part broken away.
  • FIG. 11 is a view showing another example of the two-dimensional image of the inner peripheral surface of the inspection object generated by the surface inspection apparatus in FIG.
  • FIG. 12 is a diagram showing a data structure of a reference image stored in a storage unit.
  • FIG. 13 is a flowchart showing defect detection processing executed by the arithmetic processing unit of the surface inspection apparatus in FIG.
  • FIG. 1 shows a schematic configuration of a surface inspection apparatus according to an embodiment of the present invention.
  • the surface inspection apparatus 1 is an apparatus suitable for inspecting the cylindrical inner peripheral surface 100a provided on the object to be inspected 100, and includes an inspection mechanism 2 for performing the inspection, operation control of the inspection mechanism 2, and inspection. And a control unit 3 for executing processing of measurement results by the mechanism 2 and the like. Further, the inspection mechanism 2 projects the inspection light onto the inspection object 100 and receives the reflected light from the inspection object 100, and a detection unit 5 as a detection means and a predetermined amount to the detection unit 5 And a drive unit 6 for providing the following operations.
  • the detection unit 5 receives a laser diode (hereinafter referred to as an LD) 11 as a light source of inspection light and reflected light from the inspection object 100, and the amount of reflected light per unit time (reflection)
  • a photodetector (hereinafter referred to as PD) 12 that outputs a current or voltage signal corresponding to the light intensity) 12, a light projecting fiber 13 that guides the inspection light emitted from the LD 11 to the object 100 to be tested, A light receiving fiber 14 for guiding the reflected light from the object under test 100 to the PD 12, a holding cylinder 15 for holding the fibers 13 and 14 in a bundled state, and a coaxial arrangement outside the holding cylinder 15. And a hollow shaft-like inspection head 16.
  • the inspection head 16 is rotatably supported via a bearing (not shown).
  • the inspection light guided through the light projecting fiber 13 is emitted in the form of a beam along the direction of the axis AX of the inspection head 16 (hereinafter referred to as the axial direction).
  • a lens 17 is provided for collecting the reflected light traveling in the direction opposite to the inspection light along the axial direction of the inspection head 16 on the light receiving fiber 14.
  • a mirror 18 as an optical path changing means is fixed to the tip of the inspection head 16 (the right end in FIG. 1).
  • a translucent window 16a is provided so as to face 18. The mirror 18 changes the optical path of the inspection light emitted from the lens 17 toward the translucent window 16a, and urges the optical path of the reflected light incident from the translucent window 16a into the inspection head 16 toward the lens 17. Change in the forward direction.
  • the drive unit 6 includes a linear drive mechanism 30, a rotation drive mechanism 40, and a focus adjustment mechanism 50.
  • the linear drive mechanism 30 is provided as a linear drive means for moving the inspection head 16 in the axial direction thereof.
  • the linear drive mechanism 30 includes a base 31, a pair of rails 32 fixed to the base 31, and a slider 33 that is movable along the rails 32 in the axial direction of the detection head 16. And a feed screw 34 disposed in parallel with the axis AX of the inspection head 16 and an electric motor 35 for rotationally driving the feed screw 34.
  • the slider 33 functions as a means for supporting the entire detection unit 5.
  • the LD 11 and PD 12 are fixed to the slider 33, the inspection head 16 is attached to the slider 33 via the rotation drive mechanism 40, and the holding cylinder 15 is attached to the slider 33 via the focus adjustment mechanism 50. Further, a nut 36 is fixed to the slider 33, and a feed screw 34 is screwed into the nut 36. Accordingly, when the feed screw 34 is rotationally driven by the electric motor 35, the slider 33 moves along the rail 32 in the axial direction of the inspection head 16, and accordingly, the entire detection unit 5 supported by the slider 33 is moved. It moves in the axial direction of the inspection head 16. By driving the detection unit 5 using the linear drive mechanism 30, the irradiation position (scanning position) of the inspection light on the inner peripheral surface 100a of the inspection object 100 can be changed with respect to the axial direction of the detection head 16.
  • a wall 31a is provided at the front end (right end in FIG. 1) of the base 31, and a through hole 31b coaxial with the inspection head 16 is provided in the wall 31a.
  • a sample piece 37 is attached to the through hole 31b.
  • the sample piece 37 is provided as a sample for determining the operating state of the surface inspection apparatus 1, and a through hole 37a coaxial with the inspection head 16 is provided on the center line thereof.
  • the through hole 37a has an inner diameter through which the inspection head 16 can pass, and the inspection head 16 passes through the through hole 37a and is drawn out into the inspection object 100.
  • the rotation drive mechanism 40 is provided as a rotation drive means for rotating the inspection head 16 about the axis AX.
  • the rotary drive mechanism 40 is An electric motor 41 as a source and a transmission mechanism 42 for transmitting the rotation of the electric motor 41 to the inspection head 16 are provided.
  • the transmission mechanism 42 may be a known rotation transmission mechanism such as a belt transmission device or a gear train. In this embodiment, a belt transmission device is used.
  • the irradiation position of the inspection light on the inner peripheral surface 100a of the inspection object 100 can be changed with respect to the circumferential direction of the inspection object 100.
  • the rotary drive mechanism 40 is provided with a rotary encoder 43 that outputs a pulse signal each time the inspection head 16 rotates by a predetermined unit angle. The number of pulse signals output from the rotary encoder 43 correlates with the rotation amount (rotation angle) of the inspection head 16, and the period of the pulse signals correlates with the rotation speed of the inspection head 16.
  • the focus adjusting mechanism 50 is provided as a focus adjusting means for driving the holding cylinder 15 in the direction of the axis AX so that the inspection light is focused on the inner peripheral surface 100a of the inspection object 100.
  • the focus adjustment mechanism 50 is disposed and supported between the support plate 51 fixed to the base end portion of the holding cylinder 15, and the slider 33 and the support plate 51 of the linear drive mechanism 30.
  • a rail 52 that guides the plate 51 in the axial direction of the inspection head 16 a feed screw 53 that is arranged parallel to the axial line AX of the inspection head 16 and is screwed into the support plate 51, and the feed screw 53 is driven to rotate.
  • an electric motor 54 is provided as a focus adjusting means for driving the holding cylinder 15 in the direction of the axis AX so that the inspection light is focused on the inner peripheral surface 100a of the inspection object 100.
  • the focus adjustment mechanism 50 is disposed and supported between the support plate 51 fixed to the base end portion of the holding cylinder 15, and the slider 33 and the support plate 51 of the linear drive
  • the support plate 51 moves along the rail 52 and the holding cylinder 15 moves in the axial direction of the inspection head 16. Thereby, the length of the optical path from the lens 17 through the mirror 18 to the inner peripheral surface 100a can be adjusted so that the inspection light is focused on the inner peripheral surface 100a of the inspection object 100.
  • the control unit 3 includes an arithmetic processing unit 60 as a computer unit that executes inspection process management by the surface inspection apparatus 1, processing of the measurement results of the detection unit 5, and the detection unit 5 according to instructions of the arithmetic processing unit 60.
  • Control the operation of each part Operation control unit 61, a signal processing unit 62 for executing predetermined processing on the output signal of the PD 12, an input unit 63 for a user to input an instruction to the arithmetic processing unit 60, and an arithmetic processing unit 60 are provided with an output unit 64 for presenting the inspection results and the like processed to the user, a computer program to be executed by the arithmetic processing unit 60, and a storage unit 65 for storing measured data and the like.
  • the arithmetic processing unit 60, the input unit 63, the output unit 64, and the storage unit 65 can be configured using general-purpose computer equipment such as a personal computer.
  • the input unit 63 is provided with input devices such as a keyboard and a mouse, and the output unit 64 is provided with a monitor device.
  • An output device such as a printer may be added to the output unit 64.
  • the storage unit 65 a hard disk storage device or a storage device such as a semiconductor storage element capable of storing data is used.
  • the operation control unit 61 and the signal processing unit 62 may be realized by a hardware control circuit or may be realized by a computer unit.
  • each of the arithmetic processing unit 60, the operation control unit 61, and the signal processing unit 62 operates as follows.
  • the inspection object 100 is arranged coaxially with the inspection head 16.
  • the arithmetic processing unit 60 instructs the operation control unit 61 to start an operation necessary for inspecting the inner peripheral surface 100a of the inspection object 100 in accordance with an instruction from the input unit 63.
  • the operation control unit 61 causes the LD 11 to emit light with a predetermined intensity, and the operations of the motors 35 and 41 so that the inspection head 16 moves in the axial direction and rotates around the axis AX at a constant speed.
  • the operation control unit 61 controls the operation of the motor 54 so that the inspection light is focused on the inner peripheral surface 100a as the surface to be inspected.
  • the inner peripheral surface 100a is scanned by the inspection light up to its one end force and the other end.
  • the driving of the inspection head 16 in the axial direction may be a feed operation at a constant speed, or an intermittent feed operation that moves by a predetermined pitch each time the inspection head 16 rotates.
  • the output signal of the PD 12 is sequentially guided to the signal processing unit 62 in conjunction with the scanning of the inner peripheral surface 100a described above.
  • the signal processing unit 62 performs analog signal processing necessary for processing the output signal of the PD 12 by the arithmetic processing unit 60, and further, AZD-converts the analog signal after the processing with a predetermined number of bits.
  • the processing unit 60 converts the digital signal as a reflected light signal. Output to.
  • the signal processing executed by the arithmetic processing unit 60 includes various processes such as a process for nonlinearly amplifying the output signal so as to increase the difference in brightness of the reflected light detected by the PD 12 and a process for removing a noise component from the output signal. Use the process as appropriate.
  • the AZD conversion by the signal processing unit 62 is performed using the pulse train output from the rotary encoder 43 as a sampling clock signal. As a result, a digital signal having a gradation correlated with the amount of light received by the PD 12 while the inspection head 16 rotates by a predetermined angle is generated and output from the signal processing unit 62.
  • the arithmetic processing unit 60 that has received the reflected light signal from the signal processing unit 62 stores the acquired signal in the storage unit 65. Further, the arithmetic processing unit 60 uses the reflected light signal stored in the storage unit 65 to generate a two-dimensional image in which the inner peripheral surface 100a of the inspection object 100 is developed in a plane.
  • An example of the two-dimensional image is shown in Fig. 2.
  • the inner peripheral surface 100a is developed on a plane defined by an orthogonal two-axis coordinate system in which the circumferential direction of the inspection object 100 is the X-axis direction and the axial direction of the inspection head 16 is the y-axis direction. Corresponds to an image.
  • the two-dimensional image 200 uneven portions such as defects existing on the inner peripheral surface 100a are expressed as dark portions 201, and normal portions of the inner peripheral surface 100a are expressed as bright portions 202.
  • the inspected object 100 is a bowl
  • defects such as a nest that exists on the inner peripheral surface 100a, a flaw during cutting, and the like are imaged as the dark part 201.
  • the arithmetic processing unit 60 inspects the obtained two-dimensional image 200 and determines the dark part 201 that satisfies a certain condition as a defect. The detailed procedure for defect detection will be described below with reference to FIG.
  • FIG. 3 shows a defect detection routine executed by the arithmetic processing unit 60 in order to detect defects in the inspection object 100.
  • the arithmetic processing unit 60 first generates a two-dimensional image 200 of the inner peripheral surface 100a based on the reflected light signal received from the signal processing unit 62 in step S1.
  • the two-dimensional image 200 is an image virtually generated on the RAM of the arithmetic processing unit 60.
  • the size of one pixel 203 of the two-dimensional image 200 may be appropriate, but it is 150 / zm in the X-axis direction and 50 / zm in the y-axis direction as one column.
  • the arithmetic processing unit 60 compares the gradation of the pixel 203 constituting the two-dimensional image 200 with a predetermined threshold, sets the gradation of a pixel darker than the threshold to 1, and the gradation of a bright pixel.
  • the B sound 201 of the two-dimensional image 200 in FIG. The gradation of the pixel corresponding to is converted to 1, and the gradation of the other pixels is converted to 0.
  • Figure 4 shows a binarized image of part A in Fig. 2. In FIG. 4, the pixel 203 with gradation 1 is hatched.
  • the shape of the unevenness or the like existing on the inner peripheral surface 100a of the inspection object 100 is also shown by imaginary lines Ll and L2.
  • the pixel group with gradation 1 (the pixel group with hatching) corresponds to the first pixel group with gradation corresponding to the defect on the inner peripheral surface 100a of the inspection object 100.
  • the pixel group with gradation 0 corresponds to the second pixel group with gradation not corresponding to the defect.
  • the arithmetic processing unit 60 proceeds to step S3, and performs a labeling process on the binarized image.
  • the labeling process is a known process for adding group attributes to pixels included in a two-dimensional image. The labeling process is performed for all the pixels constituting the two-dimensional image. Below, the labeling process will be described by taking the binarized image of FIG. 4 corresponding to part A of FIG. 2 as an example. .
  • the labeling process the gradation of each pixel of the binarized image is sequentially inspected in a predetermined direction. When the gradation is 1 and the label is still attached and there is a pixel, the pixel is detected as a target pixel.
  • the pixel 203a indicated by the bold line in FIG. 5 is first detected as the pixel of interest. If the target pixel 203a is detected, it is subsequently checked whether the gradation of a predetermined number of pixels (usually 4 or 8 pixels) adjacent to the target pixel 203a is 0 to 1. Then, a unique label number that is not yet used on the binary image is assigned to the pixel of interest 203a and a pixel having a continuous gradation of one. In FIG. 5, the label number 1 is assigned to the pixel of interest 203a and the pixel having a continuous gradation of one.
  • the arithmetic processing unit 60 repeats such processing every time a target pixel is detected.
  • the target pixels 203b and 203c are sequentially detected, and the target pixel 203b and the gradation 1 pixel adjacent thereto are labeled with label number 2, and the attention pixel 203c and the adjacent gradation 1 pixel are labeled.
  • Number 3 is assigned to each. Note that the pixel 203d on the right side of the target pixel 203b is not detected as the target pixel because the label number 2 is assigned when the target pixel 203b is inspected. Further, at the time of the inspection relating to the target pixel 203c, the label number 3 is not attached since the label number 2 is already attached to the pixel 203d. The labeling process is repeated until the pixel of interest is no longer detected on the binary image. The labeling process ends.
  • the arithmetic processing unit 60 proceeds to step S4 and arranges the label numbers.
  • steps S4 In ordering the label numbers, portions with different label numbers between adjacent pixels are detected, and the label numbers are reassigned so that adjacent pixels have the same label number.
  • the pixels 203c and 203d are adjacent to each other, they are labeled with the label numbers 2 and 3, so all the pixels 203c with the label number 3 that resolves this problem. , 203e label number is changed to 2.
  • Figure 6 shows the state after the label change. In Fig. 6, pixels with the same label number are surrounded by a bold line. As is clear from the comparison between FIG. 4 and FIG.
  • all pixels to which gradation 1 is given corresponding to the dark part 201 on the left side are grouped with label number 1 and correspond to the dark part 201 on the right side.
  • all pixels with gradation 1 are labeled with label number 2 and grouped.
  • the pixels grouped in this way are the first pixel group of gradations corresponding to the defect on the inner peripheral surface 100a of the object to be inspected 100, and the force of the gradation does not correspond to the defect. This corresponds to the defect candidate portion 210 extracted for each range surrounded by the second pixel group.
  • the minimum unit of the defect candidate part 210 is one pixel.
  • the defect candidate part 210 corresponds to the dark part 201 in the two-dimensional image shown in FIG.
  • the label numbers of the groups are reassigned in the descending order of the number of pixels.
  • the right pixel group has more pixels than the left pixel group, so the label number of the right pixel group is changed to 1, and the label number of the left pixel group is changed to 2.
  • 4 to 7 exemplify the case where there are two dark portions 201, the label number is changed for all regions of the binary image. Therefore, the label numbers illustrated in FIGS. 6 and 7 do not necessarily match the processing results for the entire two-dimensional image in FIG.
  • the arithmetic processing unit 60 sets each area, long side, and short side for all defect candidate portions 210 extracted by the processes of steps S3 and S4.
  • the length and position on the 2D image are calculated, and the calculation results are output to the R Store in AM or storage unit 65.
  • the area may be expressed by the number of pixels included in the defect candidate portion 210, or the actual area of the defect candidate portion 210 may be obtained by the product of the area occupied by one pixel and the number of pixels.
  • the size of the long side and the short side of the defect candidate portion 210 can be obtained by multiplying the number of pixels in the defect candidate portion 210 in the X-axis direction and the y-axis direction and the actual size per pixel.
  • the position of the defect candidate part 210 can be represented by a position representing the defect candidate part 210 (for example, the position of the center of gravity) in the X-axis coordinates and the y-axis coordinates.
  • the arithmetic processing unit 60 detects the defect candidate part 210 having a predetermined size or larger, and identifies all these defect candidate parts 210 as defects. For example, a defect candidate part 210 having a short side of 0.2 mm or more is identified as a defect. Further, in the next step S7, the arithmetic processing unit 60 determines the density of the defect candidate part 210 that has not been handled as a defect in step S6, that is, the density of the defect candidate part 210 that is less than a predetermined size, on the two-dimensional image. Inspect every predetermined inspection area.
  • step S6 if the minute dark portion 201 that is not determined as a defect in step S6 is concentrated within a certain range, it may be recognized as a defect by the inspector's eyes. This is a process of identifying a dense area as a defective area.
  • an inspection region B having a predetermined size is set in the two-dimensional image, and the density of the defect candidate portion 210 is inspected for each inspection region B.
  • FIG. 8 is an enlarged view of inspection area B in FIG.
  • the sizes xd and yd in the X-axis direction and the y-axis direction of the inspection area B may be set as appropriate.
  • small defect candidate portions 210 that are less than defects alone are concentrated in a relatively close range.
  • the arithmetic processing part 60 determines the number of defect candidate parts 210 that are equal to or larger than a predetermined area existing in the inspection area B, such as the area of the defect candidate part 210 acquired in step S5. Based on this information, the discrimination is made in step S7, and the density of the defect candidates 210 in the inspection region B is also discriminated.
  • the arithmetic processing unit 60 identifies an inspection region B in which the density of the defect candidate unit 210 is equal to or higher than a predetermined level as a defective region. For example, when the number of defect candidate portions 210 having a predetermined area or more is greater than or equal to a predetermined value, the inspection area B is identified as a defective area by considering that the density is high. Further, in step S8, it is recognized as a defective area. When separated, the position of the center of gravity of the group of minute defect candidate portions 210 included in the region is calculated as a position representing those defect candidate portions 210. As shown in FIG.
  • the inspection region B is set by sequentially changing the position in the X-axis direction while partially overlapping the two-dimensional image.
  • the inspection area B makes a round on the inner peripheral surface 100a in the X-axis direction
  • the inspection area B is shifted while overlapping a part in the y-axis direction.
  • the setting of the inspection area B and the denseness in the area are similarly performed. Repeat the inspection.
  • the defect candidate part 210 identified as a defect in step S6 may or may not be excluded from the inspection target. Even if not excluded, it is possible to identify an area where only minute defect candidate parts 210 that are not identified as defects in step S6 are concentrated as a defect area.
  • step S9 stores the identification results in steps S6 and S8 in the storage unit 65 as inspection results, And output to the output unit 64.
  • the defect identified in step S6 and the defect inspection area identified in step S8 may be presented to the user as the same type of defect without being distinguished, and the two may be distinguished. You can present it to the user. Even if the two are distinguished and presented to the user, it can be detected as a defect according to the defect and the user can be informed of the presence of a small concentration of nests, etc. .
  • the arithmetic processing unit 60 ends the defect detection routine. It should be noted that the correspondence relationship between the defect candidate portion and the like shown in FIGS. 4 to 8 and the size of the pixel is merely for explanation, and does not indicate an actual inspection state.
  • the defect candidate portion 210 having a predetermined size or more is identified as a defect on the two-dimensional image of the inner peripheral surface 100a and the size thereof is large. If minute defect candidate portions 210 that are less than the size and are not treated as defects by themselves are densely packed in a relatively close category, the region can be identified as a defect region. As a result, the threshold value of the size of the defect candidate portion 210 for determining a defect is made smaller than necessary. Therefore, it is possible to eliminate the possibility of excessively detecting the defect candidate part 210 that exists minutely and independently as a defect.
  • the resolution of the two-dimensional image that is, the size of one pixel is set so that the minute dark portion 201 to be evaluated in the defect area inspection occupies at least one pixel on the two-dimensional image. Therefore, it is not necessary to set the inspection resolution to be finer than necessary. For this reason, even if the inspection head 16 is rotated at a relatively high speed, defects and defect areas can be detected with high accuracy, and a decrease in inspection efficiency due to resolution or resolution enhancement can be prevented.
  • the arithmetic processing unit 60 functions as an image generation unit by executing step S1 in FIG. 3, and functions as a defect candidate extraction unit by executing steps S2 to S5. It functions as a defect identification means by executing and functions as a defect area identification means by executing steps S7 and S8.
  • the inspection head is rotated and sent out in the axial direction, and the inner peripheral surface is scanned with the inspection light.
  • at least one of the rotational movement and the linear movement of the inspection head is omitted, and this is replaced.
  • the present invention can also be applied to a surface inspection apparatus that scans the surface of an inspection object by rotating or linearly moving the inspection object.
  • the processing for distinguishing between the first pixel of the gradation corresponding to the two-dimensional image force defect and the other second gradation pixel is not limited to the example of binarizing and distinguishing the image, It can be a grayscale image or a color image to distinguish pixels corresponding to defects! /.
  • the process of extracting the defect candidate part is not limited to the labeling process, and various image processing methods may be used.
  • the density of defect candidate portions in the inspection region is determined using the number of defect candidate portions having a predetermined area or more, but depending on the ratio of the total area of the defect candidate portions to the area of the inspection region.
  • the degree of congestion may be determined. Or, focus on one of the small defect candidate parts that cannot be identified as defects by themselves, and determine the density by referring to the distance between the noticed defect candidate part and the adjacent defect candidate part.
  • Candidate density determination is a seed This can be done using various information.
  • the configuration of the surface inspection apparatus according to this embodiment is the same as the configuration described with reference to FIG.
  • the processing in the arithmetic processing unit 60 is different from the above-described embodiment. This will be described below.
  • the arithmetic processing unit 60 as an image generating means generates a two-dimensional image in which the inner peripheral surface 300a of the inspection object 300 shown in FIG. . That is, the arithmetic processing unit 60 sets the X axis along the circumferential direction of the inspected object 300 and the y axis along the axial direction as shown in FIG. Generates a two-dimensional image developed on a plane defined by an orthogonal two-axis coordinate system consisting of.
  • the two-dimensional image is, for example, an 8-bit grayscale image.
  • the X-axis direction is the direction corresponding to the circumference on the two-dimensional image 400
  • the y-axis direction is the direction corresponding to the axis on the two-dimensional image 400.
  • a calorie hole 303a as a calorie arbor are formed as regions having a lower reflectance than the ground surface 300b. 303b, 303c, 304 and exist.
  • the ground surface 300b is a cut surface with no defects.
  • the machining holes 303a to 303c have the same shape and size, and the positions of the machining holes 303a to 303c are also equal to each other in the y-axis direction. In the following, when it is not necessary to distinguish the machining holes 303a to 303c, they are described as force feed holes 303.
  • the machining hole 304 is different in shape and size from the force hole 303, and is also displaced from the machining hole 303 in the y-axis direction.
  • FIG. 10 An example of a two-dimensional image generated by the arithmetic processing unit 60 corresponding to the inner peripheral surface 300a of FIG. 10 is shown in FIG.
  • the two-dimensional image 400 is configured by arranging a large number of pixels 400a in the X-axis direction and the y-axis direction.
  • the size that one pixel 400a occupies on the inner peripheral surface 300a may be appropriate, but as an example, the width in the X-axis direction of one pixel 400a corresponds to 150 ⁇ m on the inner peripheral surface 300a, and in the y-axis direction 50 / zm on the inner peripheral surface 300a.
  • this defect On the 2D image 400, this defect, 301, 302, corresponding defect images 401, 402, and machining hole images corresponding to the force holes 303a-303c, 304 4 03a-403c (represented by reference numeral 403) 404) appears.
  • the density values of these images are lower (lower) than the background region 405 corresponding to the background 300b of the inner peripheral surface 300a. That is, in this embodiment, as the amount of reflected light increases, the density value of the pixel 400a in the two-dimensional image 400 increases, and the defect and the processed portion appear as dark portions.
  • the arithmetic processing unit 60 determines whether or not there is a defect on the inner peripheral surface 300a of the inspection object 300 by processing the two-dimensional image 400 according to a predetermined algorithm, and outputs the determination result. Output to part 64.
  • this defect detection the presence or absence of a defect image is determined by paying attention to the dark part of the two-dimensional image 400.
  • the processed hole images 403 and 404 also appear as dark parts in the same manner as the defect images 401 and 402. Therefore, even if the defects 301 and 302 occur in the inspection object 300, There is a possibility that the processed hole images 403 and 404 are determined to be defective, and the inspection object 300 is erroneously determined to be defective.
  • the arithmetic processing unit 60 executes the defect detection process shown in FIG. 13 to eliminate the influence of the processing parts such as the processing holes 303 and 304 on the defect detection.
  • this defect detection process an image of a processed part that is known in advance to exist on the inner peripheral surface 300a of the inspection object 300 is prepared as a reference image, and appears as a dark part on the reference image and the two-dimensional image 400.
  • the image of the processed part is detected based on the degree of coincidence with the existing image, the detected image of the processed part is excluded from the object of defect determination, and the presence or absence of a defect is determined.
  • a reference image from which only the processed hole image 403 is extracted and a reference image from which only the processed hole image 404 is extracted are prepared.
  • an image obtained by extracting the rectangular areas 411 and 4 12 having the minimum necessary size including the processed hole image 403 or the force hole image 404 from the two-dimensional image 400 is prepared as a reference image.
  • the reference images 411 and 412 may be described. Since the processing holes 303a, 303b, and 303c have the same shape and size, the reference image 411 corresponding to them is common, that is, only one sheet is prepared.
  • the reference images 411 and 412 are obtained by the user specifying an area to be used as the reference images 411 and 412 from the two-dimensional image 400 obtained by actually photographing the inner peripheral surface 300a of the inspection object 300. Can be created. Alternatively, the reference images 411 and 412 may be generated by calculating the images of the calorie holes 303 and 304 from the design data of the inspection object 300 and the imaging conditions. Note that the reference images 411 and 412 are created as grayscale images having the same gradation as the two-dimensional image 400.
  • the reference images 411 and 412 are stored in the storage unit 65 in advance.
  • FIG. 12 shows an example of the data structure of the reference images 411 and 412 stored in the storage unit 65.
  • the data of the reference images 411 and 412 is numerical data in which the density values of the pixels included in the reference images 411 and 412 are described according to the arrangement order of the pixels. Those data correspond to the reference images 411 and 412
  • the processed hole images 403 and 404 are stored in the storage unit 65 in a state of being associated with the representative coordinates yl and y2 in the y-axis direction and the numbers Nl and N2. As the representative coordinates yl, y2, for example, the y coordinate of the center of gravity (or center point) of the processed hole images 403, 404 is selected.
  • the origin of coordinates in the y-axis direction is set at the upper end 400c of the two-dimensional image 400, that is, the edge 300c in the axial direction of the inner peripheral surface 300a in FIG.
  • the numbers Nl and N2 are values indicating how many machining holes 303 and 304 of the same shape and size exist on the representative coordinates yl and y2, respectively.
  • the number of processed hole images 403 and 404 corresponding to the reference images 411 and 412 should be present at the positions indicated by the y coordinates yl and y2.
  • the number N1 is 3, and the number N2 is 1.
  • the arithmetic processing unit 60 When the scanning of the inner peripheral surface 300a is completed, the arithmetic processing unit 60 generates a two-dimensional image 400 of the inner peripheral surface 300a based on the reflected light signal received from the signal processing unit 62.
  • the two-dimensional image 400 is a gray scale image virtually generated on the RAM of the arithmetic processing unit 60.
  • the arithmetic processing unit 60 After generating the two-dimensional image 400, the arithmetic processing unit 60 starts defect detection processing, and first sets an initial value for the y coordinate to be inspected in step SI1. In this case, the smallest y coordinate (yl in this example) of the representative coordinates yl and y2 associated with the reference images 411 and 412 should be set as the initial value.
  • the arithmetic processing unit 60 sets an initial value 0 to the counter value for counting the number of detected holes.
  • the arithmetic processing unit 60 selects an inspection target image to be compared with the reference image from the two-dimensional image 400.
  • the inspection target image 420 has the same shape and the same size as the reference image 411 on the y coordinate yl, and the reference image 411 and y Selected to match axial position.
  • the position in the X-axis direction of the inspection target image 420 is sequentially changed in the X-axis direction by a predetermined number of pixels every time step S14 is executed.
  • step S14 when step S14 is first executed with respect to the y coordinate yl, the inspection target image 420 is in contact with the left end of the two-dimensional image 400.
  • step S14 the position of the inspection target image 420 is sequentially changed to the right in the X-axis direction.
  • This processing is performed on the 2D image 400 within the same dimension range as the reference image 411 in the y-axis direction with the y coordinate yl as the center, and the position of the reference image 411 in the X-axis direction from the left end of the 2D image 300. Is equivalent to the process of sequentially changing.
  • the arithmetic processing unit 60 calculates the degree of coincidence between the inspection target image and the reference image using the normalized correlation.
  • normal ⁇ correlation the density values of the images to be compared tend to be the same, that is, if they are similar, a positive correlation is shown, and the two values are opposite, that is, if they are dissimilar, a negative correlation Indicates.
  • the correlation formula of normalized correlation is expressed by (AX 10000) ⁇ ⁇ (B X C).
  • indicates the number of pixels of the reference image
  • I indicates the density value of each pixel of the inspection target image
  • indicates the density value of each pixel of the reference image.
  • step S16 operation processing unit 60 determines whether or not the normal correlation value obtained in step S15 exceeds a predetermined threshold value.
  • the threshold value used here may be set to a value at which the normalized correlation value is considered to show a positive correlation. If the threshold value is exceeded, the arithmetic processing unit 60 proceeds to the next step S17, identifies the area extracted as the inspection target image as a mask area, and determines the position of the pixel group included in the mask area on the two-dimensional image 400.
  • the arithmetic processing unit 60 adds 1 to the counter value described above, and proceeds to step S19.
  • the arithmetic processing unit 60 skips steps S17 and S18 and proceeds to step S19.
  • the arithmetic processing unit 60 determines the counter value (number of detection of the force hole), the number of the hole holes acquired in step S13 (for example, N1 when the coordinate is yl) ) Is determined whether or not the force matches. If the counter value does not match the number of processed holes, the arithmetic processing unit 60 returns to step S14 and calculates the degree of coincidence between the next inspection target image 420 and the reference image. If the counter value matches the number of drilled holes in step S19, the processing unit 6 0 goes to step S20.
  • step S20 arithmetic processing unit 60 determines whether or not the inspection has been completed for all y coordinates associated with the reference image data. If there is a y-coordinate that has not yet been examined, the arithmetic processing unit 60 selects the next y-coordinate in step S21 and returns to step S12. If the inspection of all y coordinates has been completed in step S20, the arithmetic processing unit 60 proceeds to the next step S22.
  • step S22 the arithmetic processing unit 60 determines whether or not the defect image exists in the two-dimensional image 400 while excluding the target force for defect determination from the region identified as the mask region.
  • the arithmetic processing unit 60 binarizes the two-dimensional image 400 with a threshold value such that the defect images 401 and 402 are classified as a dark portion and the background image 405 as a bright portion, and the obtained binary image is obtained. The presence or absence of a defect is determined using the size of the dark part inside as a clue.
  • all the density values of the pixels identified as the mask area in step S 17 are converted to the same density value as the background area 405.
  • the image regarded as the processed hole image is deleted from the obtained binary image. Therefore, when only the processed hole image exists on the inner peripheral surface 300a, there is no possibility that the processed hole image is erroneously determined as a defect.
  • the arithmetic processing unit 60 ends the defect detection process of FIG.
  • the mask is not affected by the position of the force hole image 403, 404 in the X-axis direction of the two-dimensional image 400 (corresponding to the circumferential direction of the inspection object 300).
  • the area can be identified easily and quickly. This point will be described below.
  • the axial direction of the inspection object 300 corresponds to the edge 300c of the inner peripheral surface 300a. If the edge 400c of the two-dimensional image 400 is used as a reference, the y coordinate where the force hole images 403 and 404 are present can be uniquely specified. However, the X coordinates of the processed hole images 403 and 404 change according to the relationship between the scanning start position of the inner peripheral surface 300a of the inspection object 300 and the position of the force hole 303 and 304, and the two-dimensional image 400 There is no clear standard that can be used to specify the position of the force hole image 403, 404 in the X-axis direction.
  • the reference images 411 and 412 are prepared separately for each of the hole images 403 and 404 having at least one of the shape and the size, the reference image 41 1 is prepared.
  • the size of 412 is small and the amount of data is small. For this reason, even if the reference images 411 and 412 are moved relative to the two-dimensional image 400 on the y coordinates yl and y2, the time required for the processing is short. However, the range in which the reference image 411 and the inspection image 420 should be compared is narrowed down to the same size as the reference image 411 in the y-axis direction around the y coordinate yl.
  • the range to be compared is narrowed down to a range having the same dimensions as the reference image 412 in the y-axis direction with the y coordinate y2 as the center, it is not necessary to compare each of the reference images 411 and 412 with the entire surface of the two-dimensional image 400. As a result, the mask process for specifying the region to be excluded from the defect inspection target can be executed at high speed.
  • the storage unit 65 corresponds to the reference image holding unit. Further, the arithmetic processing unit 60 functions as defect determination means by executing the processing of FIG. 13, and particularly functions as exclusion area specifying means by executing the processing of steps S14 to S19 of FIG. To do.
  • the present invention can be implemented in various forms without being limited to the above forms.
  • the number of processed holes associated with the reference image can be used not only as information for identifying the mask area but also as information for determining the presence or absence of a defect.
  • the force using the center y-coordinate as the position of the image of the processed hole associated with the reference image is not limited to this, and an appropriate position is defined as the position of the image of the processed hole. Good.
  • Means for acquiring a two-dimensional image of the surface of the object to be inspected is not limited to the above-described form, and can be changed as appropriate. Further, the present invention is not limited to the example of inspecting the inner peripheral surface of the object to be inspected, but can be applied to the case of inspecting a cylindrical outer peripheral surface. Furthermore, the present invention is not limited to the inspection of an inspection object provided with a processing hole as a processing part, but excludes any processed part on the cylindrical surface to be inspected from the object of defect determination according to the present invention.
  • the concept of processing broadly includes those that artificially alter the material of the object to be inspected, and various types of processing such as printing, coloring, and surface modification can be included in the concept of processing.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Analytical Chemistry (AREA)
  • General Health & Medical Sciences (AREA)
  • Biochemistry (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Chemical & Material Sciences (AREA)
  • Quality & Reliability (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Geometry (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
  • Image Processing (AREA)

Description

明 細 書
表面検査装置
技術分野
[0001] 本発明は、被検査物の表面を検査光で走査してその表面からの反射光を受光し、 その反射光の光量に基づいて被検査物の表面の欠陥を検出し、あるいは被検査物 の表面を撮像してその 2次元画像を取得し、その 2次元画像内の画素の濃度値に基 づいて欠陥の有無を判別する表面検査装置に関する。
背景技術
[0002] 円筒状の被検査物の内周面を検査する装置として、軸状の検査ヘッドをその軸線 の回り回転させつつ軸線方向に送り出して被検査物の内部に検査ヘッドを挿入し、 その検査ヘッドの外周力 検査光としてのレーザ光を被検査物に照射してその被検 查物の内周面をその軸線方向一端力 他端まで逐次走査し、その走査に対応した 被検査物からの反射光を検査ヘッドを介して受光し、その受光した反射光の光量に 基づいて被検査物の内周面における欠陥の有無を判別する表面検査装置が知られ ている(例えば特許文献 1参照)。
[0003] 特許文献 1 :特開平 11 281582号公報
発明の開示
発明が解決しょうとする課題
[0004] 上述した表面検査装置は、レーザ光を検査光として利用しているので、検査光の照 射範囲を絞り込んで微小な欠陥を検出することができる。しかし、検出可能な欠陥の 分解能を必要以上に高めると、目視による検査では欠陥として扱われないような微細 な凹凸等までも欠陥として判定され、目視検査と装置による検査とで検査結果が食 い違うおそれがある。このような不都合を解消するためには、検出対象の欠陥の大き さに閾値を設定し、その閾値を超えるもののみを欠陥として扱うことが効果的である。 しかし、単独では閾値に満たない微小な凹凸等が比較的近接した範囲に集まってい る場合、検査者の目にはそれらの集合が一つのまとまった欠陥として識別されること 力 Sある。一方、表面検査装置では、一つ一つの微小な凹凸を区別して閾値と大小比 較し、それらを全て欠陥ではないと判定してしまう。従って、目視による検査結果を基 準とすれば、欠陥の見逃しと評価されて検査の信頼性が損なわれるおそれがある。
[0005] また、上述した表面検査装置において、被検査物の内周面に穴や凹凸部等の加 ェ部が存在していると、加工部と欠陥との区別が困難となり、加工部を欠陥として誤 つて識別することがある。被検査物の内周面を平面的に展開した 2次元画像の濃度 値分布を利用して欠陥を判別する場合、 2次元画像上における加工部の像の位置 が判って 、れば、その加工部の像を欠陥判別の対象力 除外して誤判定を回避す ることができる。このような処理はマスク処理として画像処理の分野で一般に行われて いる。しかし、円筒状の内周面の軸線方向に関しては、内周面のエッジ等を基準とし て加工部の像の位置を一義的に特定することができても、周方向に関しては加工部 の位置を特定するための適当な基準が存在せず、加工部の像の位置が走査開始位 置と加工部との位置関係に応じて変化する。従って、内周面上に存在する全ての加 ェ部の像を含んだ一枚のマスク画像を用意して内周面の画像に重ね合わせるだけ では、マスク位置が加工部の像に対して周方向にずれ、欠陥判別に影響を与えるこ とがある。マスク画像を 2次元画像で移動させてマスク位置をカ卩ェ部の像と一致させ ようとしても、内周面の全域に相当するサイズのマスク画像ではデータ量が大きぐ処 理に長時間を要する。
[0006] 本発明の目的は、被検査物の表面の微小な凹凸等を単独で欠陥として検出される おそれを排除しつつ、単独では欠陥として検出されない微小な凹凸等が比較的近接 した範隨こ密集している場合に、これを欠陥又は欠陥に準じて検出することを可能と した表面検査装置を提供することにある。また、本発明の他の目的は、被検査物の表 面に存在する加工部が欠陥の有無の判別に与える影響を排除して正確な検査を実 施でき、かつ処理の高速ィ匕を図ることが可能な表面検査装置を提供することにある。 課題を解決するための手段
[0007] 本発明の一態様に係る表面検査装置は、被検査物の表面を検査光で走査して該 表面からの反射光を受光し、その反射光の光量に応じた信号を出力する検出手段と 、前記検出手段の出力信号に基づいて前記被検査物の表面の 2次元画像を生成す る画像生成手段と、前記 2次元画像に含まれる画素を前記被検査物の表面の欠陥 に対応した階調の第 1の画素群と前記欠陥に対応しない階調の第 2の画素群とに区 別し、前記第 1の画素群を前記第 2の画素群にて囲まれた範囲毎に欠陥候補部とし て抽出する欠陥候補抽出手段と、前記欠陥候補部のうち、所定の大きさ以上の欠陥 候補部を欠陥として識別する欠陥識別手段と、前記 2次元画像を所定の検査領域毎 に検査し、該検査領域内における前記所定の大きさに満たない欠陥候補部の密集 度が所定レベル以上の検査領域を欠陥領域として識別する欠陥領域識別手段とを 備えることにより上記課題を解決する。
[0008] 上述の表面検査装置によれば、被検査物の表面からの反射光の光量に応じた階 調分布の 2次元画像が画像生成手段にて生成され、その 2次元画像に含まれる画素 が欠陥に対応する階調の第 1の画素群と、欠陥に対応しない階調の第 2の画素群と に区別され、さらに第 1の画素群が前記第 2の画素群にて囲まれた範囲毎に欠陥候 補部として抽出されることにより、被検査物の表面に存在する個々の欠陥を欠陥候補 部として 2次元画像上で特定することができる。そして、欠陥候補部のうち所定の大き さ以上のものが欠陥として識別される一方、単独では欠陥として識別されない比較的 小さい欠陥候補部が検査領域内にて所定のレベル以上に密集して 、るときにはその 検査領域が欠陥領域として識別される。従って、被検査物の表面の微小な凹凸等を 単独で欠陥として検出するおそれを排除しつつ、単独では欠陥として検出されない 微小な凹凸等が比較的近接した範囲に密集している場合に、その密集した領域を欠 陥領域として識別し、その欠陥領域を欠陥、又は欠陥に準じた領域として検出して装 置のユーザに提示することができる。
[0009] 本発明の一態様において、前記欠陥候補抽出手段は、前記 2次元画像に含まれる 第 1の画素群をラベリング処理することにより前記欠陥候補部を抽出してもよい。ラベ リング処理は 2次元画像に含まれる画素群を、それらの階調を手掛カゝりとしてグルー プ化する手法として知られており、そのラベリング処理を利用することにより、被検査 物の表面の 2次元画像から、欠陥に対応する階調を有する第 1の画素群を、第 2の画 素群に囲まれた範囲毎に欠陥候補部として抽出することができる。
[0010] 本発明の一態様において、前記欠陥領域識別手段は、前記検査領域内における 前記所定の大きさに満たない欠陥候補部の面積及び個数の少なくともいずれか一
Figure imgf000006_0001
、て前記密集度を判別してもよ!/、。検査領域内における微小な欠陥候補 部の密集度は、それらの欠陥候補部の個数、あるいは面積に相関性を有しているた め、個数又は面積の少なくとも一方を参照することによって密集度の大小を適切に判 另 Uすることがでさる。
[0011] 本発明の一態様において、前記欠陥領域識別手段は、前記検査領域内における 前記所定の大きさに満たない欠陥候補部のうち、所定の面積以上の欠陥候補部の 個数が所定値以上のときに前記密集度が前記所定レベル以上と判別してもよい。こ のような判別基準を用いることにより、微小な凹凸等の密集部分に関する検査者の判 断傾向と、表面検査装置による欠陥領域の識別傾向との一致度を高めることができ る。
[0012] 本発明の一態様においては、前記欠陥領域として識別された検査領域に含まれる 欠陥候補部の群の重心位置を、当該検査領域内における欠陥候補部の群を代表す る位置として演算する位置演算手段をさらに備えてもよい。微小な欠陥候補部の密 集部分については、検査者の目視検査では一つのまとまった欠陥として見える可能 性が高い。従って、欠陥候補部の個々の位置に代えて、それらの欠陥候補部を代表 する位置として重心位置を演算することにより、検査者に対して欠陥候補部の密集部 分の位置をより適切に提示することができる。
[0013] 本発明の他の態様に係る表面検査装置は、被検査物の円筒状の表面を平面的に 展開した 2次元画像を取得し、該 2次元画像内の画素の濃度値に基づ 、て前記表面 における欠陥の有無を判別する表面検査装置において、前記表面に存在する加工 部に対応して前記 2次元画像上に出現すべき加工部の像を、形状又は大きさの少な くともいずれか一方が異なる加工部毎に別々の基準画像として保持するとともに、前 記表面の軸線方向に相当する軸線相当方向における前記加工部の像の位置、及び 前記表面の周方向に相当する周相当方向に関して同一の加工部の像が存在すべき 個数を前記基準画像と対応付けて保持する基準画像保持手段と、前記基準画像、 該基準画像に対応付けられた位置及び個数に基づ ヽて、前記 2次元画像上で欠陥 判別の対象力 除外されるべき領域を特定し、その特定された領域外における画素 の濃度値に基づいて欠陥の有無を判別する欠陥判別手段と、を備えることにより上 記課題を解決する。
[0014] 上述の表面検査装置によれば、形状又は大きさ、あるいは両者が異なる加工部毎 に別々の基準画像が用意されているので、被検査物の全面に相当するサイズの基 準画像を用意する場合と比較して各基準画像のサイズが顕著に縮小され、そのデー タ量も相当に小さくなる。また、 2次元画像上の軸線相当方向に関して、加工部の像 の位置が基準画像と対応付けて保持されて ヽるので、特定の加工部の像を欠陥判 別の対象から除外したい場合には、その特定の加工部の像に関する軸線相当方向 の位置を手掛力りとして、加工部の像が存在し得る範囲を 2次元画像の軸線相当方 向に関して一部の範囲に絞り込むことができる。そして、その絞り込まれた範囲内で 基準画像と 2次元画像の濃度分布とを比較して基準画像と一致する画像が存在する か否かを判別し、一致する画像が存在する領域を欠陥判別の対象力 除外すれば よい。従って、基準画像を 2次元画像の全面と比較する必要がなぐ上述した基準画 像のデータ量の削減と相俟って処理の高速ィ匕を図ることができる。さらに、同一の加 ェ部の像が 2次元画像の周相当方向に出現すべき個数が基準画像と対応付けて保 持されているので、 2次元画像上の絞り込まれた範囲内からカ卩ェ部の個数を超える 数の領域を欠陥判別の対象力 除外すべき領域として誤って判別するおそれを排除 することができる。これにより、欠陥が存在するにも拘わらずこれが見過ごされる検査 ミスの発生を防止することができる。よって、被検査物の表面に存在する加工部が欠 陥の有無の判別に与える影響を排除して正確な検査を実施することができる。
[0015] 本発明の他の態様において、前記欠陥判別手段は、前記基準画像に対応付けら れた位置を参照して該基準画像と比較されるべき前記 2次元画像上の範囲を前記軸 線相当方向に関して当該 2次元画像の一部の範囲に絞り込み、該絞り込まれた範囲 内で前記基準画像と前記 2次元画像との画素の濃度値を比較し、その比較結果に 基づいて、前記基準画像に対応付けられた個数と同数の領域を前記欠陥判別の対 象力 除外されるべき領域として特定する除外領域特定手段 (60)を備えてもよい。 この形態によれば、基準画像に対応付けられた位置を参照して絞り込まれた範囲内 で基準画像と 2次元画像との濃度値を比較して 、るので、 2次元画像の全面と基準 画像とを順次比較する場合よりも処理が高速化される。さらに、基準画像と対応付け られた個数を参照して、欠陥判別の対象力 除外されるべき領域の数を決めて 、る ので、加工部の個数を超える数の領域が欠陥判別の対象から除外されるおそれを排 除することができる。例えば、加工部に類似する欠陥が周方向に加工部と併存し、そ の欠陥の像が欠陥判別の対象から除外されたとしても、いずれかの加工部の像が欠 陥判別の対象として残るようになり、その加工部の像が欠陥として代替的に判別され ることにより、欠陥の有無に関しては結果として正しい判別が行われる。
[0016] さらに、前記除外領域特定手段は、前記絞り込まれた範囲内で前記 2次元画像に 対して前記基準画像を前記周相当方向に相対的に位置を順次変更しつつ前記基 準画像と前記 2次元画像上の前記基準画像と同形同大の検査対象画像との一致度 を判別し、判別された一致度が所定の閾値を超える場合に前記検査対象画像の領 域を前記欠陥判別の対象力 除外されるべき領域として特定してもよ 、。この場合に は、同形同大の基準画像と検査対象画像との間で一致度を判別しつつ、その検査 対象画像の位置を軸線相当方向に変化させることにより、基準画像と対応付けられ た位置に基づいて絞り込まれた 2次元画像の一部の範囲内を高速かつ正確に検査 して欠陥判別の対象力 除外されるべき領域を特定することができる。前記一致度が 前記基準画像と前記検査対象画像との正規ィ匕相関により演算されてもよい。これに より、画像同士の一致度の演算と閾値に基づく判別とを高速に処理することができる
[0017] 本発明の他の形態において、前記基準画像は、前記 2次元画像から単一の加工部 の像を包含する必要最小限の矩形領域を抽出して得られる画像に相当するものでも よい。これによれば、基準画像の大きさを必要最小限に抑えて、加工部の像の周囲 を可能な限り欠陥判別の対象として扱うことができる。
発明の効果
[0018] 以上の表面検査装置によると、被検査物の表面の 2次元画像から抽出された欠陥 候補部のうち、所定の大きさ以上のものが欠陥として識別される一方、単独では欠陥 として識別されな 、比較的小さ!、欠陥候補部が検査領域内にて所定のレベル以上 に密集しているときにはその検査領域が欠陥領域として識別される。従って、被検査 物の表面の微小な凹凸等を単独で欠陥として検出するおそれを排除しつつ、単独で は欠陥として検出されない微小な凹凸等が比較的近接した範囲に密集している場合 に、その密集した領域を欠陥領域として識別し、その欠陥領域を欠陥、又は欠陥に 準じた領域として検出して装置のユーザに提示することができる。これにより、微小な 凹凸等が密集した領域の見逃しを防止し、ユーザの目視による検査結果と表面検査 装置による検査結果との一致度を高め、表面検査装置を利用した検査の信頼性の 低下を防止することができる。また、形状又は大きさが異なる加工部毎に別々の基準 画像を保持することにより、各基準画像のデータ量を削減することができる。 2次元画 像上の軸線相当方向に関する加工部の像の位置を基準画像と対応付けて保持して いるので、欠陥判別の対象から除外すべき領域を特定する際には、その基準画像に 対応付けられた位置を参照することにより、加工部の像が存在し得る範囲、つまり基 準画像と比較されるべき範囲を 2次元画像の軸線相当方向に関する一部の範囲に 絞り込み、基準画像のデータ量の削減と相俟って処理の高速ィ匕を図ることができる。 さらに、同一の加工部の像が 2次元画像の周相当方向に出現すべき個数を基準画 像と対応付けて保持して!/、るので、加工部を超える数の領域を欠陥判別の対象外と すべき領域として誤判定するおそれを排除することができる。これにより、被検査物の 表面に存在する加工部が欠陥の有無の判別に与える影響を排除して正確な検査を 実施することが可能となる。
図面の簡単な説明
[図 1]本発明の表面検査装置の一形態の概略構成を示す図。
[図 2]図 1の表面検査装置にて生成される被検査物の内周面の 2次元画像の一例を 示す図。
[図 3]図 1の表面検査装置の演算処理部にて実行される欠陥検出ルーチンを示す図
[図 4]図 2の A部を拡大して示した図。
[図 5]図 4の画像にラベリング処理を施した状態を示す図。
[図 6]図 5の画素に付されたラベル番号を整理した状態を示す図。
[図 7]図 6の画素に付されたラベル番号をさらに整理した状態を示す図。
[図 8]図 2の B部を拡大して示した図。 [図 9]検査領域をシフトする様子を示す図。
[図 10]被検査物を一部破断して示す斜視図。
[図 11]図 1の表面検査装置にて生成される被検査物の内周面の 2次元画像の他の 例を示す図。
[図 12]記憶部に記憶される基準画像のデータ構造を示す図。
[図 13]図 1の表面検査装置の演算処理部にて実行される欠陥検出処理を示すフロ ーテヤート。
発明を実施するための最良の形態
[0020] 図 1は本発明の一形態に係る表面検査装置の概略構成を示している。表面検査装 置 1は被検査物 100に設けられた円筒形の内周面 100aの検査に適した装置であり 、検査を実行するための検査機構 2と、その検査機構 2の動作制御、検査機構 2によ る測定結果の処理等を実行するための制御部 3とを備えている。さらに、検査機構 2 は、被検査物 100に対して検査光を投光し、かつ被検査物 100からの反射光を受光 するための検出手段としての検出ユニット 5と、その検出ユニット 5に所定の動作を与 えるための駆動ユニット 6とを備えている。
[0021] 検出ユニット 5は、検査光の光源としてのレーザダイオード(以下、 LDと呼ぶ。)11 と、被検査物 100からの反射光を受光し、その反射光の単位時間当りの光量 (反射 光強度)に応じた電流又は電圧の信号を出力するフォトディテクタ(以下、 PDと呼ぶ 。) 12と、 LD11から射出される検査光を被検査物 100に向力つて導く投光ファイバ 1 3と、被検査物 100からの反射光を PD12に導くための受光ファイバ 14と、それらのフ アイバ 13、 14を束ねた状態で保持する保持筒 15と、その保持筒 15の外側に同軸的 に設けられる中空軸状の検査ヘッド 16とを備えている。検査ヘッド 16は不図示の軸 受を介して回転自在に支持されて 、る。
[0022] 保持筒 15の先端には、投光ファイバ 13を介して導かれた検査光を検査ヘッド 16の 軸線 AXの方向(以下、軸線方向と呼ぶ。 )に沿ってビーム状に射出させ、かつ検査 ヘッド 16の軸線方向に沿って検査光とは逆向きに進む反射光を受光ファイバ 14に 集光するレンズ 17が設けられて 、る。検査ヘッド 16の先端部(図 1にお 、て右端部) には、光路変更手段としてのミラー 18が固定され、検査ヘッド 16の外周にはそのミラ 一 18と対向するようにして透光窓 16aが設けられている。ミラー 18は、レンズ 17から 射出された検査光の光路を透光窓 16aに向けて変更し、かつ、透光窓 16aから検査 ヘッド 16内に入射した反射光の光路をレンズ 17に向力つて進む方向に変更する。
[0023] 駆動ユニット 6は、直線駆動機構 30と、回転駆動機構 40と、焦点調節機構 50とを 備えている。直線駆動機構 30は検査ヘッド 16をその軸線方向に移動させる直線駆 動手段として設けられている。そのような機能を実現するため、直線駆動機構 30は、 ベース 31と、そのベース 31に固定された一対のレール 32と、レール 32に沿って検 查ヘッド 16の軸線方向に移動可能なスライダ 33と、そのスライダ 33の側方に検査へ ッド 16の軸線 AXと平行に配置された送りねじ 34と、その送りねじ 34を回転駆動する 電動モータ 35とを備えている。スライダ 33は検出ユニット 5の全体を支持する手段と して機能する。すなわち、 LD11及び PD12はスライダ 33に固定され、検査ヘッド 16 は回転駆動機構 40を介してスライダ 33に取り付けられ、保持筒 15は焦点調節機構 50を介してスライダ 33に取り付けられている。さらに、スライダ 33にはナット 36が固定 され、そのナット 36には送りねじ 34がねじ込まれている。従って、電動モータ 35にて 送りねじ 34を回転駆動することにより、スライダ 33がレール 32に沿って検査ヘッド 16 の軸線方向に移動し、それに伴ってスライダ 33に支持された検出ユニット 5の全体が 検査ヘッド 16の軸線方向に移動する。直線駆動機構 30を用いた検出ユニット 5の駆 動により、被検査物 100の内周面 100aに対する検査光の照射位置(走査位置)を検 查ヘッド 16の軸線方向に関して変化させることができる。
[0024] ベース 31の前端(図 1において右端)には壁部 31aが設けられ、その壁部 31aには 検査ヘッド 16と同軸の通し孔 31bが設けられている。その通し孔 31bにはサンプルピ ース 37が取り付けられている。サンプルピース 37は表面検査装置 1の動作状態を判 別するためのサンプルとして設けられるものであり、その中心線上には検査ヘッド 16 と同軸の貫通孔 37aが設けられている。貫通孔 37aは検査ヘッド 16が通過可能な内 径を有しており、検査ヘッド 16はその貫通孔 37aを通過して被検査物 100の内部へ と繰り出される。
[0025] 回転駆動機構 40は検査ヘッド 16を軸線 AXの回りに回転させる回転駆動手段とし て設けられている。そのような機能を実現するため、回転駆動機構 40は、回転駆動 源としての電動モータ 41と、その電動モータ 41の回転を検査ヘッド 16に伝達する伝 達機構 42とを備えている。伝達機構 42には、ベルト伝達装置、歯車列等の公知の 回転伝達機構を利用してよいが、この形態ではベルト伝達装置が利用される。電動 モータ 41の回転を伝達機構 42を介して検査ヘッド 16に伝達することにより、検査へ ッド 16がその内部に固定されたミラー 18を伴つて軸線 AXの回りに回転する。回転駆 動機構 40を用いた検査ヘッド 16の回転により、被検査物 100の内周面 100aに対す る検査光の照射位置を被検査物 100の周方向に関して変化させることができる。そし て、検査ヘッド 16の軸線方向への移動と軸線 AXの回りの回転とを組み合わせること により、被検査物 100の内周面 100aをその全面に亘つて検査光で走査することが可 能となる。なお、検査ヘッド 16の回転時において、保持筒 15は回転しない。さらに、 回転駆動機構 40には、検査ヘッド 16が所定の単位角度回転する毎にパルス信号を 出力するロータリエンコーダ 43が設けられている。ロータリエンコーダ 43から出力さ れるパルス信号の個数は検査ヘッド 16の回転量(回転角度)に相関し、そのパルス 信号の周期は検査ヘッド 16の回転速度に相関する。
[0026] 焦点調節機構 50は、検査光が被検査物 100の内周面 100aにて焦点を結ぶように 保持筒 15を軸線 AXの方向に駆動する焦点調整手段として設けられている。その機 能を実現するため、焦点調節機構 50は、保持筒 15の基端部に固定された支持板 5 1と、直線駆動機構 30のスライダ 33と支持板 51との間に配置されて支持板 51を検 查ヘッド 16の軸線方向に案内するレール 52と、検査ヘッド 16の軸線 AXと平行に配 置されて支持板 51にねじ込まれた送りねじ 53と、その送りねじ 53を回転駆動する電 動モータ 54とを備えている。電動モータ 54にて送りねじ 53を回転駆動することにより 、支持板 51がレール 52に沿って移動して保持筒 15が検査ヘッド 16の軸線方向に 移動する。これにより、検査光が被検査物 100の内周面 100a上で焦点を結ぶように レンズ 17からミラー 18を経て内周面 100aに至る光路の長さを調節することができる
[0027] 次に制御部 3について説明する。制御部 3は、表面検査装置 1による検査工程の管 理、検出ユニット 5の測定結果の処理等を実行するコンピュータユニットとしての演算 処理部 60と、その演算処理部 60の指示に従って検出ユニット 5の各部の動作を制御 する動作制御部 61と、 PD12の出力信号に対して所定の処理を実行する信号処理 部 62と、演算処理部 60に対してユーザが指示を入力するための入力部 63と、演算 処理部 60が処理した検査結果等をユーザに提示するための出力部 64と、演算処理 部 60にて実行すべきコンピュータプログラム、及び、測定されたデータ等を記憶する 記憶部 65とを備えている。演算処理部 60、入力部 63、出力部 64及び記憶部 65は パーソナルコンピュータ等の汎用コンピュータ機器を利用してこれらを構成することが できる。この場合、入力部 63にはキーボード、マウス等の入力機器が設けられ、出力 部 64にはモニタ装置が設けられる。プリンタ等の出力機器が出力部 64に追加されて もよい。記憶部 65には、ハードディスク記憶装置、あるいは記憶保持が可能な半導 体記憶素子等の記憶装置が用いられる。動作制御部 61及び信号処理部 62はハー ドウエア制御回路によって実現されてもよいし、コンピュータユニットによって実現され てもよい。
[0028] 被検査物 100の内周面 100aの表面を検査する場合、演算処理部 60、動作制御 部 61及び信号処理部 62のそれぞれは次の通り動作する。なお、この場合、被検査 物 100は検査ヘッド 16と同軸上に配置される。検査の開始にあたって、演算処理部 60は入力部 63からの指示に従って動作制御部 61に被検査物 100の内周面 100a を検査するために必要な動作の開始を指示する。その指示を受けた動作制御部 61 は、 LD11を所定の強度で発光させるとともに、検査ヘッド 16が軸線方向に移動し、 かつ軸線 AXの回りに一定速度で回転するようにモータ 35及び 41の動作を制御する 。さらに、動作制御部 61は、検査光が被検査面としての内周面 100a上で焦点を結 ぶようにモータ 54の動作を制御する。このような動作制御により、内周面 100aがその 一端力 他端まで検査光によって走査される。なお、検査ヘッド 16の軸線方向の駆 動に関しては、一定速度の送り動作としてもよいし、検査ヘッド 16がー回転する毎に 所定ピッチずつ移動する間欠的な送り動作としてもよい。
[0029] 上述した内周面 100aの走査に連係して信号処理部 62には PD12の出力信号が 順次導かれる。信号処理部 62は、 PD12の出力信号を演算処理部 60にて処理する ために必要なアナログ信号処理を実施し、さらに、その処理後のアナログ信号を所定 のビット数で AZD変換し、得られたデジタル信号を反射光信号として演算処理部 60 に出力する。演算処理部 60にて実行する信号処理としては、 PD12が検出した反射 光の明暗差を拡大するようにその出力信号を非線形に増幅する処理、出力信号から ノイズ成分を除去する処理と 、つた各種の処理を適宜に用いてょ 、。高速フーリエ変 換処理、逆フーリエ変換処理等を適宜に組み合わせることも可能である。また、信号 処理部 62による AZD変換は、ロータリエンコーダ 43から出力されるパルス列をサン プリングクロック信号として利用して行われる。これにより、検査ヘッド 16が所定角度 回転する間の PD12の受光量に相関した階調のデジタル信号が生成されて信号処 理部 62から出力される。
[0030] 信号処理部 62から反射光信号を受け取った演算処理部 60は、その取り込んだ信 号を記憶部 65に記憶する。さらに、演算処理部 60は、記憶部 65が記憶する反射光 信号を利用して被検査物 100の内周面 100aを平面的に展開した 2次元画像を生成 する。その 2次元画像の一例を図 2に示す。 2次元画像 200は、被検査物 100の周方 向を X軸方向、検査ヘッド 16の軸線方向を y軸方向とする直交 2軸座標系で定義され る平面上に内周面 100aを展開した画像に相当する。 2次元画像 200では、内周面 1 00aに存在する欠陥等の凹凸部が暗部 201として表現され、内周面 100aの正常な 部分が明部 202として表現される。被検査物 100が铸物である場合、内周面 100aに 存在する铸巣、切削加工時の傷等といった欠陥が暗部 201として撮像される。演算 処理部 60は、得られた 2次元画像 200を検査して一定の条件を満たす暗部 201を 欠陥として判別する。以下、図 3を参照して欠陥検出の詳細な手順を説明する。
[0031] 図 3は、演算処理部 60が被検査物 100の欠陥を検出するために実行する欠陥検 出ルーチンを示している。図 3のルーチンにおいて、演算処理部 60はまずステップ S 1で信号処理部 62から受け取った反射光信号に基づいて内周面 100aの 2次元画像 200を生成する。なお、この 2次元画像 200は演算処理部 60の RAM上に仮想的に 生成される画像である。 2次元画像 200の一つの画素 203の大きさは適宜でよいが、 一 ί列として X軸方向に 150 /z m y軸方向に 50 /z mである。
[0032] 続くステップ S2において、演算処理部 60は 2次元画像 200を構成する画素 203の 階調を所定の閾値と比較し、その閾値よりも暗い画素の階調を 1、明るい画素の階調 を 0として 2次元画像 200を 2値ィ匕する。これにより、図 2の 2次元画像 200の B音咅 201 に対応する画素の階調が 1、それ以外の画素の階調が 0にそれぞれ変換される。図 2 の A部を 2値化した画像を図 4に示す。図 4では階調が 1の画素 203にハッチングが 付されている。なお、被検査物 100の内周面 100aに存在する凹凸等の形状を想像 線 Ll、 L2にて併せて示している。図 4において、階調 1が付された画素群 (ハツチン グが付された画素群)は、被検査物 100の内周面 100aの欠陥に対応した階調の第 1の画素群に相当し、階調 0が付された画素群は欠陥に対応しない階調の第 2の画 素群に相当する。
図 3に戻って、画像の 2値化後、演算処理部 60はステップ S3に進み、 2値化された 画像に対してラベリング処理を実施する。ラベリング処理は、 2次元画像に含まれる 画素にグループ属性を付加する公知の処理である。ラベリング処理は 2次元画像を 構成する画素の全てを対象として実施されるものである力 以下では図 2の A部に対 応する図 4の 2値化画像を例に挙げてラベリング処理を説明する。ラベリング処理で は、 2値化された画像の各画素の階調を所定方向に順次検査する。そして、階調が 1 でかつまだラベルが付されて 、な 、画素が存在する場合、その画素を注目画素とし て検出する。例えば、図 4の中段の画素列 Nを図面の右方に検査する場合には、ま ず図 5で太線にて示された画素 203aが注目画素として検出される。注目画素 203a を検出したならば、続いて、その注目画素 203aに隣接する所定数の画素(通常は 4 又は 8画素)の階調が 0から 1かを調べる。そして、注目画素 203a及びこれに連続す る階調が 1の画素に対して 2値ィ匕画像上でまだ使用されていないユニークなラベル 番号を付す。図 5では注目画素 203a及びこれに連続する階調が 1の画素にラベル 番号 1が付されている。演算処理部 60は、このような処理を注目画素が検出される毎 に繰り返す。図 5の例では、注目画素 203b、 203cが順次検出され、注目画素 203b 及びこれに隣接する階調 1の画素にラベル番号 2が、注目画素 203c及びこれに隣 接する階調 1の画素にラベル番号 3がそれぞれ付されている。なお、注目画素 203b の右隣の画素 203dは注目画素 203bの検査時にラベル番号 2が付されるために注 目画素としては検出されない。また、注目画素 203cに関する検査時において、画素 203dにはラベル番号 2が既に付されているので、ラベル番号 3は付されない。ラベリ ング処理は、 2値ィ匕画像上で注目画素が検出されなくなるまで繰り返され、その後に ラベリング処理が終了する。
[0034] 図 3に戻って、演算処理部 60はラベリング処理が終わると、続いてステップ S4に進 んでラベル番号の整理を実施する。ラベル番号の整理では、隣接する画素間で異な るラベル番号が付されている部分が検出され、隣接する画素同士が同一のラベル番 号となるようにラベル番号が付け直される。図 5の例では画素 203c、 203dが互いに 隣接するにも関わらず、それらにラベル番号 2、 3が付されているため、これを解消す ベぐラベル番号 3が付されている全ての画素 203c、 203eのラベル番号が 2に変更 される。ラベル変更後の状態を図 6に示す。図 6では同一のラベル番号が付された画 素群を太線で囲んで示している。図 4と図 6との対比から明らかなように、左側の暗部 201に対応して階調 1が与えられた全ての画素はラベル番号 1が付されてグループ 化され、右側の暗部 201に対応して階調が 1が付された全ての画素はラベル番号 2 が付されてグループィ匕される。このようにしてグループィ匕された画素は、被検査物 10 0の内周面 100aの欠陥に対応した階調の第 1の画素群であって、し力も、欠陥に対 応しない階調の第 2の画素群にて囲まれた範囲毎に抽出される欠陥候補部 210に 相当する。なお、欠陥候補部 210の最小単位は 1画素である。つまり、単一の画素 2 03の階調が 1、周囲の画素 203の階調が全て 0の場合、その階調 1の画素は単独で 欠陥候補部 210として扱われる。このようにして得られた欠陥候補部 210は、図 2に 示した 2次元画像内の暗部 201に対応する。
[0035] さらに、ラベル番号の整理では、画素数の多い順に各グループのラベル番号が付 け直される。図 6の例では右側の画素群の方が左側の画素群よりも画素数が多 、た め、右側の画素群のラベル番号が 1に、左側の画素群のラベル番号が 2に付け替え られる。なお、図 4〜図 7では二つの暗部 201が存在する場合を例に挙げているが、 ラベル番号の付け替えは 2値ィ匕画像の全ての領域を対象として実施される。従って、 図 6及び図 7に例示したラベル番号は必ずしも図 2の 2次元画像全体に対する処理 結果とは一致しない。
[0036] 図 3に戻って、ラベル番号の整理が終了した後、演算処理部 60はステップ S3及び S4の処理によって抽出された全ての欠陥候補部 210に関してそれぞれの面積、長 辺、短辺の長さ、 2次元画像上の位置を演算し、その演算結果を演算処理部 60の R AM又は記憶部 65に記憶する。面積は欠陥候補部 210に含まれる画素の個数によ つて表現されてもょ 、し、一画素が占める面積と画素数との積によって欠陥候補部 2 10の実面積が求められてもよい。欠陥候補部 210の長辺及び短辺の大きさは、欠陥 候補部 210の X軸方向及び y軸方向に占める画素数と一画素当たりの実寸法との積 力 求めることができる。欠陥候補部 210の位置は例えば欠陥候補部 210を代表す る位置(一例として重心位置)を X軸座標、 y軸座標で表せばょ 、。
[0037] 続くステップ S6において、演算処理部 60は所定の大きさ以上の欠陥候補部 210を 検出し、これらの欠陥候補部 210を全て欠陥として識別する。例えば、短辺が 0. 2m m以上の欠陥候補部 210を欠陥として識別する。さらに、次のステップ S7において、 演算処理部 60はステップ S6で欠陥として扱われな力つた欠陥候補部 210、つまり所 定の大きさに満たない欠陥候補部 210の密集度を 2次元画像上の所定の検査領域 毎に検査する。この処理は、ステップ S6では欠陥として判定されない微小な暗部 20 1が一定の範囲内に集中していると検査者の目には欠陥として認識されるおそれが あるため、そのような微小な暗部 201が密集する領域を欠陥領域として識別する処理 である。
[0038] ステップ S7の処理では、図 2に示すように 2次元画像内に所定の大きさの検査領域 Bを設定し、その検査領域 B毎に欠陥候補部 210の密集度を検査する。図 8は図 2の 検査領域 Bの拡大図である。検査領域 Bの X軸方向及び y軸方向の大きさ xd、 ydは 適宜に設定してよい。図 8の検査領域 Bでは、単独では欠陥に満たない微小な欠陥 候補部 210が比較的接近した範囲に集中している。演算処理部 60は、このような領 域を欠陥領域として識別するため、検査領域 Bに存在する所定の面積以上の欠陥候 補部 210の個数をステップ S5で取得した欠陥候補部 210の面積等の情報に基づい てステップ S7で判別し、その個数力も検査領域 Bにおける欠陥候補部 210の密集度 を判別する。
[0039] 続くステップ S8において、演算処理部 60は、欠陥候補部 210の密集度が所定のレ ベル以上の検査領域 Bを欠陥領域として識別する。例えば、所定の面積以上の欠陥 候補部 210の個数が所定値以上存在しているときに密集度が高いとみなして検査領 域 Bを欠陥領域として識別する。さらに、ステップ S8においては、欠陥領域として識 別された場合に、その領域内に含まれる微小な欠陥候補部 210の群の重心位置を、 それらの欠陥候補部 210を代表する位置として演算する。なお、図 9に示したように、 検査領域 Bは、 2次元画像上にぉ 、て一部を重複させながら X軸方向に順次位置を 変えて設定される。 X軸方向に関して検査領域 Bが内周面 100aを一周すると、検査 領域 Bは y軸方向に一部を重複させながらシフトされ、以下、同様にして検査領域 B の設定と、その領域内における密集度の検査とが繰り返される。なお、密集度の検査 において、ステップ S6で欠陥として識別された欠陥候補部 210は検査対象から除外 してもよいし、除外しなくてもよい。除外しない場合でも、ステップ S6で欠陥として識 別されない微小な欠陥候補部 210のみが集中している領域を欠陥領域として識別す ることがでさる。
[0040] 図 3に戻って、ステップ S8で欠陥領域の識別を終えた後、演算処理部 60はステツ プ S9に進み、ステップ S6及び S8における識別結果を検査結果として記憶部 65に 記憶し、かつ出力部 64に出力する。出力部 64への出力に関して、ステップ S6で識 別された欠陥、及びステップ S8で識別された欠陥検査領域を区別することなく同種 の欠陥としてユーザに提示してもよ 、し、両者を区別してユーザに提示してもよ 、。 両者を区別してユーザに提示した場合であっても、単独では欠陥と判定されな ヽ微 小な铸巣等が集中する領域を欠陥に準じて検出してユーザにその存在を知らしめる ことができる。さらに、ステップ S8にて演算された欠陥候補部 210の重心位置をユー ザに提示することにより、欠陥とみなし得る微小な凹凸等が存在する位置をユーザに 知らしめて検査結果の確認の用に供することができる。以上の処理を終えた後、演算 処理部 60は欠陥検出ルーチンを終了する。なお、図 4〜図 8で示した欠陥候補部等 と画素の大きさとの対応関係はあくまで説明のためのものであり、実際の検査時の様 子を示すものではない。
[0041] 以上に説明したように、本形態の表面検査装置 1によれば、内周面 100aの 2次元 画像上で所定の大きさ以上の欠陥候補部 210を欠陥として識別するとともに、その大 きさに満たず、単独では欠陥として扱われない微小な欠陥候補部 210が比較的接近 した範隨こ密集している場合にはその領域を欠陥領域として識別することができる。 これにより、欠陥と判定するための欠陥候補部 210の大きさの閾値を必要以上に小さ く設定する必要がなくなり、微小かつ単独で存在する欠陥候補部 210を欠陥として過 度に検出するおそれを排除することができる。その一方、ユーザの目視では欠陥とし て識別され得る微小な欠陥候補部 210の密集部分を見逃すことなぐ欠陥、又は欠 陥に準じたものとして検出してユーザにその存在を提示することができる。
[0042] また、本発明では、欠陥領域の検査において評価対象とすべき微小な暗部 201が 2次元画像上で少なくとも一画素を占めるように 2次元画像の解像度、言い換えれば 一画素のサイズを設定すればよいので、検査の分解能を必要以上に微小に設定す る必要がない。このため、検査ヘッド 16を比較的高速で回転させても欠陥及び欠陥 領域を高精度に検出することができ、解像度又は分解能の高精細化による検査効率 の低下を防止することができる。
[0043] 以上の形態では、演算処理部 60が図 3のステップ S1を実行することにより画像生 成手段として機能し、ステップ S2〜S5を実行することにより欠陥候補抽出手段として 機能し、ステップ S6を実行することにより欠陥識別手段として機能し、ステップ S7及 び S8を実行することにより欠陥領域識別手段として機能する。
[0044] 本発明は以上の形態に限定されることなぐ種々の形態にて実施することができる。
例えば、上記の形態では検査ヘッドを回転させつつ軸線方向に送り出して内周面を 検査光で走査しているが、検査ヘッドの回転運動及び直線運動のうち少なくとも一方 を省略し、これに代えて被検査物を回転運動又は直線運動させることにより被検査 物の表面を走査する表面検査装置であっても本発明は適用可能である。 2次元画像 力 欠陥に対応する階調の第 1の画素と、それ以外の第 2の階調の画素とに区別す るための処理では、画像を 2値化して区別する例に限らず、グレースケール画像、あ るいはカラー画像を用いて欠陥に対応する画素を区別するものでもよ!/、。欠陥候補 部を抽出する処理もラベリング処理に限らず、各種の画像処理手法を用いてよい。
[0045] 上記の形態では所定面積以上の欠陥候補部の個数を用いて検査領域内の欠陥 候補部の密集度を判別したが、検査領域の面積に占める欠陥候補部の総面積の割 合によって密集度を判別してもよい。あるいは、単独では欠陥として識別されない微 小な欠陥候補部の一つに注目し、その注目した欠陥候補部とこれに隣接する欠陥 候補部との距離を参照して密集度を判別する等、欠陥候補部の密集度の判別は種 々の情報を用いてこれを実施することができる。
[0046] 次に本発明の表面検査装置の他の形態について説明する。本形態の表面検査装 置の構成は、図 1で説明した構成と同様であるため、説明を省略する。本形態は、上 述した形態と演算処理部 60での処理が異なる。以下に説明する。画像生成手段とし ての演算処理部 60は、記憶部 65が記憶する反射光信号を利用して図 10に示す被 検査物 300の内周面 300aを平面的に展開した 2次元画像を生成する。すなわち、 演算処理部 60は、図 10に示すように被検査物 300の周方向に沿って X軸を、軸線 方向に沿って y軸をそれぞれ設定し、内周面 300aを X軸一 y軸からなる直交 2軸座標 系で定義される平面上に展開した 2次元画像を生成する。 2次元画像は例えば 8ビッ トのグレースケール画像である。 X軸方向が 2次元画像 400上の周相当方向であり、 y 軸方向が 2次元画像 400上の軸線相当方向である。
[0047] 図 10の被検査物 300の内周面 300aには、地肌 300bよりも反射率が低い領域とし て、録巣等の欠陥 301、 302と、カロ工咅としてのカロ工穴 303a、 303b, 303c, 304と が存在している。地肌 300bは欠陥のない切削加工面である。加工穴 303a〜303c は同形同大であり、かつ y軸方向に関してそれらの加工穴 303a〜303cの位置も互 いに等しい。以下では、加工穴 303a〜303cを区別する必要がないときは力卩ェ穴 30 3と表記する。加工穴 304は力卩ェ穴 303と形状及び大きさが異なり、かつ y軸方向に 関しても加工穴 303からずれて 、る。
[0048] 図 10の内周面 300aに対応して演算処理部 60が生成する 2次元画像の一例を図 1 1に示す。 2次元画像 400は多数の画素 400aを X軸方向及び y軸方向に並べて構成 される。一つの画素 400aが内周面 300a上で占める大きさは適宜でよいが、一例とし て一画素 400aの X軸方向の幅は内周面 300a上で 150 μ mに相当し、 y軸方向の幅 ίま内周面 300a上で 50 /z m【こネ目当する。 2次元画像 400上【こ ίま、欠陥 301、 302【こ 対応する欠陥像 401、 402、及び力卩ェ穴 303a〜303c、 304に対応する加工穴像 4 03a〜403c (参照符号 403で代表することがある。)、 404が出現する。それらの像 の濃度値は、内周面 300aの地肌 300bに対応する背景領域 405よりも喑 、 (低 、)。 つまり、本形態では反射光量が大きいほど 2次元画像 400内における画素 400aの 濃度値が高くなり、欠陥及び加工部は暗部として現れる。 [0049] 演算処理部 60は、 2次元画像 400を所定のアルゴリズムに従って処理することによ り被検査物 300の内周面 300aに欠陥が存在するか否かを判別し、その判別結果を 出力部 64に出力する。この欠陥検出は、 2次元画像 400の暗部に注目して欠陥像 の有無を判別するものである。ところ力 図 11の 2次元画像 400では、加工穴像 403 、 404も欠陥像 401、 402と同様に暗部として出現するので、仮に被検査物 300に欠 陥 301、 302がな力つたとしても、加工穴像 403、 404が欠陥と判定され、被検査物 3 00が不良品と誤って判断されるおそれがある。このような誤判定を避けるため、演算 処理部 60は、図 13に示す欠陥検出処理を実行することにより、加工穴 303、 304の ような加工部が欠陥検出に与える影響を排除する。この欠陥検出処理は、被検査物 300の内周面 300aに存在することが予め判っている加工部の像を基準画像として 用意し、その基準画像と 2次元画像 400上に暗部として出現している像との一致度に 基づいて加工部の像を検出し、検出された加工部の像を欠陥判別の対象から除外 した上で、欠陥の有無を判別するものである。
[0050] 図 11の 2次元画像 400を検査する場合、加工穴像 403のみを抽出した基準画像、 及び加工穴像 404のみを抽出した基準画像がそれぞれ用意される。但し、ここでは、 加工穴像 403又は力卩ェ穴像 404を包含する必要最小限の大きさの矩形領域 411、 4 12を 2次元画像 400から抽出した像が基準画像として用意されるものとする。以下で は、基準画像 411、 412と表記することがある。加工穴 303a、 303b, 303cは同形同 大のため、これらに対応する基準画像 411は共通、つまり一枚用意すればよい。基 準画像 411、 412は、被検査物 300の内周面 300aを実際に撮影して得られた 2次 元画像 400から基準画像 411、 412として使用する領域をユーザが指定することによ り作成することができる。あるいは、被検査物 300の設計データと撮影条件とからカロ ェ穴 303、 304の像を演算して基準画像 411、 412を生成してもよい。なお、基準画 像 411、 412は 2次元画像 400と同一階調のグレースケール画像として作成される。
[0051] 基準画像 411、 412は記憶部 65に予め記憶される。図 12はその記憶部 65に記憶 された基準画像 411、 412のデータ構造の一例を示す。基準画像 411、 412のデー タはそれぞれの基準画像 411, 412に含まれる画素の濃度値を画素の並び順に従 つて記述した数値データである。それらのデータは、基準画像 411、 412に対応する 加工穴像 403、 404の y軸方向の代表座標 yl、 y2、及びそれらの個数 Nl、 N2と対 応付けられた状態で記憶部 65に記憶される。代表座標 yl、 y2としては、例えば加工 穴像 403、 404の重心点(又は中心点)の y座標が選ばれる。 y軸方向に関する座標 の原点は、一例として、 2次元画像 400の上端 400c、つまり、図 10における内周面 3 00aの軸線方向のエッジ 300cに設定される。個数 Nl、 N2は、代表座標 yl、 y2上 のそれぞれに同形同大の加工穴 303、 304が幾つ存在しているかを示す値である。 換言すれば、 y座標 yl、 y2で示される位置に、基準画像 411、 412に対応する加工 穴像 403、 404のそれぞれが存在すべき個数である。図 11の例では個数 N1が 3、 個数 N2が 1である。
[0052] 次に、図 13の欠陥検出処理を説明する。演算処理部 60は、内周面 300aの走査が 終了すると、信号処理部 62から受け取った反射光信号に基づいて内周面 300aの 2 次元画像 400を生成する。その 2次元画像 400は演算処理部 60の RAM上に仮想 的に生成されるグレースケール画像である。 2次元画像 400の生成後、演算処理部 6 0は欠陥検出処理を開始し、まずステップ SI 1で検査対象の y座標に関して初期値 を設定する。この場合、基準画像 411、 412に対応付けられた代表座標 yl、 y2のう ち、最も小さ!ヽ y座標(この例では yl)を初期値として設定すればょ ヽ。
[0053] 次のステップ S12にて、演算処理部 60は、加工穴の検出数を計数するためのカウ ンタの値に初期値 0を設定する。続くステップ S 13にて、演算処理部 60は、検査対象 の y座標に対応付けられている基準画像データ及び個数を記憶部 65から取得する。 例えば、検査対象画素群の y座標が ylの場合、演算処理部 60は、基準画像 411の データ及び力卩ェ穴 303a〜303cの個数 N1 ( = 3)を取得する。
[0054] 続くステップ S14において、演算処理部 60は、基準画像と比較されるべき検査対 象画像を 2次元画像 400から選択する。例えば、図 11の 2次元画像 400において、 y 座標 ylが検査対象として設定されている場合、検査対象画像 420はその y座標 yl 上の基準画像 411と同形同大でかつ基準画像 411と y軸方向の位置が一致するよう に選択される。検査対象画像 420の X軸方向の位置はステップ S14が実行される毎 に所定画素数ずつ X軸方向に順次変更される。例えば、 y座標 ylに関して最初にス テツプ S14が実行される場合には検査対象画像 420が 2次元画像 400の左端に接 するように選択され、ステップ S14が実行される毎に検査対象画像 420の位置が X軸 方向右側に順次変更される。この処理は、 2次元画像 400上で y座標 ylを中心として y軸方向に基準画像 411と同一寸法の範囲内にぉ 、て、 2次元画像 300の左端から X軸方向に基準画像 411の位置を順次変更する処理に相当する。
[0055] 次のステップ S 15にて、演算処理部 60は、検査対象画像と基準画像との一致度を 正規化相関を用いて演算する。正規ィ匕相関では、比較されるべき画像間で濃度値が 同じ傾向、つまり、類似であれば正の相関を示し、両者の濃度値が逆の傾向、つまり 、非類似であれば負の相関を示す。正規化相関の相関式は、(AX 10000) ÷^ (B X C)で表される。ここで、 Aは、検査対象画像と基準画像の相互相関を示し、 A=N X∑ (Ι ΧΤ) - ( Σ Ι) X ( ΣΤ)で与えられる。 Βは、検査対象画像の自己相関を示し、 Β = Ν Χ∑ (Ι Χ Ι) - ( Σ Ι) X (∑ I)で与えられる。 Cは、基準画像の自己相関を示し、 C = N X∑ (ΤΧΤ) - ( ΣΤ) X ( ΣΤ)で与えられる。相関式中、 Νは基準画像の画素 数、 Iは検査対象画像の各画素の濃度値、 Τは基準画像の各画素の濃度値をそれぞ れ示す。
[0056] 続くステップ S16にて、演算処理部 60は、ステップ S 15で得られた正規ィ匕相関値が 所定の閾値を超えたカゝ否かを判断する。ここで使用される閾値には、正規化相関値 が正の相関を示すと考えられる値を設定すればよい。閾値を超える場合、演算処理 部 60は次のステップ S17に進み、検査対象画像として抽出されている領域をマスク 領域として識別し、そのマスク領域に含まれる画素群の 2次元画像 400上の位置を 記憶する。次のステップ S18において、演算処理部 60は、上述したカウンタの値に 1 を加算してステップ S 19へ進む。一方、ステップ S 16で正規ィ匕相関値が閾値を超え ていないと判断された場合、演算処理部 60はステップ S 17、 S18をスキップしてステ ップ S 19へ進む。
[0057] 次のステップ S 19において、演算処理部 60は、上述したカウンタの値 (力卩ェ穴の検 出数)力 ステップ S13で取得したカ卩ェ穴の個数 (例えば座標 ylのとき N1)に一致す る力否かを判断する。カウンタの値が加工穴の個数に一致しない場合、演算処理部 60はステップ S14に戻り、次の検査対象画像 420と基準画像との一致度を演算する 。ステップ S 19にてカウンタの値が加工穴の個数に一致している場合、演算処理部 6 0はステップ S 20へ進む。
[0058] ステップ S20にて、演算処理部 60は、基準画像データに対応付けられた全ての y 座標について検査が終了したか否力判断する。そして、未だ検査していない y座標 がある場合、演算処理部 60はステップ S21にて次の y座標を選択してステップ S12 へ戻る。ステップ S 20にて全ての y座標の検査が終了している場合、演算処理部 60 は次のステップ S 22へ進む。
[0059] ステップ S22において、演算処理部 60は、マスク領域として識別された領域を欠陥 判別の対象力 除外しつつ 2次元画像 400内に欠陥像が存在する力否かを判別す る。一例として、演算処理部 60は、 2次元画像 400を、欠陥像 401、 402が暗部、背 景画像 405が明部として区分されるような閾値によって 2値ィ匕し、得られた 2値画像内 の暗部の大きさ等を手掛かりとして欠陥の有無を判別する。 2値ィ匕に際して、ステップ S 17でマスク領域として識別された画素の濃度値は全て背景領域 405と同一の濃度 値に変換される。これにより、得られた 2値画像から加工穴像とみなされた画像が消 去される。よって、加工穴像のみが内周面 300aに存在している場合に、加工穴像が 欠陥として誤って判別されるおそれがなくなる。内周面 300aの全面に関して欠陥判 別が終了すると、演算処理部 60は図 13の欠陥検出処理を終了する。
[0060] 以上の処理によれば、力卩工穴像 403、 404にそれぞれ対応する基準画像 411、 41
2を予め用意し、 2次元画像 400内おいて基準画像 411、 412に一致するとみなし得 る領域を加工穴像と推定してこれを欠陥判別の対象力 除外して 、るので、加工穴 の影響で欠陥のない良品が不良品と誤判定されるおそれがない。また、形状又は大 きさが異なる加工穴像 403、 404毎に別々の基準画像を用意し、各基準画像を加工 穴像の位置 (y座標)及び個数と対応付けて記憶し、各基準画像を代表する y座標上 を基準とする限られた範囲内にて検査対象画像と基準画像との一致度を演算し、検 查対象画像と基準画像とがー致する場合に検査対象画像の領域をマスク領域として 識別しているので、 2次元画像 400の X軸方向(被検査物 300の周方向に相当する。 )に関して力卩ェ穴像 403、 404がどのような位置にあってもマスク領域を容易かつ高 速に特定することができる。この点を以下に説明する。
[0061] 被検査物 300の軸線方向に関しては、その内周面 300aのエッジ 300cに対応する 2次元画像 400のエッジ 400cを基準とすれば力卩ェ穴像 403、 404が存在する y座標 を一義的に特定することができる。しかし、加工穴像 403、 404の X座標は被検査物 3 00の内周面 300aの走査開始位置と力卩ェ穴 303、 304の位置との関係に応じて変化 し、 2次元画像 400上で力卩ェ穴像 403、 404の X軸方向の位置を特定するために使 用し得る明確な基準がない。このため、 2次元画像 400の全体に存在する加工穴像 を一枚のマスク画像上に保持し、そのマスク画像を 2次元画像 400に重ね合わせて カロ工穴像 403、 404をマスクしょうとしても、カロ工穴像 403、 404の位置が変わればマ スキング位置がずれ、加工穴像 403、 404が欠陥として検出される。これを防ぐため にマスク画像の位置を X軸方向に変化させて力卩ェ穴像 403、 404に合わせするにし ても、内周面 300aの全体に相当するサイズのマスク画像はデータ量が大きぐ位置 合わせの処理に長時間を要する。
[0062] これに対して、本形態では、形状又は大きさの少なくともいずれか一方が異なる加 ェ穴像 403、 404毎に基準画像 411、 412を分けて用意しているので、基準画像 41 1、 412のサイズが小さくてそのデータ量も少ない。このため、 y座標 yl、 y2上で基準 画像 411、 412を 2次元画像 400に対して相対的に移動させても、その処理に要す る時間は短くて足りる。しカゝも、基準画像 411と検査画像 420とを比較すべき範囲が y 座標 ylを中心として y軸方向に基準画像 411と同一寸法の範囲に絞り込まれ、基準 画像 412と検査画像 420とを比較すべき範囲が y座標 y2を中心として y軸方向に基 準画像 412と同一寸法の範囲に絞り込まれるため、基準画像 411、 412のそれぞれ を 2次元画像 400の全面と比較する必要がない。これにより、欠陥検査の対象から除 外すべき領域を特定するためのマスク処理を高速に実行することができる。
[0063] また、本形態では、各基準画像 411、 412に対応する 座標71、 y2上に存在すベ きカロ工穴像 403、 404の個数 Nl、 N2を予め把握し、その個数 Nl、 N2に相当する だけマスク領域が識別された場合、同一の y座標上のマスク領域の検出を終了して いる(ステップ S19→S20)。このため、カロ工穴像 403、 404と同一の y座標上に、カロ ェ穴像と類似する欠陥像が存在しても欠陥の有無の判別に影響が及ばない。例え ば、図 10の 2次元画像 400では、 y座標 yl上に、 3つのカロ工穴像 403a〜403cと、 一つの欠陥像 302とが存在している。基準画像 311との対比において仮に欠陥像 3 02がマスク領域として判別されたとしても、何れか一つの加工穴像 403がマスク領域 として判別されずに残るため、ステップ S22の欠陥検出でその加工穴像 403が欠陥 として検出される。これにより、欠陥の存在する被検査物が良品として誤判定されるお それがなくなる。
[0064] 以上の形態では、記憶部 65が基準画像保持手段に相当する。また、演算処理部 6 0が図 13の処理を実行することにより欠陥判別手段として機能し、特には図 13のステ ップ S 14〜S 19の処理を実行することにより除外領域特定手段として機能する。
[0065] 本発明は以上の形態に限定されることなぐ種々の形態にて実施することができる。
例えば、上記の処理では、マスク領域と識別された回数が基準画像と対応付けられ たカ卩ェ穴の個数に一致した時点でマスク領域の検出を終了している力 マスク領域 の検出数が加工穴の個数に一致した以降も X軸方向に沿って基準画像と検査対象 画像との一致度の演算を続行し、基準画像に対応する個数を超えて加工穴像が検 出された場合に、被検査物 300に欠陥が存在すると判定してもよい。さらに進んで、 基準画像と対応付けられた個数を超えるマスク領域が存在して ヽる場合、正規化相 関値に基づいて相関度が最も低いものを欠陥として特定してもよい。このように、基 準画像と対応付けられた加工穴の個数は、マスク領域の識別のための情報のみなら ず、欠陥の有無を判別するための情報としても利用することが可能である。
[0066] 上記の形態では、基準画像に対応付けられた加工穴の像の位置として中心の y座 標を用いている力 これに限らず適宜の位置を加工穴の像の位置として定義してよ い。
[0067] 被検査物の表面の 2次元画像を取得するための手段は、上記の形態に限らず適宜 に変更可能である。また、本発明は被検査物の内周面を検査する例に限らず、円筒 状の外周面を検査する場合でも適用可能である。さらに、加工部として加工穴が設け られた被検査物の検査に限らず、検査対象となる円筒状の表面に何らかの加工され た部分を本発明に従って欠陥判別の対象から除外してょ 、。加工の概念も被検査物 の素材に対して人為的に何らかの変質を与えるものを広く包含し、例えば印刷、着色 、表面改質等の各種の処理も加工の概念に含み得る。

Claims

請求の範囲
[1] 被検査物の表面を検査光で走査して該表面からの反射光を受光し、その反射光の 光量に応じた信号を出力する検出手段と、
前記検出手段の出力信号に基づいて前記被検査物の表面の 2次元画像を生成す る画像生成手段と、
前記 2次元画像に含まれる画素を前記被検査物の表面の欠陥に対応した階調の 第 1の画素群と前記欠陥に対応しない階調の第 2の画素群とに区別し、前記第 1の 画素群を前記第 2の画素群にて囲まれた範囲毎に欠陥候補部として抽出する欠陥 候補抽出手段と、
前記欠陥候補部のうち、所定の大きさ以上の欠陥候補部を欠陥として識別する欠 陥識別手段と、
前記 2次元画像を所定の検査領域毎に検査し、該検査領域内における前記所定 の大きさに満たない欠陥候補部の密集度が所定レベル以上の検査領域を欠陥領域 として識別する欠陥領域識別手段と、
を備えた表面検査装置。
[2] 前記欠陥候補抽出手段は、前記 2次元画像に含まれる第 1の画素群をラベリング 処理することにより前記欠陥候補部を抽出する請求項 1の表面検査装置。
[3] 前記欠陥領域識別手段は、前記検査領域内における前記所定の大きさに満たな
V、欠陥候補部の面積及び個数の少なくとも 、ずれか一方に基づ 、て前記密集度を 判別する請求項 1又は 2の表面検査装置。
[4] 前記欠陥領域識別手段は、前記検査領域内における前記所定の大きさに満たな い欠陥候補部のうち、所定の面積以上の欠陥候補部の個数が所定値以上のときに 前記密集度が前記所定レベル以上と判別する請求項 1又は 2の表面検査装置。
[5] 前記欠陥領域として識別された検査領域に含まれる欠陥候補部の群の重心位置 を、当該検査領域内における欠陥候補部の群を代表する位置として演算する位置演 算手段をさらに備えた請求項 1〜4のいずれか一項の表面検査装置。
[6] 被検査物の円筒状の表面を平面的に展開した 2次元画像を取得し、該 2次元画像 内の画素の濃度値に基づいて前記表面における欠陥の有無を判別する表面検査装 置【こお!、て、
前記表面に存在する加工部に対応して前記 2次元画像上に出現すべき加工部の 像を、形状又は大きさの少なくともいずれか一方が異なる加工部毎に別々の基準画 像として保持するとともに、前記表面の軸線方向に相当する軸線相当方向における 前記カ卩ェ部の像の位置、及び前記表面の周方向に相当する周相当方向に関して同 一の加工部の像が存在すべき個数を前記基準画像と対応付けて保持する基準画像 保持手段と、
前記基準画像、並びに該基準画像に対応付けられた位置及び個数に基づ 1ヽて、 前記 2次元画像上で欠陥判別の対象から除外されるべき領域を特定し、その特定さ れた領域外における画素の濃度値に基づいて欠陥の有無を判別する欠陥判別手段 と、
を備えたことを特徴とする表面検査装置。
[7] 前記欠陥判別手段は、前記基準画像に対応付けられた位置を参照して該基準画 像と比較されるべき前記 2次元画像上の範囲を前記軸線相当方向に関して当該 2次 元画像の一部の範囲に絞り込み、該絞り込まれた範囲内で前記基準画像と前記 2次 元画像との画素の濃度値を比較し、その比較結果に基づいて、前記基準画像に対 応付けられた個数と同数の領域を前記欠陥判別の対象力 除外されるべき領域とし て特定する除外領域特定手段を備えている請求項 6の表面検査装置。
[8] 前記除外領域特定手段は、前記絞り込まれた範囲内で前記 2次元画像に対して前 記基準画像を前記周相当方向に相対的に位置を順次変更しつつ前記基準画像と 前記 2次元画像上の前記基準画像と同形同大の検査対象画像との一致度を判別し 、判別された一致度が所定の閾値を超える場合に前記検査対象画像の領域を前記 欠陥判別の対象から除外されるべき領域として特定する請求項 7の表面検査装置。
[9] 前記一致度が前記基準画像と前記検査対象画像との正規化相関により演算される 請求項 8の表面検査装置。
[10] 前記基準画像は、前記 2次元画像から単一の加工部の像を包含する必要最小限 の矩形領域を抽出して得られる画像に相当する請求項 6〜9のいずれか一項の表面 検査装置。
PCT/JP2007/060041 2006-05-23 2007-05-16 表面検査装置 WO2007135915A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP07743476A EP2023129A4 (en) 2006-05-23 2007-05-16 SURFACE INSPECTION DEVICE
US12/300,823 US8351679B2 (en) 2006-05-23 2007-05-16 Exclusion of recognized parts from inspection of a cylindrical object

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2006143181A JP2007315803A (ja) 2006-05-23 2006-05-23 表面検査装置
JP2006-143181 2006-05-23
JP2006-258263 2006-09-25
JP2006258263A JP4923211B2 (ja) 2006-09-25 2006-09-25 表面検査装置

Publications (1)

Publication Number Publication Date
WO2007135915A1 true WO2007135915A1 (ja) 2007-11-29

Family

ID=38723229

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2007/060041 WO2007135915A1 (ja) 2006-05-23 2007-05-16 表面検査装置

Country Status (5)

Country Link
US (1) US8351679B2 (ja)
EP (1) EP2023129A4 (ja)
KR (1) KR100996325B1 (ja)
CN (1) CN102062739B (ja)
WO (1) WO2007135915A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012154639A (ja) * 2011-01-21 2012-08-16 Jtekt Corp 転がり軸受の表面検査装置

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8351683B2 (en) 2007-12-25 2013-01-08 Hitachi High-Technologies Corporation Inspection apparatus and inspection method
JP5408333B2 (ja) * 2010-03-17 2014-02-05 株式会社島津製作所 Tftアレイ検査方法およびtftアレイ検査装置
US20130113926A1 (en) * 2010-07-02 2013-05-09 Huazhong University Of Science & Technology Detecting device for detecting icing by image and detecting method thereof
JP2012028987A (ja) * 2010-07-22 2012-02-09 Toshiba Corp 画像処理装置
US9508047B2 (en) * 2010-12-06 2016-11-29 The Boeing Company Rapid rework analysis system
US10295475B2 (en) 2014-09-05 2019-05-21 Rolls-Royce Corporation Inspection of machined holes
KR101733018B1 (ko) 2015-02-25 2017-05-24 동우 화인켐 주식회사 광학 필름의 불량 검출 장치 및 방법
US10228669B2 (en) 2015-05-27 2019-03-12 Rolls-Royce Corporation Machine tool monitoring
CN105510345A (zh) * 2015-12-04 2016-04-20 中航复合材料有限责任公司 一种蜂窝芯-蒙皮连接质量光成像方法
US9747683B2 (en) * 2015-12-21 2017-08-29 General Electric Company Methods and systems for detecting component wear
EP3400431B1 (en) 2016-01-07 2022-03-23 Arkema, Inc. Optical method to measure the thickness of coatings deposited on substrates
US11125549B2 (en) 2016-01-07 2021-09-21 Arkema Inc. Optical intensity method to measure the thickness of coatings deposited on substrates
MX2018008322A (es) 2016-01-07 2018-09-21 Arkema Inc Metodo independiente de la posicion del objeto para medir el espesor de recubrimientos depositados en objetos curvados moviendose a altas velocidades.
JP6642161B2 (ja) * 2016-03-18 2020-02-05 株式会社リコー 検査装置、検査方法及びプログラム
CN107345918B (zh) * 2017-08-16 2023-05-23 广西大学 一种板材质量检测装置及方法
CN107734272B (zh) * 2017-09-30 2020-02-11 京东方科技集团股份有限公司 掩模板检测设备、掩模板检测方法以及相应的光源控制方法
CN109325930B (zh) * 2018-09-12 2021-09-28 苏州优纳科技有限公司 边界缺陷的检测方法、装置及检测设备
JP2023039392A (ja) * 2021-09-08 2023-03-20 株式会社エビデント 検査支援方法、検査支援装置、検査支援システム、およびプログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS50158387A (ja) * 1974-06-10 1975-12-22
JPH08101130A (ja) * 1994-09-29 1996-04-16 Fuji Xerox Co Ltd 表面欠陥検査装置
JPH11211674A (ja) * 1998-01-22 1999-08-06 Kawasaki Steel Corp 表面疵検査方法および装置
JPH11281582A (ja) * 1998-03-26 1999-10-15 Tb Optical Kk 表面検査装置
JPH11326226A (ja) * 1998-05-19 1999-11-26 Mega Float Gijutsu Kenkyu Kumiai 大型水密構造物の欠陥検出装置

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4079416A (en) * 1975-12-01 1978-03-14 Barry-Wehmiller Company Electronic image analyzing method and apparatus
US4691231A (en) * 1985-10-01 1987-09-01 Vistech Corporation Bottle inspection system
US5321767A (en) * 1992-08-28 1994-06-14 Kabushiki Kaisha Komatsu Seisakusho Method of forming a mask in image processing operation
CN2329925Y (zh) * 1998-08-14 1999-07-21 侯增祺 平面型热管散热器
JP3964267B2 (ja) * 2002-06-04 2007-08-22 大日本スクリーン製造株式会社 欠陥検出装置、欠陥検出方法、およびプログラム
JP4095860B2 (ja) 2002-08-12 2008-06-04 株式会社日立ハイテクノロジーズ 欠陥検査方法及びその装置
DE102004024635A1 (de) * 2004-05-12 2005-12-08 Deutsche Gelatine-Fabriken Stoess Ag Verfahren zur Herstellung von Formkörpern auf Basis von vernetzter Gelatine
JP2006220644A (ja) * 2005-01-14 2006-08-24 Hitachi High-Technologies Corp パターン検査方法及びその装置
WO2007060873A1 (ja) * 2005-11-24 2007-05-31 Kirin Techno-System Corporation 表面検査装置
CN102062738B (zh) * 2006-05-16 2012-11-21 麒麟工程技术系统公司 表面检查装置
JP2009071136A (ja) * 2007-09-14 2009-04-02 Hitachi High-Technologies Corp データ管理装置、検査システムおよび欠陥レビュー装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS50158387A (ja) * 1974-06-10 1975-12-22
JPH08101130A (ja) * 1994-09-29 1996-04-16 Fuji Xerox Co Ltd 表面欠陥検査装置
JPH11211674A (ja) * 1998-01-22 1999-08-06 Kawasaki Steel Corp 表面疵検査方法および装置
JPH11281582A (ja) * 1998-03-26 1999-10-15 Tb Optical Kk 表面検査装置
JPH11326226A (ja) * 1998-05-19 1999-11-26 Mega Float Gijutsu Kenkyu Kumiai 大型水密構造物の欠陥検出装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2023129A4

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012154639A (ja) * 2011-01-21 2012-08-16 Jtekt Corp 転がり軸受の表面検査装置

Also Published As

Publication number Publication date
EP2023129A1 (en) 2009-02-11
KR100996325B1 (ko) 2010-11-23
CN102062739B (zh) 2012-08-22
US20090148031A1 (en) 2009-06-11
KR20090009314A (ko) 2009-01-22
EP2023129A4 (en) 2012-02-22
US8351679B2 (en) 2013-01-08
CN102062739A (zh) 2011-05-18

Similar Documents

Publication Publication Date Title
WO2007135915A1 (ja) 表面検査装置
JP2007315803A (ja) 表面検査装置
US7602487B2 (en) Surface inspection apparatus and surface inspection head apparatus
US6366690B1 (en) Pixel based machine for patterned wafers
KR102233050B1 (ko) 결함 특유적 정보를 이용한 웨이퍼 상의 결함 검출
JP4923211B2 (ja) 表面検査装置
JP2012013698A (ja) 工具摩耗定量化システム及び方法
JPH07190959A (ja) 浸透探傷による分析方法を自動的に特性化・最適化・検査する方法および装置
EP3187861B1 (en) Substrate inspection device and substrate inspection method
US20140071442A1 (en) Optical surface defect inspection apparatus and optical surface defect inspection method
JP5687014B2 (ja) 光学式表面欠陥検査装置及び光学式表面欠陥検査方法
JP2008076322A (ja) 表面検査装置
WO1995012810A1 (fr) Methode de controle de l'etat de surface d'une face d'un solide et dispositif associe
JP2010266366A (ja) 画像の特徴抽出方法並びに工具欠陥検査方法と工具欠陥検査装置
JPH11230912A (ja) 表面欠陥検出装置及びその方法
CN114363481A (zh) 具有检测样品相对物镜移位的装置的显微镜及其检测方法
JP2007315823A (ja) 表面検査装置
JP7494672B2 (ja) フォトマスクブランクス、フォトマスクブランクスの製造方法、学習方法およびフォトマスクブランクスの検査方法
JP4036712B2 (ja) 非破壊検査装置
JP2015225015A (ja) 欠陥判定装置及び欠陥判定方法
JP2004020279A (ja) 非破壊検査装置
JP2009068985A (ja) 表面欠陥検査装置及び方法
JPH0755713A (ja) バイアホール検査装置
JP2002055054A (ja) シートの検査方法およびシートの製造方法

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 200780018328.4

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 07743476

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2007743476

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 1020087030089

Country of ref document: KR

WWE Wipo information: entry into national phase

Ref document number: 12300823

Country of ref document: US