WO2016051841A1 - 検査装置および検査方法 - Google Patents

検査装置および検査方法 Download PDF

Info

Publication number
WO2016051841A1
WO2016051841A1 PCT/JP2015/062875 JP2015062875W WO2016051841A1 WO 2016051841 A1 WO2016051841 A1 WO 2016051841A1 JP 2015062875 W JP2015062875 W JP 2015062875W WO 2016051841 A1 WO2016051841 A1 WO 2016051841A1
Authority
WO
WIPO (PCT)
Prior art keywords
defect
area
image
captured image
value
Prior art date
Application number
PCT/JP2015/062875
Other languages
English (en)
French (fr)
Inventor
泰史 永田
佐々 泰志
Original Assignee
株式会社Screenホールディングス
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社Screenホールディングス filed Critical 株式会社Screenホールディングス
Priority to CN201580051291.XA priority Critical patent/CN107076677B/zh
Priority to KR1020177006859A priority patent/KR101951576B1/ko
Priority to US15/515,127 priority patent/US10613037B2/en
Priority to EP15847927.9A priority patent/EP3203217B1/en
Publication of WO2016051841A1 publication Critical patent/WO2016051841A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/95Investigating the presence of flaws or contamination characterised by the material or shape of the object to be examined
    • G01N21/956Inspecting patterns on the surface of objects
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/95Investigating the presence of flaws or contamination characterised by the material or shape of the object to be examined
    • G01N21/956Inspecting patterns on the surface of objects
    • G01N21/95607Inspecting patterns on the surface of objects using a comparative method
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/95Investigating the presence of flaws or contamination characterised by the material or shape of the object to be examined
    • G01N21/956Inspecting patterns on the surface of objects
    • G01N21/95684Patterns showing highly reflecting parts, e.g. metallic elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/001Industrial image inspection using an image reference approach
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • G01N2021/8854Grading and classifying of flaws
    • G01N2021/8861Determining coordinates of flaws
    • G01N2021/8864Mapping zones of defects
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • G01N2021/8887Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges based on image processing techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection

Definitions

  • the present invention relates to a technique for detecting defects on the surface of an object.
  • a camera for imaging an object to be inspected and an illuminating unit that rotates around the camera are provided. Imaging is performed sequentially.
  • the shape recognition apparatus since the shadow of the protrusion (defective shape) on the object to be inspected changes according to the change in the illumination angle, the shape of the protrusion can be estimated.
  • metal parts for example, automobile parts formed by forging or casting are subjected to surface processing such as shot blasting, and the surface has a satin-like three-dimensional structure in which minute irregularities are distributed.
  • surface processing such as shot blasting
  • the surface has a satin-like three-dimensional structure in which minute irregularities are distributed.
  • defects such as dents and scratches on the surface of the object are detected by an operator's visual observation.
  • the accuracy of the inspection varies among the workers even if the inspection standard is set. Moreover, there is a possibility that a defect in the object is missed due to human error.
  • the light incident on the satin-like surface is diffusely reflected (diffuse reflection), resulting in large variations in gradation values (local changes in shading) in the captured image. Many false defects will be detected.
  • the present invention is directed to an inspection apparatus for detecting defects on the surface of an object, and aims to suppress detection of false defects and detect defects with high accuracy.
  • the inspection apparatus includes an imaging unit that acquires a captured image by capturing an object, a storage unit that stores a reference image corresponding to the captured image, a value of each pixel of the captured image, and the reference Detected based on the first defect candidate area detected based on the difference between the value of the corresponding pixel in the image and the ratio between the value of each pixel in the captured image and the value of the corresponding pixel in the reference image An area overlapping with the second defect candidate area is detected as a defect area, or based on a ratio between a value of each pixel of a difference image between the captured image and the reference image and a value of a corresponding pixel of the reference image And a defect detection unit for detecting a defect area.
  • the present invention it is possible to detect a defect with high accuracy by suppressing detection of a false defect.
  • the defect detection unit restricts pixels for which the ratio is obtained in the captured image and the reference image to pixels included in the first defect candidate region, or the captured image And the reference image are limited to pixels included in the second defect candidate region. Thereby, a defect can be detected efficiently.
  • the second defect candidate region is distinguished from a defect candidate region in which a pixel value of the captured image is lower than a corresponding pixel value of the reference image and a high defect candidate region.
  • the defect detection unit determines a difference between a value of each pixel of the captured image and a value of a corresponding pixel of an image obtained by performing an expansion process or a contraction process on the captured image. Based on the above, a third defect candidate region is detected, and a region overlapping in the first defect candidate region, the second defect candidate region, and the third defect candidate region is detected as the defect region.
  • a more preferable inspection apparatus includes a first illumination unit that irradiates light from only one direction with respect to a predetermined target region on the surface of the target object, and light from a plurality of directions with respect to the target region.
  • the defect using a second illumination unit to be irradiated, a first captured image acquired by the imaging unit by irradiation of light from the first illumination unit, and a first reference image corresponding to the first captured image
  • a detection unit detects a first defect area, and a second captured image acquired by the imaging unit by irradiation of light from the second illumination unit and a second reference image corresponding to the second captured image are used.
  • a detection control unit that causes the defect detection unit to detect a second defect region, and a defect update unit that identifies an overlapping region in the first defect region and the second defect region as an updated defect region. .
  • the present invention is also directed to an inspection method for detecting defects on the surface of an object.
  • a region overlapping with the second defect candidate region detected based on the detection is detected as a defect region, or the value of each pixel of the difference image between the captured image and the reference image and the corresponding pixel of the reference image
  • FIG. 1 is a diagram showing a configuration of an inspection apparatus 1 according to an embodiment of the present invention.
  • FIG. 2 is a plan view showing the main body 11 of the inspection apparatus 1.
  • the inspection apparatus 1 is an apparatus that inspects the appearance of a three-dimensional object 9 having a glossy surface.
  • the object 9 is, for example, a metal part formed by forging or casting, and the surface thereof has a matte shape with minute irregularities.
  • the object 9 is, for example, various parts (cylindrical hub shaft, outer ring, yoke, etc.) used for universal joints.
  • the inspection apparatus 1 includes a main body 11 and a computer 12.
  • the main body 11 includes a stage 2, a stage rotating unit 21, an imaging unit 3, and a light source unit 4.
  • the object 9 is placed on the stage 2.
  • the stage rotation unit 21 rotates the object 9 together with the stage 2 by a predetermined angle about the central axis J1 that faces in the up-down direction.
  • the central axis J1 passes through the center of the stage 2.
  • the main body 11 is provided with a light shielding cover (not shown) that prevents external light from reaching the stage 2, and the stage 2, the imaging unit 3, and the light source unit 4 are provided within the light shielding cover.
  • the imaging unit 3 includes one upper imaging unit 31, four oblique imaging units 32, and four side imaging units 33.
  • the upper imaging unit 31 is not shown (the same applies to the upper light source unit 41 described later).
  • the upper imaging unit 31 is disposed on the central axis J1 above the stage 2. An image obtained by imaging the object 9 on the stage 2 from directly above can be acquired by the upper imaging unit 31.
  • the four oblique imaging units 32 are arranged around the stage 2. .
  • the four oblique imaging units 32 are arranged at an angular interval (pitch) of 90 ° in the circumferential direction around the central axis J1.
  • an angle ⁇ 2 formed by the imaging optical axis K2 and the central axis J1 is approximately 45 °.
  • Each oblique imaging unit 32 can acquire an image obtained by imaging the object 9 on the stage 2 from above.
  • the four side imaging units 33 are also arranged around the stage 2 in the same manner as the four oblique imaging units 32.
  • the four side imaging units 33 are arranged at an angular interval of 90 ° in the circumferential direction.
  • the angle ⁇ 3 formed by the imaging optical axis K3 and the central axis J1 is approximately 90 °.
  • the upper imaging unit 31, the oblique imaging unit 32, and the side imaging unit 33 have, for example, a CCD (Charge (CoupledupDevice), a CMOS (Complementary Metal-Oxide Semiconductor), and the like, and acquire multi-gradation images.
  • the upper imaging unit 31, the oblique imaging unit 32, and the side imaging unit 33 are supported by a support unit (not shown).
  • the light source unit 4 includes one upper light source unit 41, eight oblique light source units 42, and eight side light source units 43.
  • the upper light source unit 41 is a light source unit in which a plurality of LEDs (light emitting diodes) are arranged in a ring shape centered on the central axis J1.
  • the ring-shaped upper light source unit 41 is fixed to the upper imaging unit 31 so as to surround the upper imaging unit 31.
  • the upper light source unit 41 can irradiate the object 9 on the stage 2 from directly above along a direction parallel to the central axis J1.
  • each oblique light source unit 42 is a light source unit in which a plurality of LEDs are arranged in a bar shape extending in the tangential direction of the circumference around the central axis J1.
  • an “illumination axis” a line connecting the center of the emission surface of each oblique light source section 42 and the object 9 (the center thereof) is called an “illumination axis”
  • the plane including the illumination axis and the central axis J1 of the oblique light source section 42 is.
  • Each oblique light source unit 42 can irradiate the object 9 on the stage 2 along the illumination axis from obliquely above.
  • four of the eight oblique light source units 42 are fixed to the four oblique imaging units 32, and the remaining four oblique light source units 42 are illustrated. It is supported by the omitted support part.
  • each side light source unit 43 is a light source unit in which a plurality of LEDs are arranged in a bar shape extending in the tangential direction of the circumference around the central axis J1.
  • an illumination axis when a line connecting the center of the emission surface of each side light source unit 43 and the object 9 is referred to as an “illumination axis”, the illumination axis and the central axis J 1 of the side light source unit 43.
  • Each side light source unit 43 can irradiate the object 9 on the stage 2 from the side along the illumination axis.
  • four of the eight side light source units 43 are fixed to the four side imaging units 33, and the remaining four side light source units 43 are illustrated. It is supported by the omitted support part.
  • the distance between the upper imaging unit 31 and the upper light source unit 41 and the object 9 is about 55 cm (centimeter).
  • the distance between the oblique imaging unit 32 and the oblique light source unit 42 and the object 9 is about 50 cm, and the distance between the side imaging unit 33 and the side light source unit 43 and the object 9 is about 40 cm.
  • a light source of a type other than an LED may be used.
  • FIG. 3 is a block diagram showing a functional configuration realized by the computer 12.
  • the computer 12 includes a control unit 60, a calculation unit 61, and a storage unit 69.
  • the control unit 60 is responsible for overall control of the inspection apparatus 1.
  • the calculation unit 61 includes a defect detection unit 62, a defect update unit 63, and a detection control unit 64.
  • the defect detection unit 62 detects a defect area based on the captured image acquired by the imaging unit 3.
  • the detection control unit 64 causes the defect detection unit 62 to detect a defect region for each of a plurality of captured images obtained by capturing the same region.
  • the defect update unit 63 further specifies the final defect area from the defect areas of the plurality of captured images.
  • the storage unit 69 stores various image data. Details of the defect detection unit 62, the detection control unit 64, and the defect update unit 63 will be described later.
  • FIG. 4 is a diagram showing a flow of processing for inspecting the object 9 by the inspection apparatus 1.
  • the object 9 to be inspected is placed on the stage 2 (step S11).
  • a plurality of pins for alignment are provided, and an object is placed at a predetermined position on the stage 2 by bringing a predetermined portion of the object 9 into contact with the plurality of pins. 9 are arranged in a predetermined direction.
  • imaging setting information for the object 9 on the stage 2 is acquired based on an input by the operator or the like (step S12).
  • the imaging setting information includes an imaging unit used in the imaging unit 3 (hereinafter referred to as a “selected imaging unit”), a light source unit that is turned on in the light source unit 4 when the selected imaging unit acquires a captured image, and Indicates.
  • selected imaging unit an imaging unit used in the imaging unit 3
  • light source unit that is turned on in the light source unit 4 when the selected imaging unit acquires a captured image
  • the imaging setting information in this processing example indicates that the four oblique imaging units 32 in the imaging unit 3 are used as the selective imaging units.
  • the imaging setting information is obtained with respect to each of the oblique imaging units 32 that are the selected imaging units, and to the oblique light source unit 42 at the same position as the oblique imaging unit 32 and clockwise with respect to the oblique light source unit 42.
  • the two oblique light source units 42 adjacent to each other and the two oblique light source units 42 adjacent to each other in the counterclockwise direction hereinafter, these oblique light source units 42 are referred to as “specific light source unit group”). Acquisition of an image to turn on and acquisition of an image to light all of the specific light source group.
  • the illumination axes of the five oblique light source units 42 included in the specific light source unit group for each oblique imaging unit 32 are the imaging light of the oblique imaging unit 32. Inclined by ⁇ 90 °, ⁇ 45 °, 0 °, + 45 °, and + 90 °, respectively, with respect to the axis K2. That is, the five oblique light source units 42 are ⁇ 90 °, ⁇ 45 °, 0 °, + 45 °, and + 90 °, respectively, with respect to the oblique imaging unit 32 in the circumferential direction around the central axis J1. Located at an angular position.
  • one oblique imaging unit 32 among the plurality of oblique imaging units 32, each of which is a selected imaging unit, is designated as an attention imaging unit (step S13).
  • a captured image is acquired by the focused imaging unit 32 while only one oblique light source unit 42 of the specific light source unit group for the focused imaging unit 32 is turned on.
  • a region approximately facing the imaging unit 32 of interest on the surface of the object 9 is defined as a “target region”, and light is irradiated along the illumination axis from the oblique light source unit 42 to the target region.
  • the target imaging unit 32 images the target region while irradiating light from only one direction by the one oblique light source unit 42 included in the specific light source unit group.
  • a captured image acquired by the target imaging unit by irradiation of light from only one light source unit is referred to as a “first captured image”, and light is applied to the target region when acquiring the first captured image.
  • the light source part to irradiate is called a “first illumination part”.
  • a shadow due to minute unevenness in the target region is likely to occur.
  • a plurality of first captured images are obtained by the attention imaging unit 32 by sequentially using each of the plurality of oblique light source units 42 included in the specific light source unit group as the first illumination unit under the control of the control unit 60. Is acquired (step S14).
  • the specific light source unit group includes the oblique light source unit 42 at angular positions of ⁇ 90 °, ⁇ 45 °, 0 °, + 45 °, and + 90 ° with respect to the imaging unit 32 of interest.
  • first captured image by N ° illumination When the first captured image obtained using the light source unit at the N ° angular position with respect to the target imaging unit as the first illumination unit is referred to as “first captured image by N ° illumination”, in step S14, ⁇ 90 First captured image with illumination of °, first captured image with illumination of -45 °, first captured image with illumination of 0 °, first captured image with illumination of + 45 °, and first imaging with illumination of + 90 ° An image is acquired.
  • the plurality of oblique light source units 42 included in the specific light source unit group can be regarded as a plurality of first illumination units used for acquiring a plurality of first captured images. Note that each oblique light source unit 42 included in the specific light source unit group does not necessarily irradiate the entire target region.
  • the oblique light source unit 42 at an angular position of ⁇ 90 ° is approximately equal to the target region. Irradiate half of the light.
  • the light source unit used as the first illuminating unit may irradiate light from only one direction with respect to each position of the region where light irradiation is possible in the target region.
  • a captured image is acquired by the focused imaging unit 32 while all the oblique light source units 42 included in the specific light source unit group for the focused imaging unit 32 are turned on (step S15).
  • light from a plurality of oblique light source units 42 at angular positions of ⁇ 90 °, ⁇ 45 °, 0 °, + 45 °, and + 90 ° with respect to the target imaging unit 32 is applied to the target region along the illumination axis. Is irradiated.
  • the target imaging unit 32 images the target region while irradiating the target region with light from a plurality of different directions by the plurality of oblique light source units 42.
  • the captured image acquired by the target imaging unit by irradiating light from all the light source units included in the specific light source unit group is referred to as a “second captured image”, and the second captured image is acquired.
  • a set of all light source units that irradiate the object 9 with light is referred to as a “second illumination unit”.
  • each oblique light source unit 42 included in the specific light source unit group does not necessarily irradiate the entire target region with light, but at least 2 in each position of the target region by the second illumination unit.
  • Light is emitted from the oblique light source units 42, that is, from at least two directions.
  • each position of the target region is irradiated with light from at least three oblique light source units.
  • the intensity of light emitted from the plurality of oblique light source units 42 included in the specific light source unit group is substantially the same.
  • the intensity of light from each oblique light source unit 42 at the time of acquiring the second captured image is smaller than the intensity of light from the oblique light source unit 42 at the time of acquiring the first captured image.
  • FIG. 5 to 7 are diagrams showing an example of the first captured image.
  • FIG. 5 shows a first captured image with ⁇ 90 ° illumination
  • FIG. 6 shows a first captured image with ⁇ 45 ° illumination
  • FIG. 7 shows a first captured image with 0 ° illumination.
  • FIG. 8 is a diagram illustrating an example of the second captured image.
  • the second captured image is acquired by light irradiation from the second illumination unit, that is, all illumination of ⁇ 90 °, ⁇ 45 °, 0 °, + 45 °, and + 90 °. 5 to 8, the region indicating the background of the object 9 is indicated by parallel diagonal lines.
  • a defect area that shows a concave or convex defect in the target area is usually irradiated from a certain direction.
  • the difference in brightness with respect to the surrounding area increases due to the light that is emitted.
  • the difference in brightness of the defect area with respect to the surrounding area becomes slight with light irradiated from other directions.
  • the defect area has brightness that can be distinguished from the surrounding area by illumination at ⁇ 45 °, and the defect area is difficult to distinguish by illumination in other directions.
  • true defect area is a brightness that can be distinguished from surrounding areas.
  • the true defect area 71 is painted black.
  • other true defect areas 71 may also exist in other first captured images and second captured images.
  • the captured image is compared with other images, and in the comparison result, such regions (regions having different brightness) in the captured image and the other images are false defects. It can be detected as a region.
  • the position where the false defect area is generated does not necessarily match the first captured image.
  • FIG. Is A plurality of first captured images by illumination of each oblique light source unit 42 included in the specific light source unit group and second captured images by illumination of all the oblique light source units 42 included in the specific light source unit group are shown in FIG. Is input to the defect detection unit 62 of the calculation unit 61.
  • a first reference image corresponding to each first captured image and a second reference image corresponding to the second captured image are stored in advance.
  • the first reference image corresponding to each first captured image is an image that is acquired under the same conditions as the first captured image and indicates a target region that does not include a defect.
  • the first reference image is acquired, for example, by performing the same processing as in step S14 on an object that does not include a defect, and is stored in the storage unit 69 as first reference image data 691.
  • a first reference image corresponding to the first captured image may be generated by performing predetermined processing on each first captured image.
  • the second reference image corresponding to the second captured image and the second reference image data 692 is stored in the storage unit 69.
  • the first reference image and the second reference image are used in the processing in the defect detection unit 62.
  • FIG. 9 is a diagram illustrating a configuration of the defect detection unit 62
  • FIG. 10 is a diagram illustrating a flow of processing in which the defect detection unit 62 detects a defect. Since the defect detection unit 62 performs the same processing on the plurality of first captured images and the second captured images, in the following description, each of the plurality of first captured images and the second captured images is simply “imaging”. The first or second reference image corresponding to the captured image is simply referred to as a “reference image”.
  • filter processing for reducing noise such as a median filter and a Gaussian filter is performed on the captured image and the reference image, respectively, and the filtered captured image and reference image are sent to the pre-alignment unit 622. Is output.
  • the pre-alignment unit 622 the relative position and angle deviation amount of the (filtered) reference image with respect to the captured image is specified by pattern matching using a predetermined pattern. Then, the position and angle of the reference image are aligned with the captured image by translating and rotating the reference image with respect to the captured image by an amount of positional and angular deviation between the two images (that is, pre-alignment is performed). .
  • the sway comparator 623 evaluates the difference between the moved reference image and the captured image when the reference image is moved from the pre-aligned position with respect to the captured image to each of a plurality of two-dimensionally arranged positions.
  • a value for example, a sum of pixel value differences (absolute values) in a region where both images overlap
  • an image indicating a difference (absolute value) between pixel values of both images at a position where the evaluation value is minimum is binarized with a predetermined threshold value, and a binary defect candidate image is generated.
  • the said image may be binarized (hereinafter the same).
  • a defect candidate image (hereinafter, “ A defect candidate image based on the difference ”is generated (step S31). In other words, a defect candidate area based on the difference in the target area is detected.
  • FIG. 11 is a diagram showing a defect candidate image based on the difference derived from the second captured image of FIG.
  • the defect candidate image based on the difference in FIG. 11 is a binary image showing the defect candidate area 73 based on the difference.
  • the defect candidate area 73 based on the difference is a captured image or a reference image in addition to the true defect area 71 in FIG. Including a plurality of false defect regions due to.
  • the captured image output from the pre-alignment unit 622 is also input to the expansion processing unit 624, the contraction processing unit 625, and the two comparison units 626.
  • the expansion processing unit 624 performs expansion processing that substantially expands a region having a relatively high pixel value in a multi-tone captured image by applying a maximum value filter of a predetermined size to the captured image. . By the dilation process, a region having a relatively low pixel value is removed or reduced.
  • the expanded captured image is output to one comparison unit 626.
  • the comparison unit 626 generates an image indicating a difference (absolute value) of pixel values between the captured image input from the pre-alignment unit 622 and the captured image that has undergone the expansion process.
  • the image is binarized at a predetermined threshold value, and a binary image (hereinafter referred to as “first intermediate image”) indicating a defect candidate region is generated.
  • the contraction processing unit 625 performs contraction processing that substantially contracts a region having a relatively high pixel value in a multi-tone captured image by applying a minimum value filter of a predetermined size to the captured image. . By the shrinking process, a region having a relatively high pixel value is removed or reduced.
  • the captured image that has undergone the contraction process is output to the other comparison unit 626.
  • the comparison unit 626 generates an image indicating the difference (absolute value) of the pixel value between the captured image input from the pre-alignment unit 622 and the captured image that has been subjected to the contraction process.
  • the image is binarized at a predetermined threshold value, and a binary image (hereinafter referred to as “second intermediate image”) indicating a defect candidate region is generated.
  • each pixel of the first intermediate image is input from one comparison unit 626 to the logical sum operation unit 627, and the value of the pixel of the second intermediate image at the same position as the pixel is input from the other comparison unit 626. Is done. Then, the logical sum of the value of each pixel of the first intermediate image and the value of the corresponding pixel of the second intermediate image is obtained. Therefore, in the OR operation unit 627, when the first intermediate image and the second intermediate image are accurately overlapped, the pixels (of the pixels included in the defect candidate region of either the first intermediate image or the second intermediate image) (Position), a value indicating a defect candidate area is output.
  • a value indicating a non-defective region is output to a pixel that is not included in any defect candidate region of the first intermediate image and the second intermediate image.
  • the expansion processing unit 624, the contraction processing unit 625, the two comparison units 626, and the logical sum operation unit 627 cooperate to expand or contract each pixel value of the captured image and the captured image.
  • a defect candidate image indicating a defect candidate area in the target area (hereinafter referred to as “defect candidate image based on self-comparison”) is generated based on a difference from a corresponding pixel value of the processed image (hereinafter referred to as “defect candidate image based on self-comparison”). Step S32). In other words, a defect candidate area based on self-comparison in the target area is detected.
  • FIG. 12 is a view showing a defect candidate image based on self-comparison derived from the second captured image of FIG.
  • the defect candidate image based on the self comparison in FIG. 12 is a binary image showing the defect candidate region 74 based on the self comparison, and the defect candidate region 74 based on the self comparison is a captured image other than the true defect region 71 in FIG. Alternatively, it includes a plurality of false defect areas resulting from a captured image that has undergone expansion processing or a captured image that has undergone contraction processing. There are portions that are different from each other between the defect candidate region 73 based on the difference in FIG. 11 and the defect candidate region 74 based on the self-comparison in FIG. 12.
  • the logical product operation unit 628 receives the value of each pixel of the defect candidate image based on the difference from the sway comparison unit 623, and receives the value of the corresponding pixel of the defect candidate image based on the self-comparison from the logical sum operation unit 627. Is done. Then, a logical product of pixel values at the same position in both images is obtained and output to the false alarm reduction processing unit 629. Therefore, in the AND operation unit 628, when both images are accurately overlapped, overlapping defect candidate regions are compared with pixels in a region where the defect candidate region 73 based on the difference and the defect candidate region 74 based on the self-comparison overlap. A value indicating (hereinafter referred to as “overlapping candidate area”) is output.
  • a value indicating a non-defective region is output to a pixel in a region where the defect candidate region 73 based on the difference and the defect candidate region 74 based on the self comparison do not overlap.
  • an overlapping candidate area image is obtained that indicates, as overlapping candidate areas, overlapping areas in the defect candidate area 73 based on the difference and the defect candidate area 74 based on the self-comparison (step S33).
  • FIG. 13 is a diagram showing a defect candidate image based on the difference in FIG. 11 and an overlap candidate region image derived from the defect candidate image based on the self-comparison in FIG.
  • the area of the overlap candidate region 75 indicated by the overlap candidate region image of FIG. 13 is based on the area of the defect candidate region 73 based on the difference in FIG. 11 and the area of the defect candidate region 74 based on the self-comparison in FIG. Is also small.
  • a region corresponding to the true defect region 71 in FIG. 8 that exists in both the defect candidate image based on the difference and the defect candidate image based on the self-comparison is detected as an overlap candidate region 75.
  • the ratio of the values of both pixels is obtained by dividing the value of each pixel of the captured image included in the overlap candidate region 75 by the value of the corresponding pixel of the reference image. And when the value of the ratio is included in a predetermined first determination range having a lower limit value and an upper limit value smaller than 1, a value indicating a dark defect region is given to the pixel (position). The When the value of the ratio is included in a predetermined second determination range having a lower limit value and an upper limit value that are greater than 1, a value indicating a bright defect area is assigned to the pixel.
  • a value indicating a non-defective region is assigned to a pixel in which the value of the ratio is not included in any of the first determination range and the second determination range, and a pixel not included in the overlap candidate region 75.
  • a ternary image indicating the dark defect area included in the first determination range and the bright defect area included in the second determination range is acquired.
  • the first determination range R1 is (0.1 ⁇ R1 ⁇ 0.8)
  • the second determination range R2 is (1.2 ⁇ R2 ⁇ 2.5).
  • the first determination range R1 and the second determination range R2 may be changed as appropriate.
  • the first determination range and the second determination range are ranges for detecting a defect candidate area based on the ratio between the value of each pixel of the captured image and the value of the corresponding pixel of the reference image. Therefore, the process in the false alarm reduction processing unit 629 is a process for detecting a defect candidate area detected based on the ratio between the captured image and the reference image and an overlapping area in the overlap candidate area 75 as a defect area. Can be considered.
  • a set of pixels that have a value indicating a dark defect region and are continuous with each other is specified as the dark defect region, and the area of the dark defect region is less than a predetermined area threshold value.
  • the value of the pixel included in the dark defect area is changed (corrected) to a value indicating the non-defect area.
  • a set of pixels that have a value indicating a bright defect area and are continuous with each other is specified as the bright defect area, and is included in the bright defect area when the area of the bright defect area is less than a predetermined area threshold value.
  • the pixel value to be changed is changed to a value indicating a non-defective region.
  • a defect region image indicating the defect region after the area filter is acquired for the target region of the target imaging unit 32 (step S34).
  • the defect area image is treated as a binary image indicating both the bright defect area and the dark defect area as defect areas, and each defect area is a defect indicating whether it is a bright defect area or a dark defect area. Assume that region information is created separately.
  • FIG. 14 is a diagram showing a defect area image derived from the overlap candidate area image of FIG.
  • the area of the defect area 76 indicated by the defect area image in FIG. 14 is smaller than the area of the overlap candidate area 75 in FIG.
  • the false defect area false information
  • the processing by the defect detection unit 62 is performed on all of the plurality of first captured images and second captured images under the control of the detection control unit 64. Therefore, the defect detection unit 62 generates a first defect area image indicating the first defect area by using each first captured image and the first reference image corresponding to the first captured image, and the first defect. A region is detected (FIG. 4: step S16). In addition, by using the second captured image and the second reference image corresponding to the second captured image, a second defective area image indicating the second defective area is generated, and the second defective area is detected (step) S17).
  • step S16 the first defect by -90 ° illumination is performed.
  • FIG. 15 is a diagram showing a first defect area image obtained by illumination at ⁇ 45 ° derived from the first captured image of FIG.
  • the first defect area image of FIG. 15 shows the first defect area 77, and the first defect area 77 includes the true defect area 71 of FIG.
  • FIG. 14 described above shows the second defect area image by all illumination of ⁇ 90 °, ⁇ 45 °, 0 °, + 45 °, and + 90 ° derived from the second captured image of FIG.
  • the second defect area image of FIG. 14 shows the second defect area 76, and the second defect area 76 includes the true defect area 71 of FIG.
  • the plurality of first defect area images and second defect area images are output to the defect update unit 63.
  • FIG. 16 is a diagram illustrating a configuration of the defect update unit 63.
  • the defect update unit 63 specifies a part of the defect area derived from the plurality of captured images as the specific defect area. Specifically, the pixel values of the plurality of first defect area images with illumination of ⁇ 90 °, ⁇ 45 °, 0 °, + 45 °, and + 90 ° are sequentially input to the plurality of AND units 631, respectively. The In addition, the pixel values of the second defective area image are sequentially input to the plurality of logical product calculation units 631.
  • each AND operation unit 631 obtains a logical product of the value of each pixel of the second defect area image and the value of the corresponding pixel of the first defect area image, and outputs it to the OR operation unit 632. . Therefore, in each AND operation unit 631, when the second defect area image and the first defect area image are accurately overlapped, the pixel of the area where the second defect area 76 and the first defect area 77 overlap is determined. A value indicating the specific defect area is output. In addition, a value indicating a non-defective region is output to pixels in a region where the second defective region 76 and the first defective region 77 do not overlap (that is, all remaining pixels). In this manner, the overlapping area in the second defect area 76 and the first defect area 77 is substantially specified as the specific defect area in the target area.
  • the logical sum operation unit 632 obtains the logical sum of the values input from the plurality of logical product operation units 631 for each pixel of the second defect area image and outputs it to the area filter unit 633. That is, when a value indicating a specific defect area is input from one of the AND operation units 631 to each pixel of the second defect area image, a value indicating the specific defect area is output to the area filter unit 633. When a value indicating a non-defective region is input from all the AND operation units 631, a value indicating a non-defective region is output to the area filter unit 633.
  • an image is generated in which the value input from the OR operation unit 632 for each pixel of the second defect area image is the value of the position of the pixel.
  • the image when a set of pixels having a value indicating the specific defect area and continuous with each other is specified as the specific defect area, and the area of the specific defect area is less than a predetermined area threshold, the specific defect The value of the pixel included in the region is changed to a value indicating the non-defective region. The value of the pixel in the specific defect area having an area equal to or larger than the area threshold value remains unchanged.
  • the specific defect area image which shows the specific defect area 78 is acquired with respect to the object area
  • the specific defect area 78 can be regarded as a defect area updated with respect to each of the second defect area 76 in FIG. 14 and the first defect area 77 in FIG. 15. The position of the specific defect area 78 coincides with the true defect area 71 in FIGS.
  • the control unit 60 it is confirmed whether or not all the selected imaging units are designated as the target imaging unit.
  • the other oblique imaging unit 32 is specified as the target imaging unit (step S13).
  • the four oblique imaging units 32 are arranged at an angular interval of 90 ° in the circumferential direction.
  • the area of the target 9 for which no defect area image has been acquired is the target area for the new attention imaging unit 32.
  • Step S14 When the target imaging unit 32 is specified, five first captured images obtained by illumination at ⁇ 90 °, ⁇ 45 °, 0 °, + 45 °, and + 90 ° with respect to the target region are acquired in the same manner as described above.
  • Step S14 second captured images obtained by all illumination of ⁇ 90 °, ⁇ 45 °, 0 °, + 45 °, and + 90 ° are acquired (step S15).
  • a first defect area image is generated by using each first captured image and the first reference image corresponding to the first captured image (step S16), and the second captured image and the second captured image corresponding to the second captured image.
  • a second defective area image is generated by using the two reference images (step S17).
  • a specific defect area image for the target area is acquired from the plurality of first defect area images and second defect area images (step S18).
  • the processing related to the acquisition of the specific defect area image is performed using all the selected imaging units as the target imaging unit (step S19). Thereby, a specific defect area image is acquired for each of the four target areas arranged in the target 9 at an angular interval of 90 ° in the circumferential direction.
  • the control unit 60 confirms whether or not the stage 2 has been rotated a predetermined number of times.
  • the stage rotating unit 21 rotates the stage 2 by 45 ° about the central axis J1 (step S21).
  • steps S13 to S18 are repeated (step S19).
  • a specific defect area image is acquired for each of the eight target areas arranged in the target 9 at an angular interval of 45 ° in the circumferential direction.
  • the eight target regions are continuous over the entire circumference in the circumferential direction, defects in the object 9 are detected over the entire circumference in the circumferential direction.
  • the eight target regions may partially overlap each other.
  • the control unit 60 confirms that the stage 2 has been rotated a predetermined number of times, and the inspection of the object 9 is completed (step S20).
  • four oblique imaging units 32 are designated as selective imaging units, and ⁇ 90 °, ⁇ 45 °, 0 °, + 45 °, +90 with respect to each oblique imaging unit 32 that is the selective imaging unit.
  • the selected imaging unit and the specific light source unit group may be other combinations.
  • four side imaging units 33 are designated as selective imaging units, and angles of ⁇ 90 °, ⁇ 45 °, 0 °, + 45 °, and + 90 ° with respect to each side imaging unit 33 that is the selective imaging unit.
  • a plurality of side light source units 43 may be used as the specific light source unit group for the oblique imaging unit 32 that is the selective imaging unit, and a plurality of oblique sources are used for the side imaging unit 33 that is the selective imaging unit.
  • the light source unit 42 may be used as a specific light source unit group.
  • the upper imaging unit 31 may be designated as the selected imaging unit, and the upper light source unit 41 may be used as one of the specific light source unit groups.
  • the specific light source unit group may include an upper light source unit 41, an oblique light source unit 42, and a side light source unit 43.
  • the number of light source units used as the specific light source unit group for each selected imaging unit is preferably 3 or more (for example, 5 or less).
  • various image pickup units are designated as selected image pickup units, and various plural light source units are used as specific light source unit groups for each selected image pickup unit, thereby enabling highly accurate defect detection. .
  • a bright region having a high pixel value is mainly formed by the regular reflection component of the light from the light source unit on the surface of the object 9.
  • the pixel value is likely to change greatly due to the influence of minute irregularities. That is, in a bright region, it is easily affected by the satin-like surface, and false defects are likely to occur.
  • the dark region where the pixel value is low is mainly formed by the diffuse reflection component of the light from the light source unit on the surface of the object 9, the pixel value is affected by the minute unevenness on the surface of the object 9. Hard to change. That is, in a dark region, it is difficult to be affected by the satin-like surface, and a false defect is unlikely to occur.
  • the defect detection unit 62 of the inspection apparatus 1 detects a defect candidate area based on the difference between the value of each pixel of the captured image and the value of the corresponding pixel of the reference image, and each of the captured images included in the defect candidate area. A defective area is detected based on the ratio between the value of the pixel and the value of the corresponding pixel in the reference image.
  • the defect detection unit 62 appropriately removes the false defect region caused by the minute unevenness on the satin-like surface of the object 9, that is, suppresses the detection of the false defect, so that the defect (true defect) Can be detected with high accuracy.
  • the defect detection unit 62 further detects a defect candidate area based on self-comparison, and detects a defect candidate area based on the difference and an overlapping area in the defect candidate area based on the self-comparison as an overlapping candidate area. Then, the defect area is detected based on the ratio between the value of each pixel of the captured image included in the overlap candidate area and the value of the corresponding pixel of the reference image. Thereby, the detection of a fake defect can be further suppressed and the defect can be detected with higher accuracy. Further, the defect area detected based on the ratio includes a defect candidate area in which the pixel value of the captured image is lower than the corresponding pixel value of the reference image, and a defect candidate area that is higher than the defect candidate area. Defects and dark defects can be distinguished and handled.
  • a plurality of light source units that irradiate light from a plurality of directions to a target region facing the imaging unit are provided, and imaging is performed by irradiation of light from one of the plurality of light source units.
  • the first captured image is acquired by the unit, and the second captured image is acquired by the imaging unit by irradiation of light from the plurality of light source units.
  • the first defect area is detected using the first captured image and the first reference image corresponding to the first captured image, and the second captured image and the second reference image corresponding to the second captured image are obtained.
  • the second defect area is detected by using this.
  • region is pinpointed as the updated defect area
  • a plurality of first captured images are acquired by the imaging unit. Further, by comparing the plurality of first captured images and the plurality of first reference images corresponding to the plurality of first captured images, respectively, a plurality of first defect region images each indicating a first defect region Is generated. Then, the first defect area indicated by each first defect area image and the overlapping area in the second defect area are specified as the updated defect area in the target area.
  • a plurality of first captured images are acquired using a plurality of light source units for one target region (imaging position of one imaging unit), and the target region is based on the plurality of first captured images. By detecting this defect area, the defect on the surface of the object 9 can be detected more stably (more reliably).
  • the inspection apparatus 1 by providing the upper imaging unit 31, the plurality of oblique imaging units 32, and the plurality of side imaging units 33, the blind spot in the object 9 can be reduced, and the inspection of the object 9 is performed. Reliability can be improved.
  • the ratio of the pixel value between the captured image and the reference image is determined only for the region where the defect candidate region based on the difference and the defect candidate region based on the self-comparison overlap (overlapping candidate region). Although determined, the ratio of pixel values may be determined for the entire image. In this case, an image indicating a ratio of pixel values between the captured image and the reference image is generated, and regions included in the first determination range and the second determination range in the image are defect candidate regions (hereinafter referred to as “ratio”). This is detected as a “defect candidate area based”.
  • a defect candidate region based on the difference, a defect candidate region based on self-comparison, and a region overlapping in the defect candidate region based on the ratio are detected as defect regions.
  • the detection of the defect candidate area based on the self-comparison may be omitted depending on the type of the object 9 and the imaging conditions of the image.
  • the inspection apparatus 1 the first defect candidate area detected based on the difference between the value of each pixel of the captured image and the value of the corresponding pixel of the reference image, and the value of each pixel of the captured image It is important to detect an overlapping area as a defect area in the second defect candidate area detected based on the ratio with the value of the corresponding pixel in the reference image. Thereby, it becomes possible to detect the defect with high accuracy by suppressing the detection of the false defect.
  • a first defect candidate area is obtained based on an image indicating a difference between the captured image and the reference image, and then the value of each pixel of the captured image included in the first defect candidate area and the corresponding pixel of the reference image
  • the defect area is detected based on the ratio to the value of.
  • a second defect candidate area is obtained based on an image indicating the ratio between the captured image and the reference image, and then the value of each pixel of the captured image included in the second defect candidate area and the corresponding pixel of the reference image
  • the defective area may be detected based on the difference from the value of. That is, even when the pixels for which the difference is obtained in the captured image and the reference image are limited to the pixels included in the second defect candidate region, defects are efficiently detected without obtaining the difference for unnecessary pixels. It becomes possible to do.
  • defect candidate areas are detected based on self-comparison.
  • the defect candidate area based on the self-comparison is an area obtained by binarizing an image showing a difference between the captured image and the captured image subjected to the expansion process ( That is, a region indicated by the first intermediate image) or a region obtained by binarizing an image indicating a difference between the captured image and the captured image subjected to the contraction process (that is, a region indicated by the second intermediate image) ).
  • the third defect candidate region is detected based on the difference between the value of each pixel of the captured image and the value of the corresponding pixel of the image obtained by performing the expansion process or the contraction process on the captured image.
  • the pixels for which the ratio is obtained in the captured image and the reference image are limited to pixels included in both the first defect candidate region and the three defect candidate regions, thereby making the defect more efficient.
  • the inspection apparatus 1 can be variously modified.
  • the defect candidate area is detected by obtaining the difference between the pixel values between the captured image and the reference image, and the defect candidate area is detected (or limited) by obtaining the ratio of the pixel values. ) Processing is performed separately, but depending on the type of the object 9 and the image capturing conditions, these processing may be performed simultaneously. In this case, a difference image indicating the difference (absolute value) of the pixel value between the captured image and the reference image is acquired, and the value of each pixel in the difference image is divided by the value of the corresponding pixel in the reference image.
  • the ratio is determined by When the ratio of each pixel is included in a determination range having an upper limit value and a lower limit value, for example, a value indicating a defective area is given to the position of the pixel. When the pixel ratio is not included in the determination range, a value indicating a non-defective region is assigned to the position of the pixel. Also in this case, for example, when there are a plurality of regions having the same pixel value difference between the captured image and the reference image, according to the pixel value of the reference image (the pixel value of the reference image). In consideration of the degree of influence of the difference with respect to), the plurality of regions can be distinguished into a false defect region and a true defect region.
  • the defect detection unit 62 detects the defect area based on the ratio between the value of each pixel of the difference image between the captured image and the reference image and the value of the corresponding pixel of the reference image, thereby false Detection of defects can be suppressed and true defects can be detected with high accuracy.
  • the defect area indicated by the defect area image is the final defect area. May be treated.
  • a plurality of light source units that irradiate the target region with light from a plurality of directions are provided as the second illumination unit, and one of the plurality of light source units is the first illumination unit.
  • the 1st illumination part 51 and the 2nd illumination part 52 may be provided separately.
  • the first illumination unit 51 can irradiate light from only one direction on the target region on the surface of the object 9, and the second illumination unit 52 can irradiate light from a plurality of directions on the target region. It is.
  • the first illumination unit 51 is fixed to the upper surface of the imaging unit 30, and the second illumination unit 52 is fixed to the lower surface of the imaging unit 30.
  • the 2nd illumination part 52 several LED is arranged in the circular arc shape along the circumferential direction.
  • a plurality of first illumination units 51 that irradiate light from a plurality of directions different from each other are provided on the target region.
  • a plurality of first captured images indicating the target region are acquired using the plurality of first illumination units 51.
  • the 1st illumination part 51 is abbreviate
  • the first illumination unit emits light from substantially only one direction with respect to the target region, for example, the first illumination unit irradiates the target region with a plurality of light sources slightly separated (separated). It may be a thing. From the viewpoint of different imaging conditions (positions where false defect regions are generated) between the second captured image acquired using the second illumination unit and the first captured image acquired using the first illumination unit, It is preferable that the illumination direction of the light with respect to each position of the object area
  • the generation of the area image and the generation of the second defect area image from the second captured image have been described as being sequentially performed. For example, after the acquisition of the first captured image, the acquisition of the second captured image, and the first The generation of the defect area image may be performed in parallel. Further, the first captured images of the plurality of target areas may be sequentially acquired by the plurality of selected imaging units, and then the second captured images of the plurality of target areas may be sequentially acquired. In this way, the processing flow of FIG. 4 can be changed as appropriate.
  • the inspection apparatus 1 may be used for detecting defects on the surface of other objects such as various substrates and films on which patterns are formed.
  • the inspection apparatus 1 capable of suppressing detection of false defects is particularly suitable for inspection of an object that is prone to false defects by having a satin-like region (not limited to a metal surface) on the surface. It can be said that.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Pathology (AREA)
  • Immunology (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Biochemistry (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
  • Image Processing (AREA)

Abstract

 撮像画像の各画素の値と参照画像の対応する画素の値との差に基づいて検出される第1欠陥候補領域と、撮像画像の各画素の値と参照画像の対応する画素の値との比に基づいて検出される第2欠陥候補領域とにおいて重複する領域が欠陥領域として検出される。これにより、偽欠陥の検出を抑制して、欠陥を精度よく検出することができる。好ましい欠陥検出部(62)では、ゆすらせ比較部(623)において撮像画像と参照画像との間の画素の値の差に基づいて欠陥候補領域が検出され、虚報低減処理部(629)において上記比を求める画素が、当該欠陥候補領域に含まれる画素に制限される。これにより、欠陥を効率よく検出することが可能となる。

Description

検査装置および検査方法
 本発明は、対象物の表面の欠陥を検出する技術に関する。
 従来より、立体的な対象物に光を照射して撮像し、撮像画像に基づいて対象物の外観を検査する装置が利用されている。例えば、特開2005-17234号公報の外観検査装置では、電子回路基板上のドーム状半田の外観を検査する際に、ドーム状半田の左右両側から平行光が照射された状態で第1の画像が取得され、ドーム状半田の前後両側から平行光が照射された状態で第2の画像が取得される。そして、第1の画像データと第2の画像データとの差の絶対値である合成画像が求められ、合成画像上に帯状の陰が放射状に存在する場合、ドーム状半田へのチップ部品の搭載不良が検出される。
 また、特開2009-162573号公報の形状認識装置では、被検査物を撮像するカメラと、カメラを中心として回転する照明部とが設けられ、照明部の照明角度を変更しつつ被検査物の撮像が順次行われる。当該形状認識装置では、照明角度の変化に従って、被検査物上の突起(不良形状)の影が変化するため、突起の形状を推定することが可能となる。
 一方、鍛造や鋳造により形成された金属部品(例えば自動車部品)では、ショットブラスト等による表面加工が行われており、その表面は、微小な凹凸が分布した梨地状の立体構造となっている。このような金属部品を対象物とする外観検査では、作業者の目視により、対象物表面の打痕や傷等の欠陥が検出される。
 ところで、作業者の目視による上記対象物の検査では、検査基準が定められていても、検査の精度は作業者間でばらついてしまう。また、人為的ミスにより、対象物における欠陥を見逃してしまう可能性がある。対象物の撮像画像に基づいて欠陥を検出する場合、梨地状の表面に入射する光が拡散反射(乱反射)するため、撮像画像における階調値のばらつき(濃淡の局所的な変化)が大きくなり、多くの偽欠陥が検出されてしまう。
 本発明は、対象物の表面の欠陥を検出する検査装置に向けられており、偽欠陥の検出を抑制して、欠陥を精度よく検出することを目的としている。
 本発明に係る検査装置は、対象物を撮像することにより撮像画像を取得する撮像部と、前記撮像画像に対応する参照画像を記憶する記憶部と、前記撮像画像の各画素の値と前記参照画像の対応する画素の値との差に基づいて検出される第1欠陥候補領域と、前記撮像画像の各画素の値と前記参照画像の対応する画素の値との比に基づいて検出される第2欠陥候補領域とにおいて重複する領域を欠陥領域として検出する、または、前記撮像画像と前記参照画像との差分画像の各画素の値と前記参照画像の対応する画素の値との比に基づいて欠陥領域を検出する欠陥検出部とを備える。
 本発明によれば、偽欠陥の検出を抑制して、欠陥を精度よく検出することができる。
 本発明の一の好ましい形態では、前記欠陥検出部が、前記撮像画像と前記参照画像とにおいて前記比を求める画素を、前記第1欠陥候補領域に含まれる画素に制限する、または、前記撮像画像と前記参照画像とにおいて前記差を求める画素を、前記第2欠陥候補領域に含まれる画素に制限する。これにより、欠陥を効率よく検出することができる。
 本発明の他の好ましい形態では、前記第2欠陥候補領域が、前記撮像画像の画素の値が前記参照画像の対応する画素の値よりも低い欠陥候補領域と、高い欠陥候補領域とを区別して含む。
 本発明のさらに他の好ましい形態では、前記欠陥検出部が、前記撮像画像の各画素の値と、前記撮像画像に対して膨張処理または収縮処理を施した画像の対応する画素の値との差に基づいて第3欠陥候補領域を検出し、前記第1欠陥候補領域、前記第2欠陥候補領域および前記第3欠陥候補領域において重複する領域を、前記欠陥領域として検出する。
 本発明の一の局面では、前記対象物が表面に梨地状の領域を有する。この場合に、より好ましい検査装置は、前記対象物の表面における所定の対象領域に対して一の方向のみから光を照射する第1照明部と、前記対象領域に対して複数の方向から光を照射する第2照明部と、前記第1照明部からの光の照射により前記撮像部にて取得される第1撮像画像と前記第1撮像画像に対応する第1参照画像とを用いて前記欠陥検出部に第1欠陥領域を検出させ、前記第2照明部からの光の照射により前記撮像部にて取得される第2撮像画像と前記第2撮像画像に対応する第2参照画像とを用いて前記欠陥検出部に第2欠陥領域を検出させる検出制御部と、前記第1欠陥領域および前記第2欠陥領域において重複する領域を、更新された欠陥領域として特定する欠陥更新部とをさらに備える。
 本発明は、対象物の表面の欠陥を検出する検査方法にも向けられている。本発明に係る検査方法は、a)撮像部にて対象物を撮像することにより撮像画像を取得する工程と、b)前記撮像画像に対応する参照画像が準備されており、前記撮像画像の各画素の値と前記参照画像の対応する画素の値との差に基づいて検出される第1欠陥候補領域と、前記撮像画像の各画素の値と前記参照画像の対応する画素の値との比に基づいて検出される第2欠陥候補領域とにおいて重複する領域を欠陥領域として検出する、または、前記撮像画像と前記参照画像との差分画像の各画素の値と前記参照画像の対応する画素の値との比に基づいて欠陥領域を検出する工程とを備える。
 上述の目的および他の目的、特徴、態様および利点は、添付した図面を参照して以下に行うこの発明の詳細な説明により明らかにされる。
検査装置の構成を示す図である。 検査装置の本体を示す平面図である。 コンピュータが実現する機能構成を示すブロック図である。 対象物の検査の処理の流れを示す図である。 第1撮像画像を示す図である。 第1撮像画像を示す図である。 第1撮像画像を示す図である。 第2撮像画像を示す図である。 欠陥検出部の構成を示す図である。 欠陥を検出する処理の流れを示す図である。 差に基づく欠陥候補画像を示す図である。 自己比較に基づく欠陥候補画像を示す図である。 重複候補領域画像を示す図である。 欠陥領域画像を示す図である。 第1欠陥領域画像を示す図である。 欠陥更新部の構成を示す図である。 特定欠陥領域画像を示す図である。 検査装置の他の例を示す図である。
 図1は、本発明の一の実施の形態に係る検査装置1の構成を示す図である。図2は、検査装置1の本体11を示す平面図である。検査装置1は、表面に光沢を有する立体的な対象物9の外観を検査する装置である。対象物9は、例えば、鍛造や鋳造により形成された金属部品であり、その表面は微小な凹凸を有する梨地状である。対象物9は、例えば、自在継手に用いられる各種部品(円筒形のハブの軸や外輪、ヨーク等)である。
 図1に示すように、検査装置1は、本体11と、コンピュータ12とを備える。本体11は、ステージ2と、ステージ回動部21と、撮像ユニット3と、光源ユニット4とを備える。対象物9はステージ2上に載置される。ステージ回動部21は、上下方向を向く中心軸J1を中心として対象物9をステージ2と共に所定の角度だけ回動する。中心軸J1は、ステージ2の中央を通過する。本体11には、外部の光がステージ2上に到達することを防止する図示省略の遮光カバーが設けられ、ステージ2、撮像ユニット3および光源ユニット4は、遮光カバー内に設けられる。
 図1および図2に示すように、撮像ユニット3は、1個の上方撮像部31と、4個の斜方撮像部32と、4個の側方撮像部33とを備える。図2では、上方撮像部31の図示を省略している(後述の上方光源部41において同様)。上方撮像部31は、ステージ2の上方にて中心軸J1上に配置される。上方撮像部31によりステージ2上の対象物9を真上から撮像した画像が取得可能である。
 図2に示すように、上側から下方を向いて本体11を見た場合に(すなわち、本体11を平面視した場合に)、4個の斜方撮像部32はステージ2の周囲に配置される。4個の斜方撮像部32は、中心軸J1を中心とする周方向に90°の角度間隔(ピッチ)にて配列される。各斜方撮像部32の撮像光軸K2と中心軸J1とを含む面において(図1参照)、撮像光軸K2と中心軸J1とがなす角度θ2は、およそ45°である。各斜方撮像部32によりステージ2上の対象物9を斜め上から撮像した画像が取得可能である。
 本体11を平面視した場合に、4個の側方撮像部33も、4個の斜方撮像部32と同様にステージ2の周囲に配置される。4個の側方撮像部33は、周方向に90°の角度間隔にて配列される。各側方撮像部33の撮像光軸K3と中心軸J1とを含む面において、撮像光軸K3と中心軸J1とがなす角度θ3は、およそ90°である。各側方撮像部33によりステージ2上の対象物9を横から撮像した画像が取得可能である。上方撮像部31、斜方撮像部32および側方撮像部33は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal-Oxide Semiconductor)等を有し、多階調の画像が取得される。上方撮像部31、斜方撮像部32および側方撮像部33は、図示省略の支持部により支持される。
 光源ユニット4は、1個の上方光源部41と、8個の斜方光源部42と、8個の側方光源部43とを備える。上方光源部41は、中心軸J1を中心とするリング状に複数のLED(発光ダイオード)が配列された光源部である。リング状の上方光源部41は上方撮像部31の周囲を囲むように、上方撮像部31に固定される。上方光源部41によりステージ2上の対象物9に対して真上から中心軸J1に平行な方向に沿って光が照射可能である。
 本体11を平面視した場合に、8個の斜方光源部42はステージ2の周囲に配置される。8個の斜方光源部42は、周方向に45°の角度間隔にて配列される。各斜方光源部42は、中心軸J1を中心とする円周の接線方向に伸びるバー状に複数のLEDが配列された光源部である。各斜方光源部42の出射面の中央と対象物9(の中心)とを結ぶ線を「照明軸」と呼ぶと、当該斜方光源部42の照明軸と中心軸J1とを含む面において、当該照明軸と中心軸J1とがなす角度は、およそ45°である。各斜方光源部42では、ステージ2上の対象物9に対して斜め上から当該照明軸に沿って光が照射可能である。検査装置1では、8個の斜方光源部42のうち4個の斜方光源部42は4個の斜方撮像部32にそれぞれ固定され、残りの4個の斜方光源部42は、図示省略の支持部により支持される。
 本体11を平面視した場合に、8個の側方光源部43はステージ2の周囲に配置される。8個の側方光源部43は、周方向に45°の角度間隔にて配列される。各側方光源部43は、中心軸J1を中心とする円周の接線方向に伸びるバー状に複数のLEDが配列された光源部である。斜方光源部42と同様に、各側方光源部43の出射面の中央と対象物9とを結ぶ線を「照明軸」と呼ぶと、当該側方光源部43の照明軸と中心軸J1とを含む面において、当該照明軸と中心軸J1とがなす角度は、およそ90°である。各側方光源部43では、ステージ2上の対象物9に対して横から当該照明軸に沿って光が照射可能である。検査装置1では、8個の側方光源部43のうち4個の側方光源部43は4個の側方撮像部33にそれぞれ固定され、残りの4個の側方光源部43は、図示省略の支持部により支持される。
 例えば、上方撮像部31および上方光源部41と対象物9との間の距離は、約55cm(センチメートル)である。また、斜方撮像部32および斜方光源部42と対象物9との間の距離は約50cmであり、側方撮像部33および側方光源部43と対象物9との間の距離は約40cmである。上方光源部41、斜方光源部42および側方光源部43では、LED以外の種類の光源が用いられてよい。
 図3は、コンピュータ12が実現する機能構成を示すブロック図である。図3では、本体11の構成(ステージ回動部21、撮像ユニット3および光源ユニット4)もブロックにて示している。コンピュータ12は、制御部60と、演算部61と、記憶部69とを備える。制御部60は、検査装置1の全体制御を担う。演算部61は、欠陥検出部62と、欠陥更新部63と、検出制御部64とを備える。欠陥検出部62は、撮像ユニット3にて取得される撮像画像に基づいて欠陥領域を検出する。検出制御部64は、同じ領域を撮像した複数の撮像画像のそれぞれに対して欠陥検出部62に欠陥領域を検出させる。欠陥更新部63は、複数の撮像画像の欠陥領域から、最終的な欠陥領域をさらに特定する。記憶部69は、各種画像データを記憶する。欠陥検出部62、検出制御部64および欠陥更新部63の詳細については、後述する。
 図4は、検査装置1による対象物9の検査の処理の流れを示す図である。まず、ステージ2上に検査対象の対象物9が載置される(ステップS11)。ステージ2上には、例えば位置合わせ用の複数のピンが設けられており、対象物9の予め定められた部位を当該複数のピンに当接させることにより、ステージ2上の所定位置に対象物9が所定の向きにて配置される。続いて、制御部60では、操作者による入力等に基づいて、ステージ2上の対象物9に対する撮像設定情報が取得される(ステップS12)。ここで、撮像設定情報は、撮像ユニット3において使用する撮像部(以下、「選択撮像部」という。)と、当該選択撮像部による撮像画像の取得の際に光源ユニット4において点灯する光源部とを示す。
 本処理例における撮像設定情報は、撮像ユニット3における4個の斜方撮像部32を選択撮像部として使用することを示す。また、当該撮像設定情報は、選択撮像部である各斜方撮像部32に対して、当該斜方撮像部32と同じ位置の斜方光源部42、当該斜方光源部42に対して時計回りに隣接する2個の斜方光源部42、および、反時計回りに隣接する2個の斜方光源部42(以下、これらの斜方光源部42を「特定光源部群」という。)のそれぞれを点灯する画像取得、並びに、特定光源部群の全てを点灯する画像取得を指示する。上側から下方を向いて本体11を見た場合に、各斜方撮像部32に対する特定光源部群に含まれる5個の斜方光源部42の照明軸は、当該斜方撮像部32の撮像光軸K2に対してそれぞれ-90°、-45°、0°、+45°、+90°だけ傾斜する。すなわち、当該5個の斜方光源部42は、中心軸J1を中心とする周方向において当該斜方撮像部32に対してそれぞれ-90°、-45°、0°、+45°、+90°の角度位置に位置する。
 対象物9に対する撮像設定情報が取得されると、それぞれが選択撮像部である複数の斜方撮像部32のうち、一の斜方撮像部32が注目撮像部として指定される(ステップS13)。続いて、注目撮像部32に対する特定光源部群のうち一の斜方光源部42のみを点灯しつつ、注目撮像部32にて撮像画像が取得される。このとき、対象物9の表面において注目撮像部32におよそ対向する領域を「対象領域」として、対象領域に対して当該斜方光源部42からその照明軸に沿って光が照射される。このように、対象領域に対して、特定光源部群に含まれる一の斜方光源部42により一の方向のみから光を照射しつつ、注目撮像部32により対象領域が撮像される。以下の説明では、一の光源部のみからの光の照射により注目撮像部にて取得される撮像画像を「第1撮像画像」と呼び、第1撮像画像の取得の際に対象領域に光を照射する光源部を「第1照明部」と呼ぶ。一の方向のみからの光の照射により取得される第1撮像画像では、対象領域の微小な凹凸による影が生じやすい。
 検査装置1では、制御部60の制御により、特定光源部群に含まれる複数の斜方光源部42のそれぞれを第1照明部として順次用いることにより、注目撮像部32において複数の第1撮像画像が取得される(ステップS14)。既述のように、特定光源部群は、注目撮像部32に対して-90°、-45°、0°、+45°、+90°の角度位置の斜方光源部42を含む。注目撮像部に対してN°の角度位置の光源部を第1照明部として取得される第1撮像画像を「N°の照明による第1撮像画像」と呼ぶと、上記ステップS14では、-90°の照明による第1撮像画像、-45°の照明による第1撮像画像、0°の照明による第1撮像画像、+45°の照明による第1撮像画像、および、+90°の照明による第1撮像画像が取得される。特定光源部群に含まれる複数の斜方光源部42は、複数の第1撮像画像の取得に用いられる複数の第1照明部と捉えることが可能である。なお、特定光源部群に含まれる各斜方光源部42は必ずしも対象領域の全体に光を照射する訳ではなく、例えば、-90°の角度位置の斜方光源部42は、対象領域のおよそ半分に光を照射する。第1照明部として用いられる光源部は、対象領域において光の照射が可能な領域の各位置に対して一の方向のみから光を照射すればよい。
 続いて、注目撮像部32に対する特定光源部群に含まれる全ての斜方光源部42を点灯しつつ、注目撮像部32にて撮像画像が取得される(ステップS15)。このとき、注目撮像部32に対して-90°、-45°、0°、+45°、+90°の角度位置の複数の斜方光源部42から、照明軸に沿って対象領域に対して光が照射される。このように、対象領域に対して、複数の斜方光源部42により互いに異なる複数の方向から光を照射しつつ、注目撮像部32により対象領域が撮像される。以下の説明では、特定光源部群に含まれる全ての光源部からの光の照射により注目撮像部にて取得される撮像画像を「第2撮像画像」と呼び、第2撮像画像の取得の際に対象物9に光を照射する全ての光源部の集合を「第2照明部」と呼ぶ。
 既述のように、特定光源部群に含まれる各斜方光源部42が必ずしも対象領域の全体に光を照射する訳ではないが、第2照明部により対象領域の各位置には、少なくとも2個の斜方光源部42から、すなわち、少なくとも2方向から光が照射される。本処理例では、対象領域の各位置には、少なくとも3個の斜方光源部から光が照射される。複数の方向からの光の照射により取得される第2撮像画像では、対象領域の微小な凹凸による影が生じにくい。検査装置1では、特定光源部群に含まれる複数の斜方光源部42から出射される光の強度はほぼ同じである。また、第2撮像画像の取得の際における各斜方光源部42からの光の強度は、第1撮像画像の取得の際における当該斜方光源部42からの光の強度よりも小さい。
 図5ないし図7は、第1撮像画像の一例を示す図である。図5は-90°の照明による第1撮像画像を示し、図6は-45°の照明による第1撮像画像を示し、図7は0°の照明による第1撮像画像を示す。図8は、第2撮像画像の一例を示す図である。既述のように、第2照明部からの光の照射、すなわち、-90°、-45°、0°、+45°、+90°の全ての照明により、第2撮像画像は取得される。図5ないし図8では、対象物9の背景を示す領域に平行斜線を付している。第1および第2撮像画像では、画素の値(階調値)が高いほど、当該画素が明るいこと示す。
 ここで、撮像画像において対象領域における凹状または凸状の欠陥(例えば、梨地状の表面における微小な凹凸よりも十分に大きい凹状または凸状の欠陥)を示す欠陥領域では、通常、ある方向から照射される光により、周囲の領域に対する明るさの相違が大きくなる。また、欠陥の形状(凹みの角度等)によっては、他の方向から照射される光では、周囲の領域に対する欠陥領域の明るさの相違が僅かとなる。図5ないし図8の例では、-45°の照明により欠陥領域が、周囲の領域に対して区別可能な明るさとなり、他の方向の照明では、欠陥領域が区別困難である。したがって、-45°の照明による図6の第1撮像画像、および、-90°、-45°、0°、+45°、+90°の全ての照明による図8の第2撮像画像において、欠陥領域(後述の偽欠陥領域と区別するため、以下、「真欠陥領域」という。)が周囲の領域に対して区別可能な明るさとなる。図6の第1撮像画像および図8の第2撮像画像では、真欠陥領域71を黒く塗りつぶしている。もちろん、他の真欠陥領域71も他の第1撮像画像および第2撮像画像において存在し得る。
 また、複数の第1撮像画像および第2撮像画像では、対象領域の梨地状の表面に起因して、周囲の領域に対して明るさが相違する領域が不規則に存在する。後述するように、撮像画像に基づく検査では、撮像画像が他の画像と比較され、比較結果では、撮像画像および当該他の画像における、このような領域(明るさが相違する領域)が偽欠陥領域として検出され得る。第2撮像画像では、第1撮像画像と照明の状態が異なるため、偽欠陥領域が生じる位置は第1撮像画像と必ずしも一致しない。特定光源部群に含まれる各斜方光源部42の照明による複数の第1撮像画像、並びに、特定光源部群に含まれる全ての斜方光源部42の照明による第2撮像画像は、図3の演算部61の欠陥検出部62に入力される。
 一方、記憶部69では、各第1撮像画像に対応する第1参照画像、および、第2撮像画像に対応する第2参照画像が予め記憶される。ここで、各第1撮像画像に対応する第1参照画像は、当該第1撮像画像と同様の条件にて取得され、かつ、欠陥を含まない対象領域を示す画像である。第1参照画像は、例えば、欠陥を含まない対象物に対して上記ステップS14と同様の処理を行うことにより取得され、第1参照画像データ691として記憶部69にて記憶される。各第1撮像画像に対して所定の処理を行うことにより、当該第1撮像画像に対応する第1参照画像が生成されてもよい。第2撮像画像に対応する第2参照画像も同様であり、第2参照画像データ692として記憶部69にて記憶される。第1参照画像および第2参照画像は、欠陥検出部62における処理にて利用される。
 図9は、欠陥検出部62の構成を示す図であり、図10は、欠陥検出部62が欠陥を検出する処理の流れを示す図である。欠陥検出部62では、複数の第1撮像画像および第2撮像画像に対して同様の処理が行われるため、以下の説明では、複数の第1撮像画像および第2撮像画像のそれぞれを単に「撮像画像」と呼び、当該撮像画像に対応する第1または第2参照画像を単に「参照画像」と呼ぶ。
 2つのフィルタ処理部621では、撮像画像および参照画像に対してメディアンフィルタやガウスフィルタ等のノイズを低減するフィルタ処理がそれぞれ行われ、フィルタ処理済みの撮像画像および参照画像は、プリアライメント部622に出力される。プリアライメント部622では、所定のパターンを利用したパターンマッチングにより、(フィルタ処理済みの)参照画像の撮像画像に対する相対的な位置および角度のずれ量が特定される。そして、両画像の間における位置および角度のずれ量だけ、参照画像を撮像画像に対して平行移動および回転することにより、参照画像の位置および角度が撮像画像に合わせられる(すなわち、プリアライメントが行われる。)。
 ゆすらせ比較部623では、参照画像を、撮像画像に対するプリアライメント済みの位置から、2次元配列された複数の位置のそれぞれに移動する際における移動後の参照画像と撮像画像との差異を示す評価値(例えば、両画像が重なる領域における画素の値の差(絶対値)の和)が求められる。そして、評価値が最小となる位置における両画像の画素の値の差(絶対値)を示す画像が、所定の閾値にて二値化され、二値の欠陥候補画像が生成される。なお、差を示す画像に対して所定の処理を施した後に、当該画像が二値化されてもよい(以下同様)。このように、ゆすらせ比較部623では、撮像画像の各画素の値と参照画像の対応する画素の値との差に基づいて、対象領域における欠陥候補の領域を示す欠陥候補画像(以下、「差に基づく欠陥候補画像」という。)が生成される(ステップS31)。換言すると、対象領域における差に基づく欠陥候補領域が検出される。
 図11は、図8の第2撮像画像から導かれる、差に基づく欠陥候補画像を示す図である。図11の差に基づく欠陥候補画像は、差に基づく欠陥候補領域73を示す二値画像であり、差に基づく欠陥候補領域73は、図8の真欠陥領域71以外に、撮像画像または参照画像に起因する複数の偽欠陥領域を含む。
 一方、プリアライメント部622から出力される撮像画像は、膨張処理部624、収縮処理部625および2つの比較部626にも入力される。膨張処理部624では、所定のサイズの最大値フィルタを撮像画像に対して作用させることにより、多階調の撮像画像において画素の値が比較的高い領域を実質的に膨張させる膨張処理が行われる。膨張処理により、画素の値が比較的低い領域が除去または低減される。膨張処理済みの撮像画像は、一方の比較部626に出力される。当該比較部626では、プリアライメント部622から入力される撮像画像と、膨張処理済みの撮像画像との間の画素の値の差(絶対値)を示す画像が生成される。当該画像は、所定の閾値にて二値化され、欠陥候補の領域を示す二値の画像(以下、「第1中間画像」という。)が生成される。
 収縮処理部625では、所定のサイズの最小値フィルタを撮像画像に対して作用させることにより、多階調の撮像画像において画素の値が比較的高い領域を実質的に収縮させる収縮処理が行われる。収縮処理により、画素の値が比較的高い領域が除去または低減される。収縮処理済みの撮像画像は、他方の比較部626に出力される。当該比較部626では、プリアライメント部622から入力される撮像画像と、収縮処理済みの撮像画像との間の画素の値の差(絶対値)を示す画像が生成される。当該画像は、所定の閾値にて二値化され、欠陥候補の領域を示す二値の画像(以下、「第2中間画像」という。)が生成される。
 論理和演算部627には、一方の比較部626から第1中間画像の各画素の値が入力され、他方の比較部626から当該画素と同じ位置である第2中間画像の画素の値が入力される。そして、第1中間画像の各画素の値と、第2中間画像の対応する画素の値との論理和が求められる。したがって、論理和演算部627では、第1中間画像と第2中間画像とを正確に重ねた場合に、第1中間画像および第2中間画像のいずれかの欠陥候補の領域に含まれる画素(の位置)に対して、欠陥候補領域を示す値が出力される。また、第1中間画像および第2中間画像のいずれの欠陥候補の領域にも含まれない画素に対して、非欠陥領域を示す値が出力される。このように、膨張処理部624、収縮処理部625、2つの比較部626および論理和演算部627が協働することにより、撮像画像の各画素の値と当該撮像画像に対して膨張処理または収縮処理を施した画像の対応する画素の値との差に基づいて、対象領域における欠陥候補の領域を示す欠陥候補画像(以下、「自己比較に基づく欠陥候補画像」という。)が生成される(ステップS32)。換言すると、対象領域における自己比較に基づく欠陥候補領域が検出される。
 図12は、図8の第2撮像画像から導かれる自己比較に基づく欠陥候補画像を示す図である。図12の自己比較に基づく欠陥候補画像は、自己比較に基づく欠陥候補領域74を示す二値画像であり、自己比較に基づく欠陥候補領域74は、図8の真欠陥領域71以外に、撮像画像、もしくは、膨張処理済みの撮像画像または収縮処理済みの撮像画像に起因する複数の偽欠陥領域を含む。図11の差に基づく欠陥候補領域73と、図12の自己比較に基づく欠陥候補領域74との間では、互いに相違する部分が存在する。
 論理積演算部628には、ゆすらせ比較部623から差に基づく欠陥候補画像の各画素の値が入力され、論理和演算部627から自己比較に基づく欠陥候補画像の対応する画素の値が入力される。そして、両画像における同じ位置の画素の値の論理積が求められ、虚報低減処理部629に出力される。したがって、論理積演算部628では、両画像を正確に重ねた場合に、差に基づく欠陥候補領域73と自己比較に基づく欠陥候補領域74とが重なる領域の画素に対して、重複した欠陥候補領域(以下、「重複候補領域」という。)を示す値が出力される。また、差に基づく欠陥候補領域73と自己比較に基づく欠陥候補領域74とが重ならない領域の画素に対して、非欠陥領域を示す値が出力される。このようにして、差に基づく欠陥候補領域73、および、自己比較に基づく欠陥候補領域74において重複する領域を、重複候補領域として示す重複候補領域画像が取得される(ステップS33)。
 図13は、図11の差に基づく欠陥候補画像、および、図12の自己比較に基づく欠陥候補画像から導かれる重複候補領域画像を示す図である。図13の重複候補領域画像が示す重複候補領域75の面積は、図11中の差に基づく欠陥候補領域73の面積、および、図12中の自己比較に基づく欠陥候補領域74の面積のそれぞれよりも小さい。また、差に基づく欠陥候補画像、および、自己比較に基づく欠陥候補画像の双方にて存在する図8の真欠陥領域71に対応する領域は、重複候補領域75として検出される。
 虚報低減処理部629では、重複候補領域75に含まれる撮像画像の各画素の値を参照画像の対応する画素の値で割ることにより両画素の値の比(比の値)が求められる。そして、当該比の値が、1よりも小さい下限値および上限値を有する所定の第1判定範囲に含まれる場合には、当該画素(の位置)に対して暗欠陥領域を示す値が付与される。当該比の値が、1よりも大きい下限値および上限値を有する所定の第2判定範囲に含まれる場合には、当該画素に対して明欠陥領域を示す値が付与される。当該比の値が第1判定範囲および第2判定範囲のいずれにも含まれない画素、並びに、重複候補領域75に含まれない画素には、非欠陥領域を示す値が付与される。このようにして、第1判定範囲に含まれる暗欠陥領域、および、第2判定範囲に含まれる明欠陥領域を示す三値画像が取得される。例えば、第1判定範囲R1は、(0.1<R1<0.8)であり、第2判定範囲R2は、(1.2<R2<2.5)である。第1判定範囲R1および第2判定範囲R2は適宜変更されてよい。
 上記第1判定範囲および第2判定範囲は、撮像画像の各画素の値と参照画像の対応する画素の値との比に基づいて欠陥候補領域を検出するための範囲である。したがって、虚報低減処理部629における上記処理は、撮像画像と参照画像との間の上記比に基づいて検出される欠陥候補領域と、重複候補領域75とにおいて重複する領域を欠陥領域として検出する処理と捉えることができる。
 面積フィルタ部620では、当該三値画像において、暗欠陥領域を示す値を有するとともに、互いに連続する画素の集合が暗欠陥領域として特定され、当該暗欠陥領域の面積が所定の面積閾値未満である場合に、当該暗欠陥領域に含まれる画素の値が非欠陥領域を示す値に変更(修正)される。同様に、明欠陥領域を示す値を有するとともに、互いに連続する画素の集合が明欠陥領域として特定され、当該明欠陥領域の面積が所定の面積閾値未満である場合に、当該明欠陥領域に含まれる画素の値が非欠陥領域を示す値に変更される。面積閾値以上の面積を有する暗欠陥領域および明欠陥領域の画素の値はそのままである。これにより、面積フィルタ済みの欠陥領域を示す欠陥領域画像が、注目撮像部32の対象領域に対して取得される(ステップS34)。以下の処理では、欠陥領域画像は、明欠陥領域および暗欠陥領域を共に欠陥領域として示す二値画像として扱われ、各欠陥領域が、明欠陥領域または暗欠陥領域のいずれであるかを示す欠陥領域情報が別途作成されるものとする。
 図14は、図13の重複候補領域画像から導かれる欠陥領域画像を示す図である。図14の欠陥領域画像が示す欠陥領域76の面積は、図13中の重複候補領域75の面積よりも小さい。実際には、真欠陥領域71に対応する領域は欠陥領域76として維持されるため、虚報低減処理部629の処理により、偽欠陥領域(虚報)が低減されるといえる。
 欠陥検出部62による上記処理は、検出制御部64の制御により、複数の第1撮像画像および第2撮像画像の全てに対して行われる。したがって、欠陥検出部62では、各第1撮像画像と当該第1撮像画像に対応する第1参照画像とを用いることにより、第1欠陥領域を示す第1欠陥領域画像が生成され、第1欠陥領域が検出される(図4:ステップS16)。また、第2撮像画像と当該第2撮像画像に対応する第2参照画像とを用いることにより、第2欠陥領域を示す第2欠陥領域画像が生成され、第2欠陥領域が検出される(ステップS17)。N°の照明による第1撮像画像から取得される第1欠陥領域画像を、「N°の照明による第1欠陥領域画像」と呼ぶと、上記ステップS16では、-90°の照明による第1欠陥領域画像、-45°の照明による第1欠陥領域画像、0°の照明による第1欠陥領域画像、+45°の照明による第1欠陥領域画像、および、+90°の照明による第1欠陥領域画像が取得される。
 図15は、図6の第1撮像画像から導かれる-45°の照明による第1欠陥領域画像を示す図である。図15の第1欠陥領域画像は、第1欠陥領域77を示し、第1欠陥領域77は図6の真欠陥領域71を含む。一方、既述の図14は、図8の第2撮像画像から導かれる-90°、-45°、0°、+45°、+90°の全ての照明による第2欠陥領域画像を示している。図14の第2欠陥領域画像は、第2欠陥領域76を示し、第2欠陥領域76は図8の真欠陥領域71を含む。複数の第1欠陥領域画像および第2欠陥領域画像は、欠陥更新部63に出力される。
 図16は、欠陥更新部63の構成を示す図である。欠陥更新部63は、複数の撮像画像から導かれる欠陥領域の一部を特定欠陥領域として特定する。具体的には、複数の論理積演算部631には、それぞれ-90°、-45°、0°、+45°、+90°の照明による複数の第1欠陥領域画像の画素の値が順次入力される。また、複数の論理積演算部631には、第2欠陥領域画像の画素の値も順次入力される。そして、各論理積演算部631では、第2欠陥領域画像の各画素の値と、第1欠陥領域画像の対応する画素の値との論理積が求められ、論理和演算部632に出力される。したがって、各論理積演算部631では、第2欠陥領域画像と第1欠陥領域画像とを正確に重ねた場合に、第2欠陥領域76と第1欠陥領域77とが重なる領域の画素に対して、特定欠陥領域を示す値が出力される。また、第2欠陥領域76と第1欠陥領域77とが重ならない領域の画素(すなわち、残りの全ての画素)に対して、非欠陥領域を示す値が出力される。このようにして、第2欠陥領域76および第1欠陥領域77において重複する領域が、対象領域における特定欠陥領域として実質的に特定される。
 論理和演算部632では、第2欠陥領域画像の各画素に対して複数の論理積演算部631から入力される値の論理和が求められ、面積フィルタ部633に出力される。すなわち、第2欠陥領域画像の各画素に対して、いずれかの論理積演算部631から特定欠陥領域を示す値が入力される場合に、特定欠陥領域を示す値が面積フィルタ部633に出力され、全ての論理積演算部631から非欠陥領域を示す値が入力される場合に、非欠陥領域を示す値が面積フィルタ部633に出力される。面積フィルタ部633では、第2欠陥領域画像の各画素に対して論理和演算部632から入力される値を、当該画素の位置の値とする画像が生成される。そして、当該画像において、特定欠陥領域を示す値を有するとともに、互いに連続する画素の集合が特定欠陥領域として特定され、当該特定欠陥領域の面積が所定の面積閾値未満である場合に、当該特定欠陥領域に含まれる画素の値が非欠陥領域を示す値に変更される。面積閾値以上の面積を有する特定欠陥領域の画素の値はそのままである。これにより、図17に示すように、特定欠陥領域78を示す特定欠陥領域画像が、注目撮像部32の対象領域に対して取得される(ステップS18)。特定欠陥領域78は、図14の第2欠陥領域76および図15の第1欠陥領域77のそれぞれに対して更新された欠陥領域と捉えることができる。特定欠陥領域78の位置は、図6および図8の真欠陥領域71に一致する。
 制御部60では、全ての選択撮像部が注目撮像部として指定されたか否かが確認される。ここでは、注目撮像部として未指定の選択撮像部が存在するため(ステップS19)、他の一の斜方撮像部32が注目撮像部として指定される(ステップS13)。既述のように、上側から下方を向いて本体11を見た場合に(図2参照)、4個の斜方撮像部32は周方向に90°の角度間隔にて配列されるため、特定欠陥領域画像が取得されていない対象物9の領域が、新たな注目撮像部32に対する対象領域となる。
 注目撮像部32が指定されると、上記と同様にして、対象領域に対して-90°、-45°、0°、+45°、+90°の照明による5個の第1撮像画像が取得され(ステップS14)、続いて、-90°、-45°、0°、+45°、+90°の全ての照明による第2撮像画像が取得される(ステップS15)。各第1撮像画像と当該第1撮像画像に対応する第1参照画像とを用いることにより第1欠陥領域画像が生成され(ステップS16)、第2撮像画像と当該第2撮像画像に対応する第2参照画像とを用いることにより第2欠陥領域画像が生成される(ステップS17)。そして、複数の第1欠陥領域画像および第2欠陥領域画像から、対象領域に対する特定欠陥領域画像が取得される(ステップS18)。
 検査装置1では、全ての選択撮像部を注目撮像部として、上記特定欠陥領域画像の取得に係る処理が行われる(ステップS19)。これにより、対象物9において周方向に90°の角度間隔にて並ぶ4個の対象領域のそれぞれに対して、特定欠陥領域画像が取得される。
 続いて、制御部60では、ステージ2を所定回数だけ回動したか否かが確認される。ここでは、ステージ2の回動を行っていないため(ステップS20)、ステージ回動部21がステージ2を中心軸J1を中心として45°だけ回動する(ステップS21)。これにより、上記4個の対象領域のうち周方向に互いに隣接する2個の対象領域の各組合せにおいて、当該2個の対象領域の間の領域が、いずれかの斜方撮像部32と対向する。そして、上記と同様に、ステップS13~S18が繰り返される(ステップS19)。その結果、対象物9において周方向に45°の角度間隔にて並ぶ8個の対象領域のそれぞれに対して、特定欠陥領域画像が取得される。8個の対象領域は、周方向の全周に亘って連続するため、周方向の全周に亘って対象物9の欠陥が検出される。8個の対象領域は、相互に部分的に重なっていてもよい。制御部60では、ステージ2を所定回数だけ回動したことが確認され、対象物9の検査が完了する(ステップS20)。
 上記処理例では、4個の斜方撮像部32を選択撮像部として指定し、選択撮像部である各斜方撮像部32に対して-90°、-45°、0°、+45°、+90°の角度位置に位置する斜方光源部42を特定光源部群として利用する場合について説明したが、選択撮像部および特定光源部群は他の組合せであってよい。例えば、4個の側方撮像部33を選択撮像部として指定し、選択撮像部である各側方撮像部33に対して-90°、-45°、0°、+45°、+90°の角度位置に位置する側方光源部43を特定光源部群として利用してもよい。また、選択撮像部である斜方撮像部32に対して複数の側方光源部43が特定光源部群として利用されてよく、選択撮像部である側方撮像部33に対して複数の斜方光源部42が特定光源部群として利用されてよい。
 さらに、上方撮像部31が選択撮像部として指定されてよく、上方光源部41が特定光源部群の一つとして利用されてよい。対象物9の種類によっては、選択撮像部に対して-45°、0°、+45°の角度位置に位置する光源部のみが特定光源部群として利用されてよい。特定光源部群が、上方光源部41、斜方光源部42および側方光源部43を含んでもよい。各選択撮像部に対して特定光源部群として利用される光源部の個数は、3以上(例えば、5以下)であることが好ましい。検査装置1では、様々な撮像部を選択撮像部として指定し、各選択撮像部に対して様々な複数の光源部を特定光源部群として利用することにより、高精度な欠陥検出が可能となる。
 ここで、撮像部により取得される撮像画像において、画素の値が高い明るい領域は、光源部からの光の対象物9表面における正反射成分により主に形成されるため、対象物9の表面の微小な凹凸の影響により、画素の値が大きく変わりやすい。すなわち、明るい領域では、梨地状の表面の影響を受けやすく、偽欠陥が生じやすい。一方、画素の値が低い暗い領域は、光源部からの光の対象物9表面における拡散反射成分により主に形成されるため、対象物9の表面の微小な凹凸の影響により、画素の値が変わりにくい。すなわち、暗い領域では、梨地状の表面の影響を受けにくく、偽欠陥が生じにくい。
 検査装置1の欠陥検出部62では、撮像画像の各画素の値と参照画像の対応する画素の値との差に基づいて欠陥候補領域が検出され、当該欠陥候補領域に含まれる撮像画像の各画素の値と参照画像の対応する画素の値との比に基づいて、欠陥領域が検出される。したがって、例えば、撮像画像と参照画像との間において画素の値の差が同じである欠陥候補領域であっても、基準となる参照画像の画素の値が高い欠陥候補領域では、参照画像の画素の値が低い欠陥候補領域よりも画素の値の比が1に近くなり(画素の値の差の影響度が小さいと捉えることができる。)、このような欠陥候補領域を偽欠陥を示す可能性が高いものとして除外すること等が可能となる。その結果、欠陥検出部62では、対象物9の梨地状の表面における微小な凹凸に起因する偽欠陥領域を適切に除去して、すなわち、偽欠陥の検出を抑制して、欠陥(真欠陥)を精度よく検出することができる。
 欠陥検出部62では、自己比較に基づく欠陥候補領域がさらに検出され、差に基づく欠陥候補領域、および、自己比較に基づく欠陥候補領域において重複する領域が、重複候補領域として検出される。そして、重複候補領域に含まれる撮像画像の各画素の値と参照画像の対応する画素の値との比に基づいて欠陥領域が検出される。これにより、偽欠陥の検出をさらに抑制して、欠陥をより精度よく検出することができる。また、上記比に基づいて検出される欠陥領域が、撮像画像の画素の値が参照画像の対応する画素の値よりも低い欠陥候補領域と、高い欠陥候補領域とを区別して含むことにより、明欠陥および暗欠陥を区別して取り扱うことができる。
 検査装置1では、撮像部に対向する対象領域に対して複数の方向からそれぞれ光を照射する複数の光源部が設けられ、複数の光源部のうちの一の光源部からの光の照射により撮像部にて第1撮像画像が取得され、複数の光源部からの光の照射により撮像部にて第2撮像画像が取得される。また、第1撮像画像と当該第1撮像画像に対応する第1参照画像とを用いて第1欠陥領域が検出され、第2撮像画像と当該第2撮像画像に対応する第2参照画像とを用いて第2欠陥領域が検出される。そして、第1欠陥領域および第2欠陥領域において重複する領域が、対象領域における更新された欠陥領域(特定欠陥領域)として特定される。これにより、偽欠陥の検出をさらに抑制して、欠陥をより精度よく検出することができる。
 また、対象物9の検査では、複数の光源部のそれぞれを順次用いることにより、撮像部にて複数の第1撮像画像が取得される。また、当該複数の第1撮像画像と、当該複数の第1撮像画像に対応する複数の第1参照画像とをそれぞれ比較することにより、それぞれが第1欠陥領域を示す複数の第1欠陥領域画像が生成される。そして、各第1欠陥領域画像が示す第1欠陥領域、および、第2欠陥領域において重複する領域が、対象領域における更新された欠陥領域として特定される。このように、一の対象領域(一の撮像部の撮像位置)に対して複数の光源部を用いて複数の第1撮像画像を取得し、当該複数の第1撮像画像に基づいて当該対象領域の欠陥領域を検出することにより、対象物9の表面における欠陥をより安定して(より確実に)検出することができる。
 検査装置1では、上方撮像部31、複数の斜方撮像部32、および、複数の側方撮像部33が設けられることにより、対象物9における死角を低減することができ、対象物9の検査の信頼性を向上することができる。
 上記処理例では、差に基づく欠陥候補領域と、自己比較に基づく欠陥候補領域とが重複する領域(重複候補領域)のみに対して、撮像画像と参照画像との間の画素の値の比が求められるが、画素の値の比は、画像全体に対して求められてよい。この場合、撮像画像と参照画像との間の画素の値の比を示す画像が生成され、当該画像において第1判定範囲および第2判定範囲に含まれる領域が欠陥候補領域(以下、「比に基づく欠陥候補領域」という。)として検出される。そして、差に基づく欠陥候補領域、自己比較に基づく欠陥候補領域、および、比に基づく欠陥候補領域において重複する領域が、欠陥領域として検出される。また、対象物9の種類や画像の撮像条件等によっては、自己比較に基づく欠陥候補領域の検出が省略されてよい。
 以上のように、検査装置1では、撮像画像の各画素の値と参照画像の対応する画素の値との差に基づいて検出される第1欠陥候補領域と、撮像画像の各画素の値と参照画像の対応する画素の値との比に基づいて検出される第2欠陥候補領域とにおいて重複する領域を欠陥領域として検出することが重要である。これにより、偽欠陥の検出を抑制して、欠陥を精度よく検出することが可能となる。
 好ましくは、撮像画像と参照画像との差を示す画像に基づいて第1欠陥候補領域を求め、続いて、第1欠陥候補領域に含まれる撮像画像の各画素の値と参照画像の対応する画素の値との比に基づいて欠陥領域が検出される。このように、撮像画像と参照画像とにおいて上記比を求める画素を、第1欠陥候補領域に含まれる画素に制限することにより、不必要な画素に対して上記比を求めることなく、欠陥を効率よく検出することが可能となる。同様に、撮像画像と参照画像との比を示す画像に基づいて第2欠陥候補領域を求め、続いて、第2欠陥候補領域に含まれる撮像画像の各画素の値と参照画像の対応する画素の値との差に基づいて欠陥領域が検出されてもよい。すなわち、撮像画像と参照画像とにおいて上記差を求める画素を、第2欠陥候補領域に含まれる画素に制限する場合も、不必要な画素に対して上記差を求めることなく、欠陥を効率よく検出することが可能となる。
 偽欠陥の検出をさらに抑制するという観点では、自己比較に基づく欠陥候補領域の検出が行われることが好ましい。この場合に、検出すべき欠陥の種類によっては、自己比較に基づく欠陥候補領域は、撮像画像と膨張処理が施された撮像画像との差を示す画像を二値化することにより得られる領域(すなわち、第1中間画像が示す領域)、または、撮像画像と収縮処理が施された撮像画像との差を示す画像を二値化することにより得られる領域(すなわち、第2中間画像が示す領域)の一方であってもよい。このように、撮像画像の各画素の値と、撮像画像に対して膨張処理または収縮処理を施した画像の対応する画素の値との差に基づいて第3欠陥候補領域を検出し、第1欠陥候補領域、第2欠陥候補領域および第3欠陥候補領域において重複する領域を、欠陥領域として検出することにより、偽欠陥の検出をさらに抑制することが可能となる。なお、図9の欠陥検出部62では、撮像画像と参照画像とにおいて比を求める画素を、第1欠陥候補領域および3欠陥候補領域の双方に含まれる画素に制限することにより、欠陥をより効率よく検出することが実現されている。
 上記検査装置1では様々な変形が可能である。
 上記実施の形態では、撮像画像と参照画像との間において画素の値の差を求めて欠陥候補領域を検出する処理と、画素の値の比を求めて欠陥候補領域を検出する(または限定する)処理とが個別に行われるが、対象物9の種類や画像の撮像条件等によっては、これらの処理が同時に行われてもよい。この場合、撮像画像と参照画像との間において画素の値の差(の絶対値)を示す差分画像が取得され、差分画像の各画素の値を参照画像の対応する画素の値にて割ることにより比が求められる。そして、各画素の比が、例えば、上限値および下限値を有する判定範囲に含まれる場合には、当該画素の位置に欠陥領域を示す値が付与される。画素の比が、当該判定範囲に含まれない場合には、当該画素の位置に非欠陥領域を示す値が付与される。この場合も、撮像画像と参照画像との間において、例えば、画素の値の差が同じである複数の領域が存在するときに、参照画像の画素の値に応じて(参照画像の画素の値に対する当該差の影響度を考慮して)、当該複数の領域を偽欠陥領域と真欠陥領域とに区別することが可能となる。以上のように、欠陥検出部62では、撮像画像と参照画像との差分画像の各画素の値と、参照画像の対応する画素の値との比に基づいて欠陥領域を検出することにより、偽欠陥の検出を抑制して、真欠陥を精度よく検出することができる。
 対象物9の種類によっては、一の選択撮像部に対して第1欠陥領域画像または第2欠陥領域画像の一方のみが生成され、当該欠陥領域画像が示す欠陥領域が、最終的な欠陥領域として扱われてもよい。
 上記検査装置1では、対象領域に対して複数の方向からそれぞれ光を照射する複数の光源部が第2照明部として設けられ、当該複数の光源部のうちの一の光源部が第1照明部として扱われるが、図18に示すように、第1照明部51と第2照明部52とが個別に設けられてもよい。第1照明部51は、対象物9の表面における対象領域に対して一の方向のみから光を照射可能であり、第2照明部52は、対象領域に対して複数の方向から光を照射可能である。図18の例では、第1照明部51は撮像部30の上面に固定され、第2照明部52は撮像部30の下面に固定される。第2照明部52では、周方向に沿う円弧状に複数のLEDが配列される。欠陥をより安定して検出するには、図18中に二点鎖線にて示すように、対象領域に対して互いに異なる複数の方向から光を照射する複数の第1照明部51が設けられ、複数の第1照明部51を用いて対象領域を示す複数の第1撮像画像が取得されることが好ましい。また、第1照明部51が省略され、第2照明部52において互いに連続する数個のLEDのみを第1照明部として点灯することにより、対象領域に対して一の方向のみから光を照射することも可能である。この場合、第2照明部52では、それぞれが互いに連続する数個のLEDである複数の光源部が周方向に並んでいると捉えることができる。
 第1照明部は、対象領域に対して実質的に一の方向のみから光を照射するものであるならば、例えば、僅かに離れた(分離した)複数の光源から対象領域に光を照射するものであってもよい。第2照明部を用いて取得される第2撮像画像と、第1照明部を用いて取得される第1撮像画像とにおいて撮像条件(偽欠陥領域が生じる位置)を相違させるという観点では、第2照明部による対象領域の各位置に対する光の照明方向は、45度以上離れた2方向を含むことが好ましく、60度以上離れた2方向を含むことがより好ましい。
 図4の処理の流れでは、理解を容易にするため、一の注目撮像部による第1撮像画像の取得、当該注目撮像部による第2撮像画像の取得、当該第1撮像画像からの第1欠陥領域画像の生成、当該第2撮像画像からの第2欠陥領域画像の生成が順次行われるものとして説明したが、例えば、第1撮像画像の取得後、第2撮像画像の取得、および、第1欠陥領域画像の生成が並行して行われてもよい。また、複数の選択撮像部により複数の対象領域の第1撮像画像が順次取得され、続いて、当該複数の対象領域の第2撮像画像が順次取得されてもよい。このように、図4の処理の流れは、適宜変更可能である。
 検査装置1は、パターンが形成される各種基板やフィルム等、他の対象物の表面における欠陥の検出に利用されてよい。しかしながら、偽欠陥の検出を抑制することが可能な検査装置1は、梨地状の領域(金属の表面には限定されない。)を表面に有することにより偽欠陥が生じやすい対象物の検査に特に適しているといえる。
 上記実施の形態および各変形例における構成は、相互に矛盾しない限り適宜組み合わされてよい。
 発明を詳細に描写して説明したが、既述の説明は例示的であって限定的なものではない。したがって、本発明の範囲を逸脱しない限り、多数の変形や態様が可能であるといえる。
 1  検査装置
 9  対象物
 30~33  撮像部
 41~43  光源部
 51  第1照明部
 52  第2照明部
 62  欠陥検出部
 63  欠陥更新部
 64  検出制御部
 69  記憶部
 73,74  欠陥候補領域
 75  重複候補領域
 76  第2欠陥領域
 77  第1欠陥領域
 78  特定欠陥領域
 691  第1参照画像データ
 692  第2参照画像データ
 S11~S21,S31~S34  ステップ

Claims (12)

  1.  対象物の表面の欠陥を検出する検査装置であって、
     対象物を撮像することにより撮像画像を取得する撮像部と、
     前記撮像画像に対応する参照画像を記憶する記憶部と、
     前記撮像画像の各画素の値と前記参照画像の対応する画素の値との差に基づいて検出される第1欠陥候補領域と、前記撮像画像の各画素の値と前記参照画像の対応する画素の値との比に基づいて検出される第2欠陥候補領域とにおいて重複する領域を欠陥領域として検出する、または、前記撮像画像と前記参照画像との差分画像の各画素の値と前記参照画像の対応する画素の値との比に基づいて欠陥領域を検出する欠陥検出部と、
    を備える。
  2.  請求項1に記載の検査装置であって、
     前記欠陥検出部が、前記撮像画像と前記参照画像とにおいて前記比を求める画素を、前記第1欠陥候補領域に含まれる画素に制限する、または、前記撮像画像と前記参照画像とにおいて前記差を求める画素を、前記第2欠陥候補領域に含まれる画素に制限する。
  3.  請求項1または2に記載の検査装置であって、
     前記第2欠陥候補領域が、前記撮像画像の画素の値が前記参照画像の対応する画素の値よりも低い欠陥候補領域と、高い欠陥候補領域とを区別して含む。
  4.  請求項1ないし3のいずれかに記載の検査装置であって、
     前記欠陥検出部が、前記撮像画像の各画素の値と、前記撮像画像に対して膨張処理または収縮処理を施した画像の対応する画素の値との差に基づいて第3欠陥候補領域を検出し、前記第1欠陥候補領域、前記第2欠陥候補領域および前記第3欠陥候補領域において重複する領域を、前記欠陥領域として検出する。
  5.  請求項1ないし4のいずれかに記載の検査装置であって、
     前記対象物が表面に梨地状の領域を有する。
  6.  請求項5に記載の検査装置であって、
     前記対象物の表面における所定の対象領域に対して一の方向のみから光を照射する第1照明部と、
     前記対象領域に対して複数の方向から光を照射する第2照明部と、
     前記第1照明部からの光の照射により前記撮像部にて取得される第1撮像画像と前記第1撮像画像に対応する第1参照画像とを用いて前記欠陥検出部に第1欠陥領域を検出させ、前記第2照明部からの光の照射により前記撮像部にて取得される第2撮像画像と前記第2撮像画像に対応する第2参照画像とを用いて前記欠陥検出部に第2欠陥領域を検出させる検出制御部と、
     前記第1欠陥領域および前記第2欠陥領域において重複する領域を、更新された欠陥領域として特定する欠陥更新部と、
    をさらに備える。
  7.  対象物の表面の欠陥を検出する検査方法であって、
     a)撮像部にて対象物を撮像することにより撮像画像を取得する工程と、
     b)前記撮像画像に対応する参照画像が準備されており、前記撮像画像の各画素の値と前記参照画像の対応する画素の値との差に基づいて検出される第1欠陥候補領域と、前記撮像画像の各画素の値と前記参照画像の対応する画素の値との比に基づいて検出される第2欠陥候補領域とにおいて重複する領域を欠陥領域として検出する、または、前記撮像画像と前記参照画像との差分画像の各画素の値と前記参照画像の対応する画素の値との比に基づいて欠陥領域を検出する工程と、
    を備える。
  8.  請求項7に記載の検査方法であって、
     前記b)工程において、前記撮像画像と前記参照画像とにおいて前記比を求める画素が、前記第1欠陥候補領域に含まれる画素に制限される、または、前記撮像画像と前記参照画像とにおいて前記差を求める画素が、前記第2欠陥候補領域に含まれる画素に制限される。
  9.  請求項7または8に記載の検査方法であって、
     前記第2欠陥候補領域が、前記撮像画像の画素の値が前記参照画像の対応する画素の値よりも低い欠陥候補領域と、高い欠陥候補領域とを区別して含む。
  10.  請求項7ないし9のいずれかに記載の検査方法であって、
     前記b)工程において、前記撮像画像の各画素の値と、前記撮像画像に対して膨張処理または収縮処理を施した画像の対応する画素の値との差に基づいて第3欠陥候補領域が検出され、前記第1欠陥候補領域、前記第2欠陥候補領域および前記第3欠陥候補領域において重複する領域が、前記欠陥領域として検出される。
  11.  請求項7ないし10のいずれかに記載の検査方法であって、
     前記対象物が表面に梨地状の領域を有する。
  12.  請求項11に記載の検査方法であって、
     前記a)工程において、前記対象物の表面における所定の対象領域に対して一の方向のみから光を照射しつつ、前記撮像部にて第1撮像画像が取得され、
     前記b)工程において、前記第1撮像画像と前記第1撮像画像に対応する第1参照画像とを用いて第1欠陥領域が検出され、
     前記検査方法が、
     前記対象領域に対して複数の方向から光を照射しつつ、前記撮像部にて第2撮像画像を取得する工程と、
     前記第2撮像画像と前記第2撮像画像に対応する第2参照画像とを用いて、前記b)工程と同様の処理により第2欠陥領域を検出する工程と、
     前記第1欠陥領域および前記第2欠陥領域において重複する領域を、更新された欠陥領域として特定する工程と、
    をさらに備える。
PCT/JP2015/062875 2014-09-29 2015-04-28 検査装置および検査方法 WO2016051841A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN201580051291.XA CN107076677B (zh) 2014-09-29 2015-04-28 检查装置以及检查方法
KR1020177006859A KR101951576B1 (ko) 2014-09-29 2015-04-28 검사 장치 및 검사 방법
US15/515,127 US10613037B2 (en) 2014-09-29 2015-04-28 Inspection apparatus and inspection method
EP15847927.9A EP3203217B1 (en) 2014-09-29 2015-04-28 Inspection device and inspection method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014198207A JP6486050B2 (ja) 2014-09-29 2014-09-29 検査装置および検査方法
JP2014-198207 2014-09-29

Publications (1)

Publication Number Publication Date
WO2016051841A1 true WO2016051841A1 (ja) 2016-04-07

Family

ID=55629898

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/062875 WO2016051841A1 (ja) 2014-09-29 2015-04-28 検査装置および検査方法

Country Status (7)

Country Link
US (1) US10613037B2 (ja)
EP (1) EP3203217B1 (ja)
JP (1) JP6486050B2 (ja)
KR (1) KR101951576B1 (ja)
CN (1) CN107076677B (ja)
TW (1) TWI598581B (ja)
WO (1) WO2016051841A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3502671A4 (en) * 2016-08-18 2020-04-15 SCREEN Holdings Co., Ltd. INSPECTION APPARATUS AND INSPECTION METHOD

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109923402B (zh) * 2016-11-14 2021-08-10 日本碍子株式会社 陶瓷体的缺陷检查装置以及缺陷检查方法
JP6973742B2 (ja) * 2017-06-15 2021-12-01 リョーエイ株式会社 金属加工面の検査方法、金属加工面の検査装置
JP6922539B2 (ja) * 2017-08-09 2021-08-18 日立金属株式会社 表面欠陥判定方法および表面欠陥検査装置
DE102017222964A1 (de) * 2017-12-15 2019-06-19 Zf Friedrichshafen Ag Verfahren und System zur Schadenserkennung eines Bauteils
CN109961455B (zh) * 2017-12-22 2022-03-04 杭州萤石软件有限公司 一种目标检测方法及装置
JP7170400B2 (ja) * 2018-02-14 2022-11-14 株式会社Screenホールディングス 検査装置、検査方法、錠剤印刷装置および錠剤印刷方法
JP6598898B2 (ja) * 2018-02-27 2019-10-30 株式会社Screenホールディングス 芯ズレ検出装置および芯ズレ検出方法
JP7042118B2 (ja) * 2018-03-08 2022-03-25 株式会社東芝 検査装置、検査方法、及びプログラム
JP2019174410A (ja) * 2018-03-29 2019-10-10 住友化学株式会社 画像処理装置、異物検査装置及び画像処理方法
CN108573489B (zh) * 2018-04-22 2019-05-07 杭州知桔科技有限公司 跨栏完整度检测平台
WO2019244946A1 (ja) * 2018-06-22 2019-12-26 コニカミノルタ株式会社 欠陥判別方法、欠陥判別装置、欠陥判別プログラム及び記録媒体
JP7161870B2 (ja) * 2018-06-27 2022-10-27 ファスフォードテクノロジ株式会社 ダイボンダおよび半導体装置の製造方法
KR102112053B1 (ko) * 2018-08-01 2020-05-18 주식회사 뷰온 이미지 센서를 이용한 표면결함 검사장치 및 검사방법
US10957035B2 (en) * 2018-11-30 2021-03-23 Kla Corporation Defect classification by fitting optical signals to a point-spread function
CN109827971B (zh) * 2019-03-19 2021-09-24 湖州灵粮生态农业有限公司 一种无损检测水果表面缺陷的方法
US11205457B2 (en) * 2019-09-12 2021-12-21 International Business Machines Corporation Automatic detection and remediation of video irregularities
CN110672631B (zh) * 2019-09-24 2022-06-10 深圳市华星光电半导体显示技术有限公司 面板缺陷拍照方法和面板缺陷拍照装置
CN114651169B (zh) * 2019-11-22 2024-10-01 夏普株式会社 显示面板的制造方法
JP2021089159A (ja) 2019-12-02 2021-06-10 Juki株式会社 検査装置及び検査方法
CN110933280B (zh) * 2019-12-23 2021-01-26 吉林省广播电视研究所(吉林省广播电视局科技信息中心) 平面倾斜图像正视转向方法及转向系统
CN111812341A (zh) * 2020-07-22 2020-10-23 英华达(上海)科技有限公司 自动化设备检测系统和检测自动化设备内部运作的方法
JP7443268B2 (ja) 2021-01-05 2024-03-05 株式会社ニューフレアテクノロジー 欠陥検査方法
JP2022138669A (ja) * 2021-03-10 2022-09-26 富士フイルムビジネスイノベーション株式会社 表面検査装置
US20230011330A1 (en) * 2021-07-09 2023-01-12 At&T Intellectual Property I, L.P. Device condition determination
JP7191173B1 (ja) * 2021-09-17 2022-12-16 Ckd株式会社 基板検査装置及び基板検査方法
JP2024000090A (ja) * 2022-06-20 2024-01-05 日立Astemo株式会社 欠陥検査装置および欠陥検査方法
CN117577550A (zh) * 2023-11-15 2024-02-20 深圳市昇维旭技术有限公司 半导体器件的缺陷分析方法、装置、可读介质及电子设备

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04254746A (ja) * 1991-02-05 1992-09-10 Nippondenso Co Ltd 明度検査装置
JPH10160684A (ja) * 1996-11-28 1998-06-19 Hitachi Metals Ltd 外観検査方法
JP2007155610A (ja) * 2005-12-07 2007-06-21 Seiko Epson Corp 外観検査装置および外観検査方法
JP2008170325A (ja) * 2007-01-12 2008-07-24 Seiko Epson Corp シミ欠陥検出方法およびシミ欠陥検出装置
JP2009097928A (ja) * 2007-10-15 2009-05-07 Tokyo Seimitsu Co Ltd 欠陥検査装置及び欠陥検査方法
JP2009121902A (ja) * 2007-11-14 2009-06-04 Advanced Mask Inspection Technology Kk パターン検査装置、パターン検査方法及びプログラム
JP2010164487A (ja) * 2009-01-16 2010-07-29 Tokyo Seimitsu Co Ltd 欠陥検査装置及び欠陥検査方法
JP2011237302A (ja) * 2010-05-11 2011-11-24 Sumco Corp ウェーハ欠陥検査装置及びウェーハ欠陥検査方法
JP2013134666A (ja) * 2011-12-27 2013-07-08 Dainippon Screen Mfg Co Ltd 二値画像生成装置、分類装置、二値画像生成方法および分類方法

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5052045A (en) 1988-08-29 1991-09-24 Raytheon Company Confirmed boundary pattern matching
IL99823A0 (en) * 1990-11-16 1992-08-18 Orbot Instr Ltd Optical inspection method and apparatus
US5296942A (en) 1991-01-09 1994-03-22 Nippondenso Co., Ltd. Method and apparatus for inspecting lightness on the surface of an object
JPH11108637A (ja) * 1997-10-03 1999-04-23 Dakku Engineering Kk 品質検査装置
US6539106B1 (en) * 1999-01-08 2003-03-25 Applied Materials, Inc. Feature-based defect detection
JP3583684B2 (ja) * 2000-01-12 2004-11-04 シャープ株式会社 画像欠陥検出装置および画像欠陥検出方法
JP2003002487A (ja) * 2001-06-25 2003-01-08 Gunze Ltd 中綴製本機における落丁管理システム及び可搬式落丁検査装置
KR100436861B1 (ko) 2001-08-27 2004-06-30 나노메트릭스코리아 주식회사 화학적 기계적 연마장치에 사용하는 연마 패드의 결함검사 방법 및 장치
US6927847B2 (en) * 2001-09-13 2005-08-09 Hitachi High-Technologies Corporation Method and apparatus for inspecting pattern defects
US7606417B2 (en) * 2004-08-16 2009-10-20 Fotonation Vision Limited Foreground/background segmentation in digital images with differential exposure calculations
US7349575B2 (en) * 2003-06-27 2008-03-25 Nippon Avionics Co., Ltd. Pattern inspection method and apparatus, and pattern alignment method
JP2005017234A (ja) 2003-06-27 2005-01-20 Sony Corp 外観検査方法、外観検査装置及び電子回路基板の製造装置
JP2006125936A (ja) * 2004-10-27 2006-05-18 Sharp Corp 光学検査装置および光学検査方法、並びにカラーフィルタの製造方法
JP4626982B2 (ja) 2005-02-10 2011-02-09 セントラル硝子株式会社 ガラス板の端面の欠陥検出装置および検出方法
JP2008032487A (ja) * 2006-07-27 2008-02-14 Sumitomo Electric Ind Ltd 外観検査装置
US20100027873A1 (en) 2006-08-28 2010-02-04 I-Pulse Kabushiki Kaisha Board appearance inspection method and device
JP2009145285A (ja) 2007-12-18 2009-07-02 Dainippon Screen Mfg Co Ltd 欠陥検出方法および欠陥検出装置
JP2009162573A (ja) 2007-12-28 2009-07-23 Ricoh Elemex Corp 形状認識装置
SG163442A1 (en) 2009-01-13 2010-08-30 Semiconductor Technologies & Instruments System and method for inspecting a wafer
KR101214806B1 (ko) 2010-05-11 2012-12-24 가부시키가이샤 사무코 웨이퍼 결함 검사 장치 및 웨이퍼 결함 검사 방법
US8866899B2 (en) 2011-06-07 2014-10-21 Photon Dynamics Inc. Systems and methods for defect detection using a whole raw image
CN102495069B (zh) 2011-12-07 2013-03-20 广东辉丰科技股份有限公司 一种基于数字图像处理的拉链链带缺陷检测方法
JP5841427B2 (ja) 2011-12-28 2016-01-13 株式会社キーエンス 画像処理装置及び画像処理方法
JP6043662B2 (ja) * 2013-03-18 2016-12-14 株式会社ニューフレアテクノロジー 検査方法および検査装置

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04254746A (ja) * 1991-02-05 1992-09-10 Nippondenso Co Ltd 明度検査装置
JPH10160684A (ja) * 1996-11-28 1998-06-19 Hitachi Metals Ltd 外観検査方法
JP2007155610A (ja) * 2005-12-07 2007-06-21 Seiko Epson Corp 外観検査装置および外観検査方法
JP2008170325A (ja) * 2007-01-12 2008-07-24 Seiko Epson Corp シミ欠陥検出方法およびシミ欠陥検出装置
JP2009097928A (ja) * 2007-10-15 2009-05-07 Tokyo Seimitsu Co Ltd 欠陥検査装置及び欠陥検査方法
JP2009121902A (ja) * 2007-11-14 2009-06-04 Advanced Mask Inspection Technology Kk パターン検査装置、パターン検査方法及びプログラム
JP2010164487A (ja) * 2009-01-16 2010-07-29 Tokyo Seimitsu Co Ltd 欠陥検査装置及び欠陥検査方法
JP2011237302A (ja) * 2010-05-11 2011-11-24 Sumco Corp ウェーハ欠陥検査装置及びウェーハ欠陥検査方法
JP2013134666A (ja) * 2011-12-27 2013-07-08 Dainippon Screen Mfg Co Ltd 二値画像生成装置、分類装置、二値画像生成方法および分類方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3502671A4 (en) * 2016-08-18 2020-04-15 SCREEN Holdings Co., Ltd. INSPECTION APPARATUS AND INSPECTION METHOD
US10942131B2 (en) 2016-08-18 2021-03-09 SCREEN Holdings Co., Ltd. Inspection apparatus and inspection method

Also Published As

Publication number Publication date
CN107076677B (zh) 2021-02-19
KR20170042337A (ko) 2017-04-18
CN107076677A (zh) 2017-08-18
KR101951576B1 (ko) 2019-02-22
EP3203217A1 (en) 2017-08-09
JP2016070732A (ja) 2016-05-09
TWI598581B (zh) 2017-09-11
JP6486050B2 (ja) 2019-03-20
TW201612504A (en) 2016-04-01
US20170219495A1 (en) 2017-08-03
US10613037B2 (en) 2020-04-07
EP3203217A4 (en) 2018-05-09
EP3203217B1 (en) 2021-06-16

Similar Documents

Publication Publication Date Title
JP6486050B2 (ja) 検査装置および検査方法
JP6370177B2 (ja) 検査装置および検査方法
TWI626440B (zh) 缺陷檢測裝置、缺陷檢測方法及程式產品
JP6531184B2 (ja) 欠陥検出装置および欠陥検出方法
JP6121253B2 (ja) ワーク表面欠陥検査装置
JP2015068668A (ja) 外観検査装置
JP6812118B2 (ja) 欠陥検出装置、欠陥検出方法およびプログラム
WO2018225460A1 (ja) 検査装置および検査方法
JP6811540B2 (ja) 欠陥検出装置、欠陥検出方法およびプログラム
JP6393663B2 (ja) 表面検査装置
JP6688629B2 (ja) 欠陥検出装置、欠陥検出方法およびプログラム
WO2024009868A1 (ja) 外観検査システム、外観検査方法、学習装置および推論装置
JP2009264914A (ja) 平坦面用の欠陥検出方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15847927

Country of ref document: EP

Kind code of ref document: A1

REEP Request for entry into the european phase

Ref document number: 2015847927

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2015847927

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 20177006859

Country of ref document: KR

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 15515127

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE