WO2020152866A1 - 画像検査装置 - Google Patents

画像検査装置 Download PDF

Info

Publication number
WO2020152866A1
WO2020152866A1 PCT/JP2019/002541 JP2019002541W WO2020152866A1 WO 2020152866 A1 WO2020152866 A1 WO 2020152866A1 JP 2019002541 W JP2019002541 W JP 2019002541W WO 2020152866 A1 WO2020152866 A1 WO 2020152866A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
illumination
lamp
camera
inspection
Prior art date
Application number
PCT/JP2019/002541
Other languages
English (en)
French (fr)
Inventor
功一 唐木
大輔 唐澤
Original Assignee
タカノ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by タカノ株式会社 filed Critical タカノ株式会社
Priority to PCT/JP2019/002541 priority Critical patent/WO2020152866A1/ja
Priority to JP2020567346A priority patent/JPWO2020152866A1/ja
Priority to KR1020217018638A priority patent/KR20210118063A/ko
Priority to TW108104432A priority patent/TW202028729A/zh
Publication of WO2020152866A1 publication Critical patent/WO2020152866A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • G01N21/25Colour; Spectral properties, i.e. comparison of effect of material on the light at two or more different wavelengths or wavelength bands
    • G01N21/31Investigating relative effect of material at wavelengths characteristic of specific elements or molecules, e.g. atomic absorption spectrometry
    • G01N21/314Investigating relative effect of material at wavelengths characteristic of specific elements or molecules, e.g. atomic absorption spectrometry with comparison of measurements at specific and non-specific wavelengths
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8806Specially adapted optical and illumination features
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/95Investigating the presence of flaws or contamination characterised by the material or shape of the object to be examined
    • G01N21/956Inspecting patterns on the surface of objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8806Specially adapted optical and illumination features
    • G01N2021/8845Multiple wavelengths of illumination or detection
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • G01N2021/8887Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges based on image processing techniques

Definitions

  • the present invention relates to an image inspection apparatus that inspects an inspection target for defects based on an image.
  • Patent Document 1 discloses a technique for inspecting a substrate to be inspected by moving a measuring head including a UV irradiator 204a and a camera 204b.
  • the purpose of this invention is to provide an image inspection apparatus with high inspection accuracy for the presence or absence of defects.
  • the image inspection apparatus of the present invention An image inspection apparatus for inspecting the presence or absence of a defect of an inspection object, A multi-spectral camera for imaging the inspection object, An image inspection unit that performs an image inspection to inspect the presence or absence of the defect for each of a plurality of images having different wavelength bands, obtained by imaging the inspection target with the multispectral camera, Equipped with.
  • FIG. 1 It is a block diagram of the image inspection apparatus which concerns on one Embodiment of this invention. It is a schematic diagram showing an articulated robot and the like. It is a perspective view of an illumination camera unit. It is the figure which looked at the illumination camera unit from the side. It is a figure which shows the structural example of a line sensor camera (multispectral camera). It is the figure which looked at the illumination camera unit at the time of performing regular reflection illumination from the side. It is the figure which looked at the illumination camera unit at the time of performing reflective dark-field illumination from the side. It is the figure which looked at the illumination camera unit from the side at the time of performing the same direction dark field illumination. It is a figure which shows the 1st path
  • the image inspection apparatus 100 has the configuration shown in FIG. 1 and inspects the inspection target S (FIG. 2 etc.) for the presence or absence of defects.
  • the inspection target S is a color filter substrate used for a liquid crystal display panel.
  • the image inspection device 100 is used in the manufacturing process of the color filter substrate, and inspects the presence or absence of defects in the manufacturing process.
  • the glass substrate is supported from the back side by a plurality of pins that stand up and down, and then a black matrix layer is formed on the surface of the glass substrate. Then, a color filter layer is formed. After that, a protective film is formed.
  • the protective film is formed by applying the material for the protective film with a dispenser or the like, flattening it with a squeegee, and drying the rolled material. After forming the protective film, the protective film is washed with a cleaning liquid (water, oil, or the like), and the cleaning liquid remaining on the protective film after cleaning is blown off with air. As a result, the color filter substrate is completed.
  • the glass substrate is supported by the plurality of pins
  • at least one of the portions of the glass substrate supported by the plurality of pins may be curved due to its own weight. is there. Specifically, the portion may be curved so as to rise upward due to the pin.
  • the film thickness of the portion of the protective film provided on the curved portion becomes thinner than the surrounding normal portion.
  • Such a thin portion has an abnormal film thickness and is treated as a kind of defect.
  • the tip of the squeegee may cause a streak-like defect (a concave portion or a convex portion extending in a predetermined direction) on the protective film.
  • the material of the protective film may be applied by an inkjet printer, but even in this case, a streak-like defect may occur in the protective film due to clogging of the nozzle of the inkjet head.
  • formation defects may occur in part of the color filter layer or the black matrix layer.
  • the formation abnormality is, for example, that the color filter layer or the black matrix layer is formed in a desired shape such that the width of a certain portion is narrower than intended, the pitch of the pattern of the certain portion is displaced, or the pattern shape of the certain portion is broken. It occurs when not done. If a protective film is provided on such a malformation, the part of the protective film provided on the malformed part has a different refractive index from the normal part of the protective film, and thus the appearance may be different. Since it is different, it is treated as a defect.
  • the image inspection apparatus 100 has a multi-joint robot 110, a moving mechanism 120, an illumination camera unit 130, and a control unit (controller) 140, as shown in FIG. And a display unit 150 and an input unit 160.
  • the multi-joint robot 110 is a 6-axis vertical multi-joint robot, and moves the illumination camera unit 130 in the up-down direction, the left-right direction (the direction penetrating the plane of FIG. 2), and the front-back direction. Further, the illumination camera unit 130 can be rotated.
  • the articulated robot 110 includes a base 111, a rotating body 112, a first arm (lower arm) 113, a second arm (upper arm) 114, and a third arm (wrist). ) 115 and.
  • the articulated robot 110 also incorporates a plurality of motors (not shown) for performing each rotation described below.
  • the base 111 is fixed to a slide member 123 of the moving mechanism 120, which will be described later.
  • the rotating body 112 is connected to the base 111 and rotates about the axis R11 with respect to the base 111.
  • the axis R11 extends in the vertical direction and passes through the center of the rotating body 112 when seen in a plan view.
  • the first arm 113 is connected to the base 111.
  • the first arm 113 is rotatably provided with respect to the rotating body 112 with the axis R21 as a rotation axis.
  • the axis R21 penetrates the one end of the first arm 113 and is orthogonal to the axis R11.
  • the second arm 114 (lower end in FIG. 2) is connected to the other end of the first arm 113.
  • the second arm 114 is rotatably provided with respect to the first arm 113 with an axis R22 that penetrates the one end portion and is parallel to the axis R21 as a rotation axis.
  • the second arm 114 includes a 2-1 arm 114A and a 2-2 arm 114B.
  • the 2-1st arm 114A is connected to the 1st arm 113.
  • the 2-2nd arm 114B is provided rotatably with respect to the 2-1st arm 114A with the axis R12 as a rotation axis.
  • the axis R12 extends along the direction in which the second arm 114 extends (the direction orthogonal to the axis R22) and passes through the center of the cross section of the second arm 114 in the direction orthogonal to the extending direction. ing.
  • the third arm 115 (right end in FIG. 2) is connected to the other end of the second arm 114.
  • the third arm 115 is rotatably provided with respect to the second arm 114 with an axis R23 passing through the one end portion and orthogonal to the axis R12 as a rotation axis.
  • the third arm 115 includes a 3-1st arm 115A and a 3-2th arm 115B.
  • the 3-1st arm 115A is connected to the second arm 114.
  • the 3-2nd arm 115B is rotatably provided with respect to the 3-1st arm 115A with the axis R13 as a rotation axis.
  • the axis R13 extends along the direction in which the third arm 115 extends (the direction orthogonal to the axis R23) and passes through the center of the cross section of the third arm 115 cut in the direction orthogonal to the extending direction. ing.
  • the illumination camera unit 130 is fixed to the 3-2nd arm 115B.
  • the illumination camera unit 130 includes a line sensor camera 135 (FIGS. 3 and 4 and the like) as described later, moves along the surface of the inspection target S supported in an upright state by the supporting device D, and images the surface. It is for doing.
  • the articulated robot 110 has the illumination camera unit 130 with the above-described configuration, particularly, the configuration in which the rotating body 112, the first arm 113 to the third arm 115, the second-2 arm 114B, and the third-2 arm 115B are rotated. , The vertical direction, the horizontal direction (direction penetrating the plane of FIG. 2), and the front-back direction, and can be rotated about the axis R13.
  • the moving mechanism 120 is a mechanism that moves the articulated robot 110 in the left-right direction. As shown in FIG. 2, the moving mechanism 120 includes a base 121, a rail 122, and a slide member 123.
  • the base 121 extends in the left-right direction.
  • the rail 122 is arranged on the base 121 and extends along the left-right direction.
  • the slide member 123 is engaged with the rail 122 and can slide on the rail 122 in the left-right direction.
  • the moving mechanism 120 includes a moving device (not shown) that moves the slide member 123 in the left-right direction in addition to the above members.
  • a moving device an appropriate device such as a device using a motor and a ball screw, or a device using a pulley, a belt, and a motor can be adopted.
  • the base 111 of the articulated robot 110 is fixed to the slide member 123, and the articulated robot 110 can be moved in the left-right direction by moving the slide member 123 in the left-right direction.
  • the range of movement of the illumination camera unit 130 in the left-right direction can be expanded as compared with the case where the position of the articulated robot 110 is immovable.
  • Such a configuration is particularly effective when the inspection target S is long in the left-right direction. If the movable range of the illumination camera unit 130 by the articulated robot 110 in the left-right direction is wider than the inspection target S, the moving mechanism 120 is unnecessary.
  • the illumination camera unit 130 includes a base 131, a first lamp 132, a second lamp 133, a third lamp 134, and a line sensor camera 135, as shown in FIGS. Equipped with.
  • One end of the illumination camera unit 130 on the 3-2 arm 115B side of the articulated robot 110 is referred to as a rear end, and the other end opposite thereto is also referred to as a front end (FIGS. 3, 4, etc.).
  • the base 131 includes a fixed portion 131A, a lamp support portion 131B, and a camera support portion 131C.
  • the fixed portion 131A extends in the front-rear direction (front end-rear end direction), and its rear end is fixed to the 3-2 arm 115B of the articulated robot 110.
  • the central axis of the fixed portion 131A (also the central axis of the illumination camera unit 130) coincides with the axis R13.
  • a lamp support portion 131B is attached to the tip of the fixed portion 131A.
  • the lamp support portion 131B includes a pair of plate-shaped members 131BA and 131BB and three plate-shaped members 131BC to 131BE.
  • the pair of plate-shaped members 131BA and 131BB extend in the front-rear direction.
  • Each of the three plate-shaped members 131BC to 131BE extends along a direction orthogonal to the front-rear direction, and is extended and fixed to the pair of plate-shaped members 131BA and 131BB at different positions.
  • the first lamp 132 is fixed to the plate member 131BC
  • the second lamp 133 is fixed to the plate member 131BD
  • the third lamp 134 is fixed to the plate member 131BE. In this way, the first lamp 132 to the third lamp 134 are supported by the lamp support portion 131B.
  • a camera support 131C is fixed to the center of the fixed portion 131A.
  • the camera support portion 131C includes a pair of plate-shaped members, and the line sensor camera 135 is sandwiched and supported by the plate-shaped members.
  • the first to third lamps 132 to 134 and the line sensor camera 135 are firmly fixed and supported so that they do not move and their directions do not change while the illumination camera unit 130 is moving.
  • the first lamp 132, the second lamp 133, the third lamp 134, and the line sensor camera 135 have a lamp supporting portion 131B or a camera supporting portion 131C at a position and an orientation where the respective optical axes L1 to L4 intersect at one point. It is supported by.
  • the first lamp 132, the second lamp 133, and the third lamp 134 have a strip-shaped light emitting surface 132A having longitudinal directions parallel to each other (directions orthogonal to the front-rear direction and penetrating the paper surface in FIG. 4). 133A or 134A.
  • Each of the first lamp 132, the second lamp 133, and the third lamp 134 is configured to include a plurality of LEDs arranged along the longitudinal direction, a fluorescent tube extending along the longitudinal direction, and the like.
  • a diffusion plate, a light guide plate or the like may be used to ensure the uniformity of the emitted light, etc.
  • a strip-shaped illumination light extending from the light emitting surface 132A, 133A, or 134A along the longitudinal direction. Can be emitted to illuminate the same region (band-shaped region) of the inspection target S.
  • the first lamp 132 is supported at a position and orientation in which the optical axis L1 of the first lamp 132 matches the axis R13.
  • the optical axis L1 is an axis that passes through the center of the light emitting surface 132A of the first lamp 132 and is orthogonal to the light emitting surface 132A.
  • the second lamp 133 is supported at a position and orientation in which an angle ⁇ 1 between the optical axis L2 of the second lamp 133 and the optical axis L1 (axis R13) is 20 degrees.
  • the optical axis L2 is an axis that passes through the center of the light emitting surface 133A of the second lamp 133 and is orthogonal to the light emitting surface 133A.
  • the third lamp 134 is supported at a position and orientation such that the angle ⁇ 2 between the optical axis L3 and the optical axis L2 of the third lamp 134 is 50 degrees.
  • the third lamp 134 is arranged on the opposite side of the first lamp 132 with the second lamp 133 interposed therebetween.
  • the optical axis L3 is an axis that passes through the center of the light emitting surface 134A of the third lamp 134 and is orthogonal to the light emitting surface 134A.
  • the line sensor camera 135 is a line in which the strip-shaped region of the inspection target S illuminated by any one of the first lamp 132 to the third lamp 134 extends in the same direction as the direction in which the strip-shaped region extends.
  • a line-shaped image (a captured image for one line) in which a line-shaped region of the inspection target S is captured is generated and output.
  • the line-shaped image is also referred to as a line image.
  • the line sensor camera 135 is supported at a position and orientation in which an angle ⁇ 3 between the optical axis L4 of the line sensor camera 135 and the optical axis L1 (axis R13) is 20 degrees.
  • the line sensor camera 135 is arranged on the opposite side of the second lamp 133 and the third lamp 134 with the first lamp 132 interposed therebetween.
  • the line sensor camera 135 is also a multi-spectral camera (including a hyper-spectral camera).
  • a multi-spectral camera is a camera that can obtain line images in a number of wavelength bands (bands) greater than three (for example, 10 or more) of RGB.
  • the line sensor camera 135 may be a hyperspectral camera that can generate a line image in a wavelength band of 100 or more.
  • the line sensor camera 135 includes a lens 135A, a slit member 135B, a spectroscope 135C, and an image sensor 135D.
  • the lens 135A is a condenser lens, and the illumination light emitted from any one of the first lamp 132 to the third lamp 134 and reflected by the inspection target S enters.
  • the incident illumination light passes through the lens 135A and reaches the slit member 135B.
  • the slit member 135B includes a linear slit 135BA extending in a direction parallel to the longitudinal direction of the light emitting surfaces 132A, 133A, and 134A, and only a part of the illumination light transmitted through the lens 135A passes through the slit 135BA.
  • the illumination light that has passed through the slit 135BA is a linear light extending along the X direction (direction parallel to the longitudinal direction).
  • the line-shaped light is also the light reflected by the line-shaped portion of the inspection target S.
  • the illumination light (line-shaped light) that has passed through the slit 135BA is dispersed in the Y direction by the spectroscope 135C that is an optical system including a grating (diffraction grating), a lens, and the like.
  • the respective lights after the separation are lights in different wavelength bands.
  • the wavelength distribution of the light amount of each light after the spectrum is a mountain-shaped distribution that has a certain wavelength as a peak and gradually decreases in the vertical direction.
  • the light of each wavelength band after the spectrum is received by the image sensor 135D and converted into an electric signal.
  • a CMOS image sensor, a CCD image sensor, or the like can be adopted as the image sensor 135D.
  • the image sensor 135D includes a plurality of pixels (photodiodes, etc.) 135DA that convert received light into brightness data (electrical signal) representing the brightness of the light.
  • the plurality of pixels 135DA are arranged in a matrix in the X direction and the Y direction.
  • Each of the light receiving units 135DB which is a group of a plurality of pixels 135DA arranged in a line in the X direction, receives light in one wavelength band of the light in a plurality of wavelength bands that have been spectrally separated.
  • a set of each luminance data converted by each pixel 135DA (each pixel 135DA included in one light receiving unit 135DB) arranged in the X direction at the same position in the Y direction is a line-shaped light that has passed through the slit 135BA.
  • FIG. 3 shows a luminance distribution in the X direction of line-shaped light of one wavelength band, and shows a line image obtained by capturing the line-shaped region of the inspection target S, which is obtained by receiving the light of the one wavelength band. It is also image data to represent. Since the line image is a collection of brightness data, it is also a grayscale image showing light and shade.
  • a set of brightness data converted by the pixels 135DA arranged in the Y direction at the same position in the X direction is a brightness for each wavelength band of the illumination light reflected at a position in a linear region of the inspection target S.
  • the distribution is shown.
  • the image sensor 135D outputs the image data of the line image to the control unit 140 for each wavelength band.
  • the line sensor camera 135 disperses the illumination light reflected by the inspection target S into a plurality of wavelength bands and images the inspection target S in a plurality of wavelength bands. An image (a plurality of line images having different wavelength bands) is generated.
  • the line sensor camera 135 sequentially takes an image of the inspection target S while moving along the inspection target S (specifically, takes an image for each line), and a line image for one line generated by each imaging. The respective image data of are sequentially output.
  • the sequential imaging of the inspection object S while the line sensor camera 135 moves along the inspection object S as described above is also referred to as scanning. As the imaging while moving, the moving may be temporarily stopped at the time of imaging.
  • the line sensor camera 135 sequentially captures images while moving, in addition to a mode in which the line sensor camera 135 is continuously moved, the line sensor camera 135 is moved ⁇ paused and imaged ⁇ moved ⁇ paused. It is also possible to adopt a method of repeating imaging by using the above method.
  • the control unit 140 includes a drive control unit 141, a lamp control unit 142, a camera control unit 143, an image inspection unit 144, and a storage unit 145.
  • the drive control unit 141 is configured by a PLC (programmable logic controller) or the like
  • the lamp control unit 142, the camera control unit 143, the image inspection unit 144, and the storage unit 145 are formed by a single computer or the like. Composed.
  • the lamp control unit 142, the camera control unit 143, and the image inspection unit 144 are configured to include various processors such as the CPU of the computer, which execute the programs stored in the storage unit 145.
  • the hardware configuration of the control unit 140 is arbitrary, and, for example, the drive control unit 141, the lamp control unit 142, the camera control unit 143, and the image inspection unit 144 are formed by separate computers or the like. It may be configured by one computer.
  • the storage unit 145 is composed of a RAM (Random access memory), a hard disk, and the like, stores the program, and also includes a drive control unit 141, a lamp control unit 142, a camera control unit 143, and an image inspection unit 144. It also stores the data used.
  • the drive control unit 141 controls the articulated robot 110 and the moving mechanism 120.
  • the lamp control unit 142 controls the first lamp 132 to the third lamp 134 of the illumination camera unit 130.
  • the camera control unit 143 controls the line sensor camera 135 of the illumination camera unit 130.
  • the drive control unit 141 drives the articulated robot 110 to rotate the rotating body 112, the first arm 113 to the third arm 115, the second-2 arm 114B, and the third-2 arm 115B, respectively,
  • the illumination camera unit 130 is moved along the surface of the inspection target S.
  • the drive control unit 141 also appropriately controls the moving mechanism 120 to move the illumination camera unit 130.
  • the lamp control unit 142 performs control to turn on any of the first lamp 132 to the third lamp 134 when the illumination camera unit 130 moves.
  • the camera control unit 143 causes the line sensor camera 135 moving by the drive control unit 141 to sequentially capture (scan) the inspection target S, and a line image (for one line) generated by the line sensor camera 135 for each capture.
  • Image data of (image) is output to the image inspection unit 144.
  • the image data is individually output in each of the plurality of wavelength bands.
  • the image inspection unit 144 sequentially receives the image data of a plurality of line images sequentially output from the line sensor camera 135, combines the sequentially received image data, and generates one captured image.
  • the one captured image is generated by combining a plurality of line images in the same wavelength band.
  • the image inspection unit 144 combines the captured images of different wavelength bands to generate a captured image of a desired wavelength band.
  • the image inspection unit 144 combines the line images of different wavelength bands, and combines the combined line images to generate the one captured image, thereby generating the captured image of the desired wavelength band. Good.
  • the image inspection unit 144 executes an inspection (image inspection) for the presence/absence of a defect based on one generated captured image (including the captured image in the desired wavelength band).
  • the inspection is performed for each of a plurality of captured images having different wavelength bands (that is, individually performed for each of the plurality of captured images).
  • the image inspection unit 144 determines that the inspection target has a defect as a result of the inspection.
  • An appropriate method may be adopted as the image inspection method.
  • the display unit 150 includes a liquid crystal display and the like, and displays the result of the inspection by the image inspection unit 144 under the control of the control unit 140.
  • the display unit 150 also displays a predetermined input screen (wavelength band input screen described later) and the like.
  • the input unit 160 includes a mouse and a keyboard, a touch panel, or the like.
  • the image inspection unit 144 combines captured images (line-shaped or single image) of different wavelength bands, the desired wavelength band described above is used. Accepts user's operation to specify.
  • the scanning of the inspection target S by the line sensor camera 135 is performed in a plurality of modes. Specifically, the image inspection apparatus 100 performs scanning with regular reflection illumination (FIG. 6), scanning with reflection dark field illumination (FIG. 7), and scanning with same direction dark field illumination (FIG. 8). Further, for each of the above-mentioned three scans, the scans from the first path to the fourth path (FIGS. 9 to 12) are performed.
  • the drive control unit 141 controls the articulated robot 110 and the moving mechanism 120 so that the intersections of the optical axes L1 to L4 of the illumination camera unit 130 are located on the surface of the inspection target S, and the illumination is performed.
  • the camera unit 130 is moved.
  • one of the first lamp 132 to the third lamp 134 is turned on so that the inspection target S is illuminated only with the illumination light from the first lamp 132 to the third lamp 134.
  • the surroundings of the illumination camera unit 130 and the like are shielded from light.
  • the drive control unit 141 drives the articulated robot 110 and the moving mechanism 120 to move the illumination camera unit 130 along the inspection target S while maintaining the posture shown in FIG. To move.
  • the posture of the illumination camera unit 130 is controlled so that the axis R13 (the central axis of the illumination camera unit 130) matches the perpendicular H of the surface of the inspection target S. ..
  • the lamp control unit 142 turns on the second lamp 133 and turns off the first lamp 132 and the third lamp 134, as shown in FIG. 6.
  • the camera control unit 143 causes the line sensor camera 135 of the illumination camera unit 130 moving along the inspection target S to perform an imaging operation at an appropriate timing (details will be described later), and causes the line sensor camera 135 to scan the inspection target S. Let it run. In the scanning with the regular reflection illumination, the optical axis L2 of the second lamp 133 and the optical axis L4 of the line sensor camera 135 which are turned on are each inclined by 20 degrees in the opposite direction with respect to the perpendicular line H.
  • the line sensor camera 135 receives the illumination light emitted from the second lamp 133 and specularly reflected by the surface of the inspection target S. That is, the line sensor camera 135 images (scans) the inspection target S that is specularly illuminated.
  • the drive control unit 141 drives the articulated robot 110 and the moving mechanism 120 to move the illumination camera unit 130 to the inspection target S while maintaining the posture shown in FIG. Move along.
  • the posture of the illumination camera unit 130 is set so that the axis R13 (the central axis of the illumination camera unit 130) is inclined 10 degrees with respect to the perpendicular H of the surface of the inspection target S. Is controlled.
  • the lamp control unit 142 turns on the third lamp 134 and turns off the first lamp 132 and the second lamp 133.
  • the camera control unit 143 causes the line sensor camera 135 of the illumination camera unit 130 that moves along the inspection target S to perform an imaging operation at appropriate timing, and causes the line sensor camera 135 to scan the inspection target S.
  • the optical axis L3 of the lit third lamp 134 is inclined by 60 degrees with respect to the vertical line H, and the optical axis L4 of the line sensor camera 135 is with respect to the vertical line H. It is tilted 30 degrees in the opposite direction.
  • the line sensor camera 135 receives the illumination light emitted from the third lamp 134 and reflected by the surface of the inspection target S. That is, the line sensor camera 135 images (scans) the inspection target S in the reflection dark field.
  • the drive control unit 141 drives the articulated robot 110 and the moving mechanism 120, and maintains the illumination camera unit 130 in the posture and the like shown in FIG. Move along.
  • the axis R13 center axis of the illumination camera unit 130
  • the lamp control unit 142 turns on the first lamp 132 and turns off the second lamp 133 and the third lamp 134.
  • the camera control unit 143 causes the line sensor camera 135 of the illumination camera unit 130 that moves along the inspection target S to perform an imaging operation at appropriate timing, and causes the line sensor camera 135 to scan the inspection target S.
  • the optical axis L1 of the first lamp 132 that is turned on is tilted by 40° from the vertical line H
  • the optical axis L4 of the line sensor camera 135 is in the same direction as the optical axis L1 from the vertical line H. It is tilted at 60°.
  • the line sensor camera 135 receives the illumination light emitted from the first lamp 132 and reflected by the surface of the inspection target S. That is, the line sensor camera 135 images (scans) the inspection target S in the same direction dark field.
  • the positional relationship between the line sensor camera 135 and the lamp (first lamp 132 or third lamp 134) that illuminates the inspection target is different between the same-direction dark field illumination and the reflected dark field illumination.
  • the optical axis L4 of the line sensor camera 135 and the optical axis L1 of the first lamp 132 are inclined in the same direction with respect to the perpendicular H
  • the optical axis L4 of the line sensor camera 135 and the The optical axis L3 of the 3 lamp 134 is different in that it is inclined in the opposite direction with the perpendicular line H in between.
  • the image inspection apparatus 100 scans each of the first to fourth paths with regular reflection illumination, then scans each of the first to fourth paths with reflective dark field illumination, and then , Scanning is performed in each of the first to fourth paths by dark field illumination in the same direction.
  • FIG. 9 shows the first route K1.
  • the illumination camera unit 130 located above and on the left side of the inspection object S is moved from top to bottom (see the solid line), and then slid to the right (see the broken line), and then from the bottom to the top. (See the solid line), then slide to the right (see the broken line), and thereafter, the movement in the vertical direction (see the solid line) and the slide to the right (see the broken line) are repeated.
  • the drive control unit 141 controls the articulated robot 110 and the moving mechanism 120 so that the longitudinal direction of the first to third lamps 132 to 134 of the illumination camera unit 130 is orthogonal to the vertical direction (traveling direction during scanning).
  • the line sensor camera 135 is moved along the first route K1 in a direction in which the line sensor camera 135 is positioned lower than the first lamp 132 to the third lamp 134.
  • the drive control unit 141 notifies the camera control unit 143 of periods (start timing and end timing) for moving the illumination camera unit 130 from top to bottom and from bottom to top.
  • the camera control unit 143 controls the line sensor camera 135 according to the notification, and causes the line sensor camera 135 to perform an image capturing operation during a period in which the illumination camera unit 130 is moved from the upper side to the lower side and from the lower side to the upper side.
  • the surface of the inspection object S illuminated by any of the first lamp 132 to the third lamp 134 is scanned by the line sensor camera 135.
  • the camera control unit 143 controls the line sensor camera 135 so that scanning is not performed when the illumination camera unit 130 is slid to the right. That is, the line sensor camera 135 scans in the solid line portion of the first path K1, and does not scan in the broken line portion. The same applies to the second to fourth paths K2 to K4, which will be described later, and scanning is performed in the solid line portion and scanning is not performed in the broken line portion.
  • the line sensor camera 135 sequentially outputs image data of a line image for one line for each wavelength band during scanning.
  • FIG. 10 shows the second route K2.
  • the second route K2 is a route for moving the illumination camera unit 130 located below and on the right side of the inspection target S in the direction opposite to the first route K1.
  • the drive controller 141 controls the illumination camera unit 130 such that the longitudinal direction of the first lamp 132 to the third lamp 134 is orthogonal to the vertical direction (the traveling direction during scanning), and the first lamp 132 to the third lamp 134.
  • the direction in which the line sensor camera 135 is positioned above that is, the positional relationship between each lamp and the line sensor camera 135 with respect to a predetermined direction (here, for example, the vertical direction) of the surface of the inspection target S is the first path K1.
  • the vehicle is moved along the second route K2.
  • the second route K2 may be the same route as the first route K1 (however, the positional relationship between each lamp and the line sensor camera 135 in the predetermined direction is opposite to that of the first route K1).
  • FIG. 11 shows the third route K3.
  • the illumination camera unit 130 located on the left side and the upper side of the inspection target S is moved from left to right (see a solid line), and then is slid downward (see a broken line), and then from right to left. (See the solid line), then slide downward, and thereafter, the movement in the left-right direction (see the solid line) and the downward slide (see the broken line) are repeated.
  • the drive control unit 141 controls the illumination camera unit 130 such that the longitudinal direction of the first lamp 132 to the third lamp 134 is orthogonal to the left-right direction (the traveling direction during scanning) and the first lamp 132 to the third lamp 134.
  • the line sensor camera 135 is moved along the third route K3 in the direction in which the line sensor camera 135 is located on the right side.
  • FIG. 12 shows the fourth route K4.
  • the fourth route K4 is a route for moving the illumination camera unit 130 located on the right side and the lower side of the inspection target S in the direction opposite to the third route K3.
  • the drive control unit 141 controls the illumination camera unit 130 such that the longitudinal direction of the first lamp 132 to the third lamp 134 is orthogonal to the left-right direction (the traveling direction during scanning) and the first lamp 132 to the third lamp 134.
  • the line sensor camera 135 is positioned on the left side (that is, the position of each lamp and the line sensor camera 135 with respect to the predetermined direction of the surface of the inspection target S (here, for example, the vertical direction or the horizontal direction) The relationship is opposite to that of the third route K3), and the vehicle is moved along the fourth route K4.
  • the fourth route K4 may be the same route as the third route K3 (however, the positional relationship between the respective lamps of the first lamp 132 to the third lamp 134 and the line sensor camera 135 in the predetermined direction is The reverse of the third route K3).
  • the image inspection unit 144 sequentially receives image data of line images sequentially output from the line sensor camera 135 during scanning, and stores the image data in the storage unit 145.
  • the image inspection unit 144 has a storage unit 145 at a predetermined timing (for example, a timing at which scanning of one solid line portion on the paths K1 to K4 is completed, which is notified from the drive control unit 141 and the camera control unit 143).
  • the image data stored in (1) is combined (combination of a plurality of line images obtained by scanning one solid line portion) to generate one captured image.
  • the line sensor camera 135 outputs each line image in the narrowest wavelength band possible by the line sensor camera 135 (note that line images in all wavelength bands may be output, or one of them may be output).
  • the line sensor camera 135 here may be a hyperspectral camera capable of outputting a line image in a wavelength band (band) of 100 or more (in particular, any number from 100 to 600).
  • the image inspecting unit 144 combines image data of the same wavelength band (a plurality of line images obtained by scanning one solid line portion) to obtain one imaged image (one image captured by scanning the line sensor camera 135). Of the captured image) is generated.
  • the image inspection unit 144 is the same as the drawing area provided in the RAM or the like of the storage unit 145 when the line sensor camera 135 scans from the top to the bottom in the scanning on the first path K1, for example.
  • the line images in the wavelength band are arranged from the top to the bottom in order from the oldest one to generate one captured image (this generation is performed for each wavelength band). For example, when the line sensor camera 135 performs scanning from the bottom to the top in the scanning on the first path K1, the image inspection unit 144, in the drawing region provided in the RAM or the like of the storage unit 145, has the same wavelength band. Line images are arranged in order from the oldest one from the bottom to the top (this generation is performed for each wavelength band). Accordingly, if the respective lamps and the line sensor camera 135 have the same positional relationship with respect to the predetermined direction, the same captured image can be obtained regardless of the scanning direction of the line sensor camera 135.
  • the illumination directions of the first lamp 132 to the third lamp 134 are different, so that different captured images are obtained ( Especially for dark field illumination). That is, different captured images are obtained on the first route K1 and the second route K2, and different captured images are obtained on the third route K3 and the fourth route K4.
  • the image inspection unit 144 separately generates a captured image for each of the three illumination modes (regular reflection illumination, reflected darkfield illumination, same-direction darkfield illumination) and each of the first to fourth routes (the same). Even with the route, different captured images are obtained for each illumination mode).
  • the image inspecting unit 144 combines image data from the line sensor camera 135 for each wavelength band such as wavelength band A, wavelength band B,... Generate an image. As a result, as shown in FIG. 13, a captured image in the wavelength band A, a captured image in the wavelength band B, a captured image in the wavelength band C,... Thereafter, as shown in FIG. 13, the image inspection unit 144 synthesizes the captured images of different wavelength bands to generate a captured image of a desired wavelength band. The combination is performed, for example, by averaging the brightness of pixels at the same position.
  • the desired wavelength band is preset or set by the user via the input unit 160. When set by the user, the user specifies a desired wavelength band.
  • the image inspection unit 144 for example, as shown in FIG.
  • the image inspection unit 144 generates image data of each of the generated captured images (the captured image before combining (the captured image of the wavelength band A and the like) and the combined captured image (each captured image of the wavelength bands A and B)). Are stored in the storage unit 145. Each of the above image data is stored, for example, when a captured image is generated. When synthesizing the captured images, the image inspection unit 144 reads the captured image before the synthesis from the storage unit 145 and performs the synthesis.
  • the image inspection unit 144 may include a plurality of captured images generated as described above (only the captured images after combination may be used, or an appropriate combination of the captured image before combination and the captured image after combination may be used). It may be only the previous captured image, or may be a plurality of some captured images of all captured images before or after combination.) The image inspection is performed for each (FIG. 13). See also). For example, the image inspection unit 144 performs image processing such as edge enhancement on one captured image stored in the storage unit 145, and then performs binarization processing.
  • the defective portion In the reflective dark-field illumination and the same-direction dark-field illumination, the defective portion reflects the illumination light diffusely or the like and is reflected toward the line sensor camera 135, so that the defective portion appears bright in the captured image. Therefore, as the binarization threshold value, a value that makes the defect portion white is prepared (preliminarily set by an experiment or the like).
  • the image inspecting unit 144 performs a labeling process on black (in regular reflection illumination) or white (in reflection darkfield illumination and same-direction darkfield illumination) pixels in the binarized image to collect a collection of black or white pixels. Is determined to be defective, the area is determined to be defective.
  • the image inspection method for example, pattern matching in which a template image showing a defect shape is prepared in advance may be adopted.
  • the image inspection unit 144 includes an illumination mode (regular reflection illumination, reflected dark field illumination, or co-directional dark field illumination) and a path of the illumination camera unit 130 (first path K1 to fourth path K4). ), the image inspection is individually performed on each of the plurality of captured images based on the plurality of captured images having different wavelength bands.
  • the image inspection unit 144 determines that any one of the captured images is defective, it is determined that the inspection target S (the inspection target S scanned by the line sensor camera 135) is defective. For example, the fact is displayed on the display unit 140.
  • the image inspection unit 144 may store the captured image determined to have a defect (detection of a defect) in the storage unit 145 in order to make it a sample later.
  • the image inspection unit 144 may output a voice (warning sound or the like) indicating that there is a defect through a speaker or the like.
  • the image inspection apparatus 100 scans the illumination camera unit 130 in the same region of the inspection object S with a plurality of modes (first route K1 to fourth route K4) by the line sensor camera, it is possible to determine whether there is a defect.
  • High inspection accuracy defect detection accuracy
  • the defect may not be conspicuous and may not be detected. This is especially true for co-directional dark field illumination and reflective dark field illumination. This is because, for example, the defect may or may not reflect the illumination light toward the line sensor camera 135 depending on the incident angle and the incident direction of the illumination light on the surface of the inspection target S.
  • the illumination and scanning in a plurality of modes there is a high possibility that the defect can be detected in any one of the plurality of modes, and thus the image inspection apparatus 100 has a high inspection accuracy of the presence or absence of a defect.
  • the image inspection apparatus 100 illuminates the inspection target S with a plurality of illumination modes (regular reflection illumination, reflected dark field illumination, same direction dark field illumination), and performs scanning by the line sensor camera in each illumination mode.
  • the inspection accuracy of presence/absence of defects is high.
  • the illumination mode suitable for defect inspection may differ depending on the defect type. For example, the defect of the abnormal film thickness due to the pin and the line-shaped defect are easily detected by regular reflection illumination. This is because these defects have a different film thickness from the surroundings, and thus the interference of the light is likely to occur. Also, these defects may not regularly reflect the illumination light.
  • Defects of the remaining cleaning liquid or foreign matter, defects caused by abnormal formation of a part of the color filter layer or the black matrix layer, and the like are easily detected by reflected dark field illumination or dark field illumination in the same direction.
  • illumination light is diffusely reflected, and the defect caused by the malformation is caused by the difference in the refractive index between the defective part (the part formed on the malformation) and the non-defective part in the protective film. This is because the illumination light may be reflected toward the line sensor camera 135.
  • the presence or absence of various defects can be inspected, and thus the inspection accuracy for the presence or absence of defects (defect detection accuracy) is high.
  • the illumination mode can be changed only by turning on/off the first lamp 132 to the third lamp 134 and changing the direction of the illumination camera unit 130, the change is easy. Further, for example, when there is only one lamp that illuminates the inspection target S, it is necessary to move the lamp each time the lighting mode is changed, but in this case, an error may occur in the position each time the lamp is moved. In the above, since the first lamp 132 to the third lamp 134 and the line sensor camera 135 are fixed to the base 131 and their positional relationship is immovable, such an error does not occur and an accurate image inspection is performed. It can be performed.
  • the illumination camera unit 130 may be applied to another image inspection device.
  • the image inspection device 100 inspects the color filter substrate as the inspection target S, the inspection of the color filter substrate, which has been conventionally performed visually, can be automated.
  • a multispectral camera is adopted as the line sensor camera 135, and image inspection is performed for each different wavelength band, so that the inspection accuracy of the presence or absence of a defect (defect detection accuracy) is increased.
  • defects are detected by utilizing light interference, but depending on the wavelength, light interference (especially illumination light reflected on the upper surface of a transparent protective film, protective film and color filter layer, etc. Interference with the illumination light reflected at the boundary of) does not occur in some cases. Therefore, by performing an image inspection for each of a plurality of wavelength bands, it is easy to detect a defect and the inspection accuracy of the presence or absence of a defect (defect detection accuracy) is high.
  • the line sensor camera 135 outputs a line image in the narrowest wavelength band that the line sensor camera 135 can output, and the image inspection unit 144 combines the picked-up images based on the line image into a plurality of wavelength bands different from each other.
  • a desired captured image is generated.
  • the wavelength band can be specified by the user through the input unit 160, so that a captured image of a wavelength band suitable for defect inspection can be obtained (for example, the user can grasp the wavelength band suitable for defect inspection through experiments, etc., You can specify the wavelength band).
  • the plurality of desired picked-up images can include picked-up images in the wavelength band suitable for the defect inspection by including those in which the wavelength bands partially overlap.
  • the image inspection unit 144 individually performs image processing on captured images of different illumination modes, different paths, and different wavelength bands to inspect whether there is a defect, and when even one defect is determined to be an inspection target. Since it is determined that S has a defect, the process for determining whether there is a defect is simple. Further, since the same image processing is performed on each captured image and the presence/absence of a defect is inspected based on the captured image, the process of presence/absence of a defect is simplified.
  • the inspection target S may be a panel-shaped one (which may be a quadrangular shape, an elliptical shape, a circular shape, or a polygonal shape), and for example, a transparent electrode on a glass base material that constitutes a liquid crystal display device or the like. It may be a substrate provided with. Further, the inspection target S may be, for example, a liquid crystal display device or the like in which various circuits are provided on a glass base material and a protective film is formed. Note that when there is a formation abnormality in the various circuits (for example, when the width of a certain portion is narrower than intended), as in the case of providing the color filter layer or the black matrix layer, the protective film due to the formation abnormality is formed. Defects can occur.
  • the inspection object S may be a silicon wafer having a predetermined film (for example, a transparent film) formed thereon.
  • the articulated robot may be a horizontal articulated robot.
  • the number of axes of the articulated robot is arbitrary, but it is preferable that the number of axes is 6 or more. By having 6 or more axes, the illumination camera unit 130 can be moved precisely.
  • the illumination mode is not limited to the above, and may be another illumination mode. Further, in each of the above illumination modes, the inclination (angle) of the optical axis L4 of the line sensor camera 135 with respect to the vertical line H of the surface of the inspection object S, and the first lamp 132 to the fourth lamp 132 with respect to the vertical line H of the surface of the inspection object S. The inclination of each of the optical axes L1 to L3 of 134 may be changed as appropriate.
  • the arrangement of the line sensor camera 135 and the like for regular reflection illumination is such that the angle of inclination of the optical axis L4 of the line sensor camera 135 and the inclination of the optical axis L2 of the second lamp 133 with respect to the perpendicular H of the surface of the inspection target S. It is sufficient that the line sensor camera 135 and the second lamp 133 are arranged opposite to each other with the perpendicular line H interposed therebetween.
  • the arrangement of the line sensor camera 135 and the like for the reflection dark-field illumination is determined by the inclination angle of the optical axis L4 of the line sensor camera 135 and the inclination of the optical axis L3 of the third lamp 134 with respect to the perpendicular H of the surface of the inspection object S.
  • the line sensor camera 135 and the second camera 133 have different angles and are located opposite to each other with the perpendicular line H interposed therebetween.
  • the line sensor camera 135 and the like for the same-direction dark field illumination are arranged such that the angle of inclination of the optical axis L4 of the line sensor camera 135 and the inclination of the optical axis L2 of the first lamp 132 with respect to the perpendicular H of the surface of the inspection target S.
  • the line sensor camera 135 and the first lamp 133 may be arranged in the same direction with respect to the perpendicular H.
  • the base 131 is an adjustment mechanism that adjusts the positional relationship between the line sensor camera 135 and the first lamp 132 to the fourth lamp 134 before the illumination camera unit 130 is moved to perform scanning (before image inspection). May be provided.
  • a slit hole 131CA is provided in the camera support portion 131C, and the line sensor camera 135 is attached to the camera support portion 131C by a screw 131D that passes through the slit hole 131CA and is screwed to the line sensor camera 135.
  • the screw 131D can be loosened to adjust the direction and position of the line sensor camera 135, and the screw 131D can be tightened to adjust the direction and position of the line sensor camera 135.
  • the first lamp 132 to the fourth lamp 134 it is preferable to provide a mechanism capable of adjusting the direction and position. As a result, the directions of the optical axes L1 to L4 can be finely adjusted.
  • the image inspection unit 144 may perform the image inspection based on only the captured image obtained by combining a plurality of line images. That is, the image inspection unit 144 does not have to generate the captured image in the desired wavelength band (it is not necessary to combine a plurality of captured images having different wavelength bands).
  • the image inspection is performed for each of the plurality of captured images having different wavelength bands.
  • one of the predetermined wavelength bands is used.
  • An image inspection may be performed based on the captured image (a multispectral camera may not be used). Scanning in a plurality of paths may be performed only in the reflection dark field illumination and/or the same direction dark field illumination, and in the case of specular reflection, scanning may be performed in a single path. By doing so, efficient defect inspection can be performed.
  • the reflective dark field illumination and/or the same-direction dark field illumination have different wavelength bands.
  • Image inspection may be performed on each of the plurality of captured images. Since it is assumed that there are defects that can be detected only in a certain path even in regular reflection illumination (such as a defect that appears dark only in a certain direction), it is preferable to perform scanning in a plurality of routes even in regular reflection illumination.
  • the illumination camera unit 130 may be driven by a driving device other than the articulated robot 110. At least a part of the plurality of illumination modes has a constant orientation of the line sensor camera 135 (angle of the optical axis L4 with respect to the vertical line H of the surface of the inspection target S) and a lamp to be turned on (provided in different orientations and positions). The above lamps may be different from the first lamp 132 to the third lamp 134). In at least a part of the plurality of illumination modes, the lamp to be turned on is common, and the direction of the line sensor camera 135 or the illumination camera unit 130 (the angle of the optical axis L4 with respect to the perpendicular H of the surface of the inspection target S) is different. May be.
  • a sensor for measuring the distance to the inspection target S is attached to the illumination camera unit 130, and the drive control unit 141 uses the sensor to measure the distance between the inspection target S and the illumination camera unit 130 during scanning of the inspection target S.
  • the multi-joint robot 110 may be controlled so that the value of x becomes constant.
  • one captured image may be generated by combining line images.
  • An image inspection device for example, an image inspection device 100 for inspecting a panel-shaped inspection target (for example, an inspection target S) for defects.
  • a line sensor camera for example, a line sensor camera 135) that scans the inspection target by sequentially imaging the inspection target while moving along the inspection target;
  • An articulated robot for example, an articulated robot 110
  • a drive control unit for example, a drive control unit 141) that drives the articulated robot and moves the line sensor camera along the inspection target;
  • Based on the image of the inspection target obtained by scanning by the line sensor camera for example, a line image, a captured image of a predetermined wavelength band that combines line images, a captured image that combines images of a plurality of wavelength bands
  • An image inspection unit for example, an image inspection unit 144) that performs an image inspection for inspecting the presence or absence of the defect,
  • An image inspection apparatus including.
  • the articulated robot is an articulated robot having six or more axes, You may do it.
  • An illumination lamp (for example, first lamp 132 to third lamp) that is supported by the multi-joint robot, moves with the line sensor camera by the multi-joint robot, and illuminates an area of the inspection target imaged by the line sensor camera.
  • Lamp 134) is further provided,
  • the drive control unit causes the same area of the inspection target (for example, a partial area of the inspection target S) to be fixed by the line sensor camera along the surface of the inspection target of the line sensor camera and the illumination lamp.
  • the multi-joint robot is driven so that scanning is performed in each of a plurality of modes (for example, scanning on the first route K1 to the fourth route K4) having different positional relationships with respect to a direction (for example, a vertical direction or a horizontal direction),
  • the image inspection unit performs the image inspection on each image of the inspection target obtained by each scan in each of the plurality of modes, You may do it.
  • the illumination lamp is arranged in a position and an orientation for performing dark field illumination (for example, the second lamp 143), You may do it.
  • the plurality of modes include a first mode and a second mode (for example, scanning on a first path K1 and a second path K2) in which the line sensor cameras are traveling in the same direction or in opposite directions and the positional relationships are opposite to each other.
  • the traveling direction of the line sensor camera is a direction orthogonal to the first aspect and the second aspect, and the positional relationships are opposite to each other, a third aspect and a fourth aspect (for example, a third route K3 and a fourth route). Scanning with K4) and You may do it.
  • a fixing member (for example, a base 131) supported by the articulated robot and to which the line sensor camera is fixed,
  • a plurality of illumination lamps (for example, first lamp 132 to third lamp 134), which are fixed to the fixing member and each illuminate a region of the inspection target imaged by the line sensor camera, are further provided.
  • the plurality of illumination lamps, each optical axis of the plurality of illumination lamps are fixed to the fixing member at a position and an orientation inclined at different angles with respect to the optical axis of the line sensor camera,
  • the drive control unit scans the same area of the inspection target by the line sensor camera a plurality of times (for example, specular reflection illumination, reflection dark field illumination, and same direction dark field illumination scanning) to control the articulated robot.
  • the plurality of scans includes two or more times of scanning in which the illumination lamps to be turned on among the plurality of illumination lamps are different (for example, one of the first lamp 132 to the third lamp 134 is turned on).
  • the image inspection unit performs the image inspection on each image obtained by each of the plurality of scans, You may do it.
  • the drive control unit changes the angle of the optical axis of the line sensor camera with respect to a vertical line (for example, a vertical line H) of the surface of the inspection target in each of two or more times of the plurality of scans.
  • a vertical line for example, a vertical line H
  • same-direction dark field illumination, specular reflection illumination, and reflection dark field illumination driving the articulated robot, You may do it.
  • the plurality of illumination lamps are located at positions where dark field illumination (for example, dark field illumination in the same direction) is performed on an optical axis that is inclined in the same direction as the optical axis of the line sensor camera with respect to a perpendicular to the surface of the inspection target.
  • dark field illumination for example, dark field illumination in the same direction
  • a first illumination lamp for example, the first lamp 132 or the like
  • a second illumination lamp for example, the second lamp 133 or the like
  • a third illumination lamp provided at a position for performing dark-field illumination (for example, reflection dark-field illumination) with an optical axis that is inclined in a direction opposite to the optical axis of the line sensor camera with respect to a perpendicular to the surface of the inspection target ( (Eg, third lamp 134, etc.), You may do it.
  • the fixing member includes an adjusting mechanism (for example, a slit hole 131CA and a screw 131D) that adjusts a positional relationship between the line sensor camera and the plurality of illumination lamps. You may do it.
  • an adjusting mechanism for example, a slit hole 131CA and a screw 131D
  • the inspection target is a substrate (for example, a color filter substrate) in which a film (for example, a transparent film) is formed on the surface of a panel-shaped substrate (for example, a glass substrate), You may do it.
  • a substrate for example, a color filter substrate
  • a film for example, a transparent film
  • An image inspection apparatus for inspecting an inspection target for the presence or absence of defects, A multi-spectral camera (for example, a line sensor camera 135) for imaging the inspection target, A plurality of images of different wavelength bands obtained by imaging the inspection target with the multispectral camera (for example, captured images of wavelength bands A to B, captured images of wavelength bands A to C, and wavelength bands C to F). .., etc. All the picked-up images in the wavelength bands A, B, C,... F, or a plurality of picked-up images of some of these may be used.) An image inspection unit (for example, an image inspection unit 144) that performs an image inspection to inspect the presence or absence of the defect, An image inspection apparatus including.
  • a multi-spectral camera for example, a line sensor camera 135) for imaging the inspection target
  • a plurality of images of different wavelength bands obtained by imaging the inspection target with the multispectral camera for example, captured images of wavelength bands A to B, captured images of wavelength bands A to C, and wavelength bands C to F). .., etc. All the picked
  • the image inspection unit performs the image inspection by performing the same image processing on each of the plurality of images, You may do it.
  • the plurality of images include two or more first images in which the wavelength bands partially overlap (for example, captured images in wavelength bands A to B, captured images in wavelength bands A to C, and wavelength bands C to F). (Captured image) is included You may do it.
  • the image inspection unit displays a plurality of second images each having a wavelength band narrower than the wavelength band of the first image (for example, each captured image of wavelength bands A, B, C,... F). Acquiring and combining the plurality of second images to generate the first image (see, for example, FIG. 13 ), You may do it.
  • the image inspection unit determines that the inspection target has a defect when a defect is detected in any of the plurality of images, You may do it.
  • the inspection target is a substrate
  • the multi-spectral camera images the inspection target by receiving specular reflection light from the inspection target
  • the image inspection unit inspects the presence or absence of a defect for each of the plurality of images obtained by the multi-spectral camera receiving the specular reflection light, You may do it.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Biochemistry (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Pathology (AREA)
  • Immunology (AREA)
  • Engineering & Computer Science (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Quality & Reliability (AREA)
  • Theoretical Computer Science (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)

Abstract

第1ランプ~第3ランプ及びラインセンサカメラを有する照明カメラユニットを多関節ロボットにより移動させる。画像検査部は、例えば、波長帯A及びBの撮像画像を組み合わせ、波長帯A~Cの各撮像画像を組み合わせ、波長帯C~Fの撮像画像を組みあわせる。その後、画像検査部は、前記で生成した複数の撮像画像それぞれについて画像検査を行う。画像検査部は、波長帯が異なる各撮像画像それぞれに基づいて、各撮像画像それぞれについて個別に画像検査を行う。画像検査部は、前記各撮像画像のうちのいずれか一つについて欠陥有りと判定した場合には、その検査対象に欠陥があるとして、例えば、表示部にその旨を表示する。

Description

画像検査装置
 本発明は、画像に基づいて検査対象の欠陥の有無を検査する画像検査装置に関する。
 従来から、画像に基づいて検査対象の欠陥の有無を検査する画像検査装置が開発されている。このような画像検査装置として、特許文献1には、検査対象の基板に対して、UV照射器204aとカメラ204bとを備える計測ヘッドを移動させて検査を行う技術が開示されている。
特開2016-038346号公報
 特許文献1に記載のUV照射器204aの代わりに可視光等を出射するランプを採用して、有機EL層を有する基板以外の検査対象の欠陥を検査することも考えられるが、欠陥の有無の検査精度が悪い場合がある。
 この発明は、欠陥の有無の検査精度が高い画像検査装置を提供することを目的とする。
 上記目的を達成するため、本発明の画像検査装置は、
 検査対象の欠陥の有無を検査する画像検査装置であって、
 検査対象を撮像するマルチスペクトルカメラと、
 前記マルチスペクトルカメラにより前記検査対象を撮像して得られる、波長帯が異なる複数の画像それぞれごとに前記欠陥の有無を検査する画像検査を行う画像検査部と、
 を備える。
 本発明によれば、欠陥の有無の検査精度が高い画像検査装置を提供することができる。
本発明の一実施形態に係る画像検査装置の構成図である。 多関節ロボットなどを示す概略図である。 照明カメラユニットの斜視図である。 照明カメラユニットを側方から見た図である。 ラインセンサカメラ(マルチスペクトルカメラ)の構成例を示す図である。 正反射照明を行うときの照明カメラユニットを側方から見た図である。 反射暗視野照明を行うときの照明カメラユニットを側方から見た図である。 同方向暗視野照明を行うときの照明カメラユニットを側方から見た図である。 照明カメラユニットの第1経路を示す図である。 照明カメラユニットの第2経路を示す図である。 照明カメラユニットの第3経路を示す図である。 照明カメラユニットの第4経路を示す図である。 撮像画像の組み合わせ例等を示す図である。 変形例に係る照明カメラユニットを側方から見た図である。 変形例に係る照明カメラユニットを側方から見た図である。
(本発明の一実施形態に係る画像検査装置100の構成)
 本発明の一実施形態に係る画像検査装置100は、図1に示す構成を有し、検査対象S(図2等)について欠陥の有無を検査する。ここでは、検査対象Sが、液晶表示パネルに使用されるカラーフィルタ基板であるものとする。画像検査装置100は、カラーフィルタ基板の製造工程において使用され、当該製造工程において欠陥の有無の検査を行う。
 ここで、画像検査装置100を詳細に説明する前に、カラーフィルタ基板の製造工程及び発生し得る欠陥について簡単に説明する。
 カラーフィルタ基板の製造工程では、まず、ガラス基板を上下方向に立てた複数のピンにより裏側から支持し、その後、ガラス基板の表面に、ブラックマトリクス層を形成する。その後、カラーフィルタ層を形成する。その後、保護膜を形成する。保護膜は、ディスペンサー等により保護膜の材料を塗布し、スキージにより平らにのばし、のばした材料を乾燥させることにより形成される。保護膜形成後は、当該保護膜を洗浄液(水、又は油など)で洗浄し、洗浄後に保護膜上に残留した洗浄液を空気で吹き飛ばす。これにより、カラーフィルタ基板が完成する。
 上記製造工程において、ガラス基板は複数のピンで支持されるため、当該ガラス基板の自重により、当該ガラス基板における、当該複数のピンそれぞれで支持される各部分のうちの少なくとも1つが湾曲することがある。具体的に、当該部分が、ピンにより上方に盛り上がるように湾曲してしまうことがある。このような湾曲部分の上に保護膜を形成すると、当該保護膜において、前記湾曲部分の上に設けられた部分の膜厚が、周囲の正常部分よりも薄くなってしまう。このような薄い部分は、膜厚が異常であり、欠陥の一種として扱われる。
 上記製造工程において、前記のスキージの先端に欠け又は異物があると、これらにより保護膜にスジ状の欠陥(所定方向に延びた凹部又は凸部)が生じてしまうことがある。保護膜の材料をインクジェットプリンタにより塗布してもよいが、この場合であっても、インクジェットヘッドのノズルの目詰まりにより、保護膜にスジ状の欠陥が生じてしまうこともある。
 上記製造工程において、保護膜の洗浄後に洗浄液を空気で吹き飛ばしたときに、その一部が残留してしまうこともある。この残留した洗浄液も欠陥の一種として扱われる。また、埃などの異物が保護膜に付着・残留し、異物の欠陥が発生してしまうこともある。
 上記製造工程では、カラーフィルタ層又はブラックマトリクス層の一部に形成異常が発生する場合がある。当該形成異常は、例えば、ある部分の幅が意図したものより狭い、ある部分のパターンのピッチがずれる、前記ある部分のパターン形状が崩れるなど、カラーフィルタ層又はブラックマトリクス層が所望の形状に形成されなかった場合に発生する。このような形成異常の上に保護膜を設けると、当該保護膜のうちの当該形成異常の部分の上に設けられた部分は、当該保護膜における正常部分とは屈折率等が異なり見え方が異なってしまうので、欠陥として扱われる。
 画像検査装置100は、上記各種の欠陥の有無を検査するための構成として、図1に示すように、多関節ロボット110と、移動機構120と、照明カメラユニット130と、制御部(コントローラ)140と、表示部150と、入力部160と、を備える。
 多関節ロボット110は、図2に示すように、6軸の垂直多関節ロボットであり、照明カメラユニット130を上下方向、左右方向(図2の紙面を貫く方向)、及び、前後方向に移動させることができ、さらに、照明カメラユニット130を回転させることもできる。このような移動ないし回転を実現するため、多関節ロボット110は、ベース111と、回転体112と、第1アーム(下腕)113と、第2アーム(上腕)114と、第3アーム(手首)115と、を備える。多関節ロボット110は、後述の各回転を行わせるための図示しない複数のモータも内蔵している。
 ベース111は、移動機構120の後述のスライド部材123に固定されている。回転体112は、ベース111に接続されており、当該ベース111に対して、軸R11を回転軸として回転する。軸R11は、上下方向に延びており、平面視したときの回転体112の中心を通っている。
 第1アーム113の一端部(図2では下端部)は、ベース111に接続されている。第1アーム113は、軸R21を回転軸として回転体112に対して回転可能に設けられている。軸R21は、第1アーム113の前記一端部を貫通し、軸R11に直交している。
 第2アーム114の一端部(図2では下端部)は、第1アーム113の他端部に接続されている。第2アーム114は、前記一端部を貫通し軸R21に平行な軸R22を回転軸として、第1アーム113に対して回転可能に設けられている。第2アーム114は、第2-1アーム114Aと、第2-2アーム114Bとを備える。第2-1アーム114Aが第1アーム113に接続されている。第2-2アーム114Bは、軸R12を回転軸として第2-1アーム114Aに対して回転可能に設けられている。軸R12は、第2アーム114が延びている方向(軸R22に直交する方向)に沿って延びており、前記延びている方向と直交する方向に第2アーム114を切った断面の中心を通っている。
 第3アーム115の一端部(図2では右端部)は、第2アーム114の他端部に接続されている。第3アーム115は、前記一端部を貫通し軸R12に直交する軸R23を回転軸として第2アーム114に対して回転可能に設けられている。第3アーム115は、第3-1アーム115Aと、第3-2アーム115Bとを備える。第3-1アーム115Aが第2アーム114に接続されている。第3-2アーム115Bは、軸R13を回転軸として第3-1アーム115Aに対して回転可能に設けられている。軸R13は、第3アーム115が延びている方向(軸R23に直交する方向)に沿って延びており、前記延びている方向に直交する方向に第3アーム115を切った断面の中心を通っている。第3-2アーム115Bには、照明カメラユニット130が固定されている。照明カメラユニット130は、後述のようにラインセンサカメラ135(図3及び図4など)を備え、支持装置Dにより直立状態で支持された検査対象Sの表面に沿って移動し、当該表面を撮像するためのものである。
 多関節ロボット110は、上記構成、特に、回転体112、第1アーム113~第3アーム115、第2-2アーム114B及び第3-2アーム115Bを回転させる構成等により、照明カメラユニット130を、上下方向、左右方向(図2の紙面を貫く方向)、及び、前後方向に移動させることができ、軸R13に回転させることができる。
 移動機構120は、多関節ロボット110を左右方向に移動させる機構である。移動機構120は、図2に示すように、ベース121と、レール122と、スライド部材123と、を備える。ベース121は、左右方向に沿って延びている。レール122は、ベース121上に配置されており、左右方向に沿って延びている。スライド部材123は、レール122と係合しており、レール122上を左右方向にスライド可能である。
 移動機構120は、上記部材の他に、スライド部材123を左右方向に移動させる移動装置(図示せず)を備える。移動装置としては、モータ及びボールネジを用いた装置、又は、プーリ、ベルト、及びモータを用いた装置などの適宜の装置を採用できる。スライド部材123には多関節ロボット110のベース111が固定されており、スライド部材123を左右方向に移動させることにより、多関節ロボット110を当該左右方向に移動させることができる。これにより、照明カメラユニット130の左右方向への移動範囲を、多関節ロボット110の位置が不動の場合よりも広げることができる。このような構成は、検査対象Sが左右方向に長尺な場合に特に有効である。なお、多関節ロボット110による照明カメラユニット130の左右方向への可動範囲が、検査対象Sよりも広ければ、移動機構120は不要である。
 照明カメラユニット130は、図1、図3、及び、図4などに示すように、ベース131と、第1ランプ132と、第2ランプ133と、第3ランプ134と、ラインセンサカメラ135と、を備える。なお、照明カメラユニット130のうち多関節ロボット110の第3-2アーム115B側の一端を後端といい、その逆の他端を先端ともいう(図3、図4など)。
 ベース131は、固定部131Aと、ランプ支持部131Bと、カメラ支持部131Cと、を備える。固定部131Aは、先後方向(先端-後端方向)に延びており、その後端が多関節ロボット110の第3-2アーム115Bに固定されている。固定部131Aの中心軸(照明カメラユニット130の中心軸でもある)は、軸R13と一致している。固定部131Aの先端部にはランプ支持部131Bが取り付けられている。ランプ支持部131Bは、一対の板状部材131BA、131BBと、3つの板状部材131BC~131BEと、から構成されている。一対の板状部材131BA、131BBは、先後方向に延びている。3つの板状部材131BC~131BEそれぞれは、先後方向に直交する方向に沿って延びており、一対の板状部材131BA、131BBに異なる位置で掛け渡され固定されている。板状部材131BCには第1ランプ132が固定され、板状部材131BDには第2ランプ133が固定され、板状部材131BEには第3ランプ134が固定されている。このようにして、第1ランプ132~第3ランプ134は、ランプ支持部131Bにより支持されている。固定部131Aの中央には、カメラ支持部131Cが固定されている。カメラ支持部131Cは、一対の板状部材を備え、当該板状部材によりラインセンサカメラ135を挟んで支持している。第1ランプ132~第3ランプ134と、ラインセンサカメラ135とは、照明カメラユニット130の移動中等に移動しないようかつ向きが変わらないよう、強固に固定・支持されている。
 第1ランプ132と、第2ランプ133と、第3ランプ134と、ラインセンサカメラ135とは、これらの各光軸L1~L4が一点で交わる位置及び向きでランプ支持部131B又はカメラ支持部131Cにより支持されている。第1ランプ132と、第2ランプ133と、第3ランプ134とは、互いに平行な長手方向(先後方向に直交する方向であり、図4における紙面を貫く方向)を有する帯状の光出射面132A、133A、又は、134Aを有する。第1ランプ132と、第2ランプ133と、第3ランプ134とのそれぞれは、前記長手方向に沿って配列された複数のLED、前記長手方向に沿って延びた蛍光管等を含んで構成され(適宜、出射する光の均一性等を確保するため、拡散板、導光板等を用いてもよい)、光出射面132A、133A、又は134Aから前記長手方向に沿って延びた帯状の照明光を出射し、検査対象Sの同一領域(帯状の領域)を照明可能である。
 第1ランプ132は、当該第1ランプ132の光軸L1が軸R13と一致する位置及び向きで支持されている。光軸L1は、第1ランプ132の光出射面132Aの中心を通りかつ光出射面132Aに直交した軸である。
 第2ランプ133は、当該第2ランプ133の光軸L2と光軸L1(軸R13)との間の角度θ1が20度となる位置及び向きで支持されている。光軸L2は、第2ランプ133の光出射面133Aの中心を通りかつ光出射面133Aに直交した軸である。
 第3ランプ134は、当該第3ランプ134の光軸L3と光軸L2との間の角度θ2が50度となる位置及び向きで支持されている。第3ランプ134は、第2ランプ133を挟んで第1ランプ132の反対側に配置されている。光軸L3は、第3ランプ134の光出射面134Aの中心を通りかつ光出射面134Aに直交した軸である。
 この実施の形態では、第1ランプ132~第3ランプ134のうちのいずれかを点灯させることで、複数態様の照明が可能となっている(詳細は後述)。
 ラインセンサカメラ135は、検査対象Sのうち、第1ランプ132から第3ランプ134のうちのいずれかにより照明された帯状の領域を、当該帯状の領域が延びた方向と同方向に延びたライン状に撮像し、当該検査対象Sのライン状の領域が写ったライン状の画像(一ライン分の撮像画像)を生成及び出力する。ここで、当該ライン状の画像をライン画像ともいう。ラインセンサカメラ135は、当該ラインセンサカメラ135の光軸L4と光軸L1(軸R13)との間の角度θ3が20度となる位置及び向きで支持されている。なお、ラインセンサカメラ135は、第1ランプ132を間に挟んで、第2ランプ133と第3ランプ134と反対側に配置されている。
 ラインセンサカメラ135は、マルチスペクトルカメラ(ハイパースペクトルカメラを含むものとする)でもある。マルチスペクトルカメラは、RGBの3つよりも多い数(例えば、10以上)の波長帯(バンド)のライン画像を得ることができるカメラである。なお、ラインセンサカメラ135は、100以上の波長帯のライン画像を生成することができるハイパースペクトルカメラであるとよい。ラインセンサカメラ135は、図5に示すように、レンズ135Aと、スリット部材135Bと、分光器135Cと、イメージセンサ135Dと、を備える。
 レンズ135Aは、集光レンズであり、第1ランプ132~第3ランプ134のうちのいずれかから出射され、検査対象Sで反射された照明光が入射する。入射した照明光は、レンズ135Aを透過して、スリット部材135Bに到達する。スリット部材135Bは、光出射面132A、133A、及び134Aの長手方向と平行な方向に延びたライン状のスリット135BAを備え、レンズ135Aを透過した照明光のうちの一部のみをスリット135BAを介して通過させる。スリット135BAを通過した照明光は、X方向(前記長手方向と平行な方向)に沿って延びたライン状の光である。このライン状の光は、検査対象Sのライン状部分で反射された光でもある。
 スリット135BAを通過した照明光(ライン状の光)は、グレーティング(回折格子)、レンズなどを備える光学系である分光器135CによりY方向に分光される。分光後の各光は、異なる波長帯の光である。分光後の各光の光量の波長分布は、ある波長をピークとして、上下に徐々に減っていく山形状の分布となっている。
 分光後の各波長帯の光は、イメージセンサ135Dにより受光され電気信号に変換される。イメージセンサ135Dとしては、CMOSイメージセンサ又はCCDイメージセンサなどを採用できる。イメージセンサ135Dは、受光した光を当該光の輝度を表す輝度データ(電気信号)に変換する複数の画素(フォトダイオードなど)135DAを備える。複数の画素135DAは、X方向及びY方向にマトリクス状に配置されている。X方向に一列に並んだ複数の画素135DAの集まりである受光部135DBそれぞれは、分光された複数の波長帯の光のうちの一の波長帯の光を受光する。つまり、Y方向における同じ位置でX方向に並んだ各画素135DA(一の受光部135DBが有する各画素135DA)により変換された各輝度データの集まりは、スリット135BAを通過したライン状の光のうちの一の波長帯のライン状の光のX方向上の輝度分布を示しており、当該一の波長帯の光の受光により得られる、前記検査対象Sのライン状の領域を撮像したライン画像を表す画像データでもある。当該ライン画像は、輝度データの集まりであるので、濃淡を示すグレースケールの画像でもある。X方向における同じ位置でY方向に並んだ各画素135DAにより変換された各輝度データの集まりは、検査対象Sのライン状の領域のある位置において反射された前記の照明光の波長帯ごとの輝度分布を示している。イメージセンサ135Dは、前記ライン画像の画像データを波長帯毎に制御部140に出力する。
 以上のような構成により、ラインセンサカメラ135は、前記検査対象Sで反射された照明光を複数の波長帯ごとに分光し、前記検査対象Sを前記複数の波長帯ごとに撮像した複数のライン画像(波長帯が異なる複数のライン画像)を生成する。なお、ラインセンサカメラ135は、検査対象Sに沿って移動しながら当該検査対象Sを順次撮像し(具体的には、一ラインごとに撮像し)、撮像毎により生成した一ライン分のライン画像の画像データそれぞれを順次出力する。前記のようにラインセンサカメラ135が検査対象Sに沿って移動しながら当該検査対象Sを順次撮像していくことを走査ともいう。前記移動しながらの撮像として、撮像時に移動を一時停止してもよい。つまり、ラインセンサカメラ135が移動しながら順次撮像していく態様として、ラインセンサカメラ135を連続的に移動させる態様の他、ラインセンサカメラ135が移動→一時停止して撮像→移動→一時停止して撮像を繰り返すことを採用してもよい。
 図1に戻り、制御部140は、駆動制御部141と、ランプ制御部142と、カメラ制御部143と、画像検査部144と、記憶部145と、を備える。例えば、駆動制御部141は、PLC(programmable logic controller)等により構成され、ランプ制御部142と、カメラ制御部143と、画像検査部144と、記憶部145と、は、1台のコンピュータ等により構成される。例えば、ランプ制御部142と、カメラ制御部143と、画像検査部144とは、記憶部145が記憶するプログラムを実行する、前記コンピュータのCPU等の各種プロセッサを含んで構成される。制御部140のハードウェア構成は、任意であり、例えば、駆動制御部141と、ランプ制御部142と、カメラ制御部143と、画像検査部144とのそれぞれを、別々のコンピュータ等により形成してもよいし、一台のコンピュータにより構成してもよい。記憶部145は、RAM(Random access memory)及びハードディスクなどから構成され、前記プログラムを記憶する他、駆動制御部141と、ランプ制御部142と、カメラ制御部143と、画像検査部144と、が使用するデータ等も記憶する。
 駆動制御部141は、多関節ロボット110及び移動機構120を制御する。ランプ制御部142は、照明カメラユニット130の第1ランプ132~第3ランプ134を制御する。カメラ制御部143は、照明カメラユニット130のラインセンサカメラ135を制御する。
 駆動制御部141は、多関節ロボット110を駆動し、例えば、回転体112、第1アーム113~第3アーム115、第2-2アーム114B、及び、第3-2アーム115Bそれぞれを回転させ、照明カメラユニット130を検査対象Sの表面に沿って移動させる。このとき、駆動制御部141は、移動機構120も適宜制御し、照明カメラユニット130を移動させる。ランプ制御部142は、照明カメラユニット130の移動時において、第1ランプ132~第3ランプ134のいずれかを点灯させる制御を行う。カメラ制御部143は、駆動制御部141により移動するラインセンサカメラ135に、検査対象Sを順次撮像させ(走査させ)、撮像ごとに前記ラインセンサカメラ135により生成されるライン画像(一ライン分の画像)の画像データを画像検査部144に出力させる。画像データは、複数の波長帯それぞれで個別に出力される。
 画像検査部144は、ラインセンサカメラ135から順次出力される複数のライン画像の画像データを順次受け取り、順次受け取った画像データを組み合わせ、一枚の撮像画像を生成する。当該一枚の撮像画像は、同じ波長帯の複数のライン画像を組み合わせることで生成される。その後、画像検査部144は、異なる波長帯の撮像画像同士を組み合わせ、所望の波長帯の撮像画像を生成する。画像検査部144は、異なる波長帯のライン画像同士を組みあわせ、組み合わせ後のライン画像同士を組みあわせて前記一枚の撮像画像を生成することにより前記所望の波長帯の撮像画像を生成してもよい。
 画像検査部144は、生成した一枚の撮像画像(前記所望の波長帯の撮像画像も含む。)に基づき、欠陥の有無の検査(画像検査)を実行する。当該検査は、波長帯の異なる複数枚の撮像画像それぞれごとに行われる(つまり、複数枚の撮像画像それぞれに対して個別に行われる)。画像検査部144は、複数枚の撮像画像のうち、少なくとも1枚の撮像画像で欠陥を検出した場合、検査の結果として検査対象に欠陥有りと判定する。画像検査の方法は、適宜の方法を採用すればよい。
 表示部150は、液晶ディスプレイなどを含んで構成されており、制御部140の制御のもとで、画像検査部144による検査の結果などを表示する。表示部150は、所定の入力画面(後述の波長帯の入力画面)なども表示する。
 入力部160は、マウス及びキーボード、又は、タッチパネル等からなり、例えば、画像検査部144が、異なる波長帯の撮像画像(ライン状又は一枚の画像)を組み合わせる際の、前記の所望の波長帯を指定するためのユーザの操作を受け付ける。
(画像検査装置100の動作)
(ラインセンサカメラ135による走査)
 画像検査装置100では、ラインセンサカメラ135による検査対象Sの走査は、複数の態様にて行われる。具体的に、画像検査装置100では、正反射照明(図6)での走査、反射暗視野照明(図7)での走査、及び、同方向暗視野照明(図8)での走査を行う。さらに、上記3つの走査それぞれについて、第1経路から第4経路での走査(図9~図12)が行われる。なお、上記各走査において、駆動制御部141は、照明カメラユニット130の光軸L1~L4の交点が検査対象Sの表面上に位置するよう、多関節ロボット110及び移動機構120を制御し、照明カメラユニット130を移動させる。また、上記各走査では、第1ランプ132~第3ランプ134のいずれかからの照明光のみで、検査対象Sが照明されるよう、第1ランプ132~第3ランプ134のいずれかが点灯し、かつ、照明カメラユニット130等の周囲は遮光される。
(正反射照明での走査)
 正反射照明での走査を行う際、駆動制御部141は、多関節ロボット110及び移動機構120を駆動し、照明カメラユニット130を、図6に示す姿勢等を維持しながら、検査対象Sに沿って移動させる。正反射照明での走査では、図6に示すように、軸R13(照明カメラユニット130の中心軸)が検査対象Sの表面の垂線Hと一致するよう、照明カメラユニット130の姿勢が制御される。正反射照明での走査において、ランプ制御部142は、図6に示すように、第2ランプ133を点灯させ、第1ランプ132及び第3ランプ134を消灯させる。カメラ制御部143は、検査対象Sに沿って移動する照明カメラユニット130のラインセンサカメラ135に適宜のタイミング(詳細は後述)で撮像動作を行わせ、ラインセンサカメラ135に検査対象Sの走査を実行させる。正反射照明での走査では、点灯している第2ランプ133の光軸L2とラインセンサカメラ135の光軸L4とのそれぞれが垂線Hに対して反対方向に20度傾いている。ラインセンサカメラ135は、第2ランプ133が出射し、検査対象Sの表面が正反射した照明光を受光する。つまり、ラインセンサカメラ135は、正反射照明された検査対象Sを撮像(走査)する。
(反射暗視野照明での走査)
 反射暗視野照明での走査を行う際、駆動制御部141は、多関節ロボット110及び移動機構120を駆動し、照明カメラユニット130を、図7に示す姿勢等を維持しながら、検査対象Sに沿って移動させる。反射暗視野照明での走査では、図7に示すように、軸R13(照明カメラユニット130の中心軸)が検査対象Sの表面の垂線Hに対して10度傾くよう、照明カメラユニット130の姿勢が制御される。反射暗視野照明での走査において、ランプ制御部142は、第3ランプ134を点灯させ、第1ランプ132及び第2ランプ133を消灯させる。カメラ制御部143は、検査対象Sに沿って移動する照明カメラユニット130のラインセンサカメラ135に適宜のタイミングで撮像動作を行わせ、ラインセンサカメラ135に検査対象Sの走査を実行させる。反射暗視野照明での走査では、点灯している第3ランプ134の光軸L3が垂線Hに対して60度傾いており、ラインセンサカメラ135の光軸L4が垂線Hに対して光軸L3とは反対方向に30度傾いている。ラインセンサカメラ135は、第3ランプ134が出射し、検査対象Sの表面が反射した照明光を受光する。つまり、ラインセンサカメラ135は、反射暗視野にて検査対象Sを撮像(走査)する。
(同方向暗視野照明での走査)
 同方向暗視野照明での走査を行う際、駆動制御部141は、多関節ロボット110及び移動機構120を駆動し、照明カメラユニット130を、図8に示す姿勢等を維持しながら、検査対象Sに沿って移動させる。同方向暗視野照明での走査では、図8に示すように、軸R13(照明カメラユニット130の中心軸)が検査対象Sの表面の垂線Hに対して40度傾くよう、照明カメラユニット130の姿勢が制御される。同方向暗視野照明での走査において、ランプ制御部142は、第1ランプ132を点灯させ、第2ランプ133及び第3ランプ134を消灯させる。カメラ制御部143は、検査対象Sに沿って移動する照明カメラユニット130のラインセンサカメラ135に適宜のタイミングで撮像動作を行わせ、ラインセンサカメラ135に検査対象Sの走査を実行させる。同方向暗視野照明での走査では、点灯している第1ランプ132の光軸L1が垂線Hから40°傾いており、ラインセンサカメラ135の光軸L4が垂線Hから光軸L1と同方向に60°傾いている。ラインセンサカメラ135は、第1ランプ132が出射し、検査対象Sの表面が反射した照明光を受光する。つまり、ラインセンサカメラ135は、同方向暗視野にて検査対象Sを撮像(走査)する。同方向暗視野照明と反射暗視野照明とは、ラインセンサカメラ135と検査対象を照明するランプ(第1ランプ132又は第3ランプ134)との位置関係が異なる。具体的に、前者は、ラインセンサカメラ135の光軸L4と第1ランプ132の光軸L1とが、垂線Hに対して同じ方向に傾いている一方、ラインセンサカメラ135の光軸L4と第3ランプ134の光軸L3とが、垂線Hを挟んで反対方向に傾いている点で相違している。
(第1経路~第4経路での走査)
 画像検査装置100は、正反射照明で第1経路~第4経路の各経路での走査を行ったあと、反射暗視野照明で第1経路~第4経路の各経路での走査を行い、その後、同方向暗視野照明で第1経路~第4経路の各経路での走査を行う。
(第1経路)
 図9に第1経路K1を示す。第1経路K1は、検査対象Sの上方かつ左側に位置する照明カメラユニット130を、上から下に移動(実線参照)させ、その後、右方向にスライド(破線参照)させ、その後、下から上に移動させ(実線参照)、その後、右方向にスライド(破線参照)させ、以降、当該上下方向への移動(実線参照)及び右方向へのスライド(破線参照)を繰り返す経路である。駆動制御部141は、多関節ロボット110及び移動機構120を制御し、照明カメラユニット130を、第1ランプ132~第3ランプ134の長手方向が上下方向(走査時の進行方向)と直交し、かつ、第1ランプ132~第3ランプ134よりもラインセンサカメラ135の方が下方に位置する向きで、第1経路K1に沿って移動させる。駆動制御部141は、照明カメラユニット130を上から下及び下から上に移動させる期間(開始タイミング及び終了タイミング)をカメラ制御部143に通知する。カメラ制御部143は、前記通知に従って、ラインセンサカメラ135を制御し、照明カメラユニット130を上から下及び下から上に移動させる期間において、ラインセンサカメラ135に撮像動作を行わせ、これにより、第1ランプ132~第3ランプ134のいずれかにより照明された検査対象Sの表面をラインセンサカメラ135により走査する。カメラ制御部143は、照明カメラユニット130を右方向へスライド移動させるときは、走査を行わないようラインセンサカメラ135を制御する。つまり、ラインセンサカメラ135は、第1経路K1における実線部分において走査を行い、破線部分では走査を行わない。後述の第2経路K2~第4経路K4についても同様で、実線部分では走査が行われ、破線部分では走査が行われない。ラインセンサカメラ135は、走査時に、一ライン分のライン画像の画像データを波長帯ごとに個別に順次出力していく。
(第2経路)
 図10に第2経路K2を示す。第2経路K2は、検査対象Sの下方かつ右側に位置する照明カメラユニット130を、第1経路K1とは逆方向に移動させる経路である。駆動制御部141は、照明カメラユニット130を、第1ランプ132~第3ランプ134の長手方向が上下方向(走査時の進行方向)と直交し、かつ、第1ランプ132~第3ランプ134よりもラインセンサカメラ135の方が上方に位置する向き(つまり、各ランプとラインセンサカメラ135との検査対象Sの表面の所定方向(ここでは、例えば、上下方向)に対する位置関係が第1経路K1と逆の態様)で、第2経路K2に沿って移動させる。なお、第2経路K2は、第1経路K1と同じ経路であってもよい(但し、各ランプとラインセンサカメラ135との前記所定方向に対する位置関係は、第1経路K1と逆とする)。
(第3経路)
 図11に第3経路K3を示す。第3経路K3は、検査対象Sの左方かつ上側に位置する照明カメラユニット130を、左から右に移動(実線参照)させ、その後、下方にスライド(破線参照)させ、その後、右から左に移動させ(実線参照)、その後、下方にスライドさせ、以降、当該左右方向への移動(実線参照)及び下方へのスライド(破線参照)を繰り返す経路である。駆動制御部141は、照明カメラユニット130を、第1ランプ132~第3ランプ134の長手方向が左右方向(走査時の進行方向)と直交し、かつ、第1ランプ132~第3ランプ134よりもラインセンサカメラ135の方が右側に位置する向きで、第3経路K3に沿って移動させる。
(第4経路)
 図12に第4経路K4を示す。第4経路K4は、検査対象Sの右方かつ下側に位置する照明カメラユニット130を、第3経路K3とは逆方向に移動させる経路である。駆動制御部141は、照明カメラユニット130を、第1ランプ132~第3ランプ134の長手方向が左右方向(走査時の進行方向)と直交し、かつ、第1ランプ132~第3ランプ134よりもラインセンサカメラ135の方が左側に位置する向き(つまり、各ランプとラインセンサカメラ135との検査対象Sの表面の所定方向(ここでは、例えば、上下方向。左右方向としてもよい)に対する位置関係が第3経路K3と逆の態様)で、第4経路K4に沿って移動させる。なお、第4経路K4は、第3経路K3と同じ経路であってもよい(但し、第1ランプ132~第3ランプ134の各ランプとラインセンサカメラ135との前記所定方向に対する位置関係は、第3経路K3と逆とする)。
(画像の生成)
 画像検査部144は、ラインセンサカメラ135から走査時に順次出力されるライン画像の画像データを順次受け取り、記憶部145に格納していく。画像検査部144は、所定のタイミング(例えば、経路K1~K4における一つの実線部分の走査が終了したタイミング。駆動制御部141及びカメラ制御部143から通知されるものとする)で、記憶部145に格納した画像データを組み合わせ(一つの実線部分の走査で得られた複数のライン画像を組み合わせ)、一枚の撮像画像を生成する。ラインセンサカメラ135は、当該ラインセンサカメラ135が可能な最も狭い波長帯にて各ライン画像を出力するものとする(なお、全ての波長帯のライン画像を出力してもよいし、そのうちの一部の波長帯のライン画像を出力してもよい)。ここでのラインセンサカメラ135は、100以上(特に、100~600のうちのいずれかの数)の波長帯(バンド)のライン画像を出力できるハイパースペクトルカメラであるとよい。画像検査部144は、同じ波長帯の画像データ同士(一つの実線部分の走査で得られた複数のライン画像)を組み合わせ、一枚の撮像画像(ラインセンサカメラ135の走査により撮像された一枚の撮像画像)を生成する。画像検査部144は、例えば、第1経路K1での走査で、上から下に向けてラインセンサカメラ135による走査が行われたときには、記憶部145のRAM等に設けられた描画領域に、同じ波長帯のライン画像を古いものから順に上から下に配置し、一枚の撮像画像を生成する(この生成は、波長帯ごとに行われる)。画像検査部144は、例えば、第1経路K1での走査で、下から上にラインセンサカメラ135により走査が行われたときには、記憶部145のRAM等に設けられた描画領域に、同じ波長帯のライン画像を古いものから順に下から上に配置していく(この生成は、波長帯ごとに行われる)。これにより、各ランプとラインセンサカメラ135との前記所定方向に対する位置関係が同じであれば、ラインセンサカメラ135の走査方向によらず、同じ撮像画像が得られる。なお、前記位置関係が異なる場合には、ラインセンサカメラ135の走査方向が同じであっても、第1ランプ132~第3ランプ134による照明方向が異なるので異なる撮像画像が得られることになる(特に、暗視野照明の場合)。つまり、第1経路K1と第2経路K2とでは、異なる撮像画像が得られ、第3経路K3と第4経路K4とでも、異なる撮像画像が得られる。画像検査部144は、上記3つの照明態様(正反射照明、反射暗視野照明、同方向暗視野照明)それぞれ、及び、第1経路~第4経路それぞれについて、別々に撮像画像を生成する(同じ経路であっても、照明態様毎に異なる撮像画像が得られる)。
 画像検査部144は、例えば、波長帯A、波長帯B・・・・などの各波長帯それぞれについてラインセンサカメラ135からの画像データを組み合わせ、1回の走査について波長帯の異なる複数枚の撮像画像を生成する。これにより、図13に示すように、波長帯Aの撮像画像、波長帯Bの撮像画像、波長帯Cの撮像画像・・・・などの各波長帯の撮像画像が得られる。その後、画像検査部144は、図13に示すように、異なる波長帯の撮像画像を合成し、所望の波長帯の撮像画像を生成する。合成は、例えば、同じ位置の画素の輝度を平均化することにより行われる。前記所望の波長帯は、予め設定されるか、入力部160を介してユーザにより設定される。ユーザにより設定される場合には、ユーザが所望の波長帯を指定する。画像検査部144は、例えば、図13に示すように、波長帯A及びBの各撮像画像を合成し、波長帯A~Cの各撮像画像を合成し、波長帯C~Fの各撮像画像を合成する。これにより、図13に示すように、波長帯A~Bの撮像画像、波長帯A~Cの撮像画像、波長帯C~Fの撮像画像の3つの撮像画像などが得られる。このようにして、画像検査部144は、ラインセンサカメラ135が出力する画像データに基づく撮像画像よりも波長帯が広い又は一部重複する撮像画像を生成することができる。なお、画像検査部144は、生成した各撮像画像(合成前の撮像画像(波長帯Aの撮像画像等)及び合成後の撮像画像(波長帯A~Bの各撮像画像等))の画像データを記憶部145に格納する。前記の画像データそれぞれは、例えば、撮像画像生成時に格納される。画像検査部144は、撮像画像の合成時に、合成前の撮像画像を記憶部145から読み出し、合成を行う。
(画像検査)
 画像検査部144は、前記で生成した複数の撮像画像(合成後の撮像画像のみであってもよいし、合成前の撮像画像及び合成後の撮像画像の適宜の組み合わせであってもよい。合成前の撮像画像のみとしてもよい。また、合成前又は合成後の撮像画像の全ての撮像画像のうちの一部の複数の撮像画像であってもよい。)それぞれについて画像検査を行う(図13も参照)。例えば、画像検査部144は、記憶部145に格納した一の撮像画像に対して、エッジ強調等の画像処理を行い、その後、2値化処理を行う。上記正反射照明では、欠陥が生じた部分で他の正常な部分とは異なる光の干渉(例えば、透明な保護膜の上面で反射した照明光と、保護膜とカラーフィルタ層などとの境界で反射した照明光との光の干渉)等が生じ、又は、欠陥が生じた部分で照明光が正反射されず、撮像画像において当該欠陥が生じた部分が例えば暗く写る。このため、2値化の閾値としては、欠陥の部分が黒となる値を用意する(実験等により予め設定しておく)。上記反射暗視野照明及び同方向暗視野照明では、欠陥が生じた部分が照明光を乱反射等してラインセンサカメラ135に向けて反射するため、撮像画像において当該欠陥が生じた部分が明るく写る。このため、2値化の閾値としては、欠陥の部分が白となる値を用意する(実験等により予め設定しておく)。画像検査部144は、2値化後の画像における黒(正反射照明時)又は白(反射暗視野照明及び同方向暗視野照明時)の画素についてラベリング処理を行い、黒又は白の画素の集まりが所定の面積以上となった場合に、欠陥有りと判定する。なお、画像検査の方法として、例えば、欠陥形状を示すテンプレート画像を予め用意したパターンマッチング等を採用してもよい。
 画像検査部144は、照明態様(正反射照明であるか、反射暗視野照明であるか、同方向暗視野照明であるか)、照明カメラユニット130の経路(第1経路K1~第4経路K4)、波長帯が異なる複数の撮像画像それぞれに基づいて、当該複数の撮像画像それぞれについて個別に前記画像検査を行う。画像検査部144は、前記各撮像画像のうちのいずれか一つについて欠陥有りと判定した場合には、その検査対象S(ラインセンサカメラ135により走査を行った検査対象S)に欠陥があるとして、例えば、表示部140にその旨を表示する。また、画像検査部144は、欠陥有りと判定した(欠陥を検出した)撮像画像を、後のサンプル等にするため、記憶部145に格納するとよい。画像検査部144は、スピーカー等を介して欠陥有りと判定した旨の音声(警告音等)を出力してもよい。
(実施形態上の効果)
 この実施の形態では、第1ランプ132~第3ランプ134及びラインセンサカメラ135を有する照明カメラユニット130を多関節ロボット110により移動させるので、照明カメラユニット130を移動させる機構がコンパクトとなっている。
 また、画像検査装置100は、照明カメラユニット130を検査対象Sの同一領域に対して複数態様(第1経路K1から第4経路K4)にてラインセンサカメラによる走査を行うので、欠陥の有無の検査精度(欠陥の検出精度)が高い。第1ランプ132~第3ランプ134からの照明光の検査対象Sへの入射方向によっては、欠陥が目立たず検出できない場合がある。これは、特に、同方向暗視野照明、反射暗視野照明について言える。例えば、検査対象Sの表面に対する照明光の入射角及び入射方向に応じて、欠陥が照明光をラインセンサカメラ135に向けて反射できたり、反射できなかったりするからである。複数態様での照明及び走査により、前記複数態様のいずれかで欠陥を検出できる可能性が高くなり、従って、画像検査装置100では、欠陥の有無の検査精度が高くなっている。
 また、画像検査装置100は、検査対象Sを複数の照明態様(正反射照明、反射暗視野照明、同方向暗視野照明)で照明し、各照明態様でラインセンサカメラによる走査を行うので、欠陥の有無の検査精度(欠陥の検出精度)が高い。上記欠陥の種類によって、欠陥の検査に適した照明態様が異なる場合がある。例えば、上記ピンによる膜厚異常の欠陥、及び、スジ状の欠陥は、正反射照明により検出しやすい。これら欠陥は膜厚が周囲とは異なることになるので、前記光の干渉が生じやすいためである。また、これら欠陥は、照明光を正反射しないこともあるからである。残留した洗浄液又は異物の欠陥、上記カラーフィルタ層又はブラックマトリクス層の一部に形成異常が発生したことに起因する欠陥などは、反射暗視野照明や同方向暗視野照明により検出しやすい。前者の欠陥では、照明光を乱反射等し、前記形成異常に起因する欠陥は、保護膜における欠陥部分(形成異常の上に形成された部分)と非欠陥部分との屈折率の違い等により、照明光をラインセンサカメラ135の方向に反射することがあるからである。検出対象Sを照明する照明態様を複数用意することで、種々の欠陥の有無を検査でき、これにより、欠陥の有無の検査精度(欠陥の検出精度)が高くなっている。
 また、照明態様の変更を、第1ランプ132~第3ランプ134の点灯・非点灯及び照明カメラユニット130の向きを変更するだけで行うことができるので、当該変更が容易となっている。また、例えば、検査対象Sを照明するランプが一つの場合、照明態様の変更のたびにランプを動かす必要があるが、この場合、ランプを動かす度にその位置に誤差が生じ得る。上記では、第1ランプ132~第3ランプ134及びラインセンサカメラ135は、ベース131に固定されており、これらの位置関係は不動であるので、このような誤差が生じず、精度のよい画像検査を行うことができる。なお、照明カメラユニット130は、他の画像検査装置に適用してもよい。
 画像検査装置100は、検査対象Sとしてのカラーフィルタ基板を検査するので、従来目視で行っていたカラーフィルタ基板の検査を自動化できる。
 また、上記では、ラインセンサカメラ135として、マルチスペクトルカメラを採用し、異なる波長帯毎に画像検査を行うことにより、欠陥の有無の検査精度(欠陥の検出精度)が高くなっている。例えば正反射照明の場合、光の干渉を利用して欠陥を検出するが、波長によっては光の干渉(特に、透明な保護膜の上面で反射した照明光と、保護膜とカラーフィルタ層などとの境界で反射した照明光とが打ち消し合う干渉)が起こらない場合もある。そのため、複数の波長帯それぞれについて画像検査を行うことで、欠陥を検出しやすく、欠陥の有無の検査精度(欠陥の検出精度)が高くなっている。
 また、ラインセンサカメラ135は、当該ラインセンサカメラ135が出力可能な最も狭い波長帯のライン画像を出力し、画像検査部144は、当該ライン画像に基づく撮像画像を組み合わせ、波長帯が異なる複数の所望の撮像画像を生成する。前記波長帯は、入力部160によりユーザが指定可能なので、欠陥検査に適した波長帯の撮像画像を得ることができる(例えば、ユーザは、実験等により欠陥検査に適した波長帯を把握でき、その波長帯を指定できる)。また、複数の所望の撮像画像は、一部波長帯が重複するものを含むことで、欠陥検査に適した波長帯の撮像画像を得ることができる。
 また、画像検査部144は、異なる照明態様、異なる経路、及び、異なる波長帯の各撮像画像について個別に画像処理を行い欠陥の有無を検査し、1つでも欠陥有りと判定したときには、検査対象Sに欠陥があると判定するので、欠陥の有無の処理が簡単になっている。また、各撮像画像について、同じ画像処理を施して、当該撮像画像に基づく欠陥の有無の検査を行うので、欠陥の有無の処理が簡単になっている。
(変形例)
 本発明は、上記実施の形態に限定されない。上記実施の形態について種々の変更を施してもよい。
(変形例1)
 検査対象Sは、パネル状のもの(四角形状でも、楕円形、円形、多角形状であってもよい)であればよく、例えば、液晶表示装置などを構成する、ガラス製の基材に透明電極を設けた基板であってもよい。また、検査対象Sは、液晶表示装置などを構成する、ガラス製の基材に各種回路を設け、保護膜を形成したものなどであってもよい。なお、前記各種回路に形成異常があったとき(例えばある部分の幅が意図したものより狭いなどのとき)は、カラーフィルタ層又はブラックマトリクス層を設ける場合と同様、当該形成異常による保護膜の欠陥が生じ得る。また、検査対象Sは、シリコンウェハーに所定の膜(例えば透明膜)を形成したものなどであってもよい。
(変形例2)
 多関節ロボットは、水平多関節ロボットであってもよい。また、多関節ロボットの軸数は、任意であるが、6軸以上であることが好ましい。6軸以上であることにより、照明カメラユニット130を精密に移動させることができる。
(変形例3)
 照明の態様は、上記に限らず他の照明の態様であってもよい。また、上記各照明態様における、検査対象Sの表面の垂線Hに対するラインセンサカメラ135の光軸L4の傾き(角度)、及び、検査対象Sの表面の垂線Hに対する第1ランプ132~第4ランプ134の光軸L1~L3それぞれの傾きは、適宜変更してもよい。なお、正反射照明のためのラインセンサカメラ135等の配置は、検査対象Sの表面の垂線Hに対する、ラインセンサカメラ135の光軸L4の傾きの角度と第2ランプ133の光軸L2の傾きの角度とが同じで、ラインセンサカメラ135と第2ランプ133とが前記垂線Hを挟んで反対に位置する配置であればよい。反射暗視野照明のためのラインセンサカメラ135等の配置は、検査対象Sの表面の垂線Hに対する、ラインセンサカメラ135の光軸L4の傾きの角度と第3ランプ134の光軸L3の傾きの角度とが異なり、ラインセンサカメラ135と第2カメラ133とが前記垂線Hを挟んで反対に位置する配置であればよい。同方向暗視野照明のためのラインセンサカメラ135等の配置は、検査対象Sの表面の垂線Hに対する、ラインセンサカメラ135の光軸L4の傾きの角度と第1ランプ132の光軸L2の傾きの角度とが異なり、ラインセンサカメラ135と第1ランプ133とが前記垂線Hに対して同方向に位置する配置であればよい。
(変形例4)
 ベース131は、ラインセンサカメラ135と、第1ランプ132~第4ランプ134と、の位置関係を、照明カメラユニット130を移動させて走査を行う前(画像検査を行う前)に調整する調整機構を備えてもよい。例えば、図14及び15に示すように、カメラ支持部131Cにスリット孔131CAを設け、当該スリット孔131CAを通りラインセンサカメラ135に螺号するネジ131Dによりラインセンサカメラ135をカメラ支持部131Cに取り付ける。これにより、ネジ131Dをゆるめ、ラインセンサカメラ135の向きや位置を調整し、ネジ131Dを締めることにより、ラインセンサカメラ135の向きや位置を調整できる。第1ランプ132~第4ランプ134についても同様に、向きや位置を調整できる機構を設けるとよい。これにより、各光軸L1~L4の向き等を微調整できる。
(変形例5)
 画像検査部144は、複数のライン画像を組みあわせた撮像画像のみに基づいて画像検査を行ってもよい。つまり、画像検査部144は、前記所望の波長帯の撮像画像を生成しなくてもよい(上記波長帯の異なる複数の撮像画像を合成しなくてもよい)。
(変形例6)
 上記では、3つの照明態様すべてにおいて、波長帯の異なる複数の撮像画像それぞれについて画像検査を行っているが、反射暗視野照明及び/又は同方向暗視野照明については、所定の波長帯の1つの撮像画像に基づいて画像検査を行ってもよい(マルチスペクトルカメラを使用しなくてもよい)。複数経路にて走査を行うのは、反射暗視野照明及び/又は同方向暗視野照明のみとして、正反射については単一の経路にて走査を行ってもよい。これらのようにすることで、効率の良い欠陥検査が可能となる。
 反射暗視野照明及び/又は同方向暗視野照明でも、波長帯に応じて、撮像画像に写りやすい欠陥がある場合もあるので、反射暗視野照明及び/又は同方向暗視野照明でも波長帯の異なる複数の撮像画像それぞれについて画像検査を行うとよい。正反射照明においても、ある経路でのみ検出できる欠陥があることが想定されるので(ある方向でのみ暗く写る欠陥など)、正反射照明においても、複数経路での走査を行うとよい。
(変形例7)
 照明カメラユニット130は、多関節ロボット110以外の駆動装置により駆動させてもよい。複数の照明態様のうち少なくとも一部の照明態様は、ラインセンサカメラ135の向き(検査対象Sの表面の垂線Hに対する光軸L4の角度)を一定とし、点灯させるランプ(異なる向き及び位置に設けられたランプ。上記では第1ランプ132~第3ランプ134)を異ならせたものでもよい。複数の照明態様のうち少なくとも一部の照明態様は、点灯させるランプは共通で、ラインセンサカメラ135ないし照明カメラユニット130の向き(検査対象Sの表面の垂線Hに対する光軸L4の角度)が異なってもよい。
(変形例8)
 照明カメラユニット130に、検査対象Sとの距離を測定するためのセンサを取り付け、駆動制御部141は、検査対象Sに対する走査時において、当該センサにより、検査対象Sと照明カメラユニット130との距離が一定になるよう、多関節ロボット110を制御してもよい。
(変形例9)
 照明カメラユニット130側にて、ライン画像を組みあわせて一枚の撮像画像を生成するようにしてもよい。
(本明細書で開示する構成)
 本明細書で開示する構成を以下に列挙する。なお、下記(A)及び(B)の各構成は、互いに組みあわせてもよい。
(A)パネル形状の検査対象(例えば、検査対象S)の欠陥の有無を検査する画像検査装置(例えば、画像検査装置100)であって、
 前記検査対象に沿って移動しながら前記検査対象を順次撮像していくことで前記検査対象を走査するラインセンサカメラ(例えば、ラインセンサカメラ135)と、
 前記ラインセンサカメラを支持する多関節ロボット(例えば、多関節ロボット110)と、
 前記多関節ロボットを駆動し、前記ラインセンサカメラを前記検査対象に沿って移動させる駆動制御部(例えば、駆動制御部141)と、
 前記ラインセンサカメラによる走査により得られる前記検査対象の画像(例えば、ライン画像、ライン画像を組みあわせた所定の波長帯の撮像画像、複数の波長帯の画像を組みあわせた撮像画像)に基づいて前記欠陥の有無を検査する画像検査を行う画像検査部(例えば、画像検査部144)と、
 を備える画像検査装置。
 前記多関節ロボットは、六軸以上の多関節ロボットである、
 ようにしてもよい。
 前記多関節ロボットにより支持され、前記多関節ロボットにより前記ラインセンサカメラとともに移動し、前記検査対象のうち前記ラインセンサカメラにより撮像される領域を照明する照明ランプ(例えば、第1ランプ132~第3ランプ134)をさらに備え、
 前記駆動制御部は、前記検査対象の同一領域(例えば、検査対象Sの一部の領域)を、前記ラインセンサカメラにより、前記ラインセンサカメラ及び前記照明ランプの前記検査対象の表面に沿った一定方向(例えば、上下方向又は左右方向)に対する位置関係が異なる複数態様(例えば、第1経路K1~第4経路K4での走査)それぞれにて走査するよう、前記多関節ロボットを駆動し、
 前記画像検査部は、前記複数態様それぞれでの各走査により得られる前記検査対象の画像それぞれに対して前記画像検査を行う、
 ようにしてもよい。
 前記照明ランプは、暗視野照明を行う位置及び向きで配置されている(例えば、第2ランプ143)、
 ようにしてもよい。
 前記複数態様は、前記ラインセンサカメラの進行方向が同方向又は逆方向で前記位置関係が互いに逆の第1態様及び第2態様(例えば、第1経路K1及び第2経路K2での走査)と、前記ラインセンサカメラの進行方向が前記第1態様及び前記第2態様と直交する方向であり、前記位置関係が互いに逆の第3態様及び第4態様(例えば、第3経路K3及び第4経路K4での走査)と、を含む、
 ようにしてもよい。
 前記多関節ロボットにより支持され、かつ、前記ラインセンサカメラが固定された固定部材(例えば、ベース131)と、
 前記固定部材に固定されており、それぞれが前記検査対象のうち前記ラインセンサカメラにより撮像される領域を照明する複数の照明ランプ(例えば、第1ランプ132~第3ランプ134)と、をさらに備え、
 前記複数の照明ランプは、当該複数の照明ランプの各光軸が前記ラインセンサカメラの光軸に対して異なる角度で傾く位置及び向きで前記固定部材に固定されており、
 前記駆動制御部は、前記検査対象の同一領域を、前記ラインセンサカメラにより複数回走査するよう(例えば、正反射照明、反射暗視野照明、同方向暗視野照明による走査)、前記多関節ロボットを駆動し、
 前記複数回の走査には、前記複数の照明ランプのうち点灯させる照明ランプが異なる2回以上の回数の走査が含まれ(例えば、第1ランプ132~第3ランプ134のいずれかを点灯させる)、
 前記画像検査部は、前記複数回の走査それぞれにより得られる各画像それぞれに対して前記画像検査を行う、
 ようにしてもよい。
 前記駆動制御部は、前記複数回の走査のうちの2回以上の回数の走査それぞれにて、前記ラインセンサカメラの光軸の前記検査対象の表面の垂線(例えば、垂線H)に対する角度が異なるよう(例えば、同方向暗視野照明、正反射照明、反射暗視野照明)、前記多関節ロボットを駆動する、
 ようにしてもよい。
 前記複数の照明ランプは、前記検査対象の表面の垂線に対して前記ラインセンサカメラの光軸と同じ方向に傾いた光軸にて暗視野照明(例えば、同方向暗視野照明)を行う位置に設けられた第1照明ランプ(例えば、第1ランプ132など)と、正反射照明(例えば、正反射照明)を行う位置に設けられた第2照明ランプ(例えば、第2ランプ133など)と、前記検査対象の表面の垂線に対して前記ラインセンサカメラの光軸と反対方向に傾いた光軸にて暗視野照明(例えば、反射暗視野照明)を行う位置に設けられた第3照明ランプ(例えば、第3ランプ134など)と、を含む、
 ようにしてもよい。
 前記固定部材は、前記ラインセンサカメラと前記複数の照明ランプとの位置関係を調整する調整機構(例えば、スリット孔131CA及びネジ131Dなど)を備える、
 ようにしてもよい。
 前記検査対象は、パネル状の基材(例えば、ガラス基板)の表面に膜(例えば、透明膜)が形成された基板(例えば、カラーフィルタ基板)である、
 ようにしてもよい。
(B)検査対象の欠陥の有無を検査する画像検査装置であって、
 検査対象を撮像するマルチスペクトルカメラ(例えば、ラインセンサカメラ135)と、
 前記マルチスペクトルカメラにより前記検査対象を撮像して得られる、波長帯が異なる複数の画像(例えば、波長帯A~Bの撮像画像、波長帯A~Cの撮像画像、及び、波長帯C~Fの撮像画像・・・など。波長帯A、B、C・・・F・・・の各撮像画像すべて又はこれらのうちの一部の複数枚の撮像画像であってもよい。)それぞれごとに前記欠陥の有無を検査する画像検査を行う画像検査部(例えば、画像検査部144)と、
 を備える画像検査装置。
 前記画像検査部は、前記複数の画像それぞれについて同じ画像処理を行うことにより前記画像検査を行う、
 ようにしてもよい。
 前記複数の画像には、前記波長帯が一部重複する2以上の第1画像(例えば、波長帯A~Bの撮像画像、波長帯A~Cの撮像画像、及び、波長帯C~Fの撮像画像)が含まれる、
 ようにしてもよい。
 前記画像検査部は、前記第1画像の波長帯よりも狭い幅の波長帯の複数の第2画像(例えば、波長帯A、B、C・・・F・・・の各撮像画像それぞれ)を取得し、当該複数の第2画像を組み合わせることで、前記第1画像を生成する(例えば、図13参照)、
 ようにしてもよい。
 前記画像検査部は、前記複数の画像のいずれかにおいて欠陥を検出した場合に前記検査対象に欠陥があると判別する、
 ようにしてもよい。
 前記検査対象は、基板であり、
 前記マルチスペクトルカメラは、前記検査対象からの正反射光を受光することで前記検査対象を撮像し、
 前記画像検査部は、前記マルチスペクトルカメラが前記正反射光を受光して得られる前記複数の画像それぞれごとに欠陥の有無を検査する、
 ようにしてもよい。
 本発明は、本発明の広義の精神と範囲を逸脱することなく、様々な実施の形態及び変形が可能とされるものである。また、上述した実施の形態は、この発明を説明するためのものであり、本発明の範囲を限定するものではない。すなわち、本発明の範囲は、実施の形態ではなく、特許請求の範囲によって示される。そして、特許請求の範囲内及びそれと同等の発明の意義の範囲内で施される様々な変形が、この発明の範囲内とみなされる。
 100・・・画像検査装置、110・・・多関節ロボット、120・・・移動機構、130・・・照明カメラユニット、131・・・ベース、132・・・第1ランプ、133・・・第2ランプ、134・・・第3ランプ、140・・・制御部、141・・・駆動制御部、142・・・ランプ制御部、143・・・カメラ制御部、144・・・画像検査部、145・・・記憶部、150・・・表示部、160・・・入力部、L1~L4・・・光軸、R11~R13,R21~R23・・・軸

Claims (6)

  1.  検査対象の欠陥の有無を検査する画像検査装置であって、
     検査対象を撮像するマルチスペクトルカメラと、
     前記マルチスペクトルカメラにより前記検査対象を撮像して得られる、波長帯が異なる複数の画像それぞれごとに前記欠陥の有無を検査する画像検査を行う画像検査部と、
     を備える画像検査装置。
  2.  前記画像検査部は、前記複数の画像それぞれについて同じ画像処理を行うことにより前記画像検査を行う、
     請求項1に記載の画像検査装置。
  3.  前記複数の画像には、前記波長帯が一部重複する2以上の第1画像が含まれる、
     請求項1又は2に記載の画像検査装置。
  4.  前記画像検査部は、前記第1画像の波長帯よりも狭い幅の波長帯の複数の第2画像を取得し、当該複数の第2画像を組み合わせることで、前記第1画像を生成する、
     請求項3に記載の画像検査装置。
  5.  前記画像検査部は、前記複数の画像のいずれかにおいて欠陥を検出した場合に前記検査対象に欠陥があると判別する、
     請求項1~4のいずれか1項に記載の画像検査装置。
  6.  前記検査対象は、基板であり、
     前記マルチスペクトルカメラは、前記検査対象からの正反射光を受光することで前記検査対象を撮像し、
     前記画像検査部は、前記マルチスペクトルカメラが前記正反射光を受光して得られる前記複数の画像それぞれごとに欠陥の有無を検査する、
     請求項1~5のいずれか1項に記載の画像検査装置。
PCT/JP2019/002541 2019-01-25 2019-01-25 画像検査装置 WO2020152866A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
PCT/JP2019/002541 WO2020152866A1 (ja) 2019-01-25 2019-01-25 画像検査装置
JP2020567346A JPWO2020152866A1 (ja) 2019-01-25 2019-01-25
KR1020217018638A KR20210118063A (ko) 2019-01-25 2019-01-25 화상 검사 장치
TW108104432A TW202028729A (zh) 2019-01-25 2019-02-11 影像檢查裝置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/002541 WO2020152866A1 (ja) 2019-01-25 2019-01-25 画像検査装置

Publications (1)

Publication Number Publication Date
WO2020152866A1 true WO2020152866A1 (ja) 2020-07-30

Family

ID=71736708

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/002541 WO2020152866A1 (ja) 2019-01-25 2019-01-25 画像検査装置

Country Status (4)

Country Link
JP (1) JPWO2020152866A1 (ja)
KR (1) KR20210118063A (ja)
TW (1) TW202028729A (ja)
WO (1) WO2020152866A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024094298A1 (en) * 2022-11-02 2024-05-10 Abb Schweiz Ag Surface inspection apparatus and method

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI751734B (zh) * 2020-10-08 2022-01-01 鴻績工業股份有限公司 檢測裝置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004354097A (ja) * 2003-05-27 2004-12-16 Starlabo Corp スペクトル画像化装置
JP2005274155A (ja) * 2004-03-22 2005-10-06 Olympus Corp 欠陥検査装置
JP2006165352A (ja) * 2004-12-08 2006-06-22 Dkk Toa Corp 半導体外観検査装置
JP2007322209A (ja) * 2006-05-31 2007-12-13 Tokyo Seimitsu Co Ltd 外観検査装置及び外観検査方法
EP3339998A1 (en) * 2016-12-21 2018-06-27 G.D. S.p.A System and method of inspection of a wrapping material
JP2018185269A (ja) * 2017-04-27 2018-11-22 Ckd株式会社 検査装置、ptp包装機及びptpシートの製造方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3971943B2 (ja) * 2002-03-26 2007-09-05 アイエスオーエー、 インク 光学的検査方法及び光学的検査システム
JP2008076218A (ja) * 2006-09-21 2008-04-03 Olympus Corp 外観検査装置
JP6425939B2 (ja) 2014-08-08 2018-11-21 東京エレクトロン株式会社 検査装置および検査方法
JP6520451B2 (ja) * 2015-06-19 2019-05-29 株式会社デンソー 外観撮影装置及び外観撮影方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004354097A (ja) * 2003-05-27 2004-12-16 Starlabo Corp スペクトル画像化装置
JP2005274155A (ja) * 2004-03-22 2005-10-06 Olympus Corp 欠陥検査装置
JP2006165352A (ja) * 2004-12-08 2006-06-22 Dkk Toa Corp 半導体外観検査装置
JP2007322209A (ja) * 2006-05-31 2007-12-13 Tokyo Seimitsu Co Ltd 外観検査装置及び外観検査方法
EP3339998A1 (en) * 2016-12-21 2018-06-27 G.D. S.p.A System and method of inspection of a wrapping material
JP2018185269A (ja) * 2017-04-27 2018-11-22 Ckd株式会社 検査装置、ptp包装機及びptpシートの製造方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024094298A1 (en) * 2022-11-02 2024-05-10 Abb Schweiz Ag Surface inspection apparatus and method

Also Published As

Publication number Publication date
KR20210118063A (ko) 2021-09-29
JPWO2020152866A1 (ja) 2020-07-30
TW202028729A (zh) 2020-08-01

Similar Documents

Publication Publication Date Title
JP5546103B2 (ja) 透明又は反射部品を制御するための装置
US20110310244A1 (en) System and method for detecting a defect of a substrate
US20100091272A1 (en) Surface inspection apparatus
JP4847128B2 (ja) 表面欠陥検査装置
TWI557434B (zh) 照明系統
JP5489186B2 (ja) 表面検査装置
CN104102029A (zh) 液晶面板检查装置
US20200378899A1 (en) Glass processing apparatus and methods
WO2020152866A1 (ja) 画像検査装置
WO2020152865A1 (ja) 画像検査装置
JP2017040510A (ja) 検査装置、検査方法および物体製造方法
KR20070081079A (ko) 반사율 측정 장치, 반사율 측정 방법 및 표시 패널의 제조방법
JP2020041800A (ja) 外観検査装置及び検査システム
JP2009097977A (ja) 外観検査装置
JP2000131037A (ja) 物体形状検査装置
TWI817991B (zh) 光學系統,照明模組及自動光學檢測系統
KR20160121716A (ko) 하이브리드 조명 기반 표면 검사 장치
TWI711816B (zh) 一種檢驗物件的系統及方法
JP6463382B2 (ja) 検査装置及び検査システム
WO2020184530A1 (ja) 検査装置
JP2008215875A (ja) 成形体の検査方法およびこの方法を用いた検査装置
JP2008051892A (ja) 顕微鏡装置
JPH07248211A (ja) 表面性状検出装置
WO2022249527A1 (ja) 検査装置及び検査方法
JP6949538B2 (ja) 欠陥検査装置、欠陥検査方法、及び、バルーンカテーテルの製造方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19911162

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020567346

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19911162

Country of ref document: EP

Kind code of ref document: A1