WO2018159825A1 - 検査システムおよび検査方法 - Google Patents

検査システムおよび検査方法 Download PDF

Info

Publication number
WO2018159825A1
WO2018159825A1 PCT/JP2018/008071 JP2018008071W WO2018159825A1 WO 2018159825 A1 WO2018159825 A1 WO 2018159825A1 JP 2018008071 W JP2018008071 W JP 2018008071W WO 2018159825 A1 WO2018159825 A1 WO 2018159825A1
Authority
WO
WIPO (PCT)
Prior art keywords
time correlation
image data
reference signal
stripe pattern
time
Prior art date
Application number
PCT/JP2018/008071
Other languages
English (en)
French (fr)
Inventor
圭一 赤澤
井上 靖之
栗原 徹
Original Assignee
リコーエレメックス株式会社
高知県公立大学法人
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by リコーエレメックス株式会社, 高知県公立大学法人 filed Critical リコーエレメックス株式会社
Priority to CN201880015374.7A priority Critical patent/CN110383050A/zh
Priority to DE112018001127.5T priority patent/DE112018001127T5/de
Priority to US16/490,512 priority patent/US10775316B2/en
Publication of WO2018159825A1 publication Critical patent/WO2018159825A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8806Specially adapted optical and illumination features
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/30Measuring arrangements characterised by the use of optical techniques for measuring roughness or irregularity of surfaces
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/30Measuring arrangements characterised by the use of optical techniques for measuring roughness or irregularity of surfaces
    • G01B11/306Measuring arrangements characterised by the use of optical techniques for measuring roughness or irregularity of surfaces for measuring evenness
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8806Specially adapted optical and illumination features
    • G01N2021/8829Shadow projection or structured background, e.g. for deflectometry

Definitions

  • Embodiments described herein relate generally to an inspection system and an inspection method.
  • the abnormality detection using the time correlation image as described above in order to detect the abnormality more accurately, it is obtained by moving a plurality of types of stripe patterns, for example, two types of stripe patterns extending in two directions orthogonal to each other. It may be necessary to perform an inspection using a plurality of time correlation images.
  • the second stripe pattern extending in the second direction is seamless in the first direction.
  • a plurality of fringe patterns that sequentially switch and output a plurality of fringe patterns so as to move by one period, and to provide periodic temporal changes and spatial changes in light intensity to the object to be inspected, and a plurality of fringe patterns
  • a first signal output unit that outputs a first signal that serves as a trigger for starting the output to the illumination unit, a second signal output unit that outputs a second signal that serves as a trigger for switching a plurality of fringe patterns, and a time
  • the illumination unit An image data acquisition unit that acquires time correlation image data obtained by imaging the inspection target surface of the inspection object, and a first time correlation image corresponding to only the first fringe pattern
  • FIG. 1 is an exemplary block diagram showing a configuration of an inspection system according to the first embodiment.
  • FIG. 2 is an exemplary block diagram showing the configuration of the time correlation camera of the first embodiment.
  • FIG. 3 is an exemplary diagram conceptually showing frames accumulated in time series in the time correlation camera of the first embodiment.
  • FIG. 4 is an exemplary diagram showing an example of a fringe pattern irradiated by the illumination device of the first embodiment.
  • FIG. 5 is an exemplary diagram showing a first detection example of abnormality of an object to be inspected by the time correlation camera of the first embodiment.
  • FIG. 6 is an exemplary diagram showing an example of the amplitude of light that changes in accordance with the abnormality when the abnormality shown in FIG. 5 exists in the first embodiment.
  • FIG. 1 is an exemplary block diagram showing a configuration of an inspection system according to the first embodiment.
  • FIG. 2 is an exemplary block diagram showing the configuration of the time correlation camera of the first embodiment.
  • FIG. 3 is an exemplary diagram conceptually showing frames accumulated in
  • FIG. 7 is an exemplary diagram showing a second example of detection of abnormality of the inspected object by the time correlation camera of the first embodiment.
  • FIG. 8 is an exemplary diagram illustrating a third example of detection of abnormality of an object to be inspected by the time correlation camera of the first embodiment.
  • FIG. 9 is an exemplary diagram illustrating an example of a fringe pattern output from the illumination control unit of the first embodiment to the illumination device.
  • FIG. 10 is an exemplary diagram showing an example of a wave shape representing a stripe pattern after passing through the screen of the first embodiment.
  • FIG. 11 is an exemplary flowchart illustrating an example of a procedure of an abnormality detection process based on amplitude by the abnormality detection unit of the first embodiment.
  • FIG. 12 is an exemplary flowchart illustrating an example of a procedure of a phase-based abnormality detection process performed by the abnormality detection unit according to the first embodiment.
  • FIG. 13 is an exemplary flowchart illustrating an example of a procedure of abnormality detection processing based on amplitude and intensity by the abnormality detection unit of the first embodiment.
  • FIG. 14 is an exemplary diagram showing a state in which the illumination device of the first embodiment irradiates a stripe pattern along a direction in which an abnormality (defect) extends.
  • FIG. 15 is an exemplary diagram showing a relationship between an abnormality (defect) and a fringe pattern when the fringe pattern of FIG. 14 is changed (moved) along the y direction in the first embodiment.
  • FIG. 16 is an exemplary diagram illustrating an example of the fringe pattern switching performed by the illumination device of the first embodiment.
  • FIG. 17 is an exemplary timing chart illustrating an example of operation timings of the time correlation camera and the illumination device according to the first embodiment.
  • FIG. 18 is an exemplary diagram showing a specific example of the first time correlation image generated in the first embodiment.
  • FIG. 19 is an exemplary diagram showing a specific example of the second time correlation image generated together with the first time correlation image of FIG. 18 in the first embodiment.
  • FIG. 20 is an exemplary flowchart illustrating an example of a procedure of an inspection process for an object to be inspected by the inspection system according to the first embodiment.
  • FIG. 21 is an exemplary block diagram showing the configuration of the time correlation camera of the second embodiment.
  • FIG. 22 is an exemplary timing chart illustrating an example of operation timings of the time correlation camera and the illumination device according to the second embodiment.
  • FIG. 23 is an exemplary block diagram illustrating a configuration of a time correlation camera according to the third embodiment.
  • FIG. 24 is an exemplary timing chart illustrating an example of operation timings of the time correlation camera and the illumination device according to the third embodiment.
  • FIG. 25 is an exemplary diagram showing a specific example of fifth time correlation image data output from the time correlation camera of the third embodiment.
  • FIG. 26 is an exemplary diagram showing a specific example of sixth time correlation image data output from the time correlation camera of the third embodiment.
  • FIG. 27 is an exemplary diagram showing a specific example of the first time correlation image generated from the data of FIG. 25 and FIG. 26 in the third embodiment.
  • FIG. 28 is an exemplary diagram showing a specific example of the second time correlation image generated together with the first time correlation image of FIG. 27 in the third embodiment.
  • FIG. 1 is an exemplary block diagram showing a configuration of an inspection system according to the first embodiment.
  • the inspection system according to the first embodiment includes a PC 100, a time correlation camera 110, a lighting device 120, a screen 130, and an arm 140.
  • the arm 140 is used to fix the inspection object 150 and changes the position and orientation of the surface of the inspection object 150 that can be imaged by the time correlation camera 110 according to control from the PC 100.
  • the illumination device 120 is a device that irradiates light to the object 150 to be inspected, and can control the intensity of irradiated light in units of regions in accordance with an illumination pattern (such as a stripe pattern described later) specified by the PC 100 or the like. Furthermore, the illuminating device 120 can control the intensity
  • the screen 130 diffuses the light output from the lighting device 120 and then irradiates the object 150 with light on a surface.
  • the screen 130 according to the embodiment irradiates the object 150 in a surface with the light input from the lighting device 120 and subjected to periodic time change and space change.
  • An optical system component such as a condensing Fresnel lens may be provided between the illumination device 120 and the screen 130.
  • 1st Embodiment demonstrates the example which comprises the planar illuminating part which combines the illuminating device 120 and the screen 130, and gives the periodic time change and spatial change of light intensity
  • the said illuminating part is It is not limited to such a combination.
  • FIG. 2 is an exemplary block diagram showing the configuration of the time correlation camera 110 of the first embodiment.
  • the time correlation camera 110 includes an optical system 210, an image sensor 220, a data buffer 230, a control unit 240, a first signal output unit 251, a second signal output unit 252, A reference signal output unit 260.
  • the optical system 210 includes an imaging lens and the like, transmits a light beam from a subject (including the inspection target 150) located outside the time correlation camera 110, and forms an optical image of the subject formed by the light beam. .
  • the image sensor 220 is a sensor that can output the intensity of light incident through the optical system 210 as a light intensity signal at high speed for each pixel.
  • the light intensity signal according to the first embodiment is obtained when the illumination device 120 of the inspection system irradiates a subject (including the inspected object 150) with light, and the image sensor 220 receives the reflected light from the subject. is there.
  • the image sensor 220 is, for example, a sensor that can be read out at a higher speed than a conventional sensor, and has a two-dimensional planar shape in which pixels are arranged in two kinds of directions: a row direction (x direction) and a column direction (y direction). It shall be configured.
  • Each pixel of the image sensor 220 is defined as a pixel P (1,1),..., P (i, j),..., P (X, Y) (Note that the image size of the first embodiment is the same as that of the first embodiment). X ⁇ Y). Note that the reading speed of the image sensor 220 is not limited and may be the same as the conventional one.
  • the image sensor 220 receives the light beam from the subject (including the inspection object 150) transmitted through the optical system 210 and photoelectrically converts it. Thereby, the image sensor 220 generates a two-dimensional planar frame composed of a light intensity signal (imaging signal) indicating the intensity of light reflected from the subject, and outputs the frame to the control unit 240.
  • the image sensor 220 according to the first embodiment outputs the two-dimensional planar frame for each readable unit time.
  • the control unit 240 includes a hardware configuration such as a CPU, a ROM, and a RAM.
  • the CPU executes a program stored in the ROM, thereby realizing a transfer unit 241, a reading unit 242, an intensity image superimposing unit 243, a correlation image superimposing unit 244, and an image output unit 249.
  • the correlation image superimposing unit 244 includes a first multiplier 245, a first correlation image superimposing unit 246, a second multiplier 247, and a second correlation image superimposing unit 248. Note that the first embodiment is not limited to realizing these functional configurations by cooperation of a CPU and a program, that is, hardware and software. In the first embodiment, the above-described functional configuration may be realized only by hardware such as FPGA and ASIC.
  • the transfer unit 241 stores the frames composed of the light intensity signals output from the image sensor 220 in the data buffer 230 in chronological order.
  • the data buffer 230 accumulates the frames output from the image sensor 220 in chronological order.
  • FIG. 3 is an exemplary diagram conceptually showing frames accumulated in time series in the time correlation camera 110 of the first embodiment.
  • one frame (image) generated at time t is a light intensity signal G (1,1, t),..., G (i, j, t),. t).
  • the light intensity signal may also be referred to as an imaging signal.
  • the frame output from the image sensor 220 includes only a light intensity signal, in other words, it can be considered as monochrome image data.
  • a light intensity signal in other words, it can be considered as monochrome image data.
  • the image sensor 220 generates monochrome image data in consideration of resolution, sensitivity, cost, and the like.
  • the image sensor 220 is not limited to a monochrome image sensor, and may be a color image sensor.
  • the reading unit 242 of the first embodiment receives the light intensity signals G (1,1, t),..., G (i, j, t),. , Y, t) are read in chronological order in units of frames, and the read data are output to the intensity image superimposing unit 243 and the correlation image superimposing unit 244. Note that the timing at which the reading unit 242 of the first embodiment starts reading will be described later in detail, and thus the description thereof is omitted here.
  • the time correlation camera 110 of the first embodiment generates (outputs) image data for each output destination of the reading unit 242. That is, the temporal phase camera 110 roughly outputs two types of image data corresponding to two output destinations (intensity image superimposing unit 243 and correlation image superimposing unit 244).
  • the time correlation camera 110 includes, as two types of image data, intensity image data generated by the intensity image superimposing unit 243 and time correlation generated by the correlation image superimposing unit 244.
  • Image data is generated by the combination of the first multiplier 245 and the first correlation image superimposing unit 246.
  • time correlation image data generated by a combination of the second multiplier 247 and the second correlation image superimposing unit 248 is generated. Therefore, in the first embodiment, a total of three types of image data including intensity image data and two types of time correlation image data are generated.
  • the technique of the first embodiment is not limited to generating three types of image data, and does not generate intensity image data, or generates one type or three or more types of time correlation image data. Cases are also conceivable.
  • the image sensor 220 of the first embodiment outputs a frame composed of a light intensity signal for each readable unit time.
  • the intensity image superimposing unit 243 generates (acquires) intensity image data by superimposing a plurality of frames for the exposure time necessary for imaging.
  • each pixel value (value representing light intensity) G (x, y) of an image obtained by imaging intensity image data (intensity image) can be derived from the following equation (1).
  • the exposure time is the time difference between t0 and tn.
  • the intensity image superimposing unit 243 outputs the generated intensity image data to the image output unit 249.
  • the time correlation image data is image data indicating changes in light intensity according to the time transition.
  • each time the reading unit 242 reads a frame the first multiplier 245 and the second multiplier 247 multiply the light intensity signal included in the frame by a reference signal representing a time transition. Then, a time correlation value frame composed of time correlation values, which are multiplication results of the reference signal and the light intensity signal, is generated (acquired). Then, the first correlation image superimposing unit 246 and the second correlation image superimposing unit 28 superimpose a plurality of time correlation value frames generated by the first multiplier 245 and the second multiplier 247, respectively. By doing so, time correlation image data is generated (acquired).
  • the illumination device 120 performs planar light irradiation through the screen 130 to give a periodic temporal change and a spatial change of the light intensity. Yes. Therefore, in the first embodiment, as described below, a signal whose value periodically changes in accordance with a change in the intensity of light given by the lighting device 120 is used as the reference signal.
  • the reference signal may be a signal representing a time transition, but in the first embodiment, a reference signal corresponding to the complex sine wave e ⁇ j ⁇ t is used as an example.
  • e is a Napier number
  • j is an imaginary unit
  • is an angular frequency
  • t is a time.
  • the complex sine wave e ⁇ j ⁇ t representing the reference signal is correlated with the above-described exposure time, that is, one period of time necessary for generating the intensity image data and the time correlation image data. Assume that the angular frequency ⁇ is set.
  • the planar and dynamic light formed by the illumination unit 120 and the illumination unit such as the screen 130 is temporally in the first period (time period) at each position on the surface (reflective surface) of the inspection object 150.
  • This planar light is reflected by the surface, it is complex-modulated according to the specs of the surface (normal vector distribution, etc.).
  • the time correlation camera 110 receives light complex-modulated on the surface and performs quadrature detection (orthogonal demodulation) using the reference signal of the first period, thereby acquiring time correlation image data as a complex signal.
  • each pixel value C (x, y) of the time correlation image data can be derived from the following equation (2).
  • each of the two types of time correlation image data includes a pixel value C1 (x, y) representing a real part,
  • the pixel value C2 (x, y) representing the imaginary part is generated separately.
  • the reference signal output unit 260 of the first embodiment outputs different reference signals to the first multiplier 245 and the second multiplier 247, respectively.
  • the reference signal output section 260 the reference signal and outputs a reference signal cos ⁇ t corresponding to the real part of the complex sine wave e -Jeiomegati the first multiplier 245 corresponds to the imaginary part of the complex sine wave e -j ⁇ t sin ⁇ t Is output to the second multiplier 247.
  • the reference signal output unit 260 outputs two types of reference signals represented as time functions of a sine wave and a cosine wave that form a Hilbert transform pair with each other will be described. Any signal may be used as long as the signal changes according to the time transition.
  • the first multiplier 245 multiplies the light intensity signal of the frame by the real part cos ⁇ t of the complex sine wave e ⁇ j ⁇ t input from the reference signal output unit 260. .
  • each pixel value C1 (x, y) of one of the two types of time correlation image data is derived from the following equation (3).
  • the second multiplier 247 adds the imaginary part sin ⁇ t of the complex sine wave e ⁇ j ⁇ t input from the reference signal output unit 260 to the light intensity signal of the frame. Multiply.
  • the second correlation image superimposing unit 248 performs a process of superimposing the multiplication result of the second multiplier 247 on a pixel-by-pixel basis for a plurality of frames corresponding to the exposure time necessary for imaging. Thereby, each other pixel value C2 (x, y) of two types of time correlation image data is derived
  • time correlation image data having two degrees of freedom can be generated.
  • the first embodiment does not limit the types of reference signals.
  • the first embodiment as an example, will be described an example in which two kinds of time correlation image data corresponding to the real part and the imaginary part of the complex sine wave e -Jeiomegati is generated, the light amplitude and light Two types of time correlation image data corresponding to the phase may be generated.
  • the time correlation camera 110 of the first embodiment can generate time correlation image data for a plurality of systems. Therefore, according to the time correlation camera 110 of the first embodiment, for example, in the case of irradiating light in which stripes of a plurality of types of widths are combined, two types of time correlation images corresponding to the real part and the imaginary part described above. It is possible to generate data for a plurality of systems for each stripe width.
  • the time correlation camera 110 needs to include a combination of two multipliers and two correlation image superimposing units for a plurality of systems, and the reference signal output unit 260 has an angle suitable for each system. It is necessary to output a reference signal with a frequency ⁇ .
  • the image output unit 249 outputs two types of time correlation image data and intensity image data to the PC 100 (see FIG. 1). Then, the PC 100 detects an abnormality of the inspected object 150 using an image of the time correlation image data and the intensity image data (time correlation image and intensity image). As described above, in the first embodiment, in order to detect an abnormality of the inspected object 150, light that gives a (periodic) temporal change and spatial change in the intensity of light is applied to the inspected object 150. Irradiation is necessary.
  • FIG. 4 is an exemplary diagram showing an example of a fringe pattern irradiated by the illumination device 120 of the first embodiment.
  • the stripe pattern is scrolled (moved) in the x direction.
  • a white area is a bright area corresponding to the stripe
  • a black area is an interval area (dark area) corresponding to the stripe.
  • the fringe pattern irradiated by the illumination device 120 is moved by one period with the exposure time necessary for the time correlation camera 110 to capture the intensity image data and the time correlation image data.
  • the illuminating device 120 gives the to-be-inspected object 150 the periodic time change of the light intensity based on the spatial movement of the fringe pattern.
  • the time during which the fringe pattern in FIG. 4 moves by one period corresponds to the exposure time. Therefore, each pixel of the image obtained by imaging the time correlation image data (time correlation image) includes at least Information on the intensity signal of light for one period of the stripe pattern is embedded.
  • the illumination device 120 irradiates a stripe pattern based on a rectangular wave
  • the illuminating device 120 irradiates light through the screen 130, and can blur the bright-dark boundary area
  • the fringe pattern irradiated by the illumination device 120 is represented as A (1 + cos ( ⁇ t + kx)). That is, the stripe pattern includes a plurality of stripes repeatedly (periodically). It should be noted that the intensity of light applied to the object 150 can be adjusted between 0 and 2A, and the phase of the light is kx. k is the wave number of the stripe. x is the direction in which the phase changes.
  • the fundamental frequency component of the light intensity signal f (x, y, t) of each pixel of the frame when the illumination device 120 emits light can be expressed as the following equation (5). it can. As shown in Expression (5), the brightness of the stripe changes in the x direction.
  • the intensity signal of the fringe pattern irradiated by the illumination device 120 can be considered as a complex number.
  • the light from the illumination device 120 is reflected and input to the image sensor 220 from the subject (including the inspected object 150).
  • the light intensity signal G (x, y, t) input to the image sensor 220 is the same as the light intensity signal f (x, y, t) of each pixel of the frame when the illumination device 120 emits light. I can see it. Therefore, when Expression (5) is substituted into Expression (1) for deriving intensity image data, Expression (6) can be derived. Note that the phase is kx.
  • each pixel of the intensity image data (intensity image) is input with a value obtained by multiplying the exposure time T by the intermediate value A of the intensity of the light output from the illumination device 120. Can be confirmed. Further, when Expression (5) is substituted into Expression (2) for deriving time correlation image data, Expression (7) can be derived. Note that AT / 2 is the amplitude and kx is the phase.
  • the time correlation image data represented by the complex number represented by the equation (7) can be replaced with the two types of time correlation image data described above. That is, the above-described time correlation image data composed of the real part and the imaginary part includes a phase change and an amplitude change in the intensity change of the light irradiated on the inspection object 150.
  • the PC 100 according to the first embodiment can detect the phase change of the light emitted from the illumination device 120 and the light amplitude change based on the two types of time correlation image data. Therefore, the PC 100 according to the first embodiment, based on the time correlation image data and the intensity image data, amplitude image data representing the amplitude change of the light entering for each pixel and the phase representing the phase change of the light entering for each pixel. And image data.
  • the PC 100 detects an abnormality of the inspected object 150 by image processing based on the generated amplitude image data and phase image data (amplitude image and phase image).
  • FIG. 5 is a diagram illustrating a first detection example of abnormality of the inspected object by the time correlation camera 110 according to the first embodiment.
  • the inspected object 500 has a projecting shape abnormality 501.
  • the normal vectors 521, 522, and 523 are directed in different directions in the region near the point 502 of the abnormality 501.
  • the fact that the normal vectors 521, 522, and 523 are directed in different directions causes diffusion of light reflected from the anomaly 501 (for example, light 511, 512, and 513), and causes the image sensor 220 of the time correlation camera 110 to be diffused.
  • the width 503 of the stripe pattern entering the arbitrary pixel 531 is increased.
  • FIG. 6 is a diagram illustrating an example of the amplitude of light that changes in accordance with the abnormality 501 when the abnormality 501 shown in FIG. 5 exists in the first embodiment.
  • the amplitude of light is represented on a two-dimensional plane by dividing it into a real part (Re) and an imaginary part (Im).
  • FIG. 6 also shows light amplitudes 611, 612, and 613 corresponding to the lights 511, 512, and 513 in FIG.
  • the light amplitudes 611, 612, and 613 cancel each other, and light having an amplitude 621 is incident on an arbitrary pixel 531 of the image sensor 220.
  • the amplitude is small in the region where the abnormality 501 of the inspection object 500 is imaged.
  • FIG. 7 is a diagram illustrating a second example of detection of abnormality of an object to be inspected by the time correlation camera 110 according to the first embodiment.
  • the surface of the object to be inspected is a flat surface (in other words, normal lines are parallel).
  • a gentle gradient 701 is generated in the inspection object 700.
  • the normal vectors 721, 722, and 723 on the gradient 701 also change gently in the same manner, and the lights 711, 712, and 713 input to the image sensor 220 are gradually shifted.
  • the light amplitudes shown in FIGS. 5 and 6 hardly change.
  • the light originally projected from the screen 130 should enter the image sensor 220 as it is, but is projected from the screen 130 due to the presence of the gentle gradient 701. Since the light does not enter the image sensor 220 in a parallel state, a phase change of the light occurs. Therefore, if a difference in the phase of light with respect to the surroundings is detected, an abnormality due to the gentle gradient 701 as shown in FIG. 7 can be detected.
  • FIG. 8 is a diagram illustrating a third example of detection of abnormality of an object to be inspected by the time correlation camera 110 according to the first embodiment.
  • dirt 801 is attached to the inspection object 800.
  • the light emitted from the illumination device 120 is absorbed by the region corresponding to the dirt 801, or the light emitted from the illumination device 120 is diffusely reflected from the region corresponding to the dirt 801.
  • the intensity of light hardly changes in an arbitrary pixel region in which the dirt 801 is imaged in the time correlation camera 110.
  • the intensity of light cancels out the phase and cancels the vibration component, so that the brightness is almost DC. Become.
  • the light amplitude is almost lost, and therefore an area that becomes darker than the surroundings is generated when the amplitude image is displayed. If this reason is used, it can be estimated that there is an abnormality such as a stain 801 at the position of the inspection object 800 corresponding to the region.
  • an abnormality is detected in an inspected object by detecting a change in light amplitude and a change in light phase based on a time correlation image (amplitude image and phase image). Can be estimated.
  • the PC 100 controls the entire inspection system.
  • the PC 100 includes an arm control unit 101, an illumination control unit 102, and a control unit 103.
  • the arm control unit 101 controls the arm 140 in order to change the surface of the object 150 to be imaged by the time correlation camera 110.
  • a plurality of surfaces to be imaged of the inspection object 150 are set in the PC 100 in advance.
  • the arm control unit 101 uses the arm 140 to inspect the object to be inspected so that the time correlation camera 110 can execute imaging of the surface according to the above setting every time imaging of the object 150 to be inspected by the time correlation camera 110 is completed.
  • Move 150 Note that the first embodiment is not limited to repeatedly moving the arm 140 each time imaging is completed and stopping the imaging before imaging is started, and the arm 140 may be continuously driven.
  • the arm 140 may also be referred to as a transport unit, a moving unit, a position changing unit, a posture changing unit, or the like.
  • the illumination control unit 102 is configured to be able to output a fringe pattern to be emitted to the illumination device 120.
  • the illumination control unit 102 sends a plurality (at least two or more) of stripe patterns to the illumination device 120 and instructs the illumination device 120 to switch and display the stripe patterns during the exposure time.
  • FIG. 9 is a diagram illustrating an example of a fringe pattern that the illumination control unit 102 outputs to the illumination device 120.
  • the illumination control unit 102 causes the illumination device 120 to output a stripe pattern in which the black region and the white region illustrated in (A) are set according to the rectangular wave illustrated in (B). Control.
  • the fringe interval in the fringe pattern used in the first embodiment is set according to the size of an abnormality (defect) to be detected, and a detailed description thereof is omitted here.
  • the angular frequency ⁇ of the rectangular wave for outputting the fringe pattern is set to the same value as the angular frequency ⁇ of the reference signal.
  • the fringe pattern output by the illumination control unit 102 can be shown as a rectangular wave.
  • the light corresponding to the stripe pattern is irradiated through the screen 130 to blur the boundary area of the stripe pattern, that is, the bright area (the stripe area) and the dark area (interval) in the stripe pattern.
  • the change in the intensity of light at the boundary with the region is moderated (dulled). That is, in the first embodiment, the light intensity change corresponding to the stripe pattern after passing through the screen 130 approximates a sine wave.
  • FIG. 10 is an exemplary diagram showing an example of a wave shape representing a stripe pattern after passing through the screen 130. A wave approximated to a sine wave as shown in FIG.
  • a gray region whose brightness changes in multiple stages may be added to the stripe, or a gradation may be given.
  • a stripe pattern including a color stripe may be used.
  • control unit 103 corresponds to the distribution of normal vectors on the inspection target surface of the object 150 based on the image data (intensity image data and time correlation image data) received from the time correlation camera 110.
  • image data intensity image data and time correlation image data
  • a feature that detects an abnormality based on a difference from the surroundings is calculated, and an abnormality of the inspected object 150 is detected.
  • the control unit 103 according to the first embodiment performs not only the time correlation image data (complex time correlation image data) represented by complex numbers but 2 corresponding to the real part and imaginary part of the complex numbers in order to perform inspection. It is assumed that the time correlation image data of the type is received from the time correlation camera 110.
  • the control unit 103 includes an image generation unit 104 and an abnormality detection unit 105.
  • the image generation unit 104 generates an amplitude image and a phase image based on the intensity image data and the time correlation image data received from the time correlation camera 110.
  • the amplitude image corresponds to amplitude image data representing the amplitude of light entering each pixel
  • the phase image corresponds to phase image data representing the phase of light entering each pixel.
  • the image generation unit 104 uses the pixel values C1 (x, y) and C2 (x, y) of two types of time correlation images. Using the equation (8), each pixel value F (x, y) of the amplitude image is derived.
  • the abnormality detection unit 105 determines whether there is a region where an abnormality has occurred based on the pixel value (amplitude) of the amplitude image and the pixel value (intensity) of the intensity image. For example, an area where the value obtained by dividing the pixel value (AT) of the intensity image by 2 and the amplitude of the amplitude image (which is AT / 2 if no cancellation occurs) has an abnormality has occurred to some extent I can guess that. On the other hand, it can be presumed that the amplitudes cancel each other in the region where the two do not match.
  • the image generation unit 104 calculates Expression (9) from the pixel values C1 (x, y) and C2 (x, y). Using this, each pixel value P (x, y) of the phase image is derived.
  • the abnormality detection unit 105 is a feature corresponding to the distribution of the normal vector on the surface to be inspected based on the difference between the amplitude image and the phase image, and a feature for detecting an abnormality of the inspection object 150. Is calculated.
  • the amplitude distribution is data indicating the amplitude distribution of each pixel of the complex time correlation image, and corresponds to the amplitude image data.
  • FIG. 11 is an exemplary flowchart showing an example of the procedure of the abnormality detection process based on the amplitude by the abnormality detection unit 105 of the first embodiment.
  • the abnormality detection unit 105 uses the light amplitude value (represented pixel value) stored in each pixel of the amplitude image as the reference (for example, the center), and N
  • the average amplitude value of the ⁇ N region is subtracted (S1101), and an average difference image of amplitude is generated.
  • the average difference image of the amplitude corresponds to the amplitude gradient.
  • the integer N is set to an appropriate value depending on the embodiment.
  • the abnormality detection unit 105 performs mask processing using a predetermined amplitude threshold value on the average difference image of the amplitude generated by subtraction (S1102).
  • the abnormality detection unit 105 calculates a standard deviation for each pixel within the mask area of the average difference image (S1103).
  • embodiment demonstrates the method based on a standard deviation, it does not restrict
  • the abnormality detection unit 105 detects a pixel having an average pixel value smaller than ⁇ 4.5 ⁇ ( ⁇ : standard deviation) as a region having an abnormality (defect) (S1104).
  • the first embodiment is not limited to detecting an abnormality from the amplitude distribution of the complex time correlation image.
  • the gradient of the phase distribution can also be used. Therefore, the abnormality detection process using the phase distribution gradient will be described next.
  • FIG. 12 is an exemplary flowchart illustrating an example of the procedure of the abnormality detection process based on the phase by the abnormality detection unit 105 of the first embodiment.
  • the abnormality detection unit 105 uses the phase value of light for each pixel of the phase image (a pixel value representing) as the reference (for example, the center) of the N ⁇ N region.
  • the average phase value is subtracted (S1201), and an average phase difference image is generated.
  • the phase average difference image corresponds to the phase gradient.
  • the abnormality detection unit 105 compares the size (absolute value) of the average difference image of the phase generated by the subtraction with a threshold value, and detects pixels having an average difference image size equal to or larger than the threshold value as abnormal ( It is detected as a defective pixel (S1202).
  • the abnormality detection unit 105 can determine the unevenness based on the sign of the average difference image, that is, the magnitude relationship between the phase value of the pixel and the average phase value (S1203). Which of the pixel phase value and the average phase value is convex depends on the setting of each part, but the unevenness differs if the magnitude relationship is different.
  • an abnormality can be detected from the gradient of the phase distribution obtained by another method.
  • the abnormality detection unit 105 may be configured such that the magnitude of the difference between the average vector of the N ⁇ N region of the normalized time correlation image and the normalized vector of each pixel is larger than the threshold value.
  • a method of detecting a pixel having an abnormality can be used.
  • the method of abnormality detection processing based on the phase is not limited to the method using the gradient of the phase distribution, and may be a method using information corresponding to the phase distribution.
  • FIG. 13 is an exemplary flowchart illustrating an example of a procedure of abnormality detection processing based on amplitude and intensity by the abnormality detection unit 105 of the first embodiment.
  • the abnormality detection unit 105 uses the following equation (100) for each pixel from the time correlation image and the intensity image to represent the amplitude (representing pixel value) C (x, A ratio R (x, y) between y) (see equation (7)) and intensity (a pixel value representing) G (x, y) (see equation (6)) is calculated (S1301).
  • R (x, y) C (x, y) / G (x, y) (100)
  • the abnormality detection unit 105 compares the ratio R (x, y) with a threshold value, and sets a pixel whose ratio R (x, y) is equal to or less than the corresponding threshold value as a pixel having an abnormality (defect). It is detected (S1302). In addition, the abnormality detection unit 105 compares the ratio R (x, y) with a threshold value, and pixels that have a value of the ratio R (x, y) equal to or higher than another corresponding threshold value have unevenness (dirt or the like). It detects as a pixel (S1303). When the cancellation of the amplitude (attenuation) becomes noticeable due to the abnormal distribution of the normal vector, the amplitude is greatly reduced compared to the strength.
  • the abnormality detection unit 105 can detect the abnormality type in S1302 and S1303.
  • an abnormality that causes a change in the distribution of the normal vector in the x direction for example, a direction that intersects (orthogonally) the x direction (y Scratches (defects) extending in the direction can be easily detected.
  • scratches (defects) extending in the x direction that is, abnormalities that cause changes in the distribution of normal vectors along the y direction, are those in which the fringe pattern is moved in the y direction rather than moving the fringe pattern in the x direction.
  • detection becomes easy.
  • FIG. 14 is an exemplary diagram showing a state in which the illumination device 120 according to the first embodiment irradiates a stripe pattern along the direction in which an abnormality (defect) extends.
  • an abnormality (defect) 1601 extending in the x direction.
  • the abnormality 1601 extending in the x direction can be easily detected by moving the stripe pattern extending along the x direction along the y direction in the same manner as the abnormality 1601. It is done.
  • FIG. 15 is an exemplary diagram showing a relationship between an abnormality (defect) and a fringe pattern when the fringe pattern of FIG. 14 is changed (moved) along the y direction in the first embodiment.
  • an abnormality (defect) 1601 having a narrow width in the y direction and a longitudinal direction in the x direction that intersects (orthogonally) the y direction
  • the illumination device 120 emits the light.
  • the light amplitude cancels out greatly. For this reason, in order to detect easily the abnormality 1601 extended to ax direction, it turns out that the test
  • the lighting device 120 achieves both of detecting abnormalities (scratches, defects) having directionality with high accuracy and reducing the tact time (cycle time) required for inspection.
  • two kinds of stripe patterns extending in two directions intersecting each other referred to as a first direction and a second direction
  • the first direction and a second direction are seamlessly switched. More specifically, in the lighting device 120, after the first stripe pattern extending in the first direction moves by one period in the second direction intersecting the first direction, the second stripe pattern extending in the second direction is the first direction.
  • a plurality of fringe patterns are sequentially switched at predetermined time intervals so as to be moved by one cycle at a time and continuously output.
  • the x direction and the y direction orthogonal to each other will be used to describe the first direction as the y direction and the second direction as the x direction.
  • FIG. 16 is an exemplary diagram showing an example of the fringe pattern switching performed by the illumination device 120 of the first embodiment.
  • the illumination device 120 moves the first stripe pattern SP1 extending in the y direction as shown in FIG.
  • the pattern is switched, and the second stripe pattern SP2 extending in the x direction as shown in (B) is moved in the y direction by one cycle.
  • the first stripe pattern SP1 and the second stripe pattern SP2 will be described assuming that other conditions such as the stripe width and the interval between adjacent stripes are the same except for the orientation.
  • the first embodiment not only the direction but also the stripe width, the interval between adjacent stripes, and the like may be different between the first stripe pattern SP1 and the second stripe pattern SP2.
  • the start timing of the output of the first fringe pattern SP1 and the start timing of frame superposition by the time correlation camera 110 are matched, and the first fringe pattern SP1 to the second fringe pattern SP2 are matched. If the timing of switching to and the end timing of frame superposition by the time correlation camera 110 are not matched, a time correlation image corresponding to only the first fringe pattern SP1 is obtained without the influence of the second fringe pattern SP2. I can't. Similarly, in the example shown in FIG.
  • the switching timing from the first fringe pattern SP1 to the second fringe pattern SP2 coincides with the start timing of frame superposition by the time correlation camera 110, and the second fringe pattern SP2 If the output end timing of the frame and the end timing of frame superposition by the time correlation camera 110 do not coincide with each other, a time correlation image corresponding to only the second stripe pattern SP2 excluding the influence of the first stripe pattern SP1 is obtained. I can't.
  • the time correlation camera 110 of the first embodiment is provided with a configuration for more accurately synchronizing the operation of the illumination device 120 and the operation of the time correlation camera 110. More specifically, the time correlation camera 110 according to the first embodiment includes a first signal output unit 251 that outputs a first signal that triggers the start of output of a plurality of fringe patterns to the illumination device 120, and a plurality of fringe patterns. And a second signal output unit 252 that outputs a second signal serving as a trigger for switching to the illumination device 120.
  • the first signal is output not only to the lighting device 120 but also to the reading unit 242 and the reference signal output unit 260.
  • the reading unit 242 starts reading the frame output from the image sensor 220 at a timing based on the first signal
  • the reference signal output unit 260 outputs the reference signal at a timing based on the first signal.
  • the correlation image superimposing unit 244 starts superimposing the frames output from the image sensor 220 at a timing based on the first signal, so that the inspection target surface of the inspected object 150 illuminated by the illumination device 120 is obtained. Time-correlated image data obtained by imaging is acquired.
  • FIG. 17 is an exemplary timing chart illustrating an example of operation timings of the time correlation camera 110 and the illumination device 120 according to the first embodiment.
  • CIS capture represents a state in which frames output from the image sensor 220 are accumulated
  • ref represents a reference signal output from the reference signal output unit 260
  • Correlation This represents the period during which correlation calculation (frame superposition) is performed.
  • Sync represents the second signal output from the second signal output unit 252
  • “OE” represents the first signal output from the first signal output unit 251.
  • the lighting device 120 performs seamless switching between the first stripe pattern SP1 and the second stripe pattern SP2 similar to FIG.
  • the output of the first signal and the second signal starts at timing t1.
  • the illuminating device 120 starts outputting a plurality of fringe patterns at the timing t1 based on the first signal, and sequentially switches the plurality of fringe patterns based on the second signal. That is, the lighting device 120 starts moving the first stripe pattern SP1 for one cycle at the timing t1, and switches to the second stripe pattern SP2 at the timing t2 when the movement of the first stripe pattern SP1 ends.
  • the process is executed seamlessly, and movement of the second stripe pattern SP2 for one period is started. The movement of one cycle of the second stripe pattern SP2 ends at timing t3.
  • the time required for the first stripe pattern SP1 to move by one period and the time required for the second stripe pattern SP2 to move for one period are set to coincide with each other. Therefore, in the example shown in FIG. 17, the time between the timing t1 and the timing t2 and the time between the timing t2 and the timing t3 have the same magnitude (represented by the symbol T).
  • the reading unit 242 starts reading the frame and the reference signal output unit 260 starts outputting the reference signal accordingly.
  • a sine wave having a period T is used as a reference signal. Therefore, in the example shown in FIG. 17, the value of the reference signal changes by two cycles from the start of the movement of the first stripe pattern SP1 to the end of the movement of the second stripe pattern SP2.
  • the first half of the reference signal that is, the portion whose value changes with time transition during the movement of one cycle of the first stripe pattern SP1
  • the second half of the reference signal that is, the second A portion in which the value changes by one period with time transition during movement of the fringe pattern SP2 for one period may be described as a second section.
  • the waveform of the reference signal of the one system is the same in the first half (first section) and the second half (second section).
  • the processing of the reference signal output unit 260 can be simplified.
  • the correlation image superimposing unit 224 obtains only the first fringe pattern SP1 without acquiring time correlation image data in which the influences of both the first fringe pattern SP1 and the second fringe pattern SP2 are mixed.
  • the first time correlation image data based on the influence and the second time correlation image data based on the influence of only the second fringe pattern SP2 can be acquired separately. That is, the correlation image superimposing unit 244 executes the correlation calculation (frame superimposition) twice from the start of the movement of the first stripe pattern SP1 to the end of the movement of the second stripe pattern SP2.
  • the first temporal correlation image data which is the result of superimposing the frames until the 1st fringe pattern SP1 is switched to the second fringe pattern SP2, and the result of the frame superimposition after the first fringe pattern SP1 is switched to the second fringe pattern SP2. It is possible to acquire the second time correlation image data.
  • the correlation image superimposing unit 244 is based on the influence of only the first fringe pattern SP1 by superimposing the frame while multiplying the value of the reference signal (first interval) from timing t1 to timing t2. First time correlation image data is acquired. Then, the correlation image superimposing unit 244 superimposes the frame while multiplying the value of the reference signal (second interval) from the timing t2 to the timing t3, so that the second time based on the influence of only the second fringe pattern SP2. Correlation image data is acquired.
  • the image generation unit 104 converts the first time correlation image data and the second time correlation image data received from the time correlation camera 110 into an image, and the first time correlation corresponding to only the first fringe pattern SP1. An image and a second time correlation image corresponding to only the second stripe pattern SP2 are generated. Then, the abnormality detection unit 105 performs an abnormality detection process using the generated first time correlation image and second time correlation image.
  • FIG. 18 is an exemplary diagram showing a specific example of the first time correlation image generated in the first embodiment
  • FIG. 19 is generated together with the first time correlation image of FIG. 18 in the first embodiment. It is the exemplary figure which showed the specific example of the 2nd time correlation image made.
  • the time correlation camera 110 and the illumination device 120 are synchronized using the first signal and the second signal described above, and thus 2 extending in different directions.
  • two time correlation images respectively corresponding to the two types of stripe patterns can be obtained.
  • FIG. 20 is an exemplary flowchart showing an example of the procedure of the inspection process by the inspection system of the first embodiment. It is assumed that the device under test 150 is already fixed to the arm 140 and arranged at the initial position of the inspection.
  • the PC 100 outputs a plurality of fringe patterns used for the inspection of the inspected object 150 to the illumination device 120.
  • the plurality of striped patterns output here are a plurality of striped patterns that can realize the movement of one cycle of the first striped pattern SP1 and the movement of one cycle of the second striped pattern SP2.
  • the illuminating device 120 stores the some fringe pattern input from PC100.
  • the PC 100 outputs an imaging start instruction to the time correlation camera 110.
  • the time correlation camera 110 starts outputting the first signal and the second signal in S1411.
  • the first signal and the second signal are output to the lighting device 120.
  • the lighting device 120 starts a process of sequentially switching the plurality of fringe patterns stored in S1421 at predetermined time intervals. Accordingly, the illumination device 120 moves the first stripe pattern SP1 by one period, then seamlessly switches the first stripe pattern SP1 to the second stripe pattern SP2, and moves the second stripe pattern SP2 by one period. Let In addition, after ending the movement for one cycle of the second stripe pattern SP2, the lighting device 120 may start moving for one cycle again in the order of the first stripe pattern SP1 and the second stripe pattern SP2. The output of the stripe pattern may be terminated.
  • the first signal of S1411 is output not only to the illumination device 120 but also to the reading unit 242 and the reference signal output unit 260 of the time correlation camera 110.
  • the reading unit 242 starts reading the frame output from the image sensor 220 at a timing based on the first signal
  • the reference signal output unit 260 performs the correlation image superimposition of the time correlation camera 110.
  • the output of the reference signal to the unit 244 is started.
  • the correlation image superimposing unit 244 executes the correlation calculation (frame superposition) twice from the start of the movement of the first fringe pattern SP1 to the end of the movement of the second fringe pattern SP2.
  • First temporal correlation image data which is a frame superimposition result until the first fringe pattern SP1 is switched to the second fringe pattern SP2, and a frame superposition result after the first fringe pattern SP1 is switched to the second fringe pattern SP2.
  • second time correlation image data which is a frame superimposition result until the first fringe pattern SP1 is switched to the second fringe pattern SP2, and a frame superposition result after the first fringe pattern
  • the time correlation camera 110 outputs the first time correlation image data and the second time correlation image data generated in S1413 to the PC 100.
  • the time correlation camera 110 can also output the intensity image data acquired by the intensity image superimposing unit 243 to the PC 100 in addition to the first time correlation image data and the second time correlation image data.
  • the PC 100 receives from the time correlation camera 110 the first time correlation image data and the second time correlation image data (and also the intensity image data) output in S1414.
  • the image generation unit 104 in the control unit 103 of the PC 100 supports only the first time correlation image corresponding to only the first fringe pattern SP1 and the second fringe pattern SP2. And a second time correlation image.
  • step S1405 the abnormality detection unit 105 in the control unit 103 of the PC 100 executes an abnormality detection process for the inspected object 150 based on the first time correlation image and the second time correlation image. Since some examples (see, for example, FIG. 11 to FIG. 13) of the procedure of the abnormality detection processing have already been described, description thereof is omitted here.
  • step S1406 the abnormality detection unit 105 outputs the result of the abnormality detection process in step S1405 to an output device such as a display included in the PC 100 (or connected to the PC 100).
  • results of the anomaly detection process may be output in a form that appeals to the auditory sense using sound instead of being output in a form that appeals to the eyes, or a combination of a form that appeals to the eyes and a form that appeals to the auditory sense. May be.
  • control unit 103 determines whether or not the inspection of the inspected object 150 has been completed.
  • step S1408 the arm control unit 101 of the PC 100 executes movement control of the arm 140 so that the time correlation camera 110 can image the surface to be inspected next in the inspection target 150 according to a predetermined setting. To do.
  • the process returns to S1402, and the PC 100 outputs an imaging start instruction to the time correlation camera 110 again.
  • step S ⁇ b> 1409 the PC 100 outputs an end instruction for instructing the end of the inspection to the time correlation camera 110.
  • the time correlation camera 110 determines whether an end instruction is received from the PC 100 in S1415. If it is determined in S1415 that an end instruction has not been received, the process returns to S1411. However, if it is determined in S1415 that an end instruction has been received, the process ends, that is, a series of processes executed by the time correlation camera 110 ends.
  • the end of the operation of the illumination device 120 may be realized by a manual operation of an inspector, or may be realized by an instruction from another configuration such as the PC 100 or the time correlation camera 110.
  • the time correlation image data (and the intensity image data) are acquired using the digitally operated time correlation camera 110
  • the time correlation image data can be acquired not only by the time correlation camera 110 that operates digitally, but also by a time correlation camera that operates analogly, an imaging system that operates equivalently, or the like.
  • normal image data is acquired using a normal digital still camera, and then normal image data is regarded as frame image data using an information processing device.
  • a method for superimposing a reference signal and a method for superimposing a reference signal on the image sensor itself of the digital camera are conceivable.
  • the first signal output unit 251 that outputs the first signal serving as a trigger for starting the output of a plurality of fringe patterns to the illumination device 120, and the trigger for switching the plurality of fringe patterns
  • a second signal output unit 252 that outputs the second signal to the illumination device 120. Accordingly, since the operation of the time correlation camera 110 and the operation of the illumination device 120 can be more accurately synchronized based on the first signal and the second signal, each of the two types of stripe patterns extending in the directions intersecting each other Can be obtained easily or quickly.
  • the example of calculating the feature for detecting the abnormality based on the difference from the surroundings has been described.
  • the feature for detecting the abnormality is based on points other than the difference from the surroundings. It is also possible to calculate.
  • a first modification it is conceivable to calculate a feature for detecting an abnormality based on a difference from reference data representing a reference shape. In this case, it is necessary to match the environment where the inspection is actually performed with the environment where the reference data is acquired. For example, it is necessary to align and synchronize the spatial phase modulation illumination (stripe pattern).
  • the abnormality detection unit 105 performs reference data (time correlation image data acquired from the reference surface) stored in advance in a storage unit (not shown) and the time of the inspected object 150 that is the current inspection target.
  • the correlation image data is compared with each other, and it is determined whether or not there is a difference greater than or equal to a predetermined reference for any one or more of light amplitude and light phase.
  • the reference surface for example, the surface of a normal object to be inspected is used. That is, in the first modified example, the time correlation image data obtained by imaging the surface of a normal object to be inspected by the inspection system (time correlation camera 110) configured similarly to the first embodiment is the reference data. Used as
  • the specific inspection procedure according to the first modification is as follows. First, the time correlation camera 110 acquires time correlation image data by capturing an image of the surface of a normal object while the illumination device 120 irradiates the fringe pattern via the screen 130. And PC100 produces
  • the PC 100 calculates a feature for detecting an abnormality based on the comparison result, and determines whether an abnormality exists in the inspection target based on whether the feature is equal to or greater than a predetermined reference.
  • the first modification it is determined whether there is an abnormality on the surface to be inspected by determining whether a predetermined difference has occurred with reference to the surface of the normal inspection object.
  • any method for comparing various images such as an amplitude image and a phase image may be used, and a description thereof will be omitted.
  • the feature for detecting the abnormality is calculated based on the difference from the reference surface (the difference from the reference data representing the reference shape) has been described.
  • the feature may be calculated in consideration of criteria other than the difference from the reference surface.
  • the feature for detecting an abnormality may be calculated by combining the difference in the reference surface used in the first modification and the difference in the surroundings used in the first embodiment described above. Since any method may be used as a method of combining these, description thereof is omitted.
  • first fringe pattern SP1 and the second fringe pattern SP2 are supported by performing correlation calculation (frame superposition) separately for the first half and the second half of the reference signal of one system.
  • correlation calculation frame superposition
  • the time corresponding to only each of the first fringe pattern SP1 and the second fringe pattern SP2 by separately performing the correlation calculation for each of the two systems of reference signals. Correlation image data is acquired.
  • FIG. 21 is an exemplary block diagram showing the configuration of the time correlation camera 110a of the second embodiment.
  • a first reference signal output unit 260a and a second reference signal output unit 260b are provided in the time correlation camera 110a of the second embodiment.
  • the correlation image superimposing unit 244a of the control unit 240a has a configuration corresponding to these two reference signal output units, and a multiplication for multiplying the pixel value of the frame output from the image sensor 220 by the value of the reference signal.
  • the correlation image superimposing unit 244a has a configuration corresponding to the first reference signal output unit 260a, and a combination of the first multiplier 245a and the first correlation image superimposing unit 246a and the second multiplication. And a combination of a second correlation image superimposing unit 248a.
  • the correlation image superimposing unit 244a has a configuration corresponding to the second reference signal output unit 260b, and a combination of the third multiplier 245b and the third correlation image superimposing unit 246b and a fourth multiplier 247b. And a combination of the fourth correlation image superimposing unit 248b.
  • the first multiplier 245a and the second multiplier 247a receive the first reference signal output from the first reference signal output unit 260a, and determine the value of the first reference signal from the reading unit 242. Multiply the pixel value. Then, the first correlation image superimposing unit 246a and the second correlation image superimposing unit 248a superimpose the multiplication results of the first multiplier 245a and the second multiplier 247a, respectively. Similarly, the third multiplier 245b and the fourth multiplier 247b receive the second reference signal output from the second reference signal output unit 260b, and the value of the reference signal is received from the reading unit 242. Is multiplied by the pixel value.
  • the third correlation image superimposing unit 246b and the fourth correlation image superimposing unit 248b superimpose the multiplication results of the third multiplier 245b and the fourth multiplier 247b, respectively.
  • the waveforms of the first reference signal and the second reference signal will be described later in detail, and thus description thereof will be omitted here.
  • the result of superimposing the first correlation image superimposing unit 246a, the result of superimposing the second correlation image superimposing unit 248a, and the result of superimposing the third correlation image superimposing unit 246b A total of four types of time correlation image data corresponding to the four superimposition results of the fourth correlation image superimposing unit 248b are acquired.
  • the first time correlation image corresponding to only the first stripe pattern SP1 and the second stripe pattern SP2 are the same as in the first embodiment described above.
  • a second time correlation image corresponding to only the first time correlation image are the same as in the first embodiment described above.
  • FIG. 22 is an exemplary timing chart illustrating an example of operation timings of the time correlation camera 110a and the illumination device 120 according to the second embodiment.
  • “refA” represents the first reference signal output from the first reference signal output unit 260a
  • “refB” represents the second reference signal output from the second reference signal output unit 260b.
  • the meanings of the other “CIS capture”, “Correlation”, “Sync”, and “OE” are the same as those in FIG. 17 described above, and thus the description thereof is omitted here.
  • the lighting device 120 similarly to the example shown in FIG. 17, it is assumed that the lighting device 120 performs seamless switching between the first stripe pattern SP1 and the second stripe pattern SP2.
  • the output of the first signal and the second signal starts at timing t11.
  • the illuminating device 120 starts outputting a plurality of fringe patterns at timing t11 based on the first signal, and sequentially switches the plurality of fringe patterns based on the second signal. That is, the illumination device 120 starts moving for one cycle of the first stripe pattern SP1 at timing t11, and switches to the second stripe pattern SP2 at timing t12 when the movement of the first stripe pattern SP1 is completed.
  • the process is executed seamlessly, and movement of the second stripe pattern SP2 for one period is started.
  • the movement of one cycle of the second stripe pattern SP2 ends at timing t13.
  • the time between timing t11 and timing t12 and the time between timing t12 and timing t13 are equal to each other (reference sign). (Represented by Ta). That is, in the example shown in FIG. 22 as well, the time required for the first stripe pattern SP1 to move by one period and the time required for the second stripe pattern SP2 to move by one period seem to coincide with each other.
  • both the first reference signal and the second reference signal are composed of a combination of a sine wave having a period Ta and a wave having a constant amplitude (for example, zero) over time Ta.
  • the first reference signal is a signal in which the first half portion is composed of a sine wave having a period Ta, the second half portion is composed of a wave having a constant amplitude (for example, zero) over time Ta, and the second reference signal is a first half portion. Is composed of a wave having a constant amplitude (for example, zero) over time Ta, and the latter half is a signal composed of a sine wave with period Ta. Therefore, it can be said that both the first reference signal and the second reference signal are signals whose values periodically change in the period 2Ta.
  • the first half of the first reference signal that is, the portion whose value changes with time transition during the movement of one cycle of the first fringe pattern SP1 is referred to as a third section
  • the first reference signal The latter half portion, that is, the portion where the value is constant regardless of the time transition during the movement of one cycle of the second stripe pattern SP2 may be described as the fourth section.
  • the first half of the second reference signal that is, the portion where the value is constant regardless of the time transition during the movement of one cycle of the first stripe pattern SP1
  • the second half of the second reference signal That is, the portion where the value changes with time transition during the movement of the second stripe pattern SP2 for one period may be described as the sixth section.
  • the correlation image superimposing unit 244a acquires time correlation image data in which the influences of both the first stripe pattern SP1 and the second stripe pattern SP2 are mixed. It is possible to separately acquire the third time correlation image data based on the influence of only the first stripe pattern SP1 and the fourth time correlation image data based on the influence of only the second stripe pattern SP2. That is, based on the first reference signal, the correlation image superimposing unit 244a performs correlation calculation (frame superimposition) over a period 2Ta from the start of the movement of the first fringe pattern SP1 to the end of the movement of the second fringe pattern SP2. ) Once, it is possible to obtain the third time correlation image data.
  • the correlation image superimposing unit 244a can acquire the fourth time correlation image data by executing the correlation calculation over the period 2Ta once based on the second reference signal.
  • the third temporal correlation image data is a combination of the superimposition results of the first correlation image superimposing unit 246a and the second correlation image superimposing unit 248a.
  • the fourth time correlation image data corresponds to the combination of the superimposition results of the third correlation image superimposing unit 246b and the fourth correlation image superimposing unit 248b.
  • the correlation calculation based on the first reference signal is as follows. That is, the correlation image superimposing unit 244a performs the correlation calculation while multiplying the value of the third section of the first reference signal from the timing t11 to the timing t12, and performs the fourth calculation of the first reference signal from the timing t12 to the timing t13.
  • the correlation calculation is performed while multiplying the value of the section.
  • the former correlation calculation based on the value of the third section corresponds to the correlation calculation considering the influence of only the first stripe pattern SP1
  • the latter correlation calculation based on the fourth section is only the second stripe pattern SP2.
  • the value of the fourth section in the first reference signal is a constant value (for example, zero) regardless of the time transition, so the result of the correlation calculation based on the value of the fourth section is Can be ignored. Therefore, according to the correlation calculation over the period 2Ta from the timing t11 to the timing t13 based on the first reference signal composed of the third section and the fourth section, the influence of the second stripe pattern SP2 is ignored and the first stripe It is possible to acquire the third time correlation image data based on the influence of only the pattern SP1.
  • the correlation calculation based on the second reference signal is as follows. That is, the correlation image superimposing unit 244a performs the correlation calculation while multiplying the value of the fifth section of the second reference signal from timing t11 to timing t12, and performs the sixth calculation of the second reference signal from timing t12 to timing t13. The correlation calculation is performed while multiplying the value of the section.
  • the former correlation calculation based on the value of the fifth section corresponds to the correlation calculation considering the influence of only the first stripe pattern SP1
  • the latter correlation calculation based on the sixth section is only the second stripe pattern SP2.
  • the value of the fifth section in the second reference signal is a constant value (for example, zero) regardless of the time transition, so the result of the correlation calculation based on the value of the fifth section is Can be ignored. Therefore, according to the correlation calculation over the period 2Ta from the timing t11 to the timing t13 based on the second reference signal including the fifth section and the sixth section, the influence of the first stripe pattern SP1 is ignored and the second stripe It is possible to acquire the fourth time correlation image data based on the influence of only the pattern SP2.
  • the influences of both the first stripe pattern SP1 and the second stripe pattern SP2 are mixed based on two different systems of reference signals (first reference signal and second reference signal).
  • the third time correlation image data based on the influence of only the first stripe pattern SP1 and the fourth time correlation image data based on the influence of only the second stripe pattern SP2 are separately acquired. can do.
  • the 1st time correlation image (similar to FIG. 18 demonstrated in 1st Embodiment) corresponding only to 1st fringe pattern SP1 is produced
  • a second time correlation image corresponding to only the second stripe pattern SP2 (an image similar to FIG. 19 described in the first embodiment) can be generated.
  • This third embodiment is the same as the second embodiment in that correlation calculation is performed using two systems of reference signals.
  • the third embodiment differs from the second embodiment in which the influence of both the first fringe pattern SP1 and the second fringe pattern SP2 is excluded at the correlation calculation stage.
  • the first time correlation image corresponding to only the first stripe pattern SP1 and the second stripe pattern are obtained by acquiring data in which the influences of both the pattern SP1 and the second stripe pattern SP2 are mixed and then performing further calculation processing.
  • a second time correlation image corresponding to only SP2 is generated separately.
  • FIG. 23 is an exemplary block diagram showing the configuration of the time correlation camera 110b of the third embodiment.
  • the time correlation camera 110b of the third embodiment has substantially the same configuration as the time correlation camera 110a of the second embodiment shown in FIG. That is, the time correlation camera 110b of the third embodiment is provided with two configurations for outputting a reference signal for correlation calculation, similar to the time correlation camera 110a of the second embodiment.
  • Four combinations of a multiplier for multiplying the pixel value of the output frame by the value of the reference signal and a superimposing unit for superimposing a multiplication result by the multiplier are provided.
  • the waveform of the reference signal for correlation calculation is different from that in the second embodiment. That is, in the third embodiment, the third reference signal output unit 260c that outputs a third reference signal different from the first reference signal and the second reference signal of the second embodiment, and the first reference signal of the second embodiment. And a fourth reference signal output unit 260d that outputs a fourth reference signal that is different from the second reference signal and that is different from the third reference signal.
  • the operation of the third embodiment will be described in more detail with reference to FIG.
  • FIG. 24 is an exemplary timing chart illustrating an example of operation timings of the time correlation camera 110b and the illumination device 120 according to the third embodiment.
  • “refC” represents the third reference signal output from the third reference signal output unit 260c
  • “refD” represents the fourth reference signal output from the fourth reference signal output unit 260d.
  • the meanings of the other “CIS capture”, “Correlation”, “Sync”, and “OE” are the same as those in FIGS. 17 and 22 described above, and thus the description thereof is omitted here.
  • the illumination device 120 performs seamless switching between the first stripe pattern SP1 and the second stripe pattern SP2 as in the examples shown in FIGS. 17 and 22.
  • the output of the first signal and the second signal starts at timing t21.
  • the illuminating device 120 starts outputting a plurality of fringe patterns at timing t21 based on the first signal, and sequentially switches the plurality of fringe patterns based on the second signal. That is, the illumination device 120 starts moving for one cycle of the first stripe pattern SP1 at timing t21, and switches to the second stripe pattern SP2 at timing t22 when the movement of the first stripe pattern SP1 is completed.
  • the process is executed seamlessly, and movement of the second stripe pattern SP2 for one period is started.
  • the movement of one cycle of the second stripe pattern SP2 ends at timing t23.
  • the time between timing t21 and timing t22 and the time between timing t22 and timing t23 are equal to each other. (Represented by Tb). That is, also in the example shown in FIG. 24, the time required for the first stripe pattern SP1 to move by one period and the time required for the second stripe pattern SP2 to move by one period seem to coincide with each other.
  • both the third reference signal and the fourth reference signal are configured based on a sine wave having a period Tb.
  • the third reference signal is a signal in which the first half part and the second half part are composed of the same sine wave with the period Tb, and the fourth reference signal is composed of the sine wave with the first half part in the period Tb and the second half part is the first half part It is a signal composed of inversion of a sine wave.
  • the first half of the third reference signal may be referred to as the seventh section
  • the second half of the third reference signal may be referred to as the eighth section.
  • the first half of the fourth reference signal may be referred to as a ninth section
  • the second half of the fourth reference signal may be referred to as a tenth section.
  • the value of the ninth section corresponds to the seventh section
  • the tenth section corresponds to the inversion of the eighth section.
  • the seventh section and the eighth section are composed of the same sine wave, but the seventh section and the ninth section match, and the eighth section, the tenth section, As long as is in an inversion relationship, the seventh section and the eighth section may not be composed of the same sine wave.
  • the correlation image superimposing unit 244a acquires temporal correlation image data in which the influences of both the first stripe pattern SP1 and the second stripe pattern SP2 are mixed. That is, based on the third reference signal, the correlation image superimposing unit 244a performs correlation calculation (frame superimposition) over a period 2Tb from the start of the movement of the first fringe pattern SP1 to the end of the movement of the second fringe pattern SP2. ) Is executed once, fifth time correlation image data corresponding to the sum of the first stripe pattern SP1 and the second stripe pattern SP2 is acquired.
  • the correlation image superimposing unit 244a executes the correlation calculation over the period 2Tb once based on the fourth reference signal, so that the sixth time corresponding to the difference between the first stripe pattern SP1 and the second stripe pattern SP2 is obtained. Correlation image data is acquired.
  • the correlation calculation based on the third reference signal is as follows. That is, the correlation image superimposing unit 244a performs the correlation calculation while multiplying the value of the seventh section of the third reference signal from timing t21 to timing t22, and performs the eighth calculation of the third reference signal from timing t22 to timing t23. The correlation calculation is performed while multiplying the value of the section.
  • the former correlation calculation based on the value of the seventh section corresponds to the correlation calculation considering the influence of only the first fringe pattern SP1
  • the latter correlation calculation based on the eighth section is only the second stripe pattern SP2.
  • the correlation calculation based on the value of the third reference signal including the seventh section and the eighth section over the period 2Tb from the timing t21 to the timing t23 includes the correlation calculation considering the influence of only the first fringe pattern SP1, This corresponds to the sum of the correlation calculation considering the influence of only the two-stripe pattern SP2.
  • the correlation calculation based on the value of the third reference signal over the period 2Tb the fifth time correlation image data corresponding to the sum of the first fringe pattern SP1 and the second fringe pattern SP2 is acquired.
  • the correlation calculation based on the fourth reference signal is as follows. That is, the correlation image superimposing unit 244a performs the correlation calculation while multiplying the value of the ninth section of the fourth reference signal from the timing t21 to the timing t22, and the tenth of the fourth reference signal from the timing t22 to the timing t23. The correlation calculation is performed while multiplying the value of the section.
  • the ninth section of the fourth reference signal coincides with the seventh section of the third reference signal
  • the tenth section of the fourth reference signal is an inversion of the eighth section of the third reference signal.
  • the correlation calculation based on the value of the fourth reference signal including the ninth interval and the tenth interval over the period 2Tb from the timing t21 to the timing t23 includes the correlation calculation considering the influence of only the first fringe pattern SP1, This corresponds to the difference from the correlation calculation considering the influence of only the two-stripe pattern SP2.
  • the sixth temporal correlation image data corresponding to the difference between the first fringe pattern SP1 and the second fringe pattern SP2 is acquired.
  • the first corresponding to the sum of the first fringe pattern SP1 and the second fringe pattern SP2.
  • 5 hour correlation image data and 6th time correlation image data corresponding to the difference between the first fringe pattern SP1 and the second fringe pattern SP2 can be acquired.
  • each of the fifth time correlation image data and the sixth time correlation image data is expressed by a conceptual expression as follows.
  • -5th time correlation image data 1st fringe pattern SP1 + 2nd fringe pattern SP2
  • 6th temporal correlation image data first fringe pattern SP1 ⁇ second fringe pattern SP2
  • a first time correlation image corresponding to only the first fringe pattern SP1 can be generated.
  • a second time correlation image corresponding only to the second fringe pattern SP2 can be generated.
  • FIG. 25 is an exemplary diagram showing a specific example of the fifth time correlation image data output from the time correlation camera 110b of the third embodiment
  • FIG. 26 is a diagram of the time correlation camera 110b of the third embodiment. It is the exemplary figure which showed the specific example of the 6th time correlation image data output.
  • FIG. 27 is an exemplary diagram showing a specific example of the first time correlation image generated from the data in FIGS. 25 and 26 in the third embodiment
  • FIG. 28 is a diagram in the third embodiment.
  • FIG. 28 is an exemplary diagram showing a specific example of a second time correlation image generated together with the first time correlation image of FIG. 27.
  • two different types of data in which the influences of both the first stripe pattern SP1 and the second stripe pattern SP2 are mixed can be obtained.
  • 27 and 28 according to the third embodiment further arithmetic processing is performed on two different types of data in which the influences of both the first stripe pattern SP1 and the second stripe pattern SP2 are mixed.
  • the 1st time correlation image based on only the influence of 1st fringe pattern SP1 and the 2nd time correlation image based on the influence of only 2nd fringe pattern SP2 can be produced
  • the inspection program executed by the PC 100 of the above-described embodiment is a file in an installable format or an executable format, and is a computer such as a CD-ROM, a flexible disk (FD), a CD-R, a DVD (Digital Versatile Disk). It is recorded on a readable recording medium and provided.
  • the inspection program executed by the PC 100 of the above-described embodiment may be provided by being stored on a computer connected to a network such as the Internet and downloaded via the network.
  • the inspection program executed on the PC 100 according to the above-described embodiment may be provided or distributed via a network such as the Internet.
  • DESCRIPTION OF SYMBOLS 104 ... Image generation part, 105 ... Abnormality detection part, 110, 110a, 110b ... Time correlation camera, 120 ... Illumination device (illumination part), 130 ... Screen (illumination part), 220 ... Image sensor, 244,244a ... Correlation image Superimposing unit (image data acquisition unit), 251... First signal output unit, 252... Second signal output unit, 260... Reference signal output unit, 260 a... First reference signal output unit, 260 b. 260c, a third reference signal output unit, 260d, a fourth reference signal output unit.

Landscapes

  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)

Abstract

実施形態の検査システムは、第1縞パターンが1周期分移動した後、シームレスで、第2縞パターンが1周期分移動するように、複数の縞パターンを順次切り替えて出力する照明部と、複数の縞パターンの出力開始のトリガとなる第1信号を照明部に出力する第1信号出力部と、複数の縞パターンの切り替えのトリガとなる第2信号を照明部に出力する第2信号出力部と、イメージセンサから出力されるフレームの重畳を第1信号に基づいたタイミングで開始することで時間相関画像データを取得する画像データ取得部と、時間相関画像データに基づいて、第1縞パターンのみに対応した第1時間相関画像および第2縞パターンのみに対応した第2時間相関画像を生成する画像生成部と、第1時間相関画像および第2時間相関画像に基づいて、検査対象面における異常を検出する異常検出部と、を備える。

Description

検査システムおよび検査方法
 本発明の実施形態は、検査システムおよび検査方法に関する。
 従来、周期的に変化する縞パターンなどの光を被検査体に照射し、当該被検査体の表面からの反射光を撮像することで、光の強度のみならず、光の時間遷移に関する情報をも含んだ時間相関画像を取得する技術が提案されている。このような時間相関画像は、たとえば、被検査体の異常を検出するために用いられる。
特開2015-197345号公報
 上記のような時間相関画像を用いた異常検出では、異常をより精度よく検出するため、複数種類の縞パターン、たとえば互いに直交する2方向に延びる2種類の縞パターンをそれぞれ移動させることで得られる複数の時間相関画像を用いた検査を行うことが必要となる場合がある。
 しかしながら、従来では、2種類の縞パターンの各々に対応した時間相関画像を得るために、一方の縞パターンのみを連続的に出力して相関演算(フレームの重畳)を行った後、当該一方の縞パターンの出力を一旦停止し、その後に他方の縞パターンを新たに読み込んで、当該他方の縞パターンのみを連続的に出力して相関演算を行うことが一般的であった。このため、従来では、縞パターンの切り替えに時間がかかり、その分、検査に要するタクトタイム(サイクルタイム)が比較的長くなっていた。
 そこで、検査に要するタクトタイム(サイクルタイム)を短縮することが望まれる。
 実施形態の検査システムは、第1方向に延びる第1縞パターンが第1方向と交差する第2方向に1周期分移動した後、シームレスで、第2方向に延びる第2縞パターンが第1方向に1周期分移動するように、複数の縞パターンを順次切り替えて出力することで、被検査体に対して光の強度の周期的な時間変化および空間変化を与える照明部と、複数の縞パターンの出力開始のトリガとなる第1信号を照明部に出力する第1信号出力部と、複数の縞パターンの切り替えのトリガとなる第2信号を照明部に出力する第2信号出力部と、時間相関カメラまたはそれと等価な動作をする撮像システムに用いられるイメージセンサと、イメージセンサから出力されるフレームの重畳を第1信号に基づいたタイミングで開始することで、照明部によって照らされた被検査体の検査対象面を撮像した時間相関画像データを取得する画像データ取得部と、時間相関画像データに基づいて、第1縞パターンのみに対応した第1時間相関画像および第2縞パターンのみに対応した第2時間相関画像を生成する画像生成部と、第1時間相関画像および第2時間相関画像に基づいて、検査対象面における異常を検出する異常検出部と、を備える。
図1は、第1実施形態による検査システムの構成を示した例示的なブロック図である。 図2は、第1実施形態の時間相関カメラの構成を示した例示的なブロック図である。 図3は、第1実施形態の時間相関カメラにおいて時系列順に蓄積されるフレームを概念的に表した例示的な図である。 図4は、第1実施形態の照明装置が照射する縞パターンの一例を示した例示的な図である。 図5は、第1実施形態の時間相関カメラによる、被検査体の異常の第1の検出例を示した例示的な図である。 図6は、第1実施形態において、図5に示される異常が存在する場合に、当該異常に応じて変化する、光の振幅の例を表した例示的な図である。 図7は、第1実施形態の時間相関カメラによる、被検査体の異常の第2の検出例を示した例示的な図である。 図8は、第1実施形態の時間相関カメラによる、被検査体の異常の第3の検出例を示した例示的な図である。 図9は、第1実施形態の照明制御部が照明装置に出力する縞パターンの一例を示した例示的な図である。 図10は、第1実施形態のスクリーンを介した後の縞パターンを表した波の形状の一例を示した例示的な図である。 図11は、第1実施形態の異常検出部による、振幅に基づく異常検出処理の手順の一例を示した例示的なフローチャートである。 図12は、第1実施形態の異常検出部による、位相に基づく異常検出処理の手順の一例を示した例示的なフローチャートである。 図13は、第1実施形態の異常検出部による、振幅および強度に基づく異常検出処理の手順の一例を示した例示的なフローチャートである。 図14は、第1実施形態の照明装置が、異常(欠陥)の延びる方向に沿った縞パターンを照射した状態を示した例示的な図である。 図15は、第1実施形態において、図14の縞パターンをy方向に沿って変化(移動)させる場合における、異常(欠陥)と縞パターンとの関係を示した例示的な図である。 図16は、第1実施形態の照明装置が実行する縞パターンの切り替えの一例を示した例示的な図である。 図17は、第1実施形態の時間相関カメラおよび照明装置の動作タイミングの一例を示した例示的なタイミングチャートである。 図18は、第1実施形態において生成される第1時間相関画像の具体例を示した例示的な図である。 図19は、第1実施形態において、図18の第1時間相関画像とともに生成される第2時間相関画像の具体例を示した例示的な図である。 図20は、第1実施形態の検査システムによる、被検査体の検査処理の手順の一例を示した例示的なフローチャートである。 図21は、第2実施形態の時間相関カメラの構成を示した例示的なブロック図である。 図22は、第2実施形態の時間相関カメラおよび照明装置の動作タイミングの一例を示した例示的なタイミングチャートである。 図23は、第3実施形態の時間相関カメラの構成を示した例示的なブロック図である。 図24は、第3実施形態の時間相関カメラおよび照明装置の動作タイミングの一例を示した例示的なタイミングチャートである。 図25は、第3実施形態の時間相関カメラから出力される第5時間相関画像データの具体例を示した例示的な図である。 図26は、第3実施形態の時間相関カメラから出力される第6時間相関画像データの具体例を示した例示的な図である。 図27は、第3実施形態において、図25および図26のデータから生成される第1時間相関画像の具体例を示した例示的な図である。 図28は、第3実施形態において、図27の第1時間相関画像とともに生成される第2時間相関画像の具体例を示した例示的な図である。
<第1実施形態>
 以下、第1実施形態の検査システムについて説明する。第1実施形態の検査システムは、被検査体を検査するために様々な構成を備えている。図1は、第1実施形態による検査システムの構成を示した例示的なブロック図である。図1に示されるように、第1実施形態の検査システムは、PC100と、時間相関カメラ110と、照明装置120と、スクリーン130と、アーム140と、を備えている。
 アーム140は、被検査体150を固定するために用いられ、PC100からの制御に応じて、時間相関カメラ110が撮像可能な被検査体150の表面の位置および向きを変化させる。
 照明装置120は、被検査体150に光を照射する装置であって、PC100などから指定される照明パターン(後述の縞パターンなど)に従って、照射する光の強度を領域単位で制御できる。さらに、照明装置120は、周期的な時間遷移に従って当該領域単位の光の強度を制御できる。換言すれば、照明装置120は、光の強度の周期的な時間変化および空間変化を与えることができる。なお、具体的な光の強度の制御手法については後述する。
 スクリーン130は、照明装置120から出力された光を拡散させた上で、被検査体150に対して面的に光を照射する。実施形態のスクリーン130は、照明装置120から入力された周期的な時間変化および空間変化が与えられた光を、面的に被検査体150に照射する。なお、照明装置120とスクリーン130との間には、集光用のフレネルレンズなどの光学系部品(図示されず)が設けられてもよい。
 なお、第1実施形態では、照明装置120とスクリーン130とを組み合わせて、光強度の周期的な時間変化および空間変化を与える面的な照明部を構成する例について説明するが、当該照明部は、このような組み合わせに制限されるものではない。たとえば、LEDを面的に配置したり、大型モニタを配置したりするなどして、照明部を構成してもよい。
 図2は、第1実施形態の時間相関カメラ110の構成を示した例示的なブロック図である。図2に示されるように、時間相関カメラ110は、光学系210と、イメージセンサ220と、データバッファ230と、制御部240と、第1信号出力部251と、第2信号出力部252と、参照信号出力部260と、を備えている。
 光学系210は、撮像レンズなどを含み、時間相関カメラ110の外部に位置する被写体(被検査体150を含む)からの光束を透過し、その光束により形成される被写体の光学像を結像させる。
 イメージセンサ220は、光学系210を介して入射された光の強弱を光強度信号として画素毎に高速に出力可能なセンサとする。
 第1実施形態の光強度信号は、検査システムの照明装置120が被写体(被検査体150を含む)に対して光を照射し、当該被写体からの反射光を、イメージセンサ220が受け取ったものである。
 イメージセンサ220は、たとえば従来のものと比べて高速に読み出し可能なセンサであり、行方向(x方向)、列方向(y方向)の2種類の方向に画素が配列された2次元平面状に構成されたものとする。そして、イメージセンサ220の各画素を、画素P(1,1),……,P(i,j),……,P(X,Y)とする(なお、第1実施形態の画像サイズをX×Yとする。)。なお、イメージセンサ220の読み出し速度を制限するものではなく、従来と同様であってもよい。
 イメージセンサ220は、光学系210によって透過された、被写体(被検査体150を含む)からの光束を受光して光電変換する。これにより、イメージセンサ220は、被写体から反射された光の強弱を示した光強度信号(撮像信号)で構成される2次元平面状のフレームを生成し、制御部240に出力する。第1実施形態のイメージセンサ220は、読み出し可能な単位時間毎に、当該2次元平面状のフレームを出力する。
 第1実施形態の制御部240は、たとえばCPU、ROM、およびRAMなどといったハードウェア構成を含む。CPUは、ROMに格納されたプログラムを実行することで、転送部241と、読出部242と、強度画像用重畳部243と、相関画像用重畳部244と、画像出力部249と、を実現する。相関画像用重畳部244は、第1の乗算器245と、第1の相関画像用重畳部246と、第2の乗算器247と、第2の相関画像用重畳部248と、を含む。なお、第1実施形態は、これらの機能的構成を、CPUとプログラム、すなわちハードウェアとソフトウェアとの協働によって実現することに制限するものではない。第1実施形態では、上記の機能的構成を、FPGAやASICなどといったハードウェアのみで実現してもよい。
 転送部241は、イメージセンサ220から出力された、光強度信号で構成されたフレームを、データバッファ230に、時系列順に蓄積する。
 データバッファ230は、イメージセンサ220から出力されたフレームを、時系列順に蓄積する。
 図3は、第1実施形態の時間相関カメラ110において時系列順に蓄積されるフレームを概念的に表した例示的な図である。図3に示されるように、第1実施形態のデータバッファ230には、時刻t(t=t0,t1,t2,……,tn)毎の複数の光強度信号G(1,1,t),……,G(i,j,t),……,G(X,Y,t)の組み合わせで構成された複数のフレームFk(k=1,2,……,n)が、時系列順に蓄積される。なお、時刻tで生成される一枚のフレーム(画像)は、光強度信号G(1,1,t),……,G(i,j,t),……,G(X,Y,t)で構成される。なお、光強度信号は、撮像信号とも称されうる。
 第1実施形態の光強度信号G(1,1,t),……,G(i,j,t),……,G(X,Y,t)には、フレームFk(k=1,2,……,n)を構成する各画素P(1,1),……,P(i,j),……,P(X,Y)が対応づけられている。
 イメージセンサ220から出力されるフレームは、光強度信号のみで構成されており、換言すればモノクロの画像データとも考えることができる。なお、第1実施形態では、解像度、感度、およびコストなどを考慮して、イメージセンサ220がモノクロの画像データを生成する例について説明する。しかしながら、イメージセンサ220は、モノクロ用のイメージセンサに制限されるものではなく、カラー用のイメージセンサであってもよい。
 図2に戻り、第1実施形態の読出部242は、データバッファ230から、光強度信号G(1,1,t),……,G(i,j,t),……,G(X,Y,t)をフレーム単位で時系列順に読み出し、読み出したデータを強度画像用重畳部243および相関画像用重畳部244に出力する。なお、第1実施形態の読出部242が読み出しを開始するタイミングについては、後で詳細に説明するため、ここでは説明を省略する。
 第1実施形態の時間相関カメラ110は、読出部242の出力先毎に画像データを生成(出力)する。すなわち、時間相間カメラ110は、大別して、2つの出力先(強度画像用重畳部243および相関画像用重畳部244)に対応した2種類の画像データを出力する。
 より具体的に、第1実施形態の時間相関カメラ110は、2種類の画像データとして、強度画像用重畳部243により生成される強度画像データと、相関画像用重畳部244により生成される時間相関画像データと、を出力する。ここで、第1実施形態では、相関画像用重畳部244により生成される時間相関画像データが、第1の乗算器245および第1の相関画像用重畳部246の組み合わせにより生成される時間相関画像データと、第2の乗算器247および第2の相関画像用重畳部248の組み合わせにより生成される時間相関画像データと、の2種類存在する。したがって、第1実施形態では、強度画像データと、2種類の時間相関画像データと、の合計3種類の画像データが生成される。なお、第1実施形態の技術は、3種類の画像データを生成することに制限されるものではなく、強度画像データを生成しない場合や、1種類または3種類以上の時間相関画像データを生成する場合も考えられる。
 上述したように、第1実施形態のイメージセンサ220は、光強度信号で構成されたフレームを、読み出し可能な単位時間毎に出力している。しかしながら、通常の画像データを生成するためには、撮像に必要な露光時間分の光強度信号が必要になる。そこで、第1実施形態では、強度画像用重畳部243が、撮像に必要な露光時間分の複数のフレームを重畳して、強度画像データを生成(取得)する。なお、強度画像データを画像化したもの(強度画像)の各画素値(光の強度を表す値)G(x,y)は、以下に示す式(1)から導き出すことができる。ここで、露光時間は、t0とtnの時間差とする。
Figure JPOXMLDOC01-appb-M000001
 これにより、従来のカメラの撮像と同様に、被写体(被検査体150を含む)が撮像された強度画像データを生成(取得)することができる。強度画像用重畳部243は、生成した強度画像データを、画像出力部249に出力する。
 時間相関画像データは、時間遷移に応じた光の強弱の変化を示す画像データである。第1実施形態では、第1の乗算器245および第2の乗算器247は、読出部242がフレームを読み出す毎に、当該フレームに含まれる光強度信号に、時間遷移を表す参照信号を乗算し、参照信号と光強度信号との乗算結果である時間相関値で構成された時間相関値フレームを生成(取得)する。そして、第1の相関画像用重畳部246および第2の相関画像用重畳部28は、それぞれ、第1の乗算器245および第2の乗算器247により生成された複数の時間相関値フレームを重畳することで、時間相関画像データを生成(取得)する。
 ところで、時間相関画像データに基づいて被検査体150の異常を検出するためには、イメージセンサ220に入力される光強度信号の変化と、参照信号の値の変化とが同期している必要がある。この点において、第1実施形態の照明装置120は、上述したように、光の強度の周期的な時間変化および空間変化を与えるような面的な光の照射を、スクリーン130を介して行っている。したがって、第1実施形態では、以下に説明するように、参照信号として、照明装置120により与えられる光の強度の変化に対応して周期的に値が変化する信号が用いられる。
 ここで、第1実施形態では、2種類の時間相関画像データが生成される。上述したように、参照信号は、時間遷移を表した信号であればよいが、第1実施形態では、一例として、複素正弦波e-jωtに対応した参照信号を用いる。この複素正弦波e-jωtにおいて、eはネイピア数、jは虚数単位、ωは角周波数、tは時刻を表すものとする。第1実施形態では、参照信号を表す複素正弦波e-jωtが、上述した露光時間、すなわち強度画像データおよび時間相関画像データを生成するために必要な時間の1周期と相関をとるように、角周波数ωが設定されるものとする。照明装置120およびスクリーン130などの照明部によって形成された面的かつ動的な光は、被検査体150の表面(反射面)の各位置において、第1の周期(時間周期)での時間的な照射強度の変化を与えるとともに、表面に沿った少なくとも一方向に沿った第2の周期(空間周期)での空間的な照射強度の増減分布を与える。この面的な光は、表面で反射される際に、当該表面のスペック(法線ベクトルの分布など)に応じて複素変調される。時間相関カメラ110は、表面で複素変調された光を受光し、第1の周期の参照信号を用いて直交検波(直交復調)することで、複素信号としての時間相関画像データを取得する。このような複素数としての時間相関画像データに基づく変復調により、表面の法線ベクトルの分布に対応した特徴を検出することができる。
 複素正弦波e-jωtは、e-jωt=cosωt-j・sinωtと表すこともできる。したがって、時間相関画像データの各画素値C(x,y)は、以下に示す式(2)から導き出すことができる。
Figure JPOXMLDOC01-appb-M000002
 第1実施形態では、式(2)により表される時間相関画像データが2種類生成され、当該2種類の時間相関画像データの各々は、実部を表す画素値C1(x,y)と、虚部を表す画素値C2(x,y)と、に分けて生成される。
 第1実施形態の参照信号出力部260は、第1の乗算器245と、第2の乗算器247と、に対してそれぞれ異なる参照信号を出力する。たとえば、参照信号出力部260は、複素正弦波e-jωtの実部に対応する参照信号cosωtを第1の乗算器245に出力し、複素正弦波e-jωtの虚部に対応する参照信号sinωtを第2の乗算器247に出力する。なお、ここでは、参照信号出力部260が、互いにヒルベルト変換対をなす正弦波および余弦波の時間関数として表される2種類の参照信号を出力する例について説明するが、参照信号は、時間関数のような時間遷移に応じて変化する信号であれば、どのような信号であってもよい。
 第1の乗算器245は、読出部242からフレームが入力される毎に、当該フレームの光強度信号に、参照信号出力部260から入力された複素正弦波e-jωtの実部cosωtを乗算する。
 そして、第1の相関画像用重畳部246は、撮像に必要な露光時間分の複数のフレームについて、第1の乗算器245の乗算結果を画素毎に重畳する処理を行う。これにより、2種類の時間相関画像データのうちの一方の各画素値C1(x,y)が、以下の式(3)から導出される。
Figure JPOXMLDOC01-appb-M000003
 一方、第2の乗算器247は、読出部242からフレームが入力される毎に、当該フレームの光強度信号に、参照信号出力部260から入力された複素正弦波e-jωtの虚部sinωtを乗算する。
 そして、第2の相関画像用重畳部248は、撮像に必要な露光時間分の複数のフレームについて、第2の乗算器247の乗算結果を画素毎に重畳する処理を行う。これにより、2種類の時間相関画像データのうちの他方の各画素値C2(x,y)が、以下の式(4)から導出される。
Figure JPOXMLDOC01-appb-M000004
 上述した処理により、2種類の時間相関画像データ、換言すれば2自由度を有する時間相関画像データを生成できる。
 なお、上述したように、第1実施形態は、参照信号の種類を制限するものでない。また、第1実施形態では、一例として、複素正弦波e-jωtの実部と虚部とに対応した2種類の時間相関画像データが生成される例について説明するが、光の振幅と光の位相とに対応した2種類の時間相関画像データが生成されてもよい。
 また、第1実施形態の時間相関カメラ110は、時間相関画像データを、複数系統分生成することが可能である。したがって、第1実施形態の時間相関カメラ110によれば、たとえば複数種類の幅の縞が組み合わされた光を照射する場合において、上述した実部と虚部とに対応した2種類の時間相関画像データを、縞の幅毎に複数系統分生成することが可能である。この場合、時間相関カメラ110は、2個の乗算器と2個の相関画像用重畳部とからなる組み合わせを、複数系統分備える必要があり、参照信号出力部260は、系統毎に適した角周波数ωによる参照信号を出力する必要がある。
 図2に示される例では、画像出力部249は、2種類の時間相関画像データと、強度画像データとを、PC100(図1参照)に出力する。そして、PC100は、時間相関画像データおよび強度画像データを画像化したもの(時間相関画像および強度画像)を用いて、被検査体150の異常を検出する。このように、第1実施形態では、被検査体150の異常を検出するために、光の強度の(周期的な)時間変化および空間変化を与えるような光を、被検査体150に対して照射する必要がある。
 第1実施形態の照明装置120は、一例として、高速に移動する縞パターンを照射する。図4は、第1実施形態の照明装置120が照射する縞パターンの一例を示した例示的な図である。図4に示す例では、縞パターンをx方向にスクロール(移動)させている例とする。白い領域が縞に対応した明領域、黒い領域が縞と縞との間に対応した間隔領域(暗領域)である。
 第1実施形態では、時間相関カメラ110が強度画像データおよび時間相関画像データを撮像するのに必要な露光時間で、照明装置120が照射する縞パターンを1周期分移動させる。これにより、照明装置120は、縞パターンの空間的な移動に基づき、被検査体150に光の強度の周期的な時間変化を与える。第1実施形態では、図4の縞パターンが1周期分移動する時間が、露光時間と対応しているので、時間相関画像データを画像化したもの(時間相関画像)の各画素には、少なくとも、縞パターン1周期分の光の強度信号に関する情報が埋め込まれる。
 図4に示されるように、第1実施形態では、照明装置120が矩形波に基づく縞パターンを照射する例について説明するが、矩形波以外が用いられてもよい。第1実施形態では、照明装置120がスクリーン130を介して光を照射することで、矩形波の明暗の境界領域をぼかすことができる。
 第1実施形態では、照明装置120が照射する縞パターンを、A(1+cos(ωt+kx))と表す。すなわち、縞パターンには、複数の縞が反復的に(周期的に)含まれる。なお、被検査体150に照射される光の強度は0~2Aの間で調整可能とし、光の位相をkxとする。kは、縞の波数である。xは、位相が変化する方向である。
 上記の縞パターンの式により、照明装置120が光を照射した際のフレームの各画素の光強度信号f(x,y,t)の基本周波数成分は、以下の式(5)として表すことができる。式(5)で示されるように、x方向で縞の明暗が変化する。
f(x,y,t)=A(1+cos(ωt+kx))
    =A+A/2{ej(ωt+kx)+e-j(ωt+kx)} … (5)
 式(5)で示されるように、照明装置120が照射する縞パターンの強度信号は、複素数として考えることができる。
 そして、イメージセンサ220には、当該照明装置120からの光が被写体(被検査体150を含む)から反射して入力される。
 したがって、イメージセンサ220に入力される光強度信号G(x,y,t)は、照明装置120が光を照射した際のフレームの各画素の光強度信号f(x,y,t)と同一視できる。そこで、強度画像データを導出するための式(1)に式(5)を代入すると、式(6)を導出できる。なお、位相をkxとする。
Figure JPOXMLDOC01-appb-M000005
 式(6)から、強度画像データを画像化したもの(強度画像)の各画素には、露光時間Tに、照明装置120が出力している光の強度の中間値Aを乗じた値が入力されていることが確認できる。さらに、時間相関画像データを導出するための式(2)に式(5)を代入すると、式(7)を導出できる。なお、AT/2を振幅とし、kxを位相とする。
Figure JPOXMLDOC01-appb-M000006
 これにより、式(7)で示された複素数で示された時間相関画像データは、上述した2種類の時間相関画像データと置き換えることができる。つまり、上述した実部と虚部とで構成される時間相関画像データには、被検査体150に照射された光の強度変化における位相変化と振幅変化とが含まれている。換言すれば、第1実施形態のPC100は、2種類の時間相関画像データに基づいて、照明装置120から照射された光の位相変化と、光の振幅変化と、を検出できる。そこで、第1実施形態のPC100は、時間相関画像データおよび強度画像データに基づいて、画素毎に入る光の振幅変化を表した振幅画像データと、画素毎に入る光の位相変化を表した位相画像データと、を生成する。
 そして、第1実施形態のPC100は、生成した振幅画像データおよび位相画像データを画像化したもの(振幅画像および位相画像)に基づいて、画像処理により、被検査体150の異常を検出する。
 ところで、被検査体150を含む一般的な被検査体の表面形状に凹凸に基づく異常が生じている場合、当該被検査体の表面の法線ベクトルの分布には異常に対応した変化が生じている。また、検査対象の表面に光を吸収するような異常が生じている場合、反射した光の強度に変化が生じる。法線ベクトルの分布の変化は、光の位相変化および振幅変化のうち少なくともいずれか1つとして検出される。そこで、第1実施形態では、時間相関画像データおよび強度画像データを用いて、法線ベクトルの分布の変化に対応した、光の位相変化および振幅変化のうち少なくともいずれか1つを検出する。これにより、第1実施形態では、被検査体の表面形状の異常を検出することが可能となる。以下、第1実施形態における、被検査体の異常と、法線ベクトルと、光の位相変化/振幅変化と、の関係について説明する。
 図5は、第1実施形態の時間相関カメラ110による、被検査体の異常の第1の検出例を示した図である。図5に示される例では、被検査体500に突形状の異常501がある状況とする。当該状況においては、異常501の点502の近傍領域において、法線ベクトル521、522、523が異なる方向を向いていることを確認できる。当該法線ベクトル521、522、523が異なる方向を向いていることは、異常501から反射した光の拡散(たとえば、光511、512、513)を生じさせ、時間相関カメラ110のイメージセンサ220の任意の画素531に入る縞パターンの幅503を広くする。
 図6は、第1実施形態において、図5に示される異常501が存在する場合に、当該異常501に応じて変化する、光の振幅の例を表した図である。図6に示される例では、光の振幅が、実部(Re)と虚部(Im)とに分けて2次元平面上に表されている。また、図6には、図5の光511、512、513に対応する光の振幅611、612、613が示されている。光の振幅611、612、613は、互いに打ち消し合い、イメージセンサ220の任意の画素531には、振幅621の光が入射する。
 したがって、図6に示される状況では、被検査体500の異常501が撮像された領域で、振幅が小さいことが確認できる。換言すれば、振幅変化を示した振幅画像中に周囲と比べて暗くなっている領域がある場合、当該領域で光同士の振幅の打ち消し合いが生じていると推測できるため、当該領域に対応する被検査体500の位置で異常501が生じていると判断できる。
 なお、第1実施形態の検査システムは、図5の異常501のように傾きが急峻に変化しているものに限らず、緩やかに変化する異常も検出できる。図7は、第1実施形態の時間相関カメラ110による、被検査体の異常の第2の検出例を示した図である。一般に、被検査体が正常である場合、当該被検査体の表面は、平面(換言すれば法線が平行)となる。しかしながら、図7に示される例では、被検査体700に緩やかな勾配701が生じた状況となっている。このような状況では、勾配701上の法線ベクトル721、722、723も同様に緩やかに変化し、イメージセンサ220に入力する光711、712、713が少しずつずれていく。ここで、図7に示される例では、緩やかな勾配701のために光の振幅の打ち消し合いは生じないため、図5、図6で表したような光の振幅はほとんど変化しない。しかしながら、図7に示される例では、本来スクリーン130から投影された光が、そのままイメージセンサ220に平行に入るはずであるところ、緩やかな勾配701の存在に起因して、スクリーン130から投影された光が平行の状態でイメージセンサ220に入らないため、光の位相変化が生じる。したがって、光の位相変化について、周囲などとの違いを検出すれば、図7に示したような緩やかな勾配701による異常を検出できる。
 また、第1実施形態では、被検査体の表面形状(換言すれば、被検査体の法線ベクトルの分布)以外にも異常が生じる場合がある。図8は、第1実施形態の時間相関カメラ110による、被検査体の異常の第3の検出例を示した図である。図8に示される例では、被検査体800に汚れ801が付着している。このため、図8に示される例では、照明装置120から照射された光が汚れ801に対応した領域に吸収され、あるいは照明装置120から照射された光が汚れ801に対応した領域から拡散反射することで、時間相関カメラ110の、汚れ801を撮像している任意の画素領域において、光がほとんど強度変化しない。換言すれば、図8に示される例では、汚れ801を撮像している任意の画素領域で、光の強度が位相の打ち消し合いを起こして振動成分がキャンセルされることで、明るさがほとんど直流的になる。
 このように、汚れ801を撮像している画素領域においては、光の振幅がほとんどなくなるため、振幅画像を表示した際に、周囲と比べて暗くなる領域が生じる。この理屈を利用すれば、当該領域に対応する被検査体800の位置に、汚れ801などの異常があることを推定できる。
 以上のように、第1実施形態では、時間相関画像(振幅画像および位相画像)に基づいて、光の振幅の変化と、光の位相の変化と、を検出することで、被検査体に異常があることを推定できる。
 図1に戻り、PC100について説明する。PC100は、検査システム全体の制御を行う。PC100は、アーム制御部101と、照明制御部102と、制御部103と、を備える。
 アーム制御部101は、被検査体150の時間相関カメラ110による撮像対象となる表面を変更するために、アーム140を制御する。第1実施形態では、被検査体150の撮像対象となる表面をPC100に複数設定しておく。アーム制御部101は、時間相関カメラ110による被検査体150の撮像が終了する毎に、当該時間相関カメラ110が上記の設定に従って表面の撮像を実行できるように、アーム140を用いて被検査体150を移動させる。なお、第1実施形態は、撮像が終了する毎にアーム140を移動させ、撮像が開始する前に停止させることを繰り返すことに制限するものではなく、継続的にアーム140を駆動させてもよい。なお、アーム140は、搬送部、移動部、位置変更部、姿勢変更部などとも称されうる。
 照明制御部102は、照明装置120に照射させる縞パターンを出力可能に構成されている。第1実施形態では、照明制御部102が、複数(少なくとも2枚以上)の縞パターンを照明装置120に受け渡し、当該縞パターンを露光時間中に切り替えて表示するように照明装置120に指示するものとする。
 図9は、照明制御部102が照明装置120に出力させる縞パターンの例を示した図である。図9に示される例では、照明制御部102は、(B)に示す矩形波に従って、(A)に示す黒領域と白領域とが設定された縞パターンを出力させるように、照明装置120を制御する。
 なお、第1実施形態で用いられる縞パターンにおける縞の間隔は、検出対象となる異常(欠陥)の大きさに応じて設定されるものとして、ここでは詳しい説明を省略する。
 また、第1実施形態では、縞パターンを出力するための矩形波の角周波数ωは、参照信号の角周波数ωと同じ値とする。
 ここで、図9に示されるように、照明制御部102が出力する縞パターンは、矩形波として示すことができる。しかしながら、第1実施形態では、縞パターンに対応した光がスクリーン130を介して照射されることで、縞パターンの境界領域をぼかす、すなわち縞パターンにおける明領域(縞の領域)と暗領域(間隔の領域)との境界における光の強度変化を緩やかにして(鈍らせて)いる。つまり、第1実施形態では、スクリーン130を介した後の縞パターンに対応した光の強度変化が、正弦波に近似したものとなる。図10は、スクリーン130を介した後の縞パターンを表した波の形状の一例を示した例示的な図である。図10に示されるような正弦波に近似した波は、計測精度(異常の検出精度)の向上をもたらす。なお、第1実施形態では、縞に明度が多段階に変化するグレー領域を追加したり、グラデーションを与えたりしてもよい。また、第1実施形態では、カラーの縞を含む縞パターンを用いてもよい。
 図1に戻り、制御部103は、時間相関カメラ110から受け取った画像データ(強度画像データおよび時間相関画像データ)に基づいて、被検査体150の検査対象面の法線ベクトルの分布と対応した特徴であって、周囲との違いによって異常を検出する特徴を算出し、被検査体150の異常を検出する。なお、第1実施形態による制御部103は、検査を行うために、複素数で表現される時間相関画像データ(複素時間相関画像データ)そのものではなく、当該複素数の実部および虚部に対応した2種類の時間相関画像データを、時間相関カメラ110から受け取るものとする。制御部103は、画像生成部104と、異常検出部105と、を備える。
 画像生成部104は、時間相関カメラ110から受け取った強度画像データおよび時間相関画像データに基づいて、振幅画像および位相画像を生成する。なお、上述したように、振幅画像とは、画素毎に入る光の振幅を表した振幅画像データに対応し、位相画像とは、画素毎に入る光の位相を表した位相画像データに対応する。
 第1実施形態は、振幅画像の算出手法を制限するものではないが、たとえば、画像生成部104は、2種類の時間相関画像の画素値C1(x,y)およびC2(x,y)から、式(8)を用いて、振幅画像の各画素値F(x,y)を導き出す。
Figure JPOXMLDOC01-appb-M000007
 異常検出部105は、振幅画像の画素値(振幅)と、強度画像の画素値(強度)と、に基づいて、異常が生じている領域があるか否かを判定する。たとえば、強度画像の画素値(AT)を2で除算した値と、振幅画像の振幅(打ち消し合いが生じない場合にはAT/2となる)と、がある程度一致する領域は、異常が生じていないと推測できる。一方、両者が一致していない領域については、振幅の打ち消し合いが生じていると推測できる。
 同様に、第1実施形態は、位相画像の算出手法を制限するものではないが、画像生成部104は、画素値C1(x,y)およびC2(x,y)から、式(9)を用いて、位相画像の各画素値P(x,y)を導き出す。
Figure JPOXMLDOC01-appb-M000008
 異常検出部105は、上記の振幅画像および位相画像における周囲との違いに基づき、検査対象面の法線ベクトルの分布と対応した特徴であって、被検査体150の異常を検出するための特徴を算出する。第1実施形態では、法線ベクトルの分布に対応した特徴として、振幅の分布を用いる例について説明する。ここで、振幅の分布とは、複素時間相関画像の各画素の振幅の分布を示したデータであり、振幅画像データに相当する。
 図11は、第1実施形態の異常検出部105による、振幅に基づく異常検出処理の手順の一例を示した例示的なフローチャートである。
 図11に示される例では、まず、異常検出部105は、振幅画像の各画素に格納された、光の振幅値(を表した画素値)から、当該画素を基準(たとえば中心)として、N×N領域の平均振幅値を減算し(S1101)、振幅の平均差分画像を生成する。振幅の平均差分画像は、振幅の勾配に対応する。なお、整数Nは実施の態様に応じて適切な値が設定されるものとする。
 次に、異常検出部105は、減算により生成された振幅の平均差分画像に対して、予め定められた振幅の閾値を用いたマスク処理を行う(S1102)。
 さらに、異常検出部105は、平均差分画像のマスク領域内について画素毎に標準偏差を算出する(S1103)。なお、実施形態では、標準偏差に基づいた手法について説明するが、標準偏差を用いた場合に制限するものではなく、たとえば平均値などを用いてもよい。
 そして、異常検出部105は、平均を引いた振幅画素値が-4.5σ(σ:標準偏差)より小さい値の画素を、異常(欠陥)がある領域として検出する(S1104)。
 上述した処理手順により、各画素の振幅値(換言すれば、振幅の分布)から、被検査体の異常を検出できる。しかしながら、第1実施形態は、複素時間相関画像の振幅の分布から異常を検出することに制限するものではない。検査対象面の法線ベクトルの分布と対応した特徴としては、位相の分布の勾配も用いられうる。そこで、次に位相の分布の勾配を用いた異常検出処理について説明する。
 図12は、第1実施形態の異常検出部105による、位相に基づく異常検出処理の手順の一例を示した例示的なフローチャートである。
 図12に示される例では、まず、異常検出部105は、位相画像の画素毎の光の位相値(を表した画素値)から、当該画素を基準(たとえば中心)として、N×N領域の平均位相値を減算し(S1201)、位相の平均差分画像を生成する。位相の平均差分画像は、位相の勾配に対応する。
 次に、異常検出部105は、減算により生成された位相の平均差分画像の大きさ(絶対値)と、閾値とを比較し、平均差分画像の大きさが閾値以上となる画素を、異常(欠陥)のある画素として検出する(S1202)。
 このS1202の検出結果により、異常検出部105は、平均差分画像の正負、すなわち、画素の位相値と平均位相値との大小関係によって、凹凸を判別することができる(S1203)。画素の位相値と平均位相値とのどちらが大きい場合に凸となるかは、各部の設定によって変化するが、大小関係が異なると、凹凸が異なる。
 なお、第1実施形態では、他の手法によって得られた位相の分布の勾配から、異常を検出することができる。たとえば、異常検出部105は、他の手法として、正規化された時間相関画像のN×Nの領域の平均ベクトルと、正規化された各画素のベクトルとの差の大きさが、閾値よりも大きい場合に、異常(欠陥)がある画素として検出する、という手法を用いることができる。なお、位相に基づく異常検出処理の手法は、位相の分布の勾配を用いた手法に限られず、位相の分布に対応する情報を用いた手法であってもよい。
 また、第1実施形態では、異常検出処理の際に、振幅と強度との両方が考慮されてもよい。図13は、第1実施形態の異常検出部105による、振幅および強度に基づく異常検出処理の手順の一例を示した例示的なフローチャートである。
 図13に示される例では、まず、異常検出部105は、時間相関画像と強度画像とから、各画素について、次の式(100)を用いて、振幅(を表す画素値)C(x,y)(式(7)参照)と強度(を表す画素値)G(x,y)(式(6)参照)との比R(x,y)を算出する(S1301)。
R(x,y)=C(x,y)/G(x,y) … (100)
 次に、異常検出部105は、比R(x,y)と閾値とを比較し、比R(x,y)の値が対応する閾値以下となる画素を、異常(欠陥)のある画素として検出する(S1302)。また、異常検出部105は、比R(x,y)と閾値とを比較し、比R(x,y)の値が対応する別の閾値以上となる画素を、ムラ(汚れなど)のある画素として検出する(S1303)。法線ベクトルの分布の異常により、振幅の打ち消し合い(減殺)が顕著となった場合には、強度に比べて振幅がより大きく下がる。一方、法線ベクトルの分布にはそれほどの異常は無いものの被検査体150の表面の汚れなどによって光の吸収が顕著となった場合には、振幅に比べて強度がより大きく下がる。よって、異常検出部105は、S1302およびS1303による異常種別の検出が可能となる。
 以上のように、縞パターンを所定の方向(x方向とする)に移動させれば、当該x方向で法線ベクトルの分布の変化をもたらす異常、たとえばx方向と交差(直交)する方向(y方向とする)に延びるキズ(欠陥)を容易に検出することができる。しかしながら、x方向に延びるキズ(欠陥)、つまりy方向に沿った法線ベクトルの分布の変化をもたらす異常は、x方向に縞パターンを移動させるよりも、y方向に縞パターンを移動させた方が、検出が容易になると考えられる。
 図14は、第1実施形態の照明装置120が、異常(欠陥)の延びる方向に沿った縞パターンを照射した状態を示した例示的な図である。図14に示される例では、x方向に延びた異常(欠陥)1601が存在している。上記の理由により、x方向に延びる異常1601は、当該異常1601と同様にx方向に沿って延びる縞パターンをy方向に沿って移動させれば、異常1601を容易に検出することができると考えられる。
 図15は、第1実施形態において、図14の縞パターンをy方向に沿って変化(移動)させる場合における、異常(欠陥)と縞パターンとの関係を示した例示的な図である。図15に示されるように、y方向に幅が狭く、かつ当該y方向に交差(直交)するx方向を長手方向とする異常(欠陥)1601が存在している場合、照明装置120から照射された光は、x方向に直交するy方向で、光の振幅の打ち消しが大きくなる。このため、x方向に延びる異常1601を容易に検出するためには、x方向に延びる縞パターンをy方向に移動させることで取得される振幅画像を用いた検査を行えばよいことが分かる。
 このように、様々な方向性を持ちうる異常(キズ、欠陥)を精度よく検出するためには、異なる方向に延びる複数種類の縞パターン(少なくとも、互いに交差する2方向に延びる2種類の縞パターン)を異なる方向(少なくとも2方向)に移動させることで得られる複数の時間相関画像を用いた検査を行うことが必要となる。
 従来では、互いに交差する方向に延びる2種類の縞パターンの各々に対応した時間相関画像を得るために、一方の縞パターンのみを連続的に出力して相関演算(フレームの重畳)を行った後、当該一方の縞パターンの出力を一旦停止し、その後に他方の縞パターンを新たに読み込んで、当該他方の縞パターンのみを連続的に出力して相関演算を行っていた。このため、従来では、縞パターンの切り替えに時間がかかり、検査に要するタクトタイム(サイクルタイム)が増加していた。
 そこで、第1実施形態の照明装置120は、方向性を持った異常(キズ、欠陥)を精度よく検出することと、検査に要するタクトタイム(サイクルタイム)を短縮することと、を両立するために、互いに交差する2方向(第1方向および第2方向とする)に延びる2種類の縞パターンをシームレスで切り替える。より具体的に、照明装置120は、第1方向に延びる第1縞パターンが第1方向と交差する第2方向に1周期分移動した後、第2方向に延びる第2縞パターンが第1方向に1周期分移動するように、複数の縞パターンを所定の時間間隔で順次切り替えて連続的に出力する。以下では、互いに直交するx方向およびy方向を用いて、第1方向をy方向、第2方向をx方向として記載する。
 図16は、第1実施形態の照明装置120が実行する縞パターンの切り替えの一例を示した例示的な図である。図16に示されるように、第1実施形態の照明装置120は、(A)に示されるようなy方向に延びる第1縞パターンSP1をx方向に1周期分移動させた後、シームレスで縞パターンの切り替えを実行し、(B)に示されるようなx方向に延びる第2縞パターンSP2をy方向に1周期分移動させる。以下では、簡単化のため、第1縞パターンSP1と第2縞パターンSP2とは、向きが異なるだけで、縞幅や隣接する縞の間の間隔などの他の条件が等しいものとして説明するが、第1実施形態では、向きだけでなく、縞幅や隣接する縞の間の間隔なども、第1縞パターンSP1と第2縞パターンSP2とで異なっていてもよい。
 ところで、上記のような2種類の縞パターンの切り替えをシームレスで実行する場合では、照明装置120の動作と時間相関カメラ110の動作とをより正確に同期させる必要がある。たとえば、図16に示される例では、第1縞パターンSP1の出力の開始タイミングと、時間相関カメラ110によるフレームの重畳の開始タイミングとを一致させるとともに、第1縞パターンSP1から第2縞パターンSP2への切替タイミングと、時間相関カメラ110によるフレームの重畳の終了タイミングとを一致させなければ、第2縞パターンSP2の影響を排除した、第1縞パターンSP1のみに対応した時間相関画像を得ることができない。同様に、図16に示される例では、第1縞パターンSP1から第2縞パターンSP2への切替タイミングと、時間相関カメラ110によるフレームの重畳の開始タイミングとを一致させるとともに、第2縞パターンSP2の出力の終了タイミングと、時間相関カメラ110によるフレームの重畳の終了タイミングとを一致させなければ、第1縞パターンSP1の影響を排除した、第2縞パターンSP2のみに対応した時間相関画像を得ることができない。
 そこで、図2に戻り、第1実施形態の時間相関カメラ110には、照明装置120の動作と時間相関カメラ110の動作とをより正確に同期させるための構成が設けられている。より具体的に、第1実施形態の時間相関カメラ110には、複数の縞パターンの出力開始のトリガとなる第1信号を照明装置120に出力する第1信号出力部251と、複数の縞パターンの切り替えのトリガとなる第2信号を照明装置120に出力する第2信号出力部252と、が設けられている。
 図2に示されるように、第1信号は、照明装置120のみならず、読出部242および参照信号出力部260にも出力される。これにより、読出部242は、イメージセンサ220から出力されるフレームの読み出しを第1信号に基づいたタイミングで開始し、参照信号出力部260は、参照信号の出力を第1信号に基づいたタイミングで開始する。その結果、相関画像用重畳部244は、イメージセンサ220から出力されるフレームの重畳を第1信号に基づいたタイミングで開始することで、照明装置120によって照らされた被検査体150の検査対象面を撮像した時間相関画像データを取得する。
 図17は、第1実施形態の時間相関カメラ110および照明装置120の動作タイミングの一例を示した例示的なタイミングチャートである。図17において、「CIS capture」は、イメージセンサ220から出力されるフレームが蓄積される様子を表し、「ref」は、参照信号出力部260から出力される参照信号を表し、「Correlation」は、相関演算(フレームの重畳)が行われる期間を表す。また、図17において、「Sync」は、第2信号出力部252から出力される第2信号を表し、「OE」は、第1信号出力部251から出力される第1信号を表す。図17に示される例では、照明装置120が、図16と同様の第1縞パターンSP1および第2縞パターンSP2のシームレスな切り替えを実行するものとする。
 図17に示される例では、タイミングt1で、第1信号および第2信号の出力が開始する。これにより、照明装置120は、第1信号に基づいたタイミングt1で複数の縞パターンの出力を開始し、当該複数の縞パターンを第2信号に基づいて順次切り替える。つまり、照明装置120は、タイミングt1で、第1縞パターンSP1の1周期分の移動を開始し、当該第1縞パターンSP1の移動が終了したタイミングt2で、第2縞パターンSP2への切り替えをシームレスで実行し、当該第2縞パターンSP2の1周期分の移動を開始する。第2縞パターンSP2の1周期分の移動は、タイミングt3で終了する。
 なお、第1縞パターンSP1が1周期分移動するのに要する時間と、第2縞パターンSP2が1周期分移動するのに要する時間とは、互いに一致するように設定される。したがって、図17に示される例では、タイミングt1およびタイミングt2の間の時間と、タイミングt2およびタイミングt3の間の時間と、が等しい大きさ(符号Tで表す)となる。
 一方、タイミングt1で第1信号の出力が開始されると、それに応じて、読出部242がフレームの読み出しを開始し、参照信号出力部260が参照信号の出力を開始する。図17に示される例では、参照信号として、周期Tの正弦波が用いられる。したがって、図17に示される例では、第1縞パターンSP1の移動が開始してから第2縞パターンSP2の移動が終了するまでに、参照信号の値が2周期分変化する。以下では、説明の便宜上、参照信号の前半部分、すなわち第1縞パターンSP1の1周期分の移動中に時間遷移とともに値が変化する部分を第1区間とし、参照信号の後半部分、すなわち第2縞パターンSP2の1周期分の移動中に時間遷移とともに値が1周期分変化する部分を第2区間と記載することがある。
 図17に示される例では、参照信号が1系統のみであり、当該1系統の参照信号の波形は、前半部分(第1区間)と後半部分(第2区間)とで同一である。これにより、第1区間と第2区間とで波形を異ならせる場合と異なり、参照信号出力部260の処理を簡単化することができる。
 上記の参照信号に基づき、相関画像用重畳部224は、第1縞パターンSP1および第2縞パターンSP2の両方の影響が混在した時間相関画像データを取得することなく、第1縞パターンSP1のみの影響に基づく第1時間相関画像データと、第2縞パターンSP2のみの影響に基づく第2時間相関画像データと、を分けて取得することが可能になる。すなわち、相関画像用重畳部244は、第1縞パターンSP1の移動が開始してから第2縞パターンSP2の移動が終了するまでに相関演算(フレームの重畳)を2回実行することで、第1縞パターンSP1が第2縞パターンSP2に切り替わるまでのフレームの重畳結果である第1時間相関画像データと、第1縞パターンSP1が第2縞パターンSP2に切り替わってからのフレームの重畳結果である第2時間相関画像データと、を取得することが可能である。
 より具体的に、相関画像用重畳部244は、タイミングt1からタイミングt2にかけて、参照信号(第1区間)の値を乗算しながらフレームを重畳することで、第1縞パターンSP1のみの影響に基づく第1時間相関画像データを取得する。そして、相関画像用重畳部244は、タイミングt2からタイミングt3にかけて、参照信号(第2区間)の値を乗算しながらフレームを重畳することで、第2縞パターンSP2のみの影響に基づく第2時間相関画像データを取得する。
 図1に戻り、画像生成部104は、時間相関カメラ110から受け取った上記の第1時間相関画像データおよび第2時間相関画像データを画像化し、第1縞パターンSP1のみに対応した第1時間相関画像と、第2縞パターンSP2のみに対応した第2時間相関画像と、を生成する。そして、異常検出部105は、生成された第1時間相関画像および第2時間相関画像を用いて、異常検出処理を実行する。
 図18は、第1実施形態において生成される第1時間相関画像の具体例を示した例示的な図であり、図19は、第1実施形態において、図18の第1時間相関画像とともに生成される第2時間相関画像の具体例を示した例示的な図である。図18および図19に示されるように、第1実施形態では、上述した第1信号および第2信号を用いて時間相関カメラ110および照明装置120の同期をとっているため、異なる方向に延びる2種類の縞パターンの両方の影響が混在した時間相関画像ではなく、当該2種類の縞パターンにそれぞれ対応した2枚の時間相関画像を得ることができる。
 次に、第1実施形態における被検査体150の検査処理について説明する。図20は、第1実施形態の検査システムによる当該検査処理の手順の一例を示した例示的なフローチャートである。なお、被検査体150は、すでにアーム140に固定された状態で、検査の初期位置に配置されているものとする。
 第1実施形態では、まず、S1401において、PC100が、照明装置120に対して、被検査体150の検査に用いる複数の縞パターンを出力する。ここで出力される複数の縞パターンは、第1縞パターンSP1の1周期分の移動と、第2縞パターンSP2の1周期分の移動と、を実現可能な程度の複数の縞パターンである。
 そして、S1421において、照明装置120は、PC100から入力された複数の縞パターンを格納する。
 そして、S1402において、PC100は、時間相関カメラ110に対して、撮像開始指示を出力する。
 PC100から撮像開始指示が入力されると、S1411において、時間相関カメラ110は、第1信号および第2信号の出力を開始する。第1信号および第2信号は、照明装置120に出力される。
 時間相関カメラ110から第1信号および第2信号が入力されると、S1422において、照明装置120は、S1421で格納された複数の縞パターンを所定の時間間隔で順次切り替える処理を開始する。これにより、照明装置120は、第1縞パターンSP1を1周期分移動させた後、当該第1縞パターンSP1をシームレスで第2縞パターンSP2に切り替え、当該第2縞パターンSP2を1周期分移動させる。なお、照明装置120は、第2縞パターンSP2の1周期分の移動を終了した後は、再び第1縞パターンSP1、第2縞パターンSP2の順に1周期分の移動を開始してもよいし、縞パターンの出力を終了してもよい。
 なお、S1411の第1信号は、照明装置120のみならず、時間相関カメラ110の読出部242および参照信号出力部260にも出力される。これにより、S1412において、読出部242は、第1信号に基づいたタイミングで、イメージセンサ220から出力されるフレームの読み出しを開始し、参照信号出力部260は、時間相関カメラ110の相関画像用重畳部244への参照信号の出力を開始する。その結果、S1413において、相関画像用重畳部244は、第1縞パターンSP1の移動が開始してから第2縞パターンSP2の移動が終了するまでに相関演算(フレームの重畳)を2回実行し、第1縞パターンSP1が第2縞パターンSP2に切り替わるまでのフレームの重畳結果である第1時間相関画像データと、第1縞パターンSP1が第2縞パターンSP2に切り替わってからのフレームの重畳結果である第2時間相関画像データと、を取得する。
 そして、S1414において、時間相関カメラ110は、S1413で生成された第1時間相関画像データおよび第2時間相関画像データを、PC100に出力する。なお、このとき、時間相関カメラ110は、第1時間相関画像データおよび第2時間相関画像データの他、強度画像用重畳部243により取得された強度画像データも、PC100に出力しうる。
 そして、S1403において、PC100は、S1414で出力された第1時間相関画像データおよび第2時間相関画像データ(さらには強度画像データ)を、時間相関カメラ110から受け取る。そして、S1404において、PC100の制御部103における画像生成部104は、S1403で受け取ったデータに基づき、第1縞パターンSP1のみに対応した第1時間相関画像と、第2縞パターンSP2のみに対応した第2時間相関画像と、を生成する。
 そして、S1405において、PC100の制御部103における異常検出部105は、第1時間相関画像および第2時間相関画像に基づき、被検査体150の異常検出処理を実行する。異常検出処理の手順については、いくつかの例(たとえば図11~図13参照)を既に説明したため、ここでは説明を省略する。
 そして、S1406において、異常検出部105は、S1405での異常検出処理の結果を、PC100が備える(またはPC100に接続される)ディスプレイなどの出力デバイスに出力する。
 異常検出処理の結果を出力する方法としては、たとえば、強度画像を表示した上で、当該強度画像における異常に対応した領域を強調表示(装飾表示)することなどが考えられる。なお、異常検出処理の結果は、視覚に訴える形式で出力する代わりに、音声を用いて聴覚に訴える形式で出力してもよいし、視覚に訴える形式と聴覚に訴える形式とを併用して出力してもよい。
 S1406での異常検出処理の結果の出力が終了すると、S1407において、制御部103は、被検査体150の検査が終了したか否かを判定する。
 S1407において、検査が終了していないと判定された場合、S1408に処理が進む。そして、S1408において、PC100のアーム制御部101は、予め定められた設定に従って、被検査体150における次の検査対象となる表面を時間相関カメラ110が撮像できるように、アーム140の移動制御を実行する。そして、アームの移動制御が終了すると、S1402に処理が戻り、PC100は、再び、時間相関カメラ110に対して撮像開始指示を出力する。
 一方、S1407において、検査が終了したと判定された場合、S1409に処理が進む。そして、S1409において、PC100は、検査の終了を指示する終了指示を時間相関カメラ110に出力する。S1409の処理が終了すると、PC100で実行される一連の処理が終了する。
 一方、時間相関カメラ110は、S1415において、PC100から終了指示を受け取ったか否かを判定する。S1415において、終了指示を受け取っていないと判定された場合、S1411に処理が戻る。しかしながら、S1415において、終了指示を受け取ったと判断された場合、そのまま処理が終了、つまり時間相関カメラ110で実行される一連の処理が終了する。
 なお、照明装置120の動作の終了は、検査者の手動操作によって実現されてもよいし、PC100や時間相関カメラ110などの他の構成からの指示によって実現されてもよい。
 上述した第1実施形態では、デジタル的に動作する時間相関カメラ110を用いて、時間相関画像データ(および強度画像データ)を取得する例について説明した。しかしながら、時間相関画像データは、デジタル的に動作する時間相関カメラ110のみならず、アナログ的に動作する時間相関カメラや、それと等価な動作をする撮像システムなどによっても取得可能である。時間相関画像データを取得する他の手法としては、たとえば、通常のデジタルスチルカメラを用いて通常の画像データを取得した上で、情報処理装置を用いて、通常の画像データをフレーム画像データとみなして参照信号を重畳する手法や、デジタルカメラのイメージセンサ自体に、参照信号を重畳する機能を持たせる手法などが考えられる。
 以上説明したように、第1実施形態では、複数の縞パターンの出力開始のトリガとなる第1信号を照明装置120に出力する第1信号出力部251と、複数の縞パターンの切り替えのトリガとなる第2信号を照明装置120に出力する第2信号出力部252と、が設けられている。これにより、第1信号および第2信号に基づき、時間相関カメラ110の動作と照明装置120の動作とをより正確に同期させることができるので、互いに交差する方向に延びる2種類の縞パターンの各々に対応した時間相関画像を容易に、あるいは迅速に得ることができる。
 たとえば、前述したように、従来では、互いに交差する方向に延びる2種類の縞パターンの各々に対応した時間相関画像を得るために、一方の縞パターンのみを連続的に出力して相関演算(フレームの重畳)を行った後、当該一方の縞パターンの出力を一旦停止し、その後に他方の縞パターンを新たに読み込んで、当該他方の縞パターンのみを連続的に出力して相関演算を行う必要があった。これに対して、第1実施形態では、縞パターンの出力開始/終了、および切替のタイミングと、相関演算(フレームの重畳)の開始/終了のタイミングと、の整合をとりながら、互いに交差する方向に延びる2種類の縞パターンをシームレスで切り替えることで、当該2種類の縞パターンの各々に対応した時間相関画像を容易に得ることができる。したがって、第1実施形態では、従来のように縞パターンの切り替えに時間を要することがないので、検査に要するタクトタイム(サイクルタイム)を短縮することができる。
<第1変形例>
 上述した第1実施形態では、周囲との違いに基づいて、異常を検出するための特徴を算出する例について説明したが、異常を検出するための特徴は、周囲との違い以外の点に基づいて算出することも可能である。たとえば、第1変形例として、参照形状を表す参照データとの差異に基づいて、異常を検出するための特徴を算出することが考えられる。この場合、実際に検査を行う環境を、参照データを取得した環境と一致させる必要がある。たとえば、空間位相変調照明(縞パターン)の位置合わせおよび同期が必要となる。
 第1変形例では、異常検出部105が、予め(図示しない)記憶部に記憶された参照データ(参照表面から取得した時間相関画像データ)と、現在の検査対象である被検査体150の時間相関画像データと、を比較し、両者の間に、光の振幅および光の位相のうちいずれか1つ以上について所定の基準以上の違いが存在するか否かを判定する。
 参照表面としては、たとえば正常な被検査体の表面が用いられる。つまり、第1変形例では、第1実施形態と同様に構成された検査システム(時間相関カメラ110)によって正常な被検査体の表面を撮像することで得られた時間相関画像データが、参照データとして用いられる。
 第1変形例による具体的な検査手順は、次の通りである。まず、時間相関カメラ110が、照明装置120がスクリーン130を介して縞パターンを照射している間に、正常な被検査体の表面を撮像することで、時間相関画像データを取得する。そして、PC100が、時間相関カメラ110で生成された時間相関画像データに基づき、振幅画像や位相画像などを生成し、生成した画像を記憶する。そして、時間相関カメラ110が、異常が生じているか否か判定したい検査対象を撮像し、当該検査対象の時間相関画像データを生成する。そして、PC100が、時間相関画像データから、振幅画像や位相画像などを生成し、当該生成した画像と、記憶部に予め記憶された正常な被検査体の画像と、を比較する。そして、PC100が、比較結果に基づいて、異常を検出するための特徴を算出し、当該特徴が所定の基準以上か否かに基づいて、検査対象に異常が存在するか否かを判定する。
 このように、第1変形例では、正常な被検査体の表面を基準として所定の差異が生じているか否かを判定することで、検査対象の表面に異常が存在するか否かを判定する。なお、振幅画像や位相画像などといった各種の画像を比較する手法は、どのような手法を用いてもよいので、説明を省略する。
 また、第1変形例では、上記のように、参照表面との違い(参照形状を表す参照データとの違い)に基づいて、異常を検出するための特徴を算出する例について説明したが、当該特徴は、参照表面との違い以外の基準を考慮して算出してもよい。たとえば、第1変形例で用いられる参照表面の違いと、上述した第1実施形態で用いられる周囲との違いと、を組み合わせて、異常を検出するための特徴を算出してもよい。これらを組み合わせる手法は、どのような手法を用いてもよいので、説明を省略する。
<第2実施形態>
 次に、第2実施形態について説明する。この第2実施形態は、1系統の参照信号の前半部分と後半部分とに分けて相関演算(フレームの重畳)を行うことで、第1縞パターンSP1および第2縞パターンSP2のそれぞれのみに対応した時間相関画像データを取得する第1実施形態と異なり、2系統の参照信号のそれぞれについて別々に相関演算を行うことで、第1縞パターンSP1および第2縞パターンSP2のそれぞれのみに対応した時間相関画像データを取得する。
 図21は、第2実施形態の時間相関カメラ110aの構成を示した例示的なブロック図である。図21に示されるように、第2実施形態の時間相関カメラ110aには、参照信号を出力するための構成として、第1参照信号出力部260aと、第2参照信号出力部260bと、の2つが設けられている。そして、制御部240aの相関画像用重畳部244aには、これら2つの参照信号出力部に対応する構成として、イメージセンサ220から出力されたフレームの画素値に参照信号の値を乗算するための乗算器と、当該乗算器による乗算結果を重畳する重畳部と、の組み合わせが、4つ設けられている。
 より具体的に、相関画像用重畳部244aは、第1参照信号出力部260aに対応する構成として、第1の乗算器245aおよび第1の相関画像用重畳部246aの組み合わせと、第2の乗算器247aおよび第2の相関画像用重畳部248aの組み合わせと、の2つの組み合わせを有する。同様に、相関画像用重畳部244aは、第2参照信号出力部260bに対応する構成として、第3の乗算器245bおよび第3の相関画像用重畳部246bの組み合わせと、第4の乗算器247bおよび第4の相関画像用重畳部248bの組み合わせと、の2つの組み合わせを有する。
 第1の乗算器245aおよび第2の乗算器247aは、第1参照信号出力部260aから出力される第1参照信号を受け取り、当該第1参照信号の値を、読出部242から受け取ったフレームの画素値に乗算する。そして、第1の相関画像用重畳部246aおよび第2の相関画像用重畳部248aは、それぞれ、第1の乗算器245aおよび第2の乗算器247aによる乗算結果を重畳する。同様に、第3の乗算器245bおよび第4の乗算器247bは、第2参照信号出力部260bから出力される第2参照信号を受け取り、当該参照信号の値を、読出部242から受け取ったフレームの画素値に乗算する。そして、第3の相関画像用重畳部246bおよび第4の相関画像用重畳部248bは、それぞれ、第3の乗算器245bおよび第4の乗算器247bによる乗算結果を重畳する。なお、第1参照信号および第2参照信号の波形などについては、後で詳細に説明するため、ここでは説明を省略する。
 以上により、第2実施形態では、第1の相関画像用重畳部246aの重畳結果と、第2の相関画像用重畳部248aの重畳結果と、第3の相関画像用重畳部246bの重畳結果と、第4の相関画像用重畳部248bの重畳結果と、の4つに対応した、合計4種類の時間相関画像データが取得される。そして、第2実施形態では、これら4種類の時間相関画像データに基づき、上述した第1実施形態と同様の、第1縞パターンSP1のみに対応した第1時間相関画像と、第2縞パターンSP2のみに対応した第2時間相関画像と、が生成される。
 なお、第2実施形態のその他の構成は、上述した第1実施形態と同様であるため、ここでは説明を省略する。以下、図22を参照して、第2実施形態の動作についてより詳細に説明する。
 図22は、第2実施形態の時間相関カメラ110aおよび照明装置120の動作タイミングの一例を示した例示的なタイミングチャートである。図22において、「refA」は、第1参照信号出力部260aから出力される第1参照信号を表し、「refB」は、第2参照信号出力部260bから出力される第2参照信号を表す。その他の「CIS capture」、「Correlation」、「Sync」、および「OE」の意味は、上述した図17と同様であるため、ここでは説明を省略する。図22に示される例においても、図17に示される例と同様に、照明装置120が、第1縞パターンSP1および第2縞パターンSP2のシームレスな切り替えを実行するものとする。
 図22に示される例では、タイミングt11で、第1信号および第2信号の出力が開始する。これにより、照明装置120は、第1信号に基づいたタイミングt11で複数の縞パターンの出力を開始し、当該複数の縞パターンを第2信号に基づいて順次切り替える。つまり、照明装置120は、タイミングt11で、第1縞パターンSP1の1周期分の移動を開始し、当該第1縞パターンSP1の移動が終了したタイミングt12で、第2縞パターンSP2への切り替えをシームレスで実行し、当該第2縞パターンSP2の1周期分の移動を開始する。第2縞パターンSP2の1周期分の移動は、タイミングt13で終了する。
 なお、図22に示される例においても、図17に示される例と同様に、タイミングt11およびタイミングt12の間の時間と、タイミングt12およびタイミングt13の間の時間とは、互いに等しい大きさ(符号Taで表す)に設定される。つまり、図22に示される例においても、第1縞パターンSP1が1周期分移動するのに要する時間と、第2縞パターンSP2が1周期分移動するのに要する時間とは、互いに一致するように設定される。
 タイミングt11で第1信号の出力が開始されると、それに応じて、読出部242がフレームの読み出しを開始し、第1参照信号出力部260aおよび第2参照信号出力部260bがそれぞれ第1参照信号および第2参照信号の出力を開始する。以下に説明するように、第1参照信号および第2参照信号は、共に、周期Taの正弦波と、時間Taにわたって一定の振幅(たとえばゼロ)が続く波と、の組み合わせにより構成されている。
 第1参照信号は、前半部分が周期Taの正弦波で構成され、後半部分が時間Taにわたって一定の振幅(たとえばゼロ)が続く波で構成された信号であり、第2参照信号は、前半部分が時間Taにわたって一定の振幅(たとえばゼロ)が続く波で構成され、後半部分が周期Taの正弦波で構成された信号である。したがって、第1参照信号および第2参照信号は、共に、周期2Taで値が周期的に変化する信号であるともいえる。以下では、説明の便宜上、第1参照信号の前半部分、すなわち第1縞パターンSP1の1周期分の移動中に時間遷移とともに値が変化する部分を第3区間と記載し、第1参照信号の後半部分、すなわち第2縞パターンSP2の1周期分の移動中に時間遷移によらず値が一定となる部分を第4区間と記載することがある。また、第2参照信号の前半部分、すなわち第1縞パターンSP1の1周期分の移動中に時間遷移によらず値が一定となる部分を第5区間と記載し、第2参照信号の後半部分、すなわち第2縞パターンSP2の1周期分の移動中に時間遷移とともに値が変化する部分を第6区間と記載することがある。
 上記の第1参照信号および第2参照信号に基づき、相関画像用重畳部244aは、第1縞パターンSP1および第2縞パターンSP2の両方の影響が混在した時間相関画像データを取得することなく、第1縞パターンSP1のみの影響に基づく第3時間相関画像データと、第2縞パターンSP2のみの影響に基づく第4時間相関画像データと、を分けて取得することが可能である。すなわち、相関画像用重畳部244aは、第1参照信号に基づき、第1縞パターンSP1の移動が開始してから第2縞パターンSP2の移動が終了するまでの期間2Taにわたる相関演算(フレームの重畳)を1回実行することで、第3時間相関画像データを取得することが可能である。同様に、相関画像用重畳部244aは、第2参照信号に基づき、期間2Taにわたる相関演算を1回実行することで、第4時間相関画像データを取得することが可能である。なお、前述の図21に示された構成との対比を説明すると、第3時間相関画像データは、第1の相関画像用重畳部246aおよび第2の相関画像用重畳部248aの重畳結果の組み合わせに対応し、第4時間相関画像データは、第3の相関画像用重畳部246bおよび第4の相関画像用重畳部248bの重畳結果の組み合わせに対応する。
 図22に示される例において、第1参照信号に基づく相関演算は、次のようになる。すなわち、相関画像用重畳部244aは、タイミングt11からタイミングt12にかけて、第1参照信号の第3区間の値を乗算しながら相関演算を行い、タイミングt12からタイミングt13にかけて、第1参照信号の第4区間の値を乗算しながら相関演算を行う。ここで、第3区間の値に基づく前者の相関演算は、第1縞パターンSP1のみの影響を考慮した相関演算に対応し、第4区間に基づく後者の相関演算は、第2縞パターンSP2のみの影響を考慮した相関演算に対応する。しかしながら、上述したように、第1参照信号における第4区間の値は、時間遷移によらず一定値(たとえばゼロ)となっているため、当該第4区間の値に基づく相関演算の結果は、無視することができる。したがって、第3区間および第4区間からなる第1参照信号に基づいた、タイミングt11からタイミングt13までの期間2Taにわたる相関演算によれば、第2縞パターンSP2の影響を無視して、第1縞パターンSP1のみの影響に基づく第3時間相関画像データを取得することが可能である。
 同様に、図22に示される例において、第2参照信号に基づく相関演算は、次のようになる。すなわち、相関画像用重畳部244aは、タイミングt11からタイミングt12にかけて、第2参照信号の第5区間の値を乗算しながら相関演算を行い、タイミングt12からタイミングt13にかけて、第2参照信号の第6区間の値を乗算しながら相関演算を行う。ここで、第5区間の値に基づく前者の相関演算は、第1縞パターンSP1のみの影響を考慮した相関演算に対応し、第6区間に基づく後者の相関演算は、第2縞パターンSP2のみの影響を考慮した相関演算に対応する。しかしながら、上述したように、第2参照信号における第5区間の値は、時間遷移によらず一定値(たとえばゼロ)となっているため、当該第5区間の値に基づく相関演算の結果は、無視することができる。したがって、第5区間および第6区間からなる第2参照信号に基づいた、タイミングt11からタイミングt13までの期間2Taにわたる相関演算によれば、第1縞パターンSP1の影響を無視して、第2縞パターンSP2のみの影響に基づく第4時間相関画像データを取得することが可能である。
 このように、第2実施形態によれば、異なる2系統の参照信号(第1参照信号および第2参照信号)に基づき、第1縞パターンSP1および第2縞パターンSP2の両方の影響が混在した時間相関画像データを取得することなく、第1縞パターンSP1のみの影響に基づく第3時間相関画像データと、第2縞パターンSP2のみの影響に基づく第4時間相関画像データと、を分けて取得することができる。そして、第2実施形態によれば、第3時間画像データに基づき、第1縞パターンSP1のみに対応した第1時間相関画像(第1実施形態で説明した図18と同様の画像)を生成することができ、第4時間相関画像データに基づき、第2縞パターンSP2のみに対応した第2時間相関画像(第1実施形態で説明した図19と同様の画像)を生成することができる。
<第3実施形態>
 次に、第3実施形態について説明する。この第3実施形態は、2系統の参照信号を用いて相関演算を行うという点で第2実施形態と同様である。しかしながら、第3実施形態は、相関演算の段階で第1縞パターンSP1および第2縞パターンSP2の両方の影響が混在するのを排除する第2実施形態と異なり、相関演算の段階では第1縞パターンSP1および第2縞パターンSP2の両方の影響が混在したデータを取得し、その後にさらなる演算処理を行うことで、第1縞パターンSP1のみに対応した第1時間相関画像と、第2縞パターンSP2のみに対応した第2時間相関画像と、を分けて生成する。
 図23は、第3実施形態の時間相関カメラ110bの構成を示した例示的なブロック図である。図23に示されるように、第3実施形態の時間相関カメラ110bは、図21に示された第2実施形態の時間相関カメラ110aと略同様の構成を有する。つまり、第3実施形態の時間相関カメラ110bには、第2実施形態の時間相関カメラ110aと同様に、相関演算のための参照信号を出力する構成が2つ設けられており、イメージセンサ220から出力されたフレームの画素値に参照信号の値を乗算するための乗算器と、当該乗算器による乗算結果を重畳する重畳部と、の組み合わせが、4つ設けられている。
 しかしながら、第3実施形態では、相関演算のための参照信号の波形が、第2実施形態と異なる。つまり、第3実施形態では、第2実施形態の第1参照信号および第2参照信号とは異なる第3参照信号を出力する第3参照信号出力部260cと、第2実施形態の第1参照信号および第2参照信号とは異なり、かつ第3参照信号とも異なる第4参照信号を出力する第4参照信号出力部260dと、が設けられている。以下、図24を参照して、第3実施形態の動作についてより詳細に説明する。
 図24は、第3実施形態の時間相関カメラ110bおよび照明装置120の動作タイミングの一例を示した例示的なタイミングチャートである。図24において、「refC」は、第3参照信号出力部260cから出力される第3参照信号を表し、「refD」は、第4参照信号出力部260dから出力される第4参照信号を表す。その他の「CIS capture」、「Correlation」、「Sync」、および「OE」の意味は、上述した図17および図22と同様であるため、ここでは説明を省略する。図24に示される例においても、図17および図22に示される例と同様に、照明装置120が、第1縞パターンSP1および第2縞パターンSP2のシームレスな切り替えを実行するものとする。
 図24に示される例では、タイミングt21で、第1信号および第2信号の出力が開始する。これにより、照明装置120は、第1信号に基づいたタイミングt21で複数の縞パターンの出力を開始し、当該複数の縞パターンを第2信号に基づいて順次切り替える。つまり、照明装置120は、タイミングt21で、第1縞パターンSP1の1周期分の移動を開始し、当該第1縞パターンSP1の移動が終了したタイミングt22で、第2縞パターンSP2への切り替えをシームレスで実行し、当該第2縞パターンSP2の1周期分の移動を開始する。第2縞パターンSP2の1周期分の移動は、タイミングt23で終了する。
 なお、図24に示される例においても、図17および図22に示される例と同様に、タイミングt21およびタイミングt22の間の時間と、タイミングt22およびタイミングt23の間の時間とは、互いに等しい大きさ(符号Tbで表す)に設定される。つまり、図24に示される例においても、第1縞パターンSP1が1周期分移動するのに要する時間と、第2縞パターンSP2が1周期分移動するのに要する時間とは、互いに一致するように設定される。
 タイミングt21で第1信号の出力が開始されると、それに応じて、読出部242がフレームの読み出しを開始し、第3参照信号出力部260cおよび第4参照信号出力部260dがそれぞれ第3参照信号および第4参照信号の出力を開始する。以下に説明するように、第3参照信号および第4参照信号は、共に、周期Tbの正弦波に基づいて構成されている。
 第3参照信号は、前半部分および後半部分が周期Tbの同一の正弦波で構成された信号であり、第4参照信号は、前半部分が周期Tbの正弦波で構成され、後半部分が前半部分の正弦波の反転で構成された信号である。以下では、説明の便宜上、第3参照信号の前半部分を第7区間と記載し、第3参照信号の後半部分を第8区間と記載することがある。また、第4参照信号の前半部分を第9区間と記載し、第4参照信号の後半部分を第10区間と記載することがある。図24に示される例では、第9区間は、第7区間と一致するように値が変化し、第10区間は、第8区間の反転に対応する。なお、図24に示される例では、第7区間と第8区間とが同一の正弦波で構成されているが、第7区間と第9区間とが一致し、第8区間と第10区間とが反転の関係にありさえすれば、第7区間と第8区間とが同一の正弦波で構成されていなくてもよい。
 上記の第3参照信号および第4参照信号に基づき、相関画像用重畳部244aは、第1縞パターンSP1および第2縞パターンSP2の両方の影響が混在した時間相関画像データを取得する。すなわち、相関画像用重畳部244aは、第3参照信号に基づき、第1縞パターンSP1の移動が開始してから第2縞パターンSP2の移動が終了するまでの期間2Tbにわたる相関演算(フレームの重畳)を1回実行することで、第1縞パターンSP1と第2縞パターンSP2との和に対応した第5時間相関画像データを取得する。また、相関画像用重畳部244aは、第4参照信号に基づき、期間2Tbにわたる相関演算を1回実行することで、第1縞パターンSP1と第2縞パターンSP2との差に対応した第6時間相関画像データを取得する。
 図24に示される例において、第3参照信号に基づく相関演算は、次のようになる。すなわち、相関画像用重畳部244aは、タイミングt21からタイミングt22にかけて、第3参照信号の第7区間の値を乗算しながら相関演算を行い、タイミングt22からタイミングt23にかけて、第3参照信号の第8区間の値を乗算しながら相関演算を行う。ここで、第7区間の値に基づく前者の相関演算は、第1縞パターンSP1のみの影響を考慮した相関演算に対応し、第8区間に基づく後者の相関演算は、第2縞パターンSP2のみの影響を考慮した相関演算に対応する。したがって、タイミングt21からタイミングt23までの期間2Tbにわたる、第7区間および第8区間からなる第3参照信号の値に基づく相関演算は、第1縞パターンSP1のみの影響を考慮した相関演算と、第2縞パターンSP2のみの影響を考慮した相関演算と、の和に対応する。これにより、期間2Tbにわたる第3参照信号の値に基づく相関演算によれば、第1縞パターンSP1と第2縞パターンSP2との和に対応した第5時間相関画像データが取得される。
 同様に、図24に示される例において、第4参照信号に基づく相関演算は、次のようになる。すなわち、相関画像用重畳部244aは、タイミングt21からタイミングt22にかけて、第4参照信号の第9区間の値を乗算しながら相関演算を行い、タイミングt22からタイミングt23にかけて、第4参照信号の第10区間の値を乗算しながら相関演算を行う。ここで、上述したように、第4参照信号の第9区間は、第3参照信号の第7区間と一致し、第4参照信号の第10区間は、第3参照信号の第8区間の反転に対応する。したがって、タイミングt21からタイミングt23までの期間2Tbにわたる、第9区間および第10区間からなる第4参照信号の値に基づく相関演算は、第1縞パターンSP1のみの影響を考慮した相関演算と、第2縞パターンSP2のみの影響を考慮した相関演算と、の差に対応する。これにより、期間2Tbにわたる第4参照信号の値に基づく相関演算によれば、第1縞パターンSP1と第2縞パターンSP2との差に対応した第6時間相関画像データが取得される。
 このように、第3実施形態によれば、異なる2系統の参照信号(第3参照信号および第4参照信号)に基づき、第1縞パターンSP1と第2縞パターンSP2との和に対応した第5時間相関画像データと、第1縞パターンSP1と第2縞パターンSP2との差に対応した第6時間相関画像データと、を取得することができる。
 すなわち、第5時間相関画像データおよび第6時間相関画像データの各々を概念的な式で表現すると、次のようになる。
 ・第5時間相関画像データ=第1縞パターンSP1+第2縞パターンSP2
 ・第6時間相関画像データ=第1縞パターンSP1-第2縞パターンSP2
 上記の2つの概念的な式によれば、さらに次のような2つの概念的な式が得られる。
 ・第5時間相関画像データ+第6時間相関画像データ=2×第1縞パターンSP1
 ・第5時間相関画像データ-第6時間相関画像データ=2×第2縞パターンSP2
 したがって、第3実施形態によれば、第5時間相関画像データと第6時間相関画像データとの和に基づき、第1縞パターンSP1のみに対応した第1時間相関画像を生成することができ、第5時間相関画像データと第6時間相関画像データとの差に基づき、第2縞パターンSP2のみに対応した第2時間相関画像を生成することができる。
 図25は、第3実施形態の時間相関カメラ110bから出力される第5時間相関画像データの具体例を示した例示的な図であり、図26は、第3実施形態の時間相関カメラ110bから出力される第6時間相関画像データの具体例を示した例示的な図である。また、図27は、第3実施形態において、図25および図26のデータから生成される第1時間相関画像の具体例を示した例示的な図であり、図28は、第3実施形態において、図27の第1時間相関画像とともに生成される第2時間相関画像の具体例を示した例示的な図である。
 図25および図26に示されるように、第3実施形態によれば、第1縞パターンSP1と第2縞パターンSP2との両方の影響が混在した異なる2種類のデータを得ることができる。そして、図27および図28に示されるように、第3実施形態によれば、第1縞パターンSP1と第2縞パターンSP2との両方の影響が混在した異なる2種類のデータにさらなる演算処理を行うことで、第1縞パターンSP1のみの影響に基づく第1時間相関画像と、第2縞パターンSP2のみの影響に基づく第2時間相関画像と、を分けて生成することができる。
 上述した実施形態のPC100で実行される検査プログラムは、インストール可能な形式または実行可能な形式のファイルでCD-ROM、フレキシブルディスク(FD)、CD-R、DVD(Digital Versatile Disk)などのコンピュータで読み取り可能な記録媒体に記録されて提供される。
 また、上述した実施形態のPC100で実行される検査プログラムを、インターネットなどのネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また、上述した実施形態のPC100で実行される検査プログラムをインターネットなどのネットワーク経由で提供または配布するように構成してもよい。
 以上、本発明のいくつかの実施形態および変形例を説明したが、これらの実施形態および変形例は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態および変形例は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形例は、発明の範囲や要旨に含まれるとともに、請求の範囲に記載された発明とその均等の範囲に含まれる。
 104…画像生成部、105…異常検出部、110,110a,110b…時間相関カメラ、120…照明装置(照明部)、130…スクリーン(照明部)、220…イメージセンサ、244,244a…相関画像用重畳部(画像データ取得部)、251…第1信号出力部、252…第2信号出力部、260…参照信号出力部、260a…第1参照信号出力部、260b…第2参照信号出力部、260c…第3参照信号出力部、260d…第4参照信号出力部。

Claims (5)

  1.  第1方向に延びる第1縞パターンが前記第1方向と交差する第2方向に1周期分移動した後、シームレスで、前記第2方向に延びる第2縞パターンが前記第1方向に1周期分移動するように、複数の縞パターンを順次切り替えて出力することで、被検査体に対して光の強度の周期的な時間変化および空間変化を与える照明部と、
     前記複数の縞パターンの出力開始のトリガとなる第1信号を前記照明部に出力する第1信号出力部と、
     前記複数の縞パターンの切り替えのトリガとなる第2信号を前記照明部に出力する第2信号出力部と、
     時間相関カメラまたはそれと等価な動作をする撮像システムに用いられるイメージセンサと、
     前記イメージセンサから出力されるフレームの重畳を前記第1信号に基づいたタイミングで開始することで、前記照明部によって照らされた前記被検査体の検査対象面を撮像した時間相関画像データを取得する画像データ取得部と、
     前記時間相関画像データに基づいて、前記第1縞パターンのみに対応した第1時間相関画像および前記第2縞パターンのみに対応した第2時間相関画像を生成する画像生成部と、
     前記第1時間相関画像および前記第2時間相関画像に基づいて、前記検査対象面における異常を検出する異常検出部と、
     を備える、検査システム。
  2.  前記第1縞パターンの1周期分の移動中に時間遷移とともに値が変化する第1区間と、前記第2縞パターンの1周期分の移動中に時間遷移とともに値が変化する第2区間と、を有する参照信号の出力を、前記第1信号に基づいたタイミングで開始する参照信号出力部をさらに備え、
     前記画像データ取得部は、前記イメージセンサから出力されるフレームを、当該フレームの出力タイミングにおける前記参照信号の値を乗算しながら重畳することで、前記第1縞パターンが前記第2縞パターンに切り替わるまでの前記第1区間の値に基づいた重畳結果である第1時間相関画像データと、前記第1縞パターンが前記第2縞パターンに切り替わってからの前記第2区間の値に基づいた重畳結果である第2時間相関画像データと、を取得し、
     前記画像生成部は、前記第1時間相関画像データに基づいて前記第1時間相関画像を生成し、前記第2時間相関画像データに基づいて前記第2時間相関画像を生成する、
     請求項1に記載の検査システム。
  3.  前記第1縞パターンの1周期分の移動中に時間遷移とともに値が変化する第3区間と、前記第2縞パターンの1周期分の移動中に時間遷移によらず値が一定となる第4区間と、を有する第1参照信号の出力を、前記第1信号に基づいたタイミングで開始する第1参照信号出力部と、
     前記第1縞パターンの1周期分の移動中に時間遷移によらず値が一定となる第5区間と、前記第2縞パターンの1周期分の移動中に時間遷移とともに値が変化する第6区間と、を有する第2参照信号の出力を、前記第1信号に基づいたタイミングで開始する第2参照信号出力部と、
     をさらに備え、
     前記画像データ取得部は、前記イメージセンサから出力されるフレームを、当該フレームの出力タイミングにおける前記第1参照信号および前記第2参照信号の値を乗算しながら重畳することで、前記第1縞パターンの1周期分の移動が開始してから前記第2縞パターンの1周期分の移動が終了するまでの間における前記第1参照信号の前記第3区間および前記第4区間の値に基づいた重畳結果である第3時間相関画像データと、前記第1縞パターンの1周期分の移動が開始してから前記第2縞パターンの1周期分の移動が終了するまでの間における前記第2参照信号の前記第5区間および前記第6区間の値に基づいた重畳結果である第4時間相関画像データと、を取得し、
     前記画像生成部は、前記第3時間相関画像データに基づいて前記第1時間相関画像を生成し、前記第4時間相関画像データに基づいて前記第2時間相関画像を生成する、
     請求項1に記載の検査システム。
  4.  前記第1縞パターンの1周期分の移動中に時間遷移とともに値が変化する第7区間と、前記第2縞パターンの1周期分の移動中に時間遷移とともに値が変化する第8区間と、を有する第3参照信号の出力を、前記第1信号に基づいたタイミングで開始する第3参照信号出力部と、
     前記第1縞パターンの1周期分の移動中に前記第7区間の値と一致するように値が変化する第9区間と、前記第2縞パターンの1周期分の移動中に前記第8区間の値の反転に対応するように値が変化する第10区間と、を有する第4参照信号の出力を、前記第1信号に基づいたタイミングで開始する第4参照信号出力部と、
     をさらに備え、
     前記画像データ取得部は、前記イメージセンサから出力されるフレームを、当該フレームの出力タイミングにおける前記第3参照信号および前記第4参照信号の値を乗算しながら重畳することで、前記第1縞パターンの1周期分の移動が開始してから前記第2縞パターンの1周期分の移動が終了するまでの間における前記第3参照信号の前記第7区間および前記第8区間の値に基づいた重畳結果である第5時間相関画像データと、前記第1縞パターンの1周期分の移動が開始してから前記第2縞パターンの1周期分の移動が終了するまでの間における前記第4参照信号の前記第9区間および前記第10区間の値に基づいた重畳結果である第6時間相関画像データと、を取得し、
     前記画像生成部は、前記第5時間相関画像データと前記第6時間相関画像データとの和に基づいて前記第1時間相関画像を生成し、前記第5時間相関画像データと前記第6時間相関画像データとの差に基づいて前記第2時間相関画像を生成する、
     請求項1に記載の検査システム。
  5.  第1方向に延びる第1縞パターンが前記第1方向と交差する第2方向に1周期分移動した後、シームレスで、前記第2方向に延びる第2縞パターンが前記第1方向に1周期分移動するように、複数の縞パターンを順次切り替えて出力する照明部により、被検査体に対して光の強度の周期的な時間変化および空間変化を与える照明ステップと、
     前記複数の縞パターンの出力開始のトリガとなる第1信号を前記照明部に出力する第1信号出力ステップと、
     前記複数の縞パターンの切り替えのトリガとなる第2信号を前記照明部に出力する第2信号出力ステップと、
     時間相関カメラまたはそれと等価な動作をする撮像システムに用いられるイメージセンサから出力されるフレームの重畳を前記第1信号に基づいたタイミングで開始することで、前記照明ステップによって照らされた前記被検査体の検査対象面を撮像した時間相関画像データを取得する画像データ取得ステップと、
     前記時間相関画像データに基づいて、前記第1縞パターンのみに対応した第1時間相関画像および前記第2縞パターンのみに対応した第2時間相関画像を生成する画像生成ステップと、
     前記第1時間相関画像および前記第2時間相関画像に基づいて、前記検査対象面における異常を検出する異常検出ステップと、
     を備える、検査方法。
PCT/JP2018/008071 2017-03-03 2018-03-02 検査システムおよび検査方法 WO2018159825A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201880015374.7A CN110383050A (zh) 2017-03-03 2018-03-02 检查系统和检查方法
DE112018001127.5T DE112018001127T5 (de) 2017-03-03 2018-03-02 Prüfsystem und prüfverfahren
US16/490,512 US10775316B2 (en) 2017-03-03 2018-03-02 Inspection system and inspection method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017041045A JP6800463B2 (ja) 2017-03-03 2017-03-03 検査システムおよび検査方法
JP2017-041045 2017-03-03

Publications (1)

Publication Number Publication Date
WO2018159825A1 true WO2018159825A1 (ja) 2018-09-07

Family

ID=63370972

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/008071 WO2018159825A1 (ja) 2017-03-03 2018-03-02 検査システムおよび検査方法

Country Status (5)

Country Link
US (1) US10775316B2 (ja)
JP (1) JP6800463B2 (ja)
CN (1) CN110383050A (ja)
DE (1) DE112018001127T5 (ja)
WO (1) WO2018159825A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113924476A (zh) * 2019-06-06 2022-01-11 克朗斯股份公司 用于以光学方式检查容器的方法和装置

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6433268B2 (ja) * 2014-03-31 2018-12-05 国立大学法人 東京大学 検査システムおよび検査方法
CN110736751B (zh) * 2019-11-06 2022-04-19 合肥御微半导体技术有限公司 一种表面缺陷检测方法及装置
JP2023018796A (ja) * 2021-07-28 2023-02-09 アンリツ株式会社 物品検査装置
DE102022104990A1 (de) 2022-03-03 2023-09-07 Emhart Glass Sa VORRICHTUNG UND VERFAHREN ZUM INSPIZIEREN VON GEFÄßEN

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004334580A (ja) * 2003-05-08 2004-11-25 Nadex Co Ltd 画像取込み方法、画像取込みシステム、検査装置及び照明制御装置
JP2011007576A (ja) * 2009-06-24 2011-01-13 Canon Inc 測定システム及び測定処理方法
US20130278787A1 (en) * 2010-11-19 2013-10-24 Primesense Ltd. Imaging and processing using dual clocks
JP2015197345A (ja) * 2014-03-31 2015-11-09 国立大学法人 東京大学 検査システムおよび検査方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3417377B2 (ja) * 1999-04-30 2003-06-16 日本電気株式会社 三次元形状計測方法及び装置並びに記録媒体
JP6433268B2 (ja) * 2014-03-31 2018-12-05 国立大学法人 東京大学 検査システムおよび検査方法
JP6682251B2 (ja) 2015-11-30 2020-04-15 リコーエレメックス株式会社 検査システム、及び検査方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004334580A (ja) * 2003-05-08 2004-11-25 Nadex Co Ltd 画像取込み方法、画像取込みシステム、検査装置及び照明制御装置
JP2011007576A (ja) * 2009-06-24 2011-01-13 Canon Inc 測定システム及び測定処理方法
US20130278787A1 (en) * 2010-11-19 2013-10-24 Primesense Ltd. Imaging and processing using dual clocks
JP2015197345A (ja) * 2014-03-31 2015-11-09 国立大学法人 東京大学 検査システムおよび検査方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113924476A (zh) * 2019-06-06 2022-01-11 克朗斯股份公司 用于以光学方式检查容器的方法和装置
US20220236193A1 (en) * 2019-06-06 2022-07-28 Krones Ag Method and device for optically inspecting containers

Also Published As

Publication number Publication date
US20200011810A1 (en) 2020-01-09
JP2018146364A (ja) 2018-09-20
US10775316B2 (en) 2020-09-15
JP6800463B2 (ja) 2020-12-16
CN110383050A (zh) 2019-10-25
DE112018001127T5 (de) 2019-12-24

Similar Documents

Publication Publication Date Title
JP6316068B2 (ja) 検査システムおよび検査方法
WO2018159825A1 (ja) 検査システムおよび検査方法
JP6542586B2 (ja) 検査システム
JP6553412B2 (ja) 検査システム
JP6682251B2 (ja) 検査システム、及び検査方法
JP6276092B2 (ja) 検査システムおよび検査方法
JP6420131B2 (ja) 検査システム、及び検査方法
JP2016109462A (ja) 検査システムおよびフレキシブル照明装置
JP2018028527A (ja) 検査システム
JP2018009849A (ja) 検査システムおよび検査方法
JP2017101979A (ja) 検査システム
JP2019002761A (ja) 検査システムおよび検査方法
JP6909378B2 (ja) 検査システム
JP6781430B2 (ja) 検査システム
JP6909377B2 (ja) 検査システムおよび検査方法
JP6703415B2 (ja) 検査装置及び検査方法
JP2018116026A (ja) 照明装置および透過部材
JP6826813B2 (ja) 検査装置及び検査方法
JP2024017231A (ja) 検査システムおよび検査方法
JP6945106B2 (ja) 検査システム
JP2020012816A (ja) 検査システムおよび検査方法
JP6529247B2 (ja) 較正システムおよび検査システム
JP2019178941A (ja) 検査システムおよび検査方法
JP2024017229A (ja) 検査システムおよび検査方法
JP2019039685A (ja) 検査システムおよび検査方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18760914

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 18760914

Country of ref document: EP

Kind code of ref document: A1