WO2019103153A1 - 形状検査装置及び形状検査方法 - Google Patents

形状検査装置及び形状検査方法 Download PDF

Info

Publication number
WO2019103153A1
WO2019103153A1 PCT/JP2018/043550 JP2018043550W WO2019103153A1 WO 2019103153 A1 WO2019103153 A1 WO 2019103153A1 JP 2018043550 W JP2018043550 W JP 2018043550W WO 2019103153 A1 WO2019103153 A1 WO 2019103153A1
Authority
WO
WIPO (PCT)
Prior art keywords
illumination light
line
light source
line image
strip
Prior art date
Application number
PCT/JP2018/043550
Other languages
English (en)
French (fr)
Inventor
貴之 園田
古家 順弘
Original Assignee
日本製鉄株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本製鉄株式会社 filed Critical 日本製鉄株式会社
Priority to US16/649,600 priority Critical patent/US10890441B2/en
Priority to JP2019555404A priority patent/JP6648869B2/ja
Priority to EP18880126.0A priority patent/EP3719442B1/en
Publication of WO2019103153A1 publication Critical patent/WO2019103153A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/26Measuring arrangements characterised by the use of optical techniques for measuring angles or tapers; for testing the alignment of axes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/30Measuring arrangements characterised by the use of optical techniques for measuring roughness or irregularity of surfaces
    • G01B11/306Measuring arrangements characterised by the use of optical techniques for measuring roughness or irregularity of surfaces for measuring evenness
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/89Investigating the presence of flaws or contamination in moving material, e.g. running paper or textiles
    • G01N21/8901Optical details; Scanning details
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/89Investigating the presence of flaws or contamination in moving material, e.g. running paper or textiles
    • G01N21/892Investigating the presence of flaws or contamination in moving material, e.g. running paper or textiles characterised by the flaw, defect or object feature examined
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/89Investigating the presence of flaws or contamination in moving material, e.g. running paper or textiles
    • G01N21/8901Optical details; Scanning details
    • G01N2021/8908Strip illuminator, e.g. light tube
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/89Investigating the presence of flaws or contamination in moving material, e.g. running paper or textiles
    • G01N2021/8909Scan signal processing specially adapted for inspection of running sheets
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/89Investigating the presence of flaws or contamination in moving material, e.g. running paper or textiles
    • G01N21/8914Investigating the presence of flaws or contamination in moving material, e.g. running paper or textiles characterised by the material examined
    • G01N2021/8918Metal
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/89Investigating the presence of flaws or contamination in moving material, e.g. running paper or textiles
    • G01N21/892Investigating the presence of flaws or contamination in moving material, e.g. running paper or textiles characterised by the flaw, defect or object feature examined
    • G01N2021/8924Dents; Relief flaws

Definitions

  • the present invention relates to a strip shape inspection apparatus and a shape inspection method.
  • Reflection of the illumination light from the measurement object using illumination light using a fluorescent lamp, a light emitting diode (LED), or laser light as one of methods for measuring the surface shape of the measurement object
  • a method of measuring the surface shape of a measurement object by imaging light There is a method of measuring the surface shape of a measurement object by imaging light.
  • Patent Document 1 as a surface defect detection method for optically detecting surface defects of steel materials, illumination light is irradiated to the same inspection target site from different directions by using two or more distinguishable light sources.
  • a surface defect detection method is disclosed, including: an irradiation step; and detecting an image by reflected light of each illumination light and detecting a surface defect in a region to be inspected by performing difference processing between the acquired images. ing.
  • Patent Document 2 and Patent Document 3 differ in the same inspection target site using two or more distinguishable light sources.
  • Patent Document 1 since the position shift is large at the inspection target site moving at high speed, the surface defect detection method of Patent Document 1 is not suitable for the inspection of the inspection target site moving at high speed.
  • the area sensor camera images in a two-dimensional manner also in the line advancing direction, a difference occurs in the angle between the optical axis of each of the plurality of light sources and the optical axis of the area sensor camera Do. For this reason, in the differential processing of the captured image, the sensitivity of the unevenness is not constant, and it is impossible to completely eliminate the pattern which is the disturbance.
  • the surface defect detection method in the case of using the image acquired using the line sensor camera is also examined.
  • the image to be subjected to difference processing is obtained by imaging the same position of the inspection target site, so the position of the inspection target site to be imaged deviates as much as possible. It is supposed to be necessary. Therefore, in the methods described in Patent Document 2 and Patent Document 3, the other light source is caused to emit light immediately after the light emission of one light source so that the light emissions by the two light sources do not overlap, and the imaging cycle is shortened. The position shift of the inspection object part accompanying movement of steel materials is made small. For this reason, the light emission time of the illumination light also has to be shortened, there is a limit to obtain a sufficient light quantity, and the data processing speed is also limited, so it is difficult to cope with the increase of the line speed.
  • an object of the present invention is to provide a novel method capable of reliably measuring the surface shape of an object to be measured even if the line speed is increased.
  • Another object of the present invention is to provide an improved strip shape inspection apparatus and shape inspection method.
  • it is a shape inspection device which detects surface shape of a strip, and illumination light of a 1st illumination light source or a 2nd illumination light source is irradiated,
  • Line sensor cameras that capture the line image by imaging the surface of the strip, and are arranged symmetrically with respect to the regular reflection direction of the optical axis of the line sensor camera, and the strip with respect to the imaging position of the line sensor camera Illumination light of the first illumination light source and the second illumination light source, the lighting timing and emission time of each of the first illumination light source and the second illumination light source, and line image acquisition of the line sensor camera
  • a measurement control unit that controls timing, and a data processing unit that processes a plurality of line images acquired by the line sensor camera and calculates an inclination of the surface of the strip;
  • the line image acquired by the line sensor camera when the first illumination light is emitted from the light source is taken as the first line image, and the line sensor when the second illumination light is emitted
  • the measurement control unit may provide, as an imaging interval, a time during which imaging is not performed until the previous imaging by the line sensor camera ends and the next imaging starts.
  • the measurement control unit controls the line image acquisition timing so that the imaging interval b satisfies the following expression. It is also good. b D D / V
  • the data processing unit is configured to calculate a difference between the line image acquired at the n-th line image acquisition timing and the line image acquired at the n-1st or n + 1-th line image acquisition timing.
  • the inclination of the surface of the strip may be calculated as a line image.
  • the data processing unit may calculate the difference between the line image acquired at the n-th line image acquisition timing and the line image complemented from the n ⁇ 1 th previous line image and the n + 1 th and subsequent line images.
  • the inclination of the surface of the strip may be calculated as an image.
  • the data processing unit may calculate the height of the surface of the strip by integrating the inclination of the surface of the strip in the longitudinal direction.
  • the shape inspection device may comprise at least one additional illumination light source for illuminating the strip with a strip of illumination light.
  • the measurement control unit sequentially turns on the first illumination light source, the second illumination light source, and the additional illumination light source one by one at the line image acquisition timing of the line sensor camera, and the data processing unit
  • the inclination of the surface of the strip is calculated based on the difference line image obtained based on the line image of the second line image and the second line image, and the additional illumination light is emitted from the additional illumination light source by the line sensor camera.
  • the surface condition of the band is identified based on the acquired line image.
  • a shape inspection method for detecting the surface shape of a strip, the surface of the strip being on a line on which the strip is transported.
  • Line sensor cameras that capture line images and acquire line images, and are arranged to be symmetrical with respect to the regular reflection direction of the optical axis of the line sensor camera, and strip-like illumination light is sequentially alternated with respect to the imaging position of the line sensor camera
  • a first illumination light source and a second illumination light source for illuminating the light source, and a line image acquired by the line sensor camera when the first illumination light is emitted from the first illumination light source Is a first line image
  • the line image acquired by the line sensor camera when the second illumination light is emitted from the second illumination light source is taken as the second line image, the first line image and the first line image.
  • a shape inspection method for controlling the line image acquisition timing of a line sensor camera and calculating the inclination of the surface of the band based on a difference line image obtained based on the first line image and the second line image is disclosed. Provided.
  • the surface shape of the object to be measured can be reliably measured even if the line speed is increased.
  • FIG. 14 is an explanatory view showing a modification of a difference image generation process by the data processing unit according to the embodiment;
  • FIG. 16 is an explanatory view showing another modified example of the difference image generation processing by the data processing unit according to the embodiment;
  • FIG. 16 is an explanatory view showing another modified example of the difference image generation processing by the data processing unit according to the embodiment;
  • FIG. 17 is an explanatory drawing showing an example of an image when a linear interpolation process is performed on the separated image of FIG.
  • FIG. 1 is an explanatory view showing an example of the configuration of a shape inspection apparatus 10 according to the present embodiment.
  • the strip S is transported in a predetermined direction on a transport line (not shown), and the transport direction of the strip S corresponds to the longitudinal direction of the strip S. It shall be.
  • FIG. 1 is an explanatory view showing an example of the configuration of a shape inspection apparatus 10 according to the present embodiment.
  • the strip S is transported in a predetermined direction on a transport line (not shown), and the transport direction of the strip S corresponds to the longitudinal direction of the strip S. It shall be.
  • FIG. 2 is an explanatory view for explaining the magnitude of the luminance of the reflected light of the illumination light acquired by the line sensor camera 101 when the surface of the strip S is horizontal.
  • FIG.3 and FIG.4 is explanatory drawing explaining the magnitude
  • the shape inspection apparatus 10 has surface shapes (for example, uneven shapes) of various strip-like members S such as steel plates placed on a predetermined place, steel plates transported on a predetermined conveyance line, and the like. It is a device to detect.
  • the macroscopic shape of the strip S is not particularly limited, and may be, for example, a plate such as a slab or a billet, or may be a coil having a metal plate wound up. Good.
  • the component of the strip S is not particularly limited, and may be various steels mainly composed of iron elements, various alloys of iron and other metal elements, or various kinds of alloys. It may be a non-ferrous metal of
  • the shape inspection apparatus 10 mainly includes a measuring apparatus 100 and an arithmetic processing unit 200.
  • the measuring apparatus 100 illuminates each of the strip S (more specifically, the surface of the strip S) from the first illumination light source 103 and the second illumination light source 105 under the control of the arithmetic processing unit 200. While irradiating the light, the line sensor camera 101 picks up the surface of the strip S on which the illumination light is checked to obtain a picked-up image. The measuring apparatus 100 outputs the acquired captured image to the arithmetic processing unit 200.
  • the arithmetic processing unit 200 controls the measurement processing of the strip S by the measuring unit 100. Further, the arithmetic processing unit 200 performs image processing on the captured image acquired from the measuring unit 100, and calculates the inclination of the surface of the strip S as information used to detect the surface shape of the strip S. Do.
  • the first illumination light source 103 and the second illumination light source 105 are symmetrical with respect to the regular reflection direction of the optical axis of the line sensor camera 101. Is placed. Then, the first illumination light source 103 and the second illumination light source 105 are alternately turned on, and a plurality of line images are acquired by imaging the surface of the strip S with the line sensor camera 101 within each light emission time. .
  • the arithmetic processing device 200 is a line image (also referred to as a “first line image”) acquired by the line sensor camera 101 when the first illumination light is emitted from the first illumination light source 103, and the first.
  • the strip S based on the difference with the line image (also referred to as a “second line image”) acquired by the line sensor camera 101 when the second illumination light is emitted from the second illumination light source 105. Calculate the slope of the surface of.
  • the arithmetic processing unit 200 separates the first line image from the captured image generated by arranging the acquired line images in the imaging order, and generates a first separated image including the first line image.
  • the second line image is separated to generate a second separated image consisting of the second line image.
  • the arithmetic processing unit 200 generates a difference image by calculating the difference between the luminance values of each of the first separated image and the second separated image. Then, the arithmetic processing unit 200 calculates the inclination of the surface of the strip S based on the difference image, and detects unevenness on the surface of the strip S.
  • the surface of the strip S is orthogonal to the optical axis of the line sensor camera 101 and is in a horizontal state.
  • the brightness of the reflected light of the irradiation light of the first illumination light source 103 on the surface of the strip S (hereinafter also referred to as “first reflection luminance”) and the irradiation light of the second illumination light source 105
  • the brightness of the reflected light on the surface of the strip S (hereinafter also referred to as “second reflected brightness”) is equal.
  • the first reflection luminance and the second reflection luminance are different.
  • the reflection luminances of the two illumination lights are the same and there is no difference.
  • the reflection luminances of the two illumination lights makes a difference. Therefore, if it is possible to acquire the difference between the reflection luminances of the two illumination lights, it is possible to acquire the surface shape of the strip S.
  • the 1st line picture acquired by line sensor camera 101 when the 1st illumination light is irradiated from the 1st illumination light source 103 And the second illumination light from the second illumination light source 105 by taking the difference of the luminance value with the second line image acquired by the line sensor camera 101, the surface of the strip S Get the difference of the reflected brightness in.
  • the measurement processing of the strip S by the measuring device 100 and the calculation processing of the inclination of the surface of the strip S by the arithmetic processing unit 200 are performed in real time in accordance with the transport of the strip S. It is possible to carry out.
  • the user of the shape inspection apparatus 10 grasps and inspects the surface shape of the strip S in real time by paying attention to the detection result output from the shape inspection apparatus 10 (more specifically, the arithmetic processing unit 200). It becomes possible. Further, it is also possible to automatically determine the surface shape of the strip S based on the calculated inclination of the surface of the strip S by the shape inspection apparatus 10.
  • the measuring apparatus 100 and the arithmetic processing unit 200 will be described in detail below.
  • FIG. 5 is explanatory drawing which shows typically one structural example of the measuring apparatus 100 which comprises the shape inspection apparatus 10 which concerns on this embodiment, Comprising: The state which looked at the strip-shaped body S from the side is shown.
  • FIG. 6 is a plan view of FIG.
  • the measurement apparatus 100 includes a line sensor camera 101, a first illumination light source 103, and a second illumination light source 105, as shown in FIGS.
  • the line sensor camera 101, the first illumination light source 103 and the second illumination light source 105 are fixed by known means so that their setting positions do not change.
  • the strip S is moved relative to the line sensor camera 101 and the illumination light sources 103 and 105.
  • the line sensor camera 101 sequentially images the surface of the strip S moving in the transport direction (that is, the longitudinal direction of the strip S).
  • the regions of the strip S corresponding to the line images acquired by the line sensor camera 101 do not overlap with each other. That is, the line sensor camera 101 captures different regions of the strip S at the adjacent line image acquisition timing, and does not overlap and capture the same region of the strip S.
  • the line sensor camera 101 is an imaging device that captures an image in units of one-dimensional lines.
  • the line sensor camera 101 may be, for example, a monochrome line sensor camera, or a known color line sensor camera such as a 3 CCD system.
  • a color line sensor camera it is also possible to grasp the color of the surface of the strip S to be inspected.
  • the line sensor camera 101 is disposed above the strip S (in the positive Z-axis direction) such that the regular reflection direction of its optical axis is perpendicular to the surface of the strip S. Be done. At this time, the angle between the regular reflection direction of the optical axis of the line sensor camera 101 and the normal direction of the surface of the strip S is 0 °.
  • the line sensor camera 101 does not necessarily have to have the regular reflection direction of the optical axis perpendicular to the surface of the strip S, and It may be arranged to image the surface.
  • the line sensor camera 101 is disposed such that the longitudinal direction (Y direction) of the line image acquired by the line sensor camera 101 is substantially orthogonal to the conveyance direction (X direction) of the strip S.
  • the longitudinal direction of the line image and the transport direction of the strip S may not be exactly orthogonal to each other, and an inclination of about ⁇ 10 ° is acceptable.
  • the line sensor camera 101 captures an image of the surface of the strip S irradiated with the first illumination light of the first illumination light source 103 or the second illumination light of the second illumination light source 105.
  • the measuring apparatus 100 alternately turns on the first illumination light source 103 and the second illumination light source 105 based on control information from the measurement control unit 203 of the arithmetic processing unit 200, and The surface of the strip S is imaged by the line sensor camera 101 within the light emission time from the lighting timing. Therefore, the line sensor camera 101 is imaged when the line image (first line image) captured when the first illumination light source 103 is illuminated and the second illumination light source 105 is illuminated. Line images (second line images) are alternately acquired.
  • the line sensor camera 101 outputs a line image acquired by imaging the surface of the strip S to the arithmetic processing unit 200.
  • the data processing unit 205 performs processing of calculating the inclination of the surface of the strip S.
  • the measuring apparatus 100 includes two illumination light sources of a first illumination light source 103 and a second illumination light source 105.
  • the first illumination light source 103 irradiates the surface of the strip S with the first illumination light
  • the second illumination light source 105 irradiates the surface of the strip S with the second illumination light.
  • the first irradiation light of the first illumination light source 103 is white light
  • the second irradiation light of the second illumination light source 105 is also white light.
  • the colors of the first illumination light and the second illumination light are not particularly limited, and may be determined according to the inspection target.
  • the first illumination light and the second illumination light may not be visible light, and may be infrared light or ultraviolet light. That is, it is preferable that the first illumination light source 103 and the second illumination light source 105 use light sources having substantially the same irradiation conditions such as wavelength, output intensity, and type of light source.
  • the first illumination light source 103 and the second illumination light source 105 are configured to emit illumination light over substantially the entire width of the strip S.
  • any light source can be used as the first illumination light source 103 and the second illumination light source 105.
  • the first illumination light source 103 and the second illumination light source 105 may be rod-like LED illumination, or may be illumination of a configuration in which laser light is linearly extended by a rod lens or the like.
  • a visible light source used for the 1st illumination light source 103 and the 2nd illumination light source 105 a single wavelength laser beam or LED may be used, and a light source having a continuous spectrum may be used.
  • the first illumination light source 103 and the second illumination light source 105 are symmetrical with respect to the regular reflection direction on the surface of the strip S of the optical axis of the line sensor camera 101.
  • the line sensor camera 101 is disposed so that the regular reflection direction of its optical axis is perpendicular to the surface of the strip S, the optical axis of the line sensor camera 101, The regular reflection direction on the surface of the strip S of the optical axis is the same.
  • an angle (first angle: ⁇ 1 ) between the optical axis of the first illumination light source 103 and the optical axis of the line sensor camera 101, the optical axis of the second illumination light source 105, and the light of the line sensor camera 101 The first illumination light source 103 and the second illumination light source 105 are arranged such that the angle (second angle: ⁇ 2 ) with the axis is substantially equal.
  • the first angle theta 1 and the second angle theta 2 and is substantially equal, not only the first angle theta 1 and the second angle theta 2 are the same, nonexistent plane of irregularities
  • the plane without unevenness is luminance due to dirt or the like present in the plane.
  • between the first angle ⁇ 1 and the second angle ⁇ 2 is, for example, preferably within 10 °, and more preferably within 5 °. If the angle difference is in such a range, the two captured images look the same as each other when the line sensor camera 101 picks up a plane in which there is no unevenness and picks up each illumination light.
  • the first angle theta 1 and the second angle theta 2 of the magnitude, respectively it is preferable that the restrictions on the installation of the light source is as large as possible an angle in a range that does not exist. Thereby, it becomes possible to measure the irregular reflection of each illumination light with the line sensor camera 101.
  • the first angle theta 1 and the second angle theta 2 in size it is preferable that the both 30 ° or more.
  • first angle theta 1 and the second angle theta 2 sizes of respectively 30 ° or more can be further increased relative changes of the luminance values for the angle changes to be measured by the line sensor camera 101 and Become.
  • the first illumination light source 103 and the second illumination light source 105 are alternately lit based on control information from the measurement control unit 203 of the arithmetic processing unit 200.
  • the line sensor camera 101 captures an image of the surface of the strip S to obtain a line image within the emission time of each of the first illumination light source 103 and the second illumination light source 105.
  • FIG. 5 and FIG. 6 show the case where the first illumination light source 103 is disposed on the upstream side in the transport direction and the second illumination light source 105 is disposed on the downstream side in the transport direction
  • the present invention is not limited thereto. It is not limited to.
  • the second illumination light source 105 may be disposed on the upstream side in the transport direction
  • the first illumination light source 103 may be disposed on the downstream side.
  • FIG. 7 is a block diagram showing an example of the overall configuration of the arithmetic processing unit 200 according to the present embodiment.
  • FIG. 8 is a diagram showing an example of the line image acquisition timing of the line sensor camera 101, the lighting timing and light emission time of the first illumination light source 103, and the lighting timing and light emission time of the second illumination light source 105.
  • FIG. 9 is an explanatory view showing an imaging range of a line image acquired by the line sensor camera 101 when the line image acquisition timing, the lighting timing and the light emission time of FIG. 8 are set.
  • FIG. 10 is a block diagram showing an example of the configuration of the data processing unit 205 according to the present embodiment.
  • FIG. 11 is an explanatory diagram for explaining the difference image generation processing by the data processing unit 205 according to the present embodiment.
  • 12 to 14 are explanatory diagrams showing a modification of the difference image generation process by the data processing unit 205 according to the present embodiment.
  • FIG. 15 is an explanatory view showing an image of luminance change of an image by interpolation processing.
  • FIG. 16 is an explanatory view showing an example of an image generated based on the difference image generation processing of FIG.
  • FIG. 17 is an explanatory drawing showing an example of an image when adjacent pixel interpolation processing is performed on the separated image shown in FIG. 16 to generate a difference image.
  • FIG. 11 is an explanatory diagram for explaining the difference image generation processing by the data processing unit 205 according to the present embodiment.
  • 12 to 14 are explanatory diagrams showing a modification of the difference image generation process by the data processing unit 205 according to the present
  • FIG. 18 is an explanatory view showing an image example in the case where a linear interpolation process is performed on the separated image of FIG. 16 to generate a difference image.
  • FIG. 19 is an explanatory view schematically showing the relationship between the reflection angle of the illumination light and the inclination angle of the surface in the measuring apparatus 100 according to the present embodiment.
  • FIG. 20 is a graph showing an example of the positional relationship between the inclination of the surface of the strip and the luminance difference.
  • the “lighting timing” refers to the time when the illumination light source turns on (that is, the time when it begins to light), and the “light emission time” refers to the time from the lighting light source to lighting until it turns off.
  • the “line image acquisition timing” refers to the time when the illumination light source is turned on and the image sensor of the line sensor camera 101 is exposed. Information on the image can not be acquired at the timing when the illumination light source is on but not exposed, or at the timing when exposure is performed but the illumination light source is not on. Such timing is not included in the line image acquisition timing.
  • the arithmetic processing device 200 is a device that calculates the inclination of the surface of the strip S in order to detect the surface shape of the strip S based on the captured image acquired by the measuring device 100.
  • the arithmetic processing device 200 mainly includes a data acquisition unit 201, a measurement control unit 203, a data processing unit 205, a display control unit 207, and a storage unit 209, as shown in FIG.
  • the data acquisition unit 201 is realized by, for example, a central processing unit (CPU), a read only memory (ROM), a random access memory (RAM), a communication device, and the like.
  • the data acquisition unit 201 acquires a captured image captured by the line sensor camera 101 of the measurement apparatus 100, and transmits the captured image to a data processing unit 205 described later. Further, the data acquisition unit 201 may associate the acquired captured image with time information on the date and time when the captured image was captured, and store the associated information as history information in the storage unit 209 described later.
  • the measurement control unit 203 is realized by a CPU, a ROM, a RAM, a communication device, and the like.
  • the measurement control unit 203 controls the measurement of the strip S by the measuring device 100 according to the present embodiment. More specifically, when starting measurement of the strip S, the measurement control unit 203 sends a control signal for irradiating the first illumination light source 103 and the second illumination light source 105 with illumination light. Do.
  • the measurement control unit 203 determines that the band S is between the band S and the measuring device 100. Based on a PLG signal (for example, a PLG signal output each time the strip S moves 1 mm, etc.) periodically sent from a drive mechanism or the like that changes the relative position, measurement is performed on the line sensor camera 101 Send out a trigger signal to start the As a result, the measuring apparatus 100 can acquire measurement data (line image) at each position in the transport direction of the strip S.
  • a PLG signal for example, a PLG signal output each time the strip S moves 1 mm, etc.
  • the measurement control unit 203 sequentially and alternately illuminates the first illumination light source 103 and the second illumination light source 105 based on a line speed that is a relative speed between the strip S and the line sensor camera 101.
  • the first illumination light source 103 and the second illumination light source 105 are controlled to emit light.
  • the measurement control unit 203 causes the line sensor camera 101 to generate the strip S within the light emission time in which the first illumination light source 103 and the second illumination light source 105 respectively emit illumination light.
  • the line image acquisition timing of the line sensor camera 101 is controlled so as to image the surface.
  • the line image acquisition timing of the line sensor camera 101, the lighting timing and emission time of the first illumination light source 103, and the lighting timing and emission time of the second illumination light source 105 are set. It is assumed that At this time, as shown in FIG. 9, the length in the conveyance direction of the strip S per pixel of the line sensor camera 101 on the strip S (hereinafter referred to as “pixel length”) is D, the strip.
  • pixel length the length in the conveyance direction of the strip S per pixel of the line sensor camera 101 on the strip S
  • V be a line speed which is a relative speed between the body S and the line sensor camera 101.
  • the time until the end of imaging by the line sensor camera 101 and the start of the next imaging is set as an imaging interval b.
  • the imaging interval b is a time when imaging by the line sensor camera 101 is not performed.
  • the strip S moves at the line speed V without an image being acquired by the line sensor camera 101.
  • the second illumination light source 105 is turned on, and until the time t4, the line sensor camera 101 takes a second imaging range E2, as in the lighting of the first illumination light source 103. It is acquired as a line image of
  • the first line image acquisition starts
  • the line image E1 is out of the imaging range (range of the pixel length D) of the line sensor camera 101. Therefore, the first line image and the second line image do not overlap. Therefore, if the imaging interval b is repeatedly provided between the time of acquiring the first line image and the time of acquiring the second line image, the imaging range does not overlap between the first line image and the second line image.
  • the imaging range E1 at the time of irradiation of the first illumination while moving the strip S and the imaging range E2 at the time of illumination of the second illumination have resolution R necessary for recognizing the target shape. It is necessary to make it half or less.
  • the shift amount ⁇ due to the conveyance of the strip S is the product (Vd) of the light emission time d and the line velocity V. Therefore, the light emission time d may be set based on the following formula (2).
  • the light emission time d of the first illumination light source and the second illumination light source may be shortened or The pixel length D may be reduced.
  • the data processing unit 205 is realized by, for example, a CPU, a ROM, a RAM, a communication device, and the like.
  • the data processing unit 205 processes the line image acquired by the measuring device 100, and calculates the inclination of the surface of the strip S.
  • the data processing unit 205 includes a separated image generation unit 211, a difference image generation unit 213, an inclination calculation unit 215, and a height calculation unit 217.
  • the separated image generation unit 211 is realized by, for example, a CPU, a ROM, a RAM, and the like, and a first image including a line image (first run image) acquired from the captured image at the lighting timing of the first illumination light source 103.
  • a second separated image including a separated image and a line image (second line image) acquired at the lighting timing of the second illumination light source 105 is generated.
  • the captured image is acquired by the line sensor camera 101 within the emission time of each of the first illumination light source 103 and the second illumination light source 105 which are alternately lit.
  • the line images are images generated by arranging in order of imaging.
  • line images of odd lines 1, 3, 5, 7 are captured within the emission time of the first illumination light source 103, and lines 2, 4, 6, 8 within the emission time of the second illumination light source 105. It is assumed that line images of even lines of are captured. At this time, as shown in FIG. 11, the captured image is an image in which line images of odd lines and line images of even lines are alternately arranged along the longitudinal direction.
  • the separated image generation unit 211 performs such a captured image while the line image of the odd line acquired while the first illumination light source 103 is on and the second illumination light source 105 is on. It separates into the line image of the acquired even line. Then, the separated image generation unit 211 arranges the line images separated into two in the order of imaging, and generates two separated images. For example, a separation image consisting of line images of odd lines is taken as a first separation image, and a separation picture consisting of line images of even lines is taken as a second separation image. Thus, the first separation image consists of a line image acquired while the first illumination light source 103 is on, and the second separation image is while the second illumination light source 105 is on. It consists of the acquired line image.
  • the separation image generation unit 211 When the separation image generation unit 211 generates the first separation image and the second separation image, the separation image generation unit 211 outputs the first separation image and the second separation image to the difference image generation unit 213.
  • the difference image generation unit 213 is realized by, for example, a CPU, a ROM, a RAM, and the like, and generates a difference image between the first separated image and the second separated image.
  • the difference image can be said to be an image generated by arranging one difference line image acquired from the first line image and the second line image in the order of imaging. For example, when the first separated image and the second separated image as shown in FIG. 11 are generated, the difference image generation unit 213 calculates the luminance at the pixel corresponding to the first separated image and the second separated image. The difference of values is calculated, and a difference image represented by the difference of luminance values is generated. In the difference image, portions with different luminance values appear between the first separated image and the second image.
  • the difference image generation unit 213 outputs the generated difference image to the inclination calculation unit 215.
  • the separated image generation unit 211 can generate a separated image.
  • the line sensor camera 101 outputs the line image to the separated image generation unit 211 each time it acquires a line image.
  • the separation image generation unit 211 distributes the line image input from the line sensor camera 101 into a first memory for recording the first separation image and a second memory for recording the second separation image, and performs the first separation. Generate an image and a second separated image.
  • the distribution of line images input from the line sensor camera 101 may be performed, for example, by switching the memory of the output destination of the line image at each line image acquisition timing of the line sensor camera 101.
  • the data processing unit 205 includes a delay memory 219 that stores a one-line image.
  • line images input from the line sensor camera 101 are respectively output to the subtractor 213 a and also stored in the delay memory 219.
  • the line image stored in the delay memory 219 is output to the subtractor 213a with a delay of one line image acquisition timing.
  • the difference image generation unit 213 outputs the line image acquired at the first line image acquisition timing (hereinafter referred to as “first line image”) to the subtractor 213 a and to the delay memory 219. Store. At this time, the output from the difference unit 213a to the difference image memory for recording the difference image is not performed.
  • the difference image generation unit 213 similarly performs the second line image. , And to the delay memory 219. At this time, the first line image is output from the delay memory 219 to the difference unit 213a before the second line image is stored.
  • the subtractor 213a takes the difference in luminance value between the first line image and the second line image, and outputs the difference between these line images to the difference image memory. The same processing is repeated each time a line image is input thereafter. As described above, by making it possible to calculate the difference in luminance value directly from the line image using the delay memory 219, it is possible to generate a difference image without generating a separated image.
  • the difference in luminance value of the line image is output to the difference image memory every one line image acquisition timing, but the luminance value of the line image is calculated every line image acquisition timing.
  • the difference can also be configured to be output to a difference image memory.
  • a switch 213 b is provided between the delay memory 219 and the difference unit 213 a to change the order of line images for obtaining differences in luminance values.
  • the switch 213 b can set the output A and the output B for the output of the line image.
  • the output A is acquired at a line image acquired at the nth line image acquisition timing stored in the delay memory 219 (hereinafter referred to as “nth line image”) and at the n + 1th line image acquisition timing.
  • the obtained line image (hereinafter referred to as “n + 1st line image”) is output to the subtractor 213a in the same order.
  • the subtractor 213a subtracts the luminance value of the n + 1-th line image from the luminance value of the n-th line image to calculate a difference.
  • the output B rearranges the order of the n-th line image and the n + 1-th line image stored in the delay memory 219, and outputs the result to the difference unit 213a.
  • the subtractor 213a subtracts the luminance value of the nth line image from the luminance value of the n + 1th line image to calculate a difference.
  • the switch 213 b is switched each time one line image is input from the line sensor camera 101.
  • the subtractor 213a calculates the difference in luminance value of the line image, and outputs the difference to the difference image memory.
  • the generated difference image has the same size as the captured image in which the line images acquired by the line sensor camera 101 are arranged in the imaging order.
  • the size in the longitudinal direction is 1/2 of the captured image.
  • the differential image in FIG. 13 can also be said to be an image acquired at 1 ⁇ 2 of the imaging resolution of the line sensor camera 101. Therefore, it is desirable that the imaging resolution of the line sensor camera 101 be set to twice the necessary resolution.
  • interpolation processing may be performed on the first separated image and the second separated image in FIGS. 11 and 12 so as to match the image size with the captured image.
  • interpolation processing for example, adjacent pixel interpolation that interpolates a separated image by arranging each two line images such as lines 1, 1, 3, 3, 5, 5, 7, and 7 (upper center in FIG. 15) ) May be performed.
  • linear interpolation (upper right in FIG. 15) may be performed on the original image of the separated image to interpolate the average value of the luminance values of adjacent pixels in the adjacent line image.
  • the lower side of FIG. 15 shows changes in luminance values of the pixels 1 to 5 of the original image and changes in luminance values of the pixels 1 to 9 of the separated image subjected to the interpolation processing.
  • the change in the luminance value is blurred.
  • the luminance value changes smoothly.
  • FIG. 16 shows a captured image, a first separated image, a second separated image, and a difference image obtained by the process shown in FIG.
  • the sizes of the first separated image, the second separated image, and the difference image in the longitudinal direction in FIG. 16 are 1/2 of the captured image.
  • adjacent pixel interpolation is performed on the first separated image and the second separated image in FIG. 16, as shown in FIG. 17, the longitudinal directions of the first separated image, the second separated image, and the difference image are obtained.
  • the size of is the same as the captured image.
  • linear interpolation is performed on the first separated image and the second separated image of FIG. 16, as shown in FIG.
  • the first separated image, the second separated image, and The size of the difference image in the longitudinal direction is the same as the captured image. Furthermore, the separated image and the differential image after interpolation become a smoother image than in the case of FIG. 17 in which adjacent pixel interpolation is performed. Thus, by performing linear interpolation on the original image of the separated image, it is possible to reproduce a change in luminance similar to the form of the unevenness on the surface of the strip S while maintaining the resolution of the original image.
  • the inclination calculation unit 215 is realized by, for example, a CPU, a ROM, a RAM, and the like, and calculates the inclination of the surface of the strip S based on the difference image generated by the difference image generation unit 213. .
  • the inclination calculation unit 215 sets the difference image generated by the difference image generation unit 213 as luminance difference data representing the difference in luminance value, based on the relationship between the luminance difference and the inclination of the surface of the belt S, Calculate the direction and magnitude of the surface tilt.
  • the relationship between the luminance difference and the inclination of the surface of the strip S will be described.
  • the surface of the strip S is inclined at an inclination angle ⁇ with reference to the horizontal plane orthogonal to the optical axis of the line sensor camera 101.
  • the first illumination light source 103 and the second illumination source 105, a first angle theta 1 and the second angle theta 2 is installed to be substantially equal to each other.
  • the brightness of the reflected light of the first illumination light detected by the line sensor camera 101 and the brightness of the reflected light of the second illumination light are It can be considered as zero except for a small difference of the correction constant due to the difference in wavelength.
  • the degree of reflection of each illumination light changes, and as shown in FIG. The luminance difference changes.
  • the inclination calculation unit 215 can convert each luminance difference ⁇ L to the inclination angle ⁇ of the surface by using the luminance difference ⁇ L of each pixel specified from the difference image and the conversion coefficient ⁇ .
  • the inclination of the surface of the focused strip S corresponds to a tangent at an inclination angle ⁇ converted from the luminance difference.
  • the inclination calculation unit 215 can calculate the inclination of the surface of the focused strip S by calculating tan ⁇ , which is a tangent at the calculated inclination angle ⁇ .
  • the inclination calculated in this manner represents the direction of the inclination, and the absolute value represents the specific magnitude of the inclination.
  • the information on the conversion coefficient ⁇ specified in advance is stored, for example, in the storage unit 209 or the like, and the inclination calculation unit 215 acquires information on the conversion coefficient from the storage unit 209 when performing the inclination calculation process. Convert the luminance difference into a tilt angle. By performing such processing on all elements of the luminance difference data, the inclination calculation unit 215 relates to the data group of inclination values for the entire surface of the band S (in other words, the value of the inclination. Get map data). The data group of inclination values obtained in this manner becomes inspection information used when inspecting the shape of the strip S (more specifically, the surface shape).
  • the inspection information by replacing the value of the inclination included in the inspection information with the level or the density of the luminance value. It is also possible to perform shape inspection based on the tilt image by imaging the map data relating to the generated tilt into a tilt image.
  • the inclination calculation unit 215 can also inspect the shape of the surface of the strip S by comparing the calculated inclination with a predetermined threshold value. That is, by performing known statistical processing and the like based on past operation data etc., the threshold value of the surface inclination in the case where there is an abnormal part on the surface of the strip S is specified in advance, and the storage unit 209 etc. Store in Then, the inclination calculation unit 215 may check whether or not there is an abnormal part on the surface of the focused band S by specifying the magnitude relationship between the calculated inclination value and the threshold value. It becomes possible.
  • the inclination calculating unit 215 outputs data on the calculated inclination of the surface of the strip S to the height calculating unit 217.
  • the height calculation unit 217 is realized by, for example, a CPU, a ROM, a RAM, etc., and uses the inclination of the surface of the band S calculated by the inclination calculation unit 215 to determine the height of the surface of the focused band S. Calculate
  • the height calculation unit 217 sets the inclination tan ⁇ of the surface of the band S calculated by the inclination calculation unit 215 to the relative movement direction of the line sensor camera 101 and the band S. By integrating along the longitudinal direction (in other words, the scanning direction of the line sensor camera 101), the height of the surface of the strip S is calculated.
  • the height calculation unit 217 performs such integration processing on all elements of the data on the inclination of the surface, whereby a group of data on the height of the surface for the entire surface of the band S (in other words, the surface Map data on height can be obtained.
  • the data group relating to the height of the surface obtained in this manner becomes inspection information used when inspecting the shape of the strip S (more specifically, the surface shape).
  • image the inspection information by replacing the value related to the height of the surface included in the inspection information with the level or the density of the luminance value.
  • shape inspection based on the height image by imaging the map data related to the height of the generated surface to make the height image.
  • the data processing unit 205 having the above functions calculates the inclination of the surface of the strip S, and finishes the process of calculating the inspection information for inspecting the surface shape of the strip S, the information on the processing result obtained Are transmitted to the display control unit 207.
  • the display control unit 207 is realized by, for example, a CPU, a ROM, a RAM, an output device, and the like.
  • the display control unit 207 outputs various processing results including the calculation result of the inspection information on the surface shape of the band S transmitted from the data processing unit 205 to an output device such as a display or the like provided in the arithmetic processing unit 200 or arithmetic processing
  • the display control at the time of displaying on an output device or the like provided outside the device 200 is performed.
  • the user of the shape inspection apparatus 10 can grasp various processing results such as the inclination and height of the surface of the strip S on the spot.
  • the storage unit 209 is realized by, for example, a RAM, a storage device, or the like included in the arithmetic processing unit 200 according to the present embodiment.
  • the data acquisition unit 201, the measurement control unit 203, the data processing unit 205, the display control unit 207, and the like can freely perform data read / write processing on the storage unit 209.
  • each component described above may be configured using a general-purpose member or circuit, or may be configured by hardware specialized for the function of each component. Further, all functions of each component may be performed by a CPU or the like. Therefore, it is possible to change the configuration to be used as appropriate according to the technical level at which the present embodiment is implemented.
  • a computer program for realizing each function of the arithmetic processing unit according to the present embodiment as described above, and to install it on a personal computer or the like.
  • a computer readable recording medium in which such a computer program is stored can be provided.
  • the recording medium is, for example, a magnetic disk, an optical disk, a magneto-optical disk, a flash memory or the like.
  • the above computer program may be distributed via, for example, a network without using a recording medium.
  • FIG. 21 is a flowchart showing an example of the shape inspection method according to the present embodiment.
  • a predetermined region of the surface of the strip S is While alternately turning on the illumination light source 103 and the second illumination light source 105 alternately, the line sensor camera 101 picks up an image at the line image acquisition timing within the light emission time during which the illumination light is emitted at each lighting timing. An image is acquired (step S100). The line sensor camera 101 outputs the acquired line image to the arithmetic processing unit 200.
  • the data acquisition unit 201 of the arithmetic processing unit 200 when acquiring the line image input from the measuring device 100, the data acquisition unit 201 of the arithmetic processing unit 200 generates a separated image in the separated image generation unit 211 of the data processing unit 205 from the input line image ( S110).
  • the separated image generation unit 211 uses the line image acquired by the line sensor camera 101 when the first illumination light is emitted from the first illumination light source 103 from the captured image. And a second separated image composed of a line image acquired by the line sensor camera 101 when the second illumination light is irradiated from the second illumination light source 105. Then, the separation image generation unit 211 outputs the generated first separation image and the second separation image to the difference image generation unit 213.
  • the difference image generation unit 213 generates a difference image based on the first separated image and the second separated image (S120).
  • the difference image generation unit 213 calculates a difference between luminance values at corresponding pixels in the first separated image and the second separated image, and generates a difference image.
  • the difference image generation unit 213 outputs the generated difference image to the inclination calculation unit 215.
  • the present invention is not limited to this example.
  • a separated image may be generated without generating a captured image.
  • the difference image may be generated without generating the captured image, the first separated image and the second separated image.
  • interpolation processing may be performed on the original image of the separated image.
  • the inclination calculating unit 215 that has received the input of the difference image calculates the inclination of the surface of the strip S based on the difference image (S130).
  • the inclination calculating unit 215 sets the difference image as luminance difference data representing the difference in luminance value, based on the relationship between the luminance difference acquired in advance and the inclination of the surface of the band S, the inclination of the surface of the band S. Calculate direction and magnitude.
  • the inclination calculation unit 215 outputs data on the calculated inclination to the height calculation unit 217.
  • the inclination calculation unit 215 may output data regarding the calculated inclination to the display control unit 207 as inspection information.
  • the height calculation unit 217 integrates the inclination included in the data on the inclination output from the inclination calculation unit 215, and calculates the height of the surface of the strip S (step S140).
  • the height calculation unit 217 may output the obtained data regarding the height of the surface of the strip S to the display control unit 207 as inspection information.
  • the display control unit 207 that has received input of various types of inspection information used for surface inspection of the strip S may output the obtained result to the user or various devices provided outside. Thereby, the user can grasp the inspection result regarding the shape of the strip S.
  • the first illumination light source 103 and the second illumination light source 105 are disposed so as to be symmetrical with respect to the regular reflection direction of the optical axis of the line sensor camera 101, and based on the line speed.
  • the first illumination light source 103 and the second illumination light source 105 are sequentially turned on one by one at the line image acquisition timing of the line sensor camera 101, and a plurality of line images are acquired so that overlapping of imaging ranges does not occur. .
  • the arithmetic processing unit 200 obtains a difference line image obtained based on the line image acquired within the light emission time of the first illumination light source 103 and the line image acquired within the light emission time of the second illumination light source 105.
  • the inclination of the surface of the strip S is calculated based on
  • the emission interval and emission of the two light sources The time and exposure time of the camera had to be small, and it was difficult to cope with the increase in line speed.
  • the first line image acquired when the first illumination light source emits light and the second line light source acquires the light emission
  • the second line image does not have to be obtained by imaging the same portion of the strip S, as long as the difference between the first line image and the second line image obtained by imaging the adjacent portion can be obtained.
  • the light emission time of the illumination light is set to a length capable of obtaining a sufficient light amount. It can be set. Therefore, it is possible to obtain a clear line image by the line sensor camera 101, and it is possible to detect the surface shape of the strip S with high accuracy.
  • the data processing load is lower than that of the conventional method, it is possible to cope with the increase in line speed.
  • the resolution of the original image can be maintained in the difference image generated from the separated image. Therefore, it is possible to detect the surface shape of the strip S with higher accuracy, without overlapping the line images acquired by imaging the same inspection target site within the light emission time of each of the two illumination light sources. It becomes.
  • the angle between the line sensor camera 101 and the first illumination light source 103 or the second illumination light source 105 in the conveyance direction of the strip S on the conveyance line is always constant, the detection accuracy is stably maintained.
  • the detection accuracy is stably maintained.
  • FIG. 22 when the surface of the strip S illuminated by the first illumination light source 13 and the second illumination light source 15 is imaged by the area camera 11, two-dimensional also in the conveyance direction of the strip S Image is taken.
  • DOO is a first angle theta 1 formed, the optical axis of the optical axis and the second illumination light source 15 of the area camera 11 and the second angle theta 2 and difference occurs eggplant.
  • FIG. 22 left in the field of view of the area camera 11, in a central position where the optical axis and the strip S intersect the area camera 11, the first angle theta 1 and the second angle theta 2 are identical .
  • FIG. 22 central as shown on the right side, the more the imaged position toward the viewing end from the center position in the field of view of the area camera 11, the difference between the first angle theta 1 and the second angle theta 2 is larger Become.
  • the angle between the area camera 11 and the first illumination light source 13 and the second illumination light source 15 changes, the difference in the brightness of the reflected light at the uneven portion of the strip S changes, and the unevenness is detected. Sensitivity decreases.
  • the pattern becomes apparent due to the difference in the brightness of the reflected light, and the pattern that is the disturbance can not be completely erased.
  • the specular reflection direction of the optical axis of the line sensor camera 101 and the first illumination light source 103 and the first illumination light source 103 Only reflected light can be received at a position where the angles ⁇ 1 and ⁇ 2 with the optical axis of the illumination light source 105 are the same. Therefore, since the difference in luminance of the reflected light as in the case of using the area camera 11 does not occur, the unevenness of the strip S can be detected with high accuracy, and the pattern which is the disturbance can be reliably erased.
  • FIG. 24 is explanatory drawing which shows typically one structural example of the measuring apparatus which comprises the shape inspection apparatus which concerns on this embodiment, Comprising: The state which looked at the strip-shaped body S from the side is shown.
  • the shape inspection apparatus is different from the first embodiment in that the number of illumination light sources in the measuring apparatus 100 is increased.
  • the number of illumination light sources in the measuring apparatus 100 is increased.
  • the measuring apparatus 100 of the shape inspection apparatus 10 includes the line sensor camera 101, the first illumination light source 103, the second illumination light source 105, and the additional illumination light source 107.
  • the line sensor camera 101, the first illumination light source 103, the second illumination light source 105, and the additional illumination light source 107 are fixed by known means so that their setting positions do not change.
  • the configurations of the line sensor camera 101, the first illumination light source 103, and the second illumination light source 105 are the same as the contents described based on FIGS. 5 and 6, and thus the description thereof is omitted here.
  • the additional illumination light source 107 irradiates the surface of the band S with a strip of illumination light (hereinafter also referred to as "additional illumination light").
  • the first illumination light source 103 and the second illumination light source 105 are used to calculate the inclination of the surface of the strip S and to detect unevenness on the surface of the strip S.
  • the additional illumination light source 107 is used to detect dirt such as rust or a streak pattern. Therefore, the color of the additional illumination light of the additional illumination light source 107 does not have to be the same as the first illumination light and the second illumination light, and is selected according to the color etc. of the detection target to be detected using the additional illumination light source 107 can do.
  • the additional illumination light source 107 may be, for example, a rod-like LED illumination, and the laser light is linearly extended by a rod lens or the like. It may be illumination. Further, as a visible light source used for the first illumination light source 103 and the second illumination light source 105, laser light of a single wavelength or an LED may be used, or a light source having a continuous spectrum may be used.
  • the additional illumination light source 107 is disposed at a position different from the first illumination light source 103 and the second illumination light source 105.
  • the angle (third angle: ⁇ 3 ) between the optical axis of the additional illumination light source 107 and the regular reflection direction of the optical axis of the line sensor camera 101 is the line with the first illumination light source 103 the form of the positive reflection direction of the optical axis of the sensor camera 101 first angle theta 1 and the second angle theta 2 formed by the specular direction of the optical axis of the optical axis and the line sensor camera 101 of the second illumination source 105 It is different from The third angle theta 3 is set in accordance with the detection target for detecting the additional illumination source 107, if also be set smaller than the first angle theta 1 and the second angle theta 2 as shown in FIG. 24, also it is set larger than the first angle theta 1 and the second angle theta 2.
  • the first illumination light source 103, the second illumination light source 105, and the additional illumination light source 107 are sequentially lighted one by one based on control information from the measurement control unit 203 of the arithmetic processing unit 200.
  • the line sensor camera 101 captures an image of the surface of the strip S within the emission time of each of the first illumination light source 103 and the second illumination light source 105. Therefore, the captured image acquired by the line sensor camera 101 is acquired when the line image acquired when the first illumination light source 103 is on and the second illumination light source 105 is on.
  • the line image and the line image acquired when the additional illumination light source 107 is turned on become an image arranged in the longitudinal direction according to the lighting order of the illumination light source.
  • the arithmetic processing unit 200 acquires each of the illumination light sources 103, 105, and 107 when the illumination light sources 103, 105, and 107 are turned on, as in the first embodiment.
  • the separated line image is separated to generate a separated image.
  • the inclination calculation unit 215 and the height calculation unit 217 Processed, the slope and height of the surface of the strip S are obtained.
  • the separated image consisting of a line image acquired when the additional illumination light source 107 is turned on
  • a detection target such as dirt such as rust or a pattern is detected.
  • the surface of the band S is imaged by the line sensor camera 101 at each lighting timing, The surface shape can be grasped in more detail.
  • the captured image and the separated image are generated from the line image acquired by the line sensor camera 101 within the emission time of each of the first illumination light source 103, the second illumination light source 105, and the additional illumination light source 107.
  • the difference image is acquired, the present invention is not limited to such an example.
  • a separated image may be generated without generating a captured image.
  • the difference image may be generated without generating the captured image, the first separated image and the second separated image.
  • interpolation processing may be performed on the original image of the separated image.
  • the present invention is not limited to this example, and a plurality of additional illumination light sources may be provided.
  • a plurality of additional illumination light sources By providing a plurality of additional illumination light sources, the surface shape that can be detected can be increased, so that the surface shape of the strip S can be grasped in more detail.
  • the lighting timing and the light emission time of the plurality of additional illumination light sources may be different from the lighting timing and the light emission time of the first illumination light source 103 and the second illumination light source 105.
  • a first additional illumination light source and a second additional illumination light source are provided as the additional illumination light source.
  • four illumination light sources that is, a first illumination light source 103 (referred to as “light source 1”), a second illumination light source 105 (referred to as “light source 2”), a first additional illumination light source (“ The lighting order of the light source 3 ”and the second additional illumination light source (“ light source 4 ”) may be set, for example, as in the following (a) and (b).
  • an illumination light source (additional illumination light source) is further provided. Then, while installing a plurality of illumination light sources and lighting the illumination light sources one by one sequentially, the line sensor camera 101 captures the surface of the band S within each light emission time to acquire a line image, thereby the band The surface shape of S can be grasped in more detail.
  • FIG. 25 is a block diagram showing a hardware configuration of the arithmetic processing unit 200 according to each embodiment of the present invention.
  • the arithmetic processing unit 200 mainly includes a CPU 901, a ROM 903 and a RAM 905.
  • the arithmetic processing unit 200 further includes a bus 907, an input unit 909, an output unit 911, a storage unit 913, a drive 915, a connection port 917, and a communication unit 919.
  • the CPU 901 functions as an arithmetic processing unit and a control unit, and controls all or part of the operation in the arithmetic processing unit 200 in accordance with various programs recorded in the ROM 903, the RAM 905, the storage unit 913, or the removable recording medium 921.
  • the ROM 903 stores programs used by the CPU 901, calculation parameters, and the like.
  • the RAM 905 primarily stores programs used by the CPU 901, parameters that appropriately change in the execution of the programs, and the like. These are mutually connected by a bus 907 constituted by an internal bus such as a CPU bus.
  • the bus 907 is connected to an external bus such as a peripheral component interconnect / interface (PCI) bus via a bridge.
  • PCI peripheral component interconnect / interface
  • the input device 909 is an operation unit operated by the user, such as a mouse, a keyboard, a touch panel, a button, a switch, and a lever.
  • the input device 909 may be, for example, a remote control unit (so-called remote control) using infrared rays or other radio waves, or an external connection device 923 such as a PDA corresponding to the operation of the processing unit 200. May be Furthermore, the input device 909 is configured of, for example, an input control circuit that generates an input signal based on the information input by the user using the above-described operation means, and outputs the generated input signal to the CPU 901. By operating the input device 909, the user can input various data to the shape inspection apparatus 10 and instruct processing operations.
  • the output device 911 is configured of a device capable of visually or aurally notifying the user of the acquired information.
  • Such devices include display devices such as CRT display devices, liquid crystal display devices, plasma display devices, EL display devices and lamps, audio output devices such as speakers and headphones, printer devices, cellular phones, facsimiles, and the like.
  • the output device 911 outputs, for example, results obtained by various processes performed by the arithmetic processing device 200.
  • the display device displays the results obtained by the various types of processing performed by the arithmetic processing unit 200 as text or an image.
  • the audio output device converts an audio signal composed of reproduced audio data, acoustic data and the like into an analog signal and outputs it.
  • the storage device 913 is a device for data storage configured as an example of a storage unit of the arithmetic processing unit 200.
  • the storage device 913 includes, for example, a magnetic storage unit device such as a hard disk drive (HDD), a semiconductor storage device, an optical storage device, or a magneto-optical storage device.
  • the storage device 913 stores programs executed by the CPU 901, various data, various data acquired from the outside, and the like.
  • the drive 915 is a reader / writer for a recording medium, and is built in or externally attached to the arithmetic processing unit 200.
  • the drive 915 reads out information recorded on a removable recording medium 921 such as a mounted magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory, and outputs the information to the RAM 905.
  • the drive 915 can also write a record on a removable recording medium 921 such as a mounted magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory.
  • the removable recording medium 921 is, for example, a CD medium, a DVD medium, a Blu-ray (registered trademark) medium, or the like.
  • the removable recording medium 921 may be Compact Flash (registered trademark) (Compact Flash: CF), a flash memory, an SD memory card (Secure Digital memory card), or the like. Further, the removable recording medium 921 may be, for example, an IC card (Integrated Circuit card) equipped with a noncontact IC chip, an electronic device, or the like.
  • Compact Flash registered trademark
  • Compact Flash CF
  • flash memory a flash memory
  • SD memory card Secure Digital memory card
  • the removable recording medium 921 may be, for example, an IC card (Integrated Circuit card) equipped with a noncontact IC chip, an electronic device, or the like.
  • connection port 917 is a port for directly connecting a device to the arithmetic processing unit 200.
  • Examples of the connection port 917 include a Universal Serial Bus (USB) port, an IEEE 1394 port, a Small Computer System Interface (SCSI) port, and an RS-232C port.
  • USB Universal Serial Bus
  • SCSI Small Computer System Interface
  • RS-232C RS-232C port
  • the communication device 919 is, for example, a communication interface configured of a communication device or the like for connecting to the communication network 925.
  • the communication device 919 is, for example, a communication card for wired or wireless Local Area Network (LAN), Bluetooth (registered trademark), or WUSB (Wireless USB).
  • the communication device 919 may be a router for optical communication, a router for asymmetric digital subscriber line (ADSL), a modem for various types of communication, or the like.
  • the communication device 919 can transmit and receive signals and the like according to a predetermined protocol such as TCP / IP, for example, with the Internet or another communication device.
  • the communication network 925 connected to the communication device 919 is configured by a network or the like connected by wire or wireless, and may be, for example, the Internet, home LAN, infrared communication, radio wave communication, satellite communication, etc. .
  • the shape inspection apparatus according to the above-described embodiment of the present invention will be described with reference to a specific example.
  • the embodiments shown below are merely examples of the shape inspection apparatus and the shape inspection method according to the present invention, and the shape inspection apparatus and the shape inspection method according to the present invention are not limited to the embodiments shown below. .
  • the surface shape of the steel plate was detected as a detection target.
  • the line sensor camera was installed so that the optical axis was perpendicular to the surface of the steel plate.
  • the first illumination light source and the second illumination light source were placed at positions 45 ° apart from the optical axis so as to be symmetrical with respect to the regular reflection direction of the optical axis of the line sensor camera.
  • the line image acquisition timing of the line sensor camera and the lighting timing and light emission time of the first illumination light source and the second illumination light source in this embodiment are set as shown in FIG. As shown in FIG. 8, while the image sensor of the line sensor camera is exposed at the line image acquisition timing, only one of the first illumination light source and the second illumination light source is turned on. The line image acquired when the illumination light source is turned on and the line image acquired when the second illumination light source is turned on do not overlap.
  • the light emission time d of the first illumination light source and the second illumination light source is the same as the exposure time of the line sensor camera.
  • the line speed (V) was 1 m / sec, the light emission time d was 100 ⁇ sec from the above equation (2), and the imaging interval b was set to 100 ⁇ sec from the above equation (1).
  • FIG. 26 On the left side of FIG. 26, a captured image (image A) of a concave portion by the line sensor camera and a captured image (image B) of a rusted area by the line sensor camera are shown.
  • the first separated image and the second separated image generated from these captured images are shown in the center of FIG.
  • Both the recess and the rust area can be grasped from the first separated image and the second separated image.
  • the difference image between the first separated image and the second separated image is shown on the right side of FIG. Looking at the difference image, although the depressions on the surface of the steel plate can be clearly grasped, the rust region does not appear in the difference image. From this, it is understood that the shape inspection apparatus of the present invention can accurately detect the surface shape having inclination and height on a flat surface.
  • the light emission time d must be 20 ⁇ sec or less in order to keep the positional deviation between the first line image and the second line image within 0.2 times the resolution of the line sensor camera. It did not correspond to the cycle time of the sequencer.
  • the present invention is not limited to such an example. For example, there may be a slight overlap that inevitably occurs between the first separation image and the second separation image.

Abstract

帯状体の形状検査装置は、ラインセンサカメラと、ラインセンサカメラの光軸の正反射方向に対して対称に配置され、ラインセンサカメラの撮像位置に対して帯状の照明光を逐次交互に照射する第1の照明光源及び第2の照明光源と、各照明光源それぞれの点灯タイミング及び発光時間と、ラインセンサカメラのライン画像取得タイミングとを制御する測定制御部と、複数のライン画像を処理して帯状体の表面の傾きを算出するデータ処理部とを備える。測定制御部は、第1の照明光源の発光時間内に取得された第1のライン画像と第2の照明光源の発光時間内に取得された第2のライン画像とで撮像範囲の重複が生じないように、ライン速度に基づいて点灯タイミング及び発光時間とライン画像取得タイミングとを制御し、データ処理部は、第1のライン画像と第2のライン画像とに基づき得られる差分ライン画像に基づき帯状体の表面の傾きを算出する。

Description

形状検査装置及び形状検査方法
 本発明は、帯状体の形状検査装置及び形状検査方法に関する。
 測定対象物の表面形状を測定する方法の一つに、蛍光灯、発光ダイオード(Light Emitting Diode:LED)、又は、レーザ光等を利用した照明光を用い、照明光の測定対象物からの反射光を撮像することで、測定対象物の表面形状を測定する方法がある。
 例えば下記の特許文献1には、鋼材の表面欠陥を光学的に検出する表面欠陥検出方法として、2つ以上の弁別可能な光源を利用して同一の検査対象部位に異なる方向から照明光を照射する照射ステップと、各照明光の反射光による画像を取得し、取得した画像間で差分処理を行うことによって検査対象部位における表面欠陥を検出する検出ステップと、を含む表面欠陥検出方法が開示されている。
 また、別の鋼材の表面欠陥を光学的に検出する表面欠陥検出方法として、例えば特許文献2及び特許文献3には、2つ以上の弁別可能な光源を利用して同一の検査対象部位に異なる方向から略同一の入射角度で鋼材の移動方向と直交する方向の線状照明光を連続照射する照射ステップと、各線状照明光の照射位置からの反射光による画像を取得し、取得した画像間で差分処理を行うことによって検査対象部位における表面欠陥を検出する検出ステップと、を含む表面欠陥検出方法が開示されている。
特許第6040930号公報 特開2017-9523号公報 特開2000-241362号公報
 上記特許文献1に記載の方法では、2つ以上の弁別可能な光源の照明光の反射光の画像を2つのエリアセンサカメラによって取得し、取得された画像間の差分をとることで検査対象部位における表面欠陥を検出している。この際、差分処理を行う画像は検査対象部位の同一位置を撮像したものとするため、各エリアセンサカメラによって撮像する検査対象部位の位置がなるべくずれないようにする必要がある。しかしながら、ライン速度に応じて生じる画像間の位置ずれは設備の構成上なくすことは困難であり、表面欠陥の検出精度を高めるには限界がある。特に、高速に移動する検査対象部位では、位置ずれが大きくなるため、上記特許文献1の表面欠陥検出方法は、高速に移動する検査対象部位の検査には適していない。また、エリアセンサカメラでライン進行方向にも二次元的に撮像するため、ライン進行方向の位置に応じて、複数の光源それぞれの光軸とエリアセンサカメラの光軸とのなす角度に差異が発生する。このため、撮像画像の差分処理において凹凸の感度が一定せず、外乱となる模様を完全に消すこともできない。
 また、上記特許文献2では、エリアセンサカメラを用いて取得された画像を用いる場合に加え、ラインセンサカメラを用いて取得された画像を用いる場合の表面欠陥検出方法についても検討されている。特許文献2及び特許文献3に記載の方法においても、特許文献1と同様、差分処理を行う画像は検査対象部位の同一位置を撮像したものとするため、撮像する検査対象部位の位置がなるべくずれないようにする必要があるとされている。そこで、特許文献2及び特許文献3に記載の方法では、一方の光源の発光の直後に他方の光源を発光させて、2つの光源による発光が重ならないようにするとともに、撮像周期も短くし、鋼材の移動に伴う検査対象部位の位置ずれを小さくすることを行っている。このため、照明光の発光時間も短くせざるを得ず、十分な光量を得るには限界があり、データ処理速度にも制限があるため、ライン速度の高速化への対応は困難である。
 そこで、本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、ライン速度が高速化しても測定対象物の表面形状を確実に測定することの可能な、新規かつ改良された帯状体の形状検査装置及び形状検査方法を提供することにある。
 上記課題を解決するために、本発明のある観点によれば、帯状体の表面形状を検出する形状検査装置であって、第1の照明光源または第2の照明光源の照明光が照射されている帯状体の表面を撮像してライン画像を取得するラインセンサカメラと、ラインセンサカメラの光軸の正反射方向に対して対称となるように配置され、ラインセンサカメラの撮像位置に対して帯状の照明光を逐次交互に照射する、第1の照明光源及び第2の照明光源と、第1の照明光源及び第2の照明光源それぞれの点灯タイミング及び発光時間と、ラインセンサカメラのライン画像取得タイミングとを制御する測定制御部と、ラインセンサカメラにより取得された複数のライン画像を処理し、帯状体の表面の傾きを算出するデータ処理部と、を備え、第1の照明光源から第1の照明光が照射されているときにラインセンサカメラにより取得されたライン画像を第1のライン画像とし、第2の照明光源から第2の照明光が照射されているときにラインセンサカメラにより取得されたライン画像を第2のライン画像として、測定制御部は、第1のライン画像と第2のライン画像とで撮像範囲の重複が生じないように、帯状体とラインセンサカメラとの相対速度であるライン速度に基づいて、点灯タイミング及び発光時間とライン画像取得タイミングとを制御し、データ処理部は、第1のライン画像と、第2のライン画像とに基づき得られる差分ライン画像に基づいて、帯状体の表面の傾きを算出する、形状検査装置が提供される。
 測定制御部は、撮像間隔として、ラインセンサカメラによる先の撮像が終わり次の撮像が始まるまでに撮像が行われない時間を設けてもよい。
 帯状体上でのラインセンサカメラの一画素当たりの帯状体の搬送方向の長さをDとしたとき、測定制御部は、撮像間隔bが下記式を満たすようにライン画像取得タイミングを制御してもよい。
 b≧D/V
 データ処理部は、n番目のライン画像取得タイミングで取得されたライン画像と、n-1番目またはn+1番目のうち少なくともいずれか一方のライン画像取得タイミングで取得されたライン画像との差分、前記差分ライン画像として取得し、前記帯状体の表面の傾きを算出してもよい。
 あるいは、データ処理部は、n番目のライン画像取得タイミングで取得されたライン画像と、n-1番目以前のライン画像及びn+1番目以降のライン画像から補完されたライン画像との差分を、差分ライン画像として取得し、帯状体の表面の傾きを算出してもよい。
 データ処理部は、帯状体の表面の傾きを長手方向に積分して帯状体の表面の高さを算出してもよい。
 さらに形状検査装置は、帯状体に対して帯状の照明光を照射する少なくとも1つの付加照明光源を備えてもよい。このとき、測定制御部は、ラインセンサカメラのライン画像取得タイミングで、第1の照明光源、第2の照明光源、及び、付加照明光源を1つずつ逐次点灯させ、データ処理部は、第1のライン画像と第2のライン画像とに基づき得られる差分ライン画像に基づいて、帯状体の表面の傾きを算出し、付加照明光源から付加照明光が照射されているときに前記ラインセンサカメラにより取得されたライン画像に基づいて、帯状体の表面状態を特定する。
 また、上記課題を解決するために、本発明の別の観点によれば、帯状体の表面形状を検出する形状検査方法であって、帯状体が搬送されるライン上には、帯状体の表面を撮像しライン画像を取得するラインセンサカメラと、ラインセンサカメラの光軸の正反射方向に対して対称となるように配置され、ラインセンサカメラの撮像位置に対して帯状の照明光を逐次交互に照射する、第1の照明光源及び第2の照明光源と、が配置されており、第1の照明光源から第1の照明光が照射されているときにラインセンサカメラにより取得されるライン画像を第1のライン画像とし、第2の照明光源から第2の照明光が照射されているときにラインセンサカメラにより取得されるライン画像を第2のライン画像として、第1のライン画像と第2のライン画像とで撮像範囲の重複が生じないように、帯状体とラインセンサカメラとの相対速度であるライン速度に基づいて、第1の照明光源及び第2の照明光源の点灯タイミング及び発光時間と、ラインセンサカメラのライン画像取得タイミングとを制御し、第1のライン画像と第2のライン画像とに基づき得られる差分ライン画像に基づいて、帯状体の表面の傾きを算出する、形状検査方法が提供される。
 以上説明したように本発明によれば、ライン速度が高速化しても測定対象物の表面形状を確実に測定することが可能となる。
本発明の第1の実施形態に係る形状検査装置の一構成例を示す説明図である。 帯状体の表面が水平であるときの、ラインセンサカメラにより取得される照明光の反射光の輝度の大きさを説明する説明図である。 帯状体の表面に水平面に対して傾斜した凹凸があるときの、ラインセンサカメラにより取得される照明光の反射光の輝度の大きさを説明する説明図であって、右肩下がりの傾斜における反射光の輝度の大きさを示す。 帯状体の表面に水平面に対して傾斜した凹凸があるときの、ラインセンサカメラにより取得される照明光の反射光の輝度の大きさを説明する説明図であって、右肩上がりの傾斜における反射光の輝度の大きさを示す。 同実施形態に係る形状検査装置を構成する測定装置の一構成例を模式的に示す説明図であって、帯状体を側面から見た状態を示す。 図5の平面図である。 同実施形態に係る演算処理装置の全体構成の一例を示すブロック図である。 ラインセンサカメラのライン画像取得タイミング、第1の照明光源の点灯タイミング及び発光時間、及び、第2の照明光源の点灯タイミング及び発光時間の一例を示す図である。 図8のライン画像取得タイミングと、点灯タイミング及び発光時間とが設定されたときの、ラインセンサカメラにより取得されるライン画像の撮像範囲を示す説明図である。 同実施形態に係るデータ処理部の構成の一例を示すブロック図である。 同実施形態に係るデータ処理部による差分画像生成処理を説明する説明図である。 同実施形態に係るデータ処理部による差分画像生成処理の一変形例を示す説明図である。 同実施形態に係るデータ処理部による差分画像生成処理の他の変形例を示す説明図である。 同実施形態に係るデータ処理部による差分画像生成処理の他の変形例を示す説明図である。 補間処理による画像の輝度変化のイメージを示す説明図である。 図11の差分画像生成処理に基づき生成される画像例を示す説明図である。 図16の分離画像に対して隣接画素補間処理を施し差分画像を生成した場合の画像例を示す説明図である。 図16の分離画像に対して線形補間処理を施し差分画像を生成した場合の画像例を示す説明図である。 同実施形態に係る測定装置における照明光の反射角と表面の傾き角との関係を模式的に示した説明図である。 帯状体の表面の傾きと輝度差との位置関係例を示すグラフである。 同実施形態に係る形状検査方法の一例を示すフローチャートである。 エリアカメラを用いた場合に生じる反射光の輝度差を説明する説明図である。 ラインセンサカメラにより受光される反射光を説明する説明図である。 本発明の第2の実施形態に係る形状検査装置を構成する測定装置の一構成例を模式的に示す説明図であって、帯状体を側面から見た状態を示す。 本発明の各実施形態に係る演算処理装置のハードウェア構成を示すブロック図である。 実施例において検査対象とした凹部及び錆領域の撮像画像、分離画像及び差分画像を示す説明図である。
 以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
 <1.第1の実施形態>
 [1-1.形状検査装置の概要]
 まず、図1~図4に基づいて、本発明の第1の実施形態に係る帯状体Sの形状検査装置(以下、単に「形状検査装置」ともいう。)10の概要を説明する。図1は、本実施形態に係る形状検査装置10の一構成例を示す説明図である。なお、以下の説明において、帯状体Sは、搬送ライン(図示せず。)上を所定の方向に向かって搬送されているものとし、帯状体Sの搬送方向は帯状体Sの長手方向に対応するものとする。図2は、帯状体Sの表面が水平であるときの、ラインセンサカメラ101により取得される照明光の反射光の輝度の大きさを説明する説明図である。図3及び図4は、帯状体Sの表面に水平面に対して傾斜した凹凸があるときの、ラインセンサカメラ101により取得される照明光の反射光の輝度の大きさを説明する説明図である。
 本実施形態に係る形状検査装置10は、所定の場所に載置されている鋼板や所定の搬送ライン上を搬送される鋼板等といった、各種の帯状体Sの表面形状(例えば、凹凸形状)を検出する装置である。
 ここで、帯状体Sのマクロな形状は特に限定されるものではなく、例えば、スラブやビレットといった板状のものであってもよく、金属板が巻き取られたコイル状のものであってもよい。また、帯状体Sの成分も特に限定されるものではなく、鉄元素を主成分とする各種の鋼であってもよく、鉄と他の金属元素との各種合金であってもよいし、各種の非鉄金属であってもよい。
 本実施形態に係る形状検査装置10は、図1に示すように、測定装置100と、演算処理装置200と、を主に備える。
 測定装置100は、演算処理装置200による制御のもとで、帯状体S(より詳細には、帯状体Sの表面)に対して第1の照明光源103及び第2の照明光源105からそれぞれ照明光を照射するとともに、当該照明光が照査されている帯状体Sの表面をラインセンサカメラ101により撮像して撮像画像を取得する。測定装置100は、取得した撮像画像を、演算処理装置200に対して出力する。
 演算処理装置200は、測定装置100による帯状体Sの測定処理を制御する。また、演算処理装置200は、測定装置100より取得された撮像画像に対して画像処理を行い、帯状体Sの表面形状を検出するために用いられる情報として、帯状体Sの表面の傾きを算出する。
 本実施形態に係る形状検査装置10では、図2に示すように、ラインセンサカメラ101の光軸の正反射方向に対して対称となるように第1の照明光源103及び第2の照明光源105が配置される。そして、第1の照明光源103及び第2の照明光源105を交互に点灯させて、それぞれの発光時間内でラインセンサカメラ101により帯状体Sの表面を撮像することで複数のライン画像を取得する。
 演算処理装置200は、第1の照明光源103から第1の照明光が照射されているときにラインセンサカメラ101により取得されたライン画像(「第1のライン画像」ともいう。)と、第2の照明光源105から第2の照明光が照射されているときにラインセンサカメラ101により取得されたライン画像(「第2のライン画像」ともいう。)との差分に基づいて、帯状体Sの表面の傾きを算出する。例えば、演算処理装置200は、取得されたライン画像を撮像順に並べて生成される撮像画像から、第1のライン画像を分離して第1のライン画像からなる第1の分離画像を生成するとともに、第2のライン画像を分離して第2のライン画像からなる第2の分離画像を生成する。次いで、演算処理装置200は、第1の分離画像と第2の分離画像との各画像の輝度値の差分をとることで差分画像を生成する。そして、演算処理装置200は、当該差分画像に基づき帯状体Sの表面の傾きを算出し、帯状体Sの表面にある凹凸を検出する。
 例えば、図2に示すように、帯状体Sの表面がラインセンサカメラ101の光軸と直交し、水平状態にあるとする。このとき、第1の照明光源103の照射光の帯状体Sの表面での反射光の輝度(以下、「第1の反射輝度」ともいう。)と、第2の照明光源105の照射光の帯状体Sの表面での反射光の輝度(以下、「第2の反射輝度」ともいう。)とは等しくなる。一方、図3及び図4に示すように、帯状体Sの表面に凹凸(例えばV字状の窪み)があった場合には、第1の反射輝度と第2の反射輝度とは異なる。すなわち、図3に示すように、凹凸の右肩下がりの傾斜部分に照明光が照射されたときには、第1の反射輝度より第2の反射輝度が大きくなる。一方、図4に示すように、凹凸の右肩上がりの傾斜部分に照明光が照射されたときには、第2の反射輝度より第1の反射輝度が大きくなる。
 このように、帯状体Sの表面が水平である場合には2つの照明光の反射輝度は同一となり差はないが、帯状体Sの表面に凹凸がある場合には2つの照明光の反射輝度に差が生じる。しがたって、2つの照明光の反射輝度の差を取得できれば、帯状体Sの表面形状を取得できる。そこで、本実施形態では、帯状体Sの表面形状を取得するため、第1の照明光源103から第1の照明光が照射されているときにラインセンサカメラ101により取得された第1のライン画像と、第2の照明光源105から第2の照明光が照射されているときにラインセンサカメラ101により取得された第2のライン画像との輝度値の差分をとることにより、帯状体Sの表面における反射輝度の差を取得する。
 本実施形態に係る形状検査装置10では、測定装置100による帯状体Sの測定処理や、演算処理装置200による帯状体Sの表面の傾きの算出処理は、帯状体Sの搬送にあわせてリアルタイムに実施することが可能である。形状検査装置10の使用者は、形状検査装置10(より詳細には、演算処理装置200)から出力される検出結果に着目することで、帯状体Sの表面形状をリアルタイムに把握して検査することが可能となる。また、形状検査装置10により、演算した帯状体Sの表面の傾きに基づいて、自動的に帯状体Sの表面形状を判定することも可能である。以下、測定装置100及び演算処理装置200について、それぞれ詳述する。
 [1-2.形状検査装置の構成]
(a)測定装置
 まず、図5及び図6を参照しながら、本実施形態に係る測定装置100について、詳細に説明する。なお、図5は、本実施形態に係る形状検査装置10を構成する測定装置100の一構成例を模式的に示す説明図であって、帯状体Sを側面から見た状態を示す。図6は、図5の平面図である。
 本実施形態に係る測定装置100は、図5及び図6に示すように、ラインセンサカメラ101と、第1の照明光源103と、第2の照明光源105とを有する。ラインセンサカメラ101、第1の照明光源103及び第2の照明光源105は、これらの設定位置が変化しないように、公知の手段により固定されている。帯状体Sは、ラインセンサカメラ101及び各照明光源103、105に対して相対的に移動している。ラインセンサカメラ101は、搬送方向(すなわち、帯状体Sの長手方向)に移動する帯状体Sの表面を、順次撮像する。
 このとき、ラインセンサカメラ101により取得された各ライン画像に対応する帯状体Sの領域は、それぞれ互いに重複しないものとする。つまり、ラインセンサカメラ101は、隣接するライン画像取得タイミングにおいて、帯状体Sの異なる領域を撮像しており、帯状体Sの同じ領域を重複して撮像することはない。
(ラインセンサカメラ)
 ラインセンサカメラ101は、1次元のライン単位で画像を撮像する撮像装置である。ラインセンサカメラ101としては、例えば、モノクロラインセンサカメラであってもよく、3CCD方式等の、公知のカラーラインセンサカメラであってもよい。カラーラインセンサカメラを用いる場合には、検査対象の帯状体Sの表面の色も把握することが可能である。
 ラインセンサカメラ101は、例えば図5に示すように、その光軸の正反射方向が帯状体Sの表面に対して垂直となるように、帯状体Sの上方(Z軸正方向側)に配置される。このとき、ラインセンサカメラ101の光軸の正反射方向と帯状体Sの表面の法線方向とのなす角は0°である。なお、本発明は、かかる例に限定されず、ラインセンサカメラ101は、必ずしも光軸の正反射方向が帯状体Sの表面に対して垂直である必要はなく、他の角度から帯状体Sの表面を撮像するように配置されてもよい。
 また、ラインセンサカメラ101は、当該ラインセンサカメラ101により取得されるライン画像の長手方向(Y方向)が帯状体Sの搬送方向(X方向)に対して略直交するように配置される。なお、ライン画像の長手方向と帯状体Sの搬送方向とは、厳密に直交していなくともよく、±10°程度の傾きがあっても許容し得る。
 ラインセンサカメラ101は、第1の照明光源103の第1の照明光または第2の照明光源105の第2の照明光が照射されている帯状体Sの表面を撮像する。本実施形態に係る測定装置100は、演算処理装置200の測定制御部203からの制御情報に基づいて、第1の照明光源103と第2の照明光源105とを交互に逐次点灯させ、それぞれの点灯タイミングから発光時間内でラインセンサカメラ101により帯状体Sの表面を撮像する。したがって、ラインセンサカメラ101は、第1の照明光源103が照射されているときに撮像されたライン画像(第1のライン画像)と、第2の照明光源105が照射されているときに撮像されたライン画像(第2のライン画像)とを交互に取得している。
 ラインセンサカメラ101は、帯状体Sの表面を撮像して取得したライン画像を、演算処理装置200に出力する。ライン画像が入力された演算処理装置200は、データ処理部205により、帯状体Sの表面の傾きを算出する処理が行われる。
(照明光源)
 本実施形態に係る測定装置100は、第1の照明光源103及び第2の照明光源105の、2つの照明光源を備える。第1の照明光源103は、帯状体Sの表面に対して第1の照明光を照射し、第2の照明光源105は、帯状体Sの表面に対して第2の照明光を照射する。本実施形態において、第1の照明光源103の第1の照射光と第2の照明光源105の第2の照射光とは、同一色とすることが望ましい。例えば、第1の照明光源103の第1の照射光が白色光であるときには、第2の照明光源105の第2の照射光も白色光とする。第1の照明光及び第2の照明光の色は、特に限定されるものではなく、検査対象に応じて決定すればよい。また、第1の照明光及び第2の照明光は、可視光でなくともよく、赤外光あるいは紫外光であってもよい。すなわち、第1の照明光源103及び第2の照明光源105は、波長、出力強度、光源の種類等の照射条件が略同一の光源を用いるのがよい。
 第1の照明光源103及び第2の照明光源105は、例えば図6に示すように、帯状体Sの幅方向のほぼ全域にわたって照明光を照射するように構成される。このように照射光を照射することが可能であれば、第1の照明光源103及び第2の照明光源105として、任意の光源を利用することが可能である。例えば、第1の照明光源103及び第2の照明光源105は、棒状のLED照明であってもよく、レーザ光をロッドレンズ等により線状に広げた構成の照明であってもよい。また、第1の照明光源103及び第2の照明光源105に利用する可視光光源としては、単波長のレーザ光あるいはLEDを用いてもよく、連続スペクトルを有する光源を用いてもよい。
 また、第1の照明光源103と第2の照明光源105とは、図5に示すように、ラインセンサカメラ101の光軸の帯状体Sの表面での正反射方向に対して対称となるようにそれぞれ配置される。図5に示す例では、ラインセンサカメラ101は、その光軸の正反射方向が帯状体Sの表面に対して垂直となるように配置されているため、ラインセンサカメラ101の光軸と、当該光軸の帯状体Sの表面での正反射方向とは同一である。したがって、第1の照明光源103の光軸とラインセンサカメラ101の光軸とのなす角度(第1の角度:θ)と、第2の照明光源105の光軸とラインセンサカメラ101の光軸とのなす角度(第2の角度:θ)とが略等しくなるように、第1の照明光源103及び第2の照明光源105は配置されている。
 なお、第1の角度θと第2の角度θとが略等しいとは、第1の角度θと第2の角度θとが同一である場合のみならず、凹凸の存在しない平面を第1の照明光源103または第2の照明光源105を照射してラインセンサカメラ101により帯状体Sの表面を撮像した場合に、凹凸の存在しない平面が、かかる平面に存在する汚れ等による輝度の変化を含めて互いに同じように見える範囲の角度差を有している場合をも含む。この第1の角度θと第2の角度θとの角度差|θ-θ|は、例えば、10°以内であることが好ましく、5°以内であることが更に好ましい。このような範囲の角度差であれば、凹凸の存在しない平面をそれぞれの照明光を照射してラインセンサカメラ101により撮像した場合に、2つの撮像画像が互いに同じように見えるものとなる。
 また、第1の角度θ及び第2の角度θの大きさは、それぞれ、光源の設置上の制約が存在しない範囲でなるべく大きな角度とすることが好ましい。これにより、それぞれの照明光の乱反射をラインセンサカメラ101で測定させることが可能となる。例えば、第1の角度θ及び第2の角度θの大きさは、共に30°以上とすることが好ましい。第1の角度θ及び第2の角度θの大きさをそれぞれ30°以上とすることで、ラインセンサカメラ101によって測定される角度変化に対する輝度値の相対変化を更に大きくすることが可能となる。
 第1の照明光源103と第2の照明光源105とは、演算処理装置200の測定制御部203からの制御情報に基づいて交互に点灯される。第1の照明光源103と第2の照明光源105とのそれぞれの発光時間内で、ラインセンサカメラ101は帯状体Sの表面を撮像してライン画像を取得する。
 以上、本実施形態に係る測定装置100の構成について説明した。図5及び図6では、搬送方向の上流側に第1の照明光源103が配置され、搬送方向の下流側に第2の照明光源105が配置される場合について示したが、本発明はかかる例に限定されない。例えば、搬送方向の上流側に第2の照明光源105が配置され、下流側に第1の照明光源103が配置されてもよい。
(b)演算処理装置
 次に、図7~図20に基づいて、本実施形態に係る形状検査装置10が備える演算処理装置200の構成について、詳細に説明する。なお、図7は、本実施形態に係る演算処理装置200の全体構成の一例を示すブロック図である。図8は、ラインセンサカメラ101のライン画像取得タイミング、第1の照明光源103の点灯タイミング及び発光時間、及び、第2の照明光源105の点灯タイミング及び発光時間の一例を示す図である。図9は、図8のライン画像取得タイミング、点灯タイミング及び発光時間が設定されたときの、ラインセンサカメラ101により取得されるライン画像の撮像範囲を示す説明図である。図10は、本実施形態に係るデータ処理部205の構成の一例を示すブロック図である。図11は、本実施形態に係るデータ処理部205による差分画像生成処理を説明する説明図である。図12~図14は、本実施形態に係るデータ処理部205による差分画像生成処理の一変形例を示す説明図である。図15は、補間処理による画像の輝度変化のイメージを示す説明図である。図16は、図11の差分画像生成処理に基づき生成される画像例を示す説明図である。図17は、図16の分離画像に対して隣接画素補間処理を施し差分画像を生成した場合の画像例を示す説明図である。図18は、図16の分離画像に対して線形補間処理を施し差分画像を生成した場合の画像例を示す説明図である。図19は、本実施形態に係る測定装置100における照明光の反射角と表面の傾き角との関係を模式的に示した説明図である。図20は、帯状体の表面の傾きと輝度差との位置関係例を示すグラフである。
 なお、「点灯タイミング」とは、照明光源が点灯する時点(すなわち、光り始めた時点)を指し、「発光時間」とは、照明光源が点灯してから消灯するまでの時間をいう。また、「ライン画像取得タイミング」は、照明光源が点灯し、かつ、ラインセンサカメラ101の撮像素子が露光されている状態となっている時を指す。照明光源が点灯しているが露光していないタイミングや、露光しているが照明光源が点灯していないタイミングでは、画像の情報を取得できない。このようなタイミングは、ライン画像取得タイミングには含まれない。
 本実施形態に係る演算処理装置200は、測定装置100により取得された撮像画像に基づいて、帯状体Sの表面形状の検出のため、帯状体Sの表面の傾きを算出する装置である。演算処理装置200は、図7に示すように、データ取得部201と、測定制御部203と、データ処理部205と、表示制御部207と、記憶部209と、を主に備える。
(データ取得部)
 データ取得部201は、例えば、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、通信装置等により実現される。データ取得部201は、測定装置100のラインセンサカメラ101によって撮像された撮像画像を取得し、後述するデータ処理部205へと伝送する。また、データ取得部201は、取得した撮像画像に、当該撮像画像を撮像した日時等に関する時刻情報を紐づけて、履歴情報として後述する記憶部209に格納してもよい。
(測定制御部)
 測定制御部203は、CPU、ROM、RAM、通信装置等により実現される。測定制御部203は、本実施形態に係る測定装置100による帯状体Sの測定を制御する。より詳細には、測定制御部203は、帯状体Sの測定を開始する場合に、第1の照明光源103及び第2の照明光源105に対して、照明光を照射させるための制御信号を送出する。
 また、第1の照明光源103及び第2の照明光源105が帯状体Sの表面に対して各照明光の照射を開始すると、測定制御部203は、帯状体Sと測定装置100との間の相対的な位置を変化させる駆動機構等から定期的に送出されるPLG信号(例えば、帯状体Sが1mm移動する毎等に出力されるPLG信号)に基づいて、ラインセンサカメラ101に対して測定を開始するためのトリガ信号を送出する。これにより、測定装置100は、帯状体Sの搬送方向の各位置における測定データ(ライン画像)を取得することが可能となる。
 本実施形態に係る測定制御部203は、帯状体Sとラインセンサカメラ101との相対速度であるライン速度に基づいて、第1の照明光源103と第2の照明光源105とが逐次交互に照明光を照射するように、第1の照明光源103及び第2の照明光源105を制御する。そして、測定制御部203は、ライン速度に基づいて、第1の照明光源103と第2の照明光源105とがそれぞれ照明光を照射している発光時間内においてラインセンサカメラ101により帯状体Sの表面を撮像するように、ラインセンサカメラ101のライン画像取得タイミングを制御する。
 例えば、図8に示すように、ラインセンサカメラ101のライン画像取得タイミング、第1の照明光源103の点灯タイミング及び発光時間、及び、第2の照明光源105の点灯タイミング及び発光時間が設定されているとする。このとき、図9に示すように、帯状体S上でのラインセンサカメラ101の一画素当たりの帯状体Sの搬送方向の長さ(以下、「画素長さ」とする。)をD、帯状体Sとラインセンサカメラ101との相対速度であるライン速度をVとする。また、図8に示すように、ラインセンサカメラ101による先の撮像が終わり、次の撮像が始まるまでの時間を撮像間隔bとして設定する。撮像間隔bは、ラインセンサカメラ101による撮像が行われない時間である。
 時間t1にて第1の照明光源103が点灯した瞬間に、帯状体Sの画素長さDの範囲がラインセンサカメラ101の撮像範囲に入る。その後、時間t2となるまで(発光時間dの間)第1の照明光源103は発光し続け、その間、帯状体Sはライン速度Vでδ(=Vd)だけ移動する。したがって、ラインセンサカメラ101により取得された第1のライン画像E1はD+δの撮像範囲の画像となる。
 次いで、時間t3の直前まで、ラインセンサカメラ101により画像が取得されることなく、帯状帯Sはライン速度Vで移動する。そして、時間t3となった時点で、第2の照明光源105が点灯し、時間t4までの間、第1の照明光源103の点灯時と同様に、ラインセンサカメラ101により撮像範囲E2が第2のライン画像として取得される。
 帯状体S上において、撮像間隔bとライン速度Vとの積(Vb)が画素長さD以上であれば、すなわち下記式(1)を満たせば、第2のライン画像取得開始時には、第1のライン画像E1は、ラインセンサカメラ101の撮像範囲(画素長さDの範囲)から外れている。このため、第1のライン画像と第2のライン画像とは重複しない。したがって、第1のライン画像取得時と第2のライン画像取得時の間に、繰り返し撮像間隔bを設ければ、第1のライン画像と第2のライン画像とで撮像範囲は重複しないものとなる。なお、ラインセンサカメラ101によって帯状体Sの表面を隙間なく撮像する必要はなく、隣り合うライン画像取得タイミングにて取得されたライン画像間に、撮像されていない帯状体Sの領域が存在してもよい。
 b≧D/V   ・・・(1)
 なお、後述の通り、第1のライン画像と第2のライン画像とから1つの差分ライン画像が得られる。したがって、帯状体Sの移動中における第1の照明の照射時の撮像範囲E1及び第2の照明の照射時の撮像範囲E2は、図9に示すように、対象形状の認識に必要な分解能Rの半分以下とする必要がある。撮像範囲E1と撮像範囲E2とが等しい場合(E1=E2=E)、帯状体Sの搬送によるずれ量δは発光時間dとライン速度Vとの積(Vd)となる。したがって、発光時間dは下記式(2)に基づき設定すればよい。
 d=(E-D)/V   ・・・(2)
 また、形状検出の分解能を高める(すなわち、R=2×Eを小さくする)ためには、第1の照明光源及び第2の照明光源の発光時間dを短くするか、帯状体S上での画素長さDを小さくすればよい。
(データ処理部)
 データ処理部205は、例えば、CPU、ROM、RAM、通信装置等により実現される。データ処理部205は、測定装置100により取得されたライン画像を処理し、帯状体Sの表面の傾きを算出する。本実施形態に係るデータ処理部205は、例えば図10に示すように、分離画像生成部211と、差分画像生成部213と、傾き算出部215と、高さ算出部217と、を備える。
 分離画像生成部211は、例えば、CPU、ROM、RAM等により実現され、撮像画像から、第1の照明光源103の点灯タイミングで取得されたライン画像(第1のラン画像)からなる第1の分離画像、及び、第2の照明光源105の点灯タイミングで取得されたライン画像(第2のライン画像)からなる第2の分離画像を生成する。本実施形態において、撮像画像は、図11に示すように、交互に点灯される第1の照明光源103及び第2の照明光源105のそれぞれの発光時間内において、ラインセンサカメラ101により取得されたライン画像を、撮像順に並べて生成された画像である。例えば、第1の照明光源103の発光時間内にライン1、3、5、7の奇数ラインのライン画像が撮像され、第2の照明光源105の発光時間内にライン2、4、6、8の偶数ラインのライン画像が撮像されたとする。このとき、撮像画像は、図11に示すように、長手方向に沿って奇数ラインのライン画像と偶数ラインのライン画像とが交互に配列された画像となる。
 分離画像生成部211は、このような撮像画像を、第1の照明光源103が点灯されている間に取得された奇数ラインのライン画像と、第2の照明光源105が点灯されている間に取得された偶数ラインのライン画像とに分離する。そして、分離画像生成部211は、2つに分離されたライン画像をそれぞれ撮像順に並べ、2つの分離画像を生成する。例えば、奇数ラインのライン画像からなる分離画像を第1の分離画像、偶数ラインのライン画像からなる分離画像を第2の分離画像とする。したがって、第1の分離画像は、第1の照明光源103が点灯されている間に取得されたライン画像からなり、第2の分離画像は、第2の照明光源105が点灯されている間に取得されたライン画像からなる。
分離画像生成部211は、第1の分離画像及び第2の分離画像を生成すると、差分画像生成部213へ出力する。
 差分画像生成部213は、例えば、CPU、ROM、RAM等により実現され、第1の分離画像と第2の分離画像との差分画像を生成する。差分画像は、第1のライン画像と第2のライン画像とから取得される1つの差分ライン画像を、撮像順に並べて生成された画像ともいえる。例えば図11に示すような第1の分離画像と第2の分離画像とが生成されたとき、差分画像生成部213は、第1の分離画像と第2の分離画像とで対応する画素における輝度値の差分を算出し、輝度値の差分により表される差分画像を生成する。差分画像には、第1の分離画像と第2の画像とで輝度値の異なる部分が現れることになる。差分画像生成部213は、生成した差分画像を、傾き算出部215へ出力する。
 なお、差分画像の生成処理においては、必ずしも図11に示したように撮像画像と分離画像(第1の分離画像及び第2の分離画像)とを生成しなくともよい。
 例えば図12に示すように、ラインセンサカメラ101により取得されたライン画像を撮像順に並べた撮像画像が生成されなくとも、分離画像生成部211は、分離画像を生成することができる。この場合、ラインセンサカメラ101はライン画像を取得する毎に分離画像生成部211へ出力する。分離画像生成部211は、ラインセンサカメラ101から入力されたライン画像を、第1の分離画像を記録する第1メモリと第2の分離画像を記録する第2メモリとに振り分け、第1の分離画像及び第2の分離画像を生成する。ラインセンサカメラ101から入力されたライン画像の振り分けは、例えば、ラインセンサカメラ101のライン画像取得タイミング毎にライン画像の出力先のメモリを切り替えることにより行ってもよい。
 また、例えば図13及び図14に示すように、撮像画像及び分離画像を生成せずに差分画像を生成することも可能である。この場合、データ処理部205に分離画像生成部211は設ける必要はなく、ラインセンサカメラ101から入力されたライン画像は差分画像生成部213にて処理される。このとき、データ処理部205は、1ライン画像を格納する遅延メモリ219を備える。
 図13の例では、ラインセンサカメラ101から入力されたライン画像はそれぞれ、差分器213aに出力されるとともに、遅延メモリ219へも格納される。遅延メモリ219へ格納されたライン画像は、1ライン画像取得タイミング分遅れて差分器213aへ出力される。例えば、差分画像生成部213は、1番目のライン画像取得タイミングで取得されたライン画像(以下、「1番目のライン画像」とする。)を、差分器213aに出力するとともに、遅延メモリ219へ格納する。このとき、差分器213aから差分画像を記録する差分画像メモリへの出力は行われない。
 次いで、2番目のライン画像取得タイミングで取得されたライン画像(以下、「2番目のライン画像」とする。)が入力されると、差分画像生成部213は同様に、2番目のライン画像を、差分器213aに出力するとともに、遅延メモリ219へ格納する。このとき、2番目のライン画像が格納される前に、遅延メモリ219から、1番目のライン画像が差分器213aへ出力される。差分器213aは、1番目のライン画像と2番目のライン画像との輝度値の差分をとり、これらのライン画像の差分を差分画像メモリへ出力する。その後もライン画像が入力される毎に、同様の処理が繰り返される。このように、遅延メモリ219を用いてライン画像から直接輝度値の差分を算出可能とすることで、分離画像を生成することなく差分画像を生成することができる。
 また、図13の例では、1ライン画像取得タイミングおきにライン画像の輝度値の差分が差分画像メモリへ出力されるように構成されていたが、ライン画像取得タイミング毎にライン画像の輝度値の差分が差分画像メモリへ出力されるように構成することもできる。例えば図14に示すように、遅延メモリ219と差分器213aとの間に、輝度値の差分をとるライン画像の順序を入れ替えるスイッチ213bを設ける。スイッチ213bは、ライン画像の出力について、出力Aと出力Bとを設定することができる。
 出力Aは、遅延メモリ219に格納されているn番目のライン画像取得タイミングで取得されたライン画像(以下、「n番目のライン画像」とする。)と、n+1番目のライン画像取得タイミングで取得されたライン画像(以下、「n+1番目のライン画像」とする。)とを、そのままの順序で差分器213aに出力する。このとき、差分器213aは、n番目のライン画像の輝度値からn+1番目のライン画像の輝度値を引き、差分を算出する。出力Bは、遅延メモリ219に格納されているn番目のライン画像とn+1番目のライン画像との順序を入れ替えて、差分器213aに出力する。このとき、差分器213aは、n+1番目のライン画像の輝度値からn番目のライン画像の輝度値を引き、差分を算出する。
 スイッチ213bは、ラインセンサカメラ101からライン画像が1つ入力される毎に切り替えられる。差分器213aは、ラインセンサカメラ101からライン画像が1つ入力される毎にライン画像の輝度値の差分を算出し、差分画像メモリへ出力する。これにより、生成される差分画像は、ラインセンサカメラ101により取得されたライン画像を撮像順に並べた撮像画像と同一サイズとなる。
 ここで、図11~図13に示す構成によって生成される差分画像は、長手方向のサイズが撮像画像の1/2となる。これは、第1の照明光源103と第2の照明光源105とが交互に点灯されるためであり、図11及び図12の第1の分離画像及び第2の分離画像、及び、図11~図13の差分画像は、ラインセンサカメラ101の撮像分解能の1/2で取得された画像ともいえる。このため、ラインセンサカメラ101の撮像分解能は、必要分解能の2倍に設定されるのが望ましい。
 また、図11及び図12の第1の分離画像及び第2の分離画像について、撮像画像と画像サイズを合わせるための補間処理を行ってもよい。補間処理としては、例えばライン1、1、3、3、5、5、7、7、といったように各ライン画像を2つずつ配列することにより分離画像を補間する隣接画素補間(図15上側中央)を行ってもよい。あるいは、分離画像の元画像に対し、隣接するライン画像において隣接する画素の輝度値の平均値を補間する線形補間(図15上側右)を行ってもよい。
 図15下側に、元画像の画素1~5の輝度値の変化と、補間処理が施された分離画像の画素1~9の輝度値の変化とを示す。隣接画素補間を行った分離画像では、同一の輝度値で補間を行っているため輝度値の変化はがたつきが生じるが、線形補間を行った分離画像では、滑らかに輝度値が変化していることがわかる。このように、分離画像の元画像に対して線形補間を行うことで、元画像の分解能を維持しつつ、帯状体Sの表面にある凹凸の形態に類似した輝度変化を再現することが可能となる。
 実際に取得される画像例を図16~図18に示す。図16は、図11に示す処理により得られる撮像画像、第1の分離画像、第2の分離画像、及び、差分画像を示している。図16の第1の分離画像、第2の分離画像、及び、差分画像の長手方向のサイズは、撮像画像の1/2となっている。図16の第1の分離画像及び第2の分離画像に対して隣接画素補間を施すと、図17に示すように、第1の分離画像、第2の分離画像、及び、差分画像の長手方向のサイズは撮像画像と同一となる。また、図16の第1の分離画像及び第2の分離画像に対して線形補間を施すと、図18に示すように、図17と同様、第1の分離画像、第2の分離画像、及び、差分画像の長手方向のサイズは撮像画像と同一となる。さらに、補間後の分離画像及び差分画像は、隣接画素補間を行った図17の場合よりも滑らかな画像となる。このように、分離画像の元画像に対して線形補間を行うことで、元画像の分解能を維持しつつ、帯状体Sの表面にある凹凸の形態に類似した輝度変化を再現することができる。
 図10の説明に戻り、傾き算出部215は、例えば、CPU、ROM、RAM等により実現され、差分画像生成部213により生成された差分画像に基づいて、帯状体Sの表面の傾きを算出する。傾き算出部215は、差分画像生成部213により生成された差分画像を輝度値の差分を表す輝度差データとして、輝度差と帯状体Sの表面の傾きとの関係性に基づき、帯状体Sの表面の傾きの方向と大きさを算出する。
 ここで、図19および図20に基づき、輝度差と帯状体Sの表面の傾きとの関係性について説明する。例えば図19に示すように、帯状体Sの表面が、ラインセンサカメラ101の光軸と直交する水平面にあるときを基準として、傾き角φだけ傾いていたとする。本実施形態では、第1の照明光源103と第2の照明光源105とは、第1の角度θと第2の角度θとが略等しくなるように設置されている。そのため、水平を維持している帯状体Sの表面を撮像した場合、ラインセンサカメラ101によって検出される第1の照明光の反射光の輝度と第2の照明光の反射光の輝度とは、波長の違いによる補正定数分の小さな差を除いてゼロと考えることができる。ここで、水平を維持している帯状体Sの表面に、帯状体Sの長手方向の傾きが生じると、各照明光の反射の度合いが変化して、図20に示すように各反射光の輝度差が変化する。
 図20より、原点付近でのグラフの傾き(すなわち、変換係数)をαと表わすと、輝度差ΔLと傾き角φとは、ΔL=α×φという関係で表わすことができる。そこで、傾き算出部215は、差分画像から特定される各画素の輝度差ΔLと変換係数αとを用いることで、各輝度差ΔLを表面の傾き角φに変換することができる。着目している帯状体Sの表面の傾きは、輝度差から換算された傾き角φにおける正接(tangent)に対応する。そこで、傾き算出部215は、算出した傾き角φにおける正接であるtanφを算出することで、着目している帯状体Sの表面の傾きを算出することができる。このようにして算出された傾きは、その正負が傾きの方向を表わしており、絶対値が傾きの具体的な大きさを表わしている。
 なお、予め特定された変換係数αに関する情報は、例えば記憶部209等に格納されており、傾き算出部215は、傾きの算出処理を実施する際に記憶部209から変換係数に関する情報を取得して、輝度差を傾き角へと変換する。傾き算出部215は、このような処理を輝度差のデータの全ての要素に対して実施することで、帯状体Sの表面全体についての傾きの値のデータ群(換言すれば、傾きの値に関するマップデータ)を得る。このようにして得られる傾きの値のデータ群が、帯状体Sの形状(より詳細には、表面形状)を検査する際に用いられる検査用情報となる。また、かかる検査用情報に含まれる傾きの値を輝度値の高低や濃淡に置き換えることで、検査用情報を画像化することも可能である。生成された傾きに関するマップデータを画像化して傾き画像とすることで、傾き画像に基づく形状検査を行うことも可能となる。
 また、傾き算出部215は、算出した傾きを所定の閾値と比較することで、帯状体Sの表面の形状の検査を行うことも可能である。すなわち、過去の操業データ等に基づいて公知の統計処理等を実施することで、帯状体Sの表面に異常部分が存在する場合における表面の傾きの閾値を予め特定しておき、記憶部209等に格納しておく。その上で、傾き算出部215は、算出した傾きの値と閾値との大小関係を特定することで、着目している帯状体Sの表面に異常部分が存在するか否かを検査することが可能となる。
 傾き算出部215は、算出した帯状体Sの表面の傾きに関するデータを、高さ算出部217に出力する。
 高さ算出部217は、例えば、CPU、ROM、RAM等により実現され、傾き算出部215によって算出された帯状体Sの表面の傾きを用いて、着目している帯状体Sの表面の高さを算出する。
 具体的には、高さ算出部217は、傾き算出部215によって算出された帯状体Sの表面の傾きtanφを、ラインセンサカメラ101と帯状体Sの相対的な移動方向である帯状体Sの長手方向(換言すれば、ラインセンサカメラ101の走査方向)に沿って積分することで、帯状体Sの表面の高さを算出する。
 高さ算出部217は、かかる積分処理を表面の傾きに関するデータの全ての要素に対して実施することで、帯状体Sの表面全体についての表面の高さに関するデータ群(換言すれば、表面の高さに関するマップデータ)を得ることができる。このようにして得られる表面の高さに関するデータ群が、帯状体Sの形状(より詳細には、表面形状)を検査する際に用いられる検査用情報となる。また、かかる検査用情報に含まれる表面の高さに関する値を輝度値の高低や濃淡に置き換えることで、検査用情報を画像化することも可能である。生成された表面の高さに関するマップデータを画像化して高さ画像とすることで、高さ画像に基づく形状検査を行うことも可能となる。
 以上の機能を備えるデータ処理部205は、帯状体Sの表面の傾きを算出し、帯状体Sの表面形状を検査するための検査用情報の算出処理を終了すると、得られた処理結果に関する情報を、表示制御部207に伝送する。
(表示制御部)
 図7の説明に戻り、表示制御部207は、例えば、CPU、ROM、RAM、出力装置等により実現される。表示制御部207は、データ処理部205から伝送された、帯状体Sの表面形状に関する検査用情報の算出結果を含む各種の処理結果を、演算処理装置200が備えるディスプレイ等の出力装置や演算処理装置200の外部に設けられた出力装置等に表示する際の表示制御を行う。これにより、形状検査装置10の利用者は、帯状体Sの表面の傾きや高さ等といった各種の処理結果を、その場で把握することが可能となる。
(記憶部)
 記憶部209は、例えば本実施形態に係る演算処理装置200が備えるRAMやストレージ装置等により実現される。記憶部209には、本実施形態に係る演算処理装置200が、何らかの処理を行う際に保存する必要が生じた様々なパラメータや処理の途中経過等、又は、各種のデータベースやプログラム等が、適宜記録される。この記憶部209に対し、データ取得部201、測定制御部203、データ処理部205、表示制御部207等は、自由にデータのリード/ライト処理を行うことが可能である。
 以上、本実施形態に係る演算処理装置200の機能の一例を示した。上記の各構成要素は、汎用的な部材や回路を用いて構成されていてもよいし、各構成要素の機能に特化したハードウェアにより構成されていてもよい。また、各構成要素の機能を、CPU等が全て行ってもよい。従って、本実施形態を実施する時々の技術レベルに応じて、適宜、利用する構成を変更することが可能である。
 なお、上述のような本実施形態に係る演算処理装置の各機能を実現するためのコンピュータプログラムを作製し、パーソナルコンピュータ等に実装することが可能である。また、このようなコンピュータプログラムが格納された、コンピュータで読み取り可能な記録媒体も提供することができる。記録媒体は、例えば、磁気ディスク、光ディスク、光磁気ディスク、フラッシュメモリなどである。また、上記のコンピュータプログラムは、記録媒体を用いずに、例えばネットワークを介して配信してもよい。
 [1-3.形状検査方法]
 図21に基づいて、本実施形態に係る形状検査装置10で実施される形状検査方法の一例について説明する。なお、図21は、本実施形態に係る形状検査方法の一例を示すフローチャートである。
 図21に示すように、まず、形状検査装置10の測定装置100により、演算処理装置200の測定制御部203の制御下で、ライン速度に基づいて、帯状体Sの表面の所定領域を、第1の照明光源103及び第2の照明光源105を交互に逐次点灯させながら、それぞれの点灯タイミングで照明光が照射されている発光時間内のライン画像取得タイミングでラインセンサカメラ101により撮像し、ライン画像を取得する(ステップS100)。ラインセンサカメラ101は、取得したライン画像を、演算処理装置200へ出力する。
 次いで、演算処理装置200のデータ取得部201は、測定装置100から入力されたライン画像を取得すると、入力されたライン画像からデータ処理部205の分離画像生成部211にて分離画像を生成する(S110)。分離画像生成部211は、例えば図11に示したように、撮像画像から、第1の照明光源103から第1の照明光が照射されているときにラインセンサカメラ101により取得されたライン画像からなる第1の分離画像、及び、第2の照明光源105から第2の照明光が照射されているときにラインセンサカメラ101により取得されたライン画像からなる第2の分離画像を生成する。そして、分離画像生成部211は、生成した第1の分離画像及び第2の分離画像を、差分画像生成部213へ出力する。
 差分画像生成部213は、第1の分離画像と第2の分離画像とに基づき差分画像を生成する(S120)。差分画像生成部213は、第1の分離画像と第2の分離画像とで対応する画素における輝度値の差分を算出し、差分画像を生成する。差分画像生成部213は、生成した差分画像を、傾き算出部215へ出力する。
 なお、ステップS110及びS120では、撮像画像から第1の分離画像及び第2の分離画像を生成し、その後、差分画像を生成したが、本発明はかかる例に限定されない。例えば、図12に示したように、撮像画像を生成せずに分離画像を生成してもよい。あるいは、図13及び図14に示したように、撮像画像、第1の分離画像及び第2の分離画像を生成せずに差分画像を生成してもよい。さらに、図15に示したように、分離画像を生成する際、分離画像の元画像に対して補間処理を行ってもよい。
 図21の説明に戻り、差分画像の入力を受けた傾き算出部215は、差分画像に基づき、帯状体Sの表面の傾きを算出する(S130)。傾き算出部215は、差分画像を輝度値の差分を表す輝度差データとして、予め取得されている輝度差と帯状体Sの表面の傾きとの関係性に基づき、帯状体Sの表面の傾きの方向と大きさを算出する。そして、傾き算出部215は、算出した傾きに関するデータを、高さ算出部217へ出力する。このとき、傾き算出部215は、算出した傾きに関するデータを検査用情報として、表示制御部207へ出力してもよい。
 その後、高さ算出部217は、傾き算出部215から出力された傾きに関するデータに含まれる傾きを積分し、帯状体Sの表面の高さを算出する(ステップS140)。高さ算出部217は、得られた帯状体Sの表面の高さに関するデータを検査用情報として、表示制御部207へ出力してもよい。
 帯状体Sの表面検査に用いられる各種の検査用情報の入力を受けた表示制御部207は、得られた結果を、ユーザや外部に設けられた各種の機器に出力してもよい。これにより、ユーザは、帯状体Sの形状に関する検査結果を把握することが可能となる。
 [1-4.まとめ]
 以上、本発明の第1の実施形態に係る形状検査装置10の構成と、これによる帯状体Sの形状検査方法について説明した。本実施形態によれば、ラインセンサカメラ101の光軸の正反射方向に対して対称となるように第1の照明光源103と第2の照明光源105とを配置して、ライン速度に基づいて、ラインセンサカメラ101のライン画像取得タイミングで第1の照明光源103と第2の照明光源105とを1つずつ逐次点灯させて、撮像範囲の重複が生じないように複数のライン画像を取得する。そして、演算処理装置200は、第1の照明光源103の発光時間内に取得されたライン画像と、第2の照明光源105の発光時間内に取得されたライン画像とに基づき得られる差分ライン画像に基づいて、帯状体Sの表面の傾きを算出する。
 従来の手法では、できるだけ同一の検査対象部位の位置ずれを起こさないように、2方向から照射される照明光のそれぞれの発光時間内にライン画像を取得するため、2つの光源の発光間隔及び発光時間、カメラの露光時間を小さくなければならず、ライン速度の高速化への対応が難しかった。これに対して、本実施形態に係る手法によれば、第1の照明光源が発光されているときに取得された第1のライン画像と、第2の照明光源が発光されているときに取得された第2のライン画像とは、帯状体Sの同一部位を撮像したものである必要はなく、隣接する部位を撮像した第1のライン画像と第2のライン画像との差分が取得できればよい。
 本実施形態に係る手法では、従来の手法のように同一の検査対象部位の位置ずれを考慮しなくてもよいため、照明光の発光時間を、十分な光量を得ることの可能な長さに設定することができる。したがって、ラインセンサカメラ101により明瞭なライン画像を取得することが可能であり、帯状体Sの表面形状を高精度に検出することが可能となる。また、従来の手法に比べてデータ処理負荷も低いため、ライン速度の高速化にも対応可能である。
 さらに、本実施形態に係る手法では、ラインセンサカメラ101の撮像分解能を高くすることで、分離画像から生成される差分画像において、元画像の分解能を維持することができる。これにより、2つの照明光源のそれぞれの発光時間内にて同一の検査対象部位を撮像して取得されたライン画像を重ねなくとも、帯状体Sの表面形状をより高精度に検出することが可能となる。
 また、搬送ラインでの帯状体Sの搬送方向におけるラインセンサカメラ101と第1の照明光源103または第2の照明光源105とのなす角度は常に一定であるため、検出精度を安定的に保つことができる。例えば、図22に示すように、第1の照明光源13及び第2の照明光源15により照明された帯状体Sの表面をエリアカメラ11により撮像する場合、帯状体Sの搬送方向にも二次元的に撮像される。このため、エリアカメラ11により撮像された1枚の撮像画像において、帯状体Sの長手方向(すなわち搬送方向)の位置に応じて、エリアカメラ11の光軸と第1の照明光源13の光軸とがなす第1の角度θと、エリアカメラ11の光軸と第2の照明光源15の光軸とがなす第2の角度θとに差異が発生する。
 図22左側に示すように、エリアカメラ11の視野において、エリアカメラ11の光軸と帯状体Sとが交わる中央位置では、第1の角度θと第2の角度θとが同一である。しかし、図22中央、右側に示すように、撮像された位置がエリアカメラ11の視野において中央位置から視野端に向かうほど、第1の角度θと第2の角度θとの差が大きくなる。このように、エリアカメラ11と第1の照明光源13及び第2の照明光源15とのなす角度が変化すると、帯状体Sの凹凸部分での反射光の輝度の差が変化し、凹凸を検知する感度が低下する。また、帯状体Sの表面に模様がある場合には、反射光の輝度の差が生じることで模様が顕在化し、外乱となる模様を完全に消去することができない。
 そこで、図23に示すように、本実施形態に係る形状検査装置10のようにラインセンサカメラ101を用いることで、ラインセンサカメラ101の光軸の正反射方向と第1の照明光源103及び第2の照明光源105の光軸とのなす角度θ、θが同一である位置での反射光のみ受光をさせることができる。したがって、エリアカメラ11を用いる場合のような反射光の輝度差は生じないため、帯状体Sの凹凸を高精度に検知することができ、外乱となる模様も確実に消去することができる。
 <2.第2の実施形態>
 次に、図24に基づいて、本発明の第2の実施形態に係る形状検査装置の構成とその作用について説明する。図24は、本実施形態に係る形状検査装置を構成する測定装置の一構成例を模式的に示す説明図であって、帯状体Sを側面から見た状態を示す。
 本実施形態に係る形状検査装置は、第1の実施形態と比較して、測定装置100において照明光源の数が増加している点で相違する。照明光源を増やすことで、第1の実施形態で検出した帯状体Sの表面の傾きだけでなく、例えば錆等の汚れや筋模様といった帯状体Sの表面形状をより詳細に把握することが可能となる。
 本実施形態に係る形状検査装置10の測定装置100は、図22に示すように、ラインセンサカメラ101と、第1の照明光源103と、第2の照明光源105と、付加照明光源107とを有する。ラインセンサカメラ101、第1の照明光源103、第2の照明光源105、及び、付加照明光源107は、これらの設定位置が変化しないように、公知の手段により固定されている。なお、ラインセンサカメラ101、第1の照明光源103及び第2の照明光源105の構成については、図5及び図6に基づき説明した内容と同一であるため、ここでは説明を省略する。
 付加照明光源107は、第1の照明光源103及び第2の照明光源105と同様、帯状体Sの表面に対して帯状の照明光(以下、「付加照明光」ともいう。)を照射する。第1の照明光源103及び第2の照明光源105は、帯状体Sの表面の傾きを算出し、帯状体Sの表面の凹凸を検出するために用いられる。一方、付加照明光源107は、錆等の汚れや筋模様等を検出するために用いられる。したがって、付加照明光源107の付加照明光の色は、第1の照明光及び第2の照明光と同一でなくともよく、付加照明光源107を用いて検出したい検出対象の色等に応じて選択することができる。
 また、付加照明光源107は、第1の照明光源103及び第2の照明光源105と同様、例えば、棒状のLED照明であってもよく、レーザ光をロッドレンズ等により線状に広げた構成の照明であってもよい。また、第1の照明光源103及び第2の照明光源105に利用する可視光光源としては、単波長のレーザ光やLEDを用いてもよく、連続スペクトルを有する光源を用いてもよい。
 付加照明光源107は、第1の照明光源103及び第2の照明光源105とは異なる位置に配置される。例えば図24に示すように、付加照明光源107の光軸とラインセンサカメラ101の光軸の正反射方向とのなす角度(第3の角度:θ)は、第1の照明光源103とラインセンサカメラ101の光軸の正反射方向とのなす第1の角度θ及び第2の照明光源105の光軸とラインセンサカメラ101の光軸の正反射方向とのなす第2の角度θとは異なる。第3の角度θは付加照明光源107を検出する検出対象に応じて設定され、図24のように第1の角度θ及び第2の角度θより小さく設定されることもあれば、第1の角度θ及び第2の角度θより大きく設定されることもある。
 第1の照明光源103、第2の照明光源105及び付加照明光源107とは、演算処理装置200の測定制御部203からの制御情報に基づいて1つずつ逐次点灯される。第1の照明光源103と第2の照明光源105とのそれぞれの発光時間内に、ラインセンサカメラ101は帯状体Sの表面を撮像する。したがって、ラインセンサカメラ101にて取得された撮像画像は、第1の照明光源103が点灯されているときに取得されたライン画像と、第2の照明光源105が点灯されているときに取得されたライン画像と、付加照明光源107が点灯されているときに取得されたライン画像とが、照明光源の点灯順にしたがって長手方向に配列された画像となる。
 このようにして取得された撮像画像に基づき、演算処理装置200は、第1の実施形態と同様、データ処理部205にて、各照明光源103、105、107が点灯されているときにそれぞれ取得されたライン画像を分離してなる分離画像を生成する。そして、第1の分離画像及び第2の分離画像については第1の実施形態と同様に、差分画像生成部213にて差分画像が生成された後、傾き算出部215及び高さ算出部217により処理され、帯状体Sの表面の傾き及び高さが取得される。一方、付加照明光源107が点灯されたときに取得されたライン画像からなる分離画像からは、当該分離画像のみを用いて、あるいは、第1の分離画像または第2の分離画像との比較により、例えば錆等の汚れや模様等の検出対象が検出される。
 このように、複数の照明光源を設置して1つずつ逐次照明光源を点灯させながら、それぞれの点灯タイミングで帯状体Sの表面をラインセンサカメラ101によって撮像することで、帯状体Sの表面の表面形状をより詳細に把握することができる。
 なお、上記説明では、第1の照明光源103、第2の照明光源105及び付加照明光源107のそれぞれの発光時間内においてラインセンサカメラ101により取得されたライン画像から、撮像画像、分離画像を生成して、差分画像を取得したが、本発明はかかる例に限定されない。帯状体Sの表面の凹凸の検出においては、第1の実施形態と同様、例えば、図12に示したように、撮像画像を生成せずに分離画像を生成してもよい。あるいは、図13及び図14に示したように、撮像画像、第1の分離画像及び第2の分離画像を生成せずに差分画像を生成してもよい。さらに、図15に示したように、分離画像を生成する際、分離画像の元画像に対して補間処理を行ってもよい。
 また、図24の例では、付加照明光源は1つのみ設置したが、本発明はかかる例に限定されず、複数の付加照明光源を設けてもよい。複数の付加照明光源を設けることで、検出可能な表面形状を増やすことができるので、帯状体Sの表面形状をより詳細に把握することが可能となる。この際、複数の付加照明光源の点灯タイミング及び発光時間は、第1の照明光源103及び第2の照明光源105の点灯タイミング及び発光時間と異なっていてもよい。
 例えば、付加照明光源として、第1の付加照明光源と第2の付加照明光源とが設けられているとする。このとき、4つの照明光源、すなわち、第1の照明光源103(「光源1」とする。)、第2の照明光源105(「光源2」とする。)、第1の付加照明光源(「光源3」とする。)及び第2の付加照明光源(「光源4」とする。)の点灯順序は、例えば以下の(a)、(b)のように設定してもよい。
 (a)光源1→光源2→光源3→光源4→光源1→光源2→光源3→光源4→・・
 (b)光源1→光源2→光源3→光源1→光源2→光源4→光源1→・・
 以上、本発明の第2の実施形態に係る形状検査装置10の構成と、これによる帯状体Sの形状検査方法について説明した。本実施形態によれば、第1の照明光源103及び第2の照明光源105に加え、さらに照明光源(付加照明光源)を設ける。そして、複数の照明光源を設置して1つずつ逐次照明光源を点灯させながら、それぞれの発光時間内に帯状体Sの表面をラインセンサカメラ101によって撮像しライン画像を取得することで、帯状体Sの表面形状をより詳細に把握することができる。
 <3.ハードウェア構成例>
 図25を参照しながら、本発明の上記実施形態に係る演算処理装置200のハードウェア構成について、詳細に説明する。図25は、本発明の各実施形態に係る演算処理装置200のハードウェア構成を示すブロック図である。
 演算処理装置200は、主に、CPU901と、ROM903と、RAM905と、を備える。また、演算処理装置200は、更に、バス907と、入力装置909と、出力装置911と、ストレージ装置913と、ドライブ915と、接続ポート917と、通信装置919とを備える。
 CPU901は、演算処理装置および制御装置として機能し、ROM903、RAM905、ストレージ装置913、またはリムーバブル記録媒体921に記録された各種プログラムに従って、演算処理装置200内の動作全般またはその一部を制御する。ROM903は、CPU901が使用するプログラムや演算パラメータ等を記憶する。RAM905は、CPU901が使用するプログラムや、プログラムの実行において適宜変化するパラメータ等を一次記憶する。これらはCPUバス等の内部バスにより構成されるバス907により相互に接続されている。
 バス907は、ブリッジを介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バスに接続されている。
 入力装置909は、例えば、マウス、キーボード、タッチパネル、ボタン、スイッチおよびレバーなどユーザが操作する操作手段である。また、入力装置909は、例えば、赤外線やその他の電波を利用したリモートコントロール手段(いわゆる、リモコン)であってもよいし、演算処理装置200の操作に対応したPDA等の外部接続機器923であってもよい。さらに、入力装置909は、例えば、上記の操作手段を用いてユーザにより入力された情報に基づいて入力信号を生成し、CPU901に出力する入力制御回路などから構成されている。ユーザは、この入力装置909を操作することにより、形状検査装置10に対して各種のデータを入力したり処理動作を指示したりすることができる。
 出力装置911は、取得した情報をユーザに対して視覚的または聴覚的に通知することが可能な装置で構成される。このような装置として、CRTディスプレイ装置、液晶ディスプレイ装置、プラズマディスプレイ装置、ELディスプレイ装置およびランプなどの表示装置や、スピーカおよびヘッドホンなどの音声出力装置や、プリンタ装置、携帯電話、ファクシミリなどがある。出力装置911は、例えば、演算処理装置200が行った各種処理により得られた結果を出力する。具体的には、表示装置は、演算処理装置200が行った各種処理により得られた結果を、テキストまたはイメージで表示する。他方、音声出力装置は、再生された音声データや音響データ等からなるオーディオ信号をアナログ信号に変換して出力する。
 ストレージ装置913は、演算処理装置200の記憶部の一例として構成されたデータ格納用の装置である。ストレージ装置913は、例えば、HDD(Hard Disk Drive)等の磁気記憶部デバイス、半導体記憶デバイス、光記憶デバイス、または光磁気記憶デバイス等により構成される。このストレージ装置913は、CPU901が実行するプログラムや各種データ、および外部から取得した各種のデータなどを格納する。
 ドライブ915は、記録媒体用リーダライタであり、演算処理装置200に内蔵、あるいは外付けされる。ドライブ915は、装着されている磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリ等のリムーバブル記録媒体921に記録されている情報を読み出して、RAM905に出力する。また、ドライブ915は、装着されている磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリ等のリムーバブル記録媒体921に記録を書き込むことも可能である。リムーバブル記録媒体921は、例えば、CDメディア、DVDメディア、Blu-ray(登録商標)メディア等である。また、リムーバブル記録媒体921は、コンパクトフラッシュ(登録商標)(CompactFlash:CF)、フラッシュメモリ、または、SDメモリカード(Secure Digital memory card)等であってもよい。また、リムーバブル記録媒体921は、例えば、非接触型ICチップを搭載したICカード(Integrated Circuit card)または電子機器等であってもよい。
 接続ポート917は、機器を演算処理装置200に直接接続するためのポートである。接続ポート917の一例として、USB(Universal Serial Bus)ポート、IEEE1394ポート、SCSI(Small Computer System Interface)ポート、RS-232Cポート等がある。この接続ポート917に外部接続機器923を接続することで、演算処理装置200は、外部接続機器923から直接各種のデータを取得したり、外部接続機器923に各種のデータを提供したりする。
 通信装置919は、例えば、通信網925に接続するための通信デバイス等で構成された通信インターフェースである。通信装置919は、例えば、有線または無線LAN(Local Area Network)、Bluetooth(登録商標)、またはWUSB(Wireless USB)用の通信カード等である。また、通信装置919は、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ、または、各種通信用のモデム等であってもよい。この通信装置919は、例えば、インターネットや他の通信機器との間で、例えばTCP/IP等の所定のプロトコルに則して信号等を送受信することができる。また、通信装置919に接続される通信網925は、有線または無線によって接続されたネットワーク等により構成され、例えば、インターネット、家庭内LAN、赤外線通信、ラジオ波通信または衛星通信等であってもよい。
 以上、本発明の実施形態に係る演算処理装置200の機能を実現可能なハードウェア構成の一例を示した。上記の各構成要素は、汎用的な部材を用いて構成されていてもよいし、各構成要素の機能に特化したハードウェアにより構成されていてもよい。従って、本実施形態を実施する時々の技術レベルに応じて、適宜、利用するハードウェア構成を変更することが可能である。
 以下、具体例を示しながら、本発明の上記実施形態に係る形状検査装置について説明する。以下に示す実施例は、本発明に係る形状検査装置及び形状検査方法のあくまでも一例であって、本発明に係る形状検査装置及び形状検査方法が、以下に示す実施例に限定されるものではない。
 本実施例では、第1の実施形態に基づく構成の形状検査装置を用いて、鋼板の表面に人工的に形成した直径2mm程度の凹部と、鋼板の表面の錆が生じている錆領域とを検出対象として、鋼板の表面形状の検出を行った。ラインセンサカメラは鋼板の表面に対して光軸が垂直となるように設置した。第1の照明光源及び第2の照明光源は、ラインセンサカメラの光軸の正反射方向に対して対称となるように、それぞれ光軸に対して45°開いた位置に設置した。
 本実施例におけるラインセンサカメラのライン画像取得タイミングと、第1の照明光源及び第2の照明光源の点灯タイミング及び発光時間とは、図8に示したように設定した。図8に示すように、ラインセンサカメラの撮像素子がライン画像取得タイミングで露光される間は、第1の照明光源または第2の照明光源のうちいずれか一方のみしか点灯させないようにし、第1の照明光源が点灯されているときに取得されるライン画像と、第2の照明光源が点灯されているときに取得されるライン画像とが、重複しないようにした。
 ラインセンサカメラの撮像分解能(R)は0.1mm、各照明光照射時の撮像範囲(E1=E2=E)は0.2mmとした。なお、なお、第1の照明光源及び第2の照明光源の発光時間dは、ラインセンサカメラの露光時間と同一とした。ライン速度(V)を1m/secとし、上記式(2)より発光時間dを100μsecとし、上記式(1)より撮像間隔bを100μsecと設定した。
 図26左側に、ラインセンサカメラによる凹部の撮像画像(画像A)と、ラインセンサカメラによる錆領域の撮像画像(画像B)とを示す。図26中央には、これらの撮像画像から生成された、第1の分離画像及び第2の分離画像を示す。凹部及び錆領域ともに、第1の分離画像及び第2の分離画像から把握することができる。そして、第1の分離画像と第2の分離画像との差分画像を図26右側に示す。差分画像をみると、鋼板表面の凹部については明確に把握できるが、錆領域については差分画像には現れなかった。これより、本発明の形状検査装置により、平坦な表面において傾斜及び高さを有する表面形状を精度よく検出できることわかる。
 一方、特許文献2のように、第1のライン画像と第2のライン画像との位置ずれをラインセンサカメラの分解能の0.2倍以内に収めるためには発光時間dを20μsec以下としなければならず、シーケンサのサイクルタイムに対応できなかった。
 以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。
 例えば、上記実施形態では、ラインセンサカメラのライン画像取得タイミングでは、第1の照明光源または第2の照明光源のうちいずれか一方のみしか点灯させないようにし、第1の照明光源が点灯されているときに取得されたライン画像と第2の照明光源が点灯されているときに取得されたライン画像とが重複しないようにしたが、本発明はかかる例に限定されない。例えば、第1の分離画像と第2の分離画像とに不可避的に生じた僅かな重なりがあってもよい。
 10   形状検査装置
 100  測定装置
 101  ラインセンサカメラ
 103  第1の照明光源
 105  第2の照明光源
 107  付加照明光源
 200  演算処理装置
 201  データ取得部
 203  測定制御部
 205  データ処理部
 207  表示制御部
 209  記憶部
 211  分離画像生成部
 213  差分画像生成部
 215  傾き算出部
 217  高さ算出部
 S    帯状体
 

Claims (14)

  1.  帯状体の表面形状を検出する形状検査装置であって、
     前記帯状体の表面を撮像してライン画像を取得するラインセンサカメラと、
     前記ラインセンサカメラの光軸の正反射方向に対して対称となるように配置され、前記ラインセンサカメラの撮像位置に対して帯状の照明光を逐次交互に照射する、第1の照明光源及び第2の照明光源と、
     前記第1の照明光源及び前記第2の照明光源それぞれの点灯タイミング及び発光時間と、前記ラインセンサカメラのライン画像取得タイミングとを制御する測定制御部と、
     前記ラインセンサカメラにより取得された複数のライン画像を処理し、前記帯状体の表面の傾きを算出するデータ処理部と、
    を備え、
     前記第1の照明光源から第1の照明光が照射されているときに前記ラインセンサカメラにより取得されたライン画像を第1のライン画像とし、前記第2の照明光源から第2の照明光が照射されているときに前記ラインセンサカメラにより取得されたライン画像を第2のライン画像として、
     前記測定制御部は、前記第1のライン画像と前記第2のライン画像とで撮像範囲の重複が生じないように、前記帯状体と前記ラインセンサカメラとの相対速度であるライン速度に基づいて、前記点灯タイミング及び前記発光時間と前記ライン画像取得タイミングとを制御し、
     前記データ処理部は、前記第1のライン画像と前記第2のライン画像とに基づき得られる差分ライン画像に基づいて、前記帯状体の表面の傾きを算出する、形状検査装置。
  2.  前記測定制御部は、撮像間隔として、前記ラインセンサカメラによる先の撮像が終わり次の撮像が始まるまでに撮像が行われない時間を設ける、請求項1に記載の形状検査装置。
  3.  前記帯状体上での前記ラインセンサカメラの一画素当たりの前記帯状体の搬送方向の長さをDとしたとき、
     前記測定制御部は、前記撮像間隔bが下記式を満たすように前記ライン画像取得タイミングを制御する、請求項2に記載の形状検査装置。
     b≧D/V
  4.  前記データ処理部は、n番目の前記ライン画像取得タイミングで取得されたライン画像と、n-1番目またはn+1番目のうち少なくともいずれか一方の前記ライン画像取得タイミングで取得されたライン画像との差分を、前記差分ライン画像として取得し、前記帯状体の表面の傾きを算出する、請求項1~3のいずれか1項に記載の形状検査装置。
  5.  前記データ処理部は、n番目の前記ライン画像取得タイミングで取得されたライン画像と、n-1番目以前のライン画像及びn+1番目以降のライン画像から補完されたライン画像との差分を、前記差分ライン画像として取得し、前記帯状体の表面の傾きを算出する、請求項1~3のいずれか1項に記載の形状検査装置。
  6.  前記データ処理部は、前記帯状体の表面の傾きを長手方向に積分して前記帯状体の表面の高さを算出する、請求項1~5のいずれか1項に記載の形状検査装置。
  7.  前記帯状体に対して帯状の照明光を照射する少なくとも1つの付加照明光源をさらに備え、
     前記測定制御部は、
     前記ラインセンサカメラの前記ライン画像取得タイミングで、前記第1の照明光源、前記第2の照明光源、及び、前記付加照明光源を1つずつ逐次点灯させ、
     前記データ処理部は、
     前記第1のライン画像と前記第2のライン画像とに基づき得られる前記差分ライン画像に基づいて、前記帯状体の表面の傾きを算出し、
     前記付加照明光源から付加照明光が照射されているときに前記ラインセンサカメラにより取得されたライン画像に基づいて、前記帯状体の表面状態を特定する、請求項1~6のいずれか1項に記載の形状検査装置。
  8.  帯状体の表面形状を検出する形状検査方法であって、
     前記帯状体が搬送されるライン上には、
     前記帯状体の表面を撮像しライン画像を取得するラインセンサカメラと、
     前記ラインセンサカメラの光軸の正反射方向に対して対称となるように配置され、前記ラインセンサカメラの撮像位置に対して帯状の照明光を逐次交互に照射する、第1の照明光源及び第2の照明光源と、
    が配置されており、
     前記第1の照明光源から第1の照明光が照射されているときに前記ラインセンサカメラにより取得されるライン画像を第1のライン画像とし、前記第2の照明光源から第2の照明光が照射されているときに前記ラインセンサカメラにより取得されるライン画像を第2のライン画像として、
     前記第1のライン画像と前記第2のライン画像とで撮像範囲の重複が生じないように、前記帯状体と前記ラインセンサカメラとの相対速度であるライン速度に基づいて、前記第1の照明光源及び前記第2の照明光源の点灯タイミング及び発光時間と、前記ラインセンサカメラのライン画像取得タイミングとを制御し、
     前記第1のライン画像と前記第2のライン画像とに基づき得られる差分ライン画像に基づいて、前記帯状体の表面の傾きを算出する、形状検査方法。
  9.  撮像間隔として、前記ラインセンサカメラによる先の撮像が終わり次の撮像が始まるまでに撮像が行われない時間が設けられる、請求項8に記載の形状検査方法。
  10.  前記帯状体上での前記ラインセンサカメラの一画素当たりの前記帯状体の搬送方向の長さをDとしたとき、
     前記撮像間隔bが下記式を満たすように前記ライン画像取得タイミングを制御する、請求項9に記載の形状検査方法。
     b≧D/V
  11.  前記差分ライン画像は、n番目の前記ライン画像取得タイミングで取得されたライン画像と、n-1番目またはn+1番目のうち少なくともいずれか一方の前記ライン画像取得タイミングで取得されたライン画像との差分である、請求項8~10のいずれか1項に記載の形状検査方法。
  12.  前記差分ライン画像は、n番目の前記ライン画像取得タイミングで取得されたライン画像と、n-1番目以前のライン画像及びn+1番目以降のライン画像から補完されたライン画像との差分である、請求項8~10のいずれか1項に記載の形状検査方法。
  13.  前記帯状体の表面の傾きを長手方向に積分して前記帯状体の表面の高さをさらに算出する、請求項8~12のいずれか1項に記載の形状検査方法。
  14.  前記帯状体に対して帯状の照明光を照射する少なくとも1つの付加照明光源をさらに備え、
     前記ラインセンサカメラの前記ライン画像取得タイミングで、前記第1の照明光源、前記第2の照明光源、及び、前記付加照明光源を1つずつ逐次点灯させ、
     前記第1のライン画像と前記第2のライン画像とに基づき得られる前記差分ライン画像に基づいて、前記帯状体の表面の傾きを算出し、
     前記付加照明光源から付加照明光が照射されているときに前記ラインセンサカメラにより取得されたライン画像に基づいて、前記帯状体の表面状態を特定する、請求項8~13のいずれか1項に記載の形状検査方法。
     
PCT/JP2018/043550 2017-11-27 2018-11-27 形状検査装置及び形状検査方法 WO2019103153A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US16/649,600 US10890441B2 (en) 2017-11-27 2018-11-27 Shape inspection apparatus and shape inspection method
JP2019555404A JP6648869B2 (ja) 2017-11-27 2018-11-27 形状検査装置及び形状検査方法
EP18880126.0A EP3719442B1 (en) 2017-11-27 2018-11-27 Shape inspecting device and shape inspecting method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017-226968 2017-11-27
JP2017226968 2017-11-27

Publications (1)

Publication Number Publication Date
WO2019103153A1 true WO2019103153A1 (ja) 2019-05-31

Family

ID=66630633

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/043550 WO2019103153A1 (ja) 2017-11-27 2018-11-27 形状検査装置及び形状検査方法

Country Status (4)

Country Link
US (1) US10890441B2 (ja)
EP (1) EP3719442B1 (ja)
JP (1) JP6648869B2 (ja)
WO (1) WO2019103153A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021067549A (ja) * 2019-10-23 2021-04-30 株式会社野毛電気工業 欠陥検査装置および欠陥検査方法
CN114364973A (zh) * 2019-09-13 2022-04-15 柯尼卡美能达株式会社 表面缺陷判别装置、外观检查装置以及程序
CN114414581A (zh) * 2022-01-26 2022-04-29 博众精工科技股份有限公司 一种耳机盒检测设备

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3719442B1 (en) 2017-11-27 2023-08-30 Nippon Steel Corporation Shape inspecting device and shape inspecting method
US11195045B2 (en) * 2019-05-15 2021-12-07 Getac Technology Corporation Method for regulating position of object
JP2021156767A (ja) * 2020-03-27 2021-10-07 富士フイルムビジネスイノベーション株式会社 測定装置、情報処理装置、および、プログラム

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6040930B2 (ja) 1979-05-01 1985-09-13 新日本製鐵株式会社 鋼片の無疵積層方法
JP2000241362A (ja) 1999-02-18 2000-09-08 Spectra Physics Visiontech Oy 表面品質検査装置及びその方法
US6191856B1 (en) 1999-05-05 2001-02-20 Volution Optical inspection device
US6598994B1 (en) 1998-08-24 2003-07-29 Intelligent Reasoning Systems, Inc. Multi-angle inspection of manufactured products
WO2014188457A1 (en) 2013-05-23 2014-11-27 Centro Sviluppo Materiali S.P.A. Method for the surface inspection of long products and apparatus suitable for carrying out such a method
JP2015129715A (ja) * 2014-01-08 2015-07-16 リコーエレメックス株式会社 検査装置及び検査装置の制御方法
WO2016194698A1 (ja) * 2015-05-29 2016-12-08 新日鐵住金株式会社 金属体の形状検査装置及び金属体の形状検査方法
JP2017009523A (ja) 2015-06-25 2017-01-12 Jfeスチール株式会社 表面欠陥検出方法、表面欠陥検出装置、及び鋼材の製造方法
EP3719442A1 (en) 2017-11-27 2020-10-07 Nippon Steel Corporation Shape inspecting device and shape inspecting method

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3187185A (en) * 1960-12-22 1965-06-01 United States Steel Corp Apparatus for determining surface contour
JPS58115314A (ja) * 1981-12-28 1983-07-09 Matsushita Electric Works Ltd 平坦度測定装置
DE102005031490A1 (de) * 2005-07-04 2007-02-01 Massen Machine Vision Systems Gmbh Kostengünstige multi-sensorielle Oberflächeninspektion
US7777897B1 (en) * 2007-08-03 2010-08-17 Ventek, Inc. Veneer roughness detection
JP6040930B2 (ja) 2013-12-27 2016-12-07 Jfeスチール株式会社 表面欠陥検出方法及び表面欠陥検出装置
EP3112849A4 (en) * 2014-03-07 2017-11-01 Nippon Steel & Sumitomo Metal Corporation Surface texture indexing device, surface texture indexing method, and program
CN107735646B (zh) * 2015-04-22 2019-12-17 日本制铁株式会社 形状测定装置以及形状测定方法
US9903710B2 (en) * 2015-06-05 2018-02-27 Nippon Steel & Sumitomo Metal Corporation Shape inspection apparatus for metallic body and shape inspection method for metallic body
US10290113B2 (en) * 2016-04-08 2019-05-14 Nippon Steel & Sumitomo Metal Corporation Surface state monitoring apparatus for metallic body and surface state monitoring method for metallic body
WO2017207115A1 (en) * 2016-05-30 2017-12-07 Bobst Mex Sa Surface inspection system and inspection method
US20180367722A1 (en) * 2017-06-14 2018-12-20 Canon Kabushiki Kaisha Image acquisition device and image acquisition method
EP3722745B1 (en) * 2017-12-08 2023-09-06 Nippon Steel Corporation Shape inspection device and shape inspection method

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6040930B2 (ja) 1979-05-01 1985-09-13 新日本製鐵株式会社 鋼片の無疵積層方法
US6598994B1 (en) 1998-08-24 2003-07-29 Intelligent Reasoning Systems, Inc. Multi-angle inspection of manufactured products
JP2000241362A (ja) 1999-02-18 2000-09-08 Spectra Physics Visiontech Oy 表面品質検査装置及びその方法
US6191856B1 (en) 1999-05-05 2001-02-20 Volution Optical inspection device
WO2014188457A1 (en) 2013-05-23 2014-11-27 Centro Sviluppo Materiali S.P.A. Method for the surface inspection of long products and apparatus suitable for carrying out such a method
JP2015129715A (ja) * 2014-01-08 2015-07-16 リコーエレメックス株式会社 検査装置及び検査装置の制御方法
WO2016194698A1 (ja) * 2015-05-29 2016-12-08 新日鐵住金株式会社 金属体の形状検査装置及び金属体の形状検査方法
JP2017009523A (ja) 2015-06-25 2017-01-12 Jfeスチール株式会社 表面欠陥検出方法、表面欠陥検出装置、及び鋼材の製造方法
EP3719442A1 (en) 2017-11-27 2020-10-07 Nippon Steel Corporation Shape inspecting device and shape inspecting method

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
R. FERRARI, M. APPIO: "Enhanced Surface Inspection of Long Products With Pseudo-3D Techniques", AISTECH 2014 CONFERENCE PROCEEDINGS, 5 May 2014 (2014-05-05) - 8 May 2014 (2014-05-08), pages 2581 - 2589, XP002768647
R. ZHANG ET AL.: "Shape-from-shading: a survey", IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE, vol. 21, no. 8, 1 August 1999 (1999-08-01), pages 690 - 706, XP002452732

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114364973A (zh) * 2019-09-13 2022-04-15 柯尼卡美能达株式会社 表面缺陷判别装置、外观检查装置以及程序
CN114364973B (zh) * 2019-09-13 2024-01-16 柯尼卡美能达株式会社 表面缺陷判别装置、外观检查装置以及程序
JP2021067549A (ja) * 2019-10-23 2021-04-30 株式会社野毛電気工業 欠陥検査装置および欠陥検査方法
JP7111370B2 (ja) 2019-10-23 2022-08-02 株式会社野毛電気工業 欠陥検査方法
CN114414581A (zh) * 2022-01-26 2022-04-29 博众精工科技股份有限公司 一种耳机盒检测设备
CN114414581B (zh) * 2022-01-26 2024-02-27 苏州博众智能机器人有限公司 一种耳机盒检测设备

Also Published As

Publication number Publication date
US20200386541A1 (en) 2020-12-10
JP6648869B2 (ja) 2020-02-14
EP3719442A4 (en) 2021-08-25
EP3719442A1 (en) 2020-10-07
EP3719442B1 (en) 2023-08-30
JPWO2019103153A1 (ja) 2020-04-02
EP3719442C0 (en) 2023-08-30
US10890441B2 (en) 2021-01-12

Similar Documents

Publication Publication Date Title
WO2019103153A1 (ja) 形状検査装置及び形状検査方法
WO2019112055A1 (ja) 形状検査装置及び形状検査方法
KR101894683B1 (ko) 금속체의 형상 검사 장치 및 금속체의 형상 검사 방법
US7372556B2 (en) Apparatus and methods for inspecting a composite structure for inconsistencies
US9903710B2 (en) Shape inspection apparatus for metallic body and shape inspection method for metallic body
US20150355102A1 (en) Image Inspection Apparatus, Image Inspection Method, Image Inspection Program, Computer-Readable Recording Medium And Recording Device
JP2007206797A (ja) 画像処理方法および画像処理装置
KR101794964B1 (ko) 검사 시스템 및 검사 방법
JP2004012301A (ja) パターン欠陥検出方法およびその装置
JP2008286646A (ja) 表面疵検査装置
JP2005221400A (ja) 膜厚測定装置
WO2021049326A1 (ja) 表面欠陥判別装置、外観検査装置及びプログラム
JP2013181754A (ja) トロリ線照明反射光分布マップ作成方法及びその方法によるトロリ線摩耗測定装置
JP3059108U (ja) カラーカメラを使った板の進行方向に平行なたてすじ状の欠陥を主に検出する検査装置。
JP3221954B2 (ja) 塗装表面欠陥検出方法およびその装置
JP5987194B2 (ja) 線条測定装置
JP2005061947A (ja) 部材角部の欠陥検査装置およびその方法
JPH08219740A (ja) 半導体装置の検査方法及び装置
JPH07260457A (ja) 表面検査装置
JP2004354281A (ja) 表面形状測定装置
JP2010091714A (ja) 検査装置、及び検査方法、当該検査方法を使用したディスプレイパネルの製造方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18880126

Country of ref document: EP

Kind code of ref document: A1

DPE1 Request for preliminary examination filed after expiration of 19th month from priority date (pct application filed from 20040101)
ENP Entry into the national phase

Ref document number: 2019555404

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2018880126

Country of ref document: EP

Effective date: 20200629