WO2020026290A1 - 管状体内表面検査装置及び管状体内表面検査方法 - Google Patents

管状体内表面検査装置及び管状体内表面検査方法 Download PDF

Info

Publication number
WO2020026290A1
WO2020026290A1 PCT/JP2018/028396 JP2018028396W WO2020026290A1 WO 2020026290 A1 WO2020026290 A1 WO 2020026290A1 JP 2018028396 W JP2018028396 W JP 2018028396W WO 2020026290 A1 WO2020026290 A1 WO 2020026290A1
Authority
WO
WIPO (PCT)
Prior art keywords
tubular body
laser light
image
imaging
imaging units
Prior art date
Application number
PCT/JP2018/028396
Other languages
English (en)
French (fr)
Inventor
赤木 俊夫
山地 宏尚
武男 中田
正樹 山野
Original Assignee
日本製鉄株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本製鉄株式会社 filed Critical 日本製鉄株式会社
Priority to PCT/JP2018/028396 priority Critical patent/WO2020026290A1/ja
Priority to US16/976,410 priority patent/US11428647B2/en
Priority to JP2018555703A priority patent/JP6481217B1/ja
Priority to EP18928249.4A priority patent/EP3770548B1/en
Publication of WO2020026290A1 publication Critical patent/WO2020026290A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/30Measuring arrangements characterised by the use of optical techniques for measuring roughness or irregularity of surfaces
    • G01B11/306Measuring arrangements characterised by the use of optical techniques for measuring roughness or irregularity of surfaces for measuring evenness
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/08Measuring arrangements characterised by the use of optical techniques for measuring diameters
    • G01B11/12Measuring arrangements characterised by the use of optical techniques for measuring diameters internal diameters
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2518Projection by scanning of the object
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/95Investigating the presence of flaws or contamination characterised by the material or shape of the object to be examined
    • G01N21/954Inspecting the inner surface of hollow bodies, e.g. bores
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8806Specially adapted optical and illumination features
    • G01N2021/8841Illumination and detection on two sides of object
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8806Specially adapted optical and illumination features
    • G01N2021/8845Multiple wavelengths of illumination or detection
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • G01N2021/8887Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges based on image processing techniques
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8806Specially adapted optical and illumination features

Definitions

  • the present invention relates to a tubular body surface inspection device and a tubular body surface inspection method.
  • Inspection of the inner surface of a tubular body for inspecting the inner surface of a tubular body typified by a metal pipe such as a steel pipe or a resin pipe is one of the important inspection items especially for a metal pipe such as a steel pipe. Normally, a visual inspection is performed by separately providing a process different from the process of manufacturing the tubular body.
  • the visual inspection of the tubular body largely depends on the skill of the inspector, and especially in the inner surface inspection for inspecting the inner surface of the tubular body, it is difficult to sufficiently perform the visual inspection. For this reason, particularly in the axially deep portion of the tubular body, there is a possibility that inexorable flaws may flow out and serious claims may occur. In addition, depending on the inspection method, there are irregularities on the surface of the tubular body that are difficult to detect, so it is important to directly monitor the inner surface of the tubular body.
  • an imaging optical system is configured by illumination light including a light source that irradiates light of a light source in a disk shape by a conical mirror or a conical prism, and an imaging system by an imaging sensor. While moving sequentially, the reference position of the imaging optical system and the inspected object are obtained from the optical trace image data obtained by imaging the optical trace representing the inner surface shape obtained by irradiating the inner surface of the inspected object with the imaging sensor. There is disclosed a technique for sequentially calculating a distance from an inner surface to measure an inner surface shape of an inspection object.
  • Patent Document 2 a light-section image is obtained from an annular beam image obtained by irradiating an inner surface of a tubular body with an annular laser beam while moving along the axial direction of the tubular body.
  • Patent Literature 3 discloses a light source unit that irradiates a laser beam spread in a ring shape on a body surface to be inspected, and an imaging unit that captures reflected light of the irradiated laser light on the body surface to be inspected.
  • An optically transparent tube is arranged so as to be coaxial, and in order to suppress the occurrence of ghost from the transparent tube at the time of imaging, an apparatus has been disclosed in which the transparent tube is provided with a property of controlling the state of polarization. I have.
  • the frame rate at which the annular laser light is imaged is determined by the performance of the camera to be used, and it is difficult to sequentially obtain light-cut images at high speed.
  • a two-dimensional area camera is used to capture a light-section image. In this case, imaging is performed including a useless area other than the laser light irradiation area on the tubular body surface necessary for the inspection, and it is difficult to improve the imaging frame rate.
  • a general two-dimensional area camera is not suitable for performing a high-speed inspection.
  • a tubular body also called a medium-diameter tube having an inner diameter of 250 mm or more
  • a medium-diameter tube having an inner diameter of 250 mm or more
  • Needs to be increased in size As a result, the frame rate is reduced as a result, and it takes a long time for imaging.
  • a support member for supporting the light source is used, but for an area camera, the annular laser light is shielded by such a support member, and an unimaged area is not covered. Will occur.
  • Patent Document 1 or Patent Document 3 can eliminate the shadow of the support member for supporting the light source, but requires a voltage supply cable or the like to the light source. It cannot be completely ruled out. Therefore, according to the techniques disclosed in Patent Documents 1 and 3, even though the non-imaging area can be reduced, the non-imaging area cannot be completely eliminated. In addition, if the tubular body to be inspected becomes large and long, the distance between the light source and the imaging unit becomes large. In order to ensure the strength of the system, it is necessary to provide a support member that supports the light source and the imaging unit.
  • Patent Document 2 proposes a technique for complementing the non-imaging area by shifting the areas to be imaged on the outward and return paths of the inspection probe with respect to the non-imaging area as described above.
  • the apparatus may be large, and the simplicity may be reduced.
  • the present invention has been made in view of the above problems, and an object of the present invention is to inspect the inner surface of a tubular body at higher speed, with higher resolution, and more simply, regardless of the size of the tubular body. It is an object of the present invention to provide a tubular body surface inspection device and a tubular body surface inspection method that can perform the above.
  • a laser light source that irradiates laser light
  • the laser light source irradiates the laser light.
  • N (N ⁇ 2) imaging units each having an area camera that generates a laser beam, and a connecting member that connects and fixes the laser light source and the area camera.
  • a tubular body imaging device connected in series so that the positions of the connecting members on a plane orthogonal to the tube axis are different from each other along the tube axis direction, and the tubular body imaging device is connected to a tube of the tubular body.
  • a moving device that moves along the direction, while moving the tubular body imaging device by the moving device, performs image processing on the plurality of annular beam images generated in each of the imaging units, the tubular body of the A tubular body surface inspection apparatus, comprising: an arithmetic processing unit that determines whether a defect exists on the inner surface.
  • the area camera in each of the imaging units is an area in which the annular laser light is not blocked by the connecting member in the entire field of view of the area camera, and the area camera is in the entire field of view of the area camera.
  • the image pickup device provided, in the end regions respectively set at the ends in the direction orthogonal to the pixel information transfer direction, which is the direction in which the pixel information that is the information on the charge or voltage of each pixel of the image pickup device is transferred
  • a plurality of the annular beam images are generated by imaging corresponding portions.
  • the arithmetic processing device uses the annular beam image obtained from each of the imaging units to calculate a center of gravity position and a radius of an irradiation part of the annular laser light, and the calculated center of gravity position, and The coordinate system of the annular beam image obtained from each of the imaging units is subjected to polar coordinate conversion based on the distance between the center of gravity position and the irradiated portion of the annular laser light, and the annular shape obtained by polar coordinate conversion is used.
  • a light-section image including a light-section line that is a line segment corresponding to the laser light irradiation portion is generated for each of the imaging units, and the obtained light-section image for each of the imaging units is obtained.
  • the arithmetic processing device uses the annular beam image obtained from each of the imaging units to calculate a center of gravity position and a radius of an irradiation part of the annular laser light, and the calculated center of gravity position, and The coordinate system of the annular beam image obtained from each of the imaging units is subjected to polar coordinate conversion based on the distance between the center of gravity position and the irradiated portion of the annular laser light, and the annular shape obtained by polar coordinate conversion is used.
  • a light-section image including a light-section line that is a line segment corresponding to the laser light irradiation part is generated for each of the imaging units, and the obtained light-section images for each of the imaging units are N pieces.
  • the depth image By adjusting based on the positional relationship of the imaging unit of the above, by connecting in a plane perpendicular to the tube axis, to generate a striped image frame sequentially arranged along the tube axis direction, Based on the fringe image frame, a depth image representing the unevenness state of the inner surface of the tubular body, and a brightness image representing the brightness distribution of the annular laser light on the inner surface of the tubular body, the depth image Preferably, a defect existing on the inner surface of the tubular body is detected based on the image and the luminance image.
  • the annular beam images of the respective imaging units have regions that partially overlap each other.
  • the wavelength of the laser light emitted from the laser light source in each of the imaging units is different from each other, and belongs to the same imaging unit as the area camera in a stage preceding the area camera in each of the imaging units.
  • a wavelength selection filter that transmits light having the same wavelength as the laser light of the laser light source may be provided.
  • the area camera, the laser light source, and the optical element are arranged in the order of (area camera, laser light source, optical element) (optical element, laser light source, area camera).
  • the N imaging units may be connected so as to be arranged side by side.
  • the optical element, the laser light source, and the area camera are arranged in the order of (optical element, laser light source, area camera) (area camera, laser light source, optical element).
  • the N imaging units may be connected so as to be arranged side by side.
  • the N number of imaging units are connected such that the area camera, the laser light source, and the optical element repeat the arrangement order of (area camera, laser light source, optical element). May be.
  • a tubular body surface inspection method for detecting a defect existing on an inner surface of a tubular body, wherein the laser light source irradiates a laser beam and the laser light source.
  • An optical element that reflects the laser light emitted from as an annular laser light in the circumferential direction of the inner surface of the tubular body, by imaging an area of the inner surface of the tubular body irradiated with the annular laser light,
  • An area camera that generates an annular beam image, and N (N ⁇ 2) imaging units having a connection member that connects and fixes the laser light source and the area camera are provided, and each of the imaging units includes: Along the tube axis direction of the tubular body, a tubular body imaging device and a tubular body imaging device connected in series such that positions on a surface orthogonal to the tube axis of the connecting member are different from each other, A moving device for moving along the tube axis direction, while moving the tubular body imaging device by the moving device, performs image
  • the coordinate system of the annular beam image obtained from the unit is subjected to polar coordinate conversion, and a light segment, which is a line segment corresponding to the irradiated portion of the annular laser beam obtained by polar coordinate conversion, Generating a light-section image including a line for each of the imaging units; and partial stripes in which the obtained light-section images for each of the imaging units are sequentially arranged along the tube axis direction.
  • After generating the image frame adjust the generated partial fringe image frame based on the positional relationship between the N imaging units, and connect them on a plane perpendicular to the tube axis to generate a fringe image frame.
  • the obtained light-section images for each of the imaging units are adjusted based on the positional relationship between the N imaging units, and connected on a plane orthogonal to the tube axis, thereby forming the tube axis.
  • a method for inspecting a tubular body surface is provided.
  • the area camera in each of the imaging units is an area in which the annular laser light is not blocked by the connecting member in the entire field of view of the area camera, and the area camera is in the entire field of view of the area camera.
  • the image pickup device provided, in the end regions respectively set at the ends in the direction orthogonal to the pixel information transfer direction, which is the direction in which the pixel information that is the information on the charge or voltage of each pixel of the image pickup device is transferred
  • a plurality of the annular beam images may be generated by imaging corresponding portions.
  • the annular beam images of the respective imaging units have regions that partially overlap each other.
  • the wavelength of the laser light emitted from the laser light source in each of the imaging units is different from each other, and belongs to the same imaging unit as the area camera in a stage preceding the area camera in each of the imaging units.
  • a wavelength selection filter that transmits light having the same wavelength as the laser light of the laser light source may be provided.
  • the area camera, the laser light source, and the optical element are arranged in the order of (area camera, laser light source, optical element) (optical element, laser light source, area camera).
  • the N imaging units may be connected so as to be arranged side by side.
  • the optical element, the laser light source, and the area camera are arranged in the order of (optical element, laser light source, area camera) (area camera, laser light source, optical element).
  • the N imaging units may be connected so as to be arranged side by side.
  • the N number of imaging units are connected such that the area camera, the laser light source, and the optical element repeat the arrangement order of (area camera, laser light source, optical element). May be.
  • FIG. 1 is a block diagram schematically showing an overall configuration of a tubular body surface inspection device according to an embodiment of the present invention. It is explanatory drawing which showed typically an example of the structure of the tubular body imaging device concerning the embodiment.
  • FIG. 4 is an explanatory diagram for describing the tubular body imaging device according to the embodiment;
  • FIG. 4 is an explanatory diagram for describing the tubular body imaging device according to the embodiment;
  • FIG. 4 is an explanatory diagram for describing the tubular body imaging device according to the embodiment;
  • FIG. 4 is an explanatory diagram for describing the tubular body imaging device according to the embodiment;
  • FIG. 4 is an explanatory diagram for describing the tubular body imaging device according to the embodiment;
  • FIG. 4 is an explanatory diagram for describing the tubular body imaging device according to the embodiment;
  • FIG. 4 is an explanatory diagram for describing the tubular body imaging device according to the embodiment;
  • FIG. 4 is an explanatory diagram for describing the tubular body imaging device according to
  • FIG. 4 is an explanatory diagram for describing the tubular body imaging device according to the embodiment;
  • FIG. 4 is an explanatory diagram for describing the tubular body imaging device according to the embodiment;
  • FIG. 3 is a block diagram illustrating an example of a configuration of an image processing unit included in the arithmetic processing device according to the same embodiment.
  • FIG. 9 is an explanatory diagram for describing a calculation process of a center of gravity position and a radius according to the embodiment;
  • FIG. 11 is an explanatory diagram for describing the coordinate conversion processing according to the embodiment;
  • FIG. 14 is an explanatory diagram showing an example of a generation process of a partial stripe image frame according to the embodiment.
  • FIG. 14 is an explanatory diagram showing an example of a stripe image frame generation process according to the embodiment.
  • FIG. 14 is an explanatory diagram for describing the light-section-line processing according to the embodiment;
  • FIG. 14 is an explanatory diagram for describing the light-section-line processing according to the embodiment; It is explanatory drawing which showed the two-dimensional arrangement
  • FIG. 4 is an explanatory diagram showing a relationship between displacement of a light cutting line and height of a defect.
  • FIG. 9 is an explanatory diagram for describing an approximate correction process of a light section line according to the embodiment
  • FIG. 3 is an explanatory diagram schematically showing an example of a logic table used in the defect detection processing according to the embodiment. It is explanatory drawing which showed typically the other structural example of the tubular body imaging device which concerns on the embodiment. It is explanatory drawing which showed typically the other structural example of the tubular body imaging device which concerns on the embodiment. It is a flowchart showing an example of the flow of the tubular body surface inspection method according to the embodiment. It is explanatory drawing which showed typically an example of the structure of the tubular body imaging device which concerns on 2nd Embodiment of this invention.
  • FIG. 1 is an explanatory diagram showing an example of the configuration of the tubular body surface inspection device 10 according to the present embodiment.
  • FIG. 2 is an explanatory diagram schematically showing an example of the configuration of the tubular body imaging device according to the present embodiment.
  • the tubular body surface inspection apparatus 10 is an apparatus that inspects the inner surface of the tubular body 1 by imaging the inner surface of the tubular body 1 and performing image processing on an image obtained as a result of the imaging. More specifically, the tubular body surface inspection apparatus 10 according to the present embodiment is an apparatus for inspecting whether or not surface defects (irregularities and pattern-based flaws) are present on the inner surface of the tubular body 1.
  • tubular body 1 is not particularly limited as long as the tubular body 1 has a hollow portion.
  • Examples of such a tubular body 1 include not only metal pipes and pipes represented by various steel pipes such as spiral steel pipes, electric resistance welded steel pipes, UO steel pipes, seamless steel pipes (seamless steel pipes), forged steel pipes, TIG welded steel pipes, but also hot pipes.
  • Examples include a tubular material such as a cylinder called a container used in the extrusion method.
  • a tubular body surface inspection device 10 performs image processing on a tubular body imaging device 100 that captures an inner surface of a tubular body 1 and an image obtained as a result of the capture. And an arithmetic processing device 200.
  • the tubular body imaging device 100 is installed in the hollow portion of the tubular body 1.
  • the tubular body imaging device 100 sequentially captures the inner surface of the tubular body 1 along the tube axis direction while changing the position of the tubular body 1 along the tube axis direction as needed, and a captured image obtained as a result of the imaging. Is output to the arithmetic processing unit 200.
  • a PLG signal is output from the PLG (Pulse Logic Generator) to the arithmetic processing device 200.
  • the imaging timing and the like of the tubular body 1 are controlled by the arithmetic processing device 200.
  • the tubular body imaging device 100 will be described in detail below.
  • the arithmetic processing device 200 generates a stripe image frame by using the captured image generated by the tubular body imaging device 100, and performs image processing on the stripe image frame, whereby the inner surface of the tubular body 1 is processed. This is a device that detects a defect that may exist in the device.
  • the arithmetic processing device 200 will also be described in detail below.
  • the tubular body surface inspection apparatus 10 may include, for example, a drive control device that controls the movement of the tubular body imaging device 100 in the tube axis direction, in addition to the apparatus illustrated in FIG. good.
  • the drive control device controls the movement of the support bar 134 (see FIG. 2) that supports the tubular body imaging device 100 under the control of the arithmetic processing device 200, so that the tubular body imaging device is controlled. Control of movement in the direction of the tube axis of 100 is performed.
  • FIG. 2 is an explanatory diagram schematically showing an example of the configuration of the tubular body imaging device according to the present embodiment.
  • 3A to 5B are explanatory diagrams for describing the tubular body imaging device according to the present embodiment.
  • the tubular body imaging device 100 includes an illumination mechanism 110, an area camera 120, a holding substrate 131 to which each of the illumination mechanism 110 and the area camera 120 is fixed, and a column connecting the two holding substrates 131.
  • the imaging unit 101 having a certain connection member 133 has a structure in which two imaging units 101 are connected in the tube axis direction of the tubular body 1. As schematically shown in FIG. 2, the two imaging units 101 share a holding substrate 131 on the side to which the respective illumination mechanisms 110 are attached, and the two imaging units 101 move along the tube axis direction.
  • the two connecting members 133 are connected in series such that the positions of the connecting members 133 on the plane orthogonal to the tube axis are different between the imaging units 101 (preferably shifted by 90 °).
  • providing two imaging units 101 leads to an increase in cost. Further, in the conventional inspection apparatus, when the inspection apparatus shifts from the time of sending the inspection apparatus to the time of sending the inspection apparatus, by rotating the inspection apparatus, it is possible to capture an image of the above-described non-imaging area. Therefore, the idea of providing two imaging units 101 like the tubular body imaging device 100 according to the present embodiment could not be recalled conventionally.
  • the two imaging units 101 constituting the tubular body imaging device 100 are referred to as an imaging unit 101A (first imaging unit) and an imaging unit 101B (second imaging unit), respectively, for convenience.
  • the illumination mechanism 110 and the area camera 120 in the imaging unit 101A may be distinguished from the illumination mechanism 110A and the area camera 120A for convenience.
  • the illumination mechanism 110 and the area camera 120 in the imaging unit 101B may be distinguished from the illumination mechanism 110B and the area camera 120B for convenience.
  • members constituting each imaging unit 101 will be described in detail.
  • the illumination mechanism 110 illuminates the inner surface of the tubular body 1 by irradiating the inner surface of the tubular body 1 with predetermined light.
  • the illumination mechanism 110 has at least a laser light irradiation device that irradiates an annular laser beam in the entire circumferential direction of the inner surface of the tubular body 1.
  • Such a laser beam irradiating device is a device that irradiates an annular laser beam (hereinafter, also referred to as “annular beam”) along the circumferential direction of the inner surface of the tubular body 1, as shown in FIG. It has a laser light source 111 and a conical optical element 113.
  • the laser light source 111 is a light source that oscillates a laser beam having a predetermined wavelength.
  • a laser light source 111 for example, a CW laser light source that performs continuous laser oscillation can be used.
  • the wavelength of light oscillated by the laser light source 111 is not particularly limited, but is preferably, for example, a wavelength belonging to a visible light band of about 400 nm to 800 nm.
  • the laser light source 111 oscillates a laser beam based on an irradiation timing control signal sent from the arithmetic processing unit 200 described later, and irradiates the laser beam along the tube axis direction of the tubular body 1.
  • the conical optical element 113 is an optical element having a conical mirror or prism, and is installed such that the vertex of the conical portion faces the laser light source 111.
  • the spot-shaped laser light emitted from the laser light source 111 is reflected by the apex of the conical portion of the optical element 113, and a ring-shaped line beam is generated on the inner surface of the tubular body 1.
  • the cone angle of the conical portion is 90 °, as shown in FIG. 2, the annular beam is irradiated in a direction perpendicular to the laser incident direction from the laser light source 111.
  • the area camera 120 is provided behind the illumination mechanism 110 with reference to the light irradiation direction along the tube axis direction of the illumination mechanism 110.
  • the area camera 120 has an image sensor such as a charge coupled device (CCD) or a complementary metal oxide semiconductor (CMOS).
  • CMOS complementary metal oxide semiconductor
  • the area camera 120 may be a monochrome camera or a color camera.
  • the area cameras 120A and 120B capture images of the annular beam vertically irradiated on the inner surface of the tubular body 1 from the directions of the angles ⁇ 1 and ⁇ 2 , respectively. From the captured image of the beam, an annular beam image that is an image corresponding to an imaging target region described later (so-called region of interest (ROI)) is generated.
  • ROI region of interest
  • the area camera 120 is a camera that can set only a predetermined area of the entire field of view that can be imaged as an imaging target area (ROI).
  • ROI imaging target area
  • the image pickup device provided in the area camera 120 generally, in a predetermined direction of the image pickup device (for example, in a horizontal direction in an array of pixel groups constituting the image pickup device, or in a direction orthogonal to the horizontal direction).
  • pixel information information relating to the charge stored in each pixel of the image sensor, or information relating to the voltage of each pixel of the image sensor, is hereinafter referred to as “pixel information”, and the direction in which the pixel information is transferred will be described below. Then, it may be referred to as “pixel information transfer direction”.
  • the pixel information transfer direction in the image sensor is a matter determined in advance when the image sensor is manufactured or the like, and can be grasped in advance by checking the specifications and the like of the image sensor.
  • the area camera 120 for example, when an image sensor whose pixel information transfer direction is a horizontal direction is provided, the area camera 120, for example, of the entire viewable field of view, is perpendicular to the pixel information transfer direction.
  • the imaging target region (ROI) is set in a part of the vertical direction, which is the direction in which the image is to be captured.
  • the area camera 120 transfers the pixel information on the charge or voltage of each pixel of the image sensor in the horizontal direction in a part of the vertical direction of the captured image set as the image capturing target region (ROI), so that the image capturing target is obtained. Only an image in a partial range in the vertical direction set as a region (ROI) can be extracted from the entire viewable field.
  • the imaging target region (ROI) By extracting only an image in a partial range in the vertical direction set as the imaging target region (ROI) from the entire field of view that can be imaged, it is possible to compare with a case where the imaging target region (ROI) is not set. Therefore, the transfer time of the pixel information can be reduced. As a result, in the tubular body imaging device 100 according to the present embodiment, the inner surface of the tubular body 1 can be imaged at a higher imaging frame rate, and thus the inner surface of the tubular body 1 can be imaged at higher speed. It becomes possible.
  • the focal length and angle of view of the lens mounted on the area camera 120, and the distance between the illumination mechanism 110 and the image sensor of the area camera 120 are not particularly limited, but are applied to the inner surface of the tubular body 1. It is preferable to select such that the entire image of the annular beam can be captured.
  • the size and pixel size of the image sensor mounted on the area camera 120 are not particularly limited, but it is preferable to use a large image sensor in consideration of the image quality and image resolution of a generated image. . Further, from the viewpoint of image processing described below, it is preferable that the line width (line width) of the annular beam is adjusted to be about 1 to 3 pixels on the image sensor.
  • Various imaging conditions such as the focal length and angle of view of the lens and the distance between the illumination mechanism 110 and the imaging device of the area camera 120 are the same between the area camera 120A and the area camera 120B. This is very important.
  • the illumination mechanism 110 and the area camera 120 are arranged such that the central axis of the laser light emitted from the illumination mechanism 110 and the central axis (optical axis) of the area camera 120 are coaxial. It is fixed to the holding substrate 131.
  • the tubular body imaging apparatus 100 includes the two imaging units 101 as described above, and the imaging units 101A and 101B are arranged such that the positions on the plane orthogonal to the tube axis of the connecting member 133 are the imaging units. Are connected in series so as to differ from each other. Therefore, the regions that the connection members 133A and 133B block in the field of view of the area camera 120A and the area camera 120B, respectively, differ on a plane orthogonal to the tube axis. Therefore, when both the area camera 120A and the area camera 120B scan and image the inner surface of the tubular body 1, it is possible to image the entire inner surface without losing the field of view.
  • the processing described below is efficient without waste. It is suitable.
  • relation I have.
  • can be set to arbitrary values, but are preferably set to, for example, about 30 to 60 degrees. If the angle is too large, the scattered light (reflected light) of the annular beam from the inner surface of the tubular body 1 is weakened. This is because the amount of movement of the stripes in the image becomes small, and the information on the depth of the concave portion (or the height of the convex portion) existing on the inner surface of the tubular body 1 deteriorates.
  • the irradiation position on the inner surface of each annular beam has a predetermined size as schematically shown in FIG.
  • they are separated by D.
  • the magnitude of the offset D may be set to a value larger than the variation in consideration of the variation of the irradiation position of the annular beam due to unevenness that may be present on the inner surface of the tubular body 1. preferable.
  • the magnitude of the offset D is set to a value smaller than the fluctuation amount, the fluctuation due to irregularities that may exist at the irradiation position of the annular beam of the imaging unit 101A and the irradiation position of the annular beam of the imaging unit 101B This is because it is not possible to distinguish between fluctuation due to possible unevenness.
  • the offset D is too large, the size of the tubular body imaging device 100 may be too large, and handling of the device may be difficult. Further, in order to inspect the entire inner surface of the tubular body in the tube axis direction, it is necessary to move the tubular body imaging device 100 along the tube axis direction at least longer than the entire length of the tubular body by an offset D or more. . However, when there is a case where the tubular body imaging device 100 cannot be moved long enough due to facility restrictions or the like, an area that cannot be inspected is generated at the end of the tubular body. Therefore, it is preferable that the magnitude of the offset D be set so that a region that cannot be inspected is generated at the end of the tubular body due to facility restrictions or the like.
  • the offset D is too small, as described above, two annular beams seen from one area camera 120 overlap at a portion where irregularities are generated, and it is difficult to perform accurate imaging.
  • the maximum depth and the maximum height of the unevenness to be detected are defined as h max .
  • the angle of view when the irradiation position of the annular beam of the imaging unit 101B is viewed by the area camera 120A of the imaging unit 101A is represented by ⁇ 1 ′.
  • the offset D when the offset D is small, it can be regarded as the angle
  • the relationship of sin ⁇ is established. Therefore, in order that the two annular beams do not overlap, it is preferable that the relationship of D> 2 ⁇ h max ⁇ sin ⁇ 1 is satisfied.
  • each imaging unit 101 a wavelength selection filter that transmits light having the same wavelength as the laser light in the corresponding imaging unit 101 is provided in front of the imaging device of the area camera 120 in each imaging unit 101, so that each imaging unit 101 The unit 101 can selectively form an image of the annular beam from the illumination mechanism 110 belonging to the imaging unit 101.
  • the tubular body imaging device 100 including the two imaging units 101A and 101B as described above is supported by a support bar 134 as schematically shown in FIG.
  • the support bar 134 is caused to function as a moving device that moves in the tube axis direction, and the illumination mechanisms 110A and 110B and the area cameras 120A and 120B are moved in the tube axis direction so as to substantially coincide with the central axis of the tubular body 1. While scanning, the inner surface of the tubular body 1 can be scanned and imaged.
  • the arithmetic processing device 200 described later outputs a trigger signal for imaging to the area cameras 120A and 120B every time the tubular body imaging device 100 moves a predetermined distance in the tube axis direction.
  • the movement interval of the illumination mechanism 110 and the area camera 120 in the tube axis direction can be set as appropriate, but is preferably, for example, the same as the pixel size of the image sensor provided in the area camera 120.
  • the material of the holding substrate 131 is appropriately selected according to the strength and the like required of the tubular body imaging device 100.
  • the material of the connecting member 133 is not limited as long as the tubular body imaging device 100 is not bent, but a material that can be regarded as transparent with respect to the wavelength of the annular beam, such as glass, is used. Is also possible. 2 illustrates the case where two connecting members 133 are present in FIG. 2, the number of connecting members 133 is appropriately set according to the strength required for the tubular body imaging device 100. The number may be one, or three or more.
  • an imaging target region is set in each of the area cameras 120A and 120B as described above.
  • the installation position of each connection member 133 is determined by the imaging field of view. It is preferable to dispose at the edge of the holding substrate 131 along the tube circumferential direction of the holding substrate 131 so that the region to be imaged (ROI) does not belong to the region.
  • FIGS. 3A and 3B schematically show the state of the field of view of each area camera 120 at the time of feeding.
  • FIGS. 3A and 3B are based on the vertical and horizontal of the area camera 120 (not the horizontal and vertical of the imaging unit) (more specifically, the vertical and horizontal of the image sensor provided in the area camera 120). , Vertical and horizontal.
  • the illumination mechanism 110, the holding substrate 131, and the connecting member 133 are present in addition to the annular laser light emitted from each of the illumination mechanisms 110A and 110B. Further, a part of the annular beam on the inner surface is shielded by the connecting member 133, and an area where the annular laser light cannot be observed is generated.
  • FIGS. 1 In the tubular body imaging device 100 according to the present embodiment, FIGS.
  • FIGS. 4A and 4A are diagrams for the purpose of speeding up the imaging process while maintaining high resolution and coping with the generation of the region where the annular laser light cannot be observed by the connecting member 133.
  • the imaging target area ROI for handling only a predetermined area in the entire field of view that can be imaged is set in the pixel information transfer direction of the imaging element (FIG. 4A and FIG.
  • FIG. 4B two positions are set in each end region in the direction (vertical direction in FIGS. 4A and 4B) perpendicular to the horizontal direction. That is, of the images captured by the area camera 120, only the image corresponding to the imaging target region ROI is handled as a ring beam image and transmitted to the arithmetic processing device 200, so that image processing described later is performed.
  • the imaging target region ROI set in the area camera 120A is referred to as ROI_1A and ROI_2A for convenience
  • the imaging target region ROI set in the area camera 120B is referred to as ROI_1B and ROI_2B for convenience.
  • a portion corresponding to ROI_1A and ROI_IB is referred to as an upper side in the entire field of view that can be imaged for convenience
  • a portion corresponding to ROI_2A and ROI_2B is referred to as a lower side in the entire field of view that can be imaged for convenience. It shall be.
  • FIGS. 4A and 4B are shown based on vertical and horizontal, respectively, with respect to the vertical and horizontal of the area camera 120 (rather than the horizontal and vertical of the tubular body imaging device 100).
  • the pixel of the image sensor of the area camera 120 is orthogonal to the tube axis direction of the tubular body 1 in the entire field of view of the area camera 120.
  • the direction in which information is transferred is the longitudinal direction, and the upper end of the entire field of view of the area camera 120 and the upper end portion of the entire field of view of the area camera 120 so as not to include a portion where the annular laser light is blocked by the connecting member 133 in the entire field of view of the area camera 120.
  • a rectangular imaging target area (ROI) is set at each lower end.
  • a plurality of connection areas are provided in areas other than the imaging target area (ROI) set at the upper end and the lower end of the entire field of view of the area camera 120, respectively.
  • Member 133 may be present. Therefore, if a predetermined strength is required for the imaging unit 101 in order to prevent the tube-shaped imaging device 100 from bending in the tube axis direction, a plurality of connections are made to an area other than the two imaging target areas (ROI).
  • the arrangement of the connection member 133 in the tubular body imaging device 100 may be appropriately determined so that the member 133 is located.
  • the imaging target region (ROI) is set at the upper end and the lower end of the entire field of view of the area camera 120 .
  • the area camera 120 relates to the charge or voltage of each pixel of the image sensor. This is because one area of the image can be extracted without missing in response to the transfer of the pixel information in the horizontal direction. Therefore, when the area camera 120 transfers the pixel information about the charge or voltage of each pixel of the image sensor in the vertical direction, the area to be imaged (ROI) is shifted to the left of the entire field of view of the area camera 120. It is also possible to set at the end and the right end.
  • the imaging target areas (ROIs) are set such that, for the images related to the two imaging target areas (ROIs) respectively set, the areas partially overlap each other.
  • the size in the direction orthogonal to the longitudinal direction of the ROI) is determined.
  • FIG. 2 focusing on the tubular body imaging device 100 having the structure as shown in FIG. 2, a method of setting an imaging target region (ROI) in the present embodiment will be described with reference to FIGS. 4A and 4B. This will be described in detail.
  • ROI imaging target region
  • the imaging unit 101A and the imaging unit 101B are arranged so that the area cameras 120A and 120B face each other along the tube axis direction of the tubular body 1.
  • the imaging unit 101B is installed so as to be rotated 90 degrees counterclockwise on a plane orthogonal to the tube axis direction, as compared with the imaging unit 101A. Therefore, the image captured by the area camera 120A shown in FIG. 4A is shifted by 90 degrees from the image captured by the area camera 120B shown in FIG. .
  • the annular beam closer to the area cameras 120A and 120B is reflected with a larger diameter as shown in FIGS. 4A and 4B.
  • image processing as described in detail below is performed using an annular beam reflected in a larger diameter.
  • R the radius of an annular beam having a larger diameter
  • an annular beam image located in a range of R ⁇ ⁇ R around a position represented by a radius R is used. Therefore, it is preferable that the imaging target region (ROI) set in each of the area cameras 120A and 120B is set so as to include at least the image region used in the subsequent image processing.
  • H pixels in the vertical direction based on the area camera 120
  • W horizontal direction based on the area camera 120
  • Pixel 1920 pixels.
  • the position of the upper left corner in each image sensor is the origin (0, 0) in the coordinate system indicating the pixel position.
  • a rectangular imaging target area is set as described above. That is, the number of pixels in the imaging device horizontal direction in the imaging target region (ROI) is W pixels.
  • the annular member images captured by the two area cameras 120A and 120B are used to generate the An annular beam image of a portion corresponding to a region where the annular laser beam cannot be observed is complemented.
  • the imaging target area ROI_1A in the area camera 120A is a rectangular area having a width W ⁇ height h from the pixel coordinates of (0, 0) with respect to the vertical and horizontal directions of the area camera 120A.
  • the number h of pixels in the vertical direction of the image sensor is defined by the following equations (101) to (103).
  • the portion corresponding to the number of pixels ⁇ A depends on the size of the annular beam image used in the subsequent image processing and between the two imaging units 101A and 101B. This corresponds to an area set to secure an imaging target area (ROI) that partially overlaps with each other.
  • the parameter ⁇ in the above equation (105) is a permissible set value due to vibration or the like, and may be, for example, about 5 pixels.
  • the value of ⁇ R may be appropriately set according to the inner diameter of the tubular body 1 to be inspected, the pixel size of the image sensor mounted on the area camera 120, and the like.
  • the pixel size of the image sensor is 0.4 mm ⁇ 0.4 mm, since the inner diameter of 400 mm corresponds to 1,000 pixels, for example, ⁇ R can be set to about 25 pixels.
  • the lower imaging target area ROI_2A of the area camera 120A is defined as a rectangular area having a width W ⁇ height from (0, Hh) with respect to the vertical and horizontal directions of the area camera 120B. ) To (105).
  • the upper imaging target region ROI_1B and the lower imaging target region ROI_2B of the area camera 120B are set in the same manner as the area camera 120A. This is because the area camera 120B is rotated only 90 degrees counterclockwise with respect to the area camera 120A, so that the set value on the camera can be the same as that of the area camera 120A.
  • the imaging is performed with the imaging frame rate of the camera increased in accordance with the ratio of the area of the imaging target region (ROI) to the entire imaging region of the camera. It becomes possible. As a result, it is possible to obtain a light cutting line by a laser beam at a finer cycle. That is, by setting the area of the imaging target area to 1 /, 3, 4,... With respect to all the imaging areas of the area camera, the amount of pixel information transfer in the As compared with the case where the region (ROI) is not set, the imaging frame rate is reduced to approximately 1/2, 1/3, 1/4,... / 4... Can be taken in at high speed.
  • the tubular body imaging device 100 When the read cycle of the captured image of the area camera is increased, an image with improved resolution in a direction orthogonal to the scanning direction (that is, in the vertical direction in this example) can be obtained. Therefore, in the tubular body imaging device 100 according to the present embodiment, it is possible to capture the inner surface of the tubular body at higher speed, with higher resolution, and more easily.
  • the specific value of the imaging frame rate may be appropriately set according to the required imaging rate or the like.
  • the imaging frame rate in the total of the two imaging target areas is the normal imaging frame rate.
  • the frame rate can be set to about 300 fps, which is about twice the value of the frame rate (that is, the frame rate when capturing the entire image capturing area of the area camera).
  • an image sensor mounted on a general area camera has an imaging target region (ROI) in a direction in which pixel information of the image sensor of the area camera 120 is transferred (in FIGS. 4A and 4B, a longitudinal direction of a captured image). Since the frame rate is not improved even if the width of the area camera 120 is reduced, the width W of the imaging target region (ROI) may be the same as the width W of the area camera 120 in the direction in which the pixel information is transferred, as described above.
  • the width w may be calculated by the following equation (107), corresponding to the height h.
  • the upper imaging target area ROI_1A sets a rectangular area having a width w ⁇ height from the coordinates of (W / 2 ⁇ Rsin ⁇ A, 0), and the imaging target area ROI_2A is set to (W / 2 ⁇ From the coordinates of (Rsin ⁇ A, Hh), a rectangular area of width w ⁇ height may be set.
  • the set values of the imaging target regions ROI_1A, ROI_2A, ROI_1B, and ROI_2B in the area cameras 120A and 120B as described above are looked up as preset values according to the size (inner diameter or the like) of the tubular body 1 that is the inspection target.
  • An up table or the like is created in advance and stored in a storage unit or the like of the arithmetic processing device 200 described later, and when the arithmetic processing device 200 performs imaging control of the area camera 120, the lookup table or the like is referred to. By doing so, it is preferable to be able to set easily.
  • Tubular body Inner diameter 100mm ⁇ 500mm, length 10m ⁇ 20m ⁇ Lighting mechanism 110 Laser light in the visible light band is emitted from the laser light source 111 at an output of 100 mW.
  • the laser light is reflected by the conical optical element 113 (conical angle 90 degrees) as an annular beam of 50 mW to the inner surface of the tubular body.
  • the line beam width applied to the inner surface of the tubular body is 0.25 mm. However, the line beam width in this case is defined as 13.5% from the peak intensity value.
  • a CMOS having a width of 1920 pixels and a height of 1200 pixels (pixel size: 4.8 ⁇ m ⁇ 4.8 ⁇ m) is mounted as an image sensor, and the frame rate is 150 fps.
  • the focal length of the lens is 1.81 mm, and the horizontal angle of view is 180 °.
  • the pixel size of the image to be captured is 0.4 mm ⁇ 0.4 mm, and the line beam width is captured with the width of the bright line of 1 to 3 pixels on the captured image. If the imaging target region (ROI) is set at each of the upper end portion and the lower end portion of the CMOS so as to have a height of 600 pixels in total of the two end portions, the frame rate becomes 300 fps.
  • ROI imaging target region
  • the area cameras 120A and 120B capture an image of the inner surface of the tubular body every time the tube body travels by 0.25 mm in the tube axis direction (ie, output a PLG signal of one pulse every time the tubular body imaging device 100 moves by 0.25 mm). Is done.)
  • the arithmetic processing device 200 mainly includes, for example, an imaging control unit 201, an image processing unit 203, a display control unit 205, and a storage unit 207 as illustrated in FIG.
  • the imaging control unit 201 is realized by a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), a communication device, and the like.
  • the imaging control unit 201 controls the imaging of the inspection target by the tubular body imaging device 100 according to the present embodiment. More specifically, when starting imaging of the tubular body 1, the imaging control unit 201 sends a control signal for starting the oscillation of laser light to the illumination mechanisms 110A and 110B. Further, the imaging control unit 201 refers to each of the area cameras 120A and 120B with reference to a look-up table or the like stored in the storage unit 207 or the like to be described later, and the two types of imaging target areas described above. After setting (ROI), a trigger signal for starting imaging is transmitted to the area cameras 120A and 120B.
  • ROI trigger signal for starting imaging is transmitted to the area cameras 120A and 120B.
  • a PLG signal is periodically sent from the tubular body imaging apparatus 100 (for example, one pulse of the PLG signal every time the tubular body imaging apparatus 100 moves by 0.25 mm). ), The imaging control unit 201 sends a trigger signal to the area cameras 120A and 120B to start imaging each time the PLG signal is acquired.
  • the image processing unit 203 is realized by, for example, a CPU, a ROM, a RAM, a communication device, and the like.
  • the image processing unit 203 generates a striped image frame, which will be described later, using imaging data acquired from the tubular body imaging device 100 (more specifically, the area cameras 120A and 120B of the tubular body imaging device 100). Thereafter, image processing as described below is performed on the generated stripe image frame to detect a defect that may exist on the inner surface of the tubular body that is the measurement target.
  • the image processing unit 203 completes the defect detection processing on the inner surface of the tubular body 1, it transmits information on the obtained detection result to the display control unit 205.
  • the image processing unit 203 will be described later in detail.
  • the display control unit 205 is realized by, for example, a CPU, a ROM, a RAM, an output device, and the like.
  • the display control unit 205 is provided outside the arithmetic processing device 200 or an output device such as a display included in the arithmetic processing device 200, based on the defect detection result of the tubular body 1 that is the inspection object transmitted from the image processing unit 203. Display control for displaying on an output device or the like. Thereby, the user of the tubular body surface inspection apparatus 10 can grasp on the spot the detection results regarding various defects existing on the inner surface of the inspection object (tubular body 1).
  • the storage unit 207 is realized by, for example, a RAM or a storage device included in the arithmetic processing device 200 according to the present embodiment.
  • the arithmetic processing device 200 according to the present embodiment such as a preset value of an imaging target region (ROI) in the area cameras 120A and 120B of the tubular body imaging device 100 according to the present embodiment, performs some processing.
  • ROI imaging target region
  • Various parameters that need to be stored at the time of execution, the progress of processing, or various databases and programs are appropriately recorded.
  • the imaging control unit 201, the image processing unit 203, the display control unit 205, and the like can execute read / write processing.
  • FIG. 6 is a block diagram illustrating a configuration of an image processing unit included in the arithmetic processing device according to the present embodiment.
  • the image processing unit 203 includes an A / D conversion unit 211, an annular beam center calculation unit 213, a coordinate conversion unit 215, a partial stripe image frame generation unit 217, It mainly includes a stripe image frame generation unit 219, an image calculation unit 221, and a detection processing unit 229.
  • the A / D converter 211 is realized by, for example, a CPU, a ROM, a RAM, and the like.
  • the A / D converter 211 performs A / D conversion on the captured images output from the area cameras 120A and 120B, respectively, and performs digital conversion on a total of four types of imaging target areas as schematically illustrated in FIGS. 5A and 5B. It is output as multi-valued image data (ie, an annular beam image).
  • Such digital multi-valued image data is stored in an image memory provided in the storage unit 207 or the like.
  • the annular beam image is obtained by imaging the annular beam applied to the inner surface of the tubular body at a position along the tube axis direction on the inner surface of the tubular body 1. Things.
  • the annular beam image may be a grayscale image in which a portion irradiated with the annular beam is displayed in white and other portions are displayed in black. it can.
  • the unevenness superimposed on the circumference of the annular beam includes information on the cross-sectional shape of the inner surface of the tubular body and the defect existing on the inner surface.
  • the A / D converter 211 When the A / D converter 211 generates a ring beam image based on the captured images output from each of the area cameras 120A and 120B, the A / D converter 211 sends data corresponding to the generated ring beam image to a ring beam center calculator 213 described later. Output.
  • FIG. 6 illustrates a case where one A / D converter 211 performs A / D conversion on the captured images output from each of the area cameras 120A and 120B, two A / D converters 211 are used.
  • the captured images output from the area cameras 120A and 120B may be A / D converted by the corresponding dedicated A / D converter 211.
  • the annular beam center calculation unit 213 is realized by, for example, a CPU, a ROM, a RAM, and the like. Using the annular beam images generated by the two area cameras 120A and 120B output from the A / D converter 211, the annular beam center calculator 213 calculates the center of gravity of the ring and the radius of the ring, respectively. calculate.
  • the annular beam center calculation unit 213 uses the annular beam images captured by the area cameras 120A and 120B at the same timing and generates a composite image as shown in FIG. generate, using such synthetic images, it is preferable to calculate respectively the radius r of the center of gravity position O C and ring ring.
  • the composite image shown in FIG. 7 is an image obtained by using annular beam images generated at the same imaging timing in each of the area cameras 120A and 120B and combining these annular beam images so that the entire annular beam can be recognized. is there.
  • the order of combining the annular beam images in the four types of imaging target regions (ROIs) generated by the area cameras 120A and 120B should be described with reference to the area cameras 120A and 120B. It is possible to determine in advance from the optical positional relationship as shown in FIG. In addition, the position of the annular beam images in the four types of imaging target regions (ROIs) generated by the area cameras 120A and 120B should be combined with each other. By using a reference tube that is known not to exist, it is possible to specify in advance a joint position at which the annular beam images in the four types of imaging target regions (ROIs) are smoothly connected. I just need. In addition, when combining the ring beam images in the four types of imaging target regions (ROIs), the ring beam center calculation unit 213 determines the connection position of each ring beam image such that the ring beam images are smoothly connected. May be fine-tuned.
  • Method for calculating the center of gravity position O C and the radius r of the ring is not particularly limited, it is possible to use any method known. Specific examples of the method of calculating the centroid position O C and the radius r of the ring, for example, if the annular beam image is close to a perfect circle can be mentioned two methods as follows.
  • the distance between the obtained position of the center of gravity and any one of the three points is the radius of the ring.
  • Annular beam center calculating section 213 calculating the centroid position O C and the radius r of the ring for each of the annular beam image, and generates respectively the information about the gravity center position O C and the radius r of the ring, the coordinate conversion unit 215 to be described later Output.
  • the present invention can be applied to any cross-sectional shape. It may be rectangular or the like.
  • the center of gravity can be obtained from the shape of the annular beam, and by using the average value of the maximum value and the minimum value of the obtained distance to the center of gravity as the radius, coordinate conversion described later is performed in the same procedure. Can be implemented.
  • the annular beam center calculating section 213 causes generates a synthesized image as shown in FIG. 7 without, it calculates the barycentric position O C and the radius r of the ring with the annular beam image obtained from the area camera 120A, the ring centroid position O C and using a circular beam image obtained from the area camera 120B The radius r may be calculated.
  • the coordinate conversion processing to be described later for the cyclic beam image obtained from the area camera 120A, along with the gravity center position O C and the radius r of the ring which is calculated from the resulting annular beam image from the area camera 120A is used , for the cyclic beam image obtained from the area camera 120B, the center of gravity position O C and the radius r of the ring which is calculated from the resulting annular beam image from the area camera 120B is used.
  • the coordinate conversion unit 215 is realized by, for example, a CPU, a ROM, a RAM, and the like.
  • the coordinate conversion unit 215 performs polar coordinate conversion of the coordinate system of the annular beam image based on the calculated position of the center of gravity and the distance (separation amount) between the position of the center of gravity and the irradiated portion of the annular beam. Therefore, the image of the portion irradiated with the annular laser light, which appears in a curved shape in the annular beam image, is converted into a linear segment by the polar coordinate conversion. After that, the coordinate conversion unit 215 generates a light-section image represented as a line segment corresponding to the irradiation part of the annular beam.
  • the coordinate transformation unit 215 sets a margin of ⁇ ⁇ r in the radial direction for the radius r calculated by the annular beam center calculation unit 213 (that is, the range of r ⁇ r to r + ⁇ r). 4), the coordinate conversion is performed in the range of ⁇ to ⁇ shown in FIGS. 4A and 4B (in the case of FIGS.
  • the value of the margin ⁇ r is set in the plus direction in the range including the irradiation part of the annular beam.
  • different values in the minus direction can be expressed as r- ⁇ r 1 to r + ⁇ r 2 .
  • a case where the same value ⁇ r is used in the plus direction and the minus direction will be described below.
  • the height in the radial direction is 2 ⁇ r around the radius r, and ⁇ to ⁇ ′ in the angular direction (FIG. 4A and FIG. 4A).
  • a band-shaped image having a length corresponding to about 90 degrees is extracted.
  • the extracted band-shaped image includes a line segment (hereinafter, also referred to as a “light-section line”) obtained by expanding the irradiated portion of the annular beam in the circumferential direction of the tubular body.
  • the magnitude of ⁇ r can be determined by roughly calculating in advance the range of the height of irregularities that may exist in the tubular body 1 based on past operation data and the like.
  • a grid point that is, a center position of a pixel
  • the coordinate conversion unit 215 performs conversion from the rectangular coordinate system to the polar coordinate system, a grid point (that is, a center position of a pixel) in the rectangular coordinate system does not necessarily correspond to a grid point in the polar coordinate system. Some of them correspond to non-grid points.
  • the coordinate conversion unit 215 performs interpolation based on the density of another grid point located near the point of interest, that is, a so-called image. It is preferable to carry out the interpolation method together.
  • the image interpolation method is not particularly limited, and for example, a known image interpolation method described in “Shokodo Image Processing Handbook” or the like can be used.
  • Examples of such an image interpolation method include a nearest neighbor (neighbor) method, a bi-linear interpolation (bi-linear interpolation) method, and a cubic interpolation (bi-cubic conversion) method.
  • the former has a higher processing speed, and the latter has higher quality results. Therefore, the coordinate conversion unit 215 may appropriately determine the type of the image interpolation method to be used according to the amount of resources available for processing, the processing time, and the like.
  • a cubic interpolation method is applied as an image interpolation method.
  • the coordinate conversion unit 215 stores the image data corresponding to the obtained light-section image in an image memory provided in the storage unit 207 or the like. It is stored sequentially along the axial direction.
  • the partial stripe image frame generation unit 217 is realized by, for example, a CPU, a ROM, a RAM, and the like.
  • the partial-striped image frame generation unit 217 stores the image capturing target regions (that is, ROI_1A, ROI_2A, ROI_1B, ROI_2B) stored along the tube axis direction of the tubular body from the image memory provided in the storage unit 207 and the like. Are sequentially obtained. Thereafter, the partial stripe image frame generation unit 217 sequentially arranges the obtained light-section images for each of the imaging target regions along the tube axis direction of the tubular body, and obtains four types of partial stripe images for each imaging target region. Generate a frame.
  • the number of light-section images forming one partial stripe image frame may be appropriately set.
  • one partial stripe image frame may be composed of 512 light-section images.
  • Each light-section image exists at each imaging interval (for example, at an interval of 0.25 mm) of the annular beam image as described above. Therefore, one partial fringe image frame composed of 512 light-section images based on an annular beam image captured at intervals of 0.25 mm is obtained by dividing one-fourth of the entire circumference of the inner surface of the tubular body in the tube axis direction.
  • FIG. 9 shows an example of a partial fringe image frame generated by the partial fringe image frame generating unit 217.
  • FIG. 9 schematically illustrates a case where a partial stripe image frame related to the imaging target region ROI_1A is generated using a light-section image related to the imaging target region ROI_1A.
  • one line segment extending in the horizontal direction of the drawing corresponds to an image obtained by developing one annular beam image, and the horizontal direction of the drawing is annular.
  • the vertical direction in the drawing corresponds to the tube axis direction of the tubular body 1.
  • the partial stripe image frame generation unit 217 When the partial stripe image frame generation unit 217 generates four types of partial stripe image frames related to ROI_1A to ROI_2B as described above, the generated partial stripe image frames are output to the stripe image frame generation unit 219 described later. .
  • the partial stripe image frame generation unit 217 associates the data corresponding to the generated partial stripe image frame with time information about the date and time when the partial stripe image frame was generated and stores the data in the storage unit 207 and the like as history information. You may.
  • the fringe image frame generation unit 219 is realized by, for example, a CPU, a ROM, a RAM, and the like.
  • the fringe image frame generation unit 219 uses the four types of partial fringe image frames generated by the partial fringe image frame generation unit 217, and determines the optical positional relationship between the two illumination mechanisms 110A and 110B by using these partial fringe image frames.
  • a striped image frame is generated in which the light-section lines over the entire inner surface of the tubular body 1 are arranged in sequence along the tube axis of the tubular body.
  • the irradiation position of the annular beam emitted from the imaging unit 101A and the irradiation position of the annular beam emitted from the imaging unit 101B are separated from each other by an offset D.
  • the offset D corresponds to the D ′ line in the partial stripe image frame
  • the annular beam image captured by the area camera 120A at a certain tube axial position is delayed by the D ′ line, and the area camera 120B Is taken. Therefore, the stripe image frame generation unit 219 takes into account the optical positional relationship between the two area cameras 120A and 120B, and as shown schematically in FIG. And the light section image of the D '+ 1 line by the area camera 120B, and then combining the four types of partial stripe image frames with each other while considering the overlapping portion between the partial stripe image frames. , Generate a fringe image frame.
  • the fringe image frame generating unit 219 When the fringe image frame generating unit 219 generates the fringe image frame as shown in FIG. 10, it outputs the generated fringe image frame to the image calculating unit 221 described later. Further, the stripe image frame generation unit 219 may associate the data corresponding to the generated stripe image frame with time information about the date and time when the stripe image frame was generated, and store the data as history information in the storage unit 207 or the like. .
  • a light-section image is generated in each of the imaging units 101A and 101B, and the generated light-section images are individually and sequentially arranged along the tube axis direction to generate a partial stripe image frame.
  • a partial fringe image frame is generated by adjusting the partial fringe image frame based on the positional relationship between the imaging units 101A and 101B, and thereafter connecting the plane on a plane orthogonal to the tube axis.
  • the present invention is not limited to such a case.
  • a light-section image is generated in each of the imaging units 101A and 101B, and the generated light-section image is converted into a positional relationship between the imaging units 101A and 101B. It is also possible to generate a fringe image frame by adjusting based on and connecting on a plane perpendicular to the tube axis, and then arranging in order along the tube axis direction.
  • the image calculation unit 221 is realized by, for example, a CPU, a ROM, a RAM, and the like.
  • the image calculation unit 221 calculates a depth image representing the unevenness state of the inner surface of the tubular body and the luminance distribution of the annular beam on the inner surface of the tubular body based on the stripe image frame generated by the stripe image frame generator 219. And the luminance image to represent.
  • the image calculation unit 221 includes a light section line processing unit 223, a depth image calculation unit 225, and a luminance image calculation unit 227.
  • the light-section-line processing unit 223 is realized by, for example, a CPU, a ROM, a RAM, and the like.
  • the light-section line processing unit 223 calculates a light-section line feature amount including a displacement amount of the light-section line (bending degree of the bright line) for each light-section line included in the stripe image frame.
  • a displacement amount of the light-section line bending degree of the bright line
  • FIGS. 11A and 11B the processing performed by the light-section-line processing unit 223 and the calculated light-section-line feature amount will be described in detail with reference to FIGS. 11A and 11B.
  • FIG. 11A is an explanatory diagram schematically showing a stripe image frame.
  • FIG. 11B is an explanatory diagram for describing the light-section-line processing performed by the light-section-line processing unit.
  • N light section lines exist in one stripe image frame, and the length of the stripe image frame in the horizontal direction is M pixels.
  • One light-section image including one light-section line is composed of vertical 2 ⁇ r pixels ⁇ horizontal M pixels.
  • the X-axis is taken in the tube circumferential direction (horizontal direction in FIG. 11A) of the stripe image frame
  • the Y-axis is taken in the tube axis direction (vertical direction in FIG. 11A) of the stripe image frame.
  • the position of the pixel in the frame is represented by XY coordinates.
  • the position of the m-th pixel (1 ⁇ m ⁇ M) from the left side of the j-th (1 ⁇ j ⁇ N) light section line existing in the stripe image frame that is, represented by X j, m ). Focus).
  • the light-section line processing unit 223 determines the X-coordinate position (the position represented by Xj, m in the present description) of the light-section line of interest (hereinafter, also simply referred to as “line”).
  • the distribution of the pixel values that is, the brightness values of the annular beam
  • the light section line processing unit 223 does not perform the processing described below for all the pixels at the X coordinate position in the light section image, but performs the reference position Y s of the Y coordinate in the light section image.
  • W the range of W before and after
  • the reference position Y s Y-coordinate is the tube axis direction of the position designated in advance for j-th line of the light section image of the fringe image frame, for example, specify the tube axis direction of the center of the optical section image.
  • the parameter W defining a processing range based on the height range of the irregularities which may be present in the tubular body 1 in the past operation data, the Y coordinate in the light section images before and after W reference position Y s
  • the range may be roughly calculated in advance so that the range falls within the light-section image, and may be determined as appropriate. If the value of the parameter W can be reduced, the processing load of the light section line processing unit 223 described later can be reduced.
  • the light-section-line processing unit 223 determines a predetermined threshold, which is an example of a first threshold for specifying a pixel corresponding to the light-section line, from the pixels included in the range of Y s ⁇ W to Y s + W.
  • a pixel having a pixel value equal to or greater than the threshold Th is specified.
  • three pixels represented by Y j, k , Y j, k + 1 , and Y j, k + 2 respectively have pixel values I j, k , I j, k + 1 , and I j that are equal to or larger than the threshold Th. , K + 2 .
  • the number p j, m obtained by adding pixels having a pixel value equal to or greater than the predetermined threshold value Th in the line width direction is a value corresponding to the number of pixels of the bright line at the position (j, m). one of.
  • the light-section-line processing unit 223 outputs information (Y j, k , I j, k ) regarding the extracted pixels, (Y j, k + 1 , I j, k + 1 ), (Y j, k + 2) , I j, k + 2 ) (hereinafter, may be simply abbreviated as (Y, I)) to calculate further light-section line feature amounts.
  • the light-section-line processing unit 223 calculates the total sum Kj, m of the luminance of the extracted pixels using the parameters pj, m and the information (Y, I) regarding the extracted pixels.
  • the sum K j, m of the luminance is also one of the light-section line feature amounts.
  • the center of gravity position Y C (j, m) is a value represented by the following Expression 111, where the set of extracted pixels is represented by A. Therefore, in the case of the example shown in FIG. 11B, the position of the center of gravity Y C (j, m) is a value represented by the following expression 111a.
  • the position in the tube axis direction corresponding to the pixel is, as it were, a value quantized by the movement width (for example, 0.25 mm) of the tubular body imaging device 100.
  • the barycentric position Y C (j, m) calculated by the calculation as shown in the above formula 111 is a value calculated by using a numerical calculation called division, the movement of the tubular body imaging device 100 The value can be smaller than the width (so-called quantization unit). Therefore, such centroid position Y C (j, m) the displacement amount [Delta] d j which are calculated using, for the m, a value may have a value smaller than the moving width.
  • the displacement amount ⁇ dj , m calculated in this way is also one of the light section line feature amounts.
  • the light-section-line processing unit 223 outputs a feature amount related to the displacement amount ⁇ d of the light-section line among the calculated light-section-line feature amounts to a depth image calculation unit 225 described later. In addition, the light-section-line processing unit 223 outputs, to the luminance image calculation unit 227 described later, a total amount of luminance K and a characteristic amount related to the number p of pixels of the bright line among the calculated light-section line characteristic amounts.
  • the depth image calculation unit 225 is realized by, for example, a CPU, a ROM, a RAM, and the like.
  • the depth image calculation unit 225 generates a depth image representing the unevenness state of the inner surface of the tubular body based on the light-section line feature amount generated by the light-section line processing unit 223 (particularly, the feature amount related to the displacement amount ⁇ d). calculate.
  • a depth image is an image representing a two-dimensional unevenness distribution in which the one-dimensional distribution of the unevenness state at each position in the tube axis direction is sequentially arranged along the tube axis direction.
  • FIG. 13 is an explanatory diagram showing the relationship between the displacement of the light cutting line and the height of the defect.
  • FIG. 13 schematically shows a case where a dent exists on the inner surface of the tubular body 1.
  • the difference between the height of the surface position and the height of the bottom of the dent when there is no dent on the inner surface is represented by ⁇ h.
  • the reflected light will propagate as ray A in FIG. 13, but there is a dent on the inner surface.
  • the reflected light propagates as shown by a ray B in FIG.
  • the deviation between the light beam A and the light beam B will be observed as the displacement ⁇ d of the light cutting line in the present embodiment.
  • the depth image calculation unit 225 uses the relationship described above to calculate the amount related to the unevenness of the inner surface of the tubular body based on the feature amount related to the displacement amount ⁇ d of the light cutting line calculated by the light cutting line processing unit 223. Calculate ⁇ h.
  • the displacement amount ⁇ d of the light cutting line used for calculating the depth image is calculated based on the position of the center of gravity of the light cutting line as described above, and has a value smaller than the movement width. It is a possible value. Therefore, the depth image calculated by the depth image calculation unit 225 is an image in which unevenness is reproduced with a resolution finer than the pixel size of the image sensor.
  • the unevenness superimposed on the light cutting line is information on the cross-sectional shape of the inner surface of the tubular body and surface defects existing on the inner surface. Therefore, when calculating the depth image based on the displacement amount ⁇ d of the light cutting line, the depth image calculating unit 225 performs a distortion correction process for each light cutting line to obtain the unevenness superimposed on the light cutting line.
  • only information regarding the information may be extracted.
  • the camera scanning direction axis does not exactly match the central axis of the tubular body, or when the shape of the inner surface is not a circle, it is present on the inner surface. It is possible to obtain only the information of the uneven flaws.
  • Such distortion correction processing include (i) a processing of performing a fitting process using a multidimensional function or various nonlinear functions, and performing a difference operation between an obtained fitting curve and an observed light section line, ii) A process of applying a low-pass filter such as a floating filter or a median filter by utilizing the fact that the information related to unevenness is a high-frequency component can be mentioned.
  • a low-pass filter such as a floating filter or a median filter
  • the depth image calculation unit 225 outputs information on the depth image calculated as described above to the detection processing unit 229 described below.
  • the luminance image calculation unit 227 is realized by, for example, a CPU, a ROM, a RAM, and the like.
  • the luminance image calculation unit 227 generates an annular beam on the inner surface of the tubular body based on the light-section line feature amount generated by the light-section line processing unit 223 (particularly, the feature amount related to the sum K of brightness and the number of pixels p of the bright line). Is calculated.
  • the luminance image calculation unit 227 generates a characteristic amount (two-dimensional array) related to the sum K of luminance as illustrated in FIG. 12B and a characteristic amount (two-dimensional array) related to the number p of pixels of the bright line as illustrated in FIG.
  • the average luminance K AVE (j, m) K j, m / p j, m (1 ⁇ j ⁇ N, 1 ⁇ m ⁇ ) which is the average value of the total luminance in the line width direction. M) is calculated.
  • the luminance image calculation unit 227 sets the data array including the calculated average luminance K AVE (j, m) as the luminance image of the tubular body of interest.
  • Such a luminance image is an image representing a two-dimensional luminance distribution in which the one-dimensional distribution of luminance of the annular laser light at each position in the tube axis direction is sequentially arranged along the tube axis direction.
  • the luminance image calculation unit 227 outputs information on the luminance image calculated as described above to the detection processing unit 229 described below.
  • the detection processing unit 229 is realized by, for example, a CPU, a ROM, a RAM, and the like.
  • the detection processing unit 229 detects a defect existing on the inner surface of the tubular body based on the depth image calculated by the depth image calculation unit 225 and the luminance image calculated by the luminance image calculation unit 227. .
  • the detection processing unit 229 extracts a defective portion based on a depth image and a luminance image, and a feature amount extracting function for extracting a feature amount related to a form and a pixel value of the specified defective portion.
  • a defect discriminating function of discriminating the type, harmfulness, and the like of the defect based on the feature amount will be briefly described.
  • the detection processing unit 229 is a filter that obtains a linear sum of a pixel value (a value representing a depth or a luminance value) with peripheral pixels for each of the acquired depth image and luminance image.
  • the processing emphasizes areas such as vertical linear flaws, horizontal linear flaws, and minute flaws, and determines whether or not the obtained value is equal to or larger than a second threshold value for specifying a defective portion.
  • the detection processing unit 229 can generate a binarized image for specifying a defective portion.
  • the detection processing unit 229 extracts the feature quantity relating to the form and pixel value of the defect location for each of the identified defect locations when the defect location specification function identifies the defect location in the depth image and the luminance image.
  • the characteristic amount relating to the form of the defective portion include a width of the defective portion, a length of the defective portion, a peripheral length of the defective portion, an area of the defective portion, an area of a rectangle circumscribing the defective portion, and the like.
  • a maximum value, a minimum value, and an average value of the depth of the defective portion can be given for a depth image. Values, minimum values, average values, and the like.
  • the detection processing unit 229 discriminates the defect type, harmfulness, and the like for each defect site based on the extracted feature amount.
  • the process of determining the type of the defect and the degree of harm based on the feature amount is performed using, for example, a logic table as shown in FIG. That is, the detection processing unit 229 determines the type and harmfulness of the defect based on the determination condition represented by the logic table illustrated in FIG.
  • the types of the defects are described as the vertical items of the logic table, and the types of the characteristic amounts (the characteristic amounts B1) are described as the horizontal items of the logic table.
  • the discriminant condition expression conditional expression C11 to conditional expression Cnm
  • Each row of such a logic table forms a set, and serves as a condition for determining the type of each defect. The determination process is performed sequentially from the type described in the top row, and ends when all the determination conditions described in any one row are satisfied.
  • Such a logic table is obtained by a known method using a database constructed by a learning process using the past operation data and a result of identification of a defect type and a degree of harm by an inspector based on the operation data as teacher data. Can be generated.
  • the detection processing unit 229 specifies the type and harmfulness of the defect for each defect site detected in this way, and outputs the obtained detection result to the display control unit 205. As a result, information on a defect existing on the inner surface of the tubular body that is the detection target is output to the display unit (not shown). Further, the detection processing unit 229 may output the obtained detection result to an external device such as a manufacturing management process computer, and use the obtained detection result to create a defect report of the product. Is also good. In addition, the detection processing unit 229 may store the information on the detection result of the defective portion in the storage unit 207 or the like as history information in association with time information on the date and time when the information was calculated.
  • a discriminator such as a neural network or a support vector machine (SVM) is generated by a learning process using teacher data based on past operation data and a result of identification of a defect type and harmfulness by an inspector based on the operation data.
  • SVM support vector machine
  • Such a discriminator may be used for discriminating the type or harmfulness of a defect.
  • the depth image calculation unit 225 performs an approximation correction process such as a difference calculation process or a low-pass filter process when calculating the depth image.
  • approximation correction processing may be performed by the light-section-line processing unit 223 before the light-section-line processing unit 223 calculates the light-section-line feature amount.
  • each of the above components may be configured using a general-purpose member or circuit, or may be configured by hardware specialized for the function of each component. Further, the functions of each component may be entirely performed by a CPU or the like. Therefore, the configuration to be used can be appropriately changed according to the technical level at the time of implementing the present embodiment.
  • a computer program for realizing each function of the arithmetic processing device according to the present embodiment as described above can be created and mounted on a personal computer or the like.
  • a computer-readable recording medium in which such a computer program is stored can be provided.
  • the recording medium is, for example, a magnetic disk, an optical disk, a magneto-optical disk, a flash memory, or the like.
  • the above-described computer program may be distributed, for example, via a network without using a recording medium.
  • FIGS. 16 and 17 are explanatory diagrams schematically showing a modified example of the tubular body imaging device 100 according to the present embodiment.
  • the area camera 120B, the laser light source 111B, the optical element 113B, the optical element 113A, the laser light source 111A, and the area camera 120A are arranged along the tube axis direction of the tubular body 1.
  • the two imaging units 101A and 101B are connected.
  • the method of connecting the imaging units 101A and 101B in the tubular body imaging device 100 according to the present embodiment is not limited to the example shown in FIG. 2, and for example, as shown in FIG.
  • the two imaging units 101A and 101B are connected so that the area camera 120B, the laser light source 111B, the optical element 113B, the area camera 120A, the laser light source 111A, and the optical element 113A are arranged in this order along the tube axis direction. Is also good.
  • the coupling method between the imaging units 101A and 101B in the tubular body imaging device 100 according to the present embodiment includes an optical element 113B and a laser light source along the tube axis direction.
  • Two imaging units 101A and 101B may be connected so that 111B, area camera 120B, area camera 120A, laser light source 111A, and optical element 113A are arranged in this order.
  • the connection method is the smallest and the connection method shown in FIG. 17 is the largest. Therefore, by adopting the connection method shown in FIG. 2, in the actual inspection processing of the inner surface of the tubular body, the moving amount of the tubular body imaging device 100 in the tube axis direction can be minimized, and the inspection processing can be performed more easily. Can be implemented.
  • FIG. 18 is a flowchart illustrating an example of the flow of the tubular body surface inspection method according to the present embodiment.
  • the tubular body imaging device 100 of the tubular body surface inspection device 10 captures an inner surface of a tubular body which is a processing target using an annular beam, and calculates an image captured by each of the area cameras 120A and 120B. Output to the device 200.
  • the above-described two imaging target regions (ROIs) are set in the area cameras 120A and 120B in advance.
  • the A / D conversion unit 211 of the image processing unit 203 included in the arithmetic processing device 200 performs an A / D conversion process on the acquired images captured by the two area cameras 120 to generate an annular beam image (step S101). ).
  • the annular beam center calculation unit 213 calculates the center of gravity position and radius of the annular beam image using the annular beam images of the two area cameras 120A and 120B generated by the A / D conversion unit 211, respectively ( Step S103), and output the obtained calculation result to the coordinate conversion unit 215.
  • the coordinate conversion unit 215 performs coordinate conversion of the annular beam images of the two area cameras 120A and 120B using the calculated center of gravity position, radius, and the like, and generates a light-section image (step S105).
  • the generated light-section images are sequentially stored in an image memory provided in the storage unit 207 or the like along the tube axis direction of the tubular body.
  • the partial stripe image frame generation unit 217 sequentially arranges the generated light-section images along the tube axis direction of the tubular body to generate a partial stripe image frame (Step S107).
  • the partial stripe image frame generation unit 217 outputs the generated partial stripe image frame to the stripe image frame generation unit 219.
  • the stripe image frame generation unit 219 generates a stripe image frame using the partial stripe image frame generated by the partial stripe image frame generation unit 217 (Step S109).
  • the stripe image frame generation unit 219 outputs the generated stripe image frame to the light section line processing unit 223.
  • the light-section line processing unit 223 uses the generated stripe image frame, and for each light-section line, the number of pixels having a luminance equal to or greater than a predetermined threshold Th, the sum of the luminance of the pixels, and the displacement of the light-section line. The amount is calculated (step S111). These calculation results are used as light-section line feature amounts. The calculated light-section-line feature amount is output to the depth image calculation unit 225 and the luminance image calculation unit 227, respectively.
  • the depth image calculation unit 225 calculates a depth image by using the calculated light section line feature amount (particularly, a feature amount relating to the displacement amount of the light section line) (step S113). Further, the luminance image calculation unit 227 uses the calculated light section line characteristic amount (particularly, a characteristic amount related to the number of pixels having a luminance equal to or more than a threshold value, and a characteristic amount related to the sum of luminance) to generate a luminance image. Is calculated (step S113). The depth image calculation unit 225 and the luminance image calculation unit 227 output the calculated images to the detection processing unit 229.
  • the detection processing unit 229 detects a defect site existing on the inner surface of the tubular body by using the calculated depth image and luminance image, and specifies the type and harmfulness of the defect of the detected defect site (step S115). By the flow as described above, a defect existing on the inner surface of the tubular body is detected.
  • tubular body surface inspection apparatus As described above, the tubular body surface inspection apparatus and the tubular body surface inspection method according to the present embodiment have been described in detail.
  • the two imaging units 101 having the following are connected in the tube axis direction of the tubular body 1 has been described in detail.
  • the number of imaging units 101 connected in the tube axis direction is not limited to two shown in the first embodiment, and three or more imaging units 101 are connected in the tube axis direction. May be.
  • FIG. 19 is an explanatory diagram schematically showing an example of the configuration of the tubular body imaging device according to the second embodiment of the present invention.
  • FIG. 20 is a diagram for explaining the tubular body imaging device according to the present embodiment.
  • FIG. 19 schematically illustrates a tubular body imaging device 100 in which three imaging units 101A, 101B, and 101C are connected in the tube axis direction. Even in such a case, the three or more imaging units 101A, 101B, and 101C are connected in series such that the positions on the surface orthogonal to the tube axis of the connection member 133 are different between the imaging units. Therefore, the regions that the connection members 133, 133, and 133 block in the field of view of the area camera 120A, the area camera 120B, and the area camera 120C, respectively, differ on a plane orthogonal to the tube axis. Therefore, when each of the area camera 120A, the area camera 120B, and the area camera 120C scans and captures the inner surface of the tubular body 1, it is possible to capture the entire inner surface without losing the field of view.
  • two types of imaging target regions are set in each area camera 120.
  • N (N ⁇ 3) imaging units 101 are present in the tubular body imaging device 100
  • two types of imaging target regions (ROIs) are set in the area camera 120 provided in each imaging unit 101.
  • N imaging units 101 as a whole, 2 ⁇ N types of imaging target regions (ROIs) are set.
  • the entire circumference (in other words, a 360 ° arc) of the annular beam irradiated toward the inner surface of the tubular body may be imaged in 2 ⁇ N types of imaging target regions (ROIs).
  • one imaging target area (ROI) in one area camera 120 only needs to include at least (180 / N) ° of annular beam in the area. Accordingly, when the N (N ⁇ 3) imaging units 101 are connected in series, if the imaging units 101 are connected while being rotated by (180 / N) ° around the tube axis direction, the subsequent arithmetic processing is performed. Is efficient and efficient.
  • ROI imaging target regions
  • the imaging units 101 may be connected in the same manner as described above.
  • the processing on the obtained stripe image frame is the same as in the first embodiment, and a detailed description thereof will be omitted below.
  • tubular body surface inspection apparatus according to the second embodiment of the present invention was briefly described.
  • FIG. 21 is a block diagram illustrating a hardware configuration of an arithmetic processing device 200 according to each embodiment of the present invention.
  • the arithmetic processing device 200 mainly includes a CPU 901, a ROM 903, and a RAM 905.
  • the arithmetic processing device 200 further includes a bus 907, an input device 909, an output device 911, a storage device 913, a drive 915, a connection port 917, and a communication device 919.
  • the CPU 901 functions as a central processing device and a control device, and controls the entire operation in the arithmetic processing device 200 or a part thereof according to various programs recorded in the ROM 903, the RAM 905, the storage device 913, or the removable recording medium 921. I do.
  • the ROM 903 stores programs used by the CPU 901 and operation parameters.
  • the RAM 905 temporarily stores a program used by the CPU 901, parameters that appropriately change in execution of the program, and the like. These are interconnected by a bus 907 constituted by an internal bus such as a CPU bus.
  • the bus 907 is connected to an external bus, such as a PCI (Peripheral Component Interconnect / Interface) bus, via a bridge.
  • PCI Peripheral Component Interconnect / Interface
  • the input device 909 is an operation unit operated by the user, such as a mouse, a keyboard, a touch panel, a button, a switch, and a lever.
  • the input device 909 may be, for example, remote control means (so-called remote controller) using infrared rays or other radio waves, or an externally connected device 923 such as a PDA corresponding to the operation of the arithmetic processing device 200. You may.
  • the input device 909 includes, for example, an input control circuit that generates an input signal based on information input by a user using the above-described operation means and outputs the input signal to the CPU 901. By operating the input device 909, the user can input various data to the arithmetic processing device 200 and instruct a processing operation.
  • the output device 911 is a device capable of visually or audibly notifying the user of the acquired information. Examples of such a device include a CRT display device, a liquid crystal display device, a plasma display device, a display device such as an EL display device and a lamp, an audio output device such as a speaker and headphones, a printer device, a mobile phone, and a facsimile.
  • the output device 911 outputs, for example, results obtained by various processes performed by the arithmetic processing device 200. Specifically, the display device displays results obtained by various processes performed by the arithmetic processing device 200 as text or images.
  • the audio output device converts an audio signal including reproduced audio data, acoustic data, and the like into an analog signal and outputs the analog signal.
  • the storage device 913 is a data storage device configured as an example of a storage unit of the arithmetic processing device 200.
  • the storage device 913 includes, for example, a magnetic storage device such as an HDD (Hard Disk Drive), a semiconductor storage device, an optical storage device, or a magneto-optical storage device.
  • the storage device 913 stores programs executed by the CPU 901 and various data, various data acquired from the outside, and the like.
  • the drive 915 is a reader / writer for a recording medium, and is built in or external to the arithmetic processing unit 200.
  • the drive 915 reads information recorded on a removable recording medium 921 such as a mounted magnetic disk, optical disk, magneto-optical disk, or semiconductor memory, and outputs the information to the RAM 905.
  • the drive 915 can also write data on a removable recording medium 921 such as a mounted magnetic disk, optical disk, magneto-optical disk, or semiconductor memory.
  • the removable recording medium 921 is, for example, a CD medium, a DVD medium, a Blu-ray (registered trademark) medium, or the like.
  • the removable recording medium 921 may be a Compact Flash (registered trademark) (CompactFlash: CF), a flash memory, an SD memory card (Secure Digital memory card), or the like. Further, the removable recording medium 921 may be, for example, an IC card (Integrated Circuit card) on which a non-contact IC chip is mounted, or an electronic device.
  • CompactFlash registered trademark
  • SD memory card Secure Digital memory card
  • the connection port 917 is a port for directly connecting a device to the arithmetic processing device 200.
  • Examples of the connection port 917 include a USB (Universal Serial Bus) port, an IEEE 1394 port, a SCSI (Small Computer System Interface) port, an RS-232C port, and an HDMI (registered trademark) (High-Definition Multimedia, etc.) port.
  • the arithmetic processing device 200 acquires various data directly from the external connection device 923 or provides various data to the external connection device 923.
  • the communication device 919 is, for example, a communication interface including a communication device for connecting to the communication network 925.
  • the communication device 919 is, for example, a communication card for a wired or wireless LAN (Local Area Network), Bluetooth (registered trademark), or WUSB (Wireless USB).
  • the communication device 919 may be a router for optical communication, a router for ADSL (Asymmetric Digital Subscriber Line), a modem for various kinds of communication, or the like.
  • the communication device 919 can transmit and receive signals and the like to and from the Internet and other communication devices in accordance with a predetermined protocol such as TCP / IP.
  • a communication network 925 connected to the communication device 919 is configured by a network connected by wire or wirelessly, and is, for example, the Internet, a home LAN, an in-house LAN, infrared communication, radio wave communication, satellite communication, or the like. You may.
  • each of the above components may be configured using a general-purpose member, or may be configured by hardware specialized for the function of each component. Therefore, it is possible to appropriately change the hardware configuration to be used according to the technical level at the time of implementing the present embodiment.
  • the tubular body surface inspection apparatus 10 As described above, by using the tubular body surface inspection apparatus 10 according to each embodiment of the present invention, the inner surface of the tubular body is extended over the entire circumference in the pipe circumferential direction, over the entire length in the pipe axial direction, with higher speed, higher resolution and Inspection can be performed easily, and defects with minute unevenness and pattern-like defects can be simultaneously detected with high accuracy.
  • the tubular body surface inspection device 10 according to each embodiment of the present invention can accurately identify the position where a defect occurs, thereby improving the productivity and yield of a tubular body such as a steel pipe, and improving quality assurance. Can be greatly contributed to.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • General Health & Medical Sciences (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

【課題】管状体の大きさに依らず、管状体の内表面をより高速、高分解能かつ簡便に検査すること。 【解決手段】本発明に係る管状体内表面検査装置は、管状体の管軸方向に沿って移動しながら管状体の内表面に対して環状のレーザ光を照射し、環状のレーザ光が照射された内表面を撮像することで環状ビーム画像を生成する管状体撮像装置と、環状ビーム画像に対して画像処理を行い、管状体の内表面に欠陥が存在するかを判断する演算処理装置と、を備える。管状体撮像装置は、環状のレーザ光を照射する照明機構と、環状のレーザ光が照射された内表面を撮像するエリアカメラと、照明機構及びエリアカメラを連結して固定する連結部材と、を有する撮像ユニットが、連結部材の位置が撮像ユニット間で互いに異なり、かつ、管軸方向と同軸となるように、直列に複数連結されている。

Description

管状体内表面検査装置及び管状体内表面検査方法
 本発明は、管状体内表面検査装置及び管状体内表面検査方法に関する。
 鋼管のような金属管や樹脂製のパイプ等に代表される管状体の内表面を検査する管状体の内面検査は、特に鋼管のような金属管においては重要な検査項目の一つであり、通常は、管状体の製造工程とは別の工程を別途設けて、目視検査が行われている。
 管状体の目視検査は、検査員の技量に負う部分が大きく、特に、管状体の内表面を検査する内面検査は、目視検査を十分に実施することが困難となる。そのため、特に、管状体の軸方向深部において、破廉恥な疵の流出や重大クレームが発生する可能性がある。また、検査手法によっては、検出困難となる管状体内表面の凹凸も存在するため、管状体の内表面を直接監視することが重要である。
 このような管状体の内表面の検査方法として、光源の光を円錐ミラー又は円錐プリズムにより円盤状に照射させて、管状体内表面の反射光を撮像素子で撮像する撮像光学系を利用する方法がある。このような管状体の内表面の検査方法の一つに、以下の特許文献1~特許文献3に開示されているような方法がある。
 例えば以下の特許文献1には、光源の光を円錐ミラー又は円錐プリズムにより円盤状に照射する光源からなる照明光及び撮像センサによる撮像系により撮像光学系を構成し、かかる撮像光学系を一緒に逐次移動させながら、被検査物の内面に照射した照射光により得られる内面形状を表す光跡を撮像センサで撮像することで得られる光跡画像データから、撮像光学系の基準位置と被検査物内面との距離を逐次算出して被検査物内面形状を測定する技術が開示されている。
 また、以下の特許文献2には、管状体の軸方向に沿って移動しながら管状体の内表面に対して環状のレーザ光を照射して得られる環状ビーム画像から光切断画像を得ることで、結果的に内表面の凹凸キズと模様系キズとを同時かつ個別に検出する装置が開示されている。
 また、以下の特許文献3には、被検査体内面にリング状に広げたレーザ光を照射する光源部と、照射されたレーザ光の被検査体内面の反射光を撮像する撮像部と、を光学的に透明な管で同軸となるように配置し、撮像する際の透明管からのゴーストの発生を抑制するために、透明管に偏光の状態を制御する特性を付与した装置が開示されている。
特開2007-285891号公報 特開2012-159491号公報 特開2015-163844号公報
 ここで、環状のレーザ光を撮像する際のフレームレートは、用いるカメラの性能で決まるため、高速に光切断画像を逐次得ることが困難である。一般的に、光切断画像の撮像には二次元エリアカメラを利用する。この場合、検査に必要な管状体内面のレーザ光照射領域以外の無駄な領域を含めて撮像が行われるため、撮像フレームレートを向上することは困難である。また、処理に必要のないデータの転送時間も必要となることから、一般的な二次元エリアカメラは、高速な検査を実施したい場合には不適である。
 また、例えば内径250mm以上の中径管とも呼ばれる管状体を検査するためには、撮像画像の分解能を確保しながら(換言すれば、撮像画像のサイズを確保しながら)撮像するために、撮像画像のサイズを大きくする必要がある。そのため、結果としてフレームレートが低下してしまい、撮像に時間を要するようになってしまう。
 また、実際に管状体の検査を行う際には、光源を支持するための支持部材を用いることとなるが、エリアカメラにとっては、かかる支持部材によって環状のレーザ光が遮蔽されて、未撮像領域が発生してしまう。
 上記の未撮像領域の発生に関して、上記特許文献1又は特許文献3に開示されている技術では、光源を支持するための支持部材の影を無くすことは出来るが、光源への電圧供給ケーブル等を完全に排除することは出来ない。そのため、上記特許文献1及び特許文献3に開示されている技術では、未撮像領域の縮小は出来ても、未撮像領域を完全に無くすことは出来ない。また、被検査物である管状体が大きくなって長尺となれば、光源と撮像部との間隔が広くなることから、上記特許文献1及び特許文献3に開示されている技術では、撮像光学系の強度を確保するために、光源及び撮像部を支持する支持部材を設ける必要が生じる。
 上記特許文献2では、上記のような未撮像領域に関して、検査プローブの往路及び復路で撮像する領域をずらすようにして、未撮像領域を補完する技術が提案されている。しかしながら、検査プローブの移動位置を制御するためには装置が大きくなる可能性があり、簡便さが低下してしまう可能性がある。
 そこで、本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、管状体の大きさに依らず、管状体の内表面をより高速、高分解能かつ簡便に検査することが可能な、管状体内表面検査装置及び管状体内表面検査方法を提供することにある。
 上記課題を解決するために、本発明のある観点によれば、管状体の内表面に存在する欠陥を検出する管状体内表面検査装置において、レーザ光を照射するレーザ光源、前記レーザ光源から照射されたレーザ光を前記管状体の内表面の周方向に環状のレーザ光として反射する光学素子、前記管状体の内表面の前記環状のレーザ光が照射された領域を撮像することで、環状ビーム画像を生成するエリアカメラ、及び、前記レーザ光源と前記エリアカメラとを連結して固定する連結部材を有する撮像ユニットを、N(N≧2)個備え、それぞれの前記撮像ユニットを、前記管状体の管軸方向に沿って、前記連結部材の管軸に直交する面における位置が互いに異なるように直列に連結した管状体撮像装置と、前記管状体撮像装置を、前記管状体の管軸方向に沿って移動させる移動装置と、前記管状体撮像装置を前記移動装置で移動させながら、それぞれの前記撮像ユニットにおいて複数生成された前記環状ビーム画像に対して画像処理を行い、前記管状体の内表面に欠陥が存在するかを判断する演算処理装置と、を備える、管状体内表面検査装置が提供される。
 それぞれの前記撮像ユニットにおける前記エリアカメラは、前記エリアカメラの全視野のうち、前記環状のレーザ光が前記連結部材によって遮蔽されない領域であって、前記エリアカメラの全視野のうち、前記エリアカメラが備える撮像素子において当該撮像素子の各画素の電荷又は電圧に関する情報である画素情報が転送される方向である画素情報転送方向に対して直交する方向の端部にそれぞれに設定される端部領域に対応する部分を撮像することで、前記環状ビーム画像を複数生成することが好ましい。
 前記演算処理装置は、それぞれの前記撮像ユニットから得られた前記環状ビーム画像を用いて、前記環状のレーザ光の照射部分の重心位置と半径とを算出し、算出された前記重心位置、並びに、前記重心位置及び前記環状のレーザ光の照射部分との離隔量に基づいて、それぞれの前記撮像ユニットから得られた前記環状ビーム画像の座標系を極座標変換し、極座標変換で得られた前記環状のレーザ光の照射部分に対応する線分である光切断線を含む光切断画像を、それぞれの前記撮像ユニット毎に生成し、得られた前記それぞれの撮像ユニット毎の前記光切断画像を、それぞれ前記管軸方向に沿って順に配列させた部分縞画像フレームを生成し、前記部分縞画像フレームを、N個の前記撮像ユニットの位置関係に基づいて調整し、前記管軸に直交する面において接続して、縞画像フレームを生成し、前記縞画像フレームに基づいて、前記管状体の内表面の凹凸状態を表す深さ画像と、前記管状体の内表面における前記環状のレーザ光の輝度分布を表す輝度画像とを算出し、前記深さ画像及び前記輝度画像に基づいて、前記管状体の内表面に存在する欠陥を検出することが好ましい。
 前記演算処理装置は、それぞれの前記撮像ユニットから得られた前記環状ビーム画像を用いて、前記環状のレーザ光の照射部分の重心位置と半径とを算出し、算出された前記重心位置、並びに、前記重心位置及び前記環状のレーザ光の照射部分との離隔量に基づいて、それぞれの前記撮像ユニットから得られた前記環状ビーム画像の座標系を極座標変換し、極座標変換で得られた前記環状のレーザ光の照射部分に対応する線分である光切断線を含む光切断画像を、それぞれの前記撮像ユニット毎に生成し、得られた前記それぞれの撮像ユニット毎の前記光切断画像を、N個の前記撮像ユニットの位置関係に基づいて調整し、前記管軸に直交する面において接続することで、前記管軸方向に沿って順に配列させた縞画像フレームを生成し、前記縞画像フレームに基づいて、前記管状体の内表面の凹凸状態を表す深さ画像と、前記管状体の内表面における前記環状のレーザ光の輝度分布を表す輝度画像とを算出し、前記深さ画像及び前記輝度画像に基づいて、前記管状体の内表面に存在する欠陥を検出することが好ましい。
 前記それぞれの撮像ユニット毎の前記環状ビーム画像には、互いに一部重複する領域が存在することが好ましい。
 前記それぞれの撮像ユニットにおける前記レーザ光源から照射されるレーザ光の波長は、互いに相違しており、前記それぞれの撮像ユニットにおける前記エリアカメラの前段には、当該エリアカメラと同一の前記撮像ユニットに属する前記レーザ光源のレーザ光と同一の波長の光を透過させる波長選択フィルタが設けられてもよい。
 複数の前記撮像ユニット間において、前記エリアカメラ、前記レーザ光源、及び、前記光学素子が、(エリアカメラ、レーザ光源、光学素子)(光学素子、レーザ光源、エリアカメラ)・・・の並び順で並ぶように、N個の前記撮像ユニットが連結されていてもよい。
 複数の前記撮像ユニット間において、前記光学素子、前記レーザ光源、及び、前記エリアカメラが、(光学素子、レーザ光源、エリアカメラ)(エリアカメラ、レーザ光源、光学素子)・・・の並び順で並ぶように、N個の前記撮像ユニットが連結されていてもよい。
 複数の前記撮像ユニット間において、前記エリアカメラ、前記レーザ光源、及び、前記光学素子が、(エリアカメラ、レーザ光源、光学素子)の並び順を繰り返すように、N個の前記撮像ユニットが連結されていてもよい。
 また、上記課題を解決するために、本発明の別の観点によれば、管状体の内表面に存在する欠陥を検出する管状体内表面検査方法において、レーザ光を照射するレーザ光源、前記レーザ光源から照射されたレーザ光を前記管状体の内表面の周方向に環状のレーザ光として反射する光学素子、前記管状体の内表面の前記環状のレーザ光が照射された領域を撮像することで、環状ビーム画像を生成するエリアカメラ、及び、前記レーザ光源と前記エリアカメラとを連結して固定する連結部材を有する撮像ユニットを、N(N≧2)個備え、それぞれの前記撮像ユニットを、前記管状体の管軸方向に沿って、前記連結部材の管軸に直交する面における位置が互いに異なるように直列に連結した管状体撮像装置と、前記管状体撮像装置を、前記管状体の管軸方向に沿って移動させる移動装置と、前記管状体撮像装置を前記移動装置で移動させながら、それぞれの前記撮像ユニットにおいて複数生成された前記環状ビーム画像に対して画像処理を行い、前記管状体の内表面に欠陥が存在するかを判断する演算処理装置と、を備える、管状体内表面検査装置を用い、それぞれの前記撮像ユニットから得られた前記環状ビーム画像を用いて、前記環状のレーザ光の照射部分の重心位置と半径とを算出するステップと、算出された前記重心位置、並びに、前記重心位置及び前記環状のレーザ光の照射部分との離隔量に基づいて、それぞれの前記撮像ユニットから得られた前記環状ビーム画像の座標系を極座標変換し、極座標変換で得られた前記環状のレーザ光の照射部分に対応する線分である光切断線を含む光切断画像を、それぞれの前記撮像ユニット毎に生成するステップと、得られた前記それぞれの撮像ユニット毎の前記光切断画像を、それぞれ前記管軸方向に沿って順に配列させた部分縞画像フレームを生成した後、生成した前記部分縞画像フレームを、N個の前記撮像ユニットの位置関係に基づいて調整し、前記管軸に直交する面において接続して、縞画像フレームを生成するか、又は、得られた前記それぞれの撮像ユニット毎の前記光切断画像を、N個の前記撮像ユニットの位置関係に基づいて調整し、前記管軸に直交する面において接続することで、前記管軸方向に沿って順に配列させた縞画像フレームを生成するステップと、前記縞画像フレームに基づいて、前記管状体の内表面の凹凸状態を表す深さ画像と、前記管状体の内表面における前記環状のレーザ光の輝度分布を表す輝度画像とを算出するステップと、前記深さ画像及び前記輝度画像に基づいて、前記管状体の内表面に存在する欠陥を検出するステップと、を有する、管状体内表面検査方法が提供される。
 それぞれの前記撮像ユニットにおける前記エリアカメラは、前記エリアカメラの全視野のうち、前記環状のレーザ光が前記連結部材によって遮蔽されない領域であって、前記エリアカメラの全視野のうち、前記エリアカメラが備える撮像素子において当該撮像素子の各画素の電荷又は電圧に関する情報である画素情報が転送される方向である画素情報転送方向に対して直交する方向の端部にそれぞれに設定される端部領域に対応する部分を撮像することで、前記環状ビーム画像を複数生成してもよい。
 前記それぞれの撮像ユニット毎の前記環状ビーム画像には、互いに一部重複する領域が存在することが好ましい。
 前記それぞれの撮像ユニットにおける前記レーザ光源から照射されるレーザ光の波長は、互いに相違しており、前記それぞれの撮像ユニットにおける前記エリアカメラの前段には、当該エリアカメラと同一の前記撮像ユニットに属する前記レーザ光源のレーザ光と同一の波長の光を透過させる波長選択フィルタが設けられていてもよい。
 複数の前記撮像ユニット間において、前記エリアカメラ、前記レーザ光源、及び、前記光学素子が、(エリアカメラ、レーザ光源、光学素子)(光学素子、レーザ光源、エリアカメラ)・・・の並び順で並ぶように、N個の前記撮像ユニットが連結されていてもよい。
 複数の前記撮像ユニット間において、前記光学素子、前記レーザ光源、及び、前記エリアカメラが、(光学素子、レーザ光源、エリアカメラ)(エリアカメラ、レーザ光源、光学素子)・・・の並び順で並ぶように、N個の前記撮像ユニットが連結されていてもよい。
 複数の前記撮像ユニット間において、前記エリアカメラ、前記レーザ光源、及び、前記光学素子が、(エリアカメラ、レーザ光源、光学素子)の並び順を繰り返すように、N個の前記撮像ユニットが連結されていてもよい。
 以上説明したように本発明によれば、管状体の大きさに依らず、管状体の内表面をより高速、高分解能かつ簡便に検査することが可能となる。
本発明の実施形態に係る管状体内表面検査装置の全体的な構成を模式的に示したブロック図である。 同実施形態に係る管状体撮像装置の構成の一例を模式的に示した説明図である。 同実施形態に係る管状体撮像装置について説明するための説明図である。 同実施形態に係る管状体撮像装置について説明するための説明図である。 同実施形態に係る管状体撮像装置について説明するための説明図である。 同実施形態に係る管状体撮像装置について説明するための説明図である。 同実施形態に係る管状体撮像装置について説明するための説明図である。 同実施形態に係る管状体撮像装置について説明するための説明図である。 同実施形態に係る管状体撮像装置について説明するための説明図である。 同実施形態に係る演算処理装置が有する画像処理部の構成の一例を示したブロック図である。 同実施形態に係る重心位置及び半径の算出処理について説明するための説明図である。 同実施形態に係る座標変換処理について説明するための説明図である。 同実施形態に係る部分縞画像フレームの生成処理の一例を示した説明図である。 同実施形態に係る縞画像フレームの生成処理の一例を示した説明図である。 同実施形態に係る光切断線処理について説明するための説明図である。 同実施形態に係る光切断線処理について説明するための説明図である。 同実施形態に係る光切断線変位の二次元配列を示した説明図である。 同実施形態に係る輝度の総和の二次元配列を示した説明図である。 同実施形態に係る輝線の画素数の二次元配列を示した説明図である。 光切断線の変位と欠陥の高さとの関係を示した説明図である。 同実施形態に係る光切断線の近似補正処理を説明するための説明図である。 同実施形態に係る欠陥検出処理で用いられるロジックテーブルの一例を模式的に示した説明図である。 同実施形態に係る管状体撮像装置の他の構成例を模式的に示した説明図である。 同実施形態に係る管状体撮像装置の他の構成例を模式的に示した説明図である。 同実施形態に係る管状体内表面検査方法の流れの一例を示した流れ図である。 本発明の第2の実施形態に係る管状体撮像装置の構成の一例を模式的に示した説明図である。 同実施形態に係る管状体撮像装置について説明するための説明図である。 本発明の各実施形態に係る演算処理装置のハードウェア構成の一例を模式的に示したブロック図である。
 以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
(第1の実施形態)
<管状体内表面検査装置の全体構成について>
 まず、図1及び図2を参照しながら、本発明の実施形態に係る管状体内表面検査装置10の全体構成について説明する。図1は、本実施形態に係る管状体内表面検査装置10の構成の一例を示した説明図である。図2は、本実施形態に係る管状体撮像装置の構成の一例を模式的に示した説明図である。
 本実施形態に係る管状体内表面検査装置10は、管状体1の内表面を撮像して、撮像の結果得られる画像を画像処理することにより、管状体1の内表面を検査する装置である。本実施形態に係る管状体内表面検査装置10は、より詳細には、管状体1の内表面に表面欠陥(凹凸疵及び模様系の疵)が存在するか否かを検査する装置である。
 なお、本実施形態に係る管状体1は、中空部を有する管状のものであれば、特に限定されるものではない。かかる管状体1の例として、スパイラル鋼管、電縫鋼管、UO鋼管、継目無鋼管(シームレス鋼管)、鍛接鋼管、TIG溶接鋼管等の各種鋼管に代表される金属管やパイプのみならず、熱間押出法で使用されるコンテナと称するシリンダー等の管状物を挙げることができる。
 本実施形態に係る管状体内表面検査装置10は、図1に示したように、管状体1の内表面を撮像する管状体撮像装置100と、撮像の結果得られる画像に対して画像処理を行う演算処理装置200と、を主に備える。
 管状体撮像装置100は、管状体1の中空部に設置される。この管状体撮像装置100は、管状体1の管軸方向に沿って位置を随時変更しながら、当該管状体1の内表面を管軸方向に沿って順次撮像し、撮像の結果得られる撮像画像を、演算処理装置200に出力する装置である。ここで、管状体撮像装置100の移動に伴い、PLG(Pulse Logic Generator:パルス型速度検出器)等からPLG信号が演算処理装置200に出力される。また、管状体撮像装置100は、演算処理装置200によって、管状体1の撮像タイミング等が制御されている。
 かかる管状体撮像装置100については、以下で改めて詳細に説明する。
 また、演算処理装置200は、管状体撮像装置100によって生成された撮像画像を利用して縞画像フレームを生成し、この縞画像フレームに対して画像処理を行うことで、管状体1の内表面に存在している可能性のある欠陥を検出する装置である。
 かかる演算処理装置200についても、以下で改めて詳細に説明する。
 なお、本実施形態に係る管状体内表面検査装置10は、図1に示した装置以外にも、例えば、管状体撮像装置100の管軸方向の移動を制御する駆動制御装置を有していても良い。この場合、かかる駆動制御装置は、演算処理装置200による制御のもとで、管状体撮像装置100を支持する支持バー134(図2を参照。)の移動を制御することで、管状体撮像装置100の管軸方向の移動の制御を行う。
<管状体撮像装置100の構成について>
 続いて、図2~図5Bを参照しながら、本実施形態に係る管状体撮像装置100の構成について、詳細に説明する。図2は、本実施形態に係る管状体撮像装置の構成の一例を模式的に示した説明図である。図3A~図5Bは、本実施形態に係る管状体撮像装置について説明するための説明図である。
 本実施形態に係る管状体撮像装置100は、照明機構110と、エリアカメラ120と、照明機構110及びエリアカメラ120のそれぞれが固定される保持基板131と、2つの保持基板131を連結する支柱である連結部材133と、を有する撮像ユニット101が、管状体1の管軸方向に2つ連結された構造を有している。図2に模式的に示したように、2つの撮像ユニット101は、それぞれの照明機構110が取り付けられた側の保持基板131を共有しており、2つの撮像ユニット101が、管軸方向に沿って対向するように、かつ、連結部材133の、管軸に直交する面における位置が撮像ユニット101間で互いに異なる(好ましくは90°ずれる)ように、直列に2つ連結されている。
 図2に示したように、撮像ユニット101を2つ設けることはコストの増加につながる。また、従来の検査装置において、検査装置の送入時から送出時へと移行する際に、検査装置を回転させることで、上記の未撮像領域の撮像が可能であった。そのため、本実施形態に係る管状体撮像装置100のように、撮像ユニット101を2つ設けるという発想は、従来想起し得ないものであった。
 以下では、管状体撮像装置100を構成する二つの撮像ユニット101を、便宜的に、それぞれ、撮像ユニット101A(第一撮像ユニット)及び撮像ユニット101B(第二撮像ユニット)と称する。また、撮像ユニット101Aにおける照明機構110及びエリアカメラ120を、便宜的に、照明機構110A及びエリアカメラ120Aと区別することがある。同様に、撮像ユニット101Bにおける照明機構110及びエリアカメラ120を、便宜的に、照明機構110B及びエリアカメラ120Bと区別することがある。
 以下では、まず、それぞれの撮像ユニット101を構成する部材について、詳細に説明する。
 照明機構110は、管状体1の内表面に対して所定の光を照射することで、管状体1の内表面を照明する機構である。この照明機構110は、管状体1の内表面の全周方向に対して環状のレーザ光を照射するレーザ光照射装置を少なくとも有している。
 かかるレーザ光照射装置は、管状体1の内表面の管周方向に沿って環状のレーザ光(以下、「環状ビーム」ともいう。)を照射する装置であり、図2に示したように、レーザ光源111と、円錐状の光学素子113と、を有している。
 レーザ光源111は、所定の波長を有するレーザ光を発振する光源である。このようなレーザ光源111として、例えば、連続的にレーザ発振を行うCWレーザ光源を用いることが可能である。レーザ光源111が発振する光の波長は、特に限定されるものではないが、例えば、400nm~800nm程度の可視光帯域に属する波長であることが好ましい。レーザ光源111は、後述する演算処理装置200から送出される照射タイミング制御信号に基づいて、レーザ光の発振を行い、管状体1の管軸方向に沿ってレーザ光を照射する。
 円錐状の光学素子113は、円錐形状のミラー又はプリズムを備える光学素子であり、円錐部の頂点がレーザ光源111と対向するように設置されている。レーザ光源111から射出されたスポット状のレーザ光は、光学素子113の円錐部の頂点によって反射され、管状体1の内表面に対してリング状にラインビームが発生する。ここで、円錐部の円錐角が90°である場合には、図2に示したように、レーザ光源111からのレーザ入射方向に対して直角方向に、環状ビームが照射される。
 エリアカメラ120は、図2に示すように、照明機構110の管軸方向に沿った光の照射方向を基準として、照明機構110の後方に設けられている。エリアカメラ120には、CCD(Charge Coupled Device)、又は、CMOS(Complementary Metal Oxide Semiconductor)等の撮像素子が搭載されている。かかるエリアカメラ120は、モノクロカメラであってもよいし、カラーカメラであってもよい。各エリアカメラ120A,120Bは、管状体1の内表面に垂直に照射された環状ビームを、図2に示したように、それぞれ角度φ,φの方向から撮像して、内表面における環状ビームの撮像画像から、後述する撮像対象領域(いわゆる、関心領域(Region Of Interest:ROI))に対応する画像である環状ビーム画像をそれぞれ生成する。
 また、本実施形態に係るエリアカメラ120は、撮像可能な全視野のうち所定の領域のみを撮像対象領域(ROI)として設定可能なカメラである。エリアカメラ120に設けられている撮像素子では、一般的に、撮像素子の所定の方向(例えば、撮像素子を構成する画素群の配列における水平方向、又は、当該水平方向に対して直交する方向である垂直方向)に沿って、撮像素子の各画素に蓄えられた電荷を転送する処理(撮像素子がCCDである場合)、又は、撮像素子の各画素の電圧を転送する処理(撮像素子がCMOSである場合)が行われる。ここで、撮像素子の各画素に蓄えられた電荷に関する情報、又は、撮像素子の各画素の電圧に関する情報を、以下では、「画素情報」といい、かかる画素情報が転送される方向を、以下では、「画素情報転送方向」ということがある。撮像素子における画素情報転送方向は、撮像素子の製造時等に予め決定されている事項であり、撮像素子の仕様等を確認することで予め把握することができる。
 かかるエリアカメラ120において、例えば画素情報転送方向が水平方向である撮像素子が設けられていた場合に、当該エリアカメラ120では、例えば、撮像可能な全視野のうち、画素情報転送方向に対して垂直な方向である垂直方向の一部の範囲に、撮像対象領域(ROI)が設定される。エリアカメラ120は、撮像対象領域(ROI)として設定された撮像画像の垂直方向の一部の範囲について、撮像素子の各画素の電荷又は電圧に関する画素情報を水平方向に転送することで、撮像対象領域(ROI)として設定された垂直方向の一部の範囲の画像のみを、撮像可能な全視野から抽出することができる。撮像可能な全視野の中から、撮像対象領域(ROI)として設定された垂直方向の一部の範囲の画像のみを抽出することで、撮像対象領域(ROI)が設定されていない場合と比較して、画素情報の転送時間を短縮することができる。その結果、本実施形態に係る管状体撮像装置100では、管状体1の内表面を、より高い撮像フレームレートで撮像することが可能となり、ひいては、管状体1の内表面をより高速に撮像することが可能となる。
 エリアカメラ120に搭載されるレンズの焦点距離や画角、及び、照明機構110とエリアカメラ120の撮像素子との間の距離は特に限定するものではないが、管状体1の内表面に照射された環状ビームの全体像を撮像可能なように選択することが好ましい。また、エリアカメラ120に搭載される撮像素子の大きさや画素サイズも特に限定するものではないが、生成される画像の画質や画像分解能等を考慮すると、サイズの大きな撮像素子を利用することが好ましい。また、以下で説明する画像処理の観点から、環状ビームのライン幅(線幅)は、撮像素子上で1~3画素程度であるように調整されることが好ましい。なお、エリアカメラ120Aとエリアカメラ120Bとの間で、レンズの焦点距離や画角、照明機構110とエリアカメラ120の撮像素子との間の距離等といった各種の撮像条件は、同一の設定とすることが重要である。
 このような照明機構110とエリアカメラ120とは、照明機構110から照射されるレーザ光の中心軸と、エリアカメラ120の中心軸(光軸)とが同軸となるように配置されて、2つの保持基板131に固定されている。
 本実施形態に係る管状体撮像装置100では、上記のような撮像ユニット101を2つ有しており、撮像ユニット101A,101Bは、連結部材133の管軸に直交する面における位置が、撮像ユニット間で互いに異なるように、直列に連結されている。そのため、連結部材133A及び連結部材133Bが、それぞれ、エリアカメラ120A及びエリアカメラ120Bの視野において遮る領域は、管軸に直交する面において異なることになる。従って、エリアカメラ120A及びエリアカメラ120Bの両方で、管状体1の内表面を走査撮像すると、視野が欠けることなく、内表面全体を撮像することが可能となる。特に、2つの撮像ユニット101A,101Bを、管軸に直交する面において、連結部材133A及び連結部材133Bが90°ずれるように直列に連結すると、後述する演算処理において無駄がなく効率的であり、好適である。
 ここで、各撮像ユニット101において、環状ビームと、エリアカメラ120の画角を定める境界線と、のなす角φ1,φについて、|φ|=|φ|という関係が成立している。また、角度|φ|,|φ|は、任意の値に設定することが可能であるが、例えば30~60度程度とすることが好ましい。かかる角度をあまり大きくすると環状ビームの管状体1の内面からの散乱光(反射光)が弱くなり、また小さくすると、検査対象物である管状体1の深さ変化量に対して、後述する縞画像における縞の移動量が小さくなり、管状体1の内表面に存在する凹部の深さ(又は、凸部の高さ)に関する情報が劣化するためである。
 ここで、各撮像ユニット101A,101Bから照射される環状ビームの波長が互いに等しい場合には、各環状ビームの内表面における照射位置は、図2に模式的に示したように、所定の大きさDだけ離隔していることが好ましい。かかるオフセットDの大きさは、管状体1の内表面に存在しうる凹凸に伴う環状ビームの照射位置の変動量を考慮して、かかる変動量よりも大きな値となるように設定されることが好ましい。オフセットDの大きさが、変動量よりも小さな値に設定されている場合、撮像ユニット101Aの環状ビームの照射位置に存在しうる凹凸に起因する変動と、撮像ユニット101Bの環状ビームの照射位置に存在しうる凹凸に起因する変動と、を区別することが出来なくなるからである。
 なお、オフセットDが大きすぎる場合、管状体撮像装置100の大きさが大きくなりすぎ、装置の取り扱いが困難となることがある。また、管状体の内表面の管軸方向全体を検査するためには、管状体撮像装置100を、管状体の全長よりも、少なくともオフセットD以上長く管軸方向に沿って移動させることが求められる。しかしながら、設備制約等に起因して管状体撮像装置100を十分に長く移動させられない場合が生じたとき、管状体の端部に検査できない領域が発生してしまう。そのため、オフセットDの大きさは、設備制約等により管状体の端部に検査できない領域が発生しないように、設定されることが好ましい。
 また、オフセットDが小さすぎる場合、上記のように、1つのエリアカメラ120から見える2つの環状ビームが凹凸が発生している部位で重なってしまい、正確な撮像が困難となる。ここで、検出対象とする凹凸の最大深さ及び最大高さを、hmaxとする。また、図2において、撮像ユニット101Bの環状ビームの照射位置を、撮像ユニット101Aのエリアカメラ120Aで見たときの画角を、φ’と表すこととする。この際に、オフセットDが小さいときは、角度|φ’|≒|φ|とみなすことができる。一方、以下で説明するように、環状ビームの照射位置に起因する光切断線の変位量Δdと、管状体の内表面に生じている凹凸の深さ/高さΔhとは、Δd=Δh・sinφの関係が成立する。そのため、2つの環状ビームが重ならないためには、D>2・hmax×sinφの関係が成立することが好ましい。例えば、角度|φ|=45°であり、hmax=5mmの場合、オフセットDの大きさは、2×5×sin45°=7.1mmよりも大きいことが好ましい。
 なお、各撮像ユニット101A,101Bから照射される環状ビームの波長が互いに異なる場合には、図2に示したようなオフセットDの値は、適宜設定すればよい。各撮像ユニット101において、各撮像ユニット101におけるエリアカメラ120が有する撮像素子の前段に、該当する撮像ユニット101におけるレーザ光と同一の波長の光を透過させる波長選択フィルタを設置することで、各撮像ユニット101では、かかる撮像ユニット101に属する照明機構110からの環状ビームを選択的に結像させることができる。これにより、撮像ユニット101間の環状ビームの混色を防止して、撮像ユニット101Aの環状ビームの照射位置に存在しうる凹凸に起因する変動と、撮像ユニット101Bの環状ビームの照射位置に存在しうる凹凸に起因する変動と、を区別することが可能だからである。
 上記のような2つの撮像ユニット101A,101Bから構成される管状体撮像装置100は、図2に模式的に示したように、支持バー134によって支持されており、演算処理装置200の制御のもとで、支持バー134を管軸方向に移動させる移動装置として機能させ、照明機構110A,110B及びエリアカメラ120A,120Bを、管状体1の中心軸に略一致するように管軸方向に移動させながら、管状体1の内表面を走査及び撮像することができる。
 ここで、後述する演算処理装置200は、管状体撮像装置100が管軸方向に所定距離移動する毎に、エリアカメラ120A,120Bに対して撮像のためのトリガ信号を出力する。照明機構110及びエリアカメラ120の管軸方向の移動間隔は、適宜設定することが可能であるが、例えば、エリアカメラ120に設けられた撮像素子の画素サイズと同一にすることが好ましい。管軸方向の移動間隔と撮像素子の画素サイズとを一致させることで、撮像された画像において縦方向の分解能と横方向の分解能とを一致させることができる。
 保持基板131の素材については、管状体撮像装置100に求められる強度等に応じて適宜選択することが好ましい。また、連結部材133については、管状体撮像装置100が撓まない限り、その素材は限定されないが、ガラス製等のような、環状ビームの波長に対して透明とみなすことができる素材を用いることも可能である。また、連結部材133の本数について、図2では、連結部材133が2本存在する場合を図示しているが、連結部材133の本数は、管状体撮像装置100に求められる強度に応じて適宜設定すればよく、1本であってもよいし、3本以上であってもよい。
 なお、上記のように各エリアカメラ120A、120Bには、撮像対象領域(ROI)が設定されるが、3本以上の連結部材133を設ける場合、それぞれの連結部材133の設置位置が、撮像視野において撮像対象領域(ROI)が設定されていない領域に属するように、保持基板131の縁部に、当該保持基板131の管周方向に沿って配置されることが好ましい。
 図3A及び図3Bは、送入時における各エリアカメラ120の視野の様子を模式的に示したものである。図3A及び図3Bは、それぞれ、(撮像ユニットの水平及び垂直ではなく)エリアカメラ120の垂直及び水平(より詳細には、エリアカメラ120に設けられた撮像素子における垂直及び水平)を基準とした、垂直及び水平に基づいて示されている。
 上記のような管状体撮像装置100において、各エリアカメラ120の視野(エリアカメラ120を基準とした垂直方向画素×水平方向画素=H画素×W画素)内には、図3A及び図3Bに模式的に示したように、各照明機構110A,110Bから照射される環状レーザ光に加えて、照明機構110、保持基板131、連結部材133が存在している。また、連結部材133によって内表面における環状ビームの一部が遮蔽されて、環状レーザ光が観測できない領域が発生している。本実施形態に係る管状体撮像装置100では、高解像度を維持したままの撮像処理の高速化と、連結部材133によって環状レーザ光が観測できない領域の発生への対処を目的として、図4A及び図4Bに模式的に示したように、各エリアカメラ120に対して、撮像可能な全視野のうち所定の領域のみを取り扱うための撮像対象領域ROIを、撮像素子の画素情報転送方向(図4A及び図4Bの場合、水平方向)に対して直交する方向(図4A及び図4Bの場合、垂直方向)のそれぞれの端部領域に2箇所設定する。すなわち、エリアカメラ120で撮像した画像のうち、撮像対象領域ROIに対応する画像だけを、環状ビーム画像として取り扱い、演算処理装置200に送信することで、後述する画像処理を行うようにする。
 いま、エリアカメラ120Aに設定される撮像対象領域ROIを、便宜的に、ROI_1A及びROI_2Aと称することとし、エリアカメラ120Bに設定される撮像対象領域ROIを、便宜的に、ROI_1B及びROI_2Bと称することとする。また、ROI_1A及びROI_IBに対応する部分を、便宜的に、撮像可能な全視野における上側と称することとし、ROI_2A及びROI_2Bに対応する部分を、便宜的に、撮像可能な全視野における下側と称することとする。
 図4A及び図4Bは、それぞれ、(管状体撮像装置100の水平及び垂直ではなく)エリアカメラ120の垂直及び水平を基準とした、垂直及び水平に基づいて示されている。
 各エリアカメラ120A,120Bでは、図4A及び図4Bに模式的に示したように、エリアカメラ120の全視野のうち、管状体1の管軸方向と直交し、エリアカメラ120の撮像素子の画素情報を転送する方向を長手方向とし、エリアカメラ120の全視野のうち連結部材133によって環状のレーザ光が遮蔽される部分を含まないように、エリアカメラ120の全視野のうちの上側端部及び下側端部に、それぞれ、矩形の撮像対象領域(ROI)が設定される。
 また、エリアカメラ120の全視野のうちの上側端部及び下側端部にそれぞれ設定される撮像対象領域(ROI)以外の領域には、図4Cに模式的に示したように、複数の連結部材133が存在していてもよい。従って、管状体撮像装置100の管軸方向の撓みを防止するために、撮像ユニット101に対して所定の強度を求めるのであれば、この2つの撮像対象領域(ROI)以外の領域に複数の連結部材133が位置するように、管状体撮像装置100における連結部材133の配置を適宜決定すればよい。
 なお、撮像対象領域(ROI)を、エリアカメラ120の全視野のうちの上側端部及び下側端部に設定しているのは、エリアカメラ120が、撮像素子の各画素の電荷又は電圧に関する画素情報を、水平方向に転送することに対応して、画像の一領域を欠けなく抽出できるようにするためである。そのため、エリアカメラ120が、撮像素子の各画素の電荷又は電圧に関する画素情報を垂直方向に転送するものである場合には、撮像対象領域(ROI)を、エリアカメラ120の全視野のうちの左側端部及び右側端部に設定することも可能である。
 また、それぞれの撮像ユニット101A,101Bにおけるエリアカメラ120A,120Bでは、それぞれ設定される2つの撮像対象領域(ROI)に係る画像について、互いに一部重複する領域が存在するように、撮像対象領域(ROI)の長手方向に直交する方向の大きさが決定されることが好ましい。
 以下では、図2に示したような構造を有している管状体撮像装置100に着目して、本実施形態における撮像対象領域(ROI)の設定方法について、図4A及び図4Bを参照しながら詳細に説明する。
 ここで、図2に示した例では、撮像ユニット101A及び撮像ユニット101Bは、エリアカメラ120A,120Bが、管状体1の管軸方向に沿って互いに対向する向きになるように配置されており、かつ、撮像ユニット101Bは、撮像ユニット101Aと比べて、管軸方向に直交する面において反時計方向に90度回転した状態で設置されている。従って、図4Aに示したエリアカメラ120Aにより撮像される画像は、図4Bに示したエリアカメラ120Bにより撮像される画像とは、90度ずれ、管軸方向の表裏を撮像する関係となっている。
 また、各撮像ユニット101A,101Bにおいて、エリアカメラ120A,120Bに近い側にある環状ビームが、図4A及び図4Bに示したように、より大きな径で写りこむ。本実施形態では、より大きな径で写りこむ環状ビームを利用して、以下で詳述するような画像処理が実施される。以下では、より大きな径を有する環状ビームの半径をRと表すこととする。また、以下で詳述する画像処理では、半径Rで表される位置を中心として、R±ΔRの範囲に位置する環状ビーム画像が用いられる。従って、各エリアカメラ120A,120Bにおいて設定される撮像対象領域(ROI)は、後段の画像処理で用いられる画像領域を少なくとも含むように設定されることが好ましい。
 以下では、エリアカメラ120A,120Bに搭載された撮像素子の大きさが、例えば、H(エリアカメラ120を基準とした垂直方向の画素)=1200画素×W(エリアカメラ120を基準とした水平方向の画素)=1920画素である場合を例に挙げる。また、各撮像素子において左上隅の位置を、画素位置を示す座標系における原点(0,0)であるとする。
 本実施形態に係るエリアカメラ120A,120Bでは、先だって言及したように矩形の撮像対象領域(ROI)が設定される。すなわち、かかる撮像対象領域(ROI)の撮像素子水平方向の画素数は、それぞれW画素となる。
 また、本実施形態に係る管状体内表面検査装置10では、以下で詳述するように、2つのエリアカメラ120A,120Bで撮像される環状ビーム画像をそれぞれ利用して、連結部材133に起因して環状レーザ光が観測できない領域に該当する部分の環状ビーム画像を補完する。図4A及び図4Bに模式的に示したように、4つの撮像対象領域(ROI)での環状ビーム画像を用いて、管状体1の内表面の全周分の環状ビーム画像を確保するわけであるから、1つの撮像対象領域(ROI)中に撮像される環状ビーム画像は、環状ビームの中心を基準として、±θ=45度の範囲を少なくとも含むこと(換言すれば、1つの撮像対象領域(ROI)中に、環状ビームの全周に対して1/4以上の孤長の環状ビームが含まれること)が重要である。
 かかる観点のもと、本実施形態において、エリアカメラ120Aにおける撮像対象領域ROI_1Aは、エリアカメラ120Aの垂直、水平を基準として、(0,0)の画素座標から幅W×高さhの矩形領域として設定され、撮像素子垂直方向の画素数hは、以下の式(101)~式(103)により、規定される。
  h=A+ΔA ・・・式(101)
  A=H/2-Rcosθ ・・・式(103)
  ΔA=ΔR・cosθ+α ・・・式(105)
 ここで、上記式(101)及び式(103)から明らかなように、画素数Aに対応する部分が、±θ=45度の範囲の環状ビームを含む領域に該当する。また、上記式(101)及び式(105)から明らかなように、画素数ΔAに対応する部分が、後段の画像処理で用いられる環状ビーム画像の大きさと、2つの撮像ユニット101A,101B間で互いに一部重複する撮像対象領域(ROI)と、を共に確保するために設定される領域に該当する。また、上記式(105)におけるパラメータαは、振動等による許容設定値であり、例えば、5画素程度とすることができる。また、ΔRの値は、検査対象物である管状体1の内径、及び、エリアカメラ120に搭載される撮像素子の画素サイズ等に応じて適宜設定すればよいが、管状体の内径が400mmであり、撮像素子の画素サイズが0.4mm×0.4mmである場合、内径400mmは1000画素分に対応するため、例えば、ΔRを、25画素程度とすることができる。
 同様に、エリアカメラ120Aにおける下側の撮像対象領域ROI_2Aは、エリアカメラ120Bの垂直、水平を基準として、(0,H-h)から幅W×高さhの矩形領域として、上記式(101)~式(105)と同様に設定される。
 また、エリアカメラ120Bにおける上側の撮像対象領域ROI_1B及び下側の撮像対象領域ROI_2Bについても、エリアカメラ120Aと同様に設定される。エリアカメラ120Bは、エリアカメラ120Aに対して反時計方向に90度回転しているのみであるため、カメラ上の設定値をエリアカメラ120Aと同一とすることが出来るからである。
 このような、撮像対象領域(ROI)を設定可能なエリアカメラでは、カメラの全撮像領域に対する撮像対象領域(ROI)の面積の比率に対応して、カメラの撮像フレームレートを速くして撮像することが可能となる。その結果、より細かい周期でレーザ光による光切断線を得ることが可能となる。すなわち、エリアカメラの全撮像領域に対して、撮像対象領域の領域面積を1/2、1/3、1/4・・・と設定することで、撮像素子における画素情報転送量が、撮像対象領域(ROI)を設定しない場合と比較して、ほぼ1/2、1/3、1/4・・・・と減少する結果、撮像フレームレートについても、ほぼ1/2、1/3、1/4・・・と高速化した画像取り込みが可能となる。エリアカメラの撮像画像読み込み周期を高速化した場合、走査方向に対して直交する方向(すなわち、本例では垂直方向)の分解能を向上させた画像を得ることができる。従って、本実施形態に係る管状体撮像装置100では、より高速、高分解能かつ簡便に、管状体の内表面を撮像することが可能となる。
 なお、本実施形態において、撮像フレームレートの具体的な値は、求められる撮像レート等に応じて適宜設定すればよいが、例えば、2つの撮像対象領域合計での撮像フレームレートは、通常の撮像フレームレート(すなわち、エリアカメラの全撮像領域を撮像する場合のフレームレート)の2倍程度の値である、300fps程度とすることができる。
 なお、一般的なエリアカメラに搭載される撮像素子は、エリアカメラ120の撮像素子の画素情報を転送する方向(図4A及び図4Bの場合は、撮像画像の長手方向)の撮像対象領域(ROI)の幅を小さくしたとしてもフレームレートは向上しないため、先だって言及したように、撮像対象領域(ROI)の幅Wは、エリアカメラ120の画素情報を転送する方向の幅Wと同一でよい。
 また、エリアカメラ120の撮像素子の画素情報を転送する方向とは直交する方向の撮像対象領域(ROI)の幅を小さくする場合には、フレームレートが向上することが期待されるが、その場合には、上記の高さhに対応して、幅wを以下の式(107)で算出すればよい。
  w=2×(Rsinθ+ΔA) ・・・式(107)
 その上で、上側の撮像対象領域ROI_1Aは、(W/2-Rsinθ-ΔA,0)の座標から幅w×高さhの矩形領域を設定し、撮像対象領域ROI_2Aは、(W/2-Rsinθ-ΔA,H-h)の座標から幅w×高さhの矩形領域を、それぞれ設定してもよい。
 なお、上記のような各エリアカメラ120A,120Bにおける撮像対象領域ROI_1A、ROI_2A、ROI_1B、ROI_2Bの設定値は、検査対象物である管状体1のサイズ(内径等)に応じて、プリセット値としてルックアップテーブル等を予め作成しておいて、後述する演算処理装置200の記憶部等に格納しておき、演算処理装置200がエリアカメラ120の撮像制御を行う際に、かかるルックアップテーブル等を参照することで、容易に設定可能としておくことが好ましい。
 各エリアカメラ120A,120Bに対して、各エリアカメラ120において2種類の撮像対象領域(ROI)、2つのエリアカメラ120A,120Bにおいて計4種類の撮像対象領域(ROI)が設定されることで、図5A及び図5Bに示したような環状ビーム画像が生成されることとなる。
 以下に、本実施形態に係る管状体撮像装置100の有する各装置について、その具体的な構成や設定値等を列挙する。かかる構成や設定値等はあくまでも一例であって、本発明に係る管状体撮像装置100が、以下の具体例に限定されるわけではない。
○管状体
 内径100mm~500mm、長さ10m~20m
○照明機構110
 100mWの出力でレーザ光源111から可視光帯域のレーザ光を照射する。レーザ光は、円錐状の光学素子113(円錐角90度)により、50mWの環状ビームとなって管状体の内表面に対し反射される。管状体の内表面に照射されるラインビーム幅は、0.25mmである。ただし、この場合のラインビーム幅とは、ピーク強度値から13.5%で定義されるものである。
○エリアカメラ120
 幅1920画素×高さ1200画素のCMOS(画素サイズ:4.8μm×4.8μm)を撮像素子として搭載しており、フレームレートは、150fpsである。レンズの焦点距離は1.81mmであり、水平方向画角は180°である。撮像される画像の画素サイズは0.4mm×0.4mm、ラインビーム幅は、撮像画像上では、1~3画素の輝線の幅で撮影される。撮像対象領域(ROI)を、CMOSの上側端部及び下側端部のそれぞれに、2つの端部領域の合計で600画素分の高さとなるように設定すると、フレームレートは、300fpsとなる。
○エリアカメラ120A,120Bは、管状体の内表面を、管軸方向に0.25mm進む毎に撮像する(すなわち、管状体撮像装置100が0.25mm移動する毎に1パルスのPLG信号が出力される。)。
<演算処理装置200の全体構成について>
 以上、本実施形態に係る管状体撮像装置100の構成について説明した。続いて、再び図1に戻って、本実施形態に係る演算処理装置200の全体構成について説明する。
 本実施形態に係る演算処理装置200は、例えば図1に示したように、撮像制御部201と、画像処理部203と、表示制御部205と、記憶部207と、を主に備える。
 撮像制御部201は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、通信装置等により実現される。撮像制御部201は、本実施形態に係る管状体撮像装置100による検査対象物の撮像制御を実施する。より詳細には、撮像制御部201は、管状体1の撮像を開始する場合に、照明機構110A,110Bに対してレーザ光の発振を開始させるための制御信号を送出する。また、撮像制御部201は、エリアカメラ120A,120Bのそれぞれに対して、後述する記憶部207等に格納されているルックアップテーブル等を参照しながら、先だって説明したような2種類の撮像対象領域(ROI)を設定した上で、エリアカメラ120A,120Bに対して撮像を開始するためのトリガ信号を送出する。
 また、管状体撮像装置100が管状体1の撮像を開始すると、管状体撮像装置100からPLG信号が定期的に(例えば、管状体撮像装置100が0.25mm移動する毎に1パルスのPLG信号)送出されるが、撮像制御部201は、PLG信号を取得する毎にエリアカメラ120A,120Bに対して撮像を開始するためのトリガ信号を送出する。
 画像処理部203は、例えば、CPU、ROM、RAM、通信装置等により実現される。画像処理部203は、管状体撮像装置100(より詳細には、管状体撮像装置100のエリアカメラ120A,120B)から取得した撮像データを利用して、後述する縞画像フレームを生成する。その後、生成した縞画像フレームに対して、以下で説明するような画像処理を行い、測定対象物である管状体の内表面に存在する可能性のある欠陥を検出する。画像処理部203は、管状体1の内表面の欠陥検出処理を終了すると、得られた検出結果に関する情報を、表示制御部205に伝送する。
 なお、この画像処理部203については、以下で改めて詳細に説明する。
 表示制御部205は、例えば、CPU、ROM、RAM、出力装置等により実現される。表示制御部205は、画像処理部203から伝送された、検査対象物である管状体1の欠陥検出結果を、演算処理装置200が備えるディスプレイ等の出力装置や演算処理装置200の外部に設けられた出力装置等に表示する際の表示制御を行う。これにより、管状体内表面検査装置10の利用者は、検査対象物(管状体1)の内表面に存在する各種の欠陥に関する検出結果を、その場で把握することが可能となる。
 記憶部207は、例えば本実施形態に係る演算処理装置200が備えるRAMやストレージ装置等により実現される。記憶部207には、本実施形態に係る管状体撮像装置100のエリアカメラ120A,120Bにおける撮像対象領域(ROI)の設定プリセット値等といった、本実施形態に係る演算処理装置200が、何らかの処理を行う際に保存する必要が生じた様々なパラメータや処理の途中経過等、又は、各種のデータベースやプログラム等が、適宜記録される。この記憶部207に対しては、撮像制御部201、画像処理部203、表示制御部205等が、リード/ライト処理を実行することが可能である。
[画像処理部203について]
 続いて、図6を参照しながら、本実施形態に係る演算処理装置200が備える画像処理部203について、詳細に説明する。図6は、本実施形態に係る演算処理装置が有する画像処理部の構成を示したブロック図である。
 本実施形態に係る画像処理部203は、図6に示したように、A/D変換部211と、環状ビームセンター算出部213と、座標変換部215と、部分縞画像フレーム生成部217と、縞画像フレーム生成部219と、画像算出部221と、検出処理部229と、を主に備える。
 A/D変換部211は、例えば、CPU、ROM、RAM等により実現される。A/D変換部211は、エリアカメラ120A,120Bからそれぞれ出力された撮像画像をA/D変換し、図5A及び図5Bに模式的に示したような、合計4種類の撮像対象領域に関するデジタル多値画像データ(すなわち、環状ビーム画像)として出力する。かかるデジタル多値画像データは、記憶部207等に設けられた画像メモリに記憶される。これらのデジタル多値画像データを管状体の管軸方向に沿って順次利用することにより、後述するような部分縞画像フレーム及び縞画像フレームが形成される。
 図5A及び図5Bに模式的に示したように、環状ビーム画像は、管状体1の内表面の管軸方向に沿ったある位置において、管状体の内表面に照射された環状ビームを撮像したものである。環状ビーム画像は、予めカメラのゲインやレンズの絞りを適切に設定することにより、例えば、環状ビームが照射された部分が白く表示され、その他の部分は黒く表示されている濃淡画像とすることができる。また、環状ビームの円周上に重畳している凹凸が、管状体の内表面の断面形状と、内表面に存在する欠陥に関する情報を含んでいる。
 A/D変換部211は、各エリアカメラ120A,120Bから出力された撮像画像に基づいて環状ビーム画像を生成すると、生成した環状ビーム画像に対応するデータを、後述する環状ビームセンター算出部213に出力する。
 なお、図6では、1つのA/D変換部211が、各エリアカメラ120A,120Bから出力された撮像画像をA/D変換する場合について図示しているが、A/D変換部211を2つ設けて、各エリアカメラ120A,120Bから出力された撮像画像が、対応する専用のA/D変換部211によりA/D変換されてもよい。
 環状ビームセンター算出部213は、例えば、CPU、ROM、RAM等により実現される。環状ビームセンター算出部213は、A/D変換部211から出力された、2つのエリアカメラ120A,120Bでそれぞれ生成された各環状ビーム画像を用いて、環の重心位置と環の半径とをそれぞれ算出する。
 この際、環状ビームセンター算出部213は、図7に模式的に示したように、同じタイミングで撮像されたエリアカメラ120A,120Bによる環状ビーム画像を用いて、図7に示したような合成画像を生成し、かかる合成画像を用いて、環の重心位置Oと環の半径rとをそれぞれ算出することが好ましい。図7に示した合成画像は、各エリアカメラ120A,120Bにおいて同一の撮像タイミングで生成された環状ビーム画像を用い、これら環状ビーム画像を、環状ビーム全体が認識可能なように結合させた画像である。
 ここで、エリアカメラ120A,120Bで生成される4種類の撮像対象領域(ROI)での環状ビーム画像を、どのような順で結合していけばよいかについては、エリアカメラ120A,120Bの図2に示したような光学的な位置関係から、予め決定しておくことが可能である。また、エリアカメラ120A,120Bで生成される4種類の撮像対象領域(ROI)での環状ビーム画像を、互いにどのような位置に結合していけばよいかについては、内表面にキズ等の欠陥が存在していないことが明らかとなっている基準管を利用し、4種類の撮像対象領域(ROI)での環状ビーム画像が滑らかに接続されるような結合位置を、事前に特定しておけばよい。また、環状ビームセンター算出部213は、4種類の撮像対象領域(ROI)での環状ビーム画像を結合する際に、環状ビーム画像が滑らかに接続されるように、それぞれの環状ビーム画像の結合位置を微調整してもよい。
 環の重心位置O及び半径rを算出する方法は、特に限定されるわけではなく、公知のあらゆる方法を利用することが可能である。環の重心位置O及び半径rを算出する方法の具体例としては、例えば、環状ビーム画像が真円に近い場合は、以下のような2つの方法を挙げることができる。
 ・2値化した環状ビーム画像上の任意の3点を抽出し、この3点の位置座標の重心を算出する。得られた重心位置と3点のうち任意の1点との間の距離が環の半径となる。
 ・ハフ(Hough)変換による円抽出を行い、円(すなわち、環状ビーム)の重心と半径とを算出する。
 環状ビームセンター算出部213は、各環状ビーム画像について環の重心位置O及び半径rを算出すると、環の重心位置O及び半径rに関する情報をそれぞれ生成して、後述する座標変換部215に出力する。
 なお、本実施形態においては、管状体1の内面の断面形状が真円に近い場合について説明しているが、任意の断面形状に対して適用可能であり、例えば、断面形状が楕円や角丸長方形等であってもよい。このような場合の重心は、環状ビームの形状から求めることが可能であり、求めた重心との距離の最大値と最小値の平均値を半径として用いることで、後述する座標変換を同じ手順で実施することができる。
 また、上記では、合成画像を生成した上で環の重心位置O及び半径rを算出する場合について説明したが、環状ビームセンター算出部213は、図7に示したような合成画像を生成せずに、エリアカメラ120Aから得られた環状ビーム画像を用いて環の重心位置O及び半径rを算出するとともに、エリアカメラ120Bから得られた環状ビーム画像を用いて環の重心位置O及び半径rを算出してもよい。この場合、後述する座標変換処理では、エリアカメラ120Aから得られた環状ビーム画像については、エリアカメラ120Aから得られた環状ビーム画像から算出された環の重心位置O及び半径rが用いられるとともに、エリアカメラ120Bから得られた環状ビーム画像については、エリアカメラ120Bから得られた環状ビーム画像から算出された環の重心位置O及び半径rが用いられる。しかしながら、2種類の環の重心位置O及び半径rが用いられるために、後述する縞画像フレームの生成処理において全ての部分縞画像フレームを結合していく際に、部分縞画像フレームの接続のさせ方に注意を払う必要が生じ、後段の処理が複雑化する可能性がある。
 座標変換部215は、例えば、CPU、ROM、RAM等により実現される。座標変換部215は、算出された重心位置、及び、当該重心位置と環状ビームの照射部分との離隔距離(離隔量)に基づいて、環状ビーム画像の座標系を極座標変換する。そのため、環状ビーム画像に曲線状に写る環状のレーザ光の照射部分の像は、かかる極座標変換により、直線状の線分に変換される。その後、座標変換部215は、環状ビームの照射部分に対応する線分として表した、光切断画像を生成する。
 すなわち、環状ビームの重心位置が算出されることで、xy平面上の直交座標系を極座標系へと変換することが可能となり、環状ビームの照射位置に対応する画素の存在位置を、重心位置を原点とした極座標(r,θ)で表すことができる。座標変換部215は、図8に示したように、環状ビームセンター算出部213で算出された半径rに動径方向に±Δrの余裕を設けたうえで(すなわち、r-Δr~r+Δrの範囲で)、図4A及び図4Bに示した-θからθの範囲(図4A及び図4Bの場合、-45°≦θ≦45°の範囲)で、座標変換を実施する。なお、本実施形態では、動径方向のr-Δr~r+Δrの範囲で座標変換を実施する場合について説明しているが、余裕Δrの値は、環状ビームの照射部分を含む範囲で、プラス方向とマイナス方向とで異なった値であってもよい。かかる場合、例えば、座標変換を行う範囲は、r-Δr~r+Δrなどと表現することができる。ただし、本実施形態においては、プラス方向とマイナス方向とで同じ値Δrを用いる場合について、以降の説明を行う。
 このような座標変換を行うことで、図8の右側に示したように、動径方向には半径rを中心として2Δrの高さを有し、角度方向にはθ~θ’(図4A及び図4Bの場合、約90度)に対応する長さを有する帯状の画像が抽出される。以上の説明からも明らかなように、抽出された帯状の画像は、環状ビームの照射部分を管状体の管周方向に展開した線分(以下、「光切断線」とも称する。)を含むこととなる。また、動径方向に関して、半径rを中心として2Δrの範囲を抽出することで、環状ビームの周に凹凸が存在していたとしても、かかる凹凸を含む環状ビームの周をもれなく抽出することが可能となる。このようにして得られた帯状の画像を、以下では光切断画像と称することとする。
 なお、Δrの大きさは、管状体1に存在しうる凹凸の高さの範囲を過去の操業データ等に基づいて予め大まかに算出しておくことで、決定することが可能である。
 上述のような具体的な構成を有する管状体撮像装置100を用いた場合、かかる管状体撮像装置100により撮像された環状ビーム画像は、約400画素に相当する半径を有する環を含むようになる。そこで、r=400画素、Δr=25画素として、-45°≦θ≦45°の範囲で光切断画像の抽出を行うと、横628画素×高さ50画素の光切断画像が生成される。
 また、座標変換部215は、直交座標系から極座標系への変換を行うため、直交座標系における格子点(すなわち、画素の中心位置)が、極座標系において必ず格子点に対応するとは限らず、非格子点に対応するものも存在するようになる。そこで、座標変換部215は、極座標系における非格子点の濃度(画素値)を補間するために、着目している点の近傍に位置する他の格子点の濃度に基づいて補間する、いわゆる画像補間法を併せて実施することが好ましい。
 かかる画像補間法は、特に限定されるものではなく、例えば、「昭晃堂 画像処理ハンドブック」等に記載されている公知の画像補間法を利用することが可能である。このような画像補間法の例として、最近傍(nearest neighbor)法、双線形補間(bi-linear interpolation)法、3次補間(bi-cubic convolution)法等を挙げることができる。これらの方法のうち、前者ほど処理速度が速く、後者ほど高品質の結果を得ることができる。そこで、座標変換部215は、利用する画像補間法の種別を、処理に用いることのできるリソース量や処理時間等に応じて適宜決定すればよい。本実施形態において示す光切断画像の具体例では、画像補間法として3次補間法を適用している。
 座標変換部215は、上述のような座標変換処理や画像補間処理を終了すると、得られた光切断画像に対応する画像データを、記憶部207等に設けられた画像メモリに、管状体の管軸方向に沿って順次格納していく。
 部分縞画像フレーム生成部217は、例えば、CPU、ROM、RAM等により実現される。部分縞画像フレーム生成部217は、記憶部207等に設けられた画像メモリから、管状体の管軸方向に沿って格納された、各撮像対象領域(すなわち、ROI_1A、ROI_2A、ROI_1B、ROI_2B)についての光切断画像を順に取得する。その後、部分縞画像フレーム生成部217は、取得した各撮像対象領域についてのそれぞれの光切断画像を管状体の管軸方向に沿って順に配列して、撮像対象領域ごとに4種類の部分縞画像フレームを生成する。
 1つの部分縞画像フレームを構成する光切断画像の個数は、適宜設定すればよいが、例えば、512個の光切断画像で1つの部分縞画像フレームを構成するようにしてもよい。各光切断画像は、上述のように環状ビーム画像の撮像間隔毎(例えば、0.25mm間隔)に存在している。そのため、0.25mm間隔で撮像された環状ビーム画像に基づく、512個の光切断画像からなる1つの部分縞画像フレームは、管状体の内表面の全周の1/4を、管軸方向に沿って128mm(=512×0.25mm)の範囲で撮像した結果に相当する。
 図9に、部分縞画像フレーム生成部217によって生成される部分縞画像フレームの一例を示した。図9では、撮像対象領域ROI_1Aに関する光切断画像を利用して、撮像対象領域ROI_1Aに関する部分縞画像フレームが生成される場合を模式的に示している。図9に模式的に示した部分縞画像フレームにおいて、図面の横方向に伸びた1本の線分が、1枚の環状ビーム画像を展開したものに相当しており、図面の横方向が環状ビームの管周方向に対応している。また、図9に示した部分縞画像フレームにおいて、図面の縦方向が、管状体1の管軸方向に相当している。
 部分縞画像フレーム生成部217は、以上のようにして、ROI_1A~ROI_2Bに関する4種類の部分縞画像フレームを生成すると、生成した各部分縞画像フレームを、後述する縞画像フレーム生成部219に出力する。また、部分縞画像フレーム生成部217は、生成した部分縞画像フレームに対応するデータに、当該部分縞画像フレームを生成した日時等に関する時刻情報を関連付けて、履歴情報として記憶部207等に格納してもよい。
 縞画像フレーム生成部219は、例えば、CPU、ROM、RAM等により実現される。縞画像フレーム生成部219は、部分縞画像フレーム生成部217により生成された4種類の部分縞画像フレームを用い、これら部分縞画像フレームを、2つの照明機構110A,110Bの光学的な位置関係を考慮しながら互いに結合させて、管状体1の内表面の全周に亘る光切断線が管状体の管軸方向に沿って順に配列した、縞画像フレームを生成する。
 図2に模式的に示したように、撮像ユニット101Aから照射される環状ビームの照射位置と、撮像ユニット101Bから照射される環状ビームの照射位置と、は、オフセットDだけ互いに離隔している。かかるオフセットDが、部分縞画像フレームにおいてD’ライン分に相当する場合、ある管軸方向位置について、エリアカメラ120Aにより撮像された環状ビーム画像は、D’ライン分だけ遅延して、エリアカメラ120Bにより撮像されることとなる。従って、縞画像フレーム生成部219は、2つのエリアカメラ120A,120Bの光学的な位置関係を考慮して、図10に模式的に示したように、エリアカメラ120Aによる1ライン目の光切断画像と、エリアカメラ120BによるD’+1ライン目の光切断画像と、を合致させた上で、4種類の部分縞画像フレームを、部分縞画像フレーム間での重複部分を考慮しながら互いに結合して、縞画像フレームを生成する。
 縞画像フレーム生成部219は、図10に示したような縞画像フレームを生成すると、生成した縞画像フレームを、後述する画像算出部221に出力する。また、縞画像フレーム生成部219は、生成した縞画像フレームに対応するデータに、当該縞画像フレームを生成した日時等に関する時刻情報を関連付けて、履歴情報として記憶部207等に格納してもよい。
 なお、上記説明では、撮像ユニット101A,101Bのそれぞれにおいて光切断画像を生成し、生成された光切断画像を、それぞれ個別に、管軸方向に沿って順に配列させて部分縞画像フレームを生成し、部分縞画像フレームを、撮像ユニット101A,101Bの位置関係に基づいて調整し、その後、管軸に直交する面において接続することで、縞画像フレームを生成する場合について着目した。しかしながら、本発明は、かかる場合に限定されるものではなく、例えば、撮像ユニット101A,101Bのそれぞれにおいて光切断画像を生成し、生成された光切断画像を、撮像ユニット101A,101Bの位置関係に基づいて調整して管軸に直交する面において接続しておいてから、その後、管軸方向に沿って順に配列させることで、縞画像フレームを生成するようにすることも可能である。
 画像算出部221は、例えば、CPU、ROM、RAM等により実現される。画像算出部221は、縞画像フレーム生成部219が生成した縞画像フレームに基づいて、管状体の内表面の凹凸状態を表す深さ画像と、管状体の内表面における環状ビームの輝度の分布を表す輝度画像と、を算出する。この画像算出部221は、図6に示したように、光切断線処理部223と、深さ画像算出部225と、輝度画像算出部227と、を備える。
 光切断線処理部223は、例えば、CPU、ROM、RAM等により実現される。光切断線処理部223は、縞画像フレームに含まれる各光切断線について、光切断線の変位量(輝線の曲がり具合)を含む光切断線特徴量を算出する。以下では、図11A及び図11Bを参照しながら、光切断線処理部223が実施する処理及び算出する光切断線特徴量について、詳細に説明する。図11Aは、縞画像フレームを模式的に示した説明図である。図11Bは、光切断線処理部が実施する光切断線処理について説明するための説明図である。
 図11Aでは、1つの縞画像フレームの中にN本の光切断線が存在しており、縞画像フレームの横方向の長さは、M画素であるものとする。また、1本の光切断線を含む1つの光切断画像は、縦2Δr画素×横M画素から構成されている。
 ここで、説明の便宜上、縞画像フレームの管周方向(図11Aにおける横方向)にX軸をとり、縞画像フレームの管軸方向(図11Aにおける縦方向)にY軸をとって、縞画像フレーム中の画素の位置をXY座標で表すものとする。以下の説明では、縞画像フレーム中に存在するj(1≦j≦N)番目の光切断線の左側からm画素目(1≦m≦M)の位置(すなわち、Xj,mで表される位置)に着目する。
 光切断線処理部223は、まず、着目すべき光切断線(以下、単に「ライン」とも称する。)の着目すべきX座標位置(本説明では、Xj,mで表される位置)を選択すると、図11Bに示したように、着目したラインの着目したX座標位置における画素に対応付けられている画素値(すなわち、環状ビームの輝度値)の分布を参照する。この際、光切断線処理部223は、光切断画像中の当該X座標位置における全ての画素について、以下で説明する処理を実施するのではなく、光切断画像中におけるY座標の基準位置Yの前後Wの範囲に属する画素(すなわち、Y-W~Y+Wの範囲に属する画素)について、以下で説明する処理を実施する。
 ここで、Y座標の基準位置Yは、縞画像フレームのjライン目の光切断画像に対して予め指定される管軸方向の位置であり、例えば光切断画像の管軸方向の中心を指定すれば、先述のようにプラス方向とマイナス方向とで同じ余裕値Δrを用いる場合には、環状ビームセンター算出部が算出した半径r(すなわち光切断線の位置)に等しくなる。また、処理範囲を規定するパラメータWは、管状体1に存在しうる凹凸の高さの範囲を過去の操業データ等に基づいて、光切断画像中におけるY座標の基準位置Yの前後Wの範囲が光切断画像に収まるように、予め大まかに算出しておき、適宜決定すればよい。パラメータWの値を小さくすることができれば、後述する光切断線処理部223の処理負荷の低減を図ることができる。
 光切断線処理部223は、まず、Y-W~Y+Wの範囲に含まれる画素の中から、光切断線に対応する画素を特定するための第1の閾値の一例である所定の閾値Th以上の画素値を有する画素を特定する。図11Bに示した例では、Yj,k、Yj,k+1、Yj,k+2で表される3つの画素が、それぞれ閾値Th以上の画素値Ij,k、Ij,k+1、Ij,k+2を有している。従って、光切断線処理部223は、所定の閾値Th以上の画素値を有する画素を線幅方向に加算した数pj,m=3と設定する。この所定の閾値Th以上の画素値を有する画素を線幅方向に加算した数pj,mは、いわば位置(j,m)における輝線の画素数に対応する値であり、光切断線特徴量の一つである。また、光切断線処理部223は、以下の処理において、抽出された画素に関する情報(Yj,k、Ij,k)、(Yj,k+1、Ij,k+1)、(Yj,k+2、Ij,k+2)(以下、単に(Y,I)と略記することもある。)の情報を利用して、更なる光切断線特徴量を算出していく。
 また、光切断線処理部223は、パラメータpj,m及び抽出した画素に関する情報(Y,I)を用いて、抽出された画素の輝度の総和Kj,mを算出する。図11Bに示した例の場合、光切断線処理部223が算出する輝度の総和は、Kj,m=Ij,k+Ij,k+1+Ij,k+2となる。この輝度の総和Kj,mも、光切断線特徴量の一つである。
 更に、光切断線処理部223は、抽出された画素に関する情報(Y,I)とY座標の基準位置Yとを利用して、抽出された画素のY方向の重心位置Y(j,m)を算出するとともに、重心位置Y(j,m)の基準位置Yからの変位量Δdj,m=Y-Y(j,m)を算出する。
 ここで、重心位置Y(j,m)は、抽出された画素の集合をAと表すこととすると、以下の式111で表される値となる。従って、図11Bに示した例の場合、重心位置Y(j,m)は、以下の式111aで表される値となる。
Figure JPOXMLDOC01-appb-M000001
 ここで、画素に対応する管軸方向の位置は、いわば管状体撮像装置100の移動幅(例えば、0.25mm)で量子化された値である。他方、上記式111で示したような演算により算出される重心位置Y(j,m)は、割り算という数値演算を利用することで算出される値であるため、管状体撮像装置100の移動幅(いわば量子化単位)よりも小さな値となりうる。従って、かかる重心位置Y(j,m)を利用して算出される変位量Δdj,mについても、移動幅よりも小さな値を有しうる値となる。このようにして算出される変位量Δdj,mも、光切断線特徴量の一つである。
 光切断線処理部223は、以上のような3種類の特徴量を、各切断線に含まれるM個の要素に関して算出する。その結果、図12A~図12Cに示したように、光切断線の変位量Δd、輝度の総和K、及び、輝線の画素数pに関して、M列×N行の二次元配列が生成される。本実施形態に係る縞画像フレームの具体例の場合、M=1920、N=512であるため、各光切断線特徴量を構成するデータの個数は、1920×512個となる。
 光切断線処理部223は、算出した光切断線特徴量のうち、光切断線の変位量Δdに関する特徴量を、後述する深さ画像算出部225に出力する。また、光切断線処理部223は、算出した光切断線特徴量のうち、輝度の総和K、及び、輝線の画素数pに関する特徴量を、後述する輝度画像算出部227に出力する。
 深さ画像算出部225は、例えば、CPU、ROM、RAM等により実現される。深さ画像算出部225は、光切断線処理部223が生成した光切断線特徴量(特に、変位量Δdに関する特徴量)に基づいて、管状体の内表面の凹凸状態を表す深さ画像を算出する。
 具体的には、深さ画像算出部225は、図12Aに示したような変位量Δdに関する特徴量(二次元配列)と、環状ビームの垂直成分入射角(図2における角度φ=φ=φ)と、を利用して、深さ画像を算出する。かかる深さ画像は、管軸方向のそれぞれの位置での凹凸状態の一次元分布が管軸方向に沿って順に配列された、二次元の凹凸状態の分布を表す画像である。
 まず、図13を参照しながら、管状体の内表面に存在する凹凸の高さと、光切断線の変位量Δdとの関係について説明する。図13は、光切断線の変位と欠陥の高さとの関係を示した説明図である。
 図13では、管状体1の内表面に凹みが存在した場合を模式的に示している。ここで、内表面に凹みが存在しない場合の表面位置の高さと凹みの底部の高さとの差分をΔhと表すこととする。垂直入射した環状ビームが表面反射をする場合に着目すると、内表面に凹みが存在しない場合には、図13の光線Aのように反射光は伝播することとなるが、内表面に凹みが存在する場合には、図13の光線Bのように反射光が伝播することとなる。光線Aと光線Bとのズレが、本実施形態において光切断線の変位量Δdとして観測されることとなる。ここで、幾何学的な位置関係から明らかなように、光切断線の変位量Δdと凹みの深さΔhとは、Δd=Δh・sinφの関係が成立する。
 なお、図13では、管状体の内表面に凹みが存在する場合について説明したが、管状体の内表面に凸部が存在する場合であっても、同様の関係が成立する。
 深さ画像算出部225は、以上説明したような関係を利用して、光切断線処理部223が算出した光切断線の変位量Δdに関する特徴量に基づき、管状体の内表面の凹凸に関する量Δhを算出する。
 ここで、深さ画像の算出に用いられる光切断線の変位量Δdは、先に説明したように光切断線の重心位置に基づいて算出されたものであり、移動幅よりも小さな値を有しうる値となっている。従って、深さ画像算出部225により算出される深さ画像は、撮像素子の画素サイズよりも細かい分解能で凹凸が再現されている画像となる。
 本実施形態で示した縞画像フレームの具体例は、撮影ピッチ0.25mmで撮像された光切断線の変位を積み上げたものであるため、それぞれの変位量ΔdをΔhに変換すると、幅0.25mm×高さ0.25mmの深さ画像が算出される。また、かかる具体例では、角度φ=45°であるため、Δd=(1/20.5)・Δhの関係が成立している。
 なお、被検査体である管状体の内表面の形状の変化や、カメラ走査方向軸が管状体の中心からずれることにより、図14に示したように、光切断線に湾曲等の歪みが生じる場合がある。他方、本実施形態に係る管状体内表面検査方法では、光切断線に重畳している凹凸が、管状体の内表面の断面形状と内表面に存在する表面欠陥に関する情報となっている。そのため、深さ画像算出部225は、光切断線の変位量Δdに基づいて深さ画像を算出する際に、光切断線毎に歪み補正処理を行って、光切断線に重畳している凹凸に関する情報のみを抽出してもよい。このような歪み補正処理を実施することにより、カメラ走査方向軸が管状体の中心軸に正確に一致していない場合や、内表面の形状が円でない場合であっても、内表面に存在する凹凸疵の情報のみを得ることが可能となる。
 かかる歪み補正処理の具体例として、(i)多次元関数や各種の非線形関数を利用したフィッティング処理を行い、得られたフィッティング曲線と観測された光切断線との差分演算を行う処理や、(ii)凹凸に関する情報が高周波成分であることを利用して、浮動フィルタやメディアンフィルタ等のローパスフィルタを適用する処理等を挙げることができる。このような歪み補正処理を実施することにより、内表面に存在する凹凸疵の情報を保持したまま、光切断線の平坦化を図ることが可能となる。
 深さ画像算出部225は、以上説明したようにして算出した深さ画像に関する情報を、後述する検出処理部229に出力する。
 輝度画像算出部227は、例えば、CPU、ROM、RAM等により実現される。輝度画像算出部227は、光切断線処理部223が生成した光切断線特徴量(特に、輝度の総和K及び輝線の画素数pに関する特徴量)に基づいて、管状体の内表面における環状ビームの輝度の分布を表す輝度画像を算出する。
 具体的には、輝度画像算出部227は、図12Bに示したような輝度の総和Kに関する特徴量(二次元配列)、及び、図12Cに示したような輝線の画素数pに関する特徴量(二次元配列)を利用して、総和輝度の線幅方向の平均値である平均輝度KAVE(j,m)=Kj,m/pj,m(1≦j≦N、1≦m≦M)を算出する。その後、輝度画像算出部227は、算出した平均輝度KAVE(j,m)からなるデータ配列を、着目している管状体の輝度画像とする。かかる輝度画像は、管軸方向のそれぞれの位置での環状のレーザ光の輝度の一次元分布が管軸方向に沿って順に配列された、二次元の輝度分布を表す画像である。
 輝度画像算出部227は、以上説明したようにして算出した輝度画像に関する情報を、後述する検出処理部229に出力する。
 検出処理部229は、例えば、CPU、ROM、RAM等により実現される。検出処理部229は、深さ画像算出部225により算出された深さ画像と、輝度画像算出部227により算出された輝度画像と、に基づいて、管状体の内表面に存在する欠陥を検出する。
 かかる検出処理部229は、深さ画像及び輝度画像に基づいて欠陥部位を特定する欠陥部位特定機能と、特定した欠陥部位の形態及び画素値に関する特徴量を抽出する特徴量抽出機能と、抽出した特徴量に基づいて欠陥の種別や有害度等を判別する欠陥判別機能と、を有している。以下、これらの機能について、簡単に説明する。
○欠陥部位特定機能
 検出処理部229は、取得した深さ画像及び輝度画像の各画素に対して、周辺画素との画素値(深さを表す値、又は、輝度値)の線形和を得るフィルタ処理によって縦線状疵、横線状疵、微小疵等の領域を強調し、得られた値が、欠陥部位特定のための第2の閾値以上となるか否かの判定を行う。このようなフィルタ処理及び当該フィルタ処理結果に基づく判定処理を実施することで、検出処理部229は、欠陥部位を特定するための2値化画像を生成することができる。かかる2値化画像において、算出した値が第2の閾値未満であった画素が正常箇所(すなわち、2値化画像の画素値=0)に該当し、算出した値が第2の閾値以上であった画素が欠陥箇所(すなわち、2値化画像の画素値=1)に該当する。更に、検出処理部229は、連続して発生している欠陥箇所を結合していくことで、一つ一つの欠陥部位を特定する。
○特徴量抽出機能
 検出処理部229は、欠陥部位特定機能により深さ画像及び輝度画像の欠陥部位を特定すると、特定した欠陥部位ごとに、欠陥部位の形態及び画素値に関する特徴量を抽出する。欠陥部位の形態に関する特徴量として、例えば、欠陥部位の幅、欠陥部位の長さ、欠陥部位の周囲長、欠陥部位の面積、欠陥部位の外接長方形の面積等を挙げることができる。また、欠陥部位の画素値に関する特徴量として、深さ画像に関しては、欠陥部位の深さの最大値、最小値、平均値等を挙げることができ、輝度画像に関しては、欠陥部位の輝度の最大値、最小値、平均値等を挙げることができる。
○欠陥判別機能
 検出処理部229は、特徴量抽出機能により各欠陥部位の特徴量を抽出すると、欠陥部位ごとに、抽出した特徴量に基づいて欠陥の種別や有害度等を判別する。特徴量に基づく欠陥の種別や有害度等の判別処理は、例えば図15に示したようなロジックテーブルを利用して行われる。すなわち、検出処理部229は、図15に例示したようなロジックテーブルによって表される判別条件に基づき、欠陥の種別や有害度を判別する。
 図15に例示したように、ロジックテーブルの縦方向の項目として、欠陥の種別(欠陥A1~欠陥An)が記載されており、ロジックテーブルの横方向の項目として、特徴量の種類(特徴量B1~特徴量Bm)が記載されている。また、欠陥の種別及び特徴量により規定されるテーブルの各セルには、対応する特徴量の大小による判別条件式(条件式C11~条件式Cnm)が記述されている。このようなロジックテーブルの各行が一組となって、一つ一つの欠陥の種別の判別条件となる。判別処理は、最上位の行に記載された種別から順に行われ、何れか一つの行に記載された判別条件を全て満たした時点で終了する。
 このようなロジックテーブルは、過去の操業データ及び当該操業データに基づく検定員による欠陥の種別及び有害度の特定結果を教師データとした学習処理により構築されたデータベースを利用して、公知の方法により生成することが可能である。
 検出処理部229は、このようにして検出した欠陥部位ごとに欠陥の種別及び有害度を特定し、得られた検出結果を表示制御部205に出力する。これにより、検出対象物である管状体の内表面に存在する欠陥に関する情報が、表示部(図示せず。)に出力されることとなる。また、検出処理部229は、得られた検出結果を、製造管理用プロセスコンピュータ等の外部の装置に出力してもよく、得られた検出結果を利用して、製品の欠陥帳票を作成してもよい。また、検出処理部229は、欠陥部位の検出結果に関する情報を、当該情報を算出した日時等に関する時刻情報と関連づけて、記憶部207等に履歴情報として格納してもよい。
 なお、以上の説明では、ロジックテーブルを利用して欠陥の種別や有害度を判別する場合について説明したが、欠陥の種別や有害度を判別する方法は上記例に限定されるわけではない。例えば、過去の操業データ及び当該操業データに基づく検定員による欠陥の種別及び有害度の特定結果を教師データとした学習処理により、ニューラルネットやサポートベクターマシン(SVM)等の判別器を生成し、かかる判別器を欠陥の種別や有害度の判別に利用してもよい。
 以上、本実施形態に係る演算処理装置200が有する画像処理部203の構成について、詳細に説明した。
 なお、上述の説明では、深さ画像算出部225が深さ画像を算出する際に、差分演算処理やローパスフィルタ処理等の近似補正処理を実施する場合について説明した。しかしながら、かかる近似補正処理は、光切断線処理部223が光切断線特徴量を算出するに先立って、当該光切断線処理部223が実施してもよい。
 以上、本実施形態に係る演算処理装置200の機能の一例を示した。上記の各構成要素は、汎用的な部材や回路を用いて構成されていてもよいし、各構成要素の機能に特化したハードウェアにより構成されていてもよい。また、各構成要素の機能を、CPU等が全て行ってもよい。従って、本実施形態を実施する時々の技術レベルに応じて、適宜、利用する構成を変更することが可能である。
 なお、上述のような本実施形態に係る演算処理装置の各機能を実現するためのコンピュータプログラムを作製し、パーソナルコンピュータ等に実装することが可能である。また、このようなコンピュータプログラムが格納された、コンピュータで読み取り可能な記録媒体も提供することができる。記録媒体は、例えば、磁気ディスク、光ディスク、光磁気ディスク、フラッシュメモリなどである。また、上記のコンピュータプログラムは、記録媒体を用いずに、例えばネットワークを介して配信してもよい。
<管状体撮像装置100の変形例について>
 ここで、図16及び図17を参照しながら、本実施形態に係る管状体撮像装置100の変形例について、簡単に説明する。図16及び図17は、本実施形態に係る管状体撮像装置100の変形例を模式的に示した説明図である。
 図2に示した管状体撮像装置100の構成では、管状体1の管軸方向に沿って、エリアカメラ120B、レーザ光源111B、光学素子113B、光学素子113A、レーザ光源111A、及び、エリアカメラ120Aの順に並ぶように、2つの撮像ユニット101A,101Bが連結されていた。
 しかしながら、本実施形態に係る管状体撮像装置100における撮像ユニット101A,101Bの連結方法は、図2に示した例に限定されるものではなく、例えば図16に示したように、管状体1の管軸方向に沿って、エリアカメラ120B、レーザ光源111B、光学素子113B、エリアカメラ120A、レーザ光源111A、及び、光学素子113Aの順に並ぶように、2つの撮像ユニット101A,101Bが連結されていてもよい。
 また、本実施形態に係る管状体撮像装置100における撮像ユニット101Aと101Bとの連結方法は、例えば図17に示したように、管状体1の管軸方向に沿って、光学素子113B、レーザ光源111B、エリアカメラ120B、エリアカメラ120A、レーザ光源111A、及び、光学素子113Aの順に並ぶように、2つの撮像ユニット101A,101Bが連結されていてもよい。
 この際、図2、図16及び図17における2つの環状ビームの照射位置のズレ量dの大きさに着目すると明らかなように、照射位置のズレ量(オフセット)Dは、図2に示した連結方法が最も小さくなり、図17に示した連結方法が最も大きくなることがわかる。そのため、図2に示した連結方法を採用することで、実際の管状体内表面の検査処理において、管状体撮像装置100の管軸方向の移動量を最小とすることができ、より簡便に検査処理を実施することが可能となる。
 以上、本実施形態に係る管状体撮像装置100の変形例について、簡単に説明した。
<管状体内表面検査方法について>
 続いて、図18を参照しながら、本実施形態に係る管状体内表面検査方法の流れを簡単に説明する。図18は、本実施形態に係る管状体内表面検査方法の流れの一例を示した流れ図である。
 まず、管状体内表面検査装置10の管状体撮像装置100は、環状ビームを用いて処理対象物である管状体の内表面を撮像して、それぞれのエリアカメラ120A,120Bによる撮像画像を、演算処理装置200に出力する。ここで、エリアカメラ120A,120Bには、上記のような2箇所の撮像対象領域(ROI)が予め設定されている。演算処理装置200が備える画像処理部203のA/D変換部211は、取得した2つのエリアカメラ120からの撮像画像に対してA/D変換処理を行い、環状ビーム画像を生成する(ステップS101)。
 次に、環状ビームセンター算出部213は、A/D変換部211が生成した、2つのエリアカメラ120A,120Bについての環状ビーム画像をそれぞれ利用して環状ビーム画像の重心位置及び半径を算出し(ステップS103)、得られた算出結果を、座標変換部215に出力する。
 続いて、座標変換部215は、算出された重心位置や半径等を利用して、2つのエリアカメラ120A,120Bについての環状ビーム画像を座標変換し、光切断画像を生成する(ステップS105)。生成された光切断画像は、管状体の管軸方向に沿って、記憶部207等に設けられた画像メモリに順次格納されていく。
 その後、部分縞画像フレーム生成部217は、生成された光切断画像を管状体の管軸方向に沿って順に配列して、部分縞画像フレームを生成する(ステップS107)。部分縞画像フレーム生成部217は、生成した部分縞画像フレームを、縞画像フレーム生成部219に出力する。縞画像フレーム生成部219は、部分縞画像フレーム生成部217により生成された部分縞画像フレームを用いて、縞画像フレームを生成する(ステップS109)。縞画像フレーム生成部219は、生成した縞画像フレームを、光切断線処理部223に出力する。
 光切断線処理部223は、生成された縞画像フレームを利用し、各光切断線について、所定の閾値Th以上の輝度を有する画素の画素数、当該画素の輝度の総和及び光切断線の変位量を算出する(ステップS111)。これら算出結果が、光切断線特徴量として利用される。算出された光切断線特徴量は、深さ画像算出部225及び輝度画像算出部227にそれぞれ出力される。
 深さ画像算出部225は、算出された光切断線特徴量(特に、光切断線の変位量に関する特徴量)を利用して、深さ画像を算出する(ステップS113)。また、輝度画像算出部227は、算出された光切断線特徴量(特に、閾値以上の輝度を有する画素の画素数に関する特徴量、及び、輝度の総和に関する特徴量)を利用して、輝度画像を算出する(ステップS113)。深さ画像算出部225及び輝度画像算出部227は、算出した各画像を、検出処理部229に出力する。
 検出処理部229は、算出された深さ画像及び輝度画像を利用して、管状体の内表面に存在する欠陥部位を検出し、検出した欠陥部位の欠陥の種別及び有害度を特定する(ステップS115)。以上のような流れにより、管状体の内表面に存在する欠陥が検出されることとなる。
 以上、本実施形態に係る管状体内表面検査装置及び管状体内表面検査方法について、詳細に説明した。
(第2の実施形態)
 上記第1の実施形態では、照明機構110と、エリアカメラ120と、照明機構110及びエリアカメラ120のそれぞれが固定される保持基板131と、2つの保持基板131を連結する支柱である連結部材133と、を有する撮像ユニット101が、管状体1の管軸方向に2つ連結された場合について、詳細に説明した。ここで、管軸方向に連結される撮像ユニット101の個数は、第1の実施形態に示した2つに限定されるものではなく、3つ以上の撮像ユニット101が、管軸方向に連結されていてもよい。
 図19は、本発明の第2の実施形態に係る管状体撮像装置の構成の一例を模式的に示した説明図であり、図20は、本実施形態に係る管状体撮像装置について説明するための説明図である。
 図19では、3つの撮像ユニット101A、101B、101Cが、管軸方向に連結された管状体撮像装置100を模式的に示している。かかる場合においても、3つ以上の撮像ユニット101A,101B,101Cは、連結部材133の管軸に直交する面における位置が、撮像ユニット間で互いに異なるように、直列に連結される。そのため、連結部材133、連結部材133、連結部材133が、それぞれ、エリアカメラ120A、エリアカメラ120B、エリアカメラ120Cの視野において遮る領域は、管軸に直交する面において異なることになる。従って、エリアカメラ120A、エリアカメラ120B、エリアカメラ120Cのそれぞれで、管状体1の内表面を走査撮像すると、視野が欠けることなく、内表面全体を撮像することが可能となる。
 本実施形態においても、各エリアカメラ120には、2種類の撮像対象領域(ROI)が設定される。管状体撮像装置100において、N個(N≧3)の撮像ユニット101が存在する場合、各撮像ユニット101に設けられるエリアカメラ120には、2種類の撮像対象領域(ROI)が設定されるため、N個の撮像ユニット101全体では、2×N種類の撮像対象領域(ROI)が設定される。2×N種類の撮像対象領域(ROI)で、管状体の内表面に向かって照射された環状ビームの全周(換言すれば、360°分の円弧)を撮像すればよい。そのため、1つのエリアカメラ120における1つの撮像対象領域(ROI)は、少なくとも(180/N)°分の環状ビームを領域内に包含していればよいことになる。これより、N個(N≧3)の撮像ユニット101を直列に連結する場合、各撮像ユニット101を、(180/N)°ずつ管軸方向まわりに回転させながら連結すれば、後段の演算処理において無駄がなく効率的であり、好適となる。
 図20は、3個の撮像ユニット101A、101B、101Cを、管軸方向まわりに(180/3)=60°ずつ回転させながら連結した場合における、6個の撮像対象領域(ROI)の分布を模式的に示したものである。図20から明らかなように、管軸方向まわりに60°ずつ回転させながら3個の撮像ユニットを配置することで、環状ビームの全周を、未撮像領域を発生させずに撮像可能であることがわかる。
 また、撮像ユニット101の個数が4以上であっても、上記と同様に撮像ユニット101を連結させればよい。
 各撮像ユニット101におけるエリアカメラ120で撮像された環状ビーム画像の取り扱いについては、第1の実施形態と同様であるため、詳細な説明は省略する。かかる場合においても、N=2の場合における環状ビーム画像の取り扱いと同様にして、得られた複数の環状ビーム画像を用いて、環状ビームの重心位置及び半径を算出する。その後、得られた重心位置及び半径に基づき、得られた複数の環状ビーム画像の座標変換を行うことで、光切断画像をそれぞれ生成し、生成した光切断画像から縞画像フレームを生成すればよい。得られた縞画像フレームに対する処理は、第1の実施形態と同様であるため、以下では詳細な説明は省略する。
 以上、本発明の第2の実施形態に係る管状体内表面検査装置について、簡単に説明した。
(ハードウェア構成について)
 次に、図21を参照しながら、本発明の各実施形態に係る演算処理装置200のハードウェア構成について、詳細に説明する。図21は、本発明の各実施形態に係る演算処理装置200のハードウェア構成を説明するためのブロック図である。
 演算処理装置200は、主に、CPU901と、ROM903と、RAM905と、を備える。また、演算処理装置200は、更に、バス907と、入力装置909と、出力装置911と、ストレージ装置913と、ドライブ915と、接続ポート917と、通信装置919とを備える。
 CPU901は、中心的な処理装置及び制御装置として機能し、ROM903、RAM905、ストレージ装置913、又はリムーバブル記録媒体921に記録された各種プログラムに従って、演算処理装置200内の動作全般又はその一部を制御する。ROM903は、CPU901が使用するプログラムや演算パラメータ等を記憶する。RAM905は、CPU901が使用するプログラムや、プログラムの実行において適宜変化するパラメータ等を一次記憶する。これらはCPUバス等の内部バスにより構成されるバス907により相互に接続されている。
 バス907は、ブリッジを介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バスに接続されている。
 入力装置909は、例えば、マウス、キーボード、タッチパネル、ボタン、スイッチ及びレバーなどユーザが操作する操作手段である。また、入力装置909は、例えば、赤外線やその他の電波を利用したリモートコントロール手段(いわゆる、リモコン)であってもよいし、演算処理装置200の操作に対応したPDA等の外部接続機器923であってもよい。更に、入力装置909は、例えば、上記の操作手段を用いてユーザにより入力された情報に基づいて入力信号を生成し、CPU901に出力する入力制御回路などから構成されている。ユーザは、この入力装置909を操作することにより、演算処理装置200に対して各種のデータを入力したり処理動作を指示したりすることができる。
 出力装置911は、取得した情報をユーザに対して視覚的又は聴覚的に通知することが可能な装置で構成される。このような装置として、CRTディスプレイ装置、液晶ディスプレイ装置、プラズマディスプレイ装置、ELディスプレイ装置及びランプなどの表示装置や、スピーカ及びヘッドホンなどの音声出力装置や、プリンタ装置、携帯電話、ファクシミリなどがある。出力装置911は、例えば、演算処理装置200が行った各種処理により得られた結果を出力する。具体的には、表示装置は、演算処理装置200が行った各種処理により得られた結果を、テキスト又はイメージで表示する。他方、音声出力装置は、再生された音声データや音響データ等からなるオーディオ信号をアナログ信号に変換して出力する。
 ストレージ装置913は、演算処理装置200の記憶部の一例として構成されたデータ格納用の装置である。ストレージ装置913は、例えば、HDD(Hard Disk Drive)等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス、又は光磁気記憶デバイス等により構成される。このストレージ装置913は、CPU901が実行するプログラムや各種データ、及び外部から取得した各種のデータなどを格納する。
 ドライブ915は、記録媒体用リーダライタであり、演算処理装置200に内蔵、あるいは外付けされる。ドライブ915は、装着されている磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリ等のリムーバブル記録媒体921に記録されている情報を読み出して、RAM905に出力する。また、ドライブ915は、装着されている磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリ等のリムーバブル記録媒体921に記録を書き込むことも可能である。リムーバブル記録媒体921は、例えば、CDメディア、DVDメディア、Blu-ray(登録商標)メディア等である。また、リムーバブル記録媒体921は、コンパクトフラッシュ(登録商標)(CompactFlash:CF)、フラッシュメモリ、又は、SDメモリカード(Secure Digital memory card)等であってもよい。また、リムーバブル記録媒体921は、例えば、非接触型ICチップを搭載したICカード(Integrated Circuit card)又は電子機器等であってもよい。
 接続ポート917は、機器を演算処理装置200に直接接続するためのポートである。接続ポート917の一例として、USB(Universal Serial Bus)ポート、IEEE1394ポート、SCSI(Small Computer System Interface)ポート、RS-232Cポート、HDMI(登録商標)(High-Definition Multimedia Interface)ポート等がある。この接続ポート917に外部接続機器923を接続することで、演算処理装置200は、外部接続機器923から直接各種のデータを取得したり、外部接続機器923に各種のデータを提供したりする。
 通信装置919は、例えば、通信網925に接続するための通信デバイス等で構成された通信インターフェースである。通信装置919は、例えば、有線もしくは無線LAN(Local Area Network)、Bluetooth(登録商標)、又はWUSB(Wireless USB)用の通信カード等である。また、通信装置919は、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ、又は、各種通信用のモデム等であってもよい。この通信装置919は、例えば、インターネットや他の通信機器との間で、例えばTCP/IP等の所定のプロトコルに則して信号等を送受信することができる。また、通信装置919に接続される通信網925は、有線又は無線によって接続されたネットワーク等により構成され、例えば、インターネット、家庭内LAN、社内LAN、赤外線通信、ラジオ波通信又は衛星通信等であってもよい。
 以上、本発明の各実施形態に係る演算処理装置200の機能を実現可能なハードウェア構成の一例を示した。上記の各構成要素は、汎用的な部材を用いて構成されていてもよいし、各構成要素の機能に特化したハードウェアにより構成されていてもよい。従って、本実施形態を実施する時々の技術レベルに応じて、適宜、利用するハードウェア構成を変更することが可能である。
(まとめ)
 以上説明したように、本発明の各実施形態に係る管状体内表面検査装置10を利用することで、管状体の内表面を管周方向全周、管軸方向全長にわたって、より高速、高分解能かつ簡便に検査することが可能となり、微小な凹凸形状の欠陥や模様状の欠陥を高精度で同時に検出することができる。また、本発明の各実施形態に係る管状体内表面検査装置10により、欠陥の発生位置を正確に特定することが可能となるため、鋼管等の管状体の生産性や歩留まりの向上や、品質保証に大きく寄与することができる。
 以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。
  10  管状体内表面検査装置
 100  管状体撮像装置
 110  照明機構
 111  レーザ光源
 113  光学素子
 120  エリアカメラ
 131  保持基板
 133  連結部材
 200  演算処理装置
 201  撮像制御部
 203  画像処理部
 205  表示制御部
 207  記憶部
 211  A/D変換部
 213  環状ビームセンター算出部
 215  座標変換部
 217  部分縞画像フレーム生成部
 219  縞画像フレーム生成部
 221  画像算出部
 223  光切断線処理部
 225  深さ画像算出部
 227  輝度画像算出部
 229  検出処理部
 

Claims (16)

  1.  管状体の内表面に存在する欠陥を検出する管状体内表面検査装置において、
     レーザ光を照射するレーザ光源、
     前記レーザ光源から照射されたレーザ光を前記管状体の内表面の周方向に環状のレーザ光として反射する光学素子、
     前記管状体の内表面の前記環状のレーザ光が照射された領域を撮像することで、環状ビーム画像を生成するエリアカメラ、及び、
     前記レーザ光源と前記エリアカメラとを連結して固定する連結部材を有する撮像ユニットを、N(N≧2)個備え、
     それぞれの前記撮像ユニットを、前記管状体の管軸方向に沿って、前記連結部材の管軸に直交する面における位置が互いに異なるように直列に連結した管状体撮像装置と、
     前記管状体撮像装置を、前記管状体の管軸方向に沿って移動させる移動装置と、
     前記管状体撮像装置を前記移動装置で移動させながら、それぞれの前記撮像ユニットにおいて複数生成された前記環状ビーム画像に対して画像処理を行い、前記管状体の内表面に欠陥が存在するかを判断する演算処理装置と、
    を備える、管状体内表面検査装置。
  2.  それぞれの前記撮像ユニットにおける前記エリアカメラは、前記エリアカメラの全視野のうち、前記環状のレーザ光が前記連結部材によって遮蔽されない領域であって、前記エリアカメラの全視野のうち、前記エリアカメラが備える撮像素子において当該撮像素子の各画素の電荷又は電圧に関する情報である画素情報が転送される方向である画素情報転送方向に対して直交する方向の端部にそれぞれに設定される端部領域に対応する部分を撮像することで、前記環状ビーム画像を複数生成する、請求項1に記載の管状体内表面検査装置。
  3.  前記演算処理装置は、
     それぞれの前記撮像ユニットから得られた前記環状ビーム画像を用いて、前記環状のレーザ光の照射部分の重心位置と半径とを算出し、
     算出された前記重心位置、並びに、前記重心位置及び前記環状のレーザ光の照射部分との離隔量に基づいて、それぞれの前記撮像ユニットから得られた前記環状ビーム画像の座標系を極座標変換し、極座標変換で得られた前記環状のレーザ光の照射部分に対応する線分である光切断線を含む光切断画像を、それぞれの前記撮像ユニット毎に生成し、
     得られた前記それぞれの撮像ユニット毎の前記光切断画像を、それぞれ前記管軸方向に沿って順に配列させた部分縞画像フレームを生成し、
     前記部分縞画像フレームを、N個の前記撮像ユニットの位置関係に基づいて調整し、前記管軸に直交する面において接続して、縞画像フレームを生成し、
     前記縞画像フレームに基づいて、前記管状体の内表面の凹凸状態を表す深さ画像と、前記管状体の内表面における前記環状のレーザ光の輝度分布を表す輝度画像とを算出し、
     前記深さ画像及び前記輝度画像に基づいて、前記管状体の内表面に存在する欠陥を検出する、請求項2に記載の管状体内表面検査装置。
  4.  前記演算処理装置は、
     それぞれの前記撮像ユニットから得られた前記環状ビーム画像を用いて、前記環状のレーザ光の照射部分の重心位置と半径とを算出し、
     算出された前記重心位置、並びに、前記重心位置及び前記環状のレーザ光の照射部分との離隔量に基づいて、それぞれの前記撮像ユニットから得られた前記環状ビーム画像の座標系を極座標変換し、極座標変換で得られた前記環状のレーザ光の照射部分に対応する線分である光切断線を含む光切断画像を、それぞれの前記撮像ユニット毎に生成し、
     得られた前記それぞれの撮像ユニット毎の前記光切断画像を、N個の前記撮像ユニットの位置関係に基づいて調整し、前記管軸に直交する面において接続することで、前記管軸方向に沿って順に配列させた縞画像フレームを生成し、
     前記縞画像フレームに基づいて、前記管状体の内表面の凹凸状態を表す深さ画像と、前記管状体の内表面における前記環状のレーザ光の輝度分布を表す輝度画像とを算出し、
     前記深さ画像及び前記輝度画像に基づいて、前記管状体の内表面に存在する欠陥を検出する、請求項2に記載の管状体内表面検査装置。
  5.  前記それぞれの撮像ユニット毎の前記環状ビーム画像には、互いに一部重複する領域が存在する、請求項1~4の何れか1項に記載の管状体内表面検査装置。
  6.  前記それぞれの撮像ユニットにおける前記レーザ光源から照射されるレーザ光の波長は、互いに相違しており、
     前記それぞれの撮像ユニットにおける前記エリアカメラの前段には、当該エリアカメラと同一の前記撮像ユニットに属する前記レーザ光源のレーザ光と同一の波長の光を透過させる波長選択フィルタが設けられる、請求項1~5の何れか1項に記載の管状体内表面検査装置。
  7.  複数の前記撮像ユニット間において、前記エリアカメラ、前記レーザ光源、及び、前記光学素子が、(エリアカメラ、レーザ光源、光学素子)(光学素子、レーザ光源、エリアカメラ)・・・の並び順で並ぶように、N個の前記撮像ユニットが連結されている、請求項1~6の何れか1項に記載の管状体内表面検査装置。
  8.  複数の前記撮像ユニット間において、前記光学素子、前記レーザ光源、及び、前記エリアカメラが、(光学素子、レーザ光源、エリアカメラ)(エリアカメラ、レーザ光源、光学素子)・・・の並び順で並ぶように、N個の前記撮像ユニットが連結されている、請求項1~6の何れか1項に記載の管状体内表面検査装置。
  9.  複数の前記撮像ユニット間において、前記エリアカメラ、前記レーザ光源、及び、前記光学素子が、(エリアカメラ、レーザ光源、光学素子)の並び順を繰り返すように、N個の前記撮像ユニットが連結されている、請求項1~6の何れか1項に記載の管状体内表面検査装置。
  10.  管状体の内表面に存在する欠陥を検出する管状体内表面検査方法において、
     レーザ光を照射するレーザ光源、
     前記レーザ光源から照射されたレーザ光を前記管状体の内表面の周方向に環状のレーザ光として反射する光学素子、
     前記管状体の内表面の前記環状のレーザ光が照射された領域を撮像することで、環状ビーム画像を生成するエリアカメラ、及び、
     前記レーザ光源と前記エリアカメラとを連結して固定する連結部材を有する撮像ユニットを、N(N≧2)個備え、
     それぞれの前記撮像ユニットを、前記管状体の管軸方向に沿って、前記連結部材の管軸に直交する面における位置が互いに異なるように直列に連結した管状体撮像装置と、
     前記管状体撮像装置を、前記管状体の管軸方向に沿って移動させる移動装置と、
     前記管状体撮像装置を前記移動装置で移動させながら、それぞれの前記撮像ユニットにおいて複数生成された前記環状ビーム画像に対して画像処理を行い、前記管状体の内表面に欠陥が存在するかを判断する演算処理装置と、
    を備える、管状体内表面検査装置を用い、
     それぞれの前記撮像ユニットから得られた前記環状ビーム画像を用いて、前記環状のレーザ光の照射部分の重心位置と半径とを算出するステップと、
     算出された前記重心位置、並びに、前記重心位置及び前記環状のレーザ光の照射部分との離隔量に基づいて、それぞれの前記撮像ユニットから得られた前記環状ビーム画像の座標系を極座標変換し、極座標変換で得られた前記環状のレーザ光の照射部分に対応する線分である光切断線を含む光切断画像を、それぞれの前記撮像ユニット毎に生成するステップと、
     得られた前記それぞれの撮像ユニット毎の前記光切断画像を、それぞれ前記管軸方向に沿って順に配列させた部分縞画像フレームを生成した後、生成した前記部分縞画像フレームを、N個の前記撮像ユニットの位置関係に基づいて調整し、前記管軸に直交する面において接続して、縞画像フレームを生成するか、又は、得られた前記それぞれの撮像ユニット毎の前記光切断画像を、N個の前記撮像ユニットの位置関係に基づいて調整し、前記管軸に直交する面において接続することで、前記管軸方向に沿って順に配列させた縞画像フレームを生成するステップと、
     前記縞画像フレームに基づいて、前記管状体の内表面の凹凸状態を表す深さ画像と、前記管状体の内表面における前記環状のレーザ光の輝度分布を表す輝度画像とを算出するステップと、
     前記深さ画像及び前記輝度画像に基づいて、前記管状体の内表面に存在する欠陥を検出するステップと、
    を有する、管状体内表面検査方法。
  11.  それぞれの前記撮像ユニットにおける前記エリアカメラは、前記エリアカメラの全視野のうち、前記環状のレーザ光が前記連結部材によって遮蔽されない領域であって、前記エリアカメラの全視野のうち、前記エリアカメラが備える撮像素子において当該撮像素子の各画素の電荷又は電圧に関する情報である画素情報が転送される方向である画素情報転送方向に対して直交する方向の端部にそれぞれに設定される端部領域に対応する部分を撮像することで、前記環状ビーム画像を複数生成する、請求項10に記載の管状体内表面検査方法。
  12.  前記それぞれの撮像ユニット毎の前記環状ビーム画像には、互いに一部重複する領域が存在する、請求項10又は11に記載の管状体内表面検査方法。
  13.  前記それぞれの撮像ユニットにおける前記レーザ光源から照射されるレーザ光の波長は、互いに相違しており、
     前記それぞれの撮像ユニットにおける前記エリアカメラの前段には、当該エリアカメラと同一の前記撮像ユニットに属する前記レーザ光源のレーザ光と同一の波長の光を透過させる波長選択フィルタが設けられる、請求項10又は11に記載の管状体内表面検査方法。
  14.  複数の前記撮像ユニット間において、前記エリアカメラ、前記レーザ光源、及び、前記光学素子が、(エリアカメラ、レーザ光源、光学素子)(光学素子、レーザ光源、エリアカメラ)・・・の並び順で並ぶように、N個の前記撮像ユニットが連結されている、請求項10~13の何れか1項に記載の管状体内表面検査方法。
  15.  複数の前記撮像ユニット間において、前記光学素子、前記レーザ光源、及び、前記エリアカメラが、(光学素子、レーザ光源、エリアカメラ)(エリアカメラ、レーザ光源、光学素子)・・・の並び順で並ぶように、N個の前記撮像ユニットが連結されている、請求項10~13の何れか1項に記載の管状体内表面検査方法。
  16.  複数の前記撮像ユニット間において、前記エリアカメラ、前記レーザ光源、及び、前記光学素子が、(エリアカメラ、レーザ光源、光学素子)の並び順を繰り返すように、N個の前記撮像ユニットが連結されている、請求項10~13の何れか1項に記載の管状体内表面検査方法。
     
     
PCT/JP2018/028396 2018-07-30 2018-07-30 管状体内表面検査装置及び管状体内表面検査方法 WO2020026290A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
PCT/JP2018/028396 WO2020026290A1 (ja) 2018-07-30 2018-07-30 管状体内表面検査装置及び管状体内表面検査方法
US16/976,410 US11428647B2 (en) 2018-07-30 2018-07-30 Tubular body inner surface inspection apparatus and tubular body inner surface inspection method
JP2018555703A JP6481217B1 (ja) 2018-07-30 2018-07-30 管状体内表面検査装置及び管状体内表面検査方法
EP18928249.4A EP3770548B1 (en) 2018-07-30 2018-07-30 Tubular body inner surface inspecting device and tubular body inner surface inspecting method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/028396 WO2020026290A1 (ja) 2018-07-30 2018-07-30 管状体内表面検査装置及び管状体内表面検査方法

Publications (1)

Publication Number Publication Date
WO2020026290A1 true WO2020026290A1 (ja) 2020-02-06

Family

ID=65718331

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/028396 WO2020026290A1 (ja) 2018-07-30 2018-07-30 管状体内表面検査装置及び管状体内表面検査方法

Country Status (4)

Country Link
US (1) US11428647B2 (ja)
EP (1) EP3770548B1 (ja)
JP (1) JP6481217B1 (ja)
WO (1) WO2020026290A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113610846B (zh) * 2021-09-29 2021-12-14 海门市博洋铸造有限公司 一种基于人工智能的管状零件内侧异常检测方法及系统
CN115290000B (zh) * 2022-09-26 2022-12-16 武汉誉城九方建筑有限公司 一种钢筋直线度检测装置及方法
CN117073454B (zh) * 2023-07-24 2024-03-15 中国人民解放军陆军工程大学 基于图像和激光扫描的多口径管状内膛检测装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007285891A (ja) 2006-04-17 2007-11-01 Toru Yoshizawa 内面形状の測定方法とこの方法による測定装置
JP2009184081A (ja) * 2008-02-07 2009-08-20 Soatec Inc 位置合わせ装置及び保持装置
JP2012159491A (ja) 2011-01-14 2012-08-23 Nippon Steel Corp 欠陥検出装置及び欠陥検出方法
JP2014074633A (ja) * 2012-10-04 2014-04-24 Hitachi Ltd 形状計測方法及び装置
JP2015163844A (ja) 2014-02-28 2015-09-10 株式会社日立製作所 内面形状計測方法および装置

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5796511B2 (ja) * 2012-02-21 2015-10-21 新日鐵住金株式会社 管状体検査装置及び管状体検査方法
JP6515344B2 (ja) 2015-09-11 2019-05-22 日本製鉄株式会社 欠陥検出装置及び欠陥検出方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007285891A (ja) 2006-04-17 2007-11-01 Toru Yoshizawa 内面形状の測定方法とこの方法による測定装置
JP2009184081A (ja) * 2008-02-07 2009-08-20 Soatec Inc 位置合わせ装置及び保持装置
JP2012159491A (ja) 2011-01-14 2012-08-23 Nippon Steel Corp 欠陥検出装置及び欠陥検出方法
JP2014074633A (ja) * 2012-10-04 2014-04-24 Hitachi Ltd 形状計測方法及び装置
JP2015163844A (ja) 2014-02-28 2015-09-10 株式会社日立製作所 内面形状計測方法および装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3770548A4

Also Published As

Publication number Publication date
EP3770548A4 (en) 2021-11-03
US20210208085A1 (en) 2021-07-08
JPWO2020026290A1 (ja) 2020-08-06
JP6481217B1 (ja) 2019-03-13
US11428647B2 (en) 2022-08-30
EP3770548B1 (en) 2024-01-03
EP3770548A1 (en) 2021-01-27

Similar Documents

Publication Publication Date Title
JP5742655B2 (ja) 欠陥検出装置及び欠陥検出方法
JP6515344B2 (ja) 欠陥検出装置及び欠陥検出方法
JP6696278B2 (ja) ドリフト検査装置
JP6481216B1 (ja) 管状体内表面検査方法及び管状体内表面検査装置
JP4009409B2 (ja) パターン欠陥検査方法及びその装置
WO2020026290A1 (ja) 管状体内表面検査装置及び管状体内表面検査方法
JP2007079982A (ja) 画像処理装置、画像処理方法および走査型電子顕微鏡
JP6079948B1 (ja) 表面欠陥検出装置および表面欠陥検出方法
JP2004163420A (ja) パターン検査装置および方法
JP6958175B2 (ja) 管状体内表面検査装置及び管状体内表面検査方法
JP5388467B2 (ja) 光学デバイス欠陥検査方法及び光学デバイス欠陥検査装置
JP6417948B2 (ja) ドリフトゲージ及びドリフト検査方法
JP2011058939A (ja) 外観検査装置、外観検査方法
JP5357572B2 (ja) 外観検査方法および外観検査装置
JP7336294B2 (ja) ボンディングワイヤの検査装置、ボンディングワイヤの検査方法、及びボンディングワイヤの検査プログラム
JP5796511B2 (ja) 管状体検査装置及び管状体検査方法
JP6647903B2 (ja) 画像検査装置、画像検査プログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器
JP6720358B2 (ja) 3dスキャンシステム
CN108291857A (zh) 用于分析轮胎的设备和方法
US8351709B2 (en) Projection height measuring method, projection height measuring apparatus and program
JP2016109458A (ja) 円筒内壁面検査装置および円筒内壁面検査方法
JP6393663B2 (ja) 表面検査装置
JPH0963547A (ja) 缶開口部の検査方法
JPH11304723A (ja) 外観検査方法
JP2000329520A (ja) コイル位置検出装置

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2018555703

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18928249

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2018928249

Country of ref document: EP

Effective date: 20201019

NENP Non-entry into the national phase

Ref country code: DE