WO2018221653A1 - 管状体内表面検査方法及び管状体内表面検査装置 - Google Patents

管状体内表面検査方法及び管状体内表面検査装置 Download PDF

Info

Publication number
WO2018221653A1
WO2018221653A1 PCT/JP2018/020956 JP2018020956W WO2018221653A1 WO 2018221653 A1 WO2018221653 A1 WO 2018221653A1 JP 2018020956 W JP2018020956 W JP 2018020956W WO 2018221653 A1 WO2018221653 A1 WO 2018221653A1
Authority
WO
WIPO (PCT)
Prior art keywords
tubular body
image
annular
laser light
area camera
Prior art date
Application number
PCT/JP2018/020956
Other languages
English (en)
French (fr)
Inventor
赤木 俊夫
山地 宏尚
武男 中田
正樹 山野
Original Assignee
新日鐵住金株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 新日鐵住金株式会社 filed Critical 新日鐵住金株式会社
Priority to EP18808761.3A priority Critical patent/EP3594668A4/en
Priority to MX2019013510A priority patent/MX2019013510A/es
Priority to JP2018552088A priority patent/JP6481216B1/ja
Priority to CA3060434A priority patent/CA3060434A1/en
Priority to US16/614,310 priority patent/US20210156681A1/en
Publication of WO2018221653A1 publication Critical patent/WO2018221653A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/30Measuring arrangements characterised by the use of optical techniques for measuring roughness or irregularity of surfaces
    • G01B11/306Measuring arrangements characterised by the use of optical techniques for measuring roughness or irregularity of surfaces for measuring evenness
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/95Investigating the presence of flaws or contamination characterised by the material or shape of the object to be examined
    • G01N21/954Inspecting the inner surface of hollow bodies, e.g. bores

Definitions

  • the present invention relates to a tubular body surface inspection method and a tubular body surface inspection apparatus.
  • the inner surface inspection of a tubular body for inspecting the inner surface of a tubular body represented by a metal pipe such as a steel pipe or a resin pipe is one of the important inspection items particularly in a metal pipe such as a steel pipe, Usually, a visual inspection is performed by providing a separate process from the manufacturing process of the tubular body.
  • the visual inspection of the tubular body largely depends on the skill of the inspector.
  • the internal inspection for inspecting the inner surface of the tubular body makes it difficult to sufficiently perform the visual inspection. Therefore, in particular, in the axial direction deep part of the tubular body, there is a possibility that a shameful spilling out of the spear or a serious claim may occur.
  • an imaging optical system is configured by illumination light including a light source that irradiates light from a light source in a disk shape with a conical mirror or a conical prism, and an imaging system using an imaging sensor.
  • the reference position of the imaging optical system and the inspection object are obtained from the light trace image data obtained by imaging the light trace representing the inner surface shape obtained by the irradiation light irradiated on the inner surface of the inspection object while being sequentially moved.
  • a technique for measuring an inner surface shape of an object to be inspected by sequentially calculating a distance from the inner surface is disclosed.
  • Patent Document 2 a light cut image is obtained from an annular beam image obtained by irradiating an inner surface of a tubular body with an annular laser beam while moving along the axial direction of the tubular body.
  • Patent Document 3 includes a light source unit that irradiates a laser beam spread in a ring shape on the inner surface of an object to be inspected, and an imaging unit that images reflected light of the irradiated laser light on the inner surface of the object to be inspected.
  • An apparatus is disclosed in which a transparent tube is provided so as to be coaxial with an optically transparent tube, and in order to suppress the generation of ghost from the transparent tube during imaging, the transparent tube is provided with a characteristic for controlling the polarization state. Yes.
  • the frame rate at which the annular laser beam is imaged is determined by the performance of the camera used, it is difficult to sequentially obtain the light-cut images at high speed.
  • a two-dimensional area camera is used for capturing a light section image.
  • imaging is performed including a useless area other than the laser light irradiation area on the inner surface of the tubular body necessary for the inspection, it is difficult to improve the imaging frame rate.
  • a general two-dimensional area camera is not suitable for performing a high-speed inspection.
  • the captured image is captured while securing the resolution of the captured image (in other words, securing the size of the captured image). It is necessary to increase the size. Therefore, as a result, the frame rate is lowered, and time is required for imaging.
  • a support member for supporting the light source is used.
  • the annular laser beam is shielded by the support member, and an unimaged area is thus obtained. Will occur.
  • the techniques disclosed in Patent Document 1 and Patent Document 3 can eliminate the shadow of the support member for supporting the light source. It cannot be completely eliminated. For this reason, with the techniques disclosed in Patent Document 1 and Patent Document 3, the unimaged area cannot be completely eliminated even though the unimaged area can be reduced. In addition, if the tubular body that is the object to be inspected becomes large and long, the distance between the light source and the imaging unit becomes wide. Therefore, in the techniques disclosed in Patent Literature 1 and Patent Literature 3, imaging optics is used. In order to ensure the strength of the system, it is necessary to provide a support member that supports the light source and the imaging unit.
  • Patent Document 2 a technique for supplementing an unimaged area by shifting the areas to be imaged on the forward path and the return path of the inspection probe with respect to the above-described unimaged area is proposed.
  • a process of specifying an unimaged area based on a captured image of a forward or return path of an inspection probe is performed, which complicates the process.
  • the present invention has been made in view of the above problems, and an object of the present invention is to inspect the inner surface of the tubular body at higher speed, higher resolution and more easily regardless of the size of the tubular body. It is an object of the present invention to provide a tubular body surface inspection method and a tubular body surface inspection apparatus that can be used.
  • a laser light source for irradiating a laser beam
  • the laser light source An optical element that reflects the irradiated laser light as an annular laser beam in the circumferential direction of the inner surface of the tubular body, an image of the region irradiated with the annular laser light on the inner surface of the tubular body, and an annular beam
  • the tubular body imaging device is arranged along the tube axis direction of the tubular body.
  • the annular laser beam is an area that is not shielded by the connecting member, and of the entire field of view of the area camera, the charge or voltage of each pixel of the image sensor in the image sensor provided in the area camera
  • a plurality of the annular beam images are obtained by imaging the portions corresponding to the end regions set respectively at the end portions in the direction orthogonal to the pixel information transfer direction that is the direction in which the pixel information that is information is transferred.
  • An annular beam image generation step to be generated and a plurality of the annular beam images generated during the feeding and sending of the tubular body imaging device to and from the tubular body are subjected to image processing.
  • the tubular body surface inspection method having an arithmetic processing step, the determining whether a defect is present on the inner surface of the tubular body is provided.
  • annular beam image it is preferable that a region partially overlapping each other exists between the annular beam image at the time of feeding into the tubular body and the annular beam image at the time of delivery from the tubular body. .
  • the calculation processing step calculates a centroid position and a radius of the irradiation portion of the annular laser beam using the annular beam image, and the centroid position, the centroid position, and the irradiation of the annular laser beam.
  • An optical cut image including a light cutting line that is a line segment corresponding to the irradiated portion of the annular laser beam obtained by performing polar coordinate conversion on the coordinate system of the annular beam image based on the distance from the portion and obtained by the polar coordinate conversion
  • a depth image representing an uneven state of the inner surface of the tubular body, based on a fringe image frame in which the light cut images are sequentially arranged along the tube axis direction, and
  • a laser light source for irradiating laser light, and irradiation from the laser light source
  • a tubular body imaging device having an area camera for generating a laser beam, a connecting member for connecting and fixing the laser light source and the area camera, and moving the tubular body imaging device along the tube axis direction of the tubular body
  • a rotating device that rotates the tubular body imaging device in the circumferential direction of the tubular body and a plurality of the annular rings that are generated while the tubular body imaging device is fed into and sent out from the tubular body so that the positions are different
  • An arithmetic processing unit that performs image processing on the beam image and determines whether or not a defect exists on the inner surface of the tubular body, and the area camera feeds the tubular body imaging device into the tubular body
  • the annular laser light is not shielded by the connecting member during the transmission, and the image sensor included in the area camera of the entire field of view of the area camera Corresponding to the end regions set respectively at the end portions in the direction orthogonal to the pixel information transfer direction, which is the direction in which the pixel information that is information relating to the charge or voltage of each pixel of the image sensor is transferred
  • the tubular body surface inspection apparatus generates a plurality of the annular beam image is provided.
  • annular beam image it is preferable that a region partially overlapping each other exists between the annular beam image at the time of feeding into the tubular body and the annular beam image at the time of delivery from the tubular body. .
  • the arithmetic processing unit uses the annular beam image to calculate a center of gravity position and a radius of the annular laser light irradiation portion, and the center of gravity position, the gravity center position, and the annular laser light irradiation portion.
  • a coordinate system of the annular beam image is converted into a polar coordinate on the basis of the distance from the optical beam, and a light cut image including a light cutting line that is a line segment corresponding to the irradiated portion of the annular laser light obtained by the polar coordinate conversion is obtained.
  • a depth image representing an uneven state of the inner surface of the tubular body, based on a fringe image frame generated and sequentially arranged along the tube axis direction, and a light image on the inner surface of the tubular body It is preferable to calculate a luminance image representing the luminance distribution of the annular laser beam and detect a defect present on the inner surface of the tubular body based on the depth image and the luminance image.
  • FIG. 1 is an explanatory view showing an example of the configuration of a tubular body surface inspection apparatus 10 according to the present embodiment.
  • 2A and 2B are explanatory diagrams schematically showing an example of the configuration of the tubular body imaging apparatus according to the present embodiment.
  • the tubular body surface inspection apparatus 10 is an apparatus that inspects the inner surface of the tubular body 1 by imaging the inner surface of the tubular body 1 and performing image processing on an image obtained as a result of the imaging. More specifically, the tubular body surface inspection apparatus 10 according to the present embodiment is an apparatus for inspecting whether or not surface defects (uneven surface defects and pattern-type defects) exist on the inner surface of the tubular body 1.
  • tubular body 1 is not particularly limited as long as the tubular body 1 has a hollow portion.
  • the tubular body 1 include not only metal pipes and pipes represented by various steel pipes such as spiral steel pipes, ERW steel pipes, UO steel pipes, seamless steel pipes (seamless steel pipes), forged steel pipes, TIG welded steel pipes, A tubular material such as a cylinder called a container used in the extrusion method can be mentioned.
  • the tubular body surface inspection apparatus 10 captures an inner surface of the tubular body 1 and moves along the tube axis direction of the tubular body imaging apparatus 100.
  • a drive control device 150 that controls the image and an arithmetic processing device 200 that performs image processing on an image obtained as a result of imaging.
  • the tubular body imaging device 100 is installed in the hollow portion of the tubular body 1.
  • the tubular body imaging device 100 sequentially captures the inner surface of the tubular body 1 along the tube axis direction while changing the position along the tube axis direction of the tubular body 1 as needed, and a captured image obtained as a result of the imaging. Is output to the arithmetic processing unit 200.
  • the position of the tubular body imaging device 100 along the tube axis direction is controlled by the drive control device 150, and a PLG signal from a PLG (Pulse Logic Generator: pulse type velocity detector) or the like as the tubular body imaging device 100 moves. Is output to the arithmetic processing unit 200.
  • the imaging timing of the tubular body 1 is controlled by the arithmetic processing device 200.
  • the tubular body imaging device 100 will be described in detail later again.
  • the drive control device 150 is a device that controls the movement of the tubular body imaging device 100 in the tube axis direction by the support bar 134 as shown in FIGS. 2A and 2B.
  • the drive control device 150 is a device that controls the rotation of the tubular body imaging device 100 in the circumferential direction of the tubular body about the tube center axis direction of the tubular body imaging device 100 by a rotation device (not shown).
  • the drive control device 150 controls operations such as movement of the tubular body imaging device 100 in the tube axis direction and rotation of the tubular body circumferential direction under the control of the arithmetic processing device 200.
  • the drive control device 150 controls the operation of the support bar 134 that supports the tubular body imaging device 100, sends the tubular body imaging device 100 together with the support bar 134 into the tubular body, and then sends it out. Further, the drive control device 150 controls the operation of the rotating device associated with the support bar 134 when the tubular body imaging device 100 is switched from the state of being fed into the tubular body to the state of being sent out. By rotating the rotating device, the support bar 134 is rotated, and the tubular body imaging device 100 is rotated by a predetermined angle in the circumferential direction of the tubular body within a plane orthogonal to the tube axis. At this time, it is preferable that the drive control device 150 controls the rotation in the tubular body circumferential direction so that the rotation in the tubular body circumferential direction of the tubular body imaging device 100 is suppressed to a predetermined threshold angle or less.
  • the arithmetic processing device 200 generates a striped image frame using the captured image generated by the tubular body imaging device 100 and performs image processing on the striped image frame, whereby the inner surface of the tubular body 1 is obtained. This is a device for detecting a defect that may be present.
  • the arithmetic processing apparatus 200 will be described in detail again below.
  • FIGS. 2A to 5B are explanatory diagrams schematically showing an example of the configuration of the tubular body imaging apparatus according to the present embodiment.
  • 3A to 5B are explanatory views for explaining the tubular body imaging apparatus according to the present embodiment.
  • the tubular body imaging apparatus 100 holds the illumination mechanism 110, the area camera 120, and the illumination mechanism 110 and the area camera 120 fixed to each other.
  • This is an apparatus composed of an imaging unit having a substrate 131 and a connecting member 133 that is a support for connecting two holding substrates 131.
  • FIG. 2A schematically shows a case where the tubular body imaging device 100 according to the present embodiment is sent into the tubular body 1, and FIG. 2B relates to the present embodiment.
  • the tubular body imaging device 100 is schematically shown when it is delivered from the inside of the tubular body 1.
  • the tubular body imaging apparatus 100 according to the present embodiment is between the inside of the tubular body and the delivery from the inside of the tubular body (particularly, When switching from the fed-in state to the sent-out state), the connecting member 133 is rotated by a predetermined angle in the circumferential direction of the tubular body so that the positions in the plane orthogonal to the tube axis direction are different.
  • the connecting member 133 is provided on the outer periphery of the tubular body 1 so as to face each other in the diametrical direction of the tubular body 1 within a plane orthogonal to the tube axis.
  • the entire tubular body imaging device 100 is rotated approximately 90 degrees in the circumferential direction of the tubular body 1.
  • the illumination mechanism 110 is a mechanism that illuminates the inner surface of the tubular body 1 by irradiating the inner surface of the tubular body 1 with predetermined light.
  • the illumination mechanism 110 has at least a laser beam irradiation device that irradiates an annular laser beam with respect to the entire circumferential direction of the inner surface of the tubular body 1.
  • Such a laser beam irradiation device is a device that irradiates an annular laser beam (hereinafter also referred to as “annular beam”) along the tube circumferential direction of the inner surface of the tubular body 1, and is shown in FIGS. 2A and 2B.
  • annular beam annular laser beam
  • the laser light source 111 and the conical optical element 113 are provided.
  • the laser light source 111 is a light source that oscillates laser light having a predetermined wavelength. As such a laser light source 111, it is possible to use, for example, a CW laser light source that continuously performs laser oscillation.
  • the wavelength of light oscillated by the laser light source 111 is not particularly limited, but is preferably a wavelength belonging to the visible light band of about 400 nm to 800 nm, for example.
  • the laser light source 111 oscillates laser light based on an irradiation timing control signal sent from the arithmetic processing unit 200 described later, and irradiates the laser light along the tube axis direction of the tubular body 1.
  • the conical optical element 113 is an optical element including a conical mirror or prism, and is installed so that the apex of the conical part faces the laser light source 111.
  • the spot-shaped laser light emitted from the laser light source 111 is reflected by the apex of the conical portion of the optical element 113, and a line beam is generated in a ring shape with respect to the inner surface of the tubular body 1.
  • the cone angle of the cone portion is 90 °, as shown in FIGS. 2A and 2B, the annular beam is irradiated in a direction perpendicular to the laser incident direction from the laser light source 111.
  • the area camera 120 is provided at the rear of the illumination mechanism 110 with reference to the light irradiation direction along the tube axis direction of the illumination mechanism 110.
  • the area camera 120 is equipped with an image sensor such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor).
  • the area camera 120 may be a monochrome camera or a color camera. As shown in FIGS.
  • the area camera 120 images the annular beam irradiated perpendicularly to the inner surface of the tubular body 1 from the direction of the angle ⁇ , and from the captured image of the annular beam on the inner surface,
  • An annular beam image that is an image corresponding to an imaging target region (a so-called region of interest (ROI)) to be described later is generated at each time of sending and sending.
  • ROI region of interest
  • the area camera 120 is a camera that can set only a predetermined area as an imaging target area (ROI) in the entire field of view that can be imaged.
  • ROI imaging target area
  • the image sensor provided in the area camera 120 generally, in a predetermined direction of the image sensor (for example, in the horizontal direction in the arrangement of pixel groups constituting the image sensor or in a direction orthogonal to the horizontal direction).
  • pixel information information regarding the charge stored in each pixel of the image sensor or information regarding the voltage of each pixel of the image sensor is hereinafter referred to as “pixel information”, and the direction in which the pixel information is transferred is described below. Then, it may be referred to as “pixel information transfer direction”.
  • the pixel information transfer direction in the image sensor is a matter determined in advance at the time of manufacturing the image sensor and can be grasped in advance by confirming the specifications of the image sensor.
  • an imaging target region is set in a partial range in the vertical direction, which is a simple direction.
  • the area camera 120 transfers the pixel information regarding the charge or voltage of each pixel of the image sensor in the horizontal direction for a partial range in the vertical direction of the captured image set as the imaging target region (ROI), thereby Only an image in a partial range in the vertical direction set as a region (ROI) can be extracted from the entire imageable field of view.
  • the imaging target region (ROI) is not set by extracting only the image of a partial range in the vertical direction set as the imaging target region (ROI) from the entire field of view that can be captured.
  • the pixel information transfer time can be shortened.
  • the inner surface of the tubular body 1 can be imaged at a higher imaging frame rate, and consequently the inner surface of the tubular body 1 is imaged at a higher speed. It becomes possible.
  • the focal length and angle of view of the lens mounted on the area camera 120 and the distance between the illumination mechanism 110 and the image sensor of the area camera 120 are not particularly limited, the inner surface of the tubular body 1 is irradiated. It is preferable to select such that an entire image of the annular beam can be captured. Further, the size and pixel size of the image sensor mounted on the area camera 120 are not particularly limited, but it is preferable to use a large image sensor in consideration of the image quality, image resolution, and the like of the generated image. . From the viewpoint of image processing described below, it is preferable that the line width (line width) of the annular beam is adjusted to be about 1 to 3 pixels on the image sensor.
  • the illumination mechanism 110 and the area camera 120 are arranged so that the central axis of the laser light emitted from the illumination mechanism 110 and the central axis (optical axis) of the area camera 120 are coaxial. It is fixed to the holding substrate 131.
  • the angle ⁇ formed by the annular beam and the boundary line that defines the angle of view of the area camera 120 can be set to an arbitrary value, but for example, about 30 to 60 degrees. Is preferred. If the angle is too large, the scattered light (reflected light) of the annular beam from the inner surface of the tubular body 1 will be weak, and if it is small, the fringes described later with respect to the amount of change in the depth of the tubular body 1 that is the inspection object. This is because the amount of movement of the stripes in the image is reduced, and information on the depth of the concave portion (or the height of the convex portion) existing on the inner surface of the tubular body 1 is deteriorated.
  • the imaging unit as described above is supported by the support bar 134 as schematically shown in FIGS. 2A and 2B, and the support bar 134 is driven in the tube axis direction by the drive control device 150.
  • the illumination mechanism 110 and the area camera 120 move on the inner surface of the tubular body 1 while moving in the tube axis direction so as to substantially coincide with the central axis of the tubular body 1 by the drive control device 150. Therefore, the inner surface of the tubular body 1 can be scanned by continuously performing imaging with the area camera 120 during the movement.
  • the drive control device 150 uses a rotating device (not shown) and moves the support bar 134 connected to the rotating device by a predetermined angle in the circumferential direction of the tubular body (for example, approximately 90 degrees) to change the orientation of the imaging unit.
  • a predetermined angle in the circumferential direction of the tubular body for example, approximately 90 degrees
  • the region where the connecting member 133 blocks the field of view of the area camera 120 when the image pickup unit is sent into the tubular body 1 and when it is sent out is orthogonal to the tube axis.
  • the positions in the plane will be different from each other. Therefore, if the inner surface of the tubular body 1 is scanned and imaged both when the imaging unit is sent into the tubular body 1 and when the imaging unit is sent out, the entire inner surface can be imaged without a loss of visual field.
  • the arithmetic processing device 200 described later outputs a trigger signal for imaging to the area camera 120 every time the tubular body imaging device 100 moves a predetermined distance in the tube axis direction.
  • the movement interval in the tube axis direction of the illumination mechanism 110 and the area camera 120 can be set as appropriate, for example, it is preferable to set the same as the pixel size of the image sensor provided in the area camera 120.
  • the vertical resolution and the horizontal resolution can be matched in the captured image.
  • the material of the holding substrate 131 is appropriately selected according to the strength required for the tubular body imaging device 100.
  • the material of the connecting member 133 is not limited as long as the imaging unit is not bent. However, a material that can be regarded as transparent to the wavelength of the annular beam, such as glass, can be used. is there. 2A and 2B show the case where there are two connecting members 133, the number of connecting members 133 depends on the strength required of the tubular body imaging device 100. May be set as appropriate, and may be one or three or more.
  • each connecting member 133 is preferably arranged on the edge of the holding substrate 131 along the circumferential direction of the holding substrate 131.
  • FIG. 3A schematically shows the field of view of the area camera 120 at the time of sending in
  • FIG. 3B schematically shows the state of the field of view of the area camera 120 at the time of sending.
  • 3A and 3B are not based on the horizontal and vertical directions of the tubular body imaging device 100, but are based on the vertical and horizontal directions of the area camera 120 (more specifically, the vertical and horizontal directions of the image sensor provided in the area camera 120). Are shown based on vertical and horizontal.
  • FIG. 3A and FIG. 3B are schematic views.
  • the illumination mechanism 110 in addition to the annular laser light emitted from the illumination mechanism 110, the illumination mechanism 110, the holding substrate 131, and the connecting member 133 are present. Further, a part of the annular beam on the inner surface is shielded by the connecting member 133, and an area where the annular laser beam cannot be observed is generated.
  • FIG. 4A and FIG. 4B for the purpose of speeding up imaging processing while maintaining high resolution and dealing with the occurrence of a region where the annular laser beam cannot be observed by the connecting member 133, FIG. 4A and FIG.
  • the image capturing target region ROI for handling only a predetermined region of the entire field of view that can be imaged is displayed in the pixel information transfer direction of the image sensor (see FIGS. 4A and 4B).
  • FIGS. 4A and 4B two positions are set in each end region in the direction orthogonal to the horizontal direction (in the case of FIGS. 4A and 4B, the vertical direction). That is, of the images captured by the area camera 120, only the image corresponding to the imaging target region ROI is handled as an annular beam image and transmitted to the arithmetic processing device 200, thereby performing image processing to be described later.
  • the imaging target area ROI set in the area camera 120 at the time of sending will be referred to as ROI_1A and ROI_2A for convenience, and the imaging target area ROI set in the area camera 120 at the time of sending will be referred to for convenience.
  • ROI_1B and ROI_2B the imaging target area ROI set in the area camera 120 at the time of sending.
  • the portion corresponding to ROI_1A and ROI_IB will be referred to as the upper side in the entire field of view that can be imaged, and the portion corresponding to ROI_2A and ROI_2B will be referred to as the lower side in the entire field of view that can be imaged. I will do it.
  • FIGS. 4A and 4B are not based on the horizontal and vertical directions of the tubular body imaging apparatus 100, but are based on the vertical and horizontal directions with respect to the vertical and horizontal directions of the area camera 120, respectively.
  • the area camera 120 as schematically shown in FIGS. 4A and 4B, out of the entire field of view of the area camera 120, the pixel information of the image sensor of the area camera 120 is transferred perpendicular to the tube axis direction of the tubular body 1.
  • the upper end and the lower end of the entire field of view of the area camera 120 are not included in the entire direction of the area camera 120 so that the annular laser light is not shielded by the connecting member 133.
  • a rectangular imaging target region (ROI) is set in each part.
  • a plurality of connecting members 133 may exist in regions other than the imaging target region (ROI) set in the upper end portion and the lower end portion of the entire field of view of the area camera 120, respectively. Therefore, in order to prevent the tubular body imaging apparatus 100 from bending in the tube axis direction, if a predetermined strength is obtained for the imaging unit, a plurality of connecting members are provided in a region other than the two imaging target regions (ROI). What is necessary is just to determine suitably arrangement
  • the imaging target region (ROI) is set at the upper end and the lower end of the entire field of view of the area camera 120 because the area camera 120 relates to the charge or voltage of each pixel of the image sensor. This is because one area of the image can be extracted without missing in correspondence with the transfer of the pixel information in the horizontal direction. Therefore, when the area camera 120 transfers pixel information related to the charge or voltage of each pixel of the image sensor in the vertical direction, the imaging target region (ROI) is set to the left side of the entire field of view of the area camera 120. It is also possible to set the end portion and the right end portion.
  • the size in the direction orthogonal to the longitudinal direction of the imaging target region (ROI) as viewed from the field of view of the area camera 120 is determined so that there are regions that partially overlap each other.
  • FIGS. 4A and 4B will be described with respect to a method for setting an imaging target region (ROI) in the present embodiment. Details will be described with reference to FIG.
  • the radius of the annular beam in the annular beam image is represented as R.
  • an annular beam image located in the range of R ⁇ ⁇ R with the position represented by the radius R as the center is used. Accordingly, it is preferable that the imaging target region (ROI) set in the area camera 120 is set so as to include at least an image region used in the subsequent image processing.
  • a rectangular imaging target region is set as mentioned above. That is, the number of pixels in the horizontal direction of the image sensor in the imaging target region (ROI) is W pixels.
  • connection member is obtained by using the annular beam images captured by the area camera 120 both at the time of sending and at the time of sending.
  • the annular beam image of the portion corresponding to the region where the annular laser beam cannot be observed due to 133 is complemented.
  • the annular beam images for the entire inner surface of the tubular body 1 are secured using the annular beam images in the four imaging target regions (ROI).
  • the imaging target region ROI_1A in the area camera 120 at the time of sending is defined by the width W ⁇ height from the pixel coordinates of (0, 0) on the basis of the vertical and horizontal of the area camera 120.
  • the number h of pixels in the vertical direction of the image sensor set as a rectangular area h is defined by the following equations (101) to (103).
  • the portion corresponding to the number of pixels ⁇ A is between the size of the annular beam image used in the subsequent image processing and the time of sending and sending. This corresponds to an area set for securing both imaging target areas (ROI) partially overlapping each other.
  • the parameter ⁇ in the above formula (105) is an allowable setting value in consideration of vibration and the like, a rotation error in the circumferential direction of the tubular body imaging device 100, and the like, for example, can be about 5 pixels.
  • the value of ⁇ R may be appropriately set according to the inner diameter of the tubular body 1 that is the object to be inspected, the pixel size of the image sensor mounted on the area camera 120, and the like, and the inner diameter of the tubular body is 400 mm.
  • the inner diameter of 400 mm corresponds to 1000 pixels, and therefore, for example, ⁇ R can be set to about 25 pixels.
  • the lower imaging target region ROI_2A in the area camera 120 is a rectangular region having a width W ⁇ height h from (0, Hh) with respect to the vertical and horizontal of the area camera 120 as the above formula (101). ) To (105).
  • the upper imaging target region ROI_1B and the lower imaging target region ROI_2B in the area camera 120 at the time of transmission are set in the same manner as the area camera 120 at the time of transmission. Since the area camera 120 at the time of sending is obtained by rotating the area camera 120 at the time of sending 90 degrees counterclockwise, the setting value on the camera can be the same as that at the time of sending.
  • imaging is performed by increasing the imaging frame rate of the camera in accordance with the ratio of the area of the imaging target area (ROI) to the entire imaging area of the camera. It becomes possible. As a result, it is possible to obtain an optical cutting line by laser light with a finer period. That is, by setting the area area of the imaging target area to 1/2, 1/3, 1/4... Relative to the entire imaging area of the area camera, the pixel information transfer amount in the imaging element is set to the imaging target. Compared with the case where the region (ROI) is not set, as a result of decreasing to approximately 1/2, 1/3, 1/4..., The imaging frame rate is also approximately 1/2, 1/3, 1 / 4... Can be captured at high speed.
  • the tubular body imaging device 100 it is possible to image the inner surface of the tubular body with higher speed, higher resolution, and more easily.
  • the specific value of the imaging frame rate may be set as appropriate according to the required imaging rate.
  • the imaging frame rate in the two imaging target areas is a normal imaging rate. It can be about 300 fps, which is a value that is about twice the frame rate (that is, the frame rate when the entire imaging area of the area camera is imaged).
  • an image sensor mounted on a general area camera has an imaging target region (ROI) in a direction in which pixel information of the image sensor of the area camera 120 is transferred (in the case of FIGS. 4A and 4B, the longitudinal direction of the captured image). Since the frame rate does not improve even if the width of) is reduced, the width W of the imaging target region (ROI) may be the same as the width W of the area camera 120 in the direction in which the pixel information is transferred.
  • the frame rate is expected to increase.
  • the width w may be calculated by the following equation (107) corresponding to the height h.
  • a rectangular region having a width w ⁇ height h is set as the upper imaging target region ROI_1A from the coordinates of (W / 2 ⁇ Rsin ⁇ A, 0), and the imaging target region ROI_2A is (W / 2 ⁇ 2A).
  • a rectangular area of width w ⁇ height h may be set from the coordinates of R sin ⁇ A, H ⁇ h).
  • the set values of the imaging target regions ROI_1A, ROI_2A, ROI_1B, and ROI_2B in the area camera 120 as described above are set as lookup values as preset values according to the size (inner diameter, etc.) of the tubular body 1 that is the inspection target. Is stored in a storage unit or the like of the arithmetic processing device 200 described later, and the arithmetic processing device 200 refers to the lookup table or the like when performing imaging control of the area camera 120. It is preferable that it can be easily set.
  • ROI imaging target regions
  • Tubular body Inner diameter 100mm ⁇ 500mm, length 10m ⁇ 20m ⁇ Illumination mechanism 110 Laser light in the visible light band is irradiated from the laser light source 111 with an output of 100 mW.
  • the laser beam is reflected by the conical optical element 113 (cone angle 90 degrees) as an annular beam of 50 mW to the inner surface of the tubular body.
  • the line beam width irradiated on the inner surface of the tubular body is 0.25 mm. However, the line beam width in this case is defined as 13.5% from the peak intensity value.
  • CMOS pixel size: 4.8 ⁇ m ⁇ 4.8 ⁇ m
  • the focal length of the lens is 1.81 mm
  • the horizontal field angle is 180 °.
  • the captured image has a pixel size of 0.4 mm ⁇ 0.4 mm and a line beam width of 1 to 3 pixels on the captured image.
  • ROI imaging target region
  • the area cameras 120A and 120B take images of the inner surface of the tubular body every 0.25 mm in the tube axis direction (that is, output 1 pulse of PLG signal every time the tubular body imaging device 100 moves 0.25 mm). .
  • the arithmetic processing apparatus 200 mainly includes an imaging control unit 201, an image processing unit 203, a display control unit 205, and a storage unit 207 as shown in FIG.
  • the imaging control unit 201 is realized by a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), a communication device, and the like.
  • the imaging control unit 201 performs imaging control of the inspection object by the tubular body imaging apparatus 100 according to the present embodiment. More specifically, the imaging control unit 201 sends a control signal for starting oscillation of laser light to the illumination mechanism 110 when imaging of the tubular body 1 is started.
  • the imaging control unit 201 refers to the area camera 120 with the two types of imaging target regions (ROIs) described above while referring to a lookup table or the like stored in the storage unit 207 or the like described later. After setting, a trigger signal for starting imaging is sent to the area camera 120.
  • the imaging control unit 201 sends a trigger signal for moving the tubular body imaging device 100 by a predetermined distance along the tube axis direction to the drive control device 150. Send it out.
  • a PLG signal is periodically transmitted from the tubular body imaging apparatus 100 (for example, every time the tubular body imaging apparatus 100 moves 0.25 mm, one pulse of the PLG signal).
  • the imaging control unit 201 sends a trigger signal for starting imaging to the area camera 120.
  • the imaging control unit 201 moves the tubular body imaging device 100 with respect to the drive control device 150 by a predetermined angle along the circumferential direction of the tube (100). For example, a trigger signal for rotating by 90 degrees is transmitted. Thereafter, the imaging control unit 201 performs imaging control when the tubular body imaging device 100 is sent out in the same manner as described above.
  • the image processing unit 203 is realized by, for example, a CPU, a ROM, a RAM, a communication device, and the like.
  • the image processing unit 203 uses the imaging data at the time of sending and sending acquired from the tubular body imaging device 100 (more specifically, the area camera 120 of the tubular body imaging device 100) to produce a striped image frame to be described later. Is generated. Thereafter, image processing as described below is performed on the generated fringe image frame to detect defects that may exist on the inner surface of the tubular body that is the measurement object.
  • the image processing unit 203 finishes the defect detection process on the inner surface of the tubular body 1, the image processing unit 203 transmits information about the obtained detection result to the display control unit 205.
  • the image processing unit 203 will be described in detail later.
  • the display control unit 205 is realized by, for example, a CPU, a ROM, a RAM, an output device, and the like.
  • the display control unit 205 is provided outside the arithmetic processing device 200 and the output device such as a display provided in the arithmetic processing device 200, and the defect detection result of the tubular body 1 that is the inspection object transmitted from the image processing unit 203. Display control when displaying on the output device. Thereby, the user of the tubular body surface inspection apparatus 10 can grasp the detection results regarding various defects existing on the inner surface of the inspection object (tubular body 1) on the spot.
  • the storage unit 207 is realized by, for example, a RAM or a storage device included in the arithmetic processing device 200 according to the present embodiment.
  • the arithmetic processing device 200 according to the present embodiment performs some processing, such as a setting preset value of an imaging target region (ROI) in the area camera 120 of the tubular body imaging device 100 according to the present embodiment.
  • ROI imaging target region
  • Various parameters, the progress of processing, etc., or various databases, programs, etc. that need to be stored in are stored as appropriate.
  • the imaging control unit 201, the image processing unit 203, the display control unit 205, and the like can execute read / write processing.
  • FIG. 6 is a block diagram illustrating a configuration of an image processing unit included in the arithmetic processing apparatus according to the present embodiment.
  • the image processing unit 203 includes an A / D conversion unit 211, an annular beam center calculation unit 213, a coordinate conversion unit 215, a partial fringe image frame generation unit 217, It mainly includes a fringe image frame generation unit 219, an image calculation unit 221, and a detection processing unit 229.
  • the A / D conversion unit 211 is realized by, for example, a CPU, a ROM, a RAM, and the like.
  • the A / D conversion unit 211 performs A / D conversion on the captured images output from the area camera 120 at the time of transmission and transmission, for a total of four types as shown schematically in FIGS. 5A and 5B. It outputs as digital multi-value image data (namely, annular beam image) regarding an imaging object region (ROI).
  • digital multivalued image data is stored in an image memory provided in the storage unit 207 or the like.
  • the annular beam image is obtained by imaging the annular beam irradiated on the inner surface of the tubular body at a certain position along the tube axis direction of the inner surface of the tubular body 1.
  • the annular beam image may be a gray image in which, for example, the portion irradiated with the annular beam is displayed in white and the other portions are displayed in black by appropriately setting the camera gain and the lens aperture in advance. it can.
  • the unevenness superimposed on the circumference of the annular beam includes information on the cross-sectional shape of the inner surface of the tubular body and the defects existing on the inner surface.
  • the A / D conversion unit 211 When the A / D conversion unit 211 generates the annular beam image based on the captured image output from the area camera 120, the A / D conversion unit 211 outputs data corresponding to the generated annular beam image to the annular beam center calculation unit 213 described later.
  • the annular beam center calculation unit 213 is realized by, for example, a CPU, a ROM, a RAM, and the like.
  • the annular beam center calculation unit 213 uses the annular beam images generated by the area camera 120 at the time of sending and sending, which are output from the A / D conversion unit 211, and uses the ring beam center position and the ring center position. Calculate the radius.
  • the annular beam center calculating unit 213 uses the annular beam images at the time of sending and sending by the area camera 120 to generate a composite image as shown in FIG. produced using such synthetic images, it is preferable to calculate respectively the radius r of the center of gravity position O C and ring ring.
  • the composite image shown in FIG. 7 is an image obtained by combining the annular beam images so that the entire annular beam can be recognized using the annular beam images generated by the area camera 120 at the time of sending and sending.
  • FIG. 2B In what order the annular beam images in the four types of imaging target regions (ROIs) generated by the area camera 120 at the time of sending and sending are to be combined are shown in FIG. It can be determined in advance based on the optical attitude of the area camera 120 as shown in FIG. 2B. In addition, there is a defect such as a flaw on the inner surface as to where the annular beam images in the four types of imaging target regions (ROI) generated by the area camera 120 should be combined with each other. It is only necessary to specify in advance a coupling position where the annular beam images in the four types of imaging target regions (ROIs) are smoothly connected using a reference tube that has not been clearly identified. .
  • the annular beam center calculation unit 213 combines the annular beam images so that the annular beam images are smoothly connected when the annular beam images in the four types of imaging target regions (ROI) are combined. It is preferable to finely adjust the position.
  • the rotation error in the circumferential direction of the tubular body imaging device 100 is adjusted to be within the range of the width ⁇ A in the height direction in the imaging target region (ROI) as described above, and as described above. Even if an error occurs in the rotation of the tubular body imaging device 100 in the circumferential direction by performing fine adjustment at the time of coupling, the annular beam image in the four types of imaging target regions (ROI) is more reliably obtained. Can be combined to generate a composite image.
  • Method for calculating the center of gravity position O C and the radius r of the ring is not particularly limited, it is possible to use any method known. Specific examples of the method of calculating the centroid position O C and the radius r of the ring, for example, if the annular beam image is close to a perfect circle can be mentioned two methods as follows.
  • Annular beam center calculating section 213 calculating the centroid position O C and the radius r of the ring for each of the annular beam image, and generates respectively the information about the gravity center position O C and the radius r of the ring, the coordinate conversion unit 215 to be described later Output.
  • the cross-sectional shape of the inner surface of the tubular body 1 is close to a perfect circle
  • the cross-sectional shape is an ellipse or a rounded corner. It may be a rectangle or the like.
  • the center of gravity in such a case can be obtained from the shape of the annular beam, and by using the average value of the maximum value and the minimum value of the distance to the obtained center of gravity as the radius, coordinate conversion described later is performed in the same procedure. Can be implemented.
  • the annular beam center calculating section 213 causes generates a synthesized image as shown in FIG. 7 not to, send by using the annular beam image obtained by the area camera 120 to calculate the gravity center position O C and the radius r of the ring Nyutoki, the ring with the annular beam image obtained by the area camera 120 at the time of delivery it may calculate the gravity center position O C and the radius r.
  • the coordinate conversion process will be described later, for feeding the annular beam image obtained from the area camera 120 of Nyutoki the center of gravity of the computed from the feed Nyutoki annular beam image ring O C and the radius r is used together, the annular beam image obtained from the area camera 120 at the time of delivery, the gravity center position O C and the radius r of the calculated from the delivery time of the annular beam image ring is used.
  • the position of the center of gravity O C and the radius r of the ring is used, when going to combine all of the partial fringe image frame in the generation process of the fringe image frame to be described later, the partial stripe image frame connection It is necessary to pay attention to how to make this happen, and the subsequent processing may become complicated.
  • the coordinate conversion unit 215 is realized by, for example, a CPU, a ROM, a RAM, and the like.
  • the coordinate conversion unit 215 performs polar coordinate conversion on the coordinate system of the annular beam image based on the calculated gravity center position and the separation distance (separation amount) between the gravity center position and the irradiated portion of the annular beam. For this reason, the image of the irradiated portion of the annular laser beam that appears in a curved shape in the annular beam image is converted into a straight line segment by polar coordinate conversion. Thereafter, the coordinate conversion unit 215 generates a light section image represented as a line segment corresponding to the irradiation portion of the annular beam.
  • the orthogonal coordinate system on the xy plane can be converted into the polar coordinate system, and the pixel position corresponding to the irradiation position of the annular beam can be expressed as the barycentric position. It can be expressed by polar coordinates (r, ⁇ ) as the origin.
  • the coordinate conversion unit 215 provides an allowance of ⁇ ⁇ r in the radial direction for the radius r calculated by the annular beam center calculation unit 213 (that is, a range of r ⁇ r to r + ⁇ r).
  • coordinate conversion is performed in the range of ⁇ to ⁇ (in the case of FIGS.
  • the coordinate transformation is performed in the range of r ⁇ r to r + ⁇ r in the radial direction.
  • the value of the margin ⁇ r is in the plus direction in the range including the irradiated portion of the annular beam. The value may be different in the minus direction.
  • the range for coordinate conversion can be expressed as r ⁇ r 1 to r + ⁇ r 2 .
  • the following description will be given for the case where the same value ⁇ r is used in the plus direction and the minus direction.
  • the radius direction has a height of 2 ⁇ r with the radius r as the center, and the angle direction has ⁇ ⁇ ′ (FIG. 4A and FIG. 4).
  • a band-like image having a length corresponding to about 90 degrees is extracted.
  • the extracted band-like image includes a line segment (hereinafter also referred to as “light cutting line”) in which the irradiated portion of the annular beam is developed in the tube circumferential direction of the tubular body. become.
  • the magnitude of ⁇ r can be determined by roughly calculating in advance the range of the height of the unevenness that can exist in the tubular body 1 based on past operation data and the like.
  • the coordinate conversion unit 215 performs conversion from the orthogonal coordinate system to the polar coordinate system, the lattice point in the orthogonal coordinate system (that is, the center position of the pixel) does not necessarily correspond to the lattice point in the polar coordinate system. Some of them correspond to non-grid points. Therefore, the coordinate conversion unit 215 performs interpolation based on the density of other grid points located in the vicinity of the point of interest in order to interpolate the density (pixel value) of the non-grid points in the polar coordinate system. It is preferable to implement the interpolation method together.
  • Such an image interpolation method is not particularly limited, and for example, a well-known image interpolation method described in “Shojido Image Processing Handbook” or the like can be used.
  • Examples of such an image interpolation method include a nearest neighbor method, a bi-linear interpolation method, and a cubic interpolation method. Of these methods, the former has a higher processing speed, and the latter has a higher quality result. Therefore, the coordinate conversion unit 215 may determine the type of image interpolation method to be used as appropriate according to the amount of resources that can be used for processing, the processing time, and the like. In the specific example of the light section image shown in the present embodiment, the cubic interpolation method is applied as the image interpolation method.
  • the image data corresponding to the obtained light-cut image is stored in the image memory provided in the storage unit 207 or the like in the tubular body. Store sequentially along the axial direction.
  • the partial stripe image frame generation unit 217 is realized by, for example, a CPU, a ROM, a RAM, and the like.
  • the partial fringe image frame generation unit 217 is configured to store each imaging target region (that is, ROI_1A, ROI_2A, ROI_1B, ROI_2B) stored along the tube axis direction of the tubular body from the image memory provided in the storage unit 207 or the like. Are sequentially obtained. Thereafter, the partial fringe image frame generation unit 217 sequentially arranges the obtained light-cut images for the respective imaging target regions along the tube axis direction of the tubular body, and four types of partial striped images for each imaging target region. Generate a frame.
  • the number of light section images constituting one partial stripe image frame may be set as appropriate.
  • one partial stripe image frame may be composed of 512 light section images.
  • FIG. 9 shows an example of a partial stripe image frame generated by the partial stripe image frame generation unit 217.
  • FIG. 9 schematically illustrates a case where a partial striped image frame related to the imaging target region ROI_1A is generated using the light section image related to the imaging target region ROI_1A.
  • one line segment extending in the horizontal direction of the drawing corresponds to a developed ring beam image, and the horizontal direction of the drawing is circular.
  • the vertical direction of the drawing corresponds to the tube axis direction of the tubular body 1.
  • the partial stripe image frame generation unit 217 When the partial stripe image frame generation unit 217 generates four types of partial stripe image frames related to ROI_1A to ROI_2B as described above, the generated partial stripe image frames are output to the stripe image frame generation unit 219 described later. .
  • the partial stripe image frame generation unit 217 associates the data corresponding to the generated partial stripe image frame with time information related to the date and time when the partial stripe image frame is generated, and stores it in the storage unit 207 or the like as history information. May be.
  • the stripe image frame generation unit 219 is realized by, for example, a CPU, a ROM, a RAM, and the like.
  • the fringe image frame generation unit 219 uses the four types of partial stripe image frames generated by the partial stripe image frame generation unit 217, and combines these partial stripe image frames with each other to form the entire circumference of the inner surface of the tubular body 1.
  • a fringe image frame is generated in which the light cutting lines are sequentially arranged along the tube axis direction of the tubular body.
  • a partial stripe image frame generated from an annular beam image at the time of sending and a partial stripe image frame generated from an annular beam image at the time of sending are included. Combine each other. Therefore, as schematically shown in the upper part of FIG. 10, the light-cut image of the first line in the partial stripe image frame at the time of sending corresponds to the light cut image of the N-th line in the partial stripe image frame at the time of sending. ing. Therefore, the striped image frame generation unit 219 considers the imaging timing of the annular beam image and associates the partial striped image frame at the time of sending with the partial striped image frame at the time of sending as described above. The four types of partial stripe image frames are combined with each other while considering overlapping portions between the partial stripe image frames to generate a stripe image frame.
  • the fringe image frame generation unit 219 When the fringe image frame generation unit 219 generates the stripe image frame as illustrated in FIG. 10, the fringe image frame generation unit 219 outputs the generated stripe image frame to the image calculation unit 221 described later. Further, the fringe image frame generation unit 219 may associate the time information related to the date and time when the fringe image frame is generated with the data corresponding to the generated fringe image frame and store the data in the storage unit 207 or the like as history information. .
  • the image calculation unit 221 is realized by, for example, a CPU, a ROM, a RAM, and the like. Based on the fringe image frame generated by the fringe image frame generation unit 219, the image calculation unit 221 calculates the depth image representing the uneven state of the inner surface of the tubular body and the luminance distribution of the annular beam on the inner surface of the tubular body. And a luminance image to be expressed. As shown in FIG. 6, the image calculation unit 221 includes a light section line processing unit 223, a depth image calculation unit 225, and a luminance image calculation unit 227.
  • the light cutting line processing unit 223 is realized by, for example, a CPU, a ROM, a RAM, and the like.
  • the light section line processing unit 223 calculates, for each light section line included in the fringe image frame, a light section line feature amount including a displacement amount of the light section line (bending degree of the bright line).
  • a light section line feature amount including a displacement amount of the light section line (bending degree of the bright line).
  • FIGS. 11A and 11B is an explanatory diagram schematically showing a fringe image frame.
  • FIG. 11B is an explanatory diagram for explaining the optical section line processing performed by the optical section line processing unit.
  • one light section image including one light section line is composed of vertical 2 ⁇ r pixels ⁇ horizontal M pixels.
  • a striped image is obtained by taking the X axis in the tube circumferential direction (horizontal direction in FIG. 11A) of the striped image frame and the Y axis in the tube axis direction (vertical direction in FIG. 11A) of the striped image frame.
  • the position of a pixel in a frame is expressed by XY coordinates.
  • the position of the m-th pixel (1 ⁇ m ⁇ M) from the left side of the j (1 ⁇ j ⁇ N) th light section line existing in the fringe image frame ie, represented by X j, m ). The position).
  • the light section line processing unit 223 determines an X coordinate position (a position represented by X j, m in the present description) of a light section line (hereinafter also simply referred to as “line”) to be focused.
  • line a light section line
  • the distribution of the pixel values that is, the luminance value of the annular beam
  • the light section line processing unit 223 does not perform the process described below for all the pixels at the X coordinate position in the light section image, but the reference position Y s of the Y coordinate in the light section image.
  • the processing described below is performed for pixels belonging to the range of W before and after W (that is, pixels belonging to the range of Y s ⁇ W to Y s + W).
  • the reference position Y s of the Y coordinate is a position in the tube axis direction that is designated in advance with respect to the light cutting image of the jth line of the fringe image frame.
  • the center in the tube axis direction of the light cutting image is designated. If the same margin value ⁇ r is used in the plus direction and the minus direction as described above, it becomes equal to the radius r (that is, the position of the light cutting line) calculated by the annular beam center calculation unit.
  • the parameter W defining a processing range based on the height range of the irregularities which may be present in the tubular body 1 in the past operation data, the Y coordinate in the light section images before and after W reference position Y s A rough calculation may be performed in advance so that the range fits in the light-cut image, and the range may be determined as appropriate. If the value of the parameter W can be reduced, it is possible to reduce the processing load of the optical section line processing unit 223 described later.
  • the light section line processing unit 223 is a predetermined threshold that is an example of a first threshold value for specifying a pixel corresponding to the light section line from the pixels included in the range of Y s ⁇ W to Y s + W.
  • a pixel having a pixel value equal to or greater than the threshold Th is specified.
  • three pixels represented by Y j, k , Y j, k + 1 , Y j, k + 2 have pixel values I j, k , I j, k + 1 , I j that are greater than or equal to the threshold Th, respectively. , K + 2 .
  • the number p j, m obtained by adding pixels having pixel values equal to or greater than the predetermined threshold Th in the line width direction is a value corresponding to the number of pixels of the bright line at the position (j, m). one of.
  • the light section line processing unit 223 performs information (Y j, k , I j, k ), (Y j, k + 1 , I j, k + 1 ), (Y j, k + 2 ) regarding the extracted pixels in the following processing. , I j, k + 2 ) (hereinafter, sometimes simply abbreviated as (Y, I)), further light section line feature quantities are calculated.
  • the light section line processing unit 223 calculates the total luminance K j, m of the extracted pixels using the parameters p j, m and the information (Y, I) regarding the extracted pixels.
  • This total luminance K j, m is also one of the features of the light section line.
  • the center-of-gravity position Y C (j, m) is a value represented by the following expression 111, where A is a set of extracted pixels. Therefore, in the case of the example shown in FIG. 11B, the center-of-gravity position Y C (j, m) is a value represented by the following expression 111a.
  • the position in the tube axis direction corresponding to the pixel is a value quantized by the movement width (for example, 0.25 mm) of the tubular body imaging device 100.
  • the center-of-gravity position Y C (j, m) calculated by the calculation as shown in the above-described formula 111 is a value calculated by using a numerical calculation called division. The value can be smaller than the width (so-called quantization unit). Therefore, the displacement amount ⁇ d j, m calculated using the center-of-gravity position Y C (j, m) is also a value that can have a value smaller than the movement width.
  • the displacement amount ⁇ d j, m calculated in this way is also one of the light section line feature amounts.
  • the light section line processing unit 223 outputs the feature amount related to the displacement amount ⁇ d of the light section line among the calculated light section line feature amounts to the depth image calculation unit 225 described later. In addition, the light section line processing unit 223 outputs, to the brightness image calculation unit 227, which will be described later, among the calculated light section line feature amounts, the feature amount related to the luminance sum K and the number p of bright line pixels.
  • the depth image calculation unit 225 is realized by, for example, a CPU, a ROM, a RAM, and the like.
  • the depth image calculation unit 225 generates a depth image representing the uneven state of the inner surface of the tubular body based on the optical section line feature amount (particularly, the feature amount related to the displacement amount ⁇ d) generated by the optical section line processing unit 223. calculate.
  • the depth image is an image representing a two-dimensional uneven state distribution in which the one-dimensional distribution of the uneven state at each position in the tube axis direction is sequentially arranged along the tube axis direction.
  • FIG. 13 is an explanatory diagram showing the relationship between the displacement of the optical cutting line and the height of the defect.
  • FIG. 13 schematically shows a case where there is a dent on the inner surface of the tubular body 1.
  • the difference between the height of the surface position and the height of the bottom of the dent when there is no dent on the inner surface is represented by ⁇ h.
  • the vertically incident annular beam reflects the surface
  • the reflected light propagates as shown in the light ray A of FIG. 13, but there is a dent on the inner surface.
  • the reflected light propagates like the light beam B in FIG.
  • the deviation between the light beam A and the light beam B is observed as the displacement ⁇ d of the light cutting line in this embodiment.
  • the depth image calculation unit 225 uses the relationship as described above, and based on the feature amount related to the displacement ⁇ d of the optical cutting line calculated by the optical cutting line processing unit 223, the amount related to the unevenness of the inner surface of the tubular body ⁇ h is calculated.
  • the displacement amount ⁇ d of the optical cutting line used for the calculation of the depth image is calculated based on the barycentric position of the optical cutting line as described above, and has a value smaller than the moving width. It is a possible value. Therefore, the depth image calculated by the depth image calculation unit 225 is an image in which unevenness is reproduced with a resolution finer than the pixel size of the image sensor.
  • the unevenness superimposed on the light cutting line is information on the cross-sectional shape of the inner surface of the tubular body and the surface defects existing on the inner surface. Therefore, when the depth image calculation unit 225 calculates the depth image based on the displacement amount ⁇ d of the light cutting line, the depth image calculation unit 225 performs distortion correction processing for each light cutting line, and the unevenness superimposed on the light cutting line.
  • a fitting process using a multidimensional function or various nonlinear functions, and a difference calculation between the obtained fitting curve and the observed light cutting line ii) A process of applying a low-pass filter such as a floating filter or a median filter by using the fact that the information on the unevenness is a high-frequency component can be mentioned.
  • a low-pass filter such as a floating filter or a median filter
  • the depth image calculation unit 225 outputs information on the depth image calculated as described above to the detection processing unit 229 described later.
  • the luminance image calculation unit 227 is realized by a CPU, a ROM, a RAM, and the like, for example.
  • the luminance image calculation unit 227 generates an annular beam on the inner surface of the tubular body based on the optical cutting line feature amount generated by the optical cutting line processing unit 223 (particularly, the feature amount relating to the luminance sum K and the number of pixels p of the bright line). A luminance image representing the luminance distribution is calculated.
  • the luminance image calculation unit 227 performs the feature amount (two-dimensional array) regarding the luminance sum K as illustrated in FIG. 12B and the feature amount regarding the pixel number p of the bright line as illustrated in FIG. 12C (
  • the average luminance K AVE (j, m) K j, m / p j, m (1 ⁇ j ⁇ N, 1 ⁇ m ⁇ ), which is the average value of the total luminance in the line width direction. M) is calculated.
  • the luminance image calculation unit 227 sets the data array including the calculated average luminance K AVE (j, m) as the luminance image of the focused tubular body.
  • Such a luminance image is an image representing a two-dimensional luminance distribution in which a one-dimensional distribution of the luminance of the annular laser beam at each position in the tube axis direction is sequentially arranged along the tube axis direction.
  • the luminance image calculation unit 227 outputs information on the luminance image calculated as described above to the detection processing unit 229 described later.
  • the detection processing unit 229 is realized by, for example, a CPU, a ROM, a RAM, and the like.
  • the detection processing unit 229 detects a defect existing on the inner surface of the tubular body based on the depth image calculated by the depth image calculation unit 225 and the luminance image calculated by the luminance image calculation unit 227. .
  • the detection processing unit 229 extracts a defective part specifying function that specifies a defective part based on the depth image and the luminance image, a feature quantity extracting function that extracts a feature quantity relating to the form and pixel value of the specified defective part, and A defect discrimination function for discriminating the type of defect, the degree of harmfulness, and the like based on the feature amount.
  • a defective part specifying function that specifies a defective part based on the depth image and the luminance image
  • a feature quantity extracting function that extracts a feature quantity relating to the form and pixel value of the specified defective part
  • a defect discrimination function for discriminating the type of defect, the degree of harmfulness, and the like based on the feature amount.
  • the detection processing unit 229 obtains a linear sum of pixel values (values representing depths or luminance values) with peripheral pixels for each pixel of the acquired depth image and luminance image. Regions such as vertical line wrinkles, horizontal line wrinkles, and fine wrinkles are emphasized by the processing, and it is determined whether or not the obtained value is equal to or greater than a second threshold value for specifying a defect site. By performing such a filtering process and a determination process based on the filtering process result, the detection processing unit 229 can generate a binarized image for specifying a defective part.
  • the detection processing unit 229 identifies each defective portion by combining consecutively generated defect portions.
  • the feature processing unit 229 extracts a feature value regarding the form and pixel value of the defect part for each specified defect part.
  • the feature quantity related to the form of the defective part include the width of the defective part, the length of the defective part, the peripheral length of the defective part, the area of the defective part, and the area of the circumscribed rectangle of the defective part.
  • the maximum value, the minimum value, the average value, etc. of the depth of the defective part can be mentioned, and for the luminance image, the maximum luminance of the defective part can be mentioned. Value, minimum value, average value, and the like.
  • the detection processing unit 229 determines the type of defect, the degree of harm, and the like for each defective portion based on the extracted feature amount.
  • the determination processing such as the type of defect and the degree of harmfulness based on the feature amount is performed using a logic table as shown in FIG. 15, for example. That is, the detection processing unit 229 determines the type of defect and the degree of harmfulness based on the determination conditions represented by the logic table illustrated in FIG.
  • the types of defects (defects A1 to An) are described as items in the vertical direction of the logic table, and the types of features (feature amount B1) as items in the horizontal direction of the logic table.
  • feature amount Bm To feature amount Bm).
  • a discrimination conditional expression (conditional expression C11 to conditional expression Cnm) based on the size of the corresponding feature amount is described.
  • Each row of such a logic table is a set, and becomes a determination condition for each type of defect. The determination process is performed in order from the type described in the top line, and ends when all the determination conditions described in any one line are satisfied.
  • Such a logic table is obtained by a known method using a database constructed by a learning process in which past operation data and a result of specifying a defect type and a hazard level by an examiner based on the operation data are used as teacher data. It is possible to generate.
  • the detection processing unit 229 identifies the defect type and the degree of harm for each defective part detected in this manner, and outputs the obtained detection result to the display control unit 205. Thereby, the information regarding the defect which exists in the inner surface of the tubular body which is a detection target will be output to a display part (not shown). Further, the detection processing unit 229 may output the obtained detection result to an external device such as a manufacturing management process computer, and uses the obtained detection result to create a product defect form. Also good. Further, the detection processing unit 229 may store the information related to the detection result of the defective part as history information in the storage unit 207 or the like in association with time information related to the date and time when the information is calculated.
  • a discriminator such as a neural network or a support vector machine (SVM) is generated by learning processing using past operation data and a result of specifying a defect type and a hazard level by a tester based on the operation data as teacher data, Such a discriminator may be used for discriminating the type of defect and the degree of harm.
  • SVM support vector machine
  • the optical correction line processing unit 223 may perform the approximate correction process before the optical cutting line processing unit 223 calculates the optical cutting line feature amount.
  • each component described above may be configured using a general-purpose member or circuit, or may be configured by hardware specialized for the function of each component.
  • the CPU or the like may perform all functions of each component. Therefore, it is possible to appropriately change the configuration to be used according to the technical level at the time of carrying out the present embodiment.
  • a computer program for realizing each function of the arithmetic processing apparatus according to the present embodiment as described above can be produced and mounted on a personal computer or the like.
  • a computer-readable recording medium storing such a computer program can be provided.
  • the recording medium is, for example, a magnetic disk, an optical disk, a magneto-optical disk, a flash memory, or the like.
  • the above computer program may be distributed via a network, for example, without using a recording medium.
  • FIG. 16 is a flowchart showing an example of the flow of the tubular body surface inspection method according to the present embodiment.
  • the tubular body imaging device 100 of the tubular body surface inspection apparatus 10 images the inner surface of the tubular body, which is an object to be inspected, using an annular beam at each time of sending and sending, and the area camera 120
  • the captured image is output to the arithmetic processing device 200.
  • the area camera 120 the two imaging target regions (ROIs) as described above are set in advance, and the posture of the tubular body imaging device 100 is determined when the area camera 120 shifts from the sending time to the sending time. Is changed by the drive control device 150.
  • the A / D conversion unit 211 of the image processing unit 203 included in the arithmetic processing device 200 performs A / D conversion processing on the acquired captured image from the area camera 120, and performs cyclic processing for each of sending and sending.
  • a beam image is generated (step S101).
  • the annular beam center calculation unit 213 calculates the center of gravity position and the radius of the annular beam image using the annular beam images generated by the A / D conversion unit 211 at the time of transmission and transmission by the area camera 120, respectively. (Step S103), and the obtained calculation result is output to the coordinate conversion unit 215.
  • the coordinate conversion unit 215 performs coordinate conversion of the annular beam image at the time of sending and sending by the area camera 120 using the calculated center of gravity position, radius, and the like, and generates a light section image (step S105). ).
  • the generated light section images are sequentially stored in an image memory provided in the storage unit 207 and the like along the tube axis direction of the tubular body.
  • the partial stripe image frame generation unit 217 sequentially arranges the generated light section images along the tube axis direction of the tubular body to generate a partial stripe image frame (step S107).
  • the partial stripe image frame generation unit 217 outputs the generated partial stripe image frame to the stripe image frame generation unit 219.
  • the fringe image frame generation unit 219 uses the partial stripe image frame generated by the partial stripe image frame generation unit 217 to generate a stripe image frame (step S109).
  • the stripe image frame generation unit 219 outputs the generated stripe image frame to the light section line processing unit 223.
  • the light section line processing unit 223 uses the generated fringe image frame, and for each light section line, the number of pixels having a luminance equal to or higher than a predetermined threshold Th, the sum of the brightness of the pixels, and the displacement of the light section line. The amount is calculated (step S111). These calculation results are used as the feature value of the light section line.
  • the calculated light section line feature amount is output to the depth image calculation unit 225 and the luminance image calculation unit 227, respectively.
  • the depth image calculation unit 225 calculates a depth image using the calculated light section line feature amount (particularly, a feature amount related to the displacement amount of the light section line) (step S113).
  • the luminance image calculation unit 227 uses the calculated light section line feature amount (particularly, the feature amount related to the number of pixels having a luminance equal to or higher than the threshold and the feature amount related to the sum of luminance) to obtain a luminance image. Is calculated (step S113).
  • the depth image calculation unit 225 and the luminance image calculation unit 227 output the calculated images to the detection processing unit 229.
  • the detection processing unit 229 detects a defect site existing on the inner surface of the tubular body using the calculated depth image and luminance image, and specifies the type of defect and the harmfulness of the detected defect site (step) S115). By the flow as described above, defects existing on the inner surface of the tubular body are detected.
  • tubular body surface inspection apparatus As above, the tubular body surface inspection apparatus and the tubular body surface inspection method according to the present embodiment have been described in detail.
  • FIG. 17 is a block diagram for explaining a hardware configuration of the arithmetic processing device 200 according to the embodiment of the present invention.
  • the arithmetic processing apparatus 200 mainly includes a CPU 901, a ROM 903, and a RAM 905.
  • the arithmetic processing device 200 further includes a bus 907, an input device 909, an output device 911, a storage device 913, a drive 915, a connection port 917, and a communication device 919.
  • the CPU 901 functions as a central processing device and control device, and controls all or a part of the operation in the arithmetic processing device 200 according to various programs recorded in the ROM 903, the RAM 905, the storage device 913, or the removable recording medium 921. To do.
  • the ROM 903 stores programs used by the CPU 901, calculation parameters, and the like.
  • the RAM 905 primarily stores programs used by the CPU 901, parameters that change as appropriate during execution of the programs, and the like. These are connected to each other by a bus 907 constituted by an internal bus such as a CPU bus.
  • the bus 907 is connected to an external bus such as a PCI (Peripheral Component Interconnect / Interface) bus via a bridge.
  • PCI Peripheral Component Interconnect / Interface
  • the input device 909 is an operation means operated by the user such as a mouse, a keyboard, a touch panel, a button, a switch, and a lever.
  • the input device 909 may be, for example, remote control means (so-called remote control) using infrared rays or other radio waves, or may be an external connection device 923 such as a PDA corresponding to the operation of the arithmetic processing device 200. May be.
  • the input device 909 includes, for example, an input control circuit that generates an input signal based on information input by a user using the operation unit and outputs the input signal to the CPU 901. By operating the input device 909, the user can input various data or instruct processing operations to the arithmetic processing device 200.
  • the output device 911 is configured by a device that can notify the user of the acquired information visually or audibly.
  • Such devices include display devices such as CRT display devices, liquid crystal display devices, plasma display devices, EL display devices and lamps, audio output devices such as speakers and headphones, printer devices, mobile phones, and facsimiles.
  • the output device 911 outputs results obtained by various processes performed by the arithmetic processing device 200, for example. Specifically, the display device displays the results obtained by various processes performed by the arithmetic processing device 200 as text or images.
  • the audio output device converts an audio signal composed of reproduced audio data, acoustic data, and the like into an analog signal and outputs the analog signal.
  • the storage device 913 is a data storage device configured as an example of a storage unit of the arithmetic processing device 200.
  • the storage device 913 includes, for example, a magnetic storage device such as an HDD (Hard Disk Drive), a semiconductor storage device, an optical storage device, or a magneto-optical storage device.
  • the storage device 913 stores programs executed by the CPU 901, various data, various data acquired from the outside, and the like.
  • the drive 915 is a recording medium reader / writer, and is built in or externally attached to the arithmetic processing unit 200.
  • the drive 915 reads information recorded on a removable recording medium 921 such as a mounted magnetic disk, optical disk, magneto-optical disk, or semiconductor memory, and outputs the information to the RAM 905.
  • the drive 915 can also write a record on a removable recording medium 921 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory.
  • the removable recording medium 921 is, for example, a CD medium, a DVD medium, a Blu-ray (registered trademark) medium, or the like.
  • the removable recording medium 921 may be a compact flash (registered trademark) (CompactFlash: CF), a flash memory, an SD memory card (Secure Digital memory card), or the like. Further, the removable recording medium 921 may be, for example, an IC card (Integrated Circuit card) on which a non-contact IC chip is mounted, an electronic device, or the like.
  • connection port 917 is a port for directly connecting a device to the arithmetic processing device 200.
  • Examples of the connection port 917 include a USB (Universal Serial Bus) port, an IEEE 1394 port, a SCSI (Small Computer System Interface) port, an RS-232C port, and an HDMI (registered trademark) High-Definition Multimedia interface.
  • the communication device 919 is a communication interface configured by a communication device for connecting to the communication network 925, for example.
  • the communication device 919 is, for example, a communication card for a wired or wireless LAN (Local Area Network), Bluetooth (registered trademark), or WUSB (Wireless USB).
  • the communication device 919 may be a router for optical communication, a router for ADSL (Asymmetric Digital Subscriber Line), or a modem for various communication.
  • the communication device 919 can transmit and receive signals and the like according to a predetermined protocol such as TCP / IP, for example, with the Internet and other communication devices.
  • the communication network 925 connected to the communication device 919 is configured by a wired or wireless network, for example, the Internet, a home LAN, an in-house LAN, infrared communication, radio wave communication, satellite communication, or the like. May be.
  • each component described above may be configured using a general-purpose member, or may be configured by hardware specialized for the function of each component. Therefore, it is possible to change the hardware configuration to be used as appropriate according to the technical level at the time of carrying out this embodiment.
  • the tubular body surface inspection apparatus 10 As described above, by using the tubular body surface inspection apparatus 10 according to the embodiment of the present invention, the inner surface of the tubular body is faster, higher resolution and simpler over the entire circumference in the tube circumferential direction and the entire length in the tube axis direction. Thus, it is possible to simultaneously detect a minute uneven-shaped defect and a patterned defect with high accuracy. In addition, since the tubular body surface inspection apparatus 10 according to the present embodiment can accurately identify the position where the defect occurs, it greatly contributes to improvement of productivity and yield of tubular bodies such as steel pipes and quality assurance. can do.
  • Tubular body surface inspection apparatus 100 Tubular body imaging device 110 Illumination mechanism 111 Laser light source 113 Optical element 120 Area camera 131 Holding substrate 133 Connecting member 200 Arithmetic processing device 201 Imaging control unit 203 Image processing unit 205 Display control unit 207 Storage unit 211 A / D converter 213 Annular beam center calculator 215 Coordinate converter 217 Partial stripe image frame generator 219 Stripe image frame generator 221 Image calculator 223 Optical cutting line processor 225 Depth image calculator 227 Luminance image calculator 229 Detection Processing part

Abstract

【課題】管状体の大きさに依らず、管状体の内表面をより高速、高分解能かつ簡便に検査すること。 【解決手段】管状体内表面検査方法は、レーザ光源から照射されたレーザ光を管状体の内表面の周方向に環状のレーザ光として反射する光学素子、環状のレーザ光が照射された領域を撮像して環状ビーム画像を生成するエリアカメラ、及び、レーザ光源とエリアカメラを連結して固定する連結部材を有する管状体撮像装置と、環状ビーム画像に対して画像処理を行う演算処理装置とを備える。エリアカメラは、管状体撮像装置を管状体へ送入し送出する間に、エリアカメラの全視野のうち、環状のレーザ光が連結部材によって遮蔽されない領域であって、エリアカメラの全視野のうち、エリアカメラが備える撮像素子の画素情報転送方向に対して直交する方向の端部にそれぞれに設定される端部領域に対応する部分を撮像することで、環状ビーム画像を複数生成する。

Description

管状体内表面検査方法及び管状体内表面検査装置
 本発明は、管状体内表面検査方法及び管状体内表面検査装置に関する。
 鋼管のような金属管や樹脂製のパイプ等に代表される管状体の内表面を検査する管状体の内面検査は、特に鋼管のような金属管においては重要な検査項目の一つであり、通常は、管状体の製造工程とは別の工程を別途設けて、目視検査が行われている。
 管状体の目視検査は、検査員の技量に負う部分が大きく、特に、管状体の内表面を検査する内面検査は、目視検査を十分に実施することが困難となる。そのため、特に、管状体の軸方向深部において、破廉恥な疵の流出や重大クレームが発生する可能性がある。また、検査手法によっては、検出困難となる管状体内表面の凹凸も存在するため、管状体の内表面を直接監視することが重要である。
 このような管状体の内表面の検査方法として、光源の光を円錐ミラー又は円錐プリズムにより円盤状に照射させて、管状体内表面の反射光を撮像素子で撮像する撮像光学系を利用する方法がある。このような管状体の内表面の検査方法の一つに、以下の特許文献1~特許文献3に開示されているような方法がある。
 例えば以下の特許文献1には、光源の光を円錐ミラー又は円錐プリズムにより円盤状に照射する光源からなる照明光及び撮像センサによる撮像系により撮像光学系を構成し、かかる撮像光学系を一緒に逐次移動させながら、被検査物の内面に照射した照射光により得られる内面形状を表す光跡を撮像センサで撮像することで得られる光跡画像データから、撮像光学系の基準位置と被検査物内面との距離を逐次算出して被検査物内面形状を測定する技術が開示されている。
 また、以下の特許文献2には、管状体の軸方向に沿って移動しながら管状体の内表面に対して環状のレーザ光を照射して得られる環状ビーム画像から光切断画像を得ることで、結果的に内表面の凹凸キズと模様系キズとを同時かつ個別に検出する装置が開示されている。
 また、以下の特許文献3には、被検査体内面にリング状に広げたレーザ光を照射する光源部と、照射されたレーザ光の被検査体内面の反射光を撮像する撮像部と、を光学的に透明な管で同軸となるように配置し、撮像する際の透明管からのゴーストの発生を抑制するために、透明管に偏光の状態を制御する特性を付与した装置が開示されている。
特開2007-285891号公報 特開2012-159491号公報 特開2015-163844号公報
 ここで、環状のレーザ光を撮像する際のフレームレートは、用いるカメラの性能で決まるため、高速に光切断画像を逐次得ることが困難である。一般的に、光切断画像の撮像には二次元エリアカメラを利用する。この場合、検査に必要な管状体内面のレーザ光照射領域以外の無駄な領域を含めて撮像が行われるため、撮像フレームレートを向上することは困難である。また、処理に必要のないデータの転送時間も必要となることから、一般的な二次元エリアカメラは、高速な検査を実施したい場合には不適である。
 また、例えば内径250mm以上の中径管とも呼ばれる管状体を検査するためには、撮像画像の分解能を確保しながら(換言すれば、撮像画像のサイズを確保しながら)撮像するために、撮像画像のサイズを大きくする必要がある。そのため、結果としてフレームレートが低下してしまい、撮像に時間を要するようになってしまう。
 また、実際に管状体の検査を行う際には、光源を支持するための支持部材を用いることとなるが、エリアカメラにとっては、かかる支持部材によって環状のレーザ光が遮蔽されて、未撮像領域が発生してしまう。
 上記の未撮像領域の発生に関して、上記特許文献1及び特許文献3に開示されている技術では、光源を支持するための支持部材の影を無くすことは出来るが、光源への電圧供給ケーブル等を完全に排除することは出来ない。そのため、上記特許文献1及び特許文献3に開示されている技術では、未撮像領域の縮小は出来ても、未撮像領域を完全に無くすことは出来ない。また、被検査物である管状体が大きくなって長尺となれば、光源と撮像部との間隔が広くなることから、上記特許文献1及び特許文献3に開示されている技術では、撮像光学系の強度を確保するために、光源及び撮像部を支持する支持部材を設ける必要が生じる。
 上記特許文献2では、上記のような未撮像領域に関して、検査プローブの往路及び復路で撮像する領域をずらすようにして、未撮像領域を補完する技術が提案されている。ここで、上記特許文献2では、未撮像領域の補完に先だって、検査プローブの往路又は復路の撮像画像に基づき未撮像領域を特定する処理が行われており、処理が複雑化してしまう。
 そこで、本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、管状体の大きさに依らず、管状体の内表面をより高速、高分解能かつ簡便に検査することが可能な、管状体内表面検査方法及び管状体内表面検査装置を提供することにある。
 また、上記課題を解決するために、本発明のある観点によれば、管状体の内表面に存在する欠陥を検出する管状体内表面検査方法において、レーザ光を照射するレーザ光源、前記レーザ光源から照射されたレーザ光を前記管状体の内表面の周方向に環状のレーザ光として反射する光学素子、前記管状体の内表面の前記環状のレーザ光が照射された領域を撮像して、環状ビーム画像を生成するエリアカメラ、及び、前記レーザ光源と前記エリアカメラを連結して固定する連結部材を有する管状体撮像装置を用い、前記管状体撮像装置を、前記管状体の管軸方向に沿って移動させる移動ステップと、前記管状体撮像装置を移動装置で移動させ、前記管状体へ送入される状態から送出される状態へと切り替わる際に、前記連結部材の管軸に直交する面における位置が相違するように、前記管状体撮像装置を前記管状体の周方向に回転する回転ステップと、前記管状体撮像装置を前記管状体へ送入し送出する間に、前記エリアカメラの全視野のうち、前記環状のレーザ光が前記連結部材によって遮蔽されない領域であって、前記エリアカメラの全視野のうち、前記エリアカメラが備える撮像素子において当該撮像素子の各画素の電荷又は電圧に関する情報である画素情報が転送される方向である画素情報転送方向に対して直交する方向の端部にそれぞれに設定される端部領域に対応する部分を撮像することで、前記環状ビーム画像を複数生成する環状ビーム画像生成ステップと、前記管状体撮像装置を前記管状体へ送入し送出する間に、複数生成された前記環状ビーム画像に対して画像処理を行い、前記管状体の内表面に欠陥が存在するかを判断する演算処理ステップと、を有する管状体内表面検査方法が提供される。
 前記環状ビーム画像は、前記管状体への送入時における前記環状ビーム画像と、前記管状体からの送出時における前記環状ビーム画像との間で、互いに一部重複する領域が存在することが好ましい。
 前記演算処理ステップは、前記環状ビーム画像を用いて、前記環状のレーザ光の照射部分の重心位置と半径とを算出するステップと、前記重心位置並びに、前記重心位置及び前記環状のレーザ光の照射部分との離隔量に基づいて、前記環状ビーム画像の座標系を極座標変換し、極座標変換で得られた前記環状のレーザ光の照射部分に対応する線分である光切断線を含む光切断画像を生成するステップと、前記光切断画像を、前記管軸方向に沿って順に配列させた縞画像フレームに基づいて、前記管状体の内表面の凹凸状態を表す深さ画像と、前記管状体の内表面における前記環状のレーザ光の輝度分布を表す輝度画像とを算出するステップと、前記深さ画像及び前記輝度画像に基づいて、前記管状体の内表面に存在する欠陥を検出するステップと、を有することが好ましい。
 上記課題を解決するために、本発明の別の観点によれば、管状体の内表面に存在する欠陥を検出する管状体内表面検査装置において、レーザ光を照射するレーザ光源、前記レーザ光源から照射されたレーザ光を前記管状体の内表面の周方向に環状のレーザ光として反射する光学素子、前記管状体の内表面の前記環状のレーザ光が照射された領域を撮像して、環状ビーム画像を生成するエリアカメラ、及び、前記レーザ光源と前記エリアカメラを連結して固定する連結部材を有する管状体撮像装置と、前記管状体撮像装置を、前記管状体の管軸方向に沿って移動させる移動装置と、前記管状体撮像装置を前記移動装置で移動させ、前記管状体へ送入される状態から送出される状態へと切り替わる際に、前記連結部材の管軸に直交する面における位置が相違するように、前記管状体撮像装置を前記管状体の周方向に回転する回転装置と、前記管状体撮像装置を前記管状体へ送入し送出する間に、複数生成された前記環状ビーム画像に対して画像処理を行い、前記管状体の内表面に欠陥が存在するかを判断する演算処理装置と、を備え、前記エリアカメラは、前記管状体撮像装置を前記管状体へ送入し送出する間に、前記エリアカメラの全視野のうち、前記環状のレーザ光が前記連結部材によって遮蔽されない領域であって、前記エリアカメラの全視野のうち、前記エリアカメラが備える撮像素子において当該撮像素子の各画素の電荷又は電圧に関する情報である画素情報が転送される方向である画素情報転送方向に対して直交する方向の端部にそれぞれに設定される端部領域に対応する部分を撮像することで、前記環状ビーム画像を複数生成する管状体内表面検査装置が提供される。
 前記環状ビーム画像は、前記管状体への送入時における前記環状ビーム画像と、前記管状体からの送出時における前記環状ビーム画像との間で、互いに一部重複する領域が存在することが好ましい。
 前記演算処理装置は、前記環状ビーム画像を用いて、前記環状のレーザ光の照射部分の重心位置と半径とを算出し、前記重心位置、並びに、前記重心位置及び前記環状のレーザ光の照射部分との離隔量に基づいて、前記環状ビーム画像の座標系を極座標変換し、極座標変換で得られた前記環状のレーザ光の照射部分に対応する線分である光切断線を含む光切断画像を生成し、前記光切断画像を、前記管軸方向に沿って順に配列させた縞画像フレームに基づいて、前記管状体の内表面の凹凸状態を表す深さ画像と、前記管状体の内表面における前記環状のレーザ光の輝度分布を表す輝度画像とを算出し、前記深さ画像及び前記輝度画像に基づいて、前記管状体の内表面に存在する欠陥を検出することが好ましい。
 以上説明したように本発明によれば、管状体の大きさに依らず、管状体の内表面をより高速、高分解能かつ簡便に検査することが可能となる。
本発明の実施形態に係る管状体内表面検査装置の全体的な構成を模式的に示したブロック図である。 同実施形態に係る管状体撮像装置の構成の一例を模式的に示した説明図である。 同実施形態に係る管状体撮像装置の構成の一例を模式的に示した説明図である。 同実施形態に係る管状体撮像装置について説明するための説明図である。 同実施形態に係る管状体撮像装置について説明するための説明図である。 同実施形態に係る管状体撮像装置について説明するための説明図である。 同実施形態に係る管状体撮像装置について説明するための説明図である。 同実施形態に係る管状体撮像装置について説明するための説明図である。 同実施形態に係る管状体撮像装置について説明するための説明図である。 同実施形態に係る演算処理装置が有する画像処理部の構成の一例を示したブロック図である。 同実施形態に係る重心位置及び半径の算出処理について説明するための説明図である。 同実施形態に係る座標変換処理について説明するための説明図である。 同実施形態に係る部分縞画像フレームの生成処理の一例を示した説明図である。 同実施形態に係る縞画像フレームの生成処理の一例を示した説明図である。 同実施形態に係る光切断線処理について説明するための説明図である。 同実施形態に係る光切断線処理について説明するための説明図である。 同実施形態に係る光切断線変位の二次元配列を示した説明図である。 同実施形態に係る輝度の総和の二次元配列を示した説明図である。 同実施形態に係る輝線の画素数の二次元配列を示した説明図である。 光切断線の変位と欠陥の高さとの関係を示した説明図である。 同実施形態に係る光切断線の近似補正処理を説明するための説明図である。 同実施形態に係る欠陥検出処理で用いられるロジックテーブルの一例を模式的に示した説明図である。 同実施形態に係る管状体内表面検査方法の流れの一例を示した流れ図である。 同実施形態に係る演算処理装置のハードウェア構成の一例を模式的に示したブロック図である。
 以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
(管状体内表面検査装置の全体構成について)
 まず、図1~図2Bを参照しながら、本発明の実施形態に係る管状体内表面検査装置10の全体構成について説明する。図1は、本実施形態に係る管状体内表面検査装置10の構成の一例を示した説明図である。図2A及び図2Bは、本実施形態に係る管状体撮像装置の構成の一例を模式的に示した説明図である。
 本実施形態に係る管状体内表面検査装置10は、管状体1の内表面を撮像して、撮像の結果得られる画像を画像処理することにより、管状体1の内表面を検査する装置である。本実施形態に係る管状体内表面検査装置10は、より詳細には、管状体1の内表面に表面欠陥(凹凸疵及び模様系の疵)が存在するか否かを検査する装置である。
 なお、本実施形態に係る管状体1は、中空部を有する管状のものであれば、特に限定されるものではない。かかる管状体1の例として、スパイラル鋼管、電縫鋼管、UO鋼管、継目無鋼管(シームレス鋼管)、鍛接鋼管、TIG溶接鋼管等の各種鋼管に代表される金属管やパイプのみならず、熱間押出法で使用されるコンテナと称するシリンダー等の管状物を挙げることができる。
 本実施形態に係る管状体内表面検査装置10は、図1に示したように、管状体1の内表面を撮像する管状体撮像装置100と、管状体撮像装置100の管軸方向に沿った移動を制御する駆動制御装置150と、撮像の結果得られる画像に対して画像処理を行う演算処理装置200と、を主に備える。
 管状体撮像装置100は、管状体1の中空部に設置される。この管状体撮像装置100は、管状体1の管軸方向に沿って位置を随時変更しながら、当該管状体1の内表面を管軸方向に沿って順次撮像し、撮像の結果得られる撮像画像を、演算処理装置200に出力する装置である。管状体撮像装置100は、駆動制御装置150により管軸方向に沿った位置が制御されており、管状体撮像装置100の移動に伴いPLG(Pulse Logic Generator:パルス型速度検出器)等からPLG信号が演算処理装置200に出力される。また、管状体撮像装置100は、演算処理装置200によって、管状体1の撮像タイミング等が制御されている。
 かかる管状体撮像装置100については、以下で改めて詳細に説明する。
 駆動制御装置150は、図2A及び図2Bに示したような支持バー134によって、管状体撮像装置100の管軸方向の移動を制御する装置である。また、駆動制御装置150は、図示しない回転装置によって、管状体撮像装置100の管中心軸方向を回転軸とする管状体周方向の回転を制御する装置である。駆動制御装置150は、演算処理装置200による制御のもとで、管状体撮像装置100の管軸方向の移動や管状体周方向の回転といった動作の制御を行う。
 より詳細には、駆動制御装置150は、管状体撮像装置100を支持する支持バー134の動作を制御し、支持バー134ごと管状体撮像装置100を管状体内部に送入し、その後送出させる。また、駆動制御装置150は、管状体撮像装置100が管状体内部へと送入される状態から送出される状態へと切り替わる際に、支持バー134に付随する回転装置の動作を制御し、かかる回転装置を回転させることで、支持バー134を回転させ、管状体撮像装置100を、管軸に直交する面内で管状体周方向に、所定角度だけ回転させる。この際、駆動制御装置150は、管状体撮像装置100の管状体周方向の回転が所定の閾値角度以下に抑制されるように、管状体周方向の回転を制御することが好ましい。
 また、演算処理装置200は、管状体撮像装置100によって生成された撮像画像を利用して縞画像フレームを生成し、この縞画像フレームに対して画像処理を行うことで、管状体1の内表面に存在している可能性のある欠陥を検出する装置である。
 かかる演算処理装置200についても、以下で改めて詳細に説明する。
(管状体撮像装置100の構成について)
 続いて、図2A~図5Bを参照しながら、本実施形態に係る管状体撮像装置100の構成について、詳細に説明する。図2A及び図2Bは、本実施形態に係る管状体撮像装置の構成の一例を模式的に示した説明図である。図3A~図5Bは、本実施形態に係る管状体撮像装置について説明するための説明図である。
 本実施形態に係る管状体撮像装置100は、図2A及び図2Bに模式的に示したように、照明機構110と、エリアカメラ120と、照明機構110及びエリアカメラ120のそれぞれが固定される保持基板131と、2つの保持基板131を連結する支柱である連結部材133と、を有する撮像ユニットからなる装置である。
 ここで、図2Aは、本実施形態に係る管状体撮像装置100が、管状体1の内部へと送入される際を模式的に示したものであり、図2Bは、本実施形態に係る管状体撮像装置100が、管状体1の内部から送出される際を模式的に示したものである。図2A及び図2Bを比較すると明らかなように、本実施形態に係る管状体撮像装置100は、管状体の内部への送入と、管状体の内部からの送出と、の間において(特には、送入される状態から送出される状態へと切り替わる際に)、連結部材133の管軸方向に直交する面内における位置が相違するように、管状体の周方向に所定角度回転される。図2A及び図2Bの場合は、連結部材133が管軸に直交する面内で、管状体1の外周に、管状体1の直径方向に互いに対向するように設けられており、送入と送出との間で、管状体撮像装置100の全体が管状体1の周方向に略90度回転している。
 照明機構110は、管状体1の内表面に対して所定の光を照射することで、管状体1の内表面を照明する機構である。この照明機構110は、管状体1の内表面の全周方向に対して環状のレーザ光を照射するレーザ光照射装置を少なくとも有している。
 かかるレーザ光照射装置は、管状体1の内表面の管周方向に沿って環状のレーザ光(以下、「環状ビーム」ともいう。)を照射する装置であり、図2A及び図2Bに示したように、レーザ光源111と、円錐状の光学素子113と、を有している。
 レーザ光源111は、所定の波長を有するレーザ光を発振する光源である。このようなレーザ光源111として、例えば、連続的にレーザ発振を行うCWレーザ光源を用いることが可能である。レーザ光源111が発振する光の波長は、特に限定されるものではないが、例えば、400nm~800nm程度の可視光帯域に属する波長であることが好ましい。レーザ光源111は、後述する演算処理装置200から送出される照射タイミング制御信号に基づいて、レーザ光の発振を行い、管状体1の管軸方向に沿ってレーザ光を照射する。
 円錐状の光学素子113は、円錐形状のミラー又はプリズムを備える光学素子であり、円錐部の頂点がレーザ光源111と対向するように設置されている。レーザ光源111から射出されたスポット状のレーザ光は、光学素子113の円錐部の頂点によって反射され、管状体1の内表面に対してリング状にラインビームが発生する。ここで、円錐部の円錐角が90°である場合には、図2A及び図2Bに示したように、レーザ光源111からのレーザ入射方向に対して直角方向に、環状ビームが照射される。
 エリアカメラ120は、図2A及び図2Bに示すように、照明機構110の管軸方向に沿った光の照射方向を基準として、照明機構110の後方に設けられている。エリアカメラ120には、CCD(Charge Coupled Device)、又は、CMOS(Complementary Metal Oxide Semiconductor)等の撮像素子が搭載されている。かかるエリアカメラ120は、モノクロカメラであってもよいし、カラーカメラであってもよい。エリアカメラ120は、図2A及び図2Bに示したように、管状体1の内表面に垂直に照射された環状ビームを角度φの方向から撮像して、内表面における環状ビームの撮像画像から、後述する撮像対象領域(いわゆる、関心領域(Region Of Interest:ROI))に対応する画像である環状ビーム画像を、送入時と送出時のそれぞれで生成する。
 また、本実施形態に係るエリアカメラ120は、撮像可能な全視野のうち所定の領域のみを撮像対象領域(ROI)として設定可能なカメラである。エリアカメラ120に設けられている撮像素子では、一般的に、撮像素子の所定の方向(例えば、撮像素子を構成する画素群の配列における水平方向、又は、当該水平方向に対して直交する方向である垂直方向)に沿って、撮像素子の各画素に蓄えられた電荷を転送する処理(撮像素子がCCDである場合)、又は、撮像素子の各画素の電圧を転送する処理(撮像素子がCMOSである場合)が行われる。ここで、撮像素子の各画素に蓄えられた電荷に関する情報、又は、撮像素子の各画素の電圧に関する情報を、以下では、「画素情報」といい、かかる画素情報が転送される方向を、以下では、「画素情報転送方向」ということがある。撮像素子における画素情報転送方向は、撮像素子の製造時等に予め決定されている事項であり、撮像素子の仕様等を確認することで予め把握することができる。
 かかるエリアカメラ120において、例えば画素情報転送方向が水平方向である撮像素子が設けられていた場合に、当該エリアカメラ120では、例えば、撮像可能な全視野のうち、画素情報転送方向に対して垂直な方向である垂直方向の一部の範囲に、撮像対象領域(ROI)が設定される。エリアカメラ120は、撮像対象領域(ROI)として設定された撮像画像の垂直方向の一部の範囲について、撮像素子の各画素の電荷又は電圧に関する画素情報を水平方向に転送することで、撮像対象領域(ROI)として設定された垂直方向の一部の範囲の画像のみを、撮像可能な全視野から抽出することができる。撮像可能な全視野の中から、撮像対象領域(ROI)として設定された垂直方向の一部の範囲の画像のみを抽出することで、撮像対象領域(ROI)が設定されていない場合と比較して、画素情報の転送時間を短縮することができる。その結果、本実施形態に係る管状体撮像装置100では、管状体1の内表面を、より高い撮像フレームレートで撮像することが可能となり、ひいては、管状体1の内表面をより高速に撮像することが可能となる。
 エリアカメラ120に搭載されるレンズの焦点距離や画角、及び、照明機構110とエリアカメラ120の撮像素子との間の距離は特に限定するものではないが、管状体1の内表面に照射された環状ビームの全体像を撮像可能なように選択することが好ましい。また、エリアカメラ120に搭載される撮像素子の大きさや画素サイズも特に限定するものではないが、生成される画像の画質や画像分解能等を考慮すると、サイズの大きな撮像素子を利用することが好ましい。また、以下で説明する画像処理の観点から、環状ビームのライン幅(線幅)は、撮像素子上で1~3画素程度であるように調整されることが好ましい。
 このような照明機構110とエリアカメラ120とは、照明機構110から照射されるレーザ光の中心軸と、エリアカメラ120の中心軸(光軸)とが同軸となるように配置されて、2つの保持基板131に固定されている。
 ここで、環状ビームと、エリアカメラ120の画角を定める境界線と、のなす角φの大きさは、任意の値に設定することが可能であるが、例えば30~60度程度とすることが好ましい。かかる角度をあまり大きくすると環状ビームの管状体1の内面からの散乱光(反射光)が弱くなり、また小さくすると、検査対象物である管状体1の深さ変化量に対して、後述する縞画像における縞の移動量が小さくなり、管状体1の内表面に存在する凹部の深さ(又は、凸部の高さ)に関する情報が劣化するためである。
 上記のような撮像ユニットは、図2A及び図2Bに模式的に示したように、支持バー134によって支持されており、駆動制御装置150によって支持バー134が管軸方向に駆動されることで、照明機構110及びエリアカメラ120は、駆動制御装置150によって管状体1の中心軸に略一致するように管軸方向に移動しながら、管状体1の内表面を移動する。そのため、移動の際にエリアカメラ120で撮像を連続的に行うことで、管状体1の内表面を走査することができる。また、駆動制御装置150は、送入から送出へと動作を切り替える際に、図示しない回転装置を用い、回転装置に接続された支持バー134を管状体の周方向に所定角度だけ(例えば、略90度)回転させて、撮像ユニットの姿勢を変化させる。撮像ユニットを所定角度だけ回転させることで、撮像ユニットを管状体1内に送入した際と送出する際のそれぞれにおいて、連結部材133がエリアカメラ120の視野を遮る領域は、管軸に直交する面内の位置が互いに異なることになる。従って、撮像ユニットを管状体1内に送入した際と送出する際の両方で管状体1の内表面を走査撮像すると、視野が欠けることなく、内表面全体を撮像することが可能となる。
 ここで、後述する演算処理装置200は、管状体撮像装置100が管軸方向に所定距離移動する毎に、エリアカメラ120に対して撮像のためのトリガ信号を出力する。照明機構110及びエリアカメラ120の管軸方向の移動間隔は、適宜設定することが可能であるが、例えば、エリアカメラ120に設けられた撮像素子の画素サイズと同一にすることが好ましい。管軸方向の移動間隔と撮像素子の画素サイズとを一致させることで、撮像された画像において縦方向の分解能と横方向の分解能とを一致させることができる。
 保持基板131の素材については、管状体撮像装置100に求められる強度等に応じて適宜選択することが好ましい。また、連結部材133については、撮像ユニットが撓まない限り、その素材は限定されないが、ガラス製等のような、環状ビームの波長に対して透明とみなすことができる素材を用いることも可能である。また、連結部材133の本数について、図2A及び図2Bでは、連結部材133が2本存在する場合を図示しているが、連結部材133の本数は、管状体撮像装置100に求められる強度に応じて適宜設定すればよく、1本であってもよいし、3本以上であってもよい。
 なお、複数本の連結部材133を設ける場合、それぞれの連結部材133は、保持基板131の縁部に、当該保持基板131の管周方向に沿って配置されることが好ましい。
 図3Aは、送入時におけるエリアカメラ120の視野の様子を模式的に示したものであり、図3Bは、送出時におけるエリアカメラ120の視野の様子を模式的に示したものである。図3A及び図3Bは、それぞれ、管状体撮像装置100の水平及び垂直ではなく、エリアカメラ120の垂直及び水平(より詳細には、エリアカメラ120に設けられた撮像素子における垂直及び水平)を基準とした、垂直及び水平に基づいて示されている。
 上記のような管状体撮像装置100において、エリアカメラ120の視野(エリアカメラ120を基準とした垂直方向画素×水平方向画素=H画素×W画素)内には、図3A及び図3Bに模式的に示したように、照明機構110から照射される環状レーザ光に加えて、照明機構110、保持基板131、連結部材133が存在している。また、連結部材133によって内表面における環状ビームの一部が遮蔽されて、環状レーザ光が観測できない領域が発生している。本実施形態に係る管状体撮像装置100では、高解像度を維持したままの撮像処理の高速化と、連結部材133によって環状レーザ光が観測できない領域の発生への対処を目的として、図4A及び図4Bに模式的に示したように、エリアカメラ120に対して、撮像可能な全視野のうち所定の領域のみを取り扱うための撮像対象領域ROIを、撮像素子の画素情報転送方向(図4A及び図4Bの場合、水平方向)に対して直交する方向(図4A及び図4Bの場合、垂直方向)のそれぞれの端部領域に2箇所設定する。すなわち、エリアカメラ120で撮像した画像のうち、撮像対象領域ROIに対応する画像だけを環状ビーム画像として取り扱い、演算処理装置200に送信することで、後述する画像処理を行うようにする。
 いま、送入時のエリアカメラ120に設定される撮像対象領域ROIを、便宜的に、ROI_1A及びROI_2Aと称することとし、送出時のエリアカメラ120に設定される撮像対象領域ROIを、便宜的に、ROI_1B及びROI_2Bと称することとする。また、ROI_1A及びROI_IBに対応する部分を、便宜的に、撮像可能な全視野における上側と称することとし、ROI_2A及びROI_2Bに対応する部分を、便宜的に、撮像可能な全視野における下側と称することとする。
 図4A及び図4Bは、それぞれ、管状体撮像装置100の水平及び垂直ではなく、エリアカメラ120の垂直及び水平を基準とした、垂直及び水平に基づいて示されている。
 エリアカメラ120では、図4A及び図4Bに模式的に示したように、エリアカメラ120の全視野のうち、管状体1の管軸方向と直交し、エリアカメラ120の撮像素子の画素情報を転送する方向を長手方向とし、エリアカメラ120の全視野のうち連結部材133によって環状のレーザ光が遮蔽される部分を含まないように、エリアカメラ120の全視野のうちの上側端部及び下側端部に、それぞれ、矩形の撮像対象領域(ROI)が設定される。
 また、エリアカメラ120の全視野のうちの上側端部及び下側端部にそれぞれ設定される撮像対象領域(ROI)以外の領域には、複数の連結部材133が存在していてもよい。従って、管状体撮像装置100の管軸方向のたわみを防止するために、撮像ユニットに対して所定の強度を求めるのであれば、この2つの撮像対象領域(ROI)以外の領域に複数の連結部材133が位置するように、管状体撮像装置100における連結部材133の配置を適宜決定すればよい。
 なお、撮像対象領域(ROI)を、エリアカメラ120の全視野のうちの上側端部及び下側端部に設定しているのは、エリアカメラ120が、撮像素子の各画素の電荷又は電圧に関する画素情報を、水平方向に転送することに対応して、画像の一領域を欠けなく抽出できるようにするためである。そのため、エリアカメラ120が、撮像素子の各画素の電荷又は電圧に関する画素情報を垂直方向に転送するものである場合には、撮像対象領域(ROI)を、エリアカメラ120の全視野のうちの左側端部及び右側端部に設定することも可能である。
 また、エリアカメラ120では、設定される2つの撮像対象領域(ROI)について、送入時における撮像対象領域(ROI)に係る画像と、送出時における撮像対象領域(ROI)に係る画像との間で、互いに一部重複する領域が存在するように、エリアカメラ120の視野から見て撮像対象領域(ROI)の長手方向に直交する方向の大きさが、決定されることが好ましい。
 以下では、図2A及び図2Bに示したような構造を有している管状体撮像装置100に着目して、本実施形態における撮像対象領域(ROI)の設定方法について、図4A及び図4Bを参照しながら詳細に説明する。
 なお、以下では、環状ビーム画像における環状ビームの半径をRと表すこととする。また、以下で詳述する画像処理では、半径Rで表される位置を中心として、R±ΔRの範囲に位置する環状ビーム画像が用いられる。従って、エリアカメラ120において設定される撮像対象領域(ROI)は、後段の画像処理で用いられる画像領域を少なくとも含むように設定されることが好ましい。
 以下では、エリアカメラ120に搭載された撮像素子の大きさが、例えば、H(エリアカメラ120を基準とした垂直方向の画素)=1200画素×W(エリアカメラ120を基準とした水平方向の画素)=1920画素である場合を例に挙げる。また、撮像素子において左上隅の位置を、画素位置を示す座標系における原点(0,0)であるとする。
 本実施形態に係るエリアカメラ120では、先だって言及したように矩形の撮像対象領域(ROI)が設定される。すなわち、かかる撮像対象領域(ROI)の撮像素子水平方向の画素数は、それぞれW画素となる。
 また、本実施形態に係る管状体内表面検査装置10では、以下で詳述するように、送入時及び送出時の双方でエリアカメラ120により撮像される環状ビーム画像をそれぞれ利用して、連結部材133に起因して環状レーザ光が観測できない領域に該当する部分の環状ビーム画像を補完する。図4A及び図4Bに模式的に示したように、4つの撮像対象領域(ROI)での環状ビーム画像を用いて、管状体1の内表面の全周分の環状ビーム画像を確保するわけであるから、1つの撮像対象領域(ROI)中に撮像される環状ビーム画像は、環状ビームの中心を基準として、±θ=45度の範囲を少なくとも含むこと(換言すれば、1つの撮像対象領域(ROI)中に、環状ビームの全周に対して1/4以上の孤長の環状ビームが含まれること)が重要である。
 かかる観点のもと、本実施形態において、送入時のエリアカメラ120における撮像対象領域ROI_1Aは、エリアカメラ120の垂直、水平を基準として、(0,0)の画素座標から幅W×高さhの矩形領域として設定され、撮像素子垂直方向の画素数hは、以下の式(101)~式(103)により、規定される。
  h=A+ΔA ・・・式(101)
  A=H/2-Rcosθ ・・・式(103)
  ΔA=ΔR・cosθ+α ・・・式(105)
 ここで、上記式(101)及び式(103)から明らかなように、画素数Aに対応する部分が、±θ=45度の範囲の環状ビームを含む領域に該当する。また、上記式(101)及び式(105)から明らかなように、画素数ΔAに対応する部分が、後段の画像処理で用いられる環状ビーム画像の大きさと、送入時と送出時との間で互いに一部重複する撮像対象領域(ROI)と、を共に確保するために設定される領域に該当する。また、上記式(105)におけるパラメータαは、振動等や、管状体撮像装置100の周方向の回転誤差等を考慮した許容設定値であり、例えば、5画素程度とすることができる。また、ΔRの値は、検査対象物である管状体1の内径、及び、エリアカメラ120に搭載される撮像素子の画素サイズ等に応じて適宜設定すればよいが、管状体の内径が400mmであり、撮像素子の画素サイズが0.4mm×0.4mmである場合、内径400mmは1000画素分に対応するため、例えば、ΔRを、25画素程度とすることができる。
 同様に、エリアカメラ120における下側の撮像対象領域ROI_2Aは、エリアカメラ120の垂直、水平を基準として、(0,H-h)から幅W×高さhの矩形領域として、上記式(101)~式(105)と同様に設定される。
 また、送出時のエリアカメラ120における上側の撮像対象領域ROI_1B及び下側の撮像対象領域ROI_2Bについても、送入時のエリアカメラ120と同様に設定される。送出時のエリアカメラ120は、送入時のエリアカメラ120を反時計方向に90度回転したものであるため、カメラ上の設定値は、送入時と同一とすることが出来る。
 このような、撮像対象領域(ROI)を設定可能なエリアカメラでは、カメラの全撮像領域に対する撮像対象領域(ROI)の面積の比率に対応して、カメラの撮像フレームレートを速くして撮像することが可能となる。その結果、より細かい周期でレーザ光による光切断線を得ることが可能となる。すなわち、エリアカメラの全撮像領域に対して、撮像対象領域の領域面積を1/2、1/3、1/4・・・と設定することで、撮像素子における画素情報転送量が、撮像対象領域(ROI)を設定しない場合と比較して、ほぼ1/2、1/3、1/4・・・・と減少する結果、撮像フレームレートについても、ほぼ1/2、1/3、1/4・・・と高速化した画像取り込みが可能となる。エリアカメラの撮像画像読み込み周期を高速化した場合、走査方向に対して直交する方向(すなわち、本例では垂直方向)の分解能を向上させた画像を得ることができる。従って、本実施形態に係る管状体撮像装置100では、より高速、高分解能かつ簡便に、管状体の内表面を撮像することが可能となる。
 なお、本実施形態において、撮像フレームレートの具体的な値は、求められる撮像レート等に応じて適宜設定すればよいが、例えば、2つの撮像対象領域合計での撮像フレームレートは、通常の撮像フレームレート(すなわち、エリアカメラの全撮像領域を撮像する場合のフレームレート)の2倍程度の値である、300fps程度とすることができる。
 なお、一般的なエリアカメラに搭載される撮像素子は、エリアカメラ120の撮像素子の画素情報を転送する方向(図4A及び図4Bの場合は、撮像画像の長手方向)の撮像対象領域(ROI)の幅を小さくしたとしてもフレームレートは向上しないため、先だって言及したように、撮像対象領域(ROI)の幅Wは、エリアカメラ120の画素情報を転送する方向の幅Wと同一でよい。
 また、エリアカメラ120の撮像素子の画素情報を転送する方向とは直交する方向の撮像対象領域(ROI)の幅を小さくする場合には、フレームレートが向上することが期待されるが、その場合には、上記の高さhに対応して、幅wを以下の式(107)で算出すればよい。
  w=2×(Rsinθ+ΔA) ・・・式(107)
 その上で、上側の撮像対象領域ROI_1Aは、(W/2-Rsinθ-ΔA,0)の座標から幅w×高さhの矩形領域を設定し、撮像対象領域ROI_2Aは、(W/2-Rsinθ-ΔA,H-h)の座標から幅w×高さhの矩形領域を、それぞれ設定してもよい。
 なお、上記のようなエリアカメラ120における撮像対象領域ROI_1A、ROI_2A、ROI_1B、ROI_2Bの設定値は、検査対象物である管状体1のサイズ(内径等)に応じて、プリセット値としてルックアップテーブル等を予め作成しておいて、後述する演算処理装置200の記憶部等に格納しておき、演算処理装置200がエリアカメラ120の撮像制御を行う際に、かかるルックアップテーブル等を参照することで、容易に設定可能としておくことが好ましい。
 エリアカメラ120において2種類の撮像対象領域(ROI)が設定され、送入時及び送出時のそれぞれで管状体ビーム画像が生成されることで、図5A及び図5Bに示したような、計4種類の環状ビーム画像が生成されることとなる。
 以下に、本実施形態に係る管状体撮像装置100の有する各装置について、その具体的な構成や設定値等を列挙する。かかる構成や設定値等はあくまでも一例であって、本発明に係る管状体撮像装置100が、以下の具体例に限定されるわけではない。
○管状体
 内径100mm~500mm、長さ10m~20m
○照明機構110
 100mWの出力でレーザ光源111から可視光帯域のレーザ光を照射する。レーザ光は円錐状の光学素子113(円錐角90度)により、50mWの環状ビームとなって管状体の内表面に対して反射される。管状体の内表面に照射されるラインビーム幅は、0.25mmである。ただし、この場合のラインビーム幅とは、ピーク強度値から13.5%で定義されるものである。
○エリアカメラ120
 幅1920画素×高さ1200画素のCMOS(画素サイズ:4.8μm×4.8μm)を撮像素子として搭載しており、フレームレートは、150fpsである。レンズの焦点距離は1.81mmであり、水平方向画角は180°である。撮像される画像の画素サイズは0.4mm×0.4mm、ラインビーム幅は、撮像画像上では、1~3画素の輝線の幅で撮影される。撮像対象領域(ROI)を、CMOSの上側端部及び下側端部のそれぞれに、2つの端部領域の合計で600画素分の高さとなるように設定すると、フレームレートは、300fpsとなる。
○エリアカメラ120A,120Bは、管状体の内表面を、管軸方向に0.25mm進む毎に撮像する(すなわち、管状体撮像装置100が0.25mm移動する毎に1パルスのPLG信号が出力される。)。
(演算処理装置200の全体構成について)
 以上、本実施形態に係る管状体撮像装置100の構成について説明した。続いて、再び図1に戻って、本実施形態に係る演算処理装置200の全体構成について説明する。
 本実施形態に係る演算処理装置200は、例えば図1に示したように、撮像制御部201と、画像処理部203と、表示制御部205と、記憶部207と、を主に備える。
 撮像制御部201は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、通信装置等により実現される。撮像制御部201は、本実施形態に係る管状体撮像装置100による検査対象物の撮像制御を実施する。より詳細には、撮像制御部201は、管状体1の撮像を開始する場合に、照明機構110に対してレーザ光の発振を開始させるための制御信号を送出する。また、撮像制御部201は、エリアカメラ120に対して、後述する記憶部207等に格納されているルックアップテーブル等を参照しながら、先だって説明したような2種類の撮像対象領域(ROI)を設定した上で、エリアカメラ120に対して撮像を開始するためのトリガ信号を送出する。更に、撮像制御部201は、管状体撮像装置100による撮像処理が終了すると、駆動制御装置150に対して、管状体撮像装置100を管軸方向に沿って所定距離だけ移動させるためのトリガ信号を送出する。
 また、管状体撮像装置100が管状体1の撮像を開始すると、管状体撮像装置100からPLG信号が定期的に(例えば、管状体撮像装置100が0.25mm移動する毎に1パルスのPLG信号)送出されるが、撮像制御部201は、PLG信号を取得する毎にエリアカメラ120に対して撮像を開始するためのトリガ信号を送出する。
 更に、撮像制御部201は、管状体撮像装置100が管状体1のもう一方の端部まで到達すると、駆動制御装置150に対して、管状体撮像装置100を管周方向に沿って所定角度(例えば、90度)だけ回転させるためのトリガ信号を送出する。その後、撮像制御部201は、上記と同様にして、管状体撮像装置100を送出する際の撮像制御を実施する。
 画像処理部203は、例えば、CPU、ROM、RAM、通信装置等により実現される。画像処理部203は、管状体撮像装置100(より詳細には、管状体撮像装置100のエリアカメラ120)から取得した、送入時及び送出時の撮像データを利用して、後述する縞画像フレームを生成する。その後、生成した縞画像フレームに対して、以下で説明するような画像処理を行い、測定対象物である管状体の内表面に存在する可能性のある欠陥を検出する。画像処理部203は、管状体1の内表面の欠陥検出処理を終了すると、得られた検出結果に関する情報を、表示制御部205に伝送する。
 なお、この画像処理部203については、以下で改めて詳細に説明する。
 表示制御部205は、例えば、CPU、ROM、RAM、出力装置等により実現される。表示制御部205は、画像処理部203から伝送された、検査対象物である管状体1の欠陥検出結果を、演算処理装置200が備えるディスプレイ等の出力装置や演算処理装置200の外部に設けられた出力装置等に表示する際の表示制御を行う。これにより、管状体内表面検査装置10の利用者は、検査対象物(管状体1)の内表面に存在する各種の欠陥に関する検出結果を、その場で把握することが可能となる。
 記憶部207は、例えば本実施形態に係る演算処理装置200が備えるRAMやストレージ装置等により実現される。記憶部207には、本実施形態に係る管状体撮像装置100のエリアカメラ120における撮像対象領域(ROI)の設定プリセット値等といった、本実施形態に係る演算処理装置200が、何らかの処理を行う際に保存する必要が生じた様々なパラメータや処理の途中経過等、又は、各種のデータベースやプログラム等が、適宜記録される。この記憶部207に対しては、撮像制御部201、画像処理部203、表示制御部205等が、リード/ライト処理を実行することが可能である。
<画像処理部203について>
 続いて、図6を参照しながら、本実施形態に係る演算処理装置200が備える画像処理部203について、詳細に説明する。図6は、本実施形態に係る演算処理装置が有する画像処理部の構成を示したブロック図である。
 本実施形態に係る画像処理部203は、図6に示したように、A/D変換部211と、環状ビームセンター算出部213と、座標変換部215と、部分縞画像フレーム生成部217と、縞画像フレーム生成部219と、画像算出部221と、検出処理部229と、を主に備える。
 A/D変換部211は、例えば、CPU、ROM、RAM等により実現される。A/D変換部211は、エリアカメラ120から送入時及び送出時のそれぞれ出力された撮像画像をA/D変換し、図5A及び図5Bに模式的に示したような、合計4種類の撮像対象領域(ROI)に関するデジタル多値画像データ(すなわち、環状ビーム画像)として出力する。かかるデジタル多値画像データは、記憶部207等に設けられた画像メモリに記憶される。これらのデジタル多値画像データを管状体の管軸方向に沿って順次利用することにより、後述するような部分縞画像フレーム及び縞画像フレームが形成される。
 図5A及び図5Bに模式的に示したように、環状ビーム画像は、管状体1の内表面の管軸方向に沿ったある位置において、管状体の内表面に照射された環状ビームを撮像したものである。環状ビーム画像は、予めカメラのゲインやレンズの絞りを適切に設定することにより、例えば、環状ビームが照射された部分が白く表示され、その他の部分は黒く表示されている濃淡画像とすることができる。また、環状ビームの円周上に重畳している凹凸が、管状体の内表面の断面形状と、内表面に存在する欠陥に関する情報を含んでいる。
 A/D変換部211は、エリアカメラ120から出力された撮像画像に基づいて環状ビーム画像を生成すると、生成した環状ビーム画像に対応するデータを、後述する環状ビームセンター算出部213に出力する。
 環状ビームセンター算出部213は、例えば、CPU、ROM、RAM等により実現される。環状ビームセンター算出部213は、A/D変換部211から出力された、送入時及び送出時のそれぞれでエリアカメラ120により生成された各環状ビーム画像を用いて、環の重心位置と環の半径とをそれぞれ算出する。
 この際、環状ビームセンター算出部213は、図7に模式的に示したように、エリアカメラ120による送入時及び送出時の環状ビーム画像を用いて、図7に示したような合成画像を生成し、かかる合成画像を用いて、環の重心位置Oと環の半径rとをそれぞれ算出することが好ましい。図7に示した合成画像は、送入時及び送出時にエリアカメラ120により生成された環状ビーム画像を用い、これら環状ビーム画像を、環状ビーム全体が認識可能なように結合させた画像である。
 ここで、送入時及び送出時にエリアカメラ120で生成される4種類の撮像対象領域(ROI)での環状ビーム画像を、どのような順で結合していけばよいかについては、図2A及び図2Bに示したようなエリアカメラ120の光学的な姿勢に基づいて、予め決定しておくことが可能である。また、エリアカメラ120で生成される4種類の撮像対象領域(ROI)での環状ビーム画像を、互いにどのような位置に結合していけばよいかについては、内表面にキズ等の欠陥が存在していないことが明らかとなっている基準管を利用し、4種類の撮像対象領域(ROI)での環状ビーム画像が滑らかに接続されるような結合位置を、事前に特定しておけばよい。
 この際、環状ビームセンター算出部213は、4種類の撮像対象領域(ROI)での環状ビーム画像を結合する際に、環状ビーム画像が滑らかに接続されるように、それぞれの環状ビーム画像の結合位置を微調整することが好ましい。管状体撮像装置100の周方向への回転誤差は、先だって説明したような撮像対象領域(ROI)における高さ方向の幅ΔAの範囲内となるように調整されており、かつ、上記のような結合の際の微調整を実施することで、管状体撮像装置100の周方向の回転に誤差が生じた場合であっても、より確実に4種類の撮像対象領域(ROI)での環状ビーム画像を結合させて、合成画像を生成することが可能となる。
 環の重心位置O及び半径rを算出する方法は、特に限定されるわけではなく、公知のあらゆる方法を利用することが可能である。環の重心位置O及び半径rを算出する方法の具体例としては、例えば、環状ビーム画像が真円に近い場合は、以下のような2つの方法を挙げることができる。
 ・2値化した環状ビーム画像上の任意の3点を抽出し、この3点の位置座標の重心を算出する。得られた重心位置と3点のうち任意の1点との間の距離が環の半径となる。
 ・ハフ(Hough)変換による円抽出を行い、円(すなわち、環状ビーム)の重心と半径とを算出する。
 環状ビームセンター算出部213は、各環状ビーム画像について環の重心位置O及び半径rを算出すると、環の重心位置O及び半径rに関する情報をそれぞれ生成して、後述する座標変換部215に出力する。
 なお、本実施形態においては、管状体1の内面の断面形状が真円に近い場合について説明しているが、任意の断面形状に対して適用可能であり、例えば、断面形状が楕円や角丸長方形等であってもよい。このような場合の重心は、環状ビームの形状から求めることが可能であり、求めた重心との距離の最大値と最小値の平均値を半径として用いることで、後述する座標変換を同じ手順で実施することができる。
 また、上記では、合成画像を生成した上で環の重心位置O及び半径rを算出する場合について説明したが、環状ビームセンター算出部213は、図7に示したような合成画像を生成せずに、送入時にエリアカメラ120で得られた環状ビーム画像を用いて環の重心位置O及び半径rを算出するとともに、送出時にエリアカメラ120で得られた環状ビーム画像を用いて環の重心位置O及び半径rを算出してもよい。この場合、後述する座標変換処理では、送入時のエリアカメラ120から得られた環状ビーム画像については、送入時の環状ビーム画像から算出された環の重心位置O及び半径rが用いられるとともに、送出時のエリアカメラ120から得られた環状ビーム画像については、送出時の環状ビーム画像から算出された環の重心位置O及び半径rが用いられる。しかしながら、2種類の環の重心位置O及び半径rが用いられるために、後述する縞画像フレームの生成処理において全ての部分縞画像フレームを結合していく際に、部分縞画像フレームの接続のさせ方に注意を払う必要が生じ、後段の処理が複雑化する可能性がある。
 座標変換部215は、例えば、CPU、ROM、RAM等により実現される。座標変換部215は、算出された重心位置、及び、当該重心位置と環状ビームの照射部分との離隔距離(離隔量)に基づいて、環状ビーム画像の座標系を極座標変換する。そのため、環状ビーム画像に曲線状に写る環状のレーザ光の照射部分の像は、極座標変換により、直線状の線分に変換される。その後、座標変換部215は、環状ビームの照射部分に対応する線分として表した、光切断画像を生成する。
 すなわち、環状ビームの重心位置が算出されることで、xy平面上の直交座標系を極座標系へと変換することが可能となり、環状ビームの照射位置に対応する画素の存在位置を、重心位置を原点とした極座標(r,θ)で表すことができる。座標変換部215は、図8に示したように、環状ビームセンター算出部213で算出された半径rに動径方向に±Δrの余裕を設けたうえで(すなわち、r-Δr~r+Δrの範囲で)、図4A及び図4Bに示した-θからθの範囲(図4A及び図4Bの場合、-45°≦θ≦45°の範囲)で、座標変換を実施する。なお、本実施形態では、動径方向のr-Δr~r+Δrの範囲で座標変換を実施する場合について説明しているが、余裕Δrの値は、環状ビームの照射部分を含む範囲で、プラス方向とマイナス方向とで異なった値であってもよい。かかる場合、例えば、座標変換を行う範囲は、r-Δr~r+Δrなどと表現することができる。ただし、本実施形態においては、プラス方向とマイナス方向とで同じ値Δrを用いる場合について、以降の説明を行う。
 このような座標変換を行うことで、図8の右側に示したように、動径方向には半径rを中心として2Δrの高さを有し、角度方向にはθ~θ’(図4A及び図4Bの場合、約90度)に対応する長さを有する帯状の画像が抽出される。以上の説明からも明らかなように、抽出された帯状の画像は、環状ビームの照射部分を管状体の管周方向に展開した線分(以下、「光切断線」とも称する。)を含むようになる。また、動径方向に関して、半径rを中心として2Δrの範囲を抽出することで、環状ビームの周に凹凸が存在していたとしても、かかる凹凸を含む環状ビームの周をもれなく抽出することが可能となる。このようにして得られた帯状の画像を、以下では光切断画像と称することとする。
 なお、Δrの大きさは、管状体1に存在しうる凹凸の高さの範囲を過去の操業データ等に基づいて予め大まかに算出しておくことで、決定することが可能である。
 上述のような具体的な構成を有する管状体撮像装置100を用いた場合、かかる管状体撮像装置100により撮像された環状ビーム画像は、約400画素に相当する半径を有する環を含むようになる。そこで、r=400画素、Δr=25画素として、-45°≦θ≦45°の範囲で光切断画像の抽出を行うと、横628画素×高さ50画素の光切断画像が生成される。
 また、座標変換部215は、直交座標系から極座標系への変換を行うため、直交座標系における格子点(すなわち、画素の中心位置)が、極座標系において必ず格子点に対応するとは限らず、非格子点に対応するものも存在するようになる。そこで、座標変換部215は、極座標系における非格子点の濃度(画素値)を補間するために、着目している点の近傍に位置する他の格子点の濃度に基づいて補間する、いわゆる画像補間法を併せて実施することが好ましい。
 かかる画像補間法は、特に限定されるものではなく、例えば、「昭晃堂 画像処理ハンドブック」等に記載されている公知の画像補間法を利用することが可能である。このような画像補間法の例として、最近傍(nearest neighbor)法、双線形補間(bi-linear interpolation)法、3次補間(bi-cubic convolution)法等を挙げることができる。これらの方法のうち、前者ほど処理速度が速く、後者ほど高品質の結果を得ることができる。そこで、座標変換部215は、利用する画像補間法の種別を、処理に用いることのできるリソース量や処理時間等に応じて適宜決定すればよい。本実施形態において示す光切断画像の具体例では、画像補間法として3次補間法を適用している。
 座標変換部215は、上述のような座標変換処理や画像補間処理を終了すると、得られた光切断画像に対応する画像データを、記憶部207等に設けられた画像メモリに、管状体の管軸方向に沿って順次格納していく。
 部分縞画像フレーム生成部217は、例えば、CPU、ROM、RAM等により実現される。部分縞画像フレーム生成部217は、記憶部207等に設けられた画像メモリから、管状体の管軸方向に沿って格納された、各撮像対象領域(すなわち、ROI_1A、ROI_2A、ROI_1B、ROI_2B)についての光切断画像を順に取得する。その後、部分縞画像フレーム生成部217は、取得した各撮像対象領域についてのそれぞれの光切断画像を管状体の管軸方向に沿って順に配列して、撮像対象領域ごとに4種類の部分縞画像フレームを生成する。
 1つの部分縞画像フレームを構成する光切断画像の個数は、適宜設定すればよいが、例えば、512個の光切断画像で1つの部分縞画像フレームを構成するようにしてもよい。各光切断画像は、上述のように環状ビーム画像の撮像間隔毎(例えば、0.25mm間隔)に存在している。そのため、0.25mm間隔で撮像された環状ビーム画像に基づく、512個の光切断画像からなる1つの部分縞画像フレームは、管状体の内表面の全周の1/4を、管軸方向に沿って128mm(=512×0.25mm)の範囲で撮像した結果に相当する。
 図9に、部分縞画像フレーム生成部217によって生成される部分縞画像フレームの一例を示した。図9では、撮像対象領域ROI_1Aに関する光切断画像を利用して、撮像対象領域ROI_1Aに関する部分縞画像フレームが生成される場合を模式的に示している。図9に模式的に示した部分縞画像フレームにおいて、図面の横方向に伸びた1本の線分が、1枚の環状ビーム画像を展開したものに相当しており、図面の横方向が環状ビームの管周方向に対応している。また、図9に示した部分縞画像フレームにおいて、図面の縦方向が、管状体1の管軸方向に相当している。
 部分縞画像フレーム生成部217は、以上のようにして、ROI_1A~ROI_2Bに関する4種類の部分縞画像フレームを生成すると、生成した各部分縞画像フレームを、後述する縞画像フレーム生成部219に出力する。また、部分縞画像フレーム生成部217は、生成した部分縞画像フレームに対応するデータに、当該部分縞画像フレームを生成した日時等に関する時刻情報を関連付けて、履歴情報として記憶部207等に格納してもよい。
 縞画像フレーム生成部219は、例えば、CPU、ROM、RAM等により実現される。縞画像フレーム生成部219は、部分縞画像フレーム生成部217により生成された4種類の部分縞画像フレームを用い、これら部分縞画像フレームを互いに結合させて、管状体1の内表面の全周に亘る光切断線が管状体の管軸方向に沿って順に配列した、縞画像フレームを生成する。
 ここで、本実施形態に係る管状体内表面検査装置10では、送入時の環状ビーム画像から生成された部分縞画像フレームと、送出時の環状ビーム画像から生成された部分縞画像フレームと、を互いに結合させる。そのため、図10上段に模式的に示したように、送入時の部分縞画像フレームにおける1ライン目の光切断画像は、送出時の部分縞画像フレームにおけるNライン目の光切断画像と対応している。従って、縞画像フレーム生成部219は、環状ビーム画像の撮像タイミングを考慮して、送入時の部分縞画像フレームと、送出時の部分縞画像フレームと、を上記のように対応づけた上で、4種類の部分縞画像フレームを、部分縞画像フレーム間での重複部分を考慮しながら互いに結合して、縞画像フレームを生成する。
 縞画像フレーム生成部219は、図10に示したような縞画像フレームを生成すると、生成した縞画像フレームを、後述する画像算出部221に出力する。また、縞画像フレーム生成部219は、生成した縞画像フレームに対応するデータに、当該縞画像フレームを生成した日時等に関する時刻情報を関連付けて、履歴情報として記憶部207等に格納してもよい。
 画像算出部221は、例えば、CPU、ROM、RAM等により実現される。画像算出部221は、縞画像フレーム生成部219が生成した縞画像フレームに基づいて、管状体の内表面の凹凸状態を表す深さ画像と、管状体の内表面における環状ビームの輝度の分布を表す輝度画像と、を算出する。この画像算出部221は、図6に示したように、光切断線処理部223と、深さ画像算出部225と、輝度画像算出部227と、を備える。
 光切断線処理部223は、例えば、CPU、ROM、RAM等により実現される。光切断線処理部223は、縞画像フレームに含まれる各光切断線について、光切断線の変位量(輝線の曲がり具合)を含む光切断線特徴量を算出する。以下では、図11A及び図11Bを参照しながら、光切断線処理部223が実施する処理及び算出する光切断線特徴量について、詳細に説明する。図11Aは、縞画像フレームを模式的に示した説明図である。図11Bは、光切断線処理部が実施する光切断線処理について説明するための説明図である。
 図11Aでは、1つの縞画像フレームの中にN本の光切断線が存在しており、縞画像フレームの横方向の長さは、M画素であるものとする。また、1本の光切断線を含む1つの光切断画像は、縦2Δr画素×横M画素から構成されている。
 ここで、説明の便宜上、縞画像フレームの管周方向(図11Aにおける横方向)にX軸をとり、縞画像フレームの管軸方向(図11Aにおける縦方向)にY軸をとって、縞画像フレーム中の画素の位置をXY座標で表すものとする。以下の説明では、縞画像フレーム中に存在するj(1≦j≦N)番目の光切断線の左側からm画素目(1≦m≦M)の位置(すなわち、Xj,mで表される位置)に着目する。
 光切断線処理部223は、まず、着目すべき光切断線(以下、単に「ライン」とも称する。)の着目すべきX座標位置(本説明では、Xj,mで表される位置)を選択すると、図11Bに示したように、着目したラインの着目したX座標位置における画素に対応付けられている画素値(すなわち、環状ビームの輝度値)の分布を参照する。この際、光切断線処理部223は、光切断画像中の当該X座標位置における全ての画素について、以下で説明する処理を実施するのではなく、光切断画像中におけるY座標の基準位置Yの前後Wの範囲に属する画素(すなわち、Y-W~Y+Wの範囲に属する画素)について、以下で説明する処理を実施する。
 ここで、Y座標の基準位置Yは、縞画像フレームのjライン目の光切断画像に対して予め指定される管軸方向の位置であり、例えば光切断画像の管軸方向の中心を指定すれば、先述のようにプラス方向とマイナス方向とで同じ余裕値Δrを用いる場合には、環状ビームセンター算出部が算出した半径r(すなわち光切断線の位置)に等しくなる。また、処理範囲を規定するパラメータWは、管状体1に存在しうる凹凸の高さの範囲を過去の操業データ等に基づいて、光切断画像中におけるY座標の基準位置Yの前後Wの範囲が光切断画像に収まるように、予め大まかに算出しておき、適宜決定すればよい。パラメータWの値を小さくすることができれば、後述する光切断線処理部223の処理負荷の低減を図ることができる。
 光切断線処理部223は、まず、Y-W~Y+Wの範囲に含まれる画素の中から、光切断線に対応する画素を特定するための第1の閾値の一例である所定の閾値Th以上の画素値を有する画素を特定する。図11Bに示した例では、Yj,k、Yj,k+1、Yj,k+2で表される3つの画素が、それぞれ閾値Th以上の画素値Ij,k、Ij,k+1、Ij,k+2を有している。従って、光切断線処理部223は、所定の閾値Th以上の画素値を有する画素を線幅方向に加算した数pj,m=3と設定する。この所定の閾値Th以上の画素値を有する画素を線幅方向に加算した数pj,mは、いわば位置(j,m)における輝線の画素数に対応する値であり、光切断線特徴量の一つである。また、光切断線処理部223は、以下の処理において、抽出された画素に関する情報(Yj,k、Ij,k)、(Yj,k+1、Ij,k+1)、(Yj,k+2、Ij,k+2)(以下、単に(Y,I)と略記することもある。)の情報を利用して、更なる光切断線特徴量を算出していく。
 また、光切断線処理部223は、パラメータpj,m及び抽出した画素に関する情報(Y,I)を用いて、抽出された画素の輝度の総和Kj,mを算出する。図11Bに示した例の場合、光切断線処理部223が算出する輝度の総和は、Kj,m=Ij,k+Ij,k+1+Ij,k+2となる。この輝度の総和Kj,mも、光切断線特徴量の一つである。
 更に、光切断線処理部223は、抽出された画素に関する情報(Y,I)とY座標の基準位置Yとを利用して、抽出された画素のY方向の重心位置Y(j,m)を算出するとともに、重心位置Y(j,m)の基準位置Yからの変位量Δdj,m=Y-Y(j,m)を算出する。
 ここで、重心位置Y(j,m)は、抽出された画素の集合をAと表すこととすると、以下の式111で表される値となる。従って、図11Bに示した例の場合、重心位置Y(j,m)は、以下の式111aで表される値となる。
Figure JPOXMLDOC01-appb-M000001
 ここで、画素に対応する管軸方向の位置は、いわば管状体撮像装置100の移動幅(例えば、0.25mm)で量子化された値である。他方、上記式111で示したような演算により算出される重心位置Y(j,m)は、割り算という数値演算を利用することで算出される値であるため、管状体撮像装置100の移動幅(いわば量子化単位)よりも小さな値となりうる。従って、かかる重心位置Y(j,m)を利用して算出される変位量Δdj,mについても、移動幅よりも小さな値を有しうる値となる。このようにして算出される変位量Δdj,mも、光切断線特徴量の一つである。
 光切断線処理部223は、以上のような3種類の特徴量を、各切断線に含まれるM個の要素に関して算出する。その結果、図12A~図12Cに示したように、光切断線の変位量Δd、輝度の総和K、及び、輝線の画素数pに関して、M列×N行の二次元配列が生成される。本実施形態に係る縞画像フレームの具体例の場合、M=1920、N=512であるため、各光切断線特徴量を構成するデータの個数は、1920×512個となる。
 光切断線処理部223は、算出した光切断線特徴量のうち、光切断線の変位量Δdに関する特徴量を、後述する深さ画像算出部225に出力する。また、光切断線処理部223は、算出した光切断線特徴量のうち、輝度の総和K、及び、輝線の画素数pに関する特徴量を、後述する輝度画像算出部227に出力する。
 深さ画像算出部225は、例えば、CPU、ROM、RAM等により実現される。深さ画像算出部225は、光切断線処理部223が生成した光切断線特徴量(特に、変位量Δdに関する特徴量)に基づいて、管状体の内表面の凹凸状態を表す深さ画像を算出する。
 具体的には、深さ画像算出部225は、図12Aに示したような変位量Δdに関する特徴量(二次元配列)と、環状ビームの垂直成分入射角(図2における角度φ=φ=φ)と、を利用して、深さ画像を算出する。かかる深さ画像は、管軸方向のそれぞれの位置での凹凸状態の一次元分布が管軸方向に沿って順に配列された、二次元の凹凸状態の分布を表す画像である。
 まず、図13を参照しながら、管状体の内表面に存在する凹凸の高さと、光切断線の変位量Δdとの関係について説明する。図13は、光切断線の変位と欠陥の高さとの関係を示した説明図である。
 図13では、管状体1の内表面に凹みが存在した場合を模式的に示している。ここで、内表面に凹みが存在しない場合の表面位置の高さと凹みの底部の高さとの差分をΔhと表すこととする。垂直入射した環状ビームが表面反射をする場合に着目すると、内表面に凹みが存在しない場合には、図13の光線Aのように反射光は伝播することとなるが、内表面に凹みが存在する場合には、図13の光線Bのように反射光が伝播することとなる。光線Aと光線Bとのズレが、本実施形態において光切断線の変位量Δdとして観測されることとなる。ここで、幾何学的な位置関係から明らかなように、光切断線の変位量Δdと凹みの深さΔhとは、Δd=Δh・sinφの関係が成立する。
 なお、図13では、管状体の内表面に凹みが存在する場合について説明したが、管状体の内表面に凸部が存在する場合であっても、同様の関係が成立する。
 深さ画像算出部225は、以上説明したような関係を利用して、光切断線処理部223が算出した光切断線の変位量Δdに関する特徴量に基づき、管状体の内表面の凹凸に関する量Δhを算出する。
 ここで、深さ画像の算出に用いられる光切断線の変位量Δdは、先に説明したように光切断線の重心位置に基づいて算出されたものであり、移動幅よりも小さな値を有しうる値となっている。従って、深さ画像算出部225により算出される深さ画像は、撮像素子の画素サイズよりも細かい分解能で凹凸が再現されている画像となる。
 本実施形態で示した縞画像フレームの具体例は、撮影ピッチ0.25mmで撮像された光切断線の変位を積み上げたものであるため、それぞれの変位量ΔdをΔhに変換すると、幅0.25mm×高さ0.25mmの深さ画像が算出される。また、かかる具体例では、角度φ=45°であるため、Δd=(1/20.5)・Δhの関係が成立している。
 なお、被検査体である管状体の内表面の形状の変化や、カメラ走査方向軸が管状体の中心からずれることにより、図14に示したように、光切断線に湾曲等の歪みが生じる場合がある。他方、本実施形態に係る管状体内表面検査方法では、光切断線に重畳している凹凸が、管状体の内表面の断面形状と内表面に存在する表面欠陥に関する情報となっている。そのため、深さ画像算出部225は、光切断線の変位量Δdに基づいて深さ画像を算出する際に、光切断線毎に歪み補正処理を行って、光切断線に重畳している凹凸に関する情報のみを抽出してもよい。このような歪み補正処理を実施することにより、カメラ走査方向軸が管状体の中心軸に正確に一致していない場合や、内表面の形状が円でない場合であっても、内表面に存在する凹凸疵の情報のみを得ることが可能となる。
 かかる歪み補正処理の具体例として、(i)多次元関数や各種の非線形関数を利用したフィッティング処理を行い、得られたフィッティング曲線と観測された光切断線との差分演算を行う処理や、(ii)凹凸に関する情報が高周波成分であることを利用して、浮動フィルタやメディアンフィルタ等のローパスフィルタを適用する処理等を挙げることができる。このような歪み補正処理を実施することにより、内表面に存在する凹凸疵の情報を保持したまま、光切断線の平坦化を図ることが可能となる。
 深さ画像算出部225は、以上説明したようにして算出した深さ画像に関する情報を、後述する検出処理部229に出力する。
 輝度画像算出部227は、例えば、CPU、ROM、RAM等により実現される。輝度画像算出部227は、光切断線処理部223が生成した光切断線特徴量(特に、輝度の総和K及び輝線の画素数pに関する特徴量)に基づいて、管状体の内表面における環状ビームの輝度の分布を表す輝度画像を算出する。
 具体的には、輝度画像算出部227は、図12Bに示したような輝度の総和Kに関する特徴量(二次元配列)、及び、図12Cに示したような輝線の画素数pに関する特徴量(二次元配列)を利用して、総和輝度の線幅方向の平均値である平均輝度KAVE(j,m)=Kj,m/pj,m(1≦j≦N、1≦m≦M)を算出する。その後、輝度画像算出部227は、算出した平均輝度KAVE(j,m)からなるデータ配列を、着目している管状体の輝度画像とする。かかる輝度画像は、管軸方向のそれぞれの位置での環状のレーザ光の輝度の一次元分布が管軸方向に沿って順に配列された、二次元の輝度分布を表す画像である。
 輝度画像算出部227は、以上説明したようにして算出した輝度画像に関する情報を、後述する検出処理部229に出力する。
 検出処理部229は、例えば、CPU、ROM、RAM等により実現される。検出処理部229は、深さ画像算出部225により算出された深さ画像と、輝度画像算出部227により算出された輝度画像と、に基づいて、管状体の内表面に存在する欠陥を検出する。
 かかる検出処理部229は、深さ画像及び輝度画像に基づいて欠陥部位を特定する欠陥部位特定機能と、特定した欠陥部位の形態及び画素値に関する特徴量を抽出する特徴量抽出機能と、抽出した特徴量に基づいて欠陥の種別や有害度等を判別する欠陥判別機能と、を有している。以下、これらの機能について、簡単に説明する。
○欠陥部位特定機能
 検出処理部229は、取得した深さ画像及び輝度画像の各画素に対して、周辺画素との画素値(深さを表す値、又は、輝度値)の線形和を得るフィルタ処理によって縦線状疵、横線状疵、微小疵等の領域を強調し、得られた値が、欠陥部位特定のための第2の閾値以上となるか否かの判定を行う。このようなフィルタ処理及び当該フィルタ処理結果に基づく判定処理を実施することで、検出処理部229は、欠陥部位を特定するための2値化画像を生成することができる。かかる2値化画像において、算出した値が第2の閾値未満であった画素が正常箇所(すなわち、2値化画像の画素値=0)に該当し、算出した値が第2の閾値以上であった画素が欠陥箇所(すなわち、2値化画像の画素値=1)に該当する。更に、検出処理部229は、連続して発生している欠陥箇所を結合していくことで、一つ一つの欠陥部位を特定する。
○特徴量抽出機能
 検出処理部229は、欠陥部位特定機能により深さ画像及び輝度画像の欠陥部位を特定すると、特定した欠陥部位ごとに、欠陥部位の形態及び画素値に関する特徴量を抽出する。欠陥部位の形態に関する特徴量として、例えば、欠陥部位の幅、欠陥部位の長さ、欠陥部位の周囲長、欠陥部位の面積、欠陥部位の外接長方形の面積等を挙げることができる。また、欠陥部位の画素値に関する特徴量として、深さ画像に関しては、欠陥部位の深さの最大値、最小値、平均値等を挙げることができ、輝度画像に関しては、欠陥部位の輝度の最大値、最小値、平均値等を挙げることができる。
○欠陥判別機能
 検出処理部229は、特徴量抽出機能により各欠陥部位の特徴量を抽出すると、欠陥部位ごとに、抽出した特徴量に基づいて欠陥の種別や有害度等を判別する。特徴量に基づく欠陥の種別や有害度等の判別処理は、例えば図15に示したようなロジックテーブルを利用して行われる。すなわち、検出処理部229は、図15に例示したようなロジックテーブルによって表される判別条件に基づき、欠陥の種別や有害度を判別する。
 図15に例示したように、ロジックテーブルの縦方向の項目として、欠陥の種別(欠陥A1~欠陥An)が記載されており、ロジックテーブルの横方向の項目として、特徴量の種類(特徴量B1~特徴量Bm)が記載されている。また、欠陥の種別及び特徴量により規定されるテーブルの各セルには、対応する特徴量の大小による判別条件式(条件式C11~条件式Cnm)が記述されている。このようなロジックテーブルの各行が一組となって、一つ一つの欠陥の種別の判別条件となる。判別処理は、最上位の行に記載された種別から順に行われ、何れか一つの行に記載された判別条件を全て満たした時点で終了する。
 このようなロジックテーブルは、過去の操業データ及び当該操業データに基づく検定員による欠陥の種別及び有害度の特定結果を教師データとした学習処理により構築されたデータベースを利用して、公知の方法により生成することが可能である。
 検出処理部229は、このようにして検出した欠陥部位ごとに欠陥の種別及び有害度を特定し、得られた検出結果を表示制御部205に出力する。これにより、検出対象物である管状体の内表面に存在する欠陥に関する情報が、表示部(図示せず。)に出力されることとなる。また、検出処理部229は、得られた検出結果を、製造管理用プロセスコンピュータ等の外部の装置に出力してもよく、得られた検出結果を利用して、製品の欠陥帳票を作成してもよい。また、検出処理部229は、欠陥部位の検出結果に関する情報を、当該情報を算出した日時等に関する時刻情報と関連づけて、記憶部207等に履歴情報として格納してもよい。
 なお、以上の説明では、ロジックテーブルを利用して欠陥の種別や有害度を判別する場合について説明したが、欠陥の種別や有害度を判別する方法は上記例に限定されるわけではない。例えば、過去の操業データ及び当該操業データに基づく検定員による欠陥の種別及び有害度の特定結果を教師データとした学習処理により、ニューラルネットやサポートベクターマシン(SVM)等の判別器を生成し、かかる判別器を欠陥の種別や有害度の判別に利用してもよい。
 以上、本実施形態に係る演算処理装置200が有する画像処理部203の構成について、詳細に説明した。
 なお、上述の説明では、深さ画像算出部225が深さ画像を算出する際に、差分演算処理やローパスフィルタ処理等の近似補正処理を実施する場合について説明した。しかしながら、かかる近似補正処理は、光切断線処理部223が光切断線特徴量を算出するに先立って、当該光切断線処理部223が実施してもよい。
 以上、本実施形態に係る演算処理装置200の機能の一例を示した。上記の各構成要素は、汎用的な部材や回路を用いて構成されていてもよいし、各構成要素の機能に特化したハードウェアにより構成されていてもよい。また、各構成要素の機能を、CPU等が全て行ってもよい。従って、本実施形態を実施する時々の技術レベルに応じて、適宜、利用する構成を変更することが可能である。
 なお、上述のような本実施形態に係る演算処理装置の各機能を実現するためのコンピュータプログラムを作製し、パーソナルコンピュータ等に実装することが可能である。また、このようなコンピュータプログラムが格納された、コンピュータで読み取り可能な記録媒体も提供することができる。記録媒体は、例えば、磁気ディスク、光ディスク、光磁気ディスク、フラッシュメモリなどである。また、上記のコンピュータプログラムは、記録媒体を用いずに、例えばネットワークを介して配信してもよい。
(管状体内表面検査方法について)
 続いて、図16を参照しながら、本実施形態に係る管状体内表面検査方法の流れを簡単に説明する。図16は、本実施形態に係る管状体内表面検査方法の流れの一例を示した流れ図である。
 まず、管状体内表面検査装置10の管状体撮像装置100は、送入時及び送出時のそれぞれにおいて、環状ビームを用いて検査対象物である管状体の内表面を撮像して、エリアカメラ120による撮像画像を、演算処理装置200に出力する。ここで、エリアカメラ120には、上記のような2箇所の撮像対象領域(ROI)が予め設定されており、送入時から送出時へと移行する際には、管状体撮像装置100の姿勢が、駆動制御装置150によって変更される。演算処理装置200が備える画像処理部203のA/D変換部211は、取得したエリアカメラ120からの撮像画像に対してA/D変換処理を行い、送入時及び送出時のそれぞれについて、環状ビーム画像を生成する(ステップS101)。
 次に、環状ビームセンター算出部213は、A/D変換部211が生成した、エリアカメラ120による送入時及び送出時の環状ビーム画像をそれぞれ利用して環状ビーム画像の重心位置及び半径を算出し(ステップS103)、得られた算出結果を、座標変換部215に出力する。
 続いて、座標変換部215は、算出された重心位置や半径等を利用して、エリアカメラ120による送入時及び送出時の環状ビーム画像を座標変換し、光切断画像を生成する(ステップS105)。生成された光切断画像は、管状体の管軸方向に沿って、記憶部207等に設けられた画像メモリに順次格納されていく。
 その後、部分縞画像フレーム生成部217は、生成された光切断画像を管状体の管軸方向に沿って順に配列して、部分縞画像フレームを生成する(ステップS107)。部分縞画像フレーム生成部217は、生成した部分縞画像フレームを、縞画像フレーム生成部219に出力する。縞画像フレーム生成部219は、部分縞画像フレーム生成部217により生成された部分縞画像フレームを用いて、縞画像フレームを生成する(ステップS109)。縞画像フレーム生成部219は、生成した縞画像フレームを、光切断線処理部223に出力する。
 光切断線処理部223は、生成された縞画像フレームを利用し、各光切断線について、所定の閾値Th以上の輝度を有する画素の画素数、当該画素の輝度の総和及び光切断線の変位量を算出する(ステップS111)。これら算出結果が、光切断線特徴量として利用される。算出された光切断線特徴量は、深さ画像算出部225及び輝度画像算出部227にそれぞれ出力される。
 深さ画像算出部225は、算出された光切断線特徴量(特に、光切断線の変位量に関する特徴量)を利用して、深さ画像を算出する(ステップS113)。また、輝度画像算出部227は、算出された光切断線特徴量(特に、閾値以上の輝度を有する画素の画素数に関する特徴量、及び、輝度の総和に関する特徴量)を利用して、輝度画像を算出する(ステップS113)。深さ画像算出部225及び輝度画像算出部227は、算出した各画像を、検出処理部229に出力する。
 検出処理部229は、算出された深さ画像及び輝度画像を利用して、管状体の内表面に存在する欠陥部位を検出し、検出した欠陥部位の欠陥の種別及び有害度を特定する(ステップS115)。以上のような流れにより、管状体の内表面に存在する欠陥が検出されることとなる。
 以上、本実施形態に係る管状体内表面検査装置及び管状体内表面検査方法について、詳細に説明した。
(ハードウェア構成について)
 次に、図17を参照しながら、本発明の実施形態に係る演算処理装置200のハードウェア構成について、詳細に説明する。図17は、本発明の実施形態に係る演算処理装置200のハードウェア構成を説明するためのブロック図である。
 演算処理装置200は、主に、CPU901と、ROM903と、RAM905と、を備える。また、演算処理装置200は、更に、バス907と、入力装置909と、出力装置911と、ストレージ装置913と、ドライブ915と、接続ポート917と、通信装置919とを備える。
 CPU901は、中心的な処理装置及び制御装置として機能し、ROM903、RAM905、ストレージ装置913、又はリムーバブル記録媒体921に記録された各種プログラムに従って、演算処理装置200内の動作全般又はその一部を制御する。ROM903は、CPU901が使用するプログラムや演算パラメータ等を記憶する。RAM905は、CPU901が使用するプログラムや、プログラムの実行において適宜変化するパラメータ等を一次記憶する。これらはCPUバス等の内部バスにより構成されるバス907により相互に接続されている。
 バス907は、ブリッジを介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バスに接続されている。
 入力装置909は、例えば、マウス、キーボード、タッチパネル、ボタン、スイッチ及びレバーなどユーザが操作する操作手段である。また、入力装置909は、例えば、赤外線やその他の電波を利用したリモートコントロール手段(いわゆる、リモコン)であってもよいし、演算処理装置200の操作に対応したPDA等の外部接続機器923であってもよい。更に、入力装置909は、例えば、上記の操作手段を用いてユーザにより入力された情報に基づいて入力信号を生成し、CPU901に出力する入力制御回路などから構成されている。ユーザは、この入力装置909を操作することにより、演算処理装置200に対して各種のデータを入力したり処理動作を指示したりすることができる。
 出力装置911は、取得した情報をユーザに対して視覚的又は聴覚的に通知することが可能な装置で構成される。このような装置として、CRTディスプレイ装置、液晶ディスプレイ装置、プラズマディスプレイ装置、ELディスプレイ装置及びランプなどの表示装置や、スピーカ及びヘッドホンなどの音声出力装置や、プリンタ装置、携帯電話、ファクシミリなどがある。出力装置911は、例えば、演算処理装置200が行った各種処理により得られた結果を出力する。具体的には、表示装置は、演算処理装置200が行った各種処理により得られた結果を、テキスト又はイメージで表示する。他方、音声出力装置は、再生された音声データや音響データ等からなるオーディオ信号をアナログ信号に変換して出力する。
 ストレージ装置913は、演算処理装置200の記憶部の一例として構成されたデータ格納用の装置である。ストレージ装置913は、例えば、HDD(Hard Disk Drive)等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス、又は光磁気記憶デバイス等により構成される。このストレージ装置913は、CPU901が実行するプログラムや各種データ、及び外部から取得した各種のデータなどを格納する。
 ドライブ915は、記録媒体用リーダライタであり、演算処理装置200に内蔵、あるいは外付けされる。ドライブ915は、装着されている磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリ等のリムーバブル記録媒体921に記録されている情報を読み出して、RAM905に出力する。また、ドライブ915は、装着されている磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリ等のリムーバブル記録媒体921に記録を書き込むことも可能である。リムーバブル記録媒体921は、例えば、CDメディア、DVDメディア、Blu-ray(登録商標)メディア等である。また、リムーバブル記録媒体921は、コンパクトフラッシュ(登録商標)(CompactFlash:CF)、フラッシュメモリ、又は、SDメモリカード(Secure Digital memory card)等であってもよい。また、リムーバブル記録媒体921は、例えば、非接触型ICチップを搭載したICカード(Integrated Circuit card)又は電子機器等であってもよい。
 接続ポート917は、機器を演算処理装置200に直接接続するためのポートである。接続ポート917の一例として、USB(Universal Serial Bus)ポート、IEEE1394ポート、SCSI(Small Computer System Interface)ポート、RS-232Cポート、HDMI(登録商標)(High-Definition Multimedia Interface)ポート等がある。この接続ポート917に外部接続機器923を接続することで、演算処理装置200は、外部接続機器923から直接各種のデータを取得したり、外部接続機器923に各種のデータを提供したりする。
 通信装置919は、例えば、通信網925に接続するための通信デバイス等で構成された通信インターフェースである。通信装置919は、例えば、有線もしくは無線LAN(Local Area Network)、Bluetooth(登録商標)、又はWUSB(Wireless USB)用の通信カード等である。また、通信装置919は、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ、又は、各種通信用のモデム等であってもよい。この通信装置919は、例えば、インターネットや他の通信機器との間で、例えばTCP/IP等の所定のプロトコルに則して信号等を送受信することができる。また、通信装置919に接続される通信網925は、有線又は無線によって接続されたネットワーク等により構成され、例えば、インターネット、家庭内LAN、社内LAN、赤外線通信、ラジオ波通信又は衛星通信等であってもよい。
 以上、本発明の実施形態に係る演算処理装置200の機能を実現可能なハードウェア構成の一例を示した。上記の各構成要素は、汎用的な部材を用いて構成されていてもよいし、各構成要素の機能に特化したハードウェアにより構成されていてもよい。従って、本実施形態を実施する時々の技術レベルに応じて、適宜、利用するハードウェア構成を変更することが可能である。
(まとめ)
 以上説明したように、本発明の実施形態に係る管状体内表面検査装置10を利用することで、管状体の内表面を管周方向全周、管軸方向全長にわたって、より高速、高分解能かつ簡便に検査することが可能となり、微小な凹凸形状の欠陥や模様状の欠陥を高精度で同時に検出することができる。また、本実施形態に係る管状体内表面検査装置10により、欠陥の発生位置を正確に特定することが可能となるため、鋼管等の管状体の生産性や歩留まりの向上や、品質保証に大きく寄与することができる。
 以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。
  10  管状体内表面検査装置
 100  管状体撮像装置
 110  照明機構
 111  レーザ光源
 113  光学素子
 120  エリアカメラ
 131  保持基板
 133  連結部材
 200  演算処理装置
 201  撮像制御部
 203  画像処理部
 205  表示制御部
 207  記憶部
 211  A/D変換部
 213  環状ビームセンター算出部
 215  座標変換部
 217  部分縞画像フレーム生成部
 219  縞画像フレーム生成部
 221  画像算出部
 223  光切断線処理部
 225  深さ画像算出部
 227  輝度画像算出部
 229  検出処理部
 

Claims (6)

  1.  管状体の内表面に存在する欠陥を検出する管状体内表面検査方法において、
     レーザ光を照射するレーザ光源、
     前記レーザ光源から照射されたレーザ光を前記管状体の内表面の周方向に環状のレーザ光として反射する光学素子、
     前記管状体の内表面の前記環状のレーザ光が照射された領域を撮像して、環状ビーム画像を生成するエリアカメラ、及び、
     前記レーザ光源と前記エリアカメラを連結して固定する連結部材を有する管状体撮像装置を用い、
     前記管状体撮像装置を、前記管状体の管軸方向に沿って移動させる移動ステップと、
     前記管状体撮像装置を前記移動装置で移動させ、前記管状体へ送入される状態から送出される状態へと切り替わる際に、前記連結部材の管軸に直交する面における位置が相違するように、前記管状体撮像装置を前記管状体の周方向に回転する回転ステップと、
     前記管状体撮像装置を前記管状体へ送入し送出する間に、前記エリアカメラの全視野のうち、前記環状のレーザ光が前記連結部材によって遮蔽されない領域であって、前記エリアカメラの全視野のうち、前記エリアカメラが備える撮像素子において当該撮像素子の各画素の電荷又は電圧に関する情報である画素情報が転送される方向である画素情報転送方向に対して直交する方向の端部にそれぞれに設定される端部領域に対応する部分を撮像することで、前記環状ビーム画像を複数生成する環状ビーム画像生成ステップと、
     前記管状体撮像装置を前記管状体へ送入し送出する間に、複数生成された前記環状ビーム画像に対して画像処理を行い、前記管状体の内表面に欠陥が存在するかを判断する演算処理ステップと、
    を有する、管状体内表面検査方法
  2.  前記環状ビーム画像は、前記管状体への送入時における前記環状ビーム画像と、前記管状体からの送出時における前記環状ビーム画像との間で、互いに一部重複する領域が存在する、請求項1に記載の管状体内表面検査方法。
  3.  前記演算処理ステップは、
     前記環状ビーム画像を用いて、前記環状のレーザ光の照射部分の重心位置と半径とを算出するステップと、
     前記重心位置並びに、前記重心位置及び前記環状のレーザ光の照射部分との離隔量に基づいて、前記環状ビーム画像の座標系を極座標変換し、極座標変換で得られた前記環状のレーザ光の照射部分に対応する線分である光切断線を含む光切断画像を生成するステップと、
     前記光切断画像を、前記管軸方向に沿って順に配列させた縞画像フレームに基づいて、前記管状体の内表面の凹凸状態を表す深さ画像と、前記管状体の内表面における前記環状のレーザ光の輝度分布を表す輝度画像とを算出するステップと、
     前記深さ画像及び前記輝度画像に基づいて、前記管状体の内表面に存在する欠陥を検出するステップと、
    を有する、請求項1又は2に記載の管状体内表面検査方法。
  4.  管状体の内表面に存在する欠陥を検出する管状体内表面検査装置において、
     レーザ光を照射するレーザ光源、
     前記レーザ光源から照射されたレーザ光を前記管状体の内表面の周方向に環状のレーザ光として反射する光学素子、
     前記管状体の内表面の前記環状のレーザ光が照射された領域を撮像して、環状ビーム画像を生成するエリアカメラ、及び、
     前記レーザ光源と前記エリアカメラを連結して固定する連結部材を有する管状体撮像装置と、
     前記管状体撮像装置を、前記管状体の管軸方向に沿って移動させる移動装置と、
     前記管状体撮像装置を前記移動装置で移動させ、前記管状体へ送入される状態から送出される状態へと切り替わる際に、前記連結部材の管軸に直交する面における位置が相違するように、前記管状体撮像装置を前記管状体の周方向に回転する回転装置と、
     前記管状体撮像装置を前記管状体へ送入し送出する間に、複数生成された前記環状ビーム画像に対して画像処理を行い、前記管状体の内表面に欠陥が存在するかを判断する演算処理装置と、
    を備え、
     前記エリアカメラは、前記管状体撮像装置を前記管状体へ送入し送出する間に、前記エリアカメラの全視野のうち、前記環状のレーザ光が前記連結部材によって遮蔽されない領域であって、前記エリアカメラの全視野のうち、前記エリアカメラが備える撮像素子において当該撮像素子の各画素の電荷又は電圧に関する情報である画素情報が転送される方向である画素情報転送方向に対して直交する方向の端部にそれぞれに設定される端部領域に対応する部分を撮像することで、前記環状ビーム画像を複数生成する、管状体内表面検査装置。
  5.  前記環状ビーム画像は、前記管状体への送入時における前記環状ビーム画像と、前記管状体からの送出時における前記環状ビーム画像との間で、互いに一部重複する領域が存在する、請求項4に記載の管状体内表面検査装置。
  6.  前記演算処理装置は、
     前記環状ビーム画像を用いて、前記環状のレーザ光の照射部分の重心位置と半径とを算出し、
     前記重心位置、並びに、前記重心位置及び前記環状のレーザ光の照射部分との離隔量に基づいて、前記環状ビーム画像の座標系を極座標変換し、極座標変換で得られた前記環状のレーザ光の照射部分に対応する線分である光切断線を含む光切断画像を生成し、
     前記光切断画像を、前記管軸方向に沿って順に配列させた縞画像フレームに基づいて、前記管状体の内表面の凹凸状態を表す深さ画像と、前記管状体の内表面における前記環状のレーザ光の輝度分布を表す輝度画像とを算出し、
     前記深さ画像及び前記輝度画像に基づいて、前記管状体の内表面に存在する欠陥を検出する、請求項4又は5に記載の管状体内表面検査装置。
     
     
PCT/JP2018/020956 2017-05-31 2018-05-31 管状体内表面検査方法及び管状体内表面検査装置 WO2018221653A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
EP18808761.3A EP3594668A4 (en) 2017-05-31 2018-05-31 TUBULAR BODY INTERNAL SURFACE INSPECTION PROCESS AND TUBULAR BODY INTERNAL SURFACE INSPECTION DEVICE
MX2019013510A MX2019013510A (es) 2017-05-31 2018-05-31 Metodo de inspeccion de superficie interior de cuerpo tubular y aparato de inspeccion de superficie interior de cuerpo tubular.
JP2018552088A JP6481216B1 (ja) 2017-05-31 2018-05-31 管状体内表面検査方法及び管状体内表面検査装置
CA3060434A CA3060434A1 (en) 2017-05-31 2018-05-31 Tubular body inner surface inspection method and tubular body inner surface inspection apparatus
US16/614,310 US20210156681A1 (en) 2017-05-31 2018-05-31 Tubular body inner surface inspection method and tubular body inner surface inspection apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017107967 2017-05-31
JP2017-107967 2017-05-31

Publications (1)

Publication Number Publication Date
WO2018221653A1 true WO2018221653A1 (ja) 2018-12-06

Family

ID=64455533

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/020956 WO2018221653A1 (ja) 2017-05-31 2018-05-31 管状体内表面検査方法及び管状体内表面検査装置

Country Status (7)

Country Link
US (1) US20210156681A1 (ja)
EP (1) EP3594668A4 (ja)
JP (1) JP6481216B1 (ja)
AR (1) AR111982A1 (ja)
CA (1) CA3060434A1 (ja)
MX (1) MX2019013510A (ja)
WO (1) WO2018221653A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IT201900006925A1 (it) * 2019-05-16 2020-11-16 Sica Spa Sistema di controllo della qualità di lavorazione di tubi in materiale termoplastico

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112051272A (zh) * 2020-10-10 2020-12-08 沈阳工业大学 一种基于机器视觉的高压气瓶内表面缺陷检测系统
CN115096213B (zh) * 2022-08-24 2022-11-15 中国石油大学(华东) 一种基于多棱锥反射镜的内螺纹双目检测方法
CN115790450B (zh) * 2023-02-07 2023-04-28 中国石油大学(华东) 基于双平面镜的油管接箍内螺纹参数检测系统及方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07140080A (ja) * 1993-11-19 1995-06-02 Nippon Steel Corp 表面疵検査装置
JP2000028335A (ja) * 1998-07-07 2000-01-28 Minolta Co Ltd 3次元入力装置
JP2007285891A (ja) 2006-04-17 2007-11-01 Toru Yoshizawa 内面形状の測定方法とこの方法による測定装置
JP2012159491A (ja) 2011-01-14 2012-08-23 Nippon Steel Corp 欠陥検出装置及び欠陥検出方法
JP2015163844A (ja) 2014-02-28 2015-09-10 株式会社日立製作所 内面形状計測方法および装置
US20160084644A1 (en) * 2014-09-24 2016-03-24 General Electric Company System and method of measuring geometric characteristics of object
JP2017053790A (ja) * 2015-09-11 2017-03-16 新日鐵住金株式会社 欠陥検出装置及び欠陥検出方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6417948B2 (ja) * 2015-01-13 2018-11-07 新日鐵住金株式会社 ドリフトゲージ及びドリフト検査方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07140080A (ja) * 1993-11-19 1995-06-02 Nippon Steel Corp 表面疵検査装置
JP2000028335A (ja) * 1998-07-07 2000-01-28 Minolta Co Ltd 3次元入力装置
JP2007285891A (ja) 2006-04-17 2007-11-01 Toru Yoshizawa 内面形状の測定方法とこの方法による測定装置
JP2012159491A (ja) 2011-01-14 2012-08-23 Nippon Steel Corp 欠陥検出装置及び欠陥検出方法
JP2015163844A (ja) 2014-02-28 2015-09-10 株式会社日立製作所 内面形状計測方法および装置
US20160084644A1 (en) * 2014-09-24 2016-03-24 General Electric Company System and method of measuring geometric characteristics of object
JP2017053790A (ja) * 2015-09-11 2017-03-16 新日鐵住金株式会社 欠陥検出装置及び欠陥検出方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3594668A4 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IT201900006925A1 (it) * 2019-05-16 2020-11-16 Sica Spa Sistema di controllo della qualità di lavorazione di tubi in materiale termoplastico
WO2020230075A1 (en) * 2019-05-16 2020-11-19 Sica S.P.A. Quality control system for the processing of thermoplastic pipes and tubes

Also Published As

Publication number Publication date
CA3060434A1 (en) 2018-12-06
EP3594668A1 (en) 2020-01-15
JP6481216B1 (ja) 2019-03-13
MX2019013510A (es) 2020-02-10
JPWO2018221653A1 (ja) 2019-06-27
AR111982A1 (es) 2019-09-11
EP3594668A4 (en) 2020-12-16
US20210156681A1 (en) 2021-05-27

Similar Documents

Publication Publication Date Title
JP5742655B2 (ja) 欠陥検出装置及び欠陥検出方法
JP6481216B1 (ja) 管状体内表面検査方法及び管状体内表面検査装置
JP2017053790A (ja) 欠陥検出装置及び欠陥検出方法
JP6696278B2 (ja) ドリフト検査装置
JP5025442B2 (ja) タイヤ形状検査方法とその装置
JP6481217B1 (ja) 管状体内表面検査装置及び管状体内表面検査方法
JP2015021758A (ja) 三次元画像処理装置、三次元画像処理方法及び三次元画像処理プログラム並びにコンピュータで読み取り可能な記録媒体及び記録した機器
JP2009180590A (ja) ディスク表面の欠陥検査方法及び欠陥検査装置
JP6417948B2 (ja) ドリフトゲージ及びドリフト検査方法
JP6958175B2 (ja) 管状体内表面検査装置及び管状体内表面検査方法
JP6683088B2 (ja) 表面性状検査装置、表面性状検査方法及びプログラム
JP2010133744A (ja) 欠陥検出方法およびその方法を用いた視覚検査装置
JP5796511B2 (ja) 管状体検査装置及び管状体検査方法
JP2004117053A (ja) 電縫溶接管のビード形状検出方法および検出装置
JP6647903B2 (ja) 画像検査装置、画像検査プログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器
CN108291857A (zh) 用于分析轮胎的设备和方法
KR20130031331A (ko) 유리병 검사장치
WO2019171474A1 (ja) 表面性状検査装置、表面性状検査方法及びプログラム
JP4563184B2 (ja) ムラ欠陥の検査方法および装置
JP2001012913A (ja) コイル位置検出装置
WO2020019348A1 (zh) 基于相干光的微细管内壁检测装置及方法
JPH05240620A (ja) 管の外径・肉厚測定装置
JP2001012918A (ja) コイル位置検出装置
JP2000329520A (ja) コイル位置検出装置
JP2017083343A (ja) 光コネクタのフェルール端面検査装置および検査用のプログラム

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2018552088

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18808761

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2018808761

Country of ref document: EP

Effective date: 20191011

Ref document number: 3060434

Country of ref document: CA

NENP Non-entry into the national phase

Ref country code: DE